JP4544342B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4544342B2
JP4544342B2 JP2008122463A JP2008122463A JP4544342B2 JP 4544342 B2 JP4544342 B2 JP 4544342B2 JP 2008122463 A JP2008122463 A JP 2008122463A JP 2008122463 A JP2008122463 A JP 2008122463A JP 4544342 B2 JP4544342 B2 JP 4544342B2
Authority
JP
Japan
Prior art keywords
image
edge
selection
images
edge image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008122463A
Other languages
Japanese (ja)
Other versions
JP2009271773A (en
Inventor
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008122463A priority Critical patent/JP4544342B2/en
Priority to US12/415,038 priority patent/US8379989B2/en
Publication of JP2009271773A publication Critical patent/JP2009271773A/en
Application granted granted Critical
Publication of JP4544342B2 publication Critical patent/JP4544342B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置に係り、特に、複数の画像の中から画像処理に用いるのに好適な画像を選択するための画像処理を行う画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that performs image processing for selecting an image suitable for use in image processing from a plurality of images.

従来、複数の画像から類似する画像を取り出すための画像処理装置が知られている(たとえば、特許文献1参照)。この画像処理装置は、入力した画像から特徴量を抽出し、この抽出した特徴量をキーとして、このキーに類似する特徴量を持つ画像を画像データベースの中から探索することによって、入力した画像に類似する画像を自動的に取り出すことができるというものである。
特公平7−107683号公報
Conventionally, an image processing apparatus for extracting a similar image from a plurality of images is known (see, for example, Patent Document 1). The image processing apparatus extracts a feature amount from the input image, and searches the image database for an image having a feature amount similar to the key, using the extracted feature amount as a key. A similar image can be automatically extracted.
Japanese Examined Patent Publication No. 7-107683

ところで、このような類似する複数の画像や共通する地点を含んで撮像して取得した複数の画像に対して画像処理を行う際に、これらの複数の画像の中から最も外乱の少ない画像を抽出し、この外乱の少ない画像に対して画像処理を施すことが行われることがある。ところが、上記特許文献1に開示された画像処理装置においては、類似する画像を取り出すことはできるものの、類似する複数の画像のうち、たとえば複数の異なる環境条件の下で、共通する地点を含んで撮像して取得した複数の画像の中から、外乱の影響が少ない画像を選択することはできないという問題があった。   By the way, when performing image processing on such a plurality of similar images or a plurality of images acquired by including a common point, an image with the least disturbance is extracted from the plurality of images. However, image processing may be performed on an image with less disturbance. However, although the image processing apparatus disclosed in Patent Document 1 can extract similar images, it includes a common point among a plurality of similar images, for example, under a plurality of different environmental conditions. There has been a problem that it is not possible to select an image that is less affected by disturbances from a plurality of images acquired by imaging.

そこで、本発明の課題は、共通する地点を含んで撮像して取得した複数の画像の中から、外乱の少ない画像を選択することができる画像処理装置を提供することにある。   Accordingly, an object of the present invention is to provide an image processing apparatus capable of selecting an image with less disturbance from a plurality of images acquired by capturing images including a common point.

上記課題を解決した本発明に係る画像処理装置は、複数の異なる環境条件の下で、共通する地点を含んで撮像して取得した複数の画像を入力する画像入力手段と、複数の画像を記憶する画像記憶手段と、複数の画像のそれぞれにおける環境条件によって付加された環境条件付加領域を抽出する環境条件付加領域抽出手段と、環境条件付加領域の面積に基づいて、付加環境条件基準選択画像を画像記憶手段に記憶された複数の画像の中から選択する付加環境条件基準選択画像選択手段と、を備えるものである。   An image processing apparatus according to the present invention that has solved the above-described problems is an image input unit that inputs a plurality of images captured and acquired including a common point under a plurality of different environmental conditions, and stores a plurality of images. An image storage means, an environmental condition addition area extraction means for extracting an environmental condition addition area added according to the environmental conditions in each of the plurality of images, and an additional environmental condition criterion selection image based on the area of the environmental condition addition area And additional environmental condition criterion selection image selection means for selecting from a plurality of images stored in the image storage means.

本発明に係る画像処理装置においては、複数の異なる環境条件の下で、共通する地点を含んで撮像して取得した複数の画像について、複数の画像のそれぞれにおける環境条件によって付加された環境条件付加領域を抽出している。そして、環境条件付加領域の面積に基づいて、付加環境条件基準選択画像を画像記憶手段に記憶された複数の画像の中から選択している。このため、共通する地点を含んで撮像して取得した複数の画像の中から、外乱の少ない画像を選択することができる。   In the image processing apparatus according to the present invention, for a plurality of images acquired by capturing images including a common point under a plurality of different environmental conditions, an environmental condition addition is added according to the environmental conditions in each of the plurality of images. The area is extracted. Based on the area of the environmental condition addition region, an additional environmental condition reference selection image is selected from a plurality of images stored in the image storage means. For this reason, an image with little disturbance can be selected from a plurality of images acquired by capturing images including a common point.

ここで、付加環境条件基準選択画像選択手段は、環境条件付加領域の面積が所定の面積より小さい環境負荷条件少量画像を画像記憶手段に記憶された複数の画像の中から選択する付加環境条件少量画像選択手段である態様とすることができる。あるいは、付加環境条件基準選択画像選択手段は、環境条件付加領域の面積が最も小さい画像を、画像記憶手段に記憶された複数の画像の中から、環境負荷条件最少画像として選択する付加環境条件最少画像選択手段である態様とすることができる。   Here, the additional environmental condition criterion selection image selection means selects the environmental load condition small amount image from the plurality of images stored in the image storage means in which the environmental condition addition region has an area smaller than a predetermined area. It can be set as the aspect which is an image selection means. Alternatively, the additional environmental condition criterion selection image selecting unit selects the image having the smallest area of the environmental condition additional region as a minimum environmental load condition image from the plurality of images stored in the image storage unit. It can be set as the aspect which is an image selection means.

このように、環境条件付加領域の面積が所定の面積より小さい環境負荷条件少量画像環や境条件付加領域の面積が最も小さい画像を用いることより、さらに外乱の少ない画像を選択することができる。   In this way, an image with less disturbance can be selected by using the environmental load condition small amount image ring in which the area of the environmental condition addition region is smaller than the predetermined area or the image having the smallest area of the boundary condition addition region.

ここで、環境条件付加領域抽出手段は、複数の画像に対して統計的処理を施すことによって環境条件付加領域を抽出する態様とすることができる。   Here, the environmental condition addition region extracting means may be configured to extract the environmental condition addition region by performing statistical processing on a plurality of images.

このように統計的処理によって環境条件付加領域を抽出することにより、環境条件付加領域を容易かつ精度よく抽出することができる。   Thus, by extracting the environmental condition addition region by statistical processing, the environmental condition addition region can be extracted easily and accurately.

また、環境条件付加領域抽出手段は、複数の画像のそれぞれをエッジ画像に変換するエッジ画像変換手段と、エッジ画像変換手段で変換された複数のエッジ画像を記憶するエッジ画像記憶手段と、複数のエッジ画像中の所定領域内におけるエッジ出現回数を計測するエッジ出現回数計測手段と、所定領域のうち、エッジ出現回数が所定のしきい値以上となった所定領域であるエッジ頻出領域を抽出するエッジ頻出領域抽出手段と、エッジ頻出領域を記憶するエッジ頻出領域記憶手段と、を備え、付加環境条件基準選択画像選択手段は、複数のエッジ画像における各エッジ頻出領域に基づいて高頻度エッジ画像を生成する高頻度エッジ画像生成部と、高頻度エッジ画像との近似度合に基づいて、エッジ画像記憶手段に記憶された複数のエッジ画像の中から、近似度合基準エッジ画像を抽出する近似度合基準エッジ画像抽出部と、を備え、付加環境条件最少画像選択手段は、付加環境条件基準選択画像として、近似度合基準エッジ画像に対応する画像をエッジ画像記憶手段に記憶された複数のエッジ画像の中から選択する態様とすることができる。 The environmental condition addition region extracting means includes an edge image converting means for converting each of the plurality of images into an edge image, an edge image storing means for storing the plurality of edge images converted by the edge image converting means, Edge appearance frequency measuring means for measuring the number of edge appearances in a predetermined area in an edge image, and an edge for extracting an edge frequent appearance area that is a predetermined area in which the edge appearance frequency is equal to or greater than a predetermined threshold among the predetermined areas The frequent environment extraction means and the edge frequent area storage means for storing the edge frequent area are provided, and the additional environment condition criterion selection image selection means generates a high-frequency edge image based on each edge frequent area in a plurality of edge images. high frequency and edge image generation unit, based on the approximate degree of the high frequency edge image, a plurality of edge images that are stored in the edge image storage means for From among, and a approximate degree reference edge image extraction unit that extracts an approximate degree reference edge image, the additional environmental conditions minimal image selecting means as an additional environmental condition criteria selected image, an image corresponding to an approximate degree reference edge image Can be selected from a plurality of edge images stored in the edge image storage means .

本発明に係る画像処理装置では、複数のエッジ画像におけるエッジ頻出領域に基づいて高頻度エッジ画像を生成し、この高頻度エッジ画像との近似度合に基づいて近似度合基準エッジ画像を抽出する。また、付加環境条件基準選択画像として、近時度合基準選択エッジ画像に対応する画像を画像記憶手段に記憶された複数の画像の中から選択する。このため、エッジ頻出領域が占める割合が高い画像を付加環境条件基準選択画像として選択することができる。したがって、共通する地点を含んで撮像して取得した複数の画像における付加環境条件以外のノイズの影響を低減することができ、外乱の少ない画像を選択することができる。   In the image processing apparatus according to the present invention, a high-frequency edge image is generated based on an edge frequent region in a plurality of edge images, and an approximation degree reference edge image is extracted based on the degree of approximation with the high-frequency edge image. Further, an image corresponding to the recent degree reference selection edge image is selected from the plurality of images stored in the image storage means as the additional environment condition reference selection image. For this reason, it is possible to select an image having a high ratio of the edge frequent appearance region as the additional environment condition criterion selection image. Therefore, it is possible to reduce the influence of noise other than the additional environmental conditions in a plurality of images captured and acquired including a common point, and select an image with less disturbance.

ここで、近似度合基準エッジ画像抽出部は、近似度合基準選択エッジ画像として、高頻度エッジ画像との近似度合が所定のしきい値以上となるエッジ画像である高近似エッジ画像を抽出する態様とすることができる。あるいは、近似度合基準エッジ画像抽出部は、近似度合基準選択エッジ画像として、高頻度エッジ画像と最も近似するエッジ画像である近似エッジ画像を抽出する態様とすることができる。   Here, the approximation degree reference edge image extraction unit extracts, as the approximation degree reference selection edge image, a high approximation edge image that is an edge image whose approximation degree with the high-frequency edge image is a predetermined threshold value or more. can do. Alternatively, the approximate degree reference edge image extraction unit can extract an approximate edge image that is an edge image that is closest to the high-frequency edge image as the approximate degree reference selection edge image.

このように、近似度合基準選択エッジ画像として、高頻度エッジ画像との近似度合が所定のしきい値以上となるエッジ画像である高近似エッジ画像や高頻度エッジ画像と最も近似するエッジ画像である近似エッジ画像を用いることより、さらに外乱の少ない画像を選択することができる。   As described above, the approximation degree reference selection edge image is an edge image that approximates a high-frequency edge image or a high-frequency edge image that is an edge image whose approximation degree with a high-frequency edge image is a predetermined threshold value or more. By using the approximate edge image, an image with less disturbance can be selected.

さらに、環境条件付加領域抽出手段は、複数の画像のそれぞれをエッジ画像に変換するエッジ画像変換手段と、各エッジ画像における所定領域についてのそれぞれのエッジ量を算出するエッジ量算出手段と、を備え、付加環境条件基準選択画像選択手段は、エッジ画像中における所定領域のエッジ量占有度合に基づいて、エッジ量占有度合基準選択エッジ画像を選択するエッジ量占有度合基準選択エッジ画像選択手段と、付加環境条件基準選択画像として、エッジ量占有度合基準選択エッジ画像に対応する画像を画像記憶手段に記憶された複数の画像の中から選択するエッジ量占有度合基準選択画像選択手段と、を備える態様とすることができる。   Furthermore, the environmental condition addition region extraction unit includes an edge image conversion unit that converts each of the plurality of images into an edge image, and an edge amount calculation unit that calculates each edge amount for a predetermined region in each edge image. The additional environmental condition criterion selection image selection means includes an edge amount occupation degree reference selection edge image selection means for selecting an edge amount occupation degree reference selection edge image based on the edge amount occupation degree of a predetermined area in the edge image, and an addition An aspect comprising: an edge amount occupation degree reference selection image selection means for selecting an image corresponding to the edge amount occupation degree reference selection edge image from a plurality of images stored in the image storage means as the environmental condition reference selection image; can do.

このように、エッジ画像中における所定領域のエッジ量占有度合に基づいて、エッジ量占有度合基準選択エッジ画像を選択し、エッジ量占有度合基準選択エッジ画像に対応する画像を画像記憶手段に記憶された複数の画像の中から選択することにより、付加環境条件の変動を受けてない場所を精度よく検出することができる。その結果、共通する地点を含んで撮像して取得した複数の画像の中から、外乱の少ない画像を精度よく選択することができる。   Thus, based on the edge amount occupation degree of the predetermined region in the edge image, the edge amount occupation degree reference selection edge image is selected, and the image corresponding to the edge amount occupation degree reference selection edge image is stored in the image storage means. By selecting from a plurality of images, it is possible to accurately detect a place that is not subject to fluctuations in the additional environmental conditions. As a result, an image with less disturbance can be selected with high accuracy from a plurality of images captured and acquired including a common point.

ここで、エッジ量占有度合基準選択エッジ画像は、エッジ量占有度合基準選択エッジ画像として、エッジ画像中における所定領域のエッジ量が所定の占有度合以下となるエッジ量少量エッジ画像を選択する態様とすることができる。あるいは、エッジ量占有度合基準選択エッジ画像選択手段は、エッジ量占有度合基準選択エッジ画像として、エッジ画像中における所定領域のエッジ量が最少となるエッジ量最少エッジ画像を選択する態様とすることができる。   Here, the edge amount occupation degree reference selection edge image is an edge amount occupation degree reference selection edge image in which an edge amount small edge image in which the edge amount of a predetermined region in the edge image is equal to or less than a predetermined occupation degree is selected. can do. Alternatively, the edge amount occupation degree reference selection edge image selection unit may select an edge image with a minimum edge amount that minimizes the edge amount of a predetermined region in the edge image as the edge amount occupation degree reference selection edge image. it can.

このように、エッジ量占有度合基準選択エッジ画像として、エッジ画像中における所定領域のエッジ量が所定の占有度合以下となるエッジ量少量エッジ画像やエッジ画像中における所定領域のエッジ量が最少となるエッジ量最少エッジ画像を用いることより、さらに外乱の少ない画像を選択することができる。   As described above, as the edge amount occupation degree reference selection edge image, the edge amount of the predetermined area in the edge image is equal to or less than the predetermined occupation degree, and the edge amount of the predetermined area in the edge image is minimized. By using the edge image with the smallest edge amount, an image with less disturbance can be selected.

本発明に係る画像処理装置によれば、共通する地点を含んで撮像して取得した複数の画像の中から、外乱の少ない画像を選択することができる。   According to the image processing device of the present invention, an image with less disturbance can be selected from a plurality of images captured and acquired including a common point.

以下、添付図面を参照して本発明の実施形態について説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図示の便宜上、図面の寸法比率は説明のものと必ずしも一致しない。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted. For the convenience of illustration, the dimensional ratios in the drawings do not necessarily match those described.

図1は本発明の第1の実施形態に係る画像処理装置のブロック構成図である。図1に示すように、本実施形態に係る画像処理装置1は、画像データベース11、統計処理部12、および代表画像選択部13を備えている。また、画像処理装置1には、撮像装置10が接続されている。撮像装置10は、たとえば屋外の定点に固定されており、同一箇所の撮像を行っている。撮像装置10は、撮像した画像を画像処理装置1に送信している。   FIG. 1 is a block diagram of an image processing apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the image processing apparatus 1 according to the present embodiment includes an image database 11, a statistical processing unit 12, and a representative image selection unit 13. Further, the image processing apparatus 1 is connected with an imaging apparatus 10. The imaging device 10 is fixed, for example, at a fixed point outdoors, and performs imaging of the same location. The imaging device 10 transmits the captured image to the image processing device 1.

画像処理装置1は、演算処理を行うCPU、記憶部となるROMおよびRAM、入力信号回路、出力信号回路、電源回路などにより構成されている。画像処理装置1は、撮像装置10から送信された画像を画像データベース11に記憶している。撮像装置10からは、一定時間ごとに背景画像が送信されており、画像データベース11には、同一箇所を撮像した複数の背景画像が記憶されている。また、画像データベース11には、統計処理部12が接続されている。   The image processing apparatus 1 includes a CPU that performs arithmetic processing, a ROM and a RAM that are storage units, an input signal circuit, an output signal circuit, a power supply circuit, and the like. The image processing device 1 stores the image transmitted from the imaging device 10 in the image database 11. Background images are transmitted from the imaging device 10 at regular intervals, and the image database 11 stores a plurality of background images obtained by imaging the same location. A statistical processing unit 12 is connected to the image database 11.

統計処理部12は、画像データベース11に記憶されている複数の背景画像を読み出す。この複数の背景画像に対して統計処理を施す。統計処理部12は、統計処理結果に関する統計処理情報を代表画像選択部13に出力する。代表画像選択部13は、統計処理部12から出力される統計処理結果に基づいて、画像データベース11に記憶されている複数の背景画像の中から、代表画像を選択する。   The statistical processing unit 12 reads a plurality of background images stored in the image database 11. Statistical processing is performed on the plurality of background images. The statistical processing unit 12 outputs statistical processing information related to the statistical processing result to the representative image selection unit 13. The representative image selection unit 13 selects a representative image from a plurality of background images stored in the image database 11 based on the statistical processing result output from the statistical processing unit 12.

次に、本実施形態に係る画像処理装置における処理手順について説明する。本実施形態に係る画像処理装置1では、複数の異なる環境条件の下で、共通する地点を含んで撮像して取得した複数の画像の中から、後の画像処理に適した画像を選択する作業を行う。後の画像処理に適した画像としては、画像中における環境条件の影響が最も小さい画像と考えられる。   Next, a processing procedure in the image processing apparatus according to the present embodiment will be described. In the image processing apparatus 1 according to the present embodiment, an operation of selecting an image suitable for subsequent image processing from a plurality of images captured and acquired including a common spot under a plurality of different environmental conditions. I do. As an image suitable for subsequent image processing, it is considered that the image has the smallest influence of environmental conditions in the image.

いま、撮像装置10は、同一地点を撮像している。この同一地点を撮像した画像では、背景は同一であるものの、時間帯、天候、照明等の環境条件が異なってくる。このため、画像処理装置1には異なる環境条件の下で撮像した複数の画像が送信される。画像処理装置1では、この異なる環境条件の下で撮像した複数の画像の中から、後の画像処理に適した画像を選択する処理を行う。   Now, the imaging device 10 is imaging the same point. In the images taken at the same point, the background is the same, but the environmental conditions such as time zone, weather, and lighting are different. Therefore, a plurality of images captured under different environmental conditions are transmitted to the image processing apparatus 1. The image processing apparatus 1 performs processing for selecting an image suitable for subsequent image processing from a plurality of images captured under the different environmental conditions.

図2は、本実施形態に係る画像処理装置における処理の手順を示すフローチャートである。図2に示すように、画像処理装置1においては、まず、撮像装置10から送信される背景画像を取得し(S1)、画像データベース11に記憶する(S2)。ここで、画像データベース11には、撮像装置10から過去に送信された背景画像についても記憶されている。このため、画像データベース11には複数の異なる環境条件の下で、共通する地点を含んで撮像して取得した複数の背景画像が記憶されている。   FIG. 2 is a flowchart showing a processing procedure in the image processing apparatus according to the present embodiment. As shown in FIG. 2, in the image processing apparatus 1, first, a background image transmitted from the imaging apparatus 10 is acquired (S1) and stored in the image database 11 (S2). Here, the image database 11 also stores background images transmitted from the imaging device 10 in the past. For this reason, the image database 11 stores a plurality of background images acquired by capturing images including a common spot under a plurality of different environmental conditions.

次に、統計処理部12において、画像データベース11に記憶されている複数の画像を読み出す(S3)。ここで、統計処理部12によって読み出される画像は、たとえば100枚とされる。もちろん、適宜の数の画像を読み出すことができる。   Next, the statistical processing unit 12 reads a plurality of images stored in the image database 11 (S3). Here, for example, 100 images are read out by the statistical processing unit 12. Of course, an appropriate number of images can be read out.

統計処理部12では、複数の画像を読み出したら、読み出した複数の画像に対する統計処理を行う(S4)。ここでの統計処理は、たとえば以下の手順で行われる。まず、背景画像における各画素において、その画素の輝度を求める。次に、背景画像における画素の平均輝度を求める。続いて、各画素における輝度が、平均輝度から所定値以上離れているか否かによって画素を振り分ける。   When the statistical processing unit 12 reads a plurality of images, the statistical processing unit 12 performs statistical processing on the read plurality of images (S4). The statistical processing here is performed by the following procedure, for example. First, for each pixel in the background image, the luminance of that pixel is obtained. Next, the average luminance of the pixels in the background image is obtained. Subsequently, the pixels are sorted depending on whether or not the luminance at each pixel is a predetermined value or more away from the average luminance.

それから、全画素の中から、輝度が平均輝度から所定値以上離れている画素の集合を抽出する。輝度が所定値以上となっている画素の集合が環境条件付加領域となる。続いて、抽出した画素の集合について、全画素中における分散を求める。その後、この輝度が平均輝度から所定値以上離れている画素の集合の全画素中における分散を複数の背景画像のそれぞれについて求める。   Then, a set of pixels whose luminance is a predetermined value or more away from the average luminance is extracted from all the pixels. A set of pixels whose luminance is equal to or higher than a predetermined value is an environmental condition addition region. Subsequently, with respect to the set of extracted pixels, the variance in all the pixels is obtained. Thereafter, the variance among all the pixels of the set of pixels whose luminance is separated from the average luminance by a predetermined value or more is obtained for each of the plurality of background images.

そして、複数の背景画像の中から、求められた分散が最も小さい背景画像を求める。輝度が平均輝度から所定値以上離れている画素の集合の全画素中における分散が最も小さい背景画像が、画像中における環境条件が最も小さい画像であると考えられる。統計処理部12では、この統計処理結果を代表画像選択部13に出力する。   Then, a background image having the smallest obtained variance is obtained from the plurality of background images. It is considered that the background image having the smallest variance among all the pixels of the set of pixels whose luminance is separated from the average luminance by a predetermined value or more is the image having the smallest environmental condition in the image. The statistical processing unit 12 outputs the statistical processing result to the representative image selection unit 13.

代表画像選択部13では、統計処理部12から出力された統計処理結果に基づいて、画像データベース11に記憶された背景画像の中から代表画像を選択する(S5)。代表画像選択部13では、統計処理部12から出力された統計処理の結果、輝度が所定値以上となっている画素の集合の全画素中における分散が最も小さい背景画像を代表画像として選択する。こうして、画像処理を終了する。   The representative image selection unit 13 selects a representative image from the background images stored in the image database 11 based on the statistical processing result output from the statistical processing unit 12 (S5). The representative image selection unit 13 selects, as a representative image, a background image having the smallest variance among all the pixels in the set of pixels whose luminance is equal to or greater than a predetermined value as a result of the statistical processing output from the statistical processing unit 12. Thus, the image processing ends.

このように、本実施形態に係る画像処理装置1においては、複数の背景画像の中から、輝度が平均輝度から所定値以上離れている画素の集合の全画素中における分散が最も小さい背景画像を選択している。輝度が平均輝度から所定値以上離れている画素の集合の全画素中における分散が最も小さい背景画像は、環境条件の影響が最も少ない背景画像であると考えられる。このため、同一地点を撮像した複数の画像の中から、最も外乱の少ない画像を選択することができる。また、本実施形態に係る画像処理装置1では、背景画像を選択するにあたり、背景画像に統計処理を施して環境条件付加領域を抽出している。このため、環境条件付加領域を容易かつ精度よく抽出することができる。   As described above, in the image processing apparatus 1 according to the present embodiment, a background image having the smallest variance among all the pixels in a set of pixels whose luminance is a predetermined value or more away from the average luminance is selected from a plurality of background images. Selected. A background image having the smallest variance among all the pixels in a set of pixels whose luminance is more than a predetermined value away from the average luminance is considered to be a background image having the least influence of environmental conditions. For this reason, an image with the least disturbance can be selected from a plurality of images obtained by imaging the same spot. In the image processing apparatus 1 according to the present embodiment, when selecting a background image, the background image is subjected to statistical processing to extract an environmental condition addition region. For this reason, it is possible to easily and accurately extract the environmental condition addition region.

次に、本発明の第2の実施形態について説明する。図3は、第2の実施形態に係る画像処理装置のブロック構成図である。図3に示すように、本実施形態に係る画像処理装置2は、画像データベース21、エッジ画像変換部22、エッジ画像記憶部23、エッジ出現回数計数部24を備えている。また、画像処理装置2は、エッジ頻出領域抽出部25、高頻度エッジ画像生成部26、近似エッジ画像選択部27、および代表画像選択部28を備えている。さらに、画像処理装置2には、撮像装置10が接続されている。   Next, a second embodiment of the present invention will be described. FIG. 3 is a block diagram of an image processing apparatus according to the second embodiment. As shown in FIG. 3, the image processing apparatus 2 according to the present embodiment includes an image database 21, an edge image conversion unit 22, an edge image storage unit 23, and an edge appearance number counting unit 24. In addition, the image processing apparatus 2 includes an edge frequent area extraction unit 25, a high-frequency edge image generation unit 26, an approximate edge image selection unit 27, and a representative image selection unit 28. Furthermore, the imaging device 10 is connected to the image processing device 2.

画像処理装置2は、撮像装置10から送信された背景画像を画像データベース21に複数記憶している。エッジ画像変換部22は、画像データベース21に記憶された背景画像にエッジ処理を施し、エッジ画像を生成する。エッジ画像変換部22は、生成したエッジ画像をエッジ画像記憶部23に記憶させる。エッジ画像記憶部23には、エッジ画像変換部22で生成されたエッジ画像が複数記憶されている。   The image processing device 2 stores a plurality of background images transmitted from the imaging device 10 in the image database 21. The edge image conversion unit 22 performs edge processing on the background image stored in the image database 21 to generate an edge image. The edge image conversion unit 22 stores the generated edge image in the edge image storage unit 23. The edge image storage unit 23 stores a plurality of edge images generated by the edge image conversion unit 22.

エッジ出現回数計数部24は、エッジ画像記憶部23に記憶された複数のエッジ画像について、対象画素のエッジ出現回数を計測している。エッジ出現回数計数部24は、計測したエッジ出現回数をエッジ頻出領域抽出部25に出力する。   The edge appearance number counting unit 24 measures the number of edge appearances of the target pixel for a plurality of edge images stored in the edge image storage unit 23. The edge appearance count counting unit 24 outputs the measured edge appearance count to the edge frequent appearance region extraction unit 25.

エッジ頻出領域抽出部25は、エッジ出現回数計数部24から出力されたエッジ出現回数に基づいて、エッジ画像におけるエッジが頻出する領域を抽出する。エッジ頻出領域抽出部25は、抽出したエッジ頻出領域を高頻度エッジ画像生成部26に出力する。   The edge frequent appearance area extraction unit 25 extracts an area where edges frequently appear in the edge image based on the number of edge appearances output from the edge appearance number counting part 24. The frequent edge region extraction unit 25 outputs the extracted frequent edge region to the high frequency edge image generation unit 26.

高頻度エッジ画像生成部26は、エッジ頻出領域抽出部25から出力されたエッジ頻出領域に基づいて、高頻度エッジ画像を生成する。高頻度エッジ画像生成部26は、生成した高頻度エッジ画像を近似エッジ画像選択部27に出力する。   The high frequency edge image generation unit 26 generates a high frequency edge image based on the frequent edge region output from the frequent edge region extraction unit 25. The high-frequency edge image generation unit 26 outputs the generated high-frequency edge image to the approximate edge image selection unit 27.

近似エッジ画像選択部27は、高頻度エッジ画像生成部26から出力された高頻度エッジ画像に基づいて、エッジ画像記憶部23に記憶されたエッジ画像の中から、高頻度エッジ画像に最も近似する近似エッジ画像を選択する。近似エッジ画像選択部27は、選択した近似エッジ画像を代表画像選択部28に出力する。   Based on the high-frequency edge image output from the high-frequency edge image generation unit 26, the approximate edge image selection unit 27 most closely approximates the high-frequency edge image from the edge images stored in the edge image storage unit 23. Select an approximate edge image. The approximate edge image selection unit 27 outputs the selected approximate edge image to the representative image selection unit 28.

代表画像選択部28は、近似エッジ画像選択部27から出力された近似エッジ画像に基づいて、画像データベース21に記憶された背景画像の中から、近似エッジ画像に対応する背景画像を代表画像として選択する。   Based on the approximate edge image output from the approximate edge image selection unit 27, the representative image selection unit 28 selects a background image corresponding to the approximate edge image from the background images stored in the image database 21 as the representative image. To do.

次に、本実施形態に係る画像処理装置における処理手順について説明する。本実施形態に係る画像処理装置2では、上記第1の実施形態に係る画像処理装置1と同様、複数の異なる環境条件の下で、共通する地点を含んで撮像して取得した複数の画像の中から、後の画像処理に適した画像を選択する作業を行う。   Next, a processing procedure in the image processing apparatus according to the present embodiment will be described. In the image processing apparatus 2 according to the present embodiment, similar to the image processing apparatus 1 according to the first embodiment, a plurality of images captured and acquired including a common spot under a plurality of different environmental conditions. An operation for selecting an image suitable for later image processing is performed.

図4は、本実施形態に係る画像処理装置における処理の手順を示すフローチャートである。図4に示すように、画像処理装置2においては、まず、撮像装置10から送信される背景画像を取得し(S11)、画像データベース21に記憶する(S12)。次に、エッジ画像変換部22において、画像データベース21に記憶されている複数の背景画像を読み出し(S13)、各背景画像をエッジ画像に変換する(S14)。   FIG. 4 is a flowchart showing a processing procedure in the image processing apparatus according to the present embodiment. As shown in FIG. 4, in the image processing apparatus 2, first, a background image transmitted from the imaging apparatus 10 is acquired (S11) and stored in the image database 21 (S12). Next, the edge image conversion unit 22 reads a plurality of background images stored in the image database 21 (S13), and converts each background image into an edge image (S14).

背景画像をエッジ画像に変換する際には、公知のエッジ画像生成手段を用いることができる。具体的には、sobelフィルタでエッジ強度を画素ごとに算出する。ここで、エッジの有無を判定するためのしきい値をあらかじめ設定しておき、エッジ強度がこのしきい値を超える画素については、画素値を1とし、エッジ強度がしきい値以下である画素については画素値を0としたエッジ画像を生成する。   When converting a background image into an edge image, a known edge image generation means can be used. Specifically, the edge strength is calculated for each pixel using a sobel filter. Here, a threshold value for determining the presence / absence of an edge is set in advance, and for a pixel whose edge strength exceeds this threshold value, the pixel value is 1, and the edge strength is equal to or less than the threshold value. For, an edge image with a pixel value of 0 is generated.

エッジ画像を生成したら、エッジ出現回数計数部24において、エッジ出現回数を計数する(S15)。エッジ出現回数の計数では、複数のエッジ画像中の同一箇所に対応する画素の画素値が1であるか0であるかを判定し、画素値が1である場合にエッジが出現したとしてエッジ出現回数として計数する。こうして、複数のエッジ画像において、同一箇所に位置する画素におけるエッジ出現回数を計数する。   When the edge image is generated, the edge appearance number counting unit 24 counts the number of edge appearances (S15). In counting the number of edge appearances, it is determined whether the pixel value of a pixel corresponding to the same location in a plurality of edge images is 1 or 0. If the pixel value is 1, an edge appears as if an edge appeared. Count as a count. Thus, in a plurality of edge images, the number of edge appearances at pixels located at the same location is counted.

エッジ出現回数計数部24において、同一箇所の画素のエッジ出現回数を計数したら、エッジ頻出領域抽出部25においてエッジ頻出領域を抽出する(S16)。エッジ頻出領域抽出部25では、各画素におけるエッジ出現回数について、エッジ頻出領域であると判定するためのしきい値を記憶している。エッジ頻出領域抽出部25では、エッジ出現回数計数部24から出力される各画素のエッジ出現回数と、記憶しているしきい値とを比較し、エッジ出現回数がしきい値を超える画素をエッジ画素として検出する。エッジ頻出領域抽出部25では、検出したエッジ画素の集合をエッジ頻出領域として抽出する。   When the edge appearance count counting unit 24 counts the number of edge appearances of the pixel at the same location, the edge frequent appearance region extraction unit 25 extracts the edge frequent appearance region (S16). The frequent edge region extraction unit 25 stores a threshold value for determining the number of edge appearances in each pixel as a frequent edge region. The edge frequent appearance area extraction unit 25 compares the number of edge appearances of each pixel output from the edge appearance number counting unit 24 with the stored threshold value, and determines whether the edge appearance frequency exceeds the threshold value. It detects as a pixel. The frequent edge region extraction unit 25 extracts a set of detected edge pixels as a frequent edge region.

続いて、高頻度エッジ画像生成部26において、高頻度エッジ画像を生成する(S17)。高頻度エッジ画像生成部26では、エッジ頻出領域抽出部25から出力されたエッジ画素の集合による高頻度エッジ画像を生成する。   Subsequently, the high-frequency edge image generation unit 26 generates a high-frequency edge image (S17). The high-frequency edge image generation unit 26 generates a high-frequency edge image based on a set of edge pixels output from the frequent edge region extraction unit 25.

高頻度エッジ画像を生成したら、近似エッジ画像選択部27において、エッジ画像記憶部23に記憶された複数のエッジ画像の中から、高頻度エッジ画像に最も近似する近似エッジ画像を選択する(S18)。近似エッジ画像を選択する際には、エッジ画像記憶部23に記憶された複数のエッジ画像のそれぞれと、高頻度エッジ画像生成部26から出力された高頻度エッジ画像とを比較する。この比較の際には、高頻度エッジ画像中におけるエッジ画素以外の非エッジ画素に対応する画素がエッジ画素となっている数を計数する。そして、高頻度エッジ画像中における非エッジ画素に対応する画素がエッジ画素となっている数が最も少ないエッジ画像を、高頻度エッジ画像との一致度が最も高い近似エッジ画像として選択する。   When the high-frequency edge image is generated, the approximate edge image selection unit 27 selects an approximate edge image that most closely approximates the high-frequency edge image from the plurality of edge images stored in the edge image storage unit 23 (S18). . When selecting an approximate edge image, each of the plurality of edge images stored in the edge image storage unit 23 is compared with the high-frequency edge image output from the high-frequency edge image generation unit 26. In this comparison, the number of pixels corresponding to non-edge pixels other than edge pixels in the high-frequency edge image is counted. Then, the edge image having the smallest number of edge pixels corresponding to the non-edge pixels in the high-frequency edge image is selected as the approximate edge image having the highest degree of coincidence with the high-frequency edge image.

近似エッジ画像を選択したら、代表画像選択部28において、代表画像を選択する(S19)。代表画像を選択する際には、画像データベース21に記憶された複数の背景画像のうち、近似エッジ画像を生成する際に用いられた背景画像を代表画像として選択する。こうして、画像処理装置2における処理を終了する。   When the approximate edge image is selected, the representative image selection unit 28 selects a representative image (S19). When selecting the representative image, the background image used when generating the approximate edge image among the plurality of background images stored in the image database 21 is selected as the representative image. Thus, the processing in the image processing apparatus 2 is finished.

本実施形態に係る画像処理装置2の処理手順について、複数の背景画像が2つである場合を例にとって図5を参照して簡略的に説明すると、図5(a)に示すように、第1背景画像G1および第2背景画像G2に対してそれぞれエッジ処理を施して、図5(b)に示す第1エッジ画像E1および第2エッジ画像E2をそれぞれ生成する。このエッジ画像E1,E2から、図5(c)に示す高頻度エッジ画像EMを生成する。この高頻度エッジ画像EMと、エッジ画像E1,E2とをそれぞれ比較して近似エッジ画像を選択する。この例では、第2エッジ画像E2の方が、第1エッジ画像E1よりも、高頻度エッジ画像中における非エッジ画素に対応する画素がエッジ画素である数が少なくなっている。このため、第2エッジ画像E2が近似エッジ画像として選択される。それから、図5(d)に示すように、第2エッジ画像E2に対応する第2背景画像G2を代表画像として選択する。   The processing procedure of the image processing apparatus 2 according to the present embodiment will be briefly described with reference to FIG. 5 by taking as an example the case where there are two background images. As shown in FIG. Edge processing is performed on each of the first background image G1 and the second background image G2 to generate a first edge image E1 and a second edge image E2 shown in FIG. A high-frequency edge image EM shown in FIG. 5C is generated from the edge images E1 and E2. The high-frequency edge image EM and the edge images E1 and E2 are respectively compared to select an approximate edge image. In this example, the number of pixels corresponding to non-edge pixels in the high-frequency edge image is smaller in the second edge image E2 than in the first edge image E1. Therefore, the second edge image E2 is selected as the approximate edge image. Then, as shown in FIG. 5D, the second background image G2 corresponding to the second edge image E2 is selected as a representative image.

このように、本実施形態に係る画像処理装置2においては、上記第1の実施形態に示す作用効果を奏するほか、背景画像から生成した複数のエッジ画像について、エッジ出現回数が多い画素であるエッジ画素以外の非エッジ画素におけるエッジの出現割合が最も低いエッジ画像に対応する背景画像を選択している。このため、エッジ画素が占める割合が高い画像を選択することができるので、付加環境条件以外のノイズの影響を低減することができ、複数の背景画像の中から、最も外乱の少ない画像を選択することができる。   As described above, in the image processing apparatus 2 according to the present embodiment, in addition to the effects shown in the first embodiment, an edge that is a pixel having a large number of edge appearances in a plurality of edge images generated from the background image. The background image corresponding to the edge image having the lowest edge appearance rate in the non-edge pixels other than the pixels is selected. For this reason, since an image having a high ratio of edge pixels can be selected, the influence of noise other than the additional environmental conditions can be reduced, and an image with the least disturbance is selected from a plurality of background images. be able to.

続いて、本発明の第3の実施形態について説明する。図6は、第3の実施形態に係る画像処理装置のブロック構成図である。図6に示すように、本実施形態に係る画像処理装置
3は、画像データベース31、エッジ検出領域設定部32、エッジ画像変換部33、エッジ画像記憶部34、領域内エッジ量取得部35を備えている。また、画像処理装置3は、最少エッジ量部分画像選定部36、および代表画像選択部37を備えている。さらに、画像処理装置3には、撮像装置10が接続されている。
Subsequently, a third embodiment of the present invention will be described. FIG. 6 is a block diagram of an image processing apparatus according to the third embodiment. As shown in FIG. 6, the image processing apparatus 3 according to the present embodiment includes an image database 31, an edge detection region setting unit 32, an edge image conversion unit 33, an edge image storage unit 34, and an in-region edge amount acquisition unit 35. ing. Further, the image processing device 3 includes a minimum edge amount partial image selection unit 36 and a representative image selection unit 37. Further, an imaging device 10 is connected to the image processing device 3.

画像処理装置3は、撮像装置10から送信された背景画像を画像データベース31に複数記憶している。エッジ検出領域設定部32は、画像データベース31に記憶された複数の背景画像のそれぞれにおける所定の部分領域を設定する。ここで設定する部分領域は、適宜決定することができ、特定の位置周辺とすることもできるし、背景画像全体とすることもできる。   The image processing device 3 stores a plurality of background images transmitted from the imaging device 10 in the image database 31. The edge detection area setting unit 32 sets a predetermined partial area in each of a plurality of background images stored in the image database 31. The partial region set here can be determined as appropriate, and can be around a specific position, or can be the entire background image.

エッジ画像変換部33は、画像データベース21に記憶された背景画像におけるエッジ検出領域設定部32で設定された部分領域にエッジ処理を施し、部分エッジ画像を生成する。エッジ画像変換部33は、生成した部分エッジ画像をエッジ画像記憶部34に記憶させる。エッジ画像記憶部34には、エッジ画像変換部33で生成された部分エッジ画像が複数記憶されている。   The edge image conversion unit 33 performs edge processing on the partial region set by the edge detection region setting unit 32 in the background image stored in the image database 21 to generate a partial edge image. The edge image conversion unit 33 stores the generated partial edge image in the edge image storage unit 34. The edge image storage unit 34 stores a plurality of partial edge images generated by the edge image conversion unit 33.

領域内エッジ量取得部35は、背景画像における部分領域から生成され、エッジ画像記憶部34に記憶された部分エッジ画像中における画素がエッジ画素か非エッジ画素かを判定し、部分エッジ画像中のエッジ画素の量を取得する。領域内エッジ量取得部35は、取得した各部分エッジ画像中におけるエッジ量を最少エッジ量部分画像選定部36に出力する。   The in-region edge amount acquisition unit 35 determines whether a pixel in the partial edge image generated from the partial region in the background image and stored in the edge image storage unit 34 is an edge pixel or a non-edge pixel. Get the amount of edge pixels. The in-region edge amount acquisition unit 35 outputs the edge amount in each acquired partial edge image to the minimum edge amount partial image selection unit 36.

最少エッジ量部分画像選定部36では、領域内エッジ量取得部35から出力された部分エッジ画像中におけるエッジ量に基づいて、最少エッジ量画像を選定する。ここでは、部分エッジ画像中におけるエッジ量が最も少ない部分エッジ画像を最少エッジ量画像として選定する。最少エッジ量部分画像選定部36は、選定した最少エッジ量画像を代表画像選択部37に出力する。   The minimum edge amount partial image selection unit 36 selects a minimum edge amount image based on the edge amount in the partial edge image output from the in-region edge amount acquisition unit 35. Here, the partial edge image having the smallest edge amount in the partial edge image is selected as the minimum edge amount image. The minimum edge amount partial image selection unit 36 outputs the selected minimum edge amount image to the representative image selection unit 37.

代表画像選択部37は、最少エッジ量部分画像選定部36から出力された最少エッジ量画像に基づいて、画像データベース31に記憶された背景画像の中から、最少エッジ量部分画像選定部36から出力された最少エッジ量画像に対応する部分領域を含む背景画像を代表画像として選択する。   Based on the minimum edge amount image output from the minimum edge amount partial image selection unit 36, the representative image selection unit 37 outputs from the minimum edge amount partial image selection unit 36 from the background images stored in the image database 31. A background image including a partial region corresponding to the minimum edge amount image is selected as a representative image.

次に、本実施形態に係る画像処理装置における処理手順について説明する。本実施形態に係る画像処理装置3では、上記第1の実施形態に係る画像処理装置1と同様、複数の異なる環境条件の下で、共通する地点を含んで撮像して取得した複数の画像の中から、後の画像処理に適した画像を選択する作業を行う。   Next, a processing procedure in the image processing apparatus according to the present embodiment will be described. In the image processing apparatus 3 according to the present embodiment, similar to the image processing apparatus 1 according to the first embodiment, a plurality of images captured and acquired including a common point under a plurality of different environmental conditions. An operation for selecting an image suitable for later image processing is performed.

図7は、本実施形態に係る画像処理装置における処理の手順を示すフローチャートである。図7に示すように、画像処理装置3においては、まず、撮像装置10から送信される背景画像を取得し(S21)、画像データベース31に記憶する(S22)。次に、エッジ検出領域設定部32において、画像データベース31に記憶されている複数の背景画像を読み出し(S23)、エッジ検出を行う部分領域を設定する(S24)。ここでの部分検出領域は、あらかじめ設定された領域とすることもできるし、その他の適宜の方法で設定することもできる。また、本実施形態では、エッジ検出領域を背景画像の一部からなる部分検出としているが背景画像の全体をエッジ検出領域とすることもできる。   FIG. 7 is a flowchart showing a processing procedure in the image processing apparatus according to the present embodiment. As shown in FIG. 7, in the image processing device 3, first, a background image transmitted from the imaging device 10 is acquired (S21) and stored in the image database 31 (S22). Next, the edge detection area setting unit 32 reads a plurality of background images stored in the image database 31 (S23), and sets a partial area for edge detection (S24). The partial detection area here may be a preset area or may be set by any other appropriate method. In this embodiment, the edge detection area is a partial detection made up of a part of the background image, but the entire background image can also be used as the edge detection area.

部分領域を設定したら、各背景画像における部分領域にエッジ処理を施して、部分エッジ画像を生成する(S25)。背景画像における部分領域をエッジ画像に変換する際には、公知のエッジ画像生成手段を用いることができる。具体的には、sobelフィルタでエッジ強度を画素ごとに算出する。ここで、エッジの有無を判定するためのしきい値をあらかじめ設定しておき、エッジ強度がこのしきい値を超える画素については、画素値を1とし、エッジ強度がしきい値以下である画素については画素値を0とした部分エッジ画像を生成する。   Once the partial area is set, edge processing is performed on the partial area in each background image to generate a partial edge image (S25). When converting a partial region in the background image into an edge image, a known edge image generation means can be used. Specifically, the edge strength is calculated for each pixel using a sobel filter. Here, a threshold value for determining the presence / absence of an edge is set in advance, and for a pixel whose edge strength exceeds this threshold value, the pixel value is 1, and the edge strength is equal to or less than the threshold value. For, a partial edge image with a pixel value of 0 is generated.

部分エッジ画像を生成したら、生成した部分エッジ画像をエッジ画像記憶部34に記憶する(S26)。部分エッジ画像は、背景画像ごとに生成されるので、エッジ画像記憶部34には複数の部分エッジ画像が記憶される。続いて、領域内エッジ量取得部35において、部分エッジ画像におけるエッジ量を取得する(S27)。ここでは、各部分エッジ画像における画素値を参照し、画素値が1となっている画素の数を取得する。   When the partial edge image is generated, the generated partial edge image is stored in the edge image storage unit 34 (S26). Since the partial edge image is generated for each background image, a plurality of partial edge images are stored in the edge image storage unit 34. Subsequently, the edge amount in the partial edge image is acquired by the in-region edge amount acquisition unit 35 (S27). Here, the pixel value in each partial edge image is referred to, and the number of pixels having a pixel value of 1 is acquired.

それから、最少エッジ量部分画像選定部36において、最少エッジ量部分画像を選定する(S28)。ここでは、各部分エッジ画像におけるエッジ画素数を比較し、エッジ画素数が最も少ない部分エッジ画像を最少エッジ量部分画像として選定する。   Then, the minimum edge amount partial image selection unit 36 selects the minimum edge amount partial image (S28). Here, the number of edge pixels in each partial edge image is compared, and the partial edge image having the smallest number of edge pixels is selected as the minimum edge amount partial image.

その後、代表画像選択部37において、画像データベース31に記憶された背景画像の中から、最少エッジ量部分画像に対応する部分領域を含む背景画像を代表画像として選択する(S29)。こうして、画像処理装置3における処理を終了する。   Thereafter, the representative image selection unit 37 selects a background image including a partial region corresponding to the minimum edge amount partial image from the background images stored in the image database 31 (S29). Thus, the processing in the image processing device 3 is finished.

本実施形態に係る画像処理装置3の処理手順について、複数の背景画像が2つである場合を例にとって図8を参照して簡略的に説明すると、図8(a)に示すように、第1背景画像G1および第2背景画像G2に対して、図8(b)に示す第1部分領域画像B1および第2部分領域画像B2の設定を行う。これらの第1部分領域画像B1および第2部分領域画像B2に対してエッジ処理を施すことにより、図8(c)に示す第1部分エッジ画像E1および第2部分エッジ画像E2を生成する。そして、第1部分エッジ画像E1および第2部分エッジ画像E2におけるそれぞれのエッジ画素の数を判定し、最少エッジ量部分画像を選定する。この例では、第2部分エッジ画像E2の方が第1部分エッジ画像E1よりもエッジ画素の数が少ないので、図8(d)に示すように、第2部分領域画像B2が最少エッジ量部分画像となる。その後は、画像データベース31に記憶された背景画像のうち、第2部分領域画像B2を含む第2背景画像G2を代表画像として選択する。   The processing procedure of the image processing apparatus 3 according to the present embodiment will be briefly described with reference to FIG. 8 by taking as an example the case where there are two background images. As shown in FIG. The first partial area image B1 and the second partial area image B2 shown in FIG. 8B are set for the first background image G1 and the second background image G2. By performing edge processing on the first partial region image B1 and the second partial region image B2, a first partial edge image E1 and a second partial edge image E2 shown in FIG. 8C are generated. Then, the number of edge pixels in each of the first partial edge image E1 and the second partial edge image E2 is determined, and the minimum edge amount partial image is selected. In this example, since the number of edge pixels is smaller in the second partial edge image E2 than in the first partial edge image E1, as shown in FIG. 8D, the second partial region image B2 has a minimum edge amount portion. It becomes an image. Thereafter, the second background image G2 including the second partial region image B2 is selected as the representative image from the background images stored in the image database 31.

このように、本実施形態に係る画像処理装置3においては、上記第1の実施形態に示す作用効果を奏するほか、背景画像に設定した部分領域にエッジ処理を施した複数の部分エッジ画像について、エッジ画素数が最も少ない部分エッジ画像である最少エッジ量部分画像に対応する部分領域を含む背景画像を代表画像として選択している。このため、照明などの付加環境条件の変動を受けていない場所を精度よく検出することができるので、複数の背景画像の中から、最も外乱の少ない画像を選択することができる。   As described above, in the image processing device 3 according to the present embodiment, in addition to the operational effects shown in the first embodiment, a plurality of partial edge images obtained by performing edge processing on the partial region set in the background image, A background image including a partial area corresponding to a partial edge image with the smallest edge amount, which is a partial edge image having the smallest number of edge pixels, is selected as a representative image. For this reason, since the place which has not received the fluctuation | variation of additional environmental conditions, such as illumination, can be detected accurately, the image with few disturbances can be selected from several background images.

以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。たとえば、上記各実施形態では、撮像装置10を固定し、同一地点を撮像する態様としているが、たとえば車両が日常通行する所定位置を、異なる日時に撮像する態様などを対象とすることもできる。したがって、「共通する地点」としては、完全に同一となる地点のほか、近接する地点であり、少なくとも、撮像範囲となる重なる地点を含むこととなる。   The preferred embodiment of the present invention has been described above, but the present invention is not limited to the above embodiment. For example, in each of the above-described embodiments, the imaging device 10 is fixed and the same point is imaged. However, for example, it is possible to target an aspect in which a predetermined position where the vehicle passes everyday is captured at different dates and times. Therefore, as a “common point”, in addition to a point that is completely the same, a point that is close and includes at least an overlapping point that is an imaging range.

また、上記第2の実施形態および第3の実施形態においては、背景画像またはその一部にエッジ処理を施したエッジ画像または部分エッジ画像を生成しているが、画像中のテクスチャを求めて、テクスチャ濃度を用いて付加環境条件の変化が少ない画像を選択する態様とすることもできる。この場合、画像中におけるエッジが出たり出なかったりした場合に、安定して画像を選択することができる。   In the second and third embodiments, the edge image or partial edge image obtained by performing edge processing on the background image or a part of the background image is generated, but the texture in the image is obtained, It is also possible to select an image with little change in the additional environmental conditions using the texture density. In this case, when an edge in the image appears or does not appear, the image can be selected stably.

さらに、上記第1の実施形態では、輝度が平均輝度から所定値以上離れている画素の集合の全画素中における分散が最も小さい背景画像を代表画像としているが、この態様のほか、輝度が平均輝度から所定値以上離れている画素の集合の全画素中における分散に基づいて代表画像を決定する他の態様とすることもできる。たとえば、輝度が平均輝度から所定値以上離れている画素の集合の全画素中における分散が所定のしきい値(基準分散値)以下となっている画像を代表画像とすることもできる。   Furthermore, in the first embodiment, the background image having the smallest variance among all the pixels in the set of pixels whose luminance is separated from the average luminance by a predetermined value or more is used as the representative image. It is possible to adopt another aspect in which the representative image is determined based on the dispersion among all the pixels in the set of pixels that are separated from the luminance by a predetermined value or more. For example, an image in which the variance among all the pixels in a set of pixels whose luminance is separated from the average luminance by a predetermined value or more is a predetermined threshold value (reference variance value) or less can be used as the representative image.

また、上記第2の実施形態では、高頻度エッジ画像に最も近似する近似エッジ画像に対応する背景画像を代表画像としているが、この態様のほか、高頻度エッジ画像との近似度合に基づいてエッジ画像を決定し、このエッジ画像に対応する背景画像を代表画像として決定する他の態様とすることもできる。たとえば、高頻度エッジ画像との近似度合が所定のしきい値(基準近似度合)以上となっているエッジ画像に対応する背景画像を代表画像とすることもできる。   In the second embodiment, the background image corresponding to the approximate edge image that most closely approximates the high-frequency edge image is used as the representative image. In addition to this aspect, the edge image is based on the degree of approximation with the high-frequency edge image. Another mode in which an image is determined and a background image corresponding to the edge image is determined as a representative image may be employed. For example, a background image corresponding to an edge image whose degree of approximation with a high-frequency edge image is a predetermined threshold value (reference degree of approximation) or more can be used as a representative image.

さらに、上記第3の実施形態では、最少エッジ量部分画像に対応する部分領域を含む背景画像を代表画像として選択しているが、この態様のほか、部分エッジ画像におけるエッジ量の占有度合に基づいてエッジ量部分画像を選定し、このエッジ量部分画像に対応する部分領域を含む背景画像を代表画像とする他の態様とすることもできる。たとえば、部分エッジ画像におけるエッジ量の占有度合が所定のしきい値(基準占有度合)以上となっているエッジ量部分画像に対応する部分領域を含む背景画像を代表画像とすることもできる。   Further, in the third embodiment, the background image including the partial region corresponding to the minimum edge amount partial image is selected as the representative image. In addition to this aspect, the background image is based on the degree of occupation of the edge amount in the partial edge image. It is also possible to select another edge amount partial image and use a background image including a partial region corresponding to the edge amount partial image as a representative image. For example, a background image including a partial region corresponding to an edge amount partial image in which the degree of occupation of the edge amount in the partial edge image is greater than or equal to a predetermined threshold (reference occupation degree) can be used as the representative image.

第1の実施形態に係る画像処理装置のブロック構成図である。1 is a block configuration diagram of an image processing apparatus according to a first embodiment. 第1の実施形態に係る画像処理装置における処理の手順を示すフローチャートである。3 is a flowchart illustrating a processing procedure in the image processing apparatus according to the first embodiment. 第2の実施形態に係る画像処理装置のブロック構成図である。It is a block block diagram of the image processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る画像処理装置における処理の手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure in the image processing apparatus according to the second embodiment. 第2の実施形態に係る画像処理装置における処理の手順を、画像の例を用いて概略的に説明する説明図である。It is explanatory drawing which illustrates roughly the procedure of the process in the image processing apparatus which concerns on 2nd Embodiment using the example of an image. 第3の実施形態に係る画像処理装置のブロック構成図である。It is a block block diagram of the image processing apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る画像処理装置における処理の手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure in an image processing apparatus according to a third embodiment. 第3の実施形態に係る画像処理装置における処理の手順を、画像の例を用いて概略的に説明する説明図である。It is explanatory drawing which illustrates roughly the procedure of the process in the image processing apparatus which concerns on 3rd Embodiment using the example of an image.

符号の説明Explanation of symbols

1〜3…画像処理装置、10…撮像装置、11…画像データベース、12…統計処理部、13…代表画像選択部、21…画像データベース、22…エッジ画像変換部、23…エッジ画像記憶部、24…エッジ出現回数計数部、25…エッジ頻出領域抽出部、26…高頻度エッジ画像生成部、27…近似エッジ画像選択部、28…代表画像選択部、31…画像データベース、32…エッジ検出領域設定部、33…エッジ画像変換部、34…エッジ画像記憶部、35…領域内エッジ量取得部、36…最少エッジ量部分画像選定部、37…代表画像選択部。   DESCRIPTION OF SYMBOLS 1-3 ... Image processing apparatus, 10 ... Imaging apparatus, 11 ... Image database, 12 ... Statistical processing part, 13 ... Representative image selection part, 21 ... Image database, 22 ... Edge image conversion part, 23 ... Edge image storage part, 24 ... Edge appearance count section, 25 ... Edge frequent area extraction section, 26 ... High-frequency edge image generation section, 27 ... Approximate edge image selection section, 28 ... Representative image selection section, 31 ... Image database, 32 ... Edge detection area Setting unit, 33... Edge image conversion unit, 34... Edge image storage unit, 35... Within-region edge amount acquisition unit, 36... Minimum edge amount partial image selection unit, 37.

Claims (10)

複数の異なる環境条件の下で、共通する地点を含んで撮像して取得した複数の画像を入力する画像入力手段と、
前記複数の画像を記憶する画像記憶手段と、
前記複数の画像のそれぞれにおける前記環境条件によって付加された環境条件付加領域を抽出する環境条件付加領域抽出手段と、
前記環境条件付加領域の面積に基づいて、付加環境条件基準選択画像を前記画像記憶手段に記憶された複数の画像の中から選択する付加環境条件基準選択画像選択手段と、
を備えることを特徴とする画像処理装置。
Image input means for inputting a plurality of images captured and acquired including a common point under a plurality of different environmental conditions;
Image storage means for storing the plurality of images;
Environmental condition addition region extracting means for extracting an environmental condition addition region added by the environmental condition in each of the plurality of images;
Based on the area of the environmental condition addition region, an additional environmental condition criterion selection image selection unit that selects an additional environmental condition criterion selection image from a plurality of images stored in the image storage unit;
An image processing apparatus comprising:
前記付加環境条件基準選択画像選択手段は、前記環境条件付加領域の面積が所定の面積より小さい環境負荷条件少量画像を前記画像記憶手段に記憶された複数の画像の中から選択する付加環境条件少量画像選択手段である請求項1に記載の画像処理装置。   The additional environmental condition criterion selection image selection means selects an environmental load condition small amount image from a plurality of images stored in the image storage means, wherein the environmental load condition small area is smaller than a predetermined area. The image processing apparatus according to claim 1, which is an image selection unit. 前記環境条件付加領域抽出手段は、前記複数の画像に対して統計的処理を施すことによって前記環境条件付加領域を抽出する請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the environmental condition addition region extraction unit extracts the environmental condition addition region by performing statistical processing on the plurality of images. 前記付加環境条件基準選択画像選択手段は、前記環境条件付加領域の面積がもっとも小さい画像を、前記画像記憶手段に記憶された複数の画像の中から、環境負荷条件最少画像として選択する付加環境条件最少画像選択手段である請求項1に記載の画像処理装置。   The additional environmental condition criterion selection image selection unit selects an image having the smallest area of the environmental condition addition region as a minimum environmental load condition image from a plurality of images stored in the image storage unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is a minimum image selection unit. 前記環境条件付加領域抽出手段は、
前記複数の画像のそれぞれをエッジ画像に変換するエッジ画像変換手段と、
前記エッジ画像変換手段で変換された複数の前記エッジ画像を記憶するエッジ画像記憶手段と、
前記複数のエッジ画像中の所定領域内におけるエッジ出現回数を計測するエッジ出現回数計測手段と、
前記所定領域のうち、エッジ出現回数が所定のしきい値以上となった所定領域であるエッジ頻出領域を抽出するエッジ頻出領域抽出手段と、
前記エッジ頻出領域を記憶するエッジ頻出領域記憶手段と、を備え、
前記付加環境条件基準選択画像選択手段は、
複数の前記エッジ画像における各エッジ頻出領域に基づいて高頻度エッジ画像を生成する高頻度エッジ画像生成部と、
前記高頻度エッジ画像との近似度合に基づいて、前記エッジ画像記憶手段に記憶された複数のエッジ画像の中から、近似度合基準エッジ画像を抽出する近似度合基準エッジ画像抽出部と、を備え、
前記付加環境条件最少画像選択手段は、前記付加環境条件基準選択画像として、前記近似度合基準エッジ画像に対応する画像を前記エッジ画像記憶手段に記憶された複数のエッジ画像の中から選択する請求項4に記載の画像処理装置。
The environmental condition addition region extraction means includes:
Edge image conversion means for converting each of the plurality of images into an edge image;
Edge image storage means for storing a plurality of the edge images converted by the edge image conversion means;
Edge appearance count measuring means for measuring the number of edge appearances in a predetermined region in the plurality of edge images;
Of the predetermined areas, edge frequent appearance area extracting means for extracting an edge frequent area that is a predetermined area whose number of edge appearances is equal to or greater than a predetermined threshold;
An edge frequent area storage means for storing the edge frequent area;
The additional environmental condition criteria selection image selection means,
A high-frequency edge image generating unit that generates a high-frequency edge image based on each edge frequent region in the plurality of edge images;
Based on the approximate degree of the high frequency edge image, from among a plurality of edge images stored in the edge image storage means, and a approximate degree reference edge image extraction unit that extracts an approximate degree reference edge image,
Claim wherein the additional environmental conditions minimal image selection means, as said additional environmental condition criteria select the image to select an image corresponding to the approximate degree reference edge image from a plurality of edge images stored in the edge image storage means 5. The image processing apparatus according to 4 .
前記近似度合基準エッジ画像抽出部は、近似度合基準選択エッジ画像として、前記高頻度エッジ画像との近似度合が所定のしきい値以上となるエッジ画像である高近似エッジ画像を抽出する請求項5に記載の画像処理装置。   6. The approximation degree reference edge image extraction unit extracts a high approximation edge image that is an edge image whose approximation degree with the high-frequency edge image is a predetermined threshold value or more as an approximation degree reference selection edge image. An image processing apparatus according to 1. 前記近似度合基準エッジ画像抽出部は、近似度合基準選択エッジ画像として、前記高頻度エッジ画像と最も近似するエッジ画像である近似エッジ画像を抽出する請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the approximate degree reference edge image extraction unit extracts an approximate edge image that is an edge image that is closest to the high-frequency edge image as an approximate degree reference selection edge image. 前記環境条件付加領域抽出手段は、
前記複数の画像のそれぞれをエッジ画像に変換するエッジ画像変換手段と、
前記各エッジ画像における所定領域についてのそれぞれのエッジ量を算出するエッジ量算出手段と、を備え、
前記付加環境条件基準選択画像選択手段は、
前記エッジ画像中における前記所定領域のエッジ量占有度合に基づいて、エッジ量占有度合基準選択エッジ画像を選択するエッジ量占有度合基準選択エッジ画像選択手段と、
前記付加環境条件基準選択画像として、前記エッジ量占有度合基準選択エッジ画像に対応する画像を前記画像記憶手段に記憶された複数の画像の中から選択するエッジ量占有度合基準選択画像選択手段と、
を備える請求項1に記載の画像処理装置。
The environmental condition addition region extraction means includes:
Edge image conversion means for converting each of the plurality of images into an edge image;
An edge amount calculating means for calculating an edge amount for each predetermined region in each edge image,
The additional environmental condition criteria selection image selection means,
Edge amount occupation degree reference selection edge image selection means for selecting an edge amount occupation degree reference selection edge image based on the edge amount occupation degree of the predetermined area in the edge image;
Edge amount occupation degree reference selection image selection means for selecting an image corresponding to the edge amount occupation degree reference selection edge image as the additional environmental condition reference selection image from a plurality of images stored in the image storage means;
An image processing apparatus according to claim 1.
前記エッジ量占有度合基準選択エッジ画像は、前記エッジ量占有度合基準選択エッジ画像として、前記エッジ画像中における前記所定領域のエッジ量が所定の占有度合以下となるエッジ量少量エッジ画像を選択する請求項8に記載の画像処理装置。   The edge amount occupancy degree reference selection edge image selects, as the edge amount occupancy degree reference selection edge image, an edge amount small edge image in which the edge amount of the predetermined region in the edge image is equal to or less than a predetermined occupancy degree. Item 9. The image processing apparatus according to Item 8. 前記エッジ量占有度合基準選択エッジ画像選択手段は、前記エッジ量占有度合基準選択エッジ画像として、前記エッジ画像中における前記所定領域のエッジ量が最少となるエッジ量最少エッジ画像を選択する請求項8に記載の画像処理装置。   The edge amount occupation degree reference selection edge image selection means selects an edge amount minimum edge image that minimizes the edge amount of the predetermined region in the edge image as the edge amount occupation degree reference selection edge image. An image processing apparatus according to 1.
JP2008122463A 2008-04-01 2008-05-08 Image processing device Expired - Fee Related JP4544342B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008122463A JP4544342B2 (en) 2008-05-08 2008-05-08 Image processing device
US12/415,038 US8379989B2 (en) 2008-04-01 2009-03-31 Image search apparatus and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008122463A JP4544342B2 (en) 2008-05-08 2008-05-08 Image processing device

Publications (2)

Publication Number Publication Date
JP2009271773A JP2009271773A (en) 2009-11-19
JP4544342B2 true JP4544342B2 (en) 2010-09-15

Family

ID=41438258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008122463A Expired - Fee Related JP4544342B2 (en) 2008-04-01 2008-05-08 Image processing device

Country Status (1)

Country Link
JP (1) JP4544342B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023141A (en) * 1998-06-30 2000-01-21 Hitachi Ltd Moving object monitoring device
JP2001008189A (en) * 1999-04-23 2001-01-12 Hitachi Ltd Mobile object monitoring device
JP2002157598A (en) * 2000-11-16 2002-05-31 Japan Radio Co Ltd System for detecting invader
JP2002247557A (en) * 2001-02-20 2002-08-30 Fujitsu General Ltd Video monitoring device
JP2003168118A (en) * 2001-11-29 2003-06-13 Secom Co Ltd Image processor and mobile body monitoring device
JP2004343352A (en) * 2003-05-14 2004-12-02 Sony Corp Electronic equipment and telop information processing method
JP2006011832A (en) * 2004-06-25 2006-01-12 Photo System:Kk Analytic operation supporting device for aerial photographing image and method for same, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023141A (en) * 1998-06-30 2000-01-21 Hitachi Ltd Moving object monitoring device
JP2001008189A (en) * 1999-04-23 2001-01-12 Hitachi Ltd Mobile object monitoring device
JP2002157598A (en) * 2000-11-16 2002-05-31 Japan Radio Co Ltd System for detecting invader
JP2002247557A (en) * 2001-02-20 2002-08-30 Fujitsu General Ltd Video monitoring device
JP2003168118A (en) * 2001-11-29 2003-06-13 Secom Co Ltd Image processor and mobile body monitoring device
JP2004343352A (en) * 2003-05-14 2004-12-02 Sony Corp Electronic equipment and telop information processing method
JP2006011832A (en) * 2004-06-25 2006-01-12 Photo System:Kk Analytic operation supporting device for aerial photographing image and method for same, and program

Also Published As

Publication number Publication date
JP2009271773A (en) 2009-11-19

Similar Documents

Publication Publication Date Title
US9524558B2 (en) Method, system and software module for foreground extraction
JP4533836B2 (en) Fluctuating region detection apparatus and method
US20080292192A1 (en) Human detection device and method and program of the same
US20130322754A1 (en) Apparatus and method for extracting target, and recording medium storing program for performing the method
JP5321615B2 (en) Water level detection device, water level detection system, and water level detection method
CN101299239B (en) Method and device for acquiring character area image and character recognition system
US11334759B2 (en) Information processing apparatus, information processing method, and medium
JP4506409B2 (en) Region dividing method and apparatus, image recognition processing apparatus, program, and recording medium
JP2019016268A (en) Image processing apparatus, image processing method and image processing program
JP5264457B2 (en) Object detection device
CN100433047C (en) Device and method for detecting blurring of image
JP2007207055A (en) Image processor, program, information storage medium and image processing method
KR101733668B1 (en) Object detection apparatus, surveillance camera, and object detection method
JP4740755B2 (en) Monitoring device using images
JP4544342B2 (en) Image processing device
WO2018037479A1 (en) Image processing device, stereo camera device, and image processing method
JP6326622B2 (en) Human detection device
JP2007004721A (en) Object detecting device and object detecting method
JP5754931B2 (en) Image analysis apparatus, image analysis method, and program
KR20130067758A (en) Apparatus and method for detecting human by using svm learning
JP4894747B2 (en) Partial region detection device, object identification device, and program
US8548212B2 (en) Fingerprint recognition apparatus and method thereof
JP2009059047A (en) Device, method and program for detecting object
WO2008023466A1 (en) Moving vector detecting bdevice
JP4122703B2 (en) Image processing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4544342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees