JP2009223818A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2009223818A
JP2009223818A JP2008070221A JP2008070221A JP2009223818A JP 2009223818 A JP2009223818 A JP 2009223818A JP 2008070221 A JP2008070221 A JP 2008070221A JP 2008070221 A JP2008070221 A JP 2008070221A JP 2009223818 A JP2009223818 A JP 2009223818A
Authority
JP
Japan
Prior art keywords
image
edge
independent
images
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008070221A
Other languages
Japanese (ja)
Other versions
JP5061979B2 (en
Inventor
Masamichi Osugi
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008070221A priority Critical patent/JP5061979B2/en
Publication of JP2009223818A publication Critical patent/JP2009223818A/en
Application granted granted Critical
Publication of JP5061979B2 publication Critical patent/JP5061979B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of eliminating an effect of a portion depending on an environmental condition, and capable of calculating the similarity to other image, even in an image having the portion depending on the environmental condition. <P>SOLUTION: The image processing apparatus for calculating the similarity between the two images includes an edge image generating part 103 for extracting an edge from the image, and for generating an edge image, a nondependent image generating part 104 for generating an environment fluctuation nondependent image, based on the edge image in one out of the two images generated by the edge image generating part, and based on an edge image of a reference image not depending on environment fluctuation generated by the edge image generating part, and a similarity calculating means 105 for calculating the similarity between the two images, based on the environment fluctuation nondependent image generated by the nondependent image generating part. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

2つの画像の画像間における類似度を算出する方法について様々な手法が提案されている。例えば、特許文献1には、入力画像の各画素における濃度勾配方向と、モデル画像の対応する画素の濃度勾配方向との差を評価値とし、この評価値にモデル画像の濃度勾配強度で重み付けし、重み付け評価値を加算することによって類似度を算出する類似度算出装置が開示されている。   Various methods have been proposed for calculating the similarity between two images. For example, in Patent Document 1, the difference between the density gradient direction of each pixel of the input image and the density gradient direction of the corresponding pixel of the model image is used as an evaluation value, and this evaluation value is weighted by the density gradient strength of the model image. A similarity calculation device that calculates a similarity by adding weighted evaluation values is disclosed.

また、特許文献2には、環境の変動に対応するため、通常時の背景画像を保存しておいて、保存した画像に類似度を算出したい識別記号を合成し、合成した画像に対してパターンマッチングを行なう技術が開示されている。
特許第3598651号公報 特開2007−188221号公報
In Patent Document 2, in order to cope with environmental changes, a normal background image is stored, an identification symbol whose similarity is to be calculated is combined with the stored image, and a pattern is formed on the combined image. A technique for performing matching is disclosed.
Japanese Patent No. 3598651 JP 2007-188221 A

しかしながら、特許文献1では、モデル画像と入力画像とが異なる環境条件で撮像されている場合、入力画像上に、影などの環境条件に依存して発生した部分があり、この部分の濃度勾配が大きいと、影の部分にも影響を受けて類似度を算出してしまうという問題点がある。   However, in Patent Document 1, when the model image and the input image are captured under different environmental conditions, there is a portion that occurs on the input image depending on environmental conditions such as a shadow, and the density gradient of this portion is If it is large, there is a problem that the similarity is calculated due to the influence of the shadow portion.

また、特許文献2では、環境条件に影響を受けた画像間の類似度を算出する技術ではないため、環境条件に依存して発生したような部分をもつ画像間について、適切な類似度を算出できないという問題点がある。   In addition, since Patent Document 2 is not a technique for calculating the similarity between images affected by environmental conditions, an appropriate similarity is calculated for images having portions that occur depending on the environmental conditions. There is a problem that it is not possible.

本発明は、上記問題点に鑑みてなされたものであり、環境条件に依存した部分がある画像であっても、環境条件に依存した部分の影響を取り除いて他の画像との類似度を算出することができる画像処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and even if an image has a part depending on the environmental condition, the influence of the part depending on the environmental condition is removed to calculate the similarity with other images. An object of the present invention is to provide an image processing apparatus capable of performing the above.

2つの画像の画像間における類似度を算出する画像処理装置において、画像からエッジを抽出し、エッジ画像を生成するエッジ画像生成手段と、前記エッジ画像生成手段により生成された前記2つの画像のうちの一方の画像のエッジ画像と、前記エッジ画像生成手段により生成された環境変動に依存しない参照画像のエッジ画像とに基づいて環境変動非依存画像を生成する非依存画像生成手段と、前記非依存画像生成手段により生成された環境変動非依存画像に基づいて、前記2つの画像間の類似度を算出する類似度算出手段とを備えることを特徴とする。   In an image processing apparatus that calculates a similarity between two images, an edge image is extracted from the image and an edge image is generated, and the two images generated by the edge image generation unit An independent image generation unit that generates an environment variation independent image based on an edge image of one of the images and an edge image of a reference image that does not depend on the environmental variation generated by the edge image generation unit; And a similarity calculation unit that calculates a similarity between the two images based on an environment variation independent image generated by the image generation unit.

本発明によれば、環境条件に依存した部分がある画像であっても、環境条件に依存した部分の影響を取り除いて他の画像との類似度を算出することができる。   According to the present invention, even if an image has a part depending on the environmental condition, the similarity with other images can be calculated by removing the influence of the part depending on the environmental condition.

以下、本発明の実施例を図面に基づいて説明する。   Embodiments of the present invention will be described below with reference to the drawings.

本発明の一実施例に係る画像処理装置は、例えば、図1に示すような機能構成を成す。
図1は、本発明の実施例1に係る画像処理装置の概略機能ブロック図である。
An image processing apparatus according to an embodiment of the present invention has a functional configuration as shown in FIG.
FIG. 1 is a schematic functional block diagram of an image processing apparatus according to Embodiment 1 of the present invention.

実施例1に係る画像処理装置100は、記憶手段101、画像入力手段102、エッジ画像生成手段103、非依存画像生成手段104、類似度算出手段105を含んで構成される。   The image processing apparatus 100 according to the first embodiment includes a storage unit 101, an image input unit 102, an edge image generation unit 103, an independent image generation unit 104, and a similarity calculation unit 105.

記憶手段101は、参照画像を記憶している。ここで、参照画像とは、環境条件に依存しない画像であり、つまり、建物の影などが写りこんでなく、本来あるべきものが撮像されている画像のことをいう。なお、記憶手段101は、参照画像以外の画像を記憶しても良い。その際、参照画像と参照画像以外の画像とを識別できるようにしておく。   The storage unit 101 stores a reference image. Here, the reference image is an image that does not depend on environmental conditions, that is, an image in which a shadow of a building or the like is not captured and an image that should be originally captured is captured. Note that the storage unit 101 may store an image other than the reference image. At this time, the reference image and the image other than the reference image can be identified.

また、参照画像は、撮像された画像のうち、人手によって環境条件に依存しない部分を指定して参照画像を作成されてもよいし、同じ位置で複数の画像がある場合には、エッジが一番少ない画像を参照画像としても良い。後者は、エッジが少ない画像は、影などによる環境条件に依存した部分がないという考えに基づくものであり、曇りの日などに撮像された画像が参照画像になるものと思われる。   In addition, the reference image may be created by manually specifying a portion that does not depend on environmental conditions among the captured images. If there are a plurality of images at the same position, the reference image may have a single edge. The fewest images may be used as reference images. The latter is based on the idea that an image with few edges does not have a portion depending on environmental conditions such as a shadow, and an image captured on a cloudy day or the like is considered to be a reference image.

画像入力手段102は、撮像手段により撮像された画像を2つ入力し、2つの画像のうち一方の画像をエッジ画像生成手段103に出力し、2つの画像を類似度算出手段105に出力する。   The image input unit 102 inputs two images captured by the imaging unit, outputs one of the two images to the edge image generation unit 103, and outputs the two images to the similarity calculation unit 105.

ここで、参照画像と類似度を算出する2つの画像とについて図2を用いて説明する。図2(a)は、参照画像を示す図である。参照画像には、道路と道路脇の建物と停止線、マンホールが撮像され、環境条件に依存する影などは撮像されていない。   Here, the reference image and the two images whose similarity is calculated will be described with reference to FIG. FIG. 2A shows a reference image. In the reference image, roads, roadside buildings, stop lines, and manholes are captured, and shadows that depend on environmental conditions are not captured.

図2(b)は、画像1を示す図である。画像1には、建物の影Aが道路に写りこんで撮像されている。図2(c)は、画像2を示す図である。画像2には、建物の影Bが道路に写りこんで撮像されている。係る場合、図2(a)の参照画像が記憶手段101に記憶され、図2(b)の画像1、図2(c)の画像2が撮像手段より撮像され、2つの画像が画像入力手段102に入力される。   FIG. 2B is a diagram illustrating the image 1. In image 1, the shadow A of the building is captured on the road. FIG. 2C shows the image 2. In image 2, the shadow B of the building is captured on the road. In this case, the reference image in FIG. 2A is stored in the storage unit 101, the image 1 in FIG. 2B and the image 2 in FIG. 2C are captured by the imaging unit, and the two images are the image input unit. 102 is input.

なお、画像間の類似度を算出するため、画像入力手段102は、基本的には2枚の画像を入力し、出力するが、一度に複数の類似度を算出したい場合には複数の画像を入力し、出力するようにしてもよい。   In order to calculate the similarity between the images, the image input means 102 basically inputs and outputs two images. However, when it is desired to calculate a plurality of similarities at once, a plurality of images are input. You may make it input and output.

また、ここでは、撮像手段により撮像された画像を入力するとしたが、記憶手段101に既に記憶されている画像を2つ読み出してきても良い。   Here, it is assumed that an image captured by the imaging unit is input, but two images already stored in the storage unit 101 may be read out.

図1に戻り、エッジ画像生成手段103は、記憶手段101より参照画像を読出し、読み出した参照画像と、画像入力手段より取得した画像とからエッジを抽出することでエッジ画像を生成する。また、エッジ画像生成手段103は、生成した2つのエッジ画像を非依存画像生成手段104に出力する。なお、エッジの抽出には、Sobelフィルタ、Laplacian、Cannyなどの公知技術を用いる。   Returning to FIG. 1, the edge image generation unit 103 reads a reference image from the storage unit 101, and generates an edge image by extracting an edge from the read reference image and the image acquired from the image input unit. Further, the edge image generation unit 103 outputs the generated two edge images to the independent image generation unit 104. Note that a known technique such as a Sobel filter, Laplacian, or Canny is used for edge extraction.

非依存画像生成手段104は、エッジ画像生成手段103より取得した2つのエッジ画像から環境変動非依存画像を生成する。ここで、環境変動非依存画像とは、2つのエッジ画像のエッジが共通する部分を抽出したエッジ画像のことをいう。   The independent image generation unit 104 generates an environment variation independent image from the two edge images acquired from the edge image generation unit 103. Here, the environment variation-independent image refers to an edge image obtained by extracting a portion where the edges of two edge images are common.

ここで、図3を用いて、エッジ画像と環境変動非依存画像とについて説明する。図3(a)は、図2(a)に示す参照画像のエッジ画像を示す図である。図3(b)は、図2(b)に示す画像1のエッジ画像を示す図である。   Here, the edge image and the environment variation-independent image will be described with reference to FIG. FIG. 3A shows an edge image of the reference image shown in FIG. FIG. 3B is a diagram illustrating an edge image of the image 1 illustrated in FIG.

図3(c)は、図3(a)に示す参照画像のエッジ画像と図3(b)に示す画像1のエッジ画像と共通するエッジ部分を示す環境変動非依存画像を示す図である。つまり、環境変動非依存画像は、環境条件に依存する影などの影響が取り除かれているエッジ画像である。   FIG. 3C is a diagram showing an environment variation-independent image showing an edge portion common to the edge image of the reference image shown in FIG. 3A and the edge image of the image 1 shown in FIG. That is, the environment variation-independent image is an edge image from which an influence such as a shadow depending on the environmental condition is removed.

図1に戻り、類似度算出手段105は、差分値算出手段106、重み付け手段107を含んで構成され、画像間の類似度を算出する。   Returning to FIG. 1, the similarity calculation unit 105 includes a difference value calculation unit 106 and a weighting unit 107, and calculates the similarity between images.

差分値算出手段106は、画像入力手段102より取得した2つの画像に対して差分値を算出し、差分画像を生成する。ここで、差分値は2つの画像における対応する位置の画素値の差分絶対値とする。また、ここでは差分画像を生成するとしたが、差分絶対値と画素位置を対応づけて覚えていれば、差分画像を生成する必要はない。   The difference value calculation unit 106 calculates a difference value for the two images acquired from the image input unit 102 and generates a difference image. Here, the difference value is the absolute difference value of the pixel values at corresponding positions in the two images. Although the difference image is generated here, it is not necessary to generate the difference image if the difference absolute value and the pixel position are associated and remembered.

図4を用いて差分画像について説明する。図4(a)、図4(b)にそれぞれ示す画像は、図3に示す画像1、画像2である。図4(c)は、図4(a)に示す画像1と図4(b)に示す画像2との差分画像を示す図である。   The difference image will be described with reference to FIG. The images shown in FIGS. 4A and 4B are the image 1 and the image 2 shown in FIG. FIG. 4C is a diagram illustrating a difference image between the image 1 illustrated in FIG. 4A and the image 2 illustrated in FIG.

図4(c)に示すように、差分画像には、画像1と画像2との差分部分が示されている。図4の例では、画像1と画像2との差分部分とは、影Aと影Bとの差分部分のことである。   As shown in FIG. 4C, the difference image shows a difference portion between the image 1 and the image 2. In the example of FIG. 4, the difference portion between image 1 and image 2 is the difference portion between shadow A and shadow B.

図1に戻り、重み付け手段107は、非依存画像生成手段104より取得した環境変動非依存画像に基づいて、差分値算出手段106より取得した差分画像に重み付けを行ない、類似度を算出する。   Returning to FIG. 1, the weighting unit 107 weights the difference image acquired from the difference value calculation unit 106 based on the environment variation independent image acquired from the independent image generation unit 104 and calculates the similarity.

類似度算出について、図5を用いて具体的に説明する。図5(b)に示す環境変動依存画像に基づく重みとは、例えば、エッジがある画素には重み係数を1と設定し、エッジがない画素には、0以上1未満の重み係数を設定する。図5(b)に示す例では、エッジ部分がない画素には重み係数を0とする。なお、この重み係数については、環境条件に依存しない位置の重みを強くし、環境条件に依存する位置の重みを弱くすれば、重み係数は適宜設定可能とする。   The similarity calculation will be specifically described with reference to FIG. The weight based on the environment variation dependent image shown in FIG. 5B is, for example, a weight coefficient of 1 is set for a pixel having an edge, and a weight coefficient of 0 or more and less than 1 is set for a pixel having no edge. . In the example shown in FIG. 5B, the weight coefficient is set to 0 for a pixel having no edge portion. As for this weighting factor, the weighting factor can be set as appropriate by increasing the weighting of the position not depending on the environmental condition and weakening the weighting of the position depending on the environmental condition.

類似度算出手段105は、差分画像の画素(差分値)ごとに、重み係数を積算し、積算された差分値を累積することで類似度を算出する。これより、環境条件に依存する位置の影響を取り除いた上で画像間の類似度を算出することができる。なお、この場合の類似度は値が小さければ小さいほど、2つの画像は類似すると判断する。   The degree-of-similarity calculation means 105 calculates the degree of similarity by accumulating the weighting coefficient for each pixel (difference value) of the difference image and accumulating the accumulated difference values. Thus, the similarity between images can be calculated after removing the influence of the position depending on the environmental conditions. In this case, the smaller the similarity is, the more the two images are determined to be similar.

図5の例では、画像1と画像2との差分画像は影の影響が大きくでているので、このまま一般的なSAD(Sum of Absolute Differences)などにより類似度を算出しても、画像1と画像2とは類似しないと判断される可能性がある。しかし、図5(b)の重み係数を差分値に積算し、重み係数が積算された差分値を加算して類似度とすることで、影の影響を取り除くことができ、画像1と画像2とは類似すると判断される。   In the example of FIG. 5, since the difference image between the image 1 and the image 2 is greatly affected by the shadow, even if the similarity is calculated by general SAD (Sum of Absolute Differences) or the like as it is, It may be determined that the image 2 is not similar. However, by adding the weighting coefficient of FIG. 5B to the difference value and adding the difference value obtained by integrating the weighting coefficient to obtain the similarity, the influence of the shadow can be removed. Is judged to be similar.

また、画像1に環境条件で発生する影以外にも、参照画像にはない車両などが撮像されていたとする。このとき、車両については、類似度算出における影響を残しておきたい。よって、影Aと車両とを区別する必要がある。この区別は、撮像時の位置情報、時間情報、天気情報をさらに入力するようにし、これらの情報から建物などの影の領域を推測する。次に、推測した領域と位置、形状が類似するか否かで環境条件により発生した影と、車両とを区別することが可能になる。   Further, it is assumed that a vehicle or the like that is not included in the reference image is captured in addition to the shadow that occurs in the image 1 under environmental conditions. At this time, for the vehicle, it is desirable to leave an influence on the similarity calculation. Therefore, it is necessary to distinguish between the shadow A and the vehicle. For this distinction, position information, time information, and weather information at the time of imaging are further input, and a shadow area such as a building is estimated from these information. Next, it is possible to distinguish a shadow generated by an environmental condition and a vehicle depending on whether the estimated region is similar in position and shape.

図6は、本実施例1に係る画像処理装置における類似度算出処理のフローチャートである。ステップ601では、画像入力手段102が、撮像手段より撮像された2つの画像を入力し、入力した2つの画像のうちの一方の画像をエッジ画像生成手段103に出力する。   FIG. 6 is a flowchart of similarity calculation processing in the image processing apparatus according to the first embodiment. In step 601, the image input unit 102 inputs two images picked up by the image pickup unit, and outputs one of the two input images to the edge image generation unit 103.

ステップ601に続いてステップ602に進み、エッジ画像生成手段103が、記憶手段101より取得した参照画像と、画像入力手段102より取得した画像とに対し、エッジ画像を生成し、エッジ画像を非依存画像生成手段104に出力する。   Proceeding to step 602 following step 601, the edge image generation unit 103 generates an edge image for the reference image acquired from the storage unit 101 and the image acquired from the image input unit 102, and the edge image is independent. It outputs to the image generation means 104.

ステップ602に続いてステップ603に進み、非依存画像生成手段104が、エッジ画像生成手段103より取得した2つのエッジ画像に基づいて環境変動非依存画像を生成し、環境変動非依存画像を類似度算出手段105に含まれる重み付け手段107に出力する。   Proceeding to step 603 following step 602, the independent image generation unit 104 generates an environment variation independent image based on the two edge images acquired from the edge image generation unit 103, and the environment variation independent image is determined as the similarity. The data is output to weighting means 107 included in calculation means 105.

ステップ603に続いてステップ604に進み、類似度算出手段105に含まれる差分値算出手段106が、画像入力手段102より取得した2つの画像間の差分値を算出し、差分画像を生成し、差分画像を重み付け手段107に出力する。   In step 604 following step 603, the difference value calculation unit 106 included in the similarity calculation unit 105 calculates a difference value between the two images acquired from the image input unit 102, generates a difference image, and generates a difference. The image is output to the weighting means 107.

ステップ604に続いてステップ605に進み、重み付け手段107が、非依存画像生成手段104より取得した環境変動非依存画像に基づいた重み係数を、差分値算出手段106より取得した差分画像に積算する。   Proceeding to step 605 following step 604, the weighting means 107 adds the weighting factor based on the environment variation independent image acquired from the independent image generating means 104 to the difference image acquired from the difference value calculating means 106.

ステップ604に続いてステップ606に進み、類似度算出手段105が、重み付け手段107により重み付けされた差分値を累積することで類似度を算出する。   Proceeding to step 606 following step 604, the similarity calculation unit 105 calculates the similarity by accumulating the difference values weighted by the weighting unit 107.

以上、実施例1に係る画像処理装置によれば、環境条件に依存した部分がある画像であっても、環境条件に依存した部分の影響を取り除いて他の画像との類似度を算出することができる。また、環境条件に依存した部分をもつ画像同士の類似度を算出するときにも、本来は類似する画像同士なのに、環境条件に依存した部分の影響をうけて類似しないと判断されることを減らすことができる。さらに、2つの画像間において、環境条件に依存した部分以外にも本当に異なる領域がある場合には、2つの画像間で本当に異なる領域の影響を受けて類似しないと判断することができる。   As described above, according to the image processing apparatus according to the first embodiment, even if an image has a part depending on the environmental condition, the similarity with the other image is calculated by removing the influence of the part depending on the environmental condition. Can do. Also, when calculating the similarity between images that have parts that depend on environmental conditions, it is possible to reduce the number of images that are originally similar but are judged not to be similar due to the influence of parts that depend on environmental conditions. be able to. Furthermore, if there is a region that is really different between the two images other than the portion that depends on the environmental conditions, it can be determined that the two images are not similar under the influence of the region that is really different.

(変形例1)
実施例1に係る画像処理装置の変形例1は、実施例1で生成した環境変動非依存画像とは逆の環境変動依存画像を生成して、画像間の類似度を算出する。環境変動依存画像とは、環境条件に依存して発生する影などの部分を示す画像のことを言う。
(Modification 1)
In the first modification of the image processing apparatus according to the first embodiment, an environment variation dependent image opposite to the environment variation independent image generated in the first embodiment is generated, and the similarity between the images is calculated. An environment variation dependent image is an image showing a portion such as a shadow that occurs depending on environmental conditions.

かかる場合は、環境変動依存画像は、環境条件に依存して発生した影などのエッジ画像であるので、この部分の影響を除去したい。つまり、環境変動依存画像のエッジで囲まれる画素の重み係数を小さい値、例えば0と設定して、差分画像に積算することで、影以外の領域の類似度を算出することができる。   In such a case, the environment variation-dependent image is an edge image such as a shadow generated depending on the environmental conditions, so it is desired to remove the influence of this portion. That is, by setting the weighting coefficient of the pixels surrounded by the edge of the environment variation dependent image to a small value, for example, 0, and integrating the difference image, the similarity of the region other than the shadow can be calculated.

より具体的には、非依存画像生成手段104に代わり、依存画像生成手段が、入力した2つのエッジ画像に基づいて、一方のエッジ画像にしかないエッジを抽出し、エッジ画像を生成する。重み付け手段107は、環境変動依存画像のエッジで囲まれる部分の重み係数を0と設定して、差分画像に積算する。その他の処理は実施例1と同様である。   More specifically, instead of the independent image generating unit 104, the dependent image generating unit extracts an edge that is only in one of the edge images based on the two input edge images, and generates an edge image. The weighting means 107 sets the weighting coefficient of the part surrounded by the edge of the environment variation dependent image to 0 and integrates it to the difference image. Other processes are the same as those in the first embodiment.

以上、変形例1に係る画像処理装置によれば、環境条件に依存する部分のみを取り除いて、その他の領域で画像間の類似度を算出することができる。   As described above, according to the image processing apparatus according to the modified example 1, it is possible to calculate the similarity between images in other regions by removing only the part depending on the environmental condition.

(変形例2)
実施例1に係る画像処理装置の変形例2は、環境変動非依存画像を1つ生成したが、類似度を算出したい2つの画像それぞれに対して環境変動非依存画像を生成する。
(Modification 2)
In the second modification of the image processing apparatus according to the first embodiment, one environment variation-independent image is generated. However, an environment variation-independent image is generated for each of the two images whose similarity is to be calculated.

より具体的には、エッジ画像生成手段103は、画像入力手段102から2つの画像を取得し、それぞれに対してエッジ画像を生成する。非依存画像生成手段104は、2つのエッジ画像に対して、参照画像のエッジ画像を用いて、それぞれの環境変動非依存画像を生成する。   More specifically, the edge image generation unit 103 acquires two images from the image input unit 102 and generates an edge image for each of them. The independent image generation unit 104 generates the environment variation independent images for the two edge images using the edge image of the reference image.

このとき、2つの環境変動非依存画像に対して共通する部分のみを抽出した画像が最終的な環境変動非依存画像となる。つまり、最終的な環境変動非依存画像は、2つの画像の環境条件に依存する部分を取り除いたエッジ画像となる。   At this time, an image obtained by extracting only a portion common to the two environment variation independent images becomes a final environment variation independent image. That is, the final environment variation-independent image is an edge image in which a portion depending on the environmental conditions of the two images is removed.

後の処理は、非依存画像生成手段104が、最終的な環境変動非依存画像を類似度算出手段105に出力すれば、実施例1と同様である。   The subsequent processing is the same as in the first embodiment if the independent image generation unit 104 outputs the final environment variation independent image to the similarity calculation unit 105.

以上、変形例2に係る画像処理装置によれば、類似度を算出する2つの画像の環境条件に依存する部分を取り除いてから画像間の類似度を算出することができる。なお、変形例2に係る画像処理装置は、変形例1を適用することもできる。   As described above, according to the image processing apparatus according to the modified example 2, it is possible to calculate the similarity between images after removing the part depending on the environmental condition of the two images for calculating the similarity. Note that the image processing apparatus according to the second modification can also apply the first modification.

実施例2に係る画像処理装置は、2つの画像の類似度を算出するのに、2つの画像のエッジ画像を用いて2つの画像間の類似度を算出する。詳細は図7を用いて説明する。   In order to calculate the similarity between two images, the image processing apparatus according to the second embodiment uses the edge image of the two images to calculate the similarity between the two images. Details will be described with reference to FIG.

図7は、実施例2に係る画像処理装置700の概略機能ブロック図である。図7に示す画像処理装置700は、記憶手段101、画像入力手段701、エッジ画像生成手段702、非依存画像生成手段703、類似度算出手段704を含んで構成される。なお、図7に示す構成で、図1と同様の構成のものは図1と同じ番号を付し、その説明を省略する。   FIG. 7 is a schematic functional block diagram of an image processing apparatus 700 according to the second embodiment. An image processing apparatus 700 illustrated in FIG. 7 includes a storage unit 101, an image input unit 701, an edge image generation unit 702, an independent image generation unit 703, and a similarity calculation unit 704. In the configuration shown in FIG. 7, the same configurations as those in FIG. 1 are denoted by the same reference numerals as those in FIG.

画像入力手段701は、撮像された2つの画像を入力し、入力した2つの画像をエッジ画像生成手段702に出力する。ここで、画像入力手段701は、必ずしも2つの画像を同時に入力する必要はなく、撮像手段により、撮像された順に1つずつ入力するようにしてもよい。   The image input unit 701 inputs two captured images and outputs the two input images to the edge image generation unit 702. Here, the image input unit 701 does not necessarily need to input two images at the same time, and may input one image at a time in the order of image pickup by the image pickup unit.

エッジ画像生成手段702は、画像入力手段701より取得した2つの画像と、記憶手段101より読出した参照画像とに対し、それぞれの画像からエッジを抽出し、エッジ画像を生成する。   The edge image generation unit 702 extracts edges from the two images acquired from the image input unit 701 and the reference image read from the storage unit 101, and generates an edge image.

また、エッジ画像生成手段702は、2つの画像の2つのエッジ画像のうち一方のエッジ画像と、参照画像のエッジ画像とを非依存画像生成手段703に出力する。さらに、エッジ画像生成手段702は、2つの画像の2つのエッジ画像のうち他方のエッジ画像を類似度算出手段705に出力する。   In addition, the edge image generation unit 702 outputs one of the two edge images of the two images and the edge image of the reference image to the independent image generation unit 703. Further, the edge image generation unit 702 outputs the other edge image of the two edge images of the two images to the similarity calculation unit 705.

非依存画像生成手段703は、参照画像のエッジ画像と、2つのエッジ画像のうちの一方のエッジ画像との対応する位置にエッジを示す画素値があれば、参照画像の対応する位置の画素値を、環境変動非依存画像の同じ位置の画素値として設定する。   If there is a pixel value indicating an edge at a corresponding position between the edge image of the reference image and one of the two edge images, the independent image generation unit 703 can detect the pixel value at the corresponding position of the reference image. Is set as the pixel value at the same position of the environment variation independent image.

また、非依存画像生成手段703は、参照画像のエッジ画像と、2つのエッジ画像のうちの一方のエッジ画像との対応する位置にエッジを示す画素値がなければ、0を環境変動非依存画像の同じ位置の画素値として設定する。   Further, the non-dependent image generation unit 703 sets 0 as an environment variation-independent image if there is no pixel value indicating an edge at a corresponding position between the edge image of the reference image and one of the two edge images. Are set as pixel values at the same position.

非依存画像生成手段703は、生成した環境変動非依存画像を非依存画像記憶手段704に記憶するため出力する。   The independent image generation unit 703 outputs the generated environment variation independent image for storage in the independent image storage unit 704.

非依存画像記憶手段704は、取得した環境情報非依存画像を記憶する。なお、記憶手段101と非依存画像記憶手段704とは分ける構成にしたが、参照画像と、環境変動非依存情報とを区別して記憶するのであれば、同じ記憶手段に記憶するようにしても良い。   The independent image storage unit 704 stores the acquired environment information independent image. Although the storage unit 101 and the independent image storage unit 704 are configured separately, if the reference image and the environment variation independent information are stored separately, they may be stored in the same storage unit. .

類似度算出手段705は、まず、非依存画像記憶手段704から読み出した環境変動非依存画像とエッジ画像生成手段702より取得した2つのエッジ画像のうちの他方のエッジ画像とを、画素ごとにエッジを示す画素値を有するか否かを判定する。このとき、環境変動非依存画像において0の画素値を有する位置については、他方のエッジ画像の画素との上記判定は行なわない。これより、無駄な処理を削減することができる。   The similarity calculation unit 705 first determines, for each pixel, an edge variation image that is read from the independent image storage unit 704 and the other edge image of the two edge images acquired from the edge image generation unit 702 for each pixel. It is determined whether or not it has a pixel value indicating. At this time, for the position having the pixel value of 0 in the environment variation-independent image, the above determination with respect to the pixel of the other edge image is not performed. Thus, useless processing can be reduced.

次に、類似度算出手段705は、上記判定の結果、環境変動非依存画像の0ではない画素値を有する位置において、他方のエッジ画像で対応する位置にエッジを示す画素値があれば、環境変動非依存画像の画素値を類似度に累積する。   Next, as a result of the above determination, the similarity calculation unit 705 determines that if there is a pixel value indicating an edge at a corresponding position in the other edge image at a position having a non-zero pixel value in the environment variation-independent image. The pixel values of the variation-independent image are accumulated in the similarity.

つまり、本実施例の類似度は、参照画像のエッジ画像、2つの画像の全てのエッジ画像に対し、全てのエッジ画像に共通のエッジを有する位置において、参照画像の対応する位置の画素値を累積したものが類似度となる。   That is, the similarity in this embodiment is obtained by calculating the pixel value at the position corresponding to the reference image at a position having an edge common to all the edge images with respect to the edge image of the reference image and all the edge images of the two images. The accumulation is the similarity.

ここで、図8を用いて、実施例2の類似度算出における上記判定のイメージを説明する。図8(a)は、環境変動非依存画像のエッジ画像を示す図である。図8(b)は、図8(a)に示すエッジ画像に対応する環境変動非依存画像の例を示す図である。図8(b)に示すように、図8(a)のエッジを有する位置に参照画像の画素値が設定されている。図8(c)は、画像2のエッジ画像を示す図である。   Here, the image of the determination in the similarity calculation of the second embodiment will be described with reference to FIG. FIG. 8A is a diagram illustrating an edge image of an environment variation independent image. FIG. 8B is a diagram illustrating an example of an environment variation-independent image corresponding to the edge image illustrated in FIG. As shown in FIG. 8B, the pixel value of the reference image is set at a position having the edge of FIG. FIG. 8C is a diagram illustrating an edge image of the image 2.

図8(b)、(c)の画像を用いて類似度を算出する場合、画素ごとに上記判定を行ない、環境変動非依存画像の0ではない画素値を有する位置、つまり、図8(b)に示す0でない画素値を有する位置において、図8(c)に示すエッジ画像がエッジを示す画素値を有する場合には、環境変動非依存画像の画素値を累積して類似度とする。図8を例にすると、類似度=88+20+60+・・・+35+120となる。このとき、類似度の値が大きければ大きいほど、2つの画像は類似するということになる。   When the similarity is calculated using the images of FIGS. 8B and 8C, the above determination is made for each pixel, and the position having a non-zero pixel value of the environment variation-independent image, that is, FIG. When the edge image shown in FIG. 8C has a pixel value indicating an edge at a position having a pixel value other than 0 as shown in (), the pixel values of the environment variation-independent image are accumulated to obtain a similarity. Taking FIG. 8 as an example, similarity is 88 + 20 + 60 +... + 35 + 120. At this time, the larger the similarity value, the more similar the two images.

なお、実施例2では、判定の結果、環境変動非依存画像の画素値を累積して類似度とすることにしたが、共通するエッジ位置の数をカウントしてこのカウント値を類似度とすることができる。   In the second embodiment, as a result of the determination, the pixel values of the environment variation-independent image are accumulated to obtain the similarity, but the number of common edge positions is counted and this count value is used as the similarity. be able to.

また、共通するエッジ位置の数をカウントしてカウント値を類似度とする場合は、環境変動非依存画像はエッジを識別できればいいので、エッジがある画素値を1と設定し、エッジがない画素値を0と設定して環境変動非依存画像を生成しても良い。   In addition, when the number of common edge positions is counted and the count value is used as a similarity, it is only necessary that the environment variation-independent image can identify the edge. Therefore, the pixel value with the edge is set to 1 and the pixel without the edge The value may be set to 0 to generate an environment variation independent image.

図9は、実施例2に係る画像処理装置における類似度算出のフローチャートである。ステップ901では、画像入力手段701が、撮像された画像を2つ入力し、入力した2つの画像をエッジ画像生成手段702に出力する。   FIG. 9 is a flowchart of similarity calculation in the image processing apparatus according to the second embodiment. In step 901, the image input unit 701 inputs two captured images and outputs the two input images to the edge image generation unit 702.

ステップ901に続いてステップ902に進み、エッジ画像生成手段702が、画像入力手段701より取得した2つの画像と、記憶手段101より読出した参照画像とに対してそれぞれエッジ画像を生成する。また、エッジ画像生成手段702は、生成したエッジ画像のうち、参照画像のエッジ画像と2つのエッジ画像のうちの一方のエッジ画像を非依存画像生成手段703に出力し、2つのエッジ画像のうちの他方のエッジ画像を類似度算出手段705に出力する。   Progressing to step 902 following step 901, the edge image generation unit 702 generates edge images for the two images acquired from the image input unit 701 and the reference image read from the storage unit 101. In addition, the edge image generation unit 702 outputs the edge image of the reference image and one of the two edge images to the independent image generation unit 703 among the generated edge images, and outputs the edge image of the two edge images. The other edge image is output to the similarity calculation means 705.

ステップ902に続いてステップ903に進み、非依存画像生成手段703が、エッジ画像生成手段702より取得したエッジ画像に基づいて、環境変動非依存画像を生成し、環境変動非依存画像を非依存画像記憶手段704に記憶させるため出力する。環境変動非依存画像の生成処理は、図10を用いて後述する。   Progressing to step 903 following step 902, the independent image generation unit 703 generates an environment variation independent image based on the edge image acquired from the edge image generation unit 702, and converts the environment variation independent image into the independent image. Output for storage in storage means 704. The generation process of the environment variation independent image will be described later with reference to FIG.

ステップ903に続いてステップ904に進み、非依存画像記憶手段704が、非依存画像生成手段704より取得した環境変動非依存画像を記憶する。   Proceeding to step 904 following step 903, the independent image storage unit 704 stores the environment variation independent image acquired from the independent image generation unit 704.

ステップ904に続いてステップ905に進み、類似度算出手段705が、非依存画像記憶手段704から読み出した環境変動非依存画像と、エッジ画像生成手段702より取得した他方のエッジ画像とを画素ごとに以下の判定を行ない、判定結果を出力する。   Proceeding to step 905 following step 904, the similarity calculation unit 705 extracts the environment variation independent image read from the independent image storage unit 704 and the other edge image acquired from the edge image generation unit 702 for each pixel. The following determination is performed and the determination result is output.

判定とは、環境変動非依存画像上の0ではない画素値を有する位置において、対応する位置に他方のエッジ画像のエッジを示す画素値があるか否かの判定のことである。また、判定結果とは、判定結果が肯定の場合に環境変動非依存画像の画素値とし、判定結果が否定の場合には0とする。また、別の判定結果としては、判定結果が肯定の場合は1とし、判定結果が否定の場合は0としてもよい。   The determination is a determination as to whether or not there is a pixel value indicating the edge of the other edge image at a corresponding position at a position having a non-zero pixel value on the environment variation independent image. The determination result is the pixel value of the environment variation-independent image when the determination result is affirmative, and is 0 when the determination result is negative. Another determination result may be 1 when the determination result is affirmative and may be 0 when the determination result is negative.

ステップ905に続いてステップ906に進み、類似度算出手段705が、判定結果を累積し、累積した値を類似度とする。   Proceeding to step 906 following step 905, the similarity calculation means 705 accumulates the determination results and sets the accumulated value as the similarity.

ここで、図10を用いてステップ903の環境変動非依存画像生成処理を説明する。図10は、実施例2に係る画像処理装置における環境変動非依存画像生成処理のフローチャートである。   Here, the environment variation-independent image generation processing in step 903 will be described with reference to FIG. FIG. 10 is a flowchart of the environment variation independent image generation process in the image processing apparatus according to the second embodiment.

ステップ1001では、非依存画像生成手段703が、参照画像のエッジ画像上の画素ごとに画素値が0でないか否かの判定を行なう。ステップ1001の判定結果がYESである場合、ステップ1002に進み、非依存画像生成手段703が、参照画像のエッジ画像上の0でない画素値を有する位置において、一方の画像のエッジ画像上の対応する位置の画素値が、エッジを示す画素値を有するか否かを判定する。   In step 1001, the independent image generation unit 703 determines whether the pixel value is not 0 for each pixel on the edge image of the reference image. When the determination result in step 1001 is YES, the process proceeds to step 1002, and the independent image generation unit 703 corresponds to the edge image of one image at a position having a non-zero pixel value on the edge image of the reference image. It is determined whether or not the pixel value at the position has a pixel value indicating an edge.

ステップ1002の判定結果がYESである場合、非依存画像生成手段703が、ステップ1002でYESと判定された位置に対応する環境変動非依存画像の位置の画素値として、参照画像の画素値を設定する。   When the determination result in step 1002 is YES, the independent image generation unit 703 sets the pixel value of the reference image as the pixel value of the position of the environment variation independent image corresponding to the position determined as YES in step 1002. To do.

ステップ1001の判定結果がNOである場合、又は、ステップ1002の判定結果がNOである場合、判定されたそれぞれの位置に対応する環境変動非依存画像の位置の画素値として、0を設定する。   If the determination result in step 1001 is NO, or if the determination result in step 1002 is NO, 0 is set as the pixel value of the position of the environment variation-independent image corresponding to each determined position.

ステップ1003、又はステップ1004に続いてステップ1005に進み、非依存画像生成手段703が、ステップ1001を全ての画素に対して行なったか判定する。なお、ステップ1005の判定は、環境変動非依存画像上の画素値が全て設定されたか否かの判定でもよい。   Progressing to step 1005 following step 1003 or step 1004, it is determined whether the independent image generation means 703 has performed step 1001 on all pixels. Note that the determination in step 1005 may be a determination as to whether or not all pixel values on the environment variation-independent image have been set.

ステップ1005の判定結果がYESであれば環境変動非依存画像生成処理を終了する。また、判定結果がNOであればステップ1006に進み、非依存画像生成手段703が、参照画像のエッジ画像上の次の画素を読出して、ステップ1001に戻る。   If the decision result in the step 1005 is YES, the environment variation independent image generation process is ended. If the determination result is NO, the process proceeds to step 1006, and the independent image generation unit 703 reads the next pixel on the edge image of the reference image, and returns to step 1001.

以上、実施例2に係る画像処理装置によれば、類似度算出における処理負荷を考慮しつつ環境条件に依存した部分がある画像であっても、環境条件に依存した部分の影響を取り除いて他の画像との類似度を算出することができる。非依存画像記憶手段704に記憶されている環境変動非依存画像を類似度算出に用いるため、環境変動非依存画像の生成処理をその都度行なう必要がないからである。   As described above, according to the image processing apparatus according to the second embodiment, even if an image includes a part depending on the environmental condition while considering the processing load in calculating the similarity, the influence of the part depending on the environmental condition is removed. It is possible to calculate the similarity to the image. This is because the environment variation-independent image stored in the independent image storage unit 704 is used for similarity calculation, so that it is not necessary to perform the environment variation-independent image generation process each time.

ここで、上記で説明した実施例、又は変形例に係る画像処理装置の適用例を図11に示す。図11は、実施例1に係る画像処理装置を車両に搭載する場合の例を示す図である。撮像手段が車両の前方に備え付けられ、車両に搭載された画像処理装置と接続されている。これにより、同じ位置で撮った画像間で類似しないと判断される場合には、運転手に警告を発するなどして、異常物があることを知らせることができる。   Here, FIG. 11 shows an application example of the image processing apparatus according to the embodiment or the modification described above. FIG. 11 is a diagram illustrating an example when the image processing apparatus according to the first embodiment is mounted on a vehicle. An imaging unit is provided in front of the vehicle and is connected to an image processing device mounted on the vehicle. Accordingly, when it is determined that the images taken at the same position are not similar, it is possible to notify the driver that there is an abnormal object by issuing a warning or the like.

かかる場合、撮像した画像の位置ずれ、回転ずれに対しては、車両に搭載しているジャイロ機能を用いて車両の傾きを検出し、ナビゲーションシステムなどが有するGPS(Global Positioning System)機能を用いて現在位置を把握することで、上記ずれの補正をすることが可能である。   In such a case, for the positional deviation and rotational deviation of the captured image, the inclination of the vehicle is detected using a gyro function mounted on the vehicle, and the GPS (Global Positioning System) function of a navigation system or the like is used. By grasping the current position, it is possible to correct the deviation.

なお、本発明の適用例としては、上記例に限られることはなく、参照画像を有しており、撮像された2つの画像の類似度を算出したいときに適用することが可能である。   The application example of the present invention is not limited to the above example, and it can be applied when a reference image is provided and the similarity between two captured images is to be calculated.

また、実施例1の構成と実施例2の構成とを1つの画像処理装置に構成し、エッジを適切に抽出できるときは実施例2の構成をとり、エッジを適切に抽出できないときは実施例1の構成をとるようにしてもよい。これより、撮像された画像に応じて適切な類似度算出を行うことができる。   Further, the configuration of the first embodiment and the configuration of the second embodiment are configured in one image processing apparatus, and the configuration of the second embodiment is adopted when the edge can be appropriately extracted. 1 may be adopted. Thus, appropriate similarity calculation can be performed according to the captured image.

エッジを適切に抽出できないとは、例えばぼんやりした画像を撮影したときにはエッジを抽出できないと考えられる。よって、抽出したエッジ数が所定数以上か否か、または、エッジの画像に占める割合が所定値より大きいか否かで実施例1と実施例2との構成を切り替えるようにしてもよい。   If the edge cannot be extracted properly, it is considered that the edge cannot be extracted, for example, when a blurred image is taken. Therefore, the configurations of the first embodiment and the second embodiment may be switched depending on whether the number of extracted edges is equal to or larger than a predetermined number or whether the ratio of the edge to the image is larger than a predetermined value.

以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、上記変形例以外にも種々の変形・変更が可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and other than the above-described modifications within the scope of the gist of the present invention described in the claims. In addition, various modifications and changes can be made.

実施例1に係る画像処理装置の概略機能ブロックを示す図。1 is a diagram illustrating schematic functional blocks of an image processing apparatus according to Embodiment 1. FIG. 参照画像と画像1と画像2との例を示す図。The figure which shows the example of a reference image, the image 1, and the image 2. FIG. 参照画像のエッジ画像と画像1のエッジ画像と環境変動非依存画像との例を示す図。The figure which shows the example of the edge image of a reference image, the edge image of the image 1, and an environment variation independent image. 画像1と画像2との差分画像の例を示す図。The figure which shows the example of the difference image of the image 1 and the image 2. FIG. 類似度算出における処理の例を示す図。The figure which shows the example of the process in similarity calculation. 実施例1に係る画像処理装置における類似度算出処理のフローチャート。6 is a flowchart of similarity calculation processing in the image processing apparatus according to the first embodiment. 実施例2に係る画像処理装置の概略機能ブロックを示す図。FIG. 10 is a diagram illustrating schematic functional blocks of an image processing apparatus according to a second embodiment. 環境変動非依存画像のエッジ画像と環境変動非依存画像と画像2のエッジ画像との例を示す図。The figure which shows the example of the edge image of an environmental variation independent image, the environmental variation independent image, and the edge image of the image 2. FIG. 実施例2に係る画像処理装置における類似度算出処理を示すフローチャート。9 is a flowchart illustrating similarity calculation processing in the image processing apparatus according to the second embodiment. 環境変動非依存画像生成処理を示すフローチャート。The flowchart which shows an environmental variation independent image generation process. 本実施例に係る画像処理装置の適用例を示す図。1 is a diagram illustrating an application example of an image processing apparatus according to the present embodiment.

符号の説明Explanation of symbols

100、700 画像処理装置
101 記憶手段
102、701 画像入力手段
103、702 エッジ画像生成手段
104、703 非依存画像生成手段
105、705 類似度算出手段
106 差分値算出手段
107 重み付け手段
704 非依存画像記憶手段
100, 700 Image processing apparatus 101 Storage means 102, 701 Image input means 103, 702 Edge image generation means 104, 703 Independent image generation means 105, 705 Similarity calculation means 106 Difference value calculation means 107 Weighting means 704 Independent image storage means

Claims (8)

2つの画像の画像間における類似度を算出する画像処理装置において、
画像からエッジを抽出し、エッジ画像を生成するエッジ画像生成手段と、
前記エッジ画像生成手段により生成された前記2つの画像のうちの一方の画像のエッジ画像と、前記エッジ画像生成手段により生成された環境変動に依存しない参照画像のエッジ画像とに基づいて環境変動非依存画像を生成する非依存画像生成手段と、
前記非依存画像生成手段により生成された環境変動非依存画像に基づいて、前記2つの画像間の類似度を算出する類似度算出手段とを備えることを特徴とする画像処理装置。
In an image processing apparatus that calculates the similarity between two images,
Edge image generation means for extracting an edge from an image and generating an edge image;
Based on the edge image of one of the two images generated by the edge image generation means and the edge image of the reference image independent of the environment fluctuation generated by the edge image generation means. A non-dependent image generating means for generating a dependent image;
An image processing apparatus comprising: a similarity calculation unit that calculates a similarity between the two images based on an environment variation independent image generated by the independent image generation unit.
前記類似度算出手段は、
前記2つの画像間において、各画素ごとに画像間の差分値を算出する差分値算出手段と、
前記環境変動非依存画像に基づいて、前記差分値算出手段により算出された差分値に重み付けをする重み付け手段とを備え、
前記重み付け手段により重み付けされた差分値に基づいて、前記類似度を算出することを特徴とする請求項1記載の画像処理装置。
The similarity calculation means includes:
A difference value calculating means for calculating a difference value between images for each pixel between the two images;
Weighting means for weighting the difference value calculated by the difference value calculating means based on the environmental variation independent image;
The image processing apparatus according to claim 1, wherein the similarity is calculated based on a difference value weighted by the weighting unit.
前記非依存画像生成手段は、
前記エッジ画像生成手段により抽出された前記参照画像のエッジと、前記エッジ画像生成手段により抽出された前記一方の画像のエッジとに対し、共通するエッジより構成されるエッジ画像を前記環境変動非依存画像とすることを特徴とする請求項2記載の画像処理装置。
The independent image generation means includes
An edge image composed of a common edge with respect to the edge of the reference image extracted by the edge image generation unit and the edge of the one image extracted by the edge image generation unit is independent of the environmental variation. The image processing apparatus according to claim 2, wherein the image processing apparatus is an image.
前記非依存画像生成手段により生成された環境変動非依存画像を記憶する記憶手段を備え、
前記類似度算出手段は、
前記記憶手段により記憶された環境変動非依存画像と、前記エッジ画像生成手段により生成された前記2つの画像のうちの他方の画像のエッジ画像とに基づいて、前記2つの画像間の類似度を算出することを特徴とする請求項1記載の画像処理装置。
Storage means for storing the environment variation independent image generated by the independent image generation means;
The similarity calculation means includes:
Based on the environment variation-independent image stored by the storage unit and the edge image of the other image of the two images generated by the edge image generation unit, the similarity between the two images is determined. The image processing apparatus according to claim 1, wherein the image processing apparatus is calculated.
前記非依存画像生成手段は、
前記一方の画像のエッジ画像と前記参照画像のエッジ画像とに対応する位置に、エッジを示す画素値がある場合には、前記環境変動非依存画像の当該位置の画素値として前記参照画像の画素値を設定し、前記対応する位置にエッジを示す画素値がない場合には、前記環境変動非依存画像の当該位置の画素値として0を設定して前記環境変動非依存画像を生成することを特徴とする請求項4記載の画像処理装置。
The independent image generation means includes
When there is a pixel value indicating an edge at a position corresponding to the edge image of the one image and the edge image of the reference image, the pixel of the reference image is used as the pixel value of the position of the environment variation independent image A value is set, and when there is no pixel value indicating an edge at the corresponding position, the environment variation independent image is generated by setting 0 as the pixel value at the position of the environment variation independent image. The image processing apparatus according to claim 4, wherein:
前記類似度算出手段は、
前記環境非依存画像と前記他方の画像のエッジ画像とを画素ごとに0でない画素値を有するか否かを判定し、判定結果に基づいて前記類似度を算出することを特徴とする請求項4又は5記載の画像処理装置。
The similarity calculation means includes:
5. The similarity is calculated based on whether or not the environment-independent image and the edge image of the other image have a non-zero pixel value for each pixel. Or the image processing apparatus of 5.
前記類似度算出手段は、
前記環境変動非依存画像上で0の画素値を有する位置については、前記判定を行なわないことを特徴とする請求項6記載の画像処理装置。
The similarity calculation means includes:
The image processing apparatus according to claim 6, wherein the determination is not performed for a position having a pixel value of 0 on the environment variation independent image.
前記類似度算出手段は、
前記環境変動非依存画像上で0ではない画素値を有する位置において、前記他方の画像のエッジ画像がエッジを示す画素値を有する場合に、当該位置における前記環境変動非依存画像の画素値を累積することにより前記類似度を算出する請求項6又は7記載の画像処理装置。
The similarity calculation means includes:
When the edge image of the other image has a pixel value indicating an edge at a position having a non-zero pixel value on the environment variation independent image, the pixel value of the environment variation independent image at the position is accumulated. The image processing apparatus according to claim 6, wherein the similarity is calculated by performing the operation.
JP2008070221A 2008-03-18 2008-03-18 Image processing device Expired - Fee Related JP5061979B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008070221A JP5061979B2 (en) 2008-03-18 2008-03-18 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008070221A JP5061979B2 (en) 2008-03-18 2008-03-18 Image processing device

Publications (2)

Publication Number Publication Date
JP2009223818A true JP2009223818A (en) 2009-10-01
JP5061979B2 JP5061979B2 (en) 2012-10-31

Family

ID=41240486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008070221A Expired - Fee Related JP5061979B2 (en) 2008-03-18 2008-03-18 Image processing device

Country Status (1)

Country Link
JP (1) JP5061979B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869535A (en) * 1994-08-30 1996-03-12 Nec Corp Background feature mask generating device and mobile object feature extracting device
JPH08210847A (en) * 1995-02-06 1996-08-20 Ikegami Tsushinki Co Ltd Image processing method
JP2004240909A (en) * 2003-02-10 2004-08-26 Hitachi High-Technologies Corp Image processor and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869535A (en) * 1994-08-30 1996-03-12 Nec Corp Background feature mask generating device and mobile object feature extracting device
JPH08210847A (en) * 1995-02-06 1996-08-20 Ikegami Tsushinki Co Ltd Image processing method
JP2004240909A (en) * 2003-02-10 2004-08-26 Hitachi High-Technologies Corp Image processor and image processing method

Also Published As

Publication number Publication date
JP5061979B2 (en) 2012-10-31

Similar Documents

Publication Publication Date Title
JP6158779B2 (en) Image processing device
JP2008286725A (en) Person detector and detection method
JP6188592B2 (en) Object detection apparatus, object detection method, and object detection program
JP5515871B2 (en) Object recognition apparatus and program
JP2014009975A (en) Stereo camera
US20170190301A1 (en) Vehicle periphery monitoring device
JP6384802B2 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
JP2007011490A (en) Device and method for detecting road parameter
JP6384803B2 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
JP2009151759A (en) Image processing method and image processor
JP2002216113A (en) Object recognizing device
JP6299720B2 (en) Object recognition device and smoke determination method
JP2016130979A (en) Detection device, detection processing program, and detection system
JP5061979B2 (en) Image processing device
JP2017182139A (en) Determination apparatus, determination method, and determination program
JP2012221272A (en) Image processing system and image processing method
JP4155252B2 (en) Vehicle detection device
JP6571492B2 (en) Corresponding point search method and distance measuring device
JP5176523B2 (en) Moving body detection apparatus, moving body detection method, and moving body detection program
JP3912358B2 (en) Threshold setting device and threshold setting method
JP4151631B2 (en) Object detection device
JP6935690B2 (en) Detection programs, methods, and equipment
JP2011053732A (en) Image processor
JP2021051348A (en) Object distance estimation apparatus and object distance estimation method
JP6688091B2 (en) Vehicle distance deriving device and vehicle distance deriving method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120710

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120723

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees