JP4674179B2 - Shadow recognition method and shadow boundary extraction method - Google Patents

Shadow recognition method and shadow boundary extraction method Download PDF

Info

Publication number
JP4674179B2
JP4674179B2 JP2006093847A JP2006093847A JP4674179B2 JP 4674179 B2 JP4674179 B2 JP 4674179B2 JP 2006093847 A JP2006093847 A JP 2006093847A JP 2006093847 A JP2006093847 A JP 2006093847A JP 4674179 B2 JP4674179 B2 JP 4674179B2
Authority
JP
Japan
Prior art keywords
shadow
boundary
pixel
edge
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006093847A
Other languages
Japanese (ja)
Other versions
JP2007272292A (en
Inventor
宗隆 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2006093847A priority Critical patent/JP4674179B2/en
Publication of JP2007272292A publication Critical patent/JP2007272292A/en
Application granted granted Critical
Publication of JP4674179B2 publication Critical patent/JP4674179B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像に写り込んだ影の認識を行うための影認識方法及び画像に写り込んだ影の境界(影領域と非影領域との境界)を抽出するための影境界抽出方法に関する。   The present invention relates to a shadow recognition method for recognizing a shadow reflected in an image and a shadow boundary extraction method for extracting a boundary of a shadow reflected in an image (a boundary between a shadow region and a non-shadow region).

従来、撮像装置(カメラ)によって撮像された画像などに写り込んだ影を認識する影認識方法として、例えば、下記の非特許文献1〜3に開示されている技術が知られている。   Conventionally, for example, techniques disclosed in the following Non-Patent Documents 1 to 3 are known as a shadow recognition method for recognizing a shadow reflected in an image captured by an imaging device (camera).

非特許文献1に開示されている技術では、シーンに照射される光の分布において、照射される光が少ない領域が影領域として検出される。また、非特許文献2に開示されている技術では、画像内の影領域と非影領域では、明るさのみが異なり色成分は大きく変わらないことを利用して、影領域の検出が行われている。また、非特許文献3に開示されている技術では、画像内の動物体の検知結果から、動物体と一緒に検知された影領域の除去が行われている。
“Automatic Image Shadow Identification using LPF in Homomorphic Processing System”, Hamideh Etemadnia and Prof. Mohammad Reza Alsharif, Proc. VIIth Digital Image Computing, 10-12, Dec. 2003 “Cast shadow segmentation using invariant color features”, E. Salvador et al., Computer Vision and Image Understanding 95, 238-259, 2004 “Improving Shadow Suppression in Moving Object Detection with HSV Color Information”, Rita Cucchiara et al., IEEE Intelligent Transportation Systems Conference Proceedings,pp.334-339,2001
In the technique disclosed in Non-Patent Document 1, a region with a small amount of irradiated light is detected as a shadow region in the distribution of light irradiated on the scene. In the technique disclosed in Non-Patent Document 2, shadow areas are detected by utilizing the fact that only the brightness is different and the color components are not significantly changed between the shadow area and the non-shadow area in the image. Yes. In the technique disclosed in Non-Patent Document 3, the shadow area detected together with the moving object is removed from the detection result of the moving object in the image.
“Automatic Image Shadow Identification using LPF in Homomorphic Processing System”, Hamideh Etemadnia and Prof. Mohammad Reza Alsharif, Proc. VIIth Digital Image Computing, 10-12, Dec. 2003 “Cast shadow segmentation using invariant color features”, E. Salvador et al., Computer Vision and Image Understanding 95, 238-259, 2004 “Improving Shadow Suppression in Moving Object Detection with HSV Color Information”, Rita Cucchiara et al., IEEE Intelligent Transportation Systems Conference Proceedings, pp.334-339, 2001

しかしながら、非特許文献1に開示されている技術では、画像中に単一の物体しか存在しないような単純な画像における影認識は可能であるが、実環境での複雑な画像(多数の物体が存在しているような画像など)では、影認識を行うことは困難である。   However, with the technology disclosed in Non-Patent Document 1, shadow recognition in a simple image in which only a single object exists in the image is possible, but a complex image (a large number of objects in an actual environment) It is difficult to perform shadow recognition on images that exist.

また、非特許文献2に開示されている技術に関しては、屋外などの環境光の影響が大きい場合には、画像内の影領域と非影領域での色成分に違いが生じるため、非特許文献2に開示されている技術の適用は困難である。   Further, regarding the technique disclosed in Non-Patent Document 2, when the influence of environmental light such as outdoors is large, a difference occurs in the color components in the shadow area and the non-shadow area in the image. Application of the technique disclosed in 2 is difficult.

また、非特許文献3に開示されている技術では、最初に背景画像を用いた背景差分法などを利用して、動物体を検知する必要がある。そのため、背景が変化していく車やロボットなどの移動体に設置されているカメラで撮像された撮像画像(すなわち、時系列的に連続した画像の背景が変化する場合)に対して、非特許文献3に開示されている技術を適用することは困難である。   In the technique disclosed in Non-Patent Document 3, it is necessary to first detect the moving object using a background subtraction method using a background image. Therefore, for non-patented images taken with a camera installed on a moving body such as a car or robot whose background changes (that is, when the background of a continuous image in time series changes) It is difficult to apply the technique disclosed in Document 3.

本発明は、上記の問題を解決するため、画像内の背景が複雑な場合においても、1枚の画像から、その画像に写っている影の認識を行うための影認識方法及び影境界抽出方法を提供することを目的とする。   In order to solve the above-described problem, the present invention solves the above-described problem by using a shadow recognition method and a shadow boundary extraction method for recognizing a shadow in an image from a single image even when the background in the image is complicated. The purpose is to provide.

上記目的を達成するために、本発明の影認識方法は、撮像装置によって任意の物体の影が撮像された画像内において、前記影を認識するためにコンピュータによって実行される影認識方法であって、
前記撮像装置で撮像された前記画像を取得する画像取得ステップと、
前記画像中に影が存在すると推測される領域を、任意の影領域抽出技術を用いて抽出する領域抽出ステップと、
前記画像中に影が存在すると推測される領域と当該影が存在しないと推測される領域との境界を、所定の影境界抽出技術を用いて抽出する境界抽出ステップと、
前記領域抽出ステップで抽出された前記領域領域抽出結果、及び前記境界抽出ステップで抽出された前記境界境界抽出結果の関係に基づいて、前記画像を形成する各画素について判定値を算出する判定値算出ステップと、
前記判定値算出ステップで算出された前記判定値に基づいて、前記画像を形成する前記各画素が、影に属するか否かを判断する影認識ステップとを、
有する。
上記の問題を解決するため、画像内の背景が複雑な場合においても、1枚の画像から、その画像に写っている影の認識を行うことが可能となる。
To achieve the above object, a shadow recognition method of the present invention is a shadow recognition method executed by a computer to recognize a shadow in an image in which a shadow of an arbitrary object is captured by an imaging device. ,
An image acquisition step of acquiring the image captured by the imaging device;
An area extraction step for extracting an area in which the shadow is assumed to be present in the image using an arbitrary shadow area extraction technique ;
A boundary extraction step of extracting a boundary between an area in which the shadow is assumed to be present in the image and an area in which the shadow is not assumed to be present using a predetermined shadow boundary extraction technique ;
Said region extraction region extraction result of the region extracted in step, and on the basis of the boundary extraction result of the relationship of the boundary extracted by the boundary extracting step, to calculate a decision value for each pixel forming the image determining A value calculation step;
A shadow recognition step of determining whether each of the pixels forming the image belongs to a shadow based on the determination value calculated in the determination value calculation step ;
Have.
In order to solve the above problem, even when the background in an image is complicated, it is possible to recognize a shadow in the image from one image.

さらに、本発明の影認識方法は、上記の影認識方法に加えて、前記影認識ステップにおいて、
前記判定値に基づいて、前記領域抽出ステップで抽出された前記領域に属する画素を、影に属する画素と判定し、一方、当該領域及び前記境界のいずれにも属さない画素を、影に属さない画素と判定するステップと、
前記判定値に基づいて、前記領域抽出ステップで抽出された前記領域に属さずかつ前記境界に属する画素であって当該画素同士が隣接している場合には、隣接している画素同士を集合体とみなす集合設定ステップと、
前記判定値に基づいて、前記集合設定ステップで設定された前記集合体に属する任意の画素が、前記領域抽出ステップで抽出された前記領域に属する画素に隣接している場合には、当該領域に属する画素とともに前記集合体に属するすべての画素を、影に属する画素と判定するステップと、
前記判定値に基づいて、前記集合設定ステップで設定された前記集合体に属するすべての画素が、前記領域抽出ステップで抽出された前記領域に属する画素に隣接していない場合には、当該集合体に属するすべての画素を、影に属さない画素と判定するステップとを、
有する。
これにより、例えば、領域抽出処理によって得られる領域と、境界抽出処理によって得られる境界とを適切に統合することが可能となる。
Furthermore, the shadow recognition method of the present invention, in addition to the above-described shadow recognition method, in the shadow recognition step,
Based on the determination value, a pixel belonging to the region extracted in the region extraction step is determined as a pixel belonging to a shadow , while a pixel that does not belong to either the region or the boundary does not belong to a shadow. Determining a pixel;
Based on the determination value, if the pixels do not belong to the region extracted in the region extraction step and belong to the boundary and are adjacent to each other, the adjacent pixels are aggregated. Set setting step to be considered as
Based on the judgment value, any pixel belonging to the aggregate set by the set setting step, when adjacent to the pixel belonging to the area extracting the region extracted in step to the region Determining all pixels belonging to the aggregate together with pixels belonging to the pixel belonging to a shadow ;
On the basis of the decision value, all pixels belonging to the aggregate set by the set setting step, when not adjacent to the pixel belonging to the area extracting the region extracted in step the assembly Determining all pixels belonging to the pixel not belonging to the shadow ,
Have.
Thus, for example, a region obtained by the region extraction processing, it is possible to properly integrate the obtained boundary by the boundary extraction processing.

また、上記の目的を達成するため、本発明の影境界抽出方法は、撮像装置によって任意の物体の影が撮像された画像内において、前記画像中の影領域と前記影領域とは異なる非影領域との影境界を抽出するためにコンピュータによって実行される影境界抽出方法であって、
前記撮像装置で撮像された前記画像を取得する画像取得ステップと、
前記画像中の被撮像物のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップで抽出された前記エッジに属するエッジ画素を特定するエッジ画素特定ステップと、
前記エッジ画素と、前記エッジ画素の近傍に存在する複数の画素との画素値の関係を示すパターンを算出するパターン算出ステップと、
前記影境界に属する影境界画素と、前記影境界画素の近傍に存在する複数の画素との画素値の関係があらかじめ設定されている影境界パターンを参照する影境界パターン参照ステップと、
前記影境界パターン参照ステップで参照された前記影境界パターンと、前記パターン算出ステップで算出された前記パターンとを照合するパターン照合ステップと、
前記パターン照合ステップで前記影境界パターンと一致した前記パターン算出ステップで算出された前記パターンに属する前記エッジ画素を、前記影境界に存在する画素と判定するパターン照合影境界判定ステップとを、
有する。
これにより、画像内の背景が複雑な場合においても、1枚の画像から、その画像に写っている影の認識を行うことが可能となる。また、処理速度の速い影認識処理を実現することが可能となる。
In order to achieve the above object, the shadow boundary extraction method of the present invention is a non-shadow that is different from the shadow area in the image and the shadow area in the image in which the shadow of an arbitrary object is captured by the imaging device. A shadow boundary extraction method executed by a computer to extract a shadow boundary with a region,
An image acquisition step of acquiring the image captured by the imaging device;
An edge extraction step of extracting an edge of the object to be imaged in the image;
An edge pixel specifying step for specifying an edge pixel belonging to the edge extracted in the edge extraction step;
A pattern calculation step of calculating a pattern indicating a relationship between pixel values of the edge pixel and a plurality of pixels existing in the vicinity of the edge pixel;
A shadow boundary pattern reference step for referring to a shadow boundary pattern in which a relationship between pixel values of shadow boundary pixels belonging to the shadow boundary and a plurality of pixels existing in the vicinity of the shadow boundary pixel is set;
A pattern matching step for matching the shadow boundary pattern referred to in the shadow boundary pattern reference step with the pattern calculated in the pattern calculation step;
A pattern matching shadow boundary determining step for determining that the edge pixel belonging to the pattern calculated in the pattern calculating step matched with the shadow boundary pattern in the pattern matching step is a pixel existing in the shadow boundary;
Have.
As a result, even when the background in the image is complicated, it is possible to recognize a shadow in the image from one image. It is also possible to realize shadow recognition processing with a high processing speed.

さらに、本発明の影境界抽出方法は、上記の影境界抽出方法に加えて、前記影境界パターンが、任意の影境界画素と、前記任意の影境界画素の近傍に存在する複数の画素との画素値の関係から生成されたものである。
これにより、影境界パターンを学習によって容易に作成することが可能となる。
Furthermore, in the shadow boundary extraction method of the present invention, in addition to the above-described shadow boundary extraction method, the shadow boundary pattern includes an arbitrary shadow boundary pixel and a plurality of pixels existing in the vicinity of the arbitrary shadow boundary pixel. It is generated from the relationship between pixel values.
As a result, the shadow boundary pattern can be easily created by learning.

さらに、本発明の影境界抽出方法は、上記の影境界抽出方法に加えて、前記画素値が、RGB表色系の色成分値である。
これにより、カラー画像に基づく影境界の抽出処理を行うことが可能となる。
Furthermore, in the shadow boundary extraction method of the present invention, in addition to the above-described shadow boundary extraction method, the pixel values are RGB color system color component values.
This makes it possible to perform a shadow boundary extraction process based on a color image.

また、上記の目的を達成するため、本発明の影境界抽出方法は、撮像装置によって任意の物体の影が撮像された画像内において、前記画像中の影領域と前記影領域とは異なる非影領域との影境界を抽出するためにコンピュータによって実行される影境界抽出方法であって、
前記撮像装置で撮像された前記画像を取得する画像取得ステップと、
前記画像中の被撮像物のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップで抽出された前記エッジに対して2値化処理を行い、当該2値化処理がされたエッジによって隔てられた2つの領域のそれぞれの特徴量を算出する特徴量算出ステップと、
前記2つの領域のそれぞれの特徴量の関係が、前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係に一致するか否かを判定する特徴量関係判定ステップと、
前記特徴量関係判定ステップで、前記2つの領域のそれぞれの特徴量の関係が前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係に一致した場合、前記エッジを前記影境界と判定する特徴量照合影境界判定ステップとを、
有する。
これにより、画像内の背景が複雑な場合においても、1枚の画像から、その画像に写っている影の認識を行うことが可能となる。
In order to achieve the above object, the shadow boundary extraction method of the present invention is a non-shadow that is different from the shadow area in the image and the shadow area in the image in which the shadow of an arbitrary object is captured by the imaging device. A shadow boundary extraction method executed by a computer to extract a shadow boundary with a region,
An image acquisition step of acquiring the image captured by the imaging device;
An edge extraction step of extracting an edge of the object to be imaged in the image;
A feature amount calculating step of performing binarization processing on the edge extracted in the edge extraction step, and calculating respective feature amounts of two regions separated by the binarized edge ;
A feature amount relationship determination step for determining whether or not the relationship between the feature amounts of the two regions matches the relationship between the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary;
In the feature amount relationship determination step, when the relationship between the feature amounts of the two regions matches the relationship of the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary, the edge is converted into the shadow region. A feature amount matching shadow boundary determination step for determining a boundary,
Have.
As a result, even when the background in the image is complicated, it is possible to recognize a shadow in the image from one image.

さらに、本発明の影境界抽出方法は、上記の影境界抽出方法に加えて、前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係が、前記影領域に照射される光の分光特性と、前記非影領域に照射される光の分光特性の違いに基づいて定められたものである。
これにより、撮像時の環境の影響を考慮した影境界の抽出処理を実現することが可能いとなる。
Furthermore, in addition to the above-described shadow boundary extraction method, the shadow boundary extraction method of the present invention irradiates the shadow region with the relationship between the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary. It is determined based on the difference between the spectral characteristics of light and the spectral characteristics of light irradiated on the non-shadow area.
As a result, it is possible to realize shadow boundary extraction processing in consideration of the environmental influence during imaging.

さらに、本発明の影境界抽出方法は、上記の影境界抽出方法に加えて、前記特徴量算出ステップにおいて、前記2値化処理がされたエッジに属するエッジ画素の画素値に関するエッジ勾配方向を算出し、前記エッジ画素を通る前記エッジ勾配方向に略平行な直線上の画素の前記画素値に係る算出結果を前記特徴量とする。
これにより、エッジを隔てた2つの領域の特徴量を確実に算出することが可能となる。
Furthermore, in the shadow boundary extraction method of the present invention, in addition to the above-described shadow boundary extraction method, an edge gradient direction related to the pixel value of the edge pixel belonging to the binarized edge is calculated in the feature amount calculating step. Then, the calculation result relating to the pixel value of the pixel on the straight line substantially parallel to the edge gradient direction passing through the edge pixel is set as the feature amount.
This makes it possible to reliably calculate the feature amounts of the two regions that are separated from the edge.

さらに、本発明の影境界抽出方法は、上記の影境界抽出方法に加えて、前記特徴量が、前記2つの領域のそれぞれに属する一部又はすべての画素の画素値の統計量である。
これにより、統計処理によって、エッジを隔てた2つの領域のそれぞれの特徴量を容易かつ迅速に算出することが可能となる。
Further, in the shadow boundary extraction method of the present invention, in addition to the above-described shadow boundary extraction method, the feature amount is a statistic of pixel values of some or all pixels belonging to each of the two regions.
Accordingly, it is possible to easily and quickly calculate the feature amounts of the two regions separated from each other by statistical processing.

さらに、本発明の影境界抽出方法は、上記の影境界抽出方法に加えて、前記画素値が、RGB表色系の色成分値である。
これにより、カラー画像に基づく影境界の抽出処理を行うことが可能となる。
Furthermore, in the shadow boundary extraction method of the present invention, in addition to the above-described shadow boundary extraction method, the pixel values are RGB color system color component values.
This makes it possible to perform a shadow boundary extraction process based on a color image.

また、上記の目的を達成するため、本発明の影境界抽出方法は、撮像装置によって任意の物体の影が撮像された画像内において、前記画像中の影領域と前記影領域とは異なる非影領域との影境界を抽出するためにコンピュータによって実行される影境界抽出方法であって、
前記撮像装置で撮像された前記画像を取得する画像取得ステップと、
前記画像中の被撮像物のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップで抽出された前記エッジに属するエッジ画素を特定するエッジ画素特定ステップと、
前記エッジ画素と、前記エッジ画素の近傍に存在する複数の画素との画素値の関係を示すパターンを算出するパターン算出ステップと、
前記影境界に属する影境界画素と、前記影境界画素の近傍に存在する複数の画素との画素値の関係があらかじめ定められている影境界パターンを参照する影境界パターン参照ステップと、
前記影境界パターン参照ステップで参照された前記影境界パターンと、前記パターン算出ステップで算出された前記パターンとを照合するパターン照合ステップと、
前記パターン照合ステップで、前記影境界パターンと一致した前記パターン算出ステップで算出された前記パターンに属する前記エッジ画素を特定するパターン照合影領域判定ステップと、
前記パターン照合影領域判定ステップで特定された前記エッジ画素の画素値に関するエッジ勾配方向を算出し、前記エッジ画素を通る前記エッジ勾配方向に略平行な直線上の画素の前記画素値に係る算出結果を前記特徴量として、前記エッジによって隔てられた2つの領域のそれぞれの特徴量を算出する特徴量算出ステップと、
前記2つの領域のそれぞれの特徴量の関係が、前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係に一致するか否かを判定する特徴量関係判定ステップと、
前記特徴量関係判定ステップで、前記2つの領域のそれぞれの特徴量の関係が前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係に一致した場合、前記エッジを前記影境界と判定する特徴量照合影境界判定ステップとを、
有する。
上記の問題を解決するため、画像内の背景が複雑な場合においても、1枚の画像から、その画像に写っている影の認識を行うことが可能となる。
In order to achieve the above object, the shadow boundary extraction method of the present invention is a non-shadow that is different from the shadow area in the image and the shadow area in the image in which the shadow of an arbitrary object is captured by the imaging device. A shadow boundary extraction method executed by a computer to extract a shadow boundary with a region,
An image acquisition step of acquiring the image captured by the imaging device;
An edge extraction step of extracting an edge of the object to be imaged in the image;
An edge pixel specifying step for specifying an edge pixel belonging to the edge extracted in the edge extraction step;
A pattern calculation step of calculating a pattern indicating a relationship between pixel values of the edge pixel and a plurality of pixels existing in the vicinity of the edge pixel;
A shadow boundary pattern reference step for referring to a shadow boundary pattern in which a relationship between pixel values of a shadow boundary pixel belonging to the shadow boundary and a plurality of pixels existing in the vicinity of the shadow boundary pixel is determined;
A pattern matching step for matching the shadow boundary pattern referred to in the shadow boundary pattern reference step with the pattern calculated in the pattern calculation step;
In the pattern matching step, a pattern matching shadow region determining step that identifies the edge pixel belonging to the pattern calculated in the pattern calculating step that matches the shadow boundary pattern;
An edge gradient direction related to a pixel value of the edge pixel specified in the pattern matching shadow region determination step is calculated, and a calculation result relating to the pixel value of a pixel on a straight line that is substantially parallel to the edge gradient direction passing through the edge pixel A feature amount calculating step for calculating each feature amount of two regions separated by the edge,
A feature amount relationship determination step for determining whether or not the relationship between the feature amounts of the two regions matches the relationship between the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary;
In the feature amount relationship determination step, when the relationship between the feature amounts of the two regions matches the relationship of the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary, the edge is converted into the shadow region. A feature amount matching shadow boundary determination step for determining a boundary,
Have.
In order to solve the above problem, even when the background in an image is complicated, it is possible to recognize a shadow in the image from one image.

本発明は、画像内の背景が複雑な場合においても、1枚の画像から、その画像に写っている影の境界(影領域と非影領域との境界)を抽出することができるという効果を有しており、精度の高い影認識を行うことができるという効果を有している。   The present invention has an effect that, even when the background in an image is complicated, it is possible to extract a shadow boundary (a boundary between a shadow region and a non-shadow region) reflected in the image from one image. It has the effect that shadow recognition with high accuracy can be performed.

以下、図面を参照しながら、本発明の第1〜第3の実施の形態について説明する。   Hereinafter, first to third embodiments of the present invention will be described with reference to the drawings.

まず、図23を参照しながら、本明細書で用いられる用語を定義する。図23は、本発明に係る影認識方法及び影境界抽出方法における被撮像物及び撮像画像の一例を示す図である。   First, terms used in this specification will be defined with reference to FIG. FIG. 23 is a diagram illustrating an example of an object to be imaged and a captured image in the shadow recognition method and the shadow boundary extraction method according to the present invention.

図23に図示されているように、空間に物体が存在する場合に、光源(例えば太陽)から発せられた光は、その一部が物体に遮られ、地面などの投影面に物体の影が投影される。また、物体の影は、直接光源からの光は当たっていないものの、例えば大気中の粒子やその他の光反射体(例えば壁など)によって反射又は散乱した光(環境光)が間接的に投射される。   As shown in FIG. 23, when an object exists in space, a part of the light emitted from the light source (for example, the sun) is blocked by the object, and the shadow of the object is projected on the projection surface such as the ground. Projected. The shadow of an object is not directly exposed to light from a light source, but light (environmental light) reflected or scattered by, for example, atmospheric particles or other light reflectors (such as walls) is indirectly projected. The

本明細書では、物体の影が存在する領域を影領域、影領域とは異なる領域(その物体の影が存在しない領域)を非影領域、影領域と非影領域との境界(影領域のエッジ)を影境界と呼ぶ。また、本発明に係る影の認識(影認識)とは、撮像画像中に影が存在するか否か、あるいは撮像画像中のある領域(又は画素そのもの)によって表される非撮像物が影か否かを認識することを表す。   In this specification, the area where the shadow of the object exists is a shadow area, the area different from the shadow area (the area where the shadow of the object does not exist) is the non-shadow area, and the boundary between the shadow area and the non-shadow area (the shadow area Edge) is called a shadow boundary. In addition, shadow recognition (shadow recognition) according to the present invention refers to whether or not there is a shadow in a captured image, or whether a non-imaged object represented by a certain region (or pixel itself) in a captured image is a shadow. It represents recognizing whether or not.

次に、図1を参照しながら、本発明の第1〜第3の実施の形態に共通する画像補正システムの構成について説明する。図1には、本発明の第1〜第3の実施の形態に共通する画像補正システムの構成の一例が図示されている。   Next, the configuration of the image correction system common to the first to third embodiments of the present invention will be described with reference to FIG. FIG. 1 shows an example of the configuration of an image correction system common to the first to third embodiments of the present invention.

図1に図示されている画像補正システムは、カメラ(撮像装置)10、影認識装置20、影補正装置(画像補正装置)30、表示モニタ40、撮像画像利用装置50を有している。   The image correction system illustrated in FIG. 1 includes a camera (imaging apparatus) 10, a shadow recognition apparatus 20, a shadow correction apparatus (image correction apparatus) 30, a display monitor 40, and a captured image utilization apparatus 50.

図1において、カメラ10は、任意の撮像方向の撮像を行う機能を有している。なお、カメラ10で撮像される撮像画像は、動画像であってもよく、静止画像であってもよい。また、カメラ10の設置の態様は任意であり、例えば監視カメラなどのように所定の位置に固定されていてもよく、車両、船、飛行機、移動可能なロボットなどの移動体と共に移動するように移動体に設置されていてもよい。また、カメラ10は、人間が持ち運ぶことが可能なカメラであってもよい。   In FIG. 1, the camera 10 has a function of performing imaging in an arbitrary imaging direction. Note that the captured image captured by the camera 10 may be a moving image or a still image. Further, the installation mode of the camera 10 is arbitrary, and may be fixed at a predetermined position such as a surveillance camera, for example, so as to move together with a moving body such as a vehicle, a ship, an airplane, or a movable robot. It may be installed in the moving body. The camera 10 may be a camera that can be carried by a human.

図1に図示されているように、カメラ10で撮像された撮像画像は、影認識装置20及び影補正装置30に供給される。なお、図1には、カメラ10で撮像された撮像画像が直接、影認識装置20及び影補正装置30に供給される構成が図示されているが、カメラ10で撮像された撮像画像がいったん記録媒体に格納されたり、別の画像処理装置で画像処理が行われたりした後に、影認識装置20及び影補正装置30に供給されてもよく、また、ネットワークなどを通じて影認識装置20及び影補正装置30に供給されてもよい。   As shown in FIG. 1, the captured image captured by the camera 10 is supplied to the shadow recognition device 20 and the shadow correction device 30. 1 illustrates a configuration in which a captured image captured by the camera 10 is directly supplied to the shadow recognition device 20 and the shadow correction device 30, but the captured image captured by the camera 10 is temporarily recorded. It may be supplied to the shadow recognition device 20 and the shadow correction device 30 after being stored in a medium or subjected to image processing by another image processing device, or may be supplied to the shadow recognition device 20 and the shadow correction device through a network or the like. 30 may be supplied.

また、影認識装置20は、カメラ10で撮像された撮像画像内に存在する影を認識する機能を有している。なお、影認識装置20の詳細な構成に関しては、後で、図2を参照しながら説明する。影認識装置20による影認識結果は、影補正装置30に供給される。   In addition, the shadow recognition device 20 has a function of recognizing a shadow present in a captured image captured by the camera 10. The detailed configuration of the shadow recognition device 20 will be described later with reference to FIG. The shadow recognition result by the shadow recognition device 20 is supplied to the shadow correction device 30.

また、影補正装置30は、影認識装置20から供給された影認識結果に基づいて、カメラ10から供給された撮像画像内に写っている影の画質を補正(改善)する機能を有している。影補正装置30は、影の補正を行うことによって、撮像画像における影による影響を低減させることが可能である。なお、本発明は、影認識装置20で認識された撮像画像内に存在する影の補正方法に特に制限を加えるものではなく、すなわち、影補正装置30は、撮像画像内に存在する影を補正するために、任意の影補正技術を用いることが可能である。影補正装置30によって影が補正された撮像画像(補正後の撮像画像)は、様々な用途に使用可能である。   Further, the shadow correction device 30 has a function of correcting (improving) the image quality of the shadow reflected in the captured image supplied from the camera 10 based on the shadow recognition result supplied from the shadow recognition device 20. Yes. The shadow correction device 30 can reduce the influence of the shadow in the captured image by correcting the shadow. Note that the present invention does not particularly limit the method of correcting a shadow existing in a captured image recognized by the shadow recognition device 20, that is, the shadow correction device 30 corrects a shadow existing in the captured image. In order to do this, any shadow correction technique can be used. The captured image (captured image after correction) whose shadow has been corrected by the shadow correction device 30 can be used for various purposes.

例えば、影補正装置30で生成された補正後の撮像画像は、表示モニタ40に送られて表示される。補正後の撮像画像は、影によって劣化した視認性が改善されており、本来、影によって見えにくいはずの画像領域の視認性が向上されている。   For example, the corrected captured image generated by the shadow correction device 30 is sent to the display monitor 40 and displayed. The corrected captured image has improved the visibility deteriorated by the shadow, and the visibility of the image region that should originally be difficult to see by the shadow is improved.

また、例えば、影補正装置30で生成された補正後の撮像画像は、駐車支援装置や物体検出装置などの撮像画像利用装置50に送られる。駐車支援装置では、例えば車両に搭載されたカメラ10による撮像画像に基づいて、車両を所望の駐車目標位置に駐車させる支援が行われるが、影を含むカメラ10からの撮像画像に代わって、影の影響が除去された補正後の撮像画像を利用することで、より安全かつ確実な駐車支援が行われるようになる。また、物体検出装置においても、駐車支援装置と同様にカメラ10による撮像画像に基づいて、移動体の進行方向に存在する物体(障害物)の検出が行われる。したがって、物体検出装置においても、影を含むカメラ10からの撮像画像に代わって、影の影響が除去された補正後の撮像画像を利用することで、より確実に物体検出が行われるようになる。   Further, for example, the corrected captured image generated by the shadow correction device 30 is sent to a captured image utilization device 50 such as a parking assistance device or an object detection device. In the parking support device, for example, support for parking the vehicle at a desired parking target position is performed based on an image captured by the camera 10 mounted on the vehicle. However, instead of the captured image from the camera 10 including a shadow, By using the corrected captured image from which the influence of the above is removed, safer and more reliable parking assistance is performed. Also in the object detection device, an object (obstacle) existing in the traveling direction of the moving body is detected based on the image captured by the camera 10 as in the parking assistance device. Therefore, in the object detection apparatus, the object detection can be performed more reliably by using the corrected captured image from which the influence of the shadow is removed instead of the captured image from the camera 10 including the shadow. .

次に、図2を参照しながら、本発明の第1〜第3の実施の形態に共通する影認識装置の構成について説明する。図2には、本発明の第1〜第3の実施の形態に共通する影認識装置の構成の一例が図示されている。なお、図2に図示されている影認識装置20は、図1に図示されている影認識装置20の一構成例を示すものである。   Next, the configuration of the shadow recognition apparatus common to the first to third embodiments of the present invention will be described with reference to FIG. FIG. 2 shows an example of the configuration of a shadow recognition apparatus common to the first to third embodiments of the present invention. Note that the shadow recognition device 20 illustrated in FIG. 2 is a configuration example of the shadow recognition device 20 illustrated in FIG.

図2に図示されている影認識装置20は、カラー画像取得部21、色空間分解部22、画像格納部23、影境界抽出部24、影領域抽出部25、影境界・影領域統合部26、影認識結果出力部27を有している。なお、図2においてブロック図で表されている影認識装置20の機能は、ハードウェア及び/又はコンピュータによって実行されるソフトウェアによって実現可能である。   The shadow recognition device 20 illustrated in FIG. 2 includes a color image acquisition unit 21, a color space decomposition unit 22, an image storage unit 23, a shadow boundary extraction unit 24, a shadow region extraction unit 25, and a shadow boundary / shadow region integration unit 26. , A shadow recognition result output unit 27 is provided. Note that the function of the shadow recognition device 20 shown in the block diagram in FIG. 2 can be realized by hardware and / or software executed by a computer.

図2において、カラー画像取得部21は、カメラ10によって撮像されたカラーの撮像画像(カラー画像)を取得する機能を有している。カラー画像取得部21で取得されたカラー画像は、色空間分解部22に供給される。   In FIG. 2, the color image acquisition unit 21 has a function of acquiring a color captured image (color image) captured by the camera 10. The color image acquired by the color image acquisition unit 21 is supplied to the color space separation unit 22.

また、色空間分解部22は、カラー画像取得部21から供給されたカラー画像を所定の色空間の各色成分画像に分解する機能を有している。例えば、色空間としてRGB表色系を使用した場合、色空間分解部22は、カラー画像をR画像、G画像、B画像の3つの色成分画像に分解する。色空間分解部22で生成された色成分画像(RGB表色系の場合には、R画像、G画像、B画像の3つの画像)は、画像格納部23に格納される。   The color space separation unit 22 has a function of separating the color image supplied from the color image acquisition unit 21 into each color component image in a predetermined color space. For example, when the RGB color system is used as the color space, the color space decomposition unit 22 decomposes the color image into three color component images of an R image, a G image, and a B image. The color component images generated by the color space separation unit 22 (in the case of the RGB color system, three images of R image, G image, and B image) are stored in the image storage unit 23.

なお、以下では、主に色空間としてRGB表色系が使用された場合を一例として説明を行うが、本発明では、任意の色空間の使用が可能である。例えば、RGB表色系への変換が可能なXYZ表色系が使用されてもよい。また、HSV表色系やHSI表色系のV画像又はI画像(明度を表す画像)が使用されてもよく、この場合には、グレースケール画像に対して、本発明を適用することが可能となる。   In the following, a case where the RGB color system is mainly used as a color space will be described as an example. However, in the present invention, any color space can be used. For example, an XYZ color system that can be converted to the RGB color system may be used. In addition, an HSV color system or HSI color system V image or I image (an image representing lightness) may be used. In this case, the present invention can be applied to a grayscale image. It becomes.

また、画像格納部23は、色空間分解部22で生成された色成分画像を一時的に格納する機能を有している。画像格納部23に格納された色成分画像は、適宜、影境界抽出部24又は影領域抽出部25によって読み出される。   The image storage unit 23 has a function of temporarily storing the color component image generated by the color space decomposition unit 22. The color component image stored in the image storage unit 23 is read by the shadow boundary extraction unit 24 or the shadow region extraction unit 25 as appropriate.

また、影境界抽出部24は、画像格納部23から読み出された色成分画像に基づいて、画像内に存在する影境界(影領域と非影領域との境界)を抽出する機能を有している。影境界抽出部24で抽出された影境界抽出結果は、影境界・影領域統合部26に供給される。なお、影境界抽出部24は、例えば、後述のように、パターン照合によって影境界の判定を行う構成(図3に図示されている構成)、画像の分光特性に基づいて、色成分値の統計量(例えば平均値)が満たす条件によって影境界の判定を行う構成(図5に図示されている構成)、さらには、上記の2つの構成を組み合わせた構成(図7に図示されている構成)などを有している。   The shadow boundary extraction unit 24 has a function of extracting a shadow boundary (boundary between a shadow region and a non-shadow region) existing in the image based on the color component image read from the image storage unit 23. ing. The shadow boundary extraction result extracted by the shadow boundary extraction unit 24 is supplied to the shadow boundary / shadow region integration unit 26. Note that the shadow boundary extraction unit 24, for example, as described later, determines the shadow boundary by pattern matching (configuration illustrated in FIG. 3), and statistics of color component values based on the spectral characteristics of the image. A configuration for determining a shadow boundary according to a condition that an amount (for example, an average value) satisfies (configuration shown in FIG. 5), and a configuration that combines the above two configurations (configuration shown in FIG. 7) Etc.

また、影領域抽出部25は、画像格納部23から読み出された色成分画像に基づいて、画像内に存在する影領域を抽出する機能を有している。なお、図2では、影領域抽出部25は、影領域の抽出の基データとして画像格納部23に格納されている色成分画像を使用するように構成されているが、カラー画像取得部21で取得されたカラー画像を基データとして影領域の抽出を行うことも可能である。影領域抽出部25で抽出された影領域抽出結果は、影境界・影領域統合部26に供給される。   Further, the shadow area extraction unit 25 has a function of extracting a shadow area existing in the image based on the color component image read from the image storage unit 23. In FIG. 2, the shadow region extraction unit 25 is configured to use the color component image stored in the image storage unit 23 as basic data for extracting the shadow region. It is also possible to extract a shadow area using the acquired color image as base data. The shadow region extraction result extracted by the shadow region extraction unit 25 is supplied to the shadow boundary / shadow region integration unit 26.

なお、本発明は、撮像画像内に存在する影領域の抽出方法に特に制限を加えるものではなく、すなわち、影領域抽出部25は、撮像画像内に存在する影領域を抽出するために、例えば、非特許文献1、2に開示されている技術を始めとする任意の影領域抽出技術を用いることが可能である。   Note that the present invention does not particularly limit the method for extracting a shadow area existing in the captured image, that is, the shadow area extraction unit 25 extracts, for example, a shadow area present in the captured image. Any shadow region extraction technique including the techniques disclosed in Non-Patent Documents 1 and 2 can be used.

また、影境界・影領域統合部26は、影境界抽出部24で抽出された影境界抽出結果、及び、影領域抽出部25で抽出された影領域抽出結果の両方に基づいて影の認識を行い、影認識結果を生成する機能を有している。なお、影境界・影領域統合部26は、例えば、後述のように、影境界抽出結果及び影領域抽出結果を組み合わせることによって、それぞれの抽出結果が補完された影認識結果を生成する構成(図8に図示されている構成)などを有している。   The shadow boundary / shadow region integration unit 26 recognizes shadows based on both the shadow boundary extraction result extracted by the shadow boundary extraction unit 24 and the shadow region extraction result extracted by the shadow region extraction unit 25. And has a function of generating a shadow recognition result. The shadow boundary / shadow region integration unit 26 generates, for example, a shadow recognition result in which each extraction result is complemented by combining the shadow boundary extraction result and the shadow region extraction result (see FIG. 8).

また、影認識結果出力部27は、影境界・影領域統合部26から供給された影認識結果を外部(例えば影補正装置30や任意の記録媒体など)に出力する機能を有している。   The shadow recognition result output unit 27 has a function of outputting the shadow recognition result supplied from the shadow boundary / shadow region integrating unit 26 to the outside (for example, the shadow correction device 30 or an arbitrary recording medium).

<第1の実施の形態>
次に、図3を参照しながら、本発明の第1の実施の形態について説明する。図3には、本発明の第1の実施の形態における影認識装置20の影境界抽出部24の構成の一例が図示されている。なお、図3に図示されている影境界抽出部24は、図2に図示されている影認識装置20内の影境界抽出部24の一構成例を示すものである。
<First Embodiment>
Next, a first embodiment of the present invention will be described with reference to FIG. FIG. 3 shows an example of the configuration of the shadow boundary extraction unit 24 of the shadow recognition device 20 according to the first embodiment of the present invention. Note that the shadow boundary extraction unit 24 illustrated in FIG. 3 is a configuration example of the shadow boundary extraction unit 24 in the shadow recognition device 20 illustrated in FIG.

図3に図示されている影境界抽出部24は、色成分画像取得部2411、エッジ抽出部2412、2値化処理部2413、近傍パターン算出部2414、パターン照合・影境界判定部2415、影境界パターン格納部2416、影境界抽出結果格納部2417、影認識結果出力部2418を有している。なお、図3においてブロック図で表されている影境界抽出部24の機能は、ハードウェア及び/又はコンピュータによって実行されるソフトウェアによって実現可能である。   The shadow boundary extraction unit 24 illustrated in FIG. 3 includes a color component image acquisition unit 2411, an edge extraction unit 2412, a binarization processing unit 2413, a neighborhood pattern calculation unit 2414, a pattern matching / shadow boundary determination unit 2415, a shadow boundary. A pattern storage unit 2416, a shadow boundary extraction result storage unit 2417, and a shadow recognition result output unit 2418 are provided. Note that the function of the shadow boundary extraction unit 24 shown in a block diagram in FIG. 3 can be realized by hardware and / or software executed by a computer.

図3において、色成分画像取得部2411は、図2の画像格納部22に格納されている色成分画像を必要に応じて取得する機能を有している。色成分画像取得部2411で取得された色成分画像は、エッジ抽出部2412及び近傍パターン算出部2414に供給される。   3, the color component image acquisition unit 2411 has a function of acquiring the color component image stored in the image storage unit 22 of FIG. 2 as necessary. The color component image acquired by the color component image acquisition unit 2411 is supplied to the edge extraction unit 2412 and the neighborhood pattern calculation unit 2414.

また、エッジ抽出部2412は、色成分画像取得部2411から供給された色成分画像におけるエッジ(画像内に存在する物体の輪郭)を抽出する機能を有している。エッジ抽出部2412は、例えばSobel(ゾーベル)フィルタを用いたエッジ抽出技術など、公知のエッジ抽出技術を用いてエッジ抽出を行うことが可能である。エッジ抽出部2412で得られたエッジ抽出結果(エッジ画像)は、2値化処理部2413に供給される。なお、色成分画像ごとにエッジ画像の生成が行われる。   The edge extraction unit 2412 has a function of extracting an edge (an outline of an object existing in the image) in the color component image supplied from the color component image acquisition unit 2411. The edge extraction unit 2412 can perform edge extraction using a known edge extraction technique such as an edge extraction technique using a Sobel filter. The edge extraction result (edge image) obtained by the edge extraction unit 2412 is supplied to the binarization processing unit 2413. Note that an edge image is generated for each color component image.

また、2値化処理部2413は、エッジ抽出部2412から供給されたエッジ画像を2値化する機能を有している。なお、2値化処理部2413は、自動的に2値化の閾値を設定することが可能な大津の方法などの公知技術を用いて、エッジ画像の2値化を行うことが可能である。2値化処理部2413で2値化されたエッジ画像は、色成分画像内の物体のエッジのみが描かれたモノクロ画像である。以下では、この2値化されたエッジ画像におけるエッジを表す画素をエッジ画素と呼ぶことにする。なお、2値化処理部2413で得られたエッジ画素が影境界の画素であるのか、あるいは単なる物体のエッジの画素であるのかをこの段階で判断することは困難である。2値化処理部2413で得られた2値化されたエッジ画像(エッジ画素)は、近傍パターン算出部2414に供給される。   The binarization processing unit 2413 has a function of binarizing the edge image supplied from the edge extraction unit 2412. Note that the binarization processing unit 2413 can binarize the edge image using a known technique such as Otsu's method capable of automatically setting a binarization threshold. The edge image binarized by the binarization processing unit 2413 is a monochrome image in which only the edge of the object in the color component image is drawn. Hereinafter, a pixel representing an edge in the binarized edge image is referred to as an edge pixel. Note that it is difficult to determine at this stage whether the edge pixel obtained by the binarization processing unit 2413 is a shadow boundary pixel or a simple object edge pixel. The binarized edge image (edge pixel) obtained by the binarization processing unit 2413 is supplied to the neighborhood pattern calculation unit 2414.

近傍パターン算出部2414は、2値化処理部2413から供給されたエッジ画像に基づいて画像内のエッジ画素を特定し、色成分画像取得部2411から取得された色成分画像における各エッジ画素の座標位置に関して、その座標位置の画素の色成分値と、その座標位置の画素の近傍に存在する画素の色成分値との関係(近傍パターン)を算出する機能を有している。なお、ある画素の近傍に存在する画素として、例えば後述の図10に図示されているように、周囲8方向の近傍(8近傍)の画素を設定することが可能である。近傍パターン算出部2414で算出された近傍パターンは、パターン照合・影境界判定部2415に供給される。   The neighborhood pattern calculation unit 2414 identifies an edge pixel in the image based on the edge image supplied from the binarization processing unit 2413, and coordinates of each edge pixel in the color component image acquired from the color component image acquisition unit 2411. With respect to the position, it has a function of calculating the relationship (neighboring pattern) between the color component value of the pixel at the coordinate position and the color component value of the pixel existing in the vicinity of the pixel at the coordinate position. As pixels existing in the vicinity of a certain pixel, for example, as shown in FIG. 10 described later, it is possible to set pixels in the vicinity of 8 directions (near 8). The neighborhood pattern calculated by the neighborhood pattern calculation unit 2414 is supplied to the pattern matching / shadow boundary determination unit 2415.

また、パターン照合・影境界判定部2415は、影境界パターン格納部2416に格納されている複数の影境界パターンのうちのいずれか1つに、近傍パターン算出部2414から供給される各画素の近傍パターンが一致するか否かの照合を行い、一致が確認された近傍パターンの画素を影境界の画素と判定する機能を有している。パターン照合・影境界判定部2415において影境界であると判定された画素に係る情報(座標位置情報など)は、影境界抽出結果格納部2417に格納される。なお、以下では、パターンの算出に各画素の色成分値(RGB値)を用いている場合を一例に挙げているが、任意の種類の画素値(各画素に固有の値)を用いることが可能である。   In addition, the pattern matching / shadow boundary determining unit 2415 applies the neighborhood of each pixel supplied from the neighborhood pattern calculating unit 2414 to any one of the plurality of shadow boundary patterns stored in the shadow boundary pattern storage unit 2416. It has a function of collating whether or not the patterns match, and determining a pixel in the neighboring pattern that is confirmed to be a match as a pixel at the shadow boundary. Information (such as coordinate position information) related to pixels determined to be shadow boundaries by the pattern matching / shadow boundary determination unit 2415 is stored in the shadow boundary extraction result storage unit 2417. In the following, a case where the color component value (RGB value) of each pixel is used for the calculation of the pattern is taken as an example, but any type of pixel value (a value unique to each pixel) is used. Is possible.

また、影境界パターン格納部2416には、パターン照合・影境界判定部2415で影境界の判定基準として用いられる複数の影境界パターンがあらかじめ格納されている。影境界パターン格納部2416にあらかじめ格納されている複数の影境界パターンは、いずれも影境界の画素に特有の近傍パターンである。本発明の第1の実施の形態では、影境界パターン格納部2416に格納されている影境界パターンと同一の近傍パターンを有する画素が、影境界の画素と判定される。なお、例えば、あらかじめ影境界と分かっている画素の近傍パターンを算出、蓄積することで、影境界パターン格納部2416に格納すべき影境界パターンを容易に生成することが可能である。   The shadow boundary pattern storage unit 2416 stores in advance a plurality of shadow boundary patterns that are used as a criterion for determining a shadow boundary by the pattern matching / shadow boundary determining unit 2415. The plurality of shadow boundary patterns stored in advance in the shadow boundary pattern storage unit 2416 are all neighboring patterns specific to the pixels on the shadow boundary. In the first embodiment of the present invention, a pixel having the same neighborhood pattern as the shadow boundary pattern stored in the shadow boundary pattern storage unit 2416 is determined as a shadow boundary pixel. For example, it is possible to easily generate a shadow boundary pattern to be stored in the shadow boundary pattern storage unit 2416 by calculating and accumulating a pixel neighborhood pattern that is known in advance as a shadow boundary.

また、影境界抽出結果格納部2417には、パターン照合・影境界判定部2415で影境界であると判定された画素に係る情報(座標位置情報など)が格納される。なお、1枚の画像ごとに、影境界であると判定された画素に係る情報(座標位置情報など)の管理が行われることが望ましい。   Further, the shadow boundary extraction result storage unit 2417 stores information (such as coordinate position information) related to pixels determined to be shadow boundaries by the pattern matching / shadow boundary determination unit 2415. In addition, it is desirable to manage information (such as coordinate position information) related to pixels determined to be shadow boundaries for each image.

また、影境界抽出結果出力部2418は、影境界抽出結果格納部2417に格納されている影境界であると判定された画素に係る情報を、影境界抽出結果として、例えば画像単位で外部に出力する機能を有している。   Also, the shadow boundary extraction result output unit 2418 outputs information related to the pixel determined to be a shadow boundary stored in the shadow boundary extraction result storage unit 2417 to the outside as a shadow boundary extraction result, for example, in units of images. It has a function to do.

次に、図4を参照しながら、本発明の第1の実施の形態における影認識装置20の影境界抽出部24の動作について説明する。図4は、本発明の第1の実施の形態における影認識装置20の影境界抽出部24の動作の一例を示すフローチャートである。なお、図4に図示されているフローチャートに係る動作は、図1及び図2に図示されている影認識装置20の影境界抽出部24によって実行される。   Next, the operation of the shadow boundary extraction unit 24 of the shadow recognition device 20 according to the first embodiment of the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing an example of the operation of the shadow boundary extraction unit 24 of the shadow recognition device 20 according to the first embodiment of the present invention. Note that the operation according to the flowchart illustrated in FIG. 4 is executed by the shadow boundary extraction unit 24 of the shadow recognition device 20 illustrated in FIGS. 1 and 2.

図4に図示されているフローチャートでは、まず、色成分画像取得部2411において、色成分画像が取得され(ステップS1001)、エッジ抽出部2412において、色成分画像のそれぞれに関してエッジ抽出処理が行われてエッジ画像が生成され(ステップS1002)、さらに、2値化処理部2413において、各エッジ画像に関して2値化処理が行われる(ステップS1003)。   In the flowchart shown in FIG. 4, first, the color component image acquisition unit 2411 acquires a color component image (step S1001), and the edge extraction unit 2412 performs edge extraction processing for each of the color component images. An edge image is generated (step S1002), and the binarization processing unit 2413 performs binarization processing on each edge image (step S1003).

そして、近傍パターン算出部2414は、2値化されたエッジ画像によって特定されるエッジ画素を1つ選択し(ステップS1004)、選択されたエッジ画素の座標位置に対応する色成分画像の色成分値に基づいて、そのエッジ画素の近傍パターンを算出する(ステップS1005)。   Then, the neighborhood pattern calculation unit 2414 selects one edge pixel specified by the binarized edge image (step S1004), and the color component value of the color component image corresponding to the coordinate position of the selected edge pixel. Based on the above, the neighborhood pattern of the edge pixel is calculated (step S1005).

ここで、ステップS1005における近傍パターンの算出処理について、具体例をあげて説明する。ステップS1005では、図10に図示されているように、例えばある画素の近傍に存在する画素として、ある画素を中心とする周囲8方向の近傍(8近傍)の画素が設定されており、ステップS1004で選択されたエッジ画素の色成分値と、そのエッジ画素の近傍の各画素の色成分値とを比較することによって、そのエッジ画素の近傍パターンが決定される。   Here, the calculation process of the neighborhood pattern in step S1005 will be described with a specific example. In step S1005, as shown in FIG. 10, for example, pixels in the vicinity of eight directions around the certain pixel (near eight) are set as pixels existing in the vicinity of the certain pixel, and step S1004 is set. By comparing the color component value of the edge pixel selected in Step 1 with the color component value of each pixel in the vicinity of the edge pixel, the neighborhood pattern of the edge pixel is determined.

例えば、ステップS1005では、まず、各色成分画像(R画像、G画像、B画像)において、ステップS1004で選択されたエッジ画素の色成分値(R0,G0,B0)と、そのエッジ画素を中心とした8近傍の各画素の色成分値(Ri,Gi,Bi)(ただしi=1〜8の整数)との比較が行われる。   For example, in step S1005, first, in each color component image (R image, G image, B image), the color component value (R0, G0, B0) of the edge pixel selected in step S1004 and the edge pixel are the center. Comparison is made with the color component values (Ri, Gi, Bi) (where i = 1 to an integer of 1 to 8) of each pixel in the vicinity of 8.

そして、所定の条件(例えばR0<Ri、G0<Gi、B0<Biの条件)を満たす画素間の関係に関しては、判定フラグ=1を立て、上記の条件を満たさない画素間の関係に関しては、判定フラグ=0とすることによって、ステップS1004で選択されたエッジ画素のR画像、G画像、B画像のそれぞれにおける判定フラグを決定する。なお、図10には、R画像に関しては、R0<R1、R0<R2、R0<R3、R0<R4であり、G画像に関しては、G0<G2、G0<G3、G0<G4、G0<G6であり、B画像に関しては、B0<B1、B0<B2、B0<B3の場合に決定される判定フラグが模式的に図示されている。RGB表色系(3つの色成分)で8近傍を設定した場合には、数値上、(283通りの判定フラグのパターンが存在し得ることになる。 For a relationship between pixels that satisfy a predetermined condition (for example, a condition of R0 <Ri, G0 <Gi, B0 <Bi), a determination flag = 1 is set, and a relationship between pixels that does not satisfy the above condition is By setting the determination flag = 0, the determination flag in each of the R image, the G image, and the B image of the edge pixel selected in step S1004 is determined. In FIG. 10, R0 <R1, R0 <R2, R0 <R3, R0 <R4 for the R image, and G0 <G2, G0 <G3, G0 <G4, G0 <G6 for the G image. For the B image, determination flags determined when B0 <B1, B0 <B2, and B0 <B3 are schematically illustrated. When 8 neighborhoods are set in the RGB color system (three color components), numerically, (2 8 ) three determination flag patterns can exist.

さらに、上述の判定フラグのパターンの値が所定の条件(例えば、同一画素におけるR、G、B画像の各判定フラグの値がすべて1)を満たす場合に、8近傍パターンの値を1とすることによって、ステップS1004で選択されたエッジ画素の8近傍パターンが生成される。なお、図10の例では、エッジ画素に対して中央上側及び右上側に存在する画素の判定フラグの値がR画像、G画像、B画像のすべてにおいて1であり、したがって、このエッジ画素は、中央上側及び右上側に存在する画素の8近傍パターン値が1(その他は0)となる8近傍パターンを有する。8近傍パターンは、(283通り存在した判定フラグのパターンが集約され、数値上、28通り存在し得る。 Further, when the value of the determination flag pattern described above satisfies a predetermined condition (for example, the determination flag values of the R, G, and B images in the same pixel are all 1), the value of the 8-neighbor pattern is set to 1. Thus, an 8-neighbor pattern of the edge pixel selected in step S1004 is generated. In the example of FIG. 10, the value of the determination flag of the pixels present on the upper center side and the upper right side with respect to the edge pixel is 1 in all of the R image, the G image, and the B image. An 8-neighboring pattern in which the 8-neighboring pattern value of pixels existing on the upper center side and upper right side is 1 (others are 0) is provided. 8 near the pattern is aggregated pattern determination flag that existed in triplicate (2 8), numerically, it may be present are two 8.

また、色空間にHSV表色系が使用されている場合には色成分画像は明るさを表すV画像のみを使用してもよく、エッジ画素のV値(V0)と8近傍の各画素のV値(Vi)(ただしi=1〜8の整数)との関係が所定の条件を満たすか否かを判断することによって、上述のRGB表色系の場合と同様に、ステップS1004で選択されたエッジ画素の8近傍パターンを生成することが可能となる。なお、上述のようにHSV表色系(明度を示す値Vが1つのみ)で8近傍を設定した場合には、判定フラグの値と8近傍パターンの値とは同一となる。   In addition, when the HSV color system is used in the color space, the color component image may use only the V image representing the brightness, and the V value (V0) of the edge pixel and each pixel in the vicinity of 8 may be used. By determining whether or not the relationship with the V value (Vi) (where i is an integer of 1 to 8) satisfies a predetermined condition, it is selected in step S1004 as in the case of the RGB color system described above. It is possible to generate an 8-neighbor pattern of the edge pixels. As described above, when 8 neighborhoods are set in the HSV color system (only one value V indicating brightness), the value of the determination flag and the value of the 8 neighborhood pattern are the same.

ステップS1005で算出された8近傍パターンは、パターン照合・影境界判定部2415に供給される。このとき、パターン照合・影境界判定部2415は、影境界パターン格納部2416に格納されている影境界パターンを1つ読み出し(ステップS1006)、ステップS1005で算出された8近傍パターンと一致するか否かを照合する(ステップS1007)。なお、一致しなかった場合には、影境界パターン格納部2416から読み出されていない新たな影境界パターンの存在を確認して新たな影境界パターンを読み出す(ステップS1008)ことで、ステップS1005で算出された8近傍パターンと一致する影境界パターンが存在するか否かを順次照合していく。   The 8-neighbor pattern calculated in step S1005 is supplied to the pattern matching / shadow boundary determining unit 2415. At this time, the pattern matching / shadow boundary determination unit 2415 reads one shadow boundary pattern stored in the shadow boundary pattern storage unit 2416 (step S1006), and whether or not the pattern matches / matches the eight neighboring patterns calculated in step S1005. These are collated (step S1007). If they do not match, the presence of a new shadow boundary pattern that has not been read out from the shadow boundary pattern storage unit 2416 is confirmed and a new shadow boundary pattern is read out (step S1008). It is sequentially checked whether or not there is a shadow boundary pattern that matches the calculated 8-neighbor pattern.

ここで、ステップS1006で読み出される影境界パターンについて具体的に説明する。影境界パターンは、影境界パターン格納部2416内にあらかじめ準備されるものであり、上述のように、例えば、あらかじめ影境界と分かっている画素(影境界画素)の近傍パターンを算出して、その算出結果を影境界パターンとして格納しておくことが可能である。   Here, the shadow boundary pattern read in step S1006 will be specifically described. The shadow boundary pattern is prepared in advance in the shadow boundary pattern storage unit 2416. As described above, for example, by calculating a neighborhood pattern of a pixel (shadow boundary pixel) that is known in advance as a shadow boundary, The calculation result can be stored as a shadow boundary pattern.

例えば、図11に図示されているように、あらかじめ影境界であることが分かっているエッジ画素及びその8近傍の画素を準備し、近傍パターン算出部2414で用いられる近傍パターン算出アルゴリズム(図10に模式的に図示されている上述の8近傍パターン算出アルゴリズム)を適用して、影境界画素の影境界パターンを生成することが可能である。なお、影境界の抽出精度を向上させるためには、多数の影境界パターンを用意しておく必要がある。したがって、様々な影境界の画像を準備して多数の影境界パターンを算出し、影境界パターン格納部2416に格納しておくことが望ましい。なお、図11に図示されている影境界パターンの生成方法は一例であって、本発明に係る影境界パターンの生成方法は、これに限定されるものではない。   For example, as shown in FIG. 11, edge pixels that are known to be shadow boundaries and pixels in the vicinity thereof are prepared in advance, and a neighborhood pattern calculation algorithm (in FIG. 10) used in the neighborhood pattern calculation unit 2414 is prepared. It is possible to generate a shadow boundary pattern of shadow boundary pixels by applying the above-described 8-neighboring pattern calculation algorithm schematically illustrated. In order to improve the extraction accuracy of the shadow boundary, it is necessary to prepare a large number of shadow boundary patterns. Therefore, it is desirable to prepare various shadow boundary images, calculate a large number of shadow boundary patterns, and store them in the shadow boundary pattern storage unit 2416. Note that the shadow boundary pattern generation method illustrated in FIG. 11 is an example, and the shadow boundary pattern generation method according to the present invention is not limited to this.

また、ステップS1007において、ステップS1005で算出された8近傍パターンと影境界パターンが一致した場合には、パターン照合・影境界判定部2415は、そのエッジ画素は影境界の画素であると判断し(ステップS1009)、影境界抽出結果格納部2417に、そのエッジ画素が影境界の画素である旨を示す情報を格納する。一方、ステップS1005で算出された8近傍パターンが、すべての影境界パターンと一致しなかった場合には、そのエッジ画素は影境界の画素であるという判断は行われない。   In step S1007, if the eight neighboring patterns calculated in step S1005 match the shadow boundary pattern, the pattern matching / shadow boundary determination unit 2415 determines that the edge pixel is a shadow boundary pixel ( In step S1009), the shadow boundary extraction result storage unit 2417 stores information indicating that the edge pixel is a shadow boundary pixel. On the other hand, if the eight neighboring patterns calculated in step S1005 do not match all the shadow boundary patterns, it is not determined that the edge pixel is a shadow boundary pixel.

ステップS1004〜ステップS1009の処理は、すべてのエッジ画素に対して行われる。すなわち、選択されたエッジ画素が影境界の画素であるか否かの判断が完了した場合、エッジ画素がすべて選択されたか否かが確認される(ステップS1010)。そして、未選択のエッジ画素が存在する場合にはステップS1004に戻り、未選択のエッジ画素に関して、ステップS1004〜ステップS1009の処理が行われる。一方、すべてのエッジ画素が選択された場合(すなわち、すべてのエッジ画素に関して判断が行われた場合)には、処理は終了となる。   The processing in steps S1004 to S1009 is performed for all edge pixels. That is, when the determination of whether or not the selected edge pixel is a shadow boundary pixel is completed, it is confirmed whether or not all the edge pixels have been selected (step S1010). If there is an unselected edge pixel, the process returns to step S1004, and the processes of steps S1004 to S1009 are performed on the unselected edge pixel. On the other hand, when all the edge pixels are selected (that is, when a determination is made regarding all the edge pixels), the process ends.

以上、説明したように、本発明の第1の実施の形態に係る影境界抽出方法によれば、画素間の関係を表すパターンが、影境界の画素に特徴的なパターン(影境界パターン)を有している場合に、その画素は、画像に写っている影の境界(影領域と非影領域との境界)を形成する影境界の画素であると判断することで、影境界を抽出することが可能となる。   As described above, according to the shadow boundary extraction method according to the first embodiment of the present invention, the pattern representing the relationship between the pixels is a pattern characteristic of the shadow boundary pixels (shadow boundary pattern). If so, the pixel extracts the shadow boundary by determining that the pixel is a shadow boundary pixel that forms the boundary of the shadow in the image (the boundary between the shadow region and the non-shadow region). It becomes possible.

<第2の実施の形態>
次に、図5を参照しながら、本発明の第2の実施の形態について説明する。図5には、本発明の第2の実施の形態における影認識装置20の影境界抽出部24の構成の一例が図示されている。なお、図5に図示されている影境界抽出部24は、図2に図示されている影認識装置20内の影境界抽出部24の一構成例を示すものである。
<Second Embodiment>
Next, a second embodiment of the present invention will be described with reference to FIG. FIG. 5 shows an example of the configuration of the shadow boundary extraction unit 24 of the shadow recognition device 20 according to the second embodiment of the present invention. The shadow boundary extraction unit 24 illustrated in FIG. 5 is a configuration example of the shadow boundary extraction unit 24 in the shadow recognition device 20 illustrated in FIG.

図5に図示されている影境界抽出部24は、色成分画像取得部2421、エッジ抽出部2422、2値化処理部2423、エッジ勾配方向算出部2424、影境界判定条件算出部2425、影境界判定部2426、影境界抽出結果格納部2427、影抽出結果出力部2428を有している。なお、図5においてブロック図で表されている影境界抽出部24の機能は、ハードウェア及び/又はコンピュータによって実行されるソフトウェアによって実現可能である。   The shadow boundary extraction unit 24 illustrated in FIG. 5 includes a color component image acquisition unit 2421, an edge extraction unit 2422, a binarization processing unit 2423, an edge gradient direction calculation unit 2424, a shadow boundary determination condition calculation unit 2425, a shadow boundary. A determination unit 2426, a shadow boundary extraction result storage unit 2427, and a shadow extraction result output unit 2428 are included. Note that the function of the shadow boundary extraction unit 24 shown in a block diagram in FIG. 5 can be realized by hardware and / or software executed by a computer.

図5において、色成分画像取得部2421、エッジ抽出部2422、2値化処理部2423、影境界抽出結果格納部2427、影境界抽出結果格納部2428の各機能は、図3に図示されている色成分画像取得部2411、エッジ抽出部2412、2値化処理部2413、影境界抽出結果格納部2417、影境界抽出結果格納部2418の各機能と同一である。ただし、色成分画像取得部2421で取得された色成分画像は、エッジ抽出部2422に加えて、陰境界判定条件算出部2426にも供給される。また、エッジ抽出部2422で得られたエッジ抽出結果は、2値化処理部2423に加えて、エッジ勾配方向算出部にも供給される。また、2値化処理部2423で得られた2値化されたエッジ画像は、エッジ勾配方向算出部2424及び影境界判定条件算出部2425に供給される。   In FIG. 5, the functions of the color component image acquisition unit 2421, the edge extraction unit 2422, the binarization processing unit 2423, the shadow boundary extraction result storage unit 2427, and the shadow boundary extraction result storage unit 2428 are illustrated in FIG. The functions are the same as those of the color component image acquisition unit 2411, the edge extraction unit 2412, the binarization processing unit 2413, the shadow boundary extraction result storage unit 2417, and the shadow boundary extraction result storage unit 2418. However, the color component image acquired by the color component image acquisition unit 2421 is also supplied to the shadow boundary determination condition calculation unit 2426 in addition to the edge extraction unit 2422. The edge extraction result obtained by the edge extraction unit 2422 is also supplied to the edge gradient direction calculation unit in addition to the binarization processing unit 2423. The binarized edge image obtained by the binarization processing unit 2423 is supplied to the edge gradient direction calculation unit 2424 and the shadow boundary determination condition calculation unit 2425.

また、本発明の第2の実施の形態では、2値化処理部2423で2値化されたエッジ画像の各エッジ画素において、エッジ勾配方向の算出処理及び色成分値の統計処理(例えば、平均化処理)が行われるが、これらの処理は、エッジが太いと同一箇所において複数回の処理が行われてしまうことになり、非効率的になってしまう。したがって、処理の軽減のために、2値化処理部2423で得られた2値化されたエッジ画像に含まれるエッジに対して、更に細線化処理を行うことが望ましい。   Further, in the second embodiment of the present invention, for each edge pixel of the edge image binarized by the binarization processing unit 2423, an edge gradient direction calculation process and a color component value statistical process (for example, an average value) However, if the edges are thick, these processes are performed a plurality of times at the same location, which is inefficient. Therefore, in order to reduce processing, it is desirable to perform further thinning processing on the edges included in the binarized edge image obtained by the binarization processing unit 2423.

また、エッジ勾配方向算出部2424は、各エッジ画素に関して、例えばSobelフィルタの演算結果からエッジ勾配方向を求める機能を有している。なお、算出されたエッジ勾配方向は、画像平面内におけるエッジに対して略垂直な方向を示すものであるが、本発明の第2の実施の形態においては、各エッジ画素に関して厳密なエッジ勾配方向を算出する必要はない。エッジ勾配方向に関しては、後で、例えば図12を参照しながら説明する。   Further, the edge gradient direction calculation unit 2424 has a function of obtaining the edge gradient direction from the calculation result of the Sobel filter, for example, for each edge pixel. The calculated edge gradient direction indicates a direction substantially perpendicular to the edge in the image plane, but in the second embodiment of the present invention, the strict edge gradient direction for each edge pixel. There is no need to calculate. The edge gradient direction will be described later with reference to FIG. 12, for example.

また、影境界判定条件算出部2425は、エッジ勾配方向算出部2424で算出されたエッジ勾配方向を向いており、影境界の画素か否かの判定を行うエッジ画素を通る直線上において、そのエッジ画素を挟む2つの領域(対象画素の両側に存在する領域)のそれぞれに属する画素の色成分値の統計量を算出する機能を有している。そして、影境界判定条件算出部2425は、算出された色成分値の統計量に基づいて、そのエッジ画素近辺の分光特性を把握し、この分光特性によってエッジ画素が影境界の画素か否かを判断する機能を有している。なお、ここでは、影境界判定条件算出部2425は、エッジによって隔てられた2つの領域のそれぞれの色成分値の統計量を算出する構成を例に挙げているが、色成分値ではなく、任意の種類の画素値(各画素に固有の値)を用いてもよい。また、統計量の算出には、任意の統計処理アルゴリズムを使用することが可能であるが、以下では、統計量として平均値が使用された場合を一例に挙げて説明を行う。   Further, the shadow boundary determination condition calculation unit 2425 faces the edge gradient direction calculated by the edge gradient direction calculation unit 2424, and the edge is determined on a straight line passing through the edge pixel that determines whether the pixel is a shadow boundary. It has a function of calculating the statistic of the color component value of a pixel belonging to each of two regions (regions existing on both sides of the target pixel) sandwiching the pixel. Then, the shadow boundary determination condition calculation unit 2425 grasps the spectral characteristic in the vicinity of the edge pixel based on the calculated statistic of the color component value, and determines whether the edge pixel is a shadow boundary pixel or not by this spectral characteristic. Has the function to judge. Note that, here, the shadow boundary determination condition calculation unit 2425 is described as an example of a configuration that calculates the statistic of each color component value of two regions separated by an edge. These pixel values (values unique to each pixel) may be used. In addition, any statistical processing algorithm can be used for calculation of the statistic, but in the following, a case where an average value is used as the statistic will be described as an example.

また、影境界判定部2426は、影境界判定条件算出部2425で算出された対象画素を通る勾配方向の直線上の画素の平均値変化の条件から、対象画素が影境界に存在するか否かを判定する機能を有している。影境界判定部2426で影境界であると判定された画素に係る情報(座標位置情報など)は、影境界抽出結果格納部2427に格納される。   Also, the shadow boundary determination unit 2426 determines whether or not the target pixel exists at the shadow boundary based on the condition for changing the average value of the pixels on the straight line in the gradient direction passing through the target pixel calculated by the shadow boundary determination condition calculation unit 2425. It has the function to judge. Information (such as coordinate position information) relating to the pixel determined to be a shadow boundary by the shadow boundary determination unit 2426 is stored in the shadow boundary extraction result storage unit 2427.

次に、図6を参照しながら、本発明の第2の実施の形態における影認識装置20の影境界抽出部24の動作について説明する。図6は、本発明の第2の実施の形態における影認識装置20の影境界抽出部24の動作の一例を示すフローチャートである。なお、図6に図示されているフローチャートに係る動作は、図1及び図2に図示されている影認識装置20の影境界抽出部24によって実行される。   Next, the operation of the shadow boundary extraction unit 24 of the shadow recognition device 20 according to the second embodiment of the present invention will be described with reference to FIG. FIG. 6 is a flowchart showing an example of the operation of the shadow boundary extraction unit 24 of the shadow recognition device 20 according to the second embodiment of the present invention. Note that the operation according to the flowchart illustrated in FIG. 6 is executed by the shadow boundary extraction unit 24 of the shadow recognition device 20 illustrated in FIGS. 1 and 2.

図6に図示されているフローチャートでは、まず、色成分画像取得部2421において、色成分画像が取得され(ステップS2001)、エッジ抽出部2422において、色成分画像のそれぞれに関してエッジ抽出処理が行われてエッジ画像が生成され(ステップS2002)、さらに、2値化処理部2423において、各エッジ画像に関して2値化処理が行われる(ステップS2003)。なお、ここで2値化されたエッジ画像に対して細線化処理が行われてもよい。   In the flowchart shown in FIG. 6, first, the color component image acquisition unit 2421 acquires a color component image (step S2001), and the edge extraction unit 2422 performs edge extraction processing for each of the color component images. An edge image is generated (step S2002), and the binarization processing unit 2423 performs binarization processing on each edge image (step S2003). Here, the thinning process may be performed on the binarized edge image.

そして、エッジ勾配方向算出部2424は、2値化されたエッジ画像によって特定されるエッジ画素を1つ選択し(ステップS2004)、選択されたエッジ画素の座標位置に対応する色成分画像の色成分値に基づいて、そのエッジ勾配方向を算出する(ステップS2005)。   Then, the edge gradient direction calculation unit 2424 selects one edge pixel specified by the binarized edge image (step S2004), and the color component of the color component image corresponding to the coordinate position of the selected edge pixel. Based on the value, the edge gradient direction is calculated (step S2005).

ここで、ステップS2005におけるエッジ勾配方向の算出処理について、具体例を挙げて説明する。ある座標位置に存在するエッジ画素は、エッジによって分けられる2つの領域の境界上に位置している。このとき、このエッジ画素を通る線分の方向が、この線分に垂直かつエッジ画素を通る線分を超えて移動する際に、画素の色成分値の変化が最も大きくなるような方向がエッジ勾配方向となる。エッジ勾配方向は、例えばあるエッジ画素付近の境界の接線に対する垂線とすればよい。   Here, the calculation process of the edge gradient direction in step S2005 will be described with a specific example. The edge pixel existing at a certain coordinate position is located on the boundary between two regions separated by the edge. At this time, when the direction of the line segment passing through the edge pixel moves perpendicular to the line segment and exceeds the line segment passing through the edge pixel, the direction in which the change in the color component value of the pixel is the largest is the edge. Gradient direction. The edge gradient direction may be a perpendicular to the tangent to the boundary near a certain edge pixel, for example.

エッジ勾配方向の算出は、任意の公知技術を用いて行うことが可能である。例えば、ステップS2002のエッジ抽出処理でSobelフィルタを用いた場合、ステップS2002のエッジ抽出処理と同時に、エッジ画素の縦エッジ抽出Sobelフィルタ結果及び横エッジ抽出Sobelフィルタ結果を得ることが可能である。これらのSobelフィルタ結果には、縦及び横の2方向の隣接画素との間における色成分値の変化の勾配を示す情報が含まれており、ある座標位置(x,y)のエッジ画素に対して、下記の式(1)を適用することによって、図12に図示されているようなエッジ勾配方向g(x,y)を得ることが可能である。   The calculation of the edge gradient direction can be performed using any known technique. For example, when the Sobel filter is used in the edge extraction process in Step S2002, it is possible to obtain the vertical edge extraction Sobel filter result and the horizontal edge extraction Sobel filter result of the edge pixel simultaneously with the edge extraction process in Step S2002. These Sobel filter results include information indicating the gradient of the change in color component value between adjacent pixels in two vertical and horizontal directions, and for an edge pixel at a certain coordinate position (x, y). By applying the following equation (1), it is possible to obtain the edge gradient direction g (x, y) as shown in FIG.

Figure 0004674179
Figure 0004674179

ただし、式(1)において、RV(x,y)、GV(x,y)、BV(x,y)は、座標位置(x,y)における各色成分値の縦エッジ抽出Sobelフィルタ結果であり、RH(x,y)、GH(x,y)、BH(x,y)は、座標位置(x,y)における各色成分値の横エッジ抽出Sobelフィルタ結果である。 In Equation (1), R V (x, y), G V (x, y), and B V (x, y) are vertical edge extraction Sobel filters for each color component value at the coordinate position (x, y). R H (x, y), G H (x, y), and B H (x, y) are horizontal edge extraction Sobel filter results of each color component value at the coordinate position (x, y).

なお、式(1)において、各色成分値のSobelフィルタ結果の和を、各色成分値のSobelフィルタ結果をベクトル要素とするノルムに代えることによって、より正確なエッジ勾配方向が得られる。しかしながら、ステップS2005において求めようとしているエッジ勾配方向は、画像平面内におけるエッジに対して略垂直な方向であって、必ずしも正確な値を求める必要はない。   In equation (1), a more accurate edge gradient direction can be obtained by replacing the sum of the Sobel filter results of each color component value with a norm having the Sobel filter result of each color component value as a vector element. However, the edge gradient direction to be obtained in step S2005 is a direction substantially perpendicular to the edge in the image plane, and it is not always necessary to obtain an accurate value.

例えば、式(1)では、3つの色成分値を考慮したエッジ勾配方向を求めているが、例えば、1つの色成分値のみに関するエッジ勾配方向を求めて、そのエッジ勾配方向を座標位置(x,y)のエッジ勾配方向としたり、座標位置(x,y)の近隣に存在するエッジ画素のエッジ勾配方向を、座標位置(x,y)のエッジ画素として使用したりすることも可能である。また、グレースケール画像や、他の表色系の色成分値のエッジ画像から求めた縦エッジ抽出結果や横エッジ抽出結果を用いて、エッジ勾配方向を定めてもよい。   For example, in Equation (1), the edge gradient direction considering three color component values is obtained. For example, the edge gradient direction related to only one color component value is obtained, and the edge gradient direction is determined as the coordinate position (x , Y), or the edge gradient direction of the edge pixel existing in the vicinity of the coordinate position (x, y) can be used as the edge pixel of the coordinate position (x, y). . Alternatively, the edge gradient direction may be determined by using a vertical edge extraction result or a horizontal edge extraction result obtained from a gray scale image or an edge image of a color component value of another color system.

ステップS2005におけるエッジ勾配方向の算出処理は、すべてのエッジ画素に関して行われる。すなわち、選択されたエッジ画素に係るエッジ勾配方向の算出処理が完了した場合、エッジ勾配方向が未算出のエッジ画素(未選択のエッジ画素)が存在するか否かを確認し(ステップS2006)、未選択のエッジ画素が存在する場合には、新たなエッジ画素を選択して順次エッジ勾配方向の算出を行う。   The edge gradient direction calculation process in step S2005 is performed for all edge pixels. That is, when the calculation process of the edge gradient direction related to the selected edge pixel is completed, it is confirmed whether or not there is an edge pixel whose edge gradient direction is not calculated (unselected edge pixel) (step S2006). If there is an unselected edge pixel, a new edge pixel is selected and the edge gradient direction is sequentially calculated.

一方、すべてのエッジ画素に関してエッジ勾配方向の算出が完了した場合には、続いて、各エッジ画素に関して、算出されたエッジ勾配方向に基づく演算が行われる。影境界判定条件算出部2425は、2値化されたエッジ画像によって特定されるエッジ画素を1つ選択し(ステップS2007)、そのエッジ画素のエッジ勾配方向に基づく演算を行う(ステップS2008)。具体的には、ステップS2008において、選択されたエッジ画素を通る線分であって、かつそのエッジ画素のエッジ勾配方向に平行な線分を設定し、エッジ画素を挟んで分けられる2つの領域のそれぞれの色成分値の平均値を算出することが可能である。   On the other hand, when the calculation of the edge gradient direction is completed for all edge pixels, the calculation based on the calculated edge gradient direction is subsequently performed for each edge pixel. The shadow boundary determination condition calculation unit 2425 selects one edge pixel specified by the binarized edge image (step S2007), and performs a calculation based on the edge gradient direction of the edge pixel (step S2008). Specifically, in step S2008, a line segment that passes through the selected edge pixel and is parallel to the edge gradient direction of the edge pixel is set, and the two regions that are separated by sandwiching the edge pixel are set. It is possible to calculate the average value of each color component value.

以下、ステップS2008におけるエッジ画素のエッジ勾配方向に基づく演算について、具体例を挙げて説明する。ステップS2008では、エッジ画素を挟んで一方及び他方の領域(エッジ勾配方向に垂直な接線によって分けられる2つの領域)を考える。そして、一方の領域の線分上に存在する複数の画素の各色成分値の平均値を算出するとともに、他方の領域の線分上に存在する複数の画素の各色成分値の平均値を算出する。なお、図12に図示されているように、エッジ画素から少し離れた地点に平均値を算出するための画素を含む領域を設定することで、エッジ付近で発生するオーバシュートの影響を回避することが可能となる。   Hereinafter, the calculation based on the edge gradient direction of the edge pixel in step S2008 will be described with a specific example. In step S2008, one and the other region (two regions separated by a tangent line perpendicular to the edge gradient direction) across the edge pixel are considered. Then, an average value of each color component value of a plurality of pixels existing on the line segment of one region is calculated, and an average value of each color component value of a plurality of pixels present on the line segment of the other region is calculated. . In addition, as shown in FIG. 12, by setting an area including pixels for calculating an average value at a point slightly away from the edge pixels, it is possible to avoid the influence of overshoot that occurs near the edges. Is possible.

なお、図13には、図12に図示されている座標位置(x,y)のエッジ画素に関して、ステップS2008で算出されたエッジ勾配方向の線分AB上における平均値が模式的に示されている。なお、ステップS2008で算出された線分ABのA側のRGB値のそれぞれの平均値をFR N、FG N、FB Nと表記し、線分ABのB側のRGB値のそれぞれの平均値をFR S、FG S、FB Sと表記する。 FIG. 13 schematically shows the average value on the line segment AB in the edge gradient direction calculated in step S2008 for the edge pixel at the coordinate position (x, y) shown in FIG. Yes. Incidentally, each average value F R N of the RGB value of the A side of the calculated line segment AB in step S2008, F G N, is denoted by F B N, the B side of the line segment AB of the RGB values of The average value is expressed as F R S , F G S , F B S.

ステップS2008における平均値の算出処理も、すべてのエッジ画素に関して行われる。すなわち、選択されたエッジ画素に係る平均値の算出処理が完了した場合、平均値が未算出のエッジ画素(未選択のエッジ画素)が存在するか否かを確認し(ステップS2009)、未選択のエッジ画素が存在する場合には、新たなエッジ画素を選択して順次平均値の算出を行う。   The average value calculation process in step S2008 is also performed for all edge pixels. That is, when the calculation processing of the average value related to the selected edge pixel is completed, it is confirmed whether or not there is an edge pixel whose average value is not calculated (unselected edge pixel) (step S2009). If there is an edge pixel, a new edge pixel is selected and the average value is calculated sequentially.

そして、上述のようにエッジ画素に関して算出された平均値に基づいて、影境界判定部2426において、各エッジ画素が影境界の画素か否かの判断が行われ、影境界に属するエッジ画素が決定される(ステップS2010)。   Then, based on the average value calculated for the edge pixels as described above, the shadow boundary determination unit 2426 determines whether each edge pixel is a shadow boundary pixel, and determines the edge pixels belonging to the shadow boundary. (Step S2010).

ステップS2010でエッジ画素が影境界の画素か否かを判断する際、例えば、下記の2つの条件(第1及び第2の条件)の両方を満たすエッジ画素を影境界の画素と判断する。   When determining whether or not the edge pixel is a shadow boundary pixel in step S2010, for example, an edge pixel that satisfies both of the following two conditions (first and second conditions) is determined to be a shadow boundary pixel.

(第1の条件)
影領域では非影領域に比べてRGB値がすべて小さいことを考慮して、下記の関係式を満たすエッジ画素を、影領域の画素候補とする。
(First condition)
Considering that the RGB values are all smaller in the shadow area than in the non-shadow area, an edge pixel that satisfies the following relational expression is determined as a pixel candidate for the shadow area.

R S<FR N
G S<FG N
B S<FB N
F R S <F R N
F G S <F G N
F B S <F B N

(第2の条件)
屋外の場合、太陽光は白色からやや黄色がかった色であり、また、環境光は空からの散乱光の青成分が強い光である。この条件を考慮して、下記の式(2)を満たすエッジ画素を、影領域の画素候補とする。なお、光源の光の分光特性と、環境光の分光特性をあらかじめ分かっている場合には、その分光特性に応じて下記の式(2)の条件を適宜変えることによって、屋外以外の環境でも影境界を抽出することが可能である。
(Second condition)
In the case of the outdoors, sunlight has a white to slightly yellowish color, and ambient light has a strong blue component of scattered light from the sky. Considering this condition, an edge pixel satisfying the following expression (2) is set as a shadow region pixel candidate. If the spectral characteristics of the light from the light source and the spectral characteristics of the ambient light are known in advance, the conditions of the following formula (2) are appropriately changed in accordance with the spectral characteristics so that the light is not affected by the environment other than outdoors. It is possible to extract the boundary.

R<rG<rB・・・(2)
ただし、
R=FR S/(FR N−FR S
G=FG S/(FG N−FG S
B=FB S/(FB N−FB S
r R <r G <r B (2)
However,
r R = F R S / (F R N −F R S )
r G = F G S / (F G N −F G S )
r B = F B S / (F B N −F B S )

なお、上記の式を式(2)に代入することから、下記の式でも式(2)の条件を満たすことが分かる。したがって、下記の式を用いることも可能である。
R=FR S/FR N
G=FG S/FG N
B=FB S/FB N
Since the above formula is substituted into formula (2), it can be seen that the following formula also satisfies the condition of formula (2). Therefore, the following formula can also be used.
r R = F R S / F R N
r G = F G S / F G N
r B = F B S / F B N

また、材質の分光反射特性がRGBの色成分値で大きく変わらないことが分かっている場合、屋外のように、環境光の青成分が強い場合には次の傾向となることが予想される。   Further, when it is known that the spectral reflection characteristics of the material do not change greatly with the RGB color component values, the following tendency is expected when the blue component of the ambient light is strong, such as outdoors.

R S<FG S<FB S F R S <F G S <F B S

この条件は、上記の式(2)の条件を満たしており、上記の式(2)に代わって、下記の式(3)を満たすエッジ画素を、影領域の画素候補としてもよい。   This condition satisfies the condition of the above expression (2), and instead of the above expression (2), an edge pixel satisfying the following expression (3) may be used as a pixel candidate for the shadow region.

R N−FR S>FG N−FG S>FB N−FB S・・・(3) F R N -F R S> F G N -F G S> F B N -F B S ··· (3)

この式(3)の条件も、式(2)の条件と同様に、光源の光の分光特性と、環境光の分光特性をあらかじめ分かっている場合、その分光特性に応じて上記の式(3)の条件を変えることにより、屋外以外の環境でも影境界を抽出することが可能である。   Similarly to the condition of the expression (2), the condition of the expression (3) is the above-described expression (3) according to the spectral characteristic when the spectral characteristic of the light of the light source and the spectral characteristic of the ambient light are known in advance. ), It is possible to extract a shadow boundary even in an environment other than the outdoors.

以上のようにして、ステップS2010で決定された影境界の画素に係る情報は、影境界抽出結果として、影境界抽出結果格納部2427に格納される。   As described above, the information related to the shadow boundary pixel determined in step S2010 is stored in the shadow boundary extraction result storage unit 2427 as the shadow boundary extraction result.

以上、説明したように、本発明の第2の実施の形態に係る影境界抽出方法によれば、影領域が非影領域に比べて明度が小さいことを利用して、影境界を抽出することが可能となる。また、RGB表色系の場合、影領域のRGB値すべてが、非影領域のRGB値に比べて小さいことを利用して、影境界を抽出することが可能となる。さらに、影領域に照射される光の分光特性(影領域には光源からの光が照射されていないが、例えば壁などにより反射された光(環境光)が照射される)と、非影領域に照射される光の分光特性との違いを利用して、影境界を抽出することが可能となる。   As described above, according to the shadow boundary extraction method according to the second embodiment of the present invention, the shadow boundary is extracted by using the fact that the shadow area is lighter than the non-shadow area. Is possible. Further, in the case of the RGB color system, it is possible to extract a shadow boundary by utilizing the fact that all the RGB values of the shadow area are smaller than the RGB values of the non-shadow area. Furthermore, the spectral characteristics of the light irradiated to the shadow area (the shadow area is not irradiated with light from the light source, but the light reflected from the wall (environment light) is irradiated, for example), and the non-shadow area The shadow boundary can be extracted by utilizing the difference from the spectral characteristic of the light irradiated on the.

<第3の実施の形態>
次に、図7を参照しながら、本発明の第3の実施の形態について説明する。図7には、本発明の第3の実施の形態における影認識装置20の影境界抽出部24の構成の一例が図示されている。なお、図7に図示されている影境界抽出部24は、図2に図示されている影認識装置20内の影境界抽出部24の一構成例を示すものである。
<Third Embodiment>
Next, a third embodiment of the present invention will be described with reference to FIG. FIG. 7 illustrates an example of the configuration of the shadow boundary extraction unit 24 of the shadow recognition device 20 according to the third embodiment of the present invention. The shadow boundary extraction unit 24 illustrated in FIG. 7 is a configuration example of the shadow boundary extraction unit 24 in the shadow recognition device 20 illustrated in FIG.

図7に図示されている影境界抽出部24は、色成分画像取得部2431、エッジ抽出部2432、2値化処理部2433、近傍パターン算出部2434、パターン照合・影境界判定部2435、影境界パターン格納部2436、エッジ勾配方向算出部2437、影境界判定条件算出部2438、影境界判定部2439、影境界抽出結果格納部2440、影抽出結果出力部2441を有している。   The shadow boundary extraction unit 24 illustrated in FIG. 7 includes a color component image acquisition unit 2431, an edge extraction unit 2432, a binarization processing unit 2433, a neighborhood pattern calculation unit 2434, a pattern matching / shadow boundary determination unit 2435, a shadow boundary. A pattern storage unit 2436, an edge gradient direction calculation unit 2437, a shadow boundary determination condition calculation unit 2438, a shadow boundary determination unit 2439, a shadow boundary extraction result storage unit 2440, and a shadow extraction result output unit 2441 are provided.

図7に図示されている色成分画像取得部2431、エッジ抽出部2432、2値化処理部2433、近傍パターン算出部2434、パターン照合・影境界判定部2435、影境界パターン格納部2436は、図3に図示されている色成分画像取得部2411、エッジ抽出部2412、2値化処理部2413、近傍パターン算出部2414、パターン照合・影境界判定部2415、影境界パターン格納部2416と同一の機能を有しており、図7に図示されているエッジ勾配方向算出部2437、影境界判定条件算出部2438、影境界判定部2439、影境界抽出結果格納部2440、影抽出結果出力部2441は、図5に図示されているエッジ勾配方向算出部2424、影境界判定条件算出部2425、影境界判定部2426、影境界抽出結果格納部2427、影抽出結果出力部2428と同一の機能を有している。   The color component image acquisition unit 2431, the edge extraction unit 2432, the binarization processing unit 2433, the neighborhood pattern calculation unit 2434, the pattern matching / shadow boundary determination unit 2435, and the shadow boundary pattern storage unit 2436 shown in FIG. The same functions as the color component image acquisition unit 2411, edge extraction unit 2412, binarization processing unit 2413, neighborhood pattern calculation unit 2414, pattern matching / shadow boundary determination unit 2415, and shadow boundary pattern storage unit 2416 illustrated in FIG. The edge gradient direction calculation unit 2437, the shadow boundary determination condition calculation unit 2438, the shadow boundary determination unit 2439, the shadow boundary extraction result storage unit 2440, and the shadow extraction result output unit 2441 illustrated in FIG. Edge gradient direction calculation unit 2424, shadow boundary determination condition calculation unit 2425, shadow boundary determination unit 2426, shadow boundary extraction illustrated in FIG. Result storing unit 2427 has the same functions and shadow extraction result output section 2428.

なお、以下では、便宜上、色成分画像取得部2431、エッジ抽出部2432、2値化処理部2433、近傍パターン算出部2434、パターン照合・影境界判定部2435、影境界パターン格納部2436を有する機構を前半処理機構と呼び、エッジ勾配方向算出部2437、影境界判定条件算出部2438、影境界判定部2439、影境界抽出結果格納部2440、影抽出結果出力部2441を有する機構を後半処理機構と呼ぶことにする。   Hereinafter, for convenience, a mechanism having a color component image acquisition unit 2431, an edge extraction unit 2432, a binarization processing unit 2433, a neighborhood pattern calculation unit 2434, a pattern matching / shadow boundary determination unit 2435, and a shadow boundary pattern storage unit 2436. Is called the first half processing mechanism, and the mechanism having the edge gradient direction calculation unit 2437, the shadow boundary determination condition calculation unit 2438, the shadow boundary determination unit 2439, the shadow boundary extraction result storage unit 2440, and the shadow extraction result output unit 2441 is called the second half processing mechanism. I will call it.

なお、本発明の第3の実施の形態は、基本的に上述の本発明の第1及び第2の実施の形態を組み合わせたものである。すなわち、図7に図示されている前半処理機構によって、図4に図示されている影境界抽出方法が実行され、図7に図示されている後半処理機構によって、図6に図示されている影境界抽出方法が実行される。   The third embodiment of the present invention is basically a combination of the first and second embodiments of the present invention described above. That is, the shadow boundary extraction method illustrated in FIG. 4 is executed by the first half processing mechanism illustrated in FIG. 7, and the shadow boundary illustrated in FIG. 6 is performed by the second half processing mechanism illustrated in FIG. An extraction method is executed.

本発明の第1の実施の形態に開示されている影境界抽出方法は、例えば、ある画素に関して算出された近傍パターンと、影境界パターンとの一致が検出された場合には、即座にその画素を影境界の画素であると判断するなど、処理が比較的短時間に行われることに特徴があるが、その分、影境界抽出精度は、本発明の第2の実施の形態に開示されている影境界抽出方法に比べて低い可能性がある。   The shadow boundary extraction method disclosed in the first embodiment of the present invention, for example, immediately detects a match between a neighborhood pattern calculated for a pixel and the shadow boundary pattern. However, the shadow boundary extraction accuracy is disclosed in the second embodiment of the present invention. It may be lower than the shadow boundary extraction method.

一方、本発明の第2の実施の形態に開示されている影境界抽出方法は、画像の分光特性を参照して高い精度で影境界を抽出することが可能であるが、エッジ勾配方向や平均値の算出など計算処理が多く、本発明の第1の実施の形態に開示されている影境界抽出方法に比べて、処理に比較的時間がかかる可能性がある。   On the other hand, the shadow boundary extraction method disclosed in the second embodiment of the present invention can extract a shadow boundary with high accuracy by referring to the spectral characteristics of an image. There are many calculation processes such as value calculation, and the process may take a relatively long time compared to the shadow boundary extraction method disclosed in the first embodiment of the present invention.

そこで、本発明の第3の実施の形態では、図7に図示されているように、図3及び図5に図示されている構成を組み合わせることによって、前半処理機構において生成された影抽出処理結果に関してのみ(図5に図示されている構成では、すべてのエッジ画素に対して処理を行う必要がある)、後半処理機構において更なる影境界抽出処理を行うようにしている。これにより、本発明の第1の実施の形態に開示されている技術よりも高い抽出精度を実現するとともに、本発明の第2の実施の形態に開示されている技術よりも短い処理時間を実現することが可能となる。   Therefore, in the third embodiment of the present invention, as shown in FIG. 7, the shadow extraction processing result generated in the first half processing mechanism by combining the configurations shown in FIG. 3 and FIG. Only with respect to (in the configuration shown in FIG. 5, it is necessary to perform processing on all edge pixels), the shadow processing is further performed in the latter half processing mechanism. This realizes higher extraction accuracy than the technique disclosed in the first embodiment of the present invention and a shorter processing time than the technique disclosed in the second embodiment of the present invention. It becomes possible to do.

次に、図8を参照しながら、本発明の第1〜第3の実施の形態における影境界抽出方法で得られる影境界抽出結果に基づいて影認識を実行する影認識装置20の影境界・影領域統合部26の構成について説明する。図8には、本発明の第1〜第3の実施の形態において得られる影境界抽出結果を利用する影認識装置20の影境界・影領域統合部26の構成の一例が図示されている。なお、図8に図示されている影境界・影領域統合部26は、図2に図示されている影認識装置20の影境界・影領域統合部26の一構成例を示すものである。   Next, referring to FIG. 8, the shadow boundary of the shadow recognition device 20 that performs shadow recognition based on the shadow boundary extraction result obtained by the shadow boundary extraction method according to the first to third embodiments of the present invention. The configuration of the shadow area integration unit 26 will be described. FIG. 8 illustrates an example of the configuration of the shadow boundary / shadow region integration unit 26 of the shadow recognition device 20 that uses the shadow boundary extraction results obtained in the first to third embodiments of the present invention. The shadow boundary / shadow region integration unit 26 illustrated in FIG. 8 is a configuration example of the shadow boundary / shadow region integration unit 26 of the shadow recognition device 20 illustrated in FIG.

図8に図示されている影境界・影領域統合部26は、影境界抽出結果取得部261、影領域抽出結果取得部262、影境界・影領域関係算出部263、影判断部264、影認識結果格納部265を有している。なお、図8においてブロック図で表されている影境界・影領域統合部26の機能は、ハードウェア及び/又はコンピュータによって実行されるソフトウェアによって実現可能である。   The shadow boundary / shadow region integration unit 26 illustrated in FIG. 8 includes a shadow boundary extraction result acquisition unit 261, a shadow region extraction result acquisition unit 262, a shadow boundary / shadow region relationship calculation unit 263, a shadow determination unit 264, and shadow recognition. A result storage unit 265 is included. Note that the function of the shadow boundary / shadow region integration unit 26 shown in the block diagram in FIG. 8 can be realized by hardware and / or software executed by a computer.

図8において、影境界抽出結果取得部261は、図2に図示されている影境界抽出部24によって生成された影境界抽出結果を取得する機能を有している。また、影領域抽出結果取得部262は、図2に図示されている影領域抽出部25によって生成された影領域抽出結果を取得する機能を有している。影境界抽出結果取得部261で取得された影境界抽出結果、及び影領域抽出結果取得部262で取得された影領域抽出結果は、影境界・影領域関係算出部263に供給される。   In FIG. 8, the shadow boundary extraction result acquisition unit 261 has a function of acquiring the shadow boundary extraction result generated by the shadow boundary extraction unit 24 illustrated in FIG. The shadow area extraction result acquisition unit 262 has a function of acquiring the shadow area extraction result generated by the shadow area extraction unit 25 illustrated in FIG. The shadow boundary extraction result acquired by the shadow boundary extraction result acquisition unit 261 and the shadow region extraction result acquired by the shadow region extraction result acquisition unit 262 are supplied to the shadow boundary / shadow region relationship calculation unit 263.

また、影境界・影領域関係算出部263は、影境界抽出結果取得部261で取得された影境界抽出結果と、影領域抽出結果取得部262で取得された影領域抽出結果との関係に基づいて、各画素に関して、影境界抽出結果及び影領域抽出結果を統合した判定値を算出する機能を有している。影境界・影領域関係算出部263で算出された各画素の判定値は、影判断部264に供給される。なお、影境界・影領域関係算出部263で算出される判定値に関しては、後で具体的に説明する。   Further, the shadow boundary / shadow region relationship calculating unit 263 is based on the relationship between the shadow boundary extraction result acquired by the shadow boundary extraction result acquisition unit 261 and the shadow region extraction result acquired by the shadow region extraction result acquisition unit 262. Thus, each pixel has a function of calculating a determination value obtained by integrating the shadow boundary extraction result and the shadow region extraction result. The determination value of each pixel calculated by the shadow boundary / shadow region relationship calculating unit 263 is supplied to the shadow determining unit 264. Note that the determination value calculated by the shadow boundary / shadow region relationship calculating unit 263 will be specifically described later.

また、影判断部264は、影境界・影領域関係算出部263で算出された判定値に基づいて、画像内に存在する影の判断を行う機能を有している。影判断部264における判断結果は、画像内に存在する影の最終的な認識結果である。影判断部264で得られた各画素の影認識結果は、影認識結果格納部265に格納される。なお、影判断部264における影判断方法に関しても後で具体的に説明する。   The shadow determination unit 264 has a function of determining a shadow present in the image based on the determination value calculated by the shadow boundary / shadow region relationship calculation unit 263. The determination result in the shadow determination unit 264 is a final recognition result of the shadow present in the image. The shadow recognition result of each pixel obtained by the shadow determination unit 264 is stored in the shadow recognition result storage unit 265. The shadow determination method in the shadow determination unit 264 will be specifically described later.

また、影認識結果格納部265には、影判断部264で得られた影認識結果(例えば、どの画素が影に属するかを示す情報)が格納される。影認識結果格納部265に格納されている影認識結果は、影認識装置20の影認識結果出力部27から、例えば画像単位で外部に出力される。   The shadow recognition result storage unit 265 stores the shadow recognition result obtained by the shadow determination unit 264 (for example, information indicating which pixel belongs to the shadow). The shadow recognition result stored in the shadow recognition result storage unit 265 is output from the shadow recognition result output unit 27 of the shadow recognition apparatus 20 to the outside, for example, in units of images.

次に、図9を参照しながら、本発明の第1〜第3の実施の形態で得られる影境界抽出結果に基づいて影認識を実行するための影認識装置の概要について説明する。図9は、本発明の第1〜第3の実施の形態で得られる影境界抽出結果に基づいて影認識を実行するための影認識装置の動作の一例を示すフローチャートである。なお、図9に図示されているフローチャートに係る動作は、図1及び図2に図示されている影認識装置20の影境界・影領域統合部26によって実行される。   Next, an outline of a shadow recognition apparatus for executing shadow recognition based on the shadow boundary extraction results obtained in the first to third embodiments of the present invention will be described with reference to FIG. FIG. 9 is a flowchart showing an example of the operation of the shadow recognition device for executing shadow recognition based on the shadow boundary extraction results obtained in the first to third embodiments of the present invention. The operation according to the flowchart shown in FIG. 9 is executed by the shadow boundary / shadow region integration unit 26 of the shadow recognition device 20 shown in FIGS.

図9に図示されているフローチャートでは、まず、影境界抽出結果取得部261において、影境界抽出結果が取得される(ステップS2601)とともに、影領域抽出結果取得部262において、影領域抽出結果が取得される(ステップS2602)。   In the flowchart shown in FIG. 9, first, the shadow boundary extraction result acquisition unit 261 acquires the shadow boundary extraction result (step S2601), and the shadow region extraction result acquisition unit 262 acquires the shadow region extraction result. (Step S2602).

そして、影境界・影領域関係算出部263において、各画素において、同一画素における影境界抽出結果及び影領域抽出結果の関連付けが行われて、1つの値(判定値)が算出される(ステップS2603)。   Then, the shadow boundary / shadow region relationship calculating unit 263 associates the shadow boundary extraction result and the shadow region extraction result for the same pixel in each pixel, and calculates one value (determination value) (step S2603). ).

ここで、影境界・影領域関係算出部263による影境界抽出結果及び影領域抽出結果の関連付けについて説明する。影境界抽出結果には、画像内の各画素が影境界である旨(影境界抽出結果=1)、あるいは影境界ではない旨(影境界抽出結果=0)を示す情報が含まれている。また、影領域抽出結果には、画像内の各画素が影領域である旨(影領域抽出結果=1)、あるいは影領域ではない旨(影境界抽出結果=0)を示す情報が含まれている。したがって、ある画素は、影境界抽出結果及び影領域抽出結果の組み合わせに関して4通りに分類可能であり、影境界・影領域関係算出部263は、これらの4通りの組み合わせに対して、例えば下記のように判定値を算出する。   Here, the association between the shadow boundary extraction result and the shadow region extraction result by the shadow boundary / shadow region relationship calculating unit 263 will be described. The shadow boundary extraction result includes information indicating that each pixel in the image is a shadow boundary (shadow boundary extraction result = 1) or not (shadow boundary extraction result = 0). The shadow region extraction result includes information indicating that each pixel in the image is a shadow region (shadow region extraction result = 1) or not a shadow region (shadow boundary extraction result = 0). Yes. Accordingly, a certain pixel can be classified into four types with respect to the combination of the shadow boundary extraction result and the shadow region extraction result, and the shadow boundary / shadow region relationship calculating unit 263 performs, for example, the following for the four combinations: The determination value is calculated as follows.

影境界抽出結果=1 かつ 影領域抽出結果=1 → 判定値=2
影境界抽出結果=0 かつ 影領域抽出結果=1 → 判定値=2
影境界抽出結果=1 かつ 影領域抽出結果=0 → 判定値=1
影境界抽出結果=0 かつ 影領域抽出結果=0 → 判定値=0
Shadow boundary extraction result = 1 and shadow region extraction result = 1 → judgment value = 2
Shadow boundary extraction result = 0 and shadow area extraction result = 1 → judgment value = 2
Shadow boundary extraction result = 1 and shadow region extraction result = 0 → judgment value = 1
Shadow boundary extraction result = 0 and shadow region extraction result = 0 → judgment value = 0

なお、ここでは、影境界抽出結果よりも影領域抽出結果を重視して、影境界抽出結果の値によらず、影領域抽出結果=1の場合には同一の判定値が付与されるようにしている。また、上記の判定値の設定は一例であり、任意の適切な設定を行うことが可能である。   Here, the shadow region extraction result is more important than the shadow boundary extraction result, and the same determination value is assigned when the shadow region extraction result = 1, regardless of the value of the shadow boundary extraction result. ing. Moreover, the setting of the determination value is an example, and any appropriate setting can be performed.

さらに、影境界・影領域関係算出部263で算出された判定値に基づいて、影判断部264において、画像内における各画素間の関係や画像全体のバランスが考慮されて、各画素が影に属するか否かの判断が行われる(ステップS2604)。   Further, based on the determination value calculated by the shadow boundary / shadow region relationship calculating unit 263, the shadow determining unit 264 takes into account the relationship between the pixels in the image and the balance of the entire image, so that each pixel becomes a shadow. A determination is made as to whether it belongs (step S2604).

以下、影境界・影領域関係算出部263で算出された判定値に基づいて行われる、影判断部264における影の判断方法について説明する。例えば、影判断部264は、下記のように、判定値=2の画素に関しては影であると判断し、判定値=0の画素に関しては影ではないと判断する。一方、判定値=1の画素に関しては、その画素に隣接した画素の判定値を考慮し、判定値=1の画素の集合(クラスタ)を導出し、その判定値=1の集合が任意の箇所で判定値=2の画素と接しているか否かを判断する。そして、任意の箇所で判定値=2の画素と接している判定値=1の集合に属する画素に関しては影であると判断し、一方、どの箇所においても判定値=2の画素と接していない判定値=1の集合に属する画素に関しては影ではないと判断する。   Hereinafter, a shadow determination method performed by the shadow determination unit 264, which is performed based on the determination value calculated by the shadow boundary / shadow region relationship calculation unit 263, will be described. For example, as described below, the shadow determination unit 264 determines that the pixel with the determination value = 2 is a shadow, and determines that the pixel with the determination value = 0 is not a shadow. On the other hand, with respect to a pixel with determination value = 1, a determination value of a pixel adjacent to the pixel is taken into consideration, and a set (cluster) of pixels with determination value = 1 is derived. It is then determined whether or not it is in contact with the pixel having the determination value = 2. A pixel belonging to the set of determination value = 1 that is in contact with a pixel of determination value = 2 at an arbitrary position is determined to be a shadow, and is not in contact with a pixel of determination value = 2 at any position. A pixel belonging to the set of determination value = 1 is determined not to be a shadow.

上述の影の判断方法について、図14に図示されている画像を一例として説明する。図14は画像の一部であり、各画素と、各画素に付与されている判定値とが図示されている。図14には、判定値=1の集合A、Bが2つ存在している。   The above-described shadow determination method will be described using the image shown in FIG. 14 as an example. FIG. 14 shows a part of an image, in which each pixel and a determination value assigned to each pixel are illustrated. In FIG. 14, there are two sets A and B with determination value = 1.

図14において、判定値=1の集合Aでは、その集合Aに属する一部の画素が、判定値=2の画素に隣接している。したがって、上述の条件に基づいて、判定値=1の集合Aに属するすべての画素は、影であると判断される。一方、判定値=1の集合Bでは、その集合Bに属する画素がいずれも判定値=2の画素に隣接していない。したがって、上述の条件に基づいて、判定値=1の集合Bに属するすべての画素は、影ではないと判断される。   In FIG. 14, in the set A with the determination value = 1, some pixels belonging to the set A are adjacent to the pixels with the determination value = 2. Therefore, based on the above-described conditions, all the pixels belonging to the set A with the determination value = 1 are determined to be shadows. On the other hand, in the set B with the determination value = 1, none of the pixels belonging to the set B is adjacent to the pixel with the determination value = 2. Therefore, based on the above-described conditions, it is determined that all the pixels belonging to the set B with the determination value = 1 are not shadows.

影判断部264は、上述のように判定値に基づいて、各画素が影に属するか否かの判断を行った後、画像全体のバランスを考慮して、例えば影境界の途切れを補正して、影境界のよって囲まれた閉領域を塗り潰す(当該閉領域内部の画素を影に属する画素とみなす)ことによって、最終的な影認識結果を作成する。   After determining whether or not each pixel belongs to the shadow based on the determination value as described above, the shadow determination unit 264 corrects, for example, the break of the shadow boundary in consideration of the balance of the entire image. Then, the final shadow recognition result is created by filling the closed region surrounded by the shadow boundary (considering the pixels inside the closed region as pixels belonging to the shadow).

また、図15は、本発明の第1〜第3の実施の形態で得られる影境界抽出結果に基づく影認識方法の概要を説明するための概念図である。図9に図示されている影認識方法によれば、図15に図示されているように、まず、影が写っている原画像500から、影境界抽出処理及び影領域抽出処理が行われて、影境界抽出結果501及び影領域抽出結果502が得られる。なお、図15に図示されているように、影境界抽出結果501には、影境界のエッジを十分に抽出することができずに影境界の途切れが存在しており、影領域抽出結果502には、実際の影とは異なる影領域の欠けが存在しているものとする。   FIG. 15 is a conceptual diagram for explaining the outline of the shadow recognition method based on the shadow boundary extraction result obtained in the first to third embodiments of the present invention. According to the shadow recognition method illustrated in FIG. 9, first, as illustrated in FIG. 15, shadow boundary extraction processing and shadow region extraction processing are performed from the original image 500 in which the shadow is reflected, A shadow boundary extraction result 501 and a shadow region extraction result 502 are obtained. As shown in FIG. 15, the shadow boundary extraction result 501 includes a shadow boundary discontinuity because a shadow boundary edge cannot be sufficiently extracted. , It is assumed that there is a missing shadow region different from the actual shadow.

影境界・影領域関係算出部263における処理は、これらの影境界抽出結果及び影領域抽出結果を統合して、多値の判定値によって表現を行うものである。その結果、多値の判定値を含む統合画像503が得られる(図9のステップS2603の処理に対応)。そして、判定値=1を有する画素のクラスタリングなどの処理が行われて、余分な影境界が削除された画像504が作成され、さらに、影境界の途切れの補正や影境界及び影領域による閉領域の塗り潰し処理などが行われて、影認識結果505が生成される。   The process in the shadow boundary / shadow area relationship calculating unit 263 integrates the shadow boundary extraction results and the shadow area extraction results and expresses them by multi-valued determination values. As a result, an integrated image 503 including a multi-valued determination value is obtained (corresponding to the process in step S2603 in FIG. 9). Then, processing such as clustering of pixels having the determination value = 1 is performed to create an image 504 from which extra shadow boundaries are deleted, and further, correction of shadow boundary interruptions and closed regions by shadow boundaries and shadow regions are created. And the shadow recognition result 505 is generated.

以上、説明したように、本発明に係る影認識方法によれば、画像に写っている影に対して、影領域の抽出及び影境界の抽出という異なるアプローチによって抽出された結果を統合することで、従来の技術に比べて影の認識精度を大幅に向上させることが可能となる。   As described above, according to the shadow recognition method according to the present invention, the results extracted by different approaches of shadow region extraction and shadow boundary extraction are integrated into the shadow reflected in the image. Therefore, it is possible to greatly improve the shadow recognition accuracy as compared with the conventional technique.

なお、本発明に係る影認識方法及び影境界抽出方法は、様々な用途に利用することが可能である。例えば、本発明によって認識された画像内の影を補正することで、人間の目に見やすい画像(視認性に優れた画像)を提示することが可能となる。   The shadow recognition method and the shadow boundary extraction method according to the present invention can be used for various purposes. For example, by correcting the shadow in the image recognized by the present invention, it is possible to present an image that is easy to see for human eyes (an image with excellent visibility).

具体的には、画像中の影領域の濃淡を明るくしたり、影領域の濃淡を、その影領域に隣接する非影領域の濃淡に合わせたりすることで、人間の目にとって視認性の良い画像を提示することが可能となる。   Specifically, an image with high visibility for human eyes can be obtained by increasing the shade of the shadow area in the image or matching the shade of the shadow area with the shade of the non-shadow area adjacent to the shadow area. Can be presented.

また、車両がトンネルに入るときなどのように、急激な明暗の変化がある場合、人間の目が暗順応するのに時間がかかる。そこで、影の部分(路面上の影とトンネル内部)を明るくした画像を提示することで、運転者の視認性を向上させることが可能となる。   In addition, when there is a sudden change in brightness such as when a vehicle enters a tunnel, it takes time for the human eye to adapt to the darkness. Therefore, the visibility of the driver can be improved by presenting an image in which the shadow portion (the shadow on the road surface and the inside of the tunnel) is brightened.

また、例えば、本発明によって認識された画像内の影を補正することで、画像処理、画像認識の処理精度を向上させることが可能となる。   Further, for example, by correcting a shadow in an image recognized by the present invention, it is possible to improve processing accuracy of image processing and image recognition.

例えば、車両に設定されたカメラで撮影された画像から、道路領域を抽出しようとした場合に、道路にかかった他物体の影領域を道路領域として抽出できない場合がある。そこで、影領域の濃淡を隣接した非影領域の濃淡に合わせることで、道路領域のみを抽出することが可能となる。   For example, when a road area is to be extracted from an image captured by a camera set on a vehicle, a shadow area of another object on the road may not be extracted as a road area. Therefore, it is possible to extract only the road region by matching the shading of the shadow region with the shading of the adjacent non-shadow region.

また、例えば、本発明によって影認識を行うことで、立体物に関する情報を取得することが可能となる。例えば、影は、光源からの光が立体物で遮られることにより生じるため、認識した影から立体物の情報(形状や位置など)を取得するために利用可能である。   In addition, for example, by performing shadow recognition according to the present invention, it is possible to acquire information regarding a three-dimensional object. For example, since a shadow is generated when light from a light source is blocked by a three-dimensional object, it can be used to acquire information (shape, position, etc.) of the three-dimensional object from the recognized shadow.

また、本発明によれば、例えば、一般道のように様々な物体が存在するような複雑な環境において撮影された画像からも、従来の技術に比べて精度よく影認識を行うことが可能となる。例えば、運転者の駐車支援の目的で、車両後方に取り付けたカメラ(リアカメラ)で画像を撮像し、画像表示部(ナビげーション装置の画面)にその撮像画像を表示する製品が既に市場に出ているが、画像中に含まれる影の部分が見づらく、確認がしづらい。そのため、影領域に存在する子供やペットを見逃す可能性がある。一方、本発明によれば、リアカメラ画像に映っている一緒に写り込んだ影を認識することで、運転者に見やすいように特定の影の補正を行うことが可能となり、補正された撮像画像を運転者に提示することで、事故を未然に防ぐことが可能となる。   In addition, according to the present invention, for example, it is possible to perform shadow recognition more accurately than an image captured in a complicated environment where various objects exist such as a general road, compared to the conventional technique. Become. For example, a product that captures an image with a camera (rear camera) attached to the rear of the vehicle and displays the captured image on the image display unit (the screen of the navigation device) is already on the market for the purpose of assisting the driver in parking. Although it appears, it is difficult to see the shadow part included in the image and to check it. Therefore, there is a possibility that children and pets existing in the shadow area may be missed. On the other hand, according to the present invention, it is possible to correct a specific shadow so that it can be easily seen by the driver by recognizing the shadow reflected together in the rear camera image. By presenting to the driver, it becomes possible to prevent an accident.

次に、本発明に係る影認識方法及び影境界抽出方法の第1の適用例について説明する。第1の適用例では、カメラが車両に設置されており、運転者が車両の移動方向の安全性を確認できるように、車両内に設置された画像表示部にカメラによって撮像された撮像画像を表示する車両運転支援システムに本発明が適用される。   Next, a first application example of the shadow recognition method and the shadow boundary extraction method according to the present invention will be described. In the first application example, the camera is installed in the vehicle, and the captured image captured by the camera is displayed on the image display unit installed in the vehicle so that the driver can confirm the safety in the moving direction of the vehicle. The present invention is applied to a vehicle driving support system for display.

図16は、本発明に係る影認識方法及び影境界抽出方法の第1の適用例のシステム構成を示す図である。図16には、カラー画像取得部601、カラー画像格納部602、影認識部603、影有無判定部604、自車影特定領域情報格納部605、自車影抽出部606、自車影有無判定部607、自車影補正部608、画像表示部609が図示されている。   FIG. 16 is a diagram showing a system configuration of a first application example of the shadow recognition method and the shadow boundary extraction method according to the present invention. In FIG. 16, a color image acquisition unit 601, a color image storage unit 602, a shadow recognition unit 603, a shadow presence / absence determination unit 604, a vehicle shadow specific area information storage unit 605, a vehicle shadow extraction unit 606, a vehicle shadow presence / absence determination A unit 607, a vehicle shadow correction unit 608, and an image display unit 609 are illustrated.

カラー画像取得部601は、車両に設置され、車両の移動方向を撮像するカメラであり、カラー画像を撮像する機能を有している。また、カラー画像格納部602は、カラー画像取得部602で取得(撮像)されたカラー画像を保持する機能を有している。   The color image acquisition unit 601 is a camera that is installed in a vehicle and captures the moving direction of the vehicle, and has a function of capturing a color image. The color image storage unit 602 has a function of holding the color image acquired (captured) by the color image acquisition unit 602.

また、影認識部603は、カラー画像格納部603に格納されているカラー画像内に撮像されている影認識を行う機能を有している。なお、影認識部603は、本発明によって定義される影認識方法又は影境界抽出方法を用いて、画像内の影認識結果を生成することが可能である。   The shadow recognizing unit 603 has a function of recognizing a shadow captured in a color image stored in the color image storage unit 603. Note that the shadow recognizing unit 603 can generate a shadow recognition result in the image using the shadow recognition method or the shadow boundary extraction method defined by the present invention.

また、影有無判定部604は、影認識部603から供給される影認識結果を参照して、画像内に影が存在しているか否かを判定し、画像内に影が存在しない場合には、カラー画像格納部602に格納されているカラー画像が画像表示部609に送出されるように指示を行う一方、画像内に影が存在している場合には、影認識結果を自車影取得部605に供給する機能を有している。   The shadow presence / absence determination unit 604 refers to the shadow recognition result supplied from the shadow recognition unit 603 to determine whether there is a shadow in the image, and when there is no shadow in the image. Instructing the color image stored in the color image storage unit 602 to be sent to the image display unit 609, and if there is a shadow in the image, the shadow recognition result is acquired as the vehicle shadow. It has a function of supplying to the unit 605.

また、自車両背景画像格納部605には、例えば、カラー画像内に自車両の影(自車影)が写っている場合に、概ね自車影が写る画像内の領域(自車影領域:例えば、画像の中央下側の自車両の一部が撮像されている近辺)を特定するための情報が格納されている。そして、自車影取得部606は、この領域に写っている影を取得して、その取得結果を自車影有無判定部607に供給する。   Further, in the own vehicle background image storage unit 605, for example, when a shadow of the own vehicle (own vehicle shadow) is reflected in the color image, an area in the image in which the own vehicle shadow is reflected (own vehicle shadow region: For example, information for specifying the vicinity of a part of the host vehicle on the lower center side of the image is stored. Then, the own vehicle shadow acquisition unit 606 acquires a shadow reflected in this area, and supplies the acquisition result to the own vehicle shadow presence determination unit 607.

自車影有無判定部607は、この領域に影が写っているか否か、この領域に影が写っている場合には、その影が自車両の影か否かの判定をおこなうことによって、画像内に自車影が写っているか否かの判定を行う機能を有している。また、自車影有無判定部607は、画像内に自車影が写っていない場合には、カラー画像格納部602に格納されているカラー画像が画像表示部609に送出されるように指示を行う一方、画像内に自車影が写っている場合には、特定された自車影の影認識結果を自車影補正部608に供給する機能を有している。   The own vehicle shadow presence / absence determination unit 607 determines whether or not a shadow is reflected in this area, and if a shadow is reflected in this area, determines whether the shadow is a shadow of the own vehicle or not. It has a function of determining whether or not the subject's own car shadow is reflected. Also, the own vehicle shadow presence / absence determination unit 607 instructs the image display unit 609 to send the color image stored in the color image storage unit 602 when the own vehicle shadow is not reflected in the image. On the other hand, when the own vehicle shadow is reflected in the image, the shadow recognition result of the identified own vehicle shadow is supplied to the own vehicle shadow correction unit 608.

また、自車影補正部608は、画像内に自車影が写っており、自車影有無判定部607から自車影の影認識結果を受けた場合に、カラー画像格納部602に格納されているカラー画像を読み出し、例えば自車影の画像領域のみ明度を向上させる処理などによって、自車影の影響が低減された(自車影が除去された)カラー画像を生成する機能を有している。そして、自車影補正部608によって補正されたカラー画像は、例えば車両内の運転者が視認可能な位置に設置されている画像表示部609で表示される。   The own vehicle shadow correction unit 608 is stored in the color image storage unit 602 when the own vehicle shadow is reflected in the image and receives the shadow recognition result of the own vehicle shadow from the own vehicle shadow presence / absence determination unit 607. A function to generate a color image in which the influence of the vehicle shadow is reduced (the vehicle shadow is removed) by, for example, processing for improving the brightness of only the image region of the vehicle shadow. ing. The color image corrected by the vehicle shadow correction unit 608 is displayed on the image display unit 609 installed at a position where the driver in the vehicle can visually recognize, for example.

次に、本発明に係る影認識方法及び影境界抽出方法の第1の適用例の動作について説明する。 図17は、本発明に係る影認識方法及び影境界抽出方法の第1の適用例の動作を示すフローチャートである。   Next, the operation of the first application example of the shadow recognition method and the shadow boundary extraction method according to the present invention will be described. FIG. 17 is a flowchart showing the operation of the first application example of the shadow recognition method and the shadow boundary extraction method according to the present invention.

図17に図示されているフローチャートでは、まず、車両の任意の場所に設置されたカメラからカラー画像が取得され(ステップS651)、そのカラー画像がカラー画像格納部602に格納される(ステップS652)。そして、影認識部603において影認識処理が行われて、カラー画像内の影が特定される(ステップS653)。   In the flowchart shown in FIG. 17, first, a color image is acquired from a camera installed at an arbitrary location of the vehicle (step S651), and the color image is stored in the color image storage unit 602 (step S652). . Then, shadow recognition processing is performed in the shadow recognizing unit 603, and a shadow in the color image is specified (step S653).

次に、影有無判定部604において、影認識部603による影認識処理で画像内に影が存在するか否かの判定が行われる(ステップS654)。ここで、影が存在する場合には、自車影取得部606でその自車影領域が取得され(ステップS655)、自車影領域内に影(自車影)が存在するか否かの判定が行われる。そして、自車影が存在する場合には、自車影補正部608で、カラー画像から自車影を除去する補正が行われた後(ステップS656)、補正後のカラー画像が画像表示部609に表示される(ステップS657)。   Next, the shadow presence / absence determination unit 604 determines whether or not there is a shadow in the image by the shadow recognition processing by the shadow recognition unit 603 (step S654). Here, if there is a shadow, the vehicle shadow acquisition unit 606 acquires the vehicle shadow region (step S655), and whether or not there is a shadow (vehicle shadow) in the vehicle shadow region. A determination is made. If the own vehicle shadow exists, the own vehicle shadow correction unit 608 performs correction for removing the own vehicle shadow from the color image (step S656), and then the corrected color image is displayed in the image display unit 609. (Step S657).

ステップS654で影が存在しないと判定された場合や、ステップS656で自車影が存在しないと判定された場合には、画像表示部609には、カラー画像取得部で取得された映像がそのまま表示される。   If it is determined in step S654 that there is no shadow, or if it is determined in step S656 that there is no vehicle shadow, the image display unit 609 displays the video acquired by the color image acquisition unit as it is. Is done.

この第1の適用例では、例えば、図18に図示されているように、車両後部にリアカメラ650が設置されている車両660が想定される。なお、ここでは、太陽670がリアカメラ650の撮像方向に自車影680を作る位置に存在しており、車両660の進行方向(バック走行時)に存在する物体690は自車影の中に入ってしまう。その結果、車両650の進行方向に存在する物体690は暗くなり、リアカメラ650による撮像画像が画像表示部609に表示された場合には、図19に図示されているように、運転者は自車影680の影響で物体690を視認することが困難な場合がある。しかしながら、本発明に係る第1の適用例では、自車影の認識処理によって自車影認識結果が得られ、その結果、画像上において自車影690の除去処理などを行うことが可能となる。   In the first application example, for example, as illustrated in FIG. 18, a vehicle 660 in which a rear camera 650 is installed at the rear of the vehicle is assumed. Here, the sun 670 is present at a position where the own vehicle shadow 680 is formed in the imaging direction of the rear camera 650, and the object 690 present in the traveling direction of the vehicle 660 (during back travel) is included in the own vehicle shadow. I will enter. As a result, the object 690 existing in the traveling direction of the vehicle 650 becomes dark, and when the image captured by the rear camera 650 is displayed on the image display unit 609, the driver himself / herself is shown in FIG. It may be difficult to visually recognize the object 690 due to the influence of the vehicle shadow 680. However, in the first application example according to the present invention, the own vehicle shadow recognition result is obtained by the own vehicle shadow recognition process, and as a result, the own vehicle shadow 690 can be removed from the image. .

次に、本発明に係る影認識方法及び影境界抽出方法の第2の適用例について説明する。第2の適用例では、車両やロボットなどの移動体が自律的に走行可能な領域(走行路)を検出する際に用いられる画像領域分割に本発明が適用される。   Next, a second application example of the shadow recognition method and the shadow boundary extraction method according to the present invention will be described. In the second application example, the present invention is applied to image region division used when detecting a region (traveling path) in which a moving body such as a vehicle or a robot can travel autonomously.

図20は、本発明に係る影認識方法及び影境界抽出方法の第2の適用例のシステム構成を示す図である。図20には、カラー画像取得部701、カラー画像格納部702、画像領域分割部703、領域境界抽出部704、影境界判定部705、領域境界補正部706、走行可能領域抽出部707、走行可能可否判定部708、警報部709、制動制御部710が図示されている。   FIG. 20 is a diagram showing a system configuration of a second application example of the shadow recognition method and the shadow boundary extraction method according to the present invention. In FIG. 20, a color image acquisition unit 701, a color image storage unit 702, an image region division unit 703, a region boundary extraction unit 704, a shadow boundary determination unit 705, a region boundary correction unit 706, a travelable region extraction unit 707, and travel are possible. An availability determination unit 708, an alarm unit 709, and a braking control unit 710 are illustrated.

カラー画像取得部701は、車両やロボットなどの移動体に搭載され、移動体が走行の可否を判断しようとする方向を撮像するカメラであり、カラー画像を撮像する機能を有している。また、カラー画像格納部702は、カラー画像取得部602で取得(撮像)されたカラー画像を保持する機能を有している。   The color image acquisition unit 701 is a camera that is mounted on a moving body such as a vehicle or a robot, and that captures a direction in which the moving body tries to determine whether or not it can travel, and has a function of capturing a color image. The color image storage unit 702 has a function of holding the color image acquired (captured) by the color image acquisition unit 602.

また、画像領域分割部703は、カラー画像格納部702に格納されているカラー画像を読み出し、例えばレベルセット(level set)法やウォーターシェッド(Watershed)法などの既存の領域分割技術を用いて領域分割を行う機能を有している。画像領域分割部703によって領域分割によって、領域分割画像が生成される。また、領域境界抽出部704は、画像領域分割部703で得られた領域分割画像に含まれる各領域の境界を抽出する機能を有している。   The image area dividing unit 703 reads a color image stored in the color image storage unit 702 and uses an existing area dividing technique such as a level set method or a watershed method, for example. It has a function of dividing. A region-divided image is generated by region division by the image region dividing unit 703. In addition, the region boundary extraction unit 704 has a function of extracting the boundary of each region included in the region divided image obtained by the image region division unit 703.

また、影境界判定部705は、領域境界抽出部704によって得られた各領域の境界に関して、その境界が物体のエッジであるか、あるいは影境界であるかの判断を行うことで、各領域の境界の中から影境界のみを判定する機能を有している。なお、影境界判定部705によって行われる影境界判定処理に、本発明によって定義される影境界抽出方法を用いることが可能である。   Further, the shadow boundary determination unit 705 determines whether the boundary of each region obtained by the region boundary extraction unit 704 is an edge of an object or a shadow boundary, thereby determining each region. It has the function of judging only the shadow boundary from the boundaries. Note that the shadow boundary extraction method defined by the present invention can be used in the shadow boundary determination processing performed by the shadow boundary determination unit 705.

また、領域境界補正部706は、領域境界抽出部704によって境界の抽出が行われた領域分割画像に含まれる境界の中から、影境界判定部705と判定された影境界を削除する機能を有している。   Further, the region boundary correction unit 706 has a function of deleting the shadow boundary determined as the shadow boundary determination unit 705 from the boundaries included in the region divided image from which the boundary is extracted by the region boundary extraction unit 704. is doing.

また、走行可能領域抽出部707は、影領域が削除された領域分割画像に基づいて、移動体の走行路を抽出する機能を有している。また、走行可否判定部708は、走行可能領域抽出部707で抽出された走行路に基づいて移動体の走行路を決定する機能を有しており、例えば走行可能な領域が存在しない場合には警報部709から警報を報知するように指示したり、あるいは、移動体の制動制御を行う制動制御部710に対して、強制停止や走行可能な領域への移動などの指示を行ったりすることが可能である。   In addition, the travelable area extracting unit 707 has a function of extracting the travel path of the moving body based on the area divided image from which the shadow area is deleted. Further, the travelability determination unit 708 has a function of determining the travel path of the mobile body based on the travel path extracted by the travelable area extraction unit 707. For example, when there is no travelable area Instructing the alarm unit 709 to notify the alarm, or instructing the braking control unit 710 that performs the braking control of the moving body to perform a forced stop or move to a travelable area. Is possible.

次に、本発明に係る影認識方法及び影境界抽出方法の第2の適用例の動作について説明する。図21は、本発明に係る影認識方法及び影境界抽出方法の第2の適用例の動作を示すフローチャートである。   Next, the operation of the second application example of the shadow recognition method and the shadow boundary extraction method according to the present invention will be described. FIG. 21 is a flowchart showing the operation of the second application example of the shadow recognition method and the shadow boundary extraction method according to the present invention.

図21に図示されているフローチャートでは、まず、移動体の任意の場所に設置されたカメラからカラー画像が取得され(ステップS751)、そのカラー画像がカラー画像格納部702に格納される(ステップS752)。そして、画像領域分割部703画像領域分割処理が行われて、領域分割画像が生成される(ステップS753)。   In the flowchart shown in FIG. 21, first, a color image is acquired from a camera installed at an arbitrary place on the moving body (step S751), and the color image is stored in the color image storage unit 702 (step S752). ). Then, the image area dividing unit 703 performs image area dividing processing to generate an area divided image (step S753).

次に、領域境界抽出部704において、画像領域分割部で生成された領域分割画像から、各領域の境界が抽出される(ステップS754)。そして、影境界判定部705は、領域境界抽出部704で抽出された各領域の境界に対して、例えば上述の本発明の第1の実施の形態に係る影境界抽出方法で行われるパターン照合や、あるいは上述の本発明の第2の実施の形態に係る影境界抽出方法で行われる分光特性の参照などを行うことによって、各領域の中から影境界を判定、抽出する(ステップS755)。   Next, in the region boundary extracting unit 704, the boundary of each region is extracted from the region divided image generated by the image region dividing unit (step S754). Then, the shadow boundary determination unit 705 performs, for example, pattern matching performed on the boundary of each region extracted by the region boundary extraction unit 704 using the shadow boundary extraction method according to the above-described first embodiment of the present invention. Alternatively, the shadow boundary is determined and extracted from each region by referring to the spectral characteristics performed by the shadow boundary extraction method according to the second embodiment of the present invention described above (step S755).

影境界判定部705における判定結果は領域境界補正部706に供給され、領域境界補正部706において、領域分割画像に含まれる領域境界から影境界が削除される(ステップS756)。なお、このとき、影境界を介して接していた領域は統合されることが望ましい。   The determination result in the shadow boundary determination unit 705 is supplied to the region boundary correction unit 706, and the region boundary correction unit 706 deletes the shadow boundary from the region boundary included in the region divided image (step S756). At this time, it is desirable that the areas that are in contact with each other through the shadow boundary are integrated.

上述のように影の影響が排除された領域分割画像に基づいて、走行可能領域抽出部707において、走行可能領域の抽出処理が行われ(ステップS757)、走行可否判定部708において、抽出された走行可能領域に基づいて移動体の走行の可否が決定される(ステップS758)。移動体が稼働中の間は、上述の処理が継続的に行われ、例えば、走行可能な領域が存在しない場合など、走行不可能となった場合には、警報部709から警報が報知される(ステップS759)。   Based on the region-divided image from which the influence of the shadow is eliminated as described above, the travelable region extraction unit 707 performs a travelable region extraction process (step S757), and the travelability determination unit 708 extracts it. Whether or not the mobile body can travel is determined based on the travelable area (step S758). While the moving body is in operation, the above-described processing is continuously performed. For example, when travel is impossible, such as when there is no travelable area, a warning is issued from the alarm unit 709 (step S110). S759).

この第2の適用例では、例えば、図22に図示されているように、カラー画像取得部701で取得された原画像に影(建造物781の影782)が含まれている場合には、適切な領域分割を実行することは困難になる。例えば、領域“5”は領域“1”と同じ物質であるが、照射される光が異なるため、別の領域に分割されてしまう。また同様に、領域“6”は領域“7”と同じ物質であるが、照射される光が異なるため、別の領域に分割されてしまう。   In the second application example, for example, as illustrated in FIG. 22, when the original image acquired by the color image acquisition unit 701 includes a shadow (shadow 782 of the building 781), It is difficult to perform proper region segmentation. For example, although the region “5” is the same material as the region “1”, the irradiated light is different, so that the region “5” is divided into different regions. Similarly, the region “6” is the same material as the region “7”, but is irradiated with different light, and thus is divided into different regions.

したがって、移動体の走行路780において、領域“7”を走行路であると認識できたとしても、領域“6”が他の物体(例えば障害物)であるのか、路上のペイントであるのか、影であるのか、あるいは走行路であるのかを的確に判断することは困難であり、その結果、本来走行できるはずの領域“6”は走行不可能な領域として判断されてしまう。   Therefore, even if the area “7” can be recognized as a traveling path in the traveling path 780 of the moving object, whether the area “6” is another object (for example, an obstacle) or paint on the road, It is difficult to accurately determine whether it is a shadow or a traveling road, and as a result, the region “6” that should originally be able to travel is determined as a region where it cannot travel.

一方、本発明に係る影境界抽出方法を用いた場合には、領域“5”や領域“6”を形成する境界は影境界であると判定することが可能となる。その結果、物体のエッジなどから影境界を明確に区別して、影境界のみを削除することが可能となり、走行路領域の検出の際に、影の影響による誤判断を防ぐことが可能となる。   On the other hand, when the shadow boundary extraction method according to the present invention is used, it is possible to determine that the boundary forming the region “5” or the region “6” is a shadow boundary. As a result, it is possible to clearly distinguish the shadow boundary from the edge of the object and delete only the shadow boundary, and it is possible to prevent erroneous determination due to the influence of the shadow when detecting the road area.

なお、本発明によれば、撮像装置によって任意の物体の影が撮像された画像内において、前記影を認識する影認識装置であって、
前記撮像装置で撮像された前記画像を取得する画像取得手段と、
前記画像中の影領域を抽出する影領域抽出手段と、
前記画像中の前記影領域と前記影領域とは異なる非影領域との影境界を抽出する影境界抽出手段と、
前記影領域抽出手段によって抽出された前記影領域、及び前記影境界抽出手段によって抽出された前記影境界の両方に基づいて前記影の認識を行う影認識手段とを、
有する影認識装置も提供される。
According to the present invention, a shadow recognition device that recognizes the shadow in an image in which a shadow of an arbitrary object is captured by the imaging device,
Image acquisition means for acquiring the image captured by the imaging device;
A shadow area extracting means for extracting a shadow area in the image;
A shadow boundary extracting means for extracting a shadow boundary between the shadow area in the image and a non-shadow area different from the shadow area;
Shadow recognition means for recognizing the shadow based on both the shadow area extracted by the shadow area extraction means and the shadow boundary extracted by the shadow boundary extraction means;
A shadow recognition device is also provided.

また、本発明によれば、撮像装置によって任意の物体の影が撮像された画像内において、前記画像中の影領域と前記影領域とは異なる非影領域との影境界を抽出する影境界抽出装置であって、
前記撮像装置で撮像された前記画像を取得する画像取得手段と、
前記画像中の被撮像物のエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段によって抽出された前記エッジに属するエッジ画素を特定するエッジ画素特定手段と、
前記エッジ画素と、前記エッジ画素の近傍に存在する複数の画素との画素値の関係を示すパターンを算出するパターン算出手段と、
前記影境界に属する影境界画素と、前記影境界画素の近傍に存在する複数の画素との画素値の関係があらかじめ設定されている影境界パターンを参照する影境界パターン参照手段と、
前記影境界パターン参照手段によって参照された前記影境界パターンと、前記パターン算出手段によって算出された前記パターンとを照合するパターン照合手段と、
前記パターン照合手段によるパターン照合において、前記影境界パターンと一致した前記パターン算出手段で算出された前記パターンに属する前記エッジ画素を、前記影境界に存在する画素と判定するパターン照合影境界判定手段とを、
有する影境界抽出装置も提供される。
In addition, according to the present invention, a shadow boundary extraction that extracts a shadow boundary between a shadow area in the image and a non-shadow area different from the shadow area in an image in which a shadow of an arbitrary object is captured by the imaging device. A device,
Image acquisition means for acquiring the image captured by the imaging device;
Edge extraction means for extracting the edge of the object to be imaged in the image;
Edge pixel specifying means for specifying edge pixels belonging to the edge extracted by the edge extracting means;
Pattern calculating means for calculating a pattern indicating a relationship between pixel values of the edge pixel and a plurality of pixels existing in the vicinity of the edge pixel;
A shadow boundary pattern reference means for referencing a shadow boundary pattern in which a relationship between pixel values of a shadow boundary pixel belonging to the shadow boundary and a plurality of pixels existing in the vicinity of the shadow boundary pixel is set;
Pattern matching means for matching the shadow boundary pattern referred to by the shadow boundary pattern reference means and the pattern calculated by the pattern calculation means;
In pattern matching by the pattern matching unit, pattern matching shadow boundary determination unit that determines the edge pixel belonging to the pattern calculated by the pattern calculation unit that matches the shadow boundary pattern as a pixel existing in the shadow boundary; The
A shadow boundary extraction apparatus is also provided.

また、本発明によれば、撮像装置によって任意の物体の影が撮像された画像内において、前記画像中の影領域と前記影領域とは異なる非影領域との影境界を抽出する影境界抽出装置であって、
前記撮像装置で撮像された前記画像を取得する画像取得手段と、
前記画像中の被撮像物のエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段によって抽出された前記エッジによって隔てられた2つの領域のそれぞれの特徴量を算出する特徴量算出手段と、
前記2つの領域のそれぞれの特徴量の関係が、前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係に一致するか否かを判定する特徴量関係判定手段と、
前記特徴量関係判定手段による判定において、前記2つの領域のそれぞれの特徴量の関係が前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係に一致した場合、前記エッジを前記影境界と判定する特徴量照合影境界判定手段とを、
有する影境界抽出装置も提供される。
In addition, according to the present invention, a shadow boundary extraction that extracts a shadow boundary between a shadow area in the image and a non-shadow area different from the shadow area in an image in which a shadow of an arbitrary object is captured by the imaging device. A device,
Image acquisition means for acquiring the image captured by the imaging device;
Edge extraction means for extracting the edge of the object to be imaged in the image;
A feature amount calculating means for calculating each feature amount of two regions separated by the edge extracted by the edge extracting means;
A feature amount relationship determining means for determining whether or not the relationship between the feature amounts of the two regions matches the relationship between the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary;
In the determination by the feature amount relationship determining means, when the relationship between the feature amounts of the two regions matches the relationship between the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary, the edge is determined. A feature amount matching shadow boundary determining means for determining the shadow boundary;
A shadow boundary extraction apparatus is also provided.

また、本発明によれば、撮像装置によって任意の物体の影が撮像された画像内において、前記画像中の影領域と前記影領域とは異なる非影領域との影境界を抽出する影境界抽出装置であって、
前記撮像装置で撮像された前記画像を取得する画像取得手段と、
前記画像中の被撮像物のエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段によって抽出された前記エッジに属するエッジ画素を特定するエッジ画素特定手段と、
前記エッジ画素と、前記エッジ画素の近傍に存在する複数の画素との画素値の関係を示すパターンを算出するパターン算出手段と、
前記影境界に属する影境界画素と、前記影境界画素の近傍に存在する複数の画素との画素値の関係があらかじめ定められている影境界パターンを参照する影境界パターン参照手段と、
前記影境界パターン参照手段によって参照された前記影境界パターンと、前記パターン算出手段によって算出された前記パターンとを照合するパターン照合手段と、
前記パターン照合手段によるパターン照合において、前記影境界パターンと一致した前記パターン算出手段で算出された前記パターンに属する前記エッジ画素を特定するパターン照合影境界判定手段と、
前記パターン照合影境界判定手段によって特定された前記エッジ画素の画素値に関するエッジ勾配方向を算出し、前記エッジ画素を通る前記エッジ勾配方向に略平行な直線上の画素の前記画素値に係る算出結果を前記特徴量として、前記エッジによって隔てられた2つの領域のそれぞれの特徴量を算出する特徴量算出手段と、
前記2つの領域のそれぞれの特徴量の関係が、前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係に一致するか否かを判定する特徴量関係判定手段と、
前記特徴量関係判定手段による判定において、前記2つの領域のそれぞれの特徴量の関係が前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係に一致した場合、前記エッジを前記影境界と判定する特徴量照合影境界判定手段とを、
有する影境界抽出装置も提供される。
In addition, according to the present invention, a shadow boundary extraction that extracts a shadow boundary between a shadow area in the image and a non-shadow area different from the shadow area in an image in which a shadow of an arbitrary object is captured by the imaging device. A device,
Image acquisition means for acquiring the image captured by the imaging device;
Edge extraction means for extracting the edge of the object to be imaged in the image;
Edge pixel specifying means for specifying edge pixels belonging to the edge extracted by the edge extracting means;
Pattern calculating means for calculating a pattern indicating a relationship between pixel values of the edge pixel and a plurality of pixels existing in the vicinity of the edge pixel;
A shadow boundary pattern reference means for referencing a shadow boundary pattern in which a relationship between pixel values of a shadow boundary pixel belonging to the shadow boundary and a plurality of pixels existing in the vicinity of the shadow boundary pixel is determined;
Pattern matching means for matching the shadow boundary pattern referred to by the shadow boundary pattern reference means and the pattern calculated by the pattern calculation means;
In pattern matching by the pattern matching means, pattern matching shadow boundary determination means for specifying the edge pixel belonging to the pattern calculated by the pattern calculation means that matches the shadow boundary pattern;
An edge gradient direction related to the pixel value of the edge pixel specified by the pattern matching shadow boundary determination unit is calculated, and a calculation result related to the pixel value of a pixel on a straight line that is substantially parallel to the edge gradient direction passing through the edge pixel As a feature amount, feature amount calculation means for calculating each feature amount of two regions separated by the edge, and
A feature amount relationship determining means for determining whether or not the relationship between the feature amounts of the two regions matches the relationship between the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary;
In the determination by the feature amount relationship determining means, when the relationship between the feature amounts of the two regions matches the relationship between the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary, the edge is determined. A feature amount matching shadow boundary determining means for determining the shadow boundary;
A shadow boundary extraction apparatus is also provided.

また、本発明によれば、本発明の画像補正方法をコンピュータに実行させるためのプログラムも提供される。   The present invention also provides a program for causing a computer to execute the image correction method of the present invention.

本発明の第1〜第3の実施の形態に共通する画像補正システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the image correction system common to the 1st-3rd embodiment of this invention. 本発明の第1〜第3の実施の形態に共通する影認識装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the shadow recognition apparatus common to the 1st-3rd embodiment of this invention. 本発明の第1の実施の形態における影認識装置の影境界抽出部の構成の一例を示す図である。It is a figure which shows an example of a structure of the shadow boundary extraction part of the shadow recognition apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における影認識装置の影境界抽出部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the shadow boundary extraction part of the shadow recognition apparatus in the 1st Embodiment of this invention. 本発明の第2の実施の形態における影認識装置の影境界抽出部の構成の一例を示す図である。It is a figure which shows an example of a structure of the shadow boundary extraction part of the shadow recognition apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における影認識装置の影境界抽出部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the shadow boundary extraction part of the shadow recognition apparatus in the 2nd Embodiment of this invention. 本発明の第3の実施の形態における影認識装置の影境界抽出部の構成の一例を示す図である。It is a figure which shows an example of a structure of the shadow boundary extraction part of the shadow recognition apparatus in the 3rd Embodiment of this invention. 本発明の第1〜第3の実施の形態において得られる影境界抽出結果を利用する影認識装置の影境界・影領域統合部の構成の一例が図示されている。An example of the configuration of the shadow boundary / shadow region integration unit of the shadow recognition apparatus that uses the shadow boundary extraction results obtained in the first to third embodiments of the present invention is illustrated. 本発明の第1〜第3の実施の形態で得られる影境界抽出結果に基づいて影認識を実行するための影認識装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the shadow recognition apparatus for performing shadow recognition based on the shadow boundary extraction result obtained in the 1st-3rd embodiment of this invention. 本発明の第1の実施の形態において利用される近傍パターンを説明するための図である。It is a figure for demonstrating the neighborhood pattern utilized in the 1st Embodiment of this invention. 本発明の第1の実施の形態において利用される影境界パターンを説明するための図である。It is a figure for demonstrating the shadow boundary pattern utilized in the 1st Embodiment of this invention. 本発明の第2の実施の形態において算出されるエッジ勾配方向を説明するための図である。It is a figure for demonstrating the edge gradient direction calculated in the 2nd Embodiment of this invention. 図12に図示されている座標位置(x,y)のエッジ画素に関する、エッジ勾配方向の線分AB上において算出された平均値を模式的に示す図である。It is a figure which shows typically the average value calculated on line segment AB of an edge gradient direction regarding the edge pixel of the coordinate position (x, y) illustrated in FIG. 本発明の第1〜第3の実施の形態において得られる影境界抽出結果を利用する影認識装置が、判定値に基づいて影の画素を判断する方法を説明するための図である。It is a figure for demonstrating the method in which the shadow recognition apparatus using the shadow boundary extraction result obtained in the 1st-3rd embodiment of this invention judges a shadow pixel based on a judgment value. 本発明の第1〜第3の実施の形態で得られる影境界抽出結果に基づく影認識方法の概要を説明するための概念図である。It is a conceptual diagram for demonstrating the outline | summary of the shadow recognition method based on the shadow boundary extraction result obtained in the 1st-3rd embodiment of this invention. 本発明に係る影認識方法及び影境界抽出方法の第1の適用例のシステム構成を示す図である。It is a figure which shows the system configuration | structure of the 1st application example of the shadow recognition method and shadow boundary extraction method which concern on this invention. 本発明に係る影認識方法及び影境界抽出方法の第1の適用例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 1st application example of the shadow recognition method and shadow boundary extraction method which concern on this invention. 本発明に係る影認識方法及び影境界抽出方法の第1の適用例で想定される自車影の影響を模式的に示す図である。It is a figure which shows typically the influence of the own vehicle shadow assumed in the 1st application example of the shadow recognition method and shadow boundary extraction method which concern on this invention. 本発明に係る影認識方法及び影境界抽出方法の第1の適用例において、リアカメラによって撮像された画像から自車影が除去される様子を模式的に示す図である。It is a figure which shows typically a mode that the own vehicle shadow is removed from the image imaged with the rear camera in the 1st application example of the shadow recognition method and shadow boundary extraction method which concern on this invention. 本発明に係る影認識方法及び影境界抽出方法の第2の適用例のシステム構成を示す図である。It is a figure which shows the system configuration | structure of the 2nd application example of the shadow recognition method and shadow boundary extraction method which concern on this invention. 本発明に係る影認識方法及び影境界抽出方法の第2の適用例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 2nd application example of the shadow recognition method and shadow boundary extraction method which concern on this invention. 本発明に係る影認識方法及び影境界抽出方法の第2の適用例において、領域分割によって分割された領域から影境界の領域が除去される様子を模式的に示す図である。It is a figure which shows typically a mode that the area | region of a shadow boundary is removed from the area | region divided | segmented by area | region division | segmentation in the 2nd application example of the shadow recognition method and shadow boundary extraction method which concern on this invention. 本発明に係る影認識方法及び影境界抽出方法における被撮像物及び撮像画像の一例を示す図である。It is a figure which shows an example of the to-be-photographed object and the captured image in the shadow recognition method and shadow boundary extraction method which concern on this invention.

符号の説明Explanation of symbols

10 カメラ(撮像装置)
20 影認識装置
21、601、701 カラー画像取得部
22 色空間分解部
23 画像格納部
24 影境界抽出部
25 影領域抽出部
26 影境界・影領域統合部
27 影認識結果出力部
30 影補正装置(画像補正装置)
40 表示モニタ
50 撮像画像利用装置
261 影境界抽出結果取得部
262 影領域抽出結果取得部
263 影境界・影領域関係算出部
264 影判断部
265 影認識結果格納部
500 原画像
501 影境界抽出結果
502 影領域抽出結果
503 判定値を含む統合画像
504 余分な影境界が削除された画像
505 影認識結果
602、702 カラー画像格納部
603 影認識部
604 影有無判定部
605 自車影特定領域情報格納部
606 自車影取得部
607 自車影有無判定部
608 自車影補正部
609 画像表示部
650 リアカメラ
660 車両
670 太陽
680 自車影
690 物体
703 画像領域分割部
704 領域境界抽出部
705 影境界判定部
706 領域境界補正部
707 走行可能領域抽出部
708 走行可能可否判定部
709 警報部
710 制動制御部
780 走行路
781 建造物
782 影
2411、2421、2431 色成分画像取得部
2412、2422、2432 エッジ抽出部
2413、2423、2433 2値化処理部
2414、2434 近傍パターン算出部
2415、2435 パターン照合・影境界判定部
2416、2436 影境界パターン格納部
2417、2427、2440 影境界抽出結果格納部
2418、2428、2441 影境界抽出結果出力部
2424、2437 エッジ勾配方向算出部
2425、2438 影境界判定条件算出部
2426、2439 影境界判定部
10 Camera (imaging device)
DESCRIPTION OF SYMBOLS 20 Shadow recognition apparatus 21,601,701 Color image acquisition part 22 Color space decomposition part 23 Image storage part 24 Shadow boundary extraction part 25 Shadow area extraction part 26 Shadow boundary and shadow area integration part 27 Shadow recognition result output part 30 Shadow correction apparatus (Image correction device)
40 Display Monitor 50 Captured Image Utilization Device 261 Shadow Boundary Extraction Result Acquisition Unit 262 Shadow Region Extraction Result Acquisition Unit 263 Shadow Boundary / Shadow Region Relationship Calculation Unit 264 Shadow Judgment Unit 265 Shadow Recognition Result Storage Unit 500 Original Image 501 Shadow Boundary Extraction Result 502 Shadow region extraction result 503 Integrated image including determination value 504 Image from which excess shadow boundary is deleted 505 Shadow recognition result 602, 702 Color image storage unit 603 Shadow recognition unit 604 Shadow presence / absence determination unit 605 Own vehicle shadow specific region information storage unit 606 Own vehicle shadow acquisition unit 607 Own vehicle shadow presence determination unit 608 Own vehicle shadow correction unit 609 Image display unit 650 Rear camera 660 Vehicle 670 Sun 680 Own vehicle shadow 690 Object 703 Image region division unit 704 Region boundary extraction unit 705 Shadow boundary determination Section 706 Area boundary correction section 707 Travelable area extraction section 708 Whether travel is possible Fixed part 709 Alarm part 710 Braking control part 780 Traveling road 781 Building 782 Shadow 2411, 2421, 2431 Color component image acquisition part 2412, 2422, 2432 Edge extraction part 2413, 2423, 2433 Binarization processing part 2414, 2434 Neighborhood pattern Calculation unit 2415, 2435 Pattern matching / shadow boundary determination unit 2416, 2436 Shadow boundary pattern storage unit 2417, 2427, 2440 Shadow boundary extraction result storage unit 2418, 2428, 2441 Shadow boundary extraction result output unit 2424, 2437 Edge gradient direction calculation unit 2425, 2438 Shadow boundary determination condition calculation unit 2426, 2439 Shadow boundary determination unit

Claims (11)

撮像装置によって任意の物体の影が撮像された画像内において、前記影を認識するためにコンピュータによって実行される影認識方法であって、
前記撮像装置で撮像された前記画像を取得する画像取得ステップと、
前記画像中に影が存在すると推測される領域を、任意の影領域抽出技術を用いて抽出する領域抽出ステップと、
前記画像中に影が存在すると推測される領域と当該影が存在しないと推測される領域との境界を、所定の影境界抽出技術を用いて抽出する境界抽出ステップと、
前記領域抽出ステップで抽出された前記領域領域抽出結果、及び前記境界抽出ステップで抽出された前記境界境界抽出結果の関係に基づいて、前記画像を形成する各画素について判定値を算出する判定値算出ステップと、
前記判定値算出ステップで算出された前記判定値に基づいて、前記画像を形成する前記各画素が、影に属するか否かを判断する影認識ステップとを、
有する影認識方法。
A shadow recognition method executed by a computer to recognize a shadow in an image in which a shadow of an arbitrary object is captured by an imaging device,
An image acquisition step of acquiring the image captured by the imaging device;
An area extraction step for extracting an area in which the shadow is assumed to be present in the image using an arbitrary shadow area extraction technique ;
A boundary extraction step of extracting a boundary between an area in which the shadow is assumed to be present in the image and an area in which the shadow is not assumed to be present using a predetermined shadow boundary extraction technique ;
Said region extraction region extraction result of the region extracted in step, and on the basis of the boundary extraction result of the relationship of the boundary extracted by the boundary extracting step, to calculate a decision value for each pixel forming the image determining A value calculation step;
A shadow recognition step of determining whether each of the pixels forming the image belongs to a shadow based on the determination value calculated in the determination value calculation step ;
A shadow recognition method.
前記影認識ステップにおいて、
前記判定値に基づいて、前記領域抽出ステップで抽出された前記領域に属する画素を、影に属する画素と判定し、一方、当該領域及び前記境界のいずれにも属さない画素を、影に属さない画素と判定するステップと、
前記判定値に基づいて、前記領域抽出ステップで抽出された前記領域に属さずかつ前記境界に属する画素であって当該画素同士が隣接している場合には、隣接している画素同士を集合体とみなす集合設定ステップと、
前記判定値に基づいて、前記集合設定ステップで設定された前記集合体に属する任意の画素が、前記領域抽出ステップで抽出された前記領域に属する画素に隣接している場合には、当該領域に属する画素とともに前記集合体に属するすべての画素を、影に属する画素と判定するステップと、
前記判定値に基づいて、前記集合設定ステップで設定された前記集合体に属するすべての画素が、前記領域抽出ステップで抽出された前記領域に属する画素に隣接していない場合には、当該集合体に属するすべての画素を、影に属さない画素と判定するステップとを、
有する請求項1に記載の影認識方法。
In the shadow recognition step,
Based on the determination value, a pixel belonging to the region extracted in the region extraction step is determined as a pixel belonging to a shadow , while a pixel that does not belong to either the region or the boundary does not belong to a shadow. Determining a pixel;
Based on the determination value, if the pixels do not belong to the region extracted in the region extraction step and belong to the boundary and are adjacent to each other, the adjacent pixels are aggregated. Set setting step to be considered as
Based on the judgment value, any pixel belonging to the aggregate set by the set setting step, when adjacent to the pixel belonging to the area extracting the region extracted in step to the region Determining all pixels belonging to the aggregate together with pixels belonging to the pixel belonging to a shadow ;
On the basis of the decision value, all pixels belonging to the aggregate set by the set setting step, when not adjacent to the pixel belonging to the area extracting the region extracted in step the assembly Determining all pixels belonging to the pixel not belonging to the shadow ,
The shadow recognition method according to claim 1.
撮像装置によって任意の物体の影が撮像された画像内において、前記画像中の影領域と前記影領域とは異なる非影領域との影境界を抽出するためにコンピュータによって実行される影境界抽出方法であって、
前記撮像装置で撮像された前記画像を取得する画像取得ステップと、
前記画像中の被撮像物のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップで抽出された前記エッジに属するエッジ画素を特定するエッジ画素特定ステップと、
前記エッジ画素と、前記エッジ画素の近傍に存在する複数の画素との画素値の関係を示すパターンを算出するパターン算出ステップと、
前記影境界に属する影境界画素と、前記影境界画素の近傍に存在する複数の画素との画素値の関係があらかじめ設定されている影境界パターンを参照する影境界パターン参照ステップと、
前記影境界パターン参照ステップで参照された前記影境界パターンと、前記パターン算出ステップで算出された前記パターンとを照合するパターン照合ステップと、
前記パターン照合ステップで前記影境界パターンと一致した前記パターン算出ステップで算出された前記パターンに属する前記エッジ画素を、前記影境界に存在する画素と判定するパターン照合影境界判定ステップとを、
有する影境界抽出方法。
A shadow boundary extraction method executed by a computer to extract a shadow boundary between a shadow area in the image and a non-shadow area different from the shadow area in an image in which a shadow of an arbitrary object is captured by an imaging device Because
An image acquisition step of acquiring the image captured by the imaging device;
An edge extraction step of extracting an edge of the object to be imaged in the image;
An edge pixel specifying step for specifying an edge pixel belonging to the edge extracted in the edge extraction step;
A pattern calculation step of calculating a pattern indicating a relationship between pixel values of the edge pixel and a plurality of pixels existing in the vicinity of the edge pixel;
A shadow boundary pattern reference step for referring to a shadow boundary pattern in which a relationship between pixel values of shadow boundary pixels belonging to the shadow boundary and a plurality of pixels existing in the vicinity of the shadow boundary pixel is set;
A pattern matching step for matching the shadow boundary pattern referred to in the shadow boundary pattern reference step with the pattern calculated in the pattern calculation step;
A pattern matching shadow boundary determining step for determining that the edge pixel belonging to the pattern calculated in the pattern calculating step matched with the shadow boundary pattern in the pattern matching step is a pixel existing in the shadow boundary;
A shadow boundary extraction method.
前記影境界パターンが、任意の影境界画素と、前記任意の影境界画素の近傍に存在する複数の画素との画素値の関係から生成されたものである請求項3に記載の影境界抽出方法。   The shadow boundary extraction method according to claim 3, wherein the shadow boundary pattern is generated from a relationship between pixel values of an arbitrary shadow boundary pixel and a plurality of pixels existing in the vicinity of the arbitrary shadow boundary pixel. . 前記画素値が、RGB表色系の色成分値である請求項3又は4に記載の影境界抽出方法。   The shadow boundary extraction method according to claim 3, wherein the pixel value is a color component value of an RGB color system. 撮像装置によって任意の物体の影が撮像された画像内において、前記画像中の影領域と前記影領域とは異なる非影領域との影境界を抽出するためにコンピュータによって実行される影境界抽出方法であって、
前記撮像装置で撮像された前記画像を取得する画像取得ステップと、
前記画像中の被撮像物のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップで抽出された前記エッジに対して2値化処理を行い、当該2値化処理がされたエッジによって隔てられた2つの領域のそれぞれの特徴量を算出する特徴量算出ステップと、
前記2つの領域のそれぞれの特徴量の関係が、前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係に一致するか否かを判定する特徴量関係判定ステップと、
前記特徴量関係判定ステップで、前記2つの領域のそれぞれの特徴量の関係が前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係に一致した場合、前記エッジを前記影境界と判定する特徴量照合影境界判定ステップとを、
有する影境界抽出方法。
A shadow boundary extraction method executed by a computer to extract a shadow boundary between a shadow area in the image and a non-shadow area different from the shadow area in an image in which a shadow of an arbitrary object is captured by an imaging device Because
An image acquisition step of acquiring the image captured by the imaging device;
An edge extraction step of extracting an edge of the object to be imaged in the image;
A feature amount calculating step of performing binarization processing on the edge extracted in the edge extraction step, and calculating respective feature amounts of two regions separated by the binarized edge ;
A feature amount relationship determination step for determining whether or not the relationship between the feature amounts of the two regions matches the relationship between the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary;
In the feature amount relationship determination step, when the relationship between the feature amounts of the two regions matches the relationship of the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary, the edge is converted into the shadow region. A feature amount matching shadow boundary determination step for determining a boundary,
A shadow boundary extraction method.
前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係が、前記影領域に照射される光の分光特性と、前記非影領域に照射される光の分光特性の違いに基づいて定められたものである請求項6に記載の影境界抽出方法。   The relationship between the characteristic amounts of the shadow area and the non-shadow area separated by the shadow boundary is due to the difference between the spectral characteristics of the light irradiated to the shadow area and the spectral characteristics of the light irradiated to the non-shadow area. The shadow boundary extraction method according to claim 6, wherein the shadow boundary extraction method is determined based on the above. 前記特徴量算出ステップにおいて、前記2値化処理がされたエッジに属するエッジ画素の画素値に関するエッジ勾配方向を算出し、前記エッジ画素を通る前記エッジ勾配方向に略平行な直線上の画素の前記画素値に係る算出結果を前記特徴量とする請求項6又は7に記載の影境界抽出方法。 In the feature amount calculating step, an edge gradient direction related to a pixel value of an edge pixel belonging to the binarized edge is calculated, and the pixels on a straight line that is substantially parallel to the edge gradient direction passing through the edge pixel are calculated. The shadow boundary extraction method according to claim 6 or 7, wherein a calculation result relating to a pixel value is used as the feature amount. 前記特徴量が、前記2つの領域のそれぞれに属する一部又はすべての画素の画素値の統計量である請求項6から8のいずれか1つに記載の影境界抽出方法。   The shadow boundary extraction method according to claim 6, wherein the feature amount is a statistic of pixel values of some or all of the pixels belonging to each of the two regions. 前記画素値が、RGB表色系の色成分値である請求項6から9のいずれか1つに記載の影境界抽出方法。   The shadow boundary extraction method according to claim 6, wherein the pixel value is a color component value of an RGB color system. 撮像装置によって任意の物体の影が撮像された画像内において、前記画像中の影領域と前記影領域とは異なる非影領域との影境界を抽出するためにコンピュータによって実行される影境界抽出方法であって、
前記撮像装置で撮像された前記画像を取得する画像取得ステップと、
前記画像中の被撮像物のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップで抽出された前記エッジに属するエッジ画素を特定するエッジ画素特定ステップと、
前記エッジ画素と、前記エッジ画素の近傍に存在する複数の画素との画素値の関係を示すパターンを算出するパターン算出ステップと、
前記影境界に属する影境界画素と、前記影境界画素の近傍に存在する複数の画素との画素値の関係があらかじめ定められている影境界パターンを参照する影境界パターン参照ステップと、
前記影境界パターン参照ステップで参照された前記影境界パターンと、前記パターン算出ステップで算出された前記パターンとを照合するパターン照合ステップと、
前記パターン照合ステップで、前記影境界パターンと一致した前記パターン算出ステップで算出された前記パターンに属する前記エッジ画素を特定するパターン照合影境界判定ステップと、
前記パターン照合影境界判定ステップで特定された前記エッジ画素の画素値に関するエッジ勾配方向を算出し、前記エッジ画素を通る前記エッジ勾配方向に略平行な直線上の画素の前記画素値に係る算出結果を前記特徴量として、前記エッジによって隔てられた2つの領域のそれぞれの特徴量を算出する特徴量算出ステップと、
前記2つの領域のそれぞれの特徴量の関係が、前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係に一致するか否かを判定する特徴量関係判定ステップと、
前記特徴量関係判定ステップで、前記2つの領域のそれぞれの特徴量の関係が前記影境界によって隔てられた影領域及び非影領域のそれぞれの特徴量の関係に一致した場合、前記エッジを前記影境界と判定する特徴量照合影境界判定ステップとを、
有する影境界抽出方法。
A shadow boundary extraction method executed by a computer to extract a shadow boundary between a shadow area in the image and a non-shadow area different from the shadow area in an image in which a shadow of an arbitrary object is captured by an imaging device Because
An image acquisition step of acquiring the image captured by the imaging device;
An edge extraction step of extracting an edge of the object to be imaged in the image;
An edge pixel specifying step for specifying an edge pixel belonging to the edge extracted in the edge extraction step;
A pattern calculation step of calculating a pattern indicating a relationship between pixel values of the edge pixel and a plurality of pixels existing in the vicinity of the edge pixel;
A shadow boundary pattern reference step for referring to a shadow boundary pattern in which a relationship between pixel values of a shadow boundary pixel belonging to the shadow boundary and a plurality of pixels existing in the vicinity of the shadow boundary pixel is determined;
A pattern matching step for matching the shadow boundary pattern referred to in the shadow boundary pattern reference step with the pattern calculated in the pattern calculation step;
A pattern matching shadow boundary determining step for identifying the edge pixel belonging to the pattern calculated in the pattern calculating step that matches the shadow boundary pattern in the pattern matching step;
An edge gradient direction related to a pixel value of the edge pixel specified in the pattern matching shadow boundary determination step is calculated, and a calculation result related to the pixel value of a pixel on a straight line that is substantially parallel to the edge gradient direction passing through the edge pixel A feature amount calculating step for calculating each feature amount of two regions separated by the edge,
A feature amount relationship determination step for determining whether or not the relationship between the feature amounts of the two regions matches the relationship between the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary;
In the feature amount relationship determination step, when the relationship between the feature amounts of the two regions matches the relationship of the feature amounts of the shadow region and the non-shadow region separated by the shadow boundary, the edge is converted into the shadow region. A feature amount matching shadow boundary determination step for determining a boundary,
A shadow boundary extraction method.
JP2006093847A 2006-03-30 2006-03-30 Shadow recognition method and shadow boundary extraction method Expired - Fee Related JP4674179B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006093847A JP4674179B2 (en) 2006-03-30 2006-03-30 Shadow recognition method and shadow boundary extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006093847A JP4674179B2 (en) 2006-03-30 2006-03-30 Shadow recognition method and shadow boundary extraction method

Publications (2)

Publication Number Publication Date
JP2007272292A JP2007272292A (en) 2007-10-18
JP4674179B2 true JP4674179B2 (en) 2011-04-20

Family

ID=38675074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006093847A Expired - Fee Related JP4674179B2 (en) 2006-03-30 2006-03-30 Shadow recognition method and shadow boundary extraction method

Country Status (1)

Country Link
JP (1) JP4674179B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210109543A1 (en) * 2019-10-14 2021-04-15 Denso Corporation Obstacle identification apparatus and obstacle identification program
US11704911B2 (en) 2019-10-14 2023-07-18 Denso Corporation Apparatus and method for identifying obstacle around vehicle

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010064479A1 (en) * 2008-12-05 2010-06-10 シャープ株式会社 Digital image reproducing apparatus
JP5299513B2 (en) 2009-08-12 2013-09-25 日本電気株式会社 Obstacle detection device and method, and obstacle detection system
CN102821091A (en) * 2012-06-28 2012-12-12 用友软件股份有限公司 Control device and control method of virtual machine
EP2879109B1 (en) 2012-07-27 2022-02-09 Clarion Co., Ltd. Vehicle-mounted surrounding environment recognition device
JP6178280B2 (en) * 2014-04-24 2017-08-09 日立建機株式会社 Work machine ambient monitoring device
CN112101069A (en) * 2019-06-18 2020-12-18 华为技术有限公司 Method and device for determining driving area information
JP7310526B2 (en) * 2019-10-14 2023-07-19 株式会社デンソー Obstacle identification device and obstacle identification program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08503316A (en) * 1992-11-10 1996-04-09 シーメンス アクチエンゲゼルシヤフト Method for detecting and identifying shadows of moving objects in a sequence of multiple digital images
JP2001184512A (en) * 1999-12-24 2001-07-06 Sanyo Electric Co Ltd Device and method for processing image and recording medium
JP2001209808A (en) * 2000-01-26 2001-08-03 Nec Corp System and method for extracting object, and storage medium with stored program for object extraction
JP2001229389A (en) * 2000-02-18 2001-08-24 Mitsubishi Electric Corp Shadow change area decision device, image decision device using the area decision device, image generation device and shadow intensity ratio arithmetic unit used to the generation device
JP2002281322A (en) * 2001-03-19 2002-09-27 Ricoh Co Ltd Image processor
JP2008529169A (en) * 2005-01-27 2008-07-31 タンデント ビジョン サイエンス インコーポレーティッド Method and system for identifying illumination flux in an image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185711A (en) * 1995-12-28 1997-07-15 Kobe Steel Ltd Shape recognizing method and its device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08503316A (en) * 1992-11-10 1996-04-09 シーメンス アクチエンゲゼルシヤフト Method for detecting and identifying shadows of moving objects in a sequence of multiple digital images
JP2001184512A (en) * 1999-12-24 2001-07-06 Sanyo Electric Co Ltd Device and method for processing image and recording medium
JP2001209808A (en) * 2000-01-26 2001-08-03 Nec Corp System and method for extracting object, and storage medium with stored program for object extraction
JP2001229389A (en) * 2000-02-18 2001-08-24 Mitsubishi Electric Corp Shadow change area decision device, image decision device using the area decision device, image generation device and shadow intensity ratio arithmetic unit used to the generation device
JP2002281322A (en) * 2001-03-19 2002-09-27 Ricoh Co Ltd Image processor
JP2008529169A (en) * 2005-01-27 2008-07-31 タンデント ビジョン サイエンス インコーポレーティッド Method and system for identifying illumination flux in an image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210109543A1 (en) * 2019-10-14 2021-04-15 Denso Corporation Obstacle identification apparatus and obstacle identification program
US11704911B2 (en) 2019-10-14 2023-07-18 Denso Corporation Apparatus and method for identifying obstacle around vehicle

Also Published As

Publication number Publication date
JP2007272292A (en) 2007-10-18

Similar Documents

Publication Publication Date Title
JP4674179B2 (en) Shadow recognition method and shadow boundary extraction method
Soilán et al. Traffic sign detection in MLS acquired point clouds for geometric and image-based semantic inventory
CN111832536B (en) Lane line detection method and device
JP6650657B2 (en) Method and system for tracking moving objects in video using fingerprints
US10867403B2 (en) Vehicle external recognition apparatus
Azimi et al. Eagle: Large-scale vehicle detection dataset in real-world scenarios using aerial imagery
WO2008065729A1 (en) Object detecting system, and object detecting method
CN103123687A (en) Fast obstacle detection
WO2017130640A1 (en) Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
JP2014071902A5 (en)
JPWO2008020544A1 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
JP2013140515A (en) Solid object detection device and program
JP6818626B2 (en) Vehicle type discrimination device, vehicle type discrimination method, and vehicle type discrimination system
KR102619326B1 (en) Apparatus and Method for Detecting Vehicle using Image Pyramid
JP2015090679A (en) Vehicle trajectory extraction method, vehicle region extraction method, vehicle speed estimation method, vehicle trajectory extraction program, vehicle region extraction program, vehicle speed estimation program, vehicle trajectory extraction system, vehicle region extraction system, and vehicle speed estimation system
JP5423764B2 (en) Moving object detection apparatus, computer program, and moving object detection method
Schiopu et al. Pothole detection and tracking in car video sequence
US20220148200A1 (en) Estimating the movement of an image position
CN108629225B (en) Vehicle detection method based on multiple sub-images and image significance analysis
WO2023019793A1 (en) Determination method, cleaning robot, and computer storage medium
US10614323B2 (en) Scene analysis method and visual navigation device
JP5407920B2 (en) Lighting color identification device and program
KR101205565B1 (en) Method for Dectecting Front and Rear Vehicle by Using Image
Álvarez et al. Perception advances in outdoor vehicle detection for automatic cruise control
Romdhane et al. Combined 2d/3d traffic signs recognition and distance estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110124

R150 Certificate of patent or registration of utility model

Ref document number: 4674179

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees