JP2007272477A - Image correction method - Google Patents

Image correction method Download PDF

Info

Publication number
JP2007272477A
JP2007272477A JP2006096045A JP2006096045A JP2007272477A JP 2007272477 A JP2007272477 A JP 2007272477A JP 2006096045 A JP2006096045 A JP 2006096045A JP 2006096045 A JP2006096045 A JP 2006096045A JP 2007272477 A JP2007272477 A JP 2007272477A
Authority
JP
Japan
Prior art keywords
image
region
shadow
feature amount
image correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006096045A
Other languages
Japanese (ja)
Other versions
JP4632992B2 (en
Inventor
Satoshi Komuro
聡 小室
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2006096045A priority Critical patent/JP4632992B2/en
Publication of JP2007272477A publication Critical patent/JP2007272477A/en
Application granted granted Critical
Publication of JP4632992B2 publication Critical patent/JP4632992B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To improve visibility of an area having locally low visibility while maintaining visibility of the whole image. <P>SOLUTION: In a shade recognition device 20, the image photographed by an imaging device is acquired by an image acquisition part 27, and a shade recognition result obtained by recognizing shade in the photographed image by the imaging device is acquired by a shade recognition result acquisition part 26. A characteristic amount (e.g. an average value of a luminance value) of a shade area (the area of the low visibility) in the photographed image specified on the basis of the shade recognition result and the photographed image is calculated by a shade area characteristic amount calculation part 21, and similarly, a characteristic amount of a non-shade area is calculated by a non-shade area characteristic amount calculation part 22. A pixel value of each pixel belonging to the shade area is changed such that the characteristic amount of the shade area is consistent with the characteristic amount of the non-shade area, by a shade area image quality improvement part 23. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像に写り込んだ影などの影響で視認性の悪い領域(視認しにくい領域)を有する画像を補正するための画像補正方法に関する。   The present invention relates to an image correction method for correcting an image having a region with poor visibility (a region that is difficult to visually recognize) due to an influence of a shadow or the like reflected in the image.

従来の撮像装置(カメラ)には、撮像画像の明るさを自動調整するためのオートアイリス機構を有するものが存在している。このオートアイリス機構は、撮像された画像の明度(「撮像画像における画像全体の平均輝度値(画像の明るさに相当)」や「撮像画像中央部の平均輝度値」)に基づき、カメラのレンズに設けられた絞りの開口量を調節したり、電子シャッタのシャッタスピードの増減を制御したりすることによって、光量の調節を行う機構である。   Some conventional imaging devices (cameras) have an auto iris mechanism for automatically adjusting the brightness of a captured image. This auto iris mechanism is based on the brightness of the captured image (“average brightness value of the entire image (corresponding to the brightness of the image)” or “average brightness value of the center of the captured image”). This is a mechanism for adjusting the amount of light by adjusting the aperture of an aperture provided or controlling the increase or decrease of the shutter speed of an electronic shutter.

このオートアイリス機構を用いることで、日中や夜間のように被写体の明るさが変化する場合でも撮像画像は最適な明るさに調整され、人間にとって視認しやすい撮像画像、あるいは画像処理装置が高い精度で画像処理を行うことのできる撮像画像を得ることが可能となる。   By using this auto iris mechanism, the captured image is adjusted to the optimum brightness even when the brightness of the subject changes during the day or at night, and the captured image or image processing device that is easy for humans to see is highly accurate. Thus, it is possible to obtain a captured image that can be subjected to image processing.

また、下記の特許文献1には、オートアイリス機構の制御方法を改良した技術が開示されている。特許文献1に開示されている技術では、車両周辺が撮像された撮像画像内に局所的に視認の難しい領域(視認性の悪い領域)が存在する場合には、その視認の難しい領域の明るさに合わせて光量の調節が行われる。これにより、例えば、撮像画像の一部が局所的に明るい場合や暗い場合などのように、撮像画像の一部の視認性が悪い場合であっても、視認の難しい領域を最適な明るさで撮像することで、視認の難しい領域に係る視認性を向上させることが可能となる。   Patent Document 1 below discloses a technique that improves the control method of the auto iris mechanism. In the technique disclosed in Patent Literature 1, when a region that is difficult to visually recognize (a region with poor visibility) exists in a captured image obtained by imaging the periphery of the vehicle, the brightness of the region that is difficult to visually recognize The amount of light is adjusted accordingly. Thus, for example, even in a case where the visibility of a part of the captured image is poor, such as when a part of the captured image is locally bright or dark, an area that is difficult to visually recognize has an optimal brightness. By capturing an image, it is possible to improve the visibility related to the region that is difficult to visually recognize.

なお、特許文献1に開示されている技術では、撮像装置における光量調節によって撮像画像の視認性の向上が実現されるので、リアルタイムな視認性の向上しか行うことができない。すなわち、特許文献1に開示されている技術では、例えば、既に撮像された撮像画像に存在する局所的な視認性の悪い領域に係る視認性を向上させることはできない。   Note that with the technique disclosed in Patent Document 1, the visibility of a captured image is improved by adjusting the amount of light in the imaging device, so that only real-time visibility can be improved. That is, with the technique disclosed in Patent Document 1, for example, it is not possible to improve the visibility related to a locally poor region existing in a captured image that has already been captured.

一方、画像処理ソフトウェア(フォトレタッチツール)を用いることによって、撮像装置により撮像された撮像画像の画質を事後的に調整することも可能である。画像処理ソフトウェア(フォトレタッチツール)を利用した場合、明るさのほかに色調やコントラストなどを始めとして、画像の様々な特性を調節することが可能である。
特開平9−142210号公報
On the other hand, by using image processing software (photo retouch tool), the image quality of a captured image captured by the imaging apparatus can be adjusted afterwards. When image processing software (photo retouch tool) is used, it is possible to adjust various characteristics of an image including color tone and contrast in addition to brightness.
JP-A-9-142210

しかしながら、特許文献1に開示されている技術では、撮像画像において、局所的に視認性の悪い領域に係る視認性を向上させるために、撮像装置における光量の調節が行われるので、視認性の悪い領域に係る視認性の向上に伴って、それ以外の領域(視認性の良い領域)の明るさも変更されてしまい、その結果、視認性の良い領域に係る視認性が悪化してしまうおそれがある。   However, in the technique disclosed in Patent Document 1, the amount of light in the imaging apparatus is adjusted in order to improve the visibility related to the region with poor local visibility in the captured image. With the improvement of the visibility related to the region, the brightness of the other region (the region with good visibility) is also changed, and as a result, the visibility related to the region with good visibility may be deteriorated. .

例えば、特許文献1に開示されている技術を利用して、画像に写り込んだ影領域の視認性を向上させるために撮像装置に入る光量を増加させた場合、影領域の明るさが増加して視認可能になるものの、非影領域(影領域ではない領域)の明るさも増加してしまい、それまで視認可能だった非影領域が明るくなり過ぎて視認不可能になってしまう可能性がある。   For example, when the amount of light entering the imaging device is increased using the technique disclosed in Patent Document 1 in order to improve the visibility of the shadow area reflected in the image, the brightness of the shadow area increases. Although it becomes visible, the brightness of non-shadow areas (non-shadow areas) also increases, and the non-shadow areas that were previously visible may become too bright and become invisible. .

また、例えば、画像処理に熟練したユーザが、フォトレタッチツールを用いて、撮像画像に存在する局所的な視認性の悪い領域に係る視認性を向上させるような画像処理操作を行うことも可能であるが、この画像処理操作は手間(労力)と時間を要するものであり、例えばビデオカメラによって撮像された撮像画像(動画像)の視認性をリアルタイムで向上させることは、実際の処理上、不可能である。   In addition, for example, a user who is skilled in image processing can perform an image processing operation that improves the visibility related to a locally invisible region existing in a captured image using a photo retouch tool. However, this image processing operation requires labor (labor) and time. For example, improving the visibility of a captured image (moving image) captured by a video camera in real time is not practical. Is possible.

上記の問題を解決するため、本発明は、画像全体の視認性を維持したまま、局所的に視認性の悪い領域に係る視認性を改善することを可能にする画像補正方法を提供することを目的とする。   In order to solve the above problem, the present invention provides an image correction method that makes it possible to improve the visibility of a region having poor visibility locally while maintaining the visibility of the entire image. Objective.

上記の目的を達成するため、本発明の画像補正方法は、画像の補正を行うためにコンピュータによって実行される画像補正方法であって、
撮像装置で撮像された前記画像を取得する画像取得ステップと、
視認性判断装置によって検出された前記画像内に存在する視認性の悪い領域を、視認性認識結果として取得する視認性認識結果取得ステップと、
前記視認性認識結果取得ステップで取得された前記視認性認識結果に基づいて、前記画像取得ステップで取得された前記画像内における前記視認性の悪い領域を特定し、前記視認性の悪い領域の画像を補正する画像補正ステップとを、
有する。
これにより、画像全体の視認性を維持したまま、局所的に視認性の悪い領域に係る視認性を改善することが可能となる。
In order to achieve the above object, an image correction method of the present invention is an image correction method executed by a computer to perform image correction,
An image acquisition step of acquiring the image captured by the imaging device;
A visibility recognition result acquisition step of acquiring, as a visibility recognition result, a region with poor visibility present in the image detected by the visibility determination device;
Based on the visibility recognition result acquired in the visibility recognition result acquisition step, the poor visibility region in the image acquired in the image acquisition step is specified, and the image of the poor visibility region An image correction step for correcting
Have.
As a result, it is possible to improve the visibility related to the region having poor visibility locally while maintaining the visibility of the entire image.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記画像補正ステップにおいて、前記視認性の悪い領域に属する画素の画素値を新たに算出し、前記視認性の悪い領域に属する画素の画素値を前記算出された画素値に変更する画素値変更ステップを有する。
これにより、視認性の悪い領域に属する画素の画素値のみを変更して、局所的に視認性の悪い領域に係る視認性を改善することが可能となる。
Furthermore, in the image correction method of the present invention, in addition to the image correction method described above, in the image correction step, a pixel value of a pixel belonging to the poor visibility region is newly calculated, and the poor visibility region is calculated. A pixel value changing step of changing the pixel value of the pixel to which the pixel belongs to the calculated pixel value;
Thereby, only the pixel value of the pixel belonging to the region with poor visibility can be changed, and the visibility related to the region with poor visibility can be improved locally.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記画素値変更ステップにおいて、前記視認性の悪い領域に属する画素の座標位置に基づく前記画素値の変更を行う。
これにより、例えば、撮像装置が設置されている条件や撮像装置の撮像特性を考慮した画像の補正を行うことが可能となる。
Furthermore, in addition to the image correction method described above, the image correction method of the present invention changes the pixel value based on the coordinate position of a pixel belonging to the poor visibility region in the pixel value changing step.
Thereby, for example, it is possible to perform image correction in consideration of the conditions under which the imaging device is installed and the imaging characteristics of the imaging device.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記画素値変更ステップにおいて、前記算出された画素値が所定の閾値を超える場合には、前記視認性の悪い領域に属する画素の画素値を変更前の元の画素値又は前記所定の画素値に設定する。
これにより、局所的に視認性の悪い領域の補正に対して、必要以上の過度の補正が行われないようにすることが可能となる。
Furthermore, in addition to the above-described image correction method, the image correction method of the present invention belongs to the poor visibility region when the calculated pixel value exceeds a predetermined threshold value in the pixel value changing step. The pixel value of the pixel is set to the original pixel value before the change or the predetermined pixel value.
As a result, it is possible to prevent an excessive correction more than necessary from being performed for the correction of the locally invisible region.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記視認性の悪い領域と前記視認性の悪い領域以外の領域との境界において、前記画素値の変化が滑らかになるように補正する画素値補正ステップを有する。
これにより、補正後の画像が与える違和感を解消することが可能となる。
Furthermore, in the image correction method of the present invention, in addition to the image correction method described above, the pixel value changes smoothly at the boundary between the poorly visible region and the region other than the poorly visible region. A pixel value correcting step for correcting the pixel value.
As a result, it is possible to eliminate the uncomfortable feeling given by the corrected image.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記視認性の悪い領域の特徴量を算出する第1特徴量算出ステップと、
前記視認性の悪い領域以外の領域の特徴量を算出する第2特徴量算出ステップとを有し、前記画像補正ステップにおいて、前記第1及び第2特徴量算出ステップで算出された前記特徴量に基づいて、前記視認性の悪い領域の画像を補正する。
これにより、視認性の悪い領域の特徴を表す特徴量と、視認性の悪い領域以外の領域の特徴を表す特徴量との比較結果に基づいて、視認性の悪い領域の画像を補正することが可能となる。
Furthermore, the image correction method of the present invention includes, in addition to the image correction method described above, a first feature amount calculation step of calculating a feature amount of the region with poor visibility,
A second feature amount calculating step of calculating a feature amount of a region other than the region with poor visibility, and the feature amount calculated in the first and second feature amount calculating steps in the image correction step. Based on this, the image in the poor visibility region is corrected.
Thereby, it is possible to correct the image of the region with poor visibility based on the comparison result between the feature amount representing the feature of the region with poor visibility and the feature amount representing the feature of the region other than the region with poor visibility. It becomes possible.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記第1及び第2特徴量算出ステップにおいて、各画素の画素値の統計処理を行い、その統計処理結果を前記特徴量とする。
これにより、視認性の悪い領域の特徴を表す特徴量と、視認性の悪い領域以外の領域の特徴を表す特徴量とを、統計処理によって算出することが可能となる。
Further, in the image correction method of the present invention, in addition to the image correction method described above, in the first and second feature amount calculation steps, the pixel value of each pixel is statistically processed, and the statistical processing result is used as the feature amount. And
As a result, it is possible to calculate, by statistical processing, a feature amount that represents a feature of a region with poor visibility and a feature amount that represents a feature of a region other than the region with poor visibility.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記第1及び第2特徴量算出ステップにおいて、前記統計処理結果として各画素の画素値の平均値を算出する。
これにより、迅速かつ容易な平均値算出処理によって、視認性の悪い領域の特徴を表す特徴量と、視認性の悪い領域以外の領域の特徴を表す特徴量とを算出することが可能となる。
Furthermore, in addition to the image correction method described above, the image correction method of the present invention calculates an average value of pixel values of each pixel as the statistical processing result in the first and second feature amount calculation steps.
As a result, it is possible to calculate a feature amount representing a feature of a region with poor visibility and a feature amount representing a feature of a region other than the region with poor visibility by a quick and easy average value calculation process.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記画像補正ステップにおいて、前記視認性の悪い領域の前記特徴量を前記視認性の悪い領域以外の領域の前記特徴量に合わせるように、前記視認性の悪い領域に属する画素の画素値を算出し、前記視認性の悪い領域に属する画素の画素値を前記算出された画素値に変更する。
これにより、視認性の悪い領域以外の領域に係る視認性を基準として、視認性の悪い領域に係る視認性を向上させることが可能となる。
Furthermore, in the image correction method of the present invention, in addition to the image correction method described above, in the image correction step, the feature amount of the poor visibility region is changed to the feature amount of the region other than the poor visibility region. In addition, the pixel value of the pixel belonging to the poor visibility region is calculated, and the pixel value of the pixel belonging to the poor visibility region is changed to the calculated pixel value.
Thereby, it is possible to improve the visibility related to the poorly visible region with reference to the visibility related to the region other than the poorly visible region.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記第1特徴量算出ステップにおいて、前記視認性の悪い領域の前記特徴量を算出する際に、前記画素値が所定の閾値より大きい画素を無視する。
これにより、例外的な画素値を有する画素の影響を排除して、視認性の悪い領域の特徴量を算出することが可能となる。
Furthermore, in the image correction method of the present invention, in addition to the image correction method described above, the pixel value is a predetermined value when the feature amount of the poor visibility region is calculated in the first feature amount calculation step. Ignore pixels greater than the threshold.
As a result, it is possible to calculate the feature amount of the region with poor visibility by eliminating the influence of pixels having exceptional pixel values.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記第2特徴量算出ステップにおいて、前記視認性の悪い領域以外の領域の特徴量を算出する際に、前記画素値が所定の閾値より小さい画素を無視する。
これにより、例外的な画素値を有する画素の影響を排除して、視認性の悪い領域以外の領域の特徴量を算出することが可能となる。
Furthermore, in the image correction method of the present invention, in addition to the image correction method described above, in the second feature value calculation step, the pixel value is calculated when calculating the feature value of a region other than the region with poor visibility. Ignore pixels smaller than a predetermined threshold.
Thereby, it becomes possible to calculate the feature amount of the region other than the region with poor visibility by eliminating the influence of the pixel having an exceptional pixel value.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記視認性の悪い領域以外の領域として、前記視認性の悪い領域の周辺の領域を設定する。
これにより、視認性の悪い領域の周辺の領域の特徴量に合わせて、視認性の悪い領域に係る視認性を向上させることが可能となる。
Furthermore, in addition to the image correction method described above, the image correction method of the present invention sets a region around the poor visibility region as a region other than the poor visibility region.
Thereby, it is possible to improve the visibility related to the region with poor visibility in accordance with the feature amount of the region around the region with poor visibility.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、時系列に連続して撮像された複数の前記画像内を移動する物体を検出する物体検出ステップと、
前記視認性の悪い領域以外の領域の特徴量として、前記物体検出ステップで検出された前記物体が前記視認性の悪い領域以外の領域に存在する際に、前記物体を含む前記物体周辺の領域の特徴量を算出し、前記算出された前記物体を含む前記物体周辺の領域の特徴量を格納する特徴量格納ステップと、
時系列に連続して撮像された複数の前記画像内における前記物体の移動を追従し、前記物体が前記視認性の悪い領域に侵入したか否かを判断する物体追従ステップとを有し、
前記物体が前記視認性の悪い領域に侵入したと判断された場合には、前記画像補正ステップにおいて、前記特徴量格納ステップで格納された前記物体を含む前記物体周辺の領域の特徴量を前記視認性の悪い領域以外の領域の特徴量に設定して、前記視認性の悪い領域の画像を補正する。
これにより、画像内を移動する物体が局所的に視認性の悪い領域に侵入した場合に、その物体の視認性を改善することが可能となる。
Furthermore, the image correction method of the present invention includes, in addition to the image correction method described above, an object detection step of detecting an object moving within the plurality of images that are continuously captured in time series,
When the object detected in the object detection step exists in a region other than the poor visibility region as a feature amount of the region other than the poor visibility region, an area around the object including the object is included. A feature amount storing step of calculating a feature amount and storing a feature amount of a region around the object including the calculated object;
An object follow-up step that follows the movement of the object in the plurality of images continuously imaged in time series and determines whether or not the object has entered the poor-visibility region;
When it is determined that the object has entered the region with poor visibility, in the image correction step, the feature amount of the region around the object including the object stored in the feature amount storage step is visually recognized. By setting the feature amount in a region other than the poor region, the image in the poor visibility region is corrected.
This makes it possible to improve the visibility of an object that moves in the image when it locally enters an area with poor visibility.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記画像補正ステップが、
前記視認性の悪い領域の画像の視認性を向上させるように、前記画像取得ステップで取得された前記画像全体を補正する画像全体補正ステップと、
前記画像全体補正ステップで前記画像全体が補正された画像から、前記視認性の悪い領域の画像を切り出す画像切り出しステップと、
前記画像取得ステップで取得された前記画像の前記視認性の悪い領域に、前記画像切り出しステップで切り出された前記視認性の悪い領域の画像を貼り付ける画像貼り付けステップとを、
有する。
これにより、画像全体の視認性を維持したまま、局所的に視認性の悪い領域に係る視認性を改善することが可能となる。
Furthermore, in the image correction method of the present invention, in addition to the image correction method, the image correction step includes:
An overall image correction step for correcting the entire image acquired in the image acquisition step so as to improve the visibility of the image in the poor visibility region;
An image cutout step of cutting out an image of the region with poor visibility from the image in which the entire image is corrected in the whole image correction step;
An image pasting step of pasting the image of the poor visibility region cut out in the image clipping step on the poor visibility region of the image obtained in the image obtaining step;
Have.
As a result, it is possible to improve the visibility related to the region having poor visibility locally while maintaining the visibility of the entire image.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記撮像装置が、移動体と共に移動するように前記移動体に設置されている。
これにより、例えば、移動体が車両である場合における車両運転支援処理や物体検出処理に用いられる撮像画像の補正が行われるようになる。
Furthermore, in the image correction method of the present invention, in addition to the image correction method described above, the imaging device is installed on the moving body so as to move together with the moving body.
Thereby, for example, correction of the captured image used for the vehicle driving support process and the object detection process when the moving body is a vehicle is performed.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記画像補正ステップで補正された補正後の撮像画像を、前記移動体に設置された表示装置に表示する画像表示ステップを有する。
これにより、例えば、移動体を運転する運転者に対して、視認性の良い撮像画像を提供することが可能となり、車両運転の安全性を向上させることが可能となる。
Furthermore, in addition to the image correction method described above, the image correction method of the present invention includes an image display step of displaying the corrected captured image corrected in the image correction step on a display device installed in the moving body. Have.
Thereby, for example, it becomes possible to provide a captured image with good visibility to a driver who drives the mobile body, and it is possible to improve the safety of driving the vehicle.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、前記移動体に、前記撮像装置で撮像される撮像方向を含む周辺領域に存在する立体物を検出するための立体物検出手段が搭載されており、前記立体物検出手段によって検出された前記立体物が前記画像内の前記視認性の悪い領域に存在する場合に、前記画像補正ステップにおいて、前記立体物が存在する前記視認性の悪い領域の画像の補正が行われる。
これにより、画像の視認性の悪い領域に立体物が重なっており、立体物を視認することが困難な場合に、立体物を確実に視認することができるようにするために、視認性の悪い領域に係る視認性を改善することが可能となる。また、立体物の視認性を低下させている視認性の悪い領域のみに係る視認性を改善することで、必要な場合にのみ視認性の悪い領域が改善されるようにして、処理負荷を減らすことが可能となる。
Furthermore, in addition to the image correction method described above, the image correction method of the present invention is a three-dimensional object detection for detecting a three-dimensional object existing in a peripheral region including an imaging direction imaged by the imaging device on the moving body. Means, and when the three-dimensional object detected by the three-dimensional object detection means is present in the poorly visible area in the image, in the image correction step, the visual object where the three-dimensional object exists is present. Correction of an image in a bad region is performed.
Thereby, in order to ensure that the three-dimensional object can be visually recognized when the three-dimensional object overlaps an area where the visibility of the image is poor and it is difficult to visually recognize the three-dimensional object, the visibility is poor. It becomes possible to improve the visibility related to the region. In addition, by improving the visibility related only to the poorly visible area that is reducing the visibility of the three-dimensional object, the poorly visible area is improved only when necessary, thereby reducing the processing load. It becomes possible.

さらに、本発明の画像補正方法は、上記の画像補正方法に加えて、ユーザが、前記立体物が前記画像内の前記視認性の悪い領域に存在する場合に、前記立体物が存在する前記視認性の悪い領域の画像の補正を行う動作モードと、すべての前記視認性の悪い領域の画像の補正を行う動作モードとを切り替えることができる。
これにより、ユーザは、視認性の改善処理の態様を自身で設定することができるようになる。
Furthermore, in addition to the above-described image correction method, the image correction method of the present invention provides the visual recognition that the solid object is present when the user exists in the poorly visible area in the image. It is possible to switch between an operation mode for correcting an image in an inferior area and an operation mode for correcting all the images in an invisible area.
Thereby, the user can set the aspect of the improvement process of the visibility himself.

本発明は、画像全体の視認性を維持したまま、局所的に視認性の悪い領域に係る視認性を改善することを可能にするという効果を有している。また、本発明の画像補正方法によれば、撮像装置によって撮像された撮像画像に関して、その視認性を改善する処理をリアルタイムに行うことも可能であり、また、既に撮像された撮像画像に関して、その視認性を改善する処理を行うことも可能である。   The present invention has an effect of making it possible to improve the visibility of a region having poor visibility locally while maintaining the visibility of the entire image. In addition, according to the image correction method of the present invention, it is possible to perform processing for improving the visibility of a captured image captured by the imaging device in real time, and for an already captured image, It is also possible to perform processing for improving visibility.

以下、図面を参照しながら、本発明の第1〜第3の実施の形態について説明する。以下では、画像内の一部に影が写り込んでおり、この影が写っている領域(影領域)が、影が写っていない領域(非影領域)に比べて暗いために、影領域の視認性が悪くなっている場合を一例として説明する。なお、本明細書において、「視認性」は、人間が視認可能か否かの程度(すなわち、見やすさ又は見にくさ)を表すだけではなく、画像処理装置による処理精度に影響を与える程度を表している。   Hereinafter, first to third embodiments of the present invention will be described with reference to the drawings. Below, a shadow appears in a part of the image, and the shadowed area (shadow area) is darker than the non-shadowed area (non-shadow area). A case where the visibility is deteriorated will be described as an example. In this specification, “visibility” represents not only the degree of whether or not a human can visually recognize (that is, visibility or difficulty in viewing) but also the degree of influence on the processing accuracy of the image processing apparatus. ing.

まず、図1を参照しながら、本発明の第1〜第3の実施の形態における画像補正方法を用いた画像補正システムの構成について説明する。図1には、本発明の第1〜第3の実施の形態における画像補正方法を用いた画像補正システムの構成の一例が図示されている。   First, the configuration of an image correction system using the image correction method according to the first to third embodiments of the present invention will be described with reference to FIG. FIG. 1 shows an example of the configuration of an image correction system using the image correction method according to the first to third embodiments of the present invention.

図1に図示されている画像補正システムは、カメラ(撮像装置)10、影認識装置(視認性判断装置)11、立体物センサ15、影補正装置(画像補正装置)20、表示モニタ30、撮像画像利用装置40を有している。   An image correction system illustrated in FIG. 1 includes a camera (imaging device) 10, a shadow recognition device (visibility determination device) 11, a three-dimensional object sensor 15, a shadow correction device (image correction device) 20, a display monitor 30, and imaging. An image utilization device 40 is included.

図1において、カメラ10は、任意の撮像方向の撮像を行う機能を有している。なお、カメラ10で撮像される撮像画像は、動画像であってもよく、静止画像であってもよい。また、カメラ10の設置の態様は任意であり、例えば監視カメラなどのように所定の位置に固定されていてもよく、車両、船、飛行機、移動可能なロボットなどの移動体と共に移動するように移動体に設置されていてもよい。また、カメラ10は、人間が持ち運ぶことが可能なカメラであってもよい。   In FIG. 1, the camera 10 has a function of performing imaging in an arbitrary imaging direction. Note that the captured image captured by the camera 10 may be a moving image or a still image. Further, the installation mode of the camera 10 is arbitrary, and may be fixed at a predetermined position such as a surveillance camera, for example, so as to move together with a moving body such as a vehicle, a ship, an airplane, or a movable robot. It may be installed in the moving body. The camera 10 may be a camera that can be carried by a human.

図1に図示されているように、カメラ10で撮像された撮像画像は、影認識装置11及び影補正装置20に供給される。なお、図1には、カメラ10で撮像された撮像画像が直接、影認識装置11及び影補正装置20に供給される構成が図示されているが、カメラ10で撮像された撮像画像がいったん記録媒体に格納されたり、別の画像処理装置で画像処理が行われたりした後に、影認識装置11及び影補正装置20に供給されてもよく、また、ネットワークなどを通じて影認識装置11及び影補正装置20に供給されてもよい。   As shown in FIG. 1, the captured image captured by the camera 10 is supplied to the shadow recognition device 11 and the shadow correction device 20. FIG. 1 illustrates a configuration in which the captured image captured by the camera 10 is directly supplied to the shadow recognition device 11 and the shadow correction device 20, but the captured image captured by the camera 10 is temporarily recorded. It may be supplied to the shadow recognition device 11 and the shadow correction device 20 after being stored in a medium or subjected to image processing by another image processing device, or may be supplied to the shadow recognition device 11 and the shadow correction device through a network or the like. 20 may be supplied.

また、影認識装置11は、カメラ10で撮像された撮像画像内に存在する影を認識する機能を有している。なお、本発明は、撮像画像内に存在する影の認識方法に特に制限を加えるものではなく、すなわち、影認識装置11は、撮像画像内に存在する影を認識するために、任意の影認識技術を用いることが可能である。影認識装置11は、例えば、撮像画像内において影が存在する画素(影に属する画素)の座標を影認識結果として出力することが可能である。影認識装置11による影認識結果は、影補正装置20に供給される。   In addition, the shadow recognition device 11 has a function of recognizing a shadow present in a captured image captured by the camera 10. Note that the present invention does not particularly limit the method for recognizing a shadow present in a captured image. That is, the shadow recognition device 11 recognizes an arbitrary shadow in order to recognize a shadow present in the captured image. Technology can be used. For example, the shadow recognition device 11 can output the coordinates of a pixel in which a shadow exists in the captured image (a pixel belonging to the shadow) as a shadow recognition result. The shadow recognition result by the shadow recognition device 11 is supplied to the shadow correction device 20.

また、影補正装置20は、影認識装置11から供給された影認識結果に基づいて、カメラ10から供給された撮像画像内に写っている影領域の画質を補正(改善)する機能を有している。影補正装置20は、影領域の画質の補正を行うことによって、撮像画像における影による影響を低減させることが可能である。なお、影補正装置20の詳細な構成に関しては、後で、図2を参照しながら説明する。影補正装置20によって影が補正された撮像画像(補正後の撮像画像)は、様々な用途に使用可能である。   Further, the shadow correction device 20 has a function of correcting (improving) the image quality of the shadow region shown in the captured image supplied from the camera 10 based on the shadow recognition result supplied from the shadow recognition device 11. ing. The shadow correction device 20 can reduce the influence of the shadow in the captured image by correcting the image quality of the shadow region. The detailed configuration of the shadow correction device 20 will be described later with reference to FIG. The captured image (captured image after correction) whose shadow has been corrected by the shadow correction device 20 can be used for various purposes.

例えば、影補正装置20で生成された補正後の撮像画像は、表示モニタ30に送られて表示される。補正後の撮像画像は、影領域の画質が改善されており、本来、影によって見えにくいはずの画像領域の視認性が向上されている。   For example, the corrected captured image generated by the shadow correction device 20 is sent to the display monitor 30 and displayed. In the corrected captured image, the image quality of the shadow area is improved, and the visibility of the image area that should be difficult to see due to the shadow is improved.

また、例えば、影補正装置20で生成された補正後の撮像画像は、駐車支援装置や物体検出装置などの撮像画像利用装置40に送られる。駐車支援装置では、例えば車両に搭載されたカメラ10による撮像画像に基づいて、車両を所望の駐車目標位置に駐車させる支援が行われるが、影を含むカメラ10からの撮像画像に代わって、影の影響が除去された補正後の撮像画像を利用することで、より安全かつ確実な駐車支援が行われるようになる。また、物体検出装置においても、駐車支援装置と同様にカメラ10による撮像画像に基づいて、移動体の進行方向を含む周辺領域に存在する物体(障害物)の検出が行われる。したがって、物体検出装置においても、影を含むカメラ10からの撮像画像に代わって、影の影響が除去された補正後の撮像画像を利用することで、より確実に物体検出が行われるようになる。   Further, for example, the corrected captured image generated by the shadow correction device 20 is sent to the captured image utilization device 40 such as a parking assistance device or an object detection device. In the parking support device, for example, support for parking the vehicle at a desired parking target position is performed based on an image captured by the camera 10 mounted on the vehicle. However, instead of the captured image from the camera 10 including a shadow, By using the corrected captured image from which the influence of the above is removed, safer and more reliable parking assistance is performed. Also in the object detection device, an object (obstacle) existing in a peripheral region including the traveling direction of the moving body is detected based on the image captured by the camera 10 as in the parking assistance device. Therefore, in the object detection apparatus, the object detection can be performed more reliably by using the corrected captured image from which the influence of the shadow is removed instead of the captured image from the camera 10 including the shadow. .

また、影補正装置20は、移動体の進行方向を含む周辺領域に存在する立体物を検出するための立体物センサ15から供給される立体物検出結果を参照し、撮像画像内の影領域に立体物が存在する場合にのみ、立体物が存在する影領域の補正を行うようにしてもよい。なお、立体物センサ15は、任意の技術を用いて立体物を検出する機能を有しており、例えば、超音波を用いたクリアランスソナーやミリ波を用いたミリ波レーダなどの技術を利用することが可能である。また、立体物センサ15の設置の態様は任意であり、例えば、カメラ10と共に移動する移動体に設置されていてもよく、さらには、障害物の検出を運転者に報知することを目的に設定されている障害物センサを本発明に係る立体物センサ15として使用することも可能である。   Further, the shadow correction device 20 refers to the three-dimensional object detection result supplied from the three-dimensional object sensor 15 for detecting the three-dimensional object existing in the peripheral area including the traveling direction of the moving object, and applies the shadow object in the captured image. Only in the case where a three-dimensional object exists, the shadow area where the three-dimensional object exists may be corrected. The three-dimensional object sensor 15 has a function of detecting a three-dimensional object using an arbitrary technique. For example, a technique such as a clearance sonar using ultrasonic waves or a millimeter wave radar using millimeter waves is used. It is possible. Also, the installation mode of the three-dimensional object sensor 15 is arbitrary. For example, the three-dimensional object sensor 15 may be installed on a moving body that moves together with the camera 10, and further set for the purpose of notifying the driver of the detection of an obstacle. It is also possible to use the obstacle sensor being used as the three-dimensional object sensor 15 according to the present invention.

また、影補正装置20において、撮像画像内の影領域に立体物が存在する場合にのみ、立体物が存在する影領域の補正を行うようにするのか、あるいは、すべての場合において影領域の補正を行うようにするのかなどの様々な動作モードに関して、ユーザが選択的に設定できるようにすることも可能である。   Also, in the shadow correction device 20, whether or not the shadow area where the three-dimensional object exists is corrected only when the three-dimensional object exists in the shadow area in the captured image, or in all cases, the shadow area is corrected. It is also possible to allow the user to selectively set various operation modes such as whether to perform the operation.

ここで、影補正装置20で生成された補正後の撮像画像について具体的に説明する。例えば、図1に図示されている画像補正システムのカメラ10が、車両に設置されており、車両周辺の所定の撮像方向を撮像するカメラであるとする。そして、カメラ10で撮像された撮像画像が、運転者が視認できる場所に設置されている表示モニタ15に表示されるとする。この場合、カメラ10によって、例えば図14に図示されているような撮像画像が撮像される。なお、図15には、図14の撮像画像内の物体の輪郭を模式化した図が図示されている。   Here, the corrected captured image generated by the shadow correction device 20 will be specifically described. For example, it is assumed that the camera 10 of the image correction system illustrated in FIG. 1 is installed in a vehicle and captures a predetermined imaging direction around the vehicle. Then, it is assumed that the captured image captured by the camera 10 is displayed on the display monitor 15 installed in a place where the driver can visually recognize. In this case, a captured image as illustrated in FIG. 14 is captured by the camera 10, for example. FIG. 15 is a diagram schematically showing the contour of the object in the captured image of FIG.

従来の技術であれば、カメラ10で撮像された撮像画像内に影が写っている場合でも、影領域を補正する画像補正処理が行われることなく、影を含む撮像画像(図14に示す撮像画像)がそのまま表示モニタ15に表示される。   According to the conventional technique, even when a shadow is captured in the captured image captured by the camera 10, the captured image including the shadow (the image illustrated in FIG. 14) is not performed without performing image correction processing for correcting the shadow region. Image) is displayed on the display monitor 15 as it is.

一方、本発明の画像補正方法を利用した場合には、カメラ10で撮像された撮像画像内の影認識処理が影認識装置11によって行われ、影補正装置20によって影領域に係る視認性を向上させる画像補正処理が行われるので、カメラ10で撮像された撮像画像に代わって、例えば図16に図示されているような影が補正(除去)された補正後の撮像画像が、表示モニタ15に表示される。なお、図17には、図16の補正後の撮像画像内の物体の輪郭を模式化した図が図示されている。   On the other hand, when the image correction method of the present invention is used, the shadow recognition process in the captured image captured by the camera 10 is performed by the shadow recognition device 11 and the shadow correction device 20 improves the visibility related to the shadow area. For example, instead of the captured image captured by the camera 10, a corrected captured image in which a shadow as illustrated in FIG. 16 is corrected (removed) is displayed on the display monitor 15. Is displayed. Note that FIG. 17 schematically illustrates the contour of an object in the captured image after correction in FIG.

図14に示す補正前の撮像画像と図16に示す補正後の撮像画像との比較(あるいは、図15に示す補正前の撮像画像の模式図と図17に示す補正後の撮像画像の模式図との比較)から分かるように、補正前の撮像画像は影領域に係る視認性が悪く、影領域に存在する物体を視認することが容易ではなかったが、補正後の撮像画像は、影領域に係る視認性が改善され、影領域に存在する物体の視認が容易となる。   14 is compared with the captured image after correction shown in FIG. 16 (or the schematic diagram of the captured image before correction shown in FIG. 15 and the schematic diagram of the corrected image shown in FIG. 17). As can be seen from the comparison with the above, the captured image before correction has poor visibility related to the shadow area, and it is not easy to visually recognize an object existing in the shadow area. And the visibility of the object existing in the shadow area becomes easy.

<第1の実施の形態>
次に、図2を参照しながら、本発明の第1の実施の形態における画像補正方法を実行する影補正装置の構成について説明する。図2には、本発明の第1の実施の形態における画像補正方法を実行する影補正装置の構成の一例が図示されている。なお、図2に図示されている影補正装置20は、図1に図示されている影補正装置20の一構成例を示すものである。
<First Embodiment>
Next, the configuration of a shadow correction apparatus that executes the image correction method according to the first embodiment of the present invention will be described with reference to FIG. FIG. 2 shows an example of the configuration of a shadow correction apparatus that executes the image correction method according to the first embodiment of the present invention. Note that the shadow correction device 20 illustrated in FIG. 2 is a configuration example of the shadow correction device 20 illustrated in FIG.

図2に図示されている影補正装置20は、影領域特徴量算出部21、非影領域特徴量算出部22、影領域画質改善部23、影認識結果取得部26、画像取得部27、補正画像出力部28を有している。なお、影領域特徴量算出部21、非影領域特徴量算出部22、影領域画質改善部23によって表されている影補正装置20の機能は、ハードウェア及び/又はコンピュータによって実行されるソフトウェアによって実現可能である。   The shadow correction apparatus 20 illustrated in FIG. 2 includes a shadow region feature amount calculation unit 21, a non-shadow region feature amount calculation unit 22, a shadow region image quality improvement unit 23, a shadow recognition result acquisition unit 26, an image acquisition unit 27, and a correction. An image output unit 28 is provided. Note that the functions of the shadow correction device 20 represented by the shadow area feature quantity calculation unit 21, the non-shadow area feature quantity calculation unit 22, and the shadow area image quality improvement unit 23 are performed by hardware and / or software executed by a computer. It is feasible.

図2において、影認識結果取得部26は、影認識装置11によって得られた撮像画像の影認識結果を取得する機能を有しており、画像取得部27は、カメラ10によって撮像された撮像画像を取得する機能を有している。なお、例えば、影認識結果取得部26及び画像取得部27のそれぞれにおける情報取得タイミングの同期制御が行われるなど、画像取得部27で取得された撮像画像と、その撮像画像の影認識結果との対応が明確に把握される必要がある。すなわち、影補正装置20は、ある撮像画像から得られた影認識結果を用いて、その撮像画像内の影の補正を行うように構成されている。   In FIG. 2, the shadow recognition result acquisition unit 26 has a function of acquiring the shadow recognition result of the captured image obtained by the shadow recognition device 11, and the image acquisition unit 27 captures the captured image captured by the camera 10. It has the function to acquire. It should be noted that, for example, synchronization control of information acquisition timing in each of the shadow recognition result acquisition unit 26 and the image acquisition unit 27 is performed, and the captured image acquired by the image acquisition unit 27 and the shadow recognition result of the captured image Response needs to be clearly identified. That is, the shadow correction device 20 is configured to correct a shadow in the captured image using a shadow recognition result obtained from a certain captured image.

影認識結果取得部26及び画像取得部27のそれぞれで取得された影認識結果及び撮像画像は、影領域特徴量算出部21、非影領域特徴量算出部22、影領域画質改善部23に供給される。   The shadow recognition results and captured images acquired by the shadow recognition result acquisition unit 26 and the image acquisition unit 27 are supplied to the shadow region feature amount calculation unit 21, the non-shadow region feature amount calculation unit 22, and the shadow region image quality improvement unit 23. Is done.

影領域特徴量算出部21は、影認識結果を参照して撮像画像内における影領域を特定し、特定された影領域の特徴を表す特徴量を算出する機能を有している。影領域特徴量算出部21は、例えば、影領域に属する各画素の画素値(画素値としては、例えば、各画素で用いられている色空間における任意のパラメータの一部又はすべてを使用することが可能)の統計処理を行うことによって得られる統計処理結果を、影領域の特徴量とすることが可能である。   The shadow area feature amount calculation unit 21 has a function of specifying a shadow area in the captured image with reference to the shadow recognition result and calculating a feature amount representing the characteristics of the specified shadow area. The shadow area feature value calculation unit 21 uses, for example, a pixel value of each pixel belonging to the shadow area (for example, a part or all of an arbitrary parameter in the color space used in each pixel is used as the pixel value). The statistical processing result obtained by performing the statistical processing can be used as the feature amount of the shadow region.

また、影領域特徴量算出部21は、撮像画像内に複数の影領域が存在する場合には、複数の影領域のそれぞれの特徴量を算出してもよく、また、1枚の撮像画像に含まれる影領域全体の特徴量を算出してもよい。影領域特徴量算出部21で算出された影領域の特徴量は、影領域画質改善部23に供給される。なお、影領域特徴量算出部21は、後述の影領域の特徴量算出処理(図4を参照)を行うことが可能である。   In addition, when there are a plurality of shadow regions in the captured image, the shadow region feature amount calculation unit 21 may calculate the feature amounts of each of the plurality of shadow regions. The feature amount of the entire shadow area included may be calculated. The shadow region feature amount calculated by the shadow region feature amount calculation unit 21 is supplied to the shadow region image quality improvement unit 23. Note that the shadow area feature value calculation unit 21 can perform a shadow area feature value calculation process (see FIG. 4), which will be described later.

また、非影領域特徴量算出部22は、影認識結果を参照して撮像画像内における影領域以外の領域(本明細書では、非影領域と呼ぶ)を特定し、特定された非影領域の特徴を表す特徴量を算出する機能を有している。非影領域特徴量算出部22は、影領域特徴量算出部21と同様に、例えば、非影領域に属する各画素の画素値(画素値としては、例えば、各画素で用いられている色空間における任意のパラメータの一部又はすべてを使用することが可能)の統計処理を行うことによって得られる統計処理結果を、非影領域の特徴量とすることが可能である。非影領域特徴量算出部22で算出された非影領域の特徴量は、影領域画質改善部23に供給される。なお、非影領域特徴量算出部22は、後述の非影領域特徴量算出処理(図5を参照)を行うことが可能である。   Further, the non-shadow area feature quantity calculation unit 22 identifies an area other than the shadow area in the captured image (referred to as a non-shadow area in this specification) with reference to the shadow recognition result, and the identified non-shadow area It has a function of calculating a feature amount that represents the feature of. The non-shadow area feature quantity calculation unit 22 is, for example, similar to the shadow area feature quantity calculation unit 21, for example, the pixel value of each pixel belonging to the non-shadow area (the pixel value is, for example, the color space used in each pixel) The statistical processing result obtained by performing the statistical processing of a part or all of the arbitrary parameters in (2) can be used as the feature amount of the non-shadow region. The feature amount of the non-shadow region calculated by the non-shadow region feature amount calculation unit 22 is supplied to the shadow region image quality improvement unit 23. Note that the non-shadow region feature value calculation unit 22 can perform non-shadow region feature value calculation processing (see FIG. 5) described later.

また、影領域画質改善部23は、影領域に対応する撮像画像内の画像領域(画素)の補正を行う機能を有している。影領域画質改善部23は、例えば非影領域の特徴量を基準として影領域の特徴量が補完されるように、影領域に属する各画素の特徴量の変更を行うことによって、非影領域に変更を加えることなく、影領域に係る視認性を向上させることが可能である。影領域画質改善部23で補正された撮像画像(補正後の撮像画像)は、補正画像出力部28に供給される。なお、影領域画質改善部23は、後述の影領域の画質改善処理(図6を参照)、影境界付近を除いた影領域の画質改善処理(図7を参照)、影境界付近の影領域の画質改善処理(図8を参照)、影境界付近の画素の平均化処理(図9を参照)を行うことが可能である。   The shadow area image quality improvement unit 23 has a function of correcting an image area (pixel) in a captured image corresponding to the shadow area. The shadow area image quality improvement unit 23 changes the feature quantity of each pixel belonging to the shadow area so that the feature quantity of the shadow area is complemented with the feature quantity of the non-shadow area as a reference, for example. It is possible to improve the visibility related to the shadow area without making any changes. The captured image (corrected captured image) corrected by the shadow area image quality improvement unit 23 is supplied to the corrected image output unit 28. The shadow area image quality improvement unit 23 performs a shadow area image quality improvement process (see FIG. 6), a shadow area image quality improvement process (see FIG. 7) excluding the vicinity of the shadow boundary, and a shadow area near the shadow boundary. Image quality improvement processing (see FIG. 8) and pixel averaging processing (see FIG. 9) in the vicinity of the shadow boundary can be performed.

また、補正画像出力部28は、影領域画質改善部23から供給された補正後の撮像画像を外部(例えば表示モニタ30や撮像画像利用装置40)に出力する機能を有している。   The corrected image output unit 28 has a function of outputting the corrected captured image supplied from the shadow area image quality improving unit 23 to the outside (for example, the display monitor 30 or the captured image utilization device 40).

次に、図3を参照しながら、本発明の第1の実施の形態における画像補正方法に係る画像補正処理の概要について説明する。図3は、本発明の第1の実施の形態における画像補正方法に係る画像補正処理の概要を示すフローチャートである。なお、図3に図示されている画像補正処理は、図1及び図2に図示されている影補正装置20によって実行される。   Next, the outline of the image correction process according to the image correction method in the first embodiment of the present invention will be described with reference to FIG. FIG. 3 is a flowchart showing an outline of the image correction processing according to the image correction method in the first embodiment of the present invention. Note that the image correction processing illustrated in FIG. 3 is executed by the shadow correction device 20 illustrated in FIGS. 1 and 2.

図3に図示されている画像補正処理では、まず、影領域特徴量算出部21において、影認識結果から特定される影領域及び撮像画像に基づいて影領域の特徴量算出処理が行われ、影領域の特徴量が算出される(ステップS210)。一方、非影領域特徴量算出部21においては、影認識結果から特定される非影領域及び撮像画像に基づいて非影領域の特徴量算出処理が行われ、非影領域の特徴量が算出される(ステップS220)。そして、ステップS210及びステップS220のそれぞれの処理によって算出された影領域及び非影領域の特徴量に基づいて、影領域画像改善部23において、撮像画像内の影領域の補正が行われる(ステップS230)。   In the image correction process illustrated in FIG. 3, first, the shadow area feature quantity calculation unit 21 performs a shadow area feature quantity calculation process based on the shadow area and the captured image specified from the shadow recognition result, A feature amount of the region is calculated (step S210). On the other hand, in the non-shadow area feature amount calculation unit 21, the non-shadow area feature amount calculation processing is performed based on the non-shadow area and the captured image specified from the shadow recognition result, and the non-shadow area feature amount is calculated. (Step S220). Then, based on the feature quantities of the shadow area and the non-shadow area calculated by the processes in steps S210 and S220, the shadow area image improvement unit 23 corrects the shadow area in the captured image (step S230). ).

なお、ステップS210及びステップS220のそれぞれにおける処理によって算出される影領域及び非影領域の特徴量は、次に行われるステップS230における影領域の画像改善処理の基データとして使用される。また、図3では、ステップS210における処理の後にステップS220における処理が行われるように図示されているが、ステップS210及びステップS220のそれぞれにおける処理は独立して実行可能であり、並列して行われてもよい。   Note that the feature quantities of the shadow area and the non-shadow area calculated by the processes in step S210 and step S220 are used as basic data for the shadow area image improvement process in step S230 to be performed next. In FIG. 3, the process in step S220 is illustrated to be performed after the process in step S210. However, the processes in step S210 and step S220 can be performed independently and are performed in parallel. May be.

次に、図4を参照しながら、図3のステップS210における影領域の特徴量算出処理の詳細について説明する。図4は、本発明の第1の実施の形態における画像補正方法に係る影領域の特徴量算出処理の詳細な動作の一例を示すフローチャートである。   Next, details of the shadow region feature amount calculation processing in step S210 of FIG. 3 will be described with reference to FIG. FIG. 4 is a flowchart showing an example of a detailed operation of the shadow region feature amount calculation processing according to the image correction method of the first embodiment of the present invention.

図4に図示されている影領域の特徴量算出処理では、まず、影領域特徴量算出部21が、撮像画像を取得する(ステップS2101)とともに、影認識結果から影領域の座標を取得する(ステップS2102)。このとき、例えば図18に図示されているような影領域に属する画素の座標を特定する情報が取得される。   In the shadow area feature amount calculation processing illustrated in FIG. 4, first, the shadow area feature amount calculation unit 21 acquires a captured image (step S2101) and acquires the coordinates of the shadow area from the shadow recognition result (step S2101). Step S2102). At this time, for example, information specifying the coordinates of the pixels belonging to the shadow region as illustrated in FIG. 18 is acquired.

そして、影領域特徴量算出部21は、ステップS2102で取得された影領域の座標に対応する撮像画像内の画素(すなわち、影領域に属する画素)を1つ選択して(ステップS2103)、ステップS2103で選択された画素の画素値が所定の閾値以下か否かを判定する(ステップS2104)。上記の所定の閾値には、あらかじめ設定された任意の値が使用される。なお、ステップS2104において取り扱われる画素値として、その画素で用いられている色空間における任意のパラメータの一部又はすべてを使用することが可能である。   Then, the shadow area feature amount calculation unit 21 selects one pixel (that is, a pixel belonging to the shadow area) in the captured image corresponding to the coordinates of the shadow area acquired in step S2102 (step S2103), and step It is determined whether or not the pixel value of the pixel selected in S2103 is equal to or less than a predetermined threshold (step S2104). An arbitrary value set in advance is used as the predetermined threshold. Note that as a pixel value handled in step S2104, it is possible to use a part or all of an arbitrary parameter in the color space used in the pixel.

また、上記のステップS2104における判定処理は、最終的に算出される影領域の特徴量から、極端に画素値の高い画素(例えば白色の物体を表す画素)の影響を排除するために行われる処理である。例えば、影領域内に白線が存在する場合には、その白線を表す画素は、影領域に属するにもかかわらず、高い画素値を有しているため、この画素を無視して影領域の特徴量の算出が行われることが望ましい。なお、所定の閾値より大きい画素値を有する画素を無視することなく、影領域に属するすべての画素の画素値から、影領域の特徴量が算出されてもよい。また、影領域に属する任意の画素を選択し、選択された画素の画素値から、影領域の特徴量が算出されてもよい。   In addition, the determination process in step S2104 described above is a process performed to eliminate the influence of a pixel having an extremely high pixel value (for example, a pixel representing a white object) from the finally calculated feature value of the shadow region. It is. For example, when a white line exists in the shadow area, the pixel representing the white line has a high pixel value even though it belongs to the shadow area. It is desirable to calculate the quantity. Note that the feature amount of the shadow region may be calculated from the pixel values of all the pixels belonging to the shadow region without ignoring pixels having a pixel value larger than the predetermined threshold. Alternatively, an arbitrary pixel belonging to the shadow area may be selected, and the feature amount of the shadow area may be calculated from the pixel value of the selected pixel.

ステップS2104で画素値が所定の閾値以下であると判定された画素に関しては、影領域の特徴量算出対象に設定され(ステップS2105)、ステップS2104で画素値が所定の閾値以下ではないと判定された画素に関しては、影領域の特徴量算出対象から除外される。   The pixel whose pixel value is determined to be equal to or smaller than the predetermined threshold value in step S2104 is set as a shadow region feature amount calculation target (step S2105), and it is determined in step S2104 that the pixel value is not equal to or smaller than the predetermined threshold value. These pixels are excluded from the shadow region feature quantity calculation target.

ステップS2103〜ステップS2105の処理は、影領域に属する各画素に対して行われる。すなわち、選択された画素を影領域の特徴量算出対象に設定するか除外するかの判定が完了した場合、影領域の座標に対応する撮像画像内の画素がすべて選択されたか否かが確認される(ステップS2106)。そして、未選択の画素が存在する場合にはステップS2103に戻り、未選択の画素に関して、ステップS2103〜ステップS2105の処理が行われる。   The processing in steps S2103 to S2105 is performed for each pixel belonging to the shadow area. In other words, when the determination of whether to select or exclude the selected pixel as a feature amount calculation target of the shadow region is completed, it is confirmed whether all the pixels in the captured image corresponding to the coordinates of the shadow region have been selected. (Step S2106). If an unselected pixel exists, the process returns to step S2103, and the processes of steps S2103 to S2105 are performed on the unselected pixel.

一方、影領域に属するすべての画素が選択された場合には、例えば、ステップS2105で設定された影領域の特徴量算出対象の画素の画素値の統計処理を行ってその統計処理結果を得ることによって、影領域の特徴量が算出される(ステップSS2107)。なお、ステップS2107で行われる統計処理には任意の統計処理アルゴリズムを用いることが可能である。例えば、影領域の特徴量算出対象の画素の画素値の平均を算出する統計処理を行い、その統計処理結果として得られた画素値の平均値を影領域の特徴量としてもよい。   On the other hand, when all the pixels belonging to the shadow region are selected, for example, the statistical processing of the pixel value of the pixel to be calculated for the feature amount in the shadow region set in step S2105 is performed to obtain the statistical processing result. Thus, the feature value of the shadow area is calculated (step SS2107). Note that any statistical processing algorithm can be used for the statistical processing performed in step S2107. For example, a statistical process for calculating an average of pixel values of pixels for which a shadow area feature value is to be calculated may be performed, and an average value of pixel values obtained as a result of the statistical process may be used as the feature quantity of the shadow area.

次に、図5を参照しながら、図3のステップS220における非影領域の特徴量算出処理の詳細について説明する。図5は、本発明の第1の実施の形態における画像補正方法に係る非影領域の特徴量算出処理の詳細な動作の一例を示すフローチャートである。   Next, the details of the non-shadow area feature quantity calculation processing in step S220 of FIG. 3 will be described with reference to FIG. FIG. 5 is a flowchart showing an example of detailed operation of the feature amount calculation processing of the non-shadow region according to the image correction method in the first embodiment of the present invention.

図5に図示されている非影領域の特徴量算出処理では、まず、非影領域特徴量算出部22が、撮像画像を取得する(ステップS2201)。また、非影領域特徴量算出部22は、影認識結果を取得し、影領域の周辺の座標(非影領域に属する座標)を取得する(ステップS2202)。なお、例えば、影領域と非影領域との境界(影境界)から任意の距離(例えば5〜10ピクセル)の範囲内の非影領域を、影領域の周辺と定義することが可能である。このとき、非影領域として、例えば図18に図示されているような影領域の周辺の領域が設定される。   In the non-shadow region feature amount calculation process illustrated in FIG. 5, first, the non-shadow region feature amount calculation unit 22 acquires a captured image (step S2201). Further, the non-shadow area feature amount calculation unit 22 acquires a shadow recognition result, and acquires coordinates around the shadow area (coordinates belonging to the non-shadow area) (step S2202). Note that, for example, a non-shadow area within an arbitrary distance (for example, 5 to 10 pixels) from the boundary (shadow boundary) between the shadow area and the non-shadow area can be defined as the periphery of the shadow area. At this time, for example, an area around the shadow area as shown in FIG. 18 is set as the non-shadow area.

上記のステップS2202における処理は、影領域の周辺の画素のみを考慮して非影領域の特徴量を算出するために行われる処理である。影領域は、仮に影が発生していない場合には、影領域のすぐ周辺の特徴量を有するはずであったと予想される。したがって、影領域の特徴量の補正に用いられる非影領域の特徴量は、影領域の周辺の画素の画素値から算出されることが望ましい。なお、ステップS2202の処理において、影領域の周辺だけではなく、他の非影領域(あるいはすべての非影領域)の座標が取得されてもよい。また、影領域の周辺の一部の領域の座標のみが取得されてもよい。   The process in step S2202 is a process performed to calculate the feature amount of the non-shadow area in consideration of only the pixels around the shadow area. If no shadow is generated, the shadow area is expected to have a feature amount immediately around the shadow area. Therefore, it is desirable that the feature amount of the non-shadow region used for correcting the feature amount of the shadow region is calculated from the pixel values of the pixels around the shadow region. In the process of step S2202, not only the periphery of the shadow area but also the coordinates of other non-shadow areas (or all non-shadow areas) may be acquired. Further, only the coordinates of a part of the area around the shadow area may be acquired.

そして、非影領域特徴量算出部22は、ステップS2202で取得された非影領域(影領域の周辺)の座標に対応する撮像画像内の画素(すなわち、影領域の周辺に属する画素)を1つ選択して(ステップS2203)、ステップS2203で選択された画素の画素値が所定の閾値以上か否かを判定する(ステップS2204)。上記の所定の閾値には、あらかじめ設定された任意の値が使用される。例えば、所定の閾値として、影領域の画素値の平均値を使用することも可能である。また、ステップS2204において取り扱われる画素値としては、上述の影領域の特徴量算出処理と同様に、その画素で用いられている色空間における任意のパラメータの一部又はすべてを使用することが可能である。   Then, the non-shadow region feature value calculation unit 22 sets 1 in the captured image (that is, pixels belonging to the periphery of the shadow region) corresponding to the coordinates of the non-shadow region (the periphery of the shadow region) acquired in step S2202. Is selected (step S2203), and it is determined whether the pixel value of the pixel selected in step S2203 is equal to or greater than a predetermined threshold (step S2204). An arbitrary value set in advance is used as the predetermined threshold. For example, an average value of the pixel values in the shadow area can be used as the predetermined threshold value. Further, as the pixel value handled in step S2204, a part or all of an arbitrary parameter in the color space used in the pixel can be used, as in the above-described shadow area feature amount calculation processing. is there.

また、上記のステップS2204における判定処理は、最終的に算出される非影領域の特徴量から、極端に画素値の低い画素(例えば黒色の物体を表す画素)の影響を排除するために行われる処理である。例えば、非影領域内に存在する黒色の物体を表す画素は、非影領域に属するにもかかわらず、低い画素値を有しているため、この画素を無視して非影領域の特徴量の算出が行われることが望ましい。なお、所定の閾値より小さい画素値を有する画素を無視することなく、非影領域に属するすべての画素の画素値から、非影領域の特徴量が算出されてもよい。また、非影領域に属する任意の画素を選択し、選択された画素の画素値から、非影領域の特徴量が算出されてもよい。   The determination process in step S2204 is performed to eliminate the influence of pixels having extremely low pixel values (for example, pixels representing a black object) from the finally calculated feature amount of the non-shadow region. It is processing. For example, a pixel representing a black object existing in a non-shadow area has a low pixel value even though it belongs to the non-shadow area. Therefore, this pixel is ignored and the feature amount of the non-shadow area is ignored. It is desirable that the calculation is performed. Note that the feature amount of the non-shadow region may be calculated from the pixel values of all the pixels belonging to the non-shadow region without ignoring pixels having a pixel value smaller than the predetermined threshold. Alternatively, an arbitrary pixel belonging to the non-shadow area may be selected, and the feature amount of the non-shadow area may be calculated from the pixel value of the selected pixel.

ステップS2204で画素値が所定の閾値以上であると判定された画素に関しては、非影領域の特徴量算出対象に設定され(ステップS2205)、ステップS2204で画素値が所定の閾値以上ではないと判定された画素に関しては、非影領域の特徴量算出対象から除外される。   A pixel whose pixel value is determined to be greater than or equal to a predetermined threshold in step S2204 is set as a feature amount calculation target for a non-shadow region (step S2205), and it is determined in step S2204 that the pixel value is not equal to or greater than a predetermined threshold. The excluded pixels are excluded from the feature amount calculation target of the non-shadow region.

ステップS2203〜ステップS2205の処理は、影領域の周辺に属する各画素に対して行われる。すなわち、選択された画素を非影領域の特徴量算出対象に設定するか除外するかの判定が完了した場合、影領域の周辺の座標に対応する撮像画像内の画素がすべて選択されたか否かが確認される(ステップS2206)。そして、未選択の画素が存在する場合にはステップS2203に戻り、未選択の画素に関して、ステップS2203〜ステップS2205の処理が行われる。   The processing in steps S2203 to S2205 is performed for each pixel belonging to the periphery of the shadow area. That is, whether or not all the pixels in the captured image corresponding to the coordinates around the shadow area have been selected when the determination of whether or not to set the selected pixel as the feature amount calculation target of the non-shadow area is completed Is confirmed (step S2206). If there is an unselected pixel, the process returns to step S2203, and the processes from step S2203 to step S2205 are performed on the unselected pixel.

一方、影領域の周辺に属するすべての画素が選択された場合には、例えば、ステップS2205で設定された非影領域の特徴量算出対象の画素の画素値の統計処理を行ってその統計処理結果を得ることによって、非影領域の特徴量が算出される(ステップSS2207)。なお、ステップS2207で行われる統計処理には任意の統計処理アルゴリズムを用いることが可能である。例えば、非影領域の特徴量算出対象の画素の画素値の平均を算出する統計処理を行い、その統計処理結果として得られた画素値の平均値を非影領域の特徴量としてもよい。   On the other hand, when all the pixels belonging to the periphery of the shadow area are selected, for example, the statistical processing of the pixel value of the pixel for the feature amount calculation target of the non-shadow area set in step S2205 is performed, and the statistical processing result Thus, the feature amount of the non-shadow area is calculated (step SS2207). Note that any statistical processing algorithm can be used for the statistical processing performed in step S2207. For example, statistical processing may be performed to calculate the average of pixel values of pixels for which feature amounts are to be calculated in the non-shadow region, and the average value of pixel values obtained as a result of the statistical processing may be used as the feature amount of the non-shadow region.

次に、図6を参照しながら、図3のステップS230における影領域の画質改善処理の詳細について説明する。図6は、本発明の第1の実施の形態における画像補正方法に係る影領域の画質改善処理の詳細な動作の一例を示すフローチャートである。   Next, details of the image quality improvement processing of the shadow area in step S230 of FIG. 3 will be described with reference to FIG. FIG. 6 is a flowchart showing an example of detailed operation of the image quality improvement processing of the shadow area according to the image correction method in the first embodiment of the present invention.

図6に図示されている非影領域の特徴量算出処理では、影領域画質改善部23において、影境界付近を除いた影領域の画質改善処理が行われる(ステップS231)。また、影領域画質改善部23において、影境界付近の影領域の画質改善処理が行われ(ステップS232)、さらに、影境界付近に生じる視認の際の違和感を解消するために、影境界付近の画素の平均化処理が行われる(ステップS233)。   In the non-shadow area feature amount calculation process illustrated in FIG. 6, the shadow area image quality improvement unit 23 performs the image quality improvement process for the shadow area excluding the vicinity of the shadow boundary (step S231). In addition, the shadow area image quality improvement unit 23 performs an image quality improvement process for the shadow area near the shadow boundary (step S232). Further, in order to eliminate the uncomfortable feeling at the time of visual recognition that occurs near the shadow boundary, Pixel averaging processing is performed (step S233).

なお、図6に図示されている非影領域の特徴量算出処理では、ステップS230における処理の後にステップS231における処理が行われるように図示されている。しかしながら、影領域全体が影境界付近を除いた影領域及び影境界の影領域に分けられ、それぞれの領域に係る画質改善処理は独立して実行可能であり、ステップS231及びステップS232における処理は並列して行われてもよい。   In the non-shadow region feature amount calculation process illustrated in FIG. 6, the process in step S231 is performed after the process in step S230. However, the entire shadow area is divided into a shadow area excluding the vicinity of the shadow boundary and a shadow area of the shadow boundary, and the image quality improvement processing for each area can be executed independently, and the processes in steps S231 and S232 are performed in parallel. May be performed.

また、ステップS232における影境界付近の影領域の画質改善処理は、後述のように、影境界付近に生じる視認の際の違和感を解消するために行われる処理であるが、影領域全体を、影境界付近を除いた影領域及び影境界の影領域に分けずに、1つの画像改善アルゴリズムを用いて影領域全体の画像改善処理を行ってもよい。また、ステップS233における影境界付近の画素の平均化処理を省略することも可能である。   Further, the image quality improvement processing of the shadow area near the shadow boundary in step S232 is a process performed to eliminate the uncomfortable feeling at the time of visual recognition that occurs near the shadow boundary as described later. The image improvement process for the entire shadow region may be performed using one image improvement algorithm without dividing the shadow region except for the vicinity of the boundary and the shadow region of the shadow boundary. It is also possible to omit the averaging process for pixels near the shadow boundary in step S233.

ここで、ステップS230における影領域の画質改善処理の基本的な概念について説明する。本発明の第1の実施の形態における画像補正方法では、影領域及び非影領域の特徴量に基づいて、影領域の画像の補正(改善)が行われる。   Here, the basic concept of the image quality improvement processing of the shadow area in step S230 will be described. In the image correction method according to the first embodiment of the present invention, the shadow region image is corrected (improved) based on the feature amounts of the shadow region and the non-shadow region.

ステップS230における影領域の画質改善処理では、撮像画像の影領域に属する各画素の画素値を変更することによって、補正後の撮像画像の各画素の画素値を生成する処理が行われる。すなわち、補正前の撮像画像内の座標位置(x,y)の画素(影領域に属する画素)の画素値をVin(x,y)で表し、補正後の撮像画像内の座標位置(x,y)の画素の画素値をVout(x,y)で表した場合、ステップS230における影領域の画質改善処理では、下記の式(1)のように、補正前の撮像画像の各画素の画素値Vin(x,y)を、任意の関数Fを用いて演算することにより、補正後の撮像画像の各画素の画素値Vout(x,y)が生成される。   In the image quality improvement processing of the shadow region in step S230, processing for generating the pixel value of each pixel of the corrected captured image is performed by changing the pixel value of each pixel belonging to the shadow region of the captured image. That is, the pixel value of the pixel (pixel belonging to the shadow area) at the coordinate position (x, y) in the captured image before correction is expressed as Vin (x, y), and the coordinate position (x, y in the corrected image after correction). When the pixel value of the pixel y) is represented by Vout (x, y), in the image quality improvement processing of the shadow region in step S230, the pixel of each pixel of the captured image before correction as shown in the following equation (1) By calculating the value Vin (x, y) using an arbitrary function F, a pixel value Vout (x, y) of each pixel of the corrected captured image is generated.

Vout(x,y)=F(Vin(x,y)) ・・・ (1)   Vout (x, y) = F (Vin (x, y)) (1)

また、式(1)の関数Fを、例えばステップS210で算出された影領域の特徴量Xm及びステップS220で算出された非影領域の特徴量Ymによって定め、上記の式(1)を下記の式(2)のような変換式とすることが可能である。   Further, the function F of the equation (1) is determined by, for example, the feature amount Xm of the shadow region calculated in step S210 and the feature amount Ym of the non-shadow region calculated in step S220. A conversion expression such as Expression (2) can be used.

Vout(x,y)=Vin(x,y)×(Ym/Xm) ・・・ (2)   Vout (x, y) = Vin (x, y) × (Ym / Xm) (2)

例えば、影領域の特徴量Xmとして影領域の画素値の平均値が設定されており、非影領域の特徴量Ymとして非影領域の画素値の平均値が設定されている場合には、式(2)を用いた演算によって、補正前の撮像画像の各画素の画素値Vin(x,y)を非影領域の平均値レベルまで増加させた値を、補正後の撮像画像の各画素の画素値Vout(x,y)とすることが可能となる。   For example, when the average value of the pixel value of the shadow area is set as the feature value Xm of the shadow area, and the average value of the pixel value of the non-shadow area is set as the feature value Ym of the non-shadow area, A value obtained by increasing the pixel value Vin (x, y) of each pixel of the captured image before correction to the average value level of the non-shadow area by the calculation using (2) is obtained for each pixel of the corrected captured image. The pixel value Vout (x, y) can be set.

以下、上記の式(2)を用いた画素値の変換について、図19及び図20を参照しながら説明する。図19は、本発明に係る補正前の撮像画像の影境界付近の画素を模式的に表した図である。また、図20は、図19の線分A−B上の補正前及び補正後の画素値の値を示すグラフである。   Hereinafter, conversion of the pixel value using the above equation (2) will be described with reference to FIGS. 19 and 20. FIG. 19 is a diagram schematically illustrating pixels in the vicinity of the shadow boundary of the captured image before correction according to the present invention. FIG. 20 is a graph showing pixel values before and after correction on the line segment AB in FIG.

図19には、影境界付近の画素が図示されている。図19において、影領域内の位置Aと非影領域の位置Bとの間の線分(影境界を横切る線分A−B)を定義する。このとき、図20に図示されているように、線分A−B上の補正前の撮像画像の画素の画素値は、非影領域に属する画素に関しては一般に高い値(非影領域の画素値の特徴量Ymである平均値に近い値)となり、影領域に属する画素に関しては一般に低い値(影領域の特徴量Xmに近い値)となる。   FIG. 19 illustrates pixels near the shadow boundary. In FIG. 19, a line segment between the position A in the shadow area and the position B in the non-shadow area (line segment A-B crossing the shadow boundary) is defined. At this time, as shown in FIG. 20, the pixel value of the pixel of the captured image before correction on the line segment AB is generally a high value (pixel value of the non-shadow region) for pixels belonging to the non-shadow region. For the pixels belonging to the shadow area, generally low values (values close to the feature quantity Xm of the shadow area).

ここで、影領域に属する画素の画素値に対して、上記の式(2)の変換を行って、非影領域の特徴量Ymのレベルに影領域の特徴量Xmのレベルを合わせることによって、補正後の撮像画像内の影領域に属する画素値を得ることが可能となる。なお、非影領域の画素の画素値の変更を行わないことで、非影領域の視認性を維持することが可能となる。   Here, the pixel value of the pixel belonging to the shadow area is converted by the above formula (2) to match the level of the feature quantity Xm of the shadow area with the level of the feature quantity Ym of the non-shadow area. It is possible to obtain pixel values belonging to the shadow area in the captured image after correction. Note that the visibility of the non-shadow region can be maintained by not changing the pixel value of the pixel in the non-shadow region.

なお、式(2)では、統計処理結果(平均値)を用いることで、関数Fを、撮像画像内の座標位置(x,y)に依存しない関数として定義しているが、関数Fを撮像画像内の座標位置(x,y)に依存する関数F(x,y)としてもよい。この関数F(x,y)の一例としては例えば後述の式(3)が挙げられるが(ただし、式(3)では、一方の座標yにのみ依存)、より複雑な関数を用いた変換式を定義することも可能である。   In Expression (2), the function F is defined as a function that does not depend on the coordinate position (x, y) in the captured image by using the statistical processing result (average value), but the function F is captured. The function F (x, y) depending on the coordinate position (x, y) in the image may be used. An example of the function F (x, y) is, for example, an expression (3) described later (however, in the expression (3), it depends only on one coordinate y), but a conversion expression using a more complicated function. Can also be defined.

次に、図7を参照しながら、図6のステップS231における影境界付近を除いた影領域の画質改善処理の詳細について説明する。図7は、本発明の第1の実施の形態における画像補正方法に係る影境界付近を除いた影領域の画質改善処理の詳細な動作の一例を示すフローチャートである。   Next, the details of the image quality improvement processing of the shadow area excluding the vicinity of the shadow boundary in step S231 in FIG. 6 will be described with reference to FIG. FIG. 7 is a flowchart showing an example of detailed operation of the image quality improvement processing of the shadow area excluding the vicinity of the shadow boundary according to the image correction method in the first embodiment of the present invention.

なお、例えば、上述の式(2)を用いて影境界付近を除いた影領域に属する画素の画素値を変換することも可能であるが、ここでは、車両に設置された撮像装置の撮像画像の特性を考慮して、補正後の影領域において画像の下から上にかけて、画像が明るくなる傾向を再現することが可能な後述の式(3)を用いる方法について説明する。   Note that, for example, the pixel values of the pixels belonging to the shadow area excluding the vicinity of the shadow boundary can be converted using the above-described equation (2). Here, the captured image of the imaging device installed in the vehicle is used. In consideration of this characteristic, a method using Equation (3), which will be described later, can reproduce the tendency of the image to become brighter from the bottom to the top in the corrected shadow region.

図7に図示されている影境界付近を除いた影領域の画質改善処理では、まず、影領域画質改善部23が、撮像画像を取得する(ステップS2311)とともに、影認識結果から影境界付近を除いた影領域の座標を取得する(ステップS2312)。   In the image quality improvement processing of the shadow area excluding the vicinity of the shadow boundary illustrated in FIG. 7, first, the shadow area image quality improvement unit 23 acquires a captured image (step S2311), and also detects the vicinity of the shadow boundary from the shadow recognition result. The coordinates of the excluded shadow area are acquired (step S2312).

そして、影領域画質改善部23は、ステップS2312で取得された影境界付近を除いた影領域の座標に対応する撮像画像内の画素(すなわち、影境界付近を除いた影領域に属する画素)を1つ選択して(ステップS2313)、ステップS2313で選択された画素の座標に基づくパラメータを設定する(ステップS2314)。そして、影領域画質改善部23は、ステップS2314で設定されたパラメータを用いて、選択された画素の画素値を算出し(ステップS2315)、その画素の画素値をステップS2315で算出された画素値に変更する(ステップS2316)。   Then, the shadow area image quality improvement unit 23 calculates pixels in the captured image corresponding to the coordinates of the shadow area excluding the vicinity of the shadow boundary acquired in step S2312 (that is, pixels belonging to the shadow area excluding the vicinity of the shadow boundary). One is selected (step S2313), and a parameter based on the coordinates of the pixel selected in step S2313 is set (step S2314). Then, the shadow area image quality improvement unit 23 calculates the pixel value of the selected pixel using the parameters set in step S2314 (step S2315), and calculates the pixel value of the pixel as the pixel value calculated in step S2315. (Step S2316).

ステップS2313〜ステップS2316の処理は、影境界付近を除いた影領域に属する各画素に対して行われる。すなわち、選択された画素の画素値を変更した場合、影境界付近を除いた影領域の座標に対応する撮像画像内の画素がすべて選択されたか否かが確認される(ステップS2317)。そして、未選択の画素が存在する場合にはステップS2313に戻り、未選択の画素に関して、ステップS2313〜ステップS2316の処理が行われる。一方、影境界付近を除いた影領域に属するすべての画素が選択された場合には、影境界付近を除いた影領域の画質改善処理は終了となる。   The processing in steps S2313 to S2316 is performed for each pixel belonging to the shadow area excluding the vicinity of the shadow boundary. That is, when the pixel value of the selected pixel is changed, it is confirmed whether or not all the pixels in the captured image corresponding to the coordinates of the shadow area excluding the vicinity of the shadow boundary have been selected (step S2317). If an unselected pixel exists, the process returns to step S2313, and the processes of step S2313 to step S2316 are performed on the unselected pixel. On the other hand, when all the pixels belonging to the shadow area excluding the vicinity of the shadow boundary are selected, the image quality improvement processing for the shadow area excluding the vicinity of the shadow boundary is completed.

上記のステップS2314で設定されるパラメータは、上述のように、車両に設置された撮像装置の撮像画像の特性を考慮して、補正後の影領域において画像の下から上にかけて、画像が明るくなる傾向を再現するために設定されるものである。具体的には、ステップS2314及びステップS2315において、下記の式(3)のような変換式によって、画素値の変換を行うことが可能である。   As described above, the parameters set in step S2314 take into consideration the characteristics of the captured image of the imaging device installed in the vehicle, and the image becomes brighter from the bottom to the top in the corrected shadow region. It is set to reproduce the trend. Specifically, in step S2314 and step S2315, the pixel value can be converted by a conversion equation such as the following equation (3).

Vout(x,y)=Vin(x,y)×(α−(H−y)×β) ・・・ (3)
ただし、α,βは任意の正の値であり、Hは撮像画像の高さである。
Vout (x, y) = Vin (x, y) × (α− (H−y) × β) (3)
However, α and β are arbitrary positive values, and H is the height of the captured image.

以下、上記の式(3)を用いた画素値の変換について、図21及び図22を参照しながら説明する。図21は、本発明の第1の実施の形態における画像補正方法で用いられる式(3)を説明するための座標の定義を示す図である。また、図22は、図21のy方向に依存して設定されるパラメータ(重み)を説明するためのグラフである。   Hereinafter, conversion of the pixel value using the above equation (3) will be described with reference to FIGS. 21 and 22. FIG. 21 is a diagram showing the definition of coordinates for explaining the expression (3) used in the image correction method according to the first embodiment of the present invention. FIG. 22 is a graph for explaining parameters (weights) set depending on the y direction of FIG.

図21に図示されているように、撮像画像の左上を原点(0,0)として、横方向をx軸、縦方向をy軸とし、さらに、撮像画像の高さをHと表記する。このとき、上記の式(3)のパラメータ(α−(H−y)×β)は、図22に図示されているように、y軸方向に勾配(−β)を有する重みであり、この重みが画素値に設定される。パラメータ(α−(H−y)×β)は、yの値が大きくなる(すなわち、画像の下方向の向かう)とともに、大きな値となる。したがって、このパラメータ(α−(H−y)×β)が積算されて得られるVout(x,y)はy方向に依存して明るさが調整された値となる。なお、α、βの値は、例えば、カメラ10の特性や車両形状などによって異なる値となる。また、式(3)はy方向のみ依存した重みを設定しているが、x方向に依存した重みや、x方向及びy方向の両方に依存した重みを設定することも可能である。   As shown in FIG. 21, the upper left of the captured image is the origin (0, 0), the horizontal direction is the x axis, the vertical direction is the y axis, and the height of the captured image is expressed as H. At this time, the parameter (α− (H−y) × β) in the above equation (3) is a weight having a gradient (−β) in the y-axis direction as shown in FIG. The weight is set to the pixel value. The parameter (α− (H−y) × β) increases as the value of y increases (that is, toward the lower direction of the image). Therefore, Vout (x, y) obtained by integrating the parameters (α− (H−y) × β) is a value whose brightness is adjusted depending on the y direction. Note that the values of α and β vary depending on, for example, the characteristics of the camera 10 and the vehicle shape. Further, although the weight that depends only on the y direction is set in Expression (3), it is possible to set a weight that depends on the x direction or a weight that depends on both the x direction and the y direction.

次に、図8を参照しながら、図6のステップS232における影境界付近の影領域の画質改善処理の詳細について説明する。図8は、本発明の第1の実施の形態における画像補正方法に係る影境界付近の影領域の画質改善処理の詳細な動作の一例を示すフローチャートである。   Next, the details of the image quality improvement processing of the shadow area near the shadow boundary in step S232 of FIG. 6 will be described with reference to FIG. FIG. 8 is a flowchart showing an example of detailed operation of the image quality improvement processing of the shadow area near the shadow boundary according to the image correction method in the first embodiment of the present invention.

図8に図示されている影境界付近の影領域の画質改善処理では、まず、影領域画質改善部23が、撮像画像を取得する(ステップS2321)とともに、影認識結果から影境界付近の影領域の座標を取得する(ステップS2322)。   In the image quality improvement processing of the shadow area near the shadow boundary illustrated in FIG. 8, first, the shadow area image quality improvement unit 23 acquires a captured image (step S2321), and from the shadow recognition result, the shadow area near the shadow boundary. Are obtained (step S2322).

そして、影領域画質改善部23は、ステップS2322で取得された影境界付近の影領域の座標に対応する撮像画像内の画素(すなわち、影境界付近の影領域に属する画素)を1つ選択して(ステップS2323)、ステップS2323で選択された画素の座標に基づくパラメータを設定する(ステップS2324)。そして、影領域画質改善部23は、ステップS2324で設定されたパラメータを用いて、選択された画素の画素値を算出する(ステップS2325)。ただし、ステップS2325で算出された画素値は、この時点では、まだ画素値の変更候補に過ぎない。   Then, the shadow region image quality improvement unit 23 selects one pixel in the captured image corresponding to the coordinates of the shadow region near the shadow boundary acquired in step S2322 (that is, a pixel belonging to the shadow region near the shadow boundary). (Step S2323), a parameter based on the coordinates of the pixel selected in step S2323 is set (step S2324). Then, the shadow area image quality improvement unit 23 calculates the pixel value of the selected pixel using the parameters set in step S2324 (step S2325). However, the pixel value calculated in step S2325 is still only a pixel value change candidate at this point.

なお、ここでは、ステップS2323及びステップS2324において、式(3)のような座標依存のパラメータを有する変換式によって画素値の算出を行っているが、例えば式(2)に示すような座標依存のパラメータを有さない変換式を用いて画素値の算出を行ってもよい。   Here, in step S2323 and step S2324, the pixel value is calculated by a conversion equation having a coordinate-dependent parameter such as equation (3). However, for example, the coordinate-dependent value as shown in equation (2) is used. The pixel value may be calculated using a conversion formula having no parameter.

ここで、影領域画質改善部23は、ステップS2325で算出された画素値が、その画素値が取り得る最大値(あるいは所定の設定値)以下の値か否かを確認する(ステップS2326)。そして、影領域画質改善部23は、画素値が最大値以下の値である場合には、その画素の画素値をステップS2325で算出された画素値に変更し(ステップS2327)、一方、画素値が最大値を超えている場合には、選択された画素の画素値がそのまま使用されるように、現在の画素値を、変更後の画素値として設定する(ステップS2328)。   Here, the shadow area image quality improvement unit 23 checks whether or not the pixel value calculated in step S2325 is equal to or less than a maximum value (or a predetermined set value) that the pixel value can take (step S2326). Then, when the pixel value is equal to or less than the maximum value, the shadow area image quality improvement unit 23 changes the pixel value of the pixel to the pixel value calculated in step S2325 (step S2327). If the value exceeds the maximum value, the current pixel value is set as the changed pixel value so that the pixel value of the selected pixel is used as it is (step S2328).

上記のステップS2326における処理は、影境界付近の影領域が他の影領域に比べて画素値が高い傾向があり、補正後の撮像画像における影境界付近の影領域が白く強調されてしまう(明るくなり過ぎてしまう)場合が多いことを考慮して行われる処理である。例えば16進数表記の輝度値の最大値は256であるが、ステップS2325で算出された画素値(輝度値)は、256以上の値となってしまう場合がある。このような場合を考慮して、図8に図示されている影境界付近の影領域の画質改善処理では、ステップS2325において画素値の最大値を超える値が算出された場合には、この算出結果を採用せずに、元の画素値を採用する。なお、例えば、ステップS2326において、ステップS2325で算出された画素値を所定の設定値(例えば200)と比較し、この所定の設定値を超える画素値に関しては、一律に所定の設定値をその画素値として設定することも可能である。また、この所定の設定値を座標に依存して変化する値としてもよい。   In the processing in step S2326 described above, the shadow area near the shadow boundary tends to have a higher pixel value than the other shadow areas, and the shadow area near the shadow boundary in the corrected captured image is emphasized in white (brighter). This is a process performed in consideration of the fact that there are many cases where it becomes too much. For example, the maximum value of the luminance value in hexadecimal notation is 256, but the pixel value (luminance value) calculated in step S2325 may be 256 or more. In consideration of such a case, in the image quality improvement processing of the shadow region near the shadow boundary illustrated in FIG. 8, if a value exceeding the maximum pixel value is calculated in step S2325, the calculation result The original pixel value is adopted without adopting. For example, in step S2326, the pixel value calculated in step S2325 is compared with a predetermined setting value (for example, 200), and for a pixel value exceeding the predetermined setting value, the predetermined setting value is uniformly set to that pixel. It can also be set as a value. The predetermined set value may be a value that changes depending on the coordinates.

ステップS2323〜ステップS2328の処理は、影境界付近の影領域に属する各画素に対して行われる。すなわち、選択された画素の画素値を変更した場合、影境界付近の影領域の座標に対応する撮像画像内の画素がすべて選択されたか否かが確認される(ステップS2339)。そして、未選択の画素が存在する場合にはステップS2323に戻り、未選択の画素に関して、ステップS2323〜ステップS2328の処理が行われる。一方、影境界付近の影領域に属するすべての画素が選択された場合には、影境界付近の影領域の画質改善処理は終了となる。   The processing in steps S2323 to S2328 is performed for each pixel belonging to the shadow region near the shadow boundary. That is, when the pixel value of the selected pixel is changed, it is confirmed whether or not all the pixels in the captured image corresponding to the coordinates of the shadow area near the shadow boundary have been selected (step S2339). If there is an unselected pixel, the process returns to step S2323, and the processes of step S2323 to step S2328 are performed on the unselected pixel. On the other hand, when all the pixels belonging to the shadow area near the shadow boundary are selected, the image quality improvement processing for the shadow area near the shadow boundary is completed.

次に、図9を参照しながら、図6のステップS233における影境界付近の画素の平均化処理の詳細について説明する。図9は、本発明の第1の実施の形態における画像補正方法に係る影境界付近の画素の平均化処理の詳細な動作の一例を示すフローチャートである。   Next, the details of the averaging process for pixels near the shadow boundary in step S233 in FIG. 6 will be described with reference to FIG. FIG. 9 is a flowchart showing an example of detailed operation of the averaging process of pixels near the shadow boundary according to the image correction method in the first embodiment of the present invention.

図9に図示されている影境界付近の画素の平均化処理では、影領域画質改善部23が、撮像画像を取得する(ステップS2331)とともに、影認識結果から影境界の画素の座標を取得する(ステップS2332)。   In the averaging process for pixels in the vicinity of the shadow boundary illustrated in FIG. 9, the shadow region image quality improvement unit 23 acquires a captured image (step S2331), and acquires the coordinates of the pixel at the shadow boundary from the shadow recognition result. (Step S2332).

次に、影領域画質改善部23は、ステップS2332で取得された影境界の画素の座標に基づいて、影境界付近の非影領域の特徴量を算出する(ステップS2333)とともに、影境界付近の影領域の特徴量を算出する(ステップS2334)。なお、ステップS2333における影境界付近の非影領域の特徴量の算出処理は、例えば、図5に図示されている非影領域の統計量算出処理などにおいて同時に行われてもよい。また、ステップS2334における影境界付近の影領域の特徴量の算出処理では、図8に図示されている影境界付近の影領域の画質改善処理で得られた画素値(補正後の画素値)を用いて、影境界付近の影領域の特徴量が算出されることが望ましい。   Next, the shadow area image quality improvement unit 23 calculates the feature amount of the non-shadow area near the shadow boundary based on the coordinates of the pixel at the shadow boundary acquired in step S2332 (step S2333), and at the same time, near the shadow boundary. The feature amount of the shadow area is calculated (step S2334). Note that the feature amount calculation processing of the non-shadow region near the shadow boundary in step S2333 may be performed simultaneously in, for example, the non-shadow region statistic calculation processing illustrated in FIG. In addition, in the process of calculating the feature value of the shadow area near the shadow boundary in step S2334, the pixel value (corrected pixel value) obtained by the image quality improvement process of the shadow area near the shadow boundary shown in FIG. It is desirable to calculate the feature amount of the shadow area near the shadow boundary.

そして、影領域画質改善部23は、ステップS2333の処理で得られた影境界付近の非影領域の特徴量と、ステップS2334の処理で得られた影境界付近の影領域の特徴量とを用いて、影境界付近の画素の画素値を平均化する画素値平均化処理を行う(ステップS2335)。   Then, the shadow area image quality improvement unit 23 uses the feature quantity of the non-shadow area near the shadow boundary obtained by the process of step S2333 and the feature quantity of the shadow area near the shadow boundary obtained by the process of step S2334. Then, a pixel value averaging process for averaging the pixel values of the pixels in the vicinity of the shadow boundary is performed (step S2335).

ステップS2335の画素値平均化処理は、影境界付近の非影領域及び影領域の特徴量に基づいて、影境界付近で発生し得る不連続な画素値の変化(影領域と非影領域との間の画素値の差)が滑らか(連続的)になるように影境界付近の画素値を補正するための処理である。この画素値平均化処理によって、撮像画像に存在していた影の輪郭をぼかすことが可能となり、あたかも初めから影が存在しなかったかのような違和感の無い補正後の撮像画像を生成することが可能となる。なお、ここでは、影境界付近の影領域に属する画素の画素値を変えて、非影領域と影領域との間の画素値の変化を滑らかにしているが、影境界付近の非影領域に属する画素の画素値や、影境界付近の非影領域及び影領域の両方の画素の画素値を変えてもよい。   The pixel value averaging process in step S2335 is based on the non-shadow area near the shadow boundary and the feature amount of the shadow area, and changes in discontinuous pixel values that may occur near the shadow boundary (the difference between the shadow area and the non-shadow area). This is a process for correcting the pixel values in the vicinity of the shadow boundary so that the difference in pixel values between them becomes smooth (continuous). By this pixel value averaging process, it becomes possible to blur the outline of the shadow that existed in the captured image, and it is possible to generate a corrected captured image that does not feel strange as if there was no shadow from the beginning. It becomes. Here, the pixel value of the pixel belonging to the shadow area near the shadow boundary is changed to smooth the change in the pixel value between the non-shadow area and the shadow area. You may change the pixel value of the pixel which belongs, and the pixel value of the pixel of both the non-shadow area | region and shadow area | regions near a shadow boundary.

以上、説明したように、本発明の第1の実施の形態によれば、画像内の視認性の悪い領域に関して、その領域の画素に対して視認性が良くなるような変換を行うことによって、画像全体の視認性を維持したまま、局所的に視認性の悪い領域に係る視認性を改善することが可能となる。   As described above, according to the first embodiment of the present invention, by performing conversion that improves the visibility of the pixels in the area of the area with poor visibility in the image, It is possible to improve the visibility related to the locally poor visibility region while maintaining the visibility of the entire image.

<第2の実施の形態>
次に、図10を参照しながら、本発明の第2の実施の形態における画像補正方法を実行する影補正装置の構成について説明する。図10には、本発明の第2の実施の形態における画像補正方法を実行する影補正装置の構成の一例が図示されている。なお、図10に図示されている影補正装置20は、図1に図示されている影補正装置20の一構成例を示すものである。
<Second Embodiment>
Next, the configuration of a shadow correction apparatus that executes the image correction method according to the second embodiment of the present invention will be described with reference to FIG. FIG. 10 shows an example of the configuration of a shadow correction apparatus that executes the image correction method according to the second embodiment of the present invention. Note that the shadow correction device 20 illustrated in FIG. 10 is a configuration example of the shadow correction device 20 illustrated in FIG.

図10に図示されている影補正装置20は、影認識結果取得部26、画像取得部27、補正画像出力部28、画像改善部51、影領域画像切り出し部52、影領域画像貼り付け部53を有している。なお、画像改善部51、影領域画像切り出し部52、影領域画像貼り付け部53によって表されている影補正装置20の機能は、ハードウェア及び/又はコンピュータによって実行されるソフトウェアによって実現可能である。   The shadow correction apparatus 20 illustrated in FIG. 10 includes a shadow recognition result acquisition unit 26, an image acquisition unit 27, a corrected image output unit 28, an image improvement unit 51, a shadow region image cutout unit 52, and a shadow region image pasting unit 53. have. Note that the functions of the shadow correction apparatus 20 represented by the image improvement unit 51, the shadow region image cutout unit 52, and the shadow region image pasting unit 53 can be realized by hardware and / or software executed by a computer. .

図10の影認識結果取得部26、画像取得部27、補正画像出力部28は、図2に図示されている影認識結果取得部26、画像取得部27、補正画像出力部28と同一の機能を有している。   The shadow recognition result acquisition unit 26, the image acquisition unit 27, and the corrected image output unit 28 in FIG. 10 have the same functions as the shadow recognition result acquisition unit 26, the image acquisition unit 27, and the corrected image output unit 28 illustrated in FIG. have.

また、画像改善部51は、画像取得部27で取得された撮像画像内に視認性の悪い領域が存在する場合に、その視認性の悪い領域に係る視認性を改善するために、撮像画像全体に対して画像補正処理を行うものである。画像改善部51によって画像全体が補正された撮像画像は、視認性の悪い領域に係る視認性は改善されるものの、視認性の良かった領域に関しては、逆に視認性が低下しているおそれがある。なお、画像改善部51では、例えば、ヒストグラム平滑化処理などの公知の画像補正技術(画像改善技術)を用いて撮像画像全体に対して画像補正を行われる。また、上述の本発明の第1の実施の形態において示唆されている任意の処理によって、撮像画像全体の画像補正処理が行われてもよい。   In addition, when there is a region with poor visibility in the captured image acquired by the image acquisition unit 27, the image improvement unit 51 is configured to improve the visibility related to the region with poor visibility. An image correction process is performed on the image. In the captured image in which the entire image is corrected by the image improving unit 51, the visibility related to the poorly visible area is improved, but the visibility may be adversely decreased for the highly visible area. is there. Note that the image improvement unit 51 performs image correction on the entire captured image using a known image correction technique (image improvement technique) such as a histogram smoothing process, for example. In addition, the image correction process for the entire captured image may be performed by an arbitrary process suggested in the first embodiment of the present invention described above.

また、影領域画像切り出し部52は、影認識結果を参照して撮像画像内における影領域を特定し、画像改善部51で補正された撮像画像から影領域の画像のみを切り出す機能を有している。   Further, the shadow area image cutout unit 52 has a function of identifying a shadow area in the captured image with reference to the shadow recognition result and cutting out only the image of the shadow area from the captured image corrected by the image improvement unit 51. Yes.

また、影領域画像貼り付け部53は、影認識結果を参照して撮像画像内における影領域を特定し、画像取得部27で取得された撮像画像に対して、影領域画像切り出し部52で切り出された影領域の画像を貼り付ける機能を有している。   Also, the shadow area image pasting unit 53 identifies a shadow area in the captured image with reference to the shadow recognition result, and the shadow area image clipping unit 52 extracts the captured image acquired by the image acquisition unit 27. A function of pasting the image of the shadow area.

次に、図11及び図23を参照しながら、本発明の第2の実施の形態における画像補正方法に係る画像補正処理の概要について説明する。図11は、本発明の第2の実施の形態における画像補正方法に係る画像補正処理の概要を示すフローチャートである。なお、図11に図示されている画像補正処理は、図1及び図10に図示されている影補正装置20によって実行される。   Next, an overview of image correction processing according to the image correction method in the second embodiment of the present invention will be described with reference to FIGS. 11 and 23. FIG. 11 is a flowchart showing an overview of image correction processing according to the image correction method of the second embodiment of the present invention. Note that the image correction processing illustrated in FIG. 11 is executed by the shadow correction device 20 illustrated in FIGS. 1 and 10.

図11に図示されている画像補正処理では、撮像画像が取得される(ステップS2501)とともに、影認識結果から影領域の画素の座標が取得される(ステップS2502)。画像改善部51は、影領域の画像に係る視認性が改善されるように、撮像画像全体に対して画像補正処理を行い(ステップS2503)、影領域画像切り出し部52は、ステップS2503で補正された撮像画像(画像全体が補正された撮像画像)から、影領域の画像を切り出す処理を行う。そして、影領域画像貼り付け部53は、ステップS2504で切り出された影領域の画像を、ステップS2501で取得された撮像画像に貼り付ける(ステップS2505)ことによって、影領域のみに係る視認性が改善された補正後の撮像画像が生成される。なお、補正後の撮像画像に関して、影領域と非影領域との間の影境界付近の画素の平均化処理(図9に図示されている影境界付近の画素の平均化処理)が行われてもよい。   In the image correction process illustrated in FIG. 11, a captured image is acquired (step S2501), and the coordinates of the pixels in the shadow area are acquired from the shadow recognition result (step S2502). The image improvement unit 51 performs image correction processing on the entire captured image so that the visibility related to the image of the shadow region is improved (step S2503), and the shadow region image cutout unit 52 is corrected in step S2503. A process of cutting out an image of a shadow area from the captured image (captured image in which the entire image is corrected) is performed. Then, the shadow region image pasting unit 53 pastes the image of the shadow region cut out in step S2504 on the captured image acquired in step S2501 (step S2505), thereby improving the visibility relating to only the shadow region. The corrected captured image is generated. It should be noted that with respect to the corrected captured image, an averaging process for pixels in the vicinity of the shadow boundary between the shadow area and the non-shadow area (an averaging process for the pixels near the shadow boundary illustrated in FIG. 9) is performed. Also good.

また、図23は、本発明の第2の実施の形態における画像補正方法の概要を説明するための概念図である。図11に図示されている画像補正処理によれば、図23に図示されているように、まず、画像改善部51において、撮像画像81から、画像全体が補正された撮像画像82が生成され、影領域画像切り出し部52において、画像全体が補正された撮像画像82から、影領域の画像83のみが切り出される。そして、影領域画像貼り付け部53において、撮像画像81の影領域に、影領域画像切り出し部52で切り出された影領域の画像83が貼り付けられて、影領域のみが補正された補正後の撮像画像84が生成される。   FIG. 23 is a conceptual diagram for explaining the outline of the image correction method according to the second embodiment of the present invention. According to the image correction process illustrated in FIG. 11, first, as illustrated in FIG. 23, in the image improvement unit 51, a captured image 82 in which the entire image is corrected is generated from the captured image 81. In the shadow area image cutout unit 52, only the shadow area image 83 is cut out from the captured image 82 in which the entire image is corrected. Then, the shadow region image pasting unit 53 pastes the shadow region image 83 cut out by the shadow region image cutout unit 52 to the shadow region of the captured image 81 and corrects only the shadow region. A captured image 84 is generated.

以上、説明したように、本発明の第2の実施の形態によれば、上述の本発明の第1の実施の形態と同様に、画像内の視認性の悪い領域に関して、その領域の画素に対して視認性が良くなるような変換を行うことによって、画像全体の視認性を維持したまま、局所的に視認性の悪い領域に係る視認性を改善することが可能となる。   As described above, according to the second embodiment of the present invention, as in the above-described first embodiment of the present invention, regarding a region with poor visibility in an image, the pixels in that region are assigned. On the other hand, by performing conversion that improves the visibility, it is possible to improve the visibility related to the region having poor visibility locally while maintaining the visibility of the entire image.

<第3の実施の形態>
次に、図12を参照しながら、本発明の第3の実施の形態における画像補正方法を実行する影補正装置の構成について説明する。図12には、本発明の第3の実施の形態における画像補正方法を実行する影補正装置の構成の一例が図示されている。なお、図12に図示されている影補正装置20は、図1に図示されている影補正装置20の一構成例を示すものである。
<Third Embodiment>
Next, the configuration of a shadow correction apparatus that executes the image correction method according to the third embodiment of the present invention will be described with reference to FIG. FIG. 12 shows an example of the configuration of a shadow correction apparatus that executes the image correction method according to the third embodiment of the present invention. Note that the shadow correction device 20 illustrated in FIG. 12 is a configuration example of the shadow correction device 20 illustrated in FIG.

図12に図示されている影補正装置20は、影認識結果取得部26、画像取得部27、補正画像出力部28、物体検出・追従部61、物体存在領域特徴量算出部62、物体存在領域特徴量格納部63、影進入判断部64、影補正部65を有している。なお、物体検出・追従部61、物体存在領域特徴量算出部62、影侵入判断部64、影補正部65によって表されている影補正装置20の機能は、ハードウェア及び/又はコンピュータによって実行されるソフトウェアによって実現可能である。   The shadow correction apparatus 20 illustrated in FIG. 12 includes a shadow recognition result acquisition unit 26, an image acquisition unit 27, a corrected image output unit 28, an object detection / follow-up unit 61, an object presence region feature amount calculation unit 62, and an object presence region. A feature amount storage unit 63, a shadow approach determination unit 64, and a shadow correction unit 65 are provided. Note that the functions of the shadow correction device 20 represented by the object detection / follow-up unit 61, the object presence region feature amount calculation unit 62, the shadow intrusion determination unit 64, and the shadow correction unit 65 are executed by hardware and / or a computer. It can be realized by software.

図12の影認識結果取得部26、画像取得部27、補正画像出力部28は、図2に図示されている影認識結果取得部26、画像取得部27、補正画像出力部28と同一の機能を有している。   The shadow recognition result acquisition unit 26, the image acquisition unit 27, and the corrected image output unit 28 in FIG. 12 have the same functions as the shadow recognition result acquisition unit 26, the image acquisition unit 27, and the corrected image output unit 28 illustrated in FIG. have.

また、物体検出・追従部61は、撮像画像内に存在する物体(移動体)を検出するとともに、その物体の移動(あるいは、撮像側の移動によって起こる撮像画像内での物体の移動)を追従する機能を有している。物体検出・追従部61は、適宜、検出された物体を含む物体周辺の画像領域(物体存在領域)の特徴量を算出するよう物体存在領域特徴量算出部62に指示を行う。また、物体検出・追従部61は、常に物体を追従し、その物体の存在領域を影侵入判断部64に供給する。   Further, the object detection / following unit 61 detects an object (moving body) existing in the captured image, and follows the movement of the object (or the movement of the object in the captured image caused by the movement on the imaging side). It has a function to do. The object detection / follow-up unit 61 instructs the object presence region feature amount calculation unit 62 to appropriately calculate the feature amount of the image area (object presence region) around the object including the detected object. Further, the object detection / following unit 61 always follows the object, and supplies the existence area of the object to the shadow intrusion determining unit 64.

また、物体存在領域特徴量算出部62は、物体検出・追従部61から指示を受けると、物体検出・追従部61で検出された物体に係る物体存在領域の特徴量を算出する機能を有している。物体存在領域特徴量算出部62で算出された物体存在領域の特徴量は、本発明の第1の実施の形態における非影領域の特徴量Ymに対応する情報であり、物体存在領域特徴量格納部63に格納される。   In addition, the object presence region feature amount calculation unit 62 has a function of calculating the feature amount of the object presence region related to the object detected by the object detection / following unit 61 when receiving an instruction from the object detection / following unit 61. ing. The feature quantity of the object existence area calculated by the object existence area feature quantity calculation unit 62 is information corresponding to the feature quantity Ym of the non-shadow area in the first embodiment of the present invention, and is stored in the object existence area feature quantity. Stored in the unit 63.

一方、影侵入判断部64は、物体検出・追従部61から供給される物体の存在領域、及び影領域の座標に基づいて、物体が影に侵入したか否かを判断する機能を有している。なお、物体の一部が影に侵入した場合に物体が影に侵入したと判断されてもよく、あるいは、物体が完全に影に侵入した場合に物体が影に侵入したと判断されてもよい。影侵入判断部64は、物体が影に侵入したと判断すると、影補正部65に対して、その物体に係る物体存在領域に基づいて影の補正を行うように指示する。   On the other hand, the shadow intrusion determination unit 64 has a function of determining whether or not an object has entered the shadow based on the presence area of the object supplied from the object detection / tracking unit 61 and the coordinates of the shadow region. Yes. In addition, it may be determined that the object has entered the shadow when a part of the object has entered the shadow, or it may be determined that the object has entered the shadow when the object has completely entered the shadow. . When the shadow intrusion determining unit 64 determines that the object has entered the shadow, the shadow intrusion determining unit 64 instructs the shadow correcting unit 65 to correct the shadow based on the object existing area related to the object.

影補正部65は、影侵入判断部64から影補正の指示を受けると、上述の本発明の第1の実施の形態に係る画像補正方法に基づいて画像補正処理を行い、撮像画像内の影領域に係る視認正を改善する。このとき、上述のように、非影領域の特徴量Ymとして、物体存在領域特徴量格納部63に格納されている物体存在領域の特徴量を使用することで、この物体を確実に視認できるような補正後の撮像画像が生成されるようになる。   When receiving a shadow correction instruction from the shadow intrusion determination unit 64, the shadow correction unit 65 performs image correction processing based on the image correction method according to the first embodiment of the present invention described above, and performs shadow correction in the captured image. Improve visual recognition of the area. At this time, as described above, by using the feature quantity of the object existence area stored in the object existence area feature quantity storage unit 63 as the feature quantity Ym of the non-shadow area, the object can be surely visually recognized. A corrected captured image is generated.

なお、影補正部65は、影侵入判断部64から指示を受けた場合のみ影の補正を行ってもよく、また、影侵入判断部64からの指示がない場合には上述の本発明の第1又は第2の実施の形態における画像処理方法を用いて影の補正を行い、影侵入判断部64から指示を受けた場合に、その物体の視認性の向上に特化した影の補正を行ってもよい。   Note that the shadow correction unit 65 may correct the shadow only when receiving an instruction from the shadow intrusion determining unit 64. If there is no instruction from the shadow intrusion determining unit 64, the shadow correcting unit 65 of the present invention described above. Shadow correction is performed using the image processing method according to the first or second embodiment, and when an instruction is received from the shadow intrusion determination unit 64, shadow correction specialized for improving the visibility of the object is performed. May be.

次に、図13及び図24を参照しながら、本発明の第3の実施の形態における画像補正方法に係る画像補正処理の概要について説明する。図13は、本発明の第3の実施の形態における画像補正方法に係る画像補正処理の概要を示すフローチャートである。なお、図13に図示されている画像補正処理は、図1及び図12に図示されている影補正装置20によって実行される。   Next, an overview of image correction processing according to the image correction method of the third embodiment of the present invention will be described with reference to FIGS. FIG. 13 is a flowchart showing an outline of image correction processing according to the image correction method of the third embodiment of the present invention. Note that the image correction processing illustrated in FIG. 13 is executed by the shadow correction device 20 illustrated in FIGS. 1 and 12.

図13に図示されている画像補正処理では、例えば動画像の入力が行われており、常に撮像画像及び影認識結果が供給されている(図13ではこの処理は不図示)。物体検出・追従部61は、撮像画像内に物体を検出すると(ステップS2601)、物体存在領域特徴量算出部62に物体存在領域の特徴量の算出指示を行う(ステップS2602)とともに、その物体の追従処理を開始する(ステップS2603)。   In the image correction process illustrated in FIG. 13, for example, a moving image is input, and a captured image and a shadow recognition result are always supplied (this process is not illustrated in FIG. 13). When the object detecting / following unit 61 detects an object in the captured image (step S2601), the object detecting / following unit 61 instructs the object existing region feature amount calculating unit 62 to calculate the feature amount of the object existing region (step S2602), and at the same time, Follow-up processing is started (step S2603).

なお、図13に図示されている画像補正処理では、物体の追従を行う前に物体存在領域の特徴量の算出が行われるかのように動作が示されているが、物体の追従を行っている間も適宜、物体存在領域の特徴量の算出及び格納が行われてもよい。本発明の第3の実施の形態では、物体が検出されてからその物体が影に侵入するまでの間に、少なくとも一度は物体存在領域の特徴量の算出が行われ、その算出結果が物体存在領域特徴量格納部63に格納される必要がある。   In the image correction process shown in FIG. 13, the operation is shown as if the feature amount of the object existing area is calculated before the object is tracked. The feature amount of the object presence area may be calculated and stored as appropriate during the period. In the third embodiment of the present invention, the feature amount of the object existence area is calculated at least once after the object is detected until the object enters the shadow, and the calculation result is the object existence. It needs to be stored in the region feature amount storage unit 63.

物体の追従が開始された場合には、影侵入判断部64によって、物体の影への侵入の監視が継続的に行われる(ステップS2604)。そして、物体が影に侵入したことが検出された場合には、物体が非影領域に存在していた際の物体存在領域の特徴量(すなわち、物体存在領域特徴量格納部63に格納されている物体存在領域の特徴量)を非影領域の特徴量Ymとして、本発明の第1の実施の形態における画像補正処理が行われる(ステップS2605)。これにより、物体が良好な視認性を有していた状態における特徴量を基準として、その基準に近づくように影領域の補正を行うことが可能となり、その物体の視認性の向上に特化した影の補正が行われるようになる。   When the tracking of the object is started, the shadow intrusion determination unit 64 continuously monitors the intrusion of the object into the shadow (step S2604). When it is detected that the object has entered the shadow, the feature amount of the object existing region when the object is present in the non-shadow region (that is, stored in the object existing region feature amount storage unit 63) The image correction processing according to the first embodiment of the present invention is performed using the feature amount of the existing object existence region) as the feature amount Ym of the non-shadow region (step S2605). This makes it possible to correct the shadow area so as to approach the reference based on the feature amount in a state where the object has good visibility, and specialized in improving the visibility of the object Shadow correction is performed.

また、図24は、本発明の第3の実施の形態における画像補正方法の概要を説明するための概念図である。図13に図示されている画像補正処理によれば、図24に図示されているように、物体91が影領域93に侵入する前の状態において、物体91を含む物体周辺の領域が物体存在領域92として設定され、その物体存在領域92の特徴量が算出され、格納される。そして、物体の追従を行った結果、物体が影領域93に侵入したと判断されると、格納されている物体存在領域の特徴量を非影領域の特徴量Ymとして、影領域の補正が行われる。   FIG. 24 is a conceptual diagram for explaining the outline of the image correction method according to the third embodiment of the present invention. According to the image correction process illustrated in FIG. 13, as illustrated in FIG. 24, the area around the object including the object 91 is the object existing area before the object 91 enters the shadow area 93. 92, the feature amount of the object presence area 92 is calculated and stored. If it is determined that the object has entered the shadow area 93 as a result of tracking the object, the shadow area is corrected using the feature quantity of the stored object existence area as the feature quantity Ym of the non-shadow area. Is called.

なお、影領域の補正の際、影領域の特徴量Xmとして、影領域の一部又は全体の特徴量が算出されてもよく、あるいは、影領域内に存在する物体91の物体存在領域94内の特徴量が算出されてもよい。影領域内に存在する物体91の物体存在領域94内の特徴量を影領域の特徴量Xmとして使用した場合のほうが、より物体の視認性の向上に特化した画像補正処理が行われるようになる。   When correcting the shadow region, a partial or entire feature amount of the shadow region may be calculated as the feature amount Xm of the shadow region, or within the object existence region 94 of the object 91 existing in the shadow region. The feature amount may be calculated. When the feature amount in the object existence region 94 of the object 91 existing in the shadow region is used as the feature amount Xm of the shadow region, image correction processing specialized for improving the visibility of the object is performed more. Become.

以上、説明したように、本発明の第3の実施の形態によれば、上述の本発明の第1及び第2の実施の形態と同様に、画像内の視認性の悪い領域に関して、その領域の画素に対して視認性が良くなるような変換を行うことによって、画像全体の視認性を維持したまま、局所的に視認性の悪い領域に係る視認性を改善することが可能となる。また、本発明の第3の実施の形態によれば、特に、撮像画像内を移動する物体が視認性の悪い領域に侵入した場合に、その物体の視認性の向上に特化して、視認性の悪い領域に係る視認性を改善することが可能となる。   As described above, according to the third embodiment of the present invention, as in the first and second embodiments of the present invention described above, an area with poor visibility in an image is displayed. By performing conversion that improves the visibility of the pixels, it is possible to improve the visibility related to the region having poor visibility locally while maintaining the visibility of the entire image. Further, according to the third embodiment of the present invention, in particular, when an object moving in the captured image enters an area with poor visibility, the visibility is specialized for improving the visibility of the object. It is possible to improve the visibility related to the poor region.

なお、上述の本発明の第1〜第3の実施の形態では、主に、視認性の悪い領域として、影の写り込みによって局所的に暗い画像領域を一例に挙げて説明したが、影の写り込みだけではなく、例えば、逆に光源が写り込んでおり、光源及びその周囲の画像領域が明る過ぎるために、撮像画像内に視認性の悪い領域が発生する場合も考えられる。本発明は、このような影以外の原因によって発生した視認性の悪い領域を有する画像の補正に対しても適用される。なお、視認性の悪化の原因が影ではなく光源の場合には、上述の本発明の第1〜第3の実施の形態において、影領域を明る過ぎる領域と読み替え、この明る過ぎる領域を、他の領域に合わせるように暗くする動作が行われればよい。   In the above-described first to third embodiments of the present invention, description has been given mainly by taking an example of an image area that is locally dark due to shadow reflection as an area with poor visibility. In addition to the reflection, for example, there may be a case where an area with poor visibility occurs in the captured image because the light source is reflected and the light source and the surrounding image area are too bright. The present invention is also applied to correction of an image having a region with poor visibility caused by a cause other than such a shadow. When the cause of the deterioration in visibility is not a shadow but a light source, in the first to third embodiments of the present invention described above, the shadow area is read as an excessively bright area, It suffices to perform the darkening operation so as to match the area.

また、本明細書では、本発明の第1〜第3の実施の形態に係る技術を独立して説明しているが、本発明の第1〜第3の実施の形態に係る技術を任意に組み合わせて、本発明を実現することも可能である。   In addition, in the present specification, the techniques according to the first to third embodiments of the present invention are described independently. However, the technique according to the first to third embodiments of the present invention is arbitrarily described. In combination, the present invention can be realized.

また、本発明によれば、画像の補正を行う画像補正装置であって、
撮像装置で撮像された前記画像を取得する画像取得手段と、
視認性判断装置によって検出された前記画像内に存在する視認性の悪い領域を、視認性認識結果として取得する視認性認識結果取得手段と、
前記視認性認識結果取得手段で取得された前記視認性認識結果に基づいて、前記画像取得手段で取得された前記画像内における前記視認性の悪い領域を特定し、前記視認性の悪い領域の画像を補正する画像補正手段とを、
有する画像補正装置も提供される。
According to the present invention, there is also provided an image correction apparatus for correcting an image,
Image acquisition means for acquiring the image captured by the imaging device;
Visibility recognition result acquisition means for acquiring, as a visibility recognition result, a region with poor visibility present in the image detected by the visibility determination device;
Based on the visibility recognition result acquired by the visibility recognition result acquisition unit, the poor visibility region in the image acquired by the image acquisition unit is specified, and the image of the poor visibility region Image correction means for correcting
An image correction apparatus is also provided.

また、本発明によれば、本発明の画像補正方法をコンピュータに実行させるためのプログラムも提供される。   The present invention also provides a program for causing a computer to execute the image correction method of the present invention.

本発明は、画像全体の視認性を維持したまま、局所的に視認性の悪い領域に係る視認性を改善することを可能にするという効果を有しており、画像の画質を改善するための画像補正技術や、車両に設置された撮像装置によって撮像された撮像画像を運転者に提供する車両運転支援技術などに適用可能である。   The present invention has the effect of making it possible to improve the visibility of a region having poor visibility locally while maintaining the visibility of the entire image, and to improve the image quality of the image. The present invention can be applied to image correction technology, vehicle driving support technology for providing a driver with a captured image captured by an imaging device installed in a vehicle, and the like.

本発明の第1〜第3の実施の形態における画像補正方法を用いた画像補正システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the image correction system using the image correction method in the 1st-3rd embodiment of this invention. 本発明の第1の実施の形態における画像補正方法を実行する影補正装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the shadow correction apparatus which performs the image correction method in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像補正方法に係る画像補正処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the image correction process which concerns on the image correction method in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像補正方法に係る影領域の特徴量算出処理の詳細な動作の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed operation | movement of the feature-value calculation process of the shadow area which concerns on the image correction method in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像補正方法に係る非影領域の特徴量算出処理の詳細な動作の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed operation | movement of the feature-value calculation process of the non-shadow area | region which concerns on the image correction method in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像補正方法に係る影領域の画質改善処理の詳細な動作の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed operation | movement of the image quality improvement process of the shadow area which concerns on the image correction method in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像補正方法に係る影境界付近を除いた影領域の画質改善処理の詳細な動作の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed operation | movement of the image quality improvement process of the shadow area | region except the shadow boundary vicinity which concerns on the image correction method in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像補正方法に係る影境界付近の影領域の画質改善処理の詳細な動作の一例を示すフローチャートである。It is a flowchart which shows an example of a detailed operation | movement of the image quality improvement process of the shadow area | region near the shadow boundary which concerns on the image correction method in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像補正方法に係る影境界付近の画素の平均化処理の詳細な動作の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed operation | movement of the averaging process of the pixel near the shadow boundary which concerns on the image correction method in the 1st Embodiment of this invention. 本発明の第2の実施の形態における画像補正方法を実行する影補正装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the shadow correction apparatus which performs the image correction method in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における画像補正方法に係る画像補正処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the image correction process which concerns on the image correction method in the 2nd Embodiment of this invention. 本発明の第3の実施の形態における画像補正方法を実行する影補正装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the shadow correction apparatus which performs the image correction method in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における画像補正方法に係る画像補正処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the image correction process which concerns on the image correction method in the 3rd Embodiment of this invention. 図1に図示されている画像補正システムに入力される補正前の撮像画像の一例を示す図The figure which shows an example of the captured image before the correction | amendment input into the image correction system shown in FIG. 図14に図示されている撮像画像内の物体の輪郭を模式的に表す図The figure which represents typically the outline of the object in the captured image shown in FIG. 図1に図示されている画像補正システムから出力される補正後の撮像画像の一例を示す図The figure which shows an example of the captured image after the correction | amendment output from the image correction system shown in FIG. 図16に図示されている撮像画像内の物体の輪郭を模式的に表す図The figure which represents typically the outline of the object in the captured image shown in FIG. 本発明の第1の実施の形態における画像補正方法に係る影領域及び非影領域の一例を示す図である。It is a figure which shows an example of the shadow area | region and non-shadow area | region which concern on the image correction method in the 1st Embodiment of this invention. 本発明に係る補正前の撮像画像の影境界付近の画素を模式的に表した図である。It is the figure which represented typically the pixel of the shadow boundary vicinity of the captured image before correction | amendment which concerns on this invention. 図19の線分A−B上の補正前及び補正後の画素値の値を示すグラフである。It is a graph which shows the value of the pixel value before correction | amendment on the line segment AB of FIG. 19, and after correction | amendment. 本発明の第1の実施の形態における画像補正方法で用いられる式(3)を説明するための座標の定義を示す図である。It is a figure which shows the definition of the coordinate for demonstrating Formula (3) used with the image correction method in the 1st Embodiment of this invention. 図21のy方向に依存して設定されるパラメータ(重み)を説明するためのグラフである。It is a graph for demonstrating the parameter (weight) set depending on the y direction of FIG. 本発明の第2の実施の形態における画像補正方法の概要を説明するための概念図である。It is a conceptual diagram for demonstrating the outline | summary of the image correction method in the 2nd Embodiment of this invention. 本発明の第3の実施の形態における画像補正方法の概要を説明するための概念図である。It is a conceptual diagram for demonstrating the outline | summary of the image correction method in the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

10 カメラ(撮像装置)
11 影認識装置(視認性判断装置)
15 立体物センサ
20 影補正装置(画像補正装置)
21 影領域特徴量算出部
22 非影領域特徴量算出部
23 影領域画質改善部
26 影認識結果取得部
27 画像取得部
28 補正画像出力部
30 表示モニタ
40 撮像画像利用装置
51 画像改善部
52 影領域画像切り出し部
53 影領域画像貼り付け部
61 物体検出・追従部
62 物体存在領域特徴量算出部
63 物体存在領域特徴量格納部
64 影侵入判断部
65 影補正部
81 撮像画像
82 画像全体が補正された撮像画像
83 補正された影領域の画像
84 補正後の撮像画像
91 物体
92、94 物体存在領域
93 影領域
10 Camera (imaging device)
11 Shadow recognition device (visibility judgment device)
15 Solid object sensor 20 Shadow correction device (image correction device)
DESCRIPTION OF SYMBOLS 21 Shadow area feature-value calculation part 22 Non-shadow area | region feature-value calculation part 23 Shadow area image quality improvement part 26 Shadow recognition result acquisition part 27 Image acquisition part 28 Correction | amendment image output part 30 Display monitor 40 Captured image utilization apparatus 51 Image improvement part 52 Shadow Area image cutout section 53 Shadow area image pasting section 61 Object detection / follow-up section 62 Object presence area feature quantity calculation section 63 Object existence area feature quantity storage section 64 Shadow intrusion determination section 65 Shadow correction section 81 Captured image 82 Whole image is corrected Corrected captured image 83 Image of corrected shadow region 84 Corrected captured image 91 Object 92, 94 Object existing region 93 Shadow region

Claims (18)

画像の補正を行うためにコンピュータによって実行される画像補正方法であって、
撮像装置で撮像された前記画像を取得する画像取得ステップと、
視認性判断装置によって検出された前記画像内に存在する視認性の悪い領域を、視認性認識結果として取得する視認性認識結果取得ステップと、
前記視認性認識結果取得ステップで取得された前記視認性認識結果に基づいて、前記画像取得ステップで取得された前記画像内における前記視認性の悪い領域を特定し、前記視認性の悪い領域の画像を補正する画像補正ステップとを、
有する画像補正方法。
An image correction method performed by a computer to perform image correction,
An image acquisition step of acquiring the image captured by the imaging device;
A visibility recognition result acquisition step of acquiring, as a visibility recognition result, a region with poor visibility present in the image detected by the visibility determination device;
Based on the visibility recognition result acquired in the visibility recognition result acquisition step, the poor visibility region in the image acquired in the image acquisition step is specified, and the image of the poor visibility region An image correction step for correcting
An image correction method.
前記画像補正ステップにおいて、前記視認性の悪い領域に属する画素の画素値を新たに算出し、前記視認性の悪い領域に属する画素の画素値を前記算出された画素値に変更する画素値変更ステップを有する請求項1に記載の画像補正方法。   In the image correction step, a pixel value changing step of newly calculating a pixel value of a pixel belonging to the poor visibility region and changing a pixel value of the pixel belonging to the poor visibility region to the calculated pixel value The image correction method according to claim 1. 前記画素値変更ステップにおいて、前記視認性の悪い領域に属する画素の座標位置に基づく前記画素値の変更を行う請求項2に記載の画像補正方法。   The image correction method according to claim 2, wherein, in the pixel value changing step, the pixel value is changed based on a coordinate position of a pixel belonging to the poor visibility region. 前記画素値変更ステップにおいて、前記算出された画素値が所定の閾値を超える場合には、前記視認性の悪い領域に属する画素の画素値を変更前の元の画素値又は前記所定の画素値に設定する請求項2又は3に記載の画像補正方法。   In the pixel value changing step, when the calculated pixel value exceeds a predetermined threshold value, the pixel value of the pixel belonging to the poor visibility region is changed to the original pixel value before the change or the predetermined pixel value. The image correction method according to claim 2 or 3, wherein the image correction method is set. 前記視認性の悪い領域と前記視認性の悪い領域以外の領域との境界において、前記画素値の変化が滑らかになるように補正する画素値補正ステップを有する請求項2から4のいずれか1つに記載の画像補正方法。   5. The pixel value correction step for correcting the pixel value so that a change in the pixel value is smooth at a boundary between the poor visibility region and a region other than the poor visibility region. The image correction method described in 1. 前記視認性の悪い領域の特徴量を算出する第1特徴量算出ステップと、
前記視認性の悪い領域以外の領域の特徴量を算出する第2特徴量算出ステップとを有し、前記画像補正ステップにおいて、前記第1及び第2特徴量算出ステップで算出された前記特徴量に基づいて、前記視認性の悪い領域の画像を補正する請求項1から5のいずれか1つに記載の画像補正方法。
A first feature amount calculating step of calculating a feature amount of the region with poor visibility;
A second feature amount calculating step of calculating a feature amount of a region other than the region with poor visibility, and the feature amount calculated in the first and second feature amount calculating steps in the image correction step. The image correction method according to claim 1, wherein the image in the region with low visibility is corrected based on the image.
前記第1及び第2特徴量算出ステップにおいて、各画素の画素値の統計処理を行い、その統計処理結果を前記特徴量とする請求項6に記載の画像補正方法。   The image correction method according to claim 6, wherein, in the first and second feature amount calculation steps, statistical processing of pixel values of each pixel is performed, and the statistical processing result is used as the feature amount. 前記第1及び第2特徴量算出ステップにおいて、前記統計処理結果として各画素の画素値の平均値を算出する請求項7に記載の画像補正方法。   The image correction method according to claim 7, wherein, in the first and second feature amount calculating steps, an average value of pixel values of each pixel is calculated as the statistical processing result. 前記画像補正ステップにおいて、前記視認性の悪い領域の前記特徴量を前記視認性の悪い領域以外の領域の前記特徴量に合わせるように、前記視認性の悪い領域に属する画素の画素値を算出し、前記視認性の悪い領域に属する画素の画素値を前記算出された画素値に変更する請求項6から8のいずれか1つに記載の画像補正方法。   In the image correction step, pixel values of pixels belonging to the poor visibility region are calculated so that the feature amount of the poor visibility region matches the feature amount of a region other than the poor visibility region. The image correction method according to claim 6, wherein a pixel value of a pixel belonging to the poor visibility region is changed to the calculated pixel value. 前記第1特徴量算出ステップにおいて、前記視認性の悪い領域の前記特徴量を算出する際に、前記画素値が所定の閾値より大きい画素を無視する請求項6から9のいずれか1つに記載の画像補正方法。   10. The method according to claim 6, wherein, in the first feature amount calculation step, when calculating the feature amount of the region with poor visibility, a pixel whose pixel value is larger than a predetermined threshold value is ignored. Image correction method. 前記第2特徴量算出ステップにおいて、前記視認性の悪い領域以外の領域の特徴量を算出する際に、前記画素値が所定の閾値より小さい画素を無視する請求項6から10のいずれか1つに記載の画像補正方法。   11. The method according to claim 6, wherein, in the second feature amount calculating step, when calculating a feature amount of a region other than the region with poor visibility, a pixel whose pixel value is smaller than a predetermined threshold is ignored. The image correction method described in 1. 前記視認性の悪い領域以外の領域として、前記視認性の悪い領域の周辺の領域を設定する請求項1から11のいずれか1つに記載の画像補正方法。   The image correction method according to claim 1, wherein an area around the poor visibility area is set as an area other than the poor visibility area. 時系列に連続して撮像された複数の前記画像内を移動する物体を検出する物体検出ステップと、
前記視認性の悪い領域以外の領域の特徴量として、前記物体検出ステップで検出された前記物体が前記視認性の悪い領域以外の領域に存在する際に、前記物体を含む前記物体周辺の領域の特徴量を算出し、前記算出された前記物体を含む前記物体周辺の領域の特徴量を格納する特徴量格納ステップと、
時系列に連続して撮像された複数の前記画像内における前記物体の移動を追従し、前記物体が前記視認性の悪い領域に侵入したか否かを判断する物体追従ステップとを有し、
前記物体が前記視認性の悪い領域に侵入したと判断された場合には、前記画像補正ステップにおいて、前記特徴量格納ステップで格納された前記物体を含む前記物体周辺の領域の特徴量を前記視認性の悪い領域以外の領域の特徴量に設定して、前記視認性の悪い領域の画像を補正する請求項6から11のいずれか1つに記載の画像補正方法。
An object detection step of detecting an object moving in the plurality of images that are continuously imaged in time series;
When the object detected in the object detection step exists in a region other than the poor visibility region as a feature amount of the region other than the poor visibility region, an area around the object including the object is included. A feature amount storing step of calculating a feature amount and storing a feature amount of a region around the object including the calculated object;
An object follow-up step that follows the movement of the object in the plurality of images continuously imaged in time series and determines whether or not the object has entered the poor-visibility region;
When it is determined that the object has entered the region with poor visibility, in the image correction step, the feature amount of the region around the object including the object stored in the feature amount storage step is visually recognized. The image correction method according to any one of claims 6 to 11, wherein the image in the poor visibility region is corrected by setting the feature amount in a region other than the poor property region.
前記画像補正ステップが、
前記視認性の悪い領域の画像の視認性を向上させるように、前記画像取得ステップで取得された前記画像全体を補正する画像全体補正ステップと、
前記画像全体補正ステップで前記画像全体が補正された画像から、前記視認性の悪い領域の画像を切り出す画像切り出しステップと、
前記画像取得ステップで取得された前記画像の前記視認性の悪い領域に、前記画像切り出しステップで切り出された前記視認性の悪い領域の画像を貼り付ける画像貼り付けステップとを、
有する請求項1に記載の画像補正方法。
The image correction step includes
An overall image correction step for correcting the entire image acquired in the image acquisition step so as to improve the visibility of the image in the poor visibility region;
An image cutout step of cutting out an image of the region with poor visibility from the image in which the entire image is corrected in the whole image correction step;
An image pasting step of pasting the image of the poor visibility region cut out in the image clipping step on the poor visibility region of the image obtained in the image obtaining step;
The image correction method according to claim 1.
前記撮像装置が、移動体と共に移動するように前記移動体に設置されている請求項1から14のいずれか1つに記載の画像補正方法。   The image correction method according to claim 1, wherein the imaging device is installed on the moving body so as to move with the moving body. 前記画像補正ステップで補正された補正後の撮像画像を、前記移動体に設置された表示装置に表示する画像表示ステップを有する請求項15に記載の画像補正方法。   The image correction method according to claim 15, further comprising an image display step of displaying the corrected captured image corrected in the image correction step on a display device installed in the moving body. 前記移動体に、前記撮像装置で撮像される撮像方向を含む周辺領域に存在する立体物を検出するための立体物検出手段が搭載されており、前記立体物検出手段によって検出された前記立体物が前記画像内の前記視認性の悪い領域に存在する場合に、前記画像補正ステップにおいて、前記立体物が存在する前記視認性の悪い領域の画像の補正が行われる請求項15又は16に記載の画像補正方法。   The three-dimensional object detection means for detecting a three-dimensional object existing in a peripheral region including the imaging direction imaged by the imaging device is mounted on the moving body, and the three-dimensional object detected by the three-dimensional object detection means The image of the said poor visibility area | region where the said solid object exists is corrected in the said image correction step, when image | video exists in the said poor visibility area | region in the said image. Image correction method. ユーザが、前記立体物が前記画像内の前記視認性の悪い領域に存在する場合に、前記立体物が存在する前記視認性の悪い領域の画像の補正を行う動作モードと、すべての前記視認性の悪い領域の画像の補正を行う動作モードとを切り替えることができる請求項17に記載の画像補正方法。
An operation mode in which the user corrects an image of the poorly visible area where the solid object exists when the solid object exists in the poorly visible area in the image, and all the visibility The image correction method according to claim 17, wherein an operation mode for correcting an image in a poor region can be switched.
JP2006096045A 2006-03-30 2006-03-30 Image correction method Expired - Fee Related JP4632992B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006096045A JP4632992B2 (en) 2006-03-30 2006-03-30 Image correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006096045A JP4632992B2 (en) 2006-03-30 2006-03-30 Image correction method

Publications (2)

Publication Number Publication Date
JP2007272477A true JP2007272477A (en) 2007-10-18
JP4632992B2 JP4632992B2 (en) 2011-02-16

Family

ID=38675230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006096045A Expired - Fee Related JP4632992B2 (en) 2006-03-30 2006-03-30 Image correction method

Country Status (1)

Country Link
JP (1) JP4632992B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866938B2 (en) 2013-03-06 2014-10-21 International Business Machines Corporation Frame to frame persistent shadow reduction within an image
JP2021093601A (en) * 2019-12-09 2021-06-17 株式会社島津製作所 Image display system for moving body

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01281600A (en) * 1988-05-09 1989-11-13 Nippon Denso Co Ltd Traveling vehicle recognizing device
JPH06253147A (en) * 1992-12-28 1994-09-09 Minolta Camera Co Ltd Film picture reproduction device
JP2003076987A (en) * 2001-08-31 2003-03-14 Nissan Motor Co Ltd Preceding vehicle recognizing device
JP2003256829A (en) * 2002-02-28 2003-09-12 Oki Data Corp Image processing method and device
JP2004021374A (en) * 2002-06-13 2004-01-22 Fuji Xerox Co Ltd Image processing method, image processing device, program, and storage medium
JP2005215771A (en) * 2004-01-27 2005-08-11 Nissan Motor Co Ltd Steering support device and steering support program
JP2006048225A (en) * 2004-08-02 2006-02-16 Ricoh Co Ltd Image processor
WO2006025486A1 (en) * 2004-09-01 2006-03-09 Nec Corporation Image correction system and image correction method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01281600A (en) * 1988-05-09 1989-11-13 Nippon Denso Co Ltd Traveling vehicle recognizing device
JPH06253147A (en) * 1992-12-28 1994-09-09 Minolta Camera Co Ltd Film picture reproduction device
JP2003076987A (en) * 2001-08-31 2003-03-14 Nissan Motor Co Ltd Preceding vehicle recognizing device
JP2003256829A (en) * 2002-02-28 2003-09-12 Oki Data Corp Image processing method and device
JP2004021374A (en) * 2002-06-13 2004-01-22 Fuji Xerox Co Ltd Image processing method, image processing device, program, and storage medium
JP2005215771A (en) * 2004-01-27 2005-08-11 Nissan Motor Co Ltd Steering support device and steering support program
JP2006048225A (en) * 2004-08-02 2006-02-16 Ricoh Co Ltd Image processor
WO2006025486A1 (en) * 2004-09-01 2006-03-09 Nec Corporation Image correction system and image correction method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866938B2 (en) 2013-03-06 2014-10-21 International Business Machines Corporation Frame to frame persistent shadow reduction within an image
US8872947B2 (en) 2013-03-06 2014-10-28 International Business Machines Corporation Frame to frame persistent shadow reduction within an image
JP2021093601A (en) * 2019-12-09 2021-06-17 株式会社島津製作所 Image display system for moving body
JP7367930B2 (en) 2019-12-09 2023-10-24 株式会社島津製作所 Image display system for mobile objects

Also Published As

Publication number Publication date
JP4632992B2 (en) 2011-02-16

Similar Documents

Publication Publication Date Title
JP6269838B2 (en) Self-position calculation device and self-position calculation method
US8027534B2 (en) Image processing apparatus, image processing method, and program
EP2471691B1 (en) Obstacle detection device, obstacle detection system provided therewith, and obstacle detection method
JP5435307B2 (en) In-vehicle camera device
JP4389999B2 (en) Exposure control device and exposure control program
EP2629506A1 (en) Two-step brightness adjustment in around-view systems
KR101455018B1 (en) Image capturing apparatus, image capturing method, and computer-readable recording medium
JP2007257449A (en) Road division line detector
US20060188130A1 (en) Apparatus and method for normalizing face image used for detecting drowsy driving
JP2013005234A5 (en)
US20120121129A1 (en) Image processing apparatus
US10091422B2 (en) Image processing device and recording medium
EP3293697A1 (en) Image processing device, imaging device, image processing method, and storage medium storing image processing program for image processing device
US20170347008A1 (en) Method for adapting a brightness of a high-contrast image and camera system
JP6351377B2 (en) Image processing system, imaging apparatus, and recording apparatus
JP4632992B2 (en) Image correction method
EP2843937B1 (en) Method for adapting a gamma curve of a camera system of a motor vehicle, camera system and motor vehicle
US11094037B2 (en) Semiconductor device, image processing system, image processing method and computer readable storage medium
JP2007195045A (en) On-vehicle display device and program
JP6459745B2 (en) Self-position calculation device and self-position calculation method
JP7355252B2 (en) Image display device and image display method
US20230326177A1 (en) Image processing apparatus
EP4102826A1 (en) Apparatus and method for controlling an image sensor, storage medium, and movable object
US11367168B2 (en) Image processing apparatus and method
JP2023178691A (en) Image processing device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101116

R150 Certificate of patent or registration of utility model

Ref document number: 4632992

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees