JP2011209896A - Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program - Google Patents

Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program Download PDF

Info

Publication number
JP2011209896A
JP2011209896A JP2010075630A JP2010075630A JP2011209896A JP 2011209896 A JP2011209896 A JP 2011209896A JP 2010075630 A JP2010075630 A JP 2010075630A JP 2010075630 A JP2010075630 A JP 2010075630A JP 2011209896 A JP2011209896 A JP 2011209896A
Authority
JP
Japan
Prior art keywords
edge
obstacle
light source
pixels
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010075630A
Other languages
Japanese (ja)
Inventor
Katsuhiko Takahashi
勝彦 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010075630A priority Critical patent/JP2011209896A/en
Publication of JP2011209896A publication Critical patent/JP2011209896A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an obstacle detecting apparatus, wherein shadows of various peripheral objects that exist on road surface are prevented from being determined to be real obstacles, thereby properly detecting existence of obstacles, when detecting obstacles from images captured by onboard camera installed on a moving object moving on a road.SOLUTION: The obstacle detecting apparatus includes: an imager which is installed on a moving object moving on the road and used for photographing its periphery; an obstacle candidate region extractor which extracts partial regions that may correspond to obstacles from photographed images as obstacle candidate regions; an imaging direction extractor which outputs a direction of an optical axis of the imager; a light source direction extractor which outputs a direction to the location of the light source; a light source direction edge extractor which extracts edge pixels directed to the same direction as a direction to the location of the light source from the obstacle candidate region, assuming that pixels in the obstacle candidate region correspond to points on the road plane in real world; and an obstacle determination unit which determines an obstacle candidate region to be an obstacle region if a ratio of the number of edge pixels extracted by the light source direction edge extractor to the total number of edge pixels is not more than a predetermined value.

Description

この発明は、路面上を移動する移動体に設置された1台のカメラを用いて路面上に存在する障害物を検知する障害物検知装置、障害物検知方法並びに障害物検知プログラムに関し、特に、路面上にできた物体の影と障害物とを高精度に判別可能な障害物検知装置、障害物検知方法及び障害物検知プログラムに関する。   The present invention relates to an obstacle detection device, an obstacle detection method, and an obstacle detection program for detecting an obstacle present on a road surface using a single camera installed on a moving body moving on a road surface. The present invention relates to an obstacle detection device, an obstacle detection method, and an obstacle detection program capable of accurately discriminating shadows and obstacles of an object formed on a road surface.

移動体に設置された1台のカメラにより周辺に存在する障害物を検知する障害物検知装置において、路面上にできた物体の影と障害物とを区別することは重要な問題であり、この問題の解消に適用可能と考えられる関連技術として特許文献1から特許文献3等が存在する。   In an obstacle detection device that detects obstacles that exist in the vicinity by a single camera installed on a moving body, it is an important issue to distinguish between the shadow of an object on the road surface and the obstacle. There are Patent Documents 1 to 3 and the like as related techniques that can be applied to solve the problem.

特許文献1には、カラー情報を用いて影領域を抽出し、影領域と日向領域との境界付近の画素のカラー情報に基づいて同一物体に属する影領域と非影領域とを統合する車両周辺画像提供装置が開示されている。   In Patent Document 1, a shadow area is extracted using color information, and a vehicle periphery that integrates a shadow area and a non-shadow area belonging to the same object based on color information of pixels near the boundary between the shadow area and the sunny area An image providing apparatus is disclosed.

特許文献1記載の関連技術は、路面の表面色が単色、すなわち路面の反射率が一定の場合には有効であるが、路面がさまざまな色の領域から構成されている場合には、画素のカラー情報の大小が、光源光の多少によるものであるのか(すなわち影領域か日向領域か)、路面の反射率の変化によるものなのかを区別するのが困難となるため、適用可能な状況には限界がある。また、太陽光が当たる屋外では、大気中での短波長光の散乱や路面周辺物体による光の反射などにより、影領域と日向領域とでは入射する光の分光分布が異なるため、そうした状況を考慮していない本特許文献の方法では路面上にできた影と障害物とを区別がさらに困難になる。   The related art described in Patent Document 1 is effective when the surface color of the road surface is a single color, that is, when the reflectance of the road surface is constant, but when the road surface is composed of regions of various colors, Since it becomes difficult to distinguish whether the color information is due to the amount of light source (ie, shadow area or sunny area) or due to changes in road surface reflectance, There are limits. In addition, in outdoor sunlight, the spectral distribution of incident light differs between the shadow area and the sunny area due to the scattering of short-wavelength light in the atmosphere and the reflection of light from objects around the road surface. In the method of this patent document that has not been made, it becomes more difficult to distinguish between a shadow formed on the road surface and an obstacle.

これに対し、特許文献1とは異なる原理を用いて影領域を判定する手法として、特許文献2、3に記載される関連技術が存在する。   On the other hand, related techniques described in Patent Documents 2 and 3 exist as methods for determining a shadow region using a principle different from that of Patent Document 1.

特許文献2には、太陽の現在位置と、自車両の位置および形状情報に基づいて、車載カメラ画像に含まれる自車両の影領域を特定し、影を補正した画像を表示する車両周辺画像提供装置が開示されている。また、特許文献3には、さらに周辺車両の形状情報も利用して自車両および他車両によって生じる影領域を推定しつつ図形認識を行う図形認識装置が開示されている。   Patent Document 2 provides a vehicle peripheral image that specifies a shadow region of the host vehicle included in the in-vehicle camera image based on the current position of the sun and the position and shape information of the host vehicle, and displays an image in which the shadow is corrected. An apparatus is disclosed. Further, Patent Document 3 discloses a graphic recognition device that performs graphic recognition while estimating shadow areas caused by the host vehicle and other vehicles using shape information of surrounding vehicles.

これら特許文献に記載の手法は、いずれも太陽の現在位置と自車両もしくは他車両の形状情報とに基づいて車両によって発生する影領域の形状を正確に予測するという原理に基づいている。   All of the methods described in these patent documents are based on the principle of accurately predicting the shape of the shadow region generated by the vehicle based on the current position of the sun and the shape information of the own vehicle or other vehicle.

特開2007−272292号公報(図1)JP 2007-272292 A (FIG. 1) 特開2007−300559号公報(図3)JP 2007-300559 A (FIG. 3) 特願2007−554840号公報(図1)Japanese Patent Application No. 2007-554840 (FIG. 1)

しかしながら、特許文献2、3に開示される関連技術を障害物検知装置に利用しようとする場合、以下のような課題が生じる。   However, when the related techniques disclosed in Patent Documents 2 and 3 are used for the obstacle detection device, the following problems occur.

まず、これらの関連技術においては、車両以外の物体によって生じる影領域を障害物と区別することができない。なぜならば、これらの関連技術では3Dモデル表現された車両の形状情報を利用して、影の出現する位置を推定するため、3Dモデル化されていない車両以外の物体による影領域を予測することはできないためである。仮に、上記関連技術を車両以外のものにも拡張して適用する場合には、周辺の建物や道路構造物等すべてのものを3Dモデル化せねばならず、3Dモデルの構築のために膨大な処理と費用が発生するという課題がある。   First, in these related techniques, a shadow region caused by an object other than a vehicle cannot be distinguished from an obstacle. This is because, since these related technologies use the vehicle shape information expressed in the 3D model to estimate the position where the shadow appears, it is not possible to predict the shadow region due to an object other than the vehicle that has not been 3D modeled. This is because it cannot be done. If the related technology is applied to other than the vehicle, all the surrounding buildings, road structures, etc. must be modeled in 3D. There is a problem that processing and cost occur.

加えて、さらに本質的な課題として、街路樹や歩行者のように時々刻々、形状や位置が変化する物体に対してはこれらの関連技術を適用することが極めて困難である。なぜならば、これらの技術を用いて影領域を正確に予測するためには、物体の形状や位置が正確に把握できていることが前提となるからである。   In addition, as a more essential problem, it is extremely difficult to apply these related techniques to objects such as roadside trees and pedestrians whose shape and position change every moment. This is because, in order to accurately predict a shadow area using these techniques, it is assumed that the shape and position of an object can be accurately grasped.

(発明の目的)
本発明の目的は、上記課題を解決するため、周辺物体の3Dモデル化を行うことなく、移動体に搭載したカメラ画像から、路面上にできたさまざまな周辺物体の影と障害物とを区別して障害物を高精度に検知することを可能とする障害物検知装置、障害物検知方法及び障害物検知プログラムを提供することにある。
(Object of invention)
In order to solve the above-described problem, the object of the present invention is to distinguish the shadows and obstacles of various peripheral objects formed on the road surface from the camera image mounted on the moving body without performing 3D modeling of the peripheral objects. Another object is to provide an obstacle detection device, an obstacle detection method, and an obstacle detection program that can detect an obstacle with high accuracy.

本発明の第1の障害物検知装置は、路面上を移動する移動体に搭載され周辺を撮影する撮像手段と、撮影画像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出手段と、前記撮像手段の光軸の方位を出力する撮像方位抽出手段と、光源の存在する方位を出力する光源方位抽出手段と、前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出手段と、前記光源方向エッジ抽出手段が抽出したエッジ画素数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定手段とを含む。   The first obstacle detection apparatus according to the present invention includes an imaging unit mounted on a moving body that moves on a road surface, and a partial area that may correspond to an obstacle in the captured image. Obstacle candidate area extracting means for extracting as, imaging orientation extracting means for outputting the orientation of the optical axis of the imaging means, light source orientation extracting means for outputting the orientation in which the light source exists, and pixels in the obstacle candidate area Is assumed to correspond to a point on the road surface in the real world, and a light source direction edge extracting means for extracting edge pixels facing the direction equal to the direction in which the light source exists from the obstacle candidate region, and the light source Obstacle determining means for determining that the obstacle candidate area is an obstacle area when the ratio of the number of edge pixels extracted by the direction edge extracting means to the total number of edge pixels is equal to or less than a predetermined value.

本発明の第2の障害物検知装置は、路面上を移動する移動体に搭載され複数波長を含む周辺のカラー映像を撮影する撮像手段と、カラー映像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出手段と、前記撮像手段の光軸の方位を出力する撮像方位抽出手段と、光源の存在する方位を出力する光源方位抽出手段と、前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出手段と、複数波長に対する、太陽光の直達光および大気による散乱光の強度を取得して記憶する光源分光特性取得手段と、前記光源方向エッジ抽出手段が抽出するエッジ画素のうち、エッジ画素の両側の領域から抽出した2つの画素のカラー映像に含まれる波長の光の強度比と、前記直射光および散乱光の強度により定義される日向および日陰における光の強度比との差が一定値以下のエッジ画素の数を求め、当該エッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定手段とを含む。   The second obstacle detection device of the present invention is mounted on a moving body that moves on the road surface, and there is an image pickup unit that captures a surrounding color image including a plurality of wavelengths, and may correspond to an obstacle from the color image. Obstacle candidate area extraction means for extracting a partial area as an obstacle candidate area, imaging orientation extraction means for outputting the orientation of the optical axis of the imaging means, light source orientation extraction means for outputting an orientation in which a light source exists, Assuming that the pixels in the obstacle candidate area correspond to points on the road surface in the real world, the light source direction for extracting edge pixels facing the same direction as the direction in which the light source exists from the obstacle candidate area An edge extraction unit, a light source spectral characteristic acquisition unit that acquires and stores the intensity of direct sunlight and scattered light from the atmosphere for a plurality of wavelengths, and an edge pixel extracted by the light source direction edge extraction unit The difference between the intensity ratio of the light of the wavelength included in the color image of the two pixels extracted from the regions on both sides of the edge pixel and the intensity ratio of the light in the sun and shade defined by the intensity of the direct light and scattered light is Obstacle determining means for obtaining the number of edge pixels below a certain value and determining the obstacle candidate area as an obstacle area when the ratio of the number of edge pixels to the total number of edge pixels is equal to or less than a predetermined value Including.

本発明の第1の障害物検知方法は、路面上を移動する移動体に搭載した撮像手段で撮影した周辺の撮影画像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出ステップと、前記撮像手段の光軸の方位を出力する撮像方位抽出ステップと、光源の存在する方位を出力する光源方位抽出ステップと、前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出ステップと、前記光源方向エッジ抽出ステップで抽出したエッジ画素数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定ステップとを有する。   In the first obstacle detection method of the present invention, a partial area that may correspond to an obstacle from surrounding captured images taken by an imaging unit mounted on a moving body that moves on a road surface is set as an obstacle candidate area. An obstacle candidate region extracting step to extract, an imaging orientation extracting step for outputting the orientation of the optical axis of the imaging means, a light source orientation extracting step for outputting an orientation in which a light source exists, and pixels in the obstacle candidate region are A light source direction edge extraction step that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate region, assuming that it corresponds to a point on the road surface in the real world, and the light source direction An obstacle determination step for determining the obstacle candidate area as an obstacle area when the ratio of the number of edge pixels extracted in the edge extraction step to the total number of edge pixels is equal to or less than a predetermined value. With the door.

本発明の第2の障害物検知方法は、路面上を移動する移動体に搭載した撮像手段で撮影した複数波長を含む周辺のカラー映像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出ステップと、前記撮像手段の光軸の方位を出力する撮像方位抽出ステップと、光源の存在する方位を出力する光源方位抽出ステップと、前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出ステップと、複数波長に対する、太陽光の直達光および大気による散乱光の強度を取得して記憶する光源分光特性取得ステップと、前記光源方向エッジ抽出ステップで抽出したエッジ画素のうち、エッジ画素の両側の領域から抽出した2つの画素のカラー映像に含まれる波長の光の強度比と、前記直射光および散乱光の強度により定義される日向および日陰における光の強度比との差が一定値以下のエッジ画素の数を求め、当該エッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定ステップとを有する。   According to the second obstacle detection method of the present invention, a partial area that may correspond to an obstacle is detected from surrounding color images including a plurality of wavelengths captured by an imaging unit mounted on a moving body moving on a road surface. An obstacle candidate area extracting step for extracting as an object candidate area; an imaging azimuth extracting step for outputting the azimuth of the optical axis of the imaging means; a light source azimuth extracting step for outputting an azimuth in which a light source exists; and the obstacle candidate area A light source direction edge extraction step for extracting edge pixels facing in the same direction as the direction in which the light source exists from the obstacle candidate region, assuming that the pixels in the road correspond to points on the road surface in the real world; The light source spectral characteristic acquisition step for acquiring and storing the intensity of the direct light of sunlight and the scattered light from the atmosphere for a plurality of wavelengths, and the edge extracted in the light source direction edge extraction step Among the elements, the intensity ratio of light of a wavelength included in the color image of two pixels extracted from the regions on both sides of the edge pixel and the intensity ratio of light in the sun and shade defined by the intensity of the direct light and scattered light The number of edge pixels whose difference from the predetermined value is less than a certain value is determined, and the obstacle candidate area is determined as an obstacle area when the ratio of the number of edge pixels to the total number of edge pixels is equal to or less than a predetermined value. An obstacle determination step.

本発明の第1の障害物検知プログラムは、路面上を移動する移動体に搭載した撮像手段で撮影した周辺の撮影画像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出処理と、前記撮像手段の光軸の方位を出力する撮像方位抽出処理と、光源の存在する方位を出力する光源方位抽出処理と、前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出処理と、前記光源方向エッジ抽出処理で抽出したエッジ画素数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定処理と、をコンピュータに実行させる。   The first obstacle detection program of the present invention uses, as an obstacle candidate area, a partial area that may correspond to an obstacle from surrounding captured images taken by an imaging unit mounted on a moving body that moves on a road surface. Obstacle candidate region extraction processing to extract, imaging orientation extraction processing to output the orientation of the optical axis of the imaging means, light source orientation extraction processing to output the orientation in which the light source exists, and pixels in the obstacle candidate region Assuming that it corresponds to a point on the road surface in the real world, a light source direction edge extraction process for extracting edge pixels facing the same direction as the direction in which the light source exists from the obstacle candidate region, and the light source direction An obstacle determination process for determining the obstacle candidate area as an obstacle area when the ratio of the number of edge pixels extracted in the edge extraction process to a predetermined value or less is equal to or less than a predetermined value; To be executed in.

本発明の第2の障害物検知プログラムは、路面上を移動する移動体に搭載した撮像手段で撮影した複数波長を含む周辺のカラー映像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出処理と、前記撮像手段の光軸の方位を出力する撮像方位抽出処理と、光源の存在する方位を出力する光源方位抽出処理と、前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出処理と、複数波長に対する、太陽光の直達光および大気による散乱光の強度を取得して記憶する光源分光特性取得処理と、前記光源方向エッジ抽出処理で抽出したエッジ画素のうち、エッジ画素の両側の領域から抽出した2つの画素のカラー映像に含まれる波長の光の強度比と、前記直射光および散乱光の強度により定義される日向および日陰における光の強度比との差が一定値以下のエッジ画素の数を求め、当該エッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定ステップと、をコンピュータに実行させる。   According to the second obstacle detection program of the present invention, a partial area that may correspond to an obstacle in a surrounding color image including a plurality of wavelengths captured by an imaging unit mounted on a moving body moving on a road surface is obstructed. Obstacle candidate region extraction processing to extract as an object candidate region, imaging orientation extraction processing to output the orientation of the optical axis of the imaging means, light source orientation extraction processing to output the orientation in which a light source exists, and the obstacle candidate region Assuming that the pixels inside correspond to points on the road surface plane in the real world, light source direction edge extraction processing for extracting edge pixels facing in the same direction as the direction in which the light source exists from the obstacle candidate area; Among the edge pixels extracted by the light source spectral characteristic acquisition process for acquiring and storing the intensity of the direct light of sunlight and the scattered light from the atmosphere for a plurality of wavelengths, and the edge pixel extracted by the light source direction edge extraction process, an edge The difference between the light intensity ratio of the wavelengths included in the color image of the two pixels extracted from the regions on both sides of the element and the light intensity ratio in the sun and shade defined by the intensity of the direct light and scattered light is constant. An obstacle determination step of determining the number of edge pixels equal to or less than a value and determining the obstacle candidate area as an obstacle area when a ratio of the number of edge pixels to the total number of edge pixels is equal to or less than a predetermined value; , Execute on the computer.

本発明によれば、周辺の建物や道路構造物などの3Dモデル化を行うことなく、移動体に搭載した1台のカメラ画像から障害物をさまざまな物体による路面上にできた影と区別しつつ高精度に検知することができる。   According to the present invention, it is possible to distinguish an obstacle from a shadow formed on a road surface by various objects from one camera image mounted on a moving body without performing 3D modeling of surrounding buildings and road structures. However, it can be detected with high accuracy.

本発明の第1の実施の形態による障害物検知装置の構成を示すブロック図である。It is a block diagram which shows the structure of the obstruction detection apparatus by the 1st Embodiment of this invention. 画像上のエッジ点を道路平面上の点に対応付ける方法を説明するための図である。It is a figure for demonstrating the method of matching the edge point on an image with the point on a road plane. 画像上のエッジ点に対する道路平面上でのエッジの方向の求め方を説明するための図である。It is a figure for demonstrating how to obtain | require the direction of the edge on the road plane with respect to the edge point on an image. 光源の位置から見た、典型的な物体のシルエットの形状を示す図である。It is a figure which shows the shape of the silhouette of the typical object seen from the position of the light source. 図4のシルエットを持つ物体に対して、路面平面上にできる影の形状の一例を示す図である。FIG. 5 is a diagram illustrating an example of a shape of a shadow formed on a road surface plane with respect to an object having the silhouette of FIG. 4. 本発明の第1の実施の形態による障害物検知装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the obstruction detection apparatus by the 1st Embodiment of this invention. 本発明の第1の実施の形態のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the 1st Embodiment of this invention. 本発明の第2のの実施の形態による障害物検知装置の構成を示すブロック図である。It is a block diagram which shows the structure of the obstruction detection apparatus by the 2nd Embodiment of this invention. カラー情報を参照する画素の設定方法を説明するための図である。It is a figure for demonstrating the setting method of the pixel which refers color information. 本発明の第2の実施の形態による障害物検知装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the obstruction detection apparatus by the 2nd Embodiment of this invention. 本発明の第2の実施の形態における障害物判定モジュールの処理内容を説明するフローチャートである。It is a flowchart explaining the processing content of the obstacle determination module in the 2nd Embodiment of this invention. 路面上の影の局所的なエッジ方向の例を示す図である。It is a figure which shows the example of the local edge direction of the shadow on a road surface.

本発明の実施の形態について図面を参照して詳細に説明する。   Embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1を参照すると、第1の実施の形態による障害物検知装置は、移動体に搭載した撮像モジュール101と、撮像モジュール101が出力する画像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出モジュール102と、撮像モジュール101が撮像している方位を出力する撮像方位抽出モジュール103と、光源の方位を抽出する光源方位抽出モジュール104と、障害物候補領域中から光源の存在する方位を向いたエッジ方向を持つエッジ画素を抽出する光源方向エッジ抽出モジュール105と、光源方向を向いたエッジ数の割合に基づいて障害物候補領域を障害物領域か否か判断する障害物判定モジュール106を含んでいる。
(First embodiment)
Referring to FIG. 1, the obstacle detection device according to the first embodiment includes an imaging module 101 mounted on a moving body, and a partial area that may correspond to an obstacle in an image output by the imaging module 101. An obstacle candidate region extraction module 102 that extracts as an obstacle candidate region, an imaging orientation extraction module 103 that outputs the orientation imaged by the imaging module 101, a light source orientation extraction module 104 that extracts a light source orientation, and an obstacle A light source direction edge extraction module 105 that extracts edge pixels having an edge direction facing the direction in which the light source exists from the candidate region, and whether the obstacle candidate region is an obstacle region based on the ratio of the number of edges facing the light source direction An obstacle determination module 106 for determining whether or not is included is included.

この実施の形態で想定する移動体は、車両やロボットなどの路面上を移動する物体である。   The moving body assumed in this embodiment is an object that moves on a road surface such as a vehicle or a robot.

撮像モジュール101は、路面上を移動する移動体に搭載された1台のカメラにより構成される。この撮像モジュール101は、例えば、移動体の後方に後ろ向きに設置され、後方の路面を含む視野範囲を撮像する。撮像された画像は、移動体が後ろ方向に後退する場合に、後方の障害物を検出するのに利用される。移動体前方の障害物を検知する場合には、移動体の前方部分に前向き方向を撮影するように撮像モジュールを設置することは言うまでもない。撮像モジュール101で撮影した画像は、障害物候補領域抽出モジュール102へ出力する。   The imaging module 101 is composed of one camera mounted on a moving body that moves on the road surface. The imaging module 101 is installed, for example, rearward behind the moving body, and images the visual field range including the rear road surface. The captured image is used to detect an obstacle behind when the moving body moves backward. Needless to say, in the case of detecting an obstacle in front of the moving body, an imaging module is installed so as to photograph the forward direction in the front portion of the moving body. The image captured by the imaging module 101 is output to the obstacle candidate area extraction module 102.

障害物候補領域抽出モジュール102は、撮像モジュール101から入力された画像から、障害物に対応する可能性のある部分領域である障害物候補領域の位置情報を抽出する。部分領域は1つだけでもよいし、複数でもよい。   The obstacle candidate area extraction module 102 extracts position information of an obstacle candidate area that is a partial area that may correspond to the obstacle from the image input from the imaging module 101. There may be only one partial area or a plurality of partial areas.

また、部分領域の形状は、矩形や円形、あるいは不定形であっても構わない。矩形の場合は、例えば、位置情報として矩形の左上角および右下角の座標値を位置情報とする。円形の場合は、円の中心座標とその半径を位置情報とする。不定形の場合は、例えば、部分領域の境界の画素の座標値をリスト形式で表現してもよいし、さらにはチェインコードを利用してもよい。   Further, the shape of the partial area may be rectangular, circular, or indefinite. In the case of a rectangle, for example, coordinate values of an upper left corner and a lower right corner of the rectangle are used as position information. In the case of a circle, the center information of the circle and its radius are used as position information. In the case of the indefinite form, for example, the coordinate values of the pixels at the boundary of the partial area may be expressed in a list form, or a chain code may be used.

障害物の可能性のある部分領域を抽出する具体的な方法としては、隣接する画素間において画素値の相違が大きい画素(以下、エッジ画素とよぶ)をソーベルフィルタやロバーツフィルタなどの微分フィルタにより求めて、それらが多く存在する小領域を抽出する方法を用いることができる。また、統計的学習手法により障害物と路面とを識別するように学習された識別器を画像のさまざまな小領域に適用して、識別器の出力から障害物の可能性が高い小領域を抽出する方法を用いることが可能である。   As a specific method of extracting a partial area that may be an obstacle, a pixel having a large difference in pixel value between adjacent pixels (hereinafter referred to as an edge pixel) is differentiated by a differential filter such as a Sobel filter or a Roberts filter. Thus, it is possible to use a method of extracting a small region in which many of them exist. In addition, classifiers that have been learned to discriminate obstacles from road surfaces using statistical learning techniques are applied to various small areas of the image to extract small areas that are likely to be obstacles from the output of the classifier. It is possible to use the method to do.

また別の方法としては、撮像モジュール101から時々刻々入力される映像に単眼立体視技術(Structure from Motion)を適用して、実世界において路面平面よりも上の位置に対応すると推定された点を多く含む小領域を抽出する方が考えられる。   As another method, a point that is estimated to correspond to a position above the road plane in the real world by applying a monocular stereoscopic technique to the video input from the imaging module 101 every moment. It is conceivable to extract a small region including many.

なお、障害物候補領域抽出モジュール102は、物体の影を含む領域を障害物候補領域として抽出してしまう可能性が高い。なぜなら、例えば、上記微分フィルタ演算によって隣接する画素間において画素値の相違が大きい画素を求める手法では、影の境界に対応する画素も抽出されてしまうからである。また、統計的学習手法を用いる場合でも、千差万別な形状を有しうる影領域と障害物とを区別するように学習することは困難であるので、物体の影を含む領域を障害物候補領域として抽出してしまう可能性が高い。単眼立体視技術を用いる場合は、静止している物体の影を障害物候補領域と判定することはないが、動物体によって生じる影については原理的に3D計測が行えないため、障害物候補領域として抽出する可能性が高い。   It is highly likely that the obstacle candidate area extraction module 102 will extract an area including the shadow of the object as an obstacle candidate area. This is because, for example, in a method for obtaining a pixel having a large difference in pixel value between adjacent pixels by the differential filter calculation, a pixel corresponding to a shadow boundary is also extracted. Even when using a statistical learning method, it is difficult to learn to distinguish shadow areas and obstacles that can have a wide variety of shapes. There is a high possibility of extraction as a candidate region. When using the monocular stereoscopic technique, the shadow of a stationary object is not determined as an obstacle candidate area, but in principle, 3D measurement cannot be performed on a shadow generated by an animal body. Is likely to extract as.

撮像方位抽出モジュール103は、移動体に設置された方位センサから構成され、撮像モジュール101の光軸の方位を出力する。ここでの方位単位および基準とする方向等は設計上の問題であるが、例えば、北向きを0として、それよりも東よりの方位に対して負の角度(例えば、真東に対して−90度)、西よりの方位に対して正の角度(例えば、真西に対して90度)を方位として出力してもよい。   The imaging azimuth extraction module 103 is composed of an azimuth sensor installed on a moving body, and outputs the azimuth of the optical axis of the imaging module 101. Here, the azimuth unit and the reference direction are design problems. For example, assuming that the north direction is 0, a negative angle with respect to the east direction from the north direction (for example, − 90 degrees), and a positive angle with respect to the direction from the west (for example, 90 degrees with respect to the true west) may be output as the direction.

なお、本来、方位は360度存在するが、ここでは180度反対の方位は同じ値として表現してもよい。すなわち、例えば、北東の方位と南西の方位に対しては同じ値を出力するようにしてもよい。その理由は、後述する光源方向エッジ抽出モジュール105が180度反対の方位を区別せずに扱うからである。   Originally, the azimuth is 360 degrees, but here, the azimuth opposite 180 degrees may be expressed as the same value. That is, for example, the same value may be output for the northeast azimuth and the southwest azimuth. The reason is that the light source direction edge extraction module 105, which will be described later, treats the direction opposite to 180 degrees without distinguishing.

光源方位抽出モジュール104は、光源の方位を出力するモジュールである。昼間の屋外における主たる光源は太陽である。そこで、光源方位抽出モジュール104は、内蔵する時計機能により現在日時および時刻を取得し、内蔵するGPS機能により現在位置を取得し、これらから得られるパラメータを太陽の位置を計算する計算式に当てはめることで、太陽の方位を算出し出力する。   The light source orientation extraction module 104 is a module that outputs the orientation of the light source. The main light source in the daytime outdoors is the sun. Therefore, the light source direction extraction module 104 acquires the current date and time by the built-in clock function, acquires the current position by the built-in GPS function, and applies the parameters obtained from these to the calculation formula for calculating the position of the sun. The sun's direction is calculated and output.

太陽の方位を計算する式は、種々提案されており、インターネット上などでも公開されている(例えば、http://www.es.ris.ac.jp/〜nakagawa/met_cal/solar.htmlなど)。また、光源として建築物に固定された強烈な照明が存在することがわかっている場合は、建築物に設置された光源の位置情報と移動体自身の現在位置とから、移動体自身を基準とした光源の方位を算出することが可能である。   Various formulas for calculating the direction of the sun have been proposed and published on the Internet and the like (for example, http://www.es.ris.ac.jp/˜nakagawa/met_cal/solar.html). . Also, if it is known that there is intense lighting fixed to the building as a light source, based on the position information of the light source installed in the building and the current position of the moving body itself, It is possible to calculate the orientation of the light source.

光源方向エッジ抽出モジュール105は、障害物候補領域抽出モジュール102が抽出する入力画像中の障害物候補領域に対して、領域中のエッジ画素が実世界の路面平面上の点に対応するものと仮定して、光源方位抽出モジュール104が出力する光源の方位と合致するエッジ方向を有するエッジ画素を抽出する。   The light source direction edge extraction module 105 assumes that the edge pixels in the region correspond to points on the road surface in the real world with respect to the obstacle candidate region in the input image extracted by the obstacle candidate region extraction module 102. Then, an edge pixel having an edge direction that matches the orientation of the light source output by the light source orientation extraction module 104 is extracted.

以下、光源方向エッジ抽出モジュール105の具体的実現方法について図面を参照しつつ詳細に説明する。   Hereinafter, a specific method for realizing the light source direction edge extraction module 105 will be described in detail with reference to the drawings.

図2は、障害候補物領域中のエッジ画素を実世界の路面平面上の点に対応させる方法について説明するための図である。   FIG. 2 is a diagram for explaining a method of making edge pixels in the obstacle candidate area correspond to points on the road surface in the real world.

障害物候補領域202中からエッジ画素203が抽出された場合、このエッジ画素203を実世界の路面平面上の点に対応させるには、視点(カメラ中心)201とエッジ画素203とを結ぶ線分を路面平面204まで延長して、その交点をエッジ点205とすればよい。すなわち、エッジ点205は、障害物候補領域中のエッジ点203が路面平面上の点に対応すると仮定して対応させた際の対応点となる。   When an edge pixel 203 is extracted from the obstacle candidate area 202, a line segment connecting the viewpoint (camera center) 201 and the edge pixel 203 is used in order to make the edge pixel 203 correspond to a point on the road surface in the real world. Is extended to the road surface plane 204, and the intersection point may be set as the edge point 205. That is, the edge point 205 is a corresponding point when the edge point 203 in the obstacle candidate region is made to correspond to a point on the road surface.

なお、ここで、エッジ画素とは隣接する画素の画素値が大きく変化している箇所の画素のことを指す。具体的なエッジ画素の抽出方法としては、例えば障害物候補領域内の画像に対して、ソーベル(Sobel)フィルタやプレウィット(Prewitt)フィルタなどの微分フィルタを畳み込み、フィルタ出力の絶対値が予め定めた閾値以上である画素を抽出する方法がある。また、エッジ点205の位置はホモグラフィと呼ばれる広く知られた技術を用いることによって容易に実現できる。路面上の位置を表す座標系は任意に設定して構わない。幾何変換の係数を表すホモグラフィ行列は、撮像モジュール101と路面平面との位置関係を定めれば、事前に決定し記憶させておくことができる。   Here, the edge pixel refers to a pixel at a location where the pixel value of an adjacent pixel is greatly changed. As a specific edge pixel extraction method, for example, a differential filter such as a Sobel filter or a Prewitt filter is convoluted with an image in an obstacle candidate region, and the absolute value of the filter output is determined in advance. There is a method of extracting pixels that are equal to or greater than the threshold value. Further, the position of the edge point 205 can be easily realized by using a widely known technique called homography. The coordinate system representing the position on the road surface may be set arbitrarily. The homography matrix representing the coefficient of geometric transformation can be determined and stored in advance if the positional relationship between the imaging module 101 and the road surface plane is determined.

次に、エッジ点205に対するエッジの方向を求める。   Next, the edge direction with respect to the edge point 205 is obtained.

まず、最初に、画像上におけるエッジ画素203のエッジの方向を、ソーベル(Sobel)フィルタやプレウィット(Prewitt)フィルタなどの微分フィルタの出力から以下のように求める。   First, the edge direction of the edge pixel 203 on the image is obtained from the output of a differential filter such as a Sobel filter or a Prewitt filter as follows.

Figure 2011209896
Figure 2011209896

ここで、lx(x,y),ly(x,y)は、エッジ画素周辺の画素のx軸およびy軸方向における画素値の勾配量を示す。つまり、画素の勾配方向に直交する方向が画像上でのエッジの方向である。上式によれば、例えば画素値の勾配の最大方向に対し直交する方向がx軸の方向を向いている場合にはθ=0度、直線y=xの方向を向いている場合にはθ=−45度と定義される。   Here, lx (x, y) and ly (x, y) indicate the gradient amount of the pixel value in the x-axis and y-axis directions of the pixels around the edge pixel. That is, the direction orthogonal to the pixel gradient direction is the edge direction on the image. According to the above equation, for example, θ = 0 degrees when the direction orthogonal to the maximum direction of the gradient of the pixel value is directed to the x-axis direction, and θ when the direction is the direction of the straight line y = x. = -45 degrees.

次に、上記画像上でのエッジの方向を路面平面上での方向に変換する。変換の一例を図3を用いて説明する。   Next, the edge direction on the image is converted into a direction on the road surface plane. An example of conversion will be described with reference to FIG.

画像上のエッジ画素307を中心としてエッジの方向308の両側に存在する点301、302を仮想的に求める。次に、入力画像の障害物候補領域中の点301、302が路面平面上の点に対応すると仮定して対応させた際のそれぞれの対応点で点303、304を求める。ここでは、撮像モジュール101の光軸方向に縦軸もしくは横軸を合わせた路面平面上座標系305上における、これらの点301、302に対応する路面平面上の点303、304を前述のホモグラフィ行列により求め、点303、点304を結ぶ線分の方向を求める。このとき、撮像方位抽出モジュール103と同様に、180度反対の方向と区別する必要はなく、定義域を180度分に制限してよい。   The points 301 and 302 existing on both sides of the edge direction 308 around the edge pixel 307 on the image are virtually obtained. Next, the points 303 and 304 are obtained at the corresponding points when the points 301 and 302 in the obstacle candidate area of the input image correspond to the points on the road surface. Here, points 303 and 304 on the road surface plane corresponding to these points 301 and 302 on the road surface coordinate system 305 in which the vertical axis or the horizontal axis is aligned with the optical axis direction of the imaging module 101 are referred to as the homography described above. Obtained from the matrix, the direction of the line segment connecting the points 303 and 304 is obtained. At this time, like the imaging orientation extraction module 103, it is not necessary to distinguish from the opposite direction of 180 degrees, and the definition area may be limited to 180 degrees.

そして、光源が存在する方位とエッジの方向との比較が容易になるように、撮像モジュール101の光軸の方位と、東西南北の方位とのずれを考慮して、エッジの位置および方向を東西、南北の方位をそれぞれ軸方向に合わせた路面平面座標系306で表現する。この際、エッジの方向を表す際の単位および基準とする方位などは自由に設定してよい。また、方向の分解能も1度単位である必要はなく、より粗く量子化した方向、例えば45度毎に量子化した量で表してもよい。   Then, in order to facilitate the comparison between the direction in which the light source exists and the direction of the edge, the position and direction of the edge are changed from east to west in consideration of the deviation between the azimuth of the optical axis of the imaging module 101 and the azimuth direction The north-south direction is expressed by a road surface coordinate system 306 in which the respective directions are aligned with the axial direction. At this time, the unit for expressing the direction of the edge, the reference orientation, and the like may be freely set. Further, the resolution of the direction does not need to be in units of 1 degree, and may be expressed by a more coarsely quantized direction, for example, an amount quantized every 45 degrees.

また、以上の説明では入力画像上でエッジの方向を求めてから、エッジの方向を路面平面上での位置・方向に変換する手順を示したが、最初に入力画像を鳥瞰画像変換した後に鳥瞰画像上でエッジ抽出処理を行って、エッジの位置と方向を求めてもよい。   In the above description, the procedure for obtaining the edge direction on the input image and then converting the edge direction to the position / direction on the road surface is shown. However, after the input image is first converted to the bird's-eye image, the bird's-eye view is converted. Edge extraction processing may be performed on the image to determine the edge position and direction.

そして、上記で求めた路面平面上でのエッジの方向と光源が存在する方位とを比較して、光源が存在する方位と等しい方向を向いたエッジを抽出する。比較の際、等しい方向であると許容する方向の差(許容量)は事前に定めておくことが可能である。   Then, the direction of the edge on the road surface plane obtained as described above is compared with the azimuth in which the light source exists, and an edge directed in the same direction as the azimuth in which the light source exists is extracted. At the time of comparison, it is possible to determine in advance a difference (allowable amount) between directions that are allowed to be equal directions.

許容基準の具体的な定め方について図4を参照しつつ説明する。図4は、路面上に影を発生する物体を光源の存在する方位から見た際の物体のシルエット形状を示す。図4(a)はシルエットの境界が鉛直方向を向いている例、図4(b)はシルエットの境界が鉛直方向から15度程度内側に傾いてシルエット形状が三角形となっている例を示す。図4(a)のようなシルエット形状を持つ物体としては、例えば電柱や歩行者等が挙げられる。図4(b)のようなシルエット形状を持つ物体としては、樹木やパイロンなどが挙げられる。   A specific method of determining the acceptance criteria will be described with reference to FIG. FIG. 4 shows the silhouette shape of an object when an object that generates a shadow on the road surface is viewed from the direction in which the light source exists. 4A shows an example in which the silhouette boundary is oriented in the vertical direction, and FIG. 4B shows an example in which the silhouette boundary is tilted inward by about 15 degrees from the vertical direction and the silhouette shape is a triangle. Examples of the object having a silhouette shape as shown in FIG. 4A include a utility pole and a pedestrian. Examples of objects having a silhouette shape as shown in FIG. 4B include trees and pylons.

図4(a)のようなシルエット形状を持つ物体に太陽光があたった場合、影の形状は太陽の高度に関わらず、概ね図5(a)のように棒状となり、路面平面上における局所的なエッジの方位は太陽の存在する方位と一致する。したがって、図5(a)のようなシルエット形状を持つ物体による影を障害物と区別する際には、光源の方位と路面平面上でのエッジの方向とが極めて等しいエッジを抽出すればよい。   When sunlight hits an object having a silhouette shape as shown in FIG. 4 (a), the shadow shape is almost a rod shape as shown in FIG. 5 (a) regardless of the altitude of the sun, and is locally on the road plane. The edge orientation is the same as the orientation of the sun. Therefore, when distinguishing a shadow of an object having a silhouette shape as shown in FIG. 5A from an obstacle, it is only necessary to extract an edge in which the direction of the light source and the direction of the edge on the road surface plane are very equal.

一方、図4(b)のようなシルエット形状を持つ物体による影に対応するには、エッジの方向と光源の方位との差をある程度許容するようにする。例えば図4(b)のシルエットを持つ物体に、高度30度および高度60度の位置から太陽光があたった場合、路面上にできる影の形状はそれぞれ影505、影506のようになり、それぞれの影の境界部分503および504のエッジの方向と、太陽の方位502との差は、それぞれ約9度、約35度となる。   On the other hand, in order to deal with a shadow caused by an object having a silhouette shape as shown in FIG. 4B, a difference between the direction of the edge and the direction of the light source is allowed to some extent. For example, when the object having the silhouette shown in FIG. 4B is exposed to sunlight from a position at an altitude of 30 degrees and an altitude of 60 degrees, the shapes of the shadows that can be formed on the road surface are shadows 505 and 506, respectively. The difference between the direction of the edges of the shadow boundary portions 503 and 504 and the sun direction 502 is about 9 degrees and about 35 degrees, respectively.

このように、影の誤検知を抑制したい物体のシルエットの境界の傾きと太陽の高度を定めれば、光源方向エッジ抽出モジュール105で許容すべき路面平面上におけるエッジの方向と太陽の存在する方位との差を決定することができる。   In this way, if the inclination of the boundary of the silhouette of the object and the altitude of the sun for which false detection of shadows is to be suppressed are determined, the direction of the edge on the road plane to be allowed by the light source direction edge extraction module 105 and the direction in which the sun exists And the difference can be determined.

この許容量は常に一定値としてもよいし、その時々の太陽高度に応じて変化させるようにしてもよい。許容量を太陽高度に応じて変化させれば、影の誤検知を抑制したい物体のシルエットの境界の傾きを常に一定に保つこともできる。   This allowable amount may always be a constant value, or may be changed according to the solar altitude at that time. If the allowable amount is changed in accordance with the solar altitude, the inclination of the boundary of the silhouette of the object for which the erroneous detection of the shadow is to be suppressed can be always kept constant.

なお、図4、図5は説明を簡単にするために、光源から見たときのシルエット境界の傾きが一定の物体について説明したが、人物のようにシルエットの形状がさらに複雑な物体であったとしても、シルエット境界の傾きおよび路面平面上でのエッジの方向のいずれについても、局所的には同様の特徴を有するので、光源の存在する方位を向いたエッジを抽出することは有効である。   4 and 5, for the sake of simplicity, the description has been made on the object whose inclination of the silhouette boundary is constant when viewed from the light source. However, the silhouette shape is a more complicated object such as a person. However, since both the inclination of the silhouette boundary and the direction of the edge on the road surface have the same characteristics locally, it is effective to extract the edge directed in the direction in which the light source exists.

また、太陽の高度がより高いとシルエット境界の水平に対する傾き角に比べ、路面上のエッジ方位と光源方位との差が大きくなり影として認識しにくくなる傾向を有する。しかし、この場合は影の長さが短くなり影のみが入力画像中に含まれて障害物が含まれないという場合は起こりにくくなる。よって、この場合は障害物の方を検知することができるため障害物検知装置の機能にはほとんど問題ない。   Further, when the altitude of the sun is higher, the difference between the edge direction on the road surface and the light source direction tends to be larger than the inclination angle of the silhouette boundary with respect to the horizontal, and it tends to be difficult to recognize as a shadow. However, in this case, the length of the shadow becomes short, and it becomes difficult to occur when only the shadow is included in the input image and no obstacle is included. Therefore, in this case, since the obstacle can be detected, there is almost no problem in the function of the obstacle detection device.

障害物判定モジュール106は、光源方向エッジ抽出モジュール105が抽出したエッジ数が総エッジ数に対して一定数以下の場合のみ、障害物候補領域を真の障害物であるとして判定する。それ以外の場合は、障害物候補領域を影領域であると判定する(障害物としては判定しない)。   The obstacle determination module 106 determines that the obstacle candidate region is a true obstacle only when the number of edges extracted by the light source direction edge extraction module 105 is a predetermined number or less with respect to the total number of edges. In other cases, it is determined that the obstacle candidate area is a shadow area (not determined as an obstacle).

次に、第1の実施の形態の動作について図面を用いて説明する。図6は本実施の形態による障害物検知装置の動作を説明するフローチャートである。   Next, the operation of the first embodiment will be described with reference to the drawings. FIG. 6 is a flowchart for explaining the operation of the obstacle detection apparatus according to this embodiment.

まず、撮像モジュール101が画像を取得する(ステップS601)。次に、撮像モジュール101が取得した画像中から、障害物候補領域抽出モジュール102が障害物である可能性が高い領域を抽出する(ステップS602)。   First, the imaging module 101 acquires an image (step S601). Next, from the images acquired by the imaging module 101, the obstacle candidate area extraction module 102 extracts an area that is highly likely to be an obstacle (step S602).

撮像方位抽出モジュール103は、カメラの光軸の方位を出力する(ステップS603)。光源方位抽出モジュール104は、撮像モジュールに対する光源の方位を出力する(ステップS604)。   The imaging orientation extraction module 103 outputs the orientation of the optical axis of the camera (step S603). The light source orientation extraction module 104 outputs the orientation of the light source with respect to the imaging module (step S604).

光源方向エッジ抽出モジュール105は、障害物候補領域中のエッジ画素が実世界の路面平面上の点に対応するものと仮定して、路面平面上におけるエッジの局所的な方位と光源の方位との差分が一定値以下であるエッジを抽出する(ステップS605)。   The light source direction edge extraction module 105 assumes that the edge pixel in the obstacle candidate region corresponds to a point on the road surface in the real world, and determines the local orientation of the edge on the road surface and the orientation of the light source. An edge whose difference is equal to or smaller than a certain value is extracted (step S605).

そして、最後に、障害物判定モジュール106は、光源方向エッジ抽出モジュール105が抽出したエッジの数が総エッジ数に対して一定数以下であった場合は、障害物候補領域は真の障害物であると判定する。それ以外の場合は、影による領域であると考え、障害物領域ではないと判定する(ステップS606)。   Finally, when the number of edges extracted by the light source direction edge extraction module 105 is less than or equal to a certain number with respect to the total number of edges, the obstacle determination module 106 determines that the obstacle candidate area is a true obstacle. Judge that there is. In other cases, the region is considered to be a shadow region, and is determined not to be an obstacle region (step S606).

上述の障害物検知装置は、図7に示すようなECU(Electronic Control Unit)701と車載カメラ702とを備える構成に、上述したモジュールを搭載し動作させるような構成として説明した。   The above-described obstacle detection device has been described as a configuration in which the above-described module is mounted and operated in a configuration including an ECU (Electronic Control Unit) 701 and an in-vehicle camera 702 as illustrated in FIG.

ECU701は、装置全体の制御を行うものであり、例えばCPU、RAM、ROM、信号処理回路、電源回路などから構成される。つまり、上述した実施の形態による障害物検知装置は、撮像モジュールの機能を除き、その説明においてフローチャートを参照して示した機能や判定ロジックを実現可能なコンピュータ・プログラムを、ECU701に読み込んで実行することにより実現される。また、ECU701で実行される機能をハードウェア化してマイコンを構成することも可能である。さらには、一部の機能をハードウェアで実現し、それらのハードウェアとソフトウェア・プログラムの協調動作により同様の機能を実現する構成とすることも可能である。   The ECU 701 controls the entire apparatus, and includes, for example, a CPU, a RAM, a ROM, a signal processing circuit, a power supply circuit, and the like. That is, the obstacle detection device according to the above-described embodiment reads the ECU program 701 and executes a computer program that can realize the function and the determination logic described with reference to the flowchart in the description, except for the function of the imaging module. Is realized. It is also possible to configure a microcomputer by implementing the function executed by the ECU 701 as hardware. Furthermore, it is possible to realize a configuration in which some functions are realized by hardware, and similar functions are realized by cooperative operation of the hardware and the software program.

(第1の実施の形態による効果)
上記のように構成される第1の実施の形態による効果を以下に説明する。
(Effects of the first embodiment)
The effect by 1st Embodiment comprised as mentioned above is demonstrated below.

本実施の形態によれば、周辺の建物や道路構造物などの3Dモデル化を行うことなく、移動体に搭載した1台のカメラ画像から様々な物体による路面上の影と区別して障害物を検知することができる。   According to the present embodiment, without performing 3D modeling of surrounding buildings and road structures, obstacles are distinguished from shadows on the road surface caused by various objects from a single camera image mounted on a moving body. Can be detected.

その理由を、図12を参照して説明すると、路面平面から鉛直方向に立った物体1102により路面平面上に生じる影の境界線の局所的なエッジ方向1103は、物体1102に対する光源1101の存在する方位(ここでは180度反対の向きも同一視する)に一致しやすいという事実に基づき、障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定した場合に、障害物候補領域中から光源の存在する方位と等しい方向を向くエッジ画素を抽出し、その割合に基づいて路面上の影と障害物とを区別するからである。   The reason will be described with reference to FIG. 12. A local edge direction 1103 of a boundary line of a shadow generated on the road plane by the object 1102 standing in the vertical direction from the road plane is the presence of the light source 1101 with respect to the object 1102. Based on the fact that the pixels in the obstacle candidate area correspond to points on the road surface in the real world, based on the fact that they are likely to coincide with the direction (here, the opposite direction is also identified as 180 degrees), the obstacle This is because an edge pixel facing in the same direction as the direction in which the light source exists is extracted from the object candidate area, and the shadow on the road surface and the obstacle are distinguished based on the ratio.

このような作用が成り立つ背景として、本装置が機能する環境において影を生じさせる主な物体は歩行者、街路樹、電柱、車両などであり、その多くが鉛直方向を向いていることと、路面平面上の障害物が検知対象であるため、障害物と路面平面上の影とを区別することができればよいという本装置の特殊性とが挙げられる。   As the background for this effect, the main objects that cause shadows in the environment where this device functions are pedestrians, street trees, utility poles, vehicles, etc., many of which are facing the vertical direction, and the road surface. Since the obstacle on the plane is the detection target, there is a special feature of the present apparatus that it is only necessary to distinguish the obstacle from the shadow on the road surface plane.

(第2の実施の形態) (Second Embodiment)

本発明の第2の実施の形態について図面を参照して詳細に説明する。   A second embodiment of the present invention will be described in detail with reference to the drawings.

図8を参照すると、第2の実施の形態による障害物検知装置は、路面上を移動する移動体に搭載した複数の波長の光の強さを測定可能なカラー画像撮像モジュール801と、カラー画像撮像モジュール801が出力するカラー画像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出モジュール102と、カラー画像撮像モジュール801が撮像している方位を出力する撮像方位抽出モジュール103と、光源の方位を抽出する光源方位抽出モジュール104と、障害物候補領域中から光源の存在する方位を向くエッジ方向を持つエッジ画素を抽出する光源方向エッジ抽出モジュール105と、光源が含む複数の波長の光の強さを記憶する光源分光特性取得モジュール802と、光源方向エッジ抽出モジュール105が抽出したエッジ周辺の画素の複数波長に対応する画素値と、光源分光特性取得モジュール802に記憶された太陽光の直達光および散乱光の強度から求められる日向および日陰における各波長の光の強さとに基づいて障害物候補領域が障害物領域か否かを判定する障害物判定手段803とを備える。   Referring to FIG. 8, the obstacle detection apparatus according to the second embodiment includes a color image capturing module 801 capable of measuring the intensity of light having a plurality of wavelengths mounted on a moving body moving on a road surface, and a color image. An obstacle candidate area extraction module 102 that extracts a partial area that may correspond to an obstacle from the color image output by the imaging module 801 as an obstacle candidate area, and the direction in which the color image imaging module 801 is imaging An imaging orientation extraction module 103 for outputting, a light source orientation extraction module 104 for extracting the orientation of the light source, and a light source direction edge extraction module 105 for extracting edge pixels having an edge direction facing the orientation in which the light source exists from the obstacle candidate area. A light source spectral characteristic acquisition module 802 that stores light intensities of a plurality of wavelengths included in the light source, and a light source direction edge The pixel values corresponding to the plurality of wavelengths of the pixels around the edge extracted by the output module 105 and the direct light of sunlight and the intensity of scattered light stored in the light source spectral characteristic acquisition module 802 are obtained for each wavelength in the sun and shade. And an obstacle determination unit 803 that determines whether the obstacle candidate area is an obstacle area based on the intensity of light.

図8に示すモジュールのうち、カラー画像撮像モジュール801、光源分光特性取得モジュール802、障害物判定手段803以外のモジュールは、上述した第1の実施の形態の構成要素と同様である。なお、本実施の形態における障害物候補領域抽出モジュール102は、カラー画像を入力情報とするが、図1に示した障害物候補領域抽出モジュールに関する項目にて説明した「障害物の可能性のある部分領域の具体的な抽出方法」等は、カラー画像に対しても適用可能であり特段の相違はない。   Of the modules shown in FIG. 8, the modules other than the color image capturing module 801, the light source spectral characteristic acquisition module 802, and the obstacle determination unit 803 are the same as the components of the first embodiment described above. The obstacle candidate area extraction module 102 according to the present embodiment uses a color image as input information, but the “possibility of an obstacle” described in the item regarding the obstacle candidate area extraction module shown in FIG. The “specific extraction method of partial area” and the like can be applied to a color image, and there is no particular difference.

そこで、以下では、第1の実施の形態と相違する、3つのモジュールである、カラー画像撮像モジュール801、光源分光特性取得モジュール802、障害物判定手段803について詳しく説明する。   Therefore, in the following, the three modules that are different from the first embodiment, that is, the color image capturing module 801, the light source spectral characteristic acquisition module 802, and the obstacle determination unit 803 will be described in detail.

カラー画像撮像モジュール801は、複数の波長の光に関する強度情報を含むカラー画像を取得し出力する。ここで、カラー画像とはいわゆる光の三原色である青、緑、赤に対応する波長に限らず、別の波長に関する光の強度情報を含んでもよい。また、可視光域の波長だけでなく、近赤外光域の波長を含んでもよい。   The color image capturing module 801 acquires and outputs a color image including intensity information regarding light having a plurality of wavelengths. Here, the color image is not limited to wavelengths corresponding to the so-called three primary colors of light, blue, green, and red, but may include light intensity information relating to other wavelengths. Further, not only the wavelength in the visible light region but also the wavelength in the near infrared light region may be included.

光源分光特性取得モジュール802は、太陽光の直達光、およびその大気による散乱光の複数の波長の光の強度、すなわち上記カラー画像に含まれる複数の波長の光の強度を取得して記憶するモジュールである。光の強度は、日時や大気の状態によっても変化するので、その時点の日時や大気状態に応じて、各波長の光の強度を別々に取得して記憶するようにする。すなわち、日時と大気状態の情報と対応付けて複数波長の光の強度を記憶する。そのため、光源分光特性取得モジュール802は、日時のカレンダー機能、時計機能を内在してもよい。また、大気の状態の情報については、装置を使用する都市の平均的な状態に合わせて設定しても良いし、通信によって外部から取り込んで設定してもよい。   The light source spectral characteristic acquisition module 802 acquires and stores the intensity of light of a plurality of wavelengths of direct light of sunlight and scattered light from the atmosphere, that is, the intensity of light of a plurality of wavelengths included in the color image. It is. Since the light intensity also changes depending on the date and the atmospheric condition, the intensity of the light of each wavelength is separately acquired and stored according to the date and the atmospheric condition at that time. That is, the intensity of light of a plurality of wavelengths is stored in association with date / time and atmospheric state information. Therefore, the light source spectral characteristic acquisition module 802 may include a date / time calendar function and a clock function. Further, the atmospheric state information may be set according to the average state of the city where the apparatus is used, or may be set by taking in from outside by communication.

障害物判定手段803は、光源方向エッジ抽出モジュール105が抽出したエッジ周辺の画素のカラー情報の値に基づき、障害物候補領域が真の障害物か否かを判定する。言い換えると、光源方向エッジが影によって生じたエッジであるか否かを判定して、影によって生じたエッジの特徴を有しない場合に、障害物候補領域を真の障害物と判定する。   The obstacle determination unit 803 determines whether the obstacle candidate area is a true obstacle based on the color information value of the pixels around the edge extracted by the light source direction edge extraction module 105. In other words, it is determined whether or not the light source direction edge is an edge caused by a shadow, and the obstacle candidate region is determined to be a true obstacle when it does not have the feature of the edge caused by the shadow.

以下、障害物判定手段803の具体的な判定方法について図9、図11を参照しつつ説明する。図9は、障害物判定手段803が判定に用いる画素の位置を説明する図である。図11は、判定処理の内容を説明するフローチャートである。   Hereinafter, a specific determination method of the obstacle determination unit 803 will be described with reference to FIGS. 9 and 11. FIG. 9 is a diagram for explaining the positions of the pixels used by the obstacle determination means 803 for determination. FIG. 11 is a flowchart for explaining the contents of the determination process.

光源方向エッジ抽出モジュール105が光源方向エッジ画素としてエッジ画素901を抽出し、局所的なエッジ方向が方向902の方向であった場合、障害物判定手段803は、エッジ画素901について、エッジによって分割された2つの領域中からそれぞれ1点ずつ点903および点904を抽出する(ステップS1101)。点903、点904の抽出ルールは事前に設定しておく。例えば、抽出ルールとして、エッジ画素901を基点としてエッジ方向に直交する方向上の、点901から一定距離離れた画素を点として抽出するルールが考えられる。   When the light source direction edge extraction module 105 extracts the edge pixel 901 as the light source direction edge pixel, and the local edge direction is the direction of the direction 902, the obstacle determination unit 803 divides the edge pixel 901 by the edge. One point 903 and one point 904 are extracted from each of the two regions (step S1101). Extraction rules for points 903 and 904 are set in advance. For example, as an extraction rule, a rule for extracting, as a point, a pixel at a certain distance from the point 901 in a direction orthogonal to the edge direction with the edge pixel 901 as a base point.

そして、障害物判定手段803は、点903、点904に対応する画像の複数波長の光の強さの比を波長毎に求める(ステップS1102)。この光の強度比は、点903の光の強度を基準とした点904の光の強度、および点904の光の強度を基準とした点903の光の強度の2通りを求める。これは、仮に該障害物候補領域が影による領域だった場合、点903および点904のどちらが日陰の領域であっても対処できるようにするためである。また、仮に波長の数が3種類の場合であれば、それぞれ3種類の光の強度比を求める。   Then, the obstacle determination unit 803 obtains the ratio of the light intensity of the plurality of wavelengths of the image corresponding to the points 903 and 904 for each wavelength (step S1102). Two light intensity ratios are obtained: the light intensity at point 904 based on the light intensity at point 903 and the light intensity at point 903 based on the light intensity at point 904. This is because if the obstacle candidate region is a shadow region, it can be dealt with whether the point 903 or the point 904 is a shaded region. If the number of wavelengths is three, the intensity ratio of the three types of light is obtained.

また、これとは別に、障害物判定手段803は、光源分光特性取得モジュール802に記憶した複数波長の光の強度を参照して、カラー画像を構成する複数波長に対する日向と日陰での光の強度比を求める(ステップS1103)。このときは、例えば日向の光の強度を基準として日陰の光の強度の比を求めても良い。   Separately from this, the obstacle determination means 803 refers to the intensity of light of a plurality of wavelengths stored in the light source spectral characteristic acquisition module 802, and the intensity of light in the sun and shade for the plurality of wavelengths constituting the color image. The ratio is obtained (step S1103). In this case, for example, the ratio of the intensity of shaded light may be obtained with reference to the intensity of sunlight.

そして、障害物判定手段803は、エッジ点について入力画像から得た2通りの光強度比のうちの一方と、複数波長に対する日向と日陰での光の強度比を比較して、すべての波長に関する光の強度比の差が一定の値以下になるかどうかを判定する(ステップS1104)。他のエッジ画素について、2つの領域中から抽出した別の2点(画素)についても同様の判定を行う。この判定は、光源方向の全てのエッジ画素について行う。   Then, the obstacle determination unit 803 compares one of the two light intensity ratios obtained from the input image with respect to the edge point with the light intensity ratio in the sun and the shade for a plurality of wavelengths, and relates to all wavelengths. It is determined whether or not the difference in light intensity ratio is equal to or less than a certain value (step S1104). For other edge pixels, the same determination is performed for other two points (pixels) extracted from the two regions. This determination is made for all edge pixels in the light source direction.

最後に、障害物判定手段803は、光の強度比の差が一定の値以下になるエッジ画素の数を求め(ステップS1105)、そのエッジ画素数の総エッジ画素数に対する割合が予め定めた値以下であるかどうかを判定する(ステップS1106、S1107)。最後に、障害物判定手段803は、予め定めた値以下である場合に障害物候補領域を真の障害物領域と判断し(ステップS1108)、それ以外の場合は、該障害物候補領域は影領域であり障害物領域ではないと判断する(ステップS1109)。   Finally, the obstacle determination means 803 obtains the number of edge pixels whose light intensity ratio difference is not more than a certain value (step S1105), and the ratio of the number of edge pixels to the total number of edge pixels is a predetermined value. It is determined whether or not the following is true (steps S1106 and S1107). Finally, the obstacle determination unit 803 determines that the obstacle candidate area is a true obstacle area when it is equal to or smaller than a predetermined value (step S1108). It is determined that the area is not an obstacle area (step S1109).

これは、画素値が入射光の強度と路面表面の反射率の積に比例した値を持つという前提に基づいている。つまり、すべての波長に関する光の強度比の差が一定の値以下になる場合には、路面の表面反射率の値によらず、点903と点904における波長毎の光の強度がちょうど日向と日陰における光の強さに類似しており、該障害物候補領域は影による領域であると判断することができる。   This is based on the premise that the pixel value has a value proportional to the product of the intensity of incident light and the reflectance of the road surface. That is, when the difference in the light intensity ratio for all wavelengths is less than or equal to a certain value, the light intensity for each wavelength at points 903 and 904 is exactly the sun, regardless of the road surface reflectance value. It is similar to the light intensity in the shade, and it can be determined that the obstacle candidate region is a shadow region.

このように、本実施の形態によれば、エッジ画素周辺の画素における複数の波長に対する光の強度を日向と日陰における光の強度と比較して最終的に障害物を判定するので、より正確に障害物と物体による影とを区別しつつ障害物を検知することができる。特に、路面に描かれた線分状の模様の長手方向がちょうど光源の存在する方位に類似した場合でも、本模様を障害物と誤判定することを抑制することができる。   As described above, according to the present embodiment, the obstacles are finally determined more accurately by comparing the light intensities for a plurality of wavelengths in the pixels around the edge pixels with the light intensities in the sun and shade. Obstacles can be detected while distinguishing obstacles from shadows caused by objects. In particular, even when the longitudinal direction of the line-shaped pattern drawn on the road surface is similar to the direction in which the light source exists, it is possible to suppress erroneous determination of this pattern as an obstacle.

また、障害物候補領域が影に対応する領域であった場合、点903と点904における波長毎の光の強度がちょうど日向と日陰における光の強さに類似するという性質は路面の反射率や色には依存しないので、線分状の路面ペイントを有するような路面でも正確な判定を行うことができる。また、波長毎の光の強度の比を検証する画素を、エッジ方向が光源の方位を向いた画素に限定することによって、日向と日陰の境界らしい画素周辺の画像特徴に着目できるため、障害物判定がしやすくなる。   When the obstacle candidate region is a region corresponding to a shadow, the property that the light intensity at each wavelength at the points 903 and 904 is similar to the light intensity in the sun and in the shade is the road surface reflectance and Since it does not depend on the color, an accurate determination can be made even on a road surface having a line-shaped road surface paint. In addition, by limiting the pixels that verify the light intensity ratio for each wavelength to pixels whose edge direction points to the direction of the light source, it is possible to focus on the image features around the pixel that seems to be the boundary between the sun and the shade. Judgment is easier.

次に、第2の実施の形態の動作について図面を用いて説明する。図10は第2の実施の形態による障害物検知装置の動作を説明するフローチャートである。   Next, the operation of the second embodiment will be described with reference to the drawings. FIG. 10 is a flowchart for explaining the operation of the obstacle detection apparatus according to the second embodiment.

まず、カラー画像撮像モジュール801が画像を取得する(ステップS1001)。次に、カラー画像撮像モジュール801が取得した画像中から、障害物候補領域抽出モジュール102が障害物の可能性が高い領域を抽出する(ステップS1002)。   First, the color image capturing module 801 acquires an image (step S1001). Next, from the images acquired by the color image capturing module 801, the obstacle candidate area extraction module 102 extracts an area having a high possibility of an obstacle (step S1002).

次いで、撮像方位抽出モジュール103は、カラー画像撮像モジュール801(カメラ)の光軸の方位を出力する(ステップS1003)。光源方位抽出モジュール104は、カラー画像撮像モジュール801に対する光源の方位を出力する(ステップS1004)。光源方向エッジ抽出モジュール105は、路面平面上におけるエッジの局所的な方位と光源の方位との差分が一定値以下であるエッジを抽出する(ステップS1005)。   Next, the imaging orientation extraction module 103 outputs the orientation of the optical axis of the color image imaging module 801 (camera) (step S1003). The light source orientation extraction module 104 outputs the orientation of the light source with respect to the color image capturing module 801 (step S1004). The light source direction edge extraction module 105 extracts an edge whose difference between the local orientation of the edge on the road plane and the orientation of the light source is equal to or less than a certain value (step S1005).

そして、障害物判定モジュール803は、光源方向エッジ抽出手段105が抽出するエッジ画素のうち、エッジの両側の領域からそれぞれ1画素ずつ抽出した2つの画素のカラー映像に含まれる波長の光の強度比と、直射光および散乱光の強度により定義される日向と日陰における光の強度比とを比較し、光の強度比の差が一定の値以下になるエッジ画素の数を求める(ステップS1006)。   The obstacle determination module 803 then compares the intensity ratio of the light of the wavelengths included in the color image of two pixels extracted one by one from the regions on both sides of the edge among the edge pixels extracted by the light source direction edge extraction unit 105. Are compared with the light intensity ratio defined by the intensity of direct light and scattered light and the light intensity ratio in the shade, and the number of edge pixels where the difference in the light intensity ratio is equal to or less than a certain value is obtained (step S1006).

最後に、強度比の差が一定の値以下になるエッジ画素数の総エッジ画素数に対する割合が予め定めた値以下である場合に障害物候補領域を障害物領域と判断する(ステップS1007)。   Finally, the obstacle candidate area is determined as an obstacle area when the ratio of the number of edge pixels where the difference in intensity ratio is equal to or less than a certain value to the total number of edge pixels is equal to or less than a predetermined value (step S1007).

なお、上記説明では、点903、点904を入力画像の中から直接抽出したが、路面平面におけるエッジの位置および方向に基づいて路面平面上にて同様の2点の位置を求め、これに対応する入力画像中の画素位置を求めて波長毎の光の強度比を求めてもよい。   In the above description, the points 903 and 904 are directly extracted from the input image, but the positions of two similar points on the road surface plane are obtained based on the positions and directions of the edges on the road surface, and corresponding to this. The pixel position in the input image to be obtained may be obtained to obtain the light intensity ratio for each wavelength.

(第2の実施の形態による効果)
上記のように構成される第2の実施の形態による効果を以下に説明する。
本実施の形態によれば、エッジ画素周辺の画素における複数の波長に対する光の強度を日向と日陰における光の強度と比較して最終的に障害物を判定するので、より正確に障害物と物体による影とを区別しつつ障害物を検知することができる。特に、路面に描かれた線分状の模様の長手方向がちょうど光源の存在する方位に類似した場合でも、本模様を障害物と誤判定することを抑制することができる。
(Effects of the second embodiment)
The effect by 2nd Embodiment comprised as mentioned above is demonstrated below.
According to the present embodiment, since the intensity of light for a plurality of wavelengths in the pixels around the edge pixel is compared with the intensity of light in the sun and shade, the obstacle is finally determined. Obstacles can be detected while distinguishing them from shadows. In particular, even when the longitudinal direction of the line-shaped pattern drawn on the road surface is similar to the direction in which the light source exists, it is possible to suppress erroneous determination of this pattern as an obstacle.

以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも、上記実施の形態に限定されるものでなく、その技術的思想の範囲内において様々に変形して実施することができる。   Although the present invention has been described with reference to the preferred embodiments, the present invention is not necessarily limited to the above embodiments, and various modifications can be made within the scope of the technical idea. .

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。   The various components of the present invention do not necessarily have to be independent of each other. A plurality of components are formed as a single member, and a single component is formed of a plurality of members. It may be that a certain component is a part of another component, a part of a certain component overlaps with a part of another component, or the like.

また、本発明の方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明の方法およびコンピュータプログラムを実施する時には、その複数の手順の順番は内容的に支障しない範囲で変更することができる。   Moreover, although the several procedure is described in order in the method and computer program of this invention, the order of the description does not limit the order which performs a several procedure. For this reason, when implementing the method and computer program of this invention, the order of the several procedure can be changed in the range which does not interfere in content.

また、本発明の方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。   The plurality of procedures of the method and the computer program of the present invention are not limited to being executed at different timings. For this reason, another procedure may occur during the execution of a certain procedure, or some or all of the execution timing of a certain procedure and the execution timing of another procedure may overlap.

さらに、上記実施形態の一部又は全部は、以下の付記のようにも記載されうるが、これに限定されない。   Further, a part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.

(付記1)
路面上を移動する移動体に搭載され周辺を撮影する撮像手段と、
撮影画像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出手段と、
前記撮像手段の光軸の方位を出力する撮像方位抽出手段と、
光源の存在する方位を出力する光源方位抽出手段と、
前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出手段と、
前記光源方向エッジ抽出手段が抽出したエッジ画素数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定手段と、
を備えることを特徴とする障害物検知装置。
(Appendix 1)
An imaging means mounted on a moving body moving on the road surface and photographing the periphery;
Obstacle candidate area extraction means for extracting a partial area that may correspond to an obstacle from the captured image as an obstacle candidate area;
Imaging orientation extraction means for outputting the orientation of the optical axis of the imaging means;
A light source direction extracting means for outputting a direction in which the light source exists;
Assuming that pixels in the obstacle candidate area correspond to points on the road surface in the real world, a light source that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate area Direction edge extraction means;
Obstacle determination means for determining the obstacle candidate area as an obstacle area when a ratio of the number of edge pixels extracted by the light source direction edge extraction means to a total edge pixel number is equal to or less than a predetermined value;
An obstacle detection device comprising:

(付記2)
路面上を移動する移動体に搭載され複数波長を含む周辺のカラー映像を撮影する撮像手段と、
カラー映像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出手段と、
前記撮像手段の光軸の方位を出力する撮像方位抽出手段と、
光源の存在する方位を出力する光源方位抽出手段と、
前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出手段と、
複数波長に対する、太陽光の直達光および大気による散乱光の強度を取得して記憶する光源分光特性取得手段と、
前記光源方向エッジ抽出手段が抽出するエッジ画素のうち、エッジ画素の両側の領域から抽出した2つの画素のカラー映像に含まれる波長の光の強度比と、前記直射光および散乱光の強度により定義される日向および日陰における光の強度比との差が一定値以下のエッジ画素の数を求め、当該エッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定手段と、
を備えることを特徴とする障害物検知装置。
(Appendix 2)
An image pickup means mounted on a moving body moving on a road surface and shooting a peripheral color image including a plurality of wavelengths;
An obstacle candidate area extraction means for extracting a partial area that may correspond to an obstacle from the color image as an obstacle candidate area;
Imaging orientation extraction means for outputting the orientation of the optical axis of the imaging means;
A light source direction extracting means for outputting a direction in which the light source exists;
Assuming that pixels in the obstacle candidate area correspond to points on the road surface in the real world, a light source that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate area Direction edge extraction means;
Light source spectral characteristic acquisition means for acquiring and storing the intensity of direct light of sunlight and scattered light from the atmosphere for a plurality of wavelengths;
Of the edge pixels extracted by the light source direction edge extracting means, defined by the intensity ratio of light of wavelengths included in the color image of two pixels extracted from the regions on both sides of the edge pixel, and the intensity of the direct light and scattered light Determining the number of edge pixels whose difference between the light intensity ratio in the sun and the shade is equal to or less than a certain value, and the ratio of the number of the edge pixels to the total number of edge pixels is equal to or less than a predetermined value; Obstacle determination means for determining an object candidate area as an obstacle area;
An obstacle detection device comprising:

(付記3)
前記光源方位抽出手段は、
内蔵する時計機能により現在日時および時刻を取得し、内蔵するGPS機能により現在位置を取得することにより、太陽の方位を算出して光源方位として出力することを特徴とする付記1又は付記2に記載の障害物検知装置。
(Appendix 3)
The light source orientation extracting means includes
Supplementary note 1 or Supplementary note 2, wherein the current date and time are obtained by a built-in clock function, and the current position is obtained by a built-in GPS function, whereby the sun direction is calculated and output as a light source direction Obstacle detection device.

(付記4)
前記光源方向エッジ抽出手段は、
障害物候補領域中のうち、隣接する画素の画素値が大きく変化している箇所の画素をエッジ画素として抽出し、前記撮像手段の中心と抽出したエッジ画素とを結ぶ線分を路面平面まで延長し、その交点をエッジ点として求めることにより、前記エッジ画素を路面平面上の点に対応させ、
前記エッジ画素周辺の画素値の勾配に基づいて前記エッジ画素の撮影画像上におけるエッジ方向を求め、
前記エッジ画素の撮影画像上のエッジ方向を路面平面上での方向に変換し、
前記エッジ画素の前記路面平面上での方向と前記光源の存在する方位とを比較することにより、前記光源の存在する方位と等しい方向を向くエッジ画素を抽出することを特徴とする付記1から付記3の何れかに記載の障害物検知装置。
(Appendix 4)
The light source direction edge extracting means includes:
In the obstacle candidate area, a pixel at a position where the pixel value of an adjacent pixel greatly changes is extracted as an edge pixel, and a line segment connecting the center of the imaging unit and the extracted edge pixel is extended to the road surface plane. Then, by obtaining the intersection as an edge point, the edge pixel corresponds to a point on the road surface plane,
Obtaining the edge direction on the captured image of the edge pixel based on the gradient of the pixel value around the edge pixel,
Converting the edge direction on the captured image of the edge pixel into a direction on a road surface plane;
Supplementary note 1 to supplementary note 1, wherein edge pixels facing a direction equal to the azimuth of the light source are extracted by comparing the direction of the edge pixel on the road surface plane with the azimuth of the light source. 4. The obstacle detection device according to any one of 3.

(付記5)
前記障害物判定手段は、
前記光源の存在する方位と等しい方向を向くエッジ画素について、当該エッジ画素によって分割される2つの領域から2つの画素を抽出し、2つの画素のカラー映像における複数波長の光の強度比を求め、
前記光源分光特性取得手段を参照して、前記複数波長に対する日向と日陰での光の強度比を求め、
前記エッジ画素についての2の画素の光の強度比と、前記複数波長に対する日向と日陰での光の強度比とを比較し、光の強度比の差が一定の値以下であるかどうかを判定し、
前記光の強度比の差が一定の値以下になるエッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下であるかどうかを判定することを特徴とする付記2から付記4の何れかに記載の障害物検知装置。
(Appendix 5)
The obstacle determination means includes
Extracting two pixels from two regions divided by the edge pixel for an edge pixel facing in the same direction as the direction in which the light source exists, obtaining an intensity ratio of light of a plurality of wavelengths in a color image of the two pixels,
Referring to the light source spectral characteristic acquisition means, obtain the intensity ratio of light in the sun and shade for the plurality of wavelengths,
Compares the light intensity ratio of the two pixels with respect to the edge pixel and the light intensity ratio in the sun and shade with respect to the plurality of wavelengths, and determines whether the difference in the light intensity ratio is a certain value or less. And
Any one of appendix 2 to appendix 4, wherein it is determined whether or not a ratio of the number of edge pixels whose light intensity ratio difference is equal to or less than a predetermined value to a total number of edge pixels is equal to or less than a predetermined value. Obstacle detection device according to the above.

(付記6)
路面上を移動する移動体に搭載した撮像手段で撮影した周辺の撮影画像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出ステップと、
前記撮像手段の光軸の方位を出力する撮像方位抽出ステップと、
光源の存在する方位を出力する光源方位抽出ステップと、
前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出ステップと、
前記光源方向エッジ抽出ステップで抽出したエッジ画素数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定ステップと、
を有することを特徴とする障害物検知方法。
(Appendix 6)
An obstacle candidate region extraction step for extracting a partial region that may correspond to an obstacle as an obstacle candidate region from surrounding captured images taken by an imaging means mounted on a moving body moving on a road surface;
An imaging orientation extraction step of outputting the orientation of the optical axis of the imaging means;
A light source orientation extraction step for outputting a direction in which the light source exists;
Assuming that pixels in the obstacle candidate area correspond to points on the road surface in the real world, a light source that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate area A direction edge extraction step;
An obstacle determination step of determining the obstacle candidate region as an obstacle region when a ratio of the number of edge pixels extracted in the light source direction edge extraction step to a total edge pixel number is equal to or less than a predetermined value;
An obstacle detection method characterized by comprising:

(付記7)
路面上を移動する移動体に搭載した撮像手段で撮影した複数波長を含む周辺のカラー映像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出ステップと、
前記撮像手段の光軸の方位を出力する撮像方位抽出ステップと、
光源の存在する方位を出力する光源方位抽出ステップと、
前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出ステップと、
複数波長に対する、太陽光の直達光および大気による散乱光の強度を取得して記憶する光源分光特性取得ステップと、
前記光源方向エッジ抽出ステップで抽出したエッジ画素のうち、エッジ画素の両側の領域から抽出した2つの画素のカラー映像に含まれる波長の光の強度比と、前記直射光および散乱光の強度により定義される日向および日陰における光の強度比との差が一定値以下のエッジ画素の数を求め、当該エッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定ステップと、
を有することを特徴とする障害物検知方法。
(Appendix 7)
An obstacle candidate region extraction step for extracting a partial region that may correspond to an obstacle from surrounding color images including a plurality of wavelengths captured by an imaging unit mounted on a moving body moving on a road surface as an obstacle candidate region. When,
An imaging orientation extraction step of outputting the orientation of the optical axis of the imaging means;
A light source orientation extraction step for outputting a direction in which the light source exists;
Assuming that pixels in the obstacle candidate area correspond to points on the road surface in the real world, a light source that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate area A direction edge extraction step;
A light source spectral characteristic acquisition step of acquiring and storing the intensity of direct light of sunlight and scattered light from the atmosphere for a plurality of wavelengths;
Of the edge pixels extracted in the light source direction edge extraction step, defined by the intensity ratio of light of wavelengths included in the color image of two pixels extracted from the regions on both sides of the edge pixel, and the intensity of the direct light and scattered light Determining the number of edge pixels whose difference between the light intensity ratio in the sun and the shade is equal to or less than a certain value, and the ratio of the number of the edge pixels to the total number of edge pixels is equal to or less than a predetermined value; An obstacle determination step for determining an object candidate area as an obstacle area;
An obstacle detection method characterized by comprising:

(付記8)
前記光源方位抽出ステップで、
内蔵する時計機能により現在日時および時刻を取得し、内蔵するGPS機能により現在位置を取得することにより、太陽の方位を算出して光源方位として出力することを特徴とする付記6又は付記7に記載の障害物検知方法。
(Appendix 8)
In the light source direction extraction step,
Appendix 6 or appendix 7, wherein the current date and time are obtained by a built-in clock function, and the current position is obtained by a built-in GPS function, whereby the azimuth of the sun is calculated and output as a light source azimuth. Obstacle detection method.

(付記9)
前記光源方向エッジ抽出ステップで、
障害物候補領域中のうち、隣接する画素の画素値が大きく変化している箇所の画素をエッジ画素として抽出し、前記撮像手段の中心と抽出したエッジ画素とを結ぶ線分を路面平面まで延長し、その交点をエッジ点として求めることにより、前記エッジ画素を路面平面上の点に対応させ、
前記エッジ画素周辺の画素値の勾配に基づいて前記エッジ画素の撮影画像上におけるエッジ方向を求め、
前記エッジ画素の撮影画像上のエッジ方向を路面平面上での方向に変換し、
前記エッジ画素の前記路面平面上での方向と前記光源の存在する方位とを比較することにより、前記光源の存在する方位と等しい方向を向くエッジ画素を抽出することを特徴とする付記6から付記8の何れかに記載の障害物検知方法。
(Appendix 9)
In the light source direction edge extraction step,
In the obstacle candidate area, a pixel at a position where the pixel value of an adjacent pixel greatly changes is extracted as an edge pixel, and a line segment connecting the center of the imaging unit and the extracted edge pixel is extended to the road surface plane. Then, by obtaining the intersection as an edge point, the edge pixel corresponds to a point on the road surface plane,
Obtaining the edge direction on the captured image of the edge pixel based on the gradient of the pixel value around the edge pixel,
Converting the edge direction on the captured image of the edge pixel into a direction on a road surface plane;
Supplementary note 6 to supplementary note 6, wherein edge pixels pointing in the same direction as the azimuth of the light source are extracted by comparing the direction of the edge pixel on the road surface plane with the azimuth of the light source. The obstacle detection method according to claim 8.

(付記10)
前記障害物判定ステップで、
前記光源の存在する方位と等しい方向を向くエッジ画素について、当該エッジ画素によって分割される2つの領域から2つの画素を抽出し、2つの画素のカラー映像における複数波長の光の強度比を求め、
前記光源分光特性取得ステップで取得した前記複数波長に対する日向と日陰での光の強度比を求め、
前記エッジ画素についての2の画素の光の強度比と、前記複数波長に対する日向と日陰での光の強度比とを比較し、光の強度比の差が一定の値以下であるかどうかを判定し、
前記光の強度比の差が一定の値以下になるエッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下であるかどうかを判定することを特徴とする付記7から付記9の何れかに記載の障害物検知方法。
(Appendix 10)
In the obstacle determination step,
Extracting two pixels from two regions divided by the edge pixel for an edge pixel facing in the same direction as the direction in which the light source exists, obtaining an intensity ratio of light of a plurality of wavelengths in a color image of the two pixels,
Find the intensity ratio of light in the sun and shade for the multiple wavelengths acquired in the light source spectral characteristics acquisition step,
Compares the light intensity ratio of the two pixels with respect to the edge pixel and the light intensity ratio in the sun and shade with respect to the plurality of wavelengths, and determines whether the difference in the light intensity ratio is a certain value or less. And
Any one of appendix 7 to appendix 9, wherein it is determined whether or not a ratio of the number of edge pixels whose light intensity ratio difference is not more than a certain value to the total number of edge pixels is not more than a predetermined value. The obstacle detection method according to the above.

(付記11)
路面上を移動する移動体に搭載した撮像手段で撮影した周辺の撮影画像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出処理と、
前記撮像手段の光軸の方位を出力する撮像方位抽出処理と、
光源の存在する方位を出力する光源方位抽出処理と、
前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出処理と、
前記光源方向エッジ抽出処理で抽出したエッジ画素数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定処理と、をコンピュータに実行させることを特徴とする障害物検知プログラム。
(Appendix 11)
An obstacle candidate area extraction process for extracting a partial area that may correspond to an obstacle as an obstacle candidate area from surrounding captured images taken by an imaging means mounted on a moving body moving on a road surface;
Imaging orientation extraction processing for outputting the orientation of the optical axis of the imaging means;
Light source direction extraction processing for outputting the direction in which the light source exists,
Assuming that pixels in the obstacle candidate area correspond to points on the road surface in the real world, a light source that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate area Direction edge extraction processing,
An obstacle determination process for determining the obstacle candidate area as an obstacle area when the ratio of the number of edge pixels extracted in the light source direction edge extraction process to the total number of edge pixels is equal to or less than a predetermined value; Obstacle detection program characterized by being executed.

(付記12)
路面上を移動する移動体に搭載した撮像手段で撮影した複数波長を含む周辺のカラー映像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出処理と、
前記撮像手段の光軸の方位を出力する撮像方位抽出処理と、
光源の存在する方位を出力する光源方位抽出処理と、
前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出処理と、
複数波長に対する、太陽光の直達光および大気による散乱光の強度を取得して記憶する光源分光特性取得処理と、
前記光源方向エッジ抽出処理で抽出したエッジ画素のうち、エッジ画素の両側の領域から抽出した2つの画素のカラー映像に含まれる波長の光の強度比と、前記直射光および散乱光の強度により定義される日向および日陰における光の強度比との差が一定値以下のエッジ画素の数を求め、当該エッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定ステップと、をコンピュータに実行させることを特徴とする障害物検知プログラム。
(Appendix 12)
Obstacle candidate area extraction processing for extracting a partial area that may correspond to an obstacle from surrounding color images including a plurality of wavelengths taken by an imaging unit mounted on a moving body moving on a road surface as an obstacle candidate area When,
Imaging orientation extraction processing for outputting the orientation of the optical axis of the imaging means;
Light source direction extraction processing for outputting the direction in which the light source exists,
Assuming that pixels in the obstacle candidate area correspond to points on the road surface in the real world, a light source that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate area Direction edge extraction processing,
Light source spectral characteristic acquisition processing for acquiring and storing the intensity of direct light of sunlight and scattered light from the atmosphere for multiple wavelengths,
Defined by the intensity ratio of the light of the wavelength included in the color image of the two pixels extracted from the regions on both sides of the edge pixel among the edge pixels extracted by the light source direction edge extraction processing, and the intensity of the direct light and scattered light Determining the number of edge pixels whose difference between the light intensity ratio in the sun and the shade is equal to or less than a certain value, and the ratio of the number of the edge pixels to the total number of edge pixels is equal to or less than a predetermined value; An obstacle detection program that causes a computer to execute an obstacle determination step of determining an object candidate area as an obstacle area.

(付記13)
前記光源方位抽出処理で、
内蔵する時計機能により現在日時および時刻を取得し、内蔵するGPS機能により現在位置を取得することにより、太陽の方位を算出して光源方位として出力することを特徴とする付記11又は付記12に記載の障害物検知プログラム。
(Appendix 13)
In the light source orientation extraction process,
Supplementary note 11 or Supplementary note 12, wherein the current date and time are obtained by a built-in clock function, and the current position is obtained by a built-in GPS function, whereby the azimuth of the sun is calculated and output as a light source azimuth. Obstacle detection program.

(付記14)
前記光源方向エッジ抽出処理で、
障害物候補領域中のうち、隣接する画素の画素値が大きく変化している箇所の画素をエッジ画素として抽出し、前記撮像手段の中心と抽出したエッジ画素とを結ぶ線分を路面平面まで延長し、その交点をエッジ点として求めることにより、前記エッジ画素を路面平面上の点に対応させ、
前記エッジ画素周辺の画素値の勾配に基づいて前記エッジ画素の撮影画像上におけるエッジ方向を求め、
前記エッジ画素の撮影画像上のエッジ方向を路面平面上での方向に変換し、
前記エッジ画素の前記路面平面上での方向と前記光源の存在する方位とを比較することにより、前記光源の存在する方位と等しい方向を向くエッジ画素を抽出することを特徴とする付記11から付記13の何れかに記載の障害物検知プログラム。
(Appendix 14)
In the light source direction edge extraction process,
In the obstacle candidate area, a pixel at a position where the pixel value of an adjacent pixel greatly changes is extracted as an edge pixel, and a line segment connecting the center of the imaging unit and the extracted edge pixel is extended to the road surface plane. Then, by obtaining the intersection as an edge point, the edge pixel corresponds to a point on the road surface plane,
Obtaining the edge direction on the captured image of the edge pixel based on the gradient of the pixel value around the edge pixel,
Converting the edge direction on the captured image of the edge pixel into a direction on a road surface plane;
Supplementary note 11 to supplementary note 11, wherein edge pixels pointing in the same direction as the azimuth of the light source are extracted by comparing the direction of the edge pixel on the road surface plane with the azimuth of the light source. The obstacle detection program according to any one of claims 13 to 13.

(付記15)
前記障害物判定処理で、
前記光源の存在する方位と等しい方向を向くエッジ画素について、当該エッジ画素によって分割される2つの領域から2つの画素を抽出し、2つの画素のカラー映像における複数波長の光の強度比を求め、
前記光源分光特性取得処理で取得した前記複数波長に対する日向と日陰での光の強度比を求め、
前記エッジ画素についての2の画素の光の強度比と、前記複数波長に対する日向と日陰での光の強度比とを比較し、光の強度比の差が一定の値以下であるかどうかを判定し、
前記光の強度比の差が一定の値以下になるエッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下であるかどうかを判定することを特徴とする付記12から付記14の何れかに記載の障害物検知プログラム。
(Appendix 15)
In the obstacle determination process,
Extracting two pixels from two regions divided by the edge pixel for an edge pixel facing in the same direction as the direction in which the light source exists, obtaining an intensity ratio of light of a plurality of wavelengths in a color image of the two pixels,
Find the intensity ratio of light in the sun and shade for the multiple wavelengths acquired in the light source spectral characteristics acquisition process,
Compares the light intensity ratio of the two pixels with respect to the edge pixel and the light intensity ratio in the sun and shade with respect to the plurality of wavelengths, and determines whether the difference in the light intensity ratio is a certain value or less. And
Any one of appendix 12 to appendix 14, wherein it is determined whether the ratio of the number of edge pixels where the difference in light intensity ratio is less than a certain value to the total number of edge pixels is less than a predetermined value. Obstacle detection program described in Crab.

101:撮像モジュール
102:障害物候補領域抽出モジュール
103:撮影方位抽出モジュール
104:光源方位抽出モジュール
105:光源方向エッジ抽出モジュール
106:障害物判定モジュール
201:視点
202:障害物候補領域
203:障害物候補領域中のエッジ点
204:路面平面
701:ECU
702:撮像装置
801:カラー画像撮像モジュール
802:光源分光特性取得モジュール
803:障害物判定モジュール
901:エッジ画素
902:エッジ方向
903、904:カラー情報を参照する画素
1101:光源
1102:物体(樹木)
1103:路面上の影の局所的なエッジ方向
101: Imaging module 102: Obstacle candidate area extraction module 103: Imaging direction extraction module 104: Light source direction extraction module 105: Light source direction edge extraction module 106: Obstacle determination module 201: View point 202: Obstacle candidate area 203: Obstacle Edge point in candidate area 204: road surface 701: ECU
702: Imaging device 801: Color image imaging module 802: Light source spectral characteristic acquisition module 803: Obstacle determination module 901: Edge pixel 902: Edge direction 903, 904: Pixel referring to color information 1101: Light source 1102: Object (tree)
1103: Local edge direction of shadow on road surface

Claims (10)

路面上を移動する移動体に搭載され周辺を撮影する撮像手段と、
撮影画像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出手段と、
前記撮像手段の光軸の方位を出力する撮像方位抽出手段と、
光源の存在する方位を出力する光源方位抽出手段と、
前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出手段と、
前記光源方向エッジ抽出手段が抽出したエッジ画素数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定手段と、
を備えることを特徴とする障害物検知装置。
An imaging means mounted on a moving body moving on the road surface and photographing the periphery;
Obstacle candidate area extraction means for extracting a partial area that may correspond to an obstacle from the captured image as an obstacle candidate area;
Imaging orientation extraction means for outputting the orientation of the optical axis of the imaging means;
A light source direction extracting means for outputting a direction in which the light source exists;
Assuming that pixels in the obstacle candidate area correspond to points on the road surface in the real world, a light source that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate area Direction edge extraction means;
Obstacle determination means for determining the obstacle candidate area as an obstacle area when a ratio of the number of edge pixels extracted by the light source direction edge extraction means to a total edge pixel number is equal to or less than a predetermined value;
An obstacle detection device comprising:
路面上を移動する移動体に搭載され複数波長を含む周辺のカラー映像を撮影する撮像手段と、
カラー映像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出手段と、
前記撮像手段の光軸の方位を出力する撮像方位抽出手段と、
光源の存在する方位を出力する光源方位抽出手段と、
前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出手段と、
複数波長に対する、太陽光の直達光および大気による散乱光の強度を取得して記憶する光源分光特性取得手段と、
前記光源方向エッジ抽出手段が抽出するエッジ画素のうち、エッジ画素の両側の領域から抽出した2つの画素のカラー映像に含まれる波長の光の強度比と、前記直射光および散乱光の強度により定義される日向および日陰における光の強度比との差が一定値以下のエッジ画素の数を求め、当該エッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定手段と、
を備えることを特徴とする障害物検知装置。
An image pickup means mounted on a moving body moving on a road surface and shooting a peripheral color image including a plurality of wavelengths;
An obstacle candidate area extraction means for extracting a partial area that may correspond to an obstacle from the color image as an obstacle candidate area;
Imaging orientation extraction means for outputting the orientation of the optical axis of the imaging means;
A light source direction extracting means for outputting a direction in which the light source exists;
Assuming that pixels in the obstacle candidate area correspond to points on the road surface in the real world, a light source that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate area Direction edge extraction means;
Light source spectral characteristic acquisition means for acquiring and storing the intensity of direct light of sunlight and scattered light from the atmosphere for a plurality of wavelengths;
Of the edge pixels extracted by the light source direction edge extracting means, defined by the intensity ratio of light of wavelengths included in the color image of two pixels extracted from the regions on both sides of the edge pixel, and the intensity of the direct light and scattered light Determining the number of edge pixels whose difference between the light intensity ratio in the sun and the shade is equal to or less than a certain value, and the ratio of the number of the edge pixels to the total number of edge pixels is equal to or less than a predetermined value; Obstacle determination means for determining an object candidate area as an obstacle area;
An obstacle detection device comprising:
前記光源方向エッジ抽出手段は、
障害物候補領域中のうち、隣接する画素の画素値が大きく変化している箇所の画素をエッジ画素として抽出し、前記撮像手段の中心と抽出したエッジ画素とを結ぶ線分を路面平面まで延長し、その交点をエッジ点として求めることにより、前記エッジ画素を路面平面上の点に対応させ、
前記エッジ画素周辺の画素値の勾配に基づいて前記エッジ画素の撮影画像上におけるエッジ方向を求め、
前記エッジ画素の撮影画像上のエッジ方向を路面平面上での方向に変換し、
前記エッジ画素の前記路面平面上での方向と前記光源の存在する方位とを比較することにより、前記光源の存在する方位と等しい方向を向くエッジ画素を抽出することを特徴とする請求項1又は請求項2に記載の障害物検知装置。
The light source direction edge extracting means includes:
In the obstacle candidate area, a pixel at a position where the pixel value of an adjacent pixel greatly changes is extracted as an edge pixel, and a line segment connecting the center of the imaging unit and the extracted edge pixel is extended to the road surface plane. Then, by obtaining the intersection as an edge point, the edge pixel corresponds to a point on the road surface plane,
Obtaining the edge direction on the captured image of the edge pixel based on the gradient of the pixel value around the edge pixel,
Converting the edge direction on the captured image of the edge pixel into a direction on a road surface plane;
The edge pixel that faces the same direction as the direction in which the light source exists is extracted by comparing the direction of the edge pixel on the road surface plane with the direction in which the light source exists. The obstacle detection device according to claim 2.
前記障害物判定手段は、
前記光源の存在する方位と等しい方向を向くエッジ画素について、当該エッジ画素によって分割される2つの領域から2つの画素を抽出し、2つの画素のカラー映像における複数波長の光の強度比を求め、
前記光源分光特性取得手段を参照して、前記複数波長に対する日向と日陰での光の強度比を求め、
前記エッジ画素についての2の画素の光の強度比と、前記複数波長に対する日向と日陰での光の強度比とを比較し、光の強度比の差が一定の値以下であるかどうかを判定し、
前記光の強度比の差が一定の値以下になるエッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下であるかどうかを判定することを特徴とする請求項2又は請求項3に記載の障害物検知装置。
The obstacle determination means includes
Extracting two pixels from two regions divided by the edge pixel for an edge pixel facing in the same direction as the direction in which the light source exists, obtaining an intensity ratio of light of a plurality of wavelengths in a color image of the two pixels,
Referring to the light source spectral characteristic acquisition means, obtain the intensity ratio of light in the sun and shade for the plurality of wavelengths,
Compares the light intensity ratio of the two pixels with respect to the edge pixel and the light intensity ratio in the sun and shade with respect to the plurality of wavelengths, and determines whether the difference in the light intensity ratio is a certain value or less. And
4. The method according to claim 2, wherein it is determined whether or not a ratio of the number of edge pixels where the difference in light intensity ratio is equal to or less than a predetermined value to a total number of edge pixels is equal to or less than a predetermined value. Obstacle detection device according to.
路面上を移動する移動体に搭載した撮像手段で撮影した周辺の撮影画像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出ステップと、
前記撮像手段の光軸の方位を出力する撮像方位抽出ステップと、
光源の存在する方位を出力する光源方位抽出ステップと、
前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出ステップと、
前記光源方向エッジ抽出ステップで抽出したエッジ画素数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定ステップと、
を有することを特徴とする障害物検知方法。
An obstacle candidate region extraction step for extracting a partial region that may correspond to an obstacle as an obstacle candidate region from surrounding captured images taken by an imaging means mounted on a moving body moving on a road surface;
An imaging orientation extraction step of outputting the orientation of the optical axis of the imaging means;
A light source orientation extraction step for outputting a direction in which the light source exists;
Assuming that pixels in the obstacle candidate area correspond to points on the road surface in the real world, a light source that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate area A direction edge extraction step;
An obstacle determination step of determining the obstacle candidate region as an obstacle region when a ratio of the number of edge pixels extracted in the light source direction edge extraction step to a total edge pixel number is equal to or less than a predetermined value;
An obstacle detection method characterized by comprising:
路面上を移動する移動体に搭載した撮像手段で撮影した複数波長を含む周辺のカラー映像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出ステップと、
前記撮像手段の光軸の方位を出力する撮像方位抽出ステップと、
光源の存在する方位を出力する光源方位抽出ステップと、
前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出ステップと、
複数波長に対する、太陽光の直達光および大気による散乱光の強度を取得して記憶する光源分光特性取得ステップと、
前記光源方向エッジ抽出ステップで抽出したエッジ画素のうち、エッジ画素の両側の領域から抽出した2つの画素のカラー映像に含まれる波長の光の強度比と、前記直射光および散乱光の強度により定義される日向および日陰における光の強度比との差が一定値以下のエッジ画素の数を求め、当該エッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定ステップと、
を有することを特徴とする障害物検知方法。
An obstacle candidate region extraction step for extracting a partial region that may correspond to an obstacle from surrounding color images including a plurality of wavelengths captured by an imaging unit mounted on a moving body moving on a road surface as an obstacle candidate region. When,
An imaging orientation extraction step of outputting the orientation of the optical axis of the imaging means;
A light source orientation extraction step for outputting a direction in which the light source exists;
Assuming that pixels in the obstacle candidate area correspond to points on the road surface in the real world, a light source that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate area A direction edge extraction step;
A light source spectral characteristic acquisition step of acquiring and storing the intensity of direct light of sunlight and scattered light from the atmosphere for a plurality of wavelengths;
Of the edge pixels extracted in the light source direction edge extraction step, defined by the intensity ratio of light of wavelengths included in the color image of two pixels extracted from the regions on both sides of the edge pixel, and the intensity of the direct light and scattered light Determining the number of edge pixels whose difference between the light intensity ratio in the sun and the shade is equal to or less than a certain value, and the ratio of the number of the edge pixels to the total number of edge pixels is equal to or less than a predetermined value; An obstacle determination step for determining an object candidate area as an obstacle area;
An obstacle detection method characterized by comprising:
前記光源方向エッジ抽出ステップで、
障害物候補領域中のうち、隣接する画素の画素値が大きく変化している箇所の画素をエッジ画素として抽出し、前記撮像手段の中心と抽出したエッジ画素とを結ぶ線分を路面平面まで延長し、その交点をエッジ点として求めることにより、前記エッジ画素を路面平面上の点に対応させ、
前記エッジ画素周辺の画素値の勾配に基づいて前記エッジ画素の撮影画像上におけるエッジ方向を求め、
前記エッジ画素の撮影画像上のエッジ方向を路面平面上での方向に変換し、
前記エッジ画素の前記路面平面上での方向と前記光源の存在する方位とを比較することにより、前記光源の存在する方位と等しい方向を向くエッジ画素を抽出することを特徴とする請求項5又は請求項6に記載の障害物検知方法。
In the light source direction edge extraction step,
In the obstacle candidate area, a pixel at a position where the pixel value of an adjacent pixel greatly changes is extracted as an edge pixel, and a line segment connecting the center of the imaging unit and the extracted edge pixel is extended to the road surface plane. Then, by obtaining the intersection as an edge point, the edge pixel corresponds to a point on the road surface plane,
Obtaining the edge direction on the captured image of the edge pixel based on the gradient of the pixel value around the edge pixel,
Converting the edge direction on the captured image of the edge pixel into a direction on a road surface plane;
6. The edge pixel pointing in a direction equal to the direction in which the light source exists is extracted by comparing the direction of the edge pixel on the road surface plane with the direction in which the light source exists. The obstacle detection method according to claim 6.
前記障害物判定ステップで、
前記光源の存在する方位と等しい方向を向くエッジ画素について、当該エッジ画素によって分割される2つの領域から2つの画素を抽出し、2つの画素のカラー映像における複数波長の光の強度比を求め、
前記光源分光特性取得ステップで取得した前記複数波長に対する日向と日陰での光の強度比を求め、
前記エッジ画素についての2の画素の光の強度比と、前記複数波長に対する日向と日陰での光の強度比とを比較し、光の強度比の差が一定の値以下であるかどうかを判定し、
前記光の強度比の差が一定の値以下になるエッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下であるかどうかを判定することを特徴とする請求項6又は請求項7に記載の障害物検知方法。
In the obstacle determination step,
Extracting two pixels from two regions divided by the edge pixel for an edge pixel facing in the same direction as the direction in which the light source exists, obtaining an intensity ratio of light of a plurality of wavelengths in a color image of the two pixels,
Find the intensity ratio of light in the sun and shade for the multiple wavelengths acquired in the light source spectral characteristics acquisition step,
Compares the light intensity ratio of the two pixels with respect to the edge pixel and the light intensity ratio in the sun and shade with respect to the plurality of wavelengths, and determines whether the difference in the light intensity ratio is a certain value or less. And
8. The method according to claim 6, wherein it is determined whether or not a ratio of the number of edge pixels where the difference in light intensity ratio is equal to or less than a predetermined value to a total number of edge pixels is equal to or less than a predetermined value. Obstacle detection method described in 1.
路面上を移動する移動体に搭載した撮像手段で撮影した周辺の撮影画像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出処理と、
前記撮像手段の光軸の方位を出力する撮像方位抽出処理と、
光源の存在する方位を出力する光源方位抽出処理と、
前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出処理と、
前記光源方向エッジ抽出処理で抽出したエッジ画素数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定処理と、をコンピュータに実行させることを特徴とする障害物検知プログラム。
An obstacle candidate area extraction process for extracting a partial area that may correspond to an obstacle as an obstacle candidate area from surrounding captured images taken by an imaging means mounted on a moving body moving on a road surface;
Imaging orientation extraction processing for outputting the orientation of the optical axis of the imaging means;
Light source direction extraction processing for outputting the direction in which the light source exists,
Assuming that pixels in the obstacle candidate area correspond to points on the road surface in the real world, a light source that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate area Direction edge extraction processing,
An obstacle determination process for determining the obstacle candidate area as an obstacle area when the ratio of the number of edge pixels extracted in the light source direction edge extraction process to the total number of edge pixels is equal to or less than a predetermined value; Obstacle detection program characterized by being executed.
路面上を移動する移動体に搭載した撮像手段で撮影した複数波長を含む周辺のカラー映像中から障害物に対応する可能性のある部分領域を障害物候補領域として抽出する障害物候補領域抽出処理と、
前記撮像手段の光軸の方位を出力する撮像方位抽出処理と、
光源の存在する方位を出力する光源方位抽出処理と、
前記障害物候補領域中の画素が実世界の路面平面上の点に対応するものと仮定して、前記障害物候補領域中から前記光源の存在する方位と等しい方向を向くエッジ画素を抽出する光源方向エッジ抽出処理と、
複数波長に対する、太陽光の直達光および大気による散乱光の強度を取得して記憶する光源分光特性取得処理と、
前記光源方向エッジ抽出処理で抽出したエッジ画素のうち、エッジ画素の両側の領域から抽出した2つの画素のカラー映像に含まれる波長の光の強度比と、前記直射光および散乱光の強度により定義される日向および日陰における光の強度比との差が一定値以下のエッジ画素の数を求め、当該エッジ画素の数の総エッジ画素数に対する割合が予め定めた値以下である場合に、前記障害物候補領域を障害物領域と判断する障害物判定ステップと、をコンピュータに実行させることを特徴とする障害物検知プログラム。
Obstacle candidate area extraction processing for extracting a partial area that may correspond to an obstacle from surrounding color images including a plurality of wavelengths taken by an imaging unit mounted on a moving body moving on a road surface as an obstacle candidate area When,
Imaging orientation extraction processing for outputting the orientation of the optical axis of the imaging means;
Light source direction extraction processing for outputting the direction in which the light source exists,
Assuming that pixels in the obstacle candidate area correspond to points on the road surface in the real world, a light source that extracts edge pixels that point in the same direction as the direction in which the light source exists from the obstacle candidate area Direction edge extraction processing,
Light source spectral characteristic acquisition processing for acquiring and storing the intensity of direct light of sunlight and scattered light from the atmosphere for multiple wavelengths,
Defined by the intensity ratio of the light of the wavelength included in the color image of the two pixels extracted from the regions on both sides of the edge pixel among the edge pixels extracted by the light source direction edge extraction processing, and the intensity of the direct light and scattered light Determining the number of edge pixels whose difference between the light intensity ratio in the sun and the shade is equal to or less than a certain value, and the ratio of the number of the edge pixels to the total number of edge pixels is equal to or less than a predetermined value; An obstacle detection program that causes a computer to execute an obstacle determination step of determining an object candidate area as an obstacle area.
JP2010075630A 2010-03-29 2010-03-29 Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program Pending JP2011209896A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010075630A JP2011209896A (en) 2010-03-29 2010-03-29 Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010075630A JP2011209896A (en) 2010-03-29 2010-03-29 Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program

Publications (1)

Publication Number Publication Date
JP2011209896A true JP2011209896A (en) 2011-10-20

Family

ID=44940907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010075630A Pending JP2011209896A (en) 2010-03-29 2010-03-29 Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program

Country Status (1)

Country Link
JP (1) JP2011209896A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017522A1 (en) * 2012-07-27 2014-01-30 日産自動車株式会社 Three-dimensional object detection device and three-dimensional object detection method
JP2014028555A (en) * 2012-07-31 2014-02-13 Nissan Motor Co Ltd Vehicle travel support device and vehicle travel support method
WO2015163015A1 (en) * 2014-04-24 2015-10-29 日立建機株式会社 Device for monitoring area around working machine
KR20180117882A (en) * 2017-04-20 2018-10-30 현대자동차주식회사 Mtehod of detecting obstacle around vehicle
JP2019124986A (en) * 2018-01-12 2019-07-25 株式会社日立国際電気 Failure detection system
CN110941973A (en) * 2018-09-21 2020-03-31 驭势科技(北京)有限公司 Obstacle detection method and device, vehicle-mounted equipment and storage medium
CN111353469A (en) * 2020-03-13 2020-06-30 厦门理工学院 Obstacle detector, obstacle detecting method, storage medium and mobile machine

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5871069B2 (en) * 2012-07-27 2016-03-01 日産自動車株式会社 Three-dimensional object detection apparatus and three-dimensional object detection method
WO2014017522A1 (en) * 2012-07-27 2014-01-30 日産自動車株式会社 Three-dimensional object detection device and three-dimensional object detection method
JP2014028555A (en) * 2012-07-31 2014-02-13 Nissan Motor Co Ltd Vehicle travel support device and vehicle travel support method
US10160383B2 (en) 2014-04-24 2018-12-25 Hitachi Construction Machinery Co., Ltd. Surroundings monitoring system for working machine
JP2015210602A (en) * 2014-04-24 2015-11-24 日立建機株式会社 Periphery monitoring device of work machine
WO2015163015A1 (en) * 2014-04-24 2015-10-29 日立建機株式会社 Device for monitoring area around working machine
KR20180117882A (en) * 2017-04-20 2018-10-30 현대자동차주식회사 Mtehod of detecting obstacle around vehicle
KR102275310B1 (en) 2017-04-20 2021-07-12 현대자동차주식회사 Mtehod of detecting obstacle around vehicle
JP2019124986A (en) * 2018-01-12 2019-07-25 株式会社日立国際電気 Failure detection system
JP7125843B2 (en) 2018-01-12 2022-08-25 株式会社日立国際電気 Fault detection system
CN110941973A (en) * 2018-09-21 2020-03-31 驭势科技(北京)有限公司 Obstacle detection method and device, vehicle-mounted equipment and storage medium
CN110941973B (en) * 2018-09-21 2023-09-15 驭势科技(北京)有限公司 Obstacle detection method and device, vehicle-mounted equipment and storage medium
CN111353469A (en) * 2020-03-13 2020-06-30 厦门理工学院 Obstacle detector, obstacle detecting method, storage medium and mobile machine
CN111353469B (en) * 2020-03-13 2023-03-21 厦门理工学院 Obstacle detector, obstacle detecting method, storage medium and mobile machine

Similar Documents

Publication Publication Date Title
US11615709B2 (en) Image generating apparatus, image generating method, and recording medium
CN107738612B (en) Automatic parking space detection and identification system based on panoramic vision auxiliary system
CN112793564B (en) Autonomous parking auxiliary system based on panoramic aerial view and deep learning
JP4970516B2 (en) Surrounding confirmation support device
KR101364727B1 (en) Method and apparatus for detecting fog using the processing of pictured image
CN110142785A (en) A kind of crusing robot visual servo method based on target detection
JP2011209896A (en) Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program
WO2016199244A1 (en) Object recognition device and object recognition system
KR101374139B1 (en) Monitoring method through image fusion of surveillance system
CN106908064B (en) Indoor night vision navigation method based on Kinect2 sensor
JP2019020956A (en) Vehicle surroundings recognition device
CN113643345A (en) Multi-view road intelligent identification method based on double-light fusion
CN114966696A (en) Transformer-based cross-modal fusion target detection method
TWI726278B (en) Driving detection method, vehicle and driving processing device
Guo et al. Visibility detection approach to road scene foggy images
JP2018073275A (en) Image recognition device
JP5862217B2 (en) Marker detection and tracking device
Liu et al. Vehicle video surveillance system based on image fusion and parallel computing
JP7426611B2 (en) Calibration method and calibration device
Ibisch et al. Arbitrary object localization and tracking via multiple-camera surveillance system embedded in a parking garage
CN111898427A (en) Multispectral pedestrian detection method based on feature fusion deep neural network
US20230177724A1 (en) Vehicle to infrastructure extrinsic calibration system and method
CN107330436A (en) A kind of panoramic picture SIFT optimization methods based on dimensional criteria
KR102019594B1 (en) Vehicle to vehicle distance estimation method using compensation technique for low resolution camera and apparatus thereof
Guerrero et al. Human navigation assistance with a RGB-D sensor