JP4872769B2 - Road surface discrimination device and road surface discrimination method - Google Patents

Road surface discrimination device and road surface discrimination method Download PDF

Info

Publication number
JP4872769B2
JP4872769B2 JP2007103801A JP2007103801A JP4872769B2 JP 4872769 B2 JP4872769 B2 JP 4872769B2 JP 2007103801 A JP2007103801 A JP 2007103801A JP 2007103801 A JP2007103801 A JP 2007103801A JP 4872769 B2 JP4872769 B2 JP 4872769B2
Authority
JP
Japan
Prior art keywords
road surface
area
region
edge
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007103801A
Other languages
Japanese (ja)
Other versions
JP2008262333A (en
Inventor
倫子 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2007103801A priority Critical patent/JP4872769B2/en
Publication of JP2008262333A publication Critical patent/JP2008262333A/en
Application granted granted Critical
Publication of JP4872769B2 publication Critical patent/JP4872769B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両の周囲を撮像して得られた撮像画像に基づいて、車両の周囲の路面の判別や、車両の周囲に存在する障害物(立体物)の有無を判定する路面判別方法、および路面判別装置に関するものである。   The present invention relates to a road surface determination method for determining the road surface around the vehicle and the presence or absence of an obstacle (a three-dimensional object) existing around the vehicle, based on a captured image obtained by imaging the surroundings of the vehicle, And a road surface discrimination device.

近年、車両の周囲に存在する障害物を検出し、車両の駐車支援、車間距離制御、そして衝突防止制御などを行う運転支援装置が種々提案されている。
そして、車両の周囲に存在する障害物を検出するための装置として、例えば、特許文献1に開示された装置がある。この特許文献1に開示された装置では、カメラなどの撮像手段により車両の周囲を撮像して得られた撮像画像において線分を検出し、検出した線分に基づいて障害物の候補を設定し、障害物の候補と路面との運動視差に基づいて、障害物の候補が路面なのか、それとも路面上にある障害物(立体物)であるのかを判断している。
特開2004−032460号公報
In recent years, various driving assistance devices that detect obstacles around a vehicle and perform vehicle parking assistance, inter-vehicle distance control, collision prevention control, and the like have been proposed.
As an apparatus for detecting an obstacle present around the vehicle, for example, there is an apparatus disclosed in Patent Document 1. In the apparatus disclosed in Patent Document 1, a line segment is detected in a captured image obtained by imaging the periphery of a vehicle by an imaging unit such as a camera, and obstacle candidates are set based on the detected line segment. Based on the motion parallax between the obstacle candidate and the road surface, it is determined whether the obstacle candidate is the road surface or an obstacle (three-dimensional object) on the road surface.
JP 2004-032460 A

しかし、特許文献1に開示された発明の場合、エッジ強度が大きい線分が撮像画像内において検出されない場合には、障害物の候補を設定することができず、撮像画像に存在する路面や立体物の判別ができないという問題があった。   However, in the case of the invention disclosed in Patent Document 1, if a line segment having a large edge strength is not detected in the captured image, an obstacle candidate cannot be set, and a road surface or a solid that exists in the captured image cannot be set. There was a problem that things could not be identified.

よって、本発明は、撮像画像内にエッジ強度が大きい線分が検出されない場合であっても、撮像画像に存在する路面や立体物の判別を行うことができる装置およびその方法を提供することを目的とする。   Therefore, the present invention provides an apparatus and method for determining a road surface and a three-dimensional object existing in a captured image even when a line segment having a large edge strength is not detected in the captured image. Objective.

本発明は、車両に搭載されて車両の周囲の路面を撮像するカメラで撮像した撮像画像から生成された、車両の上方から見た俯瞰画像において、(a)エッジ強度が第1の閾値以上となる強エッジの線分を検索すると共に、強エッジの線分を含まない領域を第1対象領域として設定し、(b)エッジ強度が第1の閾値よりも小さい第2の閾値以上となる弱エッジの線分や模様の弱エッジ特徴情報からなるテクスチャを、第1対象領域において検索すると共に、検索されたテクスチャの特徴を抽出し、(c)車両の直進走行時におけるテクスチャの特徴の経時的変化に基づいて、第1対象領域が、路面領域と立体物の領域とのうちの何れであるのかを判定し、(d)判定結果に基づいて路面の判別を行う構成とした。 According to the present invention, in an overhead image viewed from above the vehicle, which is generated from a captured image captured by a camera that is mounted on the vehicle and images a road surface around the vehicle , (a) the edge strength is equal to or higher than the first threshold value. A strong edge line segment is searched, a region not including the strong edge line segment is set as a first target region, and (b) a weak edge strength that is equal to or greater than a second threshold value that is smaller than the first threshold value. The texture including the line segment of the edge and the weak edge feature information of the pattern is searched in the first target area and the feature of the searched texture is extracted. (C) The texture feature over time when the vehicle is traveling straight ahead Based on the change, it is determined whether the first target region is a road surface region or a three-dimensional object region, and (d) the road surface is determined based on the determination result.

本発明によれば、車両の周囲の路面の撮像により得られる撮像画像から生成された、車両の上方から見た俯瞰画像において、エッジ強度が第1の閾値以上となる強エッジの線分を含まない領域が、第1対象領域として設定される。続いて、エッジ強度が第2の閾値以上となる弱エッジの線分や模様の弱エッジ特徴情報からなるテクスチャが、第1対象領域内において検索されると共に、検索されたテクスチャの特徴が抽出される。そして、車両の直進走行時におけるテクスチャの特徴の経時的な変化に基づいて、第1対象領域が路面領域と立体物の領域とのうちの何れであるのかが判定されると共に、判定結果に基づいて路面の判別が行われる。
従って、特徴抽出をした際に特徴が顕著に表れる強エッジの線分を含まない領域の特徴に基づいて路面の判別が行われる。すなわち、特徴抽出をした際に特徴が顕著に表れる強エッジの線分の特徴ではなく、エッジ強度の小さい弱エッジからなる線分や模様などのテクスチャから抽出した特徴に基づいて路面の判別を行うので、撮像画像内に強エッジの線分が存在しない場合であっても、路面の判別を行える。
According to the present invention, in the overhead view image viewed from above the vehicle, which is generated from the captured image obtained by imaging the road surface around the vehicle, the line segment of the strong edge whose edge strength is equal to or higher than the first threshold value is included. A non-existing area is set as the first target area. Subsequently, a texture including a weak edge line segment whose edge strength is equal to or higher than the second threshold or a weak edge feature information of the pattern is searched in the first target area, and the searched texture feature is extracted. The And based on the determination result, it is determined whether the first target area is the road surface area or the three-dimensional object area based on the temporal change of the texture characteristics when the vehicle is traveling straight ahead. The road surface is discriminated.
Therefore, the road surface is discriminated based on the features of the region that does not include the line segment of the strong edge where the features appear remarkably when the features are extracted. In other words, the road surface is discriminated based on features extracted from textures such as lines and patterns consisting of weak edges with low edge strength, not features of line segments of strong edges where features appear prominently when features are extracted. Therefore, even when there is no strong edge line segment in the captured image, the road surface can be determined.

以下、本発明の好ましい実施形態を、添付図面を参照しながら説明する。
図1は、本実施形態に係る路面判別装置の構成を示すブロック図である。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a block diagram illustrating a configuration of a road surface discrimination device according to the present embodiment.

路面判別装置1は、カメラCと、画像処理部10と、制御部20と、記憶部30とを含んで構成される。   The road surface identification device 1 includes a camera C, an image processing unit 10, a control unit 20, and a storage unit 30.

カメラCは、車両の外部を撮像した映像をデジタルデータとして取り込むことができるものであり、広い範囲の撮像が可能な広角カメラが、カメラCとして車両に設けられている。   The camera C can capture an image of the outside of the vehicle as digital data, and a wide-angle camera capable of capturing a wide range is provided as the camera C on the vehicle.

図2の(a)に示すように、車両の前方領域を撮像する前カメラC1と、車両の右側領域を撮像する右カメラC2と、車両の左側領域を撮像する左カメラC3と、車両の後方領域を撮像する後カメラC4とにより、車両の周囲全体の撮像が行われるように構成されている。
なお、以下の説明においては、これらカメラ(C1〜C4)を特に区別しない場合は、単にカメラCと表記する。
As shown in FIG. 2A, a front camera C1 that images the front area of the vehicle, a right camera C2 that images the right area of the vehicle, a left camera C3 that images the left area of the vehicle, and the rear of the vehicle The entire area around the vehicle is imaged by the camera C4 after imaging the area.
In the following description, when these cameras (C1 to C4) are not particularly distinguished, they are simply referred to as camera C.

図1を参照して、画像処理部10は、撮像画像を生成し、生成した撮像画像を後記する制御部20に出力すると共に、記憶部30の画像メモリ31に格納する。
画像処理部10は、撮像画像生成部11と、撮像画像補正部12とを含んで構成される。
With reference to FIG. 1, the image processing unit 10 generates a captured image, outputs the generated captured image to the control unit 20 described later, and stores the generated captured image in the image memory 31 of the storage unit 30.
The image processing unit 10 includes a captured image generation unit 11 and a captured image correction unit 12.

撮像画像生成部11は、各カメラC(C1〜C4)から入力される4つのそれぞれの画像から、車両の上方から見た画像である俯瞰画像を生成すると共に、この4つの俯瞰画像を合成し、この合成された俯瞰画像を制御部に出力する。また、この際に画像の中央部に、予め記憶しておいた車両を示すマークVを重畳(インポーズ)させて、制御部20に出力する。なお、今後、この車両マークVは、インポーズされたマークそのものと、実際の車両を模式的に現す際にも、「車両マークV」として表現することもある。また、この車両を示すマークVのインポーズは撮像画像生成部11でなく、制御部20で行っても良い。   The captured image generation unit 11 generates an overhead image, which is an image viewed from above the vehicle, from the four images input from the cameras C (C1 to C4), and combines the four overhead images. The synthesized bird's-eye view image is output to the control unit. At this time, a mark V indicating the vehicle stored in advance is superimposed (imposed) on the center of the image and output to the control unit 20. In the future, the vehicle mark V may also be expressed as “vehicle mark V” when the imposed mark itself and the actual vehicle are schematically shown. Further, the imposition of the mark V indicating the vehicle may be performed by the control unit 20 instead of the captured image generation unit 11.

図2の(b)に示すように、俯瞰画像では、車両マークVを中心にして、前カメラC1から入力される画像IM1が車両マークVの進行方向における前側(図面において上側)に、右カメラC2から入力される画像IM2が車両マークVの進行方向右側(図面において右側)に、左カメラC3から入力される画像IM3が車体の進行方向左側(図面において左側)に、そして後カメラC4から入力される画像IM4が車両マークVの進行方向における後側に、それぞれ配置されている。   As shown in FIG. 2B, in the bird's-eye view image, the image IM1 input from the front camera C1 is centered on the vehicle mark V, and the right camera is on the front side (upper side in the drawing) of the vehicle mark V. An image IM2 input from C2 is input to the right side (right side in the drawing) of the vehicle mark V, an image IM3 input from the left camera C3 is input to the left side (left side in the drawing) of the vehicle body, and input from the rear camera C4. The images IM4 to be displayed are respectively arranged on the rear side in the traveling direction of the vehicle mark V.

図1に示すように、記憶部30には、各カメラCから入力される画像の各画素が、所定の画素範囲を有する俯瞰画像のどの位置の画素に対応するのかを示す設定テーブル32が予め用意されている。よって、撮像画像生成部11は、カメラCから画像が入力されると、設定テーブル32を参照して入力画像を変換して俯瞰画像を生成する。   As shown in FIG. 1, the storage unit 30 has a setting table 32 that indicates in advance which pixel in the image input from each camera C corresponds to which pixel in the overhead image having a predetermined pixel range. It is prepared. Therefore, when an image is input from the camera C, the captured image generation unit 11 converts the input image with reference to the setting table 32 and generates an overhead image.

図3は、撮像画像生成部11が生成する俯瞰画像において、車両の周囲がどのように現れるのかを説明する説明図である。なお、この説明図で、車両は符号Vで、路面に描かれた白線は符号Wで、路面は符号Rで、塀は符号Bで、それぞれ示されている。   FIG. 3 is an explanatory diagram for explaining how the surroundings of the vehicle appear in the overhead view image generated by the captured image generation unit 11. In this explanatory diagram, the vehicle is indicated by V, the white line drawn on the road surface is indicated by W, the road surface is indicated by R, and the kite is indicated by B.

撮像画像生成部11は、各カメラC(C1〜C4)から入力される広角画像の変換により俯瞰画像を生成する。この際、車両の周囲はすべて路面と同じ高さであるという仮定のもとで変換が行われる。
そのため、路面に描かれた白線のように路面と同じ高さにあるものは、俯瞰画像においても、車両の上方から見た場合と同じように現れる。すなわち、車両の側面に対して平行に位置する白線Wは、車両マークVの側面に平行に位置して現れる(図3の(a))。
The captured image generation unit 11 generates an overhead image by converting a wide-angle image input from each camera C (C1 to C4). At this time, the conversion is performed on the assumption that all the surroundings of the vehicle are the same height as the road surface.
For this reason, an object at the same height as the road surface, such as a white line drawn on the road surface, appears in the overhead view image in the same manner as when viewed from above the vehicle. That is, the white line W positioned parallel to the side surface of the vehicle appears parallel to the side surface of the vehicle mark V ((a) of FIG. 3).

しかし、路面上に存在する立体物の場合、立体物の側面が広角画像に映るので、俯瞰画像では、立体物の側面が一定の面積を有する領域として現れる。
例えば、車両の左斜め前方に位置すると共に路面Rに対して垂直方向に延出する円柱P1の場合、実際に車両の上方から見ると、3の(c)に示すように円で見えるが、円柱Pが高さを持っており、路面と同じ高さにないために、俯瞰変換を行った画像では、車両マークVから斜め左上方向に延出すると共に円柱P1の上部側が外側の位置に歪んだ略台形の形状として現れる(図3の(b)参照)。また、円柱P1に雨の汚れなどに起因する縦線がある場合には、その縦線に起因する線分が略台形の形状の領域に現れる。
However, in the case of a three-dimensional object existing on the road surface, the side surface of the three-dimensional object appears in a wide-angle image, and therefore, in the overhead image, the side surface of the three-dimensional object appears as a region having a certain area.
For example, in the case of the cylinder P1 that is located diagonally to the left of the vehicle and extends in the direction perpendicular to the road surface R, when viewed from above the vehicle, it appears as a circle as shown in 3 (c). Since the cylinder P has a height and is not the same height as the road surface, in the image obtained by performing the overhead view conversion, it extends obliquely from the vehicle mark V in the upper left direction and the upper side of the cylinder P1 is distorted to the outer position. It appears as a substantially trapezoidal shape (see FIG. 3B). In addition, when there is a vertical line due to rain dirt or the like on the cylinder P1, a line segment due to the vertical line appears in a substantially trapezoidal region.

俯瞰画像内に現れる立体物の形状は、立体物と車両との位置関係により変化する。車両の左側の側方に位置する円柱P2は、車両マークVから左方向に延出する略矩形の形状として、車両の左斜め後方に位置する円柱P3は、車両マークVから斜め左下方向に延出する略台形の形状として現れる。
また、路面に対して垂直方向に延出する壁Bの場合、車両の上方から見ると図3の(c)に示すように矩形で見えるが、俯瞰画像では、車両マークVの側方において一定の範囲を有する略矩形領域として現れる(図3の(b)参照)。そして、壁Bの表面の模様、例えば図3の(c)に示すような、路面に対して垂直となる方向に延びる模様M(M1〜M3)の場合、車両マークVの右斜め前方に位置する模様M1は、車両マークVから右斜め上方向に延出する略台形形状、車両マークVの右側の側方に位置する模様M2は、車両マークVから右方向に延出する略矩形形状、そして車両マークVの右斜め後方に位置する模様M3は、車両マークVから右斜め下方向に延出する略台形形状としてそれぞれ現れる。
このように、実際に車両を上方から見た場合とは若干異なると共に、立体物の側面が一定の面積を有する領域として現れる俯瞰画像が、撮像画像として採用されている。
The shape of the three-dimensional object appearing in the overhead image changes depending on the positional relationship between the three-dimensional object and the vehicle. The cylinder P2 located on the left side of the vehicle has a substantially rectangular shape extending leftward from the vehicle mark V, and the cylinder P3 located obliquely rearward to the left of the vehicle extends obliquely lower left from the vehicle mark V. Appears as a substantially trapezoidal shape.
In addition, in the case of the wall B extending in the direction perpendicular to the road surface, when viewed from above the vehicle, it looks rectangular as shown in FIG. 3C, but in the overhead image, it is constant on the side of the vehicle mark V. It appears as a substantially rectangular area having a range (see FIG. 3B). In the case of a pattern on the surface of the wall B, for example, a pattern M (M1 to M3) extending in a direction perpendicular to the road surface as shown in FIG. The pattern M1 to be extended has a substantially trapezoidal shape extending obliquely upward to the right from the vehicle mark V, and the pattern M2 located on the right side of the vehicle mark V has a substantially rectangular shape extending to the right from the vehicle mark V. The pattern M3 located diagonally to the right of the vehicle mark V appears as a substantially trapezoidal shape extending from the vehicle mark V diagonally downward to the right.
As described above, a bird's-eye view image that is slightly different from a case where the vehicle is actually viewed from above and appears as a region having a certain area on the side surface of the three-dimensional object is adopted as the captured image.

撮像画像補正部12は、広角カメラのレンズ系の特徴に起因する影響を除外するように、撮像画像を補正する。
広角カメラの場合、レンズの周縁側に入射する光の量は、レンズの中心側に比べて少なくなる。そのため、撮像画像における4隅の領域は、広角カメラの撮像範囲の周縁側の領域に対応するので、撮像画像の中央側に比べて暗い画像となる。
また、広角画像の変換により撮像画像を生成する場合、撮像画像の4隅の領域の画像は、中央側の領域の画像に比べて引き延ばされることになるので、撮像画像の4隅の領域に存在するテクスチャは、その形状が歪んだ状態で撮像画像内に表示される。
The captured image correction unit 12 corrects the captured image so as to exclude the influence caused by the characteristics of the lens system of the wide-angle camera.
In the case of a wide angle camera, the amount of light incident on the peripheral side of the lens is smaller than that on the center side of the lens. For this reason, the four corner areas in the captured image correspond to the peripheral area of the imaging range of the wide-angle camera, and thus are darker than the center side of the captured image.
In addition, when a captured image is generated by converting a wide-angle image, the images in the four corner areas of the captured image are stretched compared to the image in the central area, so that the four corner areas of the captured image are displayed. The existing texture is displayed in the captured image with its shape distorted.

このため、広角カメラで取得した画像から撮像画像を生成した際に生ずる画像の歪みや明るさの違いを補正する変換式が、レンズ系の特徴に基づいて、撮像画像内の位置ごとにあらかじめ設定されており、撮像画像補正部12は、変換式に基づいて撮像画像を補正して、広角カメラの撮像範囲内における位置に関係なく、同じ物体や同じテクスチャが撮像画像内において常に同じように表示されるようにする。   Therefore, conversion formulas that correct image distortion and brightness differences that occur when a captured image is generated from an image acquired by a wide-angle camera are set in advance for each position in the captured image based on the characteristics of the lens system. The captured image correction unit 12 corrects the captured image based on the conversion formula, and always displays the same object and the same texture in the captured image regardless of the position in the imaging range of the wide-angle camera. To be.

これにより、撮像画像内に存在する画像の歪み、暗さ、そして粗さなどの影響が除外されるので、補正後の撮像画像に基づいてより正確な特徴抽出を行うことができる。また、安定した特徴量の抽出が可能となり、領域判定部23における判別の精度を向上させることができる。   As a result, influences such as distortion, darkness, and roughness of the image existing in the captured image are excluded, so that more accurate feature extraction can be performed based on the corrected captured image. In addition, it is possible to extract a stable feature amount, and it is possible to improve the determination accuracy in the region determination unit 23.

撮像画像の補正が完了すると、撮像画像補正部12は、補正後の撮像画像を制御部20に出力すると共に、記憶部30の画像メモリ31に格納する。   When the correction of the captured image is completed, the captured image correction unit 12 outputs the corrected captured image to the control unit 20 and stores it in the image memory 31 of the storage unit 30.

図1を参照して、制御部20は、画像処理部10から入力される撮像画像の処理により路面の判別を行い、判別結果を示す情報を出力する。
制御部20は、領域設定部21と、特徴抽出部22と、領域判定部23と、路面判別部24とを備えて構成される。
With reference to FIG. 1, the control unit 20 determines a road surface by processing a captured image input from the image processing unit 10, and outputs information indicating the determination result.
The control unit 20 includes a region setting unit 21, a feature extraction unit 22, a region determination unit 23, and a road surface determination unit 24.

領域設定部21は、強エッジ検索部21aと設定部21bとを含んで構成される。
強エッジ検索部21aは、エッジ強度が第1の閾値よりも大きく、かつエッジ長さが所定長さ以上となるエッジの線分、すなわち強エッジ線分を撮像画像において検索する。この強エッジ線分は、特徴抽出をした際に特徴が顕著に現れる線分である。
そして、強エッジ線分が検出された場合に、撮像画像を構成する画素のうちのどの画素が強エッジ線分に対応する画素であるのかを示す強エッジ線分情報を生成する。
ここで、エッジの検索は、例えばSobelフィルタ用いる従来公知の方法で行い、エッジの長さは、連なっている画素の数に基づいて算出する。
また、エッジ長さが所定長さ以上の線分とは、第1の閾値以上のエッジ強度を有するエッジが所定数以上連なって形成される直線や曲線などの線分を意味する。
The area setting unit 21 includes a strong edge search unit 21a and a setting unit 21b.
The strong edge search unit 21a searches the captured image for an edge line segment whose edge strength is greater than the first threshold and whose edge length is equal to or greater than a predetermined length, that is, a strong edge line segment. This strong edge line segment is a line segment in which the feature appears remarkably when the feature is extracted.
Then, when a strong edge line segment is detected, strong edge line segment information indicating which of the pixels constituting the captured image is a pixel corresponding to the strong edge line segment is generated.
Here, the edge search is performed by a conventionally known method using, for example, a Sobel filter, and the length of the edge is calculated based on the number of connected pixels.
A line segment having an edge length equal to or greater than a predetermined length means a line segment such as a straight line or a curve formed by a predetermined number or more of edges having an edge strength equal to or greater than a first threshold value.

設定部21bは、強エッジ線分情報に基づいて強エッジ線分の位置を特定すると共に、撮像画像を区画して、強エッジ線分を含まない弱エッジ領域(第1対象領域)と、強エッジ線分を含む強エッジ領域(第2対象領域)とを設定する。なお、強エッジ線分が撮像画像内に存在しない場合には、弱エッジ領域のみが設定される。
例えば、図4の(a)に示す撮像画像の場合、図中において太線で示した円柱Pのエッジと、白線Wのエッジと、壁Bの模様M(M1〜M3)のエッジとが、強エッジ線分として検索されるので、図4の(b)に示すように、設定部21bは、これら強エッジ線分を内部に含む所定の大きさの領域を強エッジ領域(図中、実線で囲んだ矩形の領域)として設定すると共に、強エッジ線分を含まない所定の大きさの領域を弱エッジ領域(図中、点線で囲んだ矩形の領域)として設定する。
強エッジ領域や弱エッジ領域の大きさは、予め決められていても良いが、検索された強エッジ線分の範囲に合わせて、それぞれ変更できるようにしても良い。また、強エッジ領域を矩形形状とせずに、強エッジ線分で囲まれた領域のみを切り出すような形状としても良い。
Setting unit 21b serves to identify the position of the strong edge line segments based on the intensity edge line information, and divides the captured image, a weak edge region which does not include a strong edge line (first object region), strong A strong edge region (second target region) including an edge line segment is set. Note that when the strong edge line segment does not exist in the captured image, only the weak edge region is set.
For example, in the case of the captured image shown in FIG. 4A, the edge of the cylinder P indicated by a thick line, the edge of the white line W, and the edge of the pattern M (M1 to M3) on the wall B are strong. Since the search is performed as an edge line segment, as shown in FIG. 4B, the setting unit 21b determines a region having a predetermined size including the strong edge line segment as a strong edge area (indicated by a solid line in the figure). A region having a predetermined size not including the strong edge line segment is set as a weak edge region (a rectangular region surrounded by a dotted line in the figure).
The sizes of the strong edge region and the weak edge region may be determined in advance, but may be changed according to the range of the searched strong edge line segment. Moreover, it is good also as a shape which cuts out only the area | region enclosed by the strong edge line segment, without making a strong edge area | region into a rectangular shape.

図5を参照して、特徴抽出部22は、弱エッジ領域や強エッジ領域の特徴を抽出するものであり、強エッジ領域内の強エッジ線分の特徴を抽出する強エッジ特徴抽出部22aと、弱エッジ領域内のテクスチャの特徴を抽出する弱エッジ特徴抽出部22bと、弱エッジ領域内に存在するグラデーションの特徴を抽出するグラデーション特徴抽出部22cと、弱エッジ領域内に存在する注目領域の特徴を抽出する注目領域特徴抽出部22dとを備えて構成される。   Referring to FIG. 5, the feature extraction unit 22 extracts features of weak edge regions and strong edge regions, and a strong edge feature extraction unit 22a that extracts features of strong edge line segments in the strong edge region. , A weak edge feature extracting unit 22b for extracting texture features in the weak edge region, a gradation feature extracting unit 22c for extracting gradation features existing in the weak edge region, and an attention region existing in the weak edge region A region-of-interest feature extraction unit 22d for extracting features is provided.

強エッジ特徴抽出部22aは、領域設定部21において生成された強エッジ線分情報を参照して、強エッジ領域内に存在する強エッジ線分の位置を特定すると共に、強エッジ線分の強エッジ領域内における位置、形状、そして傾きなどを示す強エッジ特徴情報を生成し、強エッジ領域の特徴とする。   The strong edge feature extraction unit 22a refers to the strong edge line segment information generated by the region setting unit 21, specifies the position of the strong edge line segment existing in the strong edge region, and the strong edge line segment strength. Strong edge feature information indicating the position, shape, inclination, etc. in the edge region is generated and used as a feature of the strong edge region.

例えば、図6に示すように、強エッジ線分が直線Soである場合、始点S1、終点S2、そして始点S1と終点S2とを結ぶ直線So上の複数の経路点S3、S4の座標データ、直線Soの傾き、そして直線Soを現す数式などが、強エッジ特徴情報の情報項目となる。
ここで、強エッジ線分の位置や傾きは、例えば、図6に示す撮像画像における左上の角を原点とし、図中右方向をX軸、下方向をY軸とした座標系を設定した場合、この座標系における座標を用いて現すことができ、始点S1の座標を(0、y0)、終点S2の座標を(x2、y2)とすると、直線Soの形状は、次式(1)で現すことができ、傾きは、(y2−y0)/x2となる。
y=(y2−y0)/x2・x+y0・・・(1)
For example, as shown in FIG. 6, when the strong edge line segment is a straight line So, coordinate data of a plurality of route points S3 and S4 on the straight line So connecting the start point S1, the end point S2, and the start point S1 and the end point S2, The slope of the straight line So and the mathematical expression representing the straight line So are information items of the strong edge feature information.
Here, for the position and inclination of the strong edge line segment, for example, a coordinate system in which the upper left corner in the captured image shown in FIG. 6 is the origin, the right direction in the figure is the X axis, and the lower direction is the Y axis is set. The coordinates of the straight line So can be expressed by the following equation (1) where the coordinates of the start point S1 are (0, y0) and the coordinates of the end point S2 are (x2, y2). The slope is (y2−y0) / x2.
y = (y2−y0) / x2 · x + y0 (1)

また、強エッジ線分が曲線Voである場合、始点V1、終点V2、そして曲線Vo上の変曲点V3、V4、V5の座標データが、強エッジ特徴情報の情報項目となる。
なお、強エッジ領域内に強エッジ線分が複数存在する場合は、各々の線分について強エッジ特徴情報が生成される。
そして、強エッジ特徴抽出部22aは、強エッジ特徴情報を記憶部30の特徴履歴テーブル33に記憶すると共に、領域判定部23に出力する。
When the strong edge line segment is the curve Vo, the coordinate data of the start point V1, the end point V2, and the inflection points V3, V4, and V5 on the curve Vo are information items of the strong edge feature information.
If there are a plurality of strong edge line segments in the strong edge region, strong edge feature information is generated for each line segment.
Then, the strong edge feature extraction unit 22 a stores the strong edge feature information in the feature history table 33 of the storage unit 30 and outputs it to the region determination unit 23.

弱エッジ特徴抽出部22bは、特徴抽出の際に顕著な特徴となる線分が存在しない弱エッジ領域において、エッジ強度が第2の閾値以上となる弱エッジを検索し、検索された弱エッジからなる線分や模様などのテクスチャの特徴を示す弱エッジ特徴情報を生成し、弱エッジ領域の特徴とする。
なお、第2の閾値は、エッジ強度の小さいエッジを検出可能にするために、上記した第1の閾値よりも小さい値に設定されている。
The weak edge feature extraction unit 22b searches for a weak edge having an edge strength equal to or higher than the second threshold in a weak edge region where there is no line segment that becomes a remarkable feature during feature extraction. Weak edge feature information indicating texture features such as line segments and patterns is generated and used as features of the weak edge region.
The second threshold value is set to a value smaller than the first threshold value so that an edge having a small edge strength can be detected.

弱エッジ領域において検索された弱エッジからなる線分が、所定の長さを有する直線や曲線などの線分である場合には、上記した強エッジ特徴抽出部22aの場合と同様にして、直線や曲線の始点、終点、経路点、変曲点などの座標データ、そして傾きなどを情報項目として含む弱エッジ特徴情報が生成される。   When the line segment composed of the weak edges searched in the weak edge region is a line segment such as a straight line or a curve having a predetermined length, the straight line is the same as in the case of the strong edge feature extracting unit 22a described above. And weak edge feature information including coordinate data such as the start point, end point, path point, and inflection point of the curve, and inclination as information items.

検索された弱エッジが、線分ではなく、図7の(a)に示すような、人工的な模様のテクスチャのエッジである場合には、テクスチャを構成する弱エッジの方向の頻度(エッジ方向ヒストグラム)が、弱エッジ特徴情報の情報項目となる。
ちなみに、図7の(a)に示すテクスチャは、エッジの方向が45度方向に揃った細かいエッジから構成されるので、図7の(b)に示すような45度の近辺に分布が集中したエッジ方向ヒストグラムが得られる。
When the retrieved weak edge is not a line segment but an artificial pattern texture edge as shown in FIG. 7A, the frequency of the weak edge direction constituting the texture (edge direction). Histogram) is an information item of weak edge feature information.
Incidentally, the texture shown in FIG. 7A is composed of fine edges whose edges are aligned in the direction of 45 degrees, so the distribution is concentrated in the vicinity of 45 degrees as shown in FIG. 7B. An edge direction histogram is obtained.

グラデーション特徴抽出部22cは、弱エッジ領域内に存在するグラデーションを検出し、検出されたグラデーションの方向を示すグラデーション情報を、弱エッジ領域の特徴として生成する。
ここで、グラデーションとは、隣接する画素間における輝度の差は小さいものの、複数の画素から構成される所定範囲全体としては輝度がなだらかに変化する領域をいう。
The gradation feature extraction unit 22c detects gradation existing in the weak edge region, and generates gradation information indicating the detected gradation direction as a feature of the weak edge region.
Here, gradation refers to a region in which the luminance changes gently as a whole predetermined range composed of a plurality of pixels, although the luminance difference between adjacent pixels is small.

図8の(a)乃至(c)は、エッジの方向が90度、45度、0度である強エッジを含む領域の画像を、図8の(d)乃至(f)は、エッジの方向が、90度、45度、0度であるグラデーションを含む領域の画像を示す図である。
図9の(a)乃至(c)は、強エッジの領域を検出するための強エッジ検出用フィルタであり、(e)乃至(g)は、グラデーションの領域を検出するためのグラデーション検出用フィルタである。そして、図9の(d)は、(a)に示す強エッジ検出用フィルタのX方向における輝度の変化を示し、(h)は、(e)のグラデーション検出用フィルタのX方向における輝度の変化を示す図である。図10は、グラデーションの領域と強エッジの領域とが存在する画像を示す図である。
8A to 8C show images of regions including strong edges whose edge directions are 90 degrees, 45 degrees, and 0 degrees, and FIGS. 8D to 8F show edge directions. FIG. 4 is a diagram illustrating an image of an area including a gradation of 90 degrees, 45 degrees, and 0 degrees.
9A to 9C are strong edge detection filters for detecting a strong edge region, and FIGS. 9E to 9G are gradation detection filters for detecting a gradation region. It is. 9D shows a change in luminance in the X direction of the strong edge detection filter shown in FIG. 9A, and FIG. 9H shows a change in luminance in the X direction of the gradation detection filter shown in FIG. 9E. FIG. FIG. 10 is a diagram illustrating an image in which a gradation area and a strong edge area exist.

図8の(a)乃至(c)に示すような隣り合う画素間における輝度の差が大きい領域の場合、図9の(a)乃至(c)に示すような輝度変化の勾配が急な強エッジ検出用フィルタとの間でコンボリューションをそれぞれ計算すると、高いコンボリューション値が得られる。すなわち、正規化相関を計算すると、同じ輝度変化を持つ画像との正規化相関となり、高い相関が得られるので、画像内における輝度変化の大きい領域を検索することができる。
しかし、図8の(d)乃至(f)のように、輝度変化がなだらかなグラデーションの領域を含む画像の場合、図9の(a)乃至(c)に示すようなフィルタを用いると、エッジの方向が同じであっても、輝度変化の勾配が異なるので、高いコンボリューション値は得られない。すなわち、輝度変化がなだらかなグラデーションの領域を検索することはできない。
In a region where the difference in luminance between adjacent pixels is large as shown in FIGS. 8A to 8C, the gradient of the luminance change as shown in FIGS. A high convolution value can be obtained by calculating each convolution with the edge detection filter. That is, when the normalized correlation is calculated, a normalized correlation with an image having the same luminance change is obtained, and a high correlation is obtained. Therefore, an area having a large luminance change in the image can be searched.
However, as shown in FIGS. 8D to 8F, in the case of an image including a gradation region where the luminance change is gentle, if the filters as shown in FIGS. Even in the same direction, since the gradient of the luminance change is different, a high convolution value cannot be obtained. That is, it is not possible to search for a gradation region where the luminance change is gentle.

このようなグラデーションの領域は、輝度変化の勾配が小さいものの、複数の画素から構成される所定範囲全体としては輝度がなだらかに変化するフィルタにより検出できる。
例えば、図8の(d)に示すような、左から右に進むに従って輝度が徐々に低くなる領域の場合、輝度変化の状態が、図9の(e)示すグラデーション検出用フィルタの輝度の変化と似ているので、図8の(d)に示す画像と、図9の(e)に示すフィルタとのコンボリューション(正規化相関)を計算すれば、高いコンボリューション値が得られる。
よって、輝度変化がなだらかなグラデーションは、輝度の変化の方向と輝度の変化の勾配が近似しているフィルタとの相関を求めることで、検索することができる。
Such a gradation region can be detected by a filter in which the luminance changes gently for the entire predetermined range composed of a plurality of pixels, although the luminance change gradient is small.
For example, in the case of a region where the luminance gradually decreases from left to right as shown in FIG. 8D, the luminance change state is the change in luminance of the gradation detection filter shown in FIG. Therefore, if a convolution (normalized correlation) between the image shown in FIG. 8D and the filter shown in FIG. 9E is calculated, a high convolution value can be obtained.
Therefore, a gradation with a gentle luminance change can be searched for by obtaining a correlation between the direction of the luminance change and a filter having an approximate gradient of the luminance change.

よって、グラデーション特徴抽出部22cは、図9の(a)乃至(c)そして(e)乃至(g)に示すような輝度変化の方向と輝度変化の勾配とが異なる複数のグラデーション検出用フィルタや強エッジ検出用フィルタを予め用意し、各弱エッジ領域とこれらのフィルタとのコンボリューションを計算し、高いコンボリューション値が得られたフィルタがグラデーション検出用フィルタである場合に、弱エッジ領域内にグラデーションが存在すると判断する。
そして、高いコンボリューション値が得られたグラデーション検出用フィルタの輝度変化の方向を、当該弱エッジ領域の特徴として求める。
Therefore, the gradation feature extraction unit 22c includes a plurality of gradation detection filters having different luminance change directions and luminance change gradients as shown in FIGS. 9 (a) to 9 (c) and (e) to (g). Prepare a strong edge detection filter in advance, calculate the convolution of each weak edge region with these filters, and if the filter with a high convolution value is a gradation detection filter, it will be in the weak edge region. Judge that gradation exists.
Then, the direction of luminance change of the gradation detection filter from which a high convolution value is obtained is obtained as a feature of the weak edge region.

例えば、図10の(a)に示す範囲が弱エッジ領域として設定された場合、領域αは、図10の(b)に示す部分拡大図から判るように、図9の(f)に示すグラデーション検出用フィルタとの相関が最も高くなる。また、領域βは(b)に示すフィルタ、そして領域γは(a)に示すフィルタとの相関がそれぞれ最も高くなる。
この場合、グラデーション特徴抽出部22cは、弱エッジ領域内にグラデーションが存在すると判断し、(f)に示すフィルタにより特定されるグラデーションの方向、すなわち「0度」を情報項目の内容として含むグラデーション情報を生成し、弱エッジ領域の特徴とする。
For example, when the range shown in FIG. 10A is set as a weak edge region, the region α is the gradation shown in FIG. 9F as can be seen from the partially enlarged view shown in FIG. The correlation with the detection filter is the highest. The region β has the highest correlation with the filter shown in (b), and the region γ has the highest correlation with the filter shown in (a).
In this case, the gradation feature extraction unit 22c determines that the gradation exists in the weak edge region, and gradation information including the direction of the gradation specified by the filter shown in (f), that is, “0 degree” as the content of the information item. And characterize the weak edge region.

注目領域特徴抽出部22dは、弱エッジ領域内において注目領域を検索し、検索された注目領域の位置を示す注目領域情報を生成し、弱エッジ領域の特徴とする。
注目領域の位置は、上記した強エッジ特徴抽出部22aが生成する強エッジ特徴情報の場合と同様に、撮像画像においてX−Y座標系を設定し、この座標系における座標で表される。
The attention area feature extraction unit 22d searches for the attention area in the weak edge area, generates attention area information indicating the position of the searched attention area, and sets it as the characteristic of the weak edge area.
As in the case of the strong edge feature information generated by the strong edge feature extraction unit 22a described above, the position of the attention area is represented by coordinates in this coordinate system by setting an XY coordinate system in the captured image.

ここで、注目領域とは、路面や壁などに存在する汚れや石などに起因するテクスチャからなる領域を意味し、例えば、撮像画像内における弱エッジで囲まれた円形や三角形の領域や、任意の角度で交差する短いエッジ、そして線分と円形や三角形の領域との組み合わせなどがこれに相当する。なお、これらの領域は、円形エッジ検出用フィルタ、三角形検出用フィルタ、そしてコーナ検出用フィルタなどの従来公知のフィルタを用いて検索される。
そして、注目領域特徴抽出部22dは、注目領域情報を記憶部30の特徴履歴テーブル33に記憶すると共に、領域判定部23に出力する。
Here, the attention area means an area made of texture caused by dirt or stone existing on a road surface or a wall, for example, a circular or triangular area surrounded by weak edges in a captured image, or an arbitrary area This corresponds to a combination of a short edge that intersects at an angle, and a combination of a line segment and a circular or triangular area. These areas are searched using a conventionally known filter such as a circular edge detection filter, a triangle detection filter, and a corner detection filter.
Then, the attention area feature extraction unit 22 d stores the attention area information in the feature history table 33 of the storage unit 30 and outputs it to the region determination unit 23.

図5を参照して、領域判定部23は、強エッジ領域や弱エッジ領域から抽出した特徴の、車両の直進走行時における経時的な変化に基づいて、撮像画像において設定された強エッジ領域や弱エッジ領域の各々が、路面領域と立体物の領域とのうちの何れであるのかを判定する。   Referring to FIG. 5, the region determination unit 23 determines whether the feature extracted from the strong edge region or the weak edge region is a strong edge region set in the captured image based on a change over time during straight traveling of the vehicle. It is determined whether each weak edge region is a road surface region or a three-dimensional object region.

領域判定部23は、強エッジ特徴情報比較部23aと、弱エッジ特徴情報比較部23bと、グラデーション情報比較部23cと、注目領域情報比較部23dと、判定部23eとを含んで構成される。   The region determination unit 23 includes a strong edge feature information comparison unit 23a, a weak edge feature information comparison unit 23b, a gradation information comparison unit 23c, an attention region information comparison unit 23d, and a determination unit 23e.

強エッジ特徴情報比較部23aは、記憶部30の特徴履歴テーブル33を参照して、時刻tにおける強エッジ特徴情報と、時刻t+△tにおける強エッジ特徴情報とを比較し、強エッジ領域内に存在する強エッジ線分の位置、形状、傾きなどの経時的な変化の有無を確認する。   The strong edge feature information comparison unit 23a refers to the feature history table 33 of the storage unit 30 to compare the strong edge feature information at time t with the strong edge feature information at time t + Δt, and within the strong edge region. Check whether there is any change over time in the position, shape, inclination, etc. of existing strong edge line segments.

車両が直進走行している場合、強エッジ線分は、路面領域内にある場合と、立体物の領域内にある場合とでは、異なる経時的な挙動を示す。
例えば、図11に示すように、強エッジ線分が建物の影による直線状の線分Soであり、かかる線分Soが路面領域にある場合、撮像画像は、車両の上方から見た画像であるので、時刻tの撮像画像における線分Soは、時刻t+△tの撮像画像では、車両の進行方向における後側(図中、下方向)に平行移動するのみで、形状と傾きは経時的に変化しない。
When the vehicle is traveling straight ahead, the strong edge line segment shows different behavior over time depending on whether it is in the road surface area or in the area of the three-dimensional object.
For example, as shown in FIG. 11, when the strong edge line segment is a straight line segment So due to the shadow of a building and the line segment So is in the road surface area, the captured image is an image viewed from above the vehicle. Therefore, the line segment So in the captured image at time t is only translated in the rearward direction (downward in the figure) in the traveling direction of the vehicle in the captured image at time t + Δt, and the shape and inclination change over time. Does not change.

一方、図12を参照して、強エッジ線分が、路面に対して垂直となる方向へ延出する立体物、例えば円柱Pのエッジの線分Poである場合、線分Poの位置と傾きは、円柱と車両との位置関係に応じて変化する。これは、撮像画像は、カメラCから入力される広角画像を、車両の周囲はすべて路面と同じ高さであるという仮定のもとで変換して生成されるので、撮像画像内では立体物の側面が現れており、この側面の現れ方は、円柱と車両との位置関係に応じて変化するからである。
よって、時刻tの撮像画像における線分Poは、時刻t+△tの撮像画像では車両の進行方向における後側に移動すると共に、車両と円柱Pとの位置関係の変化により傾きも変化する。すなわち、線分Poの位置と傾きが経時的に変化する。
従って、強エッジ線分が直線である場合、直線の傾きの経時的な変化の有無により、強エッジ線分が、路面領域のものであるのか、それとも立体物の領域のものであるのかが判る。
On the other hand, referring to FIG. 12, when the strong edge line segment is a three-dimensional object extending in a direction perpendicular to the road surface, for example, the line segment Po of the edge of the cylinder P, the position and inclination of the line segment Po. Changes according to the positional relationship between the cylinder and the vehicle. This is because the captured image is generated by converting the wide-angle image input from the camera C under the assumption that the surroundings of the vehicle are all at the same height as the road surface. This is because a side surface appears, and the appearance of this side surface changes according to the positional relationship between the cylinder and the vehicle.
Therefore, the line segment Po in the captured image at time t moves to the rear side in the traveling direction of the vehicle in the captured image at time t + Δt, and the inclination also changes due to the change in the positional relationship between the vehicle and the cylinder P. That is, the position and inclination of the line segment Po change with time.
Therefore, when the strong edge line segment is a straight line, it can be determined whether the strong edge line segment is a road surface area or a three-dimensional object area depending on whether or not the inclination of the straight line changes with time. .

また、図11を参照して、強エッジ線分が、車両の影による曲線状の線分Voであり、かかる線分が路面領域にある場合、時刻tの撮像画像における線分Voの位置は、時刻t+△tの撮像画像でも変わらず、形状も経時的に変化しない。
一方、強エッジの線分が、壁などの立体物の表面に現れている線分である場合、線分の位置と形状は、立体物と車両との位置関係の変化に応じて、経時的に変化する。
従って、強エッジ線分が曲線である場合、曲線の形状の経時的な変化の有無により、強エッジ線分が、路面領域のものであるのか、それとも立体物の領域のものであるのかが判る。
Referring to FIG. 11, when the strong edge line segment is a curved line segment Vo due to the shadow of the vehicle and the line segment is in the road surface area, the position of the line segment Vo in the captured image at time t is The captured image at time t + Δt does not change and the shape does not change with time.
On the other hand, when the line segment of a strong edge is a line segment appearing on the surface of a three-dimensional object such as a wall, the position and shape of the line segment change over time according to the change in the positional relationship between the three-dimensional object and the vehicle. To change.
Therefore, when the strong edge line is a curve, it can be determined whether the strong edge line is a road surface area or a three-dimensional object area depending on whether or not the shape of the curve changes with time. .

よって、強エッジ特徴情報比較部23aは、強エッジ特徴情報を参照して、強エッジ線分が直線であるのかそれとも曲線であるのかを確認し、強エッジ線分が直線である場合には、時刻tにおける直線の傾きと、時刻t+△tにおける直線の傾きとを比較する。そして、傾きに変化がない場合、かかる強エッジ線分が存在する強エッジ領域が、路面領域に対応する旨の比較結果を生成する。
一方、傾きに変化がある場合、強エッジ領域は、立体物の領域に対応する旨の比較結果を生成する。
Therefore, the strong edge feature information comparison unit 23a refers to the strong edge feature information to check whether the strong edge line segment is a straight line or a curve, and when the strong edge line segment is a straight line, The slope of the straight line at time t is compared with the slope of the straight line at time t + Δt. If there is no change in the inclination, a comparison result is generated to the effect that the strong edge region where the strong edge line segment exists corresponds to the road surface region.
On the other hand, when there is a change in inclination, the strong edge region generates a comparison result indicating that it corresponds to the region of the three-dimensional object.

また、強エッジ線分が曲線である場合には、強エッジ特徴情報比較部23aは、時刻tにおける曲線の形状と、時刻t+△tにおける曲線の形状とを比較し、形状が同じである場合には、強エッジ領域が路面領域に対応する旨の比較結果を生成し、形状が異なる場合には、立体物の領域に対応する旨の比較結果を生成する。   When the strong edge line segment is a curve, the strong edge feature information comparison unit 23a compares the shape of the curve at time t with the shape of the curve at time t + Δt, and the shapes are the same. A comparison result indicating that the strong edge region corresponds to the road surface region is generated, and if the shape is different, a comparison result indicating that the strong edge region corresponds to the region of the three-dimensional object is generated.

弱エッジ特徴情報比較部23bは、記憶部30の特徴履歴テーブル33を参照して、時刻tにおける弱エッジ特徴情報と、時刻t+△tにおける弱エッジ特徴情報とを比較し、弱エッジ領域内に存在する弱エッジからなるテクスチャの経時変化の有無を確認する。   The weak edge feature information comparison unit 23b refers to the feature history table 33 of the storage unit 30, compares the weak edge feature information at time t with the weak edge feature information at time t + Δt, and within the weak edge region. Check whether there is a temporal change in the texture consisting of existing weak edges.

ここで、弱エッジからなるテクスチャが直線や曲線などの線分である場合における比較結果の生成は、上記した強エッジ特徴情報比較部23aにおける処理と同じであるので、説明は省略する。
そこで、弱エッジからなるテクスチャが線分ではなく、図13の(a)に示したような人工的な模様のテクスチャaである場合について説明をする。
Here, the generation of the comparison result when the texture composed of the weak edge is a line segment such as a straight line or a curve is the same as the processing in the above-described strong edge feature information comparison unit 23a, and thus the description thereof is omitted.
Therefore, a case will be described in which the texture composed of weak edges is not a line segment but an artificial pattern texture a as shown in FIG.

車両が直進走行している場合、テクスチャは、路面領域内にある場合と、立体物の領域内にある場合とでは、異なる経時的な挙動を示す。
例えば、テクスチャaが路面領域に現れるテクスチャである場合、図13に示すテクスチャaから抽出されるエッジの方向の頻度は、車両の上方から見た画像である撮像画像では、経時的に変化せず45度のままである。
一方、テクスチャaが、例えば車両の右側にある壁などの立体物の表面に現れるテクスチャである場合、テクスチャaから抽出されるエッジの方向の頻度は、壁と車両との位置関係の変化に応じて変化する。
この場合、図13の(a)に示すテクスチャは、(b)に示すテクスチャ、(c)に示すテクスチャというように経時的に変化して、テクスチャから抽出されるエッジの方向の頻度も、45度、90度、135度というように経時的に変化する。
When the vehicle is traveling straight ahead, the texture exhibits different behavior over time depending on whether the texture is in the road surface area or the solid object area.
For example, when the texture a is a texture that appears in the road surface area, the frequency of the edge direction extracted from the texture a shown in FIG. 13 does not change with time in a captured image that is an image viewed from above the vehicle. It remains 45 degrees.
On the other hand, when the texture a is a texture that appears on the surface of a three-dimensional object such as a wall on the right side of the vehicle, for example, the frequency of the edge direction extracted from the texture a depends on the change in the positional relationship between the wall and the vehicle. Change.
In this case, the texture shown in (a) of FIG. 13 changes over time, such as the texture shown in (b) and the texture shown in (c), and the frequency of the direction of the edge extracted from the texture is 45. It changes over time such as degrees, 90 degrees, and 135 degrees.

よって、弱エッジ領域内で弱エッジからなる線分のテクスチャが検出されない場合であっても、弱エッジからなる模様のテクスチャから抽出したエッジの方向の頻度の経時的な変化の有無を確認することで、弱エッジからなるテクスチャが、路面領域にあるのか、それとも立体物の領域にあるのかが判る   Therefore, even if the texture of the line segment consisting of the weak edge is not detected in the weak edge region, check whether the frequency of the direction of the edge extracted from the texture of the pattern consisting of the weak edge changes over time. It can be seen whether the texture consisting of weak edges is in the road surface area or the three-dimensional object area.

従って、弱エッジからなる線分が直線である場合には、弱エッジ特徴情報比較部23bは、時刻tにおける直線の傾きと、時刻t+△tにおける直線の傾きとを比較し、傾きに変化がない場合、かかる弱エッジ線分が存在する弱エッジ領域が平面の領域に対応する旨の比較結果を生成する。
一方、傾きに変化がある場合、弱エッジ領域は、立体物の領域に対応する旨の比較結果を生成する。
また、弱エッジ線分が曲線である場合には、弱エッジ特徴情報比較部23bは、時刻tにおける曲線の形状と、時刻t+△tにおける曲線の形状とを比較し、形状が同じである場合には、弱エッジ領域が路面領域に対応する旨の比較結果を生成し、形状が異なる場合には、立体物の領域に対応する旨の比較結果を生成する。
Accordingly, when the line segment composed of the weak edges is a straight line, the weak edge feature information comparison unit 23b compares the slope of the straight line at time t with the slope of the straight line at time t + Δt, and the slope changes. If not, a comparison result indicating that the weak edge region where the weak edge line segment exists corresponds to a planar region is generated.
On the other hand, when there is a change in inclination, the weak edge region generates a comparison result indicating that it corresponds to the region of the three-dimensional object.
If the weak edge line segment is a curve, the weak edge feature information comparison unit 23b compares the shape of the curve at time t with the shape of the curve at time t + Δt, and the shapes are the same. In this case, a comparison result indicating that the weak edge region corresponds to the road surface region is generated, and if the shape is different, a comparison result indicating that the weak edge region corresponds to the region of the three-dimensional object is generated.

さらに、弱エッジからなるテクスチャが、線分ではなく、例えば人工的な模様のテクスチャである場合、時刻tにおけるエッジの方向の頻度と、時刻t+△tにおけるエッジの方向の頻度とを比較し、頻度に変化がない場合は、弱エッジ領域が路面領域に対応する旨の比較結果を生成し、頻度に変化がある場合は、弱エッジ領域が立体物の領域に対応する旨の比較結果を生成する。   Further, when the texture composed of weak edges is not a line segment but an artificial pattern texture, for example, the frequency of the edge direction at time t is compared with the frequency of the edge direction at time t + Δt, If there is no change in the frequency, a comparison result that the weak edge region corresponds to the road surface region is generated, and if there is a change in the frequency, a comparison result that the weak edge region corresponds to the three-dimensional object region is generated. To do.

グラデーション情報比較部23cは、記憶部30の特徴履歴テーブル33を参照して、時刻tにおけるグラデーション情報と、時刻t+△tにおけるグラデーション情報とを比較し、弱エッジ領域内に存在するグラデーションの経時変化の有無を確認する。   The gradation information comparison unit 23c refers to the feature history table 33 of the storage unit 30, compares the gradation information at time t with the gradation information at time t + Δt, and changes the gradation over time in the weak edge region. Check if there is any.

車両が直進走行している場合、グラデーションは、路面領域内にある場合と、立体物の領域内にある場合とでは、異なる経時的な挙動を示す。
図14に示す撮像画像において、グラデーションG1が路面領域内にあり、グラデーションG2が立体物の領域にある場合を例に挙げて説明をする。
撮像画像は車両の上方から見た画像であるので、時刻tの撮像画像おけるグラデーションG1は、時刻t+△tの撮像画像では、車両の進行方向における後側(図中、下方向)に平行移動するのみであり、グラデーションの方向は変化しない。一方、グラデーションG2は、車両と立体物との位置関係に応じて変化するので、時刻t+△tの撮像画像では、車両の進行方向における後側に移動すると共に、グラデーションの方向が変化する。
When the vehicle is traveling straight ahead, the gradation shows different behavior over time depending on whether it is in the road surface area or in the area of the three-dimensional object.
In the captured image shown in FIG. 14, the case where the gradation G1 is in the road surface area and the gradation G2 is in the solid object area will be described as an example.
Since the captured image is an image viewed from above the vehicle, the gradation G1 in the captured image at time t translates backward (downward in the figure) in the traveling direction of the vehicle in the captured image at time t + Δt. Only the gradient direction does not change. On the other hand, since the gradation G2 changes according to the positional relationship between the vehicle and the three-dimensional object, in the captured image at time t + Δt, the gradation direction changes while moving to the rear side in the traveling direction of the vehicle.

よって、弱エッジ領域内で弱エッジからなるテクスチャが検出されない場合であっても、弱エッジ領域内に存在するグラデーションの方向の経時的な変化を確認することで、弱エッジ領域が、路面領域にあるのか、それとも立体物の領域にあるのかが判る。   Therefore, even if a texture consisting of weak edges is not detected in the weak edge region, the weak edge region is changed into the road surface region by checking the change in the gradation direction existing in the weak edge region over time. You can see whether it is in the area of a solid object or a solid object.

従って、グラデーション情報比較部23cは、時刻tにおけるグラデーションの方向と、時刻t+△tにおけるグラデーションの方向とを比較し、同じであれば、弱エッジ領域が路面領域に対応する旨の比較結果を生成し、異なる場合には、立体物の領域に対応する旨の比較結果を生成する。   Therefore, the gradation information comparison unit 23c compares the gradation direction at the time t with the gradation direction at the time t + Δt, and if they are the same, generates a comparison result indicating that the weak edge region corresponds to the road surface region. However, if they are different, a comparison result indicating that the region corresponds to the region of the three-dimensional object is generated.

注目領域情報比較部23dは、記憶部30の特徴履歴テーブル33を参照して、時刻tにおける注目領域情報と、時刻t+△tにおける注目領域情報とを比較し、弱エッジ領域内に存在する注目領域の中から選択した少なくとも2つの注目領域の位置関係の経時的変化の有無を確認する。   The attention area information comparison unit 23d refers to the feature history table 33 of the storage unit 30, compares the attention area information at the time t with the attention area information at the time t + Δt, and the attention area existing in the weak edge area. Whether there is a change with time in the positional relationship between at least two regions of interest selected from the region is confirmed.

車両が直進走行している場合、撮像画像内で検索された注目領域のうちの任意の二つの位置関係は、注目領域が路面領域内にある場合と、立体物の領域にある場合とでは、異なる経時的な挙動を示す。
図15に示す撮像画像において検出された注目領域Q1乃至Q4のうち、注目領域Q1および注目領域Q2が路面領域内にあり、注目領域Q3および注目領域Q4が立体物の領域内にある場合を例に挙げて説明をする。
撮像画像は車両の上方から見た画像であるので、時刻tにおける注目領域Q1と注目領域Q2との相対的な位置関係は、時刻t+△tにおいても変化せず、注目領域Q1と注目領域Q2は、車両の進行方向とは反対の方向に平行移動するのみである。
一方、立体物の領域内にある注目領域の位置は、立体物と車両との位置関係により変化するので、時刻tにおける注目領域Q3と注目領域Q4との相対的な位置関係は、時刻t+△tにおいて変化し、この際、車両マークVから離れた位置にある注目領域ほど、経時的な移動量が大きくなる。
When the vehicle is traveling straight ahead, the arbitrary two positional relationships among the attention areas searched in the captured image are as follows: the attention area is in the road surface area and the three-dimensional object area. Shows different behavior over time.
Of the attention areas Q1 to Q4 detected in the captured image shown in FIG. 15, the attention area Q1 and the attention area Q2 are within the road surface area, and the attention area Q3 and the attention area Q4 are within the three-dimensional object area. I will give an explanation.
Since the captured image is an image viewed from above the vehicle, the relative positional relationship between the attention area Q1 and the attention area Q2 at time t does not change at time t + Δt, and the attention area Q1 and the attention area Q2 Only translates in a direction opposite to the direction of travel of the vehicle.
On the other hand, the position of the attention area within the area of the three-dimensional object changes depending on the positional relationship between the three-dimensional object and the vehicle. Therefore, the relative positional relationship between the attention area Q3 and the attention area Q4 at time t is the time t + Δ. At this time, the amount of movement over time increases as the region of interest is located farther from the vehicle mark V.

よって、弱エッジ領域内に、弱エッジからなる線分や模様などのテクスチャや、グラデーションが存在しない場合であっても、弱エッジ領域内に存在する注目領域の相対的な位置関係の経時的な変化を確認することで、弱エッジ領域が、路面領域にあるのか、それとも立体物の領域にあるのかが判る。   Therefore, even if there is no texture or gradation such as line segments or patterns consisting of weak edges in the weak edge area, the relative positional relationship of the attention area existing in the weak edge area over time By confirming the change, it can be determined whether the weak edge region is in the road surface region or the solid object region.

従って、注目領域情報比較部23dは、記憶部30の特徴履歴テーブル33に格納されている注目領域情報を参照して、弱エッジ領域内において2つ以上の注目領域が抽出されているか否かを確認する。そして、2つ以上の注目領域が抽出されている場合には、例えば、その中から任意に選択した2つの注目領域を結ぶ線分を設定し、その線分の傾きの経時的な変化を確認することで、注目領域の相対的な位置関係の経時的な変化の有無を確認する。   Accordingly, the attention area information comparison unit 23d refers to the attention area information stored in the feature history table 33 of the storage unit 30, and determines whether or not two or more attention areas are extracted in the weak edge area. Check. Then, when two or more attention areas are extracted, for example, a line segment connecting two attention areas arbitrarily selected from them is set, and a change with time in the inclination of the line segment is confirmed. By doing this, it is confirmed whether or not the relative positional relationship of the region of interest has changed over time.

図15に示す撮像画像の場合、時刻tにおける注目領域Q1と注目領域Q2とを結ぶ線分L1の傾きが、時刻t+△tにおける線分L1の傾きと同じであるので、これらの注目領域Q1とQ2が存在する弱エッジ領域が、路面領域に対応する旨の比較結果を生成する。
一方、注目領域Q3と注目領域Q4とを結ぶ線分L2の傾きは、時刻tと時刻t+△tとでは異なるので、これらの注目領域Q3、Q4が存在する弱エッジ領域が、立体物の領域に対応する旨の比較結果を生成する。
In the case of the captured image shown in FIG. 15, the slope of the line segment L1 connecting the attention area Q1 and the attention area Q2 at time t is the same as the inclination of the line segment L1 at time t + Δt. And a comparison result indicating that the weak edge region where Q2 exists corresponds to the road surface region.
On the other hand, since the slope of the line segment L2 connecting the attention area Q3 and the attention area Q4 is different between the time t and the time t + Δt, the weak edge area where the attention areas Q3 and Q4 exist is a three-dimensional object area. A comparison result indicating that it corresponds to is generated.

図5を参照して、判定部23eは、強エッジ特徴情報比較部23a、弱エッジ特徴情報比較部23b、グラデーション情報比較部23c、そして注目領域情報比較部23dにおいて生成された比較結果に基づいて、強エッジ領域と弱エッジ領域とが、それぞれ路面の領域に対応するのか、それとも立体物の領域に対応するのかを判定する。
ここで、強エッジ領域については、強エッジ特徴情報比較部23aのみから判断結果が出力されるので、判定部23eは、強エッジ特徴情報比較部23aから比較結果が入力されると、比較結果により特定される種別が、強エッジ領域の種別であると判定する。
例えば、路面領域に対応する旨の比較結果が入力された場合は、当該比較結果が生成された強エッジ領域が、路面領域であると判定する。
Referring to FIG. 5, determination unit 23e is based on the comparison results generated in strong edge feature information comparison unit 23a, weak edge feature information comparison unit 23b, gradation information comparison unit 23c, and attention area information comparison unit 23d. It is determined whether the strong edge region and the weak edge region correspond to the road surface region or the solid object region, respectively.
Here, for the strong edge region, the determination result is output only from the strong edge feature information comparison unit 23a. Therefore, when the comparison result is input from the strong edge feature information comparison unit 23a, the determination unit 23e It is determined that the identified type is the type of the strong edge region.
For example, when a comparison result indicating that it corresponds to a road surface area is input, it is determined that the strong edge area where the comparison result is generated is a road surface area.

一方、弱エッジ領域については、弱エッジ特徴情報比較部23b、グラデーション情報比較部23c、そして注目領域情報比較部23dから、比較結果が入力されるので、判定部23eは、入力された比較結果のうちの少なくとも一つに基づいて、弱エッジ領域が路面領域であるのか、それとも立体物の領域であるのかを判定する。よって、複数の比較結果に基づいて、路面領域と立体物の領域の判定が行うこともできるので、判定の信頼性が向上する。   On the other hand, for the weak edge region, since the comparison result is input from the weak edge feature information comparison unit 23b, the gradation information comparison unit 23c, and the attention region information comparison unit 23d, the determination unit 23e Based on at least one of them, it is determined whether the weak edge region is a road surface region or a solid object region. Therefore, since the determination of the road surface area and the three-dimensional object area can be performed based on a plurality of comparison results, the reliability of the determination is improved.

ここで、各比較部(弱エッジ特徴情報比較部23b、グラデーション情報比較部23c、注目領域情報比較部23d)の優先順位を決めておき、優先順位の高い比較部から入力された比較結果に基づいて、弱エッジ領域の種別を判定するようにしても良い。また、各比較部から入力される比較結果が整合した場合にのみ、弱エッジ領域の種別を判別するようにしても良い。   Here, priorities of the respective comparison units (weak edge feature information comparison unit 23b, gradation information comparison unit 23c, attention area information comparison unit 23d) are determined, and based on the comparison result input from the comparison unit having a higher priority. Thus, the type of weak edge region may be determined. Further, the type of the weak edge region may be determined only when the comparison results input from the respective comparison units match.

さらに、総ての比較部(強エッジ特徴情報比較部23a、弱エッジ特徴情報比較部23b、グラデーション情報比較部23c、そして注目領域情報比較部23d)から入力される比較結果の互いの妥当性を考慮して、強エッジ領域と弱エッジ領域がそれぞれ、路面領域であるのか、それとも立体物の領域であるのかを判定する構成としても良い。
通常、路面や立体面は、ある程度の大きさの面積を有しているので、撮像画像において所定の大きさの範囲として現れる。そのため、路面領域と立体物の領域の連続性や、位置関係の妥当性を確認し、確認結果をふまえて、路面領域と立体物の領域との判定をするようにしても良い。
これにより、比較結果に基づいて判定した路面領域と立体物の領域と隣接関係などが明らかにおかしい場合には、弱エッジ領域や強エッジ領域の特徴の抽出をやり直すことができるので、強エッジ領域と弱エッジ領域の各々の種別の判定、そして路面判別部24における判別をより正確に行うことができる。
Further, the validity of the comparison results input from all the comparison units (strong edge feature information comparison unit 23a, weak edge feature information comparison unit 23b, gradation information comparison unit 23c, and attention area information comparison unit 23d) are determined. In consideration, the strong edge region and the weak edge region may be configured to determine whether each is a road surface region or a solid object region.
Usually, the road surface and the three-dimensional surface have an area of a certain size, and thus appear as a predetermined size range in the captured image. For this reason, the continuity between the road surface area and the three-dimensional object area and the validity of the positional relationship may be confirmed, and the road surface area and the three-dimensional object area may be determined based on the confirmation result.
As a result, when the road surface area determined based on the comparison result and the solid object area and the adjacent relationship are clearly strange, the feature extraction of the weak edge area and the strong edge area can be performed again. The determination of each type of the weak edge region and the determination in the road surface determination unit 24 can be performed more accurately.

そして、判定部23eは、撮像画像において設定された総ての強エッジ領域および弱エッジ領域についての判定が完了すると、判定結果を示す判定結果情報を生成し、路面判別部24に出力する。   And the determination part 23e will produce | generate the determination result information which shows a determination result, and will output to the road surface discrimination | determination part 24, if the determination about all the strong edge area | regions and weak edge area | regions set in the captured image is completed.

路面判別部24は、判定結果情報に基づいて、撮像画像におけるどの部分が路面領域であり、どの部分が壁などの立体物の領域であるのかを特定した上で、路面の判別を行い、判別結果を示す情報を路面判別装置1に接続された外部機器に出力する。
一般に、路面領域は、撮像画像において一定の大きさを占める連続する範囲として現れるので、路面判別部24は、路面領域と判定された領域が連続している部分を撮像画像において検索し、検索結果に基づいて路面の判別を行う。また、路面領域と立体物の領域、例えば壁の領域との境界を示す境界エッジが検出されている場合には、境界エッジも参照して路面の判別を行う。
The road surface discriminating unit 24 discriminates the road surface based on the determination result information after identifying which part in the captured image is the road surface area and which part is the area of the three-dimensional object such as the wall. Information indicating the result is output to an external device connected to the road surface discrimination device 1.
In general, since the road surface area appears as a continuous range occupying a certain size in the captured image, the road surface determination unit 24 searches the captured image for a portion where the area determined to be the road surface area is continuous, and the search result The road surface is determined based on the above. In addition, when a boundary edge indicating a boundary between a road surface area and a three-dimensional object area, for example, a wall area, is detected, the road surface is also determined with reference to the boundary edge.

ここで、判別結果が入力される外部機器が、車両と立体物との離間距離が所定距離以下となったときに警報を発する警報装置(図示せず)である場合には、車両の周囲に存在する立体物の位置と、車両と立体物との離間距離とが特定できるので、必要な場合に車両の運転者に注意を喚起することができる。   Here, when the external device to which the determination result is input is an alarm device (not shown) that issues an alarm when the separation distance between the vehicle and the three-dimensional object is equal to or less than a predetermined distance, Since the position of the existing three-dimensional object and the separation distance between the vehicle and the three-dimensional object can be specified, the driver of the vehicle can be alerted when necessary.

また、外部機器が、車両の駐車支援を行う駐車支援装置である場合には、車両内に設置された車両の周囲の状態を表示する表示部(図示せず)上で、車両の周囲が、路面の領域であるのか、立体物の領域であるのかを、重畳して表示させることができる。
また、車両の運転者が、表示部に表示された車両の周囲を示す画像において車両の駐車場所として指定した領域が、立体物の領域である場合、指定した場所には車両を駐車させることができない旨を運転者に通知して注意喚起することができる。
In addition, when the external device is a parking assistance device that supports the parking of the vehicle, on the display unit (not shown) that displays the surrounding state of the vehicle installed in the vehicle, Whether it is a road surface area or a three-dimensional object area can be displayed in a superimposed manner.
In addition, when the area designated as the vehicle parking place in the image showing the periphery of the vehicle displayed on the display unit by the driver of the vehicle is a solid object area, the vehicle can be parked at the designated place. The driver can be alerted to the effect that he cannot do so.

図16は、路面判別装置1における処理を説明するメインフローチャートである。   FIG. 16 is a main flowchart for explaining processing in the road surface discrimination device 1.

はじめに、ステップ101において、画像処理部10は、車両に設置された各カメラCから画像が入力されると、撮像画像を生成し制御部20に入力する。
ステップ102において、制御部20の領域設定部21では、強エッジ検索部21aが、撮像画像内に含まれるエッジ強度が第1の閾値以上となる線分、すなわち強エッジ線分を検索し、ステップ103において、設定部21bが、撮像画像を分割して領域設定をする。すなわち、強エッジ線分を含む強エッジ領域と、含まない弱エッジ領域を設定する。
First, in step 101, when an image is input from each camera C installed in the vehicle, the image processing unit 10 generates a captured image and inputs the captured image to the control unit 20.
In step 102, in the region setting unit 21 of the control unit 20, the strong edge search unit 21a searches for a line segment whose edge intensity included in the captured image is equal to or greater than the first threshold, that is, a strong edge line segment. In 103, the setting unit 21b divides the captured image and sets a region. That is, a strong edge region including a strong edge line segment and a weak edge region not including the strong edge line segment are set.

強エッジ領域が撮像画像内において設定されている場合(ステップ104、Yes)、ステップ105において、特徴抽出部22の強エッジ特徴抽出部22aは、強エッジ領域内に含まれる強エッジ線分を特定する強エッジ特徴情報を生成し、強エッジ領域の特徴とする。
ステップ106において、領域判定部23の強エッジ特徴情報比較部23aは、強エッジ領域内に存在する強エッジ線分の経時変化の有無を確認するために、時刻tにおける強エッジ特徴情報と、時刻t+△tにおける強エッジ情報とを比較し、強エッジ領域が、路面領域と立体物の何れの領域に対応するのかを示す比較結果を生成する。
なお、強エッジ領域が撮像画像内において設定されていない場合(ステップ104、No)、ステップ107の処理に移行する。
When the strong edge region is set in the captured image (Yes in Step 104), in Step 105, the strong edge feature extraction unit 22a of the feature extraction unit 22 identifies the strong edge line segment included in the strong edge region. Strong edge feature information is generated and used as a feature of the strong edge region.
In step 106, the strong edge feature information comparison unit 23a of the region determination unit 23 checks the strong edge feature information at the time t and the time to confirm whether there is a temporal change in the strong edge line segment existing in the strong edge region. The strong edge information at t + Δt is compared, and a comparison result indicating which region of the road surface region and the three-dimensional object the strong edge region corresponds to is generated.
When the strong edge region is not set in the captured image (No at Step 104), the process proceeds to Step 107.

弱エッジ領域が撮像画像内において設定されている場合(ステップ107、Yes)、ステップ108において、特徴抽出部22は、弱エッジ領域内において、エッジ強度の弱いエッジからなるテクスチャやグラデーションに基づく特徴を、弱エッジ領域の特徴として抽出する。
ステップ109において、領域判定部23は、弱エッジ領域から抽出された特徴の経時的な変化を確認するために、時刻tにおける弱エッジ特徴情報と、時刻t+△tにおける弱エッジ特徴情報とを比較し、弱エッジ領域が、路面領域と立体物の何れの領域に対応するのかを示す比較結果を生成する。
When the weak edge region is set in the captured image (step 107, Yes), in step 108, the feature extraction unit 22 displays the feature based on the texture or gradation composed of the edge with weak edge strength in the weak edge region. Extracted as features of weak edge regions.
In step 109, the region determination unit 23 compares the weak edge feature information at time t with the weak edge feature information at time t + Δt in order to confirm the temporal change of the feature extracted from the weak edge region. Then, a comparison result indicating which of the road surface area and the solid object corresponds to the weak edge area is generated.

ステップ110において、領域判定部23の判定部23eは、強エッジ領域についての比較結果と、弱エッジ領域についての比較結果とに基づいて、強エッジ領域と弱エッジ領域が、路面領域であるのか、それとも立体物の領域であるのかを判定し、判定結果を示す判定結果情報を生成する。   In step 110, the determination unit 23e of the region determination unit 23 determines whether the strong edge region and the weak edge region are road surface regions based on the comparison result for the strong edge region and the comparison result for the weak edge region. Whether the region is a solid object or not is determined, and determination result information indicating the determination result is generated.

ステップ111において、路面判別部24は、判定結果情報に基づいて、撮像画像におけるどの部分が路面の領域であり、どの部分が壁などの立体物であるのかを判別する。   In step 111, the road surface discriminating unit 24 discriminates which part in the captured image is a road surface region and which part is a three-dimensional object such as a wall, based on the determination result information.

図17は、ステップ108の処理の詳細を示すフローチャートである。
ステップ201において、特徴抽出部22の弱エッジ特徴抽出部22bは、弱エッジ領域においてエッジ強度が第2の閾値以上となるエッジ、すなわち弱エッジを検索し、ステップ202において、検索された弱エッジの中で、エッジ長さが所定長さ以上となる弱エッジ線分の有無を確認する。
弱エッジ線分が存在する場合(ステップ202、Yes)、ステップ203において、弱エッジ特徴抽出部22bは、弱エッジ線分の始点、終点、経路点、曲点、そして傾きなどを情報項目として含む弱エッジ特徴情報を生成し、弱エッジ領域の特徴とする。
一方、弱エッジ線分が存在しない場合(ステップ202、No)、ステップ204の処理に移行する。
FIG. 17 is a flowchart showing details of the processing in step 108.
In step 201, the weak edge feature extraction unit 22b of the feature extraction unit 22 searches for an edge having an edge strength equal to or higher than the second threshold in the weak edge region, that is, a weak edge. Among them, the presence or absence of a weak edge line segment having an edge length equal to or longer than a predetermined length is confirmed.
If a weak edge line segment exists (step 202, Yes), in step 203, the weak edge feature extraction unit 22b includes a start point, an end point, a route point, a curved point, a slope, and the like as weak information items as information items. Weak edge feature information is generated and used as a weak edge region feature.
On the other hand, if there is no weak edge line segment (step 202, No), the process proceeds to step 204.

ステップ204において、弱エッジ特徴抽出部22bは、弱エッジ領域において、テクスチャの模様を構成する細かいエッジ、すなわち弱エッジの有無を確認する。
かかる弱エッジが存在する場合(ステップ204、Yes)、ステップ205において、検索された弱エッジの方向の頻度を、弱エッジ領域の特徴として抽出する。一方、弱エッジが存在しない場合(ステップ204、No)、ステップ206の処理に移行する。
In step 204, the weak edge feature extraction unit 22b confirms the presence or absence of fine edges constituting the texture pattern in the weak edge region, that is, weak edges.
When such a weak edge exists (step 204, Yes), in step 205, the frequency of the direction of the searched weak edge is extracted as a feature of the weak edge region. On the other hand, when there is no weak edge (step 204, No), the process proceeds to step 206.

ステップ206において、グラデーション特徴抽出部22cは、弱エッジ領域内において、輝度変化の勾配と変化の方向が異なる複数のグラデーション検出用フィルタの各々とのコンボリューションを求めて、グラデーションの有無を確認する。
グラデーションが存在する場合(ステップ206、Yes)、ステップ207において、コンボリューションの値が最も大きいグラデーション検出用フィルタのグラデーションの方向を情報項目の内容として含むグラデーション情報を生成し、これを弱エッジ領域の特徴とする。
一方、グラデーションが存在しない場合(ステップ206、No)、ステップ208の処理に移行する。
In step 206, the gradation feature extraction unit 22c obtains a convolution with each of a plurality of gradation detection filters having different gradients of luminance and different directions in the weak edge region, and confirms the presence or absence of gradation.
If gradation exists (step 206, Yes), in step 207, gradation information including the gradation direction of the gradation detection filter having the largest convolution value as information item content is generated, and this is used as the weak edge region. Features.
On the other hand, if there is no gradation (No at Step 206), the process proceeds to Step 208.

ステップ208において、注目領域特徴抽出部22dは、弱エッジ領域内において、少なくとも二つの注目領域が存在するか否かを確認する。
存在する場合(ステップ208、Yes)、任意に選択された二つの注目領域を結ぶ線分を設定し、その線分の傾きを情報項目の内容として含む注目領域情報を生成し、これを弱エッジ領域の特徴とする。一方、存在しない場合(ステップ208,No)、処理は終了する。
In step 208, the attention area feature extraction unit 22d confirms whether there are at least two attention areas in the weak edge area.
If it exists (step 208, Yes), a line segment connecting two arbitrarily selected attention areas is set, attention area information including the slope of the line segment as the contents of the information item is generated, and this is used as a weak edge. Characterize the region. On the other hand, when it does not exist (step 208, No), the process ends.

図18は、ステップ106の処理の詳細を示すフローチャートである。
はじめに、領域判定部23の強エッジ特徴情報比較部23aは、強エッジ特徴情報が入力されると(ステップ301、Yes)、ステップ302において、時刻tにおける強エッジ特徴情報と、時刻t+△tにおける強エッジ特徴情報とを比較し、強エッジ領域内に存在する強エッジ線分の位置、形状、傾きなどの経時的な変化の有無を確認する。
FIG. 18 is a flowchart showing details of the processing in step 106.
First, when strong edge feature information is input to the strong edge feature information comparison unit 23a of the region determination unit 23 (step 301, Yes), in step 302, strong edge feature information at time t and at time t + Δt. The strong edge feature information is compared, and the presence / absence of changes over time in the position, shape, inclination, etc. of the strong edge line segment existing in the strong edge region is confirmed.

ステップ303において、確認された経時的な変化に基づいて、強エッジ領域が路面領域と立体物の領域とのうちの何れに対応するのかを示す比較結果を生成する。
ここで、強エッジ領域内の強エッジ線分が直線である場合、直線の傾きが経時的に変化しないときは、強エッジ領域が路面領域に対応する旨の比較結果を生成し、経時的に変化するときは、立体物の領域に対応する旨の比較結果を生成する。
また、強エッジ線分が曲線である場合、曲線の形状が経時的に変化しないときは、強エッジ領域が路面領域に対応する旨の比較結果を生成し、経時的に変化するときは、立体物の領域に対応する旨の比較結果を生成する。
In step 303, based on the confirmed change with time, a comparison result indicating which of the road surface region and the solid object region corresponds to the strong edge region is generated.
Here, when the strong edge line segment in the strong edge region is a straight line, if the slope of the straight line does not change with time, a comparison result that the strong edge region corresponds to the road surface region is generated. When it changes, a comparison result indicating that it corresponds to the region of the three-dimensional object is generated.
In addition, when the strong edge line segment is a curve, if the shape of the curve does not change with time, a comparison result that the strong edge area corresponds to the road surface area is generated. A comparison result indicating that it corresponds to the region of the object is generated.

図19は、ステップ109の処理の詳細を示すフローチャートである。
はじめに、弱エッジ特徴情報比較部23bは、弱エッジ特徴情報が入力されると(ステップ401、Yes)、ステップ402において、時刻tにおける弱エッジ特徴情報と、時刻t+△tにおける弱エッジ特徴情報とを比較し、弱エッジ領域内に存在する線分や模様などのテクスチャの経時的な変化の有無を確認する。
FIG. 19 is a flowchart showing details of the processing in step 109.
First, when the weak edge feature information is input (Yes at Step 401), the weak edge feature information comparison unit 23b receives the weak edge feature information at time t and the weak edge feature information at time t + Δt in Step 402. Are compared, and the presence or absence of change with time of the texture such as the line segment or the pattern existing in the weak edge region is confirmed.

ステップ403において、確認された経時的な変化に基づいて、弱エッジ領域が路面領域と立体物の領域とのうちの何れに対応するのかを示す比較結果を生成する。
ここで、弱エッジ領域内に存在するテクスチャが線分のテクスチャであり、線分が直線である場合、直線の傾きが経時的に変化しないときは、弱エッジ領域が路面領域に対応する旨の比較結果を生成し、経時的に変化するときは、立体物の領域に対応する旨の比較結果を生成する。
また、弱エッジ線分が曲線である場合、曲線の形状が経時的に変化しないときは、弱エッジ領域が路面領域に対応する旨の比較結果を生成し、経時的に変化するときは、立体物の領域に対応する旨の比較結果を生成する。
さらに、弱エッジ領域内に存在するテクスチャが模様である場合、模様を構成する弱エッジの方向の頻度が経時的に変化しないときは、弱エッジ領域が路面領域に対応する旨の比較結果を生成し、経時的に変化するときは、立体物の領域に対応する旨の比較結果を生成する。
なお、弱エッジ特徴情報が入力されない場合は(ステップ401、No)、ステップ404の処理に移行する。
In step 403, based on the confirmed change over time, a comparison result indicating which of the road surface region and the solid object region corresponds to the weak edge region is generated.
Here, when the texture existing in the weak edge region is a line segment texture, and the line segment is a straight line, if the slope of the straight line does not change with time, the weak edge region corresponds to the road surface region. When a comparison result is generated and changes over time, a comparison result indicating that it corresponds to the region of the three-dimensional object is generated.
Also, when the weak edge line is a curve, if the shape of the curve does not change over time, a comparison result that the weak edge area corresponds to the road surface area is generated. A comparison result indicating that it corresponds to the region of the object is generated.
In addition, if the texture present in the weak edge area is a pattern, if the frequency of the weak edges constituting the pattern does not change over time, a comparison result is generated that the weak edge area corresponds to the road surface area. However, when it changes over time, a comparison result indicating that it corresponds to the region of the three-dimensional object is generated.
If weak edge feature information is not input (No in step 401), the process proceeds to step 404.

グラデーション情報比較部23cは、グラデーション情報が入力されると(ステップ404、Yes)、ステップ405において、時刻tにおけるグラデーション情報と、時刻t+△tにおけるグラデーション情報とを比較して、弱エッジ領域内に存在するグラデーションの方向の経時的変化を確認する。
ステップ406において、グラデーションの方向が経時的に変化しないときは、弱エッジ領域が路面領域に対応する旨の比較結果を生成し、経時的に変化するときは、立体物の領域に対応する旨の比較結果を生成する。
When the gradation information is input (Yes in Step 404), the gradation information comparing unit 23c compares the gradation information at the time t with the gradation information at the time t + Δt in Step 405, and within the weak edge region. Check the change in the direction of the existing gradation over time.
In step 406, if the gradation direction does not change over time, a comparison result is generated that the weak edge region corresponds to the road surface region. If the gradation direction changes over time, the result corresponds to the region of the three-dimensional object. Generate comparison results.

注目領域情報比較部23dは、注目領域情報が入力されると(ステップ407、Yes)、ステップ408において、時刻tにおける注目領域情報と、時刻t+△tにおける注目領域情報とを比較し、弱エッジ領域内に存在する注目領域の中から選択した少なくとも2つの注目領域を結ぶ線分の傾きの経時的変化を確認する。
ステップ409において、2つの注目領域を結ぶ線分の傾きが経時的に変化しないときは、弱エッジ領域が路面領域に対応する旨の比較結果を生成し、経時的に変化するときは、立体物の領域に対応する旨の比較結果を生成する。
When the attention area information is inputted (step 407, Yes), the attention area information comparison unit 23d compares the attention area information at the time t with the attention area information at the time t + Δt in step 408, and the weak edge. A change with time in the inclination of a line segment connecting at least two attention areas selected from the attention areas existing in the area is confirmed.
In step 409, when the slope of the line segment connecting the two regions of interest does not change with time, a comparison result is generated that the weak edge region corresponds to the road surface region. A comparison result corresponding to the region is generated.

これにより、図16のステップ110において、判定部23eが、強エッジ特徴情報比較部23a、弱エッジ特徴情報比較部23b、グラデーション情報比較部23c、そして注目領域情報比較部23dにおいて生成された比較結果のうちの少なくともひとつに基づいて、強エッジ領域と弱エッジ領域とが、それぞれ路面の領域であるのか、それとも立体物の領域であるのかを判定し、判定結果を示す判定結果情報が生成されることになる。   Accordingly, in step 110 of FIG. 16, the determination unit 23e performs the comparison result generated by the strong edge feature information comparison unit 23a, the weak edge feature information comparison unit 23b, the gradation information comparison unit 23c, and the attention area information comparison unit 23d. Based on at least one of these, it is determined whether the strong edge region and the weak edge region are each a road surface region or a solid object region, and determination result information indicating the determination result is generated. It will be.

本実施形態では、図16のフローチャートにおけるステップ102およびステップ103が、発明における領域設定部および領域設定段階に対応し、ステップ104およびステップ105並びにステップ107及びステップ108が、特徴抽出部及び特徴抽出段階に対応し、ステップ106、ステップ109、そしてステップ110が、領域判定部および領域判定段階に対応し、ステップ111が路面判別部および路面判別段階に対応している。
また、発明における第1対象領域は弱エッジ領域に、第2対象領域は強エッジ領域にそれぞれ対応する。
In the present embodiment, step 102 and step 103 in the flowchart of FIG. 16 correspond to the region setting unit and region setting stage in the invention, and step 104 and step 105 and step 107 and step 108 are the feature extraction unit and feature extraction stage. Step 106, Step 109, and Step 110 correspond to the region determination unit and the region determination stage, and Step 111 corresponds to the road surface determination unit and the road surface determination stage.
In the invention, the first target region corresponds to the weak edge region, and the second target region corresponds to the strong edge region.

以上の通り、本実施形態では、車両に搭載されて車両の周囲の路面を撮像するカメラCで撮像した撮像画像に基づいて、車両周囲の路面の判別を行う路面判別装置1であって、エッジ強度が第1の閾値以上となる強エッジの線分を撮像画像において検索すると共に、撮像画像における強エッジの線分を含まない領域を弱エッジ領域として設定し、エッジ強度が第1の閾値よりも小さい第2の閾値以上となる弱エッジからなるテクスチャを、弱エッジ領域において検索すると共に、検索されたテクスチャの特徴を抽出し、車両の直進走行時におけるテクスチャの特徴の経時的変化に基づいて、弱エッジ領域が路面領域と立体物の領域とのうちの何れであるのかを判定し、判定結果に基づいて、路面の判別を行う構成とした。
よって、特徴抽出をした際に特徴が顕著に表れる強エッジの線分が含まれない弱エッジ領域においてエッジ強度の小さい弱エッジを検索し、検索された弱エッジからなるテクスチャの特徴に基づいて、弱エッジ領域が路面領域と立体物の領域とのうちの何れであるのかを判定し、判定結果に基づいて路面の判別を行うので、強エッジの線分が撮像画像内に存在しない場合であっても、撮像画像における路面領域と立体物の領域の判定と、路面の判別が行えるという効果が得られる。
As described above, in the present embodiment, the road surface discriminating apparatus 1 that discriminates the road surface around the vehicle based on the captured image captured by the camera C that is mounted on the vehicle and captures the road surface around the vehicle. A strong edge line segment having an intensity greater than or equal to the first threshold is searched in the captured image, and an area not including the strong edge line segment in the captured image is set as a weak edge area, and the edge intensity is greater than the first threshold value. In addition, a texture having a weak edge that is equal to or smaller than the second threshold value is searched in the weak edge region, and a feature of the searched texture is extracted, and based on a temporal change of the texture feature when the vehicle is traveling straight ahead The weak edge region is determined to be either a road surface region or a three-dimensional object region, and the road surface is determined based on the determination result.
Therefore, a weak edge with a low edge strength is searched for in a weak edge region that does not include a line segment of a strong edge in which the feature is noticeable when the feature is extracted, and based on the texture features of the searched weak edge, This is a case where the weak edge region is a road surface region or a three-dimensional object region, and the road surface is determined based on the determination result, so that the line segment of the strong edge does not exist in the captured image. However, the effect that the determination of the road surface area and the three-dimensional object area in the captured image and the determination of the road surface can be performed.

さらに、テクスチャが、弱エッジからなる線分であり、弱エッジからなる線分の位置および形状を特定する座標データを、テクスチャの特徴とする構成とした。特に、線分が直線である場合には直線の位置や傾きを、曲線である場合は曲線の位置や形状を示すための座標データをテクスチャの特徴とし、これらの経時的変化に基づいて、弱エッジ領域が路面領域であるのか、それとも立体物の領域にあるのかを判定する構成とした。
よって、異なる時刻における直線の位置や傾き、曲線の位置や形状を、それぞれ比較するだけで、経時的な変化が判るので、複雑な計算を必要とせずに経時的な変化の確認が行えるという効果が得られる。
Furthermore, the texture is a line segment composed of weak edges, and coordinate data for specifying the position and shape of the line segment composed of weak edges is set as a feature of the texture. In particular, if the line segment is a straight line, the position and inclination of the straight line is used as a feature of the texture, and if it is a curve, the coordinate data for indicating the position and shape of the curve is used as a characteristic of the texture. It is configured to determine whether the edge region is a road surface region or a solid object region.
Therefore, it is possible to check changes over time by simply comparing the position and slope of a straight line and the position and shape of a curve at different times, so that changes over time can be confirmed without the need for complicated calculations. Is obtained.

また、テクスチャが、弱エッジからなる模様であり、テクスチャの特徴を、模様を構成する弱エッジの方向の頻度とし、弱エッジの方向の頻度の経時的変化に基づいて、弱エッジ領域が路面領域であるのか、それとも立体物の領域にあるのかを判定する構成とした。
よって、異なる時刻における弱エッジの方向の頻度を比較するだけで経時的な変化が判るので、複雑な計算を必要とせずに経時的な変化の確認が行えるという効果が得られる。
Also, the texture is a pattern composed of weak edges, and the texture feature is the frequency of the weak edges constituting the pattern, and the weak edge area is the road surface area based on the temporal change of the frequency of the weak edges. Or in the region of a three-dimensional object.
Therefore, since the change with time can be found only by comparing the frequencies of the directions of the weak edges at different times, the effect of confirming the change with time can be obtained without requiring complicated calculation.

また、弱エッジ領域においてグラデーションを検索すると共に、検索されたグラデーションの特徴を抽出し、テクスチャの特徴の経時的変化と、グラデーションの特徴の経時的変化とのうちの少なくとも一方に基づいて、弱エッジ領域が、路面領域と立体物の領域とのうちの何れであるのかを判定する構成とした。
よって、弱エッジ領域内で弱エッジからなるテクスチャが検出されない場合であっても、弱エッジ領域内に存在するグラデーションの経時的な変化を確認することで、弱エッジ領域が、路面領域と立体物の領域とのうちの何れの種別であるのかの判定を行うことができ、また判定結果に基づいて路面の判別とが行えるという効果が得られる。
また、テクスチャの特徴の経時的変化と、グラデーションの特徴の経時的変化の両方に基づいて、弱エッジ領域の種別の判定を行うことができ、また判定結果に基づいて路面の判別を行うこともできるので、路面の判別の確度がより向上するという効果が得られる。
In addition, the gradation is searched in the weak edge region, the feature of the searched gradation is extracted, and the weak edge is extracted based on at least one of the change in the texture feature with time and the change in the gradation feature with time. It was set as the structure which determines whether an area | region is a road surface area | region and the area | region of a solid object.
Therefore, even if a texture consisting of weak edges is not detected in the weak edge area, the weak edge area can be identified as a road surface area and a three-dimensional object by checking the change in gradation over time in the weak edge area. It is possible to determine which type of the area is, and to determine the road surface based on the determination result.
In addition, it is possible to determine the type of weak edge area based on both the temporal change in texture characteristics and the temporal change in gradation characteristics, and it is also possible to determine the road surface based on the determination result. Therefore, the effect of improving the accuracy of road surface discrimination can be obtained.

さらに、弱エッジ領域と、輝度変化の勾配と変化の方向が異なる複数のグラデーション検出用フィルタの各々とのコンボリューションを求め、求めたコンボリューションの値が最も大きいグラデーション検出用フィルタのグラデーションの方向を、前記グラデーションの特徴とする構成としたので、従来のエッジフィルタでは、輝度変化が小さいために検索できなかったグラデーションの有無を確認できるという効果が得られる。
また、コンボリューション値の最も大きいグラデーション検出用フィルタのグラデーションの方向を、弱エッジ領域の特徴とする構成としたので、異なる時刻におけるグラデーションの方向を比較するだけで経時的な変化が判るので、複雑な計算を必要とせずに経時的な変化の確認が行えるという効果が得られる。
Further, a convolution of the weak edge region and each of a plurality of gradation detection filters having different brightness change gradients and change directions is obtained, and the gradation direction of the gradation detection filter having the largest obtained convolution value is obtained. Since the configuration is characterized by the gradation, the conventional edge filter has an effect that the presence / absence of gradation that cannot be searched because the luminance change is small can be obtained.
In addition, since the gradation direction of the gradation detection filter with the largest convolution value is characterized by a weak edge region, the change over time can be found by simply comparing the gradation directions at different times. The effect that the change with the passage of time can be confirmed without requiring a complicated calculation is obtained.

また、弱エッジ領域において注目領域を検索すると共に、検索された注目領域の中から選択した少なくとも二つの注目領域の位置関係を特徴として抽出し、位置関係の経時的変化を確認することで、弱エッジ領域が路面領域と立体物の領域とのうちの何れであるのかを判定する構成とした。
よって、弱エッジ領域内でテクスチャやグラデーションが検出されない場合であっても、弱エッジ領域内において、たとえばゴミや汚れなどに起因する小さな円形や三角形の領域、すなわち注目領域が検出できれば、少なくとも二つの注目領域の位置関係の経時的な変化を確認することで、弱エッジ領域が路面領域と立体物の領域とのうちの何れの種別であるのかの判定、そして路面の判別が行えるという効果が得られる。
また、テクスチャの特徴の経時的変化と、グラデーションの特徴の経時的変化と、注目領域の経時的な変化の少なくとも一つに基づいて、弱エッジ領域の種別の判定を行うことができ、判定結果に基づいて路面の判別とを行うこともできるので、複数の特徴の経時的変化に基づいて路面の判別を行うと、判別の確度がより向上するという効果が得られる。
In addition, the attention area is searched in the weak edge area, and the positional relationship between at least two attention areas selected from the searched attention areas is extracted as a feature, and the temporal change of the positional relation is confirmed. It is configured to determine whether the edge region is a road surface region or a three-dimensional object region.
Therefore, even if a texture or gradation is not detected in the weak edge area, if a small circular or triangular area due to dust or dirt, for example, an attention area can be detected in the weak edge area, at least two By confirming the temporal change in the positional relationship of the attention area, it is possible to determine whether the weak edge area is a road surface area or a three-dimensional object area, and to determine the road surface. It is done.
In addition, the weak edge region type can be determined based on at least one of the temporal change in the texture feature, the temporal change in the gradation feature, and the temporal change in the region of interest. Therefore, it is possible to determine the road surface based on the above, and therefore, when the road surface is determined based on the change with time of a plurality of features, the accuracy of the determination is further improved.

特に、弱エッジ領域内に存在する注目領域の中から選択した任意の二つの注目領域の位置関係の経時的な変化を確認するために、これら二つの注目領域を結ぶ線分の傾きを弱エッジ領域の特徴とする構成としたので、異なる時刻における線分の傾きを比較するだけで、経時的な変化が判るので、複雑な計算を必要とせずに経時的な変化の確認が行えるという効果が得られる。   In particular, in order to confirm the temporal change in the positional relationship between any two target areas selected from the target areas existing in the weak edge area, the slope of the line segment connecting these two target areas is set to the weak edge. Since it has a structure that characterizes the region, it is possible to determine changes over time simply by comparing the slopes of line segments at different times, so that it is possible to check changes over time without requiring complex calculations. can get.

ここで、注目領域は、円形領域と直線線分とが組み合わさった領域、任意の角度で交差する短いエッジの領域、そして円形領域のいずれかである構成としたので、弱エッジ領域内に僅かでも弱エッジが存在すれば、検出された弱エッジの経時的な変化を確認することができ、対象領域が路面領域と立体物の領域とのうちの何れであるのかを判別することが可能となる。   Here, the attention area is configured by any one of a combination of a circular area and a straight line segment, a short edge area intersecting at an arbitrary angle, and a circular area. However, if there is a weak edge, it is possible to confirm the change over time of the detected weak edge and to determine whether the target area is a road surface area or a three-dimensional object area. Become.

また、強エッジの線分を含む領域を強エッジ領域として設定し、強エッジの線分の特徴を強エッジ領域の特徴として抽出し、車両の直進走行時における強エッジの線分の特徴の経時的変化に基づいて、強エッジ領域が、路面領域と立体物の領域とのうちの何れであるのかを判定し、強エッジ領域についての判定結果と、弱エッジ領域についての判定結果とに基づいて路面の判別を行う構成とした。
よって、弱エッジの線分、グラデーション、そして注目領域のうちの少なくともひとつの特徴の経時的な変化に基づく判定結果の他に、特徴抽出をした際に特徴が顕著に表れる強エッジの線分の特徴の経時的な変化に基づく判定結果を加味した上で、路面領域の判別が行えるので、路面判別の確度がより向上するという効果が得られる。
In addition, the region including the line segment of the strong edge is set as the strong edge region, and the feature of the line segment of the strong edge is extracted as the feature of the strong edge region. The strong edge region is determined as a road surface region or a three-dimensional object region on the basis of the change, and based on the determination result for the strong edge region and the determination result for the weak edge region The road surface is discriminated.
Therefore, in addition to the determination result based on the temporal change of at least one of the weak edge line segment, gradation, and region of interest, the strong edge line segment in which the feature appears prominently during feature extraction Since the road surface area can be determined in consideration of the determination result based on the change with time of the feature, the effect of improving the accuracy of the road surface determination can be obtained.

特に、強エッジ線分が直線である場合には直線の位置や傾き、曲線である場合には曲線の位置や形状を、強エッジ線分の特徴とすると、異なる時刻における直線の位置や傾き、曲線の位置や形状をそれぞれ比較するだけで、経時的な変化が簡単に判るという効果が得られる。
また、強エッジ線分の特徴のみならず、テクスチャ、グラデーション、そして注目領域などの弱エッジに起因する特徴も加味した上で、路面の判別が行われるので、強エッジ線分に基づいてのみ路面の判別などを行っている従来の路面判別法に比べ、判別の確度が向上するという効果が得られる。
In particular, when the strong edge line segment is a straight line, the position and inclination of the straight line, and when the curve is a curve, the position and shape of the curve are the characteristics of the strong edge line segment. By simply comparing the positions and shapes of the curves, it is possible to obtain an effect that changes over time can be easily understood.
Also, not only the features of strong edge segments but also the texture, gradation, and features due to weak edges such as the region of interest are taken into account, so the road surface is determined, so the road surface only based on the strong edge segments. As compared with the conventional road surface discriminating method that performs discriminating, the effect of improving the discriminating accuracy is obtained.

さらに、撮像画像において弱エッジ領域と強エッジ領域とをそれぞれ複数設定し、弱エッジ領域の各々において、テクスチャの検索と検索されたテクスチャの特徴の抽出を行うと共に、強エッジ領域の各々において強エッジ線分の特徴の抽出を行い、弱エッジ領域と強エッジ領域の各々について、路面領域と立体物の領域とのうちの何れであるのかを判定する構成とした。
よって、路面領域と立体物の領域とのうちの何れの領域であるのかの判定をより細かく行うことができるので、判別結果に基づいて行われる路面判別の確度がより向上するという効果が得られる。
Furthermore, a plurality of weak edge regions and strong edge regions are set in the captured image, and in each weak edge region, texture search and feature extraction of the retrieved texture are performed, and strong edge regions are detected in each strong edge region. The feature of the line segment is extracted to determine whether each of the weak edge region and the strong edge region is a road surface region or a three-dimensional object region.
Therefore, since it is possible to more precisely determine which one of the road surface area and the three-dimensional object area, the accuracy of the road surface determination performed based on the determination result is further improved. .

また、撮像画像は、カメラCからの画像データを、車両の上方から見た俯瞰画像に変換したものであり、画像の中央部に位置する車両を取り囲むように、車両の周囲の画像が配置されている構成としたので、車両が直進走行している際の、撮像画像内のテクスチャ(線分、模様、そしてグラデーションなど)の経時的な変化を確認することで、路面領域と立体物の領域との判別が容易に行える。例えば、路面に描かれた停止線を車両が横切る場合、撮像画像において停止線は車両の進行方向とは反対の方向に平行移動するが、壁の表面に存在する線分の場合には、平行移動ではなく線分の角度が撮像画像において変化するので、線分などの経時的な変化を確認することで、路面領域と立体物の領域との判別が容易に行える。従って、直線の平行移動の検出のような非常に簡単な検出処理を行うだけで、路面の検出が行えるという効果が得られる。   The captured image is obtained by converting the image data from the camera C into a bird's-eye view image viewed from above the vehicle, and images around the vehicle are arranged so as to surround the vehicle located at the center of the image. By checking the changes over time in the texture (lines, patterns, gradation, etc.) in the captured image when the vehicle is traveling straight ahead, the road surface area and the three-dimensional object area Can be easily identified. For example, when a vehicle crosses a stop line drawn on the road surface, the stop line translates in a direction opposite to the traveling direction of the vehicle in the captured image, but in the case of a line segment existing on the surface of the wall, it is parallel. Since the angle of the line segment changes in the captured image instead of the movement, the road surface area and the three-dimensional object area can be easily discriminated by checking the change over time such as the line segment. Therefore, it is possible to obtain the effect that the road surface can be detected only by performing a very simple detection process such as detection of the parallel movement of the straight line.

なお、本実施の形態では、撮像画像における強エッジ領域の設定は、設定部21bが、検索された強エッジ線分の位置に基づいて行う構成としたが、例えば、図19の(a)に示すように、撮像画像を格子状に区画して、区画された領域内に強エッジ線分が存在する場合には強エッジ領域と決定し、存在しない場合には弱エッジ領域とする構成としても良い。
例えば、図19の(a)に示す撮像画像の領域αと領域βの場合、領域αには強エッジ線分が含まれており、領域βには含まれていないので、領域αは強エッジ領域であり、領域βは弱エッジ領域であると、それぞれ決定されることになる。
これにより、強エッジ領域と弱エッジ領域の設定を画一的に短時間で行うことができる。
In the present embodiment, the setting of the strong edge region in the captured image is performed by the setting unit 21b based on the position of the searched strong edge line segment. For example, FIG. As shown in the figure, the captured image is partitioned in a grid pattern, and when there is a strong edge line segment in the partitioned area, it is determined as a strong edge region, and when it does not exist, it is set as a weak edge region. good.
For example, in the case of the region α and the region β of the captured image shown in FIG. 19A, since the region α includes a strong edge line segment and is not included in the region β, the region α is a strong edge. Each region is determined as a weak edge region.
Thereby, the setting of the strong edge region and the weak edge region can be performed uniformly in a short time.

さらに、このようにして強エッジ領域と弱エッジ領域とを設定した後に、隣接する領域をまとめて、強エッジ領域と弱エッジ領域を再編成する構成としても良い。
例えば、図17の(b)に示す撮像画像では、車両マークVの前方と後方に位置する弱エッジ領域をそれぞれひとつに纏めることができるので、特徴抽出部22が特徴抽出をする際の処理の負担を軽減させることができる。
Further, after setting the strong edge region and the weak edge region in this way, the adjacent regions may be combined and the strong edge region and the weak edge region may be reorganized.
For example, in the captured image shown in FIG. 17B, the weak edge regions located in front and rear of the vehicle mark V can be combined into one, so that the process when the feature extraction unit 22 performs feature extraction is performed. The burden can be reduced.

実施形態に係る路面判別装置の構成図である。It is a lineblock diagram of the road surface discriminating device concerning an embodiment. 車両に搭載されたカメラの配置と画像処理部において生成される撮像画像の説明図である。It is explanatory drawing of the captured image produced | generated in the arrangement | positioning of the camera mounted in the vehicle, and an image process part. 俯瞰画像の例を示す説明図である。It is explanatory drawing which shows the example of a bird's-eye view image. 撮像画像における強エッジ領域と弱エッジ領域を示す説明図である。It is explanatory drawing which shows the strong edge area | region and weak edge area | region in a captured image. 路面判別装置の制御部の構成図である。It is a block diagram of the control part of a road surface discrimination device. 強エッジ特徴情報を説明する説明図Explanatory drawing explaining strong edge feature information エッジの方向の頻度を説明する説明図である。It is explanatory drawing explaining the frequency of the direction of an edge. 強エッジとグラデーションを説明する説明図である。It is explanatory drawing explaining a strong edge and gradation. 強エッジやグラデーションを検出するためのフィルタを説明する説明図である。It is explanatory drawing explaining the filter for detecting a strong edge and gradation. グラデーションの検出を説明する説明図である。It is explanatory drawing explaining the detection of gradation. 強エッジ線分の経時変化の判断要領を説明する説明図であるIt is explanatory drawing explaining the judgment point of the time-dependent change of a strong edge line segment. 強エッジ線分の経時変化の判断要領を説明する説明図であるIt is explanatory drawing explaining the judgment point of the time-dependent change of a strong edge line segment. エッジの方向の頻度の経時変化の判断要領を説明する説明図である。It is explanatory drawing explaining the judgment point of the time-dependent change of the frequency of an edge direction. グラデーションの経時変化の判断要領を説明する説明図である。It is explanatory drawing explaining the determination point of the time-dependent change of gradation. 注目領域の相対的位置関係の経時変化の判断要領を説明する説明図である。It is explanatory drawing explaining the judgment point of the time-dependent change of the relative positional relationship of an attention area. 実施形態に係る路面判別装置における処理を説明するフローチャートである。It is a flowchart explaining the process in the road surface discrimination | determination apparatus which concerns on embodiment. 制御部の特徴抽出部における処理を説明するフローチャートである。It is a flowchart explaining the process in the feature extraction part of a control part. 制御部の領域判定部における処理を説明するフローチャートである。It is a flowchart explaining the process in the area | region determination part of a control part. 制御部の領域判定部における処理を説明するフローチャートである。It is a flowchart explaining the process in the area | region determination part of a control part. 強エッジ領域と弱エッジ領域の設定の変形例を示す説明図である。It is explanatory drawing which shows the modification of the setting of a strong edge area | region and a weak edge area | region.

符号の説明Explanation of symbols

1 路面判別装置
10 画像処理部
11 撮像画像生成部
12 撮像画像補正部
20 制御部
21 領域設定部
21a 強エッジ検索部
21b 設定部
22 特徴抽出部
22a 強エッジ特徴抽出部
22b 弱エッジ特徴抽出部
22c グラデーション特徴抽出部
22d 注目領域特徴抽出部
23 領域判定部
23a 強エッジ特徴情報比較部
23b 弱エッジ特徴情報比較部
23c グラデーション情報比較部
23d 注目領域情報比較部
23e 判定部
24 路面判別部
30 記憶部
31 画像メモリ
32 設定テーブル
33 特徴履歴テーブル
DESCRIPTION OF SYMBOLS 1 Road surface discrimination device 10 Image processing part 11 Captured image generation part 12 Captured image correction part 20 Control part 21 Area setting part 21a Strong edge search part 21b Setting part 22 Feature extraction part 22a Strong edge feature extraction part 22b Weak edge feature extraction part 22c Gradation feature extraction unit 22d Region-of-interest feature extraction unit 23 Region determination unit 23a Strong edge feature information comparison unit 23b Weak edge feature information comparison unit 23c Gradation information comparison unit 23d Region-of-interest information comparison unit 23e Determination unit 24 Road surface determination unit 30 Storage unit 31 Image memory 32 Setting table 33 Feature history table

Claims (12)

車両に搭載されて車両の周囲の路面を撮像するカメラで撮像した撮像画像に基づいて、車両周囲の路面の判別を行う路面判別装置であって、
エッジ強度が第1の閾値以上となる強エッジの線分を前記撮像画像から生成された、車両の上方から見た俯瞰画像において検索すると共に、前記俯瞰画像における前記強エッジの線分を含まない領域を第1対象領域として設定する領域設定部と、
前記エッジ強度が前記第1の閾値よりも小さい第2の閾値以上となる弱エッジの線分や模様の弱エッジ特徴情報からなるテクスチャを前記第1対象領域において検索すると共に、検索された前記テクスチャの特徴を抽出する特徴抽出部と、
前記車両の直進走行時における前記テクスチャの特徴の経時的変化に基づいて、前記第1対象領域が、路面領域と立体物の領域とのうちの何れであるのかを判定する領域判定部と、
判定結果に基づいて路面の判別を行う路面判別部と
から構成されることを特徴とする路面判別装置。
A road surface discriminating apparatus that discriminates a road surface around a vehicle based on a captured image captured by a camera that is mounted on a vehicle and images a road surface around the vehicle,
A line segment of a strong edge having an edge strength equal to or greater than a first threshold is searched from an overhead image generated from the captured image as viewed from above the vehicle, and does not include the line segment of the strong edge in the overhead image . An area setting unit for setting an area as a first target area;
Wherein with the edge intensity is searched in the first target region texture consisting of weak edge feature information of line segments and patterns of weak edges as a small second threshold value or more than the first threshold value, retrieved said texture A feature extraction unit for extracting the features of
An area determination unit that determines whether the first target area is a road surface area or a three-dimensional object area based on a temporal change of the texture characteristics when the vehicle is traveling straight ahead;
A road surface discriminating apparatus comprising: a road surface discriminating unit that discriminates a road surface based on a determination result.
前記テクスチャは、弱エッジからなる線分であり、前記テクスチャの特徴は、前記弱エッジ特徴情報に含まれる、前記線分の位置および形状を特定する座標データであることを特徴とする請求項1に記載の路面判別装置。 The texture is a line segment composed of weak edges, and the texture feature is coordinate data specifying the position and shape of the line segment included in the weak edge feature information. The road surface discrimination device described in 1. 前記テクスチャは、弱エッジからなる模様であり、前記テクスチャの特徴は、前記弱エッジ特徴情報に含まれる、前記模様を構成する弱エッジの方向の頻度であることを特徴とする請求項1または請求項2に記載の路面判別装置。 The said texture is a pattern which consists of weak edges, The characteristic of the said texture is the frequency of the direction of the weak edge which comprises the said pattern contained in the said weak edge characteristic information, The Claim 1 or Claim characterized by the above-mentioned. Item 3. The road surface discrimination device according to Item 2. 前記特徴抽出部は、さらに、前記第1対象領域においてグラデーションを検索すると共に、検索されたグラデーションの特徴を抽出し、
前記領域判定部は、前記テクスチャの特徴の経時的変化と、前記グラデーションの特徴の経時的変化とのうちの少なくとも一方に基づいて、前記第1対象領域が、路面領域と立体物の領域とのうちの何れであるのかを判定することを特徴とする請求項1乃至請求項3のうちの何れか一項に記載の路面判別装置。
The feature extraction unit further searches for gradations in the first target region, and extracts features of the searched gradations,
The region determination unit is configured to determine whether the first target region is a road surface region or a three-dimensional object region based on at least one of a temporal change in the texture feature and a temporal change in the gradation feature. The road surface discriminating device according to any one of claims 1 to 3, wherein the road surface discriminating device determines which one of them.
前記特徴抽出部は、前記第1対象領域と、輝度変化の勾配と変化の方向が異なる複数のグラデーション検出用フィルタの各々とのコンボリューションを求め、求めたコンボリューションの値が最も大きいグラデーション検出用フィルタのグラデーションの方向を、前記グラデーションの特徴とすることを特徴とする請求項4に記載の路面判別装置。   The feature extraction unit obtains a convolution of the first target region and each of a plurality of gradation detection filters having different gradients of luminance change and change directions, and for gradation detection having the largest obtained convolution value. 5. The road surface discriminating apparatus according to claim 4, wherein the gradation direction of the filter is a characteristic of the gradation. 前記特徴抽出部は、さらに、前記第1対象領域において注目領域を検索すると共に、検索された注目領域の中から選択した少なくとも二つの注目領域の位置関係を特徴として抽出し、
前記領域判定部は、前記テクスチャの特徴の経時的変化と、前記注目領域の特徴の経時的変化とのうちの少なくとも一方に基づいて、前記第1対象領域が、路面領域と立体物の領域とのうちの何れであるのかを判定することを特徴とする請求項1乃至請求項3のうちの何れか一項に記載の路面判別装置。
The feature extraction unit further searches for the attention area in the first target area, and extracts the positional relationship between at least two attention areas selected from the searched attention areas as features,
The region determination unit is configured to determine whether the first target region is a road surface region or a three-dimensional object region based on at least one of a temporal change in the texture feature and a temporal change in the feature region feature. The road surface discriminating apparatus according to any one of claims 1 to 3, wherein the road surface discriminating apparatus is determined.
前記特徴抽出部は、さらに、前記第1対象領域において注目領域を検索すると共に、検索された注目領域の中から選択した少なくとも二つの注目領域の位置関係を特徴として抽出し、
前記領域判定部は、前記テクスチャの特徴の経時的変化と、前記グラデーションの特徴の経時的変化と、前記注目領域の特徴の経時的変化とのうちの少なくとも一つに基づいて、前記第1対象領域が、路面領域と立体物の領域とのうちの何れであるのかを判定することを特徴とする請求項4または請求項5に記載の路面判別装置。
The feature extraction unit further searches for the attention area in the first target area, and extracts the positional relationship between at least two attention areas selected from the searched attention areas as features,
The region determination unit is configured to determine the first target based on at least one of a temporal change in the texture feature, a temporal change in the gradation feature, and a temporal change in the feature feature. 6. The road surface discriminating apparatus according to claim 4 or 5, wherein the road surface region or the three-dimensional object region is determined.
前記注目領域は、円形領域と直線線分との組み合わせ、任意の角度で交差する短いエッジ、円形領域のいずれかであることを特徴とする請求項7に記載の路面判別装置。   The road surface discriminating apparatus according to claim 7, wherein the attention area is any one of a combination of a circular area and a straight line segment, a short edge intersecting at an arbitrary angle, and a circular area. 前記領域設定部は、前記強エッジの線分を含む領域を第2対象領域として設定し、
前記特徴抽出部は、前記強エッジの線分の特徴を前記第2対象領域の特徴として抽出し、
前記領域判定部は、前記車両の直進走行時における前記強エッジの線分の特徴の経時的変化に基づいて、前記第2対象領域が、路面領域と立体物の領域とのうちの何れであるのかを判定し、
前記路面判別部は、前記第2対象領域についての判定結果と、前記第1対象領域についての判定結果とに基づいて、路面の判別を行うことを特徴とする請求項1乃至請求項8のうちの何れか一項に記載の路面判別装置。
The region setting unit sets a region including the line segment of the strong edge as a second target region,
The feature extraction unit extracts a feature of the line segment of the strong edge as a feature of the second target region;
The area determination unit may determine whether the second target area is a road surface area or a three-dimensional object area based on a temporal change in characteristics of the line segment of the strong edge when the vehicle is traveling straight ahead. Determine whether
The road surface determination unit performs road surface determination based on a determination result for the second target area and a determination result for the first target area. The road surface discrimination device according to any one of the above.
前記領域設定部は、前記俯瞰画像において第1対象領域と第2対象領域とをそれぞれ複数設定し、
前記特徴抽出部は、前記第1対象領域の各々において、テクスチャの検索と検索されたテクスチャの特徴の抽出を行うと共に、前記第2対象領域の各々において、強エッジの線分の特徴の抽出を行い、
前記領域判定部は、前記第1対象領域と第2対象領域の各々について、路面領域と立体物の領域とのうちの何れであるのかを判定することを特徴とする請求項9に記載の路面判別装置。
The area setting unit sets a plurality of first and second target areas in the overhead image ,
The feature extraction unit performs a texture search in each of the first target areas and a feature of the searched texture, and extracts a feature of a line segment of a strong edge in each of the second target areas. Done
10. The road surface according to claim 9, wherein the area determination unit determines which of the first target area and the second target area is a road surface area or a three-dimensional object area. Discriminator.
前記俯瞰画像は、当該画像の中央部に配置された車両マークを取り囲むように、車両の周囲の俯瞰画像が配置されていることを特徴とする請求項1乃至請求項10のうちの何れか一項に記載の路面判別装置。 11. The bird's-eye view image includes a bird's-eye view image around a vehicle so as to surround a vehicle mark arranged at a central portion of the image. The road surface discriminating apparatus according to the item. 車両に搭載されて車両の周囲の路面を撮像するカメラで撮像した撮像画像に基づいて、車両周囲の路面の判別を行う路面判別方法であって、
エッジ強度が第1の閾値以上となる強エッジの線分を前記撮像画像から生成された、車両の上方から見た俯瞰画像において検索すると共に、前記撮像画像における前記強エッジの線分を含まない領域を第1対象領域として設定する領域設定段階と、
エッジ強度が前記第1の閾値よりも小さい第2の閾値以上となる弱エッジの線分や模様の弱エッジ特徴情報からなるテクスチャを、前記第1対象領域において検索すると共に、検索されたテクスチャの特徴を抽出する特徴抽出段階と、
前記車両の直進走行時における前記テクスチャの特徴の経時的変化に基づいて、前記第1対象領域が、路面領域と立体物の領域とのうちの何れであるのかを判定する領域判定段階と、
判定結果に基づいて路面の判別を行う路面判別段階とから構成されることを特徴とする路面判別方法。
A road surface determination method for determining a road surface around a vehicle based on a captured image captured by a camera mounted on a vehicle and capturing a road surface around the vehicle,
A strong edge line segment having an edge strength equal to or greater than a first threshold is searched from an overhead image generated from the captured image as viewed from above the vehicle, and does not include the strong edge line segment in the captured image. An area setting stage for setting the area as the first target area;
In the first target area, a texture composed of weak edge line information or a weak edge feature information of a pattern whose edge strength is equal to or larger than a second threshold smaller than the first threshold is searched, and the texture of the retrieved texture A feature extraction stage for extracting features;
An area determination step for determining whether the first target area is a road surface area or a three-dimensional object area based on a temporal change in the texture characteristics when the vehicle is traveling straight ahead;
A road surface discriminating method comprising: a road surface discriminating step for discriminating a road surface based on a judgment result.
JP2007103801A 2007-04-11 2007-04-11 Road surface discrimination device and road surface discrimination method Active JP4872769B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007103801A JP4872769B2 (en) 2007-04-11 2007-04-11 Road surface discrimination device and road surface discrimination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007103801A JP4872769B2 (en) 2007-04-11 2007-04-11 Road surface discrimination device and road surface discrimination method

Publications (2)

Publication Number Publication Date
JP2008262333A JP2008262333A (en) 2008-10-30
JP4872769B2 true JP4872769B2 (en) 2012-02-08

Family

ID=39984772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007103801A Active JP4872769B2 (en) 2007-04-11 2007-04-11 Road surface discrimination device and road surface discrimination method

Country Status (1)

Country Link
JP (1) JP4872769B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2574958B1 (en) 2011-09-28 2017-02-22 Honda Research Institute Europe GmbH Road-terrain detection method and system for driver assistance systems
EP2610778A1 (en) * 2011-12-27 2013-07-03 Harman International (China) Holdings Co., Ltd. Method of detecting an obstacle and driver assist system
JP6045589B2 (en) * 2012-07-27 2016-12-21 日産自動車株式会社 Camera device, three-dimensional object detection device, and lens cleaning method
JP6150164B2 (en) * 2013-07-01 2017-06-21 株式会社リコー Information detection apparatus, mobile device control system, mobile object, and information detection program
TWI585723B (en) * 2015-12-31 2017-06-01 合盈光電科技股份有限公司 Vehicle monitoring system and method thereof
KR101816038B1 (en) 2016-08-25 2018-01-08 현대오트론 주식회사 Apparatus and method for revising brightness of image
KR101895678B1 (en) * 2016-09-28 2018-09-06 전자부품연구원 Efficient Search Window Set-Up Method for the Automotive Image Recognition System
JP2018181070A (en) * 2017-04-17 2018-11-15 キヤノン株式会社 Image processing device and image processing method
JP6808586B2 (en) 2017-07-05 2021-01-06 クラリオン株式会社 External recognition device for vehicles
JPWO2022259373A1 (en) * 2021-06-08 2022-12-15
CN116703924B (en) * 2023-08-08 2023-10-20 通用电梯股份有限公司 Real-time detection and early warning method for wear state of high-speed elevator parts

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006339960A (en) * 2005-06-01 2006-12-14 Nissan Motor Co Ltd Device and method for object detection
JP4946175B2 (en) * 2006-05-23 2012-06-06 日産自動車株式会社 Road boundary detection device and road boundary detection method
JP4797794B2 (en) * 2006-05-24 2011-10-19 日産自動車株式会社 Pedestrian detection device and pedestrian detection method
JP4930046B2 (en) * 2006-12-26 2012-05-09 日産自動車株式会社 Road surface discrimination method and road surface discrimination device

Also Published As

Publication number Publication date
JP2008262333A (en) 2008-10-30

Similar Documents

Publication Publication Date Title
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP6550881B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP6519262B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP5127182B2 (en) Object detection device
JP3861781B2 (en) Forward vehicle tracking system and forward vehicle tracking method
JP7072641B2 (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
WO2017090326A1 (en) Image processing device, image pickup device, apparatus control system, distribution data generation method, and program
JP4893212B2 (en) Perimeter monitoring device
JP2002197444A (en) Run lane recognition device for vehicle
JP2008186246A (en) Moving object recognizing device
JP3562751B2 (en) Forward vehicle detection method and device
JP2013164351A (en) Stereo parallax calculation device
KR101699014B1 (en) Method for detecting object using stereo camera and apparatus thereof
JP2009025910A (en) Obstacle detection device, obstacle detection system, and obstacle detection method
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
JP5083443B2 (en) Driving support device and method, and arithmetic device
JP6340849B2 (en) Image processing apparatus, image processing method, image processing program, and mobile device control system
JP5276032B2 (en) Device for calculating the position of an object
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP5176523B2 (en) Moving body detection apparatus, moving body detection method, and moving body detection program
JP2009077022A (en) Driving support system and vehicle
JP2017151048A (en) Distance measurement program, distance measurement method, and distance measurement device
JP3532896B2 (en) Smear detection method and image processing apparatus using the smear detection method
JP5891751B2 (en) Inter-image difference device and inter-image difference method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100224

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4872769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150