JP2014238693A - Stop line detection device, moving body control device, and program for stop line detection - Google Patents

Stop line detection device, moving body control device, and program for stop line detection Download PDF

Info

Publication number
JP2014238693A
JP2014238693A JP2013120572A JP2013120572A JP2014238693A JP 2014238693 A JP2014238693 A JP 2014238693A JP 2013120572 A JP2013120572 A JP 2013120572A JP 2013120572 A JP2013120572 A JP 2013120572A JP 2014238693 A JP2014238693 A JP 2014238693A
Authority
JP
Japan
Prior art keywords
stop line
road surface
traveling
moving body
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013120572A
Other languages
Japanese (ja)
Other versions
JP6143176B2 (en
Inventor
維 仲
Wei Zhong
維 仲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013120572A priority Critical patent/JP6143176B2/en
Publication of JP2014238693A publication Critical patent/JP2014238693A/en
Application granted granted Critical
Publication of JP6143176B2 publication Critical patent/JP6143176B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To enable the accurate detection of a sign of a stop line on the road.SOLUTION: There is provided a stop line detection device that detects a stop line present on the road surface on which a moving body travels on the basis of photographed images obtained by photographing the direction of travel of the moving body. The stop line detection device detects, from the photographed images, a structure installed at a branch location where the traveling road surface on which the moving body travels branches to another traveling road surface and dividing a traveling road surface area and a non-traveling road surface area, and a long belt-like sign on the road extending in the width direction of the road, and detects a sign on the road present at a position distant from the position of the detected structure by a predetermined distance as a sign of a stop line on the road.

Description

本発明は、路面上に形成されている停止線の路面標示を検出する停止線検出装置、該停止線検出装置を搭載して移動体の走行を制御する移動体制御装置、及び停止線検出用プログラムに関するものである。   The present invention relates to a stop line detection device that detects a road marking of a stop line formed on a road surface, a mobile body control device that mounts the stop line detection device and controls the travel of a mobile body, and a stop line detection device. It is about the program.

近年、移動体である車両の安全性を向上させるために車両に搭載されるACC(Adaptive Cruise Control)等の運転支援システムの多様化に伴い、画像の認識装置が多く使われるようになっている。ITS(Intelligent Transport System:高度道路交通システム)においては、走行中に多くのシステムが画像認識処理を行っている。交差点や横断歩道の手前の路面上に形成されている停止線の路面標示を検出する技術が、特許文献1に記載されている。   In recent years, with the diversification of driving support systems such as ACC (Adaptive Cruise Control) mounted on vehicles in order to improve the safety of vehicles that are moving objects, image recognition devices have come to be used a lot. . In ITS (Intelligent Transport System), many systems perform image recognition processing while driving. Patent Document 1 discloses a technique for detecting a road marking of a stop line formed on a road surface in front of an intersection or a pedestrian crossing.

特許文献1の停止線検出装置では、複数の車両通行帯を有する車道における交差点に進入する手前から自車両の走行方向を撮像する。撮像画像から検出した進行方向別区分の路面標示部に基づいて停止線の路面標示部を検出する。交差点に向かって走行すると、走行している車両通行帯の路面上に、進行方向別区分の路面標示部が最初に見てくる。この進行方向別区分の路面標示部は、車両通行帯毎の交差点通過後の進行方向を示す矢印表示の路面標示部である。進行方向別区分の路面標示部を通過し、更に交差点に向かって走行すると、停止線の路面標示部、自転車通行専用帯の路面標示部が順に見えてくる。停止線の路面標示部及び自転車通行専用帯の路面標示部は、路面幅方向に延びた長尺帯状の白線であり特徴的な形状を有していない。また、路面幅方向に直交する方向である走行方向における各幅の差が小さく、撮像画像から、互いを区別することが難しい。これらのため、撮像画像から、自転車通行専用帯の路面標示部と区別して停止線の路面標示部を検出することは難しい。一方、上記進行方向別区分の路面標示部の矢印表示は特徴的な形状を有しており、進行方向別区分の路面標示部は比較的容易に検出することができる。進行方向別区分の路面標示部の位置から、交差点に向かって所定の距離だけ離れた位置に、停止線の路面標示部が形成されていることがわかっている。撮像画像から進行方向別区分の路面標示部を検出し、その検出した進行方向別区分の路面標示部の位置から所定の距離離れた位置にあるか否かにより、自転車通行専用帯の路面標示部と区別して停止線の路面標示部を検出できる。   In the stop line detection apparatus of Patent Document 1, the traveling direction of the host vehicle is imaged from before entering an intersection on a roadway having a plurality of vehicle lanes. A road marking part for a stop line is detected based on a road marking part for each traveling direction detected from the captured image. When traveling toward the intersection, the road marking section according to the direction of travel is first seen on the road surface of the traveling road. The road marking section classified by the traveling direction is a road marking section with an arrow indicating the traveling direction after passing the intersection for each vehicle lane. Passing through the road marking sections classified by the direction of travel, and traveling further toward the intersection, the road marking section for the stop line and the road marking section for the bicycle-only zone can be seen in order. The road marking part of the stop line and the road marking part of the bicycle traffic band are long white strips extending in the road width direction and have no characteristic shape. Moreover, the difference of each width | variety in the driving | running | working direction which is a direction orthogonal to a road surface width direction is small, and it is difficult to distinguish each other from a captured image. For these reasons, it is difficult to detect the road marking part of the stop line from the picked-up image, distinguishing it from the road marking part of the bicycle traffic band. On the other hand, the arrow display of the road marking section classified by the traveling direction has a characteristic shape, and the road marking section classified by the traveling direction can be detected relatively easily. It is known that a road marking part for a stop line is formed at a position away from the position of the road marking part for each traveling direction by a predetermined distance toward the intersection. The road marking section for the direction of traveling direction is detected from the picked-up image, and the road marking section for a dedicated bicycle passage is determined by whether or not it is at a predetermined distance from the position of the road marking section for the traveling direction section detected. It is possible to detect the road marking part of the stop line.

しかしながら、上記特許文献1の停止線検出装置では、以下により、停止線の路面標示部を正確に検出することは難しい。一般に、走行路面上に形成されている路面標示部は、塗装により形成されている。この路面標示部のうち、進行方向別区分の路面標示部は、車両の運転手に対し、走行している車両通行帯の交差点通過後の進行方向が見やすいように、車両通行帯内全体に形成されている。走行していた車両通行帯の進行方向別区分の矢印方向が交差点通過後の走行したい走行方向と異なっていた場合、走行したい方向の他の車両通行帯へ走行変更を行う。この場合、車両は車両通行帯を跨って走行することになり進行方向別区分の路面標示部の上を走行する頻度が高くなり、車両のタイヤが進行方向別区分の路面標示部の塗装部分の上を通過し易い。この結果、進行方向別区分の路面標示部の塗装部分は削りとられやすく、進行方向別区分の路面標示部の表示は、徐々に薄れてくる。このような走行路面上を撮像した撮像画像には、進行方向別区分の路面標示部がぼやけて写ってしまう。撮像画像から進行方向別区分の路面標示部を高い精度で検出することは難しい。また、撮像画像には、走行路面上に走行している車両のエッジ画像が車両の輪郭を示す枠として写っており、停止線の路面標示部のエッジ画像も停止線の輪郭を示す枠として写っている。このため、撮像画像から抽出した枠線が、車両の輪郭線であるのか、停止線の輪郭線であるのかを区別できない。撮像画像から停止線の路面標示部を高精度で検出することは難しい。   However, in the stop line detection device of Patent Document 1, it is difficult to accurately detect the road marking part of the stop line as follows. Generally, the road surface marking part formed on the traveling road surface is formed by painting. Of these road marking sections, the road marking section for each direction of travel is formed throughout the vehicle traffic zone so that the vehicle driver can easily see the travel direction after passing the intersection of the traveling vehicle traffic zone. Has been. If the direction of the arrow in the traveling direction section of the vehicle traffic zone that has been traveling is different from the travel direction that the user wants to travel after passing the intersection, the travel is changed to another vehicle traffic zone in the direction that the vehicle travels. In this case, the vehicle travels across the vehicle lane, and the frequency of traveling on the road marking portion classified by the traveling direction increases, and the tire of the vehicle is painted on the road marking portion classified by the traveling direction. Easy to pass over. As a result, the painted portion of the road marking portion classified by the traveling direction is easily scraped off, and the display of the road marking portion classified by the traveling direction is gradually faded. In such a captured image obtained by capturing an image on the traveling road surface, the road surface marking section classified by the traveling direction is blurred. It is difficult to detect with high accuracy the road marking section classified by the traveling direction from the captured image. In the captured image, the edge image of the vehicle traveling on the road surface is shown as a frame indicating the outline of the vehicle, and the edge image of the road marking portion of the stop line is also shown as a frame indicating the outline of the stop line. ing. For this reason, it cannot be distinguished whether the frame line extracted from the captured image is the outline of the vehicle or the outline of the stop line. It is difficult to detect the road marking part of the stop line from the captured image with high accuracy.

上記特許文献1には、この停止線検出装置の技術を用いたナビゲーションシステムも記載されている。このナビゲーションシステムでは、上述の停止線検出の技術を用いている。地物として交差点に設けられた進行方向別区分の路面標示部から停止線の路面標示部を検出し、路面上の停止線を通過したときの自車両の現在位置を検出する。その自車両の現在位置に基づく地図を表示させるとともに自車両の現在位置を表示地図上に表示させている。上記のように自車両の現在位置を誤検知すると、地図や地図上の自車両の位置を誤って表示してしまう。上記特許文献1の停止線検出装置は、上記ナビゲーションシステムにおける自車両の位置表示の補正に限らず他のシステムに適用可能であるが、自車両の現在位置を誤ると適用可能な他のシステムにおいても不具合を生じてしまう。   Patent Document 1 also describes a navigation system using the technology of the stop line detection device. In this navigation system, the stop line detection technique described above is used. The road marking part of the stop line is detected from the road marking part classified by the traveling direction provided at the intersection as a feature, and the current position of the host vehicle when passing the stop line on the road surface is detected. A map based on the current position of the host vehicle is displayed and the current position of the host vehicle is displayed on the display map. If the current position of the host vehicle is erroneously detected as described above, the map or the position of the host vehicle on the map is erroneously displayed. The stop line detection device of Patent Document 1 is applicable not only to the correction of the position display of the own vehicle in the navigation system but also to other systems, but in other systems applicable if the current position of the own vehicle is mistaken. Will also cause problems.

本発明は以上の問題点に鑑みなされたものであり、その目的は、停止線の路面標示部を正確に検出することができる停止線検出装置、移動体制御装置及び停止線検出用プログラムを提供することである。   The present invention has been made in view of the above problems, and an object thereof is to provide a stop line detection device, a moving body control device, and a stop line detection program capable of accurately detecting a road surface marking portion of a stop line. It is to be.

上記目的を達成するために、請求項1の発明は、移動体の走行方向を撮像した撮像画像に基づいて移動体の走行路面上に存在する停止線を検出する停止線検出装置において、移動体が走行している走行路面領域から他の走行路面領域へ分岐する分岐箇所に設けられ、走行路面領域と走行路面領域外とを区画する構造物と、路面幅方向に延びた長尺帯状の路面標示部とを、前記撮像画像から検出し、検出した前記構造物の位置から所定距離だけ離れた位置に存在する前記路面標示部を停止線の路面標示部として検出することを特徴とするものである。   In order to achieve the above object, a first aspect of the present invention provides a stop line detecting apparatus for detecting a stop line existing on a traveling road surface of a moving body based on a captured image obtained by imaging the traveling direction of the moving body. A road surface that is provided at a branching point that branches from the traveling road surface area where the vehicle is traveling to another traveling road surface area, and that divides the traveling road surface area from the outside of the traveling road surface area, and a long belt-like road surface that extends in the width direction of the road surface A sign indicating unit is detected from the captured image, and the road marking unit existing at a position away from the detected position of the structure by a predetermined distance is detected as a road marking unit of a stop line. is there.

本発明によれば、停止線の路面標示部を正確に検出することができる停止線検出装置、移動体制御装置及び停止線検出用プログラムを提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the stop line detection apparatus which can detect the road marking part of a stop line correctly, a mobile body control apparatus, and the program for stop line detection can be provided.

移動体制御システムの概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of a moving body control system. 本実施形態の停止線検出装置を含む構成を示すブロック図である。It is a block diagram which shows the structure containing the stop line detection apparatus of this embodiment. 本実施形態の停止線検出装置を含む機能ブロック図である。It is a functional block diagram containing the stop line detection apparatus of this embodiment. 左右輝度画像及び視差画像の例を示す図である。It is a figure which shows the example of a left-right luminance image and a parallax image. (a)は視差画像の視差値分布の一例を示す説明図、(b)は同図(a)の視差画像の横方向領域ごとの視差値頻度分布のV−Mapを示す説明図である。(A) is explanatory drawing which shows an example of the parallax value distribution of a parallax image, (b) is explanatory drawing which shows V-Map of the parallax value frequency distribution for every horizontal direction area | region of the parallax image of the figure (a). (a)は視差画像の視差値分布の一例を示す説明図、(b)は同図(a)の視差画像の縦方向領域ごとの視差値頻度分布のU−Mapを示す説明図、(c)は視差値頻度分布の一番高い行を値とするU−Height−Mapを示す説明図、(d)は視差値頻度分布の一番低い行を値とするU−Low−Mapを示す説明図である。(A) is explanatory drawing which shows an example of the parallax value distribution of a parallax image, (b) is explanatory drawing which shows U-Map of the parallax value frequency distribution for every vertical direction area | region of the parallax image of the figure (a), (c) ) Is an explanatory diagram showing a U-Height-Map whose value is the highest row of the parallax value frequency distribution, and (d) is an explanatory diagram showing a U-Low-Map whose value is the lowest row of the parallax value frequency distribution. FIG. (a)は輝度画像の一例を示す説明図、(b)はU−Mapを示す説明図、(c)はU−Low−Mapを示す説明図、(d)はU−Height−Mapを示す説明図である。(A) is explanatory drawing which shows an example of a luminance image, (b) is explanatory drawing which shows U-Map, (c) is explanatory drawing which shows U-Low-Map, (d) shows U-Height-Map. It is explanatory drawing. 本実施形態の停止線検出処理フローを示すフローチャートである。It is a flowchart which shows the stop line detection process flow of this embodiment. (a)は輝度画像の一例を示す説明図、(b)はV−Mapを示す説明図、(c)はU−Mapを示す説明図、(d)はV−Map上で路面認識を示す説明図、(e)は修正済みU−Mapを示す説明図、(f)はU−Low−Mapを示す説明図、(g)はU−Height−Mapを示す説明図、(h)は修正済み輝度画像を示す説明図、(i)は停止線認識表示を含めた輝度画像を示す説明図である。(A) is explanatory drawing which shows an example of a luminance image, (b) is explanatory drawing which shows V-Map, (c) is explanatory drawing which shows U-Map, (d) shows road surface recognition on V-Map. (E) is an explanatory diagram showing a modified U-Map, (f) is an explanatory diagram showing a U-Low-Map, (g) is an explanatory diagram showing a U-Height-Map, and (h) is a modified diagram. FIG. 6 is an explanatory diagram showing a completed luminance image, and (i) is an explanatory diagram showing a luminance image including a stop line recognition display.

以下、本発明に係る停止線検出装置を、移動体制御システムに用いる一実施形態について説明する。
図1は移動体制御システムの概略構成を示す模式図である。同図に示す移動体制御システムにおいて、移動体である自車両100の進行方向前方を撮像領域として撮像する撮像手段を有する撮像ユニット101を備えている。この撮像ユニット101は、例えば、自車両100のフロントガラス103のルームミラー(図示せず)付近に設置される。撮像ユニット101の撮像によって得られる撮像画像データ等の各種データは、画像処理手段としての画像解析ユニット102に入力される。画像解析ユニット102は、撮像ユニット101から送信されてくるデータを解析して、撮像領域内に存在する路面上の停止線の路面標示部を検出する。画像解析ユニット102の検出結果は、車両走行制御ユニット104に送られる。車両走行制御ユニット104では、画像解析ユニット102が検出した停止線の路面標示部の検出結果に基づいて、例えば以下のような制御を行う。前方の信号機が赤信号のとき運転手がブレーキペダルを操作して停止しようとしない場合に、自車両100の運転者へ停止を促す警告を報知したり、ブレーキを自動的に操作制御するなどの走行支援制御を行ったりする。
Hereinafter, an embodiment in which a stop line detection device according to the present invention is used in a mobile control system will be described.
FIG. 1 is a schematic diagram showing a schematic configuration of a moving body control system. The moving body control system shown in the figure includes an image pickup unit 101 having an image pickup means for picking up an image of an area in front of the traveling direction of the host vehicle 100 as a moving body. For example, the imaging unit 101 is installed near a room mirror (not shown) of the windshield 103 of the host vehicle 100. Various data such as captured image data obtained by imaging by the imaging unit 101 is input to an image analysis unit 102 as image processing means. The image analysis unit 102 analyzes the data transmitted from the imaging unit 101 and detects a road surface marking portion of a stop line on the road surface existing in the imaging area. The detection result of the image analysis unit 102 is sent to the vehicle travel control unit 104. The vehicle travel control unit 104 performs, for example, the following control based on the detection result of the road marking part of the stop line detected by the image analysis unit 102. When the driver is not going to stop by operating the brake pedal when the traffic light ahead is red, the driver of the host vehicle 100 is notified of a warning to stop, or the brake is automatically operated and controlled. Carry out driving support control.

図2は、本実施形態の停止線検出装置を含む構成を示すブロック図である。本実施形態の停止線検出装置は、視差マップの生成や停止線検出処理を行うMPU(Micro Processing Unit)14に相当する。左右平行に取り付けた2台のカメラ11、12により撮像されたステレオ画像がFPGA(Field Programmable Gate Array)13に供給され、2台のカメラ11、12で取得したステレオ画像から視差データが高速に算出される。MPU(Micro Processing Unit)14は、視差マップの生成や停止線検出処理を行う。フレームバッファ15には、撮影画像や視差データ、検出結果画像が記憶される。メモリ16には、検出処理に用いるためのカメラ11、12からの路面高さ差分特徴量、停止線幅特徴量及び停止線位置特徴量を明記したデータが記憶されている。画像表示部17は、停止線検出結果やカメラ画像を表示する。2台のカメラ11、12はそれぞれ車両の前方を撮像して、左輝度画像及び左輝度画像をFPGA13に供給する。FPGA13では、左右輝度画像のステレオ画像に基づいて視差値を有する視差画像を生成してフレームバッファ15に供給する。フレームバッファ15は、各カメラ11、12によって撮像された左右輝度画像、FPGA13によって生成された視差画像、停止線検出結果を記憶する。MPU14では、フレームバッファ15から供給する左右輝度画像及び視差画像、メモリ16に記憶されている路面高さ差分特徴量、停止線幅特徴量及び停止線位置特徴量に基づいて停止線の路面標示を検出する。その検出結果画像をフレームバッファ15に記憶させるとともに、画像表示部17に表示する。   FIG. 2 is a block diagram showing a configuration including the stop line detection device of the present embodiment. The stop line detection apparatus according to the present embodiment corresponds to an MPU (Micro Processing Unit) 14 that performs parallax map generation and stop line detection processing. Stereo images picked up by two cameras 11 and 12 mounted in parallel on the left and right are supplied to an FPGA (Field Programmable Gate Array) 13 and parallax data is calculated at high speed from the stereo images acquired by the two cameras 11 and 12. Is done. An MPU (Micro Processing Unit) 14 performs parallax map generation and stop line detection processing. The frame buffer 15 stores captured images, parallax data, and detection result images. The memory 16 stores data specifying the road surface height difference feature amount, the stop line width feature amount, and the stop line position feature amount from the cameras 11 and 12 to be used for the detection process. The image display unit 17 displays a stop line detection result and a camera image. Each of the two cameras 11 and 12 images the front of the vehicle and supplies a left luminance image and a left luminance image to the FPGA 13. The FPGA 13 generates a parallax image having a parallax value based on the stereo image of the left and right luminance images and supplies the parallax image to the frame buffer 15. The frame buffer 15 stores the left and right luminance images captured by the cameras 11 and 12, the parallax image generated by the FPGA 13, and the stop line detection result. The MPU 14 displays the road marking of the stop line based on the left-right luminance image and the parallax image supplied from the frame buffer 15, the road surface height difference feature quantity, the stop line width feature quantity, and the stop line position feature quantity stored in the memory 16. To detect. The detection result image is stored in the frame buffer 15 and displayed on the image display unit 17.

図3は本実施形態の停止線検出装置を含む機能ブロック図である。本実施形態の停止線検出装置10は、MPU14等によって実現される。同図において、ステレオ画像取得部21は、図2のような2台のカメラ11、12からステレオ画像を取得する。視差画像生成部22は、図4に示すように、取得したステレオ画像間で相互に対する部分画像をステレオマッチング処理し、部分画像間の視差で構成される視差画像を生成する。視差画像生成部22でのマッチング処理をハードウェア処理によって実現する場合には、例えばSSD(Sum of Squared Difference)、ZSSD(Zero-mean Sum of Squared Difference)、SAD(Sum of Absolute Difference)、ZSAD(Zero-mean Sum of Absolute Difference)などの方法を用いることができる。なお、マッチング処理では画素単位での視差値しか算出できない。このため、1画素未満のサブピクセルレベルの視差値が必要な場合には推定値を用いる必要がある。その推定方法としては、例えば、等角直線方式、二次曲線方式等を利用することができる。ただし、このサブピクセルレベルの推定視差値には誤差が発生するので、この推定誤差を減少させるEEC(推定誤差補正)などを用いてもよい。左右の輝度画像及び視差画像の例を図4に示す。   FIG. 3 is a functional block diagram including the stop line detection device of the present embodiment. The stop line detection device 10 of the present embodiment is realized by the MPU 14 or the like. In the figure, a stereo image acquisition unit 21 acquires stereo images from two cameras 11 and 12 as shown in FIG. As illustrated in FIG. 4, the parallax image generation unit 22 performs a stereo matching process on the partial images between the acquired stereo images, and generates a parallax image including the parallax between the partial images. When the matching processing in the parallax image generation unit 22 is realized by hardware processing, for example, SSD (Sum of Squared Difference), ZSSD (Zero-mean Sum of Squared Difference), SAD (Sum of Absolute Difference), ZSAD ( A method such as Zero-mean Sum of Absolute Difference can be used. In the matching process, only the parallax value can be calculated for each pixel. For this reason, it is necessary to use an estimated value when a sub-pixel level parallax value of less than one pixel is required. As the estimation method, for example, an equiangular straight line method, a quadratic curve method, or the like can be used. However, since an error occurs in the estimated parallax value at the sub-pixel level, EEC (estimated error correction) or the like for reducing the estimated error may be used. Examples of left and right luminance images and parallax images are shown in FIG.

特徴量記憶部23は、路面高さ差分特徴量、停止線幅特徴量及び停止線位置特徴量が記憶されている。路面高さ差分特徴量は、縁石などの構造物と、縁石などの構造物以外の物体と、路面上に形成されている道路情報の路面標示部を判別するための高さ情報として利用する。構造物は、走行路面領域と走行路面領域外とを区画する境界部である縁石などである。物体は、例えば走行路面領域外であればビルなどの建築物、走行路面領域内であれば車両や歩行者である。停止線幅特徴量は、路面標示部が停止線であるかどうかを判別するための、道路の路面幅方向の幅情報として利用する。停止線位置特徴量は、交差点の分岐箇所にある縁石やガードレールから停止線の路面標示部までの距離であり、路面上に形成されている路面標示部が停止線の路面標示部であるかどうかを判別するための距離情報として利用する。   The feature amount storage unit 23 stores a road surface height difference feature amount, a stop line width feature amount, and a stop line position feature amount. The road surface height difference feature amount is used as height information for discriminating a structure such as a curb, an object other than a structure such as a curb, and a road surface marking part of road information formed on the road surface. The structure is a curb that is a boundary portion that divides the traveling road surface area and the outside of the traveling road surface area. The object is, for example, a building such as a building if it is outside the travel road surface area, and a vehicle or a pedestrian if it is within the travel road surface area. The stop line width feature quantity is used as width information in the road surface width direction of the road for determining whether or not the road marking part is a stop line. Stop line position feature is the distance from the curb or guardrail at the intersection of the intersection to the road marking part of the stop line, and whether the road marking part formed on the road surface is the road marking part of the stop line It is used as distance information for determining

視差マップ生成部24は、視差画像上の視差データのヒストグラムとして、後述する4つの視差マップを生成する。ここでいう視差マップとは、視差画像上の視差値分布を示すものをいう。検出処理演算部25は、視差マップと輝度画像とから、停止線検出処理を行う。本実施形態の停止線検出装置10は、視差マップ生成部24と検出処理演算部25とを含んで構成されている。検出結果表示部26は、検出結果の画像を表示する。なお、縁石やガードレールなどの防護柵以外の境界部としては、車道(走行路面領域)と歩道(走行路面領域外)を区画する構造物であればよい。   The parallax map generation unit 24 generates four parallax maps described later as histograms of parallax data on the parallax image. The parallax map here refers to a map indicating a parallax value distribution on a parallax image. The detection processing calculation unit 25 performs a stop line detection process from the parallax map and the luminance image. The stop line detection apparatus 10 according to the present embodiment includes a parallax map generation unit 24 and a detection processing calculation unit 25. The detection result display unit 26 displays an image of the detection result. In addition, as a boundary part other than protective fences, such as a curb and a guardrail, what is necessary is just a structure which divides a roadway (traveling road surface area | region) and a sidewalk (outside the traveling road surface area | region).

ここで、本実施形態で生成する視差マップは、V−Map(横方向視差ヒストグラム情報)、U−Map(縦方向視差ヒストグラム情報)、U−Low−Map及びU−Height−Mapである。図3の視差画像生成部22によって視差画像生成処理を行ったら、視差マップ生成部24において、V−Mapを生成するV−Map生成処理を実行する。視差画像データに含まれる各視差画素データは、視差画像上の左右方向位置のx方向位置と、視差画像上の上下方向位置のy方向位置と、視差値dとの組(x,y,d)で示される。これを、X軸にd、Y軸にy、Z軸に頻度fを設定した三次元座標情報(d,y,f)に変換したもの、又はこの三次元座標情報(d,y,f)から所定の頻度閾値を超える情報に限定した二次元座標情報(d,y)を、横方向視差ヒストグラム情報として生成する。   Here, the parallax maps generated in the present embodiment are V-Map (horizontal parallax histogram information), U-Map (vertical parallax histogram information), U-Low-Map, and U-Height-Map. When the parallax image generation process is performed by the parallax image generation unit 22 of FIG. 3, the parallax map generation unit 24 executes a V-Map generation process for generating a V-Map. Each parallax pixel data included in the parallax image data is a set (x, y, d) of the x-direction position of the left-right direction position on the parallax image, the y-direction position of the vertical position on the parallax image, and the parallax value d. ). This is converted into three-dimensional coordinate information (d, y, f) in which d is set on the X-axis, y is set on the Y-axis, and frequency f is set on the Z-axis, or this three-dimensional coordinate information (d, y, f) 2D coordinate information (d, y) limited to information exceeding a predetermined frequency threshold is generated as horizontal direction parallax histogram information.

三次元座標情報(d,y,f)からなる三次元ヒストグラム情報をX−Yの2次元座標系に分布させた横方向視差ヒストグラム情報を、V−Mapと呼ぶ。具体的に説明すると、視差マップ生成部24は、撮像画像から複数分割して得られる視差画像の各横方向領域について、視差値頻度分布を計算する。この視差値頻度分布を示す情報がV−Mapである。一例として各横方向領域の幅は1画素分である。図5(a)に示すような視差値分布をもった視差画像データが入力されたとき、視差マップ生成部24では、横方向領域ごとの各視差値の所定の頻度閾値を越えるデータの個数の分布である視差値頻度分布を計算し、これをV−Mapとして出力する。つまり、各横方向領域の視差値頻度分布の情報を、Y軸に視差画像上のy方向位置(撮像画像での上下方向位置)をとりX軸に視差値dをとった二次元直交座標系上に表すことで、図5(b)に示すようなV−Mapを得ることができる。このV−Mapは、頻度fに応じた画素値をもつ画素が上記二次元直交座標系上に分布した画像として表現することもできる。   Lateral direction parallax histogram information in which three-dimensional histogram information composed of three-dimensional coordinate information (d, y, f) is distributed in an XY two-dimensional coordinate system is referred to as V-Map. More specifically, the parallax map generation unit 24 calculates a parallax value frequency distribution for each lateral region of the parallax image obtained by dividing the captured image into a plurality of segments. Information indicating this disparity value frequency distribution is V-Map. As an example, the width of each horizontal region is one pixel. When parallax image data having a parallax value distribution as shown in FIG. 5A is input, the parallax map generation unit 24 sets the number of data exceeding a predetermined frequency threshold of each parallax value for each horizontal region. A disparity value frequency distribution, which is a distribution, is calculated and output as V-Map. That is, a two-dimensional orthogonal coordinate system in which parallax value frequency distribution information of each lateral region is taken as a y-axis position on the parallax image (a vertical position in the captured image) on the Y-axis and a parallax value d on the X-axis. By expressing the above, a V-Map as shown in FIG. 5B can be obtained. This V-Map can also be expressed as an image in which pixels having pixel values corresponding to the frequency f are distributed on the two-dimensional orthogonal coordinate system.

また、視差マップ生成部24において、U−Mapを生成するU−Map生成処理、U−Height−Mapを生成するU−Height−Map生成処理、U−Low−Mapを生成するU−Low−Map生成処理を実行する。各視差画素データ(x,y,d)を、X軸にx、Y軸にd、Z軸に頻度fを設定した三次元座標情報(x,d,f)に変換したものを縦方向視差ヒストグラム情報として生成する。又は、この三次元座標情報(x,d,f)から所定の頻度閾値を超える情報に限定した二次元座標情報(x,d)を、縦方向視差ヒストグラム情報として生成する。   Moreover, in the parallax map production | generation part 24, U-Map production | generation processing which produces | generates U-Map, U-Height-Map production | generation processing which produces | generates U-Height-Map, U-Low-Map which produces | generates U-Low-Map Execute the generation process. Vertical parallax obtained by converting each parallax pixel data (x, y, d) into three-dimensional coordinate information (x, d, f) in which x is set on the X axis, d is set on the Y axis, and frequency f is set on the Z axis. Generated as histogram information. Alternatively, two-dimensional coordinate information (x, d) limited to information exceeding a predetermined frequency threshold is generated from the three-dimensional coordinate information (x, d, f) as vertical parallax histogram information.

また、図6(b)に示すように、三次元座標情報(x,d,f)からなる三次元ヒストグラム情報をX−Yの2次元座標系に分布させた縦方向視差ヒストグラム情報を、U−Mapと呼ぶ。具体的に説明すると、視差マップ生成部24は、撮像画像から複数分割して得られる視差画像の各縦方向領域について、視差値頻度分布を計算する。この視差値頻度分布を示す情報がU−Mapである。一例として各縦方向領域の幅は1画素分である。   Also, as shown in FIG. 6B, vertical disparity histogram information obtained by distributing three-dimensional histogram information composed of three-dimensional coordinate information (x, d, f) in an XY two-dimensional coordinate system is represented by U -Called Map. Specifically, the parallax map generation unit 24 calculates a parallax value frequency distribution for each vertical region of the parallax image obtained by dividing the captured image into a plurality of segments. Information indicating this disparity value frequency distribution is U-Map. As an example, the width of each vertical region is one pixel.

図6(a)に示すような視差値分布をもった視差画像データが入力されたとき、視差マップ生成部24では、縦方向領域ごとの各視差値の所定の頻度閾値を越えるデータの個数の分布である視差値頻度分布を計算し、これをU−Mapとして出力する。つまり、各縦方向領域の視差値頻度分布の情報を、X軸に視差画像上のx方向位置(撮像画像での左右方向位置)をとりY軸に視差値dをとった二次元直交座標系上に表すことで、図6(b)に示すようなU−Mapを得ることができる。このU−Mapは、頻度fに応じた画素値をもつ画素が上記二次元直交座標系上に分布した画像として表現することもできる。   When parallax image data having a parallax value distribution as shown in FIG. 6A is input, the parallax map generation unit 24 sets the number of data exceeding a predetermined frequency threshold of each parallax value for each vertical direction area. A disparity value frequency distribution, which is a distribution, is calculated and output as a U-Map. That is, the information of the disparity value frequency distribution of each vertical direction area is a two-dimensional orthogonal coordinate system in which the x-axis position (horizontal direction position in the captured image) on the parallax image is taken on the x-axis and the parallax value d is taken on the y-axis. By expressing the above, a U-Map as shown in FIG. 6B can be obtained. This U-Map can also be expressed as an image in which pixels having pixel values corresponding to the frequency f are distributed on the two-dimensional orthogonal coordinate system.

更に、図6(a)に示す視差値分布をもった視差画像データが入力されたとき、視差マップ生成部24では、図6(c)のようなU−Height−Map及び図6(d)のようなU−Low−Mapを出力する。U−Height−MapはU−Mapの視差データの最大高さマップであって、各視差値に対応するy座標が最も大きい行数がU−Height−Mapの値になる。U−Low−MapはU−Mapの視差データの最小高さマップであって、各視差値に対応するy座標が最も小さい行数がU−Low−Mapの値になる。図7は、輝度画像と、U−Map、U−Low−Map及びU−Height−Mapとの各関係を示す図である。図7(a)に示す輝度画像に映し出されたビルや車両は、図7(b)に示すU−Map上では高さ情報を含み、かつ直線近似された直線部で表示されている。図7(c)に示すU−Low−Mapには、路面領域の境界部(縁石やガードレールなどの構造物)の視差データが生成されている。図7(d)に示すU−Height−Mapには、輝度画像上でのビルや車両の視差データが生成されている。   Furthermore, when the parallax image data having the parallax value distribution shown in FIG. 6A is input, the parallax map generation unit 24 uses U-Height-Map as shown in FIG. 6C and FIG. 6D. A U-Low-Map such as U-Height-Map is a maximum height map of U-Map parallax data, and the number of rows with the largest y-coordinate corresponding to each parallax value becomes the value of U-Height-Map. U-Low-Map is a minimum height map of U-Map parallax data, and the number of rows with the smallest y coordinate corresponding to each parallax value becomes the value of U-Low-Map. FIG. 7 is a diagram illustrating each relationship between a luminance image and U-Map, U-Low-Map, and U-Height-Map. The building or vehicle displayed in the luminance image shown in FIG. 7A is displayed in a straight line portion that includes height information and is linearly approximated on the U-Map shown in FIG. 7B. In the U-Low-Map shown in FIG. 7C, parallax data of a boundary portion (a structure such as a curb or a guardrail) of the road surface region is generated. In the U-Height-Map shown in FIG. 7D, parallax data of buildings and vehicles on the luminance image is generated.

次に、本実施形態の停止線検出装置における停止線検出処理について図8の処理フローに従って説明する。図9(a)〜図9(i)は各処理における処理内容の画像を示す図である。
図8において、図3の検出処理演算部25では、視差画像に基づき、図9(b)に示すようなV−Map、図9(c)に示すようなU−Mapの視差マップを生成する。図9(f)に示すようなU−Low−Map、及び図9(g)に示すようなU−Height−Mapの視差マップを生成する(ステップS101、S102)。図9(b)のV−Mapにおいて、最小二乗法やハフ変換処理などによる直線近似処理を実施して線の近似を行うとともにノイズの除去を行う(ステップS103)。U−Mapにおいて、ノイズの除去及び線の近似を行う(ステップS104)。図9(d)に示すようにV−Map上で路面領域を抽出する(ステップS105)。
Next, stop line detection processing in the stop line detection apparatus of the present embodiment will be described according to the processing flow of FIG. Fig.9 (a)-FIG.9 (i) are the figures which show the image of the processing content in each process.
8, the detection processing calculation unit 25 of FIG. 3 generates a V-Map as shown in FIG. 9B and a U-Map parallax map as shown in FIG. 9C based on the parallax image. . A parallax map of U-Low-Map as shown in FIG. 9F and U-Height-Map as shown in FIG. 9G is generated (steps S101 and S102). In the V-Map of FIG. 9B, linear approximation processing such as least square method or Hough transform processing is performed to approximate a line and remove noise (step S103). In U-Map, noise removal and line approximation are performed (step S104). As shown in FIG. 9D, a road surface area is extracted on the V-Map (step S105).

次に、生成した4つの上記視差マップ(図9(b)、(c)、(f)、(g))と輝度画像(図9(a))とに対し、検出処理を行い停止線の路面標示部を検出する。V−Mapから抽出した線を路面として仮検出し、U−Mapから抽出した線の情報に基づき、図9(e)に示すように、U−Mapから走行路面領域外における線やものの画像を除去する(ステップS106)。そして、U−Map上に残る線に対し、U−Low−Map上とU−Height−Map上での単純の高さ差分と視差データに基づき、実際の高さずれを求める。所定値の路面高さ差分特徴量と比べ、U−Map上の直線部を縁石等の構造物と物体と路面上標示とに分類する。具体的に説明すると、視差データに基づき距離情報が得られる。その距離と実際の高さずれとは三角関係があり、実際の高さずれと、U−Height−MapやU−Low−Mapとの高さ差分との間には正比例関係がある。この結果、視差データにより上記距離を計算し、この距離情報に基づき高さ差分を利用することで、実際の高さずれが計算できる。また、U−Map上の直線部を縁石等の構造物と物体と路面標示部に分類するためには、V−Map上で抽出した直線部に対し、実際の高さずれが路面高さ差分特徴量より小さいときに、その直線部を縁石等の構造物と認識して検出する。路面高さ差分特徴量より大きいときに、直線部をビルなどの物体と認識して検出する。そして、V−Map上で抽出された走行路面領域内の直線部に対し、実際の高さずれが路面高さ差分特徴量より小さいときは、路面標示部と認識して検出する。路面高さ差分特徴量より大きいときに、車両や歩行者などの物体と認識して検出する(ステップS107)。次に、U−Map上の路面標示における分岐箇所の端部の端点から路面標示部の端点までの距離を算出し、その距離と所定値の停止線幅特徴量とを比較して停止線以外の路面標示部と停止線の路面標示部とに分類する。具体的には、停止線幅特徴量より小さいときには、停止線以外の路面標示部と検出する。停止線幅特徴量より大きいときには、停止線の路面標示部と検出する(ステップS108)。そして、輝度画像から、U−Map上で検出した走行路面領域外のものの画像と、物体の画像と、停止線以外の路面標示部の画像とをそれぞれ除去する(ステップS109)。   Next, detection processing is performed on the four generated parallax maps (FIGS. 9B, 9C, 9F, and 9G) and the luminance image (FIG. 9A) to obtain a stop line. A road marking part is detected. A line extracted from the V-Map is temporarily detected as a road surface. Based on the information of the line extracted from the U-Map, as shown in FIG. It is removed (step S106). Then, an actual height deviation is obtained for the line remaining on the U-Map based on the simple height difference and the parallax data on the U-Low-Map and the U-Height-Map. Compared with a predetermined value of the road surface height difference feature amount, the straight line portion on the U-Map is classified into a structure such as a curbstone, an object, and a road surface marking. More specifically, distance information is obtained based on parallax data. There is a triangular relationship between the distance and the actual height deviation, and there is a direct proportional relationship between the actual height deviation and the height difference between U-Height-Map and U-Low-Map. As a result, the actual height deviation can be calculated by calculating the distance based on the parallax data and using the height difference based on the distance information. Moreover, in order to classify the straight line portion on the U-Map into a structure such as a curbstone, an object, and a road surface marking portion, the actual height deviation is different from the straight line portion extracted on the V-Map. When the amount is smaller than the feature amount, the straight line portion is recognized as a structure such as a curbstone and detected. When it is larger than the road surface height difference feature amount, the straight line portion is recognized as an object such as a building and detected. When the actual height deviation is smaller than the road height difference feature amount with respect to the straight line portion in the traveling road surface area extracted on the V-Map, it is recognized as a road marking portion and detected. When it is larger than the road surface height difference feature amount, it is recognized as an object such as a vehicle or a pedestrian (step S107). Next, the distance from the end point of the branch point in the road marking on the U-Map to the end point of the road marking portion is calculated, and the distance is compared with the stop line width feature amount of a predetermined value, except for the stop line. Are classified into a road marking section and a road marking section of a stop line. Specifically, when it is smaller than the stop line width feature amount, a road marking part other than the stop line is detected. If it is larger than the stop line width feature amount, it is detected as a road marking part of the stop line (step S108). Then, the image outside the traveling road surface area detected on the U-Map, the image of the object, and the image of the road marking part other than the stop line are respectively removed from the luminance image (step S109).

次に、ステップS109で各画像が除去された輝度画像に対し検出処理を行い、図9(h)に示すように直線部の情報を抽出し、抽出した直線部を路面標示部と検出する。更に、全ての路面標示部に対し、端点情報(Y座標)をV−Map上で検出した路面情報と比べ、路面標示部ごとに距離を算出する。例えば、輝度画像上では路面標示部ごとの位置座標、及び交差点の分岐箇所における縁石など構造物の位置座標がわかる。視差画像上では、路面標示部が高さを略有していないので表示され難いが、交差点の分岐箇所における縁石などの構造物が高さを有しているので構造物は表示され易い。そして、縁石などの構造物からカメラまでの距離は視差データにより算出できる。これらにより、路面標示部における位置座標のY座標と同じ縁石などの構造物の視差データにより、その縁石などの構造物からカメラまでの距離を算出する。交差点の分岐箇所における縁石などの構造物からカメラまでの距離と、各路面標示部からカメラまでの距離との差(L1)を算出する。そして、交差点の分岐箇所における縁石などの構造物と、各路面標示部との間の走行方向の距離(L2)がそれぞれ求められる。ハフ変換により、端点をもつ線分として直線部を検出でき、この直線部の端点情報が得られる。輝度画像上で直線部を近似して全ての路面標示部として検出する。各路面標示部の端点座標(Y座標)と同じ縁石などの構造物の各場所のV−Map上の視差情報における視差値をそれぞれ読み取り、各路面標示部の距離情報をそれぞれ算出する(ステップS110)。交差点の分岐箇所における縁石などの構造物と各路面標示部との間の各距離と、所定値の停止線位置特徴量とをそれぞれ比べ、停止線位置特徴量より小さいときに、その路面標示部を停止線として検出する。一方、停止線位置特徴量より大きいときに、その路面標示部を停止線以外の路面標示部として検出する(ステップS111)。   Next, in step S109, a detection process is performed on the luminance image from which each image has been removed, information on a straight line portion is extracted as shown in FIG. 9H, and the extracted straight line portion is detected as a road marking portion. Further, for all road marking parts, the end point information (Y coordinate) is compared with the road surface information detected on the V-Map, and the distance is calculated for each road marking part. For example, on the luminance image, the position coordinates of each road marking part and the position coordinates of a structure such as a curb at the branching point of an intersection are known. On the parallax image, it is difficult to display the road marking portion because it has almost no height. However, since the structure such as a curb at the branching point of the intersection has a height, the structure is easily displayed. The distance from the structure such as a curb to the camera can be calculated from the parallax data. Thus, the distance from the structure such as the curb to the camera is calculated from the parallax data of the structure such as the curb that is the same as the Y coordinate of the position coordinate in the road marking unit. A difference (L1) between a distance from a structure such as a curbstone to the camera at a branch point of the intersection and a distance from each road marking unit to the camera is calculated. And the distance (L2) of the driving | running | working direction between structures, such as a curb stone in the branch location of an intersection, and each road marking part is calculated | required, respectively. By the Hough transform, a straight line portion can be detected as a line segment having an end point, and end point information of the straight line portion is obtained. The straight line portion is approximated on the luminance image and detected as all road marking portions. The disparity values in the disparity information on the V-Map at each location of the structure such as the curbstone that is the same as the end point coordinates (Y coordinate) of each road marking portion are read, and the distance information of each road marking portion is calculated (step S110). ). Compare each distance between a structure such as a curb at each branch point of an intersection and each road marking section with a predetermined value of the stop line position feature amount. Is detected as a stop line. On the other hand, when it is larger than the stop line position feature amount, the road marking part is detected as a road marking part other than the stop line (step S111).

最後に、輝度画像上での位置関係に基づき、停止線状況を表示する。具体的には自車両の進行方向のどれくらい前に停止線があるという情報を提供する。例えば、図9(i)に示すように、検出した停止線を例えば枠で囲んで表示する。図3の検出結果表示部26は、カメラからの各種画像や検出結果画像(停止線を線と枠などで重畳表示した画像)をユーザが確認するため、画像として出力する機能を有する。   Finally, the stop line status is displayed based on the positional relationship on the luminance image. Specifically, it provides information that the stop line is ahead of the traveling direction of the host vehicle. For example, as shown in FIG. 9 (i), the detected stop line is displayed surrounded by a frame, for example. The detection result display unit 26 in FIG. 3 has a function of outputting various images from the camera and detection result images (images in which stop lines are superimposed and displayed with lines and frames) as an image for the user to confirm.

なお、図8に示す停止線検出処理フローでは、高さ情報に基づいて縁石と物体と路面標示部とを分類した上で、分類した路面標示部の停止線幅特徴量に基づいて路面標示部を抽出する。次に、路面標示部と、交差点の分岐箇所に設けられた縁石などの構造物との距離と、停止線位置特徴量とに基づいて、停止線の路面標示部を検出しているが、この処理の順番に限定する必要はない。また、高さ情報に基づいて縁石などの構造物と物体と路面標示部とを分類した上で、分類した路面標示部の停止線幅特徴量に基づいて停止線を検出してもよい。つまり、高さ情報に基づいて縁石などの構造物と物体とを区別して路面標示部を抽出でき、その路面標示部の路面幅方向の幅を停止線幅特徴量と比べることで停止線の路面標示部と検出する。更に、走行路面領域内の路面標示部における路面幅方向の幅を停止線幅特徴量と比べて路面標示部を抽出し、路面標示部と交差点の分岐箇所に設けられた縁石などの構造物との距離と、停止線位置特徴量とを比べることで停止線を検出することができる。   In the stop line detection processing flow shown in FIG. 8, the curbstone, the object, and the road marking unit are classified based on the height information, and then the road marking unit based on the stop line width feature amount of the classified road marking unit. To extract. Next, the road marking part of the stop line is detected based on the distance between the road marking part and a structure such as a curb stone provided at the intersection of the intersection and the stop line position feature amount. It is not necessary to limit to the order of processing. Further, after classifying a structure such as a curbstone, an object, and a road marking unit based on height information, a stop line may be detected based on the stop line width feature amount of the classified road marking unit. In other words, the road marking part can be extracted by distinguishing structures such as curbs and objects based on the height information, and the road surface of the stop line can be extracted by comparing the width in the road width direction of the road marking part with the stop line width feature quantity. Detect with marking part. In addition, the road marking portion is extracted by comparing the width in the road width direction of the road marking portion in the traveling road surface area with the stop line width feature amount, and a structure such as a curb stone provided at a branch point of the intersection with the road marking portion and The stop line can be detected by comparing the distance between the stop line and the stop line position feature amount.

上述した実施形態の停止線検出装置における停止線検出処理では、路面高さ差分特徴量、停止線幅特徴量及び停止線位置特徴量に基づいて停止線の路面標示部を検出している。走行路面上には路面標示部や各種情報表示の塗装部が形成されている。それらの中に停止線の路面標示部とほぼ同じ幅の路面標示部や塗装部がなければ、上記停止線位置特徴量を用いずに路面高さ差分特徴量に基づいて高さ成分を有する物の画像を検出する。そして、その画像以外の路面標示部に対して停止線幅特徴量に基づいて停止線の路面標示部を特定できる。つまり、図8の停止線検出処理フローにおいてステップS101〜S109の各処理を行い、停止線の路面標示部とほぼ同じ幅の路面標示部や塗装部がなければ、ステップS109の処理を行ったときに、停止線の路面標示部を検出することができる。これにより、交差点周辺以外の走行路面領域でも停止線の路面標示部を高精度に検出することができる。   In the stop line detection process in the stop line detection apparatus of the above-described embodiment, the road marking part of the stop line is detected based on the road surface height difference feature quantity, the stop line width feature quantity, and the stop line position feature quantity. On the road surface, a road marking part and a paint part for displaying various information are formed. If there is no road marking part or paint part with almost the same width as the road marking part of the stop line in them, the thing which has a height component based on the road height difference feature quantity without using the above stop line position feature quantity Detect the image. And the road marking part of a stop line can be specified based on a stop line width feature-value with respect to road marking parts other than the image. That is, in the stop line detection process flow of FIG. 8, each process of steps S101 to S109 is performed, and if there is no road marking part or paint part having the same width as the road marking part of the stop line, the process of step S109 is performed. Furthermore, the road marking part of the stop line can be detected. As a result, the road marking part of the stop line can be detected with high accuracy even in the traveling road surface area other than the vicinity of the intersection.

以上に説明したものは一例であり、本発明は、次の態様毎に特有の効果を奏する。
(態様1)
移動体の走行方向を撮像した撮像画像に基づいて移動体の走行路面上に存在する停止線を検出する停止線検出装置において、移動体が走行している走行路面領域から他の走行路面領域へ分岐する分岐箇所に設けられ、走行路面領域と走行路面領域外とを区画する構造物と、路面幅方向に延びた長尺帯状の路面標示部とを、前記撮像画像から検出し、検出した前記構造物の位置から所定距離だけ離れた位置に存在する前記路面標示部を停止線の路面標示部として検出する。
これによれば、上記実施形態について説明したように、道路には他の道路に分かれる分岐箇所である十字路やT字路などの交差点が存在する場合がある。十字路の交差点には多くの場合信号機があるが、T字路の交差点では信号機がある交差点と無い交差点とがある。十字路の交差点と、信号機のあるT字路の交差点の場合、交差点の直近手前の路面上には、信号機が赤のときに車両が停止する目印となる停止線の路面標示部が路面上に形成されている。信号機のないT字の交差点の場合、優先道路でない車道(走行路面領域)の路面には、優先道路との交差点手前に一時停止用の停止線の路面標示部が形成されている。また、走行路面領域と走行路面領域外とが存在する場合、一般に、走行路面領域と走行路面領域外とを区画するとともに走行している走行路面領域に沿っている境界部には、縁石やガードレールなどの構造物が設けられている。その構造物は、塗装により形成された路面標示部と異なり、車両の通行することが極端に少なく、車両のタイヤで削られることはほとんどないので、構造物の形状は変わらない。撮像画像には、構造物が常にはっきりと映し出される。この結果、撮像画像から構造物を正確に検出できる。これらにより、撮像画像から検出された構造物の位置から所定距離だけ離れた位置に存在する路面標示部を、停止線の路面標示部と正確に検出できる。この停止線検出の発明を、例えば運転支援システムに用いた場合において、停止線の路面標示部を正確に検出することで車両を自動で停止線に停止させることができ、運転手の運転負担を軽減できる。
(態様2)
(態様1)において、カメラ11、12などの複数の撮像手段により移動体の走行方向を撮像して得られる複数の撮像画像から視差画像生成部22などによって生成される視差画像情報に基づいて、撮像画像を左右方向に複数分割して得られる各列領域内における視差値の頻度分布を示す縦方向視差ヒストグラム情報を視差マップ生成部24などによって生成し、生成した縦方向視差ヒストグラム情報に基づいて、構造物を検出する。
これによれば、上記実施形態について説明したように、撮像画像上に存在するビル、車両、交差点の分岐箇所に設けられている縁石などの物体を高精度で区別して検出でき、停止線検出処理を短い処理時間で実行可能となる。
(態様3)
(態様1)において、視差マップ生成部24などによって撮像画像から移動体の走行路面領域を検出し、検出処理演算部25などによって走行路面領域内で構造物の位置から所定距離だけ離れた位置に存在する路面標示部を停止線の路面標示部として検出する。
これによれば、上記実施形態について説明したように、停止線の路面標示部は走行路面上に形成されており、走行路面領域を検出することで、走行路面領域以外の物体、例えば広告看板や行き先表示板を検出対象から削除できる。これにより、検出対象が減り、停止線検出処理を短い処理時間で実行可能となる。
(態様4)
(態様3)において、カメラ11、12など複数の撮像手段により移動体の走行方向を撮像して得られる複数の撮像画像から視差画像生成部22などによって生成される視差画像情報に基づいて、撮像画像を上下方向に複数分割して得られる各行領域内における視差値の頻度分布を示す横方向視差ヒストグラム情報を視差マップ生成部24などによって生成し、生成した横方向視差ヒストグラム情報に基づいて、走行路面領域を検出する。
これによれば、上記実施形態について説明したように、走行路面領域に対応する横方向視差ヒストグラム情報の部分は比較的狭い範囲に制限される。この範囲を適切に設定することによって走行路面領域に対応しない横方向視差ヒストグラム情報の部分と区別して、走行路面領域に対応する横方向視差ヒストグラム情報の部分を抽出する。走行路面領域を精度良く検出することで、走行路面領域外の物体を検出対象から確実に削除できる。これにより、停止線検出処理を短い処理時間で実行可能となる。
(態様5)
(態様1)において、所定距離は、複数の撮像手段により移動体の走行方向を撮像して得られる複数の撮像画像に基づいて生成される視差画像情報に基づいて算出する。
これによれば、上記実施形態について説明したように、視差画像生成部22によって視差画像を生成する。この視差画像上の互いに対応する部分の視差値に基づいて所定距離を算出し、その所定距離に存在する路面標示部を正確に検出することができる。これにより、停止線の路面標示部を高精度に検出することができる。
(態様6)
(態様1)において、停止線の路面標示部は、少なくとも、路面幅方向の路面方向幅又は該路面幅方向に対し直交する移動体走行方向の走行方向幅を有する。
これによれば、上記実施形態について説明したように、停止線の路面標示部は、路面幅方向に延びた長尺帯状の路面標示部であり、路面幅方向の路面方向幅又は移動体走行方向の走行方向幅が道路構造令などの省令で規定されている。撮像画像から検出された構造物の位置から所定距離だけ離れた位置に存在する路面標示部のうち、規定幅を有しない路面標示部との区別が可能となる。これにより、停止線の路面標示部を高精度に検出することができる。
(態様7)
移動体の走行方向を撮像した撮像画像に基づいて移動体の走行路面上に存在する停止線を検出する停止線検出装置において、移動体が走行している走行路面領域内の高さ成分を有する物の画像と、路面幅方向に延びた長尺帯状の路面標示部の画像とを、前記撮像画像から検出し、走行路面領域内の高さ成分を有する物の画像以外における路面標示部の画像の中で、路面幅方向における所定の路面方向幅を有する路面標示部を停止線の路面標示部として検出する。
これによれば、上記実施形態について説明したように、走行路面上には路面標示部や各種情報表示の塗装部がある。それらの中に停止線の路面標示部とほぼ同じ幅の路面標示部や塗装部がなければ、交差点周辺に存在する構造物の位置から所定距離に離れた位置に停止線があるという位置情報を考慮せずに、撮像画像から走行路面領域内の高さ成分を有する物の画像と路面標示部の画像とに基づいて停止線を検出できる。これにより、交差点周辺以外の走行路面領域内に存在する停止線の路面標示部を高精度に検出することができる。
(態様8)
移動体周囲を撮像領域として撮像し、複数の撮像手段により得られた複数の撮像画像から、走行路面上に存在する停止線の路面標示部を検出する停止線検出装置10などの停止線検出手段と、該停止線検出手段の検出結果に基づいて移動体に搭載された機器を制御する移動体制御手段とを備えた車両走行制御ユニット104などの移動体制御装置において、停止線検出手段として、(態様1)〜(態様7)のいずれかの物体検出装置を用いたことを特徴とする。
これによれば、上記実施形態について説明したように、停止線の検出結果に基づいて、例えば前方の信号機が赤信号のとき運転手がブレーキペダルを操作しないような場合に、移動体である自車両の運転者へ停止を促す警告を報知したり、自車両のブレーキを自動的に操作制御するなどの走行支援制御を行ったりすることを高精度に実行できる。
(態様9)
移動体の走行方向を撮像した撮像画像に基づいて移動体の走行路面上に存在する停止線を検出する工程をコンピュータによって実行させる停止線検出用プログラムにおいて、移動体が走行している走行路面領域から他の走行路面領域へ分岐する分岐箇所に設けられ、走行路面領域と走行路面領域外とを区画する構造物と、路面幅方向に延びた長尺帯状の路面標示部とを、前記撮像画像から検出し、検出した前記構造物の位置から所定距離だけ離れた位置に存在する前記路面標示部を停止線の路面標示部として検出する工程をコンピュータによって実行させる。
これによれば、上記実施形態について説明したように、停止線の路面標示部を正確に検出することができる。このプログラムは、CD−ROM等の記録媒体に記録された状態で配布したり、入手したりすることができる。また、このプログラムを乗せ、所定の送信装置により送信された信号を、公衆電話回線や専用線、その他の通信網等の伝送媒体を介して配信したり、受信したりすることでも、配布、入手が可能である。この配信の際、伝送媒体中には、コンピュータプログラムの少なくとも一部が伝送されていればよい。すなわち、コンピュータプログラムを構成するすべてのデータが、一時に伝送媒体上に存在している必要はない。このプログラムを乗せた信号とは、コンピュータプログラムを含む所定の搬送波に具現化されたコンピュータデータ信号である。また、所定の送信装置からコンピュータプログラムを送信する送信方法には、プログラムを構成するデータを連続的に送信する場合も、断続的に送信する場合も含まれる。
(態様10)
移動体の走行方向を撮像した撮像画像に基づいて移動体の走行路面上に存在する停止線を検出する工程をコンピュータによって実行させる停止線検出用プログラムにおいて、
移動体が走行している走行路面領域内の高さ成分を有する物の画像と、路面幅方向に延びた長尺帯状の路面標示部の画像とを、前記撮像画像から検出し、走行路面領域内の高さ成分を有する物の画像以外における路面標示部の画像の中で、路面幅方向における所定の路面方向幅を有する路面標示部を停止線の路面標示部として検出する工程をコンピュータによって実行させる。
これによれば、上記実施形態について説明したように、停止線の路面標示部を正確に検出することができる。このプログラムは、態様9と同様に、配布、入手が可能である。
What has been described above is merely an example, and the present invention has a specific effect for each of the following modes.
(Aspect 1)
In a stop line detection device that detects a stop line existing on a traveling road surface of a moving body based on a captured image obtained by imaging the traveling direction of the moving body, from the traveling road surface area where the moving body is traveling to another traveling road surface area A structure that is provided at a branching point that diverges and divides the traveling road surface region and the outside of the traveling road surface region, and a long belt-like road marking portion that extends in the road surface width direction is detected from the captured image, and the detected The road marking part existing at a position away from the position of the structure by a predetermined distance is detected as a road marking part of a stop line.
According to this, as described in the above embodiment, there may be an intersection such as a crossroad or a T-junction that is a branching point divided into other roads on the road. In many cases, there are traffic lights at intersections of the crossroads, but there are intersections where there are traffic lights and intersections where there are no traffic lights. In the case of a crossroad intersection and a T-junction intersection with a traffic light, on the road surface immediately before the intersection, a road marking part of a stop line is formed on the road surface as a mark for stopping the vehicle when the traffic light is red Has been. In the case of a T-shaped intersection without a traffic light, a road marking portion for a stop line for temporary stop is formed on the road surface of a roadway (traveling road surface area) that is not a priority road before the intersection with the priority road. In addition, when there is a traveling road surface area and an area outside the traveling road surface area, generally, a boundary between the traveling road surface area and the outside of the traveling road surface area and along the traveling road surface area is provided at the boundary portion along the running road surface area. Etc. are provided. Unlike the road marking portion formed by painting, the structure is extremely rarely passed by the vehicle and is hardly scraped by the vehicle tire, so the shape of the structure does not change. The captured image always shows the structure clearly. As a result, the structure can be accurately detected from the captured image. As a result, the road marking part that exists at a predetermined distance from the position of the structure detected from the captured image can be accurately detected as the road marking part of the stop line. When this stop line detection invention is used in, for example, a driving support system, the vehicle can be automatically stopped at the stop line by accurately detecting the road marking part of the stop line, and the driving burden on the driver is reduced. Can be reduced.
(Aspect 2)
In (Aspect 1), based on parallax image information generated by the parallax image generation unit 22 or the like from a plurality of captured images obtained by imaging the traveling direction of the moving body by a plurality of imaging units such as the cameras 11 and 12, The vertical parallax histogram information indicating the frequency distribution of the parallax values in each row region obtained by dividing the captured image into a plurality of left and right directions is generated by the parallax map generation unit 24 and the like, and based on the generated vertical parallax histogram information Detect structures.
According to this, as described in the above embodiment, it is possible to distinguish and detect an object such as a building, a vehicle, and a curb stone provided at a branching point of an intersection on a captured image, and stop line detection processing. Can be executed in a short processing time.
(Aspect 3)
In (Aspect 1), the traveling road surface area of the moving body is detected from the captured image by the parallax map generation unit 24 and the like, and the detection processing calculation unit 25 and the like are located at a position away from the position of the structure by a predetermined distance in the traveling road surface area. An existing road marking part is detected as a road marking part of a stop line.
According to this, as described in the above embodiment, the road marking part of the stop line is formed on the traveling road surface, and by detecting the traveling road surface area, an object other than the traveling road surface area, such as an advertisement signboard or The destination display board can be deleted from the detection target. As a result, the number of detection objects is reduced, and the stop line detection process can be executed in a short processing time.
(Aspect 4)
In (Aspect 3), imaging is performed based on parallax image information generated by the parallax image generation unit 22 or the like from a plurality of captured images obtained by imaging the traveling direction of the moving body by a plurality of imaging units such as the cameras 11 and 12. The parallax map generating unit 24 generates horizontal parallax histogram information indicating the frequency distribution of the parallax values in each row region obtained by dividing the image into a plurality of parts in the vertical direction, and travels based on the generated horizontal parallax histogram information. A road surface area is detected.
According to this, as described in the above embodiment, the portion of the horizontal direction parallax histogram information corresponding to the traveling road surface area is limited to a relatively narrow range. By appropriately setting this range, the part of the lateral parallax histogram information corresponding to the traveling road surface area is extracted by distinguishing from the part of the lateral parallax histogram information not corresponding to the traveling road surface area. By detecting the traveling road surface area with high accuracy, an object outside the traveling road surface area can be reliably deleted from the detection target. Thereby, the stop line detection process can be executed in a short processing time.
(Aspect 5)
In (Aspect 1), the predetermined distance is calculated based on parallax image information generated based on a plurality of captured images obtained by imaging the traveling direction of the moving body by a plurality of imaging units.
According to this, the parallax image is generated by the parallax image generation unit 22 as described in the above embodiment. A predetermined distance can be calculated based on the parallax values of mutually corresponding portions on the parallax image, and a road marking unit existing at the predetermined distance can be accurately detected. Thereby, the road marking part of a stop line can be detected with high accuracy.
(Aspect 6)
In (Aspect 1), the road surface marking portion of the stop line has at least a road surface width in the road surface width direction or a travel direction width in the moving body travel direction orthogonal to the road surface width direction.
According to this, as described in the above embodiment, the road marking portion of the stop line is a long strip-shaped road marking portion extending in the road width direction, and the road width in the road width direction or the moving body traveling direction. The driving direction width is regulated by ministerial ordinances such as road structure ordinance. It is possible to distinguish a road marking portion that does not have a specified width from among road marking portions that exist at a predetermined distance from the position of the structure detected from the captured image. Thereby, the road marking part of a stop line can be detected with high accuracy.
(Aspect 7)
In a stop line detection device that detects a stop line existing on a traveling road surface of a moving body based on a captured image obtained by capturing the traveling direction of the moving body, the stop line detecting device has a height component in a traveling road surface area where the moving body is traveling. An image of an object and an image of a long belt-shaped road marking portion extending in the road width direction are detected from the captured image, and an image of the road marking portion other than an image of an object having a height component in the traveling road surface area Among them, a road marking portion having a predetermined road width in the road width direction is detected as a road marking portion of a stop line.
According to this, as explained about the above-mentioned embodiment, there is a road marking part and a paint part for displaying various information on the traveling road surface. If there is no road marking part or paint part with the same width as the road marking part of the stop line in them, position information that there is a stop line at a predetermined distance from the position of the structure around the intersection Without consideration, the stop line can be detected from the captured image based on the image of the object having the height component in the traveling road surface area and the image of the road surface marking unit. Thereby, the road marking part of the stop line which exists in the traveling road surface area | regions other than the intersection periphery can be detected with high precision.
(Aspect 8)
Stop line detection means such as a stop line detection device 10 that picks up an image of the periphery of the moving body as an imaging region and detects a road marking portion of a stop line existing on the traveling road surface from a plurality of captured images obtained by the plurality of imaging means. And a moving body control device such as the vehicle travel control unit 104 that controls a device mounted on the moving body based on the detection result of the stop line detecting means. (Aspect 1) to (Aspect 7) are used.
According to this, as described in the above embodiment, based on the detection result of the stop line, for example, when the driver does not operate the brake pedal when the traffic light ahead is red, It is possible to execute the driving support control such as notifying the driver of the vehicle of the warning to stop the vehicle or performing the driving support control such as automatically controlling the brake of the host vehicle with high accuracy.
(Aspect 9)
In a stop line detection program for causing a computer to execute a step of detecting a stop line existing on a traveling road surface of a moving body based on a captured image obtained by imaging the traveling direction of the moving body, a traveling road surface area in which the moving body is traveling A structure that is provided at a branching point that branches from the road surface to another road surface area, and that divides the road surface area and the road surface area outside, and a long belt-like road marking portion that extends in the road surface width direction, And detecting the road marking portion present at a position away from the detected position of the structure by a predetermined distance as a road marking portion of a stop line by a computer.
According to this, as described in the above embodiment, the road marking part of the stop line can be accurately detected. This program can be distributed or obtained in a state of being recorded on a recording medium such as a CD-ROM. It is also possible to distribute and obtain signals by placing this program and distributing or receiving signals transmitted by a predetermined transmission device via transmission media such as public telephone lines, dedicated lines, and other communication networks. Is possible. At the time of distribution, it is sufficient that at least a part of the computer program is transmitted in the transmission medium. That is, it is not necessary for all data constituting the computer program to exist on the transmission medium at one time. The signal carrying the program is a computer data signal embodied on a predetermined carrier wave including the computer program. Further, the transmission method for transmitting a computer program from a predetermined transmission device includes a case where data constituting the program is transmitted continuously and a case where it is transmitted intermittently.
(Aspect 10)
In a stop line detection program for causing a computer to execute a step of detecting a stop line existing on a traveling road surface of a moving body based on a captured image obtained by imaging the traveling direction of the moving body.
An image of an object having a height component in the traveling road surface area where the moving body is traveling and an image of a long belt-shaped road surface marking portion extending in the road surface width direction are detected from the captured image, and the traveling road surface area is detected. The computer executes a step of detecting a road marking portion having a predetermined road width in the road width direction as a road marking portion of the stop line in the road marking portion image other than the image of the object having the height component inside Let
According to this, as described in the above embodiment, the road marking part of the stop line can be accurately detected. This program can be distributed and obtained in the same manner as in the ninth aspect.

10 停止線検出装置
11 カメラ
12 カメラ
13 FPGA
14 MPU
15 フレームバッファ
16 メモリ
17 画像表示部
21 ステレオ画像取得部
22 視差画像生成部
23 特徴量記憶部
24 視差マップ生成部
25 検出処理演算部
26 検出結果表示部
100 自車両
101 撮像ユニット
102 画像解析ユニット
103 フロントガラス
104 車両走行制御ユニット
10 Stop Line Detection Device 11 Camera 12 Camera 13 FPGA
14 MPU
15 frame buffer 16 memory 17 image display unit 21 stereo image acquisition unit 22 parallax image generation unit 23 feature amount storage unit 24 parallax map generation unit 25 detection processing calculation unit 26 detection result display unit 100 own vehicle 101 imaging unit 102 image analysis unit 103 Windshield 104 Vehicle travel control unit

特開2013−30007号公報JP 2013-30007 A

Claims (10)

移動体の走行方向を撮像した撮像画像に基づいて移動体の走行路面上に存在する停止線を検出する停止線検出装置において、
移動体が走行している走行路面領域から他の走行路面領域へ分岐する分岐箇所に設けられ、走行路面領域と走行路面領域外とを区画する構造物と、路面幅方向に延びた長尺帯状の路面標示部とを、前記撮像画像から検出し、検出した前記構造物の位置から所定距離だけ離れた位置に存在する前記路面標示部を停止線の路面標示部として検出することを特徴とする停止線検出装置。
In a stop line detection device that detects a stop line existing on the traveling road surface of the moving body based on a captured image obtained by imaging the traveling direction of the moving body,
A structure that divides the traveling road surface area and the outside of the traveling road surface area, and is formed in a long strip extending in the road surface width direction, provided at a branching point that branches from the traveling road surface area where the mobile body is traveling to another traveling road surface area. The road marking portion is detected from the captured image, and the road marking portion existing at a position away from the detected position of the structure by a predetermined distance is detected as a road marking portion of a stop line. Stop line detection device.
請求項1記載の停止線検出装置において、
複数の撮像手段により移動体の走行方向を撮像して得られる複数の撮像画像から生成される視差画像情報に基づいて、前記撮像画像を左右方向に複数分割して得られる各列領域内における視差値の頻度分布を示す縦方向視差ヒストグラム情報を生成し、生成した縦方向視差ヒストグラム情報に基づいて、前記構造物を検出することを特徴とする停止線検出装置。
The stop line detection device according to claim 1,
Parallax within each row region obtained by dividing the captured image into a plurality of left and right directions based on parallax image information generated from a plurality of captured images obtained by capturing the traveling direction of the moving body with a plurality of imaging means A stop line detection device that generates vertical disparity histogram information indicating a frequency distribution of values and detects the structure based on the generated vertical disparity histogram information.
請求項1記載の停止線検出装置において、
前記撮像画像から移動体の走行路面領域を検出し、走行路面領域内で前記構造物の位置から所定距離だけ離れた位置に存在する前記路面標示部を停止線の路面標示部として検出することを特徴とする停止線検出装置。
The stop line detection device according to claim 1,
Detecting a traveling road surface area of the moving body from the captured image, and detecting the road surface marking portion existing at a predetermined distance from the position of the structure in the traveling road surface area as a road surface marking portion of a stop line. A characteristic stop line detection device.
請求項3記載の停止線検出装置において、
複数の撮像手段により移動体の走行方向を撮像して得られる複数の撮像画像から生成される視差画像情報に基づいて、前記撮像画像を上下方向に複数分割して得られる各行領域内における視差値の頻度分布を示す横方向視差ヒストグラム情報を生成し、生成した横方向視差ヒストグラム情報に基づいて、前記走行路面領域を検出することを特徴とする停止線検出装置。
In the stop line detection device according to claim 3,
Based on parallax image information generated from a plurality of captured images obtained by capturing the traveling direction of the moving body with a plurality of imaging means, a parallax value in each row region obtained by dividing the captured image into a plurality of vertical directions A stop line detecting device, wherein horizontal disparity histogram information indicating a frequency distribution of the vehicle is generated, and the traveling road surface area is detected based on the generated horizontal disparity histogram information.
請求項1記載の停止線検出装置において、
前記所定距離は、複数の撮像手段により移動体の走行方向を撮像して得られる複数の撮像画像に基づいて生成される視差画像情報に基づいて算出することを特徴とする停止線検出装置。
The stop line detection device according to claim 1,
The stop line detection apparatus characterized in that the predetermined distance is calculated based on parallax image information generated based on a plurality of captured images obtained by imaging the traveling direction of the moving body by a plurality of imaging means.
請求項1記載の停止線検出装置において、
前記停止線の路面標示部は、少なくとも、路面幅方向における所定の路面方向幅又は該路面幅方向に対し直交する移動体走行方向における所定の走行方向幅を有すること特徴とする停止線検出装置。
The stop line detection device according to claim 1,
The stop line detection device according to claim 1, wherein the road marking portion of the stop line has at least a predetermined road surface width in the road surface width direction or a predetermined travel direction width in a moving body travel direction orthogonal to the road surface width direction.
移動体の走行方向を撮像した撮像画像に基づいて移動体の走行路面上に存在する停止線を検出する停止線検出装置において、
移動体が走行している走行路面領域内の高さ成分を有する物の画像と、路面幅方向に延びた長尺帯状の路面標示部の画像とを、前記撮像画像から検出し、走行路面領域内の高さ成分を有する物の画像以外における路面標示部の画像の中で、路面幅方向における所定の路面方向幅を有する路面標示部を停止線の路面標示部として検出することを特徴とする停止線検出装置。
In a stop line detection device that detects a stop line existing on the traveling road surface of the moving body based on a captured image obtained by imaging the traveling direction of the moving body,
An image of an object having a height component in the traveling road surface area where the moving body is traveling and an image of a long belt-shaped road surface marking portion extending in the road surface width direction are detected from the captured image, and the traveling road surface area is detected. A road marking part having a predetermined road surface width in the road width direction is detected as a road marking part of a stop line in an image of a road marking part other than an image having an inner height component. Stop line detection device.
移動体周囲を撮像領域として撮像し、複数の撮像手段により得られた複数の撮像画像から、走行路面上に存在する停止線の路面標示部を検出する停止線検出手段と、該停止線検出手段の検出結果に基づいて移動体に搭載された機器を制御する移動体制御手段とを備えた移動体制御装置において、
前記停止線検出手段として、請求項1〜7のいずれかに記載の物体検出装置を用いたことを特徴とする移動体制御装置。
Stop line detection means for picking up an image of the periphery of the moving body as an imaging region and detecting a road surface marking portion of a stop line existing on the traveling road surface from a plurality of captured images obtained by the plurality of imaging means, and the stop line detection means In the moving body control device comprising the moving body control means for controlling the device mounted on the moving body based on the detection result of
A moving body control device using the object detection device according to claim 1 as the stop line detection means.
移動体の走行方向を撮像した撮像画像に基づいて移動体の走行路面上に存在する停止線を検出する工程をコンピュータによって実行させる停止線検出用プログラムにおいて、
移動体が走行している走行路面領域から他の走行路面領域へ分岐する分岐箇所に設けられ、走行路面領域と走行路面領域外とを区画する構造物と、路面幅方向に延びた長尺帯状の路面標示部とを、前記撮像画像から検出し、検出した前記構造物の位置から所定距離だけ離れた位置に存在する前記路面標示部を停止線の路面標示部として検出する工程をコンピュータによって実行させることを特徴とする停止線検出用プログラム。
In a stop line detection program for causing a computer to execute a step of detecting a stop line existing on a traveling road surface of a moving body based on a captured image obtained by imaging the traveling direction of the moving body.
A structure that divides the traveling road surface area and the outside of the traveling road surface area, and is formed in a long strip extending in the road surface width direction, provided at a branching point that branches from the traveling road surface area where the mobile body is traveling to another traveling road surface area. And detecting the road surface marking portion present at a position away from the detected position of the structure by a predetermined distance as a road surface marking portion of a stop line. A program for detecting a stop line.
移動体の走行方向を撮像した撮像画像に基づいて移動体の走行路面上に存在する停止線を検出する工程をコンピュータによって実行させる停止線検出用プログラムにおいて、
移動体が走行している走行路面領域内の高さ成分を有する物の画像と、路面幅方向に延びた長尺帯状の路面標示部の画像とを、前記撮像画像から検出し、走行路面領域内の高さ成分を有する物の画像以外における路面標示部の画像の中で、路面幅方向における所定の路面方向幅を有する路面標示部を停止線の路面標示部として検出する工程をコンピュータによって実行させることを特徴とする停止線検出用プログラム。
In a stop line detection program for causing a computer to execute a step of detecting a stop line existing on a traveling road surface of a moving body based on a captured image obtained by imaging the traveling direction of the moving body.
An image of an object having a height component in the traveling road surface area where the moving body is traveling and an image of a long belt-shaped road surface marking portion extending in the road surface width direction are detected from the captured image, and the traveling road surface area is detected. The computer executes a step of detecting a road marking portion having a predetermined road width in the road width direction as a road marking portion of the stop line in the road marking portion image other than the image of the object having the height component inside A program for detecting a stop line.
JP2013120572A 2013-06-07 2013-06-07 Stop line detection device, moving body control device, and stop line detection program Expired - Fee Related JP6143176B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013120572A JP6143176B2 (en) 2013-06-07 2013-06-07 Stop line detection device, moving body control device, and stop line detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013120572A JP6143176B2 (en) 2013-06-07 2013-06-07 Stop line detection device, moving body control device, and stop line detection program

Publications (2)

Publication Number Publication Date
JP2014238693A true JP2014238693A (en) 2014-12-18
JP6143176B2 JP6143176B2 (en) 2017-06-07

Family

ID=52135814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013120572A Expired - Fee Related JP6143176B2 (en) 2013-06-07 2013-06-07 Stop line detection device, moving body control device, and stop line detection program

Country Status (1)

Country Link
JP (1) JP6143176B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020027468A (en) * 2018-08-13 2020-02-20 Kyb株式会社 Image processing device, image processing method, and image processing system
CN111540010A (en) * 2020-05-15 2020-08-14 百度在线网络技术(北京)有限公司 Road monitoring method and device, electronic equipment and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150595A (en) * 2011-01-18 2012-08-09 Toyota Central R&D Labs Inc Stop line detection device and program
JP2013029427A (en) * 2011-07-28 2013-02-07 Aisin Aw Co Ltd Stop line detection system, stop line detection device, stop line detection method, and computer program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150595A (en) * 2011-01-18 2012-08-09 Toyota Central R&D Labs Inc Stop line detection device and program
JP2013029427A (en) * 2011-07-28 2013-02-07 Aisin Aw Co Ltd Stop line detection system, stop line detection device, stop line detection method, and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020027468A (en) * 2018-08-13 2020-02-20 Kyb株式会社 Image processing device, image processing method, and image processing system
JP7129270B2 (en) 2018-08-13 2022-09-01 Kyb株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD AND IMAGE PROCESSING SYSTEM
CN111540010A (en) * 2020-05-15 2020-08-14 百度在线网络技术(北京)有限公司 Road monitoring method and device, electronic equipment and storage medium
CN111540010B (en) * 2020-05-15 2023-09-19 阿波罗智联(北京)科技有限公司 Road monitoring method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP6143176B2 (en) 2017-06-07

Similar Documents

Publication Publication Date Title
JP5714940B2 (en) Moving body position measuring device
CA2990775C (en) Vehicle position determination apparatus and vehicle position determination method
CN105922991B (en) Based on the lane departure warning method and system for generating virtual lane line
JP6566132B2 (en) Object detection method and object detection apparatus
JP4650079B2 (en) Object detection apparatus and method
CN103164851B (en) Lane segmentation object detecting method and device
US20200082182A1 (en) Training data generating method for image processing, image processing method, and devices thereof
US11341754B2 (en) Method and apparatus for auto calibration
CN105608927A (en) Alerting apparatus
US20150324649A1 (en) Method and Device for Analyzing Trafficability
JP2012173874A (en) Distance calculation program, distance calculation method, and distance calculation apparatus
WO2005029441A1 (en) Device for detecting road traveling lane
US20210042955A1 (en) Distance estimation apparatus and operating method thereof
JP2007234019A (en) Vehicle image area specifying device and method for it
KR102491527B1 (en) Detection of objects in camera images
JP2007316685A (en) Traveling path boundary detection device and traveling path boundary detection method
JP2012146146A (en) Moving object detection apparatus
JP2009245042A (en) Traffic flow measurement device and program
JP5974923B2 (en) Road edge detection system, method and program
JP6143176B2 (en) Stop line detection device, moving body control device, and stop line detection program
JP2015022698A (en) Object position determination device
JP2020035439A (en) Image processing device, warning system, image processing method and program
JP7454685B2 (en) Detection of debris in vehicle travel paths
JP5472928B2 (en) Object detection apparatus and method
Chai et al. Automatic vehicle classification and tracking method for vehicle movements at signalized intersections

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170427

R151 Written notification of patent or utility model registration

Ref document number: 6143176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees