JP2010055340A - Travel path estimation device and program - Google Patents

Travel path estimation device and program Download PDF

Info

Publication number
JP2010055340A
JP2010055340A JP2008219088A JP2008219088A JP2010055340A JP 2010055340 A JP2010055340 A JP 2010055340A JP 2008219088 A JP2008219088 A JP 2008219088A JP 2008219088 A JP2008219088 A JP 2008219088A JP 2010055340 A JP2010055340 A JP 2010055340A
Authority
JP
Japan
Prior art keywords
road
image
road shoulder
candidate point
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008219088A
Other languages
Japanese (ja)
Inventor
Kazunori Onoguchi
一則 小野口
Koji Iwase
耕二 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Hirosaki University NUC
Original Assignee
Mazda Motor Corp
Hirosaki University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp, Hirosaki University NUC filed Critical Mazda Motor Corp
Priority to JP2008219088A priority Critical patent/JP2010055340A/en
Publication of JP2010055340A publication Critical patent/JP2010055340A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve travel path estimation on a road where there exists no road surface marker by highly precisely detecting the boundary between a road and a region outside the road by using height information. <P>SOLUTION: The travel path estimation device is configured to assume that all points in one image in a stereo image exist on a road plane, and to check the similarity between a converted image converted into the way of viewing in one image and an actually input image, and to detect a road shoulder candidate points whose height is different from that of the road surface, and to estimate a travel path by selecting an actual road shoulder point from the relation of the road shoulder candidate marks in two regions arranged on a straight line connecting a retrieval original point with the road shoulder candidate points by using the road shoulder candidate points as a center in a reverse projection road shoulder candidate point image obtained by reversely projecting the obtained road shoulder boundary candidate points to the road surface. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、移動体に搭載され且つ該移動体の移動方向前方を撮像するTVカメラを用いて、道路と道路外領域との境界を検出することで走行路を推定する走行路推定装置及びプログラムに関するものである。   The present invention relates to a travel path estimation apparatus and program for estimating a travel path by detecting a boundary between a road and an area outside the road, using a TV camera mounted on the mobile body and imaging the front of the mobile body in the moving direction. It is about.

車の安全性を向上させるため、車載カメラの画像から自車両の走行路を推定する技術の開発が行われている。走行路推定技術としては、路面に描かれた白線などの路面マーカーを、画像中の輝度分布などから抽出し、追跡する手法が数多く考案されている(例えば、特許文献1、特許文献2、特許文献3参照)。道路端のエッジを検出して走行路を推定する手法(例えば、非特許文献1)や、色の情報を用いて道路領域を検出する手法(例えば、非特許文献2)なども考案されている。また、ステレオ視で獲得した高さ情報から走行路脇の壁面を検出し走行路との境界を推定する手法(例えば、特許文献4参照)、ステレオ画像中で検出した消失点方向に向かう直線を道路面上に投影し、投影画像上で直線同士の対応付けを行い、歩道の段差、ガードレール、駐車車両の側面などを検出する手法(例えば、特許文献5参照)、ステレオ画像を道路面上に逆投影し道路面の領域を検出する手法(例えば、特許文献6)なども考案されている。
特許第3930366号公報 特開2003−30626号公報 特開平6−119594号公報 特開2003−20454号公報 特開2003−281552号公報 特許第2989744号公報 A.M.Waxman,J.J.Lemoigne and L.S.Davis,“A Visual Navigation Systemfor Autonomous Land Vehicles,"IEEE Journal of Robotics and Automation,vol.RA-3,No.2,pp.124-141,1987. C.Thorpe,M.H.Herbert and T.Kanade,“Vision and Navigation for the Carnegie-Mellon Navlab,"IEEE Trans on PAMI,vol.10,No.3,pp.389-392,1988.
In order to improve the safety of a vehicle, a technique for estimating a traveling path of the host vehicle from an image of a vehicle-mounted camera has been developed. As a traveling road estimation technique, many techniques for extracting and tracking a road surface marker such as a white line drawn on a road surface from a luminance distribution in an image have been devised (for example, Patent Document 1, Patent Document 2, Patent). Reference 3). A method of detecting a road edge by detecting an edge of a road (for example, Non-Patent Document 1), a method of detecting a road region using color information (for example, Non-Patent Document 2), and the like have been devised. . In addition, a method for detecting a wall on the side of the road from the height information obtained by stereo vision and estimating a boundary with the road (see, for example, Patent Document 4), a straight line toward the vanishing point direction detected in the stereo image A method of projecting on a road surface, associating straight lines with each other on the projected image, and detecting a step on a sidewalk, a guard rail, a side surface of a parked vehicle, etc. (see, for example, Patent Document 5), a stereo image on a road surface A method (for example, Patent Document 6) for detecting a region of a road surface by back projection has been devised.
Japanese Patent No. 3930366 JP 2003-30626 A JP-A-6-119594 JP 2003-20454 A JP 2003-281552 A Japanese Patent No. 2998744 AMWaxman, JJ Lemoigne and LSDavis, “A Visual Navigation System for Autonomous Land Vehicles,” IEEE Journal of Robotics and Automation, vol.RA-3, No.2, pp.124-141, 1987. C. Thorpe, MH Herbert and T. Kanade, “Vision and Navigation for the Carnegie-Mellon Navlab,” IEEE Trans on PAMI, vol. 10, No. 3, pp. 389-392, 1988.

白線などの路面マーカーを画像から検出し、走行路を推定する手法は、路面マーカーが存在しない道路、路面マーカーが薄れて消えかけている道路、駐車車両などで路面マーカーが隠ぺいされている道路などには適用できない。これらの状況において走行路を推定するためには、路面マーカー以外の特徴から走行路を検出する必要があるが、道路端のエッジを検出する手法や色により道路領域を判別する手法など単眼カメラで道路領域を推定する手法は、状況によって様々な輝度やテクスチャーを持つ道路領域を安定に検出することが難しい。ステレオ視により獲得した3次元情報から壁面やガードレールなどを検出し、走行路を推定する手法は、ステレオ画像間の対応点探索に多大な計算コストを要し、リアルタイムで動作させるには専用の画像処理ハードウェアが必要となる。ステレオ画像中で検出した消失点方向に向かう直線を道路面上に投影し、投影画像上で直線同士の対応付けを行い、歩道の段差、ガードレール、駐車車両の側面などを検出する手法は、直線部分においてのみ対応探索を行い高さ情報を得るため、計算コストは低いが直線状の路肩が存在する場所でしか走行路が推定できない。ステレオ画像を道路面上に逆投影し道路面の領域を検出する手法は、計算コストが低い反面、濡れた路面上での反射や映り込みを誤検出する欠点がある。また、画像変換パラメータの誤差により、白線、横断歩道、路面標識などの路面マーカーや影などの輪郭部分が誤検出される場合がある。   The road surface marker such as a white line is detected from the image, and the method of estimating the road is the road where the road surface marker does not exist, the road where the road surface marker is fading and disappearing, the road where the road surface marker is hidden by a parked vehicle, etc. Not applicable to In order to estimate the road in these situations, it is necessary to detect the road from features other than the road surface marker. However, with a monocular camera such as a method for detecting the edge of the road or a method for determining the road area by color. In the method of estimating the road area, it is difficult to stably detect the road area having various brightnesses and textures depending on the situation. The method of detecting walls and guardrails from three-dimensional information acquired by stereo vision and estimating the traveling path requires a large calculation cost for searching corresponding points between stereo images, and is a dedicated image for operating in real time. Processing hardware is required. The straight line heading toward the vanishing point detected in the stereo image is projected onto the road surface, and the straight lines are associated with each other on the projected image to detect steps on the sidewalk, guardrails, side surfaces of parked vehicles, etc. Since the correspondence search is performed only in the portion and the height information is obtained, the traveling road can be estimated only at the place where the straight road shoulder exists although the calculation cost is low. The method of detecting a road surface area by back-projecting a stereo image onto the road surface is low in calculation cost, but has a drawback of erroneously detecting reflection or reflection on a wet road surface. Further, due to an error in the image conversion parameter, a road surface marker such as a white line, a pedestrian crossing, a road surface sign, or a contour portion such as a shadow may be erroneously detected.

本発明は、上記に鑑みてなされたものであって、路面マーカーやガードレール、壁面などの直線状の路肩が存在しない道路においても路面テクスチャーの影響を受けず走行路が推定できる走行路推定装置及びプログラムを提供することを目的とする。   The present invention has been made in view of the above, and a traveling road estimation device capable of estimating a traveling road without being affected by road surface texture even on a road where there is no straight road shoulder such as a road surface marker, a guard rail, and a wall surface, and the like The purpose is to provide a program.

上述した課題を解決し、目的を達成するために、本発明では、走行路推定装置を対象とし、車両に設置され、該車両前方を撮像する第一及び第二TVカメラと、上記第一TVカメラにより撮像された画像を蓄積する第一画像メモリ、及び、上記第二TVカメラより撮像された画像を蓄積する第二画像メモリと、上記第一画像メモリに蓄積された画像を、初期変換パラメータを用いて変換する変換画像作成部と、上記変換画像作成部で作成した変換画像と第二画像メモリに蓄積された画像とを基に、道路面と高さが異なる路肩候補点を検出する道路外領域検出部と、上記道路外領域検出部に検出された路肩候補点を道路面へ逆投影した画像を作成する逆投影路肩候補点画像作成部と、上記逆投影路肩候補点画像作成部で作成した逆投影路肩候補点画像中で道路領域と道路外領域の境界点を路肩点として選択し走行路を推定する走行路推定部とを具備するものとした。   In order to solve the above-described problems and achieve the object, in the present invention, a first and second TV camera that is installed in a vehicle and images the front of the vehicle, and the first TV are provided. A first image memory for storing an image captured by the camera, a second image memory for storing an image captured by the second TV camera, and an image stored in the first image memory are converted into initial conversion parameters. A road for detecting a road shoulder candidate point having a height different from that of the road surface based on the converted image creation unit for conversion using the image, the converted image created by the converted image creation unit and the image stored in the second image memory An outer region detection unit, a back projection road shoulder candidate point image creation unit that creates an image obtained by back projecting the road shoulder candidate points detected by the road outside region detection unit onto the road surface, and the back projection road shoulder candidate point image creation unit. Backprojected shoulder candidate created The boundary points of the road area and the road outside region shall and a traveling path estimation unit for estimating a selected roadway as shoulder point in the image.

また、別の本発明では、プログラムを対象とし、コンピュータを、車両に設置された第一及び第二TVカメラで撮影した画像を入力する画像入力手段と、初期変換パラメータを用いて上記第一TVカメラより入力した画像を変換する変換画像作成手段と、該変換画像作成手段で作成した変換画像と上記第二TVカメラより入力した画像から道路面と高さが異なる路肩候補点を検出する道路外領域検出手段と、該道路外領域検出手段で検出した路肩候補点を道路面へ逆投影した画像を作成する逆投影路肩候補点画像作成手段と、該逆投影路肩候補点画像作成手段で作成した逆投影路肩候補点画像中の路肩候補点の中から、路肩候補点を中心として探索原点と路肩候補点とを結ぶ直線上に設けられた2つの領域内における路肩候補点数の関係から真の路肩点を選択して、走行路を推定する走行路推定手段、として機能させるものとした。   In another aspect of the present invention, the first TV is set using an image input means for inputting an image taken by the first and second TV cameras installed in the vehicle and an initial conversion parameter. Converted image creating means for converting an image input from the camera, and an out-of-road candidate for detecting a road shoulder candidate point having a height different from the road surface from the converted image created by the converted image creating means and the image input from the second TV camera. Created by an area detection means, a backprojection shoulder candidate point image creation means for creating an image obtained by back projecting the road shoulder candidate points detected by the outside road area detection means on the road surface, and the backprojection shoulder candidate point image creation means From the relationship between the number of road shoulder candidate points in the two regions provided on the straight line connecting the search origin and the road shoulder candidate point centered on the road shoulder candidate point from among the road shoulder candidate points in the back-projected road shoulder candidate point image Select shoulder point, the travel path estimating means for estimating the running path, and assumed to function as a.

このことで、ステレオ画像における一方の画像中の全点が道路平面上に存在すると仮定してもう一方の画像における見え方に変換した変換画像と実際に入力した画像との間の類似性を調べることで、道路面とは高さが異なる路肩候補点を検出し、得られた路肩境界候補点を道路面へ逆投影した逆投影路肩候補点画像中で路肩候補点を中心として探索原点と路肩候補点とを結ぶ直線上に設けられた2つの領域内における路肩候補点数の関係から真の路肩点を選択して走行路を推定することができる。よって、路面マーカーやガードレール、壁面などの直線状の路肩が存在しない道路においても路面テクスチャーの影響を受けずに走行路を推定することが可能となる。   As a result, it is assumed that all points in one image in the stereo image are present on the road plane, and the similarity between the converted image converted into the view in the other image and the actually input image is examined. Thus, a road shoulder candidate point having a height different from that of the road surface is detected, and the search origin and road shoulder are centered on the road shoulder candidate point in the back-projected road shoulder candidate point image obtained by back projecting the obtained road shoulder boundary candidate point onto the road surface. A true road shoulder point can be selected from the relationship between the number of road shoulder candidate points in two regions provided on a straight line connecting the candidate points, and the traveling road can be estimated. Therefore, it is possible to estimate the traveling road without being affected by the road surface texture even on a road where there is no straight road shoulder such as a road surface marker, a guard rail, or a wall surface.

以上説明したように、本発明によると、路面マーカーやガードレール、壁面などの直線状の路肩が存在しない道路においても路面テクスチャーの影響を受けずに走行路を推定することができる。   As described above, according to the present invention, it is possible to estimate a traveling road without being influenced by road surface texture even on a road where there is no straight road shoulder such as a road surface marker, a guard rail, or a wall surface.

以下に添付図面を参照して、この発明に係る走行路推定装置及びプログラムの好適な実施形態を詳細に説明する。   Exemplary embodiments of a travel route estimation apparatus and a program according to the present invention will be explained below in detail with reference to the accompanying drawings.

(実施形態)
図1は、本発明の一実施形態に係る走行路推定装置100の機能構成を示すブロック図である。同図に示すように、この走行路推定装置100は、2台のTVカメラ(第一及び第二TVカメラ)1,2と、該両TVカメラ1,2から入力される画像をそれぞれ格納する第一及び第二画像メモリ3,4と、変換画像作成部5と、初期変換パラメータ格納部と、道路外領域検出部6と、逆投影路肩候補点画像作成部7と、走行路推定部8とを備える。
(Embodiment)
FIG. 1 is a block diagram showing a functional configuration of a travel route estimation apparatus 100 according to an embodiment of the present invention. As shown in the figure, this travel path estimation apparatus 100 stores two TV cameras (first and second TV cameras) 1 and 2 and images input from both TV cameras 1 and 2, respectively. First and second image memories 3 and 4, a converted image creation unit 5, an initial conversion parameter storage unit, an outside road area detection unit 6, a back-projected road shoulder candidate point image creation unit 7, and a travel route estimation unit 8 With.

上記両TVカメラ1,2は、移動体としての自動車の当該走行路追跡装置が搭載される車両の前方を撮影し、撮影された画像はそれぞれ第一及び第二画像メモリ3,4へ格納される。   Both the TV cameras 1 and 2 photograph the front of the vehicle on which the traveling path tracking device of the automobile as a moving body is mounted, and the photographed images are stored in the first and second image memories 3 and 4, respectively. The

変換画像作成部5は、第一画像メモリ3に格納された画像中の全点が道路平面上に存在すると仮定して第二画像メモリ4に格納された画像における見え方に変換した画像を作成する。   The converted image creation unit 5 creates an image converted into the appearance in the image stored in the second image memory 4 on the assumption that all points in the image stored in the first image memory 3 exist on the road plane. To do.

図2を用いて、変換画像の作成方法を説明する。まず、第一TVカメラ1の画像I1を道路平面上へ逆投影する。次いで、逆投影された平面領域を第二TVカメラ2で撮像した際の画像ITに変換する。第一TVカメラ1のカメラ座標系はO-XYZ、第二TVカメラ2のカメラ座標系はO´-X´Y´Z´、焦点距離は共にFであるとする。I1中の点(x,y)が道路平面上の点Pへ逆投影され、PがカメラC2の画像面I2中の点(x´,y´)へ投影される場合を考える。第一TVカメラ1及び第二TVカメラ2の光軸がほぼ平行であり、かつ道路のようにZ軸方向の計測範囲がX軸方向に比べて格段に広い場合、(x,y)と(x´,y´)の間には、以下の関係式が成り立つ。 A method for creating a converted image will be described with reference to FIG. First, the image I 1 of the first TV camera 1 is backprojected onto the road plane. Then converted backprojected planar regions in the image I T when captured by the second TV camera 2. The camera coordinate system of the first TV camera 1 is O-XYZ, the camera coordinate system of the second TV camera 2 is O′-X′Y′Z ′, and the focal length is F. Consider a case where a point (x, y) in I 1 is back-projected to a point P on the road plane, and P is projected to a point (x ′, y ′) in the image plane I 2 of the camera C 2 . When the optical axes of the first TV camera 1 and the second TV camera 2 are almost parallel and the measurement range in the Z-axis direction is much wider than the X-axis direction like a road, (x, y) and ( x ′, y ′) holds the following relational expression.

ここで、bは定数、Vyは消失点のy座標であり、I1,I2において、道路平面上に存在する点の対応する画像座標(x,y),(x´,y´)の組を式(1)に与え、最小二乗法により求めることができる。このため、第一TVカメラ1及び第二TVカメラ2を車両に設置した後、道路平面上の特徴点(横断歩道やセンターライン等の輪郭に含まれる角点等)を対話的に対応付け、算出したbとVyを初期変換パラメータ格納部に格納しておく。 Here, b is a constant, V y is the y coordinate of the vanishing point, the I 1, I 2, corresponding image coordinates of points existing on a road plane (x, y), (x' , y') Can be obtained by the least square method. For this reason, after the first TV camera 1 and the second TV camera 2 are installed in the vehicle, feature points on the road plane (such as corner points included in the contours of pedestrian crossings and center lines) are interactively associated with each other. The calculated b and V y are stored in the initial conversion parameter storage unit.

I1の各点(x,y)の変換後の画像座標(x´,y´)を式(1)より求め、I1の変換画像ITを作成する。式(1)により得られる変換後のx´またはy´の値が、第二TVカメラ2の画像座標の範囲内(例えば、幅W、高さHの画像の場合、0≦x´<W,0≦y´<Hの範囲)に含まれるI1中の(x,y)のみを用いて変換画像ITを作成する。 Each point (x, y) of I 1 of the image coordinates after conversion (x', y ') a calculated from equation (1), creating a transformed image I T of I 1. The value of x ′ or y ′ after conversion obtained by the expression (1) is within the range of image coordinates of the second TV camera 2 (for example, 0 ≦ x ′ <W in the case of an image having a width W and a height H). , 0 ≦ y ′ <H), the converted image IT is created using only (x, y) in I 1 .

式(1)は、初期変換パラメータ格納部におけるbとVyを固定値として用いるため、車体の揺れによる変換誤差が発生する。舗装路の場合、ロール方向の揺れは小さいが、段差などによる車体のピッチングの影響は無視できない。ピッチングが発生すると、図3に示すように、変換左画像と右画像の間には、水平方向にズレが生じる。ズレは、図3の矢印のように画像の縦の座標に比例して大きくなる。変換左画像と右画像との間で、走査線毎に1画素ずつずらしながら相互相関値を求めた結果を図4(a)に示す。相関値の高い点を明るく示している。図4(a)の画像に対してHough変換による直線検出を行うと、ズレ量は図4(b)に示すような投票数最大の直線で表される。この直線式を、
e(y)=βy+γ ・・・・・・(2)
とすると、この式から求まるβ,γを用いて、変換パラメータの誤差を補正することができる。式(1)に、ピッチング補正を施した変換式を式(3)に示す。
Equation (1), since the use of b and V y in the initial conversion parameter storing section as a fixed value, the conversion error due to shaking of the vehicle body occurs. In the case of paved roads, the fluctuation in the roll direction is small. When pitching occurs, as shown in FIG. 3, a horizontal shift occurs between the converted left image and the right image. The deviation increases in proportion to the vertical coordinates of the image as shown by the arrows in FIG. FIG. 4A shows the result of obtaining the cross-correlation value while shifting one pixel at a time for each scanning line between the converted left image and the right image. A point with a high correlation value is shown brightly. When straight line detection by Hough transform is performed on the image of FIG. 4A, the amount of deviation is represented by a straight line with the maximum number of votes as shown in FIG. This linear expression is
e (y) = βy + γ (2)
Then, the error of the conversion parameter can be corrected using β and γ obtained from this equation. Formula (3) shows a conversion formula obtained by performing pitching correction on Formula (1).

第一画像メモリ3に入力された画像に対し、式(1)により変換画像を作成し、走査線毎に1画素ずつずらしながら第二画像メモリ4の画像との相互相関値を求める。次いで、Hough変換により、投票数が最大となる直線式(2)を求め、変換パラメータの補正量β,γを得る。そして、式(3)により、第一画像メモリ3に入力された画像の変換画像を再度求める。以上の処理により、ピッチングにより発生する第一画像メモリ3の変換画像と第二画像メモリ4の画像との間のズレを抑えることができる。   A converted image is created from the image input to the first image memory 3 by the equation (1), and a cross-correlation value with the image in the second image memory 4 is obtained while shifting one pixel at a time for each scanning line. Next, a linear expression (2) that maximizes the number of votes is obtained by Hough transform, and conversion parameter correction amounts β and γ are obtained. Then, a converted image of the image input to the first image memory 3 is obtained again by Expression (3). With the above processing, it is possible to suppress a deviation between the converted image in the first image memory 3 and the image in the second image memory 4 caused by pitching.

道路外領域検出部6は、第一画像メモリ3の画像の変換画像と第二画像メモリ4の画像との間で各画素毎の輝度の類似度を調べ、道路面と異なる高さを持つ領域を道路外領域として検出する。類似度としては、絞りや感度の違いなどから生じるステレオ画像間の明度差を考慮し、正規化輝度差分とエッジ方向差分を用いる。
正規化輝度差分による類似度CorN(x,y)は、式(4)を用いて算出する。
The out-of-road area detection unit 6 checks the luminance similarity for each pixel between the converted image of the image in the first image memory 3 and the image in the second image memory 4, and has an area having a height different from that of the road surface. Is detected as an area outside the road. As the similarity, a normalized luminance difference and an edge direction difference are used in consideration of a brightness difference between stereo images caused by a difference in aperture and sensitivity.
The similarity CorN (x, y) based on the normalized luminance difference is calculated using Equation (4).

lx,lyは、類似度を算出する際のウィンドウサイズである。 l x and l y are window sizes used when calculating the similarity.

IT,I2の各点においてCorN(x,y)を算出し、予め設定しておいた閾値TNによる2値画像Ibn(x,y)(Ibn(x,y)=255 if CorN(x,y)>TN, Ibn(x,y)=0 if CorN(x,y)≦TN)を求める。 CorN (x, y) is calculated at each point of I T and I 2, and a binary image I bn (x, y) (I bn (x, y) = 255 if CorN with a preset threshold TN (x, y)> TN, I bn (x, y) = 0 if CorN (x, y) ≦ TN) is obtained.

エッジ方向差分による類似度CorD(x,y)は、式(8)によりを算出する。DT,D2は、ソーベルオペレータにより求めたIT,I2のエッジ方向画像である。 The degree of similarity CorD (x, y) based on the edge direction difference is calculated by Expression (8). D T and D 2 are edge direction images of I T and I 2 obtained by the Sobel operator.

lx,lyは、正規化輝度差分の場合と同様、類似度を算出する際のウィンドウサイズである。 l x and l y are window sizes for calculating the similarity, as in the case of the normalized luminance difference.

DT,D2の各点においてCorD(x,y)を算出し、予め設定しておいた閾値TDによる2値画像Ibd(x,y)(Ibd(x,y)=255 if CorD(x,y)>TD,Ibd(x,y)=0 if CorD(x,y)≦TD)を求める。 CorD (x, y) is calculated at each point of D T and D 2, and a binary image I bd (x, y) (I bd (x, y) = 255 if CorD with a preset threshold value TD (x, y)> TD, I bd (x, y) = 0 if CorD (x, y) ≦ TD) is obtained.

道路外領域検出部6は、得られた正規化輝度差分画像Ibnとエッジ方向差分画像Ibdとの間の論理和画像Iorを求め、Ior中の白画素領域を路肩候補点(車両などの障害物領域も含む)とする。 The outside road area detection unit 6 obtains a logical sum image I or between the obtained normalized luminance difference image I bn and the edge direction difference image I bd, and sets a white pixel area in I or as a road shoulder candidate point (vehicle Including obstacle areas).

逆投影路肩候補点画像作成部7は、道路外領域検出部6において検出した路肩候補点を道路面に逆投影し、道路面を上空から俯瞰したバードビュー画像(逆投影路肩候補点画像)BV(図6参照)を作成する。画像中の点(x,y)が道路面の点(u,v)に逆投影されたとすると、(x,y)と(u,v)の間には、以下の関係式が成り立つ。   The back-projected road shoulder candidate point image creation unit 7 back-projects the road shoulder candidate points detected by the out-of-road region detection unit 6 onto the road surface, and bird's-eye image (back-projected road shoulder candidate point image) BV as seen from above the road surface. (See FIG. 6). If the point (x, y) in the image is back-projected to the point (u, v) on the road surface, the following relational expression holds between (x, y) and (u, v).

ここで、RXはX方向の圧縮(伸長)率、RYはY方向の圧縮(伸長)率、Ylimitは画像中の下限値である。また、画像中の座標(x,y)は、消失点位置を原点としている。   Here, RX is a compression (expansion) rate in the X direction, RY is a compression (expansion) rate in the Y direction, and Ylimit is a lower limit value in the image. The coordinates (x, y) in the image have the vanishing point position as the origin.

走行路推定部8は、逆投影路肩候補点画像作成部7で作成された逆投影路肩候補点画像BV中で、路肩の探索を行う。擦れた横断歩道などにおいては、路肩領域が逆投影路肩候補点画像BV中で水平方向に密集して表れる。この密集領域内で路肩を探索するのは困難なため、図6に示すように、逆投影路肩候補点画像BVを水平方向に投影し、投影値が小さい領域を路肩点を探索する探索領域とする。図7では、A,Bの範囲が探索領域となる。   The travel path estimation unit 8 searches for a road shoulder in the back projection road shoulder candidate point image BV created by the back projection road shoulder candidate point image creation unit 7. In a rubbed pedestrian crossing or the like, the shoulder area appears densely in the horizontal direction in the backprojected shoulder candidate image BV. Since it is difficult to search for a road shoulder in this dense area, as shown in FIG. 6, a back-projected road shoulder candidate point image BV is projected in the horizontal direction, and an area having a small projection value is searched for a road shoulder point. To do. In FIG. 7, the range of A and B is the search area.

図5に示すように、逆投影路肩候補点画像BVにおいて道路面と高さが異なる障害物領域は放射状に倒れ込んだ形状を示す。このため、路肩位置は逆投影路肩候補点画像BVを放射状に探索した際、路肩領域が後方に連続して現れる位置となる(図8の丸印)。逆投影画像上で放射状探索の方向(図8の矢印の方向)を決めるための探索原点(図8の原点O)は、逆投影画像において、視野外領域の境界線(図8における直線L)と画像中心線の交点から算出する。この探索原点は、車両に第一TVカメラ1及び第二TVカメラ2を設置した際に入力した画像から手動で算出する。   As shown in FIG. 5, in the back-projected road shoulder candidate point image BV, the obstacle area having a height different from that of the road surface has a radially collapsed shape. Therefore, the road shoulder position is a position where the road shoulder region continuously appears rearward when the back-projected road shoulder candidate point image BV is searched for radially (circle in FIG. 8). The search origin (origin O in FIG. 8) for determining the radial search direction (the direction of the arrow in FIG. 8) on the backprojection image is the boundary line of the out-of-field region (straight line L in FIG. 8) in the backprojection image. And the intersection of the image center line. The search origin is manually calculated from an image input when the first TV camera 1 and the second TV camera 2 are installed in the vehicle.

複数の探索領域が設定されている場合、縦幅がある程度大きく、かつ最も車両に近い探索領域、つまり逆投影画像の下端に近い領域を選択し、その内部で路肩探索の開始位置を求める。図7では、探索領域Aが選ばれる。左側の路肩を探索するため、逆投影路肩候補点画像BVの左半分のみを対象としている。探索領域の縦幅が広すぎると、曲がっている路肩の開始点がずれるため、縦幅が一定画素以上の場合は、探索領域の底辺から一定の高さまでの領域を探索領域とする。選択された探索領域内において、図9に示す平行四辺形の探索ウィンドウTを走査し、式(14)より各点の路肩度BDを算出する。探索ウィンドウTは、路肩候補点と探索原点を結ぶ直線に平行な平行線と走査線方向の平行線からなる平行四辺形である。このため、探索ウィンドウTは探索領域内の各点において異なる形状を持つ。NWはTの上部領域W内における白点(路肩点)の個数、NBはTの下部領域B内における黒点(道路面上の点)の個数、NTはT内の画素の総数である。 When a plurality of search areas are set, a search area having a certain vertical width and closest to the vehicle, that is, an area close to the lower end of the backprojection image, is selected, and the start position of the road shoulder search is obtained. In FIG. 7, the search area A is selected. In order to search the left shoulder, only the left half of the back-projected shoulder candidate image BV is targeted. If the vertical width of the search area is too wide, the starting point of the curved shoulder is shifted. Therefore, when the vertical width is equal to or greater than a certain pixel, the area from the bottom of the search area to a certain height is set as the search area. In the selected search area, the parallelogram search window T shown in FIG. 9 is scanned, and the shoulder degree BD of each point is calculated from the equation (14). The search window T is a parallelogram composed of parallel lines parallel to a straight line connecting the road shoulder candidate point and the search origin, and parallel lines in the scanning line direction. For this reason, the search window T has a different shape at each point in the search area. N W is the number of white spots (shoulder point) in the upper region W of the T, N B is the number of black points (points on the road surface) in the lower region B of T, N T is the total number of pixels in the T is there.

BDは、路肩点が放射状後方に連続して出現する境界において高い値を示す。このため、探索領域内でTを走査し、各点において得られたBDの値を垂直方向に投影し、投影値が最大となる位置Pを路肩探索の開始点とする(図9)。   BD shows a high value at the boundary where the shoulder point appears continuously in the radial direction. For this reason, T is scanned in the search area, the value of BD obtained at each point is projected in the vertical direction, and the position P where the projection value is maximum is set as the starting point of the road shoulder search (FIG. 9).

図10に示すように、各探索領域Aiを垂直方向に固定幅で分割し、各分割ラインLij上で路肩位置の探索を行う。最下端の分割ライン上の探索開始点位置を路肩探索の起点とし、上方の分割ライン上の路肩位置を順に探索していく。図10の例においては、分割ラインL11上の路肩開始点位置が探索の始点となり、直上の分割ラインL12上の路肩位置を路肩探索の開始点を求めた手法と同様の手法で探索する。L11上の路肩検出位置(路肩開始点位置)を中心に、左右一定間隔の範囲でL12上を走査し(図10においては、各分割ライン上の双方向矢印の範囲)、路肩度BDを求める。そして、最大の路肩度が得られる位置をL12における路肩位置とする。同様の処理を、上方の分割ラインに対して順次施し、各ライン上の路肩位置を得る。非探索領域に関しては、その下辺の路肩位置を上辺の路肩位置探索の始点に用いる。各分割ライン上で得られた路肩点を結ぶ折れ線を、走行路として出力する。
(変形例)
なお、本発明は、上記実施形態に限定されるものではなく、以下に例示するような種々の変形が可能である。
(変形例1)
上記実施形態では、道路外領域検出部6は、得られた路肩候補点をそのまま逆投影路肩候補点画像作成部7へ出力しているが、得られた路肩候補点に含まれる第二画像メモリ4の画像I2の各点において、図12(b)に示すように上下に2つのウィンドウを設定し、上部ウィンドウ内において第一画像メモリ3の画像(図12(a))と第二画像メモリ4の画像(図12(b))との間の輝度相関CT、及び下部ウィンドウ内において第二画像メモリ4の画像(図12(b))と第一画像メモリ3の画像の変換画像(図12(c))との間の輝度相関CBを求め、CTとCBが一定以上大きな値を示す点を路肩候補点として逆投影路肩候補点画像作成部7へ出力しもよい。輝度相関は、ウィンドウ内の輝度平均と分散で正規化した相互相関係数を用いる。路外工作物や車両などの障害物領域においては、輝度相関CTの値が高くなり、輝度相関CBの値が低くなる。一方、道路面においては、輝度相関CBの値が高くなり、輝度相関CTの値が低くなる。障害物領域と道路面との間の境界点においてのみ、CTとCBは共に高い値を示すため、変形例1では路肩候補点の数を減らすことができる。
(変形例2)
また、上記実施形態では、逆投影路肩候補点画像作成部7は、道路外領域検出部6より入力した路肩候補点をそのまま道路面へ逆投影しているが、輝度のコントラストが低い場合、路肩候補点は途切れ々々の点列として検出されるため、画像を格子ブロックに分け、一定個数以上の路肩候補点が含まれる格子ブロック内の全点を路肩点とするなどの補間処理を行った後に、道路面へ逆投影してもよい。
(変形例3)
また、上記実施形態では、走行路探索部は路肩探索の開始点を1つのみ検出していたが、手前の段差や白線などの後方には、壁面などの路肩が更に存在する可能性が高いため、各探索領域を複数の領域に分け、それぞれの領域内で路肩点を求め、それらを結ぶ複数本の折れ線を走行路として出力するようにしてもよい。例えば、図11に示すようにSinとSoutといった2つの領域に分け、各領域内で投影値が最大となる位置PiとPoを求める。そして、Piの投影値が予め設定された閾値以上の場合、Piを路肩探索の開始点とする。また、Poの投影値が閾値以上であり、かつPiの位置から一定以上離れている場合には、Poも路肩探索の開始点とする。そして、PiとPoをともに路肩探索の開始点として、各分割ライン上で路肩点を探索し、路肩点を結ぶ2本の折れ線を走行路として出力してもよい。
(変形例4)
また、上記実施形態では、走行路探索部は自車両に近い位置から遠方に向かって各分割ライン上の路肩点を探索し、走行路を推定しているが、逆投影路肩候補点画像BV中の路肩候補点で得られた路肩度を逆投影路肩候補点画像BVと同サイズのメモリに蓄積し、Snakesなどの動的輪郭抽出手法を用いて走行路を推定してもよい。
(変形例5)
また、上記実施形態では、本発明を自動車に搭載される走行路推定装置100に適用された場合について説明したが、本発明はこれに限定されるものではなく、屋内通路端などを検出することにより、移動ロボット(移動体)などの走行路推定装置100にも適用することができる。
(変形例6)
また、上記実施形態における走行路推定装置100は、図1に示すような各部の機能を有するハードウェア回路によって構成するようにしてもよいが、CPU等のコンピュータにプログラムを実行させることで上述した各処理を行うように構成してもよい。また、このような処理をコンピュータに実行させるためのプログラムをインターネット等のネットワークを介してユーザに提供するようにしてもよいし、CD-ROM等の記録媒体に記録させてユーザに提供するようにしてもよい。
(変形例7)
また、上記実施形態では、2台のTVカメラ(第一及び第二TVカメラ1,2)を設けるようにしているが、これに限ったものではなく、3台以上設けるようにしてもい。
As shown in FIG. 10, each search area A i is divided in the vertical direction with a fixed width, and a road shoulder position is searched on each divided line L ij . The search start point position on the lowermost division line is used as the starting point of the road shoulder search, and the road shoulder position on the upper division line is searched in order. In the example of FIG. 10, the shoulder starting point location on the parting line L 11 is the starting point of the search, searches in a similar manner as the shoulder position on the parting line L 12 to determine the starting point of the shoulder search method immediately above . Road shoulder detection position on the L 11 (the road shoulder starting point position) in the center, and scans the L 12 on the range of the left and right constant intervals (in FIG. 10, the range of the double arrow on the parting line), shoulder degree BD Ask for. Then, the position at which the maximum shoulder degree is obtained with the shoulder position in L 12. The same process is sequentially performed on the upper divided lines to obtain the shoulder position on each line. For the non-search area, the lower shoulder position is used as the starting point for the upper shoulder position search. A broken line connecting the road shoulder points obtained on each divided line is output as a traveling road.
(Modification)
In addition, this invention is not limited to the said embodiment, Various deformation | transformation which is illustrated below is possible.
(Modification 1)
In the above embodiment, the road outside region detection unit 6 outputs the obtained road shoulder candidate points as they are to the backprojected road shoulder candidate point image creation unit 7, but the second image memory included in the obtained road shoulder candidate points. At each point of the image I 2 in FIG. 4, two windows are set up and down as shown in FIG. 12B, and the image (FIG. 12A) and the second image in the first image memory 3 are set in the upper window. The luminance correlation C T between the image of the memory 4 (FIG. 12B) and the converted image of the image of the second image memory 4 (FIG. 12B) and the image of the first image memory 3 in the lower window. (FIG. 12 (c)) determined the brightness correlation C B between, C T and C B may output to the inverse projection shoulder candidate point image generating section 7 as a road shoulder candidate point a point indicating a large value constant over . For the luminance correlation, a cross-correlation coefficient normalized by the luminance average and variance in the window is used. In obstacle regions such as off-road work piece or vehicle, the value of the luminance correlation C T is increased, the value of the luminance correlation C B becomes lower. On the other hand, on the road surface, the value of the luminance correlation C B increases and the value of the luminance correlation C T decreases. Only at the boundary point between the obstacle region and the road surface, since C T and C B are shown together high value, it is possible to reduce the number of shoulder candidate points in the first modification.
(Modification 2)
In the above embodiment, the back-projected road shoulder candidate point image creation unit 7 back-projects the road shoulder candidate point input from the outside road area detection unit 6 as it is onto the road surface. Candidate points are detected as a continuous sequence of points, so the image was divided into grid blocks, and interpolation processing such as setting all the points in the grid block containing a certain number of road shoulder candidate points to the road shoulder points was performed. Later, it may be back-projected onto the road surface.
(Modification 3)
In the above embodiment, the traveling road search unit detects only one starting point of the road shoulder search, but there is a high possibility that a road shoulder such as a wall surface further exists behind the step or white line in front. Therefore, each search area may be divided into a plurality of areas, road shoulder points may be obtained in each area, and a plurality of broken lines connecting them may be output as a traveling road. For example, it divided into two areas such S in and S out as shown in FIG. 11, calculating the position P i and P o where the projection value is maximized in each area. When the threshold value or more projection value is preset P i, the start point of the road shoulder exploring P i. Further, when the projected value of P o is equal to or larger than the threshold value and is away from the position of P i by a certain amount, P o is also set as the starting point of the road shoulder search. Then, as a starting point for both shoulder exploring P i and P o, it searches the shoulder points on each division line, and may output the two polygonal lines connecting the shoulder point as the travel path.
(Modification 4)
Further, in the above embodiment, the road search unit searches for a road shoulder point on each divided line from a position close to the host vehicle to a distance, and estimates the road, but in the back-projected road shoulder candidate point image BV The road shoulder degree obtained from the road shoulder candidate points may be stored in a memory having the same size as the back-projected road shoulder candidate point image BV, and the running road may be estimated using a dynamic contour extraction method such as Snakes.
(Modification 5)
In the above embodiment, the case where the present invention is applied to the traveling path estimation apparatus 100 mounted on an automobile has been described. However, the present invention is not limited to this, and an end of an indoor passage or the like is detected. Thus, the present invention can also be applied to the travel route estimation apparatus 100 such as a mobile robot (moving body).
(Modification 6)
Moreover, although the travel route estimation apparatus 100 in the above embodiment may be configured by a hardware circuit having the functions of each unit as shown in FIG. 1, it is described above by causing a computer such as a CPU to execute a program. You may comprise so that each process may be performed. In addition, a program for causing a computer to execute such processing may be provided to the user via a network such as the Internet, or may be provided to the user by being recorded on a recording medium such as a CD-ROM. May be.
(Modification 7)
In the above embodiment, two TV cameras (first and second TV cameras 1 and 2) are provided. However, the present invention is not limited to this, and three or more TV cameras may be provided.

本発明は、移動体に搭載され且つ該移動体の移動方向前方を撮像するTVカメラを用いて、道路と道路外領域との境界を検出することで走行路を推定する走行路推定装置及びプログラムに有用であり、特に、車両の走行路推定に適用する場合に有用である。   The present invention relates to a travel path estimation apparatus and program for estimating a travel path by detecting a boundary between a road and an area outside the road, using a TV camera mounted on the mobile body and imaging the front of the mobile body in the moving direction. This is particularly useful when applied to vehicle travel route estimation.

本発明の実施形態に係る走行路推定装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the traveling route estimation apparatus which concerns on embodiment of this invention. 走行路推定装置の変換画像作成部によって行われる画像変換を説明するための図である。It is a figure for demonstrating the image conversion performed by the conversion image creation part of a travel route estimation apparatus. 走行路推定装置の変換画像作成部において、車体のピッチングが画像変換に及ぼす影響を説明するための図である。It is a figure for demonstrating the influence which the pitching of a vehicle body has on image conversion in the conversion image preparation part of a travel route estimation apparatus. 走行路推定装置の変換画像作成部によって行われるピッチングによるパラメータの補正を説明するための図である。It is a figure for demonstrating correction | amendment of the parameter by pitching performed by the conversion image creation part of a travel route estimation apparatus. 走行路推定装置の逆投影路肩候補点画像作成部によって作成される逆投影路肩候補点画像の性質を説明するための図である。It is a figure for demonstrating the property of the backprojection road shoulder candidate point image produced by the backprojection road shoulder candidate point image creation part of a traveling path estimation apparatus. 走行路推定装置の走行路推定部において、路肩候補点を水平方向に投影し、路肩点を探索する領域を求める手法を説明するための図である。It is a figure for demonstrating the method of obtaining the area | region which projects a road shoulder candidate point in a horizontal direction, and searches for a road shoulder point in the travel path estimation part of a travel path estimation apparatus. 走行路推定装置の走行路推定部において、路肩点を探索する領域の一例を示す図である。It is a figure which shows an example of the area | region which searches a road shoulder point in the travel route estimation part of a travel route estimation apparatus. 走行路推定装置の走行路推定部において、逆投影路肩候補点画像中で路肩点を探索する手法を説明するため図である。It is a figure for demonstrating the method of searching for a road shoulder point in a backprojection road shoulder candidate point image in the travel path estimation part of a travel path estimation apparatus. 走行路推定装置の走行路推定部において、路肩度を算出するための領域及び路肩点の選択手法を説明する手法を説明するため図である。It is a figure for demonstrating the method explaining the selection method of the area | region for calculating a road shoulder degree, and a road shoulder point in the travel road estimation part of a travel road estimation apparatus. 走行路推定装置の走行路推定部において、探索開始点から路肩点を順次探索していく手法を説明するため図である。It is a figure for demonstrating the method of searching a road shoulder point sequentially from a search start point in the travel route estimation part of a travel route estimation apparatus. 走行路推定装置の走行路推定部において、複数の走行路を検出する際の路肩点の選択手法を説明するため図である。It is a figure for demonstrating the selection method of the road shoulder point at the time of detecting a some traveling path in the traveling path estimation part of a traveling path estimation apparatus. 走行路推定装置の変形例1における上下2つのウィンドウの一例を示す図である。It is a figure which shows an example of two upper and lower windows in the modification 1 of a traveling path estimation apparatus.

符号の説明Explanation of symbols

i 探索領域
B 直線上に設けられた領域
BD 路肩度
W 直線上に設けられた領域
ij 複数の水平線
1 第一TVカメラ
2 第二TVカメラ
3 第一画像メモリ
4 第二画像メモリ
5 変換画像作成部
6 道路外領域検出部
7 逆投影路肩候補点画像作成部
8 走行路推定部
100 走行路推定装置
A i search area B area BD provided on a straight line road shoulder W area L ij provided on a straight line a plurality of horizontal lines 1 first TV camera 2 second TV camera 3 first image memory 4 second image memory 5 conversion Image creation unit 6 Outside road area detection unit 7 Back-projected road shoulder candidate point image creation unit 8 Travel path estimation unit 100 Travel path estimation device

Claims (8)

移動体に搭載され、該移動体の移動方向前方を撮像する第一及び第二TVカメラと、
上記第一TVカメラにより撮像された画像を蓄積する第一画像メモリ、及び、上記第二TVカメラより撮像された画像を蓄積する第二画像メモリと、
上記第一画像メモリに蓄積された画像を、初期変換パラメータを用いて変換する変換画像作成部と、
上記変換画像作成部で作成した変換画像と上記第二画像メモリに蓄積された画像とを基に、道路面と高さが異なる路肩候補点を検出する道路外領域検出部と、
上記道路外領域検出部に検出された路肩候補点を道路面へ逆投影した画像を作成する逆投影路肩候補点画像作成部と、
上記逆投影路肩候補点画像作成部で作成した逆投影路肩候補点画像中で道路領域と道路外領域の境界点として路肩点を選択して走行路を推定する走行路推定部とを具備したことを特徴とする走行路推定装置。
A first TV camera and a second TV camera mounted on a moving body and capturing an image in front of the moving direction of the moving body;
A first image memory for storing images captured by the first TV camera, and a second image memory for storing images captured by the second TV camera;
A converted image creating unit that converts the image stored in the first image memory using an initial conversion parameter;
Based on the converted image created by the converted image creation unit and the image stored in the second image memory, an outside road area detection unit that detects a road shoulder candidate point having a height different from the road surface;
A back-projected road shoulder candidate point image creating unit that creates an image obtained by back-projecting the road shoulder candidate points detected by the outside road region detecting unit onto the road surface;
A road estimation unit that selects a road shoulder point as a boundary point between the road area and the road outside area in the back projection road candidate point image created by the back projection road candidate point image creation unit; A travel path estimation apparatus characterized by the above.
上記走行路推定部は、上記逆投影路肩候補点画像中の路肩候補点において、路肩候補点を中心として探索原点と当該路肩候補点とを結ぶ直線上に設けられた2つの領域内における路肩候補点数の関係から得られた路肩度を基に、路肩点を選択して、走行路を推定するように構成されていることを特徴とする請求項1記載の走行路推定装置。   The travel path estimation unit includes road shoulder candidates in two areas provided on a straight line connecting a search origin and the road shoulder candidate point centered on the road shoulder candidate point at the road shoulder candidate point in the backprojected road shoulder candidate point image. 2. The traveling road estimation apparatus according to claim 1, wherein the traveling road estimation apparatus is configured to select a road shoulder point based on the road shoulder degree obtained from the point relationship and to estimate the traveling road. 上記走行路推定部は、上記逆投影路肩候補点画像において路肩点を探索する探索領域を設定するとともに、該設定した探索領域内の路肩候補点において、路肩候補点を中心として探索原点と該路肩候補点とを結ぶ直線上に設けられた2つの領域内における路肩候補点数の関係から得られた路肩度を基に、路肩点を選択して、走行路を推定するように構成されていることを特徴とする請求項1記載の走行路推定装置。   The travel path estimation unit sets a search area for searching for a road shoulder point in the backprojected road shoulder candidate point image, and at a road shoulder candidate point in the set search area, the search origin and the road shoulder centering on the road shoulder candidate point. It is configured to estimate the road by selecting a road shoulder point based on the road shoulder degree obtained from the relationship between the number of road shoulder candidate points in two areas provided on a straight line connecting the candidate points. The travel path estimation apparatus according to claim 1. 上記走行路推定部は、上記逆投影路肩候補点画像において路肩点を探索する探索領域を設定し且つ該設定した探索領域を複数の水平線で分割して複数の分割領域を設定し、さらに、該各分割領域内で路肩候補点を中心として探索原点と路肩候補点とを結ぶ直線上に設けられた2つの領域内における路肩候補点数の関係から得られた路肩度を垂直方向に投影し、該投影値が大きい位置を分割領域内における路肩の水平位置として走行路を推定するように構成されていることを特徴とする請求項1記載の走行路推定装置。   The traveling path estimation unit sets a search area for searching for a road shoulder point in the backprojected road shoulder candidate point image, divides the set search area by a plurality of horizontal lines, and sets a plurality of divided areas. In each divided region, the road shoulder degree obtained from the relationship between the number of road shoulder candidate points in two regions provided on the straight line connecting the search origin and the road shoulder candidate point with the road shoulder candidate point as the center is projected in the vertical direction, 2. The travel path estimation apparatus according to claim 1, wherein the travel path is estimated using a position having a large projection value as a horizontal position of a road shoulder in the divided area. 上記走行路推定部は、上記逆投影路肩候補点画像において上記車両に近い位置から遠方へ向かって順番に路肩点を選択していくように構成されていることを特徴とする請求項4記載の走行路推定装置。   5. The road travel estimation unit is configured to sequentially select road shoulder points from a position close to the vehicle to a distance in the back-projected road shoulder candidate point image. 6. Traveling path estimation device. 上記走行路推定部は、上記逆投影路肩候補点画像中の路肩候補点において、路肩候補点を中心として探索原点と該路肩候補点とを結ぶ直線上に設けられた2つの領域内における路肩候補点数の関係から得られた路肩度を蓄積するとともに、該路肩度が大きい点を結ぶことで走行路を推定するように構成されていることを特徴とする請求項1記載の走行路推定装置。   The travel path estimation unit includes a road shoulder candidate in two areas provided on a straight line connecting a search origin and the road shoulder candidate point centered on the road shoulder candidate point at the road shoulder candidate point in the backprojected road shoulder candidate point image. 2. The traveling road estimation apparatus according to claim 1, wherein the traveling road estimation apparatus is configured to accumulate a road shoulder degree obtained from the relationship of points and to estimate a traveling road by connecting points having a large road shoulder degree. 上記道路外領域検出部は、道路面と高さが異なる路肩候補点を補間するように構成されていることを特徴とする請求項1乃至6のいずれか一項に記載の走行路推定装置。   The travel road estimation device according to any one of claims 1 to 6, wherein the outside road area detection unit is configured to interpolate a road shoulder candidate point having a height different from that of a road surface. コンピュータを、車両に設置された第一及び第二TVカメラで撮影した画像を入力する画像入力手段と、初期変換パラメータを用いて上記第一TVカメラより入力した画像を変換する変換画像作成手段と、該変換画像作成手段で作成した変換画像と上記第二TVカメラより入力した画像から道路面と高さが異なる路肩候補点を検出する道路外領域検出手段と、該道路外領域検出手段で検出した路肩候補点を道路面へ逆投影した画像を作成する逆投影路肩候補点画像作成手段と、該逆投影路肩候補点画像作成手段で作成した逆投影路肩候補点画像中の路肩候補点の中から、路肩候補点を中心として探索原点と路肩候補点とを結ぶ直線上に設けられた2つの領域内における路肩候補点数の関係から真の路肩点を選択して、走行路を推定する走行路推定手段、として機能させることを特徴とするプログラム。   An image input means for inputting images taken by the first and second TV cameras installed in the vehicle, and a converted image creating means for converting the image input from the first TV camera using the initial conversion parameters; The road outside area detecting means for detecting a road shoulder candidate point having a different height from the road surface from the converted image created by the converted image creating means and the image inputted from the second TV camera, and detected by the outside road area detecting means A back-projected road shoulder candidate point image creating means for creating a back-projected image of the road shoulder candidate points on the road surface, and a road shoulder candidate point in the back-projected road shoulder candidate point image created by the back-projected road shoulder candidate point image creating means The road that estimates the road by selecting the true road shoulder point from the relationship between the number of road shoulder candidate points in the two areas provided on the straight line connecting the search origin and the road shoulder candidate point with the road shoulder candidate point as the center Program for causing a constant unit functions as a.
JP2008219088A 2008-08-28 2008-08-28 Travel path estimation device and program Pending JP2010055340A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008219088A JP2010055340A (en) 2008-08-28 2008-08-28 Travel path estimation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008219088A JP2010055340A (en) 2008-08-28 2008-08-28 Travel path estimation device and program

Publications (1)

Publication Number Publication Date
JP2010055340A true JP2010055340A (en) 2010-03-11

Family

ID=42071195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008219088A Pending JP2010055340A (en) 2008-08-28 2008-08-28 Travel path estimation device and program

Country Status (1)

Country Link
JP (1) JP2010055340A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011080943A1 (en) * 2009-12-28 2011-07-07 日立オートモティブシステムズ株式会社 Road-shoulder detecting device and vehicle using road-shoulder detecting device
JP2012123495A (en) * 2010-12-07 2012-06-28 Hitachi Automotive Systems Ltd Traveling environment recognition device
WO2012134957A2 (en) * 2011-03-28 2012-10-04 Tk Holdings Inc. Driver assistance system and method
CN108630002A (en) * 2017-03-20 2018-10-09 罗伯特·博世有限公司 Method and apparatus at least one most probable path for determining vehicle
JP2020119114A (en) * 2019-01-22 2020-08-06 三菱電機株式会社 Vehicle control device and control method
US10853666B2 (en) * 2017-09-29 2020-12-01 Toyota Jidosha Kabushiki Kaisha Target object estimating apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011080943A1 (en) * 2009-12-28 2011-07-07 日立オートモティブシステムズ株式会社 Road-shoulder detecting device and vehicle using road-shoulder detecting device
US8873803B2 (en) 2009-12-28 2014-10-28 Hitachi Automotive Systems, Ltd. Road-shoulder detecting device and vehicle using road-shoulder detecting device
JP2012123495A (en) * 2010-12-07 2012-06-28 Hitachi Automotive Systems Ltd Traveling environment recognition device
WO2012134957A2 (en) * 2011-03-28 2012-10-04 Tk Holdings Inc. Driver assistance system and method
WO2012134957A3 (en) * 2011-03-28 2013-01-10 Tk Holdings Inc. Driver assistance system and method
CN108630002A (en) * 2017-03-20 2018-10-09 罗伯特·博世有限公司 Method and apparatus at least one most probable path for determining vehicle
US10853666B2 (en) * 2017-09-29 2020-12-01 Toyota Jidosha Kabushiki Kaisha Target object estimating apparatus
JP2020119114A (en) * 2019-01-22 2020-08-06 三菱電機株式会社 Vehicle control device and control method

Similar Documents

Publication Publication Date Title
CN109034047B (en) Lane line detection method and device
JP3367170B2 (en) Obstacle detection device
Toulminet et al. Vehicle detection by means of stereo vision-based obstacles features extraction and monocular pattern analysis
CN103814306B (en) Depth survey quality strengthens
JP3868876B2 (en) Obstacle detection apparatus and method
US20130129148A1 (en) Object detection device, object detection method, and program
CN101408978B (en) Method and apparatus for detecting barrier based on monocular vision
JP6171593B2 (en) Object tracking method and system from parallax map
JP2013109760A (en) Target detection method and target detection system
CN111209770A (en) Lane line identification method and device
JP6021689B2 (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
CN104574393A (en) Three-dimensional pavement crack image generation system and method
JP2014170540A (en) Road surface altitude shape estimation method and system
JP2009053818A (en) Image processor and method thereof
JP2010055340A (en) Travel path estimation device and program
JP4344860B2 (en) Road plan area and obstacle detection method using stereo image
US20160232705A1 (en) Method for 3D Scene Reconstruction with Cross-Constrained Line Matching
JP3786618B2 (en) Image processing apparatus and method
Samadzadegan et al. Automatic lane detection in image sequences for vision-based navigation purposes
TWI682361B (en) Method and system for road image reconstruction and vehicle positioning
JP3897337B2 (en) Road shoulder detection apparatus and method
EP4250245A1 (en) System and method for determining a viewpoint of a traffic camera
Lv et al. Semantically guided multi-view stereo for dense 3d road mapping
JP4106163B2 (en) Obstacle detection apparatus and method
CN110488320B (en) Method for detecting vehicle distance by using stereoscopic vision