JP2001331787A - Road shape estimating device - Google Patents

Road shape estimating device

Info

Publication number
JP2001331787A
JP2001331787A JP2000148687A JP2000148687A JP2001331787A JP 2001331787 A JP2001331787 A JP 2001331787A JP 2000148687 A JP2000148687 A JP 2000148687A JP 2000148687 A JP2000148687 A JP 2000148687A JP 2001331787 A JP2001331787 A JP 2001331787A
Authority
JP
Japan
Prior art keywords
road
shape
estimating
road shape
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000148687A
Other languages
Japanese (ja)
Inventor
Sachiko Kojima
祥子 小島
Yoshiki Ninomiya
芳樹 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2000148687A priority Critical patent/JP2001331787A/en
Publication of JP2001331787A publication Critical patent/JP2001331787A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To secure sufficient shape estimating precision and reliability in a road shape estimating device mounting only a monocular camera on a vehicle as an image pickup device for picking up the image of the foreground. SOLUTION: This road shape obtaining means 1 is for extracting the shape of a road in an image and consists of an intra-screen road shape extracting means for extracting a white line and a road end by processing the image. A method for extracting a white line can be a method for converting a front image to be monochromatic to obtain the change of luminance by a differential filter to extract a part where luminance changes remarkably, as the white line. A road map obtaining means 1 is for extracting the coordinate point of the road end on which its own vehicle travels from the obtained map information and consists of a road shape in a map surface extracting means. When estimating a three-dimensional road shape by using image road information and map road information, the projection error of the image is excluded, thereby the shape of the road can be estimated more precisely than it is estimated by single information. A road shape estimating device like this is useful for judging a precedent vehicle and automatic navigation, e.g.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自車両の前景を撮
像する単眼カメラ画像より抽出した道路形状(或いは、
レーダのレーダ信号より推定した道路形状)と、通常の
デジタル道路地図の道路形状とを照合することにより、
走行中の道路又はレーンの概略的な形状を推定する道路
形状推定装置に関する。また、本発明は例えば、加速制
御やブレーキ制御等の速度制御等を行うアダプティブ・
クルーズ制御システム等に対して有用である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a road shape (or a road shape) extracted from a monocular camera image of a foreground of a vehicle.
By comparing the road shape estimated from the radar signal of the radar) with the road shape of a normal digital road map,
The present invention relates to a road shape estimating device that estimates a rough shape of a road or a lane during traveling. In addition, the present invention provides, for example, an adaptive control that performs speed control such as acceleration control and brake control.
Useful for cruise control systems and the like.

【0002】[0002]

【従来の技術】走行中の道路の形状と自車両の位置姿勢
を推定する装置としては、例えば、公開特許公報「特開
平7−27541:道路形状及び自車両位置の計測装
置」に記載されている装置が一般に知られている。本従
来技術(以下、「従来技術1」と言う場合がある。)で
は、地図情報と画像情報の道路形状照合によって自車両
の位置姿勢を推定する。
2. Description of the Related Art An apparatus for estimating the shape of a running road and the position and orientation of a host vehicle is described in, for example, Japanese Patent Laid-Open Publication No. Hei 7-27541: Measuring Device for Road Shape and Host Vehicle Position. Some devices are generally known. In the related art (hereinafter, sometimes referred to as “conventional technology 1”), the position and orientation of the host vehicle are estimated by comparing the road shape with the map information and the image information.

【0003】この従来技術1では、画像から得られる道
路形状と、三次元道路形状に対応するデータを含む地図
情報を用いる。即ち、本従来技術1は、車両の進行方向
の道路を撮影した画像から道路形状を検出し、地図情報
から得られる三次元道路形状を画像面に投影し、地図に
よる道路形状と画像の道路形状を比較して、双方が重な
る様に自車両の位置姿勢パラメータ(カメラ高さ、ヨー
角、ピッチ角、ロール角、道路端からの距離など)を調
整することにより、前方の道路形状と自車両の位置姿勢
を逐次推定するものである。
[0003] In the prior art 1, a road shape obtained from an image and map information including data corresponding to a three-dimensional road shape are used. That is, the prior art 1 detects a road shape from an image obtained by photographing a road in the traveling direction of a vehicle, projects a three-dimensional road shape obtained from map information on an image plane, and outputs a road shape based on a map and a road shape of the image. And adjust the position and orientation parameters (camera height, yaw angle, pitch angle, roll angle, distance from the road edge, etc.) of the own vehicle so that both overlap. Are sequentially estimated.

【0004】上記の地図情報は、水平曲率、垂直曲率、
バンク角等の道路の三次元形状を示すデータが予め格納
されたものであり、本従来技術1によれば、自車両位置
データに基づいて前方道路の三次元道路形状モデルを算
出することができる。即ち、本従来技術1は、地図情報
に予め道路形状の三次元データを格納し、基本的には地
図を用いて道路形状の復元を行うものである。
The above-mentioned map information includes horizontal curvature, vertical curvature,
Data indicating a three-dimensional shape of a road such as a bank angle is stored in advance, and according to the related art 1, a three-dimensional road shape model of a forward road can be calculated based on the vehicle position data. . That is, in the prior art 1, the road shape is three-dimensionally stored in advance in the map information, and the road shape is basically restored using the map.

【0005】また、走路形状を少ない演算負荷で認識し
ようとするその他の装置としては、例えば、公開特許公
報「特開平11−203458:道路形状認識装置」に
記載されている装置が一般に知られている。本従来技術
(以下、「従来技術2」と言う場合がある。)では、カ
メラによって得られる画像から、大きさと設置高さが分
かっているリフレクタ等の道路上に存在する対象物体を
画像から検出する。更に、路面が平坦な時の対象物体の
画像上での位置を記憶し、画像から随時検出される対象
物体が所定大きさ時の高さと記憶した高さとを比較す
る。
[0005] As another apparatus for recognizing a road shape with a small calculation load, for example, an apparatus described in Japanese Patent Laid-Open Publication No. 11-203458: Road Shape Recognition Apparatus is generally known. I have. In this conventional technology (hereinafter, sometimes referred to as “prior art 2”), a target object existing on a road such as a reflector whose size and installation height are known is detected from an image obtained by a camera. I do. Further, the position of the target object on the image when the road surface is flat is stored, and the height of the target object detected as needed from the image at a predetermined size is compared with the stored height.

【0006】そして、この比較の結果、検出位置と記憶
位置の差が所定範囲以内ならば前方道路は平坦であると
判断し、検出位置が記憶位置より下ならば下り坂、検出
位置が記憶位置より上ならば上り坂と判断する。本従来
技術2によれば、白線の形状から道路勾配を推定する必
要がなく、簡易に道路勾配を検出することができ、対象
物体の位置の比較を行うことで、カーブや直線といった
道路形状も検出することができる。
As a result of this comparison, if the difference between the detected position and the stored position is within a predetermined range, it is determined that the road ahead is flat, and if the detected position is below the stored position, the road is downhill and the detected position is the stored position. If it is higher, it is determined to be uphill. According to the related art 2, it is not necessary to estimate the road gradient from the shape of the white line, the road gradient can be easily detected, and by comparing the position of the target object, the road shape such as a curve or a straight line can be detected. Can be detected.

【0007】[0007]

【発明が解決しようとする課題】上記の従来技術1に
は、以下の問題点がある。(問題点1)上記の従来技術
1で用いる地図情報は、縦断曲率の情報等の三次元道路
形状情報を含むものであるが、昨今では未だ、三次元道
路形状を含む地図情報は高速道路以外の大半の道路につ
いては入手困難であり、また、三次元道路形状情報を含
む地図の新規作成は莫大なコストが掛かり現実的ではな
い。即ち、上記の従来技術1は、基本的に高精度な地図
を使って画像情報を補完するものであり、現在、カーナ
ビゲーションシステム等で使われている、数メートル程
度の精度を持つ地図を用いることはできない。
The above prior art 1 has the following problems. (Problem 1) The map information used in the above-described conventional technology 1 includes three-dimensional road shape information such as information on longitudinal curvature, but recently, most of the map information including the three-dimensional road shape is other than the expressway. Is difficult to obtain, and the creation of a new map including three-dimensional road shape information is enormous and costly. That is, the above-mentioned prior art 1 basically supplements image information using a high-accuracy map, and uses a map having an accuracy of about several meters, which is currently used in car navigation systems and the like. It is not possible.

【0008】より具体的には、例えば、道路の垂直曲率
等の三次元データを有する地図データは現在一般に入手
困難であるが、仮に比較的詳細な三次元データが入手可
能であったとしても、実際に50m先の先行車両を判定
するためには、例えば従来技術1で実現する場合、地図
道路形状の精度は水平及び垂直の両方向で少なくともそ
れぞれ0.3m程度の精度が必要となる。しかしながら、
現状では、一般的に入手可能な地図の高さ方向の精度は
数メートル程度が限界であるので、上記の従来技術1に
より十分な道路形状復元精度を確保するためには、精度
の高い地図を作成する必要が生じ、膨大なコストが必要
になる。
More specifically, for example, map data having three-dimensional data such as the vertical curvature of a road is generally difficult to obtain at present, but even if relatively detailed three-dimensional data is available, In order to actually determine the preceding vehicle 50 m away, for example, in the case of the prior art 1, the accuracy of the map road shape needs to be at least about 0.3 m in both the horizontal and vertical directions. However,
At present, the accuracy of a generally available map in the height direction is limited to about several meters. Therefore, in order to secure sufficient road shape restoration accuracy according to the above-described related art 1, a highly accurate map must be obtained. They need to be created, which requires enormous costs.

【0009】また、上記の従来技術2には、以下の問題
点がある。(問題点2)上記の従来技術2では、大きさ
や設置高さなどが予めわかっている物体を検出対象にし
て勾配推定を行っているが、この手法の場合、常に検出
対象物体が存在する環境で動作する場合はよいが、検出
対象物体が存在しない環境においては、距離と高さの推
定が困難になり、勾配推定は困難となる。また、上記の
従来技術2では、カメラから得られる画像によって物体
検出を行って勾配推定を行うため、悪天候時等において
は、カメラで前方道路の情報が得難く、従ってこの様な
場合には、前方の勾配推定等を行うことは困難となる。
Further, the above-mentioned prior art 2 has the following problems. (Problem 2) In the above-described related art 2, gradient estimation is performed on an object whose size, installation height, and the like are known in advance, but in this method, the environment where the object to be detected is always present is considered. Is good, but in an environment where there is no object to be detected, it is difficult to estimate the distance and the height, and it is difficult to estimate the gradient. Further, in the above-described conventional technology 2, since the gradient is estimated by performing the object detection based on the image obtained from the camera, it is difficult to obtain information on the road ahead by the camera in bad weather or the like. Therefore, in such a case, It is difficult to perform forward gradient estimation and the like.

【0010】また、前方道路が縦断曲率や横断曲率を有
する場合、画像による道路形状を平面内に投影すると、
投影誤差によって実際の道路形状と大きく異なる可能性
があり、現在一般的に入手可能な地図の精度では、先行
車両判定に必要な精度の道路形状を推定することは困難
である。
When the road ahead has a longitudinal curvature or a transverse curvature, the road shape is projected on a plane by using an image.
There is a possibility that the actual road shape is greatly different from the actual road shape due to a projection error, and it is difficult to estimate the road shape with the accuracy required for the preceding vehicle determination with the currently available map accuracy.

【0011】即ち、画面内で抽出される道路形状を平面
に投影した形状と、地図から得られる道路形状から、平
面上の道路形状を推定する場合、前方道路が縦断曲率や
横断曲率を有する際に、投影誤差が非常に大きくなる可
能性があり、画像データだけで遠方の形状を精度よく推
定することは困難である。また、一般的に入手可能な道
路地図と自車両位置推定の精度は、現在数メートル程度
であり、地図の情報だけでは精度よく推定することがで
きない。
That is, when estimating a road shape on a plane from a shape obtained by projecting a road shape extracted on the screen onto a plane and a road shape obtained from a map, when a road ahead has a longitudinal curvature or a transverse curvature, In addition, the projection error may be very large, and it is difficult to accurately estimate a distant shape using only image data. In addition, the accuracy of a generally available road map and the position of the own vehicle is currently about several meters, and it is not possible to estimate with high accuracy only information on the map.

【0012】また、特に自車両位置推定については、例
えば、ランドマークを画像によって検出し、地図上に記
載されたランドマークと位置あわせを行うことで、自車
両のグローバルな位置推定を行う等のその他の従来技術
も公知である。しかしながら、この様な方法では、天候
が悪い場合や、ランドマークが存在しない場所では、位
置推定を行うことができない。
In particular, regarding the own vehicle position estimation, for example, a global position estimation of the own vehicle is performed by detecting a landmark by an image and aligning the landmark with a landmark described on a map. Other prior art is also known. However, such a method cannot perform position estimation in bad weather or in a place where no landmark exists.

【0013】また、特別な地図情報を用いない通常の位
置推定方法としてGPSや推測航法があるが、GPSの
測位精度は限界があり測位間隔も限られており、推測航
法も累積誤差が大きく、精度の高い位置推定を行うこと
が困難である。
There are GPS and dead reckoning as ordinary position estimating methods that do not use special map information. However, the positioning accuracy of GPS is limited, positioning intervals are limited, and dead reckoning also has a large accumulated error. It is difficult to perform highly accurate position estimation.

【0014】本発明は、上記の課題を解決するために成
されたものであり、その目的は、概略的な道路形状又は
車線(レーン)形状を推定する車載用の装置の形状推定
精度や、信頼性を向上させることであり、特に、前景を
撮像する撮像装置として単眼のカメラのみを車載した場
合にも、十分に形状推定精度や、信頼性を確保すること
ができる道路形状推定装置を提供することを目的とす
る。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and has as its object to improve the shape estimation accuracy of a vehicle-mounted device for estimating a rough road shape or a lane (lane) shape, Provided is a road shape estimating device capable of ensuring sufficient shape estimation accuracy and reliability even when only a monocular camera is mounted as an imaging device for imaging a foreground. The purpose is to do.

【0015】[0015]

【課題を解決するための手段】上記の課題を解決するた
めには、以下の手段が有効である。即ち、第1の手段
は、自車両の前景を画像データとして取得する撮像装置
を有し、自車両が走行中又は走行すると予想される道路
の形状を推定する車載用の道路形状推定装置において、
道路の第1形状候補を画像データから抽出する画像道路
形状抽出手段と、自車両の周辺の地図データを取得する
地図データ取得手段と、道路の第2形状候補を上記の地
図データから抽出する地図道路形状抽出手段と、第1形
状候補と第2形状候補とを3次元又は2次元で構成され
た一つの論理的空間に投影し、この投影された双方の道
路形状の論理的空間における重なり状態に基づいて、上
記の道路の形状、路面に対する自車両の姿勢、又は、道
路に対する自車両の絶対位置を推定する道路形状推定手
段とを設けることである。
In order to solve the above-mentioned problems, the following means are effective. That is, the first means includes an imaging device that acquires a foreground of the own vehicle as image data, and a vehicle-mounted road shape estimating device that estimates a shape of a road on which the own vehicle is running or is expected to run,
Image road shape extracting means for extracting a first road shape candidate from image data, map data obtaining means for obtaining map data around the own vehicle, and a map for extracting a second road shape candidate from the map data Road shape extracting means, and projecting the first shape candidate and the second shape candidate into one three-dimensional or two-dimensional logical space, and an overlapping state of the two road shapes projected in the logical space And a road shape estimating means for estimating the shape of the road, the attitude of the own vehicle with respect to the road surface, or the absolute position of the own vehicle with respect to the road based on the above.

【0016】また、第2の手段は、上記の第1の手段の
道路形状推定手段において、路面に対する自車両の姿勢
を予め推定する自車両姿勢推定手段、又は、道路に対す
る自車両の絶対位置を予め推定する自車両位置推定手段
を設けることである。
Further, a second means is the road shape estimating means of the first means, wherein the attitude of the own vehicle with respect to the road surface is estimated in advance, or the absolute position of the own vehicle with respect to the road is determined. This is to provide a vehicle position estimating means for estimating in advance.

【0017】また、第3の手段は、上記の第1又は第2
の手段の道路形状推定手段に、上記の第1形状候補と第
2形状候補との互いに対応すべき各点毎に、上記の重な
り状態を確率的に評価する照合手段を設けることであ
る。
Further, the third means may be the first or the second means.
The road shape estimating means is provided with a matching means for stochastically evaluating the overlapping state for each point of the first shape candidate and the second shape candidate that should correspond to each other.

【0018】また、第4の手段は、上記の第1乃至第3
の何れか1つの手段の道路形状推定手段に、上記の第1
形状候補の信頼度R1と第2形状候補の信頼度R2と
を、第1形状候補と第2形状候補との互いに対応すべき
各点毎に算出する信頼度算出手段と、この信頼度R1、
R2に基づいて、この各点毎にその2点間の内分点を座
標加重平均演算により算出する内分点算出手段とを設け
ることである。
Further, the fourth means includes the first to third means.
The road shape estimating means of any one of
A reliability calculating means for calculating the reliability R1 of the shape candidate and the reliability R2 of the second shape candidate for each point of the first shape candidate and the second shape candidate which should correspond to each other;
An internal dividing point calculating means for calculating an internal dividing point between the two points by a coordinate weighted average calculation for each point based on R2.

【0019】また、第5の手段は、上記の第1乃至第4
の何れか1つの手段において、上記の道路形状推定手段
により推定された道路の形状を構成する各代表点間の位
置関係における矛盾を所定の物理的制約条件に基づいて
排除することにより、適正な道路形状を抽出する適正道
路形状抽出手段を設けることである。
Further, the fifth means includes the first to fourth means.
In any one of the means, the inconsistency in the positional relationship between the representative points constituting the shape of the road estimated by the road shape estimating means is eliminated based on predetermined physical constraints, so that an appropriate An appropriate road shape extracting means for extracting a road shape is provided.

【0020】また、第6の手段は、上記の第1乃至第5
の何れか1つの手段の道路形状推定手段において、撮像
装置のカメラ視点を投影中心(投影原点)として、第1
形状候補を上記の論理的空間に投影する投影手段を設
け、自車両の位置と姿勢に基づいてカメラ座標系と地図
座標系との位置合わせを行うことである。
Further, the sixth means comprises the first to fifth means.
In the road shape estimating means of any one of the above, the camera viewpoint of the imaging device is set as the projection center (projection origin),
Projection means for projecting a shape candidate onto the logical space is provided, and the camera coordinate system and the map coordinate system are aligned based on the position and orientation of the host vehicle.

【0021】また、第7の手段は、上記の第1乃至第6
の何れか1つの手段において、道路形状推定手段の推定
結果、及び第2形状候補に基づいて、撮像装置の死角領
域における道路の形状を推定する推定領域拡張手段を設
けることである。
Further, the seventh means includes the first through sixth means.
In any one of the means, an estimation area extending means for estimating the shape of the road in the blind spot area of the imaging device is provided based on the estimation result of the road shape estimation means and the second shape candidate.

【0022】更に、第8の手段は、自車両の前方を探査
してレーダ信号を取得するレーダを有し、自車両が走行
中又は走行すると予想される道路の形状を推定する車載
用の道路形状推定装置において、上記のレーダ信号より
自車両の前方の物体の位置を検出し、この物体の並びに
基づいて、道路の道路線形を推定する道路線形推定手段
を設け、更に、「自車両の前景を画像データとして取得
する撮像装置と、道路の第1形状候補を画像データから
抽出する画像道路形状抽出手段」又は「自車両の周辺の
地図データを取得する地図データ取得手段と、道路の第
2形状候補を地図データから抽出する地図道路形状抽出
手段」の少なくとも何れか一方を設け、上記の第1形状
候補又は第2形状候補と、上記の道路線形とを3次元又
は2次元で構成された一つの論理的空間に投影し、この
投影された道路形状と道路線形との論理的空間における
重なり状態に基づいて、上記の論理的空間における道路
の形状を推定する道路形状推定手段を設けることであ
る。
Further, the eighth means has a radar for searching ahead of the own vehicle to obtain a radar signal, and the vehicle-mounted road for estimating the shape of the road on which the own vehicle is running or expected to run. In the shape estimating device, a position of an object ahead of the own vehicle is detected from the radar signal, and road alignment estimating means for estimating a road alignment of the road based on the arrangement of the objects is provided. An image capturing apparatus that acquires the first road shape candidate from the image data ”or“ a map data acquiring unit that acquires map data around the own vehicle ”; At least one of a map road shape extracting means for extracting shape candidates from map data, and the first shape candidate or the second shape candidate and the road alignment are configured in three dimensions or two dimensions. And a road shape estimating means for estimating the shape of the road in the logical space based on an overlapping state in the logical space between the projected road shape and the road alignment. It is.

【0023】また、第9の手段は、自車両の前景を画像
データとして取得する撮像装置と、自車両の前方を探査
してレーダ信号を取得するレーダを有し、自車両が走行
中又は走行すると予想される道路の形状を推定する車載
用の道路形状推定装置において、道路の第1形状候補を
画像データから抽出する画像道路形状抽出手段と、レー
ダ信号より自車両の前方の物体までの距離を推定する物
体距離推定手段と、この物体までの距離に基づいて、画
像データから道路の路面高さを推定する道路面高さ推定
手段と、第1形状候補と道路の路面高さとに基づいて、
道路の三次元形状を推定する道路形状推定手段とを設け
ることである。以上の手段により、前記の課題を解決す
ることができる。
The ninth means has an imaging device for acquiring the foreground of the own vehicle as image data and a radar for exploring the front of the own vehicle to obtain a radar signal. Then, an on-vehicle road shape estimating device for estimating a predicted road shape, an image road shape extracting means for extracting a first shape candidate of the road from the image data, and a distance from a radar signal to an object ahead of the own vehicle. Distance estimating means for estimating the height of the road, road surface height estimating means for estimating the road surface height of the road from the image data based on the distance to the object, and the first shape candidate and the road surface height of the road ,
Road shape estimating means for estimating the three-dimensional shape of the road. With the above means, the above-mentioned problem can be solved.

【0024】[0024]

【作用】以下、本発明の作用について説明する。本発明
の画像道路形状抽出手段では、例えば、白線検出によっ
て道路端を検出し、検出した白線組から道路線形を取得
することができる。また、地図道路形状抽出手段では、
取得した自車両位置周辺の地図から道路形状(道路線
形)を抽出する。例えば、地図に道路の区画線が与えら
れている場合は、区画線組の中央を抽出することで道路
線形を取得することができ、ナビゲーション・システム
用のノードデータが与えられている場合は、そのノード
をつなぐことで道路線形を取得することができる。
The operation of the present invention will be described below. The image road shape extraction means of the present invention can detect a road edge by detecting a white line, for example, and acquire a road alignment from the detected white line set. In the map road shape extraction means,
The road shape (road alignment) is extracted from the map around the acquired vehicle position. For example, if the map is provided with road lane markings, the road alignment can be obtained by extracting the center of the lane marking set, and if node data for a navigation system is provided, The road alignment can be obtained by connecting the nodes.

【0025】また、本発明の道路形状推定手段によれ
ば、例えば、カメラ視点を投影中心として、得られた画
像道路形状を2次元で構成された一つの論理的空間に投
影し、この操作で得られた地図道路平面形状を更に3次
元の論理的空間に垂直投影することができる。この3次
元の論理的空間において、画像道路形状は一定の候補領
域を有し、また、上記の地図道路形状も一定の候補領域
を有する。そして、本発明の道路形状推定手段によれ
ば、例えば、双方の候補領域を重ね合わせ、最も照合度
が高くなる道路形状位置を推定道路形状として出力する
ことができる。
Further, according to the road shape estimating means of the present invention, for example, the obtained image road shape is projected onto one two-dimensional logical space with the camera viewpoint as the projection center, and this operation is performed. The obtained map road plane shape can be further vertically projected onto a three-dimensional logical space. In this three-dimensional logical space, the image road shape has certain candidate regions, and the above-described map road shape also has certain candidate regions. According to the road shape estimating means of the present invention, for example, both candidate regions are superimposed, and the road shape position having the highest matching degree can be output as the estimated road shape.

【0026】(作用1)例えば、この様な本発明の手段
によれば、複数の道路形状情報(画像データ、地図デー
タ)を用いて推定を行うことで、推定結果の信頼性が向
上し、画像処理だけでは推定誤差が大きくなる状況にお
いても、地図道路形状と画像道路形状とを重ね合わせて
照合度が高い道路形状を推定することで、精度の良い道
路形状推定が可能になる。
(Function 1) For example, according to the above-described means of the present invention, by performing estimation using a plurality of road shape information (image data, map data), the reliability of the estimation result is improved, Even in a situation in which the estimation error becomes large only by the image processing, by estimating the road shape having a high degree of matching by superimposing the map road shape and the image road shape, accurate road shape estimation becomes possible.

【0027】(作用2)また、自車両の位置・姿勢を表
す所定のパラメータ群の各数値によって、3次元又は2
次元で構成された一つの論理的空間への投影結果が変化
するため、推定道路形状も変化する。従って、本発明の
手段により、より照合度が高くなる様に自車両位置・姿
勢を変化させることで、自車両位置・姿勢と道路形状の
推定値をより正確に求めることができる。
(Function 2) In addition, three-dimensional or two-dimensional data is used according to each numerical value of a predetermined parameter group representing the position and orientation of the host vehicle.
Since the projection result on one logical space composed of the dimensions changes, the estimated road shape also changes. Therefore, by changing the position and orientation of the own vehicle so that the degree of collation becomes higher by the means of the present invention, the estimated values of the position and attitude of the own vehicle and the road shape can be more accurately obtained.

【0028】(作用3)画像と地図の道路形状を三次元
空間内に投影し、双方の重なりを考慮した三次元空間内
の存在確率として算出し、存在確率と現実世界の物理的
制約によって三次元的に道路形状を推定することで、平
面推定で生じる投影誤差を排除することができ推定精度
を高くすることが可能になる。また、三次元空間内で道
路形状を推定することから、前方道路の勾配も合わせて
推定することが可能となる。
(Function 3) The road shapes of the image and the map are projected into a three-dimensional space, and calculated as the existence probability in the three-dimensional space in consideration of the overlap between the two. By originally estimating the road shape, it is possible to eliminate a projection error generated in the plane estimation and to increase the estimation accuracy. Further, since the road shape is estimated in the three-dimensional space, it is possible to estimate the gradient of the road ahead.

【0029】(作用4)また、道路の縦断曲率や横断曲
率が大きいこと等により前方の道路に不可視領域が生じ
る状況、即ち、峠やカーブ等の道路形状や、或いは先行
車両等により生じる死角領域等の、撮像装置から画像デ
ータが取得できない領域が生じる様な状況においても、
地図情報を用いることで道路形状の推定が可能になり、
道路形状の推定結果に対する信頼性が向上する。更に、
見える範囲(画像データが取得できた範囲)で推定した
道路形状と地図の情報とを重ねて(照合して)、道路形
状を延長することにより、その先の見えない範囲の道路
形状をも予測すれば、地図単体で推定した場合よりも比
較的精度よく道路形状を推定することが可能になる。
(Function 4) In addition, a situation where an invisible area is generated on a road ahead due to a large longitudinal curvature or a transverse curvature of the road, that is, a road shape such as a pass or a curve, or a blind spot area generated by a preceding vehicle or the like. In such a situation that an area where image data cannot be obtained from the imaging device occurs,
By using map information, it is possible to estimate the road shape,
The reliability of the estimation result of the road shape is improved. Furthermore,
By superimposing (collating) the road shape estimated in the visible range (the range in which the image data could be obtained) with the map information and extending the road shape, the road shape in the invisible range beyond that is also predicted Then, it becomes possible to estimate the road shape with relatively high accuracy compared to the case of estimating the map alone.

【0030】(作用5)自車両至近の道路形状の推定に
は、投影誤差が少ないため画像の情報が有効であり、遠
方の道路形状の推定には、地図情報の誤差は自車両から
の距離によらずほぼ一定であるため、地図情報が有効で
ある。カメラからの距離に合わせて画像と地図の重みを
変えて双方の情報を合わせることで、それぞれ単体で推
定する場合よりも、道路形状の推定精度が高くなる。
(Function 5) In estimating the road shape close to the host vehicle, image information is effective because the projection error is small. For estimating the distant road shape, the error in the map information is the distance from the host vehicle. Therefore, the map information is effective because it is almost constant regardless of the above. By changing the weights of the image and the map in accordance with the distance from the camera and matching both information, the estimation accuracy of the road shape is higher than in the case of individually estimating each.

【0031】(作用6)前記の本発明の第8の手段によ
れば、レーダによって検出した物体の距離・方位・速度
の結果に基づいた、被検出物体の並びやその時間的な位
置変化と自車両の位置変化等によって、前方道路の大ま
かな道路線形を推定することが可能になる。レーダのみ
によって道路線形を推定することが可能になるため、外
部環境条件が悪い状況であってもロバストに道路形状を
推定することが可能になる。
(Function 6) According to the eighth means of the present invention, the arrangement of the detected objects and their temporal position changes based on the results of the distance, direction and speed of the objects detected by the radar. A rough road alignment of the road ahead can be estimated by a change in the position of the own vehicle or the like. Since the road alignment can be estimated only by the radar, it is possible to robustly estimate the road shape even in a situation where external environmental conditions are poor.

【0032】(作用7)前記の本発明の第9の手段によ
れば、レーダによる物体検出により、前方障害物までの
距離を測定することができ、物体までの距離が明らかに
なる。距離を検出できるため、画像で得られる情報の距
離と高さ方向の曖昧性を削減し、画像中の物体の三次元
位置を明らかにすることが可能になる。道路上に存在す
る物体の位置がわかることから、道路面の高さを類推
し、地図情報がない場合でも前方道路の三次元形状の推
定が可能になる。
(Function 7) According to the ninth means of the present invention, the distance to the obstacle ahead can be measured by detecting the object by the radar, and the distance to the object becomes clear. Since the distance can be detected, ambiguity in the distance and height directions of information obtained in the image can be reduced, and the three-dimensional position of the object in the image can be clarified. Since the position of the object existing on the road is known, the height of the road surface can be estimated, and the three-dimensional shape of the road ahead can be estimated even when there is no map information.

【0033】[0033]

【発明の効果】(効果1) (a)前方道路形状によって、前方の道路面が画像では
見えない状況や単眼画像で水平面を仮定して推定した時
に推定誤差が大きくなる状況においても、画像の他に地
図等の情報を用いることで、道路形状と自車両の位置・
姿勢を精度(推定結果に対する信頼度)良く、ロバスト
に外乱等に対して影響を受けにくく推定することが可能
になる。 (b)また、地図道路形状と画像道路形状に基づいて、
道路形状を推定するとともに自車両の道路面に対する姿
勢を推定することで、画像道路形状のみによる姿勢推定
に比較して自車両姿勢推定精度が向上することが期待で
きる。
(Effect 1) (a) Depending on the shape of the road ahead, even in a situation where the road surface in front is not visible in the image or in a situation where the estimation error becomes large when the estimation is made on the assumption of a horizontal plane in the monocular image, the image can be reproduced. By using other information such as maps, the road shape and the position of the vehicle
The posture can be estimated with high accuracy (the reliability of the estimation result) and robustly without being affected by disturbance or the like. (B) Also, based on the map road shape and the image road shape,
By estimating the road shape and estimating the attitude of the host vehicle with respect to the road surface, it is expected that the accuracy of the host vehicle attitude estimation is improved as compared with the attitude estimation based on the image road shape alone.

【0034】(c)また、地図道路形状と画像道路形状
に基づいて、道路形状を推定するとともに自車両の地図
に対する絶対位置を推定することで、特別なランドマー
クや三次元情報が記載された地図が無くとも、自車両位
置を推定することができる。 (d)また、GPSやINS(Inertial Navigation Sy
stem)による推定精度に比較して、推定精度が向上する
ことが期待できる。 (e)更に、自車両姿勢、位置推定精度が向上すること
で道路形状推定精度の向上も期待できる。
(C) Further, by estimating the road shape based on the map road shape and the image road shape and estimating the absolute position of the vehicle with respect to the map, special landmarks and three-dimensional information are described. Even without a map, the position of the host vehicle can be estimated. (D) In addition, GPS and INS (Inertial Navigation Sy
It can be expected that the estimation accuracy is improved as compared with the estimation accuracy by the stem). (E) Further, since the accuracy of estimating the posture and position of the vehicle is improved, the accuracy of estimating the road shape can be expected to be improved.

【0035】(効果2) (a)道路形状推定手段では、画像、地図の一方だけで
は、十分な推定精度を得られない状況においても、それ
ぞれの道路形状を三次元空間内に投影したものを重ね合
わせることで三次元的に道路形状を推定し、道路形状推
定精度を高くすることが可能になる。よって、道路勾配
も推定することが可能になり、速度制御などに有用であ
る。
(Effect 2) (a) The road shape estimating means can project each road shape into a three-dimensional space even in a situation where sufficient estimation accuracy cannot be obtained with only one of an image and a map. By superimposing, it is possible to estimate the road shape three-dimensionally and to increase the road shape estimation accuracy. Therefore, it is possible to estimate the road gradient, which is useful for speed control and the like.

【0036】(b)また、カーブや峠等の道路形状や、
先行車両等によって、画像データでは探知できない領域
(死角領域等)が発生した場合においても、推定した道
路形状や地図から得られる道路形状に基づいて、画像で
は見えない領域(死角領域等)の道路形状を推定するこ
とが可能になる。従って、道路形状を精度良くロバスト
に推定することができ、先行車両判定や自動操舵などが
実現できる。
(B) In addition, road shapes such as curves and passes,
Even when an area (such as a blind spot area) that cannot be detected by image data occurs due to a preceding vehicle or the like, a road in an area (such as a blind spot area) that cannot be seen in an image is determined based on the estimated road shape or a road shape obtained from a map. The shape can be estimated. Therefore, the road shape can be accurately and robustly estimated, and the preceding vehicle determination and the automatic steering can be realized.

【0037】(c)即ち、本発明の推定領域拡張手段を
用いれば、例えば、上記の三次元道路形状推定手段によ
り、画像情報が得られない範囲においても、画像データ
等の可視領域のデータに基づいて推定した三次元道路形
状(及び/又は地図で得られる道路地図形状:第2形状
候補)に基づいて道路形状を推定する三次元道路形状推
定手段を実現することも可能である。
(C) That is, if the estimation area expanding means of the present invention is used, for example, even in a range where image information cannot be obtained by the three-dimensional road shape estimating means, data of a visible area such as image data can be obtained. It is also possible to realize a three-dimensional road shape estimating means for estimating a road shape based on a three-dimensional road shape estimated based on the above (and / or a road map shape obtained from a map: a second shape candidate).

【0038】(d)また、上記の三次元道路形状推定手
段において、推定した道路に対し現実に即した道路モデ
ルとの照合をとることで、更に精度良く道路形状を推定
することが可能となる。
(D) The above three-dimensional road shape estimating means compares the estimated road with a real road model, so that the road shape can be more accurately estimated. .

【0039】(効果3) (a)上記の道路形状推定手段における前記の論理的空
間は、2次元空間によって構成することも可能である。
この様な道路形状推定手段(以下、「平面内道路形状推
定手段」と言う場合がある。)によっても、画像から得
られる道路形状を平面に投影したものと地図から得られ
る道路形状から、道路形状推定精度を高くすることが可
能である。従って、特に、前記の論理的空間を2次元で
構成することにより、即ち、三次元空間内で形状推定を
行わず、ある一平面で形状推定を行うことで、道路形状
推定処理に要する計算量を削減することが可能になる。
(Effect 3) (a) The logical space in the road shape estimating means can be constituted by a two-dimensional space.
Such a road shape estimating means (hereinafter sometimes referred to as “in-plane road shape estimating means”) also generates a road shape from a road shape obtained from an image projected on a plane and a road shape obtained from a map. It is possible to increase the shape estimation accuracy. Therefore, in particular, by configuring the logical space in two dimensions, that is, not performing shape estimation in a three-dimensional space, but performing shape estimation in a certain plane, the amount of calculation required for the road shape estimation process is increased. Can be reduced.

【0040】(b)また、本発明の推定領域拡張手段を
用いれば、上記の平面内道路形状推定手段により、例え
ば、前記の三次元道路形状推定手段の場合と同様に、画
像情報が得られない範囲においても、画像データ等の可
視領域のデータに基づいて推定した平面内道路形状(及
び/又は地図で得られる道路地図形状:第2形状候補)
に基づいて道路形状を推定する平面内道路形状推定手段
を実現することも可能である。
(B) When the estimated area expanding means of the present invention is used, image information can be obtained by the above-mentioned road shape estimating means in the same manner as in the case of the three-dimensional road shape estimating means, for example. Even in a non-existent range, the in-plane road shape estimated based on the visible region data such as image data (and / or the road map shape obtained from the map: second shape candidate)
It is also possible to realize an in-plane road shape estimating means for estimating the road shape based on.

【0041】(c)また、上記の平面内道路形状推定手
段において、推定した道路に対し現実に即した道路モデ
ルとの照合をとることで、更に精度良く道路形状を推定
することが可能となる。
(C) Further, the above-mentioned in-plane road shape estimating means compares the estimated road with a real road model, so that the road shape can be more accurately estimated. .

【0042】(効果4) (a)本発明の第8の手段によれば、悪天候時で画像情
報が得られない場合や、トンネル内や高速道路下等の自
車両位置が得られない場合などにおいても、レーダによ
ってロバストに道路の形状を推定することが可能にな
る。
(Effect 4) (a) According to the eighth means of the present invention, when image information cannot be obtained due to bad weather, or when the position of the own vehicle such as in a tunnel or under a highway cannot be obtained, etc. Also, it is possible to robustly estimate the shape of a road by using radar.

【0043】(b)また、本発明の第9の手段によれ
ば、レーダによる物体までの測距結果から画像中に検出
された物体の距離と高さが明白になる。これにより、ス
テレオ・カメラを利用しなくとも前方物体の三次元位置
を推定することができるため、地図を利用しなくても道
路の三次元形状推定が可能になる。
(B) Further, according to the ninth means of the present invention, the distance and height of the object detected in the image become clear from the result of distance measurement to the object by the radar. As a result, the three-dimensional position of the object in front can be estimated without using a stereo camera, so that the three-dimensional shape of a road can be estimated without using a map.

【0044】[0044]

【発明の実施の形態】前記の本発明の手段を用いれば、
例えば以下の〔主要構成例1〕〜〔主要構成例20〕に
例示される道路形状推定装置等の様に、「自車両の前景
を画像データとして取得する撮像装置を有し、前記自車
両が走行中又は走行すると予想される道路の形状を推定
する車載用の道路形状推定装置」の主要構成を構成する
ことができる。これらの構成(基本的な実施形態)に従
えば、上記の本発明の作用・効果を得ることが可能とな
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS By using the above-mentioned means of the present invention,
For example, as in the following [Main Configuration Example 1] to [Main Configuration Example 20], a road shape estimating apparatus and the like include “an imaging device that acquires a foreground of the own vehicle as image data, and the own vehicle has The main configuration of the "vehicle shape estimating device for vehicle that estimates the shape of a road that is running or is expected to run" can be configured. According to these configurations (basic embodiments), the above-described functions and effects of the present invention can be obtained.

【0045】〔主要構成例1〕道路情報を画像で取得す
る撮像装置と、取得した画像から画面内の道路形状を抽
出する画像道路形状抽出手段と、自車両周辺の地図デー
タを取得する地図データ取得手段と、取得した地図デー
タから自車両が走行すると予想される地図上の道路形状
を抽出する地図道路形状抽出手段と、抽出した画像道路
形状と地図道路形状に基づき、双方の形状を一つの論理
的空間に投影し、形状の重なりに基づいて照合度を算出
し照合度が高くなる様に、「道路形状」「道路に対する
自車両の位置・姿勢」を推定する道路形状推定手段とを
有し、「道路形状」を出力とする道路形状推定装置。
[Principal Configuration Example 1] An imaging device for acquiring road information as an image, an image road shape extracting means for extracting a road shape in a screen from the acquired image, and map data for acquiring map data around the own vehicle. An acquisition unit, a map road shape extraction unit that extracts a road shape on a map on which the vehicle is expected to travel from the acquired map data, and a map road shape based on the extracted image road shape and the map road shape. A road shape estimating means for estimating the “road shape” and the “position / posture of the own vehicle with respect to the road” so that the degree of collation is calculated by projecting onto the logical space and calculating the degree of collation based on the shape overlap; And a road shape estimating device that outputs “road shape”.

【0046】〔主要構成例2〕上記の〔主要構成例1〕
に記載の撮像装置と画像道路形状抽出手段と地図データ
取得手段と地図道路形状抽出手段と道路形状推定手段と
を有し、「自車両の道路面に対する姿勢」を出力とする
道路形状推定装置。
[Main Configuration Example 2] [Main Configuration Example 1]
A road shape estimating device, comprising: the image pickup device described in 1 above, an image road shape extracting unit, a map data acquiring unit, a map road shape extracting unit, and a road shape estimating unit, and outputs the “posture of the own vehicle with respect to the road surface”.

【0047】〔主要構成例3〕上記の〔主要構成例1〕
に記載の撮像装置と画像道路形状抽出手段と地図データ
取得手段と地図道路形状抽出手段と道路形状推定手段と
を有し、「自車両の地図に対する絶対位置」を出力とす
る道路形状推定装置。
[Main Configuration Example 3] [Main Configuration Example 1]
A road shape estimating device, comprising: the image pickup device described in 1 above, an image road shape extracting unit, a map data acquiring unit, a map road shape extracting unit, and a road shape estimating unit, and outputs the “absolute position of the vehicle relative to the map”.

【0048】〔主要構成例4〕上記の〔主要構成例
1〕、及び/又は、〔主要構成例2〕、及び/又は、
〔主要構成例3〕とを任意に組み合わせた道路形状推定
装置。
[Main Configuration Example 4] [Main Configuration Example 1] and / or [Main Configuration Example 2] and / or
A road shape estimating device in which [Main Configuration Example 3] is arbitrarily combined.

【0049】〔主要構成例5〕上記の〔主要構成例1〕
〜〔主要構成例4〕に記載の道路形状推定装置におい
て、撮像装置と画像道路形状抽出手段、あるいは地図デ
ータ取得手段と地図道路形状抽出手段の代わりに、周辺
に存在する物体の位置と速度を検出するレーダ装置と、
検出した物体の並びから道路形状を推定するレーダ道路
形状抽出手段とを有する道路形状推定装置。
[Main Configuration Example 5] [Main Configuration Example 1]
-In the road shape estimating apparatus according to [Main Configuration Example 4], instead of the image pickup device and the image road shape extracting means, or the map data obtaining means and the map road shape extracting means, the position and speed of an object existing in the vicinity are determined. A radar device for detecting,
A road shape estimating apparatus having a radar road shape extracting means for estimating a road shape from a sequence of detected objects.

【0050】〔主要構成例6〕上記の〔主要構成例1〕
〜〔主要構成例5〕に記載の道路形状推定装置におい
て、画像道路形状抽出手段によって取得された画像道路
形状に基づいて「自車両の道路面に対する姿勢」を予め
推定する自車両姿勢推定手段を有し、道路面に対する自
車両姿勢推定結果を道路形状推定手段へ入力することで
照合を簡単にする道路形状推定装置。
[Main Configuration Example 6] [Main Configuration Example 1]
In the road shape estimating apparatus according to any one of the first to fifth main configuration examples, a self-vehicle posture estimating unit that preliminarily estimates the “posture of the own vehicle with respect to the road surface” based on the image road shape obtained by the image road shape extracting unit is A road shape estimating apparatus that has a self-vehicle attitude estimation result with respect to a road surface and inputs the result to a road shape estimating means to simplify collation.

【0051】〔主要構成例7〕上記の〔主要構成例1〕
〜〔主要構成例5〕に記載の道路形状推定装置におい
て、画像道路形状抽出手段によって取得された画像道路
形状と、地図道路形状抽出手段によって取得された地図
道路形状とに基づいて「自車両の地図に対する絶対位
置」を予め推定する自車両位置推定手段を有し、地図に
対する自車両位置推定結果を道路形状推定手段へ入力と
することで照合を簡単にする道路形状推定装置。
[Main Configuration Example 7] [Main Configuration Example 1]
In the road shape estimating apparatus according to any one of [Main Configuration Example 5], based on the image road shape acquired by the image road shape extracting means and the map road shape acquired by the map road shape extracting means, the “ A road shape estimating device which has own vehicle position estimating means for preliminarily estimating "absolute position with respect to the map", and simplifies matching by inputting the own vehicle position estimating result for the map to the road shape estimating means.

【0052】〔主要構成例8〕上記の〔主要構成例6〕
と〔主要構成例7〕とを組み合わせた道路形状推定装
置。
[Main Configuration Example 8] [Main Configuration Example 6]
A road shape estimating device that combines the above and [Main Configuration Example 7].

【0053】〔主要構成例9〕上記の〔主要構成例1〕
〜〔主要構成例8〕に記載の道路形状推定装置におけ
る、道路形状推定手段において推定した「道路形状」、
「自車両の道路面に対する姿勢」、「自車両の地図に対
する絶対位置」の推定結果の一部、あるいは推定結果の
全部に対し、現実世界の物理的な形状制約条件を満たす
道路モデルと照合し、最も照合する形状を道路形状とし
て出力する道路形状モデル照合手段を有し、より精度の
高い道路形状推定を可能にする道路形状推定装置。
[Main Configuration Example 9] [Main Configuration Example 1]
-"Road shape" estimated by the road shape estimating means in the road shape estimating device described in [Main Configuration Example 8];
A part or all of the estimation results of the "attitude of the host vehicle relative to the road surface" and the "absolute position of the host vehicle relative to the map" are compared with a road model that satisfies the physical shape constraints of the real world. A road shape estimating device that has a road shape model matching unit that outputs a shape to be matched most as a road shape, and that enables more accurate road shape estimation.

【0054】〔主要構成例10〕前方の画像を取得する
前方画像撮像装置と、取得した前方画像から画像面での
道路形状を抽出する道路画像取得手段と、自車両の位置
を取得する自車両位置取得手段と、取得した自車両位置
周辺の地図上での道路形状を取得する道路地図取得手段
と、取得した道路画像と道路地図から、道路面に対する
ピッチ角、地図に対するカメラのヨー角、横位置、進行
方向位置、傾斜角度等の自車両の姿勢を推定する自車両
姿勢推定手段と、取得した道路画像と道路地図と地図に
対する自車両の姿勢から、三次元空間へ道路形状を投影
して存在確率を算出し、適正な三次元道路形状候補を抽
出する三次元道路形状推定手段とを有する道路形状推定
装置。
[Principal Configuration Example 10] A front image capturing device for acquiring a forward image, road image acquiring means for extracting a road shape on an image plane from the acquired forward image, and a host vehicle for acquiring the position of the host vehicle A position acquisition unit, a road map acquisition unit that acquires a road shape on a map around the acquired own vehicle position, and a pitch angle with respect to a road surface, a yaw angle of a camera with respect to the map, and a lateral angle, based on the acquired road image and the road map. Position, traveling direction position, own vehicle attitude estimating means for estimating the attitude of the own vehicle such as the inclination angle, and projecting the road shape to a three-dimensional space from the obtained road image and the attitude of the own vehicle with respect to the road map and the map. A road shape estimating device comprising: a three-dimensional road shape estimating unit that calculates an existence probability and extracts an appropriate three-dimensional road shape candidate.

【0055】〔主要構成例11〕上記の〔主要構成例1
0〕の道路画像取得手段において、取得した前方画像を
画像処理し、白線や道路端等の形状を抽出する画面内道
路形状抽出手段を有し、上記の〔主要構成例10〕の道
路地図取得手段において、取得した自車両周辺の地図情
報を処理し、自車両が走行する道路端を示す道路形状を
抽出する地図面内道路形状抽出手段とを有する道路形状
推定装置。
[Main Configuration Example 11] [Main Configuration Example 1]
[0], the road image obtaining means includes an in-screen road shape extracting means for performing image processing on the obtained forward image and extracting shapes such as white lines and road edges. Means for processing the acquired map information around the own vehicle and extracting a road shape indicating a road edge on which the own vehicle travels.

【0056】〔主要構成例12〕上記の〔主要構成例1
1〕に記載の道路画像取得手段において、白線などを抽
出する画面内道路形状抽出手段と、抽出した画面内道路
形状から画面中の道路の線形を推定する画面内道路形状
推定手段を有し、上記の〔主要構成例11〕に記載の道
路地図取得手段において、自車両が走行する道路形状を
抽出する地図面内道路形状抽出手段と、抽出した地図面
内道路形状から、画像面内で推定された線形と同等の横
位置での道路線形を推定する地図面内道路形状推定手段
とを有する道路形状推定装置。
[Main Configuration Example 12] [Main Configuration Example 1]
The road image acquiring means according to 1), further comprising: an in-screen road shape extracting means for extracting a white line or the like; and an in-screen road shape estimating means for estimating a linear shape of a road in the screen from the extracted in-screen road shape. In the road map acquisition means described in [Main Configuration Example 11] above, the in-map road shape extraction means for extracting the road shape on which the vehicle travels, and the estimation in the image plane from the extracted map road shape are performed. A road shape estimating means for estimating a road alignment at a lateral position equivalent to the determined alignment.

【0057】〔主要構成例13〕上記の〔主要構成例1
0〕に記載の三次元道路形状推定手段において、取得し
た道路画像と取得した道路地図と、自車両姿勢推定手段
によって推定した自車両の地図に対する姿勢から、カメ
ラ座標系と地図座標系の位置あわせを行い、カメラ視点
から三次元空間に投影した道路画像の候補領域と、地図
面から三次元空間に投影した道路地図の候補領域の重な
りから存在確率を算出する道路形状存在確率算出手段を
有し、存在確率と現実の世界の物理的制約を考慮して適
正な道路形状を抽出する適正道路形状抽出手段を有し、
可視領域において三次元道路形状を推定する道路形状推
定装置。
[Main Configuration Example 13] [Main Configuration Example 1]
0], the camera coordinate system and the map coordinate system are aligned based on the acquired road image, the acquired road map, and the attitude of the own vehicle with respect to the map estimated by the own vehicle attitude estimating means. And a road shape existence probability calculating means for calculating an existence probability from an overlap of a candidate region of a road image projected to a three-dimensional space from a camera viewpoint and a candidate region of a road map projected to a three-dimensional space from a map surface. Has a proper road shape extracting means for extracting a proper road shape in consideration of the existence probability and physical constraints of the real world,
A road shape estimation device for estimating a three-dimensional road shape in a visible region.

【0058】〔主要構成例14〕前方の画像を取得する
前方画像撮像装置と、取得した前方画像から画像面での
道路形状を抽出する道路画像取得手段と、自車両の位置
を取得する自車両位置取得手段と、取得した自車両位置
周辺の地図上での道路形状を取得する道路地図取得手段
と、取得した道路画像と道路地図から、地図に対するカ
メラのヨー角、道路面に対するピッチ角、横位置、進行
方向位置等の自車両の姿勢を推定する自車両姿勢推定手
段と、取得した道路画像と道路地図と、地図に対する自
車両の姿勢から、前方の道路のある一平面での形状を推
定する平面内道路形状推定手段とを有する道路形状推定
装置。
[Principal Configuration Example 14] A front image capturing apparatus for obtaining a front image, road image obtaining means for extracting a road shape on an image plane from the obtained front image, and a host vehicle for obtaining the position of the host vehicle A position obtaining means, a road map obtaining means for obtaining a road shape on a map around the obtained own vehicle position, and a yaw angle of a camera with respect to the map, a pitch angle with respect to a road surface, and a lateral angle, based on the obtained road image and the road map. Self-vehicle posture estimating means for estimating the posture of the own vehicle such as the position, the traveling direction position, etc., and estimating the shape of the front road in one plane from the obtained road image, the road map, and the posture of the own vehicle with respect to the map. A road shape estimating device comprising: an in-plane road shape estimating means.

【0059】〔主要構成例15〕上記の〔主要構成例1
4〕の道路画像取得手段において、取得した前方画像を
画像処理し、白線や道路端等の形状を抽出する画面内道
路形状抽出手段を有し、上記の〔主要構成例14〕の道
路地図取得手段において、取得した自車両周辺の地図情
報を処理し、自車両が走行する道路端を示す道路形状を
抽出する地図面内道路形状抽出手段とを有する道路形状
推定装置。
[Main Configuration Example 15] [Main Configuration Example 1]
The road image obtaining means of [4] includes in-screen road shape extracting means for performing image processing on the obtained front image and extracting shapes such as white lines and road edges. Means for processing the acquired map information around the own vehicle and extracting a road shape indicating a road edge on which the own vehicle travels.

【0060】〔主要構成例16〕上記の〔主要構成例1
5〕に記載の道路画像取得手段において、白線などを抽
出する画面内道路形状抽出手段と、抽出した画面内道路
形状から画面中の道路の線形を推定する画面内道路形状
推定手段を有し、更に、上記の〔主要構成例15〕に記
載の道路地図取得手段において、自車両が走行する道路
形状を抽出する地図面内道路形状抽出手段と、抽出した
地図面内道路形状から画像面内で推定された線形と同等
の横位置での道路線形を推定する地図面内道路形状推定
手段とを有する道路形状推定装置。
[Main Configuration Example 16] [Main Configuration Example 1]
5] The road image acquiring unit according to 5), further comprising: an in-screen road shape extracting unit for extracting a white line or the like; and an in-screen road shape estimating unit for estimating a line shape of a road in the screen from the extracted in-screen road shape. Further, in the road map obtaining means described in [Main Configuration Example 15] above, an in-map road shape extracting means for extracting a road shape on which the own vehicle travels, and an in-image road shape extracting method based on the extracted in-map road shape. A road shape estimating device comprising: an in-map road shape estimating means for estimating a road alignment at a lateral position equivalent to the estimated alignment.

【0061】〔主要構成例17〕上記の〔主要構成例1
4〕の平面内道路形状推定手段において、自車両姿勢推
定手段によって推定された結果からカメラ座標系と地図
座標系の位置あわせを行い、カメラ視点からある平面に
投影した道路形状とそれに重ねた地図による道路形状か
ら可視領域の平面内道路形状推定を行う道路形状推定装
置。
[Main Configuration Example 17] [Main Configuration Example 1]
4] The in-plane road shape estimating means aligns the camera coordinate system and the map coordinate system based on the result estimated by the own-vehicle attitude estimating means, and maps the road shape projected onto a certain plane from the camera viewpoint and a map superimposed on the road shape. Shape estimating device for estimating the road shape in the plane of the visible area from the road shape according to.

【0062】〔主要構成例18〕前方道路画像を取得す
る撮像装置と、前方道路上の物体を検出しその距離を測
定するレーダ装置と、画像データから白線抽出等の画像
処理によって道路形状を抽出する画像面内道路形状取得
手段と、画像データから物体を検出する画像面内物体検
出手段と、画像で得られた物体とレーダで得られた物体
とを照合してレーダで得られる物体までの距離と画像で
得られる物体の存在可能性領域から物体の位置を推定す
る物体位置推定手段と、物体の位置から道路面の高さを
推定する道路面高さ推定手段と、推定した道路面高さと
画像面内道路形状に基づいて前方道路の三次元形状を推
定する道路形状推定手段とを有する道路形状推定装置。
[Principal Configuration Example 18] An imaging device for acquiring an image of a road ahead, a radar device for detecting an object on the road ahead and measuring the distance, and extracting a road shape from image data by image processing such as white line extraction. An in-plane road shape acquiring means for detecting an object in the image plane, an in-plane object detecting means for detecting an object from the image data, and an object obtained in the radar by comparing the object obtained in the image with the object obtained in the radar. Object position estimating means for estimating the position of the object from the distance and the possibility area of the object obtained from the image, road surface height estimating means for estimating the height of the road surface from the position of the object, and the estimated road surface height And a road shape estimating means for estimating a three-dimensional shape of a forward road based on a road shape in an image plane.

【0063】〔主要構成例19〕前方道路画像を取得す
る撮像装置と、前方道路上の物体を検出し、その距離と
方位と速度とを測定するレーダ装置と、画像データから
白線抽出等の画像処理によって道路形状を抽出する画像
面内道路形状抽出手段と、レーダによって検出された物
体の並びから道路線形を推定する道路線形推定手段と、
画像面内道路形状とレーダによる道路線形に基づいて、
前方道路の三次元形状を推定する道路形状推定手段とを
有する道路形状推定装置。
[Principal Configuration Example 19] An imaging device for acquiring an image of a road ahead, a radar device for detecting an object on the road ahead and measuring the distance, azimuth, and speed, and an image such as white line extraction from image data. An in-plane road shape extracting means for extracting a road shape by processing, a road alignment estimating means for estimating a road alignment from an arrangement of objects detected by radar,
Based on the road shape in the image plane and the road alignment by radar,
A road shape estimating device having road shape estimating means for estimating a three-dimensional shape of a road ahead.

【0064】〔主要構成例20〕前方道路上の物体を検
出し、その距離と方位と速度とを測定するレーダ装置
と、自車両の位置を取得する自車両位置取得手段と、自
車両周辺の道路地図を取得する道路地図形状取得手段
と、レーダによって検出された物体の並びから道路線形
を推定する道路線形推定手段と、地図によって得られた
道路形状と、レーダによって得られた道路形状を重ね合
わせて前方道路の平面での形状を推定する道路形状推定
手段とを有する道路形状推定装置。
[Principal Configuration Example 20] A radar device that detects an object on a road ahead and measures the distance, azimuth, and speed of the vehicle, own vehicle position obtaining means for obtaining the position of the own vehicle, A road map shape obtaining means for obtaining a road map, a road alignment estimating means for estimating a road alignment from an array of objects detected by radar, and a road shape obtained by the map and a road shape obtained by radar are superimposed. A road shape estimating device having a road shape estimating means for estimating a shape of a front road in a plane.

【0065】例えば以上の様な主要構成に従えば、前記
の本発明の作用・効果を得ることが可能となる。以下、
本発明の基本的且つ代表的な実施形態の概要をより具体
的に例示する。ここで例示される基本的且つ代表的な実
施形態は、後述の更に詳細且つ具体的な個々の実施例
と、基本的思想において共通点又は関連を有するもので
ある。
For example, according to the main configuration as described above, the operation and effect of the present invention can be obtained. Less than,
An outline of a basic and representative embodiment of the present invention will be illustrated more specifically. The basic and representative embodiments exemplified here have common points or relations in the basic idea with more detailed and specific examples described later.

【0066】(基本的且つ代表的な実施形態)本発明に
係わる道路形状推定装置について図面を用いて説明す
る。図1は本発明の基本的な構成要素の概略を示すもの
である。前方道路の情報を画像で取得するための撮像装
置と、取得した画像から道路形状を抽出する画像道路形
状抽出手段と、自車両周辺の地図データを取得する地図
データ取得手段と、取得した地図データから地図の道路
形状を抽出する地図道路形状抽出手段とを有し、取得し
た画像道路形状と地図道路形状を3次元又は2次元で構
成された一つの論理的空間に投影し、投影した画像道路
形状と地図道路形状の候補領域のうち、照合度が高い位
置を道路形状として推定し、道路形状の推定と同時に自
車両の道路面に対する姿勢推定と、自車両の地図に対す
る位置推定とを行う道路形状推定手段を有し、道路形状
を出力する道路形状推定装置である。
(Basic and Representative Embodiment) A road shape estimating apparatus according to the present invention will be described with reference to the drawings. FIG. 1 schematically shows the basic components of the present invention. An imaging device for acquiring information on a road ahead as an image, an image road shape extracting unit for extracting a road shape from the acquired image, a map data acquiring unit for acquiring map data around the own vehicle, and the acquired map data Map road shape extraction means for extracting the road shape of the map from the map road shape, and projecting the acquired image road shape and the map road shape into one logical space composed of three or two dimensions, A road that estimates a position having a high degree of matching among the candidate regions of the shape and the map road shape as the road shape, and simultaneously performs the estimation of the road shape, the posture estimation of the own vehicle with respect to the road surface, and the position estimation of the own vehicle with respect to the map. A road shape estimating device that has a shape estimating unit and outputs a road shape.

【0067】この出力に結果については、図2、図3で
示す様に自車両姿勢を出力としても良いし、自車両位置
を出力としても良いし、その他、道路形状、及び/又
は、自車両姿勢、及び/又は、自車両位置等の各種情報
からなる任意の組合わせを出力としても良い。撮像装置
は、基本的には単一のカメラで構成されるものであり、
カメラの焦点距離、撮像面大きさは予め既知とする。た
だし、複数台のカメラを用いてこれらの撮像装置を構成
することも可能である。
As a result of this output, the attitude of the own vehicle may be output as shown in FIGS. 2 and 3, the position of the own vehicle may be output, and the road shape and / or the own vehicle may be output. Any combination of various information such as the attitude and / or the position of the host vehicle may be output. The imaging device is basically configured with a single camera,
The focal length of the camera and the size of the imaging surface are known in advance. However, these imaging devices can be configured using a plurality of cameras.

【0068】地図データ取得手段は、自車両周辺の地図
データを取得する方法である。測定されるDGPS(Di
fferential Global Positioning System)の測位結果と
地図データベースから周辺地図データを取得しても良い
し、DGPSに加えてINSなどによって推定した自車
両位置と地図データベースから周辺地図データを取得し
ても良いし、過去に取得した自車両位置に基づきINS
などによって現在まで推定した自車両位置と地図データ
ベースから周辺地図データを取得しても良い。即ち、本
発明の地図データ取得手段においては、地図データを取
得する方法は特に限定されるものではない。
The map data acquisition means is a method for acquiring map data around the own vehicle. DGPS (Di
fferential Global Positioning System) and peripheral map data may be obtained from the map database and the vehicle position and the peripheral map data estimated by the INS etc. in addition to DGPS. INS based on the own vehicle position acquired in the past
For example, the surrounding map data may be acquired from the own vehicle position and the map database estimated up to now. That is, in the map data acquisition means of the present invention, the method of acquiring map data is not particularly limited.

【0069】また、地図データベースは、基本的には二
次元の道路情報が記載されたデータであり、ナビゲーシ
ョン・システム用の道路のリンクが記載された地図デー
タベースでも良いし、道路区画線の座標値が記載されて
いる地図データベースでも良いし、道路中心線の座標値
が記録されている地図データベースでも良い。また、専
用に作られた地図データベースを用いても良いし、三次
元情報が記載されているデータを用いても良い。
The map database is basically data in which two-dimensional road information is described, and may be a map database in which road links for a navigation system are described, or the coordinate values of road division lines. May be described, or a map database in which the coordinate values of the road center line may be recorded. Further, a dedicated map database may be used, or data in which three-dimensional information is described may be used.

【0070】道路形状の情報を取得する手段として、撮
像装置と地図データの組合わせのほかに、撮像装置とレ
ーダ装置、レーダ装置と地図データ、撮像装置とレーダ
装置と地図データベース、という組合わせでも良い。図
1の地図データベース取得手段をレーダ装置に置き換
え、地図道路形状抽出手段をレーダ道路形状抽出手段に
置き換えた道路形状推定装置を図4に例示する。
As means for acquiring road shape information, in addition to the combination of the imaging device and the map data, the combination of the imaging device and the radar device, the radar device and the map data, the imaging device, the radar device, and the map database may be used. good. FIG. 4 illustrates a road shape estimating device in which the map database obtaining means of FIG. 1 is replaced by a radar device and the map road shape extracting means is replaced by a radar road shape extracting device.

【0071】図1に示す道路形状推定装置について、各
手段の具体的な方法について説明する。画像道路形状抽
出手段では、撮像装置によって取得した前方道路画像か
ら画像処理によって画面上の道路形状を抽出する。図5
にその一例を示す。例えば、取得した画像から微分フィ
ルタなどによって画像の輝度変化を求め、輝度変化が大
きい部分を白線候補として抽出する。抽出した左右の白
線組からその中央線にあたる部分を抽出して、画像上の
道路形状とする。
A specific method of each means in the road shape estimation device shown in FIG. 1 will be described. The image road shape extraction means extracts a road shape on the screen by image processing from a forward road image acquired by the imaging device. FIG.
An example is shown below. For example, a luminance change of the image is obtained from the acquired image by a differential filter or the like, and a portion having a large luminance change is extracted as a white line candidate. A portion corresponding to the center line is extracted from the extracted left and right white line sets and is set as a road shape on the image.

【0072】地図道路形状抽出手段では、自車両位置取
得手段によって取得した自車両位置とその周辺の地図デ
ータから地図上の道路形状を抽出する。図6にその一例
を示す。例えば、道路の区画線の座標値が記載された地
図データベースを用いるとき、自車両周辺の道路区画線
を示す点を抽出し、その中から自車両が走行する道路区
画線を示す点を抽出する。抽出した道路区画線を示す点
と、自車両が走行していると予想されるレーンから、走
行レーン中央に位置する道路形状を抽出する。道路形状
は左右の道路区画線を示す点の内分点でも良いし、内分
点を線分でつないだ形状でも良いし、内分点を曲線で近
似した形状でも良い。
The map road shape extracting means extracts the road shape on the map from the own vehicle position acquired by the own vehicle position acquiring means and the map data around the own vehicle position. FIG. 6 shows an example. For example, when using a map database in which coordinate values of road lane markings are used, points indicating road lane markings around the vehicle are extracted, and points indicating road lane markings on which the vehicle travels are extracted. . The road shape located at the center of the traveling lane is extracted from the points indicating the extracted road lane markings and the lane where the host vehicle is expected to be traveling. The road shape may be an interior dividing point of the points indicating the left and right road division lines, a shape in which the interior dividing points are connected by a line segment, or a shape in which the interior dividing point is approximated by a curve.

【0073】また、道路形状推定手段では、取得した画
像道路形状と地図道路形状を一つの論理的空間に投影
し、投影結果として得られる双方の候補領域の重なり度
合いを示す照合度Cを算出し、照合度Cが大きくなる様
に、パラメータを推定することで、道路形状や、道路面
に対する自車両姿勢、地図面に対する自車両位置を推定
する。
The road shape estimating means projects the acquired image road shape and map road shape onto one logical space, and calculates a matching degree C indicating the degree of overlap between both candidate regions obtained as the projection result. By estimating the parameters so that the matching degree C increases, the road shape, the attitude of the own vehicle relative to the road surface, and the position of the own vehicle relative to the map surface are estimated.

【0074】図7に画像道路形状と地図道路形状の座標
系を例示する。画像道路形状は撮像面上で得られ、画像
座標系(Ximage ,Yimage )で示される。地図道路形
状は地図上で得られ、地図座標系(Xm,Ym,Zm)
で示される。撮像面はカメラの光軸に対して直角とし、
焦点距離をfとする。カメラの座標系は(Xc,Yc,
Zc)で示し、カメラ視点をカメラ座標系の原点とし、
カメラの光軸方向をYc軸方向とする。
FIG. 7 exemplifies a coordinate system of the image road shape and the map road shape. The road shape of the image is obtained on the imaging plane, and is represented by an image coordinate system (Ximage, Yimage). Map road shape is obtained on the map, and the map coordinate system (Xm, Ym, Zm)
Indicated by The imaging plane is perpendicular to the optical axis of the camera,
Let f be the focal length. The camera coordinate system is (Xc, Yc,
Zc), the camera viewpoint is the origin of the camera coordinate system,
The optical axis direction of the camera is defined as a Yc axis direction.

【0075】カメラのYc軸と地図のXm−Ym平面と
のなす角を地図平面に対するカメラのピッチ角θとし、
カメラのYc軸と地図のYm軸とのなす角をXm−Ym
平面上に投影した角度を地図に対するカメラのヨー角を
φとする。また、カメラ原点と地図原点のずれをXm軸
方向d、Ym軸方向L、Zm軸方向hとすると、カメラ
座標系(Xc,Yc,Zc;原点Oc)における、地図
座標系(Xm,Ym,Zm)の原点Omの位置座標は、
(Xc,Yc,Zc)=(d,L,h)となる。
An angle between the Yc axis of the camera and the Xm-Ym plane of the map is defined as a camera pitch angle θ with respect to the map plane.
Xm-Ym is the angle between the Yc axis of the camera and the Ym axis of the map.
The angle projected on the plane is defined as the yaw angle of the camera with respect to the map as φ. Further, assuming that the deviation between the camera origin and the map origin is the Xm-axis direction d, the Ym-axis direction L, and the Zm-axis direction h, the map coordinate system (Xm, Ym, Xm) in the camera coordinate system (Xc, Yc, Zc; origin Oc). The position coordinates of the origin Om of Zm)
(Xc, Yc, Zc) = (d, L, h).

【0076】カメラ座標系(Xc,Yc,Zc)と画像
座標系(Ximage ,Yimage )の関係は、次式(1)で
示される。
The relationship between the camera coordinate system (Xc, Yc, Zc) and the image coordinate system (Ximage, Yimage) is expressed by the following equation (1).

【数1】 (Xc,Yc,Zc)=(Ximage ,f,Yimage ) …(1)(Xc, Yc, Zc) = (Ximage, f, Yimage) (1)

【0077】図8に画像道路形状による候補領域と、地
図道路形状による候補領域を例示する。画像道路形状の
点 (Ximage ,Yimage )に投影された実際の点は、カ
メラ座標系ではカメラ視点Oc から撮像面上の点(Xim
age ,Yimage )への方向ベクトル(Ximage ,f,Y
image )の定数α倍で示される位置にあると考えられる
ので、この投影された実際の点は地図座標系(Xm,Y
m,Zm)に変換すると、図7に示す式で表すことがで
きる。
FIG. 8 exemplifies a candidate area based on an image road shape and a candidate area based on a map road shape. In the camera coordinate system, the actual point projected on the point (Ximage, Yimage) of the image road shape is a point (Xim
age, Yimage) direction vector (Ximage, f, Y)
image), the projected actual point is assumed to be at the position indicated by the constant α times the map coordinate system (Xm, Ym).
m, Zm), it can be represented by the equation shown in FIG.

【0078】図8の様に、画像道路形状の点を地図座標
系に透視投影した投影候補領域と、地図道路形状の点を
垂直投影した投影候補領域とを重ね合わせ、双方の照合
度を算出する。ここでは照合度Cを変化させるパラメー
タ(独立変数)をα,d,L,φ,θとし、照合度Cを
関数C(α,d,L,φ,θ)として表現する。ただ
し、地図面に対するカメラ高さhは既知とした。この照
合度Cの算出方法については、適切な手法であれば何で
も良い。例えば、最急降下法等の公知の数値解析の手法
により、上記双方が最も良く一致する様にこれらのパラ
メータの値を具体的に決定(最適化)することができ
る。
As shown in FIG. 8, a projection candidate area obtained by perspectively projecting a point of an image road shape onto a map coordinate system and a projection candidate area obtained by vertically projecting a point of a map road shape are superimposed to calculate the degree of matching between the two. I do. Here, the parameters (independent variables) that change the matching degree C are α, d, L, φ, θ, and the matching degree C is expressed as a function C (α, d, L, φ, θ). However, the camera height h with respect to the map surface was known. As a method of calculating the collation degree C, any appropriate method may be used. For example, the values of these parameters can be specifically determined (optimized) by a well-known numerical analysis technique such as the steepest descent method so that the above-mentioned two values best match.

【0079】図9に、簡単なパラメータ決定方法を例示
する。まず、取得した画像道路形状と地図道路形状とを
3次元又は2次元で構成された一つの論理的空間に投影
する。投影に必要なパラメータについて、未知のものは
初期値を与えて投影を行う。算出した照合度Cが最大に
なる様にパラメータを制限範囲内において順次更新する
ことで、未知のパラメータを推定することができる。こ
のパラメータの推定方法については、順次更新しても良
いし、初めは大まかにパラメータを更新し、照合度が大
きくなる範囲でさらに細かくパラメータを変化させても
良い。パラメータ推定方法は特に限定する必要はなく、
これらのパラメータは、公知の適当な数値解析手法を用
いて最適化することができる。
FIG. 9 illustrates a simple parameter determination method. First, the acquired image road shape and map road shape are projected onto one three-dimensional or two-dimensional logical space. For parameters necessary for projection, unknown parameters are given an initial value and projection is performed. An unknown parameter can be estimated by sequentially updating the parameters within the limited range so that the calculated matching degree C becomes the maximum. As for the parameter estimation method, the parameter may be updated sequentially, or the parameter may be updated roughly at first, and the parameter may be changed more finely in a range where the degree of matching increases. The parameter estimation method does not need to be particularly limited.
These parameters can be optimized using a known appropriate numerical analysis technique.

【0080】上記の様に、照合度Cが大きくなる様にパ
ラメータを推定することで、道路形状、道路面に対する
自車両の姿勢、地図面に対する自車両の位置を推定する
ことが可能になる。ここではカメラの焦点距離fと地図
座標系に対するカメラ座標系のz方向ずれhは既知であ
ると仮定して推定例を示したが、hは未知数であって
も、上記と略同様に推定することが可能である。また、
地図平面に対するピッチ角θは道路面に対するカメラの
ピッチ角θ1と地図面に対する道路の傾斜角度θ2の和
であり、別個に推定しても良い。
As described above, by estimating the parameters so that the matching degree C becomes large, it becomes possible to estimate the road shape, the attitude of the own vehicle with respect to the road surface, and the position of the own vehicle with respect to the map surface. Here, the estimation example is shown assuming that the focal length f of the camera and the shift h in the z direction of the camera coordinate system with respect to the map coordinate system are known. However, even when h is an unknown number, estimation is performed in substantially the same manner as described above. It is possible. Also,
The pitch angle θ with respect to the map plane is the sum of the camera pitch angle θ1 with respect to the road plane and the road inclination angle θ2 with respect to the map plane, and may be separately estimated.

【0081】図10は画像道路形状抽出手段によって取
得した画像道路形状から、自車両の道路面に対する姿勢
を予め推定する方法である。推定した結果を道路形状推
定手段に入力することで、パラメータ変化範囲を限定す
ることが可能になる。道路形状推定手段では予め推定し
た道路面に対する姿勢をそのまま採用して更新を行わな
くても良いし、更新を行っても良い。
FIG. 10 shows a method for preliminarily estimating the attitude of the host vehicle with respect to the road surface from the image road shape acquired by the image road shape extraction means. By inputting the estimation result to the road shape estimation means, it is possible to limit the parameter change range. In the road shape estimating means, it is not necessary to perform the update by using the posture with respect to the road surface estimated in advance as it is, or the update may be performed.

【0082】図11は画像道路形状抽出手段によって取
得した画像道路形状と、地図道路形状抽出手段によって
取得した地図道路形状にから、自車両の地図面に対する
位置を予め推定する方法である。推定した結果を道路形
状推定手段に入力することで、パラメータ変化範囲を限
定することが可能になる。道路形状推定手段では、予め
推定した地図面に対する位置をそのまま採用して更新を
行わなくても良いし、更新を行っても良い。
FIG. 11 shows a method of estimating the position of the host vehicle with respect to the map surface in advance from the image road shape obtained by the image road shape extraction means and the map road shape obtained by the map road shape extraction means. By inputting the estimation result to the road shape estimation means, it is possible to limit the parameter change range. In the road shape estimating means, the position with respect to the map plane estimated in advance may be adopted as it is and may not be updated, or may be updated.

【0083】図12は図1に示す道路形状推定装置に対
して、道路形状モデル照合手段を付加したものである。
道路形状モデル照合手段は、道路形状推定手段によって
推定した道路形状に対し、例えば「規定値以上に急激な
坂(勾配)は無い」等の現地付近の道路が実際に満たし
ている物理的な制約条件によって修正を加えても良い
し、道路形状を曲率等のパラメータ空間で表現し、DP
(Dynamic Programing)マッチングやカルマンフィルタ等
によって修正を加えても良い。
FIG. 12 is obtained by adding a road shape model collating means to the road shape estimating apparatus shown in FIG.
The road shape model matching means is configured to determine whether the road shape estimated by the road shape estimation means is physically restricted by a road near the site such as "there is no steep slope (gradient) exceeding a specified value". Modifications may be made depending on conditions, or the road shape may be expressed in a parameter space such as curvature, and DP
(Dynamic Programming) It may be modified by matching, Kalman filter, or the like.

【0084】図13 は、図10に示す画像道路形状から
自車両の道路面に対する姿勢を推定する方法の一例であ
る。自車両至近の道路端の延長線は画面上で直線1、直
線2の様に示される。自車両至近の左右の道路端は平行
であると仮定すると、消失点は道路面に対するピッチ角
が0deg である場合Yimage =0の位置になる。また、
ヨー角が0deg である場合Ximage =0の位置になる。
画面上での消失点の位置から、道路面に対するピッチ角
と道路中心線に対するヨー角とを推定することができ
る。
FIG. 13 is an example of a method for estimating the attitude of the host vehicle with respect to the road surface from the image road shape shown in FIG. The extension of the road edge near the vehicle is shown as straight line 1 and straight line 2 on the screen. Assuming that the left and right road edges near the host vehicle are parallel, the vanishing point is located at Yimage = 0 when the pitch angle with respect to the road surface is 0 deg. Also,
When the yaw angle is 0 deg, the position becomes Ximage = 0.
From the position of the vanishing point on the screen, the pitch angle with respect to the road surface and the yaw angle with respect to the road center line can be estimated.

【0085】また、直線1と直線2から自車両の道路中
心線に対する横位置ズレdと、車線幅2Wも求めること
ができる。直線1の傾きをa0、y切片をb0とし、直
線2の傾きをa1、y切片をb1とすると、ピッチ角θ
1、ヨー角φ、横位置ズレd、車線幅2Wは、それぞれ
幾何学的手法により一意に求めることができる。即ち、
これらの数値(θ1,φ,W,d)は、それぞれ図13
に纏めて記載した4つの式により各々求めることができ
る。
Further, from the straight line 1 and the straight line 2, the lateral position deviation d of the own vehicle with respect to the road center line and the lane width 2W can be obtained. If the slope of the straight line 1 is a0 and the y-intercept is b0, and the slope of the straight line 2 is a1 and the y-intercept is b1, the pitch angle θ
1, the yaw angle φ, the lateral position deviation d, and the lane width 2W can be uniquely obtained by a geometric method. That is,
These numerical values (θ1, φ, W, d) are shown in FIG.
, Respectively, can be obtained by the four equations described collectively.

【0086】例えば上記の様に、本発明の道路形状推定
装置では、車両前方を撮像した画像データから道路形状
を抽出する手段と、地図データから道路形状を抽出する
手段のそれぞれ抽出結果を照合して、車両の位置・姿勢
や、車両前方の道路形状を推定する。また、照合される
道路形状を抽出する手段の一つとして、レーダを用いる
ことも可能である。これらの構成(実施形態)に従え
ば、遠方の道路形状を高精度で推定することが可能とな
る。
For example, as described above, the road shape estimating apparatus of the present invention collates the extraction results of the means for extracting the road shape from the image data obtained by capturing the image in front of the vehicle and the means for extracting the road shape from the map data. Thus, the position / posture of the vehicle and the road shape ahead of the vehicle are estimated. Further, a radar can be used as one of means for extracting a road shape to be collated. According to these configurations (embodiments), it is possible to estimate the shape of a distant road with high accuracy.

【0087】また、上記の様な本発明の道路形状推定装
置によれば、峠やカーブ等の前方道路形状や、或いは先
行車両等によって、前方の道路面が画像データからでは
探知できない状況においても、或いは、単眼画像による
水平面形状推定では推定誤差が大きくなる状況において
も、画像データの他に地図等の情報を用いることで、道
路形状と自車両の位置・姿勢を精度良くロバストに推定
することが可能になる。
Further, according to the road shape estimating apparatus of the present invention as described above, even in a situation where the front road surface cannot be detected from the image data due to the road shape ahead such as a pass or a curve, or the preceding vehicle. Alternatively, even in a situation where the estimation error in the horizontal plane shape estimation using a single-eye image is large, robust estimation of the road shape and the position / posture of the own vehicle can be accurately performed by using information such as a map in addition to the image data. Becomes possible.

【0088】また、地図道路形状と画像道路形状に基づ
いて、道路形状を推定するとともに自車両の道路面に対
する姿勢を推定することで、画像道路形状のみによる姿
勢推定に比較して自車両姿勢推定精度が向上することが
期待できる。
Further, by estimating the road shape based on the map road shape and the image road shape and estimating the attitude of the own vehicle with respect to the road surface, the own vehicle attitude estimation is performed in comparison with the attitude estimation based on the image road shape alone. The accuracy can be expected to improve.

【0089】以上の様に、画像から得られる道路端位置
とデジタル道路地図の照合を行うことにより、地図上の
自車両の位置・姿勢と自車両前方の道路形状を従来より
も精度良く推定することができる。また、本発明の道路
形状推定装置によれば、遠方の道路形状が比較的高精度
で推定できるため、例えば、レーダで検出した対象の危
険判定等をも実施することが可能である。また、本発明
の道路形状推定装置は、自車両の位置・姿勢を推定する
位置姿勢推定装置としても利用可能である。
As described above, by comparing the road end position obtained from the image with the digital road map, the position / posture of the own vehicle on the map and the road shape ahead of the own vehicle are more accurately estimated than in the past. be able to. Further, according to the road shape estimating device of the present invention, a distant road shape can be estimated with relatively high accuracy, so that, for example, danger determination of a target detected by radar can be performed. Further, the road shape estimation device of the present invention can also be used as a position / posture estimation device for estimating the position / posture of the vehicle.

【0090】[0090]

【実施例】以下、本発明を具体的な実施例に基づいて説
明する。ただし、本発明は以下に示す実施例に限定され
るものではない。 (第1実施例)本第1実施例の道路形状推定装置は、車
両前方を撮像した画像データから抽出される道路形状
(第1形状候補)と、デジタル地図データから抽出され
る道路形状(第2形状候補)とを照合して、走行中の道
路の3次元形状を推定するものである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to specific embodiments. However, the present invention is not limited to the embodiments described below. (First Embodiment) A road shape estimating apparatus according to the first embodiment includes a road shape (first shape candidate) extracted from image data obtained by capturing an image in front of a vehicle and a road shape (first shape candidate) extracted from digital map data. (Two shape candidates) to estimate the three-dimensional shape of the traveling road.

【0091】本第1実施例の道路形状推定装置によれ
ば、抽出した道路形状の情報(第1形状候補、第2形状
候補)と推定した自車両の位置姿勢とに基づいて、論理
的な3次元空間に道路形状を投影し、存在確率を算出
し、推定された道路端の代表点が満たすべき物理的制約
条件をチェックすることにより、適正な3次元道路形状
を推定することができる。以下、本第1実施例に係わる
道路形状推定装置について図面を用いて説明する。図1
4は本発明の構成要素の概略を示すものである。
According to the road shape estimating apparatus of the first embodiment, a logical form is obtained based on the extracted road shape information (first shape candidate and second shape candidate) and the estimated position and orientation of the vehicle. An appropriate three-dimensional road shape can be estimated by projecting a road shape onto a three-dimensional space, calculating the existence probability, and checking physical constraints to be satisfied by the estimated representative point of the road edge. Hereinafter, the road shape estimation device according to the first embodiment will be described with reference to the drawings. FIG.
4 shows the outline of the components of the present invention.

【0092】道路形状推定装置は、前方の情報を画像で
取得する撮像装置と画像から画像中の道路形状を取得す
る道路画像取得手段と、自車両の位置を取得する手段と
自車両位置周辺の地図から地図上の道路形状を取得する
道路地図取得手段とを有し、自車両の位置と姿勢を推定
する手段を有する。三次元道路形状推定手段では、自車
両位置姿勢推定結果に基づいて道路画像と道路地図を三
次元空間内の投影して重ね合わせ、存在確率と物理的な
制約条件から三次元空間におけるロバストな道路形状の
推定を精度良く行う。
[0092] The road shape estimating device includes an image pickup device that obtains forward information as an image, a road image obtaining device that obtains a road shape in the image from the image, a device that obtains the position of the own vehicle, and a device that obtains the vicinity of the own vehicle position. A road map obtaining means for obtaining a road shape on the map from the map; and a means for estimating the position and orientation of the host vehicle. In the three-dimensional road shape estimating means, the road image and the road map are projected and superimposed in the three-dimensional space based on the result of the estimation of the position and orientation of the own vehicle, and a robust road in the three-dimensional space is determined based on the existence probability and physical constraints. The shape is estimated with high accuracy.

【0093】撮像装置は、設置高さ、焦点距離、視野角
が予め既知のカメラであり、複数個のカメラを用いても
良いが、画像からは正確な距離情報を必要としないの
で、基本的には単一のカメラを用いる。自車両の位置の
取得はDGPS等の衛星による測位結果を逐次用いても
良いし、一旦測位した結果からジャイロやINSによっ
て推定しても良い。また、地図データベースは、ナビゲ
ーション・システム用のデジタル地図データでも良い
し、市販されている数値地図データでも良いし、専用に
作られたデータベースを用いても良い。
The image pickup device is a camera whose installation height, focal length, and viewing angle are known in advance, and a plurality of cameras may be used. However, since accurate distance information is not required from an image, the image pickup device is basically used. Use a single camera. The position of the host vehicle may be obtained by sequentially using positioning results obtained by a satellite such as DGPS, or may be estimated by a gyro or INS from the result of the positioning once. Further, the map database may be digital map data for a navigation system, numerical map data on the market, or a specially created database.

【0094】図15は、道路画像・道路地図取得手段1
の概略を示すものである。本道路画像取得手段1は画像
中にある道路形状を抽出するものであり、白線や道路端
を画像処理によって抽出する画面内道路形状抽出手段か
らなる。白線抽出の方法は、図15に示す様に前方画像
をモノクロに変換し微分フィルタによって輝度変化を取
得し、輝度変化が大きい部分を白線として抽出を行う方
法等がある。また、上記の道路地図取得手段1は、取得
した地図情報から、自車両が走行する道路端の座標点を
道路形状として抽出するものであり、地図面内道路形状
抽出手段からなる。
FIG. 15 shows a road image / road map acquisition means 1.
1 shows an outline. The road image acquiring means 1 is for extracting a road shape in an image, and includes an in-screen road shape extracting means for extracting white lines and road edges by image processing. As a method of extracting a white line, there is a method of converting a front image into a monochrome image, obtaining a luminance change by a differential filter, and extracting a portion having a large luminance change as a white line as shown in FIG. The road map acquisition means 1 extracts, from the acquired map information, the coordinate points of the road edge on which the vehicle travels as a road shape, and is composed of a road shape extraction means within a map plane.

【0095】図16は道路画像・道路地図取得手段2の
概略を示すものである。道路画像取得手段2は上記の画
面内道路形状抽出手段によって抽出された白線等の形状
に基づいて、さら画面内で道路線形を示す形状を推定す
る画面内道路形状推定手段からなる。画面内道路形状推
定の方法は、図16に示す様に抽出した白線を結ぶ水平
線の中点の連続として推定する方法等がある。
FIG. 16 shows the outline of the road image / road map acquisition means 2. The road image obtaining means 2 further comprises an in-screen road shape estimating means for estimating a shape indicating a road alignment in the screen based on the shape of the white line or the like extracted by the in-screen road shape extracting means. As a method of estimating the road shape in the screen, there is a method of estimating as a continuation of the middle point of a horizontal line connecting the extracted white lines as shown in FIG.

【0096】道路地図取得手段2は上記の地図面内道路
形状抽出手段によって抽出された道路端座標値などに基
づいて、更に地図面内で道路線形を示す形状を推定する
地図面内道路形状推定手段からなる。地図面内道路形状
推定の方法は、図16に示す様に道路幅の内分点の連続
として推定する方法等がある。
The road map obtaining means 2 further estimates the shape of the road in the map plane based on the road edge coordinate values extracted by the above-described road shape extraction means in the map plane. Consisting of means. As a method of estimating the road shape in the map plane, there is a method of estimating as a continuation of internally dividing points of the road width as shown in FIG.

【0097】道路形状推定に用いる道路画像と道路地図
は、道路端などを抽出した結果をそのまま用いても良い
し、抽出結果から、道路の中央ライン、自車両が走行し
ているレーンの中央ラインや自車両が走行していると予
想されるラインを推定して用いても良い。図17は、三
次元道路形状推定手段の概略を例示するものである。本
三次元道路形状推定手段では、道路画像取得手段によっ
て取得された道路形状と道路地図取得取得手段によって
取得された道路形状から、三次元空間での道路形状を推
定する。
As the road image and the road map used for estimating the road shape, the result obtained by extracting the road edge or the like may be used as it is, or the center line of the road or the center line of the lane in which the vehicle is running may be obtained from the extracted result. Alternatively, a line on which the host vehicle is expected to travel may be estimated and used. FIG. 17 illustrates an outline of a three-dimensional road shape estimation unit. The three-dimensional road shape estimating unit estimates a road shape in a three-dimensional space from the road shape acquired by the road image acquiring unit and the road shape acquired by the road map acquiring unit.

【0098】道路形状存在確率算出手段において、自車
両姿勢推定結果に基づいてカメラ座標系と地図座標系の
位置あわせを行い、画面上の道路形状をカメラ視点から
三次元空間内に投影し、同じ空間内へ地図面上の道路形
状を投影して道路形状の情報を重ね合わせる。画面内の
道路形状と地図の道路形状を三次元空間内に投影した状
況は前述の図8の様になる。
In the road shape existence probability calculating means, the camera coordinate system and the map coordinate system are aligned based on the result of the estimation of the vehicle posture, and the road shape on the screen is projected from the camera viewpoint into a three-dimensional space. The road shape on the map surface is projected into the space, and the road shape information is superimposed. The situation where the road shape in the screen and the road shape in the map are projected in the three-dimensional space is as shown in FIG.

【0099】図18は存在確率の算出方法の一例を示す
グラフである。地図による道路形状を座標点の集合と
し、各座標点での地図の存在確率を、n番目の地図座標
点mn(x,y)を中心とする確率分布Pmn (x,
y)として考える。図18に示すような地図座標点の広
がり範囲にi番目の画素の投影範囲が重なる部分を斜線
部で示す。重なり部分の存在確率は例えば次式(2)で
示される。Pi ( x,y)は、i番目の画素を三次元空
間内に投影した時の座標点(x,y) での存在確率であ
る。
FIG. 18 is a graph showing an example of a method for calculating the existence probability. The road shape by the map as a set of coordinate points, the existence probability map at each coordinate point, n-th map coordinate point m n (x, y) probability around the distribution Pm n (x,
y). The portion where the projection range of the i-th pixel overlaps the spread range of the map coordinate point as shown in FIG. The existence probability of the overlapping portion is expressed, for example, by the following equation (2). P i (x, y) is the existence probability at the coordinate point (x, y) when the i-th pixel is projected into the three-dimensional space.

【0100】[0100]

【数2】 Pn ( x,y) =∬Pmn ( x,y )・Pi(x,y)dxdy …(2) 上記の他にも、積和をとらず重なり領域の最大値を推定
点としても良いし、x軸の中点を推定点としても良い。
[Number 2] P n (x, y) = ∬Pm n (x, y) · Pi (x, y) dxdy ... (2) In addition to the above, estimating the maximum value of the overlap region without taking a sum of products A point may be used, or a middle point of the x-axis may be used as an estimated point.

【0101】適正道路形状抽出手段において、前段で算
出された三次元空間内での道路形状存在確率から、確率
の高い位置を推定点をして抽出する。抽出した推定点を
そのまま三次元道路形状推定点として採用しても良い
し、推定点に対し、いくつかの条件を満たしているか検
定を行い、満たしていない場合は別の推定点を三次元道
路形状の推定点として採用しても良い。
In the appropriate road shape extracting means, a position having a high probability is extracted as an estimated point from the road shape existence probability in the three-dimensional space calculated in the preceding stage. The extracted estimation points may be directly used as three-dimensional road shape estimation points, or a test may be performed on the estimation points to determine whether or not some conditions are satisfied. It may be adopted as a shape estimation point.

【0102】例えば、画面上で滑らかに連続した道路形
状は画面の下ほどカメラに近くなる。推定点を画像面に
投影した時、画面上と地図上での順序関係に矛盾が生じ
るときは、別の推定点を採用することが望ましい。ま
た、隣あう推定点の高さ方向の変化が、一般的な道路で
許容される勾配変化以上となる場合は、別の推定点を採
用することが望ましい。図19に三次元道路形状推定手
段のフローチャートを例示する。
For example, a road shape that is smoothly continuous on the screen becomes closer to the camera as it goes down the screen. When the estimated points are projected on the image plane and there is an inconsistency in the order relationship between the screen and the map, it is desirable to adopt another estimated point. Further, when the change in the height direction of the adjacent estimation point is equal to or larger than the gradient change allowed on a general road, it is desirable to adopt another estimation point. FIG. 19 illustrates a flowchart of the three-dimensional road shape estimating means.

【0103】三次元形状の推定は、推定点をそのまま連
結したものでも良いし、全部、あるいは一部の推定点の
最小二乗近似による多項式でも良い。また、個々の推定
点を直接決定せず、推定する三次元道路形状を曲率等の
パラメータで表現し、これらのパラメータの値を推定す
ることにより三次元道路形状を推定しても良い。即ち、
推定点の決定方法と三次元形状の推定方法については、
特定の方法に限定する必要はなく、公知の数値解析手法
の中から適当な方法を選択することができる。
The three-dimensional shape may be estimated by directly connecting the estimated points or by a polynomial using least square approximation of all or some of the estimated points. Instead of directly determining individual estimation points, the three-dimensional road shape to be estimated may be expressed by parameters such as curvature, and the values of these parameters may be estimated to estimate the three-dimensional road shape. That is,
For details on how to determine the estimation points and how to estimate the three-dimensional shape,
It is not necessary to limit to a specific method, and an appropriate method can be selected from known numerical analysis methods.

【0104】三次元空間内で道路形状を推定すること
で、前方道路が例えば縦断曲率や横断曲率を有して、平
面内での推定では投影誤差が生じるような場合において
も、図20に示す様な投影誤差を排除して形状推定を行
うことができ、高精度な道路形状推定を行うことが可能
になる。
By estimating the road shape in the three-dimensional space, even if the road ahead has, for example, a longitudinal curvature or a transverse curvature, and a projection error occurs in the estimation in a plane, FIG. Shape estimation can be performed while eliminating such projection errors, and highly accurate road shape estimation can be performed.

【0105】図21は道路形状により、不可視領域(死
角領域等)が発生し画像から道路の情報が得られなくな
る状況を示す。この様な道路状況や天候などによって前
方の画像情報が得られない場合、見えている範囲は画像
と地図の両方の情報を用いて推定し、見えていない範囲
(死角領域等)についても、見えている範囲で推定され
た道路形状を延長して推定道路形状とすることができ
る。或いは、更に得られる地図情報を用いて補正を行っ
て推定道路形状としても良いし、実際の道路形状に即し
た道路モデルと照合して補正を行い推定道路形状として
も良い。例えば上記の状況下の様に画像で見えない範囲
(死角領域等)がある場合の形状推定のフローチャート
を図22に例示する。
FIG. 21 shows a situation in which an invisible area (a blind spot area or the like) occurs due to the shape of the road and information on the road cannot be obtained from the image. If the image information ahead cannot be obtained due to such road conditions or weather, the visible range is estimated using both the image and map information. The estimated road shape can be extended by extending the road shape estimated within the range. Alternatively, the estimated road shape may be corrected by using the obtained map information, or may be corrected by referring to a road model that matches the actual road shape. For example, FIG. 22 illustrates a flowchart of shape estimation in a case where there is a range (such as a blind spot area) that cannot be seen in an image as in the above situation.

【0106】以上の様に、画像道路情報と地図道路情報
を用い、三次元道路形状を推定する本発明の道路形状推
定装置を用いれば、画像の投影誤差を排除し、単体で推
定するよりも精度よく道路形状を推定することができ
る。この様な道路形状推定装置は、例えば、先行車両判
定や自動操舵に有用である。また、前方道路の勾配推定
も可能になるため、本発明の道路形状推定装置は、ブレ
ーキやアクセル制御といった速度制御にも有効である。
また、本発明の道路形状推定装置によれば、画像データ
が得られない範囲についても、前方(死角領域等)の道
路形状を推定することが可能になる。
As described above, using the road shape estimating apparatus of the present invention for estimating a three-dimensional road shape using image road information and map road information eliminates the projection error of an image and makes it possible to estimate the shape alone. The road shape can be accurately estimated. Such a road shape estimation device is useful for, for example, preceding vehicle determination and automatic steering. Further, since the gradient of the road ahead can be estimated, the road shape estimation device of the present invention is also effective for speed control such as braking and accelerator control.
Further, according to the road shape estimation device of the present invention, it is possible to estimate a road shape ahead (a blind spot area or the like) even in a range where image data cannot be obtained.

【0107】(第2実施例)本第2実施例の道路形状推
定装置は、前方の道路(又はレーン)のある1平面上に
おける形状を推定するものである。本第2実施例の道路
形状推定装置によれば、画像データから情報が得られて
いない範囲や、画像地図単位の情報では道路形状の推定
精度が十分に確保できない状況においても、必要な精度
で前方の道路形状を推定することができる。
(Second Embodiment) The road shape estimating apparatus according to the second embodiment estimates the shape of a road (or lane) ahead on a plane. According to the road shape estimating apparatus of the second embodiment, even in a range where information is not obtained from the image data or in a situation where the accuracy of estimating the road shape cannot be sufficiently ensured by the information of the image map unit, the required accuracy can be obtained. The road shape ahead can be estimated.

【0108】以下、本第2実施例の道路形状推定装置に
ついて図面を用いて説明する。図23は、本第2実施例
の構成要素の概略を示すものである。道路形状推定装置
は、前方の情報を画像で取得する撮像装置と画像から画
像中の道路形状を取得する道路画像取得手段と、自車両
の位置を取得する手段と自車両位置周辺の地図から地図
上の道路形状を取得する道路地図取得手段とを有し、自
車両の位置姿勢を推定する手段を有する。
Hereinafter, the road shape estimating apparatus according to the second embodiment will be described with reference to the drawings. FIG. 23 schematically shows the components of the second embodiment. The road shape estimating device includes an imaging device that acquires information in front of the vehicle as an image, a road image acquiring unit that acquires a road shape in the image from the image, a unit that acquires the position of the own vehicle, and a map from a map around the own vehicle position. Road map acquisition means for acquiring the upper road shape, and means for estimating the position and orientation of the host vehicle.

【0109】平面内道路形状推定手段では、自車両位置
姿勢推定結果に基づいて道路画像と道路地図を一つの平
面内で重ね合わせ、画像と地図の両方の情報に基づい
て、平面内でのロバストな道路形状の推定を精度良く行
う。撮像装置は、設置高さ、焦点距離、視野角が予め既
知のカメラであり、複数個のカメラを用いても良いが、
画像からは正確な距離情報を必要としないので、基本的
には単一のカメラを用いる。
The in-plane road shape estimating means superimposes the road image and the road map in one plane on the basis of the result of the estimation of the position and orientation of the own vehicle, and provides robustness in the plane based on information of both the image and the map. Accurate road shape estimation. The imaging device is a camera whose installation height, focal length, and viewing angle are known in advance, and a plurality of cameras may be used.
Since a precise distance information is not required from the image, a single camera is basically used.

【0110】自車両の位置の取得はDGPS等の衛星に
よる測位結果を逐次用いても良いし、一旦測位した結果
からジャイロやINSによって推定しても良い。地図デ
ータベースは、ナビゲーション・システム用のデジタル
地図データでも良いし、市販されている数値地図データ
でも良いし、専用に作られたデータベースを用いても良
い。
The position of the host vehicle may be obtained by sequentially using positioning results obtained by satellites such as DGPS, or may be estimated by a gyro or INS from the results of the positioning once. The map database may be digital map data for a navigation system, numerical map data on the market, or a specially created database.

【0111】本第2実施例における道路画像・道路地図
取得手段1の概略は、前述の第1実施例の図15に示し
たものと略同じである。ただし、抽出された道路形状が
投影される論理的な空間は平面(n=2)で構成されて
いるものとする。この道路画像取得手段1は画像中にあ
る道路形状を抽出するものであり、白線や道路端を画像
処理によって抽出する画面内道路形状抽出手段からな
る。この白線抽出の方法には、図15に示す様に前方画
像をモノクロに変換し微分フィルタによって輝度変化を
取得し、輝度変化が大きい部分を白線として抽出を行う
方法等がある。道路地図取得手段1は取得した地図情報
から、自車両が走行する道路端の座標点を道路形状とし
て抽出するものであり、地図面内道路形状抽出手段から
なる。
The outline of the road image / road map obtaining means 1 in the second embodiment is substantially the same as that shown in FIG. 15 of the first embodiment. However, it is assumed that the logical space on which the extracted road shape is projected is constituted by a plane (n = 2). The road image acquiring means 1 is for extracting a road shape in an image, and includes an in-screen road shape extracting means for extracting white lines and road edges by image processing. As a method of extracting the white line, as shown in FIG. 15, there is a method of converting the front image into monochrome, obtaining a luminance change by a differential filter, and extracting a portion where the luminance change is large as a white line. The road map acquisition means 1 extracts, from the acquired map information, the coordinate points of the road edge on which the vehicle runs, as a road shape, and comprises road shape extraction means within a map plane.

【0112】本第2実施例における道路画像・道路地図
取得手段2の概略は、前述の第1実施例の図16に示し
たものと略同じである。ただし、抽出された道路形状が
投影される論理的な空間は平面(n=2)で構成されて
いるものとする。この道路画像取得手段2は上記の画面
内道路形状抽出手段によって抽出された白線等の形状に
基づいて、さら画面内で道路線形を示す形状を推定する
画面内道路形状推定手段からなる。この画面内道路形状
推定の方法には、図16に示す様に抽出した白線を結ぶ
水平線の中点の連続として推定する方法等がある。
The outline of the road image / road map acquisition means 2 in the second embodiment is substantially the same as that shown in FIG. 16 of the first embodiment. However, it is assumed that the logical space onto which the extracted road shape is projected is constituted by a plane (n = 2). The road image obtaining means 2 further comprises an in-screen road shape estimating means for estimating a shape indicating a road alignment in the screen based on the shape of the white line or the like extracted by the in-screen road shape extracting means. As a method of estimating the road shape in the screen, there is a method of estimating as a continuation of the middle point of a horizontal line connecting the extracted white lines as shown in FIG.

【0113】道路地図取得手段2は上記の地図面内道路
形状抽出手段によって抽出された道路端座標値などに基
づいて、更に地図面内で道路線形を示す形状を推定する
地図面内道路形状推定手段からなる。地図面内道路形状
推定の方法は、図16に示す様に道路幅の内分点の連続
として推定する方法等がある。
The road map obtaining means 2 further estimates the shape of the road in the map plane based on the road end coordinate values extracted by the above-described road shape extraction means in the map plane. Consisting of means. As a method of estimating the road shape in the map plane, there is a method of estimating as a continuation of internally dividing points of the road width as shown in FIG.

【0114】道路形状推定に用いる道路画像と道路地図
は、道路端などを抽出した結果をそのまま用いても良い
し、抽出結果から、道路の中央ライン、自車両が走行し
ているレーンの中央ラインや自車両が走行していると予
想されるラインを推定して用いても良い。
As the road image and the road map used for estimating the road shape, the results obtained by extracting the road edges and the like may be used as they are, or from the extraction results, the center line of the road and the center line of the lane in which the vehicle is running. Alternatively, a line on which the host vehicle is expected to travel may be estimated and used.

【0115】図24に平面内道路形状推定手段の概略を
例示する。平面内道路形状推定手段では、道路画像取得
手段で得られる画面上の道路形状と、道路地図取得手段
で得られる地図面上の道路形状から、ある一平面での道
路形状を推定する。道路形状同一平面投影部において、
自車両位置姿勢推定結果に基づいてカメラ座標系と地図
座標系の位置あわせを行い、画面上の道路形状をカメラ
視点からある一平面に対して投影し、同じ平面に対し、
地図面上の道路形状を垂直投影して道路形状の情報を重
ね合わせる。画像面内の道路形状と地図の道路形状を重
ね合わせると、図25の様になる。
FIG. 24 illustrates an outline of the in-plane road shape estimating means. The in-plane road shape estimating means estimates a road shape on a certain plane from the road shape on the screen obtained by the road image obtaining means and the road shape on the map surface obtained by the road map obtaining means. In the road shape coplanar projection part,
Based on the result of the estimation of the position and orientation of the host vehicle, the camera coordinate system and the map coordinate system are aligned, and the road shape on the screen is projected onto a plane from the camera viewpoint.
The road shape on the map plane is vertically projected and the road shape information is superimposed. When the road shape in the image plane is superimposed on the road shape in the map, the result is as shown in FIG.

【0116】前方道路が縦断曲率や横断曲率を有する場
合、第1実施例の図20に示す様に、画像面内の道路形
状に対応する実際の道路位置に対し、平面内の対応位置
は大きくずれる可能性がある。このずれはカメラの中心
から離れるほど大きくなり、実際の形状と全く異なる形
状となる可能性がある。しかし、カメラに近い範囲や、
道路の形状によってはこのずれはさほど大きくない。ま
た、一般的に入手可能な地図の相対的形状精度は1m程
度であり、これはカメラからの位置には依存しない。誤
差の性質を利用して画像による情報と地図による情報を
組み合わせることで、それぞれ単一で推定するよりも精
度よく道路形状を推定することが可能になる。
When the front road has a longitudinal curvature or a transverse curvature, as shown in FIG. 20 of the first embodiment, the corresponding position in the plane is larger than the actual road position corresponding to the road shape in the image plane. May shift. This shift increases as the distance from the center of the camera increases, and the shape may be completely different from the actual shape. However, the range close to the camera,
Depending on the shape of the road, this deviation is not very large. The relative accuracy of a generally available map is about 1 m, which does not depend on the position from the camera. By combining the information based on the image and the information based on the map by using the nature of the error, it becomes possible to estimate the road shape with higher accuracy than the case where the information is individually estimated.

【0117】例えば、図26に示す様に、地図の座標点
とそれに対応する画像の座標点の内分点として推定する
場合、自車両近くは画像寄り、遠くは地図寄りになる様
に内分比(a/(a+b))をカメラからの距離に応じ
て変化させることで、画像と地図の情報を加味した道路
形状を推定することが可能になる。
For example, as shown in FIG. 26, when it is estimated as an internal dividing point between a coordinate point of a map and a coordinate point of an image corresponding to the map, an internal dividing point is set such that an image is closer to the vehicle and closer to the map as far away. By changing the ratio (a / (a + b)) according to the distance from the camera, it becomes possible to estimate a road shape in consideration of image and map information.

【0118】即ち、例えば本図26に示す様、画像の座
標点(第1形状候補)の信頼度をR1、地図の座標点
(第2形状候補)の信頼度をR2と仮定した場合、次式
(3)が成り立つ様に、推定座標点を決定することがで
きる。
That is, assuming that the reliability of the coordinate point of the image (first shape candidate) is R1 and the reliability of the coordinate point of the map (second shape candidate) is R2, as shown in FIG. The estimated coordinate point can be determined so that the equation (3) holds.

【数3】 a/(a+b)=R2/(R1+R2) …(3)A / (a + b) = R2 / (R1 + R2) (3)

【0119】図26に示す推定の流れを図27に示す。
内分点を連結して道路形状としても良いし、途中までの
推定結果をもとに予測した形状と、画像と地図の情報か
ら逐次補正を行って道路形状としても良いし、また、実
際の道路形状に即した道路モデルと照合し補正を行って
道路形状としても良い。
FIG. 27 shows a flow of the estimation shown in FIG.
The interior shape points may be connected to form a road shape, or the shape predicted based on the estimation results up to the middle and the road shape may be sequentially corrected from the information of the image and the map to obtain the actual road shape. The road shape may be corrected by comparing with a road model adapted to the road shape.

【0120】例えば、前述の図21にも示した様に、道
路形状により、不可視領域が発生し画像から道路の情報
が得られなくなる状況が発生する場合がある。しかしな
がら、本道路形状推定装置によれば、この様な状況にお
いても、見えている範囲は図26の様に画像と地図の両
方の情報を用いて推定し、見えていない範囲について
も、見えている範囲で推定された道路形状から先の道路
形状を推定して、推定道路形状として出力することがで
きる。
For example, as shown in FIG. 21 described above, there may be a situation where an invisible area is generated due to the shape of the road and information on the road cannot be obtained from the image. However, according to the present road shape estimation device, even in such a situation, the visible range is estimated using information of both the image and the map as shown in FIG. It is possible to estimate the preceding road shape from the road shape estimated within the range, and output the estimated road shape as the estimated road shape.

【0121】また、更に、前述の図22にも示した様
に、得られる地図情報を用いて補正を行って推定道路形
状としても良い。ただし、このときの抽出された道路形
状の投影先の論理空間の次元数nは、2とする。また、
実際の道路形状に即した道路モデルと照合して補正を行
い推定道路形状としても良い。
Further, as shown in FIG. 22, the estimated road shape may be corrected by using the obtained map information. However, the dimension number n of the logical space to which the extracted road shape is projected is set to two. Also,
The estimated road shape may be obtained by performing correction by collating with a road model that matches the actual road shape.

【0122】以上の様に、撮像装置(カメラ)が単眼の
場合でも、画像道路情報と地図道路情報を用いること
で、単体(どちらか一方の情報)で道路形状を推定した
場合よりも、精度よく道路形状を推定することができる
様になる。また、前方の縦断曲率等により画像の情報が
得られない範囲についても、本発明によれば比較的高精
度に道路形状を推定することが可能になる。
As described above, even when the imaging device (camera) is a single eye, the accuracy of the road shape is estimated by using the image road information and the map road information as compared with the case of estimating the road shape by itself (either information). The road shape can be estimated well. Also, according to the present invention, it is possible to estimate a road shape with relatively high accuracy in a range where image information cannot be obtained due to a longitudinal curvature in front of the vehicle.

【0123】(第3実施例)本第3実施例の道路形状推
定装置は、撮像装置の画像データとレーダのレーダ信号
から、車両前方の物体(或いは路面)の高さを推定し、
抽出された道路形状(第1形状候補、又は第2形状候
補)と車両前方の物体(或いは路面)の高さを用いて、
前方道路の3次元形状を推定するものである。本第3実
施例の道路形状推定装置によれば、レーダのレーダ信号
から抽出される物体の並び具合から道路線形を推定し、
この推定された道路線形と上記の道路形状(第1形状候
補、又は第2形状候補)に基づいて道路形状推定処理を
行うことにより、前方道路の3次元形状を高精度に推定
することも可能である。
(Third Embodiment) The road shape estimating apparatus according to the third embodiment estimates the height of an object (or a road surface) ahead of a vehicle from image data of an imaging device and radar signals of a radar.
Using the extracted road shape (first shape candidate or second shape candidate) and the height of the object (or road surface) ahead of the vehicle,
The three-dimensional shape of the road ahead is estimated. According to the road shape estimation device of the third embodiment, the road alignment is estimated from the arrangement of the objects extracted from the radar signal of the radar,
By performing a road shape estimation process based on the estimated road alignment and the above-described road shape (the first shape candidate or the second shape candidate), it is also possible to highly accurately estimate the three-dimensional shape of the road ahead. It is.

【0124】以下、本第3実施例における、道路形状推
定装置について図面を用いて説明する。図28は本発明
の構成要素の概略を示すものである。図28において、
道路形状推定装置は、前方道路を画像で取得する撮像装
置と、前方物体を検出するレーダ装置を有する。
Hereinafter, the road shape estimating apparatus in the third embodiment will be described with reference to the drawings. FIG. 28 schematically shows the components of the present invention. In FIG. 28,
The road shape estimating device includes an imaging device that acquires a road ahead as an image and a radar device that detects an object ahead.

【0125】撮像装置によって取得した画像から画像処
理によって画像面内の道路形状を抽出する手段と、画像
面内の物体を検出する手段を有し、取得したレーダの信
号から物体までの距離を検出する物体検出手段とを有す
る。更に、レーダの物体距離検出結果と画像の物体検出
結果から、対応する物体に対してその高さを推定する物
体高さ推定手段と、物体の高さから物体存在位置での道
路面の高さを推定する道路面高さ推定手段を有する。ま
た、推定した道路面高さと画像面内の道路形状抽出結果
から道路の三次元形状を推定する道路形状推定手段を有
する。
It has means for extracting a road shape in the image plane by image processing from an image obtained by the imaging device, and means for detecting an object in the image plane, and detects the distance to the object from the acquired radar signal. And an object detecting means. Further, an object height estimating means for estimating the height of the corresponding object from the object distance detection result of the radar and the object detection result of the image, and the height of the road surface at the object existence position from the object height Has a road surface height estimating means for estimating the road surface height. In addition, there is provided road shape estimating means for estimating the three-dimensional shape of the road from the estimated road surface height and the result of extracting the road shape in the image plane.

【0126】画像からは正確な距離情報を必要としない
ため、撮像装置は、基本的には単一のカメラにより構成
される。図31、図32は、物体位置推定手段の概略を
示すものである。画像面内の物体検出手段によって検出
された物体の画像面内での範囲をカメラ視点から三次元
空間内に投影し、物体が存在する可能性のある領域を得
る。
Since accurate distance information is not required from the image, the imaging device is basically constituted by a single camera. FIG. 31 and FIG. 32 schematically show the object position estimating means. A range in the image plane of the object detected by the object detection means in the image plane is projected into a three-dimensional space from a camera viewpoint to obtain a region where the object may exist.

【0127】レーダによる物体距離検出手段によって検
出された水平面内での物体位置を三次元空間内に投影
し、物体が存在する可能性のある領域を得る。双方の領
域が重なる部分を求めることで、物体が存在する三次元
位置を推定することが可能になる。この時、双方の領域
が重なる部分が一意に定まらない場合は、複数の可能性
を考える。
The object position in the horizontal plane detected by the object distance detecting means by the radar is projected into a three-dimensional space to obtain a region where the object may exist. By obtaining a portion where both regions overlap, it becomes possible to estimate the three-dimensional position where the object exists. At this time, when a portion where both regions overlap is not uniquely determined, a plurality of possibilities are considered.

【0128】道路面高さ推定手段では、物体が道路面上
に接して存在すると判断される時は物体位置の下端を道
路面と考え、道路面の高さを推定する。図33、図34
は、道路形状推定手段の概略を示すものである。図33
に示す様に、前方道路にバンクがない場合、レーダと画
像によって推定された物体の三次元存在可能性位置での
道路面高さを示す水平線を三次元空間内に引く。三次元
空間での道路面高さを示す水平線と、カメラの位置関係
から、三次元空間内の高さを示す水平線に対応する画像
面内での直線を推定することができる。
When it is determined that the object is present on the road surface, the road surface height estimating means estimates the height of the road surface by considering the lower end of the object position as the road surface. FIG. 33, FIG.
Shows an outline of the road shape estimating means. FIG.
As shown in (2), when there is no bank on the road ahead, a horizontal line indicating the road surface height at the three-dimensional existence possibility position of the object estimated by the radar and the image is drawn in the three-dimensional space. From the horizontal line indicating the height of the road surface in the three-dimensional space and the positional relationship of the camera, it is possible to estimate a straight line in the image plane corresponding to the horizontal line indicating the height in the three-dimensional space.

【0129】三次元空間における物体存在位置での高さ
に対応する画像中の直線と、抽出した画像中の道路形状
との交点を探索することで、三次元空間における物体存
在位置での道路形状に対応する点を画像中で求めること
ができる。対応点をカメラ視点から三次元空間に投影
し、道路面高さを示す水平線と重なる部分が、道路形状
の三次元位置となる。三次元位置を推定できる点が複数
個ある場合は、それらを連結して三次元道路形状を推定
できる。また、一点しか推定できない場合でも、勾配は
一定、なだらかに変化する等の条件を用いることで、道
路の三次元形状を推定することが可能になる。
By searching for an intersection between a straight line in the image corresponding to the height at the object position in the three-dimensional space and the road shape in the extracted image, the road shape at the object position in the three-dimensional space is obtained. Can be determined in the image. The corresponding point is projected from a camera viewpoint to a three-dimensional space, and a portion overlapping with a horizontal line indicating a road surface height is a three-dimensional position of the road shape. When there are a plurality of points whose three-dimensional positions can be estimated, the three-dimensional road shape can be estimated by connecting them. Even when only one point can be estimated, the three-dimensional shape of the road can be estimated by using conditions such as a constant gradient and a gentle change.

【0130】画像面内で抽出された道路形状のみで実際
の道路形状推定を行う場合、前方道路が縦断曲率や横断
曲率を有する場合、実際の道路位置と水平面上投影位置
とに大きな誤差が生じる可能性がある。実際の道路面高
さを推定し、正しい高さで道路形状を推定することで、
道路の三次元形状を推定することが可能になり、誤差を
軽減することができる。
When the actual road shape is estimated only with the road shape extracted in the image plane, when the road ahead has a longitudinal curvature or a transverse curvature, a large error occurs between the actual road position and the projected position on the horizontal plane. there is a possibility. By estimating the actual road surface height and estimating the road shape at the correct height,
The three-dimensional shape of the road can be estimated, and errors can be reduced.

【0131】また、図29と図30はレーダを用いて道
路線形を推定し、画像から得た道路形状、あるいは、地
図から得た道路形状と合わせて、道路形状を推定する装
置の概略を示すものである。レーダによる道路線形推定
を行うことで、外部環境条件が悪く、画像データから道
路形状が得られない場合や、或いは連続的にGPS受信
状態が悪く、地図から道路形状が得られない場合におい
ても、精度は劣化するもののロバストに道路形状推定を
続けることが可能になる。
FIGS. 29 and 30 show an outline of an apparatus for estimating a road shape using a radar and estimating a road shape in combination with a road shape obtained from an image or a road shape obtained from a map. Things. By performing road linear estimation by radar, even when the external environmental conditions are poor and the road shape cannot be obtained from the image data, or when the GPS reception state is continuously poor and the road shape cannot be obtained from the map, Although the accuracy is deteriorated, it is possible to continue the estimation of the road shape robustly.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の道路形状推定装置の基本的な構成例を
示す論理的構成図。
FIG. 1 is a logical configuration diagram showing a basic configuration example of a road shape estimation device of the present invention.

【図2】本発明の道路形状推定装置のその他の代表的な
構成例を示す論理的構成図。
FIG. 2 is a logical configuration diagram showing another typical configuration example of the road shape estimation device of the present invention.

【図3】本発明の道路形状推定装置のその他の代表的な
構成例を示す論理的構成図。
FIG. 3 is a logical configuration diagram showing another typical configuration example of the road shape estimation device of the present invention.

【図4】レーダを搭載した本発明の道路形状推定装置の
基本的な構成例を示す論理的構成図。
FIG. 4 is a logical configuration diagram showing a basic configuration example of a road shape estimation device of the present invention equipped with a radar.

【図5】本発明の道路形状推定装置の画像道路形状抽出
手段を例示するデータフロー図。
FIG. 5 is a data flow diagram illustrating an image road shape extraction unit of the road shape estimation device of the present invention.

【図6】本発明の道路形状推定装置の地図道路形状抽出
手段を例示するデータフロー図。
FIG. 6 is a data flow diagram illustrating a map road shape extraction unit of the road shape estimation device of the present invention.

【図7】本発明の道路形状推定装置の画像道路形状と地
図道路形状の座標系を例示する3次元イメージ図。
FIG. 7 is a three-dimensional image diagram illustrating a coordinate system of an image road shape and a map road shape of the road shape estimation device of the present invention.

【図8】本発明の道路形状推定装置の照合手段におけ
る、画像道路形状による候補領域と、地図道路形状によ
る候補領域を含んだ3次元論理空間のイメージ図。
FIG. 8 is an image diagram of a three-dimensional logical space including a candidate region based on an image road shape and a candidate region based on a map road shape in a matching unit of the road shape estimation device of the present invention.

【図9】本発明の道路形状推定装置の照合手段におけ
る、照合度Cを最適化するパラメータ群の決定手順を例
示するフローチャート。
FIG. 9 is a flowchart illustrating an example of a procedure for determining a parameter group for optimizing a matching degree C in the matching unit of the road shape estimation device of the present invention.

【図10】自車両姿勢推定手段を有する本発明の道路形
状推定装置の基本的な構成例を示す論理的構成図。
FIG. 10 is a logical configuration diagram showing a basic configuration example of a road shape estimating device of the present invention having a host vehicle posture estimating means.

【図11】自車両位置推定手段を有する本発明の道路形
状推定装置の基本的な構成例を示す論理的構成図。
FIG. 11 is a logical configuration diagram showing a basic configuration example of a road shape estimation device of the present invention having own vehicle position estimation means.

【図12】道路形状モデル照合手段を有する本発明の道
路形状推定装置の基本的な構成例を示す論理的構成図。
FIG. 12 is a logical configuration diagram showing a basic configuration example of a road shape estimating device of the present invention having a road shape model matching unit.

【図13】本発明の道路形状推定装置の自車両の道路面
に対する姿勢を推定する方法を例示する説明図。
FIG. 13 is an explanatory diagram exemplifying a method of estimating a posture of a host vehicle with respect to a road surface by the road shape estimating device of the present invention.

【図14】第1実施例の適正道路形状抽出手段を有する
道路形状推定装置の基本的な構成を示す論理的構成図。
FIG. 14 is a logical configuration diagram showing a basic configuration of a road shape estimating device having an appropriate road shape extraction unit of the first embodiment.

【図15】第1実施例の道路画像・道路地図取得手段1
の基本的な構成を示すデータフロー図。
FIG. 15 is a road image / road map acquisition unit 1 of the first embodiment.
FIG. 3 is a data flow diagram showing a basic configuration of the embodiment.

【図16】第1実施例の道路画像・道路地図取得手段2
の基本的な構成を示すデータフロー図。
FIG. 16 shows a road image / road map acquisition unit 2 according to the first embodiment.
FIG. 3 is a data flow diagram showing a basic configuration of the embodiment.

【図17】第1実施例の適正道路形状抽出手段を有する
3次元道路形状推定手段の基本的な構成を示す論理的構
成図。
FIG. 17 is a logical configuration diagram showing a basic configuration of a three-dimensional road shape estimating unit having an appropriate road shape extracting unit of the first embodiment.

【図18】第1実施例の存在確率の算出方法の一例を示
すグラフ。
FIG. 18 is a graph showing an example of a method for calculating the existence probability according to the first embodiment.

【図19】第1実施例の三次元道路形状推定手段の情報
処理手順を例示するフローチャート。
FIG. 19 is a flowchart illustrating an information processing procedure of a three-dimensional road shape estimating unit of the first embodiment.

【図20】第1実施例の道路形状投影誤差が生じる状況
を説明する、前方道路の垂直断面図(a)と水平面図
(b)。
FIG. 20 is a vertical sectional view (a) and a horizontal plane view (b) of a front road, illustrating a situation where a road shape projection error occurs in the first embodiment.

【図21】第1実施例の不可視領域が生じる状況を説明
する、前方道路の垂直断面図。
FIG. 21 is a vertical cross-sectional view of a front road, illustrating a situation where an invisible area occurs in the first embodiment.

【図22】第1実施例の見えない領域の道路形状を推定
する基本的な情報処理手順を例示するフローチャート。
FIG. 22 is a flowchart illustrating a basic information processing procedure for estimating a road shape in an invisible area according to the first embodiment;

【図23】第2実施例の平面内道路形状推定手段を有す
る道路形状推定装置の基本的な構成を示す論理的構成
図。
FIG. 23 is a logical configuration diagram showing a basic configuration of a road shape estimating device having an in-plane road shape estimating means of the second embodiment.

【図24】第2実施例の平面内道路形状推定手段の基本
的な構成を示す論理的構成図。
FIG. 24 is a logical configuration diagram showing a basic configuration of an in-plane road shape estimating means of the second embodiment.

【図25】第2実施例の座標加重平均演算により内分点
を算出する内分点算出手段の概要を説明する平面図。
FIG. 25 is a plan view for explaining an outline of an internally dividing point calculating means for calculating an internally dividing point by a coordinate weighted average calculation of the second embodiment.

【図26】第2実施例の内分点を算出する内分点算出手
段の演算方法を例示する平面内道路形状の拡大図。
FIG. 26 is an enlarged view of a road shape in a plane illustrating an arithmetic method of an internal dividing point calculating means for calculating an internal dividing point according to the second embodiment.

【図27】第2実施例の平面内道路形状推定手段の基本
的な情報処理手順を例示するフローチャート。
FIG. 27 is a flowchart illustrating a basic information processing procedure of an in-plane road shape estimation unit according to the second embodiment;

【図28】第3実施例の、レーダを搭載した本発明の道
路形状推定装置の基本的な構成例を示す論理的構成図
(全体構成1)。
FIG. 28 is a logical configuration diagram (general configuration 1) showing a basic configuration example of a road shape estimation device of the present invention equipped with radar according to the third embodiment;

【図29】第3実施例の、レーダを搭載した本発明の道
路形状推定装置の基本的な構成例を示す論理的構成図
(全体構成2)。
FIG. 29 is a logical configuration diagram (overall configuration 2) showing a basic configuration example of a road shape estimation device according to the third embodiment of the present invention equipped with radar.

【図30】第3実施例の、レーダを搭載した本発明の道
路形状推定装置の基本的な構成例を示す論理的構成図
(全体構成3)。
FIG. 30 is a logical configuration diagram (general configuration 3) showing a basic configuration example of the road shape estimation device of the third embodiment, which is equipped with a radar, of the present invention;

【図31】第3実施例の道路形状推定装置の概要を説明
する平面図。
FIG. 31 is a plan view illustrating the outline of a road shape estimation device according to a third embodiment;

【図32】第3実施例の物体位置推定手段の情報処理イ
メージを例示する論理的空間の斜視図。
FIG. 32 is a perspective view of a logical space illustrating an information processing image of the object position estimating means of the third embodiment.

【図33】第3実施例の道路形状推定手段の情報処理イ
メージを例示する論理的空間の斜視図。
FIG. 33 is a perspective view of a logical space illustrating an information processing image of the road shape estimating means of the third embodiment.

【図34】第3実施例の推定装置1の道路形状推定方法
の情報処理手順を例示するフローチャート。
FIG. 34 is a flowchart illustrating an information processing procedure of a road shape estimation method of the estimation device 1 of the third embodiment.

【符号の説明】[Explanation of symbols]

C … 照合度 (Xc,Yc,Zc) … カメラ座標 (Xm,Ym,Zm) … 地図座標 (Ximage ,Yimage ) … 画像座標 f … 撮像装置の焦点距離 θ … ピッチ角 φ … ヨー角 α … 拡大比 (d,L,h) … 地図座標系でのカメラ座標原点O
mの座標 Oc … カメラ視点(カメラ座標系の原点) (α,d,L,φ,θ) … 照合度Cの最適化パラメ
ータ群 2W … 車線幅
C: Degree of collation (Xc, Yc, Zc): Camera coordinates (Xm, Ym, Zm): Map coordinates (Ximage, Yimage): Image coordinates f: Focal length of imaging device θ: Pitch angle φ: Yaw angle α: Enlarge Ratio (d, L, h) ... origin of camera coordinates O in map coordinate system
m coordinates Oc: camera viewpoint (origin of camera coordinate system) (α, d, L, φ, θ): optimization parameter group 2W for matching degree C: lane width

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 11/60 300 G09B 29/10 A 5J070 G08G 1/16 G01B 11/24 K 5J084 G09B 29/10 G01S 17/88 A Fターム(参考) 2C032 HB05 HB22 HC01 HC05 HC08 HC23 HD03 2F065 AA14 AA56 BB05 BB27 CC40 DD00 FF01 FF04 FF64 FF65 FF67 JJ03 JJ05 JJ26 MM06 QQ00 QQ32 QQ38 QQ45 RR06 SS13 UU05 5B050 AA01 BA09 BA11 EA07 EA19 EA28 FA02 5B057 AA06 CA13 CB13 DB03 5H180 AA01 CC04 CC12 CC14 FF05 5J070 AC01 AC02 AE01 AF03 AK22 BD08 BF19 5J084 AA02 AA05 AB20 AC02 DA01 EA40 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 11/60 300 G09B 29/10 A 5J070 G08G 1/16 G01B 11/24 K 5J084 G09B 29/10 G01S 17 / 88 A F term (for reference) 2C032 HB05 HB22 HC01 HC05 HC08 HC23 HD03 2F065 AA14 AA56 BB05 BB27 CC40 DD00 FF01 FF04 FF64 FF65 FF67 JJ03 JJ05 JJ26 MM06 QQ00 QQ32 QQ38 QQ45 RR06 SS10 A07 A07 A07 A05 A07 A07 A05 A CB13 DB03 5H180 AA01 CC04 CC12 CC14 FF05 5J070 AC01 AC02 AE01 AF03 AK22 BD08 BF19 5J084 AA02 AA05 AB20 AC02 DA01 EA40

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 自車両の前景を画像データとして取得す
る撮像装置を有し、前記自車両が走行中又は走行すると
予想される道路の形状を推定する車載用の道路形状推定
装置であって、 前記道路の第1形状候補を前記画像データから抽出する
画像道路形状抽出手段と、 前記自車両の周辺の地図データを取得する地図データ取
得手段と、 前記道路の第2形状候補を前記地図データから抽出する
地図道路形状抽出手段と、 前記第1形状候補と前記第2形状候補とを3次元又は2
次元で構成された一つの論理的空間に投影し、この投影
された双方の道路形状の前記論理的空間における重なり
状態に基づいて、 前記道路の形状、 前記道路の路面に対する前記自車両の姿勢、又は、 前記道路に対する前記自車両の絶対位置を推定する道路
形状推定手段とを有することを特徴とする道路形状推定
装置。
1. An on-vehicle road shape estimating device having an imaging device for acquiring a foreground of an own vehicle as image data and estimating a shape of a road on which the own vehicle is running or expected to run, An image road shape extraction unit for extracting a first shape candidate of the road from the image data; a map data acquisition unit for acquiring map data around the own vehicle; and a second shape candidate of the road from the map data. Map road shape extracting means to be extracted; three-dimensional or two-dimensional
Projecting onto one logical space composed of two dimensions, based on the overlapping state of the two road shapes projected in the logical space, the shape of the road, the attitude of the host vehicle with respect to the road surface of the road, A road shape estimating device comprising: a road shape estimating unit configured to estimate an absolute position of the vehicle with respect to the road.
【請求項2】 前記道路形状推定手段は、 前記路面に対する前記自車両の姿勢を予め推定する自車
両姿勢推定手段、又は、前記道路に対する前記自車両の
絶対位置を予め推定する自車両位置推定手段、を有する
ことを特徴とする請求項1に記載の道路形状推定装置。
2. The self-vehicle posture estimating means for preliminarily estimating the posture of the self-vehicle with respect to the road surface, or the self-vehicle position estimating means for presuming an absolute position of the self-vehicle with respect to the road. The road shape estimating device according to claim 1, comprising:
【請求項3】 前記道路形状推定手段は、 前記第1形状候補と前記第2形状候補との互いに対応す
べき各点毎に、前記重なり状態を確率的に評価する照合
手段を有することを特徴とする請求項1又は請求項2に
記載の道路形状推定装置。
3. The road shape estimating means includes a matching means for stochastically evaluating the overlapping state for each point of the first shape candidate and the second shape candidate that should correspond to each other. The road shape estimation device according to claim 1 or 2, wherein
【請求項4】 前記道路形状推定手段は、 前記第1形状候補の信頼度R1と前記第2形状候補の信
頼度R2とを、前記第1形状候補と前記第2形状候補と
の互いに対応すべき各点毎に、算出する信頼度算出手段
と、 前記信頼度R1、R2に基づいて、前記各点毎にその2
点間の内分点を座標加重平均演算により算出する内分点
算出手段とを有することを特徴とする請求項1乃至請求
項3の何れか1項に記載の道路形状推定装置。
4. The road shape estimating means associates the reliability R1 of the first shape candidate and the reliability R2 of the second shape candidate with each other between the first shape candidate and the second shape candidate. A reliability calculation means for calculating each power point, and a reliability calculation means for each point based on the reliability R1 and R2.
The road shape estimating device according to any one of claims 1 to 3, further comprising an internal dividing point calculating means for calculating an internal dividing point between the points by a coordinate weighted average calculation.
【請求項5】 前記道路形状推定手段により推定された
前記道路の形状を構成する各代表点間の位置関係におけ
る矛盾を所定の物理的制約条件に基づいて排除すること
により、適正な道路形状を抽出する適正道路形状抽出手
段を有することを特徴とする請求項1乃至請求項4の何
れか1項に記載の道路形状推定装置。
5. An appropriate road shape is eliminated by eliminating inconsistencies in the positional relationship between respective representative points constituting the shape of the road estimated by the road shape estimating means based on predetermined physical constraints. The road shape estimating device according to any one of claims 1 to 4, further comprising an appropriate road shape extracting means for extracting the road shape.
【請求項6】 前記道路形状推定手段は、 前記撮像装置のカメラ視点を投影中心として、前記第1
形状候補を前記論理的空間に投影する投影手段を有し、 前記自車両の位置と姿勢に基づいてカメラ座標系と地図
座標系との位置合わせを行うことを特徴とする請求項1
乃至請求項5の何れか1項に記載の道路形状推定装置。
6. The method according to claim 1, wherein the road shape estimating unit sets the first viewpoint based on a camera viewpoint of the imaging device as a projection center.
2. The image processing apparatus according to claim 1, further comprising a projection unit configured to project a shape candidate into the logical space, and performing positioning between a camera coordinate system and a map coordinate system based on the position and orientation of the host vehicle.
The road shape estimation device according to any one of claims 1 to 5.
【請求項7】 前記道路形状推定手段の推定結果、及
び、前記第2形状候補に基づいて、前記撮像装置の死角
領域における前記道路の形状を推定する推定領域拡張手
段を有することを特徴とする請求項1乃至請求項6の何
れか1項に記載の道路形状推定装置。
7. An estimating area extending means for estimating a shape of the road in a blind spot area of the imaging device based on an estimation result of the road shape estimating means and the second shape candidate. The road shape estimation device according to any one of claims 1 to 6.
【請求項8】 自車両の前方を探査してレーダ信号を取
得するレーダを有し、前記自車両が走行中又は走行する
と予想される道路の形状を推定する車載用の道路形状推
定装置であって、 前記レーダ信号より前記自車両の前方の物体の位置を検
出し、 前記物体の並びに基づいて、前記道路の道路線形を推定
する道路線形推定手段を有し、 「前記自車両の前景を画像データとして取得する撮像装
置と、前記道路の第1形状候補を前記画像データから抽
出する画像道路形状抽出手段」、又は、 「前記自車両の周辺の地図データを取得する地図データ
取得手段と、前記道路の第2形状候補を前記地図データ
から抽出する地図道路形状抽出手段」の少なくとも何れ
か一方を有し、 前記第1形状候補又は前記第2形状候補と、前記道路線
形とを3次元又は2次元で構成された一つの論理的空間
に投影し、この投影された道路形状と前記道路線形との
前記論理的空間における重なり状態に基づいて、前記論
理的空間における前記道路の形状を推定する道路形状推
定手段を有することを特徴とする道路形状推定装置。
8. An on-vehicle road shape estimating apparatus, comprising: a radar for searching ahead of a host vehicle to obtain a radar signal, and estimating a road shape on which the host vehicle is running or expected to run. And detecting a position of an object ahead of the own vehicle from the radar signal, and estimating a road alignment of the road based on the arrangement of the objects. An image capturing device that acquires the data as data, an image road shape extracting unit that extracts the first shape candidate of the road from the image data, or “a map data acquiring unit that acquires map data around the own vehicle, A map road shape extracting means for extracting a second shape candidate of the road from the map data ", and the first shape candidate or the second shape candidate and the road shape are three-dimensionally or Projecting onto one two-dimensional logical space, and estimating the shape of the road in the logical space based on the overlapping state of the projected road shape and the road alignment in the logical space. A road shape estimating device comprising a road shape estimating means.
【請求項9】 自車両の前景を画像データとして取得す
る撮像装置と、前記自車両の前方を探査してレーダ信号
を取得するレーダを有し、前記自車両が走行中又は走行
すると予想される道路の形状を推定する車載用の道路形
状推定装置であって、 前記道路の第1形状候補を前記画像データから抽出する
画像道路形状抽出手段と、 前記レーダ信号より前記自車両の前方の物体までの距離
を推定する物体距離推定手段と、 前記物体までの距離に基づいて、前記画像データから前
記道路の路面高さを推定する道路面高さ推定手段と、 前記第1形状候補と前記道路の路面高さとに基づいて、
前記道路の三次元形状を推定する道路形状推定手段とを
有することを特徴とする道路形状推定装置。
9. An image pickup apparatus for acquiring a foreground of a host vehicle as image data, and a radar for searching a front of the host vehicle to obtain a radar signal, wherein the host vehicle is running or expected to run. An on-vehicle road shape estimating device for estimating the shape of a road, comprising: an image road shape extraction unit configured to extract a first shape candidate of the road from the image data; and from the radar signal to an object in front of the host vehicle. Object distance estimating means for estimating the distance of the road; road surface height estimating means for estimating the road surface height of the road from the image data based on the distance to the object; Based on the road height and
And a road shape estimating means for estimating a three-dimensional shape of the road.
JP2000148687A 2000-05-19 2000-05-19 Road shape estimating device Pending JP2001331787A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000148687A JP2001331787A (en) 2000-05-19 2000-05-19 Road shape estimating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000148687A JP2001331787A (en) 2000-05-19 2000-05-19 Road shape estimating device

Publications (1)

Publication Number Publication Date
JP2001331787A true JP2001331787A (en) 2001-11-30

Family

ID=18654672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000148687A Pending JP2001331787A (en) 2000-05-19 2000-05-19 Road shape estimating device

Country Status (1)

Country Link
JP (1) JP2001331787A (en)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004048895A1 (en) * 2002-11-22 2004-06-10 Kumamoto Technology & Industry Foundation Moving body navigate information display method and moving body navigate information display device
JP2006119090A (en) * 2004-10-25 2006-05-11 Mitsubishi Electric Corp Navigation device
JP2006250917A (en) * 2005-02-14 2006-09-21 Kazuo Iwane High-precision cv arithmetic unit, and cv-system three-dimensional map forming device and cv-system navigation device provided with the high-precision cv arithmetic unit
JP2007218705A (en) * 2006-02-15 2007-08-30 Mitsubishi Electric Corp White line model measurement system, measuring truck, and white line model measuring device
JP2007232408A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Apparatus and method for estimating shape of structure and obstacle detection apparatus
JP2008003253A (en) * 2006-06-21 2008-01-10 Toyota Motor Corp Road shape acquisition device
WO2009087716A1 (en) * 2008-01-07 2009-07-16 Panasonic Corporation Image transformation method, image display method, image transformation apparatus and image display apparatus
JP2010107224A (en) * 2008-10-28 2010-05-13 Mitsubishi Electric Corp Position determining apparatus and apparatus for detecting changed building
WO2010061773A1 (en) * 2008-11-28 2010-06-03 日立オートモティブシステムズ株式会社 Camera device
US7848886B2 (en) 2003-05-30 2010-12-07 Toyota Jidosha Kabushiki Kaisha Collision prediction apparatus
WO2011013586A1 (en) * 2009-07-29 2011-02-03 日立オートモティブシステムズ株式会社 Road shape recognition device
US8195386B2 (en) 2004-09-28 2012-06-05 National University Corporation Kumamoto University Movable-body navigation information display method and movable-body navigation information display unit
WO2013030932A1 (en) * 2011-08-29 2013-03-07 パイオニア株式会社 Navigation device, image display device, server, adjustment device, and forward image display method
WO2014076769A1 (en) * 2012-11-13 2014-05-22 株式会社東芝 Detection device, method, and program
JP2015005298A (en) * 2008-01-15 2015-01-08 グーグル インコーポレイテッド Three-dimensional annotations for street view data
JP2015045622A (en) * 2013-08-29 2015-03-12 株式会社デンソー Road feature recognition method, road feature recognition apparatus, program, and recording medium
JPWO2013030932A1 (en) * 2011-08-29 2015-03-23 パイオニア株式会社 Navigation device, image display control device, server, adjustment device, and front image display control method
US9081383B1 (en) * 2014-01-22 2015-07-14 Google Inc. Enhancing basic roadway-intersection models using high intensity image data
JP2015534152A (en) * 2012-08-27 2015-11-26 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Method for recognizing lane transitions for vehicles
KR20160057174A (en) * 2014-11-13 2016-05-23 한국건설기술연구원 Measuring Method of Standard Road Width using Laser Scanner and Image
JP2016149132A (en) * 2015-02-12 2016-08-18 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH System and method for prediction in driver assist system of vehicle
US20170015317A1 (en) * 2015-07-13 2017-01-19 Cruise Automation, Inc. Method for image-based vehicle localization
JP2017033366A (en) * 2015-08-04 2017-02-09 日産自動車株式会社 Road boundary detector, self-position estimation device, and road boundary detecting method
JP2018021777A (en) * 2016-08-02 2018-02-08 トヨタ自動車株式会社 Own vehicle position estimation device
JP2018026058A (en) * 2016-08-12 2018-02-15 パナソニックIpマネジメント株式会社 Road surface estimation device, vehicle controller, road surface estimation method, and program
JP2018041315A (en) * 2016-09-08 2018-03-15 株式会社デンソー Road end detection device
JP2018084960A (en) * 2016-11-24 2018-05-31 日産自動車株式会社 Self-position estimation method and self-position estimation device
JP2018128906A (en) * 2017-02-09 2018-08-16 本田技研工業株式会社 Vehicle control device
US20190033082A1 (en) * 2015-08-28 2019-01-31 Nissan Motor Co., Ltd. Vehicle Position Estimation Device, Vehicle Position Estimation Method
JP2019074458A (en) * 2017-10-18 2019-05-16 株式会社東芝 Information processor, learned model, method for processing information, and program
CN109839636A (en) * 2017-11-24 2019-06-04 丰田自动车株式会社 Object identification device
JP2019090774A (en) * 2017-11-17 2019-06-13 富士通株式会社 Distance measuring device, distance measuring method, and distance measuring program
WO2019221349A1 (en) * 2018-05-17 2019-11-21 에스케이텔레콤 주식회사 Device and method for calibrating camera for vehicle
JP2020003400A (en) * 2018-06-29 2020-01-09 国立大学法人金沢大学 Lateral position estimating device and lateral position estimating method
WO2020021842A1 (en) * 2018-07-25 2020-01-30 株式会社デンソー Vehicle display control device, vehicle display control method, control program, and persistent tangible computer-readable medium
JP2020523660A (en) * 2017-06-14 2020-08-06 モービルアイ ビジョン テクノロジーズ リミテッド Combining a framework of driving information for autonomous driving with batch adjustment
CN111824163A (en) * 2019-04-16 2020-10-27 标致雪铁龙汽车股份有限公司 Method and device for determining a curve of a road
CN113034586A (en) * 2021-04-27 2021-06-25 北京邮电大学 Road inclination angle detection method and detection system
KR102542550B1 (en) * 2021-12-07 2023-06-13 주식회사 케이스랩 Apparatus and method for estimating pose of vehicle
US11688173B2 (en) 2020-04-28 2023-06-27 Fujitsu Limited Road shape determination method
JP7351391B1 (en) 2022-09-22 2023-09-27 いすゞ自動車株式会社 In-lane vehicle position estimation device
JP7401614B1 (en) 2022-08-19 2023-12-19 株式会社デンソーテン Information processing device, information processing method and program

Cited By (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2004048895A1 (en) * 2002-11-22 2006-03-23 財団法人くまもとテクノ産業財団 MOBILE NAVIGATION INFORMATION DISPLAY METHOD AND MOBILE NAVIGATION INFORMATION DISPLAY DEVICE
WO2004048895A1 (en) * 2002-11-22 2004-06-10 Kumamoto Technology & Industry Foundation Moving body navigate information display method and moving body navigate information display device
US7848886B2 (en) 2003-05-30 2010-12-07 Toyota Jidosha Kabushiki Kaisha Collision prediction apparatus
US7848884B2 (en) 2003-05-30 2010-12-07 Toyota Jidosha Kabushiki Kaisha Collision prediction apparatus
US8195386B2 (en) 2004-09-28 2012-06-05 National University Corporation Kumamoto University Movable-body navigation information display method and movable-body navigation information display unit
JP2006119090A (en) * 2004-10-25 2006-05-11 Mitsubishi Electric Corp Navigation device
JP2006250917A (en) * 2005-02-14 2006-09-21 Kazuo Iwane High-precision cv arithmetic unit, and cv-system three-dimensional map forming device and cv-system navigation device provided with the high-precision cv arithmetic unit
JP2007218705A (en) * 2006-02-15 2007-08-30 Mitsubishi Electric Corp White line model measurement system, measuring truck, and white line model measuring device
JP4619962B2 (en) * 2006-02-15 2011-01-26 三菱電機株式会社 Road marking measurement system, white line model measurement system, and white line model measurement device
JP2007232408A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Apparatus and method for estimating shape of structure and obstacle detection apparatus
JP4655961B2 (en) * 2006-02-27 2011-03-23 トヨタ自動車株式会社 Structure shape estimation device, obstacle detection device, and structure shape estimation method
JP2008003253A (en) * 2006-06-21 2008-01-10 Toyota Motor Corp Road shape acquisition device
WO2009087716A1 (en) * 2008-01-07 2009-07-16 Panasonic Corporation Image transformation method, image display method, image transformation apparatus and image display apparatus
JP2015005298A (en) * 2008-01-15 2015-01-08 グーグル インコーポレイテッド Three-dimensional annotations for street view data
JP2010107224A (en) * 2008-10-28 2010-05-13 Mitsubishi Electric Corp Position determining apparatus and apparatus for detecting changed building
WO2010061773A1 (en) * 2008-11-28 2010-06-03 日立オートモティブシステムズ株式会社 Camera device
JP2010128949A (en) * 2008-11-28 2010-06-10 Hitachi Automotive Systems Ltd Camera apparatus
CN102227758A (en) * 2008-11-28 2011-10-26 日立汽车系统株式会社 Camera device
WO2011013586A1 (en) * 2009-07-29 2011-02-03 日立オートモティブシステムズ株式会社 Road shape recognition device
JP2011028659A (en) * 2009-07-29 2011-02-10 Hitachi Automotive Systems Ltd Road shape recognition device
US9074906B2 (en) 2009-07-29 2015-07-07 Hitachi Automotive Systems, Ltd. Road shape recognition device
WO2013030932A1 (en) * 2011-08-29 2013-03-07 パイオニア株式会社 Navigation device, image display device, server, adjustment device, and forward image display method
JPWO2013030932A1 (en) * 2011-08-29 2015-03-23 パイオニア株式会社 Navigation device, image display control device, server, adjustment device, and front image display control method
JP2015534152A (en) * 2012-08-27 2015-11-26 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Method for recognizing lane transitions for vehicles
WO2014076769A1 (en) * 2012-11-13 2014-05-22 株式会社東芝 Detection device, method, and program
CN103988241A (en) * 2012-11-13 2014-08-13 株式会社东芝 Detection device, method, and program
JPWO2014076769A1 (en) * 2012-11-13 2016-09-08 株式会社東芝 Detection apparatus, method and program
US9122936B2 (en) 2012-11-13 2015-09-01 Kabushiki Kaisha Toshiba Detecting device, detection method, and computer program product
JP2015045622A (en) * 2013-08-29 2015-03-12 株式会社デンソー Road feature recognition method, road feature recognition apparatus, program, and recording medium
US9494942B1 (en) 2014-01-22 2016-11-15 Google Inc. Enhancing basic roadway-intersection models using high intensity image data
US9081383B1 (en) * 2014-01-22 2015-07-14 Google Inc. Enhancing basic roadway-intersection models using high intensity image data
KR20160057174A (en) * 2014-11-13 2016-05-23 한국건설기술연구원 Measuring Method of Standard Road Width using Laser Scanner and Image
KR101630248B1 (en) * 2014-11-13 2016-06-14 한국건설기술연구원 Measuring Method of Standard Road Width using Laser Scanner and Image
JP2016149132A (en) * 2015-02-12 2016-08-18 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH System and method for prediction in driver assist system of vehicle
US20170015317A1 (en) * 2015-07-13 2017-01-19 Cruise Automation, Inc. Method for image-based vehicle localization
US9884623B2 (en) * 2015-07-13 2018-02-06 GM Global Technology Operations LLC Method for image-based vehicle localization
JP2017033366A (en) * 2015-08-04 2017-02-09 日産自動車株式会社 Road boundary detector, self-position estimation device, and road boundary detecting method
US20190033082A1 (en) * 2015-08-28 2019-01-31 Nissan Motor Co., Ltd. Vehicle Position Estimation Device, Vehicle Position Estimation Method
US10508923B2 (en) * 2015-08-28 2019-12-17 Nissan Motor Co., Ltd. Vehicle position estimation device, vehicle position estimation method
JP2018021777A (en) * 2016-08-02 2018-02-08 トヨタ自動車株式会社 Own vehicle position estimation device
JP2018026058A (en) * 2016-08-12 2018-02-15 パナソニックIpマネジメント株式会社 Road surface estimation device, vehicle controller, road surface estimation method, and program
WO2018030010A1 (en) * 2016-08-12 2018-02-15 パナソニックIpマネジメント株式会社 Road surface estimation device, vehicle control device, road surface estimation method, and program
JP2018041315A (en) * 2016-09-08 2018-03-15 株式会社デンソー Road end detection device
JP2018084960A (en) * 2016-11-24 2018-05-31 日産自動車株式会社 Self-position estimation method and self-position estimation device
JP2018128906A (en) * 2017-02-09 2018-08-16 本田技研工業株式会社 Vehicle control device
JP2020523660A (en) * 2017-06-14 2020-08-06 モービルアイ ビジョン テクノロジーズ リミテッド Combining a framework of driving information for autonomous driving with batch adjustment
JP7051366B2 (en) 2017-10-18 2022-04-11 株式会社東芝 Information processing equipment, trained models, information processing methods, and programs
JP2019074458A (en) * 2017-10-18 2019-05-16 株式会社東芝 Information processor, learned model, method for processing information, and program
JP2019090774A (en) * 2017-11-17 2019-06-13 富士通株式会社 Distance measuring device, distance measuring method, and distance measuring program
CN109839636B (en) * 2017-11-24 2023-04-07 丰田自动车株式会社 Object recognition device
CN109839636A (en) * 2017-11-24 2019-06-04 丰田自动车株式会社 Object identification device
WO2019221349A1 (en) * 2018-05-17 2019-11-21 에스케이텔레콤 주식회사 Device and method for calibrating camera for vehicle
KR20190131799A (en) * 2018-05-17 2019-11-27 에스케이텔레콤 주식회사 Apparatus and method for providing camera calibration for vehicle
US11417018B2 (en) 2018-05-17 2022-08-16 Sk Telecom Co., Ltd. Device and method for calibrating camera for vehicle
KR102071418B1 (en) * 2018-05-17 2020-01-30 에스케이텔레콤 주식회사 Apparatus and method for providing camera calibration for vehicle
JP2020003400A (en) * 2018-06-29 2020-01-09 国立大学法人金沢大学 Lateral position estimating device and lateral position estimating method
JP7228219B2 (en) 2018-06-29 2023-02-24 国立大学法人金沢大学 Lateral position estimation device and lateral position estimation method
WO2020021842A1 (en) * 2018-07-25 2020-01-30 株式会社デンソー Vehicle display control device, vehicle display control method, control program, and persistent tangible computer-readable medium
US11235775B2 (en) * 2019-04-16 2022-02-01 Psa Automobiles Sa Method and device for determining the curve of a road
CN111824163A (en) * 2019-04-16 2020-10-27 标致雪铁龙汽车股份有限公司 Method and device for determining a curve of a road
US11688173B2 (en) 2020-04-28 2023-06-27 Fujitsu Limited Road shape determination method
CN113034586A (en) * 2021-04-27 2021-06-25 北京邮电大学 Road inclination angle detection method and detection system
CN113034586B (en) * 2021-04-27 2022-09-23 北京邮电大学 Road inclination angle detection method and detection system
KR102542550B1 (en) * 2021-12-07 2023-06-13 주식회사 케이스랩 Apparatus and method for estimating pose of vehicle
JP7401614B1 (en) 2022-08-19 2023-12-19 株式会社デンソーテン Information processing device, information processing method and program
JP7351391B1 (en) 2022-09-22 2023-09-27 いすゞ自動車株式会社 In-lane vehicle position estimation device

Similar Documents

Publication Publication Date Title
JP2001331787A (en) Road shape estimating device
CN110057373B (en) Method, apparatus and computer storage medium for generating high-definition semantic map
Rose et al. An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS
US9171225B2 (en) Device, method, and recording medium for detecting and removing mistracked points in visual odometry systems
KR102558055B1 (en) Suboptimal estimation method
US10788830B2 (en) Systems and methods for determining a vehicle position
KR102627453B1 (en) Method and device to estimate position
US8239131B2 (en) Navigation device, navigation method, and navigation program
Brenner Extraction of features from mobile laser scanning data for future driver assistance systems
RU2668459C1 (en) Position evaluation device and method
JP5227065B2 (en) 3D machine map, 3D machine map generation device, navigation device and automatic driving device
US20200166364A1 (en) Map Data Correcting Method and Device
CN108627175A (en) The system and method for vehicle location for identification
KR20180123558A (en) Method and system for determining a global location of a first landmark
JP2009294214A (en) Method and system for navigation based on topographic structure
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
Shunsuke et al. GNSS/INS/on-board camera integration for vehicle self-localization in urban canyon
Dumble et al. Airborne vision-aided navigation using road intersection features
US11846520B2 (en) Method and device for determining a vehicle position
JP7114165B2 (en) Position calculation device and position calculation program
Suganuma et al. Localization for autonomous vehicle on urban roads
JP7418196B2 (en) Travel trajectory estimation method and travel trajectory estimation device
JPH0727541A (en) Measuring device for road shape and vehicle position
JP4116116B2 (en) Ranging origin recognition device for moving objects
Del Pizzo et al. Reliable vessel attitude estimation by wide angle camera