JP4257219B2 - Traveling locus recording apparatus and traveling locus recording method - Google Patents
Traveling locus recording apparatus and traveling locus recording method Download PDFInfo
- Publication number
- JP4257219B2 JP4257219B2 JP2004001063A JP2004001063A JP4257219B2 JP 4257219 B2 JP4257219 B2 JP 4257219B2 JP 2004001063 A JP2004001063 A JP 2004001063A JP 2004001063 A JP2004001063 A JP 2004001063A JP 4257219 B2 JP4257219 B2 JP 4257219B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- road
- calculated
- recording
- travel locus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、車両の走行軌跡を記録する装置および車両の走行軌跡を記録する方法に関する。 The present invention relates to an apparatus for recording a travel locus of a vehicle and a method for recording a travel locus of a vehicle.
例えば、特許文献1には、地図上に車両の現在位置を表示したり、目的地までの経路案内を行ったりするために、二次元的な地図データとGPSとを利用したナビゲーション装置が開示されている。このナビゲーション装置では、車両の現在位置を車両の走行に応じて時系列的に記録することにより、地図上に車両の走行軌跡が表示される。また、この装置では、車速および高度などの情報もさらに記録されており、車両の走行軌跡以外にも、走行に応じて変化する車速や高度などの情報も表示される。
For example,
また、特許文献2には、単眼カメラおよびGPSを用いることにより、車両が走行した道路の三次元的な形状を記録する手法が開示されている。この手法によれば、単眼カメラより得られた撮像画像を用いて路面上の白線を検出し、検出された白線とGPSによって測定された経度、緯度および高度とを対応付けることにより、道路の三次元形状が記録される。
しかしながら、特許文献1に開示された手法は予め固定的に用意された地図データを利用するため、車両が走行した道路に対応する地図データがない場合には、走行軌跡を表示することができないという不都合が生じる。また、この手法では、GPSを用いて車両の位置検出を行っているものの、車両が地図上のどの道路を走行しているかということをマクロ的に特定しているに過ぎない。そのため、車両が道路上をどのように走行したかというミクロ的な視点で走行軌跡を記録することができないという問題がある。また、特許文献2に開示された手法は、白線を検出することにより道路形状を認識しているため、白線のない道路では道路形状を認識することができないという問題がある。
However, since the method disclosed in
本発明は、このような事情に鑑みてなされたものであり、その目的は、車両が走行している道路上の車両の走行軌跡を記録することである。 The present invention has been made in view of such circumstances, and an object thereof is to record a traveling locus of a vehicle on a road on which the vehicle is traveling.
かかる課題を解決するために、第1の発明は、車両の走行軌跡を記録する装置を提供する。この走行軌跡記録装置は、車両前方の道路を含む景色を撮像することにより、一対の画像データを出力するステレオカメラと、一対の画像データに基づいて、ステレオマッチングを用いて、距離データを算出するステレオ画像処理部と、ステレオ画像処理部により算出された距離データに基づいて、車両の位置を基準とした三次元空間における車両前方の道路の位置を認識することにより、道路形状を規定する道路モデルを算出する認識部と、車両の走行に応じて、算出された道路モデルを時系列的に格納する記録部と、車両の状態を示す車両パラメータを検出する検出部とを有する。そして、記録部は、検出された車両パラメータを算出された道路モデルに対応付けて格納する。 In order to solve such a problem, the first invention provides an apparatus for recording a travel locus of a vehicle. The travel locus recording apparatus calculates distance data using stereo matching based on a stereo camera that outputs a pair of image data and a pair of image data by capturing a scene including a road ahead of the vehicle. A road model that defines the road shape by recognizing the position of the road ahead of the vehicle in a three-dimensional space based on the position of the vehicle based on the stereo image processing unit and the distance data calculated by the stereo image processing unit A recognizing unit for calculating the vehicle model, a recording unit for storing the calculated road model in time series according to the travel of the vehicle, and a detecting unit for detecting a vehicle parameter indicating the state of the vehicle. The recording unit stores the detected vehicle parameter in association with the calculated road model.
ここで、第1の発明において、認識部は、道路に沿って存在する特徴物を検出するとともに、特徴物の位置に基づいて、道路モデルを算出することが好ましい。また、この走行軌跡記録装置は、衛星から発せられた電波を受信することにより、車両の現在位置を算出する算出部をさらに有していてもよい。この場合、記録部は、算出された車両の現在位置を算出された道路モデルに対応付けて格納することが好ましい。 Here, in the first invention, the recognition unit preferably detects a feature existing along the road and calculates a road model based on the position of the feature. In addition, the travel locus recording apparatus may further include a calculation unit that calculates a current position of the vehicle by receiving radio waves emitted from a satellite. In this case, it is preferable that the recording unit stores the calculated current position of the vehicle in association with the calculated road model.
また、第1の発明において、走行軌跡記録装置は、記録部に格納された情報に基づいて、表示すべき内容を決定する制御部と、制御部によって制御され、決定された内容を表示する表示装置とをさらに有していてもよい。この場合、制御部は、車両の移動量を考慮した上で、格納された道路モデルを時系列的に連結することにより、車両が走行した道路の道路形状を表示するように表示装置を制御するとともに、道路における車両の位置を表示するように表示装置を制御することが好ましい。さらに、制御部は、道路形状と道路における車両の位置とを、道路の上方を視点として二次元的に表示するように表示装置を制御するとともに、道路形状と道路における車両の位置とを、道路の上方を視点として三次元的に表示するように、表示装置を制御することが好ましい。 In the first invention, the traveling locus recording apparatus includes a control unit that determines the content to be displayed based on information stored in the recording unit, and a display that is controlled by the control unit and displays the determined content. And a device. In this case, the control unit controls the display device so as to display the road shape of the road on which the vehicle has traveled by connecting the stored road models in time series in consideration of the amount of movement of the vehicle. At the same time, it is preferable to control the display device so as to display the position of the vehicle on the road. Further, the control unit controls the display device to display the road shape and the position of the vehicle on the road in a two-dimensional manner with the upper side of the road as a viewpoint, and the road shape and the position of the vehicle on the road It is preferable to control the display device so that it is displayed three-dimensionally with the upper side of the screen as a viewpoint.
また、第1の発明において、走行軌跡記録装置は、記録部に格納された情報を、情報記録媒体に書き込む情報記録装置をさらに有していてもよく、また、記録部に格納された情報を、通信により外部装置に伝送する情報伝送装置をさらに有していてもよい。 In the first invention, the travel locus recording apparatus may further include an information recording device for writing the information stored in the recording unit to the information recording medium, and the information stored in the recording unit. In addition, an information transmission device that transmits to an external device by communication may be further included.
第2の発明は、車両の走行軌跡を記録する方法を提供する。この走行軌跡記録方法は、第1のステップとして、ステレオカメラを用いて車両前方の道路を含む景色を撮像することにより出力される一対の画像データを取得し、第2のステップとして、一対の画像データに基づいて、ステレオマッチングを用いて、距離データを算出し、第3のステップとして、距離データに基づいて、車両の位置を基準とした三次元空間における車両前方の道路の位置を認識することにより、道路形状を規定する道路モデルを算出し、第4のステップとして、車両の走行に応じて、算出された道路モデルを時系列的に格納し、第5のステップとして、車両の状態を示す車両パラメータを取得する。この場合、第4のステップは、検出された車両パラメータを算出された道路モデルに対応付けて格納するステップを含む。 The second invention provides a method for recording a travel locus of a vehicle. In this traveling locus recording method, as a first step, a pair of image data output by capturing a scene including a road ahead of the vehicle using a stereo camera is acquired, and as a second step, a pair of images is acquired. Based on the data, the distance data is calculated using stereo matching, and as a third step, the position of the road ahead of the vehicle in the three-dimensional space based on the position of the vehicle is recognized based on the distance data. Thus, a road model that defines the road shape is calculated, and as a fourth step, the calculated road model is stored in time series according to the travel of the vehicle, and as a fifth step, the state of the vehicle is indicated. Get vehicle parameters. In this case, the fourth step includes a step of storing the detected vehicle parameter in association with the calculated road model.
ここで、第2の発明において、第3のステップは、道路に沿って存在する特徴物を検出するとともに、特徴物の位置に基づいて、道路モデルを算出することが好ましい。また、この走行軌跡記録方法は、衛星から発せられた電波を受信することにより、車両の現在位置を算出するステップをさらに有していてもよい。この場合、第4のステップは、算出された車両の現在位置を算出された道路モデルに対応付けて格納するステップを含むことが好ましい。 Here, in the second invention, it is preferable that the third step detects a feature existing along the road and calculates a road model based on the position of the feature. In addition, the traveling locus recording method may further include a step of calculating the current position of the vehicle by receiving radio waves emitted from the satellite. In this case, it is preferable that the fourth step includes a step of storing the calculated current position of the vehicle in association with the calculated road model.
また、第2の発明において、車両の移動量を考慮した上で、格納された道路モデルを時系列的に連結することにより、車両が走行した道路の道路形状を表示するように表示装置を制御するとともに、道路における車両の位置を表示するように表示装置を制御するステップをさらに有することが好ましい。 In the second invention, the display device is controlled so as to display the road shape of the road on which the vehicle has traveled by connecting the stored road models in time series in consideration of the movement amount of the vehicle. In addition, it is preferable to further include a step of controlling the display device so as to display the position of the vehicle on the road.
このように本発明によれば、ステレオカメラを用いて車両前方の景色を撮像することにより、車両を視点として自車両が走行している道路が写し出された一対の画像データが出力される。この一対の画像データより得られる距離データに基づいて算出される道路モデルを時系列的に格納することにより、道路上で車両が走行した軌跡を記録することができる。 As described above, according to the present invention, a pair of image data in which a road on which the host vehicle is traveling is projected from the viewpoint of the vehicle is output by capturing a scene in front of the vehicle using a stereo camera. By storing the road model calculated based on the distance data obtained from the pair of image data in time series, the trajectory of the vehicle traveling on the road can be recorded.
(第1の実施形態)
図1は、第1の実施形態に係る走行軌跡記録装置のブロック構成図である。車両前方の道路を含む景色を撮像するステレオカメラ1は、例えば、ルームミラー近傍に取付けられている。このステレオカメラ1は一対のカメラ2a,2bで構成されており、それぞれのカメラ2a,2bには、イメージセンサ(例えば、CCDまたはCMOSセンサ等)が内蔵されている。メインカメラ2aは、ステレオ画像処理を行う際に必要な基準画像を時系列的に撮像し、サブカメラ2bは、比較画像を時系列的に撮像する。互いの同期が取れている状態において、カメラ2a,2bから出力された各アナログ画像は、A/Dコンバータ3,4により、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像に変換される。
(First embodiment)
FIG. 1 is a block diagram of a travel locus recording apparatus according to the first embodiment. A
デジタル化された一対の画像データは、画像補正部5において、輝度の補正や画像の幾何学的な変換等が行われる。通常、一対のカメラ2a,2bの取付位置は、程度の差はあるものの誤差が存在するため、それに起因したずれが左右の各画像に生じている。このずれを補正するために、アフィン変換等を用いて、画像の回転や平行移動等の幾何学的な変換が行われる。
A pair of digitized image data is subjected to brightness correction, image geometric conversion, and the like in the
このような画像処理を経て、メインカメラ2aより基準画像データが得られ、サブカメラ2bより比較画像データが得られる。これらの画像データは、各画素の輝度値(0〜255)の集合である。ここで、画像データによって規定される画像平面は、i−j座標系で表現され、画像の左下隅を原点として、水平方向をi座標軸、垂直方向をj座標軸とする。一フレーム相当のステレオ画像データは、後段のステレオ画像処理部6に出力されるとともに、画像データメモリ8に格納される。
Through such image processing, reference image data is obtained from the
ステレオ画像処理部6は、基準画像データと比較画像データとに基づいて、一フレーム相当の撮像画像に関する距離データを算出する。ここで、「距離データ」とは、画像データによって規定される画像平面において小領域毎に算出された視差dの集合であり、個々の視差dは画像平面上の位置(i,j)と対応付けられている。それぞれの視差dは、基準画像の一部を構成する所定面積(例えば、4×4画素)の画素ブロック毎に1つ算出される。
The stereo
図2は、基準画像に設定される画素ブロックの説明図である。例えば、基準画像が200×512画素で構成されている場合、一フレーム相当の撮像画像から、最大で画素ブロックPBijの個数相当(50×128個)の視差群が算出される。周知のように、視差dは、その算出単位である画素ブロックPBijに関する水平方向のずれ量であり、画素ブロックPBijに写し出された対象物までの距離と大きな相関がある。すなわち、画素ブロックPBij内に写し出されている対象物がカメラ2a,2bに近いほど、この画素ブロックPBijの視差dは大きくなり、対象物が遠いほど視差dは小さくなる(無限に遠い場合、視差dは0になる)。
FIG. 2 is an explanatory diagram of pixel blocks set in the reference image. For example, when the reference image is composed of 200 × 512 pixels, a parallax group corresponding to the maximum number of pixel blocks PBij (50 × 128) is calculated from a captured image corresponding to one frame. As is well known, the parallax d is the amount of horizontal displacement with respect to the pixel block PBij that is the calculation unit, and has a large correlation with the distance to the object projected in the pixel block PBij. That is, the closer the object projected in the pixel block PBij is to the
ある画素ブロックPBij(相関元)に関する視差dを算出する場合、この画素ブロックPBijの輝度特性と相関を有する領域(相関先)を比較画像において特定する。上述したように、カメラ2a,2bから対象物までの距離は、基準画像と比較画像との間における水平方向のずれ量として現れる。したがって、比較画像において相関先を探索する場合、相関元となる画素ブロックPijのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオ画像処理部6は、相関元のi座標を基準に設定された所定の探索範囲内において、エピポーラライン上を一画素ずつシフトしながら、相関元と相関先の候補との間の相関性を順次評価する(ステレオマッチング)。そして、原則として、最も相関が高いと判断される相関先(相関先の候補の内のいずれか)の水平方向のずれ量を、その画素ブロックPBijの視差dとする。
When calculating the parallax d regarding a certain pixel block PBij (correlation source), a region (correlation destination) having a correlation with the luminance characteristic of the pixel block PBij is specified in the comparison image. As described above, the distance from the
2つの画素ブロックの相関は、例えば、シティブロック距離CBを算出することにより評価することができる。数式1は、シティブロック距離CBの基本形を示す。同数式において、p1ijは一方の画素ブロックのij番目の画素の輝度値であり、p2ijは他方の画素ブロックのij番目の輝度値である。シティブロック距離CBは、位置的に対応した輝度値p1ij,p2ijの差(絶対値)の画素ブロック全体における総和であって、その差が小さいほど両画素ブロックの相関が大きいことを意味している。
(数式1)
CB=Σ|p1ij−p2ij|
The correlation between two pixel blocks can be evaluated, for example, by calculating a city block distance CB.
(Formula 1)
CB = Σ | p1ij−p2ij |
基本的に、エピポーラライン上に存在する画素ブロック毎に算出されたシティブロック距離CBのうち、その値が最小となる画素ブロックが相関先と判断される。このようにして特定された相関先と相関元との間のずれ量が視差dとなる。なお、シティブロック距離CBを算出するステレオ画像処理部6のハードウェア構成については、特開平5−114099号公報に開示されているので、必要ならば参照されたい。このような処理を経て算出された距離データ、すなわち、画像上の位置(i,j)と対応付けられた視差dの集合は、距離データメモリ7に格納される。
Basically, among the city block distances CB calculated for each pixel block existing on the epipolar line, the pixel block having the smallest value is determined as the correlation destination. The amount of deviation between the correlation destination specified in this way and the correlation source is the parallax d. Note that the hardware configuration of the stereo
マイクロコンピュータ9は、CPU、ROM、RAM、入出力インターフェース等で構成されている。このマイクロコンピュータ9には、現在の車両の状態を示す車両パラメータを特定するために、センサ13a〜13dを含む各種センサおよびGPS位置検出部13eから得られた信号が入力されている。車速センサ13aは車両の車速を検出し、舵角センサ13bは車輪の舵角を検出する。レートセンサ13cは、ヨーイング、ローリングおよびピッチングといった車両の回転運動の変化量(例えば、ヨーレート)を検出する。車両方位センサ13dは、車両の進行方向を検出するセンサであり、地磁気方位センサやジャイロなどを用いることができる。GPS位置検出部13eは、GPS衛星から発せられた電波や、既知の地点に設置された固定局からディファレンシャル情報を受信する。なお、図1には明示していないが、これらの検出値以外にも、アクセル、ブレーキおよびハンドルなどの操作量といった操作状態や、エンジン回転数、過給圧およびトランスミッションのギヤ位置といった車両の運転状態も車両パラメータとして検出されている。なお、本明細書では、「検出部13」という用語を、これらの車両パラメータを検出する各種センサおよびGPS位置検出部13eを総称する意味で用いる。
The
マイクロコンピュータ9は、これを機能的に捉えた場合、認識部10、算出部11および制御部12を有する。認識部10は、ステレオ画像処理部6により算出された距離データに基づいて、車両を基準とした三次元空間における車両前方の道路の位置を認識する。認識された道路の位置に基づいて、道路形状を規定する道路モデルが算出される。道路モデルの算出には、画像データメモリ8中に格納された画像データも必要に応じて参照される。算出部11は、検出部13から得られた検出信号に基づいて、車両の姿勢および現在位置といった車両パラメータをさらに算出する。そして、算出された道路モデルと、車両パラメータ(検出部13から得られた検出値および算出部11によって算出された算出値)とは、互いに対応付けられて走行軌跡データとして後段の記録部14に格納される。制御部12は、記録部14に格納された走行軌跡データを参照し、表示装置15を制御することにより、車両の走行軌跡を表示する。また、制御部12は、情報記録装置16を介して、記録部14に格納された走行軌跡データを情報記録媒体に格納したり、情報伝送装置17を通じて通信により外部装置(図示せず)に伝送することができる。
The
図3は、車両の走行軌跡の記録手順を示したフローチャートである。このフローチャートに示したルーチンは、所定間隔毎に呼び出され、マイクロコンピュータ9によって実行される。まず、ステップ1において、認識部10は、画像データメモリ8より1フレーム相当の画像データを読み込むとともに、このデータに対応する距離データを距離データメモリ7より読み込む。
FIG. 3 is a flowchart showing a procedure for recording the travel locus of the vehicle. The routine shown in this flowchart is called at predetermined intervals and executed by the
ステップ2において、認識部10は、道路モデルを算出する。この道路モデルは、実空間の座標系において、水平方向および垂直方向における直線式で表現され、この直線式のパラメータを実際の道路形状に合致するような値に設定することにより、算出可能である。道路に沿って存在する植物の植え込みやパイロン、ガードレールなどの立体物、または、路面に描かれた車線を規定する白線(または黄線)といった特徴物は、道路形状を認識する上で有効である。そのため、認識部10は、道路に沿って存在するこれらの特徴物の実空間上の位置を認識し、この位置を連結することにより道路モデルを算出する。特徴物の実空間上の位置(x,y,z)は、距離データ上の位置(i,j)とこの位置に関して算出された視差dとに基づいて、周知の座標変換式より一義的に算出される。実空間を規定する三次元座標系は、車両を基準に設定されており、ステレオカメラ1の中央真下の道路面を原点として、車幅方向をx軸、車高方向をy軸、車長方向(距離方向)をz軸とする。そのため、算出された道路モデルは、車両の位置を基準とした三次元空間における道路形状を規定することになる。
In
立体物認識をベースとした道路モデル算出では、距離データに基づいて、車両前方の立体物を検出するとともに、検出された立体物が、物体(先行車や障害物)のグループと、壁面(例えば、ガードレールや植え込み)のグループとに分類される。この分類にともない、道路に沿って存在する一連の立体物が壁面として検出される。複数のノードを連結して壁面の輪郭を表す壁面モデルを、検出された壁面の実空間上の位置に基づいて修正することにより、壁面モデルが算出される。この壁面モデルは、実質的に道路の形状を規定しているため、道路モデルと等価に扱うことができる。 In the road model calculation based on the three-dimensional object recognition, a three-dimensional object in front of the vehicle is detected based on the distance data, and the detected three-dimensional object includes a group of objects (preceding vehicle or obstacle) and a wall surface (for example, , Guardrails and planting). Along with this classification, a series of three-dimensional objects existing along the road are detected as wall surfaces. A wall surface model is calculated by correcting a wall surface model representing the contour of the wall surface by connecting a plurality of nodes based on the position of the detected wall surface in real space. Since the wall surface model substantially defines the shape of the road, it can be handled equivalently to the road model.
白線認識をベースとした道路モデル算出では、白線は道路面と比較して高輝度であるという知得に基づき、画像データが参照される。この画像データに基づいて、道路の幅方向の輝度変化を評価することにより、画像平面上の左右の白線の位置を特定する。特定された白線の画像平面上の位置(i,j)と、この位置に対応する距離データの視差dとに基づき、白線の位置が検出される。道路モデルは、道路上の白線を距離方向に複数区間に分割し、各区間における左右の白線の位置を三次元の直線でそれぞれ近似し、これらを折れ線状に連結することにより、算出可能である。 In the road model calculation based on white line recognition, image data is referred to based on the knowledge that the white line is brighter than the road surface. Based on this image data, the position of the left and right white lines on the image plane is specified by evaluating the luminance change in the width direction of the road. The position of the white line is detected based on the position (i, j) on the image plane of the identified white line and the parallax d of the distance data corresponding to this position. The road model can be calculated by dividing the white line on the road into multiple sections in the distance direction, approximating the position of the left and right white lines in each section with a three-dimensional straight line, and connecting them in a polygonal line. .
認識部10は、例えば、自車両前方に白線が存在している場合には、白線ベースで道路モデルを算出し、白線が存在していない場合には、立体物ベースで道路モデルを算出する。これ以外にも、路面上に描かれたセンターラインと、路肩側に存在するガードレールと認識することにより、両認識手法を組合わせて道路モデルを算出してもよい。なお、白線検出の詳細については、特開2001−92970号公報、立体物検出の詳細については、特開平11−213138号公報に開示されているので、必要ならば参照されたい。
For example, the
ステップ3において、算出部11は、検出部13の検出信号を読み込む。そして、検出部13の検出信号に基づいて、車両の姿勢および現在位置が算出される(ステップ4)。具体的には、センサ13a〜13dから得られたセンサ信号に基づいて、車両の姿勢が算出される。また、GPS位置検出部13eから得られたGPS信号に基づいて、車両の現在位置が算出される。なお、周知のように、GPS衛星から発せられた電波のみを用いた自己位置の算出は誤差が大きい。そこで、算出部11は、この算出値の誤差を除去するために、固定局から得られたディファレンシャル情報に基づいて、この地点の位置観測を行う。そして、この位置観測に基づいて得られた補正情報をフィードバックすることで(所謂D−GPS制御)、車両の絶対的な位置を精度よく算出することができる。
In
ステップ5において、認識部10によって算出された道路モデルが、自車両の手前の所定の距離(例えば、5m)分だけ記録部14に格納される。これとともに、算出部11によって算出された車両の姿勢および現在位置、さらには検出部13によって検出された車両パラメータが記録部14に格納され、本ルーチンを抜ける。
In
このようなサイクルが繰り返し行われることにより、車両の走行に応じて、道路モデルが記録部14に時系列的に格納される。これとともに、道路モデルに対応する車両パラメータが記録部14に時系列的に格納される。記録部14に格納された走行軌跡データは、情報記録装置16を介して情報記録媒体に対して書き込んだり、また、情報伝送装置17を介して、インターネットや無線・有線のLANなどを通じて外部装置に対して伝送することができる。
By repeating such a cycle, the road model is stored in the
また、制御部12は、記録部14に格納された走行軌跡データに基づいて、車両が走行した走行軌跡データを表示装置15に表示することができる。例えば、白線ベースで道路モデルを算出した場合、記録部14には、第1の道路モデルR1、第2の道路モデルR2、第3の道路モデルR3といったように複数の道路モデルが時系列的に格納されている。図4(a)は直線式で表される道路モデルの二次元的な模式図である。同図(a)において、点C1〜C3は、車両の位置(道路モデルを算出する際の基準位置)を示しており、この車両の位置Cを基準とした水平視野角(点線で図示)の内側には、道路モデルによって規定される道路形状が実線で示されている。
Further, the control unit 12 can display the traveling locus data on which the vehicle has traveled on the
制御部12は、道路モデルを表示する前提として、表示装置15における表示画面上の位置と、GPSによる位置情報とを予め対応付けておく。そして、制御部12は、車両の移動量を考慮した上で、格納された道路モデルを時系列的に連結して表示する。具体的には、車両の現在位置C1に対応する表示画面上の位置P1には、車両の姿勢を考慮した上で、第1の道路モデルR1が表示される。また、車両の現在位置C2に対応する表示画面上の位置P2には、車両の姿勢を考慮した上、第2の道路モデルR2が表示される。この場合、第2の道路モデルR2よりも前方のオフセットした第1の道路モデルは表示しない。この処理が、第3の道路モデルR3(或いは、それ以降の道路モデルR)についても同様に行われることにより、記録部14に格納された分だけの道路モデルが表示される(図4(b)参照)。この連結された道路モデルでは、道路モデルを算出する際の基準位置Cの集合が、車両の走行軌跡となって表示される。
As a premise for displaying the road model, the control unit 12 associates a position on the display screen of the
図5は、表示画面に表示される走行軌跡データの説明図である。同図では、例えば、車両がオーバルコースを走行した場合の車両の走行軌跡および道路形状が示されており、車両が走行した道路形状が実線、走行軌跡が点線で表示されている。制御部12は、道路形状と、車両の走行に応じた道路における車両の位置とを、上方を視点として二次元的に表示するように、表示装置15を制御する。これにともない、走行軌跡および道路形状が真上から眺めた状態で表示される(同図(a)参照)。また、制御部12は、道路形状と、車両の走行に応じた道路における車両の位置とを、上方を視点として三次元的に表示するように、表示装置15を制御してもよい。これにともない、走行軌跡および道路形状が、車両の斜め後方から眺めた状態(所謂、バードビュー)で表示される(同図(b)参照)。同図(b)には、車両に対応したシンボルが表示されており、このシンボルを車両の姿勢に対応するように表示してもよい。なお、表示装置15の表示画面に、表示内容を充実させる観点から、例えば、車速、エンジン回転数などの車両パラメータを併せて表示してもよい。また、同様の観点から、例えば、同図(a)に示す表示形態と、同図(b)に示す表示形態とを一つの表示画面に並列に表示してもよい。換言すれば、制御部12は、二次元的は表示を行うように表示装置15を制御するとともに、これと並列的に、三次元的な表示を行うように表示装置を制御することとなる。
FIG. 5 is an explanatory diagram of travel locus data displayed on the display screen. In the figure, for example, the travel locus and road shape of the vehicle when the vehicle travels on an oval course are shown, and the road shape on which the vehicle has traveled is indicated by a solid line and the travel locus is indicated by a dotted line. The control unit 12 controls the
以上説明したように、本実施形態によれば、ステレオカメラ1を用いて車両前方の景色を撮像することにより、車両を視点として自車両が走行している道路が写し出された一対の画像データが出力される。これらの画像データから算出される距離データに基づいて、道路形状を規定する道路モデルが算出される。そして、自車両の走行に応じて、算出された道路モデルが記録部14に時系列的に格納される。この道路モデルは、車両の位置を基準とした三次元空間においてその道路形状を規定している関係上、記録部14には、道路形状の変化とともに、自車両の位置を基準とした道路の車幅方向の相対的な変化が時系列的に記録されることになる。換言すれば、道路の車幅方向の相対的な変化は、道路をベースとした自車両の車幅方向の位置の変化であるため、この道路モデルを記録することにより、道路上で車両が走行した軌跡を記録することができる。
As described above, according to the present embodiment, a pair of image data in which a road on which the host vehicle is traveling is projected from the viewpoint of the vehicle by capturing a scene in front of the vehicle using the
また、本実施形態によれば、白線または立体物のいずれかを特徴物として道路モデルを算出することができるので、幅広い状況で走行軌跡を記録することができる。例えば、地図のないサーキット場などのコースでも、リアルタイムで道路モデルを算出することにより、走行軌跡を記録することができる。また、広い駐車場にパイロンを並べて設営されたような臨時の道路(コース)であっても、同様に、走行軌跡の記録とを行うことができる。 Moreover, according to this embodiment, since a road model can be calculated using either a white line or a three-dimensional object as a feature object, a travel locus can be recorded in a wide range of situations. For example, even in a course such as a circuit field without a map, a travel locus can be recorded by calculating a road model in real time. Further, even on a temporary road (course) where pylons are installed side by side in a large parking lot, it is possible to record a travel locus in the same manner.
また、算出部11によって車両の現在位置が算出されているため、例えば、表示装置15に走行軌跡を表示する場合には、この位置を基準に道路モデルを連結することにより、走行軌跡を正確に表示することができる。また、走行軌跡データを、携帯が容易な情報記録媒体に格納したり、外部装置に伝送することにより、外部装置を用いてデータの解析や保存などの処理を実行することができる。これにより、走行軌跡データをさらに有効活用することができる。例えば、あるコースにおける実際の運転操作による走行軌跡を表示させるばかりでなく、理論最適解による運転操作による走行軌跡とを比較して表示するといった如くである。この場合、表示装置15に車両パラメータを表示することによって、より詳細な走行軌跡の比較を行うことができる。
In addition, since the current position of the vehicle is calculated by the calculation unit 11, for example, when a travel locus is displayed on the
(第2の実施形態)
図6は、第2の実施形態に係る走行軌跡記録装置のブロック構成図である。第2の実施形態が、第1の実施形態と相違する点は、GPS位置検出部13eを設けていないことである。なお、第2の実施形態において、第1の実施形態で説明した構成要素と同じ要素については、同一の符号を付してその説明を省略する。GPS位置検出部13eを設けた場合には、GPSによる絶対的な位置を基準とすることで、自車両の走行に応じて時系列的に格納される道路モデルに相互の関連性を持たせることができる。これに対して、GPS位置検出部13eが設けられていない第2の実施形態では、自車両の移動量を推定することにより、時系列的に格納される道路モデルに相互の関連性を持たせる必要がある。車両の移動量は、推測航法を用いて推測する方法、または、画像データおよび距離データから推定する手法を用いることによって推定することができる。
(Second Embodiment)
FIG. 6 is a block diagram of a travel locus recording apparatus according to the second embodiment. The second embodiment is different from the first embodiment in that the GPS position detection unit 13e is not provided. Note that in the second embodiment, the same components as those described in the first embodiment are denoted by the same reference numerals, and description thereof is omitted. In the case where the GPS position detection unit 13e is provided, the road model stored in time series according to the traveling of the host vehicle is related to each other by using the absolute position by GPS as a reference. Can do. On the other hand, in the second embodiment in which the GPS position detection unit 13e is not provided, the road models stored in time series are correlated with each other by estimating the movement amount of the host vehicle. There is a need. The movement amount of the vehicle can be estimated by using a method of estimating using dead reckoning or a method of estimating from the image data and the distance data.
推測航法を用いた移動量の推測方法では、算出部11において、車速センサ13aから得られる車速に基づいて、所定時間(例えば、ルーチンの呼び出し間隔)経過後の車両の移動距離が算出される。これとともに、車両方位センサ13dから得られる車両の方位変化量が算出される。算出された車両の移動距離および車両の方位変化量に基づいて、算出部11は、車両の移動位置を現在位置として算出する。そして、この車両の移動位置を時系列的に記録部14に記録する。車両の移動量は、時系列的に記録された車両の移動位置から算出される。
In the movement amount estimation method using dead reckoning, the calculation unit 11 calculates the movement distance of the vehicle after elapse of a predetermined time (for example, routine call interval) based on the vehicle speed obtained from the vehicle speed sensor 13a. At the same time, the direction change amount of the vehicle obtained from the vehicle direction sensor 13d is calculated. Based on the calculated vehicle travel distance and vehicle azimuth change amount, the calculation unit 11 calculates the vehicle travel position as the current position. Then, the moving position of the vehicle is recorded in the
本実施形態によれば、車両の移動量を推測することで、上述した第1の実施形態と同様の効果を奏することができる。なお、車両の移動量を推定しているため、実際の車両の移動量と推定した移動量との間に誤差が生じた場合、これが経時的に繰り返されることにより、誤差が累積してしまう可能性がある。例えば、図5(a)のようにオーバルコースを走行している場合、スタート位置とゴール位置とが一致しなくなるということが考えられる。そのため、GPS位置検出部13eを設けない場合には、例えば図5(b)のような表示形態を用いることにより、走行軌跡の経時的な変化を部分的に表示することが好ましい。ただし、第1の実施形態と比較して走行軌跡の再現性が低下する虞があるものの、第2の実施形態によれば、検出部13の構成が簡素化され、コストの低減を図ることができる。
According to the present embodiment, the same effects as those of the first embodiment described above can be achieved by estimating the amount of movement of the vehicle. Since the amount of movement of the vehicle is estimated, if an error occurs between the actual amount of movement of the vehicle and the estimated amount of movement, the error may accumulate by repeating this over time. There is sex. For example, when the vehicle is traveling on an oval course as shown in FIG. 5A, the start position and the goal position may not match. For this reason, when the GPS position detection unit 13e is not provided, it is preferable to partially display the change over time in the travel locus by using, for example, a display form as shown in FIG. However, although there is a possibility that the reproducibility of the travel locus may be reduced as compared with the first embodiment, according to the second embodiment, the configuration of the
1 ステレオカメラ
2a メインカメラ
2b サブカメラ
3,4 A/Dコンバータ
5 画像補正部
6 ステレオ画像処理部
7 距離データメモリ
8 画像データメモリ
9 マイクロコンピュータ
10 認識部
11 算出部
12 制御部
13 検出部
13a 車速センサ
13b 舵角センサ
13c レートセンサ
13d 車両方位センサ
13e GPS位置検出部
14 記録部
15 表示装置
16 情報記録装置
17 情報伝送装置
DESCRIPTION OF
Claims (11)
前記車両前方の道路を含む景色を撮像することにより、一対の画像データを出力するステレオカメラと、
前記一対の画像データに基づいて、ステレオマッチングを用いて、距離データを算出するステレオ画像処理部と、
前記ステレオ画像処理部により算出された距離データに基づいて、前記車両の位置を基準とした三次元空間における前記車両前方の道路の位置を認識することにより、道路形状を規定する道路モデルを算出する認識部と、
前記車両の走行に応じて、前記算出された道路モデルを時系列的に格納する記録部と、
車両の走行状態を示す車両パラメータを検出する検出部とを有し、
前記記録部は、前記検出された車両パラメータを前記算出された道路モデルに対応付けて格納することを特徴とする走行軌跡記録装置。 In an apparatus for recording the traveling locus of a vehicle,
A stereo camera that outputs a pair of image data by imaging a landscape including a road ahead of the vehicle;
A stereo image processing unit that calculates distance data using stereo matching based on the pair of image data;
Based on the distance data calculated by the stereo image processing unit, a road model that defines the road shape is calculated by recognizing the position of the road ahead of the vehicle in a three-dimensional space based on the position of the vehicle. A recognition unit;
A recording unit that stores the calculated road model in time series according to the traveling of the vehicle;
A detection unit for detecting a vehicle parameter indicating a running state of the vehicle,
The recording unit stores the detected vehicle parameter in association with the calculated road model.
前記記録部は、前記算出された車両の現在位置を前記算出された道路モデルに対応付けて格納することを特徴とする請求項1または2に記載された走行軌跡記録装置。 By further receiving a radio wave emitted from a satellite to calculate a current position of the vehicle;
The travel locus recording apparatus according to claim 1, wherein the recording unit stores the calculated current position of the vehicle in association with the calculated road model.
前記制御部によって制御され、前記決定された内容を表示する表示装置とをさらに有し、
前記制御部は、前記車両の移動量を考慮した上で、前記格納された道路モデルを時系列的に連結することにより、前記車両が走行した道路の道路形状を表示するように前記表示装置を制御するとともに、前記道路における車両の位置を表示するように前記表示装置を制御することを特徴とする請求項1から3のいずれかに記載された走行軌跡記録装置。 A control unit that determines the content to be displayed based on the information stored in the recording unit;
A display device controlled by the control unit and displaying the determined content;
The control unit is configured to display the road shape of the road on which the vehicle has traveled by connecting the stored road models in time series in consideration of the amount of movement of the vehicle. The travel locus recording apparatus according to claim 1, wherein the display device is controlled so as to display a position of the vehicle on the road.
ステレオカメラを用いて前記車両前方の道路を含む景色を撮像することにより出力される一対の画像データを取得する第1のステップと、
前記一対の画像データに基づいて、ステレオマッチングを用いて、距離データを算出する第2のステップと、
前記距離データに基づいて、前記車両の位置を基準とした三次元空間における前記車両前方の道路の位置を認識することにより、道路形状を規定する道路モデルを算出する第3のステップと、
前記車両の走行に応じて、前記算出された道路モデルを時系列的に格納する第4のステップと
車両の走行状態を示す車両パラメータを取得する第5のステップを有し、
前記第4のステップは、前記検出された車両パラメータを前記算出された道路モデルに対応付けて格納するステップを含むことを特徴とする走行軌跡記録方法。 In a method of recording a travel locus of a vehicle,
A first step of acquiring a pair of image data output by imaging a landscape including a road ahead of the vehicle using a stereo camera;
A second step of calculating distance data using stereo matching based on the pair of image data;
A third step of calculating a road model that defines a road shape by recognizing a position of a road ahead of the vehicle in a three-dimensional space based on the position of the vehicle based on the distance data;
A fourth step of storing the calculated road model in time series according to the traveling of the vehicle, and a fifth step of acquiring a vehicle parameter indicating a traveling state of the vehicle,
The fourth step includes a step of storing the detected vehicle parameter in association with the calculated road model.
前記第4のステップは、前記算出された車両の現在位置を前記算出された道路モデルに対応付けて格納するステップを含むことを特徴とする請求項8または9に記載された走行軌跡記録方法。 A step of calculating a current position of the vehicle by receiving radio waves emitted from a satellite;
The travel locus recording method according to claim 8 or 9, wherein the fourth step includes a step of storing the calculated current position of the vehicle in association with the calculated road model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004001063A JP4257219B2 (en) | 2004-01-06 | 2004-01-06 | Traveling locus recording apparatus and traveling locus recording method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004001063A JP4257219B2 (en) | 2004-01-06 | 2004-01-06 | Traveling locus recording apparatus and traveling locus recording method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005195421A JP2005195421A (en) | 2005-07-21 |
JP4257219B2 true JP4257219B2 (en) | 2009-04-22 |
Family
ID=34816687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004001063A Expired - Fee Related JP4257219B2 (en) | 2004-01-06 | 2004-01-06 | Traveling locus recording apparatus and traveling locus recording method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4257219B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8346466B2 (en) * | 2009-11-11 | 2013-01-01 | Northrop Grumman Guidance & Electronics | Systems and methods for determining heading |
JP5229254B2 (en) * | 2010-03-23 | 2013-07-03 | 株式会社デンソー | Road shape recognition device |
JP2021174288A (en) | 2020-04-27 | 2021-11-01 | 富士通株式会社 | Camera height calculation method and image processing device |
-
2004
- 2004-01-06 JP JP2004001063A patent/JP4257219B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005195421A (en) | 2005-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111986506B (en) | Mechanical parking space parking method based on multi-vision system | |
EP3940421A1 (en) | Positioning method and device based on multi-sensor fusion | |
JP4600357B2 (en) | Positioning device | |
JP5966747B2 (en) | Vehicle travel control apparatus and method | |
US20220292711A1 (en) | Pose estimation method and device, related equipment and storage medium | |
US20150332100A1 (en) | Moving Object Location/Attitude Angle Estimation Device and Moving Object Location/Attitude Angle Estimation Method | |
JP2020528134A (en) | Calibration of integrated sensor in natural scene | |
CN107750364A (en) | Detected using the road vertically profiling of stable coordinate system | |
WO2015145543A1 (en) | Object detection apparatus, object detection method, and mobile robot | |
CN110402368A (en) | The Inertial Sensor System of the view-based access control model of integrated form in vehicle navigation | |
CN113218407A (en) | Map generation method and device based on fusion of VIO and satellite navigation system | |
JPWO2004048895A1 (en) | MOBILE NAVIGATION INFORMATION DISPLAY METHOD AND MOBILE NAVIGATION INFORMATION DISPLAY DEVICE | |
CN115077519A (en) | Positioning and mapping method and device based on template matching and laser inertial navigation loose coupling | |
KR101319526B1 (en) | Method for providing location information of target using mobile robot | |
CN112819711B (en) | Monocular vision-based vehicle reverse positioning method utilizing road lane line | |
CN112146620B (en) | Target object ranging method and device | |
CN113701750A (en) | Fusion positioning system of underground multi-sensor | |
KR100901312B1 (en) | Device for creating geomorphic data of autonomous mobile platform, autonomous mobile platform having the same and method for creating geomorphic data of autonomous mobile platform | |
JP4257219B2 (en) | Traveling locus recording apparatus and traveling locus recording method | |
CN112862818A (en) | Underground parking lot vehicle positioning method combining inertial sensor and multi-fisheye camera | |
CN102426703B (en) | Course and pitch angle speed acquisition method of vehicle panoramic image acquisition platform | |
WO2020137311A1 (en) | Positioning device and moving object | |
JP2009168614A (en) | On-vehicle navigation device | |
CN113916221B (en) | Self-adaptive pedestrian dead reckoning method integrating visual odometer and BP network | |
CN112985388B (en) | Combined navigation method and system based on large-displacement optical flow method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090127 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090202 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120206 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4257219 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120206 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130206 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140206 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |