JP4257219B2 - Traveling locus recording apparatus and traveling locus recording method - Google Patents

Traveling locus recording apparatus and traveling locus recording method Download PDF

Info

Publication number
JP4257219B2
JP4257219B2 JP2004001063A JP2004001063A JP4257219B2 JP 4257219 B2 JP4257219 B2 JP 4257219B2 JP 2004001063 A JP2004001063 A JP 2004001063A JP 2004001063 A JP2004001063 A JP 2004001063A JP 4257219 B2 JP4257219 B2 JP 4257219B2
Authority
JP
Japan
Prior art keywords
vehicle
road
calculated
recording
travel locus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004001063A
Other languages
Japanese (ja)
Other versions
JP2005195421A (en
Inventor
登 森光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2004001063A priority Critical patent/JP4257219B2/en
Publication of JP2005195421A publication Critical patent/JP2005195421A/en
Application granted granted Critical
Publication of JP4257219B2 publication Critical patent/JP4257219B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、車両の走行軌跡を記録する装置および車両の走行軌跡を記録する方法に関する。   The present invention relates to an apparatus for recording a travel locus of a vehicle and a method for recording a travel locus of a vehicle.

例えば、特許文献1には、地図上に車両の現在位置を表示したり、目的地までの経路案内を行ったりするために、二次元的な地図データとGPSとを利用したナビゲーション装置が開示されている。このナビゲーション装置では、車両の現在位置を車両の走行に応じて時系列的に記録することにより、地図上に車両の走行軌跡が表示される。また、この装置では、車速および高度などの情報もさらに記録されており、車両の走行軌跡以外にも、走行に応じて変化する車速や高度などの情報も表示される。   For example, Patent Document 1 discloses a navigation device that uses two-dimensional map data and GPS in order to display the current position of a vehicle on a map or perform route guidance to a destination. ing. In this navigation device, the current position of the vehicle is recorded in time series according to the travel of the vehicle, whereby the travel locus of the vehicle is displayed on the map. Further, in this apparatus, information such as the vehicle speed and altitude is further recorded, and information such as the vehicle speed and altitude that changes in accordance with the travel is displayed in addition to the travel locus of the vehicle.

また、特許文献2には、単眼カメラおよびGPSを用いることにより、車両が走行した道路の三次元的な形状を記録する手法が開示されている。この手法によれば、単眼カメラより得られた撮像画像を用いて路面上の白線を検出し、検出された白線とGPSによって測定された経度、緯度および高度とを対応付けることにより、道路の三次元形状が記録される。
特開平10−253369号公報 特開2002−81941号公報
Patent Document 2 discloses a technique for recording a three-dimensional shape of a road on which a vehicle has traveled by using a monocular camera and GPS. According to this method, a white line on the road surface is detected using a captured image obtained from a monocular camera, and the detected white line is associated with the longitude, latitude, and altitude measured by the GPS, thereby obtaining a three-dimensional road. The shape is recorded.
JP-A-10-253369 JP 2002-81941 A

しかしながら、特許文献1に開示された手法は予め固定的に用意された地図データを利用するため、車両が走行した道路に対応する地図データがない場合には、走行軌跡を表示することができないという不都合が生じる。また、この手法では、GPSを用いて車両の位置検出を行っているものの、車両が地図上のどの道路を走行しているかということをマクロ的に特定しているに過ぎない。そのため、車両が道路上をどのように走行したかというミクロ的な視点で走行軌跡を記録することができないという問題がある。また、特許文献2に開示された手法は、白線を検出することにより道路形状を認識しているため、白線のない道路では道路形状を認識することができないという問題がある。   However, since the method disclosed in Patent Document 1 uses map data that is fixedly prepared in advance, the travel locus cannot be displayed when there is no map data corresponding to the road on which the vehicle has traveled. Inconvenience arises. Further, in this method, although the position of the vehicle is detected using GPS, it is only specified macroscopically on which road on the map the vehicle is traveling. For this reason, there is a problem that the travel locus cannot be recorded from a microscopic viewpoint of how the vehicle traveled on the road. Moreover, since the method disclosed in Patent Document 2 recognizes a road shape by detecting a white line, there is a problem that the road shape cannot be recognized on a road without a white line.

本発明は、このような事情に鑑みてなされたものであり、その目的は、車両が走行している道路上の車両の走行軌跡を記録することである。   The present invention has been made in view of such circumstances, and an object thereof is to record a traveling locus of a vehicle on a road on which the vehicle is traveling.

かかる課題を解決するために、第1の発明は、車両の走行軌跡を記録する装置を提供する。この走行軌跡記録装置は、車両前方の道路を含む景色を撮像することにより、一対の画像データを出力するステレオカメラと、一対の画像データに基づいて、ステレオマッチングを用いて、距離データを算出するステレオ画像処理部と、ステレオ画像処理部により算出された距離データに基づいて、車両の位置を基準とした三次元空間における車両前方の道路の位置を認識することにより、道路形状を規定する道路モデルを算出する認識部と、車両の走行に応じて、算出された道路モデルを時系列的に格納する記録部と、車両の状態を示す車両パラメータを検出する検出部とを有する。そして、記録部は、検出された車両パラメータを算出された道路モデルに対応付けて格納する。   In order to solve such a problem, the first invention provides an apparatus for recording a travel locus of a vehicle. The travel locus recording apparatus calculates distance data using stereo matching based on a stereo camera that outputs a pair of image data and a pair of image data by capturing a scene including a road ahead of the vehicle. A road model that defines the road shape by recognizing the position of the road ahead of the vehicle in a three-dimensional space based on the position of the vehicle based on the stereo image processing unit and the distance data calculated by the stereo image processing unit A recognizing unit for calculating the vehicle model, a recording unit for storing the calculated road model in time series according to the travel of the vehicle, and a detecting unit for detecting a vehicle parameter indicating the state of the vehicle. The recording unit stores the detected vehicle parameter in association with the calculated road model.

ここで、第1の発明において、認識部は、道路に沿って存在する特徴物を検出するとともに、特徴物の位置に基づいて、道路モデルを算出することが好ましい。また、この走行軌跡記録装置は、衛星から発せられた電波を受信することにより、車両の現在位置を算出する算出部をさらに有していてもよい。この場合、記録部は、算出された車両の現在位置を算出された道路モデルに対応付けて格納することが好ましい。   Here, in the first invention, the recognition unit preferably detects a feature existing along the road and calculates a road model based on the position of the feature. In addition, the travel locus recording apparatus may further include a calculation unit that calculates a current position of the vehicle by receiving radio waves emitted from a satellite. In this case, it is preferable that the recording unit stores the calculated current position of the vehicle in association with the calculated road model.

また、第1の発明において、走行軌跡記録装置は、記録部に格納された情報に基づいて、表示すべき内容を決定する制御部と、制御部によって制御され、決定された内容を表示する表示装置とをさらに有していてもよい。この場合、制御部は、車両の移動量を考慮した上で、格納された道路モデルを時系列的に連結することにより、車両が走行した道路の道路形状を表示するように表示装置を制御するとともに、道路における車両の位置を表示するように表示装置を制御することが好ましい。さらに、制御部は、道路形状と道路における車両の位置とを、道路の上方を視点として二次元的に表示するように表示装置を制御するとともに、道路形状と道路における車両の位置とを、道路の上方を視点として三次元的に表示するように、表示装置を制御することが好ましい。   In the first invention, the traveling locus recording apparatus includes a control unit that determines the content to be displayed based on information stored in the recording unit, and a display that is controlled by the control unit and displays the determined content. And a device. In this case, the control unit controls the display device so as to display the road shape of the road on which the vehicle has traveled by connecting the stored road models in time series in consideration of the amount of movement of the vehicle. At the same time, it is preferable to control the display device so as to display the position of the vehicle on the road. Further, the control unit controls the display device to display the road shape and the position of the vehicle on the road in a two-dimensional manner with the upper side of the road as a viewpoint, and the road shape and the position of the vehicle on the road It is preferable to control the display device so that it is displayed three-dimensionally with the upper side of the screen as a viewpoint.

また、第1の発明において、走行軌跡記録装置は、記録部に格納された情報を、情報記録媒体に書き込む情報記録装置をさらに有していてもよく、また、記録部に格納された情報を、通信により外部装置に伝送する情報伝送装置をさらに有していてもよい。   In the first invention, the travel locus recording apparatus may further include an information recording device for writing the information stored in the recording unit to the information recording medium, and the information stored in the recording unit. In addition, an information transmission device that transmits to an external device by communication may be further included.

第2の発明は、車両の走行軌跡を記録する方法を提供する。この走行軌跡記録方法は、第1のステップとして、ステレオカメラを用いて車両前方の道路を含む景色を撮像することにより出力される一対の画像データを取得し、第2のステップとして、一対の画像データに基づいて、ステレオマッチングを用いて、距離データを算出し、第3のステップとして、距離データに基づいて、車両の位置を基準とした三次元空間における車両前方の道路の位置を認識することにより、道路形状を規定する道路モデルを算出し、第4のステップとして、車両の走行に応じて、算出された道路モデルを時系列的に格納し、第5のステップとして、車両の状態を示す車両パラメータを取得する。この場合、第4のステップは、検出された車両パラメータを算出された道路モデルに対応付けて格納するステップを含む。   The second invention provides a method for recording a travel locus of a vehicle. In this traveling locus recording method, as a first step, a pair of image data output by capturing a scene including a road ahead of the vehicle using a stereo camera is acquired, and as a second step, a pair of images is acquired. Based on the data, the distance data is calculated using stereo matching, and as a third step, the position of the road ahead of the vehicle in the three-dimensional space based on the position of the vehicle is recognized based on the distance data. Thus, a road model that defines the road shape is calculated, and as a fourth step, the calculated road model is stored in time series according to the travel of the vehicle, and as a fifth step, the state of the vehicle is indicated. Get vehicle parameters. In this case, the fourth step includes a step of storing the detected vehicle parameter in association with the calculated road model.

ここで、第2の発明において、第3のステップは、道路に沿って存在する特徴物を検出するとともに、特徴物の位置に基づいて、道路モデルを算出することが好ましい。また、この走行軌跡記録方法は、衛星から発せられた電波を受信することにより、車両の現在位置を算出するステップをさらに有していてもよい。この場合、第4のステップは、算出された車両の現在位置を算出された道路モデルに対応付けて格納するステップを含むことが好ましい。   Here, in the second invention, it is preferable that the third step detects a feature existing along the road and calculates a road model based on the position of the feature. In addition, the traveling locus recording method may further include a step of calculating the current position of the vehicle by receiving radio waves emitted from the satellite. In this case, it is preferable that the fourth step includes a step of storing the calculated current position of the vehicle in association with the calculated road model.

また、第2の発明において、車両の移動量を考慮した上で、格納された道路モデルを時系列的に連結することにより、車両が走行した道路の道路形状を表示するように表示装置を制御するとともに、道路における車両の位置を表示するように表示装置を制御するステップをさらに有することが好ましい。   In the second invention, the display device is controlled so as to display the road shape of the road on which the vehicle has traveled by connecting the stored road models in time series in consideration of the movement amount of the vehicle. In addition, it is preferable to further include a step of controlling the display device so as to display the position of the vehicle on the road.

このように本発明によれば、ステレオカメラを用いて車両前方の景色を撮像することにより、車両を視点として自車両が走行している道路が写し出された一対の画像データが出力される。この一対の画像データより得られる距離データに基づいて算出される道路モデルを時系列的に格納することにより、道路上で車両が走行した軌跡を記録することができる。   As described above, according to the present invention, a pair of image data in which a road on which the host vehicle is traveling is projected from the viewpoint of the vehicle is output by capturing a scene in front of the vehicle using a stereo camera. By storing the road model calculated based on the distance data obtained from the pair of image data in time series, the trajectory of the vehicle traveling on the road can be recorded.

(第1の実施形態)
図1は、第1の実施形態に係る走行軌跡記録装置のブロック構成図である。車両前方の道路を含む景色を撮像するステレオカメラ1は、例えば、ルームミラー近傍に取付けられている。このステレオカメラ1は一対のカメラ2a,2bで構成されており、それぞれのカメラ2a,2bには、イメージセンサ(例えば、CCDまたはCMOSセンサ等)が内蔵されている。メインカメラ2aは、ステレオ画像処理を行う際に必要な基準画像を時系列的に撮像し、サブカメラ2bは、比較画像を時系列的に撮像する。互いの同期が取れている状態において、カメラ2a,2bから出力された各アナログ画像は、A/Dコンバータ3,4により、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像に変換される。
(First embodiment)
FIG. 1 is a block diagram of a travel locus recording apparatus according to the first embodiment. A stereo camera 1 that captures a landscape including a road ahead of the vehicle is attached in the vicinity of a room mirror, for example. The stereo camera 1 is composed of a pair of cameras 2a and 2b, and an image sensor (for example, a CCD or CMOS sensor) is built in each of the cameras 2a and 2b. The main camera 2a captures a reference image necessary for performing stereo image processing in time series, and the sub camera 2b captures a comparative image in time series. In a state where they are synchronized with each other, each analog image output from the cameras 2a and 2b is converted into a digital image of a predetermined luminance gradation (for example, a gray scale of 256 gradations) by the A / D converters 3 and 4. Is converted to

デジタル化された一対の画像データは、画像補正部5において、輝度の補正や画像の幾何学的な変換等が行われる。通常、一対のカメラ2a,2bの取付位置は、程度の差はあるものの誤差が存在するため、それに起因したずれが左右の各画像に生じている。このずれを補正するために、アフィン変換等を用いて、画像の回転や平行移動等の幾何学的な変換が行われる。   A pair of digitized image data is subjected to brightness correction, image geometric conversion, and the like in the image correction unit 5. Usually, there is an error in the mounting position of the pair of cameras 2a and 2b, although there is a difference in degree. Therefore, a shift caused by the error occurs in the left and right images. In order to correct this deviation, geometrical transformation such as image rotation or translation is performed using affine transformation or the like.

このような画像処理を経て、メインカメラ2aより基準画像データが得られ、サブカメラ2bより比較画像データが得られる。これらの画像データは、各画素の輝度値(0〜255)の集合である。ここで、画像データによって規定される画像平面は、i−j座標系で表現され、画像の左下隅を原点として、水平方向をi座標軸、垂直方向をj座標軸とする。一フレーム相当のステレオ画像データは、後段のステレオ画像処理部6に出力されるとともに、画像データメモリ8に格納される。   Through such image processing, reference image data is obtained from the main camera 2a, and comparison image data is obtained from the sub camera 2b. These image data are a set of luminance values (0 to 255) of each pixel. Here, the image plane defined by the image data is expressed in the ij coordinate system, with the lower left corner of the image as the origin, the horizontal direction as the i coordinate axis, and the vertical direction as the j coordinate axis. Stereo image data corresponding to one frame is output to the subsequent stereo image processing unit 6 and stored in the image data memory 8.

ステレオ画像処理部6は、基準画像データと比較画像データとに基づいて、一フレーム相当の撮像画像に関する距離データを算出する。ここで、「距離データ」とは、画像データによって規定される画像平面において小領域毎に算出された視差dの集合であり、個々の視差dは画像平面上の位置(i,j)と対応付けられている。それぞれの視差dは、基準画像の一部を構成する所定面積(例えば、4×4画素)の画素ブロック毎に1つ算出される。   The stereo image processing unit 6 calculates distance data related to a captured image corresponding to one frame based on the reference image data and the comparison image data. Here, the “distance data” is a set of parallax d calculated for each small area on the image plane defined by the image data, and each parallax d corresponds to a position (i, j) on the image plane. It is attached. Each parallax d is calculated for each pixel block of a predetermined area (for example, 4 × 4 pixels) constituting a part of the reference image.

図2は、基準画像に設定される画素ブロックの説明図である。例えば、基準画像が200×512画素で構成されている場合、一フレーム相当の撮像画像から、最大で画素ブロックPBijの個数相当(50×128個)の視差群が算出される。周知のように、視差dは、その算出単位である画素ブロックPBijに関する水平方向のずれ量であり、画素ブロックPBijに写し出された対象物までの距離と大きな相関がある。すなわち、画素ブロックPBij内に写し出されている対象物がカメラ2a,2bに近いほど、この画素ブロックPBijの視差dは大きくなり、対象物が遠いほど視差dは小さくなる(無限に遠い場合、視差dは0になる)。   FIG. 2 is an explanatory diagram of pixel blocks set in the reference image. For example, when the reference image is composed of 200 × 512 pixels, a parallax group corresponding to the maximum number of pixel blocks PBij (50 × 128) is calculated from a captured image corresponding to one frame. As is well known, the parallax d is the amount of horizontal displacement with respect to the pixel block PBij that is the calculation unit, and has a large correlation with the distance to the object projected in the pixel block PBij. That is, the closer the object projected in the pixel block PBij is to the cameras 2a and 2b, the larger the parallax d of the pixel block PBij is, and the farther the object is, the smaller the parallax d is. d becomes 0).

ある画素ブロックPBij(相関元)に関する視差dを算出する場合、この画素ブロックPBijの輝度特性と相関を有する領域(相関先)を比較画像において特定する。上述したように、カメラ2a,2bから対象物までの距離は、基準画像と比較画像との間における水平方向のずれ量として現れる。したがって、比較画像において相関先を探索する場合、相関元となる画素ブロックPijのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオ画像処理部6は、相関元のi座標を基準に設定された所定の探索範囲内において、エピポーラライン上を一画素ずつシフトしながら、相関元と相関先の候補との間の相関性を順次評価する(ステレオマッチング)。そして、原則として、最も相関が高いと判断される相関先(相関先の候補の内のいずれか)の水平方向のずれ量を、その画素ブロックPBijの視差dとする。   When calculating the parallax d regarding a certain pixel block PBij (correlation source), a region (correlation destination) having a correlation with the luminance characteristic of the pixel block PBij is specified in the comparison image. As described above, the distance from the cameras 2a and 2b to the object appears as a horizontal shift amount between the reference image and the comparison image. Therefore, when searching for the correlation destination in the comparison image, it is only necessary to search on the same horizontal line (epipolar line) as the j coordinate of the pixel block Pij as the correlation source. The stereo image processing section 6 shifts the correlation between the correlation source and the correlation destination candidates while shifting one pixel at a time on the epipolar line within a predetermined search range set based on the i coordinate of the correlation source. Sequential evaluation (stereo matching). In principle, the amount of horizontal deviation of the correlation destination (one of the correlation destination candidates) determined to have the highest correlation is defined as the parallax d of the pixel block PBij.

2つの画素ブロックの相関は、例えば、シティブロック距離CBを算出することにより評価することができる。数式1は、シティブロック距離CBの基本形を示す。同数式において、p1ijは一方の画素ブロックのij番目の画素の輝度値であり、p2ijは他方の画素ブロックのij番目の輝度値である。シティブロック距離CBは、位置的に対応した輝度値p1ij,p2ijの差(絶対値)の画素ブロック全体における総和であって、その差が小さいほど両画素ブロックの相関が大きいことを意味している。
(数式1)
CB=Σ|p1ij−p2ij|
The correlation between two pixel blocks can be evaluated, for example, by calculating a city block distance CB. Formula 1 shows the basic form of the city block distance CB. In the equation, p1ij is the luminance value of the ijth pixel of one pixel block, and p2ij is the ijth luminance value of the other pixel block. The city block distance CB is the total sum of the differences (absolute values) of the luminance values p1ij and p2ij corresponding to each other in the entire pixel block, and the smaller the difference, the greater the correlation between both pixel blocks. .
(Formula 1)
CB = Σ | p1ij−p2ij |

基本的に、エピポーラライン上に存在する画素ブロック毎に算出されたシティブロック距離CBのうち、その値が最小となる画素ブロックが相関先と判断される。このようにして特定された相関先と相関元との間のずれ量が視差dとなる。なお、シティブロック距離CBを算出するステレオ画像処理部6のハードウェア構成については、特開平5−114099号公報に開示されているので、必要ならば参照されたい。このような処理を経て算出された距離データ、すなわち、画像上の位置(i,j)と対応付けられた視差dの集合は、距離データメモリ7に格納される。   Basically, among the city block distances CB calculated for each pixel block existing on the epipolar line, the pixel block having the smallest value is determined as the correlation destination. The amount of deviation between the correlation destination specified in this way and the correlation source is the parallax d. Note that the hardware configuration of the stereo image processing unit 6 for calculating the city block distance CB is disclosed in Japanese Patent Laid-Open No. 5-1114099, so refer to it if necessary. The distance data calculated through such processing, that is, a set of parallax d associated with the position (i, j) on the image is stored in the distance data memory 7.

マイクロコンピュータ9は、CPU、ROM、RAM、入出力インターフェース等で構成されている。このマイクロコンピュータ9には、現在の車両の状態を示す車両パラメータを特定するために、センサ13a〜13dを含む各種センサおよびGPS位置検出部13eから得られた信号が入力されている。車速センサ13aは車両の車速を検出し、舵角センサ13bは車輪の舵角を検出する。レートセンサ13cは、ヨーイング、ローリングおよびピッチングといった車両の回転運動の変化量(例えば、ヨーレート)を検出する。車両方位センサ13dは、車両の進行方向を検出するセンサであり、地磁気方位センサやジャイロなどを用いることができる。GPS位置検出部13eは、GPS衛星から発せられた電波や、既知の地点に設置された固定局からディファレンシャル情報を受信する。なお、図1には明示していないが、これらの検出値以外にも、アクセル、ブレーキおよびハンドルなどの操作量といった操作状態や、エンジン回転数、過給圧およびトランスミッションのギヤ位置といった車両の運転状態も車両パラメータとして検出されている。なお、本明細書では、「検出部13」という用語を、これらの車両パラメータを検出する各種センサおよびGPS位置検出部13eを総称する意味で用いる。   The microcomputer 9 includes a CPU, a ROM, a RAM, an input / output interface, and the like. The microcomputer 9 is inputted with various sensors including the sensors 13a to 13d and signals obtained from the GPS position detecting unit 13e in order to specify vehicle parameters indicating the current vehicle state. The vehicle speed sensor 13a detects the vehicle speed of the vehicle, and the steering angle sensor 13b detects the steering angle of the wheels. The rate sensor 13c detects the amount of change (for example, yaw rate) of the rotational motion of the vehicle such as yawing, rolling, and pitching. The vehicle orientation sensor 13d is a sensor that detects the traveling direction of the vehicle, and a geomagnetic orientation sensor, a gyro, or the like can be used. The GPS position detection unit 13e receives radio waves emitted from GPS satellites and differential information from fixed stations installed at known points. Although not explicitly shown in FIG. 1, in addition to these detected values, the operation state such as the operation amount of the accelerator, the brake, the steering wheel, etc., the vehicle operation such as the engine speed, the boost pressure, and the transmission gear position. The state is also detected as a vehicle parameter. In the present specification, the term “detection unit 13” is used to collectively refer to various sensors that detect these vehicle parameters and the GPS position detection unit 13e.

マイクロコンピュータ9は、これを機能的に捉えた場合、認識部10、算出部11および制御部12を有する。認識部10は、ステレオ画像処理部6により算出された距離データに基づいて、車両を基準とした三次元空間における車両前方の道路の位置を認識する。認識された道路の位置に基づいて、道路形状を規定する道路モデルが算出される。道路モデルの算出には、画像データメモリ8中に格納された画像データも必要に応じて参照される。算出部11は、検出部13から得られた検出信号に基づいて、車両の姿勢および現在位置といった車両パラメータをさらに算出する。そして、算出された道路モデルと、車両パラメータ(検出部13から得られた検出値および算出部11によって算出された算出値)とは、互いに対応付けられて走行軌跡データとして後段の記録部14に格納される。制御部12は、記録部14に格納された走行軌跡データを参照し、表示装置15を制御することにより、車両の走行軌跡を表示する。また、制御部12は、情報記録装置16を介して、記録部14に格納された走行軌跡データを情報記録媒体に格納したり、情報伝送装置17を通じて通信により外部装置(図示せず)に伝送することができる。   The microcomputer 9 includes a recognition unit 10, a calculation unit 11, and a control unit 12 when this is viewed functionally. The recognition unit 10 recognizes the position of the road ahead of the vehicle in the three-dimensional space based on the vehicle based on the distance data calculated by the stereo image processing unit 6. A road model that defines the road shape is calculated based on the recognized road position. For calculation of the road model, the image data stored in the image data memory 8 is also referred to as necessary. The calculation unit 11 further calculates vehicle parameters such as the posture of the vehicle and the current position based on the detection signal obtained from the detection unit 13. Then, the calculated road model and the vehicle parameters (the detected value obtained from the detecting unit 13 and the calculated value calculated by the calculating unit 11) are associated with each other in the subsequent recording unit 14 as travel locus data. Stored. The control unit 12 refers to the travel locus data stored in the recording unit 14 and controls the display device 15 to display the travel locus of the vehicle. Further, the control unit 12 stores the travel locus data stored in the recording unit 14 in the information recording medium via the information recording device 16 or transmits it to an external device (not shown) by communication through the information transmission device 17. can do.

図3は、車両の走行軌跡の記録手順を示したフローチャートである。このフローチャートに示したルーチンは、所定間隔毎に呼び出され、マイクロコンピュータ9によって実行される。まず、ステップ1において、認識部10は、画像データメモリ8より1フレーム相当の画像データを読み込むとともに、このデータに対応する距離データを距離データメモリ7より読み込む。   FIG. 3 is a flowchart showing a procedure for recording the travel locus of the vehicle. The routine shown in this flowchart is called at predetermined intervals and executed by the microcomputer 9. First, in step 1, the recognition unit 10 reads image data corresponding to one frame from the image data memory 8 and reads distance data corresponding to this data from the distance data memory 7.

ステップ2において、認識部10は、道路モデルを算出する。この道路モデルは、実空間の座標系において、水平方向および垂直方向における直線式で表現され、この直線式のパラメータを実際の道路形状に合致するような値に設定することにより、算出可能である。道路に沿って存在する植物の植え込みやパイロン、ガードレールなどの立体物、または、路面に描かれた車線を規定する白線(または黄線)といった特徴物は、道路形状を認識する上で有効である。そのため、認識部10は、道路に沿って存在するこれらの特徴物の実空間上の位置を認識し、この位置を連結することにより道路モデルを算出する。特徴物の実空間上の位置(x,y,z)は、距離データ上の位置(i,j)とこの位置に関して算出された視差dとに基づいて、周知の座標変換式より一義的に算出される。実空間を規定する三次元座標系は、車両を基準に設定されており、ステレオカメラ1の中央真下の道路面を原点として、車幅方向をx軸、車高方向をy軸、車長方向(距離方向)をz軸とする。そのため、算出された道路モデルは、車両の位置を基準とした三次元空間における道路形状を規定することになる。   In step 2, the recognition unit 10 calculates a road model. This road model is expressed by a linear expression in the horizontal direction and the vertical direction in the coordinate system of the real space, and can be calculated by setting the parameters of this linear expression to values that match the actual road shape. . Plants that exist along the road, solid objects such as pylons and guardrails, or features such as white lines (or yellow lines) that define lanes drawn on the road surface are effective in recognizing road shapes. . Therefore, the recognizing unit 10 recognizes the positions in the real space of these feature objects existing along the road, and calculates the road model by connecting these positions. The position (x, y, z) of the feature in the real space is uniquely determined from a well-known coordinate conversion formula based on the position (i, j) on the distance data and the parallax d calculated with respect to this position. Calculated. The three-dimensional coordinate system that defines the real space is set on the basis of the vehicle, with the road surface directly below the center of the stereo camera 1 as the origin, the vehicle width direction is the x axis, the vehicle height direction is the y axis, Let (distance direction) be the z-axis. Therefore, the calculated road model defines the road shape in the three-dimensional space with the vehicle position as a reference.

立体物認識をベースとした道路モデル算出では、距離データに基づいて、車両前方の立体物を検出するとともに、検出された立体物が、物体(先行車や障害物)のグループと、壁面(例えば、ガードレールや植え込み)のグループとに分類される。この分類にともない、道路に沿って存在する一連の立体物が壁面として検出される。複数のノードを連結して壁面の輪郭を表す壁面モデルを、検出された壁面の実空間上の位置に基づいて修正することにより、壁面モデルが算出される。この壁面モデルは、実質的に道路の形状を規定しているため、道路モデルと等価に扱うことができる。   In the road model calculation based on the three-dimensional object recognition, a three-dimensional object in front of the vehicle is detected based on the distance data, and the detected three-dimensional object includes a group of objects (preceding vehicle or obstacle) and a wall surface (for example, , Guardrails and planting). Along with this classification, a series of three-dimensional objects existing along the road are detected as wall surfaces. A wall surface model is calculated by correcting a wall surface model representing the contour of the wall surface by connecting a plurality of nodes based on the position of the detected wall surface in real space. Since the wall surface model substantially defines the shape of the road, it can be handled equivalently to the road model.

白線認識をベースとした道路モデル算出では、白線は道路面と比較して高輝度であるという知得に基づき、画像データが参照される。この画像データに基づいて、道路の幅方向の輝度変化を評価することにより、画像平面上の左右の白線の位置を特定する。特定された白線の画像平面上の位置(i,j)と、この位置に対応する距離データの視差dとに基づき、白線の位置が検出される。道路モデルは、道路上の白線を距離方向に複数区間に分割し、各区間における左右の白線の位置を三次元の直線でそれぞれ近似し、これらを折れ線状に連結することにより、算出可能である。   In the road model calculation based on white line recognition, image data is referred to based on the knowledge that the white line is brighter than the road surface. Based on this image data, the position of the left and right white lines on the image plane is specified by evaluating the luminance change in the width direction of the road. The position of the white line is detected based on the position (i, j) on the image plane of the identified white line and the parallax d of the distance data corresponding to this position. The road model can be calculated by dividing the white line on the road into multiple sections in the distance direction, approximating the position of the left and right white lines in each section with a three-dimensional straight line, and connecting them in a polygonal line. .

認識部10は、例えば、自車両前方に白線が存在している場合には、白線ベースで道路モデルを算出し、白線が存在していない場合には、立体物ベースで道路モデルを算出する。これ以外にも、路面上に描かれたセンターラインと、路肩側に存在するガードレールと認識することにより、両認識手法を組合わせて道路モデルを算出してもよい。なお、白線検出の詳細については、特開2001−92970号公報、立体物検出の詳細については、特開平11−213138号公報に開示されているので、必要ならば参照されたい。   For example, the recognition unit 10 calculates a road model based on a white line when a white line is present in front of the host vehicle, and calculates a road model based on a solid object when the white line is not present. In addition to this, a road model may be calculated by combining both recognition methods by recognizing the center line drawn on the road surface and the guard rail existing on the road shoulder side. The details of white line detection are disclosed in Japanese Patent Laid-Open No. 2001-92970, and details of solid object detection are disclosed in Japanese Patent Laid-Open No. 11-213138.

ステップ3において、算出部11は、検出部13の検出信号を読み込む。そして、検出部13の検出信号に基づいて、車両の姿勢および現在位置が算出される(ステップ4)。具体的には、センサ13a〜13dから得られたセンサ信号に基づいて、車両の姿勢が算出される。また、GPS位置検出部13eから得られたGPS信号に基づいて、車両の現在位置が算出される。なお、周知のように、GPS衛星から発せられた電波のみを用いた自己位置の算出は誤差が大きい。そこで、算出部11は、この算出値の誤差を除去するために、固定局から得られたディファレンシャル情報に基づいて、この地点の位置観測を行う。そして、この位置観測に基づいて得られた補正情報をフィードバックすることで(所謂D−GPS制御)、車両の絶対的な位置を精度よく算出することができる。   In step 3, the calculation unit 11 reads the detection signal from the detection unit 13. And based on the detection signal of the detection part 13, the attitude | position and present position of a vehicle are calculated (step 4). Specifically, the attitude of the vehicle is calculated based on sensor signals obtained from the sensors 13a to 13d. Further, the current position of the vehicle is calculated based on the GPS signal obtained from the GPS position detector 13e. As is well known, the calculation of the self-position using only the radio wave emitted from the GPS satellite has a large error. Therefore, the calculation unit 11 observes the position of this point based on the differential information obtained from the fixed station in order to remove the error of the calculated value. Then, by feeding back correction information obtained based on this position observation (so-called D-GPS control), the absolute position of the vehicle can be accurately calculated.

ステップ5において、認識部10によって算出された道路モデルが、自車両の手前の所定の距離(例えば、5m)分だけ記録部14に格納される。これとともに、算出部11によって算出された車両の姿勢および現在位置、さらには検出部13によって検出された車両パラメータが記録部14に格納され、本ルーチンを抜ける。   In step 5, the road model calculated by the recognition unit 10 is stored in the recording unit 14 for a predetermined distance (for example, 5 m) in front of the host vehicle. At the same time, the posture and current position of the vehicle calculated by the calculation unit 11 and the vehicle parameters detected by the detection unit 13 are stored in the recording unit 14, and the routine is exited.

このようなサイクルが繰り返し行われることにより、車両の走行に応じて、道路モデルが記録部14に時系列的に格納される。これとともに、道路モデルに対応する車両パラメータが記録部14に時系列的に格納される。記録部14に格納された走行軌跡データは、情報記録装置16を介して情報記録媒体に対して書き込んだり、また、情報伝送装置17を介して、インターネットや無線・有線のLANなどを通じて外部装置に対して伝送することができる。   By repeating such a cycle, the road model is stored in the recording unit 14 in time series according to the traveling of the vehicle. At the same time, vehicle parameters corresponding to the road model are stored in the recording unit 14 in time series. The travel locus data stored in the recording unit 14 is written to an information recording medium via the information recording device 16, or is transmitted to an external device via the information transmission device 17 through the Internet or a wireless / wired LAN. Can be transmitted.

また、制御部12は、記録部14に格納された走行軌跡データに基づいて、車両が走行した走行軌跡データを表示装置15に表示することができる。例えば、白線ベースで道路モデルを算出した場合、記録部14には、第1の道路モデルR1、第2の道路モデルR2、第3の道路モデルR3といったように複数の道路モデルが時系列的に格納されている。図4(a)は直線式で表される道路モデルの二次元的な模式図である。同図(a)において、点C1〜C3は、車両の位置(道路モデルを算出する際の基準位置)を示しており、この車両の位置Cを基準とした水平視野角(点線で図示)の内側には、道路モデルによって規定される道路形状が実線で示されている。   Further, the control unit 12 can display the traveling locus data on which the vehicle has traveled on the display device 15 based on the traveling locus data stored in the recording unit 14. For example, when a road model is calculated on a white line basis, a plurality of road models such as a first road model R1, a second road model R2, and a third road model R3 are stored in the recording unit 14 in time series. Stored. FIG. 4A is a two-dimensional schematic diagram of a road model represented by a linear equation. In FIG. 6A, points C1 to C3 indicate the position of the vehicle (reference position when calculating the road model), and the horizontal viewing angle (illustrated by a dotted line) with reference to the position C of the vehicle. Inside, the road shape defined by the road model is indicated by a solid line.

制御部12は、道路モデルを表示する前提として、表示装置15における表示画面上の位置と、GPSによる位置情報とを予め対応付けておく。そして、制御部12は、車両の移動量を考慮した上で、格納された道路モデルを時系列的に連結して表示する。具体的には、車両の現在位置C1に対応する表示画面上の位置P1には、車両の姿勢を考慮した上で、第1の道路モデルR1が表示される。また、車両の現在位置C2に対応する表示画面上の位置P2には、車両の姿勢を考慮した上、第2の道路モデルR2が表示される。この場合、第2の道路モデルR2よりも前方のオフセットした第1の道路モデルは表示しない。この処理が、第3の道路モデルR3(或いは、それ以降の道路モデルR)についても同様に行われることにより、記録部14に格納された分だけの道路モデルが表示される(図4(b)参照)。この連結された道路モデルでは、道路モデルを算出する際の基準位置Cの集合が、車両の走行軌跡となって表示される。   As a premise for displaying the road model, the control unit 12 associates a position on the display screen of the display device 15 with position information by GPS in advance. Then, the control unit 12 displays the stored road models connected in time series in consideration of the amount of movement of the vehicle. Specifically, the first road model R1 is displayed at a position P1 on the display screen corresponding to the current position C1 of the vehicle in consideration of the posture of the vehicle. Further, the second road model R2 is displayed at a position P2 on the display screen corresponding to the current position C2 of the vehicle in consideration of the posture of the vehicle. In this case, the first road model offset ahead of the second road model R2 is not displayed. This process is similarly performed for the third road model R3 (or the subsequent road model R), so that only the road models stored in the recording unit 14 are displayed (FIG. 4B). )reference). In this connected road model, a set of reference positions C when the road model is calculated is displayed as a travel locus of the vehicle.

図5は、表示画面に表示される走行軌跡データの説明図である。同図では、例えば、車両がオーバルコースを走行した場合の車両の走行軌跡および道路形状が示されており、車両が走行した道路形状が実線、走行軌跡が点線で表示されている。制御部12は、道路形状と、車両の走行に応じた道路における車両の位置とを、上方を視点として二次元的に表示するように、表示装置15を制御する。これにともない、走行軌跡および道路形状が真上から眺めた状態で表示される(同図(a)参照)。また、制御部12は、道路形状と、車両の走行に応じた道路における車両の位置とを、上方を視点として三次元的に表示するように、表示装置15を制御してもよい。これにともない、走行軌跡および道路形状が、車両の斜め後方から眺めた状態(所謂、バードビュー)で表示される(同図(b)参照)。同図(b)には、車両に対応したシンボルが表示されており、このシンボルを車両の姿勢に対応するように表示してもよい。なお、表示装置15の表示画面に、表示内容を充実させる観点から、例えば、車速、エンジン回転数などの車両パラメータを併せて表示してもよい。また、同様の観点から、例えば、同図(a)に示す表示形態と、同図(b)に示す表示形態とを一つの表示画面に並列に表示してもよい。換言すれば、制御部12は、二次元的は表示を行うように表示装置15を制御するとともに、これと並列的に、三次元的な表示を行うように表示装置を制御することとなる。   FIG. 5 is an explanatory diagram of travel locus data displayed on the display screen. In the figure, for example, the travel locus and road shape of the vehicle when the vehicle travels on an oval course are shown, and the road shape on which the vehicle has traveled is indicated by a solid line and the travel locus is indicated by a dotted line. The control unit 12 controls the display device 15 so that the road shape and the position of the vehicle on the road according to the traveling of the vehicle are two-dimensionally displayed with the upper side as a viewpoint. Along with this, the traveling locus and the road shape are displayed in a state viewed from directly above (see (a) of the figure). In addition, the control unit 12 may control the display device 15 so that the road shape and the position of the vehicle on the road according to the traveling of the vehicle are three-dimensionally displayed with the upper side as a viewpoint. Accordingly, the travel locus and the road shape are displayed in a state viewed from an oblique rear side of the vehicle (a so-called bird view) (see FIG. 5B). In FIG. 5B, a symbol corresponding to the vehicle is displayed, and this symbol may be displayed so as to correspond to the posture of the vehicle. For example, vehicle parameters such as vehicle speed and engine speed may be displayed on the display screen of the display device 15 from the viewpoint of enhancing the display contents. From the same viewpoint, for example, the display form shown in FIG. 5A and the display form shown in FIG. 5B may be displayed in parallel on one display screen. In other words, the control unit 12 controls the display device 15 to perform two-dimensional display, and controls the display device to perform three-dimensional display in parallel with the display device 15.

以上説明したように、本実施形態によれば、ステレオカメラ1を用いて車両前方の景色を撮像することにより、車両を視点として自車両が走行している道路が写し出された一対の画像データが出力される。これらの画像データから算出される距離データに基づいて、道路形状を規定する道路モデルが算出される。そして、自車両の走行に応じて、算出された道路モデルが記録部14に時系列的に格納される。この道路モデルは、車両の位置を基準とした三次元空間においてその道路形状を規定している関係上、記録部14には、道路形状の変化とともに、自車両の位置を基準とした道路の車幅方向の相対的な変化が時系列的に記録されることになる。換言すれば、道路の車幅方向の相対的な変化は、道路をベースとした自車両の車幅方向の位置の変化であるため、この道路モデルを記録することにより、道路上で車両が走行した軌跡を記録することができる。   As described above, according to the present embodiment, a pair of image data in which a road on which the host vehicle is traveling is projected from the viewpoint of the vehicle by capturing a scene in front of the vehicle using the stereo camera 1. Is output. A road model that defines the road shape is calculated based on the distance data calculated from the image data. The calculated road model is stored in the recording unit 14 in time series according to the traveling of the host vehicle. Since this road model defines the road shape in a three-dimensional space based on the position of the vehicle, the recording unit 14 stores the vehicle on the road based on the position of the host vehicle along with the change in the road shape. A relative change in the width direction is recorded in time series. In other words, since the relative change in the vehicle width direction of the road is a change in the vehicle width direction position of the host vehicle based on the road, the vehicle travels on the road by recording this road model. Recorded trajectory can be recorded.

また、本実施形態によれば、白線または立体物のいずれかを特徴物として道路モデルを算出することができるので、幅広い状況で走行軌跡を記録することができる。例えば、地図のないサーキット場などのコースでも、リアルタイムで道路モデルを算出することにより、走行軌跡を記録することができる。また、広い駐車場にパイロンを並べて設営されたような臨時の道路(コース)であっても、同様に、走行軌跡の記録とを行うことができる。   Moreover, according to this embodiment, since a road model can be calculated using either a white line or a three-dimensional object as a feature object, a travel locus can be recorded in a wide range of situations. For example, even in a course such as a circuit field without a map, a travel locus can be recorded by calculating a road model in real time. Further, even on a temporary road (course) where pylons are installed side by side in a large parking lot, it is possible to record a travel locus in the same manner.

また、算出部11によって車両の現在位置が算出されているため、例えば、表示装置15に走行軌跡を表示する場合には、この位置を基準に道路モデルを連結することにより、走行軌跡を正確に表示することができる。また、走行軌跡データを、携帯が容易な情報記録媒体に格納したり、外部装置に伝送することにより、外部装置を用いてデータの解析や保存などの処理を実行することができる。これにより、走行軌跡データをさらに有効活用することができる。例えば、あるコースにおける実際の運転操作による走行軌跡を表示させるばかりでなく、理論最適解による運転操作による走行軌跡とを比較して表示するといった如くである。この場合、表示装置15に車両パラメータを表示することによって、より詳細な走行軌跡の比較を行うことができる。   In addition, since the current position of the vehicle is calculated by the calculation unit 11, for example, when a travel locus is displayed on the display device 15, the travel locus is accurately obtained by connecting road models based on this position. Can be displayed. Further, by storing the travel locus data in an information recording medium that is easy to carry or transmitting it to an external device, processing such as data analysis and storage can be executed using the external device. Thereby, traveling locus data can be used more effectively. For example, not only the travel locus by the actual driving operation in a certain course is displayed, but also the travel locus by the driving operation by the theoretical optimal solution is compared and displayed. In this case, by displaying the vehicle parameters on the display device 15, it is possible to perform a more detailed comparison of traveling tracks.

(第2の実施形態)
図6は、第2の実施形態に係る走行軌跡記録装置のブロック構成図である。第2の実施形態が、第1の実施形態と相違する点は、GPS位置検出部13eを設けていないことである。なお、第2の実施形態において、第1の実施形態で説明した構成要素と同じ要素については、同一の符号を付してその説明を省略する。GPS位置検出部13eを設けた場合には、GPSによる絶対的な位置を基準とすることで、自車両の走行に応じて時系列的に格納される道路モデルに相互の関連性を持たせることができる。これに対して、GPS位置検出部13eが設けられていない第2の実施形態では、自車両の移動量を推定することにより、時系列的に格納される道路モデルに相互の関連性を持たせる必要がある。車両の移動量は、推測航法を用いて推測する方法、または、画像データおよび距離データから推定する手法を用いることによって推定することができる。
(Second Embodiment)
FIG. 6 is a block diagram of a travel locus recording apparatus according to the second embodiment. The second embodiment is different from the first embodiment in that the GPS position detection unit 13e is not provided. Note that in the second embodiment, the same components as those described in the first embodiment are denoted by the same reference numerals, and description thereof is omitted. In the case where the GPS position detection unit 13e is provided, the road model stored in time series according to the traveling of the host vehicle is related to each other by using the absolute position by GPS as a reference. Can do. On the other hand, in the second embodiment in which the GPS position detection unit 13e is not provided, the road models stored in time series are correlated with each other by estimating the movement amount of the host vehicle. There is a need. The movement amount of the vehicle can be estimated by using a method of estimating using dead reckoning or a method of estimating from the image data and the distance data.

推測航法を用いた移動量の推測方法では、算出部11において、車速センサ13aから得られる車速に基づいて、所定時間(例えば、ルーチンの呼び出し間隔)経過後の車両の移動距離が算出される。これとともに、車両方位センサ13dから得られる車両の方位変化量が算出される。算出された車両の移動距離および車両の方位変化量に基づいて、算出部11は、車両の移動位置を現在位置として算出する。そして、この車両の移動位置を時系列的に記録部14に記録する。車両の移動量は、時系列的に記録された車両の移動位置から算出される。   In the movement amount estimation method using dead reckoning, the calculation unit 11 calculates the movement distance of the vehicle after elapse of a predetermined time (for example, routine call interval) based on the vehicle speed obtained from the vehicle speed sensor 13a. At the same time, the direction change amount of the vehicle obtained from the vehicle direction sensor 13d is calculated. Based on the calculated vehicle travel distance and vehicle azimuth change amount, the calculation unit 11 calculates the vehicle travel position as the current position. Then, the moving position of the vehicle is recorded in the recording unit 14 in time series. The amount of movement of the vehicle is calculated from the movement position of the vehicle recorded in time series.

本実施形態によれば、車両の移動量を推測することで、上述した第1の実施形態と同様の効果を奏することができる。なお、車両の移動量を推定しているため、実際の車両の移動量と推定した移動量との間に誤差が生じた場合、これが経時的に繰り返されることにより、誤差が累積してしまう可能性がある。例えば、図5(a)のようにオーバルコースを走行している場合、スタート位置とゴール位置とが一致しなくなるということが考えられる。そのため、GPS位置検出部13eを設けない場合には、例えば図5(b)のような表示形態を用いることにより、走行軌跡の経時的な変化を部分的に表示することが好ましい。ただし、第1の実施形態と比較して走行軌跡の再現性が低下する虞があるものの、第2の実施形態によれば、検出部13の構成が簡素化され、コストの低減を図ることができる。   According to the present embodiment, the same effects as those of the first embodiment described above can be achieved by estimating the amount of movement of the vehicle. Since the amount of movement of the vehicle is estimated, if an error occurs between the actual amount of movement of the vehicle and the estimated amount of movement, the error may accumulate by repeating this over time. There is sex. For example, when the vehicle is traveling on an oval course as shown in FIG. 5A, the start position and the goal position may not match. For this reason, when the GPS position detection unit 13e is not provided, it is preferable to partially display the change over time in the travel locus by using, for example, a display form as shown in FIG. However, although there is a possibility that the reproducibility of the travel locus may be reduced as compared with the first embodiment, according to the second embodiment, the configuration of the detection unit 13 is simplified, and the cost can be reduced. it can.

第1の実施形態に係る走行軌跡記録装置のブロック構成図1 is a block diagram of a travel locus recording apparatus according to a first embodiment. 基準画像に設定される画素ブロックの説明図Explanatory drawing of the pixel block set to the reference image 車両の走行軌跡の記録手順を示したフローチャートFlowchart showing a procedure for recording a vehicle travel locus 道路モデルの連結処理の説明図Explanatory diagram of road model connection processing 表示画面に表示される走行軌跡データの説明図Explanatory drawing of running track data displayed on the display screen 第2の実施形態に係る走行軌跡記録装置のブロック構成図Block diagram of a travel locus recording apparatus according to the second embodiment

符号の説明Explanation of symbols

1 ステレオカメラ
2a メインカメラ
2b サブカメラ
3,4 A/Dコンバータ
5 画像補正部
6 ステレオ画像処理部
7 距離データメモリ
8 画像データメモリ
9 マイクロコンピュータ
10 認識部
11 算出部
12 制御部
13 検出部
13a 車速センサ
13b 舵角センサ
13c レートセンサ
13d 車両方位センサ
13e GPS位置検出部
14 記録部
15 表示装置
16 情報記録装置
17 情報伝送装置
DESCRIPTION OF SYMBOLS 1 Stereo camera 2a Main camera 2b Sub camera 3,4 A / D converter 5 Image correction part 6 Stereo image processing part 7 Distance data memory 8 Image data memory 9 Microcomputer 10 Recognition part 11 Calculation part 12 Control part 13 Detection part 13a Vehicle speed Sensor 13b Rudder angle sensor 13c Rate sensor 13d Vehicle direction sensor 13e GPS position detection unit 14 Recording unit 15 Display device 16 Information recording device 17 Information transmission device

Claims (11)

車両の走行軌跡を記録する装置において、
前記車両前方の道路を含む景色を撮像することにより、一対の画像データを出力するステレオカメラと、
前記一対の画像データに基づいて、ステレオマッチングを用いて、距離データを算出するステレオ画像処理部と、
前記ステレオ画像処理部により算出された距離データに基づいて、前記車両の位置を基準とした三次元空間における前記車両前方の道路の位置を認識することにより、道路形状を規定する道路モデルを算出する認識部と、
前記車両の走行に応じて、前記算出された道路モデルを時系列的に格納する記録部と、
車両の走行状態を示す車両パラメータを検出する検出部とを有し、
前記記録部は、前記検出された車両パラメータを前記算出された道路モデルに対応付けて格納することを特徴とする走行軌跡記録装置。
In an apparatus for recording the traveling locus of a vehicle,
A stereo camera that outputs a pair of image data by imaging a landscape including a road ahead of the vehicle;
A stereo image processing unit that calculates distance data using stereo matching based on the pair of image data;
Based on the distance data calculated by the stereo image processing unit, a road model that defines the road shape is calculated by recognizing the position of the road ahead of the vehicle in a three-dimensional space based on the position of the vehicle. A recognition unit;
A recording unit that stores the calculated road model in time series according to the traveling of the vehicle;
A detection unit for detecting a vehicle parameter indicating a running state of the vehicle,
The recording unit stores the detected vehicle parameter in association with the calculated road model.
前記認識部は、前記道路に沿って存在する特徴物を検出するとともに、前記特徴物の位置に基づいて、前記道路モデルを算出することを特徴とする請求項1に記載された走行軌跡記録装置。   The travel locus recording apparatus according to claim 1, wherein the recognition unit detects a feature existing along the road and calculates the road model based on a position of the feature. . 衛星から発せられた電波を受信することにより、前記車両の現在位置を算出する算出部をさらに有し、
前記記録部は、前記算出された車両の現在位置を前記算出された道路モデルに対応付けて格納することを特徴とする請求項1または2に記載された走行軌跡記録装置。
By further receiving a radio wave emitted from a satellite to calculate a current position of the vehicle;
The travel locus recording apparatus according to claim 1, wherein the recording unit stores the calculated current position of the vehicle in association with the calculated road model.
前記記録部に格納された情報に基づいて、表示すべき内容を決定する制御部と、
前記制御部によって制御され、前記決定された内容を表示する表示装置とをさらに有し、
前記制御部は、前記車両の移動量を考慮した上で、前記格納された道路モデルを時系列的に連結することにより、前記車両が走行した道路の道路形状を表示するように前記表示装置を制御するとともに、前記道路における車両の位置を表示するように前記表示装置を制御することを特徴とする請求項1から3のいずれかに記載された走行軌跡記録装置。
A control unit that determines the content to be displayed based on the information stored in the recording unit;
A display device controlled by the control unit and displaying the determined content;
The control unit is configured to display the road shape of the road on which the vehicle has traveled by connecting the stored road models in time series in consideration of the amount of movement of the vehicle. The travel locus recording apparatus according to claim 1, wherein the display device is controlled so as to display a position of the vehicle on the road.
前記制御部は、前記道路形状と前記道路における車両の位置とを、前記道路の上方を視点として二次元的に表示するように前記表示装置を制御するとともに、前記道路形状と前記道路における車両の位置とを、前記道路の上方を視点として三次元的に表示するように、前記表示装置を制御することを特徴とする請求項4に記載された走行軌跡記録装置。   The control unit controls the display device to display the road shape and the position of the vehicle on the road in a two-dimensional manner with the upper side of the road as a viewpoint, and also controls the road shape and the vehicle on the road. The travel locus recording apparatus according to claim 4, wherein the display device is controlled so that the position is three-dimensionally displayed with the upper side of the road as a viewpoint. 前記記録部に格納された情報を、情報記録媒体に書き込む情報記録装置をさらに有することを特徴とする請求項1から5のいずれかに記載された走行軌跡記録装置。   The travel locus recording apparatus according to any one of claims 1 to 5, further comprising an information recording apparatus that writes information stored in the recording unit to an information recording medium. 前記記録部に格納された情報を、通信により外部装置に伝送する情報伝送装置をさらに有することを特徴とする請求項1から6のいずれかに記載された走行軌跡記録装置。   The travel locus recording apparatus according to any one of claims 1 to 6, further comprising an information transmission device that transmits information stored in the recording unit to an external device through communication. 車両の走行軌跡を記録する方法において、
ステレオカメラを用いて前記車両前方の道路を含む景色を撮像することにより出力される一対の画像データを取得する第1のステップと、
前記一対の画像データに基づいて、ステレオマッチングを用いて、距離データを算出する第2のステップと、
前記距離データに基づいて、前記車両の位置を基準とした三次元空間における前記車両前方の道路の位置を認識することにより、道路形状を規定する道路モデルを算出する第3のステップと、
前記車両の走行に応じて、前記算出された道路モデルを時系列的に格納する第4のステップと
車両の走行状態を示す車両パラメータを取得する第5のステップを有し、
前記第4のステップは、前記検出された車両パラメータを前記算出された道路モデルに対応付けて格納するステップを含むことを特徴とする走行軌跡記録方法。
In a method of recording a travel locus of a vehicle,
A first step of acquiring a pair of image data output by imaging a landscape including a road ahead of the vehicle using a stereo camera;
A second step of calculating distance data using stereo matching based on the pair of image data;
A third step of calculating a road model that defines a road shape by recognizing a position of a road ahead of the vehicle in a three-dimensional space based on the position of the vehicle based on the distance data;
A fourth step of storing the calculated road model in time series according to the traveling of the vehicle, and a fifth step of acquiring a vehicle parameter indicating a traveling state of the vehicle,
The fourth step includes a step of storing the detected vehicle parameter in association with the calculated road model.
前記第3のステップは、前記道路に沿って存在する特徴物を検出するとともに、前記特徴物の位置に基づいて、前記道路モデルを算出することを特徴とする請求項8に記載された走行軌跡記録方法。   9. The travel locus according to claim 8, wherein the third step detects a feature existing along the road and calculates the road model based on the position of the feature. Recording method. 衛星から発せられた電波を受信することにより、前記車両の現在位置を算出するステップをさらに有し、
前記第4のステップは、前記算出された車両の現在位置を前記算出された道路モデルに対応付けて格納するステップを含むことを特徴とする請求項8または9に記載された走行軌跡記録方法。
A step of calculating a current position of the vehicle by receiving radio waves emitted from a satellite;
The travel locus recording method according to claim 8 or 9, wherein the fourth step includes a step of storing the calculated current position of the vehicle in association with the calculated road model.
前記車両の移動量を考慮した上で、前記格納された道路モデルを時系列的に連結することにより、前記車両が走行した道路の道路形状を表示するように前記表示装置を制御するとともに、前記道路における車両の位置を表示するように前記表示装置を制御するステップをさらに有することを特徴とする請求項8から10のいずれかに記載された走行軌跡記録方法。   In consideration of the amount of movement of the vehicle, the display device is controlled to display the road shape of the road on which the vehicle has traveled by connecting the stored road models in time series, and The travel locus recording method according to any one of claims 8 to 10, further comprising a step of controlling the display device so as to display a position of a vehicle on a road.
JP2004001063A 2004-01-06 2004-01-06 Traveling locus recording apparatus and traveling locus recording method Expired - Fee Related JP4257219B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004001063A JP4257219B2 (en) 2004-01-06 2004-01-06 Traveling locus recording apparatus and traveling locus recording method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004001063A JP4257219B2 (en) 2004-01-06 2004-01-06 Traveling locus recording apparatus and traveling locus recording method

Publications (2)

Publication Number Publication Date
JP2005195421A JP2005195421A (en) 2005-07-21
JP4257219B2 true JP4257219B2 (en) 2009-04-22

Family

ID=34816687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004001063A Expired - Fee Related JP4257219B2 (en) 2004-01-06 2004-01-06 Traveling locus recording apparatus and traveling locus recording method

Country Status (1)

Country Link
JP (1) JP4257219B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8346466B2 (en) * 2009-11-11 2013-01-01 Northrop Grumman Guidance & Electronics Systems and methods for determining heading
JP5229254B2 (en) * 2010-03-23 2013-07-03 株式会社デンソー Road shape recognition device
JP2021174288A (en) 2020-04-27 2021-11-01 富士通株式会社 Camera height calculation method and image processing device

Also Published As

Publication number Publication date
JP2005195421A (en) 2005-07-21

Similar Documents

Publication Publication Date Title
CN111986506B (en) Mechanical parking space parking method based on multi-vision system
EP3940421A1 (en) Positioning method and device based on multi-sensor fusion
JP4600357B2 (en) Positioning device
JP5966747B2 (en) Vehicle travel control apparatus and method
US20220292711A1 (en) Pose estimation method and device, related equipment and storage medium
US20150332100A1 (en) Moving Object Location/Attitude Angle Estimation Device and Moving Object Location/Attitude Angle Estimation Method
JP2020528134A (en) Calibration of integrated sensor in natural scene
CN107750364A (en) Detected using the road vertically profiling of stable coordinate system
WO2015145543A1 (en) Object detection apparatus, object detection method, and mobile robot
CN110402368A (en) The Inertial Sensor System of the view-based access control model of integrated form in vehicle navigation
CN113218407A (en) Map generation method and device based on fusion of VIO and satellite navigation system
JPWO2004048895A1 (en) MOBILE NAVIGATION INFORMATION DISPLAY METHOD AND MOBILE NAVIGATION INFORMATION DISPLAY DEVICE
CN115077519A (en) Positioning and mapping method and device based on template matching and laser inertial navigation loose coupling
KR101319526B1 (en) Method for providing location information of target using mobile robot
CN112819711B (en) Monocular vision-based vehicle reverse positioning method utilizing road lane line
CN112146620B (en) Target object ranging method and device
CN113701750A (en) Fusion positioning system of underground multi-sensor
KR100901312B1 (en) Device for creating geomorphic data of autonomous mobile platform, autonomous mobile platform having the same and method for creating geomorphic data of autonomous mobile platform
JP4257219B2 (en) Traveling locus recording apparatus and traveling locus recording method
CN112862818A (en) Underground parking lot vehicle positioning method combining inertial sensor and multi-fisheye camera
CN102426703B (en) Course and pitch angle speed acquisition method of vehicle panoramic image acquisition platform
WO2020137311A1 (en) Positioning device and moving object
JP2009168614A (en) On-vehicle navigation device
CN113916221B (en) Self-adaptive pedestrian dead reckoning method integrating visual odometer and BP network
CN112985388B (en) Combined navigation method and system based on large-displacement optical flow method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4257219

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130206

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140206

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees