JP4577827B2 - Next road prediction device for traveling vehicle - Google Patents

Next road prediction device for traveling vehicle Download PDF

Info

Publication number
JP4577827B2
JP4577827B2 JP2005001498A JP2005001498A JP4577827B2 JP 4577827 B2 JP4577827 B2 JP 4577827B2 JP 2005001498 A JP2005001498 A JP 2005001498A JP 2005001498 A JP2005001498 A JP 2005001498A JP 4577827 B2 JP4577827 B2 JP 4577827B2
Authority
JP
Japan
Prior art keywords
information
road
lane
next road
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005001498A
Other languages
Japanese (ja)
Other versions
JP2006189326A (en
Inventor
英明 森田
信 蓮沼
祐介 大橋
元裕 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Toyota Motor Corp
Original Assignee
Aisin AW Co Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd, Toyota Motor Corp filed Critical Aisin AW Co Ltd
Priority to JP2005001498A priority Critical patent/JP4577827B2/en
Publication of JP2006189326A publication Critical patent/JP2006189326A/en
Application granted granted Critical
Publication of JP4577827B2 publication Critical patent/JP4577827B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Description

本発明は、車両が走行する交差点における進行方向の次道路を予測する走行車両の次道路予測装置に関する。   The present invention relates to a next road prediction device for a traveling vehicle that predicts a next road in a traveling direction at an intersection where the vehicle travels.

目的地までの経路にしたがって案内を行うナビゲーション装置においては、車両の現在地を検出して現在地周辺の地図を表示し、交差点や経路に沿った特徴物の案内を行っている。この場合の現在地の検出では、車速やG(加速度)、ジャイロ、GPSなどの各種センサデータを利用した推測航法による推測軌跡と地図データによる道路のマップマッチングが行われている。   In a navigation device that provides guidance according to a route to a destination, the current location of the vehicle is detected, a map around the current location is displayed, and features along the intersection and the route are guided. In the detection of the current location in this case, map matching of roads based on dead reckoning navigation and map data using various sensor data such as vehicle speed, G (acceleration), gyroscope, and GPS is performed.

右左折する案内交差点の案内において、特に複数の交差点が近接して続く場合に現在地検出の精度が低いと、経路の案内で現在地との誤差により、案内交差点の前の通過交差点、あるいはその先の交差点を案内交差点を間違って右左折してしまい、ルートを外れを起こすトラブルが生じやすくなる。その対策の1つとして、経路中の交差点に接近すると、「直進」、「右折」、「左折」等の矢印の案内表示を行うと共に、通過交差点を含む複数の交差点における各車線情報を表示することにより、ドライバの不安を解消する提案がなされている(例えば、特許文献1、2参照)。
特開2000−251197号公報 特開2003−240581号公報
In the guidance of guidance intersections that turn left and right, especially when multiple intersections continue close to each other, if the accuracy of the current location detection is low, due to errors with the current location in route guidance, the passing intersection in front of the guidance intersection or beyond It is easy to cause troubles that cause you to turn off the route by mistakenly turning right and left at the intersection. As one of the countermeasures, when approaching an intersection in the route, guidance display of arrows such as “straight forward”, “right turn”, “left turn” and the like and information on each lane at a plurality of intersections including passing intersections are displayed. Thus, proposals have been made to eliminate driver anxiety (see, for example, Patent Documents 1 and 2).
JP 2000-251197 A JP 2003-240581 A

しかし、右左折する案内交差点、通過交差点に対し、従来のシステムは、矢印による走行方向の案内や車線情報を案内していても、実際の走行車線やドライバの習性を認識してその走行に合わせた案内を行っているものではなく、一方的なものであり、実際の走行状況に対応した案内までは行われていない。   However, for guidance intersections and passing intersections that turn left and right, the conventional system recognizes the actual driving lane and driver's habits even when guiding the driving direction and lane information using arrows, and adapts to the driving. The guidance is not provided, but it is unilateral, and guidance corresponding to the actual driving situation is not provided.

本発明は、上記課題を解決するものであって、実際の走行車線やドライバの習性を認識して交差点における進行方向の次道路を予測し走行案内・制御を行えるようにするものである。   The present invention solves the above-described problems, and recognizes actual driving lanes and driver behavior and predicts the next road in the traveling direction at an intersection so that driving guidance and control can be performed.

そのために本発明は、車両が走行する交差点における進行方向の次道路を予測する走行車両の次道路予測装置であって、カメラにより取得される画像を認識し、現在車両が走行する道路におけるレーン情報を取得する画像認識手段と、前記レーン情報に基づき交差点における進行方向の次道路を予測する次道路予測処理手段と、運転者による交差点におけ
る進行方向の次道路の選択を認識し学習する学習処理手段とを備え、前記次道路予測処理手段は、前記学習処理手段による学習を基に交差点における進行方向の次道路を予測することを特徴とする。
Therefore, the present invention provides a next road prediction device for a traveling vehicle that predicts a next road in a traveling direction at an intersection where the vehicle travels, recognizes an image acquired by a camera, and lane information on a road on which the current vehicle travels Image recognition means for acquiring a next road, a next road prediction processing means for predicting a next road in the traveling direction at the intersection based on the lane information, and a driver at the intersection.
Learning processing means for recognizing and learning the selection of the next road in the traveling direction , wherein the next road prediction processing means predicts the next road in the traveling direction at the intersection based on learning by the learning processing means. And

前記学習処理手段は、予測した交差点における進行方向の次道路と走行実績との比較を蓄積して自信度を求め出力するものであることを特徴とする。
The learning processing means is characterized by accumulating a comparison between the predicted next road in the advancing direction at the intersection and the actual driving result to obtain and output a confidence level.

本発明によれば、走行中の道路情報を認識し交差点における進行方向の次道路を認識すると共に、そのときのドライバーの運転習性を学習し、その学習結果に基づき交差点における進行方向の次道路を予測するので、その予測に基づく適切な走行案内・制御を行うことができる。   According to the present invention, while recognizing road information while traveling, the next road in the traveling direction at the intersection is recognized, the driving behavior of the driver at that time is learned, and the next road in the traveling direction at the intersection is determined based on the learning result. Since the prediction is performed, it is possible to perform appropriate travel guidance and control based on the prediction.

以下、本発明の実施の形態を図面を参照しつつ説明する。図1は本発明に係る走行車両の次道路予測装置の実施の形態を示す図であり、4は現在地情報管理部、7はデータベース、8は画像認識装置、9はドライバ入力情報管理部、21は学習処理部、22は次道路予測処理部、23は出力装置を示す。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an embodiment of a next road prediction device for a traveling vehicle according to the present invention. 4 is a current location information management unit, 7 is a database, 8 is an image recognition device, 9 is a driver input information management unit, 21 Indicates a learning processing unit, 22 indicates a next road prediction processing unit, and 23 indicates an output device.

図1において、現在地管理部4は、推測情報、マクロ情報、ミクロ情報を管理してマクロ情報とミクロ情報から現在地情報を取得するものである。推測情報は、車速、G(加速度)、ジャイロ、GPSなどの各種センサデータから車両の方位と距離を計算して求めた推測軌跡、さらには各種センサ情報であるマクロ情報は、推測軌跡とデータベース7の道路地図を使ったマップマッチング処理をベースとし、それに加えて新たなデバイス情報、データベース情報等を用いてどの道路を走行しているかを、より正確に管理するものであり、道路オン・オフ(道路上にあるか否か)、道路種別、エリア情報、自信度(更新時期からみた情報の新鮮度、信頼度、確度、確からしさの程度)、マッチング道路、座標、ルートオン・オフ(ルート上にあるか否か)などの情報である。ミクロ情報は、画像認識に基づく地物判定を行い、さらに画像認識、ドライバ入力情報、光ビーコン情報、推測情報に基づくレーン判定を行い、地物判定とレーン判定の結果を使って位置照合、マクロ情報の現在位置の補正を行うものであり、ミクロマッチング結果として生成される全レーン数、レーン位置、レーン内位置である。   In FIG. 1, the current location management unit 4 manages guess information, macro information, and micro information, and acquires current location information from the macro information and micro information. The estimated information is an estimated trajectory obtained by calculating the azimuth and distance of the vehicle from various sensor data such as vehicle speed, G (acceleration), gyroscope, and GPS. Further, the macro information which is various sensor information is the estimated trajectory and the database 7. Based on the map matching process using the road map of the road, in addition to that, using the new device information, database information, etc., to manage which road is running more accurately, road on / off ( Whether or not it is on the road), road type, area information, confidence (information freshness, reliability, accuracy, degree of certainty from the update time), matching road, coordinates, route on / off (on route) Or not). Micro information performs feature determination based on image recognition, further performs lane determination based on image recognition, driver input information, optical beacon information, and estimation information, and uses position determination and lane determination results to perform position matching, macro The current position of information is corrected, and the total number of lanes, lane positions, and in-lane positions generated as a result of micro matching.

データベース7は、各種地図データ、道路データ、各道路に属する地物種別、地物位置、自信度に関するデータを格納するものである。画像認識装置8は、カメラにより車両の進行方向前方の画像を取り込んで、道路上のペイント情報を認識し、認識レーン数、自レーン位置、レーン内位置、レーン増減数、レーン増減方向、路肩情報、跨ぎ状態、ペイント情報、自信度をイベントとして取得し、さらに、地物の認識処理を行い、その認識結果、地物種別、地物位置、自信度などを取得する。ドライバ入力情報管理部9は、ドライバのハンドル操作に伴う操舵角を舵角センサで検出し、方向指示器による右左折指示を検出してステアリング情報、ウインカ情報をイベントとして取得する。   The database 7 stores data related to various map data, road data, feature types belonging to each road, feature positions, and confidence levels. The image recognizing device 8 captures an image ahead of the traveling direction of the vehicle with a camera, recognizes paint information on the road, recognizes the number of lanes, its own lane position, the position in the lane, the number of lanes, the lane increase / decrease direction, and the road shoulder information. Further, the crossing state, the paint information, and the confidence level are acquired as events, and further, the feature recognition process is performed, and the recognition result, the feature type, the feature position, the confidence level, and the like are acquired. The driver input information management unit 9 detects a steering angle associated with the driver's steering wheel operation with a steering angle sensor, detects a right / left turn instruction with a direction indicator, and acquires steering information and turn signal information as events.

学習処理部21は、現在地情報を追跡し画像認識装置8、ドライバ入力情報管理部9により取得される道路情報、レーン情報、走行情報、ステアリング情報、ウインカ情報とデータベース7の道路データとを照合して交差点における進行方向の次道路の選択を認識し学習するものであり、次道路予測処理部22は、現在地情報に基づき画像認識装置8、ドライバ入力情報管理部9により道路情報、レーン情報、走行情報、ステアリング情報、ウインカ情報を取得して学習処理部21による学習結果を基に交差点における進行方向の次道路を予測するものであり、その予測情報を出力するのが出力装置23である。   The learning processing unit 21 tracks current location information and collates road information, lane information, travel information, steering information, turn signal information, and road data in the database 7 acquired by the image recognition device 8 and the driver input information management unit 9. The next road prediction processing unit 22 recognizes and learns the selection of the next road in the traveling direction at the intersection, and the road recognition information, the lane information, and the travel information are detected by the image recognition device 8 and the driver input information management unit 9 based on the current location information. Information, steering information, and turn signal information are acquired, and the next road in the traveling direction at the intersection is predicted based on the learning result by the learning processing unit 21. The output device 23 outputs the prediction information.

上記実施形態の構成によれば、道路上での車両の現在位置を高精度で把握し、詳細な車両の動作状況、ドライバーの習性を把握することにより、ドライバがその後どの方向に行きたいか、つまり車両が走行する交差点における進行方向の次道路を予測することができ、さらに次道路を予測することにより、その予測に基づく音声案内や警告(車両制御)、運転補助・制御を行うことができる。   According to the configuration of the above embodiment, by grasping the current position of the vehicle on the road with high accuracy, and grasping the detailed operation state of the vehicle, the driver's habits, which direction the driver wants to go thereafter, In other words, it is possible to predict the next road in the direction of travel at the intersection where the vehicle travels, and by predicting the next road, voice guidance, warning (vehicle control), driving assistance and control based on the prediction can be performed. .

図2は道路情報と学習による次道路予測の例を説明する図、図3は車速情報による次道路予測の例を説明する図、図4はドライバ入力情報による次道路予測の例を説明する図、図5は次道路予測処理の例を説明する図である。   FIG. 2 is a diagram illustrating an example of next road prediction based on road information and learning, FIG. 3 is a diagram illustrating an example of next road prediction based on vehicle speed information, and FIG. 4 is a diagram illustrating an example of next road prediction based on driver input information. FIG. 5 is a diagram illustrating an example of the next road prediction process.

本実施形態の走行車両の次道路予測装置において、走行車両の交差点における進行方向の次道路予測では、地図データの有する各道路の各レーンに移行可能な次道路・レーンのデータを整備し、カメラにより取得される画像を認識し道路情報を取得して、道路上の矢印ペイントを含む進行方向の指示情報、進行方向の案内標識の情報などの道路情報を取得し、さらに、ドライバの次道路の選択結果を学習して次道路の確率を求めて利用する。   In the next road prediction device for a traveling vehicle according to the present embodiment, in the next road prediction in the traveling direction at the intersection of the traveling vehicles, the next road / lane data that can be transferred to each lane of each road included in the map data is prepared, and the camera To acquire road information, road information including arrow paint on the road, information on the direction of travel including information on the direction of travel, information on the direction sign of the direction of travel, etc. The selection result is learned and the probability of the next road is obtained and used.

例えばレーン数が2の道路の交差点において、図2に示すように矢印ペイントにより右折専用レーンや左折専用レーンが設定されている場合、画像認識により矢印ペイントを取得すると、通常、その専用レーンを走行している車両の次道路は、右折先道路、左折先道路となる。したがって、交差点に接近するのに伴って進行方向の次道路を予測することにより、減速と右折、左折の音声案内をしたり、さらにウインカを出していない場合には、ウインカを出すよう音声案内をすることができる。しかし、交差点における進行方向の次道路の選択を認識し学習することにより、例えば右折専用レーンを走行して次道路が予測と異なり直進先道路が多くなっている場合には、次道路として右折先道路と直進先道路に自信度を反映させて注意を促す音声案内を出力し、車両制御としてブレーキを制御することにより減速することができる。   For example, at the intersection of a road with 2 lanes, if a right-turn lane or a left-turn lane is set by arrow paint as shown in Fig. 2, when the arrow paint is acquired by image recognition, it usually travels on that lane The next road of the vehicle is the right turn destination road and the left turn destination road. Therefore, by predicting the next road in the direction of travel as you approach the intersection, you can give voice guidance to decelerate, turn right, turn left, and if you don't have a turn signal, turn the turn signal can do. However, by recognizing and learning the selection of the next road in the direction of travel at the intersection, for example, when driving on a right turn lane and the next road is different from the prediction, there are many straight ahead roads, the right turn ahead as the next road It is possible to reduce the speed by outputting a voice guidance that calls attention by reflecting the degree of confidence on the road and the straight ahead road, and controlling the brake as vehicle control.

また、図3、図4に示すように矢印ペイントによる右折専用レーンや左折専用レーンが設定されていない交差点では、現在位置と車速変化やウインカを検出することにより、次道路の予測を行うこともできる。車速変化を検出する場合には、例えば定速走行であれば次道路は直進道路、減速すれば次道路は左折先道路(左側レーン走行の場合)、右折先道路(右側レーン走行の場合)に予測しやすくなる。さらに、ドライバのブレーキタイミングやカーブ速度を学習し、同様にウインカを検出する場合にも、ドライバのウインカタイミングを学習することにより、次道路の予測をより高精度に行うことができる。   In addition, as shown in FIGS. 3 and 4, at the intersection where the right-turn lane or the left-turn lane is not set by arrow paint, the next road can be predicted by detecting the current position, the vehicle speed change, and the turn signal. it can. When detecting a change in vehicle speed, for example, if driving at a constant speed, the next road will be a straight road, and if decelerating, the next road will be a left turn road (for left lane driving) and a right turn road (for right lane driving). It becomes easier to predict. Further, when the driver's brake timing and curve speed are learned and the turn signal is detected in the same manner, the next road can be predicted with higher accuracy by learning the driver's turn signal timing.

次道路予測処理は、例えば図5に示すようにまず、矢印ペイントを認識し(ステップS11)、自レーン位置を特定して(ステップS12)、次道路を予測する(ステップS13)。そして、予測正解率が判断基準より大きいか否かを判定し(ステップS14)、予測正解率が判断基準より大きい場合には、案内等のアプリケーションを起動し(ステップS15)、ステップS14の判断処理で予測正解率が判断基準より大きくない場合には、そのまま次レーン走行とし(ステップS16)、予測正誤の学習を行う(ステップS17)。   In the next road prediction process, for example, as shown in FIG. 5, first, arrow paint is recognized (step S11), the own lane position is specified (step S12), and the next road is predicted (step S13). Then, it is determined whether or not the predicted accuracy rate is larger than the criterion (step S14). If the predicted accuracy rate is larger than the criterion, an application such as guidance is started (step S15), and the determination process in step S14 is performed. If the predicted correct answer rate is not greater than the criterion, the next lane travel is performed as it is (step S16), and the predicted correct / incorrect learning is performed (step S17).

次に、本実施形態で用いられる車両の現在地情報管理装置について説明する。図6は車両の現在地情報管理装置の実施の形態を示す図であり、1はミクロマッチング処理部、2はマクロマッチング処理部、3は推測航法処理部、4は現在地管理部、5は車両制御装置、6は車両情報処理装置、7はデータベース、8は画像認識装置、9はドライバ入力情報管理部、11は位置照合&補正部、12は地物判定部、13はミクロマッチング結果部、14はレーン判定部を示す。   Next, the vehicle current location information management device used in the present embodiment will be described. FIG. 6 is a diagram showing an embodiment of a vehicle current location information management device, where 1 is a micro matching processing unit, 2 is a macro matching processing unit, 3 is a dead reckoning processing unit, 4 is a current location management unit, and 5 is vehicle control. Device, 6 is a vehicle information processing device, 7 is a database, 8 is an image recognition device, 9 is a driver input information management unit, 11 is a position collation and correction unit, 12 is a feature determination unit, 13 is a micro matching result unit, 14 Indicates a lane determination unit.

図6において、推測航法処理部3は、車速、G(加速度)、ジャイロ、GPSなどの各種センサデータから車両の方位と距離を計算して推測軌跡を求め、現在の自車位置を推測するモジュールであり、推測軌跡、さらには各種センサ情報を推測情報として管理し現在地管理部4に送出している。これにより求められた自車位置は、車速やG、ジャイロ、GPSなどのセンサデータを直接使用して推測軌跡を求め地図データとのマッチングを行っていないため、地図データ上の道路とは一致しない。   In FIG. 6, dead reckoning processing unit 3 is a module that calculates a vehicle's azimuth and distance from various sensor data such as vehicle speed, G (acceleration), gyroscope, GPS, etc. to obtain an estimated trajectory, and estimates the current vehicle position. The estimated trajectory and various sensor information are managed as estimated information and sent to the current location management unit 4. The vehicle position obtained in this way does not match the road on the map data because it does not match the map data by obtaining the estimated trajectory by directly using the sensor data such as the vehicle speed, G, gyroscope, and GPS. .

マクロマッチング処理部2は、推測航法処理部3により求められた従来の推測軌跡とデータベース7の道路地図を使ったマップマッチング処理をベースとし、それに加えて新たなデバイス情報、データベース情報等を用いてどの道路を走行しているかを、より正確に管理するモジュールであり、道路オン・オフ(道路上にあるか否か)、道路種別、エリア情報、自信度(更新時期からみた情報の新鮮度、信頼度、確度、確からしさの程度)、マッチング道路、座標、ルートオン・オフ(ルート上にあるか否か)などの情報をマクロ情報として管理し現在地管理部4に送出している。   The macro matching processing unit 2 is based on the map matching process using the conventional estimated trajectory obtained by the dead reckoning processing unit 3 and the road map of the database 7, and in addition, using new device information, database information, etc. It is a module that manages which road is running more accurately, road on / off (whether it is on the road), road type, area information, confidence (information freshness from the update time, Information such as reliability, accuracy, degree of probability), matching road, coordinates, route on / off (whether or not it is on the route) is managed as macro information and sent to the current location management unit 4.

ミクロマッチング処理部1は、狭いエリアでの詳細な自車位置を管理するモジュールであり、主に、画像認識に基づく地物判定を行い、さらに画像認識、ドライバ入力情報、光ビーコン情報、推測情報に基づくレーン判定を行い、地物判定とレーン判定の結果を使って位置照合、マクロ情報の現在位置の補正を行うと共に、ミクロマッチング結果の全レーン数、レーン位置、レーン内位置をミクロ情報として生成して管理し現在地管理部4に送出している。   The micro-matching processing unit 1 is a module that manages the detailed position of the vehicle in a narrow area. The micro-matching processing unit 1 mainly performs feature determination based on image recognition, and further performs image recognition, driver input information, optical beacon information, and estimation information. Lane determination based on the feature, and using the result of the feature determination and lane determination to perform position matching and correction of the current position of the macro information, as well as the total number of lanes, the lane position, and the position in the lane of the micro matching result as micro information It is generated, managed, and sent to the current location management unit 4.

地物情報には、道路に属する各種構造物の情報を含み、例えば信号、歩道橋、道路標識、街灯、ポール・電柱、ガードレール、路肩・歩道段差、中央分離帯、道路上のマンホール、ペイント(横断歩道、自転車横断道路、停止線、右左折・直進、車線、中央線などのペイント)である。地物情報には、地物種別、地物位置、その更新時期や情報そのものの信頼性などを自信度(更新時期からみた情報の新鮮度、信頼度、確度、確からしさの程度)として有することにより、画像認識の結果として地物が認識されると、その地物の位置に基づき高い精度で現在位置を補正することができる。   The feature information includes information on various structures belonging to the road. For example, signals, footbridges, road signs, street lights, poles / electric poles, guardrails, shoulders / pedestrian steps, median strips, manholes on the road, paint (crossing) Paint on sidewalks, bicycle crossing roads, stop lines, turn left / right, lanes, center lines, etc.). The feature information has the feature type, feature position, update timing, reliability of the information itself, etc. as confidence level (information freshness, reliability, accuracy, accuracy from the update timing). Thus, when a feature is recognized as a result of image recognition, the current position can be corrected with high accuracy based on the position of the feature.

現在地管理部4は、ミクロマッチング処理部1より得られるミクロ情報、マクロマッチング処理部2より得られるマクロ情報、推測航法処理部3より得られる推測情報を管理してそれらの情報を適宜ミクロマッチング処理部1、マクロマッチング処理部2に渡すと共に、マクロ情報とミクロ情報から現在地情報を生成して車両制御装置5、車両情報処理装置6に送出するものである。   The present location management unit 4 manages the micro information obtained from the micro matching processing unit 1, the macro information obtained from the macro matching processing unit 2, and the guess information obtained from the dead reckoning processing unit 3, and appropriately performs the micro matching processing on the information. The current location information is generated from the macro information and the micro information and is sent to the vehicle control device 5 and the vehicle information processing device 6 while being passed to the unit 1 and the macro matching processing unit 2.

車両制御装置5は、現在地管理部4より取得した現在地情報に基づきコーナリングのブレーキ制御や速度制御などの車両走行制御を行うものであり、車両情報処理装置6は、現在地管理部4より取得した現在地情報に基づき目的地までの各交差点、特徴物等を案内することにより経路を案内するナビゲーション装置やVICSその他のアプリケーション装置である。データベース7は、各種道路データ、各道路に属する地物種別、地物位置、自信度に関するデータを格納するものである。   The vehicle control device 5 performs vehicle travel control such as cornering brake control and speed control based on the current location information acquired from the current location management unit 4, and the vehicle information processing device 6 performs the current location acquired from the current location management unit 4. It is a navigation device, VICS, or other application device that guides a route by guiding each intersection, feature, etc. to a destination based on information. The database 7 stores data on various road data, feature types belonging to each road, feature positions, and confidence levels.

画像認識装置8は、カメラにより車両の進行方向前方の画像を取り込んで、道路上のペイント情報を認識し、認識レーン数、自レーン位置、レーン内位置、レーン増減数、レーン増減方向、路肩情報、跨ぎ状態、ペイント情報、自信度をイベントとしてミクロマッチング処理部1に送出し、さらに、ミクロマッチング処理部1からの要求に応じて指定された地物の認識処理を行い、その認識結果、地物種別、地物位置、自信度などをミクロマッチング処理部1に送出する。   The image recognizing device 8 captures an image ahead of the traveling direction of the vehicle with a camera, recognizes paint information on the road, recognizes the number of lanes, its own lane position, the position in the lane, the number of lanes, the lane increase / decrease direction, and the shoulder information. , The straddle state, the paint information, and the confidence level are sent as events to the micro-matching processing unit 1, and further, the specified feature recognition process is performed in response to the request from the micro-matching processing unit 1, and the recognition result, The object type, feature position, confidence level, etc. are sent to the micro-matching processing unit 1.

ドライバ入力情報管理部9は、ドライバのハンドル操作に伴う操舵角を舵角センサで検出し、方向指示器による右左折指示を検出してステアリング情報、ウインカ情報をイベントとしてミクロマッチング処理部1に送出する。   The driver input information management unit 9 detects the steering angle associated with the driver's steering wheel operation with a steering angle sensor, detects a right / left turn instruction with a direction indicator, and sends the steering information and turn signal information as events to the micro matching processing unit 1. To do.

ミクロマッチング処理部1、マクロマッチング処理部2、推測航法処理部3についてさらに詳述する。図7はマクロマッチング処理部の構成例を示す図、図8は推測航法処理部の構成例を示す図である。   The micro matching processing unit 1, the macro matching processing unit 2, and the dead reckoning processing unit 3 will be described in further detail. FIG. 7 is a diagram illustrating a configuration example of the macro matching processing unit, and FIG. 8 is a diagram illustrating a configuration example of the dead reckoning processing unit.

ミクロマッチング処理部1は、図6に示すように位置照合&補正部11、地物判定部12、ミクロマッチング結果部13、レーン判定部14を有する。地物判定部12は、マクロ情報の現在位置に基づきデータベース7から地物を検索して、地物種別、地物位置、自信度によりその地物の画像認識を画像認識装置8に依頼し、画像認識装置8から取得した認識結果、地物種別、地物位置、自信度に基づき地物までの距離等を特定する。レーン判定部14は、車両情報処理装置6の光ビーコン情報、現在地管理部4の推測情報、ドライバ入力情報管理部9からのステアリング情報やウインカ情報のイベント、画像認識装置8からの認識レーン数、その中の自レーン位置、レーン内位置(レーン内の右寄りか左寄りか)、レーン増減数、レーン増減方向、路肩情報(有無など)、跨ぎ状態(レーン・白線を跨いでいるかなど)、ペイント情報(直進や右左折、横断歩道、自転車の横断道路など)、自信度のイベントに基づき自車のレーン位置、レーン内位置を特定し、その判定結果を位置照合&補正部11とミクロマッチング結果部13に渡す。   As shown in FIG. 6, the micro matching processing unit 1 includes a position matching & correction unit 11, a feature determination unit 12, a micro matching result unit 13, and a lane determination unit 14. The feature determination unit 12 searches the feature from the database 7 based on the current position of the macro information, requests the image recognition device 8 to perform image recognition of the feature based on the feature type, feature position, and confidence, The distance to the feature is specified based on the recognition result acquired from the image recognition device 8, the feature type, the feature position, and the confidence level. The lane determination unit 14 includes optical beacon information of the vehicle information processing device 6, inference information of the current location management unit 4, steering information and winker information events from the driver input information management unit 9, recognition lane number from the image recognition device 8, Among them, own lane position, lane position (right or left in lane), lane increase / decrease number, lane increase / decrease direction, shoulder information (existence etc.), straddle status (whether it straddles lane / white line, etc.), paint information (Straight or right / left turn, pedestrian crossing, bicycle crossing, etc.), identify the lane position of the vehicle and the position in the lane based on the event of confidence, and the result of the determination is the position matching & correction unit 11 and the micro matching result unit Pass to 13.

位置照合&補正部11は、地物判定により得られる地物判定部12の地物認識情報と、さらにレーン判定により得られるレーン判定部14のレーン位置、レーン内位置とマクロ情報の現在位置とで位置照合を行い、不一致の場合にマクロ情報の現在位置を地物認識情報に基づき算出される現在位置に補正する。ミクロマッチング結果部13は、レーン判定により得られるレーン判定部14の全レーン数、レーン位置、レーン内位置、自信度等のミクロ情報を現在地管理部4に渡す。   The position collation & correction unit 11 includes the feature recognition information of the feature determination unit 12 obtained by the feature determination, the lane position of the lane determination unit 14 obtained by the lane determination, the in-lane position, and the current position of the macro information. In the case of mismatch, the current position of the macro information is corrected to the current position calculated based on the feature recognition information. The micro matching result unit 13 passes the micro information such as the total number of lanes, the lane position, the position in the lane, and the confidence level of the lane determination unit 14 obtained by the lane determination to the current location management unit 4.

例えば地物としてマンホールの認識情報が得られた場合、その認識情報からマンホールの位置、そこまでの距離が特定されるので、その距離から求められる進行方向における自車の現在位置とマクロ情報の現在位置との照合により不一致の場合にマクロ情報の現在位置を補正することができる。また、進行方向ではなく、道路幅(左右)方向においても、マンホールの位置が左右、中央寄りのいずれか等により、その自車の現在位置とマクロ情報の現在位置との照合により不一致の場合にマクロ情報の現在位置を補正することができる。   For example, when the recognition information of a manhole is obtained as a feature, the position of the manhole and the distance to the manhole are specified from the recognition information, so the current position of the vehicle and the current macro information in the direction of travel determined from the distance When there is a mismatch due to collation with the position, the current position of the macro information can be corrected. Also, if the position of the manhole in the road width (left and right) direction, not the direction of travel, does not match due to collation between the current position of the vehicle and the current position of the macro information due to either the left or right or near the center, etc. The current position of the macro information can be corrected.

同様にレーン判定により、例えばレーン数が2の道路を走行しているとき、自レーン位置が路肩寄りのレーンで、レーン内位置がレーン中央から右寄りに移動した場合、さらにはセンターライン側のレーンに移動した場合に、その自車の現在位置とマクロ情報の現在位置との照合により不一致の場合にマクロ情報の現在位置を補正することができる。また、レーン数に変動があり、例えば右側に新たに右折レーンが増えたり、レーン数が3から2に、あるいは2から1に減ったりした場合には、その位置の一致判定を行うことによりマクロ情報の現在位置を補正することができる。   Similarly, if the lane determination indicates that the vehicle is traveling on a road with two lanes, for example, the lane position is closer to the shoulder and the position in the lane moves to the right from the center of the lane, further lanes on the center line side , The current position of the macro information can be corrected if there is a mismatch by comparing the current position of the host vehicle with the current position of the macro information. Also, if there is a change in the number of lanes, for example, when a new right turn lane increases on the right side or the number of lanes decreases from 3 to 2, or from 2 to 1, the macro is determined by determining the matching of the positions. The current position of information can be corrected.

マクロマッチング処理部2は、図7に示すようにマクロマッチング結果部21、ミクロ位置補正反映部22、道路判定部23、マクロ形状比較部24を有する。マクロ形状比較部24は、現在地管理部4で管理されている推測情報の推測軌跡とデータベース7の道路情報、自信度に基づくマップ道路形状とを比較して、マップマッチングを行い、道路判定部23は、現在位置の道路オン/オフを判定し、現在位置の道路の判定を行う。ミクロ位置補正反映部22は、マクロ情報のミクロマッチング処理部1による現在位置の補正情報をマクロ形状比較部24の現在位置、道路判定部23の現在位置に反映させるものである。マクロマッチング結果部21は、道路判定部23による道路の判定に従い、座標、道路種別、エリア情報、道路オン・オフ、マッチング道路、ルートオン・オフ、自信度をマクロ情報として現在地管理部4に送出する。   The macro matching processing unit 2 includes a macro matching result unit 21, a micro position correction reflection unit 22, a road determination unit 23, and a macro shape comparison unit 24 as shown in FIG. The macro shape comparison unit 24 compares the estimated trajectory of the estimated information managed by the current location management unit 4 with the road information in the database 7 and the map road shape based on the confidence level, and performs map matching, and the road determination unit 23 Determines on / off of the road at the current position, and determines the road at the current position. The micro position correction reflecting unit 22 reflects the correction information of the current position by the macro matching processing unit 1 of the macro information on the current position of the macro shape comparison unit 24 and the current position of the road determination unit 23. The macro matching result unit 21 sends coordinates, road type, area information, road on / off, matching road, route on / off, and confidence level as macro information to the current location management unit 4 according to the road determination by the road determination unit 23. To do.

推測航法処理部3は、図8に示すように推測航法結果部31、推測軌跡作成部32、学習部33、補正部34を有し、車速センサ51、Gセンサ52、ジャイロ53、GPS54からそれぞれの情報を取り込んで推測軌跡を生成し、各種センサ情報と共に推測情報として現在地管理部4に送出する。学習部33は、各センサに関する感度や係数を学習するものであり、補正部34は、センサの誤差等を補正するものである。推測軌跡作成部32は、各センサデータから車両の推測軌跡を作成し、推測航法結果部31は、その作成した推測航法結果の推測軌跡、各種センサ情報を推測情報として現在地管理部4に送出する。   As shown in FIG. 8, the dead reckoning processing unit 3 includes a dead reckoning result unit 31, a guessed trajectory creation unit 32, a learning unit 33, and a correction unit 34, and includes a vehicle speed sensor 51, a G sensor 52, a gyro 53, and a GPS 54, respectively. The estimated locus is generated and is sent to the current location management unit 4 as estimated information together with various sensor information. The learning unit 33 is for learning the sensitivity and coefficient related to each sensor, and the correction unit 34 is for correcting a sensor error and the like. The estimated trajectory creation unit 32 creates a vehicle estimated trajectory from each sensor data, and the dead reckoning navigation result unit 31 sends the created estimated trajectory of the dead reckoning result and various sensor information to the current location management unit 4 as estimated information. .

図9はデータベースの構成例を説明する図、図10は地物判定によるミクロマッチング処理の例を説明する図、図11はレーン判定によるミクロマッチング処理の例を説明する図、図12は各種地物やペイントの例を説明する図、図13はレーン位置、レーン内位置、跨ぎ状態の判定を説明する図である。   FIG. 9 is a diagram for explaining an example of the structure of a database, FIG. 10 is a diagram for explaining an example of micro-matching processing by feature determination, FIG. 11 is a diagram for explaining an example of micro-matching processing by lane judgment, and FIG. FIG. 13 is a diagram for explaining an example of an object or paint, and FIG. 13 is a diagram for explaining determination of a lane position, a position in a lane, and a straddle state.

データベースには、案内道路データファイルが格納されるが、案内道路データファイルは、図9(A)に示すように、経路探索により探索された経路の道路数nのそれぞれに対して、道路番号、長さ、道路属性データ、形状データのアドレス、サイズおよび案内データのアドレス、サイズの各データからなり、経路探索により求められ経路案内を行うために必要なデータとして格納される。   The guide road data file is stored in the database. As shown in FIG. 9A, the guide road data file includes a road number, a road number, a road number, It consists of length, road attribute data, shape data address, size and guidance data address, and size data, and is stored as data required for route guidance obtained by route search.

形状データは、図9(B)に示すように、各道路の複数のノード(節)で分割したとき、ノード数mのそれぞれに対して東経、北緯からなる座標データを有している。案内データは、図9(C)に示すように、交差点(または分岐点)名称、注意点データ、道路名称データ、道路名称音声データのアドレス、サイズ、行き先データのアドレス、サイズおよび地物データのアドレス、サイズの各データからなる。   As shown in FIG. 9B, the shape data has coordinate data including east longitude and north latitude for each of the number of nodes m when divided by a plurality of nodes (nodes) of each road. As shown in FIG. 9C, the guidance data includes intersection (or branch point) name, attention point data, road name data, road name voice data address, size, destination data address, size, and feature data. Consists of address and size data.

これらのうち、例えば行き先データは、行き先道路番号、行き先名称、行き先名称音声データのアドレス、サイズおよび行き先方向データ、走行案内データからなる。行き先データのうち、行き先方向データは、無効(行き先方向データを使用しない)、不要(案内しない)、直進、右方向、斜め右方向、右に戻る方向、左方向、斜め左方向、左に戻る方向の情報を示すデータである。   Among these, for example, destination data includes a destination road number, a destination name, an address of destination name voice data, a size and destination direction data, and travel guidance data. Of the destination data, the destination direction data is invalid (no destination direction data is used), unnecessary (no guidance), straight ahead, right direction, diagonal right direction, right return direction, left direction, diagonal left direction, left return This is data indicating direction information.

地物データは、図9(D)に示すように各道路の地物数kのそれぞれに対して地物番号、地物種別、地物位置、地物認識データのアドレス、サイズからなり、地物認識データは、図9(E)に示すようにそれぞれの地物ごとに認識に必要なデータ、例えば形状や大きさ、高さ、色、リンク端(道路端)からの距離などである。   As shown in FIG. 9D, the feature data includes a feature number, a feature type, a feature position, a feature recognition data address, and a size for each feature number k of each road. The object recognition data is data necessary for recognition for each feature as shown in FIG. 9E, such as shape, size, height, color, distance from the link end (road end), and the like.

道路番号は、分岐点間の道路毎に方向(往路、復路)別に設定されている。道路属性データは、道路案内補助情報データであり、その道路が高架か、高架の横か、地下道か、地下道の横かからなる高架・地下道の情報およびレーン数の情報を示すデータである。道路名称データは、高速道路、都市高速道路、有料道路、一般道(国道、県道、その他)の道路種別の情報と高速道路、都市高速道路、有料道路について本線か取付道かを示す情報のデータであり、道路種別データとさらに各道路種別毎での個別番号データである種別内番号から構成される。   The road number is set for each direction (outbound path, return path) for each road between the branch points. The road attribute data is road guidance auxiliary information data, and is data indicating information on the elevated / underpass and the information on the number of lanes, which are elevated, next to the elevated, underpass, or next to the underpass. Road name data includes information on road types such as expressways, city expressways, toll roads, and general roads (national roads, prefectural roads, etc.) and information indicating whether the main road or road is attached to expressways, city expressways, and toll roads. It is composed of road type data and an intra-type number which is individual number data for each road type.

地物判定によるミクロマッチング処理は、例えば図10に示すようにまず、マクロ情報の現在位置を取得すると(ステップS21)、その現在位置からデータベースを検索し、地物認識データを取得する(ステップS22)。認識対象となる地物があるか否かを判定する(ステップS23)。認識対象となる地物がなければステップS21に戻って同様の処理を繰り返し、認識対象となる地物ある場合には地物の画像認識を画像認識装置8に依頼する(ステップS24)。   For example, as shown in FIG. 10, the micro-matching process by the feature determination first acquires the current position of the macro information (step S21), searches the database from the current position, and acquires the feature recognition data (step S22). ). It is determined whether there is a feature to be recognized (step S23). If there is no feature to be recognized, the process returns to step S21 and the same processing is repeated. If there is a feature to be recognized, the image recognition device 8 is requested to perform image recognition of the feature (step S24).

画像認識装置8から認識結果を取得するのを待って(ステップS25)、地物認識情報から求められる現在位置とマクロ情報の現在位置とを照合する(ステップS26)。地物認識情報から求められる現在位置とマクロ情報の現在位置が一致する場合には、そのままステップS21に戻って同様の処理を繰り返し、マクロ情報の現在位置が一致しない場合には、マクロ情報の現在位置を地物認識情報から求められる現在位置に基づき補正する。   After waiting for the recognition result to be acquired from the image recognition device 8 (step S25), the current position obtained from the feature recognition information and the current position of the macro information are collated (step S26). If the current position obtained from the feature recognition information matches the current position of the macro information, the process returns to step S21 and repeats the same process. If the current position of the macro information does not match, the current macro information The position is corrected based on the current position obtained from the feature recognition information.

レーン判定によるミクロマッチング処理は、例えば図11に示すようにドライバ入力情報管理部9からのイベント入力、画像認識装置8からのイベント入力があると(ステップS31)、画像認識結果とドライバ入力情報からレーン位置及びレーン内位置を特定し(ステップS32)、ミクロマッチング結果の全レーン数、レーン位置、レーン内位置、自信度をミクロ情報として送出する(ステップS33)。次に、レーン位置、レーン内位置をマクロ情報の現在位置と照合し(ステップS34)、レーン位置、レーン内位置がマクロ情報の現在位置と一致するか否かを判定する(ステップS35)。レーン位置、レーン内位置がマクロ情報の現在位置と一致すれば、ステップS31に戻って同様の処理を繰り返し、一致しない場合には、レーン位置、レーン内位置に基づきマクロ情報の現在位置を補正する(ステップS36)。   For example, as shown in FIG. 11, the micro-matching process based on the lane determination includes an event input from the driver input information management unit 9 and an event input from the image recognition device 8 (step S31), from the image recognition result and the driver input information. The lane position and the position within the lane are specified (step S32), and the total number of lanes, the lane position, the position within the lane, and the confidence level of the micro matching result are transmitted as micro information (step S33). Next, the lane position and the in-lane position are collated with the current position of the macro information (step S34), and it is determined whether or not the lane position and the in-lane position match the current position of the macro information (step S35). If the lane position and the in-lane position match the current position of the macro information, the process returns to step S31, and the same processing is repeated. If not, the current position of the macro information is corrected based on the lane position and the in-lane position. (Step S36).

各種地物やペイントは、例えば図12に示すようなマンホール(イ)、車線(ロ、ハ)、中央分離帯又はセンターライン(ニ)、停止線(ホ)、歩道段差(ヘ)、道路標識(ト)、信号機(チ)などがある。これらの地物は、画像の形状から認識し、認識される位置から現在位置を求めることができる。地物やペイントなどの認識される位置は、その画面を点線で示すようにメッシュで切った場合のどのメッシュの位置で認識されるか、あるいはターゲットとする地物やペイントなどの画角により特定することができる。また、レーン位置、レーン内位置、跨ぎ状態は、図13に示すように車線(白線)a、センターラインb、路肩cの画面上での下点の位置から判定することができる。   The various features and paints are, for example, manholes (b), lanes (b, c), median or center lines (d), stop lines (e), sidewalk steps (f), road signs as shown in FIG. (G) and traffic lights (h). These features can be recognized from the shape of the image, and the current position can be obtained from the recognized position. Recognized positions such as features and paint are identified by the position of the mesh when the screen is cut with a mesh as indicated by the dotted line, or by the angle of view of the target feature or paint. can do. Further, the lane position, the in-lane position, and the straddling state can be determined from the positions of the lower points on the screen of the lane (white line) a, the center line b, and the road shoulder c as shown in FIG.

図14は推測軌跡を利用したレーン位置、レーン内位置、跨ぎ状態の判定例を説明する図、図15は光ビーコンを利用したレーン位置、レーン内位置、跨ぎ状態の判定例を説明する図である。   FIG. 14 is a diagram for explaining a determination example of a lane position, a position in a lane, and a straddle state using an estimated trajectory, and FIG. 15 is a diagram for explaining a determination example of a lane position, a position in a lane, and a straddle state using an optical beacon. is there.

画像認識装置8が利用できない場合でも、レーン位置、レーン内位置、跨ぎ状態の判定には、推測軌跡や光ビーコンを利用することができる。推測軌跡を利用する場合には、例えば図14に示すように現在地管理部4で推測情報(軌跡または左右移動量)を監視することにより、例えばレーンの幅(左右)方向の移動量を積算してレーン幅と比較することにより、移動量がレーン幅になればレーン移動の判定を行い、1/2で跨ぎ状態の判定を行うことができる。また、レーン内位置が右寄りか左寄りかの修正を加えるようにしてもよい。   Even when the image recognition device 8 cannot be used, an estimated trajectory or an optical beacon can be used to determine the lane position, the in-lane position, and the straddle state. When using the estimated trajectory, for example, as shown in FIG. 14, the current location management unit 4 monitors the estimated information (the trajectory or the left / right movement amount), for example, to integrate the movement amount in the width (left / right) direction of the lane. By comparing with the lane width, the lane movement can be determined when the movement amount becomes the lane width, and the straddle state can be determined by 1/2. Further, a correction may be made to determine whether the position in the lane is right or left.

レーンに関する情報が光ビーコンに含まれているので、図15に示す光ビーコンの利用に関しては、カメラ、画像認識装置の有無に関わらず利用が可能であり、しかも、画像認識では全レーン数が把握できない場合もあるので、光ビーコン情報を優先する。また、最終的なレーン判定結果は、現判定レーン位置と光ビーコン情報の両情報を合わせて判断することとし、それらの情報が一致しない場合には、例えば自信度を下げることで対応してもよい。   Since information on lanes is included in the optical beacon, the optical beacon shown in FIG. 15 can be used regardless of the presence or absence of a camera and an image recognition device. Since there are cases where it is not possible, priority is given to optical beacon information. In addition, the final lane determination result is determined by combining both the current determination lane position and the optical beacon information. If the information does not match, for example, the degree of confidence can be reduced. Good.

なお、本発明は、上記実施の形態に限定されるものではなく、種々の変形が可能である。例えば上記実施の形態では、レーンの左右方向の移動量を積算してレーン移動を検出したが、レーン内位置やレーン数の増減を検出することもできる。   In addition, this invention is not limited to the said embodiment, A various deformation | transformation is possible. For example, in the above-described embodiment, the movement of the lane is detected by integrating the amount of movement of the lane in the left-right direction.

本発明に係る走行車両の次道路予測装置の実施の形態を示す図である。It is a figure which shows embodiment of the next road prediction apparatus of the traveling vehicle which concerns on this invention. 道路情報と学習による次道路予測の例を説明する図である。It is a figure explaining the example of the next road prediction by road information and learning. 車速情報による次道路予測の例を説明する図である。It is a figure explaining the example of the next road prediction by vehicle speed information. ドライバ入力情報による次道路予測の例を説明する図である。It is a figure explaining the example of the next road prediction by driver input information. 次道路予測処理の例を説明する図である。It is a figure explaining the example of the next road prediction process. 車両の現在地情報管理装置の実施の形態を示す図である。It is a figure which shows embodiment of the present location information management apparatus of a vehicle. マクロマッチング処理部の構成例を示す図である。It is a figure which shows the structural example of a macro matching process part. 推測航法処理部の構成例を示す図である。It is a figure which shows the structural example of a dead reckoning process part. データベースの構成例を説明する図である。It is a figure explaining the structural example of a database. 地物判定によるミクロマッチング処理の例を説明する図である。It is a figure explaining the example of the micro matching process by feature determination. レーン判定によるミクロマッチング処理の例を説明する図である。It is a figure explaining the example of the micro matching process by lane determination. 各種地物やペイントの例を説明する図である。It is a figure explaining the example of various features and a paint. レーン位置、レーン内位置、跨ぎ状態の判定を説明する図である。It is a figure explaining determination of a lane position, a position in a lane, and a straddle state. 推測軌跡を利用したレーン位置、レーン内位置、跨ぎ状態の判定例を説明する図である。It is a figure explaining the example of determination of the lane position using a presumed locus | trajectory, the position in a lane, and a straddle state. 光ビーコンを利用したレーン位置、レーン内位置、跨ぎ状態の判定例を説明する図である。It is a figure explaining the example of determination of the lane position using an optical beacon, the position in a lane, and a straddle state.

符号の説明Explanation of symbols

1…ミクロマッチング処理部、2…マクロマッチング処理部、3…推測航法処理部、4…現在地管理部、5…車両制御装置、6…車両情報処理装置、7…データベース、8…画像認識装置、9…ドライバ入力情報管理部、11…位置照合&補正部、12…地物判定部、13…ミクロマッチング結果部、14…レーン判定部、21…学習処理部、22…次道路予測処理部、23…出力装置   DESCRIPTION OF SYMBOLS 1 ... Micro matching process part, 2 ... Macro matching process part, 3 ... Dead reckoning process part, 4 ... Present location management part, 5 ... Vehicle control apparatus, 6 ... Vehicle information processing apparatus, 7 ... Database, 8 ... Image recognition apparatus, DESCRIPTION OF SYMBOLS 9 ... Driver input information management part, 11 ... Position collation & correction part, 12 ... Feature determination part, 13 ... Micro matching result part, 14 ... Lane determination part, 21 ... Learning processing part, 22 ... Next road prediction processing part, 23 ... Output device

Claims (2)

車両が走行する交差点における進行方向の次道路を予測する走行車両の次道路予測装置であって、
カメラにより取得される画像を認識し、現在車両が走行する道路におけるレーン情報を取得する画像認識手段と、
前記レーン情報に基づき交差点における進行方向の次道路を予測する次道路予測処理手段と、
運転者による交差点における進行方向の次道路の選択を認識し学習する学習処理手段とを備え、
前記次道路予測処理手段は、前記学習処理手段による学習を基に交差点における進行方向の次道路を予測することを特徴とする走行車両の次道路予測装置。
A next road prediction device for a traveling vehicle that predicts a next road in a traveling direction at an intersection where the vehicle travels,
Image recognition means for recognizing an image acquired by a camera and acquiring lane information on a road on which the vehicle is currently traveling ;
A next road prediction processing means for predicting the next road in the traveling direction at the intersection based on the lane information ;
Learning processing means for recognizing and learning the selection of the next road in the direction of travel at the intersection by the driver ,
The next road prediction processing unit for a traveling vehicle, wherein the next road prediction processing unit predicts a next road in a traveling direction at an intersection based on learning by the learning processing unit .
前記学習処理手段は、予測した交差点における進行方向の次道路と走行実績との比較を蓄積して自信度を求め出力するものであることを特徴とする請求項に記載の走行車両の次道路予測装置。 2. The next road of the traveling vehicle according to claim 1 , wherein the learning processing means accumulates a comparison between the next road in the traveling direction at the predicted intersection and the traveling performance and obtains and outputs a confidence level. Prediction device.
JP2005001498A 2005-01-06 2005-01-06 Next road prediction device for traveling vehicle Expired - Fee Related JP4577827B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005001498A JP4577827B2 (en) 2005-01-06 2005-01-06 Next road prediction device for traveling vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005001498A JP4577827B2 (en) 2005-01-06 2005-01-06 Next road prediction device for traveling vehicle

Publications (2)

Publication Number Publication Date
JP2006189326A JP2006189326A (en) 2006-07-20
JP4577827B2 true JP4577827B2 (en) 2010-11-10

Family

ID=36796683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005001498A Expired - Fee Related JP4577827B2 (en) 2005-01-06 2005-01-06 Next road prediction device for traveling vehicle

Country Status (1)

Country Link
JP (1) JP4577827B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9303759B2 (en) 2013-12-05 2016-04-05 Hyundai Motor Company Method and system of controlling shift for vehicle

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007142326A1 (en) 2006-06-09 2007-12-13 Aisin Aw Co., Ltd. Data update system, terminal device, server device, and data update method
JP4861851B2 (en) * 2007-02-13 2012-01-25 アイシン・エィ・ダブリュ株式会社 Lane determination device, lane determination method, and navigation device using the same
JP4446201B2 (en) 2007-03-30 2010-04-07 アイシン・エィ・ダブリュ株式会社 Image recognition apparatus and image recognition method
JP4569837B2 (en) 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 Feature information collecting apparatus and feature information collecting method
US8155826B2 (en) 2007-03-30 2012-04-10 Aisin Aw Co., Ltd. Vehicle behavior learning apparatuses, methods, and programs
JP4427759B2 (en) * 2007-06-29 2010-03-10 アイシン・エィ・ダブリュ株式会社 Vehicle behavior learning apparatus and vehicle behavior learning program
JP4501983B2 (en) 2007-09-28 2010-07-14 アイシン・エィ・ダブリュ株式会社 Parking support system, parking support method, parking support program
JP5088592B2 (en) * 2010-04-28 2012-12-05 アイシン・エィ・ダブリュ株式会社 Own vehicle position recognition device and own vehicle position recognition program
US8688290B2 (en) 2011-12-27 2014-04-01 Toyota Motor Enginerring & Manufacturing North America, Inc. Predictive destination entry for a navigation system
JP6598858B2 (en) * 2015-06-15 2019-10-30 三菱電機株式会社 Route guidance device
DE102016205141A1 (en) * 2015-11-04 2017-05-04 Volkswagen Aktiengesellschaft A method and vehicle communication system for determining a driving intention for a vehicle
KR101751298B1 (en) * 2016-02-18 2017-07-11 한국전자통신연구원 Method and apparatus for predicting vehicle route

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10177699A (en) * 1996-12-16 1998-06-30 Toyota Motor Corp Voice guidance device for automobile utilizing image information
JP2000105898A (en) * 1998-02-18 2000-04-11 Equos Research Co Ltd Unit and method for vehicle control, and computer- readable medium where program for allowing computer to implement vehicle control method is recorded
JP2001143198A (en) * 2000-09-06 2001-05-25 Equos Research Co Ltd Vehicle controller
JP2003106859A (en) * 2001-09-28 2003-04-09 Equos Research Co Ltd Running trafic lane estimation device, method therefor and navigator
JP2003123197A (en) * 2001-10-16 2003-04-25 Alpine Electronics Inc Recognition device for road mark or the like
JP2004326581A (en) * 2003-04-25 2004-11-18 Fuji Heavy Ind Ltd Information providing system and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10177699A (en) * 1996-12-16 1998-06-30 Toyota Motor Corp Voice guidance device for automobile utilizing image information
JP2000105898A (en) * 1998-02-18 2000-04-11 Equos Research Co Ltd Unit and method for vehicle control, and computer- readable medium where program for allowing computer to implement vehicle control method is recorded
JP2001143198A (en) * 2000-09-06 2001-05-25 Equos Research Co Ltd Vehicle controller
JP2003106859A (en) * 2001-09-28 2003-04-09 Equos Research Co Ltd Running trafic lane estimation device, method therefor and navigator
JP2003123197A (en) * 2001-10-16 2003-04-25 Alpine Electronics Inc Recognition device for road mark or the like
JP2004326581A (en) * 2003-04-25 2004-11-18 Fuji Heavy Ind Ltd Information providing system and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9303759B2 (en) 2013-12-05 2016-04-05 Hyundai Motor Company Method and system of controlling shift for vehicle

Also Published As

Publication number Publication date
JP2006189326A (en) 2006-07-20

Similar Documents

Publication Publication Date Title
JP4577827B2 (en) Next road prediction device for traveling vehicle
JP2006189325A (en) Present location information management device of vehicle
JP2006177862A (en) Navigation apparatus
US10703362B2 (en) Autonomous driving autonomous system, automated driving assistance method, and computer program
US10300916B2 (en) Autonomous driving assistance system, autonomous driving assistance method, and computer program
US10399571B2 (en) Autonomous driving assistance system, autonomous driving assistance method, and computer program
CN107430807B (en) Automatic driving assistance system, automatic driving assistance method, and computer program
JP4427759B2 (en) Vehicle behavior learning apparatus and vehicle behavior learning program
CN1288424C (en) Vehicle navigation system for priority of auto-running road
JP4743496B2 (en) Navigation device and navigation method
US20190064827A1 (en) Self-driving assistance device and computer program
JP4996979B2 (en) Navigation cooperative traveling control system and navigation cooperative traveling control method
US20170197635A1 (en) Automatic driving assistance system, automatic driving assistance method, and computer program
JP6990160B2 (en) Automatic driving support device
JP2006162409A (en) Lane determination device of crossing advancing road
JP2005172578A (en) Navigation system
US20130096822A1 (en) Navigation device
JP7439529B2 (en) Driving support equipment and computer programs
JP5382356B2 (en) Driving assistance system
JP2006184105A (en) Navigation apparatus
JP2007178270A (en) Own position recognition system
JP6419586B2 (en) Route search system and computer program
JP4875509B2 (en) Navigation device and navigation method
JP2007062445A (en) Corner learning system
JP5208016B2 (en) Merge / Exit Determination Device and Merge / Exit Determination Program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071214

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20071214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100820

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4577827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees