JP2007101307A - Navigation device and method - Google Patents

Navigation device and method Download PDF

Info

Publication number
JP2007101307A
JP2007101307A JP2005290117A JP2005290117A JP2007101307A JP 2007101307 A JP2007101307 A JP 2007101307A JP 2005290117 A JP2005290117 A JP 2005290117A JP 2005290117 A JP2005290117 A JP 2005290117A JP 2007101307 A JP2007101307 A JP 2007101307A
Authority
JP
Japan
Prior art keywords
information
vehicle
sensing
sensing information
navigation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2005290117A
Other languages
Japanese (ja)
Inventor
Hidefumi Okabe
英文 岡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2005290117A priority Critical patent/JP2007101307A/en
Publication of JP2007101307A publication Critical patent/JP2007101307A/en
Abandoned legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation device and a navigation method starting provision of suitable supporting information according to passage of a specific mark. <P>SOLUTION: The navigation device includes a detecting means for detecting the passage of a specific mark by a self-vehicle, an input means for inputting sensing information outputted from a sensor on-board in the aforementioned self-vehicle, a discriminating means for discriminating the effectiveness of sensing information aforementioned, an operation support means shifting to a sensing mode outputting operation support information, based on sensing information aforementioned when passage of the aforementioned specific mark by the self-vehicle is detected and sensing information aforementioned is discriminated as effective with the aforementioned discriminating means. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ナビゲーション装置及びナビゲーション方法に関し、特にモードを自動的に切り替えるナビゲーション装置及びナビゲーション方法に関する。   The present invention relates to a navigation device and a navigation method, and more particularly to a navigation device and a navigation method that automatically switch modes.

特許文献1には、自車の近接区域をセンシングすることにより、隣接レーンを走行する他車両を検出する障害物検出方法が開示されている。従来、このような障害物検出方法により得られる情報を用いて運転支援を行うナビゲーション装置が知られている。センシング情報を用いた運転支援によれば、ドライバは自身の知覚のみに頼ることなく、リアルタイムに自車の近接区域の状況を把握することができるため、例えば車線変更や合流時の状況判断において、負担が軽減される。しかしながら、周囲の環境や、走行状態によっては自車の近接区域をセンシングできないことがあるため、自車の近接区域のセンシング情報を用いて常時運転支援することはできない。   Patent Document 1 discloses an obstacle detection method for detecting another vehicle traveling in an adjacent lane by sensing a proximity area of the own vehicle. 2. Description of the Related Art Conventionally, navigation devices that perform driving assistance using information obtained by such an obstacle detection method are known. According to the driving support using sensing information, the driver can grasp the situation of the proximity area of the own vehicle in real time without relying only on his / her own perception, for example, in the situation judgment at the time of lane change or merging, The burden is reduced. However, depending on the surrounding environment and driving conditions, it may not be possible to sense the proximity area of the own vehicle, so it is not possible to always support driving using the sensing information of the proximity area of the own vehicle.

特開平11−345392号公報JP 11-345392 A

本発明は、上記の問題を解決するためになされたものであり、特定地点の通過に応じて適切な支援情報がユーザに提供開始されるナビゲーション装置及びナビゲーション方法を提供する。   The present invention has been made to solve the above problem, and provides a navigation device and a navigation method in which appropriate support information is started to be provided to a user in accordance with passage of a specific point.

(1)上記目的を達成するためのナビゲーション装置は、自車の特定地点の通過を検出する検出手段と、前記自車に搭載されているセンサから出力されるセンシング情報を入力する入力手段と、前記センシング情報の有効性を判定する判定手段と、前記自車の前記特定地点の通過が検出され、前記判定手段により前記センシング情報が有効であると判定された場合、前記センシング情報に基づいて運転支援情報を出力するセンシングモードに遷移する運転支援手段と、を備える。   (1) A navigation device for achieving the above object includes a detection means for detecting passage of a specific point of the own vehicle, an input means for inputting sensing information output from a sensor mounted on the own vehicle, A determination means for determining the validity of the sensing information, and when the passage of the specific point of the vehicle is detected and the determination means determines that the sensing information is valid, driving based on the sensing information Driving assistance means for transitioning to a sensing mode for outputting assistance information.

センシング情報は、時々刻々と変化する自車および自車の近接区域の状況をリアルタイムに検出するセンサから出力される情報である。走行中、このようなセンシング情報に基づく運転支援が有用な区間に進入することがある。ナビゲーション装置は、センシング情報に基づく運転支援が有用な区間の始点である特定地点を自車が通過するとセンシングモードに遷移するため、特定地点の通過に応じて適切な支援情報がユーザに提供開始される。ナビゲーション装置は、センシング情報が有効であるときのみセンシングモードに遷移してセンシング情報に基づく運転支援情報を出力することにより、センシング情報が無効である場合に信頼性の低いセンシング情報に基づく運転支援情報を出力するのを防ぐことができる。   Sensing information is information output from a sensor that detects in real time the situation of the own vehicle and the proximity area of the own vehicle that change from moment to moment. While traveling, the vehicle may enter a section where driving assistance based on such sensing information is useful. The navigation device shifts to the sensing mode when the vehicle passes a specific point, which is the starting point of a section where driving assistance based on sensing information is useful, so that appropriate support information is started to be provided to the user according to the passage of the specific point. The The navigation device shifts to the sensing mode only when the sensing information is valid, and outputs the driving assistance information based on the sensing information, so that the driving assistance information based on the low-reliability sensing information when the sensing information is invalid Can be prevented from being output.

(2)前記入力手段は、レーダから出力される自車と対象物との相対的な位置情報、カメラから出力される路面画像、速度センサから出力される前記自車の速度、舵角センサから出力される前記自車の舵角の少なくともいずれかを含む前記センシング情報を入力してもよい。
レーダから出力される自車と対象物との相対的な位置情報は、自車に対する他車の走行状態の特定を可能にし、カメラから出力される路面情報は走行レーンの特定を可能にし、自車の速度、舵角は自車の制御状態の特定を可能にする。
(2) The input means includes relative position information between the vehicle and the object output from the radar, a road surface image output from the camera, the speed of the vehicle output from the speed sensor, and a steering angle sensor. The sensing information including at least one of the output steering angles of the host vehicle may be input.
The relative position information of the vehicle and the object output from the radar enables the identification of the traveling state of the other vehicle relative to the vehicle, and the road surface information output from the camera enables the identification of the traveling lane. The vehicle speed and rudder angle make it possible to specify the control state of the vehicle.

(3)前記入力手段は、カメラから出力される路面画像を含む前記センシング情報を入力し、前記判定手段は、前記路面画像の解析により認識されるレーンマーカの長さに基づいて前記センシング情報の有効性を判定してもよい。
ナビゲーション装置は、カメラから出力される路面画像の解析により認識されるレーンマークの長さに基づいて前記センシング情報の有効性を判定し、センシング情報が有効な場合のみセンシングモードに遷移することにより、豪雨、霧、夜間などの状況で得られる信頼性の低いセンシング情報に基づく運転支援情報を出力するのを防ぐことができる。
(3) The input unit inputs the sensing information including a road surface image output from a camera, and the determination unit determines whether the sensing information is valid based on a length of a lane marker recognized by analysis of the road surface image. Sex may be determined.
The navigation device determines the validity of the sensing information based on the length of the lane mark recognized by the analysis of the road surface image output from the camera, and transitions to the sensing mode only when the sensing information is valid. It is possible to prevent the output of driving assistance information based on low-reliability sensing information obtained in situations such as heavy rain, fog, and night.

(4)前記運転支援手段は、前記センシング情報が無効であると判定された場合、前記センシング情報に替わる代替情報に基づいて運転支援情報を出力してもよい。
本発明によると、センシング情報が無効で、センシング情報に基づく運転支援情報が出力できないときでも、代替情報に基づく運転支援情報を出力することができる。
(4) When it is determined that the sensing information is invalid, the driving support means may output driving support information based on alternative information that replaces the sensing information.
According to the present invention, even when sensing information is invalid and driving support information based on sensing information cannot be output, driving support information based on alternative information can be output.

(5)前記運転支援手段は、前記センシング情報が有効であると判定された場合、前記代替情報に基づいて運転支援情報を出力する通常モードから前記センシングモードに遷移してもよい。   (5) When it is determined that the sensing information is valid, the driving support means may transition from the normal mode in which the driving support information is output based on the alternative information to the sensing mode.

(6)前記代替情報は、地図情報及びGPS情報を含んでもよい。
代替情報が地図情報及びGPS情報を含むことにより、自車の位置に応じた運転支援情報を出力することができる。
(6) The alternative information may include map information and GPS information.
When the alternative information includes map information and GPS information, driving support information corresponding to the position of the host vehicle can be output.

(7)前記代替情報は、交通情報を含んでもよい。
代替情報が交通情報を含むことにより、交通状況に応じた運転支援情報を出力することができる。
(7) The alternative information may include traffic information.
When the alternative information includes traffic information, driving support information according to traffic conditions can be output.

(8)前記特定地点は、合流のための加速レーン内にあってもよい。
ナビゲーション装置が、合流時にセンシング情報に基づいて運転支援情報を出力することにより、ユーザの近接区域の状況判断の負荷が低減される。
(8) The specific point may be in an acceleration lane for merging.
The navigation device outputs driving support information based on the sensing information at the time of merging, thereby reducing the load of situation determination of the user's proximity area.

(9)上記目的を達成するためのナビゲーション方法は、自車の特定地点の通過を検出し、前記自車に搭載されているセンサのセンシング情報を入力し、前記センシング情報の有効性を判定し、前記自車の前記特定地点の通過が検出され、前記センシング情報が有効である場合、前記センシング情報に基づいて運転支援情報を出力するセンシングモードに遷移する、ことを含む。
センシング情報に基づく運転支援が有用な区間の始点である特定地点を自車が通過するとセンシングモードに遷移することにより、特定地点の通過に応じて適切な支援情報がユーザに提供開始される。センシング情報が有効であるときのみセンシングモードに遷移してセンシング情報に基づく運転支援情報を出力することにより、センシング情報が無効である場合に信頼性の低いセンシング情報に基づく運転支援情報を出力するのを防ぐことができる。
(9) A navigation method for achieving the above object is to detect passage of a specific point of the own vehicle, input sensing information of a sensor mounted on the own vehicle, and determine the validity of the sensing information. , When the passing of the vehicle at the specific point is detected and the sensing information is valid, transition to a sensing mode in which driving assistance information is output based on the sensing information.
When the vehicle passes through a specific point that is a starting point of a section where driving assistance based on sensing information is useful, transition to the sensing mode starts providing appropriate support information to the user according to the passage of the specific point. Only when the sensing information is valid, it shifts to the sensing mode and outputs the driving support information based on the sensing information, so that when the sensing information is invalid, the driving support information based on the unreliable sensing information is output. Can be prevented.

尚、請求項に記載された方法の各動作の順序は、技術上の阻害要因がない限り、記載順に限定されるものではなく、どのような順番で実行されてもよく、また同時に実行されてもよい。また、本発明に備わる複数の手段の各機能は、構成自体で機能が特定されるハードウェア資源、プログラムにより機能が特定されるハードウェア資源、又はそれらの組み合わせにより実現される。また、これら複数の手段の各機能は、各々が物理的に互いに独立したハードウェア資源で実現されるものに限定されない。また、本発明はプログラムを記録した記録媒体の発明としても特定することができる。   It should be noted that the order of each operation of the method described in the claims is not limited to the order of description as long as there is no technical obstruction factor, and may be executed in any order, or may be executed simultaneously. Also good. In addition, each function of the plurality of means provided in the present invention is realized by a hardware resource whose function is specified by the configuration itself, a hardware resource whose function is specified by a program, or a combination thereof. Further, the functions of the plurality of means are not limited to those realized by hardware resources that are physically independent of each other. The present invention can also be specified as an invention of a recording medium on which a program is recorded.

以下、高速道路のインターチェンジ64における本線への合流支援に本発明を適用した実施の形態を説明する。
図2は本発明の一実施形態によるナビゲーション装置1のハードウェア構成を示すブロック図である。
ハードディスク装置(HDD)16には、地図データベース(地図DB)が格納されている。自車周辺の地図情報は、ナビゲーション装置が情報センタ50と通信することにより取得してもよい。
Hereinafter, an embodiment in which the present invention is applied to the merge support to the main line at the interchange 64 on the highway will be described.
FIG. 2 is a block diagram showing a hardware configuration of the navigation apparatus 1 according to one embodiment of the present invention.
The hard disk device (HDD) 16 stores a map database (map DB). The map information around the vehicle may be acquired by the navigation device communicating with the information center 50.

方位センサ26は、自律航法に用いる地磁気センサ、左右車両速度差センサ、振動ジャイロ、ガスレートジャイロ、光ファイバジャイロ等で構成されている。
車速センサ28は、自車速度の検出と自律航法に用いられ、スピードメータに使用される車速センサである。車速を時間で積分することにより、走行距離が求まる。車速センサは、車輪回転速度を用いた車速センサの他、電波や超音波を用いたドップラ対地車速センサ、光と空間フィルタを用いた対地車速センサ等で構成することができる。
The direction sensor 26 includes a geomagnetic sensor, a left / right vehicle speed difference sensor, a vibration gyro, a gas rate gyro, an optical fiber gyro, and the like used for autonomous navigation.
The vehicle speed sensor 28 is a vehicle speed sensor that is used for detection of the own vehicle speed and autonomous navigation, and is used for a speedometer. The mileage is obtained by integrating the vehicle speed with time. The vehicle speed sensor can be composed of a vehicle speed sensor using wheel rotation speed, a Doppler ground vehicle speed sensor using radio waves or ultrasonic waves, a ground vehicle speed sensor using light and a spatial filter, and the like.

GPSユニット30は、衛星航法に用いる3個又は4個の衛星から送られてくる軌道データを受信するアンテナ、自車の現在位置の緯度経度データを出力するためのASIC等で構成される。
レーダユニット32は、光レーダ、電波レーダ等で構成され、周辺車両の自車に対する位置を検出する。周辺車両の自車に対する変異を時間で微分することにより、周辺車両の進行方向及び速度を求めることができる。
The GPS unit 30 includes an antenna for receiving orbit data transmitted from three or four satellites used for satellite navigation, an ASIC for outputting latitude and longitude data of the current position of the vehicle.
The radar unit 32 includes an optical radar, a radio wave radar, and the like, and detects the positions of surrounding vehicles with respect to the own vehicle. By differentiating the variation of the surrounding vehicle with respect to the own vehicle with respect to time, the traveling direction and speed of the surrounding vehicle can be obtained.

カメラユニット34はレーンマーカ認識に用いるCCDカメラ、CMOSカメラ等のディジタルカメラで構成されている。カメラユニット34は自車の前方又は後方の路面画像を撮像することにより、自車の走行レーンを特定するためのレーンマークを撮像することができ、自車の側方を撮像することにより、高速道路本線への合流禁止区間を示すゼブラゾーンや併走車両を撮像することができる。誘導ケーブル方式、磁気マーカ方式、リフレクタ方式に対応したレーンマーカを認識することにより、自車の走行レーンを検出してもよい。   The camera unit 34 includes a digital camera such as a CCD camera or a CMOS camera used for lane marker recognition. The camera unit 34 can capture a lane mark for identifying the traveling lane of the host vehicle by capturing a road surface image of the front or rear of the host vehicle, and can capture a high speed by capturing the side of the host vehicle. It is possible to take an image of a zebra zone or a side-by-side vehicle that indicates a section where merging is prohibited from the main road. The traveling lane of the host vehicle may be detected by recognizing a lane marker corresponding to the guide cable method, the magnetic marker method, and the reflector method.

舵角センサ24は、磁気、光等を用いた非接触方式の回転角センサ等で構成され、ステアリングホイールの絶対舵角を検出する。
ETCユニット23は、有料道路の出入口料金所に設けられた通信装置と通信するためのアンテナ及びASICを備える。ETCユニット23は、有料道路の走行区間に応じた課金情報を高速道路の出入り口料金所に設けられた通信装置から取得し、前払い情報から課金額を引き算する。ETCユニット23と高速道路の入口料金所との通信を検出することにより、自車の入口料金所の通過を検出することができる。
The steering angle sensor 24 is configured by a non-contact rotation angle sensor using magnetism, light, or the like, and detects the absolute steering angle of the steering wheel.
The ETC unit 23 includes an antenna and an ASIC for communicating with a communication device provided at an entrance toll gate on a toll road. The ETC unit 23 acquires billing information corresponding to the travel section of the toll road from the communication device provided at the entrance / exit toll gate of the expressway, and subtracts the billing amount from the prepaid information. By detecting communication between the ETC unit 23 and the entrance toll gate on the expressway, it is possible to detect the passage of the host vehicle at the entrance toll gate.

操作ユニット11は、目的地の入力や表示の切り換え等に用いるリモートコントローラ、操作パネル等で構成される。
ディスプレイ12は、操作案内や地図や走行経路案内の表示に用いるFPD(Flat Panel Display)、HUD(Head Up Display)等で構成される。
スピーカ14は、操作や走行経路の案内音声の出力に用いられる。スピーカ14はオーディオスピーカと共用してもよいし、ナビゲーション専用でもよい。
The operation unit 11 includes a remote controller, an operation panel, and the like used for destination input and display switching.
The display 12 is configured by an FPD (Flat Panel Display), HUD (Head Up Display), or the like used for displaying operation guidance, a map, or a travel route guidance.
The speaker 14 is used to output guidance voices for operations and travel routes. The speaker 14 may be shared with an audio speaker or may be dedicated for navigation.

入力手段としてのインタフェース17は、AD変換器、DA変換器等で構成され、上述した各種の入出力ユニットとCPU20との間で信号形態の変換を行う。
RAM22は、CPU20で処理されるデータやプログラムを一時的に格納する。
フラッシュメモリ18は、CPU20で実行される制御プログラムを格納しているEEPROMなどの不揮発性のメモリである。またフラッシュメモリ18にはナビゲーション装置1への電源供給が遮断されている状態に保持しなければならない情報が格納される。制御プログラム及び地図DBは、所定のサーバからのネットワークを介したダウンロード、図示しないリムーバブルメモリ等のコンピュータ読み取り可能な記憶媒体からの読み出し等によってもフラッシュメモリ18又はHDD16に格納することができる。
The interface 17 serving as an input unit includes an AD converter, a DA converter, and the like, and performs signal format conversion between the various input / output units described above and the CPU 20.
The RAM 22 temporarily stores data and programs processed by the CPU 20.
The flash memory 18 is a non-volatile memory such as an EEPROM that stores a control program executed by the CPU 20. The flash memory 18 stores information that must be maintained in a state where the power supply to the navigation device 1 is cut off. The control program and the map DB can be stored in the flash memory 18 or the HDD 16 by downloading from a predetermined server via a network, reading from a computer-readable storage medium such as a removable memory (not shown), and the like.

CPU20は、制御プログラムを実行することによりナビゲーション装置1の各部を制御する。
情報センタ50は、各種の交通情報を交通情報データベース(交通情報DB)56から抽出し、通信部52からFM多重放送、光ビーコン、赤外線ビーコン等により各車両に送信する。
CPU20 controls each part of the navigation apparatus 1 by running a control program.
The information center 50 extracts various types of traffic information from the traffic information database (traffic information DB) 56 and transmits the information to each vehicle from the communication unit 52 by FM multiplex broadcasting, optical beacons, infrared beacons, or the like.

図3はナビゲーション装置1の制御プログラムのソフトウェア構成を示すブロック図である。
地図DB42は、グラフ形式で地図をディジタル表現した情報で構成されるデータベースであって、道路網上の自車の現在位置の検出、レーン数の検出などに用いられる。地図DB42では、交差点、合流点、曲がり点、行き止まり点などはノードであり、道路はノードとノードを結ぶリンクとして定義されている。また各リンクには距離、制限速度、レーン数、幅員、道路種別(高速道路、一般道など)などが属性情報として定義され、各ノードには信号の有無などが属性情報として定義されている。
FIG. 3 is a block diagram showing a software configuration of the control program of the navigation apparatus 1.
The map DB 42 is a database composed of information obtained by digitally representing a map in a graph format, and is used for detecting the current position of the vehicle on the road network, detecting the number of lanes, and the like. In the map DB 42, intersections, junctions, turning points, dead ends, and the like are nodes, and roads are defined as links connecting nodes. In addition, distance, speed limit, number of lanes, width, road type (highway, general road, etc.) are defined as attribute information for each link, and presence / absence of a signal is defined as attribute information for each node.

地形情報データベース(地形情報DB)44は、高速道路の各IC64の高速道路本線66への合流支援に用いられる地形情報を格納しているデータベースである。本実施形態では、各ICに対し図4に示すような、「合流支援モードへの切り替えポイント」、「基準ポイント」、「加速案内開始ポイント」、特定地点としての「センシング開始ポイント」、及び「合流開始ポイント」が定義されている。地形情報DB44は、これらの各ポイントの通過を検出するための情報(例えば緯度経度、基準ポイントからの走行距離、画像認識のために用いられる指標物のパターン等)、加速レーン60の長さ等が各IC64ごとに格納されている。「基準ポイント」は、例えば入口料金所80通過後の分岐点に設定される。「センシング開始ポイント」は、例えばランプ61と高速道路本線66とを隔てるゼブラゾーン76の始点に設定される。「加速案内開始ポイント」は、例えば「センシング開始ポイント」から所定距離(例えば50m)手前にある地点に設定される。「合流開始ポイント」は、例えばゼブラゾーン76の終点に設定される。尚、地形情報DBで定義されているこれらの情報は、地図DB42においてリンクの属性情報として定義されていてもよい。   The terrain information database (terrain information DB) 44 is a database that stores terrain information that is used to support the merge of each IC 64 on the highway to the highway main line 66. In the present embodiment, for each IC, as shown in FIG. 4, “switching point to join support mode”, “reference point”, “acceleration guidance start point”, “sensing start point” as a specific point, and “ A “merge start point” is defined. The terrain information DB 44 is information for detecting the passage of each of these points (for example, latitude and longitude, distance traveled from the reference point, index object pattern used for image recognition, etc.), the length of the acceleration lane 60, and the like. Is stored for each IC 64. The “reference point” is set at a branch point after passing through the entrance toll gate 80, for example. The “sensing start point” is set at the start point of the zebra zone 76 that separates the ramp 61 and the main highway 66, for example. The “acceleration guidance start point” is set, for example, at a point that is a predetermined distance (for example, 50 m) from the “sensing start point”. The “joining start point” is set at the end point of the zebra zone 76, for example. These pieces of information defined in the terrain information DB may be defined as link attribute information in the map DB 42.

経路案内モジュール46は、地図DB42を用いてマップマッチングによる補正を行いながら、GPSユニット30から入力される自車の現在位置の緯度経度データと、車速センサ28から入力される走行速度と、方位センサ26から入力される進行方位とに基づいて自車の道路網上の位置を算出し(ロケーティング)、地図に重ねて自車の現在位置を表示する。また、経路案内モジュール46は、ユーザによって目的地が設定されると自車の現在位置から目的地までの経路を探索し、探索された経路に従って交差点における右左折を音声及び表示で報知し、ユーザによって設定された目的地までの経路を案内する。
合流支援モジュール48は、CPU20を検出手段、入力手段、運転支援手段、及び判定手段として機能させるプログラム部品である。合流支援モジュール48は、地形情報DBに格納されているIC64の地形情報や、カメラユニット34、レーダユニット32、車速センサ38、方位センサ26及び舵角センサ24から出力されるセンシング情報に基づいて、自車の近接区域の状況に応じた運転支援情報を出力する。
The route guidance module 46 performs correction by map matching using the map DB 42, and the latitude / longitude data of the current position of the vehicle input from the GPS unit 30, the travel speed input from the vehicle speed sensor 28, and the direction sensor The position of the vehicle on the road network is calculated based on the traveling direction input from the vehicle 26 (locating), and the current position of the vehicle is displayed on the map. In addition, when the destination is set by the user, the route guidance module 46 searches for a route from the current position of the host vehicle to the destination, and notifies the user of the right or left turn at the intersection according to the searched route by voice and display. Guide the route to the destination set by.
The merge support module 48 is a program component that causes the CPU 20 to function as a detection unit, an input unit, a driving support unit, and a determination unit. The merge support module 48 is based on the terrain information of the IC 64 stored in the terrain information DB and the sensing information output from the camera unit 34, the radar unit 32, the vehicle speed sensor 38, the azimuth sensor 26, and the steering angle sensor 24. Outputs driving support information according to the situation in the vicinity of the vehicle.

図1は、ナビゲーション装置1の合流支援モードでの処理の流れを示すフローチャートである。図1に示す処理は、CPU20が自車の「合流支援モードへの切り換えポイント」の通過を検出すると起動される。「合流支援モードへの切り換えポイント」の通過は、ETCユニット23と高速道路の入口料金所との通信や、ロケーティングにより算出された自車位置と地形情報DB44に定義されている「合流支援モードへの切り替えポイント」との一致によって検出される。尚、操作ユニット11を用いたユーザの操作に応じて合流支援モードへの切り替えを行ってもよい。
ステップS100では、ナビゲーション装置1は、合流する高速道路本線66の交通情報を取得する。具体的には、CPU20は、情報センタ50から送信される現在位置付近の高速道路本線66の流速、渋滞情報、交通規制情報等を通信部25を介して取得する。路車間通信により取得されるこれらの情報は、センシング情報が無効であるときに活用される、センシング情報の代替情報でもある。
FIG. 1 is a flowchart showing a flow of processing in the merge support mode of the navigation device 1. The process shown in FIG. 1 is started when the CPU 20 detects the passing of the “switching point to the merging support mode” of the own vehicle. The passage of the “switching point to the merging support mode” is performed by the communication between the ETC unit 23 and the entrance toll gate of the expressway, the vehicle position calculated by locating and the terrain information DB 44 defined in the merging support mode It is detected by a match with the “switching point to”. Note that switching to the merge support mode may be performed in accordance with a user operation using the operation unit 11.
In step S100, the navigation apparatus 1 acquires the traffic information of the highway main line 66 to join. Specifically, the CPU 20 acquires the flow speed, congestion information, traffic regulation information, and the like of the highway main line 66 near the current position transmitted from the information center 50 via the communication unit 25. These pieces of information acquired by road-to-vehicle communication are also substitute information for sensing information that is utilized when sensing information is invalid.

ステップS102では、ナビゲーション装置1は、基準ポイントの通過を検出して高精度自車位置補正を行う。具体的には、CPU20は、カメラユニット34から出力される前方の画像と、地形情報DB44に登録されている行き先表示板82などのテンプレートとを用いたパターンマッチングとGPSユニット30から入力される緯度経度データとを併用して基準ポイントにおいて自車の現在地を正確に特定する。高速道路本線66まで分岐のないインターチェンジ内の道路上で自車の現在地を正確に特定すれば、自律航法だけでも正確に各ポイントの通過を検出することも可能である。   In step S102, the navigation device 1 detects the passage of the reference point and corrects the vehicle position with high accuracy. Specifically, the CPU 20 performs pattern matching using a forward image output from the camera unit 34 and a template such as a destination display board 82 registered in the terrain information DB 44 and latitude input from the GPS unit 30. Using the longitude data together, the current location of the vehicle is accurately identified at the reference point. If the current location of the vehicle is accurately specified on the road in the interchange where there is no branch to the main highway 66, it is possible to accurately detect the passage of each point even by autonomous navigation alone.

ステップS104では、ナビゲーション装置1は、走行中のIC64の地形情報を地形情報DB44から取得する。具体的には、CPU20は、「加速案内開始ポイント」、「センシング開始ポイント」、及び「合流開始ポイント」を検出するための情報として、緯度経度、ステップS102で特定した位置からの距離、画像認識のために用いられる指標物のパターンなどを取得する。   In step S <b> 104, the navigation device 1 acquires the terrain information of the running IC 64 from the terrain information DB 44. Specifically, the CPU 20 uses latitude and longitude, the distance from the position specified in step S102, image recognition as information for detecting the “acceleration guidance start point”, “sensing start point”, and “joining start point”. The pattern of the index object used for the purpose is acquired.

ステップS106では、ナビゲーション装置1は、自車が「加速案内開始ポイント」を通過したかを判定する。具体的には例えばCPU20は、自律航法により自車の基準ポイントに対する相対位置を逐次算出し、基準ポイントに対する「加速案内開始ポイント」の相対位置と自車の基準ポイントに対する相対位置とを比較することによって、「加速案内開始ポイント」の通過を検出する。尚、CPU20は「加速案内開始ポイント」の通過を衛星航法で検出してもよい。   In step S106, the navigation device 1 determines whether the host vehicle has passed the “acceleration guidance start point”. Specifically, for example, the CPU 20 sequentially calculates the relative position with respect to the reference point of the own vehicle by autonomous navigation, and compares the relative position of the “acceleration guidance start point” with respect to the reference point and the relative position with respect to the reference point of the own vehicle. Thus, the passage of the “acceleration guidance start point” is detected. The CPU 20 may detect the passage of the “acceleration guidance start point” by satellite navigation.

ステップS108では、ナビゲーション装置1は、交通情報から得た高速道路本線66の流速への加速案内を行う。具体的には、CPU20は、自車速度と交通情報から得た高速道路本線66の流速とを比較しながら、「本線の流速は80キロです。加速してください。」などの音声をスピーカ14から出力したり、ディスプレイ12に高速道路本線の流速を表示する。   In step S108, the navigation apparatus 1 performs acceleration guidance to the flow speed of the highway main line 66 obtained from the traffic information. Specifically, the CPU 20 compares the own vehicle speed with the flow speed of the highway main line 66 obtained from the traffic information, and the sound of the main line 66 is 80 km. Please accelerate. Or the flow velocity of the highway main line is displayed on the display 12.

ナビゲーション装置1は、ステップS110で「センシング開始ポイント」の通過を検出するまでステップS108の処理を繰り返す。CPU20は、カメラユニット34から入力される前方又は側方の路面画像と、地形情報DBに格納されているゼブラゾーンのパターンとを照合することにより「センシング開始ポイント」の通過を検出する。尚、CPU20は「基準ポイント」を起点とする自律航法により「センシング開始ポイント」の通過を検出してもよい。   The navigation device 1 repeats the process of step S108 until the passage of the “sensing start point” is detected in step S110. The CPU 20 detects the passage of the “sensing start point” by comparing the front or side road surface image input from the camera unit 34 with the zebra zone pattern stored in the terrain information DB. The CPU 20 may detect the passage of the “sensing start point” by autonomous navigation starting from the “reference point”.

ステップS112では、ナビゲーション装置1は、センシング機能の確認を行う。具体的には例えば、CPU20は、カメラユニット34により撮像された路面画像の解析により特定されるレーンマーカの長さを測定する。
雨、夜間、霧などの状況では画像解析により認識できるレーンマーカの長さが短くなる。このような状況では、正確なタイミングでレーンチェンジを案内することが困難になるため、センシング情報を用いた誤った案内を未然に防ぐ必要がある。
In step S112, the navigation device 1 confirms the sensing function. Specifically, for example, the CPU 20 measures the length of the lane marker specified by analyzing the road surface image captured by the camera unit 34.
In situations such as rain, night, and fog, the length of the lane marker that can be recognized by image analysis is shortened. In such a situation, it becomes difficult to guide a lane change at an accurate timing, so it is necessary to prevent erroneous guidance using sensing information.

そこでステップS114では、CPU20は、ステップS112において測定されたレーンマーカの長さが予め決められた設定値以下の場合、すなわちセンシング情報が有効でない場合、ステップS118の通常モードの処理に進み、そうでない場合は、ステップS116のセンシングモードの処理に進む。尚、CPU20は、レーダユニット32、車速センサ38、舵角センサ24の動作確認を実行し、これらから得られるセンシング情報が正常でなければセンシング情報が有効でないと判定してもよいし、カメラユニット34から取得するゼブラゾーンの画像の鮮鋭度が所定値より低ければ、センシング情報が有効でないと判定してもよい。   In step S114, the CPU 20 proceeds to the normal mode processing in step S118 if the length of the lane marker measured in step S112 is equal to or smaller than a predetermined set value, that is, if the sensing information is not valid. Advances to the sensing mode processing of step S116. The CPU 20 may check the operation of the radar unit 32, the vehicle speed sensor 38, and the steering angle sensor 24, and may determine that the sensing information is not valid unless the sensing information obtained from these is normal. If the sharpness of the zebra zone image acquired from 34 is lower than a predetermined value, it may be determined that the sensing information is not valid.

ナビゲーション装置1は、ゼブラゾーンの始点に設定された「センシング開始ポイント」を通過するとセンシング情報に基づく運転支援情報を出力するセンシングモードに自律的に遷移するので、ドライバーはナビゲーション装置1を操作すること無しに、高速道路本線への合流時のドライバーの負担が軽減される運転支援情報を適切なタイミングで得ることができる。高速道路本線への合流時には、走行環境が激変するためドライバーの意識は運転に集中する。このような状況でモードの切り替え操作が不要であることは安全運行にとって重要である。   When the navigation device 1 passes the “sensing start point” set at the start point of the zebra zone, the navigation device 1 autonomously shifts to a sensing mode that outputs driving support information based on the sensing information, so that the driver operates the navigation device 1. In addition, driving support information that reduces the burden on the driver when joining the expressway main line can be obtained at an appropriate timing. The driver's consciousness concentrates on driving because the driving environment changes drastically when joining the highway main line. In such a situation, it is important for safe operation that the mode switching operation is unnecessary.

ステップS116では、ナビゲーション装置1はセンシングモードで動作し、センシング情報に基づく運転支援処理を行う。すなわち、ナビゲーション装置1は、自車の近接区域のセンシングを行いながら合流スペースへの割り込みを支援する運転支援情報を出力する。
ステップS118では、ナビゲーション装置1は通常モードで動作し、合流の正確なタイミングを案内しない運転支援処理を行う。具体的には例えば、地図DBから取得される高速道路本線の法定速度と自車速度とを比較した結果に基づいて「本線の法定速度に達しました。注意して合流してください」などの音声をスピーカ14から出力したり、交通情報で特定した高速道路本線の渋滞状況に基づいて「本線はやや渋滞しています。注意して合流してください。」などの音声をスピーカ14から出力したり、同様の文字をディスプレイ12に表示する。また例えば、CPU20は、GPSユニット30から入力される現在位置情報等に基づいて運転支援情報を出力してもよい。センシング情報の信頼性が低く、センシング情報に基づく案内ができないときでも、ナビゲーション装置1が交通情報、地図情報、GPS情報等の代替情報に基づいて運転支援情報を出力することで、ドライバーの負担が軽減される。
In step S116, the navigation device 1 operates in the sensing mode, and performs driving support processing based on the sensing information. That is, the navigation device 1 outputs driving support information that supports interruption to the joining space while sensing the proximity area of the own vehicle.
In step S118, the navigation device 1 operates in the normal mode, and performs driving support processing that does not guide the exact timing of merging. Specifically, for example, based on the result of comparing the legal speed of the freeway main line acquired from the map DB and the vehicle speed, "the legal speed of the main line has been reached. Please join carefully" Audio is output from the speaker 14, or audio such as "Main line is slightly congested. Please join carefully" is output from the speaker 14 based on the traffic situation of the highway main line specified by traffic information. Or similar characters are displayed on the display 12. Further, for example, the CPU 20 may output driving support information based on current position information or the like input from the GPS unit 30. Even when the reliability of sensing information is low and guidance based on sensing information is not possible, the navigation device 1 outputs driving support information based on alternative information such as traffic information, map information, GPS information, etc., thereby reducing the burden on the driver. It is reduced.

図5は、センシングモードにおける運転支援処理の詳細を示すフローチャートである。
ステップS200では、ナビゲーション装置1は、周辺車両のセンシングを行う。具体的には、まず、CPU20は、レーダユニット32から出力される周辺車両の位置情報に基づいて高速道路本線66を走行している車列の割り込みスペースの位置・速度・長さを検出する。図6を参照しながら説明すると、まず、レーダユニット32からは高速道路本線66の左レーン62を走行する車両72と車両78の自車74に対する位置P1、P2を示す位置情報が出力される。割り込みスペースの位置は、先行車両72の位置P1又は後続車両78の位置P2として求めることができる。割り込みスペースの長さは、位置P2からP1までの距離である。割り込みスペースの速度は、先行車両72の速度又は後続車両78の速度として求めることができる。これらの速度は、先行車両72または後続車両78の位置P1またはP2を時間で微分することによって求まる。
FIG. 5 is a flowchart showing details of the driving support process in the sensing mode.
In step S200, the navigation apparatus 1 performs sensing of surrounding vehicles. Specifically, first, the CPU 20 detects the position / speed / length of the interrupt space of the vehicle train traveling on the main highway 66 based on the position information of the surrounding vehicles output from the radar unit 32. Referring to FIG. 6, first, the radar unit 32 outputs position information indicating positions P <b> 1 and P <b> 2 of the vehicle 72 and the vehicle 78 traveling on the left lane 62 of the highway main line 66 with respect to the own vehicle 74. The position of the interrupt space can be obtained as the position P1 of the preceding vehicle 72 or the position P2 of the following vehicle 78. The length of the interrupt space is the distance from the position P2 to P1. The speed of the interrupt space can be obtained as the speed of the preceding vehicle 72 or the speed of the following vehicle 78. These speeds are obtained by differentiating the position P1 or P2 of the preceding vehicle 72 or the following vehicle 78 with respect to time.

ステップS202では、ナビゲーション装置1は、合流可能であるかを判定する。具体的には例えば、以下の条件が全て満たされているとき、CPU20は合流可能であると判定する。
・自車速度が法定下限速度以上。
・割り込みスペースの長さが十分長い。
・割り込みスペースの前後車両と自車との距離が十分大きい。
・割り込みスペース前方車両の絶対速度が自車速度より速いか、割り込みスペース前方車両の絶対速度と自車速度との差が十分小さい。
・割り込みスペース後方車両の絶対速度が自車速度より遅いか、割り込みスペース後方車両の絶対速度と自車速度との差が十分小さい。
In step S202, the navigation apparatus 1 determines whether it can join. Specifically, for example, when all of the following conditions are satisfied, the CPU 20 determines that the merge is possible.
・ Vehicle speed is above the legal lower limit speed.
・ The length of the interrupt space is long enough.
・ The distance between the vehicle before and after the interruption space and the vehicle is sufficiently large.
-The absolute speed of the vehicle ahead of the interrupt space is faster than the own vehicle speed, or the difference between the absolute speed of the vehicle ahead of the interrupt space and the own vehicle speed is sufficiently small.
-The absolute speed of the vehicle behind the interruption space is slower than the own vehicle speed, or the difference between the absolute speed of the vehicle behind the interruption space and the own vehicle speed is sufficiently small.

条件判定に用いる上記パラメータ(割り込みスペースの長さ等)は、レーダユニット32から出力される位置情報から算出することができる。また上記判定は、予め決められた適正値(例えば、割り込みスペースの前後車両と自車との距離=50m)とレーダユニット32から出力される位置情報から算出した上記パラメータの値との差に基づいて行われる。適正値は制御プログラムのコードとして格納することも、地図DB42のリンク属性として格納しておくこともできる。   The parameters used for condition determination (interrupt space length, etc.) can be calculated from position information output from the radar unit 32. The determination is based on a difference between a predetermined appropriate value (for example, the distance between the vehicle before and after the interruption space and the host vehicle = 50 m) and the value of the parameter calculated from the position information output from the radar unit 32. Done. The appropriate value can be stored as a code of the control program, or can be stored as a link attribute of the map DB 42.

上記の条件を満たして高速道路本線66への合流が可能である場合、ナビゲーション装置1は、ステップS206に進む。上記の条件を満たさず、合流が不可能な場合は、ステップS204に進む。
ステップS204では、ナビゲーション装置1は、割り込みスペースへの速度合わせの案内を行う。具体的には、まず、CPU20は、車速センサ38の出力から自車の速度を取得し、高速道路本線66の法定速度を地図DB42から取得する。次に、CPU20は、自車速度と高速道路本線66の法定速度と、高速道路本線66を走行している車列の割り込みスペースの位置・速度・長さとから、割り込みスペースに安全に進入するための適正な車速を算出する。さらに、CPU20は、算出した適性車速と現在の自車速度との差に応じて加速又は減速の必要性を判定し、加速または減速が必要であれば、加速又は減速を促す運転支援情報をスピーカ14又はディスプレイ12から出力し、ステップS200に戻る。
If the above condition is satisfied and the merging with the freeway main line 66 is possible, the navigation device 1 proceeds to step S206. If the above condition is not satisfied and merging is not possible, the process proceeds to step S204.
In step S204, the navigation device 1 provides guidance for speed matching to the interrupt space. Specifically, first, the CPU 20 acquires the speed of the host vehicle from the output of the vehicle speed sensor 38, and acquires the legal speed of the main highway 66 from the map DB. Next, the CPU 20 safely enters the interrupt space from the own vehicle speed, the legal speed of the highway main line 66, and the position, speed, and length of the interrupt space of the train running on the highway main line 66. Calculate the appropriate vehicle speed. Furthermore, the CPU 20 determines the necessity for acceleration or deceleration according to the difference between the calculated appropriate vehicle speed and the current host vehicle speed, and if acceleration or deceleration is necessary, the CPU 20 provides driving assistance information for prompting acceleration or deceleration. 14 or the display 12 and returns to step S200.

ステップS206では、ナビゲーション装置1は、合流可能案内を出力する。具体的には例えば、CPU20は高速道路本線側に舵を取ることを促す運転支援情報としての音声(例えば、「割り込み可能です。本線に進入してください」など)をスピーカ14から出力したり、運転支援情報としての舵をとる方向を示す矢印をディスプレイ12に表示したりする。   In step S206, the navigation device 1 outputs a joinable guide. Specifically, for example, the CPU 20 outputs a sound (for example, “interrupt is possible. Please enter the main line”) as driving support information that prompts the steering to the highway main line side from the speaker 14, An arrow indicating the direction to take the rudder as the driving support information is displayed on the display 12.

ステップS208では、ナビゲーション装置1は、合流の完了を判定する。具体的には、CPU20はカメラユニット34から出力される前方又は後方の路面画像に基づいてレーンマーカを追跡して自車が高速道路本線66を走行しているかを判定する。また、レーダユニット32から出力される周辺車両の位置情報に基づいて高速道路本線66の車列に入っているかを判定してもよい。合流が完了するとセンシングモードにおける運転支援を終了する。
このように、ナビゲーション装置1が、高速道路本線66への合流時にセンシング情報に基づいて運転支援を行うことにより、ユーザの自車周辺の状況判断の負荷が低減される。
In step S208, the navigation apparatus 1 determines completion of the merge. Specifically, the CPU 20 tracks the lane marker based on the front or rear road surface image output from the camera unit 34 and determines whether the host vehicle is traveling on the highway main line 66. Further, it may be determined whether the vehicle is in the highway main line 66 based on the position information of the surrounding vehicles output from the radar unit 32. When the merge is completed, the driving support in the sensing mode is terminated.
In this way, the navigation device 1 provides driving assistance based on the sensing information when joining the highway main line 66, thereby reducing the load of the user on the situation determination around the vehicle.

本発明の一実施例にかかるフローチャート。The flowchart concerning one Example of this invention. 本発明の一実施例にかかるブロック図。The block diagram concerning one Example of this invention. 本発明の一実施例にかかるブロック図。The block diagram concerning one Example of this invention. 本発明の一実施例にかかる模式図。The schematic diagram concerning one Example of this invention. 本発明の一実施例にかかるフローチャート。The flowchart concerning one Example of this invention. 本発明の一実施例にかかる模式図。The schematic diagram concerning one Example of this invention.

符号の説明Explanation of symbols

1:ナビゲーション装置、12:ディスプレイ(運転支援手段)、14:スピーカ(運転支援手段)、17:インタフェース(入力手段)、25:通信部(入力手段)、48:合流支援モジュール(検出手段、入力手段、運転支援手段、判定手段)   1: navigation device, 12: display (driving support means), 14: speaker (driving support means), 17: interface (input means), 25: communication unit (input means), 48: confluence support module (detection means, input) Means, driving support means, determination means)

Claims (9)

自車の特定地点の通過を検出する検出手段と、
前記自車に搭載されているセンサから出力されるセンシング情報を入力する入力手段と、
前記センシング情報の有効性を判定する判定手段と、
前記自車の前記特定地点の通過が検出され、前記判定手段により前記センシング情報が有効であると判定された場合、前記センシング情報に基づいて運転支援情報を出力するセンシングモードに遷移する運転支援手段と、
を備えるナビゲーション装置。
Detection means for detecting passage of a specific point of the vehicle;
Input means for inputting sensing information output from a sensor mounted on the vehicle;
Determining means for determining the effectiveness of the sensing information;
Driving assistance means for transitioning to a sensing mode in which driving assistance information is output based on the sensing information when the passage of the specific point of the vehicle is detected and the sensing information is judged to be valid by the judging means When,
A navigation device comprising:
前記入力手段は、レーダから出力される前記自車と対象物との相対的な位置情報、カメラから出力される路面画像、速度センサから出力される前記自車の速度、舵角センサから出力される前記自車の舵角の少なくともいずれかを含む前記センシング情報を入力する、
請求項1に記載のナビゲーション装置。
The input means outputs relative position information between the vehicle and the object output from a radar, a road surface image output from a camera, a speed of the vehicle output from a speed sensor, and a steering angle sensor. Inputting the sensing information including at least one of the steering angles of the vehicle.
The navigation device according to claim 1.
前記入力手段は、カメラから出力される路面画像を含む前記センシング情報を入力し、
前記判定手段は、前記路面画像の解析により認識されるレーンマーカの長さに基づいて前記センシング情報の有効性を判定する、
請求項1に記載のナビゲーション装置。
The input means inputs the sensing information including a road surface image output from a camera,
The determination means determines the effectiveness of the sensing information based on the length of a lane marker recognized by analysis of the road surface image;
The navigation device according to claim 1.
前記運転支援手段は、前記センシング情報が無効であると判定された場合、前記センシング情報に替わる代替情報に基づいて運転支援情報を出力する、
請求項1に記載のナビゲーション装置。
The driving support means outputs driving support information based on alternative information replacing the sensing information when the sensing information is determined to be invalid.
The navigation device according to claim 1.
前記運転支援手段は、前記センシング情報が有効であると判定された場合、前記代替情報に基づいて運転支援情報を出力する通常モードから前記センシングモードに遷移する、
請求項4に記載のナビゲーション装置。
When it is determined that the sensing information is valid, the driving support means transitions from the normal mode that outputs driving support information based on the alternative information to the sensing mode.
The navigation device according to claim 4.
前記代替情報は、地図情報及びGPS情報を含む、
請求項4又は5に記載のナビゲーション装置。
The alternative information includes map information and GPS information.
The navigation device according to claim 4 or 5.
前記代替情報は、交通情報を含む、
請求項4〜6のいずれか一項に記載のナビゲーション装置。
The alternative information includes traffic information.
The navigation device according to any one of claims 4 to 6.
前記特定地点は、合流のための加速レーン内にある、請求項1〜7のいずれか一項に記載のナビゲーション装置。   The navigation device according to any one of claims 1 to 7, wherein the specific point is in an acceleration lane for merging. 自車の特定地点の通過を検出し、
前記自車に搭載されているセンサのセンシング情報を入力し、
前記センシング情報の有効性を判定し、
前記自車の前記特定地点の通過が検出され、前記センシング情報が有効である場合、前記センシング情報に基づいて運転支援情報を出力するセンシングモードに遷移する、
ことを含むナビゲーション方法。




Detects the passing of a specific point of the vehicle,
Enter the sensing information of the sensor mounted on the vehicle,
Determine the effectiveness of the sensing information;
When passage of the vehicle at the specific point is detected and the sensing information is valid, transition to a sensing mode for outputting driving support information based on the sensing information,
A navigation method including that.




JP2005290117A 2005-10-03 2005-10-03 Navigation device and method Abandoned JP2007101307A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005290117A JP2007101307A (en) 2005-10-03 2005-10-03 Navigation device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005290117A JP2007101307A (en) 2005-10-03 2005-10-03 Navigation device and method

Publications (1)

Publication Number Publication Date
JP2007101307A true JP2007101307A (en) 2007-04-19

Family

ID=38028402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005290117A Abandoned JP2007101307A (en) 2005-10-03 2005-10-03 Navigation device and method

Country Status (1)

Country Link
JP (1) JP2007101307A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012066609A1 (en) * 2010-11-19 2012-05-24 三菱電機株式会社 Environment estimation device and vehicle control device
JP2019061703A (en) * 2018-11-29 2019-04-18 株式会社ゼンリン Travel support device, program
US11161506B2 (en) 2017-04-27 2021-11-02 Zenrin Co., Ltd. Travel support device and non-transitory computer-readable medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012066609A1 (en) * 2010-11-19 2012-05-24 三菱電機株式会社 Environment estimation device and vehicle control device
JP5501477B2 (en) * 2010-11-19 2014-05-21 三菱電機株式会社 Environment estimation apparatus and vehicle control apparatus
US9262817B2 (en) 2010-11-19 2016-02-16 Mitsubishi Electric Corporation Environment estimation apparatus and vehicle control system
US11161506B2 (en) 2017-04-27 2021-11-02 Zenrin Co., Ltd. Travel support device and non-transitory computer-readable medium
JP2019061703A (en) * 2018-11-29 2019-04-18 株式会社ゼンリン Travel support device, program

Similar Documents

Publication Publication Date Title
JP4743496B2 (en) Navigation device and navigation method
US10399571B2 (en) Autonomous driving assistance system, autonomous driving assistance method, and computer program
JP4822099B2 (en) Navigation device and navigation method
US10300916B2 (en) Autonomous driving assistance system, autonomous driving assistance method, and computer program
US10315664B2 (en) Automatic driving assistance system, automatic driving assistance method, and computer program
US10071745B2 (en) Automated drive assisting system, automated drive assisting method, and computer program
JP6442993B2 (en) Automatic driving support system, automatic driving support method, and computer program
US8335641B2 (en) Route guidance systems, methods, and programs
US7031829B2 (en) Car navigation system prioritizing automatic travel road
US6510386B2 (en) Navigation system and method with intersection guidance
US8175800B2 (en) Route guidance system and route guidance method
US7899589B2 (en) Control information storage apparatus and program for same
JP4470873B2 (en) Route guidance system and route guidance method
US20100026804A1 (en) Route guidance systems, methods, and programs
US20120316775A1 (en) Navigation Device, Route Guidance Method, and Program
US20070106459A1 (en) Route navigation systems, methods and programs
JP2007155352A (en) Route guide system and method
JP2007127419A (en) System and method for route guidance
JP2007106364A (en) Travel supporting device and travel supporting method
JP2006177862A (en) Navigation apparatus
JP4591311B2 (en) Route guidance system and route guidance method
JP2006162409A (en) Lane determination device of crossing advancing road
JP2008045870A (en) Drawing system
JP2008232760A (en) Navigation system
US6466868B2 (en) Navigation device for use in automotive vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080215

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20090707