JP2011002356A - Navigation device - Google Patents

Navigation device Download PDF

Info

Publication number
JP2011002356A
JP2011002356A JP2009146203A JP2009146203A JP2011002356A JP 2011002356 A JP2011002356 A JP 2011002356A JP 2009146203 A JP2009146203 A JP 2009146203A JP 2009146203 A JP2009146203 A JP 2009146203A JP 2011002356 A JP2011002356 A JP 2011002356A
Authority
JP
Japan
Prior art keywords
sensor
sensors
current location
cpu
navigation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009146203A
Other languages
Japanese (ja)
Inventor
Mikio Bando
幹雄 板東
Masao Sakata
雅男 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2009146203A priority Critical patent/JP2011002356A/en
Publication of JP2011002356A publication Critical patent/JP2011002356A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a navigation device which is suppressed low in a calculation amount necessary for estimating a present place, even when the number of sensors used for sensor fusion is increased.SOLUTION: A characteristic table in which weights to be given to each sensor in various states are set is stored in a ROM 34. After estimating the present place, a CPU 31 applies information such as the estimated present place, map data and a processing under execution to the characteristic table, to thereby calculate each sensor weight. A sensor whose weight is lower than a prescribed threshold out of four sensors 22a-22d is blocked by a switch group 32 controlled by the CPU 31, to thereby suspend output of a detection value to the CPU 31. Resultantly, the CPU 31 stops utilization of the sensor for estimating the present place.

Description

本発明は、現在地を推定する機能を有するナビゲーション装置に関する。   The present invention relates to a navigation device having a function of estimating a current location.

現在のナビゲーション装置には、速度センサや加速度センサ、GPSセンサなどの種々のセンサが搭載されている。ナビゲーション装置は、これらのセンサのうち特定のセンサが出力する情報に基づいて現在地の推定を行う。複数のセンサを搭載しているのは、特定のセンサが機能しない状況下であっても、別のセンサから取得した情報で現在地を推定できるようにするためである。例えば特許文献1には、通常はGPSによる測位を行い、GPSによる測位が不良となったときに他のセンサを用いて測位を行うナビゲーション装置が開示されている。   Various sensors such as a speed sensor, an acceleration sensor, and a GPS sensor are mounted on current navigation devices. The navigation device estimates the current location based on information output from a specific sensor among these sensors. The reason why a plurality of sensors are mounted is to enable the present location to be estimated from information acquired from another sensor even in a situation where a specific sensor does not function. For example, Patent Document 1 discloses a navigation device that normally performs positioning by GPS and performs positioning using another sensor when positioning by GPS becomes defective.

一方で、特許文献1に開示されたナビゲーション装置とは異なり、複数のセンサを同時に利用するセンサフュージョンという技術が存在する。この技術は、複数のセンサが出力する情報を組み合わせることで、推定される現在地の精度を高めるというものである。センサフュージョンにおいては、より多くのセンサを利用すれば、より高い精度の現在地推定が期待できる。   On the other hand, unlike the navigation device disclosed in Patent Document 1, there is a technology called sensor fusion that uses a plurality of sensors simultaneously. This technique improves the accuracy of the estimated current location by combining information output from a plurality of sensors. In sensor fusion, if more sensors are used, more accurate current location estimation can be expected.

特開平7−55480号公報JP 7-55480 A

センサフュージョンに利用するセンサを増やせば、それだけ現在地の推定に必要な計算量が増加してしまう。   Increasing the number of sensors used for sensor fusion increases the amount of calculation required to estimate the current location.

請求項1に係る発明は、複数のセンサからそれぞれ出力される複数の検出値を入力する入力手段と、前記複数のセンサの各々に対応する評価値を算出する評価手段と、前記評価手段が算出した前記評価値に基づいて、前記複数のセンサから1つ以上のセンサを選択する選択手段と、前記選択手段が選択した前記1つ以上のセンサに対応する検出値に基づいて、現在地を推定する現在地推定手段と、を備えることを特徴とするナビゲーション装置である。   The invention according to claim 1 is an input unit that inputs a plurality of detection values output from a plurality of sensors, an evaluation unit that calculates an evaluation value corresponding to each of the plurality of sensors, and the evaluation unit calculates Based on the evaluation value, a selection unit that selects one or more sensors from the plurality of sensors, and a current location is estimated based on a detection value corresponding to the one or more sensors selected by the selection unit. A navigation apparatus comprising: a current location estimating means.

本発明によれば、多様なセンサの中から、現在の状況下において効果的に働かないセンサを選定して遮断することにより、推定される現在地の高い精度を保ったまま、計算量を抑えることができる。   According to the present invention, it is possible to reduce the amount of calculation while maintaining high accuracy of the estimated current location by selecting and shutting off a sensor that does not work effectively under the current situation from various sensors. Can do.

第1の実施の形態におけるナビゲーション装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the navigation apparatus in 1st Embodiment. 制御回路11の詳細な構成を示す図である。2 is a diagram showing a detailed configuration of a control circuit 11. FIG. CPU31が現在地の推定に用いるセンサを決定するための特性テーブルを示す図である。It is a figure which shows the characteristic table for CPU31 to determine the sensor used for the present location estimation. 現在地推定処理のフローチャートである。It is a flowchart of a present location estimation process.

――第1の実施の形態――
図1は、本実施形態におけるナビゲーション装置の全体構成を示すブロック図である。
-First embodiment-
FIG. 1 is a block diagram showing the overall configuration of the navigation device according to this embodiment.

ナビゲーション装置1は、制御回路11、記憶装置12、表示モニタ13、入力装置14、タッチパネルコントロール部15、タッチパネル16、振動ジャイロ22a、速度センサ22b、加速度センサ22cおよびGPSセンサ22dを有している。   The navigation device 1 includes a control circuit 11, a storage device 12, a display monitor 13, an input device 14, a touch panel control unit 15, a touch panel 16, a vibration gyro 22a, a speed sensor 22b, an acceleration sensor 22c, and a GPS sensor 22d.

制御回路11は、マイクロプロセッサ及びその周辺回路からなり、制御プログラムを実行して各種の制御を行う。記憶装置12は地図データが格納されたHDDなどである。制御回路11が記憶装置12に記憶された地図データに基づいて所定の経路探索処理を行うと、その処理結果が推奨経路として表示モニタ13に表示される。   The control circuit 11 includes a microprocessor and its peripheral circuits, and performs various controls by executing a control program. The storage device 12 is an HDD or the like in which map data is stored. When the control circuit 11 performs a predetermined route search process based on the map data stored in the storage device 12, the processing result is displayed on the display monitor 13 as a recommended route.

記憶装置12に格納される地図データは、地図表示用データ、経路探索用データなどを含む。地図表示用データおよび経路探索用データには、地図データに格納されている道路のリンク情報およびノード情報が含まれている。リンク情報には、各リンクの旅行時間(以下、リンク旅行時間)の情報が含まれている。地図表示用データは、広域から詳細まで複数の縮尺の地図データを有し、ユーザの要求にしたがって、表示地図の縮尺を変更することができる。なお、地図データが格納される記憶装置12は、HDD以外の他の記録メディア、例えばDVD−ROMやCD−ROMであってもよい。   The map data stored in the storage device 12 includes map display data, route search data, and the like. The map display data and the route search data include road link information and node information stored in the map data. The link information includes information on the travel time of each link (hereinafter referred to as “link travel time”). The map display data has map data of a plurality of scales from wide areas to details, and the scale of the display map can be changed according to a user request. The storage device 12 in which the map data is stored may be a recording medium other than the HDD, such as a DVD-ROM or a CD-ROM.

表示モニタ13は、地図データなどの各種情報に基づいて、自車位置付近の道路地図などの各種情報を画面表示としてユーザに提供する。入力装置14は、ユーザが各種コマンドを設定するための入力スイッチを有し、操作パネルやリモコンなどによって実現される。ユーザは、表示モニタ13の表示画面の指示にしたがって入力装置14を操作することにより、目的地を設定する。   The display monitor 13 provides the user with various information such as a road map near the vehicle position as a screen display based on various information such as map data. The input device 14 has an input switch for a user to set various commands, and is realized by an operation panel, a remote controller, or the like. The user sets the destination by operating the input device 14 in accordance with instructions on the display screen of the display monitor 13.

タッチパネル16は、表示モニタ13の表面に積層される透明のタッチスイッチであり、表示モニタ13に表示される画像はタッチパネル16を通して表示される。タッチパネル16は、タッチパネル16上の操作位置に応じた信号をタッチパネルコントロール部15に送出する。そして、タッチパネルコントロール部15はタッチパネル16の押圧位置を算出する。   The touch panel 16 is a transparent touch switch laminated on the surface of the display monitor 13, and an image displayed on the display monitor 13 is displayed through the touch panel 16. The touch panel 16 sends a signal corresponding to the operation position on the touch panel 16 to the touch panel control unit 15. Then, the touch panel control unit 15 calculates the pressed position of the touch panel 16.

センサ22a〜22dは、車両の現在地を推定するために用いられる各種のセンサである。制御回路11はこれらのセンサから得られる検出値に基づいてセンサフュージョンを行い、現在地を推定する。そして、推定された現在地に基づいて、地図の表示範囲や経路探索開始点などを決定するとともに、地図上にその現在地を表示する。   The sensors 22a to 22d are various sensors used for estimating the current location of the vehicle. The control circuit 11 performs sensor fusion based on the detection values obtained from these sensors, and estimates the current location. Then, based on the estimated current location, a display range of the map, a route search start point, and the like are determined, and the current location is displayed on the map.

制御回路11が用いるセンサは、振動ジャイロ22a、速度センサ22b、加速度センサ22cおよびGPS(Global Positioning System)センサ22dである。なお、制御回路11は現在地を推定するために、これら以外のセンサを用いてもよい。制御回路11は、所定時間が経過するか、あるいは所定距離を走行する度に、これらのセンサが検出した最新の検出値を取得し、所定のアルゴリズムに基づいて現在地の推定を行う。   The sensors used by the control circuit 11 are a vibration gyro 22a, a speed sensor 22b, an acceleration sensor 22c, and a GPS (Global Positioning System) sensor 22d. The control circuit 11 may use sensors other than these in order to estimate the current location. The control circuit 11 acquires the latest detection value detected by these sensors each time a predetermined time elapses or travels a predetermined distance, and estimates the current location based on a predetermined algorithm.

振動ジャイロ22aは車両の進行方向を、速度センサ22bは車両の速度を、加速度センサ22cは車両の加速度をそれぞれ取得するためのセンサである。GPSセンサ22dは、GPS衛星からのGPS信号を検出する。   The vibration gyro 22a is a sensor for acquiring the traveling direction of the vehicle, the speed sensor 22b is a sensor for acquiring the speed of the vehicle, and the acceleration sensor 22c is a sensor for acquiring the acceleration of the vehicle. The GPS sensor 22d detects a GPS signal from a GPS satellite.

図2は、制御回路11の詳細な構成を示す図である。以下、この図を用いて、制御回路11の動作を説明する。   FIG. 2 is a diagram showing a detailed configuration of the control circuit 11. Hereinafter, the operation of the control circuit 11 will be described with reference to FIG.

制御回路11は、CPU31と、スイッチ群32と、RAM33と、ROM34とを有する。CPU31は、ROM34に記憶されている制御プログラムを実行し、現在地の推定や経路案内などの各種の制御を行う。RAM33は、これらの制御を行う際の作業領域として使用される。現在地の推定に用いるセンサ22a〜22dは、スイッチ群32を通してCPU31に接続されている。CPU31は、スイッチ群32を通じて入力される各センサの検出値に基づいて、現在地の推定を行う。   The control circuit 11 includes a CPU 31, a switch group 32, a RAM 33, and a ROM 34. The CPU 31 executes a control program stored in the ROM 34 and performs various controls such as estimation of the current location and route guidance. The RAM 33 is used as a work area when performing these controls. The sensors 22 a to 22 d used for estimating the current location are connected to the CPU 31 through the switch group 32. The CPU 31 estimates the current location based on the detection value of each sensor input through the switch group 32.

現在地の推定を行った後にCPU31は、推定された現在地と、地図データと、CPU31が実行中の処理とに基づいて、4つのセンサ22a〜22dから次回の現在地の推定に用いるセンサを選択する。CPU31により選択されなかったセンサはスイッチ群32により遮断され、CPU31への検出値の出力が行われなくなる。その結果、CPU31はこのセンサを現在地の推定に利用しなくなる。   After estimating the current location, the CPU 31 selects a sensor to be used for estimation of the next current location from the four sensors 22a to 22d based on the estimated current location, the map data, and the process being executed by the CPU 31. Sensors that are not selected by the CPU 31 are blocked by the switch group 32, and detection values are not output to the CPU 31. As a result, the CPU 31 does not use this sensor for estimating the current location.

次に、CPU31による、現在地の推定に用いるセンサを決定する手順について説明する。ROM34には、種々の状況において各センサに与えられる重みが設定された特性テーブルが記憶されている。CPU31は、推定された現在地、地図データ、および実行中の処理などの情報を特性テーブルに当てはめ、各々のセンサの重みを算出する。CPU31は、算出された重みが所定のしきい値よりも小さいセンサを遮断し、現在地の推定に用いられないようにする。   Next, a procedure for determining a sensor used for estimating the current location by the CPU 31 will be described. The ROM 34 stores a characteristic table in which weights given to the sensors in various situations are set. The CPU 31 applies information such as the estimated current location, map data, and processing being executed to the characteristic table, and calculates the weight of each sensor. The CPU 31 blocks a sensor having a calculated weight smaller than a predetermined threshold value so that it is not used for estimating the current location.

図3は、CPU31が現在地の推定に用いるセンサを決定するための特性テーブルを示す図である。特性テーブルの各列にはセンサ22a〜22dが、各行には種々の状況が割り当てられている。図3では、「都市部」、「トンネル」、「音楽再生中」、「マップマッチング未実行」という5つの状況が設定されている。   FIG. 3 is a diagram illustrating a characteristic table for the CPU 31 to determine a sensor used for estimating the current location. Sensors 22a to 22d are assigned to each column of the characteristic table, and various situations are assigned to each row. In FIG. 3, five situations of “urban area”, “tunnel”, “during music playback”, and “map matching not executed” are set.

行41は、現在地が「都市部」に該当した場合に、各々のセンサに与えられる重みを表している。都市部では周囲の構造物の影響によりGPS信号の強度が低下するので、GPSセンサ22dには他のセンサより低い重みが与えられている。現在地が「都市部」であるかどうかは、現在地と地図データとから判定される。   A row 41 represents a weight given to each sensor when the current location corresponds to “urban area”. In urban areas, the strength of the GPS signal is reduced due to the influence of surrounding structures, so the GPS sensor 22d is given a lower weight than other sensors. Whether or not the current location is “urban” is determined from the current location and map data.

行42は、行41と同様に、現在地が「トンネル」に該当した場合に、各々のセンサに与えられる重みを表している。トンネルではGPS信号が受信できないので、GPSセンサ22dが利用されなくなるよう、重みが0に設定されている。   Similarly to the row 41, the row 42 represents the weight given to each sensor when the current location corresponds to “tunnel”. Since the GPS signal cannot be received in the tunnel, the weight is set to 0 so that the GPS sensor 22d is not used.

行43は、音楽再生処理が実行されている場合の、各々のセンサの重みを表している。音楽再生処理を実行中はCPU31の演算負荷が高くなるため、現在地の推定に必要な計算量をできるだけ減らすことが望ましい。そこで、音楽再生中は、各々のセンサに対して通常よりも低い重みが設定される。   A row 43 represents the weight of each sensor when the music playback process is being executed. Since the calculation load on the CPU 31 increases during the music playback process, it is desirable to reduce the amount of calculation necessary for estimating the current location as much as possible. Therefore, during music playback, a lower weight than usual is set for each sensor.

行44は、マップマッチが実行されていない場合の、各々のセンサの重みを表している。現在地が不確かな場合、ナビゲーション装置1はいわゆるフリー状態となり、マップマッチが行われなくなる。この場合、速やかに正確な現在地の推定を行い、マップマッチを実行可能な状態に復帰することが望ましい。そこで、フリー状態の場合には、全てのセンサに対して通常よりも高い重みを設定している。これによりCPU31は、より多くのセンサを用いて可能な限り正確な現在地を推定しようとする。   Row 44 represents the weight of each sensor when no map match is performed. If the current location is uncertain, the navigation device 1 is in a so-called free state and no map match is performed. In this case, it is desirable to quickly estimate the current location and return to a state where map matching can be performed. Therefore, in the free state, a higher weight than usual is set for all sensors. As a result, the CPU 31 tries to estimate the current location as accurately as possible using more sensors.

現在の状況が、特性テーブルの複数の行に該当する場合には、各々の行に設定されている重みを乗算し、各センサの重みとする。例えば、音楽再生中にトンネルに入った場合、行42および行43が該当する。この場合、速度センサの重みは、行42の「1」と、行43の「0.8」とを乗算した「0.8」となる。   When the current situation corresponds to a plurality of rows in the characteristic table, the weight set for each row is multiplied to obtain the weight of each sensor. For example, when entering a tunnel during music playback, line 42 and line 43 correspond. In this case, the weight of the speed sensor is “0.8” obtained by multiplying “1” in the row 42 by “0.8” in the row 43.

なお、特性テーブルに設定される「状況」は、上述したものに限らない。地図データに基づく状況としては、例えば道路の曲率や、高速道路や一般道などの道路種別、交差点の数などが挙げられる。また、CPUの処理負荷に基づく状況としては、例えば拡大地図の表示中である、道路の3D表示を行っている、などが挙げられる。   The “situation” set in the characteristic table is not limited to that described above. The situation based on the map data includes, for example, the curvature of the road, the type of road such as an expressway and a general road, the number of intersections, and the like. In addition, examples of the situation based on the processing load of the CPU include a case where an enlarged map is being displayed and a 3D display of a road is being performed.

図4は、現在地推定処理のフローチャートである。まずステップS11では、センサ22a〜22dより検出値を取得する。このとき、スイッチ群32により遮断されているセンサからは検出値を取得しない。ステップS12では、図3に示した特性テーブルを用いて、各々のセンサに対応する重みを算出する。ステップS13では、ステップS12で算出した重みに基づいてスイッチ群32の切替を行い、各々のセンサが現在地の推定に用いられるか否かを決定する。ステップS14では、各センサから取得した検出値に基づき、現在地の推定を行う。   FIG. 4 is a flowchart of the current location estimation process. First, in step S11, detection values are acquired from the sensors 22a to 22d. At this time, the detection value is not acquired from the sensor blocked by the switch group 32. In step S12, the weight corresponding to each sensor is calculated using the characteristic table shown in FIG. In step S13, the switch group 32 is switched based on the weight calculated in step S12, and it is determined whether or not each sensor is used for estimation of the current location. In step S14, the current location is estimated based on the detection value acquired from each sensor.

上述した第1の実施の形態によるナビゲーション装置によれば、次の作用効果が得られる。
(1)CPU31は、複数のセンサ22a〜22dからそれぞれ出力される複数の検出値を取得する。そして、各々のセンサの評価値である重みを算出し、この重みに基づいて、現在地の推定に用いるセンサを1つ以上選択する。その後、現在地の推定に用いないセンサをスイッチ群32により遮断し、選択したセンサが出力した検出値に基づいて現在地の推定を行う。これにより、種々のセンサの中から適切なセンサのみが現在地の推定に用いられ、現在地の推定に必要な計算量が削減される。
According to the navigation apparatus according to the first embodiment described above, the following operational effects can be obtained.
(1) The CPU 31 acquires a plurality of detection values respectively output from the plurality of sensors 22a to 22d. Then, a weight which is an evaluation value of each sensor is calculated, and one or more sensors used for estimating the current location are selected based on the weight. Thereafter, sensors not used for estimating the current location are blocked by the switch group 32, and the current location is estimated based on the detection value output by the selected sensor. As a result, only an appropriate sensor among various sensors is used for estimation of the current location, and the amount of calculation required for estimation of the current location is reduced.

(2)CPU31は、記憶装置12に記憶されている地図データと、CPU31が実行中の処理と、ナビゲーション装置1の状態とに基づいて重みを算出する。これにより、多様な状況に対してセンサの選択を柔軟に行うことができる。 (2) The CPU 31 calculates a weight based on the map data stored in the storage device 12, the process being executed by the CPU 31, and the state of the navigation device 1. As a result, the sensor can be flexibly selected for various situations.

(3)CPU31は、所定状況下におけるセンサごとの重みが格納された特性テーブルに基づいて各センサの重みを算出する。これにより、複数の条件が重なった複雑な状況下においても、各センサを使用すべきか否かを総合的に判断することができる。 (3) The CPU 31 calculates the weight of each sensor based on a characteristic table storing the weight for each sensor under a predetermined condition. Thereby, it is possible to comprehensively determine whether or not each sensor should be used even in a complicated situation where a plurality of conditions overlap.

(4)各センサの重みを算出する処理は、特定のセンサに特化した内容が一切含まれない、汎用的な処理となっている。これにより、別種のセンサをさらに追加する場合であっても容易に対応することができる。 (4) The process of calculating the weight of each sensor is a general-purpose process that does not include any content specific to a specific sensor. Thus, even when another type of sensor is further added, it can be easily handled.

(5)各センサの重みを算出するために必要な情報は、すべて特性テーブルに納められている。これにより、特性テーブルを参照するだけで、どのセンサがどのような状況で優先的に使用されるのかを容易に把握することができる。 (5) All information necessary for calculating the weight of each sensor is stored in the characteristic table. Thereby, it is possible to easily grasp which sensor is preferentially used in which situation by simply referring to the characteristic table.

上述した第1の実施の形態では、センサの利用可否の判断に特性テーブルを用いていた。以下に詳述する第2の実施の形態では、特性テーブルの代わりに特性関数を用いる。   In the first embodiment described above, the characteristic table is used to determine whether or not the sensor can be used. In the second embodiment described in detail below, a characteristic function is used instead of the characteristic table.

――第2の実施の形態――
始めに、特性関数で使用する変数を以下のように定める。
Ct:現在地周辺の100m矩形内における、建物ポリゴンの面積比率
R:自車が現在マップマッチしている道路の、前方500m先までの曲率
CR:現在地周辺の100m矩形内における交差点数
Rp:自車が現在マップマッチしている道路の道路種別に対応する数値
CL:現在地およびナビゲーション装置の状態に応じた数値
Fr:フリー状態なら100、フリー状態でなければ0
E:蓄積誤差の大きさ(例えば、誤差eを走行距離lで積分したものの絶対値)
Cam:現在時刻に応じた数値
-Second embodiment-
First, the variables used in the characteristic function are defined as follows.
Ct: Area ratio of building polygons within a 100 m rectangle around the current location R: Curvature up to 500 meters ahead of the road where the vehicle is currently map-matched CR: Number of intersections within the 100 m rectangle around the current location Rp: Own vehicle Is the numerical value CL corresponding to the road type of the road that currently matches the map: Numerical value Fr according to the current location and the state of the navigation device Fr: 100 if free, 0 if not
E: magnitude of accumulated error (for example, absolute value of error e integrated with travel distance l)
Cam: Numerical value according to the current time

ここでRpは、例えば高速道路であれば1、一般道路であれば3、トンネル内であれば5というように、センサの検出値が信用できる道路であるほど小さな数値とする。またCLは、ナビゲーション装置が拡大地図の表示中であれば90、高速道路を走行中であり3D表示が行われていれば70、都市部を走行中であれば50など、CPUの計算量が多いほど大きな数値とする。また、Camは時間帯毎に設定された数値のうち、現在時刻がどの時間帯に対応するかを表す数値であり、例えば6:00〜12:00には20、12:00〜17:00には40、17:00〜6:00には100が設定される。   Here, Rp is set to a smaller numerical value as the road has a reliable sensor detection value, such as 1 for a highway, 3 for a general road, and 5 for a tunnel. In addition, CL is 90 when the navigation device is displaying an enlarged map, 70 when traveling on a highway and 3D display is being performed, 50 when traveling in an urban area, and the like. The larger the number, the larger the value. In addition, Cam is a numerical value indicating which time zone the current time corresponds to among the numerical values set for each time zone. For example, 20 at 10:00 to 12:00, and 12:00 to 17:00. Is set to 40, and 17:00 to 6:00 is set to 100.

次に、これらの変数を含む変数Map、Cpu、CarStをそれぞれ次式(1)のように定義する。   Next, variables Map, Cpu, and CarSt including these variables are respectively defined as the following expression (1).

Figure 2011002356
Figure 2011002356

ここで、変数Mapには地図データに関する変数が、CpuにはCPU負荷率に関する変数が、CarStには自車状態に関する変数がそれぞれ含まれている。これら3つの変数を標準化した行列をそれぞれM、CP、CSとすると、特性関数Jは次式(2)により定義される。   Here, the variable Map includes a variable related to map data, Cpu includes a variable related to the CPU load factor, and CarSt includes a variable related to the vehicle state. If the matrices obtained by standardizing these three variables are respectively M, CP, and CS, the characteristic function J is defined by the following equation (2).

Figure 2011002356
Figure 2011002356

ここで、Q1〜Q3は、各センサ毎に予め定められた係数行列である。本実施形態におけるナビゲーション装置は、特性関数Jを用いて各センサ毎の重みを算出し、この重みに基づいて各センサの使用可否を決定する。   Here, Q1 to Q3 are coefficient matrices determined in advance for each sensor. The navigation apparatus according to the present embodiment calculates a weight for each sensor using the characteristic function J, and determines whether each sensor can be used based on the weight.

上述した第2の実施の形態によるナビゲーション装置によれば、第1の実施の形態によるナビゲーション装置で得られる作用効果に加えて、次の作用効果が得られる。
(1)CPU31は、センサ毎に定められた係数行列を含む特性関数Jに基づいてセンサ毎の重みを算出する。これにより、特性テーブルを使用する場合に比べ、算出される重みをより細かに調整することができる。
According to the navigation apparatus according to the second embodiment described above, the following functions and effects can be obtained in addition to the functions and effects obtained by the navigation apparatus according to the first embodiment.
(1) The CPU 31 calculates a weight for each sensor based on a characteristic function J including a coefficient matrix determined for each sensor. Thereby, compared with the case where a characteristic table is used, the calculated weight can be adjusted more finely.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(1)各センサ毎に算出した重みにより、各センサの検出値の使用可否を決定するのではなく、各センサの検出値が現在地推定に与える影響の大きさを決定するようにしてもよい。例えば、算出した重みが所定値以下の場合にのみ検出値が無視されるようにしてもよいし、算出した重みを検出値に乗算した値を現在地の推定に用いるようにしてもよい。あるいは、センサの検出値を取得する周期が重みにより変化するようにしてもよい。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(1) Instead of determining whether or not the detection value of each sensor can be used based on the weight calculated for each sensor, the magnitude of the influence of the detection value of each sensor on the current location estimation may be determined. For example, the detection value may be ignored only when the calculated weight is equal to or less than a predetermined value, or a value obtained by multiplying the detection value by the calculated weight may be used for estimation of the current location. Or you may make it the period which acquires the detection value of a sensor change with a weight.

(2)各センサの使用可否を決定する手段は、テーブルや関数に限定されない。例えば、振動ジャイロや加速度センサなどの相対センサについては、蓄積誤差が少ない物を優先するようにしてもよいし、速度センサと車速パルスセンサなど類似するセンサは走行状態により一方のみを使用するようにしてもよい。上記のように類似するセンサについては、センサ毎に優先度を設定しておき、CPU負荷の大きさに応じて優先度の低いセンサを遮断するようにしてもよい。現在地の推定の際に、推定された現在地と各センサの検出値とを比較し、差が小さいセンサを優先的に使用するようにしてもよい。 (2) The means for determining the availability of each sensor is not limited to a table or a function. For example, with respect to relative sensors such as vibration gyros and acceleration sensors, priority may be given to an object with little accumulation error, and only one of similar sensors such as a speed sensor and a vehicle speed pulse sensor may be used depending on the running state. May be. As for the sensors similar to the above, a priority may be set for each sensor, and a sensor with a low priority may be blocked according to the size of the CPU load. When estimating the current location, the estimated current location may be compared with the detection value of each sensor, and a sensor with a small difference may be used preferentially.

(3)CPUの負荷を、特定の処理を実行中か否かにより判断するのではなく、CPU自身やモニタリング回路により計測されたCPU負荷率を直接使用するようにしてもよい。この場合、特性テーブルでは例えば「CPU負荷率が80%以上の場合」などの状況における各センサの重みを設定すればよい。また、特性関数ではCPU負荷率を表す変数を導入し、適切な係数行列を設定すればよい。 (3) The CPU load factor measured by the CPU itself or the monitoring circuit may be directly used instead of determining whether the CPU load is executing a specific process. In this case, the weight of each sensor in a situation such as “when the CPU load factor is 80% or more” may be set in the characteristic table. In the characteristic function, a variable representing the CPU load factor may be introduced to set an appropriate coefficient matrix.

(4)本発明の対象とするセンサは、実施例で提示したものに限らない。現在地の推定に用いることができるセンサであれば、例えば車速パルスセンサやカメラセンサなどを扱うことも可能である。 (4) The sensor which is the object of the present invention is not limited to the one presented in the embodiments. For example, a vehicle speed pulse sensor or a camera sensor can be used as long as the sensor can be used for estimating the current location.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   The present invention is not limited to the above-described embodiment as long as the characteristics of the present invention are not impaired, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

1 ナビゲーション装置
11 制御回路
22a 振動ジャイロ
22b 速度センサ
22c 加速度センサ
22d GPSセンサ
31 CPU
32 スイッチ群


1 Navigation Device 11 Control Circuit 22a Vibration Gyro 22b Speed Sensor 22c Acceleration Sensor 22d GPS Sensor 31 CPU
32 switches


Claims (4)

複数のセンサからそれぞれ出力される複数の検出値を入力する入力手段と、
前記複数のセンサの各々に対応する評価値を算出する評価手段と、
前記評価手段が算出した前記評価値に基づいて、前記複数のセンサから1つ以上のセンサを選択する選択手段と、
前記選択手段が選択した前記1つ以上のセンサに対応する検出値に基づいて、現在地を推定する現在地推定手段と、
を備えることを特徴とするナビゲーション装置。
Input means for inputting a plurality of detection values respectively output from a plurality of sensors;
Evaluation means for calculating an evaluation value corresponding to each of the plurality of sensors;
Selection means for selecting one or more sensors from the plurality of sensors based on the evaluation value calculated by the evaluation means;
Current location estimation means for estimating a current location based on detection values corresponding to the one or more sensors selected by the selection means;
A navigation device comprising:
請求項1に記載のナビゲーション装置において、
前記評価手段は、地図データと、前記ナビゲーション装置の負荷状態と、前記現在地推定手段により推定された現在地と、前記1つ以上のセンサに対応する検出値と、のいずれか少なくとも1つに基づいて前記評価値を算出することを特徴とするナビゲーション装置。
The navigation device according to claim 1, wherein
The evaluation unit is based on at least one of map data, a load state of the navigation device, a current location estimated by the current location estimation unit, and a detection value corresponding to the one or more sensors. A navigation device that calculates the evaluation value.
請求項1または2に記載のナビゲーション装置において、
前記評価手段は、所定状況下における前記複数のセンサごとの評価値を有する特性テーブルに基づいて前記評価値を算出することを特徴とするナビゲーション装置。
The navigation device according to claim 1 or 2,
The said evaluation means calculates the said evaluation value based on the characteristic table which has the evaluation value for every said some sensor under a predetermined condition, The navigation apparatus characterized by the above-mentioned.
請求項1または2に記載のナビゲーション装置において、
前記評価手段は、前記複数のセンサごとに定められた係数を含む特性関数に基づいて前記評価値を算出することを特徴とするナビゲーション装置。
The navigation device according to claim 1 or 2,
The navigation device according to claim 1, wherein the evaluation unit calculates the evaluation value based on a characteristic function including a coefficient determined for each of the plurality of sensors.
JP2009146203A 2009-06-19 2009-06-19 Navigation device Pending JP2011002356A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009146203A JP2011002356A (en) 2009-06-19 2009-06-19 Navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009146203A JP2011002356A (en) 2009-06-19 2009-06-19 Navigation device

Publications (1)

Publication Number Publication Date
JP2011002356A true JP2011002356A (en) 2011-01-06

Family

ID=43560422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009146203A Pending JP2011002356A (en) 2009-06-19 2009-06-19 Navigation device

Country Status (1)

Country Link
JP (1) JP2011002356A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013021045A (en) * 2011-07-08 2013-01-31 Nuflare Technology Inc Charged particle beam drawing device and charged particle beam drawing method
JP2013200645A (en) * 2012-03-23 2013-10-03 Nec Corp Server, communication system, and communication method
WO2019138634A1 (en) * 2018-01-09 2019-07-18 ソニー株式会社 Information processing device, information processing method, and program
JP2020008461A (en) * 2018-07-10 2020-01-16 株式会社豊田自動織機 Autonomous moving body location estimation device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1163186A (en) * 1997-08-08 1999-03-05 Aisin Aw Co Ltd Vehicle control device and record medium with its program recorded
JP2008128793A (en) * 2006-11-20 2008-06-05 Toyota Motor Corp Vehicle position measuring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1163186A (en) * 1997-08-08 1999-03-05 Aisin Aw Co Ltd Vehicle control device and record medium with its program recorded
JP2008128793A (en) * 2006-11-20 2008-06-05 Toyota Motor Corp Vehicle position measuring device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013021045A (en) * 2011-07-08 2013-01-31 Nuflare Technology Inc Charged particle beam drawing device and charged particle beam drawing method
JP2013200645A (en) * 2012-03-23 2013-10-03 Nec Corp Server, communication system, and communication method
WO2019138634A1 (en) * 2018-01-09 2019-07-18 ソニー株式会社 Information processing device, information processing method, and program
JP2020008461A (en) * 2018-07-10 2020-01-16 株式会社豊田自動織機 Autonomous moving body location estimation device

Similar Documents

Publication Publication Date Title
JP4560739B2 (en) Own vehicle position recognition device and own vehicle position recognition program
US8977487B2 (en) Navigation device and guide route search method
JP4548460B2 (en) Navigation device
US10866107B2 (en) Navigation system
JP2007127439A (en) Navigation system
JP2009533692A (en) Navigation device that automatically improves GPS accuracy
KR20090071076A (en) Navigation apparatus and method for providing information of poi(position of interest)
US20140200800A1 (en) Method and device for determining a suitability of a route
JP2008039480A (en) Route searching device
JP2011002356A (en) Navigation device
JP2007333652A (en) Positioning system and navigation system
JP4640827B2 (en) Vehicle position prediction method and apparatus
JP2008292232A (en) Portable navigation device
JP2009210517A (en) Navigation device for vehicle
JP4902465B2 (en) In-vehicle system and driving support method
JP2010276527A (en) Navigation device
JP2006227018A (en) Processor using acceleration
JP2006317287A (en) Present position determination device for vehicle
JP5241958B2 (en) Information processing apparatus, information processing method, program, and recording medium
JP7192828B2 (en) Map selection device and map selection computer program
JP5016246B2 (en) Navigation device and navigation method
JP4824522B2 (en) In-vehicle device
JP5895815B2 (en) Remaining distance calculation device, remaining distance calculation method, and driving support device
JP5136428B2 (en) Vehicle driving support device
JP7151010B1 (en) Road monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130814

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131210