JP2005114565A - 車載ナビゲーション装置 - Google Patents

車載ナビゲーション装置 Download PDF

Info

Publication number
JP2005114565A
JP2005114565A JP2003349476A JP2003349476A JP2005114565A JP 2005114565 A JP2005114565 A JP 2005114565A JP 2003349476 A JP2003349476 A JP 2003349476A JP 2003349476 A JP2003349476 A JP 2003349476A JP 2005114565 A JP2005114565 A JP 2005114565A
Authority
JP
Japan
Prior art keywords
vehicle
camera
target
information
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003349476A
Other languages
English (en)
Other versions
JP4328173B2 (ja
Inventor
Yoshitaka Uchida
吉孝 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2003349476A priority Critical patent/JP4328173B2/ja
Publication of JP2005114565A publication Critical patent/JP2005114565A/ja
Application granted granted Critical
Publication of JP4328173B2 publication Critical patent/JP4328173B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

【課題】 比較的単純な構成によって走行方位を修正し得る車載ナビゲーション装置を提供する。
【解決手段】 方位センサ15からの情報を用いて地図上に自車位置を表示する車載ナビゲーション装置10。ナビゲーション装置10は、自車の前方または後方を撮影するために車両14に搭載されるカメラ26を備え、地図の道路上への自車位置を表示するマップマッチング処理に際し、方位センサ15からの情報に加えて、カメラ26からの画像情報に基づいて求められた車両14の旋回方向(θ)についての情報を用いてマップマッチングが行われる。
【選択図】 図3

Description

本発明は、地図上に自車位置を表示する車載ナビゲーション装置に関し、特に、誤表示の原因となるセンサ類の測定誤差を車両に搭載したカメラの画像情報を用いて補正し得る車載ナビゲーション装置に関する。
従来の車載ナビゲーション装置は、一般的に、GPS受信機からの情報を用いる他律航法と、距離センサ及び方位センサからの情報を用いる自律航法との組み合わせにより、地図上に自車位置を表示する(例えば、特許文献1参照。)。
特許文献1に記載のナビゲーション装置では、車両に搭載した距離センサと、ジャイロスコープのような方位センサとからのセンサ情報を用いる自律航法により車両位置が地図上に表示される。このとき、マップマッチング処理により、自車位置が正しく地図の道路上に表示されるように、方位センサの測定誤差等による誤差が修正される。また、誤差が大きくなり、適正なマップマッチング処理が困難になったとき、GPSから得られるGPS情報を用いて車両の走行方位が修正され、その修正結果を用いてマップマッチング処理が施される。
より具体的には、この車両の走行方位の修正のために、GPSから得られたGPS方位情報とジャイロスコープのような方位センサから得られたセンサ方位情報とから成る複数組のデータが逐次記憶部に格納される。この記憶部に格納された最新組のデータを用いて方位センサによって得られたセンサ方位と実際の走行方位との差分であるオフセット角度が演算処理により求められ、このオフセット角度により修正された新たなオフセット角を用いて方位センサからのセンサ方位が逐次演算処理により修正され、これにより車両の正しい走行方位が求められる。従って、所定時間内の新たな方位データを用いて正確にオフセット角度を修正することができるので、正確に車両の走行方位を演算することができる。
特開平6−331369公報(第2−6頁、図5)
しかしながら、従来の前記ナビゲーション装置では、車両の走行方位を修正するためのオフセット角を求めるために、GPS方位情報と方位センサから得られたセンサ方位情報とから成る複数組のデータを演算処理する必要があり、構成が複雑化する。また、GPS方位情報は、衛星の配置状態、ビル等の建造物によるマルチパス環境の影響によっては方位精度を著しく劣化させることが知られており、さらには、トンネル等の電波を受信できない場所においては測位ができない。
そこで、本発明の目的は、GPS方位情報と方位センサから得られたセンサ方位情報とから成る複数組のデータの演算処理を必要とすることなく、比較的単純な構成によって走行方位を修正し得る車載ナビゲーション装置、もしくは、GPS方位情報と方位センサから得られたセンサ方位情報とから成るデータを演算処理する場合において、方位精度の劣化等による自車位置誤差を低減する手段を有するナビゲーション装置を提供することにある。
本発明は、基本的に、少なくとも方位センサもしくはGPSからの情報を用いて地図上に自車位置を表示する車載ナビゲーション装置であって、自車の前方または後方を撮影するために車両に搭載されるカメラを備え、前記地図の道路上への自車位置を表示するマップマッチング処理に際し、前記方位センサからの情報に加えて、前記カメラからの画像情報に基づいて求められた前記車両の旋回についての情報を用いてマップマッチングが行われることを特徴とする。
本発明では、車両に搭載されたカメラから得られた画像情報に例えば従来よく知られた画像解析を含む画像処理が施されることにより、前記画像情報から車両の旋回の有無、旋回角度及び旋回方向についての旋回情報が得られる。この情報を用いて適正かつ容易に自車の走行方位が修正されるので、GPS方位情報と方位センサから得られたセンサ方位情報とから成る複数組のデータの演算処理を必要とすることなく、従って、オフセット角を求めるための従来のような複雑な演算処理を必要とすることなく、もしくは、GPS方位情報と方位センサから得られたセンサ方位情報とからなるデータを演算処理して用いたとしても、方位センサから求められたセンサ方位を修正することにより、自車の走行方位を修正することができ、これにより、比較的単純な構成により高精度での自車位置の表示が可能となる。
本発明は、前記方位センサからの情報を用いる自律航法のナビゲーション装置の他、GPS受信機からの情報を用いる他律航法と前記自律航法との組み合わせにより地図上に自車位置を表示する、いわゆるハイブリッド航法のナビゲーション装置に適用することができる。
前記カメラとして、自動的に焦点合わせが可能の1台のカメラを望ましくは車両の中央部に設けることができ、該カメラの視野角内で焦点合わせが可能の固定物をターゲットとし、焦点が合うように捕捉された前記ターゲット及び前記カメラを結ぶ前記ターゲットの視線の移動角度が閾値を超えたとき、その移動方向と反対方向へ自車が旋回したと判定することができる。
前記ターゲットが前記カメラのレンズ光軸上に位置する場合、前記ターゲットの前記視線と前記レンズ光軸とのずれ角度が閾値を超えたとき、前記視線の移動方向と反対方向へ自車が旋回したと判定することができる。
他方、前記ターゲットが前記カメラのレンズ光軸上から外れて位置する場合、前記カメラの最小焦点距離における前記ターゲットの視線と前記カメラの最大焦点距離における前記ターゲットの視線との角度差が前記閾値を越えるか否かを判定されることにより、旋回についての正確な判定が可能となる。
また、前記閾値は前記方位センサの誤差よりも大きい値に設定することができ、これにより前記方位センサでの誤差の有無に拘わらず、適正な判定が可能となる。
前記カメラを前記車両の左右方向へ互いに間隔を置いて配置された2台のカメラで構成することができる。両カメラのそれぞれは自動的に焦点合わせが可能であり、該両カメラの視野の重複領域にある固定物をターゲットとし、該ターゲットに焦点が合うように該ターゲットを前記両カメラで捕捉し、捕捉された前記ターゲットがいずれか一方の前記カメラの視野角から外れたとき、視野角から外れた前記一方のカメラの配置側と一致する方向へ自車が旋回したと判定することができる。
また、2台のカメラが用いられ、前記ターゲットが前記両カメラの中間点を通る中心線上から外れている場合、該中心線からの前記ターゲットのずれ角で、前記各カメラの視野角を補正することができ、これにより例えターゲットが前記両カメラの中間点を通る中心線上から外れていても、補正された視野角での判定によって、適正に自車の旋回を判定することができる。
本発明によれば、方位センサからの情報に加えて、カメラからの画像情報に基づいて求められた車両の旋回の有無、旋回角度及びその方向についての旋回情報を用いてマップマッチングが行われ、この際、方位センサから得られるセンサ方位がカメラの画像情報から得られる旋回情報によって修正されることから、この走行方位の修正のための情報を従来に比較して容易に得ることができるので、比較的単純な構成によって高精度での自車位置の表示が可能となる。
本発明が特徴とするところは、図示の実施例に沿っての以下の説明により、さらに明らかとなろう。
本発明に係るナビゲーション装置は、図1に示す例では、他律航法及び自律航法の組み合わせから成るハイブリッド航法を採用した車載用ナビゲーション装置10である。ナビゲーション装置10は、情報処理のためのCPU11を備えるメインユニット12と、該メインユニットに接続されたGPS受信機13と、ナビゲーション装置10が搭載される車両14(図2参照)の走行状態を検知する複数のセンサ15とを備える。
GPS受信機13は、複数のGPS衛星からの電波を受信し、三角測量法によって求められた位置情報を含むGPS情報をCPU11に出力する。メインユニット12は、GPS受信機13からのGPS情報に基づいて自車位置を求める。GPS情報を用いる他律航法では、そのGPS情報に、電波受信状態に応じた測位誤差が含まれる。この測位誤差を除去するために、図示のナビゲーション装置10には、測位誤差を補正するためのデータを受信するFM多重受信機16が設けられており、これにより、FM多重受信機16により受信される補正データによって測位誤差を補正するデファレンシャルGPS(D−GPS)が採用されている。
また、図示の例では、日本道路交通情報センタが提供するVICSを利用するために、光ビーコン及び電波ビーコンを受信するためのビーコン受信機17が設けられており、これにより、一般道路に設置されている光ビーコン及び高速道路に設置されている電波ビーコンで提供される交通情報を利用することができる。また、VICSによってFM多重放送で提供される交通情報は、デファレンシャルGPS用のFM多重受信機16で受信することができ、このFM多重受信機16の兼用によって、一般道路に設置された各都道府県単位の広域情報を受信し、この情報を利用することができる。
自律航法のためのセンサ類15は、走行方向の変換角度を検知する振動ジャイロあるいはこの変換角度に加えて走行方向に沿った傾斜角度を検知する3Dジャイロのようなジャイロセンサから成る方位センサと、車両14の走行速度を検出する車速センサとを有する。
これらセンサ類15からのセンサ方位情報及び車速情報はCPU11に出力される。CPU11は、後述するメモリ22に格納されたプログラムに従って、従来におけると同様に、センサ類15からの情報に基づいてセンサ方位及び走行距離を求める。
メインユニット12には、ドライブ装置18に接続されるデコーダ19が設けられている。ドライブ装置18には、地図、地理情報、地域情報及びそれらに関する各種データが符号化されて格納されたCD、DVD、ハードディスクのような記憶媒体が装着される。CPU11は、例えばディスプレイ20に組み込まれたタッチパネル(図示せず)の操作に応じた操作信号をユーザインタフェース21を経て受けると、メモリ22に格納されたプログラムに沿って、ドライブ装置18で読み出された前記記憶媒体からの符号化されたデータを復号機能を有するデコーダ19を経て読み取り、グラフィックレンダー23を経てディスプレイ20に地図等の地理情報を表示する。また、CPU11は、必要に応じて、ビーコン受信機17あるいはFM多重受信機16で受信した交通情報をディスプレイ20に表示する。さらに、CPU11は、必要に応じて音声情報を音声出力回路24を経てスピーカ25から出力する。
前記したタッチパネルでのナビゲーション装置10の操作に代えて、従来よく知られた赤外線リモートコントローラによりナビゲーション装置10を操作することができる。
また、CPU11は、メモリ22に格納されたプログラムに従って、例えばセンサ類15からのセンサ情報によって得られたセンサ方位情報及び走行距離情報から自車位置を求めるために、これらセンサ方位データ及び走行距離データと、ディスプレイ20上に表示される地図の道路座標データと比較するマッチマッピング処理が可能である。さらに、CPU11は、メモリ22に格納されたプログラムに従って、GPS受信機13からのGPS情報を用いて自車位置を求める。
正確な自車位置を求めるために、従来よく知られているように、これらセンサ類15からのセンサ情報とGPS受信機13からのGPS情報とは、自律航法及び他律航法の各長所を組み合わせ互いに欠点を補い合うように、補完的に用いられてマッチマッピング処理が施される。
また、本発明に係るナビゲーション装置10は、センサ類15からのセンサ方位データ及び走行距離データを用いてマップマッチング処理を行うに際し、センサ方位データに含まれる測定誤差を修正するために、カメラ26と、該カメラにより撮影された画像を解析し、その画像データを演算処理するための画像演算処理回路27とを備える。
図2に示す例では、1台のカメラ26が車両14の前景を捉えるために該車両の前部中央に固定的に取り付けられており、レンズ光軸28が車両14の前後方向に伸びる中心線に一致するように設定されている。車両14に搭載されたカメラ26は、CPU11の制御下で、そのカメラ焦点が合う最大焦点距離Lmaxと、カメラ焦点が合う最小焦点距離Lminとの間のトラッキング範囲29内でカメラの視野角α内の画像を撮影する。カメラ26は、最大焦点距離Lmaxと最小焦点距離Lminとの間で選択したターゲットに自動的に焦点を合わせるいわゆるオートフォーカス(AF)カメラであり、カメラ26は撮影した画像から、該画像内のレンズ光軸28上に位置する固定物をターゲット30として選択する。このターゲット30には、例えば、道路案内板、陸橋、信号機あるいは道路分岐点にある看板等を採用することができる。望ましくは、最大焦点距離Lmax上の固定物がターゲット30として選択される。
カメラ26は、そのレンズ光軸28上のターゲット30に焦点を合わせると、そのオートフォーカス機能により、車両14の走行に伴って変化するターゲット30までの距離の変化に応じて焦点を合わせるように動作する。これにより、カメラ26は、ターゲット30を捕捉する。
画像演算処理回路27は、ターゲット30が捕捉された画像から、捕捉されたターゲット30とカメラ26とを結ぶ視線31のカメラ26から見た移動角度θを算出する。図2に示す例では、レンズ光軸28上に位置するターゲット30が捕捉されることから、車両14が直線走行を維持する限り移動角度θは零度を示す。しかしながら、車両14が例えば図2で見て反時計方向へ角度θ分旋回すると、図2に符号28′で示すように、車両14の旋回と一体にレンズ光軸は、レンズ光軸28から角度θ分変化する。そのため、車両14の旋回に応じて、カメラ26とターゲット30とを結ぶ視線31と、カメラ26から見た基準線となるレンズ光軸28′との間には、角度θ分のずれが生じる。
画像演算処理回路27は、カメラ26で捉えた画像データから、この基準線28′からの視線31のずれ角すなわち視線31の移動角θを算出する。また、CPU11は、移動角θの絶対値である|θ|と閾値Thの絶対値である|±Th|と比較し、その比較結果から移動角θが閾値Thを超えたか否かを判定する。この閾値Thには、望ましくは、前記ジャイロスコープの測定誤差よりも大きな値が設定される。
前記したカメラ26で捉えたターゲットの画像処理により得られる視線30の移動角度θを求め、この移動角度θに応じて、前記したジャイロスコープのような方位センサにより得られたセンサ方位を修正するか否かが判定される。この移動角θを求め、センサ方位を修正するか否かを判定するまでの手順を図3のフローチャートに沿って説明する。
カメラ26の画像から該カメラのレンズ光軸28上にある固定物の画像がターゲット30として選択され、該ターゲットに焦点が合うよう該ターゲットが捕捉される(ステップS1)と、車両14の走行に応じて移動するターゲット30の視線31の移動角θが画像演算処理回路27により逐次算出される(ステップS2)。CPU11は、移動角θと閾値Thとを比較する(ステップS3)。移動角θの絶対値|θ|が閾値Thの絶対値|±Th|を超えると、車両14は、視線31の移動方向と逆方向、すなわち図2に示した例では視線31が時計方向へ移動することから、反時計方向へ走行方向を変換する左旋回走行に移行したと判定される。その場合、CPU11は、旋回方向に応じて右旋回または左旋回を示すフラッグを立てる。CPU11が、ステップS3で、車両14が走行方向を変換していないと判定した場合、ステップS2に戻り、このステップS2及びステップS3を繰り返すことにより、移動角θの絶対値|θ|が閾値Thの絶対値|±Th|を超えるか否かを判定し続ける。
ステップS4で旋回方向を意味するフラッグが立てられると、捕捉されたターゲット30が初期化される(ステップS5)。フラッグが立てられていないと、CPU11は、従来と同様に、前記ジャイロスコープのような方位センサと、距離センサとからの情報に基づくマップマッチング処理により、自車位置を決定し、ディスプレイ20の地図上にその自車位置を表示させる。他方、ステップS4でフラッグが立てられていると、CPU11は、ターゲット30の初期化(ステップS5)の後、前記したと同様に、ジャイロスコープのような方位センサと、距離センサとからの情報に基づくマップマッチング処理により、自車位置を決定するが、このマップマッチング処理に際し、ステップS2で検出された移動角θに応じた旋回方向及び旋回角度がセンサ方位の補正データとして取り扱われ、この補正データを考慮してマップマッチング処理が行われ、これにより、前記方位センサの誤差による誤ったマップマッチング処理が回避されることから、正確な自車位置が前記地図上に表示される。
その後、ステップS7で終了の指示を受けない限り、新たなターゲット30の捕捉のためにステップS1に戻り、ステップS7に至る各ステップを反復する。
従って、ナビゲーション装置10によれば、GPS情報を用いることなく、カメラ26により得られる画像処理から、必要に応じて方位センサの補正データを得ることができ、これにより従来に比較して単純な構成で高精度での自車位置の表示が可能となる。
前記したところでは、車両14の中心軸線に一致するレンズ光軸28上にターゲット30を捕捉した例を示した。しかしながら、レンズ光軸28上に適切なターゲットを捕捉できない場合がある。このような場合、図4に示すように、レンズ光軸28上の近傍で該レンズ光軸から外れた位置にある固定物をターゲット30として選択することができる。
図4には、車両14の中心軸線に一致するレンズ光軸28から角度θ1のずれ角で以てターゲット30が捕捉されている。この場合、単に角度θ1を移動角θとして算出すると正しい補正データを得ることはできない。そこで、このような場合、図5に符号14aで示すように、車両14が最大焦点距離Lmaxでターゲット30を捕捉したときのずれ角θ1と、符号14bで示すように最小焦点距離Lminでターゲット30を捕捉したと仮定したときのずれ角θ2を求め、その角度差(θ2−θ1)が閾値Thと比較される。
従って、レンズ光軸28上から外れた位置にある固定物がターゲット30として選択された場合、移動角θと閾値Thとの比較に代えて、前記差角(θ2−θ1)が閾値Thと比較され、これにより、ターゲット30のレンズ光軸28上からのずれに拘わらず、このずれに伴う誤差を生じることなく、車両14が旋回を始めたか否かの正確な判定が可能になる。
図6及び図7は、それぞれオートフォーカス機能を有する2台のカメラ26が設けられた例を示す。これら図6及び図7に示す例では、互いに等しい視野角β1、β2を有する各カメラ26が車両14の前部で該車両の前後方向の中心線32に関して対称となるように、車両14の幅方向すなわち左右方向へ互いに間隔を置いて配置されている。両カメラ26は、前記したと同様な最大焦点距離Lmaxと、最小焦点距離Lminとの間で、両視野角β1、β2の重複領域内にターゲット30を捕捉する。
図6は、ターゲット30を車両14の中心線32上で捕捉した例を示す。この場合、例えば車両14の反時計方向すなわち左方への角度θの旋回により、各視線31が符号31′で示す位置に移動すると、左方のカメラ26の視野角β2は視野角β2′に移動することから、この左方のカメラ26の視野から外れる。このとき、CPU11は、画像演算処理回路27を経て左方のカメラ26の視野からターゲット30が消失したことを検出することにより、左方のカメラ26の方向すなわち左方へ車両14が旋回したと判定する。
CPU11は、この判定により、図3に示したと同様に、その旋回方向に応じたフラッグを立て、このフラグの有無によって旋回開始時を正確に判定することができ、この旋回についての正確な判定結果をセンサ方位の修正に利用することにより、正確なマップマッチング処理が可能となり、高精度での自車位置の決定が可能となる。
図7に示すように、車両14の中心線32上から外れたターゲット30を捕捉した場合、各カメラ26の視野角の境界線をターゲット30の中心線32からのずれ角θ1分、このずれ角と同一方向へシフトさせることにより、ずれ角θ1による誤判定を防止することができる。このシフトは、具体的には、演算処理において各カメラ26の視野角β1、β2をずれ角θ1分で補正することにより、あるいは各カメラ26の視界設定領域をずれ角θ1分ずらすことにより、実現することができ、これにより車両14の中心線32上から外れたターゲット30を捕捉しても、中心線32上のターゲット30を捕捉した場合におけると同様な高精度での自車位置の決定が可能となる。
前記したところでは、カメラを車両の前部に設置した例を示したが、これに代えてカメラを車両の後部に設置し、該車両の後方の固定物がターゲットに選択される。この場合、ターゲットは、車両の前進に伴い離れていくことから、ターゲットはカメラの最小焦点距離Lminで捕捉されると、最大焦点距離Lmax迄の間がトラッキング対象範囲となる。
また、カメラは車両の前部及び後部のそれぞれに設置することができる。この場合、前部及び後部のカメラから得られるそれぞれの情報の総合的な判定により、それらのデータを利用することができる。より具体的には、例えば前部または後部のカメラからの画像で適正なターゲットを選択できないとき、その他方のカメラからの画像でターゲットを選択することができる。また、前部に設けられたカメラによるターゲットから得られた補正データと後部に設けられたカメラによるターゲットから得られた補正データの差分をセンサ方位の補正値として採用することができる。
また、本発明をハイブリッド航法のナビゲーション装置に適用した例に沿って説明したが、本発明は、GPS等を有しない自律航法のナビゲーション装置に適用することができる。
本発明に係るナビゲーション装置の構成を概略的に示すブロック図である。 本発明に係るナビゲーション装置を搭載した車両に設けられた1台のカメラによるターゲットの捕捉例1を示す説明図である。 本発明に係るナビゲーション装置のカメラ情報に基づくセンサ方位の修正処理の要否についての判定手順を示すフローチャートである。 本発明に係るナビゲーション装置を搭載した車両に設けられた1台のカメラによるターゲットの捕捉例2を示す図2と同様な図面である。 図4に示した捕捉例2におけるオフセット角度を修正するための修正角についての説明図である。 本発明に係るナビゲーション装置を搭載した車両に設けられた2台のカメラによるターゲットの捕捉例3を示す説明図である。 本発明に係るナビゲーション装置を搭載した車両に設けられた2台のカメラによるターゲットの捕捉例4を示す説明図である。
符号の説明
10 ナビゲーション装置
13 GPS受信機
14 車両
15 センサ類(方位センサ)
26 カメラ
28、28′ レンズ光軸
30 ターゲット
31 視線
32 中心線
α、β1、β2 カメラの視野角
θ 移動角度
θ1−θ2 角度差

Claims (8)

  1. 少なくとも方位センサからの情報を用いて地図上に自車位置を表示する車載ナビゲーション装置であって、自車の前方または後方を撮影するために車両に搭載されるカメラを備え、前記地図の道路上への自車位置を表示するマップマッチング処理に際し、前記方位センサからの情報に加えて、前記カメラからの画像情報に基づいて求められた前記車両の旋回についての情報を用いてマップマッチングが行われることを特徴とする車載ナビゲーション装置。
  2. GPS受信機からの情報を用いる他律航法と、前記方位センサからの情報を用いる自律航法との組み合わせにより、地図上に自車位置を表示することを特徴とする請求項1に記載の車載ナビゲーション装置。
  3. 前記カメラは自動的に焦点合わせが可能の1台のカメラであり、該カメラの視野角内で焦点合わせが可能の固定物をターゲットとし、焦点が合うように捕捉された前記ターゲット及び前記カメラを結ぶ前記ターゲットの視線の移動角度が閾値を超えたとき、その移動方向と反対方向へ自車が旋回したと判定することを特徴とする請求項1または2に記載の車載ナビゲーション装置。
  4. 前記ターゲットが前記カメラのレンズ光軸上に位置する場合、前記ターゲットの前記視線の移動により該視線と前記レンズ光軸とのずれ角度が閾値を超えたとき、前記視線の移動方向と反対方向へ自車が旋回したと判定することを特徴とする請求項3に記載の車載ナビゲーション装置。
  5. 前記ターゲットが前記カメラのレンズ光軸上から外れて位置する場合、前記カメラの最小焦点距離における前記ターゲットの前記視線と前記カメラの最大焦点距離における前記ターゲットの前記視線との角度差が前記閾値を超えるか否かを判定される請求項3に記載の車載ナビゲーション装置。
  6. 前記閾値は前記方位センサの誤差よりも大きいことを特徴とする請求項1乃至5のいずれか一項に記載の車載ナビゲーション装置。
  7. 前記カメラは前記車両の左右方向へ互いに間隔を置いて配置されそれぞれが自動的に焦点合わせが可能の2台のカメラから成り、該両カメラの視野の重複領域にある固定物をターゲットとし、該ターゲットに焦点が合うように該ターゲットを前記両カメラで捕捉し、捕捉された前記ターゲットがいずれか一方の前記カメラの視野角から外れたとき、視野角から外れた前記一方のカメラの配置側と一致する方向へ自車が旋回したと判定することを特徴とする請求項1または2に記載の車載ナビゲーション装置。
  8. 前記ターゲットが前記両カメラの中間点を通る中心線上から外れている場合、前記ターゲットの前記中心線からのずれ角度で、前記各カメラの視野角を補正することを特徴とする請求項7に記載の車載ナビゲーション装置。
JP2003349476A 2003-10-08 2003-10-08 車載ナビゲーション装置 Expired - Fee Related JP4328173B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003349476A JP4328173B2 (ja) 2003-10-08 2003-10-08 車載ナビゲーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003349476A JP4328173B2 (ja) 2003-10-08 2003-10-08 車載ナビゲーション装置

Publications (2)

Publication Number Publication Date
JP2005114565A true JP2005114565A (ja) 2005-04-28
JP4328173B2 JP4328173B2 (ja) 2009-09-09

Family

ID=34541331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003349476A Expired - Fee Related JP4328173B2 (ja) 2003-10-08 2003-10-08 車載ナビゲーション装置

Country Status (1)

Country Link
JP (1) JP4328173B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008082932A (ja) * 2006-09-28 2008-04-10 Clarion Co Ltd ナビゲーション装置、その制御方法及び制御プログラム
JP2008180654A (ja) * 2007-01-25 2008-08-07 Toyota Motor Corp 車両用経路案内装置
JP2016514251A (ja) * 2013-02-14 2016-05-19 クアルコム,インコーポレイテッド カメラ補助による動き方向および速度推定
JP2020001668A (ja) * 2018-07-02 2020-01-09 株式会社Subaru 車両の走行制御システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11619745B2 (en) * 2019-10-29 2023-04-04 Qualcomm Incorporated Camera-based GNSS environment detector

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008082932A (ja) * 2006-09-28 2008-04-10 Clarion Co Ltd ナビゲーション装置、その制御方法及び制御プログラム
JP2008180654A (ja) * 2007-01-25 2008-08-07 Toyota Motor Corp 車両用経路案内装置
JP2016514251A (ja) * 2013-02-14 2016-05-19 クアルコム,インコーポレイテッド カメラ補助による動き方向および速度推定
JP2020001668A (ja) * 2018-07-02 2020-01-09 株式会社Subaru 車両の走行制御システム
JP7189691B2 (ja) 2018-07-02 2022-12-14 株式会社Subaru 車両の走行制御システム

Also Published As

Publication number Publication date
JP4328173B2 (ja) 2009-09-09

Similar Documents

Publication Publication Date Title
US8571789B2 (en) Navigation system
US8200424B2 (en) Navigation device
JP5461065B2 (ja) 現在位置特定装置とその現在位置特定方法
JP2008309529A (ja) ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
JP2003279362A (ja) 車両位置修正装置およびgps測位信頼度判定方法
JP2007240380A (ja) トンネル内位置検出装置
JP2006275969A (ja) 傾斜角算出装置及びナビゲーション装置
JP4294145B2 (ja) 車両の進行方向認識装置
JP2007218832A (ja) 車両制御装置
JP2007278813A (ja) 車両位置測位装置
JP2007218848A (ja) 移動体用位置情報取得装置
JPH07134040A (ja) 衛星航法による移動体の運動検出方法
JP2008241446A (ja) ナビゲーション装置及びその制御方法
JP4328173B2 (ja) 車載ナビゲーション装置
JP6117671B2 (ja) 車両支援装置
JP2001289652A (ja) ナビゲーション装置
JP3381312B2 (ja) ナビゲーション装置
JP2006153565A (ja) 車載ナビゲーション装置及び自車位置補正方法
JP2007267231A (ja) 車載カメラの光軸ずれ検出装置、車載カメラの光軸ずれ検出方法
JP2001050743A (ja) 道路勾配算出装置
JP5574810B2 (ja) ナビゲーション装置、位置補正方法
JP2006347352A (ja) 配光制御装置
JP2009014555A (ja) ナビゲーション装置、ナビゲーション方法及びナビゲーションプログラム
JP4725503B2 (ja) 車載装置、運転支援システム及び運転支援方法
JP2009009225A (ja) 情報表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090612

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120619

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120619

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130619

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees