JP5926645B2 - カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法 - Google Patents

カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法 Download PDF

Info

Publication number
JP5926645B2
JP5926645B2 JP2012172930A JP2012172930A JP5926645B2 JP 5926645 B2 JP5926645 B2 JP 5926645B2 JP 2012172930 A JP2012172930 A JP 2012172930A JP 2012172930 A JP2012172930 A JP 2012172930A JP 5926645 B2 JP5926645 B2 JP 5926645B2
Authority
JP
Japan
Prior art keywords
unit
camera
road
camera parameter
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012172930A
Other languages
English (en)
Other versions
JP2014032118A (ja
Inventor
奥出 真理子
真理子 奥出
智昭 蛭田
智昭 蛭田
天谷 真一
真一 天谷
健 志磨
健 志磨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2012172930A priority Critical patent/JP5926645B2/ja
Priority to PCT/JP2013/070880 priority patent/WO2014021421A1/ja
Priority to US14/419,369 priority patent/US9948853B2/en
Priority to EP13825335.6A priority patent/EP2881710B1/en
Priority to CN201380041261.1A priority patent/CN104520675B/zh
Publication of JP2014032118A publication Critical patent/JP2014032118A/ja
Application granted granted Critical
Publication of JP5926645B2 publication Critical patent/JP5926645B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Description

本発明は、カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法に関する。
本技術分野の背景技術として、特許文献1がある。特許文献1には、車両が走行中であっても、高い頻度で車載カメラの光軸補正を可能にする車載カメラのキャリブレーション装置が記載されている。
特開2008−11174号公報
しかしながら特許文献1に記載されている車載カメラのキャリブレーション装置によると、路面標示が撮影されたときにカメラパラメータの校正が行われるので、予め路面標示に関する情報が地図データに含まれている必要がある。したがって、地図データの大きさが従来よりも大きくなってしまうという問題がある。
そこで、本発明は、従来の地図データのままでカメラパラメータの校正が行われるナビゲーション用カメラパラメータ演算装置およびナビゲーション用カメラパラメータ演算方法を提供する。
(1)請求項1に記載のカメラパラメータ演算装置は、移動体に搭載されたカメラによって撮影された移動体が移動する道路を含む風景の風景画像をナビゲーション用に変換するための、カメラの搭載位置の高さおよびカメラの向きを表すカメラパラメータを演算するカメラパラメータ演算装置において、移動体の現在位置に関する位置情報を取得する位置情報取得部と、位置情報に基づいて現在位置に応じた道路データを取得し、移動体が移動する道路の現在位置での幅員に関する幅員情報を道路データから取得する幅員情報取得部と、カメラから風景画像を取得する風景画像取得部と、風景画像と幅員情報とに基づいて、カメラパラメータを校正計算するカメラパラメータ校正部とを備えることを特徴とする。
(2)請求項10に記載のカメラパラメータ演算方法は、移動体に搭載されたカメラによって撮影された移動体が移動する道路を含む風景の風景画像をナビゲーション用に変換するための、カメラの搭載位置の高さおよびカメラの向きを表すカメラパラメータを演算するカメラパラメータ演算装置において、移動体の現在位置に関する位置情報を取得し、位置情報に基づいて現在位置に応じた道路データを取得し、移動体が移動する道路の現在位置での幅員に関する幅員情報を道路データから取得し、カメラから風景画像を取得し、風景画像と幅員情報とに基づいて、カメラパラメータを校正計算することを特徴とする。
本発明によれば、従来の地図データのままでナビゲーション用に画像を変換するためのカメラパラメータの校正計算が行われるカメラパラメータ演算装置、およびナビゲーション用カメラパラメータ演算方法を提供することができる。
ナビゲーションシステムの全体構成を示した図である。 センタ装置で実行されるカメラパラメータ校正可否判断処理フローを示した図である。 センタ装置で実行されるカメラパラメータ校正タイミング判定処理フローを示した図である。 カメラパラメータ校正タイミング判定処理を説明するための補足説明図である。 センタ装置で実行されるカメラパラメータ校正処理フローを示した図である。 図5のカメラパラメータ校正処理のステップS508を説明するための補足説明図である。 図5のカメラパラメータ校正処理のステップS502を説明するための補足説明図である。 図5のカメラパラメータ校正処理のステップS502を説明するための補足説明図である。 図5のカメラパラメータ校正処理のステップS502を説明するための補足説明図である。 ナビゲーションシステムで実行される、画像情報を利用した目的地までの誘導案内処理フローを示した図である。 ナビゲーション装置単体で実行される、画像情報を利用した目的地までの誘導案内処理フローを示した図である。 ナビゲーションシステムのセンタ装置に含まれる経路誘導部によって、ステップS1118で実行される誘導案内の一例を説明する処理フローである。 ナビゲーションシステムのナビゲーション装置に含まれる表示部50に出力される表示例を示した図である。 ナビゲーションシステムのナビゲーション装置に含まれる表示部50に出力される表示例を示した図である。 ナビゲーションシステムのナビゲーション装置に含まれる表示部50に出力される表示例を示した図である。 ナビゲーションシステムの全体構成を示した図である。
−−−第1の実施形態−−−
以下、図面を参照して本発明の第1の実施形態について詳しく説明する。
<全体構成>
図1は、本発明の第1の実施形態に係るナビゲーションシステムの全体構成を示した図である。本実施形態におけるナビゲーションシステムの端末装置としてナビゲーション装置を想定し、本実施形態について以下に説明する。
図1において、本実施形態に係るセンタ装置1は、通信ネットワーク2に接続され、基地局3を介して、携帯電話などの無線通信により車両4に搭載されているナビゲーション装置5に接続されている。さらに、ナビゲーション装置5には、カメラ6が接続されている。カメラ6は、車両4に搭載され、車両4の現在位置周辺の風景画像を撮影するためのカメラである。
センタ装置1は、センタCPU(Central Processing Unit)100と、半導体メモリやハードディスク装置などからなる記憶装置110などを含むいわゆるコンピュータ(情報処理装置)によって構成される。そのセンタ装置1は、機能的には、図1に示すように、通信インターフェース部11、情報取得部12、カメラ校正可否判断部13、カメラ校正タイミング検出部14、情報提供部15、画像処理部16、前方風景予想画像生成部17、カメラパラメータ校正部18、地図データベース20などの機能ブロックを含んで構成される。
情報取得部12、カメラ校正可否判断部13、カメラ校正タイミング検出部14、情報提供部15、画像処理部16、前方風景予想画像生成部17、カメラパラメータ校正部18は、センタCPU100が不図示のプログラムメモリに格納された所定のプログラムを実行することによって実現される。地図データベース20は記憶装置110に含まれる。
通信インターフェース部11は、通信ネットワーク2に対応する通信制御をおこなうとともに、通信ネットワーク2を介してナビゲーション装置5とデータの送受信を行う。
情報取得部12は、ナビゲーション装置5から送信された処理要求、カメラ6によって撮影された車両4前方の風景画像の画像情報、車両4の現在位置における位置情報(緯度経度などの座標、および時刻)、車両4の軌跡データや移動方向、走行速度などを含む様々な走行情報を、通信インターフェース部11を介して取得する。
カメラパラメータ校正可否判断部13は、情報取得部12が取得した車両4の位置情報や移動方向などの走行情報を、地図データベース20から読み込んだ道路データにマップマッチングする。これにより、カメラパラメータ校正可否判断部13は、道路情報を取得し、車両4が走行する道路を含む周囲の道路の道路情報に含まれるカメラパラメータの校正に有効な情報、例えば幅員、車線数、勾配、カーブなどの情報を識別して取得する。このとき、カメラパラメータ校正可否判断部13は、車両4が走行する道路付近の交通情報、例えば天候、気温、路面状態、渋滞、道路工事などの情報を、情報取得部12を介して外部情報センタから取得し、工事中の道路はカメラ校正に適さないなど、判断することもある。外部情報センタは、天候、気温、路面状態、渋滞、道路工事などに関する交通情報を配信する配信サーバを有し、通信ネットワーク2に接続されている。
カメラパラメータ校正タイミング検出部14は、風景予想画像生成部17および画像処理部16と連携して動作する。風景予想画像生成部17は、カメラパラメータ校正可否判断部13により取得された道路データと、後述するカメラパラメータ校正部18によって計算されるカメラパラメータとに基づいて、車両4前方の風景予想画像を生成する。上述したように、カメラパラメータ校正可否判断部13により取得される道路データは、情報取得部12によって取得された車両4の現在位置における位置情報と移動方向とに基づく道路データである。
カメラパラメータ校正タイミング検出部14は、風景予想画像生成部17から車両4前方の風景予想画像を取得する。カメラパラメータ校正タイミング検出部14は、情報取得部12によって取得された車両4の現在位置周辺の風景画像の画像情報を、情報取得部12によって取得されたカメラパラメータに基づいて画像処理部16に変換させることにより、風景変換画像を取得する。カメラパラメータ校正タイミング検出部14は、上記風景予想画像と上記風景変換画像との表示画面上の特徴点または特徴線を各々生成し、それらの特徴点または特徴線の座標を互いに比較して類似性が有るか否かを判断する。その類似性判断結果に基づいて、カメラパラメータ校正タイミング検出部14は、車両4の現在位置周辺の風景画像の画像情報を生成したナビゲーション装置5に接続されるカメラ6の姿勢、すなわち車両4に搭載されるカメラ6の搭載位置の高さおよび車両4に対するカメラ6の向きを表すカメラパラメータの校正が必要か否かを判断する。
カメラパラメータ校正部18は、カメラパラメータ校正タイミング検出部14によってカメラパラメータの校正が必要と判断されたとき、情報取得部12によって取得された車両4の現在位置周辺の風景画像の画像情報と、カメラパラメータ校正可否判断部13によって取得された車両4が走行する道路の現在位置周辺での幅員および車線数に関する幅員情報とを用いて、カメラパラメータを校正する。上述したように、その幅員情報は、情報取得部12によって取得された車両4の位置情報および移動方向に基づいて、カメラパラメータ校正可否判断部13によって地図データベース20から読み込まれた車両4の現在位置周辺の地図情報に含まれる道路データから、カメラパラメータ校正可否判断部13によって取得される。
情報提供部15は、カメラパラメータ校正可否判断部13によってカメラパラメータ校正不可と判断されたとときは、その判断結果を通信インターフェース部11を介してナビゲーション装置5に送信する。情報提供部15は、カメラパラメータ校正タイミング検出部14によってカメラパラメータ校正が不要と判断されたときは、その判断結果を通信インターフェース部11を介してナビゲーション装置5に送信する。情報提供部15は、カメラパラメータ校正タイミング検出部14によってカメラパラメータ校正が必要と判断されたときは、カメラパラメータ校正部18によって計算されたカメラパラメータを通信インターフェース部11を介してナビゲーション装置5に送信する。
車両4に搭載されるナビゲーション装置5は、表示部50、通信部51、本体部52、操作部53、GPS(Global Positioning System)受信部54、カメラ接続部55、記憶部56などを含んで構成される。
ナビゲーション装置5は、端末CPUである本体部52、記憶部56などを含んで構成されたコンピュータである。ナビゲーション装置5は、不図示のDVD(Digital Versatile Disk)などのドライブ装置やフラッシュメモリ、USB(Universal Serial Bus)メモリのリーダ/ライタなどを内蔵するコンピュータであってもよい。ここで記憶部56は、半導体メモリやハードディスク装置などによって構成され、地図データベース520を含む。また、操作部53は、種々のスイッチやボタン、タッチパネル、リモコン装置、音声マイクなどの入力装置を含むとともに、音声スピーカなどの出力装置を含む。表示部50は、LCD(Liquid Crystal Display)などによって構成される。通信部51は、基地局3および通信ネットワーク2を介し、センタ装置1に対して無線通信によるデータ通信可能に接続される。GPS受信部54は、不図示のGPS衛星からの電波を受信して、車両4の現在位置を検出する。カメラ接続部55は、カメラ6に接続され、カメラ6で撮影された車両4前方の風景画像の画像情報を取り込む。
本体部52は、通信制御部511、情報取得部512、カメラパラメータ更新部513、画像処理部514、位置情報取得部51、画像処理取得部516、経路探索部517、経路誘導部518、入出力インターフェース部519、経路誘導情報生成部522などの機能ブロックを含んで構成される。これら本体部52の各機能ブロックは、本体部52が不図示のプログラムメモリに格納されている所定のプログラムを実行することによって実現される。
通信制御部511は、携帯電話や無線LANなどによる通信を行う通信部51に対する通信制御を行うとともに、基地局3および通信ネットワーク2を介してセンタ装置1との間でデータの送受信を行う。入出力インターフェース部519は、操作部53のスイッチやボタン、音声、タッチパネルなどからの入力情報を目的地やセンタ装置1への要求情報などの種々の情報に変換して本体部52に入力するとともに、表示部50へ、および/または操作部53の音声出力装置へ、地図情報および経路誘導部518によって生成された誘導情報などの表示情報や音声情報を出力する。
位置情報取得部515は、GPS受信部54によって検出された緯度経度や高度、時刻情報などのGPS情報や、車両4に搭載された不図示の姿勢センサから車両4の進行方向等の姿勢情報を取得し、記憶部56に記憶する。このとき、不図示の車両内ネットワーク、例えばCAN(Controller Area Network)を介して、車両4のブレーキ情報や、ウィンカー、パーキング、ハンドル操作情報などの走行情報が、上述した位置情報とともに位置情報取得部515によって取得され、走行軌跡情報として記憶部56に記憶されることとしてもよい。
情報提供部521は、ナビゲーション装置5の電源投入時(ドライブ開始時)、入出力インターフェース部519によって経路が要求された時、位置情報取得部515から得たデータから車両4の移動を検出した時、あるいは指定された時間で、位置情報取得部515から得た車両4の現在位置の位置情報や画像情報取得部516から得た車両4前方の風景画像の画像情報などをセンタ装置1に送信し、カメラパラメータの更新を要求する。
情報取得部512は、通信部51および通信制御部511を介して、センタ装置1から送信されるカメラパラメータを含む様々な情報を取得する。情報取得部512は、取得したカメラパラメータをカメラパラメータ記憶部513に記憶する。
画像情報取得部516は、カメラ6で撮影された車両4前方の風景画像の画像情報を取得する。画像情報取得部516によって取得された画像情報は、情報提供部521、通信制御部511を介して、通信部51によりセンタ装置1に送信される。また、画像情報取得部516によって取得された風景画像の画像情報は画像処理部514に渡され、その風景画像は、カメラパラメータに基づいて座標変換され、車両4の周辺の地物検出に用いられる。
画像処理部514は、画像情報取得部516から、カメラ6で撮影された車両4前方の風景画像の画像情報を取得し、カメラパラメータ記憶部513によって記憶されるカメラパラメータを用いてその風景画像を座標変換する。画像処理部514は、その座標変換によって、車両4の現在位置から車両4の乗員が眺めた際の風景に相当する風景変換画像を取得し、その風景変換画像に基づいて、道路や標識、建物、人物や前方車両等の周辺地物を認識し、その結果を経路誘導部518に提供する。
経路探索部517は、入出力インターフェース部519を介して入力された経路要求に応じて地図データベース520から道路ネットワーク情報を読み込み、出発地、すなわち車両4の現在位置から目的地までの推奨経路を計算する。経路探索部517は、例えばダイクストラ法などの数学的な手法を用いて道路リンク単位の旅行時間または速度、および距離などに基づいた最小コスト経路を、推奨経路として探索する。経路探索部517は、推奨経路についての経路情報を経路誘導部518に提供する。
経路誘導情報生成部522は、画像処理部514によって提供された周辺地物情報と、経路探索部517によって提供された経路情報とに基づいて、目的地までの誘導情報を生成する。経路誘導部518は、経路誘導情報生成部522によって生成された誘導情報に基づいて、入出力インターフェース部519および操作部53を介して、車両4を推奨経路で目的地まで誘導する。
なお、図1に示す例では、センタ装置1が、画像処理部16においてナビゲーション装置5から送られた画像情報から道路や建物などの特徴点(または特徴線)を計算するようにしたが、これらの特徴点(または特徴線)をナビゲーション装置5の画像処理部514で計算し、センタ装置1に送信してもよい。その場合、ナビゲーション装置5からセンタ装置1に画像情報を送る必要がなくなり、通信量がより小さくなる。
また、図1に示す例では、ナビゲーション装置5が、画像処理514で周辺地物を認識し、認識した結果を利用して誘導案内を行うようにしたが、図16に示すナビゲーションシステムのように、周辺地物の認識をセンタ装置1の画像処理部16で行うようにしてもよい。その場合は、センタ装置1からナビゲーション装置5に、周辺地物の位置や距離情報が送信される。こうすることで、ナビゲーション装置5の画像処理部514が不要になるので、ナビゲーション装置5の処理負荷が小さくなり、ナビゲーション装置5の本体部52のCPU処理能力が高くなくても、画像処理を利用した目的地までの誘導案内が可能となる。また、周辺地物を正確に認識するには、道路の形状や幅員、レーン情報、建物の形状や高さ等の周辺地物の詳細かつ新しい情報を地図データベース520に記憶されることが望ましい。図16に示すナビゲーションシステムでは、センタ装置1の画像処理部16が周辺地物を正確に認識するための画像処理を行うため、センタ装置1の地図データベース20が周辺地物の詳細かつ新しい情報を保持すればよい。したがって、端末装置5が大容量の地図データベース520を有さなくても、画像処理を利用した目的地までの誘導案内が可能となる。
<カメラパラメータ校正可否判断部13の処理フロー>
図2は、本実施形態のセンタ装置1において、センタ装置1のセンタCPU100に含まれるカメラパラメータ校正可否判断部13の処理フローの例を示している。カメラ校正可否判断部13は、カメラパラメータ校正部18によるカメラ6のカメラパラメータ校正が可能かどうかを判断する。センタCPU100は、通信インターフェース部11によって受信されたナビゲーション装置5からの要求情報を受け付け、カメラパラメータ校正可否判断処理を開始し、後述する各ステップの処理を実行する。本処理が開始されると、情報取得部12は、通信インターフェース部11によって受信されたナビゲーション装置5からの要求情報を取得する。カメラ校正可否判断部13は、情報取得部12によって取得された要求情報に含まれる車両4の緯度および経度で表される位置情報や移動方向などの情報を取得する(ステップS20)。カメラ校正可否判断部13は、車両4の位置情報と移動方向とから現在位置に位置する車両4の前方を含む車両周辺の道路データを地図データベース20から取得する(ステップS21)。カメラ校正可否判断部13は、マップマッチング処理によって車両4が走行中の道路を特定する(ステップS22)。カメラ校正可否判断部13は、車両4が走行中の道路の情報および/または車両4の周辺道路の情報を含む道路データに基づき、以下のステップS23、S24およびS25において、車両4が走行中の道路が現在位置周辺で所定の道路条件を満たすか否かを判断する。
カメラ校正可否判断部13は、車両4が走行中の道路あるいは周辺道路が生活道路であるか否かを確認する(ステップS23)。道路データの中に詳細な道路情報や正確な道路情報が含まれないとき、あるいは道路データの中に所定の道路属性を有する道路に対応する道路データが含まれるとき、その道路データに対応する道路は生活道路であると判断される。所定の道路属性とは、例えば所定幅よりも小さな道路の幅員、所定数よりも小さなレーン数、細街路などの道路種別、または上下線が分離された本線リンク以外のリンク種別である。カメラ校正可否判断部13は、車両4が走行中の道路あるいは周辺道路が生活道路であると判断した場合(ステップS23がyes)、車両4が走行している現在位置はカメラパラメータ校正が不可能なエリアに含まれていると判断して判断結果を出力し(ステップS27)、本処理は終了する。
ステップS23において、車両4が走行中の道路あるいは周辺道路に対応する道路データの中に詳細な道路情報や正確な道路情報が含まれる場合は(ステップS23がno)、車両4が走行中の道路あるいは周辺道路に起伏が存在するか否かを確認する(ステップS24)。車両4が走行中の道路あるいは周辺道路が坂道や上下方向の起伏変化が存在する道路である場合(ステップS24がyes)、カメラ校正可否判断部13は、車両4が走行している現在位置はカメラパラメータ校正が不可能なエリアに含まれていると判断して判断結果を出力し(ステップS27)、本処理は終了する。例えば道路リンクデータに含まれる勾配情報や高度情報に基づき、道路の勾配が所定の勾配値よりも大きい場合に、道路の起伏変化が存在すると判断される。車両4が走行中の道路あるいは周辺道路に坂道や上下方向の起伏変化が存在しなければ(ステップS24がno)、カメラ校正可否判断部13は車両4が現在位置周辺で走行予定の道路区間(あるいは走行する可能性の高い道路区間)の直線性を確認する(ステップS25)。道路区間が短く、かつ右左折等の方向転換箇所が多く存在するか、あるいは道路区間にカーブ区間が含まれている等の場合、その道路区間は直線性を有しないと判断される。例えば道路リンクデータに含まれる曲率情報に基づき、道路の曲率が所定の曲率値よりも大きい場合に、道路は直線性を有しないと判断される。例えば、車両4が現在位置周辺で走行予定の道路区間のうちの互いに接続された2つの道路区間が所定角度よりも小さい接続角度を形成している場合に、道路は直線性を有しないと判断される。
車両4の現在位置周辺の道路区間が直線性を有しない場合(ステップS25がno)、カメラ校正可否判断部13は、車両4の現在位置はカメラパラメータ校正が不可能なエリアに含まれていると判断して判断結果を出力し(ステップS27)、本処理は終了する。車両4の現在位置周辺の道路区間が直線性を有する場合(ステップS25がyes)、車両4が走行中の道路が現在位置周辺で所定の道路条件を満たすことが、カメラ校正可否判断部13によって判断されたことになる。この場合、カメラ校正可否判断部13は、車両4の現在位置においてカメラパラメータ校正が可能と判断してその判断結果を出力し(ステップS26)、本処理は終了する。
<カメラパラメータ校正タイミング検出部14の処理フロー>
図3は、本実施形態のセンタ装置1において、センタ装置1のセンタCPU100に含まれるカメラパラメータ校正タイミング検出部14の処理フローの例を示している。カメラパラメータ校正タイミング検出部14は、カメラパラメータの校正が必要か否かを判断する。
センタ装置1のセンタCPU100に含まれるカメラパラメータ校正可否判断部13によって、カメラパラメータ校正が可能と判断されると、カメラパラメータ校正タイミング検出部14は、風景予想画像生成部17に車両4の現在位置における車両4の前方(進行方向)の風景予想画像を生成させて、生成された風景予想画像を取得する(ステップS30)。風景予想画像は、カメラの高さを視点として生成される。生成された風景予想画像の一例を表示例300に示す。このとき用いられるカメラの高さとして、車高が予め設定されることとしてもよいし、カメラ6がGPS機能を内蔵している場合は、GPSから得られたカメラ6の高度情報が設定されることとしてもよい。次に、カメラパラメータ校正タイミング検出部14は、予想風景から道路や建物などの周囲地物の表示画面座標上の特徴点(特徴線)を道路データに基づく計算によって、画像処理部16に抽出させる(ステップS31)。本実施形態では、周囲地物の特徴点(特徴線)として道路エッジを用いることとして説明する。表示例301に道路エッジの一例を示す。線分A1およびA2が、予想風景における前方道路の両端のエッジ線である。
次に、カメラパラメータ校正タイミング検出部14は、情報取得部12によって取得されたカメラ6によって撮影された車両4前方の道路を含む風景画像の画像情報(表示例304に示す)と、現在のカメラパラメータとを取得し、画像処理部16に引き渡す(ステップS32)。カメラパラメータ校正タイミング検出部14は、画像処理部16に、現在のカメラパラメータを用いて風景画像の画像情報を座標変換させて、車両4の現在位置から眺められる実風景に相当する変換画像を生成させる(ステップS33)。生成された実風景の一例を表示例302に示す。カメラパラメータ校正タイミング検出部14は、実風景から周囲地物の表示画面座標上の特徴点(特徴線)を画像処理計算によって、画像処理部16に抽出させる(ステップS34)。実風景の道路エッジの一例を表示例303に示す。線分B1およびB2が前方道路の両端のエッジ線である。
道路エッジA1およびA2と、道路エッジB1およびB2とは同じ道路に対応し、同一視点から見える風景は同じになるはずであるから、道路エッジA1およびA2は、それぞれ道路エッジB1およびB2に一致するはずである。カメラパラメータ校正タイミング検出部14は、道路エッジA1およびA2と、道路エッジB1およびB2との類似性を、双方の道路エッジの画面上の座標値を比較して判断する(ステップS35)。類似性が認められない場合は(ステップS35がno)、カメラパラメータ校正タイミング検出部14は、カメラパラメータの校正が必要と判断してその判断結果を出力し(ステップS36)、本処理は終了する。類似性が認められた場合は(ステップS35がyes)、カメラパラメータ校正タイミング検出部14は、カメラパラメータの校正が不要と判断してその判断結果を出力し(ステップS36)、本処理は終了する。
図4は、図3のステップS35における道路エッジの類似性判定処理を補足説明するための補足図である。図中の道路エッジA1、A2は予想風景から抽出された道路エッジであり、道路エッジB1,B2は実風景から抽出された道路エッジである。点40および41は各道路エッジから得られる消失点である。カメラパラメータ校正タイミング検出部14は、画面上の水平方向(X方向)および垂直方向(Y方向)における各消失点のX成分およびY成分であるX40、Y40、X41、Y41から消失点の表示座標上の差分を計算し、その差分が所定範囲を超えていた場合に類似性が無いと判断する。座標の差分の代わりに図中の各エッジ線の角度差θ1(道路エッジA1およびB1が互いになす角度)と角度差θ2(道路エッジA2およびB2が互いになす角度)とを用い、それぞれ所定角度以上の角度差がある場合に類似性が無いと判断してもよい。道路エッジA1およびB1と道路エッジA2およびB2とがそれぞれ互いに平行の場合、あるいは有効な表示座標の範囲内で角度差が得られない場合も同様に類似性が無いと判断する。
<カメラパラメータ校正部18の処理フロー>
図5は、本実施形態のセンタ装置1において、センタ装置1のセンタCPU100に含まれるカメラパラメータ校正部18のカメラパラメータ校正計算処理フローの例を示している。カメラパラメータ校正部18は、カメラパラメータを校正計算する。図6は、図5の処理フローのステップS508を説明するための補足図であり、図7〜9は、ステップS502を補足説明するための補足図である。
カメラパラメータ校正タイミング検出部14によって、カメラパラメータ校正が必要と判断されると、カメラパラメータ校正部18は、車両4に搭載されたカメラ6がジャイロセンサなどの姿勢センサを有しており、かつその姿勢センサによって得られた姿勢情報が通信インターフェース部11を介して情報取得部12によって得られているか否かを確認する(ステップS500)。ここで、カメラの姿勢は3軸の回転角であるピッチ角θc、ロール角φc、ヨー角ψcで表わされるとする。カメラ6の姿勢情報が得られた場合(ステップS500がyes)、カメラパラメータ校正部18はカメラの姿勢情報(θc,φc,ψc)を取得する(ステップS510)。次に、カメラパラメータ校正部18は車両4の姿勢情報(θv,φv,ψv)を取得する(ステップS511)。ここで、車両4がジャイロ等の姿勢センサを有していて、かつその姿勢センサによって得られた車両4の姿勢情報がナビゲーション装置5で取得されていれば、情報取得部12は通信インターフェース部11を介して車両4の姿勢情報(θv,φv,ψv)を取得する。カメラパラメータ校正部18は、その車両4の姿勢情報(θv,φv,ψv)を取得する。車両4の姿勢情報が得られなければ、カメラパラメータ校正部18は、車両4の過去の走行軌跡を含む位置情報から車両4の向きを計算し車両4の姿勢(θv,φv,ψv)を設定する。
次に、カメラパラメータ校正部18は、上述したカメラ6の姿勢情報および車両4の姿勢情報から、カメラ6の向きに応じてカメラ6の撮影画像に生じる歪みを補正するための補正パラメータを計算する(ステップS512)。このときの処理を、図6を用いて補足説明する。図6は、カメラ姿勢と車両姿勢との違いを、紙面に垂直なz軸を中心とした回転角ヨー角を例に示している。カメラ6は車両4の室内に設置され、カメラ6の向きは車両4の進行方向(前方)と一致しているとは限らない。そこで、上述した各姿勢センサから得た角度情報を用いて、カメラ6による撮影画像を車両4から眺めた風景に変換する必要がある。各姿勢センサが真北を基準とした角度情報ψc、ψvを出力するとした場合、カメラ6による撮影画像の撮影角度のうちのヨー角をδψ=ψc+ψvだけ回転移動すると、車両姿勢のヨー角に一致する。この回転移動分δψをヨー角の補正パラメータとする。他の2軸に対応するピッチ角、ロール角についても同様に、撮影角度が回転移動によって車両姿勢に一致するときの回転角度に対応する補正パラメータδθ、δφも計算される。
次に、カメラパラメータ校正部18は、カメラ6で撮影された風景画像の画像情報を取得する(ステップS503)。このときの風景画像の一例を画像520に示す。カメラパラメータ校正部18は、ステップS512で計算された補正パラメータを用いて画像520を座標変換し、車両4から眺めた画像521を生成する(ステップS504)。カメラパラメータ校正部18は、画像521の特徴点(特徴線)を検出する。本実施形態では、カメラパラメータ校正部18は、道路エッジ523および524を、画像521の特徴点(特徴線)として検出する(ステップS505)。カメラパラメータ校正部18は、画像525に示すように、画面中心点Pを通る中心線と、ステップS505で検出された道路エッジとから画面上の道路幅(幅員)wを計算する。カメラパラメータ校正部18は、画面上の道路に対応する実際の道路の道路幅(幅員)Wを、地図データベース20に含まれる現在位置に応じて取得した道路データから取得する(ステップS506)。カメラパラメータ校正部18は、画面上の道路幅wと実際の道路幅Wとの比に基づいて、カメラの搭載位置の高さhを計算する(ステップS507)。ステップS512で計算されたカメラの向きを表す補正パラメータ(δθ,δφ,δψ)、およびステップS507で計算されたカメラの搭載位置の高さhを、カメラ6によって撮影された風景画像の画像情報をナビゲーション用に変換するための新たなカメラパラメータとして、カメラパラメータを校正し(ステップS508)、本処理は終了する。
カメラ姿勢情報が得られなかった場合(ステップS500がno)、カメラパラメータ校正部18は、ステップS30で生成された車両前方の風景予想画像を利用して、カメラ6の補正パラメータ(δθ,δφ,δψ)を計算する。まず、予想風景を表す風景予想画像と実風景を表す風景変換画像とから得られた道路エッジの消失点40、41を取得する(ステップS501)。図4に示す消失点40,41を通る直線70から補正パラメータ(δθ,δφ,δψ)を計算する(ステップS502)。ここで、複数の消失点を用いてカメラパラメータを計算する方法は特開2008−11174号公報にも開示されている。本実施形態では、消失点のうちの一つを予想風景に対応する風景予想画像から取得することで、実風景に対応する風景変換画像から一つの消失点しか得られなくても、補正パラメータが得られるようにする。
ステップS502の処理について、図7〜9を用いて補足説明する。まず、図7を用いてロール角の補正パラメータδφを計算する方法を説明する。消失点40、41を通る直線70と、画面700の横軸方向(x軸方向)に平行な直線71を引く。二つの直接の成す角度αを計算し、その角度αをロール角の補正パラメータδφとする。
図8は、ピッチ角の補正パラメータδθを計算するための補足説明図である。点Qは、画面中心点Pから直線70へ引いた垂線の交点である。カメラ6の焦点距離fが既知の値であるとすると、ピッチ角の補正パラメータδθは、式(1)で求められる。
Figure 0005926645
さらに図9は、ヨー角の補正パラメータδψの設定するための補足説明図である。消失点41を点Uとして、線分QUのx軸方向の成分を求め、式(2)によりヨー角の補正パラメータδψを計算する。
Figure 0005926645
次に、カメラパラメータ校正部18は、カメラ6で撮影された風景画像の画像情報を取得する(ステップS503)。カメラパラメータ校正部18は、ステップS502で得た補正パラメータ(δθ,δφ,δψ)を用いてステップS503で取得した風景画像を座標変換し(ステップS504)、変換後の画面上の道路エッジを検出する(ステップS505)。カメラパラメータ校正部18は、画面上の道路幅(幅員)wを計算する。カメラパラメータ校正部18は、画面上の道路に対応する実際の道路の道路幅(幅員)Wを、地図データベース20に含まれる現在位置に応じて取得した道路データから取得する(ステップS506)。カメラパラメータ校正部18は、画面上の道路幅wと実際の道路幅Wとの比に基づいてカメラの搭載位置の高さを計算する(ステップS507)。カメラパラメータ校正部18は、ステップS502およびS507で計算されたカメラパラメータを新たなカメラパラメータとして、カメラパラメータを校正し(ステップS508)、本処理は終了する。
<ナビゲーションシステム全体処理フロー>
図10は、本実施形態のセンタ装置1およびナビゲーション装置5で構成されるナビゲーションシステムの全体処理フローを示している。このナビゲーションシステムにおいては、カメラ6のカメラパラメータ校正が行われ、カメラ6で撮影された風景画像の画像情報を利用した目的地までの誘導案内が行われる。図14、図15はナビゲーション装置5の画面表示例1400および1500を示す図であって、本処理フローの補足説明図である。
ナビゲーション装置5において、カメラ6がカメラ接続部55に装着されることによってカメラ6がナビゲーション装置5に接続された後、ナビゲーション処理が開始される。位置情報取得部515は、GPS受信部によって受信されたGPS信号を取得し、車両4の現在位置および進行方向に関する位置情報を更新する(ステップS1110)。画像情報取得部516は、カメラ接続部55を介してカメラ6で撮影された風景画像の画像情報を取得する。情報提供部521は、更新された位置情報とカメラ6で撮影された風景画像の画像情報とを、通信制御部511および通信部51を介してセンタ装置1に送信し、カメラパラメータを要求する(ステップS1111)。
センタ装置1のCPU100に含まれる情報取得部12は、通信インターフェース部11を介して、ナビゲーション装置5からのカメラパラメータ要求を受け付ける(ステップS1101)情報取得部12によってカメラパラメータ要求が受け付けられると、カメラ校正可否判断部13は、カメラパラメータ要求に含まれる位置情報に基づいて地図データベース20から地図情報を読み込み、マップマッチングにより車両4の現在位置に対応づけられる地図上の位置を特定する(ステップS1102)。カメラ校正可否判断部13は、ステップS1102で特定した地図上の位置が例えば道路上の位置であれば、その道路を含む周辺道路の道路情報を参照し、図2のカメラパラメータ校正可否判断処理フローに従ってカメラパラメータの校正が可能か否かを判断する(ステップS1103)。カメラパラメータ校正が不可能であれば(ステップS1103がno)、カメラ校正可否判断部13はカメラパラメータ校正が不可であると判断し、情報提供部15が、通信インターフェース部11を介して、カメラパラメータ校正不可の旨をナビゲーション装置5に送信し(ステップS1107)、センタ装置1側の処理は終了する。
カメラパラメータ校正が可能な場合(ステップS1103がyes)、カメラパラメータ校正タイミング検出部14は、図3のカメラパラメータ校正タイミング検出処理フローにしたがってカメラパラメータ校正が必要か否かを検出する(ステップS1104)。カメラパラメータ校正が必要なければ(ステップS1104がno)、カメラパラメータ校正タイミング検出部14はカメラパラメータ校正が不要であると判断し、情報提供部15が、通信インターフェース部11を介して、カメラパラメータ校正不要の旨をナビゲーション装置5に送信し(ステップS1108)センタ装置1側の処理は終了する。カメラパラメータ校正が必要な場合(ステップS1104がyes)、カメラパラメータ校正部18は、図5のカメラパラメータ校正計算処理フローに従って、カメラパラメータの校正計算処理を実行する(ステップS1105)。情報提供部15は、ステップS1105でカメラパラメータ校正部18によって得られたカメラパラメータを、通信インターフェース部11を介してナビゲーション装置5に送信し(ステップS1106)、センタ装置1側の処理は終了する。
ナビゲーション装置5の情報取得部512は、通信部51および通信制御部511を介してセンタ装置1からの情報を受信する(ステップS1112)、情報取得部512によるステップS1112での受信情報がカメラ校正不可の旨を含む場合(ステップS1113がyes)、情報取得部512は、入出力インターフェース部519を介して、車両4の現在位置での走行環境ではカメラパラメータの校正が不可であることを表示部50などに出力する(ステップS1120)。経路探索部517は、車両4の現在位置から目的地までの推奨経路を探索する。経路誘導情報生成部522は、経路探索部517によって探索された推奨経路で車両4を目的地まで誘導するための経路誘導情報を、経路探索部517から得た経路情報に基づいて生成する。経路誘導部518は、経路誘導情報生成部522によって生成された誘導情報を用いてカメラ6と連携しない誘導を行いながら(ステップS1121)、その誘導中も、カメラパラメータ校正が可能となるまで、情報提供部521は、通信制御部511および通信部51を介してセンタ装置1にカメラパラメータを要求する。
図14はステップS1120での表示部50における表示例1400を示す。アイコン141はカメラとの連携動作状態を示す。表示メッセージ140は、ステップS1114での判定結果が得られるまで、即ち、カメラパラメータ校正が実施されるまで、校正中の旨を表示する。情報取得部512は、ステップS1112でカメラパラメータ校正不要の旨の情報を受信した場合(ステップS1114がyes)、入出力インターフェース部519を介して、カメラパラメータ更新が必要無いことを表示部50などに出力し(ステップS1121)、カメラパラメータ記憶部513に保持されているカメラパラメータを用いてステップS1116以降の処理を実行する。
図15は、ステップS1121での表示部50における表示出力例1500を示す。カメラ校正が終了するとアイコン141がアイコン151に変わり、表示メッセージ140も表示メッセージ150に切り替えられる。情報取得部512は、ステップS1112でカメラパラメータを含む情報を受信した場合は(ステップS1114がno)、カメラパラメータ記憶部513に保持されていたカメラパラメータを、ステップS1112で受信したカメラパラメータに更新する(ステップS1115)。画像情報取得部516は、カメラ6で撮影された風景画像の画像情報をカメラ接続部55から取得する(ステップS1116)。画像処理部514は、更新されたカメラパラメータをカメラパラメータ記憶部513から読み出して、その更新されたカメラパラメータを用いて画像情報を座標変換することによって風景変換画像を生成する(ステップS1117)。
画像処理部514は、ステップS1117において生成された風景変換画像と、カメラ6のレンズの焦点距離とに基づいて、車両4の現在位置周辺の地物、例えば車両4の前方の交差点やその交差点で信号待ちをしている前方車両までの推定距離を算出して認識するとともに、車両4が走行中の走行レーンなどを認識する(ステップS1118)。車両4が走行中の走行レーンは、レーン端部に引かれた線の種別、例えば実線や破線や二重線等の種別が画像処理で識別されることによって、認識される。経路探索部517は、車両4の現在位置から目的地までの推奨経路を探索する。経路誘導情報生成部522は、ステップS1117での画像処理部514による、車両4の現在位置から前方の交差点や前方車両までの推定距離および走行レーンに関する走行状況の認識結果と、経路探索部517によって探索された推奨経路の情報と、ステップS1117において生成された風景変換画像とを用いて、経路誘導情報を生成する(ステップS1119)。その経路誘導情報には、経路誘導部518が、車両4にとって必要な走行レーン移動がなされていないと判断したとき、車両4の乗員にレーン移動を案内したり、前方車両などの前方検知物への接近の危険を警告するなどの誘導案内を行うための情報を含む。
経路誘導部518は、ステップS1119で生成された経路誘導情報に基づいて、上述したレーン移動の案内や上述した危険の警告を入出力インターフェース部519を介して表示部50などに出力するとともに、車両4を推奨経路で目的地まで誘導する(ステップS1120)。車両4が推奨経路で目的地へ到着するまで、あるいはナビゲーション処理終了の旨が入力されるまで、ステップS1116〜S1121の処理が繰り返されるように、本処理はステップS1116へ戻る(ステップS1121)。誘導中にカメラ6がカメラ接続部55から外されて、さらに再装着されると、ステップS1110から開始される本処理が実行され、装着された状態のカメラ6の姿勢情報や車両4の姿勢情報に基づいてカメラパラメータが校正される。
センタ装置1のセンタCPU100は、車両4に搭載されたカメラ6によって撮影された車両4が走行する道路を含む風景の風景画像をナビゲーション用に変換するための、カメラ6の搭載位置の高さhおよびカメラ6の向き(δθ,δφ,δψ)を表すカメラパラメータを演算し、情報取得部12と、カメラ校正可否判断部13と、カメラパラメータ校正タイミング検出部14と、カメラパラメータ校正部18とを含む。情報取得部12は、車両4の現在位置に関する位置情報を取得するとともに、カメラ6から端末装置5との通信を介して風景画像を取得する。カメラパラメータ校正部18は、位置情報に基づいて現在位置に応じた道路データを取得し、車両4が走行する道路の現在位置での幅員を、道路データから取得する。カメラパラメータ校正部18は、風景画像と幅員情報とに基づいて、カメラパラメータを校正計算する。これにより、従来の地図データに含まれる従来の道路データを用いてカメラパラメータの校正を行うことができる。
着脱可能なカメラ6によって撮影された風景画像の画像情報を利用して車両4を目的地まで誘導するナビゲーションシステムにおいて、カメラ6の再装着や、誘導中の操作または振動によりカメラ6の姿勢がずれることで頻繁なカメラパラメータ校正が必要になる場合がある。センタ装置1のセンタCPU100は、車両4の周囲環境に基づいてカメラパラメータの校正可否を判断し、カメラ6の姿勢のずれを検出したときにカメラパラメータを校正計算する。したがって、端末装置5の本体部52のCPU処理能力がさほど高くなくとも、本体部52は、車両4の走行中の周囲環境を認識しながら、車両4を目的地まで誘導案内することができる。
センタ装置1でカメラパラメータ校正計算が行われ、端末装置5からセンタ装置1へ、カメラパラメータ校正に必要な位置情報や画像情報が通信を介して送信され、センタ装置1で計算されたカメラパラメータが端末装置5は送信されるようにした。したがって、カメラパラメータ校正計算に必要な機能が端末装置5に配備されなくても、カメラ6の姿勢のずれによる影響を補正しながら、カメラ6で撮影された風景画像の画像情報を利用した車両4の誘導案内が可能となる。すなわち、センタ装置1でカメラパラメータ校正計算が行われるので、端末装置5は、カメラパラメータ校正計算に必要な詳細かつ最新の地図を有していなくても、カメラ6で撮影された風景画像の画像情報を利用して車両4の誘導案内をすることが可能である。具体的にはスマートフォンのような地図を有しない端末装置を端末装置5として用いても、スマートフォンに含まれるカメラによって撮影された風景画像の画像情報を用いて車両4の誘導案内をすることができる。
−−−変形例−−−
(1) 図10の処理フローは、カメラパラメータの校正に関わる処理がセンタ装置1側で行われる形態に対応するが、ステップS1116〜S1119の処理がセンタ装置1側で実行されるように、ステップS1116で取得された風景画像の画像情報が、情報提供部521によって、通信制御部511および通信部51を介してセンタ装置1に送信されることとしてもよい。この場合、情報取得部512が、通信部51および通信インターフェース部511を介して、センタ装置1側で得られた車両4の走行状況の認識結果(車両4の周辺の地物との距離や走行レーンなど)および目的地までの経路誘導情報を取得する。そうすることで、端末装置5の構成がより簡易となり、カメラパラメータ校正や画像処理に関わる処理負荷が端末装置5の本体部52にかからないため、車両4の目的地までの経路計算や誘導案内、その他の処理が遅延無く、適切なタイミングで実行され得ることになる。また、車両4の周辺の地物の認識に必要な道路幅を含む地物形状などの詳細な地図情報が地図データベース520に保持される必要が無くなり、地図データベース520のサイズを小さくすることができる。また、GPS受信部54によって得られた位置情報および時刻や走行速度を利用し、車両4が誘導ポイントの手前などの所定位置に到着したとき、所定位置への到着予想時刻などから予め設定された時間や交通情報が更新されたとき、車両4が所定速度以上で走行したときなどにおいて、端末装置5からセンタ装置1への画像情報の送信タイミングを制御すれば、端末装置5の本体部52の通信負荷を抑えることができる。
(2) 図11は、ナビゲーション装置5が、センタ装置1と連携せず、図10の処理を単独で実行する際の処理フローを示す。センタ装置1のステップS1102、S1103、S1104、S1105で行われるカメラパラメータ校正計算に関わる処理に相当する処理が、ナビゲーション装置5で行われる。位置情報取得部515は、位置情報を更新し(ステップS1110)、ステップS1102と同様のマップマッチングを実行し(ステップS101)、経路探索部517は、ステップS1103と同様のカメラパラメータ校正可否を判断する(ステップS102)。カメラパラメータ校正が可能であれば、経路探索部517は、ステップS1104と同様のカメラパラメータ校正が必要であるか否かを判断し(ステップS103)、カメラ校正が必要な場合、経路探索部517は、ステップS1105と同様のカメラパラメータ校正計算を行う(ステップS104)。その後、校正したカメラパラメータを用いて周辺の走行環境が認識され、目的地までの誘導案内が実行されるステップS1116〜1121の処理は上述した通りである。
(3) 図12は、経路誘導部518によってステップS1120で実行される画像情報を利用した誘導案内の一例を説明する処理フローを示す。図13は図12の処理フローを説明するための補足図である。ステップS1120では、経路探索部517で計算された経路情報に基づいて経路誘導情報生成部522によって生成された右左折地点通知などの経路誘導情報に基づいて、車両4が目的地まで案内される。経路誘導部518は、位置情報取得部515によってGPS受信部54から得られた位置情報を取得して、車両4の現在位置が誘導ポイントであるか否かを確認する(ステップS120)。車両4の現在位置が誘導ポイントではない場合において(ステップS120がno)、経路誘導情報生成部522によって生成された経路誘導情報に案内情報が存在すれば、経路誘導部518は、その案内情報を取得し(ステップS125)、入出力インターフェース部519を介して、操作部53および/または表示部50にそれぞれ音声および/または画面表示で出力する(ステップS124)。
車両4の現在位置が誘導ポイントである場合(ステップS120がyes)、経路誘導部518は、ステップS1118で計算された車両4から周辺の地物までの推定距離情報、例えば車両4から誘導ポイントまでの推定距離を取得する(ステップS121)。誘導ポイントが右左折交差点である場合、経路誘導部518は、例えば図13の横断歩道126までの推定距離を取得する。更に、ステップS1118で認識されたレーンの端部に引かれた線127のパターン種別(直線)と線128のパターン種別(破線)とから、画像処理により、車両4が走行中のレーンを識別する(ステップS122)。経路誘導部518は、地図データベース520から車両4が走行中のレーンに関するレーン情報を取得し、誘導ポイントでの右左折方向と、車両4の誘導ポイントまでの推定距離および走行レーンとから、その誘導ポイントでの案内情報を経路誘導案内情報生成部522に生成させて、その案内情報を取得する(ステップS123)。経路誘導部518は、入出力インターフェース部519を介して、その案内情報を、操作部53および表示部50にそれぞれ音声および/または画面表示により出力させる(ステップS124)。
例えば、車両4が前方の誘導ポイントを右折する予定であって、かつ車両4が現在走行中のレーンが右折用ではなく直進用のレーンであった場合、経路誘導部518は、右折用のレーンへの移動を促す矢印129と案内文130とを経路誘導案内情報生成部522に生成させて、表示部50に画面表示させる。ここで、案内情報を構成する矢印129および案内文130は、車両4の誘導ポイント126までの予想到達時間または推定距離が、安全や交通状況(走行速度)を考慮した適切なタイミングで通知されるようにする。
(4) 図3のステップS35で否定判定であっても、車両4の現在位置が誘導ポイント付近に位置しているときは、処理をステップS37に進めてカメラパラメータ校正計算処理およびカメラパラメータ送信が行われないようにしてもよい。これにより、端末装置5における誘導案内の際の、本体部52のCPU処理能力への影響を低減することができる。
上述した各実施の形態および各変形例は、それぞれ組み合わせてもよい。また、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における機器構成に何ら限定されない。
1 センタ装置
2 通信ネットワーク
3 基地局
4 車両
5 端末装置(ナビゲーション装置)
6 カメラ
11 通信インターフェース部
12 情報取得部
13 カメラパラメータ校正可否判断部
14 カメラパラメータ校正タイミング検出部
15 情報提供部
16 画像処理部
17 風景予想画像生成部
18 カメラパラメータ校正部
20 地図データベース
50 表示部
51 通信部
52 本体部
53 操作部
54 GPS受信部
55 カメラ接続部
56 記憶部
100 センタCPU
110 記憶装置
511 通信制御部
512 情報取得部
513 カメラパラメータ記憶部
514 画像処理部
515 位置情報取得部
516 画像情報取得部
517 経路探索部
518 経路誘導部
519 入出力インターフェース部
520 地図データベース
521 情報提供部
522 経路誘導情報生成部

Claims (10)

  1. 移動体に搭載されたカメラによって撮影された前記移動体が移動する道路を含む風景の風景画像をナビゲーション用に変換するための、前記カメラの搭載位置の高さおよび前記カメラの向きを表すカメラパラメータを演算するカメラパラメータ演算装置において、
    前記移動体の現在位置に関する位置情報を取得する位置情報取得部と、
    前記位置情報に基づいて前記現在位置に応じた道路データを取得し、前記移動体が移動する道路の前記現在位置での幅員に関する幅員情報を前記道路データから取得する幅員情報取得部と、
    前記カメラから前記風景画像を取得する風景画像取得部と、
    前記風景画像と前記幅員情報とに基づいて、前記カメラパラメータを校正計算するカメラパラメータ校正部とを備えることを特徴とするカメラパラメータ演算装置。
  2. 請求項1に記載のカメラパラメータ演算装置において、
    前記位置情報と、前記幅員情報取得部によって取得された前記道路データとに基づいて、前記風景の予想画像を生成するとともに前記予想画像に含まれる第1の特徴部分を抽出する予想画像生成部と、
    前記カメラによって撮影された前記風景画像を取得する風景画像取得部と、
    前記カメラパラメータに基づいて前記風景画像を座標変換することにより第1の風景変換画像を生成する第1の変換部と、
    前記第1の風景変換画像から第2の特徴部分を、画像処理演算により抽出する特徴抽出部と、
    前記予想画像生成部によって取得された前記第1の特徴部分と、前記特徴抽出部によって取得された前記第2の特徴部分とが類似しているか否かを判断する類似性判断部とをさらに備え、
    前記類似性判断部によって前記第1の特徴部分と前記第2の特徴部分とが類似していないと判断されたとき、前記カメラパラメータ校正部によって前記カメラパラメータが校正計算されることを特徴とするカメラパラメータ演算装置。
  3. 請求項2に記載のカメラパラメータ演算装置において、
    前記位置情報に基づいて前記現在位置に応じた前記道路データを取得する道路データ取得部と、
    前記現在位置周辺で前記道路が所定の道路条件を満たすか否かを前記道路データに基づいて判断する道路条件判断部とをさらに備え、
    前記道路条件判断部によって前記道路が前記所定の道路条件を満たすと判断されたとき、前記カメラパラメータ校正部によって前記カメラパラメータが校正計算されることを特徴とするカメラパラメータ演算装置。
  4. 請求項3に記載のカメラパラメータ演算装置において、
    前記現在位置周辺での前記道路の幅員が所定幅よりも小さい場合、前記現在位置周辺での前記道路の車線数が所定数よりも小さい場合、前記現在位置周辺での前記道路の道路種別が細街路に区分される場合、前記現在位置周辺での前記道路に対応づけられたリンクのリンク種別が本線リンクでない場合、前記現在位置周辺での前記道路の勾配が所定の勾配値よりも大きい場合、前記現在位置周辺での前記道路の曲率が所定の曲率値よりも大きい場合、前記現在位置周辺での前記道路に対応づけられたリンクと他のリンクとの接続角度が所定角度よりも小さい場合のうちのいずれか1つの場合、前記道路条件判断部は前記道路が前記所定の道路条件を満たすと判断することを特徴とするカメラパラメータ演算装置。
  5. 請求項1〜4のいずれか1項に記載のカメラパラメータ演算装置と、
    前記カメラによって撮影された前記風景画像が前記風景画像取得部によって取得されるように、前記カメラが取り付けられて接続されるカメラ接続部と、
    前記カメラパラメータ校正部によって校正計算された前記カメラパラメータに基づいて前記風景画像を座標変換することにより第2の風景変換画像を生成する第2の変換部とをさらに備えることを特徴とするナビゲーションシステム。
  6. 請求項5に記載のナビゲーションシステムにおいて、
    前記現在位置から前記目的地までの推奨経路を探索する経路探索部と、
    前記第2の風景変換画像を用いて前記移動体を前記推奨経路で前記目的地まで誘導するための経路誘導情報を、前記推奨経路と前記第2の風景変換画像とに基づいて生成する経路誘導情報生成部と、
    前記経路誘導情報生成部によって生成される前記経路誘導情報に基づいて前記移動体を前記推奨経路で前記目的地まで誘導する経路誘導部とをさらに備えることを特徴とするナビゲーションシステム。
  7. 請求項6に記載のナビゲーションシステムにおいて、
    前記第2の風景変換画像と、前記カメラの焦点距離と、前記カメラパラメータ校正部によって校正計算された前記カメラパラメータとに基づいて、前記現在位置から前記現在位置周辺での前記道路上の交差点または前記移動体の前方の他の移動体までの推定距離を算出するとともに、前記風景画像に含まれる前記移動体が移動するレーンの端部に引かれた線の種別に基づき前記レーンを画像処理で認識することによって、前記移動体の移動状況を認識する移動状況認識部をさらに備え、
    前記経路誘導情報生成部は、前記移動状況認識部によって認識された前記推定距離および前記レーンと、前記第2の風景変換画像とに基づいて、前記経路誘導情報を生成することを特徴とするナビゲーションシステム。
  8. 請求項6に記載のナビゲーションシステムにおいて、
    前記位置情報取得部と、前記幅員情報取得部と、前記風景画像取得部と、前記カメラパラメータ校正部と、前記第2の変換部と、前記経路探索部と、前記経路誘導情報生成部とはサーバ装置に含まれ、
    前記カメラ接続部と、前記経路誘導部とは端末装置に含まれ、
    前記サーバ装置は、前記風景画像取得部によって取得される前記風景画像を前記端末装置から受信するとともに、前記経路誘導情報生成部によって生成される前記経路誘導情報を前記端末装置へ送信する第1の通信処理部をさらに含み、
    前記端末装置は、前記カメラによって撮影された前記風景画像を前記サーバ装置へ送信するとともに、前記経路誘導部による経路誘導に用いられる前記経路誘導情報を前記サーバ装置から受信する第2の通信処理部をさらに含むことを特徴とするナビゲーションシステム。
  9. 請求項6に記載のナビゲーションシステムにおいて、
    前記位置情報取得部と、前記幅員情報取得部と、前記風景画像取得部と、前記カメラパラメータ校正部とはサーバ装置に含まれ、
    前記カメラ接続部と、前記第2の変換部と、前記経路探索部と、前記経路誘導情報生成部と、前記経路誘導部とは端末装置に含まれ、
    前記サーバ装置は、前記風景画像取得部によって取得される前記風景画像を前記端末装置から受信するとともに、前記カメラパラメータ校正部によって校正計算された前記カメラパラメータを前記端末装置へ送信する第1の通信処理部をさらに含み、
    前記端末装置は、前記カメラによって撮影された前記風景画像を前記サーバ装置へ送信するとともに、前記第2の変換部による前記第2の風景画像の生成に用いられる前記カメラパラメータを前記サーバ装置から受信する第2の通信処理部をさらに含むことを特徴とするナビゲーションシステム。
  10. 移動体に搭載されたカメラによって撮影された前記移動体が移動する道路を含む風景の風景画像をナビゲーション用に変換するための、前記カメラの搭載位置の高さおよび前記カメラの向きを表すカメラパラメータを演算するカメラパラメータ演算装置において、
    前記移動体の現在位置に関する位置情報を取得し、
    前記位置情報に基づいて前記現在位置に応じた道路データを取得し、
    前記移動体が移動する道路の前記現在位置での幅員に関する幅員情報を前記道路データから取得し、
    前記カメラから前記風景画像を取得し、
    前記風景画像と前記幅員情報とに基づいて、前記カメラパラメータを校正計算することを特徴とするカメラパラメータ演算方法。
JP2012172930A 2012-08-03 2012-08-03 カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法 Active JP5926645B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012172930A JP5926645B2 (ja) 2012-08-03 2012-08-03 カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法
PCT/JP2013/070880 WO2014021421A1 (ja) 2012-08-03 2013-08-01 カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法
US14/419,369 US9948853B2 (en) 2012-08-03 2013-08-01 Camera parameter calculation device, navigation system and camera parameter calculation method
EP13825335.6A EP2881710B1 (en) 2012-08-03 2013-08-01 Camera parameter computation device, navigation system, and camera parameter computation method
CN201380041261.1A CN104520675B (zh) 2012-08-03 2013-08-01 摄像机参数运算装置、导航系统及摄像机参数运算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012172930A JP5926645B2 (ja) 2012-08-03 2012-08-03 カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法

Publications (2)

Publication Number Publication Date
JP2014032118A JP2014032118A (ja) 2014-02-20
JP5926645B2 true JP5926645B2 (ja) 2016-05-25

Family

ID=50028088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012172930A Active JP5926645B2 (ja) 2012-08-03 2012-08-03 カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法

Country Status (5)

Country Link
US (1) US9948853B2 (ja)
EP (1) EP2881710B1 (ja)
JP (1) JP5926645B2 (ja)
CN (1) CN104520675B (ja)
WO (1) WO2014021421A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015049717A1 (ja) * 2013-10-01 2015-04-09 株式会社日立製作所 移動体位置推定装置および移動体位置推定方法
KR20150059489A (ko) * 2013-11-22 2015-06-01 현대자동차주식회사 협로 검출 방법과 협로 검출 장치 및 협로 검출 시스템
KR101605514B1 (ko) * 2014-02-28 2016-04-01 주식회사 코아로직 차선 인식 장치 및 방법
JPWO2015162910A1 (ja) * 2014-04-24 2017-04-13 パナソニックIpマネジメント株式会社 車載用表示装置、車載用表示装置の制御方法、プログラム
GB2513738A (en) * 2014-05-08 2014-11-05 Daimler Ag Method for determining a position of a vehicle by a navigation system of the vehicle
JP6439287B2 (ja) * 2014-06-18 2018-12-19 株式会社デンソー 運転支援装置、運転支援方法、画像補正装置、画像補正方法
JP6453645B2 (ja) * 2014-12-25 2019-01-16 京セラ株式会社 ステレオカメラ装置、移動体、ステレオカメラシステム、サーバ装置及び制御方法
EP3046076B1 (de) * 2015-01-16 2018-03-14 Delphi Technologies, Inc. Verfahren zum Kalibrieren einer Bilderfassungseinrichtung
CN107430817B (zh) * 2015-03-03 2021-07-13 日本先锋公司 路径搜索装置、控制方法及非暂时性计算机可读介质
KR102371587B1 (ko) * 2015-05-22 2022-03-07 현대자동차주식회사 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법
CN108450058B (zh) * 2015-12-28 2022-07-26 英特尔公司 实时自动车载相机校准
CN106989756B (zh) * 2016-01-21 2020-04-14 高德软件有限公司 确定兴趣点位置的方法和装置
CN105564335B (zh) * 2016-01-29 2017-12-05 深圳市美好幸福生活安全系统有限公司 车辆摄像头的矫正方法及装置
JP2017199972A (ja) * 2016-04-25 2017-11-02 オリンパス株式会社 端末装置、情報取得システム、情報取得方法およびプログラム
JP6214717B1 (ja) * 2016-05-24 2017-10-18 三菱電機株式会社 車載カメラキャリブレーション補助装置
JP6686760B2 (ja) 2016-07-21 2020-04-22 いすゞ自動車株式会社 画像処理装置及び画像処理方法
JP2018032253A (ja) * 2016-08-25 2018-03-01 クラリオン株式会社 キャリブレーション装置、キャリブレーション方法、キャリブレーションプログラム
JP6661796B2 (ja) * 2017-01-06 2020-03-11 三菱電機株式会社 報知制御装置および報知制御方法
EP3644293B1 (en) 2017-06-20 2021-08-04 Nissan Motor Co., Ltd. Travel control method and travel control device
CN113822939A (zh) 2017-07-06 2021-12-21 华为技术有限公司 车载传感器的外部参数标定的方法和设备
CN110019580B (zh) * 2017-08-25 2022-07-12 腾讯科技(深圳)有限公司 地图显示方法、装置、存储介质及终端
JP6820561B2 (ja) * 2017-12-28 2021-01-27 パナソニックIpマネジメント株式会社 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム
JP7006527B2 (ja) 2018-07-09 2022-01-24 トヨタ自動車株式会社 車載装置および車両捜索システム
WO2020014683A1 (en) * 2018-07-13 2020-01-16 Kache.AI Systems and methods for autonomous object detection and vehicle following
CN109579863A (zh) * 2018-12-13 2019-04-05 北京航空航天大学 基于图像处理的未知地形导航系统及方法
JP7191671B2 (ja) * 2018-12-19 2022-12-19 フォルシアクラリオン・エレクトロニクス株式会社 キャリブレーション装置、キャリブレーション方法
TWI693493B (zh) * 2019-03-11 2020-05-11 整技科技股份有限公司 導引載具控制系統與方法
JP7217577B2 (ja) * 2019-03-20 2023-02-03 フォルシアクラリオン・エレクトロニクス株式会社 キャリブレーション装置、キャリブレーション方法
FR3094511B1 (fr) * 2019-03-25 2021-04-09 Alstom Transp Tech Procédé d’acquisition de données capturées par un module de capture embarqué dans un engin mobile suivant une trajectoire prédéterminée, programme d’ordinateur et dispositif correspondants
KR20220037725A (ko) * 2020-09-18 2022-03-25 현대자동차주식회사 차량 및 그를 위한 주변 영상 보정 방법
CN112862899B (zh) * 2021-02-07 2023-02-28 黑芝麻智能科技(重庆)有限公司 用于图像获取设备的外参标定方法、装置和系统

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3160434B2 (ja) * 1993-08-31 2001-04-25 アルパイン株式会社 車載用ナビゲーション装置の走行案内画像表示方法
JP3094758B2 (ja) * 1993-11-12 2000-10-03 トヨタ自動車株式会社 車両用画像センサ
JP3099691B2 (ja) * 1995-08-09 2000-10-16 三菱自動車工業株式会社 走行路における対象物位置計測方法
JP3658659B2 (ja) * 1995-11-15 2005-06-08 カシオ計算機株式会社 画像処理装置
US5801970A (en) * 1995-12-06 1998-09-01 Martin Marietta Corporation Model-based feature tracking system
US6285317B1 (en) * 1998-05-01 2001-09-04 Lucent Technologies Inc. Navigation system with three-dimensional display
JP2002259995A (ja) * 2001-03-06 2002-09-13 Nissan Motor Co Ltd 位置検出装置
JP4670528B2 (ja) * 2005-07-29 2011-04-13 日産自動車株式会社 撮像装置のずれ検出方法、撮像装置のずれ補正方法及び撮像装置
JP4820221B2 (ja) 2006-06-29 2011-11-24 日立オートモティブシステムズ株式会社 車載カメラのキャリブレーション装置およびプログラム
US7839431B2 (en) * 2006-10-19 2010-11-23 Robert Bosch Gmbh Image processing system and method for improving repeatability
US7949150B2 (en) 2007-04-02 2011-05-24 Objectvideo, Inc. Automatic camera calibration and geo-registration using objects that provide positional information
US20110115912A1 (en) * 2007-08-31 2011-05-19 Valeo Schalter Und Sensoren Gmbh Method and system for online calibration of a video system
CN101435706A (zh) * 2007-11-14 2009-05-20 环隆电气股份有限公司 道路影像辨识导航装置与导航方法
JP2009260475A (ja) * 2008-04-14 2009-11-05 Mitsubishi Electric Corp 情報処理装置及び情報処理方法及びプログラム
US8373763B2 (en) * 2008-05-22 2013-02-12 GM Global Technology Operations LLC Self calibration of extrinsic camera parameters for a vehicle camera
US9182241B2 (en) 2008-05-30 2015-11-10 Here Global B.V. Data mining in a digital map database to identify unusually narrow lanes or roads and enabling precautionary actions in a vehicle
US8775073B2 (en) * 2008-05-30 2014-07-08 Navteq B.V. Data mining in a digital map database to identify insufficient merge lanes along roads and enabling precautionary actions in a vehicle
CN101608923A (zh) * 2008-06-20 2009-12-23 联咏科技股份有限公司 全球定位系统导航装置及其所应用的导航方法
US20110205365A1 (en) 2008-10-28 2011-08-25 Pasco Corporation Road measurement device and method for measuring road
US9459113B2 (en) 2008-11-21 2016-10-04 GM Global Technology Operations LLC Visual guidance for vehicle navigation system
US8896686B2 (en) * 2009-06-23 2014-11-25 Here Global B.V. Determining a geometric parameter from a single image
US8885049B2 (en) * 2010-03-19 2014-11-11 Sony Corporation Method and device for determining calibration parameters of a camera
TWI408339B (zh) * 2010-03-22 2013-09-11 Inst Information Industry 即時擴增實境裝置、即時擴增實境方法及其電腦程式產品
FR2962581B1 (fr) * 2010-07-06 2013-07-05 Imajing Methode de calibration de l'orientation d'une camera video embarquee
EP2541498B1 (en) * 2011-06-30 2017-09-06 Harman Becker Automotive Systems GmbH Method of determining extrinsic parameters of a vehicle vision system and vehicle vision system

Also Published As

Publication number Publication date
CN104520675B (zh) 2018-10-02
US9948853B2 (en) 2018-04-17
WO2014021421A1 (ja) 2014-02-06
EP2881710A1 (en) 2015-06-10
EP2881710A4 (en) 2016-10-12
US20150222813A1 (en) 2015-08-06
CN104520675A (zh) 2015-04-15
JP2014032118A (ja) 2014-02-20
EP2881710B1 (en) 2019-04-10

Similar Documents

Publication Publication Date Title
JP5926645B2 (ja) カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法
JP4847090B2 (ja) 位置測位装置、および位置測位方法
US11125566B2 (en) Method and apparatus for determining a vehicle ego-position
EP2863181B1 (en) Intersection navigation system, method, and program
JP5626578B2 (ja) 走行支援システム、走行支援プログラム、及び走行支援方法
WO2018142560A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP5382356B2 (ja) 運転アシストシステム
JP4816303B2 (ja) 車両用表示システム、ナビゲーションシステム
JP2016095688A (ja) 車載用情報表示装置
WO2018142561A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP2018173860A (ja) 走行支援装置及びコンピュータプログラム
WO2019187716A1 (ja) 駐車支援装置
JP4797849B2 (ja) 運転支援画像表示システム及び車載装置
JPWO2018142562A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
CN115855080A (zh) 具有独立定位机制的导航系统和操作其的方法
JP2019105578A (ja) 車線変更可否判定システムおよび車線変更可否判定プログラム
JP6179166B2 (ja) 地点表示システム、方法およびプログラム
JP5203747B2 (ja) ナビゲーション装置
JP6973964B2 (ja) 走行支援方法及び走行支援装置
JP2023012793A (ja) 重畳画像表示装置
WO2019181839A1 (ja) データ構造、端末装置、データ通信方法、プログラム及び記憶媒体
JP2019070895A (ja) 走路認識装置
JP2007192584A (ja) ナビゲーション装置
JP7114865B2 (ja) 車両位置検出方法及び車両位置検出装置
JP7468075B2 (ja) 管制制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160422

R150 Certificate of patent or registration of utility model

Ref document number: 5926645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250