JP2007315956A - 駐車場マップ作成方法、駐車場案内方法及びナビゲーション装置 - Google Patents
駐車場マップ作成方法、駐車場案内方法及びナビゲーション装置 Download PDFInfo
- Publication number
- JP2007315956A JP2007315956A JP2006146904A JP2006146904A JP2007315956A JP 2007315956 A JP2007315956 A JP 2007315956A JP 2006146904 A JP2006146904 A JP 2006146904A JP 2006146904 A JP2006146904 A JP 2006146904A JP 2007315956 A JP2007315956 A JP 2007315956A
- Authority
- JP
- Japan
- Prior art keywords
- parking lot
- parking
- map
- vehicle
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
【課題】駐車場マップを自ら作成することができる駐車場マップ作成方法、駐車場案内方法及びナビゲーション装置を提供する。
【解決手段】ナビゲーションシステム1は、自車両が駐車場に進入した際に、画像プロセッサ20に基づき、駐車枠の位置を示したマップデータ26を生成し、マップデータ26を駐車場データ記憶部24に記憶し、自車両がその駐車場に再度進入した際に、マップデータ26を読み出してディスプレイ3にマップを表示し、駐車場内を案内する。
【選択図】図1
【解決手段】ナビゲーションシステム1は、自車両が駐車場に進入した際に、画像プロセッサ20に基づき、駐車枠の位置を示したマップデータ26を生成し、マップデータ26を駐車場データ記憶部24に記憶し、自車両がその駐車場に再度進入した際に、マップデータ26を読み出してディスプレイ3にマップを表示し、駐車場内を案内する。
【選択図】図1
Description
本発明は、駐車場マップ作成方法、駐車場案内方法及びナビゲーション装置に関する。
近年、自動車の円滑な走行を図るための高度道路交通システム(Intelligent Transport Systems)の一環として、ナビゲーションシステムの高度化が進められている。その一
例として、駐車場内の案内を行うナビゲーションシステムが開発されている。
例として、駐車場内の案内を行うナビゲーションシステムが開発されている。
例えば、特許文献1には、駐車場内に設けられたカメラから、駐車場を撮影した映像信号をナビゲーション装置に送信するシステムが記載されている。ナビゲーション装置は、映像信号をディスプレイに出力し、ドライバーは、駐車場内の空車情報を確認することができる。また他にも、予めメーカ等によって作成された駐車場のマップを、例えば装置製造時にハードディスク等に格納し、そのマップを用いて駐車場内を案内する装置もある。
特開2005−107844号公報
しかし、特許文献1に記載のナビゲーションシステムでは、部分的に駐車場を撮影したリアルタイムの情報を取得できる利点を有するものの、駐車場の全体的な情報は得られず、限られた情報しか提供できない。また、駐車場にカメラが設置されていない場合には、ドライバーは案内情報を入手することができない。
また、地図メーカ等により予め作成された駐車場マップを記憶する場合、完成度の高いマップを入手できるが、全国又はその地方の駐車場のマップを全て作成することは極めて困難である。また、駐車場の細部等が変更された場合、地図メーカが新たにデータを作成し、そのデータが配布されるまで、その駐車場マップを変更することができない。
本発明は、上記問題点に鑑みてなされたものであり、その目的は、駐車場マップを自ら作成することができる駐車場マップ作成方法、駐車場案内方法及びナビゲーション装置を提供することにある。
上記問題点を解決するために、請求項1に記載の発明は、駐車場のマップを作成する駐車場マップ作成方法であって、自車両が駐車場内を走行する際に、前記自車両周辺の駐車領域を検出した検出データを収集し、前記検出データに基づき、前記駐車場内のレイアウト示す駐車場マップを生成することを要旨とする。
請求項2に記載の発明は、駐車場を案内する駐車場案内方法において、自車両が駐車場内を走行する際に、前記自車両周辺の駐車領域を検出した検出データを収集し、前記検出データに基づき、前記駐車場内のレイアウトを示す駐車場マップを生成し、その駐車場マップをマップ記憶手段に記憶するとともに、前記自車両がその駐車場に再度進入した際に、対応する前記駐車場マップを読み出し、その駐車場マップに基づいて前記駐車場を案内することを要旨とする。
請求項3に記載の発明は、駐車場を案内するナビゲーション装置において、自車両が駐車場に進入又は退出したことを検出する位置特定手段と、各駐車領域を認識する駐車領域検出手段と、前記駐車領域検出手段に基づき、駐車領域の位置を示した駐車場マップを生
成するマップ生成手段と、生成した前記駐車場マップを、前記駐車場の地理的な位置と対応付けて記憶するマップ記憶手段と、前記駐車場に前記自車両が進入した際に、生成した前記駐車場マップに基づき、その駐車場を案内する画像を表示手段に表示する出力制御手段とを備えたことを要旨とする。
成するマップ生成手段と、生成した前記駐車場マップを、前記駐車場の地理的な位置と対応付けて記憶するマップ記憶手段と、前記駐車場に前記自車両が進入した際に、生成した前記駐車場マップに基づき、その駐車場を案内する画像を表示手段に表示する出力制御手段とを備えたことを要旨とする。
請求項4に記載の発明は、請求項3に記載のナビゲーション装置において、駐車領域の配置パターンを複数記憶したパターン記憶手段と、前記駐車領域検出手段に基づき、前記配置パターンの中から、前記自車両が進入した前記駐車場に類似した前記配置パターンを選択するパターン選択手段とを備えるとともに、前記マップ生成手段は、前記駐車場内を走行する過程で、前記駐車領域検出手段に基づき、選択した前記配置パターンを修正することを要旨とする。
請求項5に記載の発明は、請求項4に記載のナビゲーション装置において、前記マップ生成手段は、前記駐車領域検出手段が検出していない領域は、前記配置パターンに基づき、各車両が駐車する前記各駐車領域をブロック化した駐車スペース又は非駐車スペースとした前記駐車場マップを生成することを要旨とする。
請求項6に記載の発明は、請求項3〜5のいずれか1項に記載のナビゲーション装置において、前記駐車領域検出手段は、前記自車両に取り付けられた撮像装置から画像データを入力し、前記画像データを画像処理して、駐車枠を示す白線を認識することにより、前記駐車領域を検出することを要旨とする。
請求項7に記載の発明は、請求項3〜6のいずれか1項に記載のナビゲーション装置において、前記駐車領域検出手段は、前記駐車場内に駐車された他車両を認識することにより、前記駐車領域を検出することを要旨とする。
請求項8に記載の発明は、請求項3〜7のいずれか1項に記載のナビゲーション装置において、他車両を検出する他車両検出手段をさらに設け、前記出力制御手段は、前記他車両検出手段により検出された他車両の位置に基づき、前記駐車場マップに他車両の駐車位置を表示することを要旨とする。
請求項9に記載の発明は、請求項3〜8のいずれか1項に記載のナビゲーション装置において、前記位置特定手段に基づき、前記駐車場の入口又は出口の位置を判断する出入口検出手段を備えるとともに、前記出力制御手段は、前記駐車場の入口又は出口の位置を前記駐車場マップの画像に表示することを要旨とする。
請求項10に記載の発明は、請求項3〜9のいずれか1項に記載のナビゲーション装置において、前記自車両周辺の障害物を検出する障害物検出手段と、前記出力制御手段は、障害物が検出された際に、前記駐車マップにその障害物の位置を表示することを要旨とする。
請求項1に記載の発明によれば、自車両が駐車場内を走行する間に、検出データを収集して駐車場マップを生成するので、どのような駐車場に対してもマップを作成することができる。
請求項2に記載の発明によれば、自車両が駐車場内を走行する間に、検出データを収集して駐車場マップを生成する。そして、駐車場マップを生成した後は、自車両がその駐車場に進入した際に、その駐車場マップに基づき案内が行われる。このため、地図メーカ等が対応していない駐車場でも、駐車場の案内を行うことができる。
請求項3に記載の発明によれば、ナビゲーション装置は、自車両が駐車場に進入した際に、駐車領域検出手段に基づき、駐車場マップを生成する。そして、駐車場マップを生成した後は、自車両がその駐車場に進入した際に、その駐車場マップに基づき案内する。このため、地図メーカが予め作成したマップを記憶していない駐車場に対しても、駐車場の案内を行うことができる。
請求項4に記載の発明によれば、駐車領域検出手段に基づき、駐車領域の配置パターンの中から実際の駐車領域の配置に類似したパターンが選択される。また、パターンは、車両走行中に、検出結果に基づき修正される。即ち、駐車領域のパターンは比較的単純であることを利用して、予め記憶された配置パターンと検出結果をマッチングさせながら駐車場マップを作成するので、駐車パターンの検出のみで駐車マップを作成するよりも、簡単に駐車場マップを生成できる。
請求項5に記載の発明によれば、駐車領域検出手段が検出していない領域は、駐車マップにおいて各車両が駐車する各駐車領域をブロック化した駐車スペース又は非駐車スペースとされるので、誤った駐車場マップが生成されるのを防止できる。
請求項6に記載の発明によれば、駐車領域検出手段は、撮像装置から入力した画像データに基づき白線認識を行うので、駐車領域を正確に検出することができる。
請求項7に記載の発明によれば、駐車領域検出手段は、駐車された他車両を認識することにより駐車領域の認識を行うので、白線が見えない場合にも駐車領域を認識できる。
請求項7に記載の発明によれば、駐車領域検出手段は、駐車された他車両を認識することにより駐車領域の認識を行うので、白線が見えない場合にも駐車領域を認識できる。
請求項8に記載の発明によれば、駐車場マップには、他車両の位置が表示されるので、車両が通過した領域の他車両の駐車状況を把握することができる。
請求項9に記載の発明によれば、位置特定手段に基づき、駐車場の入口又は出口の位置を判断し、駐車場マップの画像に、入口の位置又は出口の位置が表示される。このため、ドライバーは、駐車場内で迷うことなく、走行することができる。
請求項9に記載の発明によれば、位置特定手段に基づき、駐車場の入口又は出口の位置を判断し、駐車場マップの画像に、入口の位置又は出口の位置が表示される。このため、ドライバーは、駐車場内で迷うことなく、走行することができる。
請求項10に記載の発明によれば、障害物検出手段により、車両周辺の障害物が検出された場合に、駐車場マップにその障害物の位置を表示する。このため、駐車場マップを表示している間の障害物の見落としを防止できる。
以下、本発明のナビゲーション装置を具体化した実施形態を図1〜図14に従って説明する。図1は、ナビゲーションシステム1のブロック図である。
自車両C(図2参照)に搭載されたナビゲーションシステム1は、ナビゲーション装置としての制御装置2、表示手段としてのディスプレイ3、スピーカ4及び撮像装置としてのブラインドコーナーカメラ(以下、単にカメラ5という)を有している。
自車両C(図2参照)に搭載されたナビゲーションシステム1は、ナビゲーション装置としての制御装置2、表示手段としてのディスプレイ3、スピーカ4及び撮像装置としてのブラインドコーナーカメラ(以下、単にカメラ5という)を有している。
制御装置2は、位置特定手段及び出入口検出手段としてのCPU10、メインメモリ11、ROM12及びGPS受信部13を備えている。CPU10は、ROM12に記憶された案内プログラム等に基づき、各種制御を行う。メインメモリ11は、フラッシュメモリ等、書込可能な不揮発性メモリであって、各種変数、データを記憶する。
また、CPU10は、GPS(Global Positioning System)衛星からGPS受信部1
3が受信した、緯度・経度等の座標を示す位置検出信号を入力する。また、センサ制御部15を介して、自車両Cに設けられた車速センサ30及びジャイロセンサ31から車速パルスVP、方位検出信号GRPをそれぞれ入力する。ジャイロセンサ31は、加速度センサ等を組み合わせることにより、自車両Cの左右の向きだけでなく、高低差を検出可能な
センサユニットである。そして、CPU10は、これらの信号に基づき、電波航法及び自律航法を組み合わせて自車位置を検出する。
3が受信した、緯度・経度等の座標を示す位置検出信号を入力する。また、センサ制御部15を介して、自車両Cに設けられた車速センサ30及びジャイロセンサ31から車速パルスVP、方位検出信号GRPをそれぞれ入力する。ジャイロセンサ31は、加速度センサ等を組み合わせることにより、自車両Cの左右の向きだけでなく、高低差を検出可能な
センサユニットである。そして、CPU10は、これらの信号に基づき、電波航法及び自律航法を組み合わせて自車位置を検出する。
また、CPU10は、センサ制御部15を介して、自車両Cに取り付けられたレーダ32から、障害物検出信号DPを入力する。図2に示すように、レーダ32は、ミリ波を発信するレーダであって、自車両Cの前端に取り付けられている。レーダ32は、所定のサンプリング間隔ごとに自車両Cの周辺にミリ波を発信し、センサ制御部15は、ミリ波が障害物に反射して、レーダ32に受信されるまでの時間により、レーダ32から障害物までの相対距離を算出する。
また、CPU10は、センサ制御部15を介して、各障害物までの相対距離を入力し、その障害物が移動体であるか否かを判断する。具体的には、CPU10は、センサ制御部15が異なるタイミングで検出した、障害物に対する相対距離をそれぞれ入力する。さらに、先に入力した相対距離と、後に入力した相対距離とに基づいて、障害物までの相対距離の差分を求める。そして、その差分が、自車両Cの移動量よりも大きい場合には、障害物が移動体であると判断する。
また、制御装置2は、画像データ入力部27を備えている。画像データ入力部27は、CPU10の制御により、自車両Cに設けられたカメラ5を駆動制御する。図2に示すように、カメラ5は、自車両Cのフロントグリル付近に取り付けられ、自車両Cの前方領域Z1と、前方左側領域Z2と、前方右側領域Z3とを撮像可能になっている。画像データ入力部27は、カメラ5が各領域Z1〜Z3を撮像した、検出データとしての各画像データGをそれぞれ入力し、各画像データGを駐車領域検出手段、マップ生成手段、出力制御手段、パターン選択手段、出入口検出手段、障害物検出手段及び他車両検出手段としての画像プロセッサ20に出力する。
画像プロセッサ20は、その画像データGに対して公知の白線認識処理を行う。例えば、カメラ5が、自車両Cの前方左側領域Z2に含まれる白線WLを撮影したとき、画像プロセッサ20は、画像データ入力部27を介して、図3に示すような画像データGを入力する。画像データGを入力すると、画像プロセッサ20は、公知のエッジ抽出処理を行う。例えば、カラー画像である画像データGをグレースケールデータに変換し、グレースケールデータの輝度平均値や、輝度の中央値等の閾値を設定する。そして、画素間の輝度の勾配等が閾値未満であるときはエッジとして検出せず、閾値以上であるときはエッジとして検出する。又は、グレースケールデータに変換した画像データGの各画素の輝度と、各画素に隣接する画素の画素値の差分を検出する。そして、差分の大きい画素をエッジとして検出する。これにより、フレーム座標系(i,j)において、エッジの座標が算出される。
さらに画像プロセッサ20は、フレーム座標系(i,j)内のエッジを、図4に示すように駐車場用の画像空間座標系(x,y)における白線エッジE1に座標変換する。画像空間座標系は、駐車場の鳥瞰図を作成するために用いられる座標系であって、x軸及びy軸は、駐車場の長さ方向及び奥行方向に相当する。また、座標変換された各白線エッジE1に、その白線エッジE1が駐車枠(駐車領域)であるか、又は停止線等であるか否かを判断する。これにより、白線エッジE1が示す駐車枠が駐車場のどの位置にあるのかを、画像空間座標系の座標(x,y)により示すことができる。このように算出した白線エッジE1の座標は、図1に示すように白線座標データ11aとしてメインメモリ11に記憶する。
このように、画像プロセッサ20は、自車両Cが駐車場内を走行するに伴い、各領域Z1〜Z3の画像データGを逐次入力し、それらの画像データGに基づき、検出した白線エ
ッジE1に連続する他の白線エッジE1(図4中破線)、他のスペースに標示された駐車枠の白線エッジE1等を算出する。この白線エッジE1に基づき、CPU10は、駐車枠の位置及び向きや、駐車枠が並ぶ方向を判断することができる。
ッジE1に連続する他の白線エッジE1(図4中破線)、他のスペースに標示された駐車枠の白線エッジE1等を算出する。この白線エッジE1に基づき、CPU10は、駐車枠の位置及び向きや、駐車枠が並ぶ方向を判断することができる。
さらに、画像プロセッサ20は、画像データGのエッジ抽出の結果、図5に示すように、3〜5本のエッジE2からなる所定のエッジ群EGが検出された場合、そのエッジ群EGが他車両C1であると判断する。他車両C1を示す各エッジE2(以下、車両エッジE2という)は、ほぼ同じ長さを有し、垂直方向(フレーム座標系においてj方向)に並列されている。各車両エッジE2は、他車両C1のルーフ、フロントガラス、バンパー等に相当するエッジE2である。また、車両エッジE2の長さ及びエッジ間隔の比率から、カメラ5が、その他車両C1を図5に示すように正面から撮像しているか、側面から撮像しているかを判断することができる。画像プロセッサ20により、このように他車両C1が検出されると、各白線エッジE1や、画像空間座標系の座標と関連付けて、その他車両C1の座標及び向きを、図1に示すように他車両データ11bとしてメインメモリ11に記憶する。このように他車両C1が駐車された位置は、駐車枠として認識される。
また、図1に示すように、制御装置2は、マップ記憶手段及びパターン記憶手段としての駐車場データ記憶部24を備えている。駐車場データ記憶部24は、フラッシュメモリ等の書込可能な不揮発性メモリであって、予め配置パターンとしてのパターンデータ25を多数記憶している。
図6に模式的に示すように、パターンデータ25は駐車場のフロア全体のレイアウトを示すデータであって、駐車スペース25aと、車両が走行する通路又は歩道等を示す非駐車スペース25bとを有している。例えば、図6(a)に示すパターンデータ25は、y方向に各車両が並ぶ各駐車スペース25aが、x方向に並列されたデータである。図6(b)に示すパターンデータ25は、y方向に車両が並ぶ各駐車スペース25aの間に、x方向に各車両が並ぶ各駐車スペース25aがそれぞれ配置されたデータである。
画像プロセッサ20は、メインメモリ11に記憶した白線座標データ11aと、パターンデータ25とを比較して、実際の駐車枠の配列パターンに最も類似しているパターンデータ25を暫定的なデータとして選択する。パターンデータ25を選択すると、画像プロセッサ20は、駐車場内を走行する途中で逐次入力した障害物検出信号DPや画像データGに基づき、駐車枠や他車両C1等を検出し、そのパターンデータ25を補正する。また、検出した駐車枠や他車両C1の位置に基づき、パターンデータ25の駐車スペース25aを、駐車枠に置き換える。このようにして、画像プロセッサ20は駐車場のマップデータ26を作成し、駐車場データ記憶部24に記憶する。
マップデータ26は、自車両Cがある駐車場に初めて進入したときに、画像プロセッサ20により生成されるデータであって、その駐車場の地理的な位置(絶対座標)と関連付けられている。自車両Cがその駐車場に再び進入した場合には、画像プロセッサ20を制御して対応するマップデータ26を読み出し、ディスプレイ3に出力して駐車場の案内情報を提供する。
また、図1に示すように、制御装置2は、地理データ記憶部16を備えている。地理データ記憶部16は、内蔵されたハードディスク、又は光ディスク等の外部記憶媒体である。この地理データ記憶部16には、目的地までの経路を探索するための各経路ネットワークデータ(以下、経路データ17という)と、ディスプレイ3に地図画面3aを出力するための各地図描画データ18とが格納されている。経路データ17は、全国を各区域に区画したリージョン毎のデータであって、道路の端点、交差点を示すノードの番号等のノードデータ、各ノードを接続するリンクの番号等のリンクデータ、リンク長等を示すリンク
コスト、ノードの座標データ、道路属性データを有している。CPU10は、この経路データ17を用いて、目的地と現在の自車位置とを接続する案内経路を探索する。
コスト、ノードの座標データ、道路属性データを有している。CPU10は、この経路データ17を用いて、目的地と現在の自車位置とを接続する案内経路を探索する。
また、地図描画データ18は、全国の地図を分割したエリア毎に格納され、広域の地図から狭域の地図まで各階層毎に分かれている。各地図描画データ18は、道路描画データ、背景データを有している。道路描画データは、地図上に表示される道路の形状を補間する形状補間データや、路面状況を示すデータである。背景データは、道路、市街地、河川、駐車場等を描画する描画データである。また、地図描画データ18は、施設データを有しており、施設データには、一部の駐車場の座標データ等も含まれている。画像プロセッサ20は、自車両Cの周辺の地図描画データ18を読出し、VRAM21に一時記憶した後、所定のタイミングでディスプレイ3に出力する。
また、制御装置2は、図1に示すように音声プロセッサ22を備えている。音声プロセッサ22は、CPU10の制御に従って、図示しない音声ファイルデータベースから音声ファイルを読出して音声信号をスピーカ4に出力する。これにより、経路を案内する案内音声、警告音等が出力される。
また、制御装置2は、外部入力I/F部23を備えている。外部入力I/F部23は、制御装置2のディスプレイ3に隣設された操作スイッチ7等が操作されたとき、その入力操作に応じた電気信号をCPU10に出力する。また、ディスプレイ3は、タッチパネルであって、タッチパネルが入力操作されると、外部入力I/F部23は、入力操作に応じた電気信号をCPU10に出力する。
次に、本実施形態の処理手順について、図7及び図8に従って説明する。ナビゲーションシステム1が起動している際に、CPU10は、ROM12に格納された案内プログラムに基づき、GPS受信部13、車速センサ30及びジャイロセンサ31に基づき、自車位置を算出する。そして、経路データ17及び地図描画データ18に基づき、自車両Cが駐車場に進入したか否かを判断する(ステップS1)。このとき、CPU10は、自車両Cがノード及びリンクからなる経路を外れたか否か、又は地図描画データ18が示す施設内に進入したか否か等を判断する。経路から外れた場合、若しくは施設内に進入したと判断すると、さらに、自車両Cの現在位置が、駐車場であるか、駐車場に車両を誘導する誘導路であるかを判断する。このとき、画像プロセッサ20により、カメラ5から画像データGを入力し、駐車枠又は他車両C1の有無を検出する等して、現在位置が駐車場であるか否かを判断する。自車両Cが誘導路を走行していると判断した場合には、その誘導路の座標データを駐車場データ記憶部24等に記憶する。そして、この後駐車場に再度進入する場合又は駐車場から退出する場合等に、誘導路の座標データを用いて、自車両Cが誘導路にいるか否かを判断する。
駐車場に進入したと判断すると(ステップS1においてYES)、CPU10は、そのときの絶対座標を、駐車場の入口として設定する。また、CPU10は、その駐車場に対応するマップデータ26が、駐車場データ記憶部24に記憶されているか否かを判断する(ステップS2)。マップデータが記憶されていないと判断すると(ステップS2においてNO)、センシング処理を行う(ステップS3)。詳述すると、CPU10は、レーダ32から障害物検出信号DPを入力し、自車両Cの周囲の障害物の有無を判断する。また、カメラ5から画像データGを入力して、画像プロセッサ20により白線認識処理、及び他車両認識処理を行う。
画像プロセッサ20は、上記したように白線認識処理及び他車両認識処理を行い、駐車枠の位置、及び他車両C1の位置を取得する。そして、白線座標データ11a及び他車両データ11bと、ROM12に記憶されたパターンデータ25とをマッチングさせ、各パ
ターンデータ25の中から最も類似していると推測されるパターンデータ25を選択する(ステップS4)。
ターンデータ25の中から最も類似していると推測されるパターンデータ25を選択する(ステップS4)。
パターンデータ25を読み出すと、画像プロセッサ20は、パターンデータ25に基づき、初期マップの描画処理を行う(ステップS5)。このとき、画像プロセッサ20は、パターンデータ25の駐車スペース25aの位置を、自車両Cからの相対距離に応じて修正した後、VRAM21に一時記憶する。そして、そのパターンデータ25を、図9に示すようにディスプレイ3に出力して、パターン画像40を描画する。パターン画像40には、色や模様、又は明度で判別可能にした、各駐車枠のブロックを示した駐車スペース画像40aと、その他の領域を示す非駐車スペース画像40bとが表示されている。さらに、センシング処理(ステップS3)で検出した白線座標データ11a及び他車両データ11bに基づき、パターン画像40の上に、検出した領域分の駐車枠41及び他車両指標42を描画する。図9では、駐車スペース画像40aの一部に、駐車枠41が描画されている。また、他車両指標42を矩形状の指標にしてあるが、車両の画像等、他の指標でもよい。
さらに画像プロセッサ20は、パターン画像40のうち、自車両Cの現在位置に対応する位置に、自車位置指標43を描画し、駐車場入口の位置を示す入口指標44を描画する。その結果、駐車枠及び他車両の位置が描画された、駐車場マップとしての初期マップ45がディスプレイ3に表示される。
初期マップ45を描画すると、画像プロセッサ20は、自車両Cの走行に伴い、初期マップ45を補正するマップ補正処理を行う(ステップS6)。このマップ補正処理について図8に従って説明する。画像プロセッサ20は、自車両Cが駐車場内を走行するに伴い、上記したセンシング処理を行う(ステップS6−1)。また、センシング処理により検出した白線座標データ11aと、読み出したパターンデータ25とを比較して(ステップS6−2)、パターンの補正が必要であるか否かを判断する(ステップS6−3)。具体的には、パターンデータ25の駐車スペース25aの座標と、白線座標データ11aに基づく駐車枠の位置とを比較する。駐車スペース25a内に駐車枠が含まれるとともに、駐車枠の向きが駐車スペース25aが設定する駐車枠の向きと合致している場合には、パターンの補正が必要ないと判断して(ステップS6−3においてNO)、ステップS6−5に進む。
ステップS6−5では、画像プロセッサ20は、画像データGに基づき他車両C1を認識する。そして、他車両C1が認識された場合には、他車両C1の位置及び向きを判断して、他車両データ11bとしてメインメモリ11に記憶する。
そして、画像プロセッサ20は、白線座標データ11a、他車両データ11b、及びパターンデータ25に基づき、図10に示すような、駐車場マップ(以下、マップ46という)を描画する(ステップS6−6)。初期マップ45を補正したマップ46は、自車両Cの走行に伴いセンシングした駐車枠41及び他車両を示す他車両指標42が、さらに追加されている。また、自車位置指標43は、自車両Cの走行に伴い移動している。また、センシング処理が行われていない領域は、駐車枠41のブロックを示す駐車スペース画像40aになっている。このため、このマップ46によって、ドライバーは駐車場の概形を把握することができる。
また、CPU10は、センサ制御部15に基づき、車両周辺に障害物を検出したか否かを判断する(ステップS6−7)。障害物を検出した場合には(ステップS6−7においてYES)、警告処理を行う(ステップS6−8)。このとき、CPU10は、センサ制御部15から、異なるタイミングで相対距離を入力し、その障害物が移動体であるか否か
を判断する。或いは、カメラ5が撮像した画像データGに基づき、その障害物が他車両C1であるか否かを判断する。
を判断する。或いは、カメラ5が撮像した画像データGに基づき、その障害物が他車両C1であるか否かを判断する。
他車両C1等の移動体であると判断した場合には、図10に示すようにマップ46に移動体を示す移動体指標47を表示する。他車両C1であると判断した場合には、自動車の画像を用いてもよい。そして、その移動体と自車両Cとの相対距離の変化に基づき、移動体指標47を移動させる。また、柱等の静止障害物であると判断した場合には、マップ46に、静止障害物指標48(図11参照)を表示する。また、CPU10は、音声プロセッサ22を制御して、スピーカ4から、「障害物に接近しています」、又は「前方に注意してください」等の音声を出力する。
障害物を検出しないとき(ステップS6−7においてNO)、又は警告処理を終了したとき(ステップS6−8)、図7に示すステップS7に戻る。
ステップS7では、CPU10は、駐車が完了したか否か、又は駐車場を退出したか否かを判断する。CPU10が、図示しないシフトポジションセンサから、ニュートラル又はパーキングポジションを示すシフトポジション信号を入力すると、駐車が完了したと判断する(ステップS7においてYES)。また、自車両Cの現在位置と経路データ17に基づき、自車位置が道路を示すリンク上にあると判断した場合には、駐車場を退出したと判断する(ステップS7においてYES)。駐車完了を示すシフトポジション信号を入力しない場合、又は自車位置がリンク上になく、駐車場を退出していないと判断した場合には(ステップS7においてNO)、ステップS6に戻り、マップ補正処理を繰り返す。
ステップS7では、CPU10は、駐車が完了したか否か、又は駐車場を退出したか否かを判断する。CPU10が、図示しないシフトポジションセンサから、ニュートラル又はパーキングポジションを示すシフトポジション信号を入力すると、駐車が完了したと判断する(ステップS7においてYES)。また、自車両Cの現在位置と経路データ17に基づき、自車位置が道路を示すリンク上にあると判断した場合には、駐車場を退出したと判断する(ステップS7においてYES)。駐車完了を示すシフトポジション信号を入力しない場合、又は自車位置がリンク上になく、駐車場を退出していないと判断した場合には(ステップS7においてNO)、ステップS6に戻り、マップ補正処理を繰り返す。
マップ補正処理を再び行うとき、CPU10及び画像プロセッサ20は、自車両Cの走行に伴い、上記したようにセンシング処理を行い(ステップS6−1)、駐車枠の位置を示す白線座標データ11aとパターンデータ25とを比較し(ステップS6−2)、パターンの補正が必要であるか否かを判断する(ステップS6−3)。このとき、図11に示すように、画像プロセッサ20が、図10に示すパターンデータ25にはない、新たな駐車枠41aを検出したり、或いは非駐車スペース25bに駐車された他車両C1を検出した場合、ステップS6−3において、画像プロセッサ20は、パターンデータ25の補正の必要があると判断する(ステップS6−3においてNO)。そして、パターンデータ25を補正し、新たな駐車スペース画像40aを追加したパターンデータ25Aを生成する(ステップS6−4)。或いは、パターンデータ25が示す駐車場よりも実際の駐車場が小さい場合、駐車スペース画像40a又は非駐車スペース画像40bの一部を削除する。また、センシングしきれない領域は、駐車スペース25a又は非駐車スペース25bのまま変更せずに、駐車スペース画像40a又は非駐車スペース画像40bとして表示する。そして、以後、自車両Cの走行に追従して、検出した駐車枠41及び他車両指標42を追加する(ステップS6−5,S6−6)。
また、自車両Cが立体駐車場の階層を変更した場合、CPU10は、ジャイロセンサ31等に基づき、自車両Cが異なる駐車フロアに進入したと判断して、既に作成したマップ46と同じレイアウトのパターンデータ25を作成する。そして、その階層の駐車場をセンシングして、駐車枠41及び他車両指標42を新たに描画する。
そして、自車両Cが駐車を完了したとき、CPU10は、シフトポジションセンサから、駐車完了を示すニュートラル又はパーキングポジションを示す信号を入力する。このとき、ディスプレイ3には、図12に示すようなマップ46が表示されている。即ち、進入口から、駐車位置までの自車両Cの走行軌跡周辺の駐車枠41及び他車両指標42が表示されている。まだセンシングしていない領域は、駐車スペース画像40a又は非駐車スペース画像40bのまま表示されている。
上記したシフトポジション信号を入力すると、CPU10は駐車完了であると判断して(ステップS7においてYES)、上記したように作成したマップデータ26を、その駐車場の絶対座標とともにメインメモリ11に記憶する(ステップS8)。マップデータ26を駐車場データ記憶部24に記憶すると、処理を終了する。立体駐車場の場合には、絶対座標の他、階層等を識別可能な状態で、各マップデータ26を記憶する。
駐車完了後、駐車場から自車両Cが退出するとき、ナビゲーションシステム1は、イグニッションモジュールのオン信号等を開始トリガとして起動する。そして、ステップS1において、自車両Cが駐車場に進入していると判断し(ステップS1においてYES)、ステップS2において、作成したマップデータ26がメインメモリ11に記憶されていると判断する(ステップS2においてYES)。そして、そのマップデータ26を読み出し、初期マップとして、図12に示すマップ46をディスプレイ3に描画する(ステップS5)。そして、自車両Cが発進すると、駐車していた位置から出口まで走行している間に、マップ補正処理を行う(ステップS6)。その結果、図13に示すように、駐車位置から出口までにセンシングされた駐車枠41や他車両指標42が、追加される。そして、自車両Cが誘導路に進入する等して、駐車場から退出したと判断すると、その出口の位置を登録する。
このように駐車場データ記憶部24に記憶されたマップデータ26は、自車両Cがその駐車場に進入する度に用いられる。既にマップデータ26を作成した駐車場に自車両Cが進入すると、図7のステップS2において、マップデータ26が記憶されていると判断する(ステップS2においてYES)。そして、そのマップデータ26を読み出し、再び描画処理を行う(ステップS5)。このとき、前回の他車両C1の駐車状況と、現在の駐車状況とは変更がある可能性が大きいので、図14に示すように他車両指標42を、センシングにより表示した時とは異なる形状又は線種にしてもよい。図14では他車両指標42を破線で示している。また、駐車場の出口には、前回までに画像プロセッサ20が駐車場の出口として登録した、出口指標49が表示されている。
そして、自車両Cの走行中に収集したデータに基づき、補正の必要がある場合には、再び駐車マップを補正する(ステップS6)。センシングできていない領域が新たにセンシングできた場合には、駐車枠41の追加等を行う。その結果、駐車枠のレイアウト等が変更された場合にも、ナビゲーションシステム1のマップデータ26を直ちに更新することができる。
上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、自車両Cが駐車場に進入した際に、自車両Cに取り付けたカメラ5から画像データGを入力し、白線認識及び他車両認識を行って、駐車枠を検出するようにした。そして、駐車枠の検出結果及びパターンデータ25をマッチングさせて、マップデータ26を生成し、生成したマップデータ26を駐車場データ記憶部24に記憶するようにした。そして、マップデータ26の生成後、自車両Cがその駐車場に進入した際に、マップデータ26に基づくマップ46をディスプレイ3に表示して、駐車場内を案内するようにした。このため、地図メーカが予め作成したマップを記憶していない駐車場に対しても、ナビゲーションシステム1が駐車場のマップデータ26を自ら作成し、駐車場の案内を行うことができる。従って、ドライバーは、進入したことのある駐車場、頻繁に行く駐車場等のマップデータ26をナビゲーションシステム1に格納することができるので、膨大な数の駐車場データを記憶することがない。このため、ナビゲーションシステム1の処理負担の軽減、保有するデータ量の削減を図ることができる。
(1)上記実施形態では、自車両Cが駐車場に進入した際に、自車両Cに取り付けたカメラ5から画像データGを入力し、白線認識及び他車両認識を行って、駐車枠を検出するようにした。そして、駐車枠の検出結果及びパターンデータ25をマッチングさせて、マップデータ26を生成し、生成したマップデータ26を駐車場データ記憶部24に記憶するようにした。そして、マップデータ26の生成後、自車両Cがその駐車場に進入した際に、マップデータ26に基づくマップ46をディスプレイ3に表示して、駐車場内を案内するようにした。このため、地図メーカが予め作成したマップを記憶していない駐車場に対しても、ナビゲーションシステム1が駐車場のマップデータ26を自ら作成し、駐車場の案内を行うことができる。従って、ドライバーは、進入したことのある駐車場、頻繁に行く駐車場等のマップデータ26をナビゲーションシステム1に格納することができるので、膨大な数の駐車場データを記憶することがない。このため、ナビゲーションシステム1の処理負担の軽減、保有するデータ量の削減を図ることができる。
(2)上記実施形態では、画像プロセッサ20は、白線認識処理及び他車両認識処理に基づき、実際の駐車領域の配置パターンに類似するパターンデータ25を選択するように
した。そして、車両走行中の白線認識処理及び他車両認識処理に基づき、パターンデータ25を修正するようにした。即ち、駐車枠の配置パターンは比較的単純であることを利用して、予め記憶されたパターンデータ25と検出結果をマッチングさせながらマップデータ26を作成するので、駐車枠の検出のみでマップデータ26を作成するよりも、簡単な処理にすることができる。また、画像処理のみでマップデータ26を作成すると、画像処理の誤差が生じて画質が劣ることがあるが、パターンデータ25と検出結果とをマッチングさせることにより、駐車枠41が不揃いにならず、きれいなマップ46を表示できる。
した。そして、車両走行中の白線認識処理及び他車両認識処理に基づき、パターンデータ25を修正するようにした。即ち、駐車枠の配置パターンは比較的単純であることを利用して、予め記憶されたパターンデータ25と検出結果をマッチングさせながらマップデータ26を作成するので、駐車枠の検出のみでマップデータ26を作成するよりも、簡単な処理にすることができる。また、画像処理のみでマップデータ26を作成すると、画像処理の誤差が生じて画質が劣ることがあるが、パターンデータ25と検出結果とをマッチングさせることにより、駐車枠41が不揃いにならず、きれいなマップ46を表示できる。
(3)上記実施形態では、画像プロセッサ20は、画像処理により他車両C1を認識し、マップ46上に他車両指標42を表示するようにした。このため、自車両Cの走行軌跡周辺の駐車状況を把握することができるので、例えば、駐車場のフロアを周回した後に、空いている駐車枠の中で最適な駐車枠に駐車することができる。
(4)上記実施形態では、画像プロセッサ20は、駐車枠や他車両C1の認識を行っていない領域は、パターンデータ25に基づき、駐車枠をブロック化した駐車スペース25aと、非駐車スペース25bとをディスプレイ3に表示するようにした。このため、ドライバーは、センシングが行われていない領域を識別することができる。
(5)上記実施形態では、画像プロセッサ20により、白線認識処理及び他車両認識処理を合わせて行うことにより、駐車枠を検出するようにした。このため、駐車枠を高い確率で検出することができる。
(6)上記実施形態では、CPU10は、自車両Cが駐車場内に進入したと判断すると、その位置を入口として記憶するようにした。また、駐車場から退出したと判断すると、その位置を出口として記憶するようにした。そして、マップ46には、入口指標44及び出口指標49を表示するようにした。このため、ドライバーは、駐車枠の位置だけでなく、駐車場の構成を全体的に把握することができる。
(7)上記実施形態では、レーダ32に基づき、車両周辺の障害物を検出するようにした。また、画像プロセッサ20は、その障害物の位置を、静止障害物指標48としてマップ46上に表示するようにした。このため、マップ46を表示している間の障害物の見落としを防止できる。
尚、上記実施形態は以下のように変更してもよい。
・上記実施形態では、障害物をミリ波レーダにより検出したが、ソナーにより検出してもよい。また、レーダ32は、自車両Cの複数の位置に取り付けられるようにしてもよい。
・上記実施形態では、障害物をミリ波レーダにより検出したが、ソナーにより検出してもよい。また、レーダ32は、自車両Cの複数の位置に取り付けられるようにしてもよい。
・カメラ5は、自車両Cのサイドミラー近傍や、車室内のバックミラー近傍や、リアバンパー付近等、自車両Cの前端以外に取り付けられるようにしてもよい。
・上記実施形態では、複数の駐車スペース25aが配置されたパターンデータ25を記憶するようにしたが、図15に示すように、必要最小限の駐車スペース25aを配置したセグメント50を記憶するようにしても良い。具体的には、セグメント50は、例えば、図15(a)に示すように、y方向に延びた駐車スペース51と、その他の非駐車スペース52を配置している。図15(b)に示すセグメント50には、x方向に延びる駐車スペース51を有している。このようなセグメント50を複数駐車データ記憶部24に記憶し、画像プロセッサ20は、白線認識や他車両認識に基づき、それらのセグメント50を連結させることにより、パターンデータを生成する。そして、詳細なセンシング結果に基づきマップ46を生成する。
・上記実施形態では、複数の駐車スペース25aが配置されたパターンデータ25を記憶するようにしたが、図15に示すように、必要最小限の駐車スペース25aを配置したセグメント50を記憶するようにしても良い。具体的には、セグメント50は、例えば、図15(a)に示すように、y方向に延びた駐車スペース51と、その他の非駐車スペース52を配置している。図15(b)に示すセグメント50には、x方向に延びる駐車スペース51を有している。このようなセグメント50を複数駐車データ記憶部24に記憶し、画像プロセッサ20は、白線認識や他車両認識に基づき、それらのセグメント50を連結させることにより、パターンデータを生成する。そして、詳細なセンシング結果に基づきマップ46を生成する。
・上記実施形態では、パターンデータ25と画像処理結果とをマッチングさせながらマップデータ26を生成した。これ以外に、図16に示すように、パターンデータ25を用いずに、駐車フロアを示す空白のエリア53内に、駐車枠41、他車両指標42、自車位置指標43、入口指標44等を描画するようにしても良い。この場合、自車両Cの走行に伴い、駐車枠41等がエリア53に追加されていく。
・上記実施形態では、作成したマップデータ26を、車々間通信、路車間通信等により、自車両Cから送信し、他の車両に配信するようにしてもよい。また、自車両Cからマップデータ26をサーバにアップロードし、サーバが統計処理したマップデータ26を、他の車両又はディーラ等に設置した端末に送信してもよい。
1…ナビゲーションシステム、2…ナビゲーション装置としての制御装置、3…表示手段としてのディスプレイ、5…撮像装置としてのカメラ、10…位置特定手段及び出入口検出手段としてのCPU、20…駐車領域検出手段、マップ生成手段、出力制御手段、パターン選択手段、出入口検出手段、障害物検出手段及び他車両検出手段としての画像プロセッサ、24…マップ記憶手段及びパターン記憶手段としての駐車場データ記憶部、25…配置パターンとしてのパターンデータ、25a,51…駐車スペース、40a…駐車スペース画像、25b,52…非駐車スペース、40b…非駐車スペース画像、41,41a…駐車領域としての駐車枠、46…駐車場マップとしてのマップ、C…自車両、C1…他車両、G…検出データとしての画像データ、WL…白線。
Claims (10)
- 駐車場のマップを作成する駐車場マップ作成方法であって、
自車両が駐車場内を走行する際に、前記自車両周辺の駐車領域を検出した検出データを収集し、前記検出データに基づき、前記駐車場内のレイアウトを示す駐車場マップを生成することを特徴とする駐車場マップ作成方法。 - 駐車場を案内する駐車場案内方法において、
自車両が駐車場内を走行する際に、前記自車両周辺の駐車領域を検出した検出データを収集し、前記検出データに基づき、前記駐車場内のレイアウトを示す駐車場マップを生成し、その駐車場マップをマップ記憶手段に記憶するとともに、
前記自車両がその駐車場に再度進入した際に、対応する前記駐車場マップを読み出し、その駐車場マップに基づいて前記駐車場を案内することを特徴とする駐車場案内方法。 - 駐車場を案内するナビゲーション装置において、
自車両が駐車場に進入又は退出したことを検出する位置特定手段と、
各駐車領域を認識する駐車領域検出手段と、
前記駐車領域検出手段に基づき、駐車領域の位置を示した駐車場マップを生成するマップ生成手段と、
生成した前記駐車場マップを、前記駐車場の地理的な位置と対応付けて記憶するマップ記憶手段と、
前記駐車場に前記自車両が進入した際に、生成した前記駐車場マップに基づき、その駐車場を案内する画像を表示手段に表示する出力制御手段と
を備えたことを特徴とするナビゲーション装置。 - 請求項3に記載のナビゲーション装置において、
駐車領域の配置パターンを複数記憶したパターン記憶手段と、
前記駐車領域検出手段に基づき、前記配置パターンの中から、前記自車両が進入した前記駐車場に類似した前記配置パターンを選択するパターン選択手段とを備えるとともに、
前記マップ生成手段は、前記駐車場内を走行する過程で、前記駐車領域検出手段に基づき、選択した前記配置パターンを修正することを特徴とするナビゲーション装置。 - 請求項4に記載のナビゲーション装置において、
前記マップ生成手段は、
前記駐車領域検出手段が検出していない領域は、前記配置パターンに基づき、各車両が駐車する前記各駐車領域をブロック化した駐車スペース又は非駐車スペースとした前記駐車場マップを生成することを特徴とするナビゲーション装置。 - 請求項3〜5のいずれか1項に記載のナビゲーション装置において、
前記駐車領域検出手段は、前記自車両に取り付けられた撮像装置から画像データを入力し、前記画像データを画像処理して、駐車枠を示す白線を認識することにより、前記駐車領域を検出することを特徴とするナビゲーション装置。 - 請求項3〜6のいずれか1項に記載のナビゲーション装置において、
前記駐車領域検出手段は、前記駐車場内に駐車された他車両を認識することにより、前記駐車領域を検出することを特徴とするナビゲーション装置。 - 請求項3〜7のいずれか1項に記載のナビゲーション装置において、
他車両を検出する他車両検出手段をさらに設け、
前記出力制御手段は、前記他車両検出手段により検出された他車両の位置に基づき、前
記駐車場マップに他車両の駐車位置を表示することを特徴とするナビゲーション装置。 - 請求項3〜8のいずれか1項に記載のナビゲーション装置において、
前記位置特定手段に基づき、前記駐車場の入口又は出口の位置を判断する出入口検出手段を備えるとともに、
前記出力制御手段は、前記駐車場の入口又は出口の位置を前記駐車場マップの画像に表示することを特徴とするナビゲーション装置。 - 請求項3〜9のいずれか1項に記載のナビゲーション装置において、
前記自車両周辺の障害物を検出する障害物検出手段と、
前記出力制御手段は、障害物が検出された際に、前記駐車場マップにその障害物の位置を表示することを特徴とするナビゲーション装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006146904A JP2007315956A (ja) | 2006-05-26 | 2006-05-26 | 駐車場マップ作成方法、駐車場案内方法及びナビゲーション装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006146904A JP2007315956A (ja) | 2006-05-26 | 2006-05-26 | 駐車場マップ作成方法、駐車場案内方法及びナビゲーション装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007315956A true JP2007315956A (ja) | 2007-12-06 |
Family
ID=38849935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006146904A Abandoned JP2007315956A (ja) | 2006-05-26 | 2006-05-26 | 駐車場マップ作成方法、駐車場案内方法及びナビゲーション装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007315956A (ja) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010025860A (ja) * | 2008-07-23 | 2010-02-04 | Aisin Aw Co Ltd | 駐車場検出装置、駐車場検出方法及びコンピュータプログラム |
JP2010210477A (ja) * | 2009-03-11 | 2010-09-24 | Clarion Co Ltd | ナビゲーション装置 |
JP2014021085A (ja) * | 2012-07-24 | 2014-02-03 | Nissan Motor Co Ltd | 情報配信装置、車載装置、情報配信システム、情報配信方法、および情報送信方法 |
JP2014505249A (ja) * | 2011-01-11 | 2014-02-27 | クゥアルコム・インコーポレイテッド | Pndのためのカメラベースの慣性センサアライメント |
JP2014201255A (ja) * | 2013-04-08 | 2014-10-27 | 株式会社デンソー | 駐車支援装置、及び駐車支援方法 |
KR20160007022A (ko) * | 2014-07-10 | 2016-01-20 | 현대모비스 주식회사 | 어라운드 뷰 시스템 및 그 동작방법 |
JP2016197314A (ja) * | 2015-04-03 | 2016-11-24 | 株式会社日立製作所 | 運転支援システム、運転支援装置及び運転支援方法 |
CN106767854A (zh) * | 2016-11-07 | 2017-05-31 | 纵目科技(上海)股份有限公司 | 移动设备、车库地图形成方法及系统 |
KR20170070480A (ko) * | 2015-12-14 | 2017-06-22 | 현대모비스 주식회사 | 주차장 내 최적 경로 생성방법 및 그 시스템 |
CN107247791A (zh) * | 2017-06-16 | 2017-10-13 | 北京悦畅科技有限公司 | 停车场地图数据生成方法、装置和机器可读存储介质 |
JP2018189457A (ja) * | 2017-05-01 | 2018-11-29 | パイオニア株式会社 | 情報処理装置 |
KR20180128030A (ko) | 2016-04-28 | 2018-11-30 | 닛산 지도우샤 가부시키가이샤 | 주차 지원 방법 및 장치 |
CN109508474A (zh) * | 2018-10-09 | 2019-03-22 | 北京优位智停科技有限公司 | 停车场结构分布图的构建方法 |
KR20190060825A (ko) * | 2016-10-13 | 2019-06-03 | 닛산 지도우샤 가부시키가이샤 | 주차 지원 방법 및 주차 지원 장치 |
KR20200130221A (ko) * | 2015-12-14 | 2020-11-18 | 현대모비스 주식회사 | 주차장 내 최적 경로 생성방법 및 그 시스템 |
JP2020201701A (ja) * | 2019-06-10 | 2020-12-17 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
US10885357B2 (en) | 2017-01-16 | 2021-01-05 | Fujitsu Limited | Recording medium recording information processing program, information processing method, and information processing apparatus |
JPWO2022090758A1 (ja) * | 2020-11-02 | 2022-05-05 | ||
CN118225075A (zh) * | 2024-05-27 | 2024-06-21 | 长城汽车股份有限公司 | 停车场地图生成方法、电子设备及车辆 |
-
2006
- 2006-05-26 JP JP2006146904A patent/JP2007315956A/ja not_active Abandoned
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010025860A (ja) * | 2008-07-23 | 2010-02-04 | Aisin Aw Co Ltd | 駐車場検出装置、駐車場検出方法及びコンピュータプログラム |
JP2010210477A (ja) * | 2009-03-11 | 2010-09-24 | Clarion Co Ltd | ナビゲーション装置 |
JP2014505249A (ja) * | 2011-01-11 | 2014-02-27 | クゥアルコム・インコーポレイテッド | Pndのためのカメラベースの慣性センサアライメント |
US9160980B2 (en) | 2011-01-11 | 2015-10-13 | Qualcomm Incorporated | Camera-based inertial sensor alignment for PND |
JP2014021085A (ja) * | 2012-07-24 | 2014-02-03 | Nissan Motor Co Ltd | 情報配信装置、車載装置、情報配信システム、情報配信方法、および情報送信方法 |
JP2014201255A (ja) * | 2013-04-08 | 2014-10-27 | 株式会社デンソー | 駐車支援装置、及び駐車支援方法 |
KR20160007022A (ko) * | 2014-07-10 | 2016-01-20 | 현대모비스 주식회사 | 어라운드 뷰 시스템 및 그 동작방법 |
KR102268641B1 (ko) * | 2014-07-10 | 2021-06-23 | 현대모비스 주식회사 | 어라운드 뷰 시스템 및 그 동작방법 |
JP2016197314A (ja) * | 2015-04-03 | 2016-11-24 | 株式会社日立製作所 | 運転支援システム、運転支援装置及び運転支援方法 |
KR102395879B1 (ko) * | 2015-12-14 | 2022-05-09 | 현대모비스 주식회사 | 주차장 내 최적 경로 생성방법 및 그 시스템 |
KR20170070480A (ko) * | 2015-12-14 | 2017-06-22 | 현대모비스 주식회사 | 주차장 내 최적 경로 생성방법 및 그 시스템 |
KR102358404B1 (ko) * | 2015-12-14 | 2022-02-07 | 현대모비스 주식회사 | 주차장 내 최적 경로 생성방법 및 그 시스템 |
KR20200130221A (ko) * | 2015-12-14 | 2020-11-18 | 현대모비스 주식회사 | 주차장 내 최적 경로 생성방법 및 그 시스템 |
KR20180128030A (ko) | 2016-04-28 | 2018-11-30 | 닛산 지도우샤 가부시키가이샤 | 주차 지원 방법 및 장치 |
US10733889B2 (en) | 2016-04-28 | 2020-08-04 | Nissan Motor Co., Ltd. | Method and device for parking assistance |
EP3527448A4 (en) * | 2016-10-13 | 2019-11-06 | Nissan Motor Co., Ltd. | ONE PARKING PROCEDURE AND ONE PARKING DEVICE |
CN109843677A (zh) * | 2016-10-13 | 2019-06-04 | 日产自动车株式会社 | 停车辅助方法及停车辅助装置 |
CN109843677B (zh) * | 2016-10-13 | 2020-07-17 | 日产自动车株式会社 | 停车辅助方法及停车辅助装置 |
KR20190060825A (ko) * | 2016-10-13 | 2019-06-03 | 닛산 지도우샤 가부시키가이샤 | 주차 지원 방법 및 주차 지원 장치 |
KR102154510B1 (ko) * | 2016-10-13 | 2020-09-10 | 닛산 지도우샤 가부시키가이샤 | 주차 지원 방법 및 주차 지원 장치 |
US11273821B2 (en) | 2016-10-13 | 2022-03-15 | Nissan Motor Co., Ltd. | Parking assistance method and parking assistance device |
CN106767854A (zh) * | 2016-11-07 | 2017-05-31 | 纵目科技(上海)股份有限公司 | 移动设备、车库地图形成方法及系统 |
US10885357B2 (en) | 2017-01-16 | 2021-01-05 | Fujitsu Limited | Recording medium recording information processing program, information processing method, and information processing apparatus |
JP2018189457A (ja) * | 2017-05-01 | 2018-11-29 | パイオニア株式会社 | 情報処理装置 |
CN107247791A (zh) * | 2017-06-16 | 2017-10-13 | 北京悦畅科技有限公司 | 停车场地图数据生成方法、装置和机器可读存储介质 |
CN109508474A (zh) * | 2018-10-09 | 2019-03-22 | 北京优位智停科技有限公司 | 停车场结构分布图的构建方法 |
JP2020201701A (ja) * | 2019-06-10 | 2020-12-17 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
JP7110153B2 (ja) | 2019-06-10 | 2022-08-01 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
JPWO2022090758A1 (ja) * | 2020-11-02 | 2022-05-05 | ||
WO2022090758A1 (ja) * | 2020-11-02 | 2022-05-05 | 日産自動車株式会社 | 駐車支援方法及び駐車支援装置 |
JP7405277B2 (ja) | 2020-11-02 | 2023-12-26 | 日産自動車株式会社 | 駐車支援方法及び駐車支援装置 |
US11884265B1 (en) | 2020-11-02 | 2024-01-30 | Nissan Motor Co., Ltd. | Parking assistance method and parking assistance device |
CN118225075A (zh) * | 2024-05-27 | 2024-06-21 | 长城汽车股份有限公司 | 停车场地图生成方法、电子设备及车辆 |
CN118225075B (zh) * | 2024-05-27 | 2024-09-06 | 长城汽车股份有限公司 | 停车场地图生成方法、电子设备及车辆 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007315956A (ja) | 駐車場マップ作成方法、駐車場案内方法及びナビゲーション装置 | |
CN108140319B (zh) | 停车辅助方法及停车辅助装置 | |
JP6658905B2 (ja) | 走行支援装置及びコンピュータプログラム | |
JP6926976B2 (ja) | 駐車支援装置及びコンピュータプログラム | |
US11511627B2 (en) | Display device and computer program | |
JP7122968B2 (ja) | 駐車支援方法及び駐車支援装置 | |
US8103442B2 (en) | Navigation device and its method | |
US7363130B2 (en) | Parking assist systems, methods, and programs | |
RU2734643C1 (ru) | Способ помощи при парковке для устройства помощи при парковке и устройство помощи при парковке | |
US8094192B2 (en) | Driving support method and driving support apparatus | |
JP4613881B2 (ja) | 駐車案内装置 | |
CN111674389B (zh) | 停车支援装置及停车支援方法 | |
JP4904997B2 (ja) | 駐車支援方法及び駐車支援装置 | |
JP2007094045A (ja) | ナビゲーション装置、ナビゲート方法および車両 | |
JP5459137B2 (ja) | 交差点案内システム | |
JP2006327433A (ja) | 駐車支援方法及び駐車支援装置 | |
CN103140377A (zh) | 用于在显示装置上显示图像的方法和驾驶员辅助系统 | |
CN112313137B (zh) | 行驶信息处理装置和处理方法 | |
JP4787196B2 (ja) | 車載用ナビゲーション装置 | |
JP2009117971A (ja) | 車両周辺監視装置 | |
JP2009211624A (ja) | 運転支援装置、運転支援方法及びコンピュータプログラム | |
JP2018173860A (ja) | 走行支援装置及びコンピュータプログラム | |
JP2023066699A (ja) | 重畳画像表示装置 | |
JP2013018406A (ja) | 駐車枠の認識装置、駐車枠の認識方法、及び、プログラム | |
CN112092809A (zh) | 一种辅助倒车方法、装置、系统及车辆 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080313 |
|
A762 | Written abandonment of application |
Effective date: 20090626 Free format text: JAPANESE INTERMEDIATE CODE: A762 |