JPH1165431A - 景観ラベル付カーナビゲーション装置およびシステム - Google Patents
景観ラベル付カーナビゲーション装置およびシステムInfo
- Publication number
- JPH1165431A JPH1165431A JP9228540A JP22854097A JPH1165431A JP H1165431 A JPH1165431 A JP H1165431A JP 9228540 A JP9228540 A JP 9228540A JP 22854097 A JP22854097 A JP 22854097A JP H1165431 A JPH1165431 A JP H1165431A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- camera
- label
- label information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
(57)【要約】
【課題】 コンピュータ上の地理的情報と実風景の景観
画像中の各部分とを対応付けて利用者に提示する。 【解決手段】 景観画像を画像取得部1で取得し、画像
取得時の位置を位置情報取得部2で取得し、カメラ角と
焦点距離と景観画像サイズをカメラ属性情報取得部3で
取得する。地図情報管理部5で、取得した位置とカメラ
角と焦点距離と画像サイズを基に地図情報空間の中で視
野空間を求め、視野空間中に存在する構造物を取得す
る。ラベル情報作成手段6Aで構造物の名称またはその
属性情報およびその付与位置を含むラベル情報を作成
し、ラベル情報出力手段7Aで、ラベル情報中の位置の
情報に対応する画像中に地図情報の名称またはその属性
情報を重畳し、重畳された画像を自動車のフロントガラ
スに投影する。
画像中の各部分とを対応付けて利用者に提示する。 【解決手段】 景観画像を画像取得部1で取得し、画像
取得時の位置を位置情報取得部2で取得し、カメラ角と
焦点距離と景観画像サイズをカメラ属性情報取得部3で
取得する。地図情報管理部5で、取得した位置とカメラ
角と焦点距離と画像サイズを基に地図情報空間の中で視
野空間を求め、視野空間中に存在する構造物を取得す
る。ラベル情報作成手段6Aで構造物の名称またはその
属性情報およびその付与位置を含むラベル情報を作成
し、ラベル情報出力手段7Aで、ラベル情報中の位置の
情報に対応する画像中に地図情報の名称またはその属性
情報を重畳し、重畳された画像を自動車のフロントガラ
スに投影する。
Description
【0001】
【発明の属する技術分野】本発明は、カメラ等の景観画
像入力機器を用いて利用者が撮影した画像に対してその
画像中の各部分領域に関する地理的な情報を画像表示装
置に重畳表示したり音声案内等して利用者に教示する装
置に関する。
像入力機器を用いて利用者が撮影した画像に対してその
画像中の各部分領域に関する地理的な情報を画像表示装
置に重畳表示したり音声案内等して利用者に教示する装
置に関する。
【0002】
【従来の技術】従来、利用者がいる周辺に関する地理的
情報を利用者に教示するシステムとして種々のナビゲー
ションシステムがあった。
情報を利用者に教示するシステムとして種々のナビゲー
ションシステムがあった。
【0003】図15は特開平8−273000号に開示
されたナビゲーション装置の構成図である。この装置
は、車両の位置データと動きデータを入力すると、道路
地図データを参照して車両の位置を更新する位置更新部
71と、地図データ等に基づいて表示用道路データおよ
び表示用背景データを発生させる表示用データ発生部7
2と、これらの表示用データに基づいて3次元動画像デ
ータを作成する3次元動画像データ作成部73と、記憶
部74を有し、ナビゲーション装置のユーザが目的地、
経由地を含む走行経路を事前に設定する場合に、地図画
面でなく実際に存在する道路に沿ったリアルな動画像表
示画面を見ながら経路を設定できる機能を有する。
されたナビゲーション装置の構成図である。この装置
は、車両の位置データと動きデータを入力すると、道路
地図データを参照して車両の位置を更新する位置更新部
71と、地図データ等に基づいて表示用道路データおよ
び表示用背景データを発生させる表示用データ発生部7
2と、これらの表示用データに基づいて3次元動画像デ
ータを作成する3次元動画像データ作成部73と、記憶
部74を有し、ナビゲーション装置のユーザが目的地、
経由地を含む走行経路を事前に設定する場合に、地図画
面でなく実際に存在する道路に沿ったリアルな動画像表
示画面を見ながら経路を設定できる機能を有する。
【0004】この装置によれば、ユーザは実際に在る経
路に沿って走行するときに、その経路に沿った動画像表
示(例えば、図16)を見ることができる。
路に沿って走行するときに、その経路に沿った動画像表
示(例えば、図16)を見ることができる。
【0005】
【発明が解決しようとする課題】しかしながら、同装置
を用いる場合、最終的には人間が現実の風景とコンピュ
ータの世界での地理的情報とを肉眼で対応付けることに
よって、現実の風景の中のものが何であるかを認識しな
ければならない。つまり、利用者の眼前にある実際の建
物や道路や山が何であるかを、動画像表示された地図中
の記号等を基にして人間が肉眼を頼りにして人間の脳を
無意識に働かせて対応付けの作業を行って理解しなけれ
ばならない。街角等では、コンピュータでの地図と実際
の景観を見比べては方角を把握したり目印を見つけたり
してその方向を注視し、その方向にある建物の特徴を理
解した上で再度地図を見てその建物が何であるかを理解
している。
を用いる場合、最終的には人間が現実の風景とコンピュ
ータの世界での地理的情報とを肉眼で対応付けることに
よって、現実の風景の中のものが何であるかを認識しな
ければならない。つまり、利用者の眼前にある実際の建
物や道路や山が何であるかを、動画像表示された地図中
の記号等を基にして人間が肉眼を頼りにして人間の脳を
無意識に働かせて対応付けの作業を行って理解しなけれ
ばならない。街角等では、コンピュータでの地図と実際
の景観を見比べては方角を把握したり目印を見つけたり
してその方向を注視し、その方向にある建物の特徴を理
解した上で再度地図を見てその建物が何であるかを理解
している。
【0006】このため、何度もコンピュータ上の地図と
実風景を見比べて人間の方で対応付けする手間は省略で
きないという問題点がある。特に薄暗がりや夜間等は実
風景が見にくくて対応を取りにくい。
実風景を見比べて人間の方で対応付けする手間は省略で
きないという問題点がある。特に薄暗がりや夜間等は実
風景が見にくくて対応を取りにくい。
【0007】本発明の目的は、コンピュータ上の地理的
情報と実風景の画像(以下、景観画像と呼ぶ。)中の各
部分とを対応付けて利用者に教示する景観ラベル付カー
ナビゲーション装置およびシステムを提供することであ
る。
情報と実風景の画像(以下、景観画像と呼ぶ。)中の各
部分とを対応付けて利用者に教示する景観ラベル付カー
ナビゲーション装置およびシステムを提供することであ
る。
【0008】
【課題を解決するための手段】本発明は、コンピュータ
上の地図データを3次元データとして予め作成してお
き、画像(CG画像と区別するため以降景観画像と呼
ぶ)が入力されるときのカメラ位置とカメラの角度と焦
点距離と画像サイズを撮影時に取得し、コンピュータ上
の3次元地図空間内で実風景撮影時の位置とカメラの角
度と焦点距離から眺望した場合のコンピュータグラフィ
ックス(以下、CGとする。)画像内での地理的情報を
取得し、その地理的情報を、実風景である景観画像に重
畳表示することで対応付けを実現するものである。この
地理的情報とは画像での、構造物等の名称またはその属
性情報であり、属性情報とはその構造物に関するあらゆ
る属性(例えば輪郭、色等)についての情報を意味す
る。この明細書の中では構造物という言葉を人工の構造
物以外に、山や川や海等の天然の地形も含めて地図DB
での何らかの地理的構造を有するデータ全ての意味で用
いることとする。地理的情報の取得にあたっては、カメ
ラ位置、カメラ角、焦点距離、画像サイズをもとに景観
画像を求め、複数画像の構造物を求める。その構造物が
写っているはずの景観画像の位置(以下、付与位置と称
す)を求めて、構造物の名称または属性情報を重畳表示
する。
上の地図データを3次元データとして予め作成してお
き、画像(CG画像と区別するため以降景観画像と呼
ぶ)が入力されるときのカメラ位置とカメラの角度と焦
点距離と画像サイズを撮影時に取得し、コンピュータ上
の3次元地図空間内で実風景撮影時の位置とカメラの角
度と焦点距離から眺望した場合のコンピュータグラフィ
ックス(以下、CGとする。)画像内での地理的情報を
取得し、その地理的情報を、実風景である景観画像に重
畳表示することで対応付けを実現するものである。この
地理的情報とは画像での、構造物等の名称またはその属
性情報であり、属性情報とはその構造物に関するあらゆ
る属性(例えば輪郭、色等)についての情報を意味す
る。この明細書の中では構造物という言葉を人工の構造
物以外に、山や川や海等の天然の地形も含めて地図DB
での何らかの地理的構造を有するデータ全ての意味で用
いることとする。地理的情報の取得にあたっては、カメ
ラ位置、カメラ角、焦点距離、画像サイズをもとに景観
画像を求め、複数画像の構造物を求める。その構造物が
写っているはずの景観画像の位置(以下、付与位置と称
す)を求めて、構造物の名称または属性情報を重畳表示
する。
【0009】さらに、景観画像での構造物とCG画像で
の構造物との対応付けの精度をさらに上げるためには、
景観画像の各部分領域に対して先に獲得した構造物をパ
ターンマッチングにより対応付ける。獲得した構造物を
基にしてCG画像を作成し、景観画像の前記部分領域に
対してパターンマッチングによりCG画像中の部分領域
を対応付け、対応付けられた部分領域のもととなった構
造物を求める。
の構造物との対応付けの精度をさらに上げるためには、
景観画像の各部分領域に対して先に獲得した構造物をパ
ターンマッチングにより対応付ける。獲得した構造物を
基にしてCG画像を作成し、景観画像の前記部分領域に
対してパターンマッチングによりCG画像中の部分領域
を対応付け、対応付けられた部分領域のもととなった構
造物を求める。
【0010】ここで、CG画像の作成法の一例について
述べる。先に取得したカメラ位置とカメラ角度と焦点距
離と画像サイズを基に3次元地図DBにアクセスして、
3次元地図空間内での視野空間を求める。視野空間中の
構造物を求め、カメラ画面を投影面として、各構造物の
立体データをこの投影面に3次元投影変換する。さらに
各構造物の投影図形を構成する線データのうち、他の構
造物に隠れて見えない線データを法線ベクトル法等の手
法を用いて隠線消去する。隠線消去して残った線データ
を基にして、CG画像を領域分割する。3次元地図DB
を利用しているため、各領域毎にその領域のもととなる
構造物の名称を対応付けできる。
述べる。先に取得したカメラ位置とカメラ角度と焦点距
離と画像サイズを基に3次元地図DBにアクセスして、
3次元地図空間内での視野空間を求める。視野空間中の
構造物を求め、カメラ画面を投影面として、各構造物の
立体データをこの投影面に3次元投影変換する。さらに
各構造物の投影図形を構成する線データのうち、他の構
造物に隠れて見えない線データを法線ベクトル法等の手
法を用いて隠線消去する。隠線消去して残った線データ
を基にして、CG画像を領域分割する。3次元地図DB
を利用しているため、各領域毎にその領域のもととなる
構造物の名称を対応付けできる。
【0011】そうして、パターンマッチングにより景観
画像の各部分領域に対応付けられたCG画像の部分領域
の構造物名称を抽出する。抽出した構造物名称を重畳す
べき実風景画像の位置座標を、3次元地図空間中での構
造物の位置座標を先の投影面に3次元投影変換して求め
る。抽出した構造物名称を重畳すべき実風景画像の位置
座標からラベル情報を作成する。ラベル情報を基に実風
景である景観画像に構造物名称を重畳して、自動車のフ
ロントガラスに投影する。
画像の各部分領域に対応付けられたCG画像の部分領域
の構造物名称を抽出する。抽出した構造物名称を重畳す
べき実風景画像の位置座標を、3次元地図空間中での構
造物の位置座標を先の投影面に3次元投影変換して求め
る。抽出した構造物名称を重畳すべき実風景画像の位置
座標からラベル情報を作成する。ラベル情報を基に実風
景である景観画像に構造物名称を重畳して、自動車のフ
ロントガラスに投影する。
【0012】本発明の景観ラベル付カーナビゲーション
装置は、画像を取得する画像取得手段と、画像取得時の
カメラ位置を取得する位置情報取得手段と、画像を取得
したときのカメラ角と焦点距離と画像サイズを取得する
カメラ属性情報取得手段と、地図情報を管理し、取得し
たカメラ位置とカメラ角と焦点距離と画像サイズを基に
地図情報空間の中で視野空間を求め、その視野空間中に
存在する構造物を獲得する地図情報管理手段と、構造物
の名称またはその属性情報および付与位置を含むラベル
情報を作成するラベル情報作成手段と、取得したラベル
情報中の付与位置の情報に対応する画像中の位置に地図
情報の名称またはその属性情報を重畳し、重畳された画
像を自動車のフロントガラスに投影するラベル情報出力
手段と、上記各手段を制御する制御手段を有する。
装置は、画像を取得する画像取得手段と、画像取得時の
カメラ位置を取得する位置情報取得手段と、画像を取得
したときのカメラ角と焦点距離と画像サイズを取得する
カメラ属性情報取得手段と、地図情報を管理し、取得し
たカメラ位置とカメラ角と焦点距離と画像サイズを基に
地図情報空間の中で視野空間を求め、その視野空間中に
存在する構造物を獲得する地図情報管理手段と、構造物
の名称またはその属性情報および付与位置を含むラベル
情報を作成するラベル情報作成手段と、取得したラベル
情報中の付与位置の情報に対応する画像中の位置に地図
情報の名称またはその属性情報を重畳し、重畳された画
像を自動車のフロントガラスに投影するラベル情報出力
手段と、上記各手段を制御する制御手段を有する。
【0013】本発明の他の景観ラベル付カーナビゲーシ
ョン装置は、画像を取得する画像取得手段と、画像取得
時のカメラ位置を取得する位置情報取得手段と、画像取
得時のカメラ角と焦点距離と画像サイズを取得するカメ
ラ属性情報取得手段と、取得した画像を複数の部分領域
に分割する画像処理手段と、地図情報を管理し、取得し
たカメラ位置とカメラ角と焦点距離と画像サイズを基に
地図情報空間のなかで視野空間を求め、その視野空間中
に存在する構造物を獲得する地図情報管理手段と、前記
画像の前記部分領域に対して前記獲得した構造物を対応
付け、対応付けられた前記構造物の名称またはその属性
情報および付与位置を含むラベル情報を作成するラベル
情報作成手段と、前記ラベル情報中の構造物の名称また
はその属性情報を画像中の付与位置に対応する位置に重
畳し、重畳された画像を自動車のフロントガラスに投影
するラベル情報出力手段と、前記各手段を制御する制御
手段を有する。
ョン装置は、画像を取得する画像取得手段と、画像取得
時のカメラ位置を取得する位置情報取得手段と、画像取
得時のカメラ角と焦点距離と画像サイズを取得するカメ
ラ属性情報取得手段と、取得した画像を複数の部分領域
に分割する画像処理手段と、地図情報を管理し、取得し
たカメラ位置とカメラ角と焦点距離と画像サイズを基に
地図情報空間のなかで視野空間を求め、その視野空間中
に存在する構造物を獲得する地図情報管理手段と、前記
画像の前記部分領域に対して前記獲得した構造物を対応
付け、対応付けられた前記構造物の名称またはその属性
情報および付与位置を含むラベル情報を作成するラベル
情報作成手段と、前記ラベル情報中の構造物の名称また
はその属性情報を画像中の付与位置に対応する位置に重
畳し、重畳された画像を自動車のフロントガラスに投影
するラベル情報出力手段と、前記各手段を制御する制御
手段を有する。
【0014】本発明の実施態様によれば、ラベル情報作
成手段は、獲得した構造物を基にしてCG画像を作成
し、前記画像の前記部分領域に対してパターンマッチン
グにより前記CG画像中の部分領域に対応付け、対応付
けられた部分領域の構造物を求め、その構造物の名称ま
たは属性情報および付与位置を含むラベル情報を作成す
る。
成手段は、獲得した構造物を基にしてCG画像を作成
し、前記画像の前記部分領域に対してパターンマッチン
グにより前記CG画像中の部分領域に対応付け、対応付
けられた部分領域の構造物を求め、その構造物の名称ま
たは属性情報および付与位置を含むラベル情報を作成す
る。
【0015】本発明の実施態様によれば、ラベル情報作
成手段は、獲得した構造物をカメラ画面に3次元投影変
換し、視点から見えない構造物を消去してCG画像を作
成し、CG画像中の部分領域の輪郭線によってCG画像
を部分領域に分割し、前記画像の前記部分領域と前記C
G画像の前記部分領域とをパターンマッチングにより対
応付け、画像の部分領域に対して対応付けCG画像の部
分領域の基となった構造物を求め、その構造物の名称ま
たは属性情報および付与位置を含むラベル情報を作成す
る。
成手段は、獲得した構造物をカメラ画面に3次元投影変
換し、視点から見えない構造物を消去してCG画像を作
成し、CG画像中の部分領域の輪郭線によってCG画像
を部分領域に分割し、前記画像の前記部分領域と前記C
G画像の前記部分領域とをパターンマッチングにより対
応付け、画像の部分領域に対して対応付けCG画像の部
分領域の基となった構造物を求め、その構造物の名称ま
たは属性情報および付与位置を含むラベル情報を作成す
る。
【0016】本発明の景観ラベリングシステムは、景観
ラベル付カーナビゲーション端末と景観ラベリングセン
ターからなり、景観ラベル付カーナビゲーション端末
は、画像を取得する画像取得手段と、画像取得時のカメ
ラ位置を取得する位置情報取得手段と、画像取得時のカ
メラ角と焦点距離と画像サイズを取得するカメラ属性情
報取得手段と、取得した画像を複数の部分領域に分割す
る画像処理手段と、前記画像の領域分割に関する情報と
前記カメラ位置と前記カメラ角と前記焦点距離と前記画
像サイズとを通信網を介して前記景観ラベリングセンタ
ーに送信し、景観ラベリングセンターからラベル情報を
受信する通信制御手段と、ラベル情報中の構造物の名称
または属性情報を付与位置に対応する画像中に対応する
位置に重畳し、重畳された画像を自動車のフロントガラ
スに投影するラベル情報出力手段と、上記各手段を制御
する端末制御手段を有し、景観ラベリングセンターは、
前記通信網を介して前記景観ラベル付カーナビゲーショ
ン端末から前記画像の領域分割に関する情報と前記カメ
ラ位置と前記カメラ角と前記焦点距離と前記画像サイズ
とを受信し、前記景観ラベル付カーナビゲーション端末
に前記ラベル情報を送信する通信制御手段と、地図情報
を管理し、受信したカメラ位置とカメラ角と焦点距離と
画像サイズを基に地図情報空間の中で視野空間を求め、
その視野空間中に存在する構造物を獲得する地図情報管
理手段と、前記画像の前記部分領域に対して前記獲得し
た構造物を対応付け、対応付けられた前記構造物の名称
または属性情報および付与位置を含む前記ラベル情報を
作成するラベル情報作成手段と、上記各手段を制御する
センター制御手段を有する。
ラベル付カーナビゲーション端末と景観ラベリングセン
ターからなり、景観ラベル付カーナビゲーション端末
は、画像を取得する画像取得手段と、画像取得時のカメ
ラ位置を取得する位置情報取得手段と、画像取得時のカ
メラ角と焦点距離と画像サイズを取得するカメラ属性情
報取得手段と、取得した画像を複数の部分領域に分割す
る画像処理手段と、前記画像の領域分割に関する情報と
前記カメラ位置と前記カメラ角と前記焦点距離と前記画
像サイズとを通信網を介して前記景観ラベリングセンタ
ーに送信し、景観ラベリングセンターからラベル情報を
受信する通信制御手段と、ラベル情報中の構造物の名称
または属性情報を付与位置に対応する画像中に対応する
位置に重畳し、重畳された画像を自動車のフロントガラ
スに投影するラベル情報出力手段と、上記各手段を制御
する端末制御手段を有し、景観ラベリングセンターは、
前記通信網を介して前記景観ラベル付カーナビゲーショ
ン端末から前記画像の領域分割に関する情報と前記カメ
ラ位置と前記カメラ角と前記焦点距離と前記画像サイズ
とを受信し、前記景観ラベル付カーナビゲーション端末
に前記ラベル情報を送信する通信制御手段と、地図情報
を管理し、受信したカメラ位置とカメラ角と焦点距離と
画像サイズを基に地図情報空間の中で視野空間を求め、
その視野空間中に存在する構造物を獲得する地図情報管
理手段と、前記画像の前記部分領域に対して前記獲得し
た構造物を対応付け、対応付けられた前記構造物の名称
または属性情報および付与位置を含む前記ラベル情報を
作成するラベル情報作成手段と、上記各手段を制御する
センター制御手段を有する。
【0017】
【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
て図面を参照して説明する。
【0018】図1は本発明の第1の実施の景観ラベル付
カーナビゲーション装置の構成図である。
カーナビゲーション装置の構成図である。
【0019】本実施形態の景観ラベル付カーナビゲーシ
ョン装置は、画像を取得する、例えばディジタルカメラ
である画像取得部1と、画像を取得する際のカメラ位置
を取得する、例えばGPS受信機である位置情報取得部
2と、画像を取得する際にカメラ角と焦点距離と画像サ
イズを取得する、例えばディジタルカメラに取り付けら
れた3次元電子コンパスであるカメラ属性情報取得部3
と、地図情報を管理し、取得したカメラ位置とカメラ角
と焦点距離と画像サイズを基に地図情報空間の中で視野
空間を求め、その視野空間中に存在する構造物を獲得す
る、例えば地図DB管理プログラムである地図情報管理
部5と、構造物の名称また輪郭および位置を含むラベル
情報を作成するラベル情報作成部6Aと、取得したラベ
ル情報中の位置の情報に対応する画像中の位置に地図情
報の名称また輪郭を重畳し、重畳された画像を自動車の
フロントガラス(不図示)に出力するラベル情報出力部
7Aと、各部1〜7Aを制御する制御部8Aで構成され
ている。
ョン装置は、画像を取得する、例えばディジタルカメラ
である画像取得部1と、画像を取得する際のカメラ位置
を取得する、例えばGPS受信機である位置情報取得部
2と、画像を取得する際にカメラ角と焦点距離と画像サ
イズを取得する、例えばディジタルカメラに取り付けら
れた3次元電子コンパスであるカメラ属性情報取得部3
と、地図情報を管理し、取得したカメラ位置とカメラ角
と焦点距離と画像サイズを基に地図情報空間の中で視野
空間を求め、その視野空間中に存在する構造物を獲得す
る、例えば地図DB管理プログラムである地図情報管理
部5と、構造物の名称また輪郭および位置を含むラベル
情報を作成するラベル情報作成部6Aと、取得したラベ
ル情報中の位置の情報に対応する画像中の位置に地図情
報の名称また輪郭を重畳し、重畳された画像を自動車の
フロントガラス(不図示)に出力するラベル情報出力部
7Aと、各部1〜7Aを制御する制御部8Aで構成され
ている。
【0020】図2は本発明の第2の実施形態の景観ラベ
ル付カーナビゲーション装置の構成図、図4は図2の景
観ラベル付カーナビゲーション装置の処理の流れ図であ
る。
ル付カーナビゲーション装置の構成図、図4は図2の景
観ラベル付カーナビゲーション装置の処理の流れ図であ
る。
【0021】本実施形態の景観ラベリング装置は、景観
画像を取得する、例えばディジタルカメラである画像取
得部1と、画像を取得する際のカメラ位置を取得する、
例えばGPS受信機である位置情報取得部2と、同じく
画像を取得する際にカメラ角と焦点距離と画像サイズを
取得する、例えばディジタルカメラに取り付けられた3
次元電子コンパスであるカメラ属性情報取得部3と、取
得した画像を複数の部分領域に分割する画像処理部4
と、地図情報を管理し、取得したカメラ位置とカメラ角
と焦点距離と画像サイズを基に地図情報空間の中で視野
空間を求め、その視野空間中に存在する構造物を獲得す
る地図情報管理部5と、画像の前記部分領域に対して獲
得した構造物をパターンマッチングにより対応付け、対
応付けられた構造物の名称または属性情報および付与位
置を含むラベル情報を作成する情報作成部6Bと、作成
されたラベル情報中の構造物の名称または属性情報を画
像中の付与位置に対応する位置に重畳するラベル情報出
力部7Bと、重畳された画像を自動車のフロントガラス
に投影するラベル情報出力部7Bと、上記各部1〜7B
を制御する制御部8Bで構成されている。
画像を取得する、例えばディジタルカメラである画像取
得部1と、画像を取得する際のカメラ位置を取得する、
例えばGPS受信機である位置情報取得部2と、同じく
画像を取得する際にカメラ角と焦点距離と画像サイズを
取得する、例えばディジタルカメラに取り付けられた3
次元電子コンパスであるカメラ属性情報取得部3と、取
得した画像を複数の部分領域に分割する画像処理部4
と、地図情報を管理し、取得したカメラ位置とカメラ角
と焦点距離と画像サイズを基に地図情報空間の中で視野
空間を求め、その視野空間中に存在する構造物を獲得す
る地図情報管理部5と、画像の前記部分領域に対して獲
得した構造物をパターンマッチングにより対応付け、対
応付けられた構造物の名称または属性情報および付与位
置を含むラベル情報を作成する情報作成部6Bと、作成
されたラベル情報中の構造物の名称または属性情報を画
像中の付与位置に対応する位置に重畳するラベル情報出
力部7Bと、重畳された画像を自動車のフロントガラス
に投影するラベル情報出力部7Bと、上記各部1〜7B
を制御する制御部8Bで構成されている。
【0022】図3は特開平8−83397に開示された
自動車のフロントガラスを用いたヘッドアップディスプ
レイ装置の概略図である。HUDプロジェクタ11は、
インストルメントパネル12内にLCDからなる表示体
13を前方へ向けて配置し、この表示体13の後側にバ
ックライト光源14を設けてある。表示体13の前方と
インストルメントパネル12の開口部にはそれぞれ凹面
鏡15とレンズ16を配置してあり、表示体13から出
射されたHUD表示光Lは、ウインドシールド17に設
けたコンバイナ18で反射して運転者の眼球19に入射
するようになっている。これにより、車両の前景Wに対
しHUD表示像(虚像)Zが表示される。次に、本実施
形態の動作を詳細に説明する。
自動車のフロントガラスを用いたヘッドアップディスプ
レイ装置の概略図である。HUDプロジェクタ11は、
インストルメントパネル12内にLCDからなる表示体
13を前方へ向けて配置し、この表示体13の後側にバ
ックライト光源14を設けてある。表示体13の前方と
インストルメントパネル12の開口部にはそれぞれ凹面
鏡15とレンズ16を配置してあり、表示体13から出
射されたHUD表示光Lは、ウインドシールド17に設
けたコンバイナ18で反射して運転者の眼球19に入射
するようになっている。これにより、車両の前景Wに対
しHUD表示像(虚像)Zが表示される。次に、本実施
形態の動作を詳細に説明する。
【0023】景観ラベル付カーナビゲーション装置が起
動されると、まず制御部8Bが景観画像に関する情報を
取得するために、位置情報取得部2、カメラ属性情報取
得部3、画像取得部1に対して処理開始コマンドを送
る。位置情報取得部2は、制御部8Bから命令を受けて
GPS受信機等により位置情報を毎秒収集し、制御部8
Bに渡す(ステップ21)。ここで、時間間隔は秒単位
に限らずどのようにとってもよい。カメラ属性情報取得
部3は、制御部8Bの命令を受けて画像撮影時のカメラ
等景観画像記録装置のカメラ角を水平角と仰角の組で取
得し(ステップ22)、同時にズーム機能を有する景観
画像装置であれば焦点距離を取得する(ステップ2
3)。画像取得部1は、制御部8Bから命令を受けて毎
秒の景観画像を取得し、制御部8Bに渡す(ステップ2
4)。画像サイズは景観画像装置毎に固定なので、制御
部8Bが画像サイズ情報を保持しておく。制御部8Bは
収集した情報を景観画像ファイルとして保持する。
動されると、まず制御部8Bが景観画像に関する情報を
取得するために、位置情報取得部2、カメラ属性情報取
得部3、画像取得部1に対して処理開始コマンドを送
る。位置情報取得部2は、制御部8Bから命令を受けて
GPS受信機等により位置情報を毎秒収集し、制御部8
Bに渡す(ステップ21)。ここで、時間間隔は秒単位
に限らずどのようにとってもよい。カメラ属性情報取得
部3は、制御部8Bの命令を受けて画像撮影時のカメラ
等景観画像記録装置のカメラ角を水平角と仰角の組で取
得し(ステップ22)、同時にズーム機能を有する景観
画像装置であれば焦点距離を取得する(ステップ2
3)。画像取得部1は、制御部8Bから命令を受けて毎
秒の景観画像を取得し、制御部8Bに渡す(ステップ2
4)。画像サイズは景観画像装置毎に固定なので、制御
部8Bが画像サイズ情報を保持しておく。制御部8Bは
収集した情報を景観画像ファイルとして保持する。
【0024】図5は、景観画像ファイルのデータ構造の
ファイル形式を示す。景観画像ファイルはヘッダ情報と
画像データを持つ。ヘッダ情報としては、位置情報、カ
メラ角情報、焦点距離、時刻情報、画像ファイルの画像
サイズ、タイプおよびサイズを持つ。位置情報として、
東経、北緯、標高の各データ(例えば、東経137度5
5分10秒、北緯34度34分30秒、標高101m3
3cm等)を有する。カメラ角として、水平角と仰角の
各データ(例えば、水平角右回り254度、仰角15度
等)を有する。焦点距離データは、画像撮影時のカメラ
レンズの焦点距離(例えば28mm等)である。時刻情
報として、撮影時の時刻(例えば、日本時間1997年
1月31日15時6分17秒等)を持つ。画像ファイル
の画像サイズとして、縦横の画素サイズ(例えば、64
0×480等)を持つ。同じくファイルタイプ(TIF
E形式、8ビットカラー等)を持つ。同じくファイルの
バイト数(307.2KB等)を持つ。画像データその
ものを例えばバイナリー形式で持つ。
ファイル形式を示す。景観画像ファイルはヘッダ情報と
画像データを持つ。ヘッダ情報としては、位置情報、カ
メラ角情報、焦点距離、時刻情報、画像ファイルの画像
サイズ、タイプおよびサイズを持つ。位置情報として、
東経、北緯、標高の各データ(例えば、東経137度5
5分10秒、北緯34度34分30秒、標高101m3
3cm等)を有する。カメラ角として、水平角と仰角の
各データ(例えば、水平角右回り254度、仰角15度
等)を有する。焦点距離データは、画像撮影時のカメラ
レンズの焦点距離(例えば28mm等)である。時刻情
報として、撮影時の時刻(例えば、日本時間1997年
1月31日15時6分17秒等)を持つ。画像ファイル
の画像サイズとして、縦横の画素サイズ(例えば、64
0×480等)を持つ。同じくファイルタイプ(TIF
E形式、8ビットカラー等)を持つ。同じくファイルの
バイト数(307.2KB等)を持つ。画像データその
ものを例えばバイナリー形式で持つ。
【0025】制御部8Bは景観画像ファイルを格納する
と、画像処理部4に対して、景観画像から輪郭線を抽出
し、景観画像を複数の領域に分割するように命令する。
画像処理部4では、大まかに言えば景観画像内の濃度差
を基に微分処理を行って輪郭線を抽出し(ステップ2
5)、その輪郭線を境界としたラベリングを行うことに
よって領域分割する(ステップ26)。なお、ここで用
いたラベリングと言う技術用語は画像の領域分割におい
て用いられる技術用語である。手順としてはまず、画像
を白黒濃淡画像に変換する。輪郭は明るさの急変する部
分であるから、微分処理を行って微分値がしきい値より
大きい部分を求めることで輪郭線の抽出を行う。このと
き輪郭線の線幅は1画素であり、輪郭線は連結している
ようにする。そのために細線化処理を行って、線幅1画
素の連結した線を得る。ここで微分処理、細線化処理は
従来からある手法を用いれば十分である。
と、画像処理部4に対して、景観画像から輪郭線を抽出
し、景観画像を複数の領域に分割するように命令する。
画像処理部4では、大まかに言えば景観画像内の濃度差
を基に微分処理を行って輪郭線を抽出し(ステップ2
5)、その輪郭線を境界としたラベリングを行うことに
よって領域分割する(ステップ26)。なお、ここで用
いたラベリングと言う技術用語は画像の領域分割におい
て用いられる技術用語である。手順としてはまず、画像
を白黒濃淡画像に変換する。輪郭は明るさの急変する部
分であるから、微分処理を行って微分値がしきい値より
大きい部分を求めることで輪郭線の抽出を行う。このと
き輪郭線の線幅は1画素であり、輪郭線は連結している
ようにする。そのために細線化処理を行って、線幅1画
素の連結した線を得る。ここで微分処理、細線化処理は
従来からある手法を用いれば十分である。
【0026】得られた輪郭線を領域の輪郭線と考え、輪
郭線により構成される領域に番号をつける操作を行う。
その番号の中で最大の数が領域の数となり、領域中の画
素数がその領域の面積を表す。景観画像を複数の部分領
域に分割した例を図10に示す。なお、領域間の類似度
(近さ)の尺度を導入し、性質が似ている複数の領域を
一つの領域にまとめていくクラスタ化処理を行ってもよ
い。既存方法のどのようなクラスタ化方法によってもよ
い。
郭線により構成される領域に番号をつける操作を行う。
その番号の中で最大の数が領域の数となり、領域中の画
素数がその領域の面積を表す。景観画像を複数の部分領
域に分割した例を図10に示す。なお、領域間の類似度
(近さ)の尺度を導入し、性質が似ている複数の領域を
一つの領域にまとめていくクラスタ化処理を行ってもよ
い。既存方法のどのようなクラスタ化方法によってもよ
い。
【0027】制御部8Bは景観画像の領域分割処理を完
了させると、地図情報管理部5に対して景観画像ファイ
ルのヘッダ情報を渡して視野空間の算出処理を行う処理
要求を出す。地図情報管理部5の例としては、地図デー
タベースプログラムがある。地図情報管理部5は3次元
地図データを管理している。2次元地図データでもよい
が、その場合は高さ情報がないために実風景へのラベリ
ングの付与位置の精度が劣る。なお、2次元地図データ
を基にする場合は、高さ情報を補って処理する。例え
ば、家屋の2次元データである場合に、家屋が何階建て
かを表す階数情報があれば、階数に一定数を掛けてその
家屋の高さを推定し、2次元データと推定して求めた高
さ情報を基に3次元データを作成する。階数情報がない
場合でも、家屋図形の面積に応じて一定数の高さを割り
振る等して高さ情報を推定することができ、同様に推定
高さ情報をもとに3次元データを作成する。こうして3
次元データを作成して処理を進める。
了させると、地図情報管理部5に対して景観画像ファイ
ルのヘッダ情報を渡して視野空間の算出処理を行う処理
要求を出す。地図情報管理部5の例としては、地図デー
タベースプログラムがある。地図情報管理部5は3次元
地図データを管理している。2次元地図データでもよい
が、その場合は高さ情報がないために実風景へのラベリ
ングの付与位置の精度が劣る。なお、2次元地図データ
を基にする場合は、高さ情報を補って処理する。例え
ば、家屋の2次元データである場合に、家屋が何階建て
かを表す階数情報があれば、階数に一定数を掛けてその
家屋の高さを推定し、2次元データと推定して求めた高
さ情報を基に3次元データを作成する。階数情報がない
場合でも、家屋図形の面積に応じて一定数の高さを割り
振る等して高さ情報を推定することができ、同様に推定
高さ情報をもとに3次元データを作成する。こうして3
次元データを作成して処理を進める。
【0028】3次元地図データの例を図6に示す。図6
(1)に2次元で表現した地図情報空間を示し、図6
(2)に3次元で表現した地図情報空間を示す。この3
次元地図情報空間に対して、地図情報管理部5では制御
部8Bの命令を受けて地図DBをアクセスし景観画像フ
ァイルのヘッダ情報を基に視野空間を算出する(ステッ
プ27,28)。図7に視野空間の計算例を示す。ま
ず、水平方向にXY軸が張り、垂直方向にZ軸が張るも
のとする。景観画像ファイルのヘッダ情報中の位置情報
から、視点Eの位置を3次元地図情報空間の中で設定す
る。例えば、東経137度55分19秒、北緯34度3
4分30秒、標高101m33cmであれば、それに対
応する地図メッシュ番号中の対応する座標を設定する。
同じくヘッダ情報中のカメラ角情報中の水平角と仰角を
もとにカメラ角方向を設定する。カメラ角方向を表す直
線上に視点Eから焦点距離分進んだ点に焦点Fをとる。
視線W方向ベクトルはその直線上で視点Eから出る長さ
1の単位ベクトルである。景観画像ファイルの画像サイ
ズで横方向のサイズからカメラ画面のX軸での幅xを設
定し、縦方向のサイズからY軸での幅yを設定する。横
x縦yの平面は視線方向ベクトルに対してカメラ角方向
に垂直で、かつ焦点Fを含むように設定される。視点E
の座標からカメラ画面の4隅の点とを結ぶ直線を各々求
め、視点Eから延びる4本の半直線が作る3次元空間を
視野空間とする。図8に、3次元地図空間での視野空間
の例を示す。3次元地図空間をXZ平面から眺めたもの
である。図8中で斜線で囲まれた部分は視野空間に属す
る空間の、XZ平面での断面図である。図8の例では、
視野空間の中のビルや山が含まれている。
(1)に2次元で表現した地図情報空間を示し、図6
(2)に3次元で表現した地図情報空間を示す。この3
次元地図情報空間に対して、地図情報管理部5では制御
部8Bの命令を受けて地図DBをアクセスし景観画像フ
ァイルのヘッダ情報を基に視野空間を算出する(ステッ
プ27,28)。図7に視野空間の計算例を示す。ま
ず、水平方向にXY軸が張り、垂直方向にZ軸が張るも
のとする。景観画像ファイルのヘッダ情報中の位置情報
から、視点Eの位置を3次元地図情報空間の中で設定す
る。例えば、東経137度55分19秒、北緯34度3
4分30秒、標高101m33cmであれば、それに対
応する地図メッシュ番号中の対応する座標を設定する。
同じくヘッダ情報中のカメラ角情報中の水平角と仰角を
もとにカメラ角方向を設定する。カメラ角方向を表す直
線上に視点Eから焦点距離分進んだ点に焦点Fをとる。
視線W方向ベクトルはその直線上で視点Eから出る長さ
1の単位ベクトルである。景観画像ファイルの画像サイ
ズで横方向のサイズからカメラ画面のX軸での幅xを設
定し、縦方向のサイズからY軸での幅yを設定する。横
x縦yの平面は視線方向ベクトルに対してカメラ角方向
に垂直で、かつ焦点Fを含むように設定される。視点E
の座標からカメラ画面の4隅の点とを結ぶ直線を各々求
め、視点Eから延びる4本の半直線が作る3次元空間を
視野空間とする。図8に、3次元地図空間での視野空間
の例を示す。3次元地図空間をXZ平面から眺めたもの
である。図8中で斜線で囲まれた部分は視野空間に属す
る空間の、XZ平面での断面図である。図8の例では、
視野空間の中のビルや山が含まれている。
【0029】さらに、地図情報管理部5では、求めら視
野空間の中に存在する構造物を求める。構造物毎に、構
造物を表す立体を構成する各頂点が、視野空間の内部領
域に存在するか否かを計算する。通常2次元地図空間は
一定サイズの2次元メッシュで区切られている。3次元
地図空間のメッシュの切り方としては、縦横の2次元方
向のメッシュに加えて高さ方向にも一定間隔でメッシュ
を切っていく。空間を直方体の単位空間で区切ることに
なる。まず、直方体の単位空間毎視野空間との重なり部
分の有無を調べ、重なり部分がある3次元単位地図空間
の番号を求める。ここでいう3次元単位地図空間の番号
とは、いわゆるメッシュ番号と同様のものである。重な
りを持つ3次元単位地図空間内にある構造物に対して、
視野空間と重なり部分の有無を調べる。構造物を構成す
る頂点の座標と視点の座標とを結ぶ直線を求め、その直
線が図9のカメラ画面に対して交点を持つならば視野空
間内にある。構造物を構成する複数の頂点のうち、一つ
の頂点でもこの条件を満たせば、その構造物は視野空間
と重なり部分を持つものとする。
野空間の中に存在する構造物を求める。構造物毎に、構
造物を表す立体を構成する各頂点が、視野空間の内部領
域に存在するか否かを計算する。通常2次元地図空間は
一定サイズの2次元メッシュで区切られている。3次元
地図空間のメッシュの切り方としては、縦横の2次元方
向のメッシュに加えて高さ方向にも一定間隔でメッシュ
を切っていく。空間を直方体の単位空間で区切ることに
なる。まず、直方体の単位空間毎視野空間との重なり部
分の有無を調べ、重なり部分がある3次元単位地図空間
の番号を求める。ここでいう3次元単位地図空間の番号
とは、いわゆるメッシュ番号と同様のものである。重な
りを持つ3次元単位地図空間内にある構造物に対して、
視野空間と重なり部分の有無を調べる。構造物を構成す
る頂点の座標と視点の座標とを結ぶ直線を求め、その直
線が図9のカメラ画面に対して交点を持つならば視野空
間内にある。構造物を構成する複数の頂点のうち、一つ
の頂点でもこの条件を満たせば、その構造物は視野空間
と重なり部分を持つものとする。
【0030】構造物が視野空間の内部に含まれるか、ま
たはその一部が含まれる場合、カメラ画面を投影面とし
て、各構造物をこの投影面に3次元投影変換する処理に
入る(ステップ29)。ここで、図8に示すように、点
Pを次式(1)を基にして視点Eを基にした座標系で表
現し直した後、点Pをカメラ画面に投影して交点Qを求
める。
たはその一部が含まれる場合、カメラ画面を投影面とし
て、各構造物をこの投影面に3次元投影変換する処理に
入る(ステップ29)。ここで、図8に示すように、点
Pを次式(1)を基にして視点Eを基にした座標系で表
現し直した後、点Pをカメラ画面に投影して交点Qを求
める。
【0031】
【数1】 ここで、 点P=(x,y,z):構造物を構成する頂点の座標 点E=(ex,ey,ez):視点の座標 ベクトルL=(lx,ly,lz):視線方向ベクトル
(単位ベクトル) 点P’=(x’,y’,z’):点Pの視点Eを基にし
た座標系で表現した場合の座標 r=(lx2 +ly2 )1/2 交点Q=(X,Y):点Pのカメラ画面への投影点 tは焦点距離 3次元投影変換にあたっては、まず各構造物毎にその頂
点が張る面を求める。例えば、直方体で表現される構造
物ならば、6つの面が求まる。各面をカメラ画面に投影
変換する際に、投影領域に含まれるカメラ画面上の各画
素に対し、視点とその面上の対応点との距離を計算して
奥行き値(Z値)としてメモリに格納する。各構造物の
各面毎に、カメラ画面上の各画素に対する奥行き値(Z
値)を計算し、メモリに格納する。なお(式)1中の
z’は視点からの奥行き値(Z値)を表す。
(単位ベクトル) 点P’=(x’,y’,z’):点Pの視点Eを基にし
た座標系で表現した場合の座標 r=(lx2 +ly2 )1/2 交点Q=(X,Y):点Pのカメラ画面への投影点 tは焦点距離 3次元投影変換にあたっては、まず各構造物毎にその頂
点が張る面を求める。例えば、直方体で表現される構造
物ならば、6つの面が求まる。各面をカメラ画面に投影
変換する際に、投影領域に含まれるカメラ画面上の各画
素に対し、視点とその面上の対応点との距離を計算して
奥行き値(Z値)としてメモリに格納する。各構造物の
各面毎に、カメラ画面上の各画素に対する奥行き値(Z
値)を計算し、メモリに格納する。なお(式)1中の
z’は視点からの奥行き値(Z値)を表す。
【0032】カメラ画面に3次元投影変換された構造物
のうちには、視点から見える構造物と見えない構造物が
ある。その中で視点から見える構造物のみを求め、視点
から反対側にある面や他の構造物に遮られている面を求
める必要がある。そこで、隠面処理を行う(ステップ3
0)。隠面処理の方法には、いろいろあるが、例えばZ
バッファ法を用いる。他のスキャンライン法、光線追跡
法でもよい。
のうちには、視点から見える構造物と見えない構造物が
ある。その中で視点から見える構造物のみを求め、視点
から反対側にある面や他の構造物に遮られている面を求
める必要がある。そこで、隠面処理を行う(ステップ3
0)。隠面処理の方法には、いろいろあるが、例えばZ
バッファ法を用いる。他のスキャンライン法、光線追跡
法でもよい。
【0033】カメラ画面上の画素を任意にとって、その
画素に対して最も小さい奥行き値をとる面を求める。こ
のように各構造物の各面について順次処理を続けていく
と、カメラ画面上の各画素毎に視点に最も近い面が残さ
れる。カメラ画面上の各画素毎に視点に最も近い面が決
定され、また視点に最も近い面が共通するカメラ画面上
画素は一般的に領域を構成するので、カメラ画面では、
共通の面を最も近い面とする画素からなる領域が複数で
きる。こうして求まった領域が、視点から見える構造物
の部分領域を3次元投影変換した結果の領域である。視
点から反対側にある面や他の構造物に遮られている面は
消去されている。
画素に対して最も小さい奥行き値をとる面を求める。こ
のように各構造物の各面について順次処理を続けていく
と、カメラ画面上の各画素毎に視点に最も近い面が残さ
れる。カメラ画面上の各画素毎に視点に最も近い面が決
定され、また視点に最も近い面が共通するカメラ画面上
画素は一般的に領域を構成するので、カメラ画面では、
共通の面を最も近い面とする画素からなる領域が複数で
きる。こうして求まった領域が、視点から見える構造物
の部分領域を3次元投影変換した結果の領域である。視
点から反対側にある面や他の構造物に遮られている面は
消去されている。
【0034】こうしてできた領域がCG画像領域を形成
する(ステップ31)。
する(ステップ31)。
【0035】CG画像領域を構成する2次元図形の頂点
座標に対して、投影変換前の3次元座標を求め、両者の
対応関係をリンク情報としてメモリに格納する。リンク
情報を基にして、その2次元領域がどの構造物の投影図
かということを求めること等に用いる。
座標に対して、投影変換前の3次元座標を求め、両者の
対応関係をリンク情報としてメモリに格納する。リンク
情報を基にして、その2次元領域がどの構造物の投影図
かということを求めること等に用いる。
【0036】隠線消去して残った線データを基にして、
CG画像を領域分割する。3次元地図DBを利用してい
るため、各領域毎にその領域の基となる構造物の名称を
対応付けできる。CG画像の分割された領域に順番に番
号を付けていく。CG画像を複数の部分領域に分割した
例を図11に示す。
CG画像を領域分割する。3次元地図DBを利用してい
るため、各領域毎にその領域の基となる構造物の名称を
対応付けできる。CG画像の分割された領域に順番に番
号を付けていく。CG画像を複数の部分領域に分割した
例を図11に示す。
【0037】CG画像の領域分割処理が完了したら、制
御部8Bはラベル情報作成部6Bに対して、CG画像の
分割領域と景観画像の分割領域の対応付けを行うように
命令する。ラベル情報作成部6Bでは、テンプレートマ
ッチングによりCG画像の分割領域と景観画像の分割領
域の対応付けを行う(ステップ32、図12参照)。
御部8Bはラベル情報作成部6Bに対して、CG画像の
分割領域と景観画像の分割領域の対応付けを行うように
命令する。ラベル情報作成部6Bでは、テンプレートマ
ッチングによりCG画像の分割領域と景観画像の分割領
域の対応付けを行う(ステップ32、図12参照)。
【0038】景観画像の分割領域のうち、番号の若い領
域(例えば、1番)から順にCG画像の分割領域と対応
付けしていく。対応付けに当たっては、従来からあるマ
チング方法のうちのどれをとってもよいが、ここでは単
純なテンプレートマッチング法をとる。つまり、比較す
る2つの領域を重ね合わせ、重なり合う部分の比率が、
しきい値として決めた一定の比率以上にある場合に同一
の構造物に関する領域として対応付けることとする。例
えば、景観画像の分割領域1番目のR1に関して、その
領域内にある各画素の座標値を(A,B)とする。座標
(A,B)での画素の値は、領域の内部ゆえに1であ
る。CG画像の1番目の分割領域S1において、座標
(A,B)が領域S1内ならば画素値1であり重なる
が、S1の外ならば画素値0であり重ならない。こうし
て座標(A,B)での重なり係数K(A,B)として、
重なる場合1、重ならない場合0で決まる。座標(A,
B)を領域R1内で動かして、重なり係数K(A,B)
を求める。そして、領域R1内で動かした座標(A,
B)の数N1に対して、重なり係数K(A,B)が1で
あった座標の数N2を求めて、N1/N2がしきい値以
上である場合に、景観画像の分割領域R1とCG画像の
分割領域S1が対応するものと決める。この対応付けを
景観画像の分割領域の1番目から最後のものまで行う。
なお、マッチング方法としてこの他、XY方向に多少の
位置ずれがあっても同じ値になるような評価関数を用い
てもよい。
域(例えば、1番)から順にCG画像の分割領域と対応
付けしていく。対応付けに当たっては、従来からあるマ
チング方法のうちのどれをとってもよいが、ここでは単
純なテンプレートマッチング法をとる。つまり、比較す
る2つの領域を重ね合わせ、重なり合う部分の比率が、
しきい値として決めた一定の比率以上にある場合に同一
の構造物に関する領域として対応付けることとする。例
えば、景観画像の分割領域1番目のR1に関して、その
領域内にある各画素の座標値を(A,B)とする。座標
(A,B)での画素の値は、領域の内部ゆえに1であ
る。CG画像の1番目の分割領域S1において、座標
(A,B)が領域S1内ならば画素値1であり重なる
が、S1の外ならば画素値0であり重ならない。こうし
て座標(A,B)での重なり係数K(A,B)として、
重なる場合1、重ならない場合0で決まる。座標(A,
B)を領域R1内で動かして、重なり係数K(A,B)
を求める。そして、領域R1内で動かした座標(A,
B)の数N1に対して、重なり係数K(A,B)が1で
あった座標の数N2を求めて、N1/N2がしきい値以
上である場合に、景観画像の分割領域R1とCG画像の
分割領域S1が対応するものと決める。この対応付けを
景観画像の分割領域の1番目から最後のものまで行う。
なお、マッチング方法としてこの他、XY方向に多少の
位置ずれがあっても同じ値になるような評価関数を用い
てもよい。
【0039】ラベル情報作成部6Bでは、景観画像の部
分領域に対してCG画像の部分領域を対応付けた後、対
応付けられた部分領域の構造物を抽出し(ステップ3
3)、さらに景観画像の部分領域毎に重畳すべき情報を
求め、重畳すべき位置とともにラベル情報として作成す
る処理(ステップ34)に入る。まず、景観画像の部分
領域に対して、対応するCG画像の部分領域を取り出
す。取り出したCG画像の部分領域はもともと3次元地
図空間の中の3次元構造物のある面をカメラ画面に対し
て3次元投影変換して得られたものである。そこで、3
次元投影変換の基となった3次元構造物の面を、CG画
像の部分領域が持つ奥行き値(Z値)をキーとして求め
る。先に3次元投影変換した際に作成しておいたリンク
情報をキーにしてもよい。もととなった構造物の面をも
とに、3次元地図DBにアクセスしてその構造物の名称
または属性情報を取得する。ここで属性情報とは、その
構造物に関して付随する情報を意味し、その構造物に係
る情報ならば何でもよい。そして、名称または属性情報
を重畳すべき位置座標を、景観画像の部分領域に対して
決める。決め方は、どのように決めてもよい。例えば、
部分領域を張る図形の重心でもよい。その構造物の名称
または属性情報、および付与位置座標からラベル情報を
作成する。表1にラベル情報の例を示す。
分領域に対してCG画像の部分領域を対応付けた後、対
応付けられた部分領域の構造物を抽出し(ステップ3
3)、さらに景観画像の部分領域毎に重畳すべき情報を
求め、重畳すべき位置とともにラベル情報として作成す
る処理(ステップ34)に入る。まず、景観画像の部分
領域に対して、対応するCG画像の部分領域を取り出
す。取り出したCG画像の部分領域はもともと3次元地
図空間の中の3次元構造物のある面をカメラ画面に対し
て3次元投影変換して得られたものである。そこで、3
次元投影変換の基となった3次元構造物の面を、CG画
像の部分領域が持つ奥行き値(Z値)をキーとして求め
る。先に3次元投影変換した際に作成しておいたリンク
情報をキーにしてもよい。もととなった構造物の面をも
とに、3次元地図DBにアクセスしてその構造物の名称
または属性情報を取得する。ここで属性情報とは、その
構造物に関して付随する情報を意味し、その構造物に係
る情報ならば何でもよい。そして、名称または属性情報
を重畳すべき位置座標を、景観画像の部分領域に対して
決める。決め方は、どのように決めてもよい。例えば、
部分領域を張る図形の重心でもよい。その構造物の名称
または属性情報、および付与位置座標からラベル情報を
作成する。表1にラベル情報の例を示す。
【0040】
【表1】 ラベル情報作成部6Bは、ラベル情報を作成し終った
ら、制御部8Bにラベル情報を渡す。
ら、制御部8Bにラベル情報を渡す。
【0041】制御部8Bは、ラベル情報を受け取ると、
ラベル情報出力部7Bに対して自動車のフロントガラス
にラベル情報を投影するように命令する。ラベル情報出
力部7Bはラベル情報中の構造物の名称または属性情報
を景観画像中の位置に重畳し(ステップ35)、重畳さ
れた景観画像を自動車のフロントガラスに投影する(ス
テップ36)。図13にラベル情報が重畳された景観画
像の例を示す。
ラベル情報出力部7Bに対して自動車のフロントガラス
にラベル情報を投影するように命令する。ラベル情報出
力部7Bはラベル情報中の構造物の名称または属性情報
を景観画像中の位置に重畳し(ステップ35)、重畳さ
れた景観画像を自動車のフロントガラスに投影する(ス
テップ36)。図13にラベル情報が重畳された景観画
像の例を示す。
【0042】ラベル情報出力部7Bはラベル情報を出力
すると、出力完了を制御部8Bに通知する。制御部8B
は出力完了通知を受け取ると、連続して景観ラベリング
の処理を行う場合は先に示した一連の処理手順を再び実
行する。
すると、出力完了を制御部8Bに通知する。制御部8B
は出力完了通知を受け取ると、連続して景観ラベリング
の処理を行う場合は先に示した一連の処理手順を再び実
行する。
【0043】図14は図2の景観ラベル付カーナビゲー
ション装置を通信システムに適用した景観ラベル付カー
ナビゲーションシステムの構成図である。
ション装置を通信システムに適用した景観ラベル付カー
ナビゲーションシステムの構成図である。
【0044】本景観ラベルナビゲーションシステムは景
観ラベル付カーナビゲーション端末40と景観ラベリン
グセンター50と通信網60で構成される。
観ラベル付カーナビゲーション端末40と景観ラベリン
グセンター50と通信網60で構成される。
【0045】景観ラベル付カーナビゲーション端末40
は、画像を取得する画像取得部41と、画像取得時の位
置を取得する位置情報取得部42と、画像取得時のカメ
ラ角と焦点距離と画像サイズを取得するカメラ属性情報
取得部43と、取得した画像を複数の部分領域に分割す
る画像処理部44と、画像の領域分割に関する情報とカ
メラ位置とカメラ角と焦点距離と画像サイズとを通信網
60を介して景観ラベリングセンター50に送信し、景
観ラベリングセンター50からラベル情報を受信する通
信制御部45と、ラベル情報中の構造物の名称または属
性情報を画像中の対応する位置に重畳し、重畳された画
像を自動車のフロントガラスに投影するラベル情報出力
部47と、上記各部を制御する端末制御部46で構成さ
れる。
は、画像を取得する画像取得部41と、画像取得時の位
置を取得する位置情報取得部42と、画像取得時のカメ
ラ角と焦点距離と画像サイズを取得するカメラ属性情報
取得部43と、取得した画像を複数の部分領域に分割す
る画像処理部44と、画像の領域分割に関する情報とカ
メラ位置とカメラ角と焦点距離と画像サイズとを通信網
60を介して景観ラベリングセンター50に送信し、景
観ラベリングセンター50からラベル情報を受信する通
信制御部45と、ラベル情報中の構造物の名称または属
性情報を画像中の対応する位置に重畳し、重畳された画
像を自動車のフロントガラスに投影するラベル情報出力
部47と、上記各部を制御する端末制御部46で構成さ
れる。
【0046】景観ラベリングセンター50は通信網60
を介して景観ラベル付カーナビゲーション端末40から
前記画像の領域分割に関する情報とカメラ位置とカメラ
角と焦点距離と画像サイズを受信し、景観ラベル付カー
ナビゲーション端末40にラベル情報を送信する通信制
御部53と、地図情報を管理し、受信したカメラ位置と
カメラ角と焦点距離と画像サイズを基に地図情報空間の
中で視野空間を求め、その視野空間中に存在する構造物
を獲得する地図情報管理部51と、画像の前記部分領域
に対して前記獲得した構造物をパターンマッチングによ
り対応付け、対応付けられた前記構造物の名称または属
性情報および付与位置を含むラベル情報を作成するラベ
ル情報作成部52と、上記各部を制御するセンタ−制御
部54で構成される。
を介して景観ラベル付カーナビゲーション端末40から
前記画像の領域分割に関する情報とカメラ位置とカメラ
角と焦点距離と画像サイズを受信し、景観ラベル付カー
ナビゲーション端末40にラベル情報を送信する通信制
御部53と、地図情報を管理し、受信したカメラ位置と
カメラ角と焦点距離と画像サイズを基に地図情報空間の
中で視野空間を求め、その視野空間中に存在する構造物
を獲得する地図情報管理部51と、画像の前記部分領域
に対して前記獲得した構造物をパターンマッチングによ
り対応付け、対応付けられた前記構造物の名称または属
性情報および付与位置を含むラベル情報を作成するラベ
ル情報作成部52と、上記各部を制御するセンタ−制御
部54で構成される。
【0047】なお、本システムの動作は図2の装置の動
作と同様である。
作と同様である。
【0048】
【発明の効果】以上説明したように本発明によれば、コ
ンピュータ上の地理的情報と実風景の景観画像中の各部
分とを対応付けて自動車のフロントガラスに表示するこ
とにより、利用者に提示することができるため、人間が
コンピュータ上の地図と実風景を見比べて人間の方で対
応付けせずとも済む。
ンピュータ上の地理的情報と実風景の景観画像中の各部
分とを対応付けて自動車のフロントガラスに表示するこ
とにより、利用者に提示することができるため、人間が
コンピュータ上の地図と実風景を見比べて人間の方で対
応付けせずとも済む。
【図1】本発明の第1の実施形態の景観ラベル付カーナ
ビゲーション装置の構成図である。
ビゲーション装置の構成図である。
【図2】本発明の第2の実施形態の景観ラベル付カーナ
ビゲーション装置の構成図である。
ビゲーション装置の構成図である。
【図3】特開平8−83397に開示された、自動車の
フロントガラスを用いたヘッドアップディスプレイ装置
の概略図である。
フロントガラスを用いたヘッドアップディスプレイ装置
の概略図である。
【図4】第2の実施形態の景観ラベル付カーナビゲーシ
ョン装置の処理の流れ図である。
ョン装置の処理の流れ図である。
【図5】景観画像ファイルのデータ構造を示す図であ
る。
る。
【図6】2次元地図の例(同図(1))とその3次元地
図(同図(2))を示す図である。
図(同図(2))を示す図である。
【図7】視野空間の計算方法を示す図である。
【図8】3次元地図空間での視野空間の例を示す図であ
る。
る。
【図9】投影図の例を示す図である。
【図10】景観画像の領域分割例を示す図である。
【図11】CG画像の領域分割例を示す図である。
【図12】景観画像の部分領域とCG画像の部分領域の
パターンマッチングの説明図である。
パターンマッチングの説明図である。
【図13】景観画像へのラベル情報の重畳の例を示す図
である。
である。
【図14】本発明の一実施形態の景観ラベル付カーナビ
ゲーションシステムの構成図である。
ゲーションシステムの構成図である。
【図15】特開平8−273000号に開示されたナビ
ゲーション装置の構成図である。
ゲーション装置の構成図である。
【図16】動画像の表示例を示す図である。
1 画像取得部 2 位置情報取得部 3 カメラ属性情報取得部 4 画像処理部 5 地図情報管理部 6A,6B ラベル情報作成部 7A,7B ラベル情報出力部 8A,8B 制御部 11 HUDプロジェクタ 12 インストルメントパネル 13 表示体 14 バックライト光源 15 凹面鏡 16 レンズ 17 ウインドシールド 18 コンバイナ 19 運転者の眼 21〜36 ステップ 40 景観ラベリング端末 41 画像取得部 42 位置情報取得部 43 カメラ属性情報取得部 44 画像処理部 45 通信制御部 46 端末制御部 47 ラベル情報出力部 50 景観ラベリングセンター 51 地図情報管理部 52 ラベル情報作成部 53 通信制御部 54 センター制御部 60 通信網
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G08G 1/0969 H04N 7/18 U H04N 5/222 G06F 15/62 335 7/18 350A (72)発明者 鈴木 晃 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 高野 正次 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内
Claims (7)
- 【請求項1】 画像を取得する画像取得手段と、 画像取得時のカメラ位置を取得する位置情報取得手段
と、 画像を取得したときのカメラ角と焦点距離と画像サイズ
を取得するカメラ属性情報取得手段と、 地図情報を管理し、取得したカメラ位置とカメラ角と焦
点距離と画像サイズを基に地図情報空間の中で視野空間
を求め、その視野空間中に存在する構造物を獲得する地
図情報管理手段と、 構造物の名称またはその属性情報および付与位置を含む
ラベル情報を作成するラベル情報作成手段と、 取得したラベル情報中の付与位置の情報に対応する画像
中の位置に地図情報の名称またはその属性情報を重畳
し、重畳された画像を自動車のフロントガラスに投影す
るラベル情報出力手段と、 上記各手段を制御する制御手段を有する景観ラベル付カ
ーナビゲーション装置。 - 【請求項2】 画像を取得する画像取得手段と、 画像取得時のカメラ位置を取得する位置情報取得手段
と、 画像取得時のカメラ角と焦点距離と画像サイズを取得す
るカメラ属性情報取得手段と、 取得した画像を複数の部分領域に分割する画像処理手段
と、 地図情報を管理し、取得したカメラ位置とカメラ角と焦
点距離と画像サイズを基に地図情報空間の中で視野空間
を求め、その視野空間中に存在する構造物を獲得する地
図情報管理手段と、 前記画像の前記部分領域に対して前記獲得した構造物を
対応付け、対応付けられた前記構造物の名称またはその
属性情報および付与位置を含むラベル情報を作成するラ
ベル情報作成手段と、 前記ラベル情報中の構造物の名称またはその属性情報を
画像中の付与位置に対応する位置に重畳し、重畳された
画像を自動車のフロントガラスに投影するラベル情報出
力手段と、 前記各手段を制御する制御手段を有する景観ラベル付カ
ーナビゲーション装置。 - 【請求項3】 前記ラベル情報作成手段は、獲得した構
造物を基にしてコンピュータグラフィックス画像である
CG画像を作成し、前記画像の前記部分領域に対してパ
ターンマッチングにより前記CG画像中の部分領域に対
応付け、対応付けられた部分領域の構造物を求め、その
構造物の名称または属性情報および付与位置を含むラベ
ル情報を作成する、請求項2記載の装置。 - 【請求項4】 前記ラベル情報作成手段は、獲得した構
造物をカメラ画面に3次元投影変換し、視点から見えな
い構造物を消去してCG画像を作成し、CG画像中の部
分領域の輪郭線によってCG画像を部分領域に分割し、
前記画像の前記部分領域と前記CG画像の前記部分領域
とをパターンマッチングにより対応付け、画像の部分領
域に対して対応付けCG画像の部分領域の基となった構
造物を求め、その構造物の名称または属性情報および付
与位置を含むラベル情報を作成する、請求項2記載の装
置。 - 【請求項5】 景観ラベル付カーナビゲーション端末と
景観ラベリングセンターからなり、 前記景観ラベル付カーナビゲーション端末は、画像を取
得する画像取得手段と、画像取得時のカメラ位置を取得
する位置情報取得手段と、画像取得時のカメラ角と焦点
距離と画像サイズを取得するカメラ属性情報取得手段
と、取得した画像を複数の部分領域に分割する画像処理
手段と、前記画像の領域分割に関する情報と前記カメラ
位置と前記カメラ角と前記焦点距離と前記画像サイズと
を通信網を介して前記景観ラベリングセンターに送信
し、前記景観ラベリングセンターからラベル情報を受信
する通信制御手段と、前記ラベル情報中の構造物の名称
またはその属性情報を画像中の付与位置に対応する位置
に重畳し、重畳された画像を自動車のフロントガラスに
投影するラベル情報出力手段と、前記各手段を制御する
端末制御手段を有し、 前記景観ラベリングセンターは、前記通信網を介して前
記景観ラベル付カーナビゲーション端末から前記画像の
領域分割に関する情報と前記カメラ位置と前記カメラ角
と前記焦点距離と前記画像サイズとを受信し、前記景観
ラベル付カーナビゲーション端末に前記ラベル情報を送
信する通信制御手段と、地図情報を管理し、受信したカ
メラ位置とカメラ角と焦点距離と画像サイズを基に地図
情報空間の中で視野空間を求め、その視野空間中に存在
する構造物を獲得する地図情報管理手段と、前記画像の
前記部分領域に対して前記獲得した構造物を対応付け、
対応付けられた前記構造物の名称または属性情報および
付与位置を含む前記ラベル情報を作成するラベル情報作
成手段と、前記各手段を制御するセンター制御手段を有
する景観ラベル付カーナビゲーションシステム。 - 【請求項6】 前記ラベル情報作成手段は、獲得した構
造物を基にしてコンピュータグラフィックス画像である
CG画像を作成し、前記画像の前記部分領域に対してパ
ターンマッチングにより前記CG画像中の部分領域に対
応付け、対応付けられた部分領域の構造物を求め、その
構造物の名称または属性情報および付与位置を含むラベ
ル情報を作成する、請求項5記載のシステム。 - 【請求項7】 前記ラベル情報作成手段は、獲得した構
造物をカメラ画面に3次元投影変換し、視点から見えな
い構造物を消去してCG画像を作成し、CG画像中の部
分領域の輪郭線によってCG画像を部分領域に分割し、
前記画像の前記部分領域と前記CG画像の前記部分領域
とをパターンマッチングにより対応付け、画像の部分領
域に対して対応付けCG画像の部分領域の基となった構
造物を求め、その構造物の名称または属性情報および付
与位置を含むラベル情報を作成する、請求項5記載のシ
ステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9228540A JPH1165431A (ja) | 1997-08-25 | 1997-08-25 | 景観ラベル付カーナビゲーション装置およびシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9228540A JPH1165431A (ja) | 1997-08-25 | 1997-08-25 | 景観ラベル付カーナビゲーション装置およびシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH1165431A true JPH1165431A (ja) | 1999-03-05 |
Family
ID=16878001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9228540A Pending JPH1165431A (ja) | 1997-08-25 | 1997-08-25 | 景観ラベル付カーナビゲーション装置およびシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH1165431A (ja) |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11211993A (ja) * | 1998-01-28 | 1999-08-06 | Hitachi Ltd | 情報表示装置 |
JP2001108476A (ja) * | 1999-10-13 | 2001-04-20 | Shozo Hagiwara | 車両のナビゲーションシステム |
JP2001358972A (ja) * | 2000-06-16 | 2001-12-26 | Dainippon Printing Co Ltd | 位置合わせシステム、デジタルカメラ及び記録媒体 |
JP2002058057A (ja) * | 2000-08-09 | 2002-02-22 | Nippon Telegr & Teleph Corp <Ntt> | 歩行者ナビゲーション方法およびシステム |
JP2004106596A (ja) * | 2002-09-13 | 2004-04-08 | Canon Inc | 画像表示装置、及び画像表示方法、計測装置、及び計測方法 |
JP2005208159A (ja) * | 2004-01-20 | 2005-08-04 | Mazda Motor Corp | 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム |
JP2005215879A (ja) * | 2004-01-28 | 2005-08-11 | Mazda Motor Corp | 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム |
JP2006020166A (ja) * | 2004-07-02 | 2006-01-19 | Fuji Photo Film Co Ltd | 地図表示システム及びデジタルカメラ |
JP2006039237A (ja) * | 2004-07-28 | 2006-02-09 | Nippon Seiki Co Ltd | 表示装置 |
JPWO2004048895A1 (ja) * | 2002-11-22 | 2006-03-23 | 財団法人くまもとテクノ産業財団 | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 |
US7135993B2 (en) | 2003-09-26 | 2006-11-14 | Mazda Motor Corporation | On-vehicle information provision apparatus |
JP2007142517A (ja) * | 2005-11-15 | 2007-06-07 | Kazuo Iwane | 移動型自動監視装置 |
JP2007166296A (ja) * | 2005-12-14 | 2007-06-28 | Komatsu Engineering Corp | 画像処理装置及び動画像表示方法 |
US7423553B2 (en) | 2002-09-13 | 2008-09-09 | Canon Kabushiki Kaisha | Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method |
US7783422B2 (en) | 2006-03-29 | 2010-08-24 | Denso Corporation | Navigation device and method of navigating vehicle |
JP2011188265A (ja) * | 2010-03-09 | 2011-09-22 | Nikon Corp | デジタルカメラ |
JP2011198150A (ja) * | 2010-03-19 | 2011-10-06 | Fujifilm Corp | ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法 |
JP2012068481A (ja) * | 2010-09-24 | 2012-04-05 | Asia Air Survey Co Ltd | 拡張現実表現システムおよび方法 |
JP2012137933A (ja) * | 2010-12-27 | 2012-07-19 | Kokusai Kogyo Co Ltd | 被写地物の位置特定方法とそのプログラム、及び表示地図、並びに撮影位置取得方法とそのプログラム、及び撮影位置取得装置 |
WO2013046428A1 (ja) * | 2011-09-30 | 2013-04-04 | パイオニア株式会社 | ヘッドアップディスプレイ、表示装置及び表示方法 |
WO2013046423A1 (ja) * | 2011-09-30 | 2013-04-04 | パイオニア株式会社 | ヘッドアップディスプレイ、制御方法、及び表示装置 |
JP2013517568A (ja) * | 2010-01-12 | 2013-05-16 | クアルコム,インコーポレイテッド | ディスプレイを使用した通信のためのターゲットオブジェクトの選択 |
JP2013116687A (ja) * | 2011-12-05 | 2013-06-13 | Honda Motor Co Ltd | 車両用画像表示装置 |
JP2014153095A (ja) * | 2013-02-06 | 2014-08-25 | Alpine Electronics Inc | 情報表示装置 |
JP2015015775A (ja) * | 2014-10-22 | 2015-01-22 | レノボ・イノベーションズ・リミテッド(香港) | 地形表示システム、携帯端末、地形表示方法およびプログラム |
JP2015077876A (ja) * | 2013-10-16 | 2015-04-23 | 株式会社デンソー | ヘッドアップディスプレイ装置 |
JP2016041562A (ja) * | 2014-08-19 | 2016-03-31 | 株式会社デンソー | 車両用情報提示方法、車両用情報提示システム、車載装置 |
JP2016097921A (ja) * | 2014-11-26 | 2016-05-30 | マツダ株式会社 | 車両用運転支援表示装置 |
CN107089191A (zh) * | 2016-02-18 | 2017-08-25 | 索尼公司 | 用于车辆信息学和虚拟现实的主动窗户 |
WO2021053843A1 (ja) * | 2019-09-18 | 2021-03-25 | 国立大学法人東海国立大学機構 | 画像表示システム、画像表示方法、および、コンピュータプログラム |
-
1997
- 1997-08-25 JP JP9228540A patent/JPH1165431A/ja active Pending
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11211993A (ja) * | 1998-01-28 | 1999-08-06 | Hitachi Ltd | 情報表示装置 |
JP2001108476A (ja) * | 1999-10-13 | 2001-04-20 | Shozo Hagiwara | 車両のナビゲーションシステム |
JP2001358972A (ja) * | 2000-06-16 | 2001-12-26 | Dainippon Printing Co Ltd | 位置合わせシステム、デジタルカメラ及び記録媒体 |
JP2002058057A (ja) * | 2000-08-09 | 2002-02-22 | Nippon Telegr & Teleph Corp <Ntt> | 歩行者ナビゲーション方法およびシステム |
US7423553B2 (en) | 2002-09-13 | 2008-09-09 | Canon Kabushiki Kaisha | Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method |
JP2004106596A (ja) * | 2002-09-13 | 2004-04-08 | Canon Inc | 画像表示装置、及び画像表示方法、計測装置、及び計測方法 |
JPWO2004048895A1 (ja) * | 2002-11-22 | 2006-03-23 | 財団法人くまもとテクノ産業財団 | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 |
US7135993B2 (en) | 2003-09-26 | 2006-11-14 | Mazda Motor Corporation | On-vehicle information provision apparatus |
JP2005208159A (ja) * | 2004-01-20 | 2005-08-04 | Mazda Motor Corp | 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム |
JP2005215879A (ja) * | 2004-01-28 | 2005-08-11 | Mazda Motor Corp | 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム |
JP2006020166A (ja) * | 2004-07-02 | 2006-01-19 | Fuji Photo Film Co Ltd | 地図表示システム及びデジタルカメラ |
JP2006039237A (ja) * | 2004-07-28 | 2006-02-09 | Nippon Seiki Co Ltd | 表示装置 |
JP2007142517A (ja) * | 2005-11-15 | 2007-06-07 | Kazuo Iwane | 移動型自動監視装置 |
JP2007166296A (ja) * | 2005-12-14 | 2007-06-28 | Komatsu Engineering Corp | 画像処理装置及び動画像表示方法 |
US7783422B2 (en) | 2006-03-29 | 2010-08-24 | Denso Corporation | Navigation device and method of navigating vehicle |
JP2013517568A (ja) * | 2010-01-12 | 2013-05-16 | クアルコム,インコーポレイテッド | ディスプレイを使用した通信のためのターゲットオブジェクトの選択 |
JP2011188265A (ja) * | 2010-03-09 | 2011-09-22 | Nikon Corp | デジタルカメラ |
JP2011198150A (ja) * | 2010-03-19 | 2011-10-06 | Fujifilm Corp | ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法 |
JP2012068481A (ja) * | 2010-09-24 | 2012-04-05 | Asia Air Survey Co Ltd | 拡張現実表現システムおよび方法 |
JP2012137933A (ja) * | 2010-12-27 | 2012-07-19 | Kokusai Kogyo Co Ltd | 被写地物の位置特定方法とそのプログラム、及び表示地図、並びに撮影位置取得方法とそのプログラム、及び撮影位置取得装置 |
WO2013046428A1 (ja) * | 2011-09-30 | 2013-04-04 | パイオニア株式会社 | ヘッドアップディスプレイ、表示装置及び表示方法 |
WO2013046423A1 (ja) * | 2011-09-30 | 2013-04-04 | パイオニア株式会社 | ヘッドアップディスプレイ、制御方法、及び表示装置 |
JP2013116687A (ja) * | 2011-12-05 | 2013-06-13 | Honda Motor Co Ltd | 車両用画像表示装置 |
JP2014153095A (ja) * | 2013-02-06 | 2014-08-25 | Alpine Electronics Inc | 情報表示装置 |
JP2015077876A (ja) * | 2013-10-16 | 2015-04-23 | 株式会社デンソー | ヘッドアップディスプレイ装置 |
JP2016041562A (ja) * | 2014-08-19 | 2016-03-31 | 株式会社デンソー | 車両用情報提示方法、車両用情報提示システム、車載装置 |
JP2015015775A (ja) * | 2014-10-22 | 2015-01-22 | レノボ・イノベーションズ・リミテッド(香港) | 地形表示システム、携帯端末、地形表示方法およびプログラム |
JP2016097921A (ja) * | 2014-11-26 | 2016-05-30 | マツダ株式会社 | 車両用運転支援表示装置 |
CN107089191A (zh) * | 2016-02-18 | 2017-08-25 | 索尼公司 | 用于车辆信息学和虚拟现实的主动窗户 |
KR20170097560A (ko) * | 2016-02-18 | 2017-08-28 | 소니 주식회사 | 차량 정보 및 가상 현실을 위한 활성 윈도우 |
JP2017151981A (ja) * | 2016-02-18 | 2017-08-31 | ソニー株式会社 | 車両インフォマティクス及び仮想現実のための能動ウィンドウ |
US10682911B2 (en) | 2016-02-18 | 2020-06-16 | Sony Corporation | Active window for vehicle infomatics and virtual reality |
WO2021053843A1 (ja) * | 2019-09-18 | 2021-03-25 | 国立大学法人東海国立大学機構 | 画像表示システム、画像表示方法、および、コンピュータプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH1165431A (ja) | 景観ラベル付カーナビゲーション装置およびシステム | |
JP3225882B2 (ja) | 景観ラベリングシステム | |
EP0867690B1 (en) | Device and system for labeling sight images | |
EP3359918B1 (en) | Systems and methods for orienting a user in a map display | |
CN108460815B (zh) | 地图道路要素编辑方法和装置 | |
JPH09292833A (ja) | ナビゲーション装置 | |
JP6896688B2 (ja) | 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム | |
JP2003132068A (ja) | ナビゲーションシステム及びナビゲーション端末 | |
JPH1186034A (ja) | 景観ラベル付ヒューマンナビゲーション装置およびシステム | |
WO2018134897A1 (ja) | 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法 | |
JP3156646B2 (ja) | 検索型景観ラベリング装置およびシステム | |
CN105823475B (zh) | 场景的三维表示方法 | |
JP2000050156A (ja) | 報道支援システム | |
JP3156645B2 (ja) | 情報発信型景観ラベリング装置およびシステム | |
JP3053172B2 (ja) | 距離参照型景観ラベリング装置およびシステム | |
JPH1157209A (ja) | 景観ラベル利用型ラリーゲームシステム | |
JP3114862B2 (ja) | 相互利用型景観ラベリングシステム | |
JP3053169B2 (ja) | 景観ラベル利用型通信装置およびシステム | |
JP3156649B2 (ja) | 変形ラベル型景観ラベリング装置およびシステム | |
US20130120373A1 (en) | Object distribution range setting device and object distribution range setting method | |
JPH1131239A (ja) | 注視方向景観ラベリング装置およびシステム | |
JPH1132250A (ja) | 音声案内型景観ラベリング装置およびシステム | |
JPH1157206A (ja) | 景観ラベル利用型射撃ゲームシステム | |
JPH1166349A (ja) | 移動量予測型景観ラベリング装置およびシステム | |
JPH1131237A (ja) | ノイズ除去型景観ラベリング装置およびシステム |