JP2015049039A - ナビゲーション装置、及びナビゲーションプログラム - Google Patents

ナビゲーション装置、及びナビゲーションプログラム Download PDF

Info

Publication number
JP2015049039A
JP2015049039A JP2013178418A JP2013178418A JP2015049039A JP 2015049039 A JP2015049039 A JP 2015049039A JP 2013178418 A JP2013178418 A JP 2013178418A JP 2013178418 A JP2013178418 A JP 2013178418A JP 2015049039 A JP2015049039 A JP 2015049039A
Authority
JP
Japan
Prior art keywords
virtual object
moving image
display
specifying
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013178418A
Other languages
English (en)
Inventor
浩司 広瀬
Koji Hirose
浩司 広瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canvas Mapple Co Ltd
Original Assignee
Canvas Mapple Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canvas Mapple Co Ltd filed Critical Canvas Mapple Co Ltd
Priority to JP2013178418A priority Critical patent/JP2015049039A/ja
Publication of JP2015049039A publication Critical patent/JP2015049039A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】先行する移動体に追従している感覚を失わせることなくユーザを目的地まで誘導する。
【解決手段】ナビゲーション装置が、表示装置に表示する仮想オブジェクトを記憶する仮想オブジェクト記憶部と、軌跡情報を記憶する軌跡情報記憶部とを備え、現在位置情報を特定し、軌跡情報に基づいてユーザの移動経路を決定し、ユーザの周囲の状況を撮影する撮影装置が撮影した動画像を取得し、撮影装置の撮影方位を含む撮影装置状態を特定し、現在位置情報と撮影装置状態とを参照して、動画像における移動経路を示す動画像中移動経路を特定し、特定した動画像中移動経路を参照して、動画像における仮想オブジェクトの表示位置および表示形態を含む仮想オブジェクト表示態様を特定し、特定した仮想オブジェクト表示態様にて仮想オブジェクトを動画像に重畳して表示装置に表示する。
【選択図】図10

Description

本発明は、オブジェクトを表示してユーザを目的地まで誘導するナビゲーション装置、およびナビゲーション装置に動作制御させるためのナビゲーションプログラムに関する。
従来から、車両や人間などの移動体の目的地への移動を支援する装置として、ナビゲーション装置が知られている。
ところで、複数の移動体(例えば、車両)が同じ目的地に向けて移動する場合がある。目的地までの移動経路を知っている移動体を先行させて、先行する移動体に他の移動体が追従することにより、目的地までの移動経路を知らない移動体に所定の目的地まで移動を行う場合がある。このような移動をおこなう場合に、先行している移動体との間に別の移動体が入ることにより、後続する移動体が、先行している移動体を見失ってしまう場合があるという課題があった。
そこで、追従している車両を見失った場合であっても、先行する車両に追従可能とする技術が開示されている(特許文献1参照)。具体的には、他の移動体より送信される軌跡情報を受信し、受信した軌跡情報に基づき移動経路を設定し経路案内する技術が開示されている。
特開2010−223695号公報
しかしながら、上述した特許文献1に開示されている技術においては、先行する移動体を見失った際には軌跡が表示されるのみであるため、ユーザは先行する移動体に追従する感覚を失ってしまうという課題があった。
本発明は、上述した課題を解決すべく、先行する移動体に追従している感覚を失わせることなく目的地までの移動を支援することを目的とする。
本発明のナビゲーション装置は、表示装置に仮想オブジェクトを表示してユーザを目的地まで誘導するナビゲーション装置であって、前記表示装置に表示する仮想オブジェクトを記憶する仮想オブジェクト記憶手段と、軌跡情報を記憶する軌跡情報記憶手段と、現在位置情報を特定する現在位置情報特定手段と、前記軌跡情報に基づいて前記ユーザの移動経路を決定する移動経路決定手段と、前記ユーザの周囲の状況を撮影する撮影装置が撮影した動画像を取得する動画像取得手段と、前記撮影装置の撮影方位を含む撮影装置状態を特定する撮影装置状態特定手段と、前記現在位置情報と前記撮影装置状態とを参照して、前記動画像における前記移動経路を示す動画像中移動経路を特定する動画像中移動経路特定手段と、該動画像中移動経路特定手段により特定された前記動画像中移動経路を参照して、前記動画像における前記仮想オブジェクトの表示位置および表示形態を含む仮想オブジェクト表示態様を特定する仮想オブジェクト表示態様特定手段と、該仮想オブジェクト表示態様特定手段により特定された前記仮想オブジェクト表示態様によって前記仮想オブジェクトを前記動画像に重畳して前記表示装置に表示する表示手段とを含むことを特徴とする。
上記の構成としたことで、先行する移動体に追従している感覚を失わせることなく目的地までの移動を支援することができるようになる。
前記動画像に含まれる前記ユーザの周囲の物体を示す現実オブジェクトの3次元空間における位置を検出する3次元位置検出手段を含み、前記表示態様特定手段は、前記3次元位置検出手段により検出された前記現実オブジェクトの3次元空間における位置を参照して、前記3次元空間内において前記仮想オブジェクトと前記現実オブジェクトとが重ならない位置を前記仮想オブジェクトの表示位置として特定する構成とされていてもよい。
前記ユーザが追従する追従車両が備える端末から通信ネットワークを介して当該追従車両の移動軌跡に関する軌跡情報を所定の間隔で取得する軌跡情報取得手段と、該軌跡情報取得手段により取得された前記軌跡情報を用いて前記移動経路決定手段により特定された前記移動経路を更新する移動経路更新手段とを含む構成とされていてもよい。
前記移動経路設定手段により設定された前記移動経路の残りの距離を特定する残距離特定手段と、該残距離特定手段により特定された前記移動経路の残り距離が所定距離となったか否かを判定する残距離判定手段とを含み、前記軌跡情報取得手段は、残距離判定手段により前記移動経路の残り距離が所定距離となったと判定されたときに前記軌跡情報を取得する構成とされていてもよい。
また、本発明のナビゲーションプログラムは、表示装置に仮想オブジェクトを表示してユーザを目的地まで誘導するナビゲーション装置に動作制御させるためのナビゲーションプログラムであって、前記表示装置に表示する仮想オブジェクトを記憶する仮想オブジェクト記憶手段と、軌跡情報を記憶する軌跡情報記憶手段とを備える前記ナビゲーション装置に、現在位置情報を特定する現在位置情報特定処理と、前記軌跡情報に基づいて前記ユーザの移動経路を決定する移動経路決定処理と、前記ユーザの周囲の状況を撮影する撮影装置が撮影した動画像を取得する動画像取得処理と、前記撮影装置の撮影方位を含む撮影装置状態を特定する撮影装置状態特定処理と、前記現在位置情報と前記撮影装置状態とを参照して、前記動画像における前記移動経路を示す動画像中移動経路を特定する動画像中移動経路特定処理と、該動画像中移動経路特定処理にて特定した前記動画像中移動経路を参照して、前記動画像における前記仮想オブジェクトの表示位置および表示形態を含む仮想オブジェクト表示態様を特定する仮想オブジェクト表示態様特定処理と、該仮想オブジェクト表示態様特定処理にて特定した前記仮想オブジェクト表示態様によって前記仮想オブジェクトを前記動画像に重畳して前記表示装置に表示する表示処理とを実行させるためのものである。
本発明によれば、先行する移動体に追従している感覚を失わせることなく目的地までの移動を支援することができるようになる。
ナビゲーション装置の構成の例を示すブロック図である。 制御部と記憶部の構成の例を説明するためのブロック図である。 軌跡情報記憶部21に格納される軌跡情報の格納例を示す説明図である。 仮想オブジェクト情報記憶部22に格納される仮想オブジェクト情報の格納例を示す説明図である。 ナビゲーション装置の動作概要の例を示す概念図である。 ナビゲーション装置の動作概要の例を示す概念図である。 ナビゲーション装置の動作概要の例を示す概念図である。 第1の実施の形態に係る設定処理の例を示すフローチャートである。 第1の実施の形態に係る追従ナビゲーション処理の例を示すフローチャートである。 第1の実施の形態に係る仮想オブジェクト表示処理の例を示すフローチャートである。 第2の実施の形態に係る設定処理の例を示すフローチャートである。 第2の実施の形態に係る追従ナビゲーション処理の例を示すフローチャートである。
[第1の実施の形態]
以下、本発明の第1の実施の形態について図面を参照して説明する。
図1は、本発明の第1の実施の形態に係るナビゲーション装置100の構成の例を示すブロック図である。ナビゲーション装置100は、例えば、モバイルタイプのパーソナルコンピュータ、PND(Portable Navigation Device)や専用デバイスなどの情報処理装置によって構成されるものである。本例におけるナビゲーション装置100は、車両に取り付けられる。
図1に示すように、ナビゲーション装置100は、制御部10と、記憶部20と、メモリ30と、出力部40と、センサ部50と、通信部60と、入力部70と、撮影部80とを含む。
制御部10は、例えばCPUにより構成され、記憶部20に記憶されたコンピュータプログラム(ナビゲーション装置100に動作制御させるためのコンピュータプログラム)に従い、ナビゲーション装置100を構成する各要素を統括制御し、ユーザを目的地まで誘導するナビゲーション機能を含む各種の処理を実行するための各種の機能を有する。特にナビゲーション機能においては、先行する車両に対して追従していくような感覚を持たせながらナビゲーションを実行する追従ナビゲーション処理などを実行する。制御部10の構成については、後で詳しく説明する(図2参照)。
記憶部20は、ROMやRAMなどで構成され、ナビゲーション装置100が使用する各種コンピュータプログラムや、情報など、ナビゲーション装置として必要または有用な各種情報を記憶する記憶媒体である。記憶部20により記憶される情報は、例えば、撮像動画像、センサデータおよび後に説明する仮想オブジェクト情報や軌跡情報などを含む。なお、本例におけるプログラム及びデータの一部は、記憶部20により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得される構成としてもよい。
メモリ30は、制御部10が処理する各種情報を一時的に保持する記憶媒体であり、RAMなどの半導体記憶装置により構成される。
出力部40は、各種情報、特に情報探索に関する各種情報をユーザが認識可能な形で出力する機能を備え、例えば動画像情報を表示する動画像表示装置(ディスプレイ装置、モニタ)と、音声情報を音声出力する音声出力装置(スピーカ装置)とを含む。後で詳しく説明するが、本例における出力部は、表示制御部17により出力される表示動画像を表示する機能を備える。
センサ部50は、現在位置を示す位置情報を検出するためのGPSセンサと、撮影部80の撮影方位を示す方位情報を検出するための方位センサとを含む。センサ部50が取得したデータは、制御部10に入力され、追従ナビゲーション処理などの各種処理を実行するために用いられる。
通信部60は、インターネットなどの通信ネットワークに無線あるいは有線によって接続し、通信ネットワークに接続された管理サーバなどの外部の装置と情報の送受信を行うための機能を有する。
入力部70は、仮想ボタンや物理ボタンなどの入力装置を備えており、入力装置に対するユーザからの各種指示(例えば仮想オブジェクト表示処理開始操作など)および音声などを受け付ける機能を有する。そして、入力部70は、受け付けた各種指示を制御部10に出力する機能を有する。
撮影部80は、ユーザの周辺の実空間の映像を撮影する機能を有するステレオカメラである。撮影部80は、車体に取り付けられており、その取り付け位置は、車両の前方の実空間を撮影可能な位置に取り付けられる。本例では、フロントガラス越しに前方の状況を映すように、車両のバックミラーの裏に撮影部80が取り付けられている。このような取り付け位置とすることで、撮影方位が車両の進行方向と一致するため、容易に仮想オブジェクトの重畳位置を特定することができるようになる。なお、本例では、正確に路面を把握するためにステレオカメラを用いているが、路面を把握することが可能であれば、ステレオカメラ以外の撮影装置を用いてもよい。
図2は、本例における制御部10と記憶部20の構成の例を説明するためのブロック図である。図2に示すように、制御部10は、通信処理部11と、軌跡情報取得部12と、設定処理部13と、センサ情報処理部14と、動画像中移動経路特定部15と、表示態様特定部16と、表示制御部17とを含む。
通信処理部11は、通信部60により各種情報の送受信を行うための処理を実行する機能を有する。
軌跡情報取得部12は、外部の端末より軌跡情報を取得する処理を実行し、取得した軌跡情報を軌跡情報記憶部22に格納する機能を有する。本例における外部の端末は、ユーザが追従する追従車両に搭載される端末であって、ナビゲーション装置100と通信接続可能な端末である。すなわち、本例における軌跡情報は、追従車両の端末により特定された追従車両の移動軌跡を示す情報となる。なお、軌跡情報取得部12は、所定の軌跡情報を格納するデータベースを備えるサーバから軌跡情報を取得する構成としてもよい。
設定部13は、ユーザからの設定入力操作に応じて、追従ナビゲーション処理を実行するための各種情報を設定するための処理を実行する機能を有する。具体的には、設定部13が実行する処理は、ユーザの移動経路を設定するための移動経路設定処理と、表示装置に表示する仮想オブジェクトを設定するための仮想オブジェクト設定処理とを含む。設定した情報は、記憶部20やメモリ30などの記憶媒体に記憶される。
また、設定部13は、移動経路の更新を実行するための所定のタイミングにて取得される軌跡情報に基づいて、移動経路を更新する。
センサ情報処理部14は、センサ部50が備える各種センサから入力されるセンサ情報を処理することにより追従ナビゲーション処理に用いる情報とする処理を実行する機能を有する。本例では、センサ情報処理部14は、センサ部50からの情報に基づいて、現在位置情報および撮影方位情報を特定する。
動画像中移動経路特定部15は、撮影部80により撮影される動画像を取得する処理や、
取得した動画像を解析する処理などを実行する機能を有する。また、動画像中移動経路特定部15は、解析結果を表示態様特定部16に出力する処理を実行する機能を有する。具体的には、動画像中移動経路特定部15は、動画像から路面(つまり、道路面)に関する情報(例えば、路面の位置や路面の傾きなど)を特定し、特定した情報を表示態様特定部16に出力する。本例において、動画像中移動経路特定部15による解析処理では、例えば、動画像における高密度な視差分布を特定することにより動画像中の各種情報(例えば、路面についての情報)を特定する処理(ステレオ法)が実行される。なお、本例ではステレオ法による解析方法を採用することとしているが、他の3次元環境認識技術(例えば、SLAM法など)を用いて動画像における路面を特定することとしてもよい。
表示態様特定部16は、動画像中移動経路特定部15から出力された情報などを用いることにより、仮想オブジェクトの表示位置および表示姿勢を含む仮想オブジェクトの表示態様を特定し、特定した表示態様情報を表示制御部17に出力する処理を実行する機能を有する。
表示制御部17は、動画像とともに、仮想オブジェクトを表示装置に表示するための処理を実行する。具体的には、表示制御部17は、動画像に対して表示態様特定部16により特定された表示態様情報に応じた姿勢にて仮想オブジェクトを重畳した重畳動画像を生成し、生成した重畳動画像を出力部40に出力する処理を実行する。
記憶部20は、図2に示すように、軌跡情報記憶部21と、仮想オブジェクト情報記憶部22とを含む。
軌跡情報記憶部21は、軌跡情報取得部12により取得された軌跡情報を記憶する記憶媒体である。図3は、軌跡情報記憶部21に格納される軌跡情報の格納例を示す説明図である。図3に示すように、軌跡情報は、「軌跡ID」と、緯度および経度で示される座標情報の集合である「座標群」とを含む。
仮想オブジェクト記憶部22は、動画像に重畳して表示する仮想オブジェクトに関する仮想オブジェクト情報を記憶する記憶媒体である。図4は、仮想オブジェクト情報記憶部22に格納される仮想オブジェクト情報の格納例を示す説明図である。図4にて示すように、仮想オブジェクト情報は、「オブジェクトID」と、「オブジェクト名」と、「CGデータ」とを含む。
ここで、「CGデータ」は、3次元の車両のCGデータであり、車両の表示態様の変化を含む。すなわち、本例のCGデータは、ウィンカーを出している車両の状態や、ブレーキランプを点灯させている車両の状態をも表示可能に構成される。
次に、本例におけるナビゲーション装置100の動作概要について図5から図7を用いて説明する。
図5から図7は、本例におけるナビゲーション装置100の動作概要を示す概念図である。特に、図5(A)、図6(A)、および図7(A)は、運転者(ユーザ)の車両と、運転者が追従する追従車両との関係を示す説明図である。なお、図5(A)、図6(A)、および図7(A)の図中の矢印は、ユーザが追従する車両の進行方向を示す矢印である。また、図5(B)、図6(B)、および図7(B)は、運転者の視点から見た景色を示す概念図である。
なお、ここで登場する車両は、ユーザの車両を車両Xとし、追従車両を車両Yとし、車両Xと車両Yとの間に入ってくる車両を車両Zとする。そして、本例の追従ナビゲーション処理が実行されることによって、表示装置400に表示される映像がどのような映像となるかを説明する。
先ず、図5(A)および図5(B)に示すように、車両Xと車両Yとの関係は、車両Xと車両Yとが30mほど離れており、車両Xと車両Yとの間には遮蔽するものが存在しない状況である。すなわち、この状況は、ユーザが車両Yを視界にとらえることが可能な状況である。このような場合において表示画面400には、車両Yと仮想オブジェクト401とが並んで表示される。
次に、車両Xと車両Yとの間に車両Zが入ってきたときについて説明する。図6(A)および図6(B)に示す状況は、車両Xと車両Yとが50mほど離れてしまい、さらに車両Xと車両Yとの間に車両Zが入っている状況である。すなわち、この状況は、車両Zが車両Xと車両Yと間を遮ることによって、ユーザが車両Yを視界にとらえられなくなった状況である。このような場合において、図6(B)に示すように、表示画面400には、撮影部が撮影した映像に重ねて仮想オブジェクト401が表示される。すなわち、車両Zによって視界に入らない車両Yの代わりに、仮想オブジェクト401が表示される。したがって、ユーザは追従する感覚を失うことなく運転を継続することができる。
次に、車両Yがどのような進路を通って進行しているのかが、把握できなくなった状況について説明する。図7(A)は、ユーザが車両Yの位置を識別することができない状況のときに、車両Yが左折してしまった状況を示す概念図である。すなわち、ユーザは、車両Yに追従しようとしても、どのタイミングで車両Yが左折したかを把握できなかったため、このまま、左折のタイミングを知ることなく進んでしまうと、ユーザは車両Yを完全に見失ってしまうこととなり、車両Yに追従することができなくなるどころか、目的地に到達することすらできなくなってしまう。
そこで、ナビゲーション装置は、追従する感覚を失わせることなくユーザを目的地に到達させるために、仮想オブジェクト401を用いる。図7(B)は、車両Yの左折しタイミングを把握できなかった場合であって、ユーザが車両Yの左折地点に近づいたときに表示画面に表示される表示内容を説明するための概念図である。図7(B)に示すように、ユーザが車両Yの左折地点近傍に位置すると、表示画面400には、ユーザの現在位置に合わせて仮想オブジェクト401が左折していくように表示される。すなわち、ユーザは、追従するべき車両Yを見失った場合であっても、車両Yに追従している感覚を失うことなく、目的地までたどり着くことができる。
このようにして、本例のナビゲーション装置100は、ユーザを目的地まで誘導する。
次に、本例におけるナビゲーション装置100の動作について図を参照して説明する。なお、本発明に特に係わらない処理については、その詳細な説明を省略している場合がある。
図8は、ナビゲーション装置100の制御部10が実行する設定処理の例を示すフローチャートである。設定処理では、ユーザの操作入力に応じてユーザが移動する経路を設定する処理が実行される。
設定処理において、先ず、制御部10は、ユーザが追従することを希望する追従車両を設定する(ステップS101)。本例では、制御部10は、移動軌跡を送信可能な追従車両と通信接続し、追従車両から移動軌跡に関する情報を取得可能な状態とする。
追従車両を設定すると、制御部10は、表示装置に重畳するための仮想オブジェクトを設定する(ステップS102)。本例では、制御部10は、設定部13によりユーザからの入力操作に応じて仮想オブジェクトの設定をおこなう。
仮想オブジェクトを設定すると、制御部10は、追従車両から移動経路を示す軌跡情報を取得し、現在位置からの軌跡情報として軌跡情報記憶部21に格納する(ステップS103)。
追従車両から取得した軌跡情報を軌跡情報記憶部21に格納すると、制御部10は、現在位置からの軌跡情報をナビゲーション装置によりユーザを誘導するための移動経路として設定する(ステップS104)。なお、軌跡情報は、現在位置から目的地までの軌跡情報としても良いし、移動途中の軌跡情報でも良い。
移動経路を設定すると、制御部10は、設定処理を終了する。
次に、設定処理により各種設定が完了している状態において実行される追従ナビゲーション処理の例についてフローチャートを用いて説明する。
図9は、ナビゲーション装置100の制御部10が実行する追従ナビゲーション処理の例を示すフローチャートである。追従ナビゲーション処理では、仮想オブジェクトを表示装置に表示するための処理や、ステップS103以降に追従車両の移動した経路を示す軌跡情報を受信し軌跡情報記憶部21を更新する処理などを実行する。
追従ナビゲーション処理において、先ず、制御部10は、ユーザからの仮想オブジェクト表示処理を開始するための開始操作を受け付ける(ステップS201)。
ユーザからの開始操作を受け付けると、制御部10は、仮想オブジェクト表示処理を開始する(ステップS300)。
ここで、仮想オブジェクト表示処理の例についてフローチャートを用いて説明をする。図10は、ナビゲーション装置100の制御部10が実行する仮想オブジェクト表示処理の例を示すフローチャートである。仮想オブジェクト表示処理では、仮想オブジェクトの表示態様を決定し、決定した表示態様にて仮想オブジェクトを表示装置に重畳表示する処理を実行する。
仮想オブジェクト表示処理では、先ず、制御部10は、動画像中移動経路特定部15により、撮影部80が撮影する動画像を取得する(ステップS301)。本例では、撮影部80がフロントガラス越しに進行方向の景色を映すようにバックミラーの裏側に取り付けられているため、制御部10は車両の進行方向の景色を映す動画像を取得することとなる。
動画像を取得すると、制御部10は、センサ情報処理部14により、センサ部50が取得した各種センサ情報を取得し、各種情報を特定する(ステップS302)。具体的には、制御部10は、GPS情報に基づいて現在位置を特定し、方位情報に基づいて撮影装置の撮影方位を特定する。現在位置および撮影方位を特定することにより、どの位置からどの方向に向けて撮影を行っているのかを把握することができる。
現在位置および撮影方位を取得すると、制御部10は、動画像中移動経路特定部15により、取得した動画像中に含まれる路面を特定する(ステップS303)。本例では、制御部10は、動画像における高密度な視差分布を特定して路面を特定する。
動画像における路面を特定すると、制御部10は、動画像中に移動経路に対応する路面を示す移動経路対応路面が存在するか否かを判定する(ステップS304)。すなわち、制御部10は、ステップS303で特定した路面が、ユーザを誘導するための路面であり、かつ目的地に向かう方向(つまり、目的地に向かうために進行すべき方向)に位置する路面であるか否かを特定する。本例では、制御部10は、特定した現在位置および撮影方位と、設定した移動経路とに基づいて、動画像中の路面が存在するおおよその位置を把握することにより、ユーザを誘導するための路面であり、かつ目的地に向かう方向に位置する路面であるか否かを特定する。
動画像中に移動経路対応路面が存在しないと判定したとき(ステップS304のN)には、制御部10は、仮想オブジェクト表示処理を終了し、追従ナビゲーション処理に移行する。すなわち、制御部10は、ユーザを誘導するための路面であり、かつ目的地に向かう方向に位置する路面ではないと判定したときに、仮想オブジェクト表示処理を終了し、追従ナビゲーション処理に移行する。
一方で、動画像中に移動経路対応路面が存在すると判定したとき(ステップS304のY)には、制御部10は、表示態様特定部16により、移動経路対応路面における仮想オブジェクトの表示位置を特定する(ステップS305)。本例では、制御部10は、車両から進行方向に向かって所定の距離離れた位置であって、かつ移動経路対応路面上の位置を仮想オブジェクトの表示位置として特定する。例えば、制御部10は、進行方向に対して50m先行する位置をオブジェクトの表示位置として決定する。また、所定の距離は、制御部10が車両またはナビゲーション装置に搭載される速度センサから車両の速度情報を取得することにより、車両の速度に応じた距離としてもよい。
仮想オブジェクトの表示位置を特定すると、制御部10は、表示態様特定部16により、移動経路対応路面の向きおよび傾きに応じた仮想オブジェクトの表示姿勢を特定する(ステップS306)。すなわち、制御部10は、表示位置における路面の傾きおよび形状を解析し、解析結果に応じた表示姿勢を特定する。
仮想オブジェクトの表示位置および表示姿勢を特定すると、制御部10は、表示制御部17により、特定した表示位置および表示姿勢に基づいて、仮想オブジェクトを動画像に重畳して表示装置に表示する(ステップS307)。
なお、本例におけるナビゲーション装置100は、仮想オブジェクトの表示位置および表示姿勢の特定のときに、動画像に含まれるユーザの周囲の物体を示す現実オブジェクトの3次元空間における位置を検出し、検出した現実オブジェクトの3次元空間における位置を参照して、3次元空間内において仮想オブジェクトと現実オブジェクトとが重ならない位置および姿勢を仮想オブジェクトの表示態様として特定する構成とされていてもよい。
なお、本例におけるナビゲーション装置100は、ユーザの進行状況の如何にかかわらず、現在位置と移動経路対応路面とに基づいて表示位置および表示姿勢を特定する構成としているが、ユーザの進行状況を加味して、表示位置や表示姿勢をより詳細な位置に決定する構成としてもよい。具体的には、ナビゲーション装置100は、ユーザの進行状況と、詳細な表示態様とが対応付けされた表示関連情報記憶部を備え、ユーザの進行状況を特定し、特定したユーザの進行状況に対応する詳細な表示態様を特定し、特定した詳細な表示態様と現在位置と移動経路対応路面とに基づいて、仮想オブジェクトの表示位置および表示姿勢を特定する構成とすることができる。このような構成によれば、より現実世界に近い情報を表示することができるようになるため、ユーザは、先行する移動体に追従する感覚を維持したまま目的地までの移動を行うことができるようになる。
制御部10は、動画像に重畳して表示装置に仮想オブジェクトを表示すると、仮想オブジェクト表示処理を終了して追従ナビゲーション処理に移行する。
仮想オブジェクト表示処理を終了すると、制御部10は、移動経路更新タイミングであるか否かを判定する(ステップS202)。すなわち、制御部10は、追従車両から移動経路を受信して、受信した移動経路を用いて移動経路を更新するか否かを判定する。例えば、制御部10は、ナビゲーション装置100に備えられた内部タイマを用いて所定時間が経過したか否かを判定し、所定時間が経過したと判定したときに更新タイミングであると判定するように構成される。また例えば、ナビゲーション装置100は、移動経路の残りの距離を特定し、移動経路として設定されている軌跡情報の残りの距離が所定距離となっているか否かを判定し、移動経路の残り距離が所定距離となっていると判定したときに移動経路の更新タイミングであると判定する構成としてもよい。
更新タイミングではないと判定したとき(ステップS202のN)には、制御部10は、追従ナビゲーション処理を終了するか否かを判定する(ステップS205)。
一方で、移動経路更新タイミングであると判定したとき(ステップS202のY)には、制御部10は、追従車両が搭載する端末から軌跡情報を取得する(ステップS203)。なお、取得した軌跡情報は、最新の軌跡情報として軌跡情報記憶部21に格納される。
移動経路を更新するための軌跡情報を取得すると、制御部10は、取得した軌跡情報を用いて移動経路を更新する(ステップS204)。なお、このとき、制御部10は、軌跡情報における既に取得している軌跡部分以外の部分(つまり新たに増えた軌跡部分)のみを設定している移動経路に追加するように構成されていてもよい。
移動経路を更新すると、制御部10は、追従ナビゲーション処理を終了するか否かを判定する(ステップS205)。具体的には、制御部10は、ユーザからの追従ナビゲーション処理終了のための操作を受け付けているか否かを判定する。また、制御部10が、ユーザを目的地まで誘導したか否かを判定することとしてもよい。
追従ナビゲーション処理を終了しないと判定したとき(ステップS205のN)には、制御部10は、ステップS300に移行し、再度仮想オブジェクト表示処理を実行する。
一方で、追従ナビゲーション処理を終了すると判定したとき(ステップS205のY)には、制御部10は、追従ナビゲーション処理を終了する。
以上のように、上述した第1の実施の形態におけるナビゲーション装置100は、表示装置に仮想オブジェクトを表示してユーザを目的地まで誘導するナビゲーション装置であって、表示装置に表示する仮想オブジェクトを記憶する仮想オブジェクト記憶部と、軌跡情報を記憶する軌跡情報記憶部とを備え、現在位置情報を特定し、軌跡情報に基づいてユーザの移動経路を決定し、ユーザの周囲の状況を撮影する撮影装置が撮影した動画像を取得し、撮影装置の撮影方位を含む撮影装置状態を特定し、現在位置情報と撮影装置状態とを参照して、動画像における移動経路を示す動画像中移動経路を特定し、特定した動画像中移動経路を参照して、動画像における仮想オブジェクトの表示位置および表示形態を含む仮想オブジェクト表示態様を特定し、特定した仮想オブジェクト表示態様にて仮想オブジェクトを動画像に重畳して表示装置に表示する構成としている。このような構成によれば、予め先行車両を指定しておくことにより、車載端末により撮影される動画像に対して、先行車両の移動軌跡上に案内役としての仮想オブジェクトを重畳表示することができるようになる。したがって、ユーザを目的地までナビゲーションするときに、仮想オブジェクトが移動経路としての軌跡に沿って移動することとなるため、ユーザは先行する移動体に追従する感覚を維持したまま目的地までの移動を行うことができるようになる。
また、上述した実施の形態において、ナビゲーション装置100は、動画像に含まれるユーザの周囲の物体を示す現実オブジェクトの3次元空間における位置を検出し、検出した現実オブジェクトの3次元空間における位置を参照して、3次元空間内において仮想オブジェクトと現実オブジェクトとが重ならない位置および姿勢を仮想オブジェクトの表示態様として特定する構成とされていてもよい。このような構成によれば、ユーザは、違和感のない映像に基づいて先行する車両に追従することができるようになるため、追従する感覚を失わせることなくユーザを目的地までの誘導することができるナビゲーション装置を提供することができるようになる。
また、上述した実施の形態において、ナビゲーション装置100は、ユーザが追従する追従車両が備える端末から通信ネットワークを介して当該追従車両の移動軌跡に関する軌跡情報を所定の間隔で取得し、取得した前記軌跡情報を用いて特定した移動経路を更新する構成とされていてもよい。このような構成によれば、先行する移動体が最終的な目的地まで到達していない場合であっても、ユーザに対して先行車両に追従している感覚を与えることができるようになる。すなわち、ナビゲーション装置の適用範囲が広がることにより、より有用なナビゲーション装置となるとともに、本ナビゲーション装置の利用頻度を向上させることができるようになる。
また、上述した実施の形態において、ナビゲーション装置100は、設定した移動経路の残りの距離を特定した移動経路の残り距離が所定距離となったか否かを判定し、移動経路の残り距離が所定距離となったと判定されたときに軌跡情報を取得する構成とされていてもよい。このような構成によれば、本ナビゲーション処理に必要な処理量が軽減されるため、ナビゲーション装置100の処理負荷を軽減することができるようになる。
なお、上述した実施の形態において、ナビゲーション装置100は、追従車両から定期的に移動軌跡を取得し、取得した移動軌跡に基づいて移動経路を特定する構成としているが、予め移動開始地点から移動終了地点までの軌跡が形成されている軌跡情報に基づくことにより移動先となる経路を特定する構成とすることもできる。すなわち、ナビゲーション装置は、軌跡情報記憶部に格納される軌跡情報のうち現在位置を含む軌跡情報をユーザが選択可能に表示装置に表示し、表示した軌跡情報についてのユーザからの選択操作を受け付け、受け付けた軌跡情報を移動経路として設定する構成とされていてもよい。
また、上述した実施の形態では特に言及していないが、ナビゲーション装置100は、動画像中に追従車両が存在するか否かを判定し、追従車両が存在すると判定したときには仮想オブジェクトを表示しない構成とされていてもよい。具体的には、ナビゲーション装置100は、追従車両として設定可能な車両の特徴(例えば、車両ナンバーや、車体の特徴)を示す特徴情報を記憶する特徴情報記憶部を備え、動画像を解析する解析処理により動画像中に存在する車両の特徴情報を特定し、特定した特徴情報が設定した追従車両の特徴情報と一致するか否かを判定し、一致するときに、仮想オブジェクトを表示しない構成とすることができる。このような構成によれば、表示装置における表示をより見やすくすることができるため、ユーザの利便性が格段に向上することとなる。
[第2の実施の形態]
第1の実施の形態では、車両に固定された撮影装置から得られる情報を用いたナビゲーション装置について説明をしたが、本発明の実施の形態はこれに限定されない。例えば、本発明は、撮影装置と表示端末とが一体となっている端末(例えば、携帯電話やスマートフォンなど)を用いることにより実施することもできる。なお、以下に述べる第2の実施の形態に関する説明では、上述した第1の実施の形態の例と異なる部分を中心に説明する。したがって、第1の実施の形態と同様の構成部分は同じ符号を付してその説明は省略し、特に説明しない限り同じであるものとする。
第2の実施の形態では、ユーザによりユーザ自身の前方が撮影され、撮影された動画像が表示装置に表示されるときに、仮想オブジェクトが重畳して表示される。すなわち、本例におけるナビゲーション装置200は、ユーザ自身の撮影操作により表示される動画像に対して、案内役としての仮想オブジェクトを重畳表示することにより、ユーザを目的地まで誘導する。
第2の実施の形態に係る制御部110は、軌跡情報取得部112を含む。軌跡情報取得部112は、予め移動開始地点から移動終了地点までの軌跡が形成されている軌跡情報を格納するデータベースを備える管理サーバから軌跡情報を取得する。管理サーバは、例えば本システムの管理者などにより管理される。なお、本システムが所定の施設内で利用される場合にあっては、管理サーバは、当該施設の管理者により管理されていてもよい。
第2の実施の形態に係る仮想オブジェクト情報における「CGデータ」は、キャラクタオブジェクトのCGデータであり、キャラクタオブジェクト固有の詳細な動作情報を含む。キャラクタオブジェクト固有の詳細な動作情報とは、キャラクタオブジェクトがどのように動作するのかを示す情報であり、例えば、方向動作や、おじぎ動作や、振り返り動作などの各種動作に関する情報を示す。
第2の実施の形態に係るセンサ部150は、センサ部150は、現在位置を示す位置情報を検出するためのGPSセンサと、撮影部80の撮影方位を示す方位情報を検出するための方位センサと、端末自身の姿勢を示す姿勢情報を検出するためのジャイロセンサとを含む。端末自身の姿勢が検出されることにより、どの位置からどの方位に向けてどのような姿勢で撮影をしているかが把握できるため、より正確に取得した動画像における移動経路を特定することができるようになる。
次に、本例におけるナビゲーション装置200の動作について図を参照して説明する。なお、本発明に特に係わらない処理については、その詳細な説明を省略している場合がある。
図11は、第2の実施の形態に係る設定処理の例を示すフローチャートである。仮想オブジェクトの設定処理と、移動経路の設定処理が、第1の実施の形態と異なる。
設定処理においてまず、制御部110は、ユーザが追従することを希望するキャラクタオブジェクトを設定する(ステップS1101)。本例では、制御部110は、設定部13によりユーザからの入力操作に応じて仮想オブジェクトの設定をおこなう。
追従対象となる仮想オブジェクトを設定すると、制御部110は、移動経路を設定する(ステップS1102)。具体的には、制御部110は、軌跡情報記憶部22に格納する軌跡情報を選択可能に表示し、ユーザの選択操作に応じた移動軌跡を移動経路として設定する。
移動経路を設定すると、制御部110は、設定処理を終了する。
図12は、第2の実施の形態に係る追従ナビゲーション処理の例を示すフローチャートである。追従ナビゲーション処理において、先ず、制御部110は、ユーザからの仮想オブジェクト表示処理を開始するための開始操作を受け付ける(ステップS1201)。
ユーザからの開始操作を受け付けると、制御部110は、仮想オブジェクト表示処理を開始する(ステップS300)。
次に、第2の実施の形態に係る仮想オブジェクト表示処理の例を説明する。ここでは、第1の実施の形態にて用いた図10を用いて説明する。
仮想オブジェクト表示処理では、先ず、制御部110は、撮影部180が撮影する動画像を取得する(ステップS301)。本例では、制御部110は、ユーザによりナビゲーション装置自体が前方にかざされることにより撮影された動画像を取得する。
動画像を取得すると、制御部10は、センサ情報処理部により、センサ部150が取得した各種センサ情報を取得し、各種情報を特定する(ステップS302)。具体的には、制御部110は、GPS情報に基づいて現在位置を特定し、方位情報に基づいて撮影装置の撮影方位を特定し、姿勢情報に基づいて撮影装置の姿勢を特定する。現在位置、撮影方位、および姿勢を特定することにより、どの位置からどの方向に向けてどのような姿勢で撮影を行っているのかを把握することができる。
現在位置および撮影方位を取得すると、制御部110は、動画像中移動経路特定部15により、取得した動画像中に含まれる路面を特定する(ステップS303)。
動画像における路面を特定すると、制御部110は、動画像中に移動経路に対応する路面を示す移動経路対応路面が存在するか否かを判定する(ステップS304)。本例では、制御部110は、ステップS303特定した現在位置、撮影方位、および姿勢と、設定した移動経路とに基づいて、動画像中の路面が存在するおおよその位置を把握することにより、ユーザを誘導するための路面であり、かつ目的地に向かう方向に位置する路面であるか否かを特定する。
動画像中に移動経路対応路面が存在しないと判定したとき(ステップS304のN)には、制御部110は、仮想オブジェクト表示処理を終了し、追従ナビゲーション処理に移行する。すなわち、制御部110は、ユーザを誘導するための路面であり、かつ目的地に向かう方向に位置する路面ではないと判定したときに、仮想オブジェクト表示処理を終了し、追従ナビゲーション処理のステップS1202に移行する。
一方で、動画像中に移動経路対応路面が存在すると判定したとき(ステップS304のY)には、制御部110は、移動経路対応路面における仮想オブジェクトの表示位置を特定する(ステップS305)。本例では、制御部110は、ユーザの現在位置から進行方向に向かって所定の距離離れた位置であって、かつ移動経路対応路面上の位置を仮想オブジェクトの表示位置として特定する。例えば、制御部110は、進行方向に対して50m先行する位置をオブジェクトの表示位置として決定する。また、所定の距離は、制御部10がナビゲーション装置に搭載される速度センサから移動速度情報を取得することにより、移動速度に応じた距離としてもよい。
仮想オブジェクトの表示位置を特定すると、制御部110は、移動経路対応路面の向きおよび傾きに応じた仮想オブジェクトの表示姿勢を特定する(ステップS306)。すなわち、制御部110は、表示位置における路面の傾きおよび形状を解析し、解析結果に応じた表示姿勢を特定する。
仮想オブジェクトの表示位置および表示姿勢を特定すると、制御部110は、特定した表示位置および表示姿勢に基づいて仮想オブジェクトを動画像に重畳して表示装置に表示する(ステップS307)。
制御部110は、動画像に重畳して表示装置に仮想オブジェクトを表示すると、仮想オブジェクト表示処理を終了して追従ナビゲーション処理に移行する。
仮想オブジェクト表示処理を終了すると、制御部110は、追従ナビゲーション処理を終了するか否かを判定する(ステップS1202)。具体的には、制御部110は、ユーザからの追従ナビゲーション処理終了のための操作を受け付けているか否かを判定する。また、制御部110が、ユーザを目的地まで誘導したか否かを判定することとしてもよい。
追従ナビゲーション処理を終了しないと判定したとき(ステップS1202のN)には、制御部110は、ステップS300に移行し、再度仮想オブジェクト表示処理を実行する。
一方で、追従ナビゲーション処理を終了すると判定したとき(ステップS1202のY)には、制御部110は、追従ナビゲーション処理を終了する。
以上のように、上述した第2の実施の形態に係るナビゲーション装置200は、表示装置に仮想オブジェクトを表示してユーザを目的地まで誘導するナビゲーション装置であって、表示装置に表示する仮想オブジェクトを記憶する仮想オブジェクト記憶部と、軌跡情報を記憶する軌跡情報記憶部とを備え、現在位置情報を特定し、軌跡情報に基づいてユーザの移動経路を決定し、ユーザの周囲の状況を撮影する撮影装置が撮影した動画像を取得し、撮影装置の撮影方位を含む撮影装置状態を特定し、現在位置情報と撮影装置状態とを参照して、動画像における移動経路を示す動画像中移動経路を特定し、特定した動画像中移動経路を参照して、動画像における仮想オブジェクトの表示位置および表示形態を含む仮想オブジェクト表示態様を特定し、特定した仮想オブジェクト表示態様にて仮想オブジェクトを動画像に重畳して表示装置に表示する構成としている。このような構成によれば、ユーザ自身の撮影操作により表示される動画像に対して、案内役としての仮想オブジェクトを重畳表示することにより、ユーザを目的地まで誘導することができるようになる。したがって、ユーザを目的地までナビゲーションするときに、仮想オブジェクトが移動経路としての軌跡に沿って移動することとなるため、ユーザは先行する移動体に追従する感覚を維持したまま目的地までの移動を行うことができるようになる。
なお、上述した実施の形態では特に言及していないが、ナビゲーション装置200は、特定の動作と、特定の動作を実行する座標を示す特定動作実行座標とが対応付けされた特定動作情報を記憶する特定動作情報記憶部を備え、特定動作情報を参照してユーザの現在位置が特定動作実行座標に位置するか否かを判定し、特定動作実行座標に位置すると判定したときに、対応する特定の動作を実行する態様にて仮想オブジェクトを表示する構成とされていてもよい。このような構成によれば、仮想オブジェクトが特定の位置にて様々な演出を実行することが可能となるため、より有用性の高いナビゲーション装置を提供することができるようになる。したがって、ナビゲーション装置の利用頻度を高めることができるようになる。
本発明は、表示装置に仮想オブジェクトを表示してユーザを目的地まで誘導するのに有用である。
10,110 制御部
11 通信処理部
12 軌跡情報取得部
13 設定部
14 センサ情報処理部
15 動画像中移動経路特定部
16 表示態様特定部
17 表示制御部
20 記憶部
21 軌跡情報記憶部
22 仮想オブジェクト情報記憶部
30 メモリ
40 出力部
50,150 センサ部
60 通信部
70 入力部
80 撮影部
100,200 ナビゲーション装置

Claims (5)

  1. 表示装置に仮想オブジェクトを表示してユーザを目的地まで誘導するナビゲーション装置であって、
    前記表示装置に表示する仮想オブジェクトを記憶する仮想オブジェクト記憶手段と、
    軌跡情報を記憶する軌跡情報記憶手段と、
    現在位置情報を特定する現在位置情報特定手段と、
    前記軌跡情報に基づいて前記ユーザの移動経路を決定する移動経路決定手段と、
    前記ユーザの周囲の状況を撮影する撮影装置が撮影した動画像を取得する動画像取得手段と、
    前記撮影装置の撮影方位を含む撮影装置状態を特定する撮影装置状態特定手段と、
    前記現在位置情報と前記撮影装置状態とを参照して、前記動画像における前記移動経路を示す動画像中移動経路を特定する動画像中移動経路特定手段と、
    該動画像中移動経路特定手段により特定された前記動画像中移動経路を参照して、前記動画像における前記仮想オブジェクトの表示位置および表示形態を含む仮想オブジェクト表示態様を特定する仮想オブジェクト表示態様特定手段と、
    該仮想オブジェクト表示態様特定手段により特定された前記仮想オブジェクト表示態様によって前記仮想オブジェクトを前記動画像に重畳して前記表示装置に表示する表示手段とを含む
    ことを特徴とするナビゲーション装置。
  2. 前記動画像に含まれる前記ユーザの周囲の物体を示す現実オブジェクトの3次元空間における位置を検出する3次元位置検出手段を含み、
    前記表示態様特定手段は、前記3次元位置検出手段により検出された前記現実オブジェクトの3次元空間における位置を参照して、前記3次元空間内において前記仮想オブジェクトと前記現実オブジェクトとが重ならない位置を前記仮想オブジェクトの表示位置として特定する
    請求項1に記載のナビゲーション装置。
  3. 前記ユーザが追従する追従車両が備える端末から通信ネットワークを介して当該追従車両の移動軌跡に関する軌跡情報を所定の間隔で取得する軌跡情報取得手段と、
    該軌跡情報取得手段により取得された前記軌跡情報を用いて前記移動経路決定手段により特定された前記移動経路を更新する移動経路更新手段とを含む
    請求項1または請求項2に記載のナビゲーション装置。
  4. 前記移動経路設定手段により設定された前記移動経路の残りの距離を特定する残距離特定手段と、
    該残距離特定手段により特定された前記移動経路の残り距離が所定距離となったか否かを判定する残距離判定手段とを含み、
    前記軌跡情報取得手段は、残距離判定手段により前記移動経路の残り距離が所定距離となったと判定されたときに前記軌跡情報を取得する
    請求項1から請求項3のうち何れかに請求項ナビゲーション装置。
  5. 表示装置に仮想オブジェクトを表示してユーザを目的地まで誘導するナビゲーション装置に動作制御させるためのナビゲーションプログラムであって、
    前記表示装置に表示する仮想オブジェクトを記憶する仮想オブジェクト記憶手段と、軌跡情報を記憶する軌跡情報記憶手段とを備える前記ナビゲーション装置に、
    現在位置情報を特定する現在位置情報特定処理と、
    前記軌跡情報に基づいて前記ユーザの移動経路を決定する移動経路決定処理と、
    前記ユーザの周囲の状況を撮影する撮影装置が撮影した動画像を取得する動画像取得処理と、
    前記撮影装置の撮影方位を含む撮影装置状態を特定する撮影装置状態特定処理と、
    前記現在位置情報と前記撮影装置状態とを参照して、前記動画像における前記移動経路を示す動画像中移動経路を特定する動画像中移動経路特定処理と、
    該動画像中移動経路特定処理にて特定した前記動画像中移動経路を参照して、前記動画像における前記仮想オブジェクトの表示位置および表示形態を含む仮想オブジェクト表示態様を特定する仮想オブジェクト表示態様特定処理と、
    該仮想オブジェクト表示態様特定処理にて特定した前記仮想オブジェクト表示態様によって前記仮想オブジェクトを前記動画像に重畳して前記表示装置に表示する表示処理とを
    実行させるためのナビゲーションプログラム。
JP2013178418A 2013-08-29 2013-08-29 ナビゲーション装置、及びナビゲーションプログラム Pending JP2015049039A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013178418A JP2015049039A (ja) 2013-08-29 2013-08-29 ナビゲーション装置、及びナビゲーションプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013178418A JP2015049039A (ja) 2013-08-29 2013-08-29 ナビゲーション装置、及びナビゲーションプログラム

Publications (1)

Publication Number Publication Date
JP2015049039A true JP2015049039A (ja) 2015-03-16

Family

ID=52699203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013178418A Pending JP2015049039A (ja) 2013-08-29 2013-08-29 ナビゲーション装置、及びナビゲーションプログラム

Country Status (1)

Country Link
JP (1) JP2015049039A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228614A (zh) * 2016-07-29 2016-12-14 宇龙计算机通信科技(深圳)有限公司 一种场景再现方法和装置
KR20200103115A (ko) 2018-02-26 2020-09-01 미쓰비시덴키 가부시키가이샤 가상 물체 표시 제어 장치, 가상 물체 표시 시스템, 가상 물체 표시 제어 방법, 및 가상 물체 표시 제어 프로그램
KR20200104918A (ko) 2018-02-26 2020-09-04 미쓰비시덴키 가부시키가이샤 가상 물체 표시 제어 장치, 가상 물체 표시 시스템, 가상 물체 표시 제어 방법, 및 가상 물체 표시 제어 프로그램
CN112712597A (zh) * 2020-12-21 2021-04-27 上海影创信息科技有限公司 目的地相同用户的轨迹提示方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001317953A (ja) * 2000-05-08 2001-11-16 Alpine Electronics Inc ナビゲーション装置
JP2002144913A (ja) * 2000-11-07 2002-05-22 Nissan Motor Co Ltd 車両用表示装置及び表示装置を有する自動車
WO2012090325A1 (ja) * 2010-12-28 2012-07-05 トヨタ自動車株式会社 ナビゲーション装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001317953A (ja) * 2000-05-08 2001-11-16 Alpine Electronics Inc ナビゲーション装置
JP2002144913A (ja) * 2000-11-07 2002-05-22 Nissan Motor Co Ltd 車両用表示装置及び表示装置を有する自動車
WO2012090325A1 (ja) * 2010-12-28 2012-07-05 トヨタ自動車株式会社 ナビゲーション装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228614A (zh) * 2016-07-29 2016-12-14 宇龙计算机通信科技(深圳)有限公司 一种场景再现方法和装置
KR20200103115A (ko) 2018-02-26 2020-09-01 미쓰비시덴키 가부시키가이샤 가상 물체 표시 제어 장치, 가상 물체 표시 시스템, 가상 물체 표시 제어 방법, 및 가상 물체 표시 제어 프로그램
KR20200104918A (ko) 2018-02-26 2020-09-04 미쓰비시덴키 가부시키가이샤 가상 물체 표시 제어 장치, 가상 물체 표시 시스템, 가상 물체 표시 제어 방법, 및 가상 물체 표시 제어 프로그램
CN112712597A (zh) * 2020-12-21 2021-04-27 上海影创信息科技有限公司 目的地相同用户的轨迹提示方法和系统

Similar Documents

Publication Publication Date Title
JP5921320B2 (ja) 表示システム、携帯装置、車載装置、及び、プログラム
JP6176541B2 (ja) 情報表示装置、情報表示方法及びプログラム
EP3224574B1 (en) Street-level guidance via route path
JP6540485B2 (ja) 経路変更装置及び経路変更システム
JP2007080060A (ja) 対象物特定装置
WO2017145364A1 (ja) 駐車支援装置および駐車支援方法
WO2018135167A1 (ja) ナビゲーションシステム、コンピュータプログラム製品、車載装置
WO2019126957A1 (zh) 端云结合定位方法、装置及电子设备、计算机程序产品
JP2008219559A (ja) 車載カメラシステム
US9791287B2 (en) Drive assist system, method, and program
US20230252689A1 (en) Map driven augmented reality
JP2015049039A (ja) ナビゲーション装置、及びナビゲーションプログラム
WO2018134897A1 (ja) 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法
JP2008032596A (ja) 3次元マップマッチング処理装置、3次元マップマッチング処理方法、3次元マップマッチング処理プログラム、ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラム、および、自動車
US11656089B2 (en) Map driven augmented reality
JP5829154B2 (ja) 拡張現実システム
JP2009264835A (ja) ナビゲーション装置、方法及びプログラム
JP7217804B2 (ja) 表示制御装置および表示制御方法
KR20160065721A (ko) 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
JP6976186B2 (ja) 端末装置及びプログラム
KR20150124527A (ko) 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체
JP6444514B2 (ja) 表示制御装置、表示装置および経路案内方法
JP6432312B2 (ja) ナビゲーションシステム、ナビゲーション方法、及びナビゲーションプログラム
JP2019106150A (ja) 車載装置、情報提示方法
JP2019105581A (ja) ナビゲーション装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170905