JP2020123082A - 時空間情報arシステム、時空間情報ar提示方法およびプログラム - Google Patents

時空間情報arシステム、時空間情報ar提示方法およびプログラム Download PDF

Info

Publication number
JP2020123082A
JP2020123082A JP2019013817A JP2019013817A JP2020123082A JP 2020123082 A JP2020123082 A JP 2020123082A JP 2019013817 A JP2019013817 A JP 2019013817A JP 2019013817 A JP2019013817 A JP 2019013817A JP 2020123082 A JP2020123082 A JP 2020123082A
Authority
JP
Japan
Prior art keywords
image
user terminal
augmented reality
tourist spot
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019013817A
Other languages
English (en)
Inventor
佳世子 山本
Kayoko Yamamoto
佳世子 山本
隆平 牧野
Ryuhei Makino
隆平 牧野
諒 佐々木
Ryo Sasaki
諒 佐々木
奏 内藤
Minato Naito
奏 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electro Communications NUC
Original Assignee
University of Electro Communications NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electro Communications NUC filed Critical University of Electro Communications NUC
Priority to JP2019013817A priority Critical patent/JP2020123082A/ja
Publication of JP2020123082A publication Critical patent/JP2020123082A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Instructional Devices (AREA)

Abstract

【課題】観光スポットのガイドが、AR技術を使って適切に行えるようにする。【解決手段】地図又はルート案内用画像を使って、観光スポットを案内する拡張現実画面をユーザ端末に表示させる時空間情報AR提示を行うものである。ここで、予め、観光スポットについての特定時期の観光スポット案内画像を蓄積する。そして、ユーザ端末が拡張現実画面を表示する際に、地図又はルート案内用画像に基づいて、ユーザ端末の現在位置からの拡張現実画面を表示する。この拡張現実画面の表示をユーザ端末が行う際に、蓄積された特定時期の観光スポット案内画像を取得して、拡張現実画面に重畳表示するようにした。【選択図】図5

Description

本発明は、街歩きなどの観光支援に適用して好適な、時空間情報ARシステム、時空間情報AR提示方法およびプログラムに関する。
近年、高度情報化の進展により、観光に関しても様々な情報がインターネットにより発信されている。特に都市地域では、観光スポットが狭い地域に点在している場合が多く、これらを巡る街歩きコースが観光客向けに提供されている。
また、スマートフォンやタブレット端末などの端末装置を使って、デジタル地図上に、街歩きコースや観光スポットを表示することが提案されている。
特許文献1には、端末装置などで撮影した目的地までの実画像中に、経路の途中に存在する公園や避難所などを示す仮想的画像を付加する、拡張実現(Augmented Reality:以下「AR」と称する)技術が記載されている。
また、特許文献2には、AR技術で実画像中に公園などの施設の案内を表示する際に、現在位置からの距離に応じて、案内する施設を制限する技術が記載されている。
国際公開第2015/182290号公報 US9488488 B2
ところで、従来提案されているAR技術でデジタル地図上などに観光スポットを表示する技術は、公園などの観光スポットを示す文字やアイコンなどを表示するものである。ところが、文字やアイコンによる案内表示だけでは、案内される観光スポットがどのようなスポットか詳細を伝えることは困難であり、ユーザに観光スポットを案内する上で、必ずしも適切な表示が行われているとは言えなかった。
また、地図表示を行う際に、地図中の各地点に、ユーザが投稿した画像をサムネイル画像のように小さく表示することも従来から行われている。しかしながら、ユーザが投稿した画像は、その観光スポットをガイドする観光施設や観光協会などの運営側から見て、必ずしもその観光スポットを案内するのに、最適な画像とは言えない場合が多々ある。
本発明は、観光スポットのガイドが、AR技術を使って適切に行える時空間情報ARシステム、時空間情報AR提示方法およびプログラムを提供することを目的とする。
また本発明の時空間情報ARシステムは、地図又はルート案内用画像を使った拡張現実画面の表示を行うユーザ端末と、そのユーザ端末と通信を行って、ユーザ端末に地図又はルート案内画像に関連した観光スポットの表示を実行させるサーバとを備えるものである。
ここで、サーバは、地図又はルート案内画像と同時に表示する観光スポット案内画像を蓄積する地図内画像データベースと、ユーザ端末が表示中の地図又はルート案内画像に基づいて、地図内画像データベースが蓄積した画像の内の、観光スポットを案内するための特定時期の観光スポット案内画像を選択して、ユーザ端末に送信する処理部と、を備える。
ユーザ端末は、現在位置を検出する測位部と、サーバから送信された特定時期の観光スポット案内画像を受信する通信部と、地図又はルート案内画像に基づいて、測位部が検出した現在位置からの拡張現実画面を表示する表示部と、を備える。
そして、ユーザ端末の表示部は、地図又はルート案内画像に基づいた拡張現実画面の表示を行う際に、その拡張現実画面の中に、サーバから送信された、特定時期の観光スポット案内画像を拡張現実画面に重畳して表示するようにした。
また、本発明の時空間情報AR提示方法は、地図又はルート案内用画像を使って、観光スポットを案内する拡張現実画面をユーザ端末に表示させる時空間情報AR提示方法である。
そして、予め、観光スポットについての特定時期の観光スポット案内画像を蓄積し、ユーザ端末が拡張現実画面を表示する際に、地図又はルート案内用画像に基づいて、ユーザ端末の現在位置からの拡張現実画面を表示する。
この拡張現実画面の表示をユーザ端末が行う際に、蓄積された特定時期の観光スポット案内画像を取得して拡張現実画面に重畳表示するようにした。
また、本発明のプログラムは、地図又はルート案内用画像を使って、観光スポットを案内する拡張現実画面をユーザ端末に表示させる処理をコンピュータに実行させるプログラムである。
ここで、このプログラムは、地図又はルート案内用画像に基づいて、ユーザ端末の現在位置からの拡張現実画面を表示する拡張現実画面表示手順と、拡張現実画面表示手順で拡張現実画面を表示する際に、特定時期の観光スポット案内画像を取得して拡張現実画面に重畳表示する観光スポット案内画像表示手順と、を有する。
本発明によると、拡張現実画面を使って、ユーザ端末の周囲に存在する観光スポットを案内する際に、例えば、該当する観光スポットを案内するのに最も適した特定の景色が見られる時期の画像や、特定のイベントが開催される時期の画像を使って案内ができるようになる。したがって、その観光スポットをガイドする上で、最も宣伝効果が高い観光スポットの画像でガイドできるようになり、ユーザ端末を利用して街歩きなどを行うユーザへの観光スポットの宣伝効果を高めることができる。
本発明の一実施の形態例によるシステム全体の例を示す構成図である。 本発明の一実施の形態例によるユーザ端末の構成例を示すブロック図である。 本発明の一実施の形態例によるサーバでの画像保存処理の例を示すフローチャートである。 本発明の一実施の形態例によるマーカー対応画像の保存例を示す図である。 本発明の一実施の形態例によるユーザ端末での表示処理例を示すフローチャートである。 本発明の一実施の形態例によるユーザ端末でのメニュー選択例を示すフローチャートである。 本発明の一実施の形態例による表示例(メニュー選択画像の例)を示す図である。 本発明の一実施の形態例によるコース選択画面の例を示す図である。 本発明の一実施の形態例による観光スポットの表示範囲の設定画面の例を示す図である。 本発明の一実施の形態例によるピクトグラム選択画面の例を示す図である。 本発明の一実施の形態例によるアプリケーションの起動から、画像が表示されるまでの処理の流れを示すフローチャートである。 本発明の一実施の形態例による位置情報型ARでの表示の更新処理の例を示す図である。 本発明の一実施の形態例による位置情報型ARでの表示例(例1)を示す図である。 本発明の一実施の形態例による位置情報型ARでの表示例(例2)を示す図である。 本発明の一実施の形態例による位置情報型ARでの表示例(例3)を示す図である。 本発明の一実施の形態例による物体認識型ARでの表示処理例を示す図である。 本発明の一実施の形態例による物体認識型ARでの表示例を示す図である。 本発明の一実施の形態例による位置情報型ARでの表示例(例4)を示す図である。
以下、本発明の一実施の形態例(以下、「本例」と称する)を説明する。
[1.システム構成例]
図1は、本例の時空間情報ARシステム全体の構成を示す。本例の時空間情報ARシステムは、ユーザ端末2,3,4を利用しているユーザに対して、AR(拡張現実)を使った時空間情報を提示して、観光コースや観光スポットなどの観光ガイドを行うものである。ここで、本例のシステムで提示するARには、位置情報型ARと物体認識型ARの2種類がある。それぞれのARの具体例については後述する。
図1に示す構成について説明すると、本例の時空間情報提示システムは、ネットワーク1に接続されたサーバ10を備える。サーバ10は、ネットワーク1を介してユーザ端末2,3,4からアクセスされる。ユーザ端末2,3,4は、ネットワーク1を介した通信が可能で、地図やテキスト画面などの表示を行う様々な形態の端末が適用可能である。図1に示す例では、パーソナルコンピュータ装置で構成されるユーザ端末2と、携帯情報端末(スマートフォン,タブレット端末など)で構成されるユーザ端末3と、ウェラブル端末で構成されるユーザ端末4を示す。
サーバ10は、コンピュータ装置で構成され、中央制御ユニット(CPU)11、ROM12、RAM13、不揮発性ストレージ14、ネットワークインタフェース15、入力装置16、及び表示装置17を備える。これらのサーバ10の各構成要素は、バスライン18でデータ転送可能に接続される。
システム全体の制御部として機能するCPU11は、本例の時空間情報ARシステムが備える各機能を実現するソフトウェアをROM12から読み出して実行する。RAM13には、演算処理の途中に発生した変数やパラメータ等が一時的に書き込まれる。したがって、CPU11とROM12とRAM13とで、ARを利用した時空間情報をユーザに提示するための演算処理部として機能する。
不揮発性ストレージ14としては、例えば、HDD(Hard disk drive)、SSD(Solid State Drive)、不揮発性のメモリ等が用いられる。この不揮発性ストレージ14には、OS(Operating System)、各種のパラメータの他に、コンピュータ装置(サーバ10)を時空間情報ARシステムとして機能させるためのプログラムが記録されている。
また、後述するように、不揮発性ストレージ14には、地図データベース20、地理・歴史データベース30、及び地理内画像表示用データベース40が格納されている。
ネットワークインタフェース15には、例えば、NIC(Network Interface Card)等が用いられ、ネットワーク1との通信が行われる。
また、入力装置16や表示装置17は、地図データベース20、地理・歴史データベース30、及び地理内画像表示用データベース40を構成するデータの確認などに使用される。
以下、地図データベース20、地理・歴史データベース30、及び地理内画像表示用データベース40について順に説明する。
地図データベース20には、予め決められた範囲(観光ガイドを行う範囲)の地図データが記憶される。本例の場合には、現代の地図データが記憶されるが、過去の特定の時代の地図データを記憶してもよい。また、地図データを俯瞰図として表示する際には、現代又は過去の特定の時代の景観を再現する景観再現3Dデータ21や、景観などの視覚化を行うためのデータ22が含まれる。これらの地図データベース20を使って、ユーザに観光ガイドを行う。
地理・歴史データベース30には、地理をテキストや画像で案内する地理案内データや、歴史をテキストや画像で案内する歴史案内データが記憶される。また、地理及び歴史についても問題が用意された地理・歴史確認テストのデータ31や、ユーザからのコメント投稿のデータ32や、本例のシステムを利用するユーザの登録情報であるユーザ情報33などが、地理・歴史データベース30に記憶される。
地図内画像表示用データベース40には、地図の内部などに配置される映像データ(動画像データ)41や画像データ(静止画像データ)42が記憶される。また、動画像や静止画像を3Dモデルとして表示するための3Dモデルデータ43も記憶される。
映像データ41や画像データ42には、観光スポットなどを示す静止画像や動画像が含まれる。これらの映像データ41や画像データ42は、観光ガイドを実行する事業者が用意する場合と、ユーザから投稿された静止画像や動画像を利用する場合とがある。
なお、地図内画像表示用データベース40が格納する3Dモデルデータ43などの一部のデータは、物体認識型ARで物体認識を行うための比較データとして利用される。
[2.ユーザ端末の構成例]
図2は、スマートフォンやタブレット端末で構成されるユーザ端末3の構成を示す。
ユーザ端末3は、中央制御ユニット(CPU)51、ROM52、RAM53、通信部54、表示部55、入力部56、カメラ57、測位部58、および方位センサ59を備える。これらのユーザ端末3の各構成要素は、バスライン60でデータ転送可能に接続される。
ユーザ端末全体の制御部として機能するCPU51は、本例の時空間情報ARシステムを実行する上で必要な各機能を実現するソフトウェア(アプリケーションプログラム)をROM52から読み出して実行する処理部である。RAM53には、演算処理の途中に発生した変数やパラメータ等が一時的に書き込まれる。したがって、CPU51とROM52とRAM53とで、ARによる時空間情報を、表示部55に提示するための演算処理部として機能する。
通信部54は、ネットワーク1を介してサーバ10等と通信を行い、サーバ10にアクセスして必要な情報のやり取りを行う。
表示部55は、例えば液晶ディスプレイや有機ELディスプレイが適用され、ユーザに提示する様々な情報を表示する。AR技術を使って時空間情報を表示する際にも、この表示部55が使用される。
入力部56は、表示部55に配置されたタッチパネルや、端末の筐体に配置された操作キーが使用され、ユーザの操作で各種選択が行われる。
カメラ57は、端末の筐体に配置される。カメラ57は、表示部55が配置された面とは反対側に配置される。したがって、例えばユーザ端末3をユーザが手で持って、表示部55に向き合って、表示された画像を見ている状態のとき、表示部55の反対側に配置されたカメラ57が、ユーザの前方を撮影する。
測位部58は、例えばGPS(Global Positioning System)と称される測位システム用の衛星信号を受信して、ユーザ端末3の現在位置を検出する測位処理を行う。測位部58がGPSなどの衛星信号を利用するのは一例であり、例えば無線LANの信号を受信して、衛星信号を受信できない状況で位置の測位を行うようにしてもよい。
方位センサ59は、ユーザ端末3の方位(表示部55やカメラ57が向いている方位)を検出する。
このように構成したユーザ端末3では、測位部58が測位した現在位置と、方位センサ59が検出した端末の方位に基づいて、表示部55がARによる時空間情報の提示を行い、観光ガイドを行う。位置や方位を利用するのは、位置情報型ARの場合であり、物体認識型ARの場合には、カメラ57が撮影した画像を利用して、提示する時空間情報が選択される。
ユーザ端末3の表示部55が時空間情報を提示する際には、サーバ10から地図データや画像データをユーザ端末3が取得する。但し、ユーザに提示するデータを全てサーバ10が保存して、必要な情報をユーザ端末3に送信するのは一例であり、観光ガイドに必要な地図データや画像データの一部又は全部を、ユーザ端末2,3,4が予めサーバ10などからダウンロードして保持してもよい。
[3.サーバでの画像保存処理例]
図3は、サーバ10での画像保存処理の流れを示すフローチャートである。
先に説明したように、サーバ10の地図内画像表示用データベース40には、観光スポットなどを示す静止画像や動画像が保存される。図3のフローチャートは、この観光スポットなどを示す画像のサーバ10を使用したシステムの管理者(作業実行者)による保存処理を示す。
サーバ10は、ユーザに案内したい観光スポットのそれぞれを、地図中の対応位置にマーカーとして登録してある。ここでは、あるエリア内の観光スポットについての画像保存処理を行うものとする。
そして、サーバ10では、エリア内の画像登録を行うマーカーを1つ選択する(ステップS11)。ここで、選択したマーカーに既に画像の登録があるか否かを判断する(ステップS12)。このステップS12での判断で、既に画像の登録がある場合(ステップS12のYes)、ステップS11の処理に戻り、別のマーカーの選択に移る。
また、ステップS12での判断で、画像の登録がない場合(ステップS12のNo)、作業実行者は、そのマーカーに対応した観光スポットについて、ウェブ上での公式サイトなどに、適切な画像があるか否かを判断する(ステップS13)。
また、ステップS13の判断で、適切な画像がないと判断したとき(ステップS13のNo)、作業実行者は、該当するマーカーに対応した観光スポットについての適切なユーザ投稿画像があるか否かを判断する(ステップS14)。ここでのユーザ投稿画像は、システムが備えるサーバ10に直接投稿された画像から検索する他に、他の画像投稿システムから検索してもよい。
ステップS13の判断で、適切な画像がある場合(ステップS13のYes)、及びステップS14の判断で、適切なユーザ投稿画像がある場合(ステップS14のYes)、作業実行者は、該当する画像を、マーカーに対応した画像として、地図内画像表示用データベース40に保存する(ステップS15)。なお、保存時には、後述する種別の情報を画像データに付加する。
そして、ステップS15で画像を保存した後、及びステップS14で適切なユーザ投稿画像がないと判断したとき(ステップS15のNo)、作業中のエリア内の全てのマーカーについての処理が終了したか否かを判断する(ステップS16)。この判断は、例えばサーバ10のCPU11が行う。
このステップS16の判断で、エリア内の全てのマーカーについての処理が終了したと判断したとき(ステップS16のYes)、サーバ10は画像保存処理を終了する。
また、ステップS16の判断で、未処理のマーカーがあると判断したとき(ステップS16のNo)、サーバ10は、ステップS11のマーカー選択処理に戻る。
このようにして、観光ガイドを行うエリア内の観光スポットについて、予め画像を保存しておく。
画像を保存する際に、それぞれの画像に種別を付与する。
図4は、サーバ10の地図内画像表示用データベース40が保存する画像に付加される情報の例を示す。
ここでは、マーカー番号として、NO.1,NO.2,NO.3の3つの観光スポットを示す。それぞれのマーカー番号ごとに、対応した観光スポットの座標位置の情報を持つ(不図示)。
そして、図4に示すように、マーカー番号ごとの画像として、代表画像と、季節毎の画像(春画像、夏画像、秋画像、冬画像)と、イベント時画像とを保存する領域を確保する。この図4に示す情報では、地図内画像表示用データベース40が保存した画像の識別番号の情報が格納される。
代表画像は、その観光スポットをガイドするのに最も適した特定時期の画像とする。例えば、桜などの花の名所の観光スポットの画像のとき、代表画像として、花が咲いている時期の画像を代表画像とする。あるいは、祭りなどのイベントが有名な神社仏閣の場合、代表画像として、そのイベントが開催中の時期の画像を代表画像とする。これらの特定時期の代表画像は、季節毎の画像やイベント時画像と重複してもよい。あるいは、代表画像を、季節毎の画像やイベント時画像とは別に用意してもよい。場合によっては、特定時期の代表画像のみを用意する観光スポットとしてもよい。
季節毎の画像については、その観光スポットでの各季節に撮影された画像とする。季節毎の画像は、全ての季節の画像を保存してもよいが、全ての季節の画像を保存する必要はない。
イベント時画像については、その観光スポットで特定日(特定時期)に例年開催されるイベントの様子の画像とする。イベント時画像についても、存在しない場合には保存する必要はない。
このように、図3のフローチャートに従ってマーカーに対応した画像を保存する上で、それぞれの画像に、代表画像、季節毎の画像、イベント時画像などの種別を登録する。
なお、図4の表では、マーカー毎に登録される画像の種別を示すが、マーカーに対応した観光スポットについての、その他の情報を、各マーカーや画像に登録してもよい。例えば、各画像についての説明文、名称、ユーザコメントなどの情報を登録してもよい。これらの説明文、名称、ユーザコメントなどの情報は、地理・歴史データベース30が格納する。
[4.ユーザ端末での表示処理例]
図5のフローチャートは、ARを利用した時空間情報の表示をユーザ端末3が行う際に、時空間情報画像に加えてサーバ10が保存した画像を表示する処理の流れを示す。
ここでは、ユーザ端末3は、サーバ10が観光案内サービスを行うエリア内でのユーザの街歩きに利用されているものとする。
まず、ユーザ端末3のCPU51は、測位部58および方位センサ59から現在のユーザ端末3の位置情報と方位情報を取得する(ステップS21)。そして、ユーザ端末3は、メニュー選択画面を使ったユーザ操作で、観光スポットまでの距離などの案内する条件の選択を行う(ステップS22)。なお、メニュー選択が事前に行われている場合には、このステップS22でのメニュー選択処理を省略する。
次に、ユーザ端末3のCPU51は、ステップS22でのメニュー選択で、物体認識型ARが選択されたか否かを判断する(ステップS23)。このステップS23での判断で、物体認識型ARが選択されていない場合、つまり位置情報型ARの場合(ステップS23のNo)、CPU51は、現在位置を中心として、ユーザ端末3の筐体が向いている方位角の方向で、設定された距離以内を対象範囲とし、対象範囲内のマーカーデータをサーバ10から取得する(ステップS24)。ここでのマーカーデータには、そのマーカーデータに紐付けられた画像データや説明のデータが含まれる。但し、画像データについては、図4に示す各マーカーに対応した画像の内の代表画像のデータのみでよい。メニュー選択で代表画像以外の画像についても表示を行う設定の場合には、マーカーデータに紐付けられたその他の画像(季節毎の画像やイベント時画像)を取得する。
そして、ユーザ端末3のCPU51は、ユーザ端末3の現在位置と方位角に応じて、位置情報型ARとして表示部55が行っている画像内に存在するマーカーの箇所に、マーカーを示す文字又はアイコンの表示処理を行う(ステップS25)。ここでの文字又はアイコンの表示例については後述する。
その後、ユーザ端末3のCPU51は、ユーザによる画面上の文字又はアイコンのタップがあるか否かを判断する(ステップS26)。このステップS26の判断で、タップがある場合には(ステップS26のYes)、ユーザ端末3のCPU51は、表示部55が表示中のマーカーを示す文字又はアイコンの箇所に、その文字又はアイコンの代わりに、マーカーに付随する画像(代表画像)を表示させる(ステップS27)。
なお、このように画像を表示した状態で、ユーザ端末3の位置や方位角が変化して、画像で示される観光スポットが表示範囲から外れた場合、ユーザ端末3のCPU51は、ステップS21の処理(又はステップS24の処理)に戻る。
また、ステップS26の判断で、タップがある場合には(ステップS26のNo)、ユーザ端末3のCPU51は、ステップS24の処理に戻る。
そして、ステップS23での判断で、物体認識型ARが選択された場合(ステップS23のYes)、CPU51は、カメラ57が撮影した画像に含まれる物体の認識処理を行う(ステップS31)。そして、CPU51は、ステップS31で認識した物体のデータ(物体の特徴を示すデータ)を、サーバ10に送り、サーバ10側でその物体のデータと一致する画像データが格納されているとき、該当する画像データをサーバ10から取得する(ステップS32)。ここでの認識を行う物体は観光スポットに設置された物体についてのデータであり、その認識に基づいて取得する画像データは、いずれかの観光スポットを示す画像データである。
ステップS32で画像データを取得したとき、ユーザ端末3のCPU51は、サーバ10から取得した画像を表示部55に表示させる(ステップS33)。
[5.ユーザ端末でのメニュー選択例]
図6は、図5のフローチャートのステップS22での、ユーザ操作によるメニュー選択時の判断処理の詳細を示す。
まず、ユーザ端末3のCPU51は、物体認識型ARが選択されたか否かを判断する(ステップS221)。ここで、物体認識型ARが選択された場合には(ステップS221のYes)、物体認識型ARの処理を行う動作モードに設定する(ステップS222)。物体認識型ARの処理を行う動作モードでは、図5のフローチャートのステップS31〜S33での処理が行われる。
そして、ステップS221の判断で、物体認識型ARでない選択の場合(つまり位置情報型ARの場合)には(ステップS221のNo)、ユーザ端末3のCPU51は、位置情報型ARでの時空間情報の提示の詳細設定に移り、最初に観光コースが指定されたか否かの判断を行う(ステップS223)。ここでの観光コースは、観光案内を行うエリア内で、予め街歩きを行うコースをサーバ10側で設定したものである。
ステップS223の判断で、観光コースが指定されたとき(ステップS223のYes)、ユーザ端末3のCPU51は、位置情報型ARで、指定されたコースのガイドを開始する(ステップS224)。
そして、ステップS223の判断で、観光コースの指定がない場合(ステップS223のNo)と、ステップS224で観光コースのガイドを開始した場合には、続いてユーザ端末3のCPU51は、表示範囲の設定があるか否かを判断する(ステップS225)。
このステップS225での判断で、表示範囲の設定がある場合(ステップS225のYes)、ユーザ端末3のCPU51は、マーカー表示を行う観光スポットを、現在位置から設定された距離以内のマーカーに制限する(ステップS226)。
さらに、ステップS225の判断で、表示範囲の設定がない場合(ステップS225のNo)と、ステップS226で距離制限を行った場合には、ユーザ端末3のCPU51は、周辺施設のピクトグラム表示についての設定があるか否かを判断する(ステップS227)。
このステップS227での判断で、ピクトグラム表示についての設定がある場合(ステップS227のYes)、ユーザ端末3のCPU51は、位置情報型ARで画面内に表示するピクトグラムの種類の選択画面(ピクトグラムで表示される周辺施設の種類の選択画面)を表示し、ピクトグラム表示についての選択を実行させる(ステップS228)。
さらにまた、ステップS227の判断で、ピクトグラム表示についての設定がないと判断した場合(ステップS227のNo)と、ステップS228でピクトグラム表示種類の設定を行った場合には、ユーザ端末3のCPU51は、マーカーに対応した画像の種類の選択があるか否かを判断する(ステップS229)。
このステップS229での判断で、マーカーに対応した画像の種類の選択がある場合(ステップS229のYes)、ユーザ端末3のCPU51は、表示画像をユーザ操作で選択された種類の画像とするモードに設定する(ステップS230)。
そして、このステップS229での判断で、マーカーに対応した画像の種類の選択がない場合(ステップS229のNo)と、ステップS230で画像の種類の設定を行った後、ユーザ端末3のCPU51は、メニュー選択に基づいた処理を終了する。
なお、この図6のフローチャートに示す処理順序は一例を示したものであり、その他の順序でメニュー選択時の処理を行うようにしてもよい。
次に、ユーザが画面上でのタップ操作でメニュー選択を行う具体例について、図7〜図10を参照して説明する。
図7は、ユーザ端末3の表示部55が、メニュー画面を最初に表示した例である。図7の右側の空白の欄は、カメラ57が撮影した画像などの現在実行中の画像が表示される領域である。図8〜図10の例の場合も、右側の空白の欄は同様である。
図7の左側には、メニューとして、観光コースの選択欄、ピクトグラムの選択欄、表示範囲の指定欄、物体認識型ARの選択欄、アンケートの欄、ログアウトの欄が順に表示される。
それぞれの欄がユーザ操作でタップされることで、それぞれの項目についての設定が行われる。
図8は、観光コースの選択欄がタッチされたときに遷移する画面の例を示す。
ここでは、「近藤勇と緑地コース」、「深大寺周辺コース」、「映画のまち調布コース」、「仙川芸術と文化コース」の4つを用意し、画面の左側にそれぞれのコースの選択欄を用意する。ユーザは、この4つのコースの内で、歩いてみたいコースの表示箇所をタップすることで、該当するコースが選択される。
図9は、表示範囲の設定時の画面の例である。
ここでは、画面上に距離を選択するスライドバーを画面の左側に表示し、そのスライドバーを動かすタップ操作で、距離を変更する。図9の例では、距離として1.55Kmとした例を示し、その距離内で、同時に表示可能な最大の観光スポットの数についても、距離の変化に連動して変化する。
なお、距離と、同時に表示可能な最大の観光スポットの数は、それぞれ個別に調整可能としてもよい。
図10は、ピクトグラムの選択画面の例を示す。
ここでは、ピクトグラムとして画面中に表示可能な観光スポットや施設の一覧が表示され、ユーザは、タップ操作で、表示したい周辺施設をチェックする。
図10の例では、表示可能な周辺施設の一覧として、駅、コンビニエンスストア、公衆トイレ、宿泊施設、飲食店、駐車場、交番、バスターミナル、及びレンタカー会社を示す。
これらの周辺施設の内で、位置情報型ARの提示時に、同時に表示されるピクトグラムがユーザ操作で選択される。例えば図10の例では、駅にチェックを入れてあり、地図や位置情報型ARでの案内表示時に、表示範囲に存在する駅が、ピクトグラムで表示されるようになる。
[6.ユーザ端末でのアプリケーションの実行例]
図11のフローチャートは、ユーザ端末3が、本例の時空間情報ARシステムのアプリケーションプログラムを実行する際の、アプリケーションプログラムでの実行手順の例を示す。
まず、ユーザ端末3のCPU51が、時空間情報ARシステムのアプリケーションプログラムを起動すると(ステップA11)、位置情報のファイルの読み込みに移る(ステップA12)。位置情報のファイルには、表示するマーカーの位置情報が収められている。
そして、ユーザ端末3のCPU51が、現在位置と方位で表示された画像(3D表示の地図表示画像やカメラ57が撮影したユーザ端末3の前方の画像)に、観光スポットを案内する画像の配置処理を行い、配置された画像を表示部55に表示させる(ステップA13)。この表示で、そのときのユーザ端末3の位置や方位に応じた、位置情報型ARによる時空間情報の提供が行われる。
この表示時には、メニュー選択などのユーザ操作による設定(ステップA14)が行われることで、設定された内容がステップA13での表示に反映される。ステップA14での設定としては、例えば観光コースの切り替え(ステップA141)、ピクトグラムの追加・変更(ステップA142)、表示範囲(距離)の指定(ステップA143)、画像の再読み込み(ステップA144)などが行われる。
また、ステップA13での位置情報型ARによる表示が行われた状態で、物体認識型ARへの切り替え操作があった場合には、物体認識型ARの画面に遷移する(ステップA15)。この物体認識型ARの画面では、ユーザ端末3が備えるカメラ57が撮影した画像の表示処理が行われる。そして、撮影画像内の物体の特徴量のファイルの読み込み処理が行われ(ステップA16)、認識対象となった物体の画像の周辺に、物体の特徴量から検出された画像が表示される(ステップA17)。また、認識対象の観光スポットについての説明が表示される(ステップA18)。
その後、位置情報型ARへの切り替え操作があると、位置情報型ARの画面に遷移し(ステップA19)、ステップA13でのユーザ端末3の位置や方位に応じた、位置情報型ARによる時空間情報の提供に戻る。
図12は、ユーザ端末3での位置情報型ARでの表示中に行われる表示の更新処理の例を示す。
まず、位置情報型ARで表示を行うアプリケーションプログラムが起動し(ステップA21)、そのアプリケーションプログラムの実行で(ステップA20)、表示画面が作成される。
ステップA20での表示画面が作成処理としては、位置情報をまとめたファイルをもとに、その位置に画像を配置する(ステップA22)。ここで配置する画像としては、観光スポットを表すマーカー、周辺施設を表すピクトグラム、観光コースの順路を示す矢印などがある。
そして、ユーザ端末3の現在位置や方位の更新により(ステップA24)、ユーザ端末3での表示が更新される(ステップA23)。具体的には、測位部58でのGPS機能による測位で得た現在位置と方位センサ59で得た方位角に応じて、観光コース上に配置したマーカー、ピクトグラム、矢印の画像までの距離が更新される(ステップA31)。また、更新された距離の情報に基づいて、マーカーの画面内の高度の変更、ピクトグラムの距離が短い順での並び替え、矢印表示を行う際の、コースから一定の範囲内にユーザ端末3が入ったことの表示等が行われる(ステップA32)。
また、メニュー選択などに基づいて、観光コースの変更と、ピクトグラム表示を行う内容の変更があったとき(ステップA25)、これらの変更に基づいた表示の変更が行われる(ステップA26)。具体的には、観光コースの変更が行われた場合、変更後の観光コースのマーカー表示に切り替わる。また、ピクトグラムの変更が行われた場合、新たに選択されたピクトグラムのみの表示に切り替わる。
ここで、位置情報型ARでの表示例を、図13〜図15に示す。
図13は、ユーザ端末3のカメラ57が撮影したリアルタイムの画像を、表示部55が表示した上に、その画像で示す現在位置から見た各観光スポットのマーカーを重畳表示して、観光スポットを実画像上でガイドするAR表示を行った例を示す。この図13に示すように、画像内の左上には、方位センサ59が検出した方位の情報が表示される。
観光スポットを示すマーカー表示としては、マーカーを示す四角形の枠内に、文字で観光スポット名を表示すると共に、その観光スポットの説明文を表示する。マーカーを示す四角形の枠は、予め設定された色で表示する。図13の例では、観光スポット名や説明文は、四角形の枠内に収まるように、先頭の数文字だけを表示する。
各マーカーを示す四角形の枠が画像内に配置される位置は、マーカーに対応した観光スポットが存在する方位に対応している。ここで、図13に示すように、現在位置からの距離が近い程、マーカーを示す四角形の枠が配置される画面内の高さを低い位置とし、枠のサイズについても大きくする。したがって、マーカーを示す四角形の枠が画面内の上方に配置され、その表示サイズも小さい場合には、現在位置からの距離が遠いことを示す。
なお、マーカーを示す四角形の枠が重なって表示される場合には、距離が近い方の枠(つまり大きいサイズの枠)を手前に表示し、距離が遠い方の枠の重なった箇所を隠すようにする。
図14は、現在位置から見た各観光スポットのマーカーとピクトグラムを重畳してAR表示した例を示す。この図14の例の場合にも、ユーザ端末3のカメラ57が撮影したリアルタイムの画像の上に重畳表示した例である。
図14の例の場合にも、現在位置と方位に基づいて、各観光スポットのマーカーを示す枠が表示され、観光スポットまでの距離に応じて、マーカーを示す枠の表示高さが変化している。
そして、図14の例の場合には、飲食店のピクトグラムと、駐車場のピクトグラムの表示を行うようにしてあり、飲食店と駐車場が存在する方位に、それぞれのピクトグラムが表示されている。このピクトグラムについても、マーカー表示と同様に、該当施設までの距離に応じて、画面内での表示高さと、表示サイズが設定される。
図15は、観光コースを示す矢印の画像を重畳表示してAR表示した例を示す。
図15の例では、交差点において、右折することを示す右側の矢印を表示している。この矢印により、予め決められた観光スポットを巡る観光コースを歩くことができる。
また、図15の例の場合にも、
を、表示部55が表示した上に、その画像で示す各観光スポットのマーカーとピクトグラムを表示するようにしている。
但し、観光コースを示す矢印は、最も手前に表示され、各観光スポットのマーカーとピクトグラムは、矢印と重なる表示位置のとき、矢印の後側に隠れるようにして、観光コースのガイドを優先させている。
なお、図13〜図15に示す各観光スポットのマーカーが表示された箇所が、ユーザ操作によるタップで選択された場合、その観光スポットを示す代表画像が表示される。代表画像は、図4で説明した処理で、各マーカーに対応して予めサーバ10に登録された画像である。このマーカーが選択された場合の表示例については後述する(図18)。
図16は、ユーザ端末3での物体認識型ARでの表示中に行われる表示の更新処理の例を示す。
まず、ユーザは、ユーザ端末3のカメラ57を、観光スポットにかざして、撮影を行う(ステップA41)。ここでの観光スポットを撮影する行為には、実際に観光スポットの箇所で撮影する場合と、観光ガイドなどの印刷物やウェブページの表示画面を、カメラ57で撮影する場合も含まれる。
このようにしてカメラ57が撮影した画像が、物体認識型ARの処理を行うアプリケーションプログラムに取り込まれ、認識処理が実行される(ステップA40)。具体的には、ターゲットマネージャに登録した観光スポットの特徴量を表したファイルを読み込む(ステップA43)と共に、カメラ57で撮影した画像が解析される(ステップA44)。
そして、特徴量と合致する物体がカメラ57で撮影された場合、その場所を中心に設定し(ステップA46)、認識された対象を中心に画像を中心に配置する(ステップA47)。また、画像をユーザがタップ操作したとき、その画像で示される観光スポットの説明文などが記載されたポップアップが表示される(ステップA48)。
なお、認識対象が変更された場合(ステップA42)、別のスポットの特徴量を表したファイルを読み込み(ステップA45)、変更後の認識対象についての認識処理を実行する。
なお、この物体認識型ARの処理での認識処理は、サーバ10で実行するが、ユーザ端末3で行うようにしてもよい。
図17は、ユーザ端末3の表示部55での、物体認識型ARの表示例を示す。
この例では、観光スポットに存在する物体(記念碑)が含まれる画像をカメラ57で撮影し、その記念碑が物体認識で検出された例を示す。
図17の例では、物体認識で検出された観光スポットの名称「マラソン折り返し記念碑」が表示される。また、その記念碑が設置された公園の代表画像(桜が咲いた時期の画像など)が、撮影画像中に重畳表示されている。
さらに、画像中の「詳細」の箇所をタップ操作することで、「マラソン折り返し記念碑」の詳細な説明を、画面中に表示させることができる。
図18の表示例は、図14に示す位置情報型ARでの表示を行っている状態で、その画面中の特定のマーカーをユーザがタップ操作したときの例を示す。
ここでは、図14に示す位置情報型ARでの表示中の「国立天文・・・」と表示されたマーカーをタップした例を示す。
この「国立天文・・・」のマーカーは、観光スポット「国立天文台」を示し、「国立天文台」の代表画像が、図18に示すように、画面内の任意の箇所に表示される。
なお、観光スポット「国立天文台」について、サーバ10側に代表画像以外の他の画像(季節ごとの画像やイベント画像など)の登録がある場合には、ユーザ操作(代表画像のタップ操作など)によって、代表画像を他の画像に切り替えるようにしてもよい。
あるいは、一定時間ごとに、同じ観光スポットについての別の画像に切り替えるようにしてもよい。
以上説明したように、本例の時空間情報ARシステムによると、AR画面を使って、ユーザ端末の周囲に存在する観光スポットを案内する際に、例えば、該当する観光スポットを案内するのに最も適した特定の景色が見られる時期の画像や、特定のイベントが開催される時期の画像などの代表画像を使って案内ができるようになる。したがって、その観光スポットをガイドする上で、最も宣伝効果が高い観光スポットの画像でガイドできるようになり、ユーザ端末を利用して街歩きなどを行うユーザへの観光スポットの宣伝効果を高めることができる。
また、物体認識型ARによる撮影した物体の認識処理を行うことで、実際に訪れた観光スポットの案内ができると共に、観光パンフレットや観光案内を行うウェブページを撮影して物体認識を行うことでも同様の観光スポットの案内ができるようになる。この物体認識型ARを行う際にも、認識した観光スポットについての特定時期の代表画像が表示され、該当する観光スポットを使った効果的な案内ができるようになる。
なお、図13〜図15に示す画面の例では、ユーザ端末3が備えるカメラ57が撮影したリアルタイム画像を表示部55が表示した上で、そのリアルタイム画像内で案内用画像のAR表示を行う例を示した。このようなリアルタイム画像を使ったAR表示を行うのは一例であり、その他の画像表示を行った上に、特定時期の案内用画像のAR表示を行うようにしてもよい。
例えば、立体地図(3D地図)によって、現在位置と現在方位での景観を表示した上に、同様のマーカーおよびピクトグラムの表示や代表画像表示を行うようにしてもよい。また、一般的な平面の地図や航空写真の上に、マーカーおよびピクトグラムの表示や代表画像表示を行うようにしてもよい。
また、図13〜図15に示すように、ユーザ端末でマーカーやピクトグラムを画面上にAR表示する場合での、画面内のマーカーやピクトグラムの数は、予めユーザが指定した一定数以下に制限するようにしてもよい。例えば、ユーザ端末でのユーザ操作による設定で、1つの画面内のマーカーの数を10個、ピクトグラムの数を10個にそれぞれ制限して、AR表示を行っている画面の方向に存在するマーカーとピクトグラムを、現在地から近い順に10個ずつ選び、その10個ずつのマーカーとピクトグラムをAR表示するようにしてもよい。このようにAR表示する際のマーカーとピクトグラムの数を制限することで、画面内に表示されるマーカーやピクトグラムの数が、多すぎる状況になることがなく、道路などの景観を表示する画面の視認性が確保される。
なお、表示数を制限する場合に現在地から近いものを選ぶのは一例であり、その他の処理で表示数を制限してもよい。例えばピクトグラムの内で、駅やバスターミナルについては優先度が高い施設(重要施設)とし、AR表示している画面が向いている方向に、駅やバスターミナルが存在するとき、これらのピクトグラムについては、距離に関係なく常に表示するようにし、それ以外の施設のピクトグラムについて、距離に応じて、制限数に収まるように選択するようにしてもよい。
1…ネットワーク、2…ユーザ端末(パーソナルコンピュータ装置)、3…ユーザ端末(携帯情報端末)、4…ユーザ端末(ウェラブル端末)、10…サーバ、11…中央制御ユニット(CPU)、12…ROM、13…RAM、14…不揮発性ストレージ、15…ネットワークインタフェース、16…入力装置、17…表示装置、18…バスライン、20…地図データベース、30…地理・歴史データベース、40…地図内画像表示用データベース、41…映像記憶部、42…画像記憶部、43…3Dモデル記憶部、51…中央制御ユニット(CPU)、52…ROM、53…RAM、54…通信部、55…表示部、56…入力部、57…カメラ、58…測位部、59…方位センサ

Claims (6)

  1. 地図又はルート案内用画像を使った拡張現実画面の表示を行うユーザ端末と、
    前記ユーザ端末と通信を行って、前記ユーザ端末に地図又はルート案内画像に関連した観光スポットの表示を実行させるサーバとを備え、
    前記サーバは、
    地図又はルート案内画像と同時に表示する観光スポット案内画像を蓄積する地図内画像表示用データベースと、
    前記ユーザ端末が表示中の地図又はルート案内画像に基づいて、前記地図内画像表示用データベースが蓄積した画像の内の、観光スポットを案内するための特定時期の観光スポット案内画像を選択して、前記ユーザ端末に送信する処理部と、を備え、
    前記ユーザ端末は、
    現在位置を検出する測位部と、
    前記サーバから送信された特定時期の観光スポット案内画像を受信する通信部と、
    前記地図又は前記ルート案内画像に基づいて、前記測位部が検出した現在位置からの拡張現実画面を表示する表示部と、を備え、
    前記ユーザ端末の表示部が、前記地図又は前記ルート案内画像に基づいた拡張現実画面の表示を行う際に、その拡張現実画面の中に、前記サーバから送信された、前記特定時期の観光スポット案内画像を拡張現実画面に重畳して表示するようにした
    時空間情報ARシステム。
  2. 前記特定時期は、該当する観光スポットで、特定の景色が見られる時期又は特定のイベントが開催される時期であり、その特定の景色又は特定のイベントを示す画像を、特定時期の観光スポット案内画像とした
    請求項1に記載の時空間情報ARシステム。
  3. 前記ユーザ端末が表示するルート案内画像に基づいた拡張現実画面は、前記ユーザ端末が備えるカメラが撮影したリアルタイム画像を使ったルート案内画像の画面であり、
    リアルタイム画像を使ったルート案内画像の画面中に、前記特定時期の観光スポット案内画像を表示する
    請求項1又は2に記載の時空間情報ARシステム。
  4. さらに、前記ユーザ端末の前記カメラが撮影した画像の特徴量から、特定の観光スポットを検出したとき、その検出した観光スポットについての、前記特定時期の観光スポット案内画像を、前記サーバから前記ユーザ端末が取得し、
    取得した前記特定時期の観光スポット案内画像を表示する
    請求項1〜3のいずれか1項に記載の時空間情報ARシステム。
  5. 地図又はルート案内用画像を使って、観光スポットを案内する拡張現実画面をユーザ端末に表示させる時空間情報AR提示方法であり、
    予め、前記観光スポットについての特定時期の観光スポット案内画像を蓄積し、
    前記ユーザ端末が前記拡張現実画面を表示する際に、前記地図又はルート案内用画像に基づいて、前記ユーザ端末の現在位置からの拡張現実画面を表示すると共に、
    この拡張現実画面の表示を行う際に、前記蓄積された前記特定時期の観光スポット案内画像を取得して、拡張現実画面に重畳表示するようにした
    時空間情報AR提示方法。
  6. 地図又はルート案内用画像を使って、観光スポットを案内する拡張現実画面をユーザ端末に表示させる処理をコンピュータに実行させるプログラムであり、
    前記地図又はルート案内用画像に基づいて、前記ユーザ端末の現在位置からの拡張現実画面を表示する拡張現実画面表示手順と、
    拡張現実画面表示処理で拡張現実画面を表示する際に、特定時期の観光スポット案内画像を取得して、拡張現実画面に重畳表示する観光スポット案内画像表示手順とを、コンピュータに実行させる
    プログラム。
JP2019013817A 2019-01-30 2019-01-30 時空間情報arシステム、時空間情報ar提示方法およびプログラム Pending JP2020123082A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019013817A JP2020123082A (ja) 2019-01-30 2019-01-30 時空間情報arシステム、時空間情報ar提示方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019013817A JP2020123082A (ja) 2019-01-30 2019-01-30 時空間情報arシステム、時空間情報ar提示方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2020123082A true JP2020123082A (ja) 2020-08-13

Family

ID=71993587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019013817A Pending JP2020123082A (ja) 2019-01-30 2019-01-30 時空間情報arシステム、時空間情報ar提示方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2020123082A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022102803A1 (ko) * 2020-11-11 2022-05-19 엔티콘 주식회사 증강현실 기반의 콘텐츠 제공 방법 및 제공장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008191893A (ja) * 2007-02-05 2008-08-21 Nippon Syst Wear Kk 風景配信装置、風景配信システム、風景画像の登録方法、風景配信方法、案内図作成システムおよびデータ構造
JP2010118019A (ja) * 2008-11-14 2010-05-27 Sharp Corp 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体
JP2012244509A (ja) * 2011-05-23 2012-12-10 Alpine Electronics Inc 車載システム
JP2013231655A (ja) * 2012-04-27 2013-11-14 Fujitsu Ten Ltd 表示システム、携帯装置、車載装置、及び、プログラム
JP2015228050A (ja) * 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法
JP2017150972A (ja) * 2016-02-25 2017-08-31 富士通テン株式会社 ナビゲーション装置および情報表示方法
JP2017153129A (ja) * 2017-04-14 2017-08-31 日立マクセル株式会社 受信装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008191893A (ja) * 2007-02-05 2008-08-21 Nippon Syst Wear Kk 風景配信装置、風景配信システム、風景画像の登録方法、風景配信方法、案内図作成システムおよびデータ構造
JP2010118019A (ja) * 2008-11-14 2010-05-27 Sharp Corp 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体
JP2012244509A (ja) * 2011-05-23 2012-12-10 Alpine Electronics Inc 車載システム
JP2013231655A (ja) * 2012-04-27 2013-11-14 Fujitsu Ten Ltd 表示システム、携帯装置、車載装置、及び、プログラム
JP2015228050A (ja) * 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法
JP2017150972A (ja) * 2016-02-25 2017-08-31 富士通テン株式会社 ナビゲーション装置および情報表示方法
JP2017153129A (ja) * 2017-04-14 2017-08-31 日立マクセル株式会社 受信装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022102803A1 (ko) * 2020-11-11 2022-05-19 엔티콘 주식회사 증강현실 기반의 콘텐츠 제공 방법 및 제공장치

Similar Documents

Publication Publication Date Title
US10127633B2 (en) Displaying representative images in a visual mapping system
KR101864814B1 (ko) 스트리트 뷰 목적지에 대한 안내를 제공하는 방법 및 장치
US7272501B2 (en) System and method for automatically collecting images of objects at geographic locations and displaying same in online directories
US10191635B1 (en) System and method of generating a view for a point of interest
US9361283B2 (en) Method and system for projecting text onto surfaces in geographic imagery
CN103335657B (zh) 一种基于图像捕获和识别技术增强导航功能的方法和系统
US11442596B1 (en) Interactive digital map including context-based photographic imagery
JP5383930B2 (ja) 端末装置の視野に含まれている客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体
US9165311B1 (en) Navigation-based AD units in street view
AU2015332046B2 (en) Street-level guidance via route path
US20140313287A1 (en) Information processing method and information processing device
KR102344393B1 (ko) 컨텍스트적 지도 뷰
US20150254694A1 (en) System and Method for Providing Redeemable Commercial Objects in Conjunction with Geographic Imagery
WO2016005799A1 (en) Social networking system and method
US10209876B2 (en) Method and apparatus for providing a segmented scrollbar
US10451431B2 (en) Route search system, route search device, route search method, program, and information storage medium
JP2020123082A (ja) 時空間情報arシステム、時空間情報ar提示方法およびプログラム
US8751301B1 (en) Banner advertising in spherical panoramas
US10108882B1 (en) Method to post and access information onto a map through pictures
WO2021079820A1 (ja) 需要度算出装置、イベント支援システム、需要度算出方法、及びイベント支援システムの生産方法
WO2021079828A1 (ja) 情報共有装置、イベント支援システム、情報共有方法、及びイベント支援システムの生産方法
US20160080554A1 (en) Audiovisual navigation system and method
JP2019144556A (ja) 情報処理装置、方法およびプログラム
US11137976B1 (en) Immersive audio tours
Si et al. Minimizing discontinuity in switching heterogeneous maps for mobile use

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230404