JP6481456B2 - 表示制御方法、表示制御プログラム、及び情報処理装置 - Google Patents

表示制御方法、表示制御プログラム、及び情報処理装置 Download PDF

Info

Publication number
JP6481456B2
JP6481456B2 JP2015064261A JP2015064261A JP6481456B2 JP 6481456 B2 JP6481456 B2 JP 6481456B2 JP 2015064261 A JP2015064261 A JP 2015064261A JP 2015064261 A JP2015064261 A JP 2015064261A JP 6481456 B2 JP6481456 B2 JP 6481456B2
Authority
JP
Japan
Prior art keywords
object data
display
range
terminal
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015064261A
Other languages
English (en)
Other versions
JP2016184294A (ja
Inventor
奨 古賀
奨 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015064261A priority Critical patent/JP6481456B2/ja
Priority to US15/073,024 priority patent/US10192332B2/en
Publication of JP2016184294A publication Critical patent/JP2016184294A/ja
Application granted granted Critical
Publication of JP6481456B2 publication Critical patent/JP6481456B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation

Description

本発明は、表示制御方法、表示制御プログラム、及び情報処理装置に関する。
カメラ等の撮像装置により撮像された画像の一部にオブジェクトデータを重畳して表示させる拡張現実(Augmented Reality:AR)技術が知られている。例えば、Global Positioning System(GPS,全地球測位網)等を用いて測位された端末の位置情報と、端末の傾き情報とに基づいて、その端末が撮像した画面に対応させてオブジェクトデータを重畳表示する。
また、端末の位置情報を中心として、その周辺のどの位置にオブジェクトデータが存在しているかをユーザに把握させるために、予め設定されているオブジェクトデータの周辺の位置情報をレーダ表示する手法がある。レーダ表示される範囲は、ユーザが設定可能であり、設定した範囲に対応させて端末の画面にオブジェクトデータを重畳表示する。
国際公開第2012/127605号 特開2012−38248号公報
しかしながら、予め設定されたオブジェクトデータが端末の位置からどの程度離れているかを事前に把握していなければ、その表示範囲を適切に設定することができない。例えば、ユーザが表示範囲を短い距離で設定した場合には、それより遠くにある重要なオブジェクトデータを見落とす可能性がある。また、ユーザが表示範囲を長い距離で設定した場合には、端末から近い距離に複数のオブジェクトデータがあった場合に、中心に密集した状態で表示されてしまう。そのため、オブジェクトデータの位置が把握しずらい。
一つの側面では、本発明は、オブジェクトデータの位置を把握し易くすることを目的とする。
一つの態様では、端末の位置及び向きに応じた領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを画面に表示する表示制御方法において、前記端末の移動速度に基づき、前記オブジェクトデータの表示を抑止する範囲を決定し、前記移動速度に基づいて、前記オブジェクトデータの前記画面への表示時間が、予め設定された最低表示時間に満たないオブジェクトデータを検出し、検出したオブジェクトデータの前記画面への表示を抑止する、処理をコンピュータが実行する。
一つの側面として、オブジェクトデータの位置を把握し易くすることができる。
端末の機能構成の一例を示す図である。 端末のハードウェア構成の一例を示す図である。 本実施形態で適用される各種データ例を示す図である。 各種データのデータ構成の一例を示す図である。 本実施形態における表示制御処理の一例を示すフローチャートである。 表示範囲制御処理の第1の実施例を示すフローチャートである。 表示範囲制御処理の第2の実施例を示すフローチャートである。 本実施形態におけるオブジェクトデータの画面表示例を示す図である。 本実施形態におけるレーダ表示の一例を示す図である。 表示範囲を選択する画面例を示す図である。
以下、図面に基づいて実施形態を説明する。
<情報処理装置の機能構成例>
本実施形態における情報処理装置の一例である端末の機能構成例について、図を用いて説明する。図1は、端末の機能構成の一例を示す図である。図1に示す端末10は、通信部11と、撮像部(画像取得部)12と、表示部13と、記憶部14と、検出部15と、認識部16と、判定部17と、表示制御部18と、制御部19とを有する。
通信部11は、例えばインターネットやLocal Area Network(LAN)等の通信ネットワークを介して、外部装置とデータの送受信が可能な状態で接続されている。例えば、通信部11は、画面に表示された画像に重畳表示するオブジェクトデータとその位置情報(座標値、回転角度、拡縮率)とを含むARコンテンツを管理する管理サーバ等からARコンテンツ情報等を受信する。オブジェクトデータとは、例えば現実空間に対応する三次元の仮想空間上に配置される物体のモデルデータ等であり、例えば撮像部12で撮像(撮影)された画像に重畳して表示される重畳用データである。オブジェクトデータは、例えばテキスト、アイコン、アニメーション、マーク、模様、画像、映像等の様々な形態が含まれる。
また、通信部11は、例えば赤外線通信やWi−Fi(登録商標)、Bluetooth(登録商標)等の通信手法を用いて、他の端末10等のコンピュータと近距離通信を行うことができる。
撮像部12は、一定のフレーム間隔で撮像を行い、画像データを生成する。撮像部12は、例えばデジタルカメラ等であるが、これに限定されるものではない。また、撮像部12は、端末10に内蔵されていてもよく、接続可能な外部装置であってもよい。撮像部12を装着する場合には、傾きや方向等が端末10と一体に動作されるものが好ましいが、これに限定されるものではない。また、撮像部12は、外部の撮像装置等で撮像された画像データを取得してもよい。この場合には、撮像装置の位置情報や向き情報を有することが好ましいが、これに限定されるものではない。
表示部13は、撮像部12から取得した撮像画像や、撮像画像にARコンテンツを重畳した合成画像を表示する。また、表示部13は、本実施形態における表示制御処理を行うために予め設定されたメニュー画面や設定画面、端末10を操作するための操作画面等を表示する。また、表示部13は、タッチパネル等のように、画面上から情報の入力を行ってもよい。
記憶部14は、本実施形態において必要な各種情報を記憶する。記憶部14は、例えば、制御部19等の制御により、情報を書き込んだり、読み出したりすることができる。記憶部14には、例えばARコンテンツを管理するARコンテンツ管理テーブル、コンテンツを区別するシナリオ管理テーブルやシーン管理テーブル、その他の各種設定情報等が記憶されるが、記憶される内容については、これに限定されるものではない。
検出部15は、例えば、1又は複数の測位方式を用いて撮像部12(又は端末10)の位置情報及び向き情報を取得する。位置情報の測位方式としては、例えばGPSを用いたり、接続中のWi−Fiネットワーク(例えば、ルータ)やモバイルネットワーク(例えば、基地局)等の位置から位置情報(緯度、経度、高度)を取得することができるが、これに限定されるものではない。また、検出部15は、同時に複数のWi−Fiネットワークやモバイルネットワークと接続中の場合には、それぞれの位置情報の平均値や、受信強度が最大のルータや基地局等の位置情報を用いて端末10の位置情報を取得してもよい。
また、向き情報の測定方式としては、例えば電子コンパスやジャイロセンサ等を用いて、向き(方位)情報(傾斜(Pitch)、方位(Azimuth)、回転(Roll))等を取得することができるが、これに限定されるものではない。例えば、電子コンパスは、地磁気センサ、方位センサ等の一例であり、地球の地磁気を二次元又三次元で検出し、地磁気に対してどの方角を向いているかにより、向き情報を取得することができる。また、ジャイロセンサは、回転していることを検知したり、向きの変化を検知することで向き情報を取得することができる。
検出部15は、上述した位置情報や向き情報を定期的に取得する。また、検出部15は、各種センサや撮像部12等による撮像範囲(画角情報)等を検出することができる。
認識部16は、撮像部12(又は端末10)の位置情報、向き情報、撮像範囲、本実施形態において設定されるオブジェクトデータの表示範囲等から、その撮像画像内において取得可能な位置範囲内に対するオブジェクトデータを重畳表示するかを認識する。
判定部17は、本実施形態におけるオブジェクトデータの表示範囲の変更が必要であるか否かを判定する。例えば、判定部17は、検出部15により検出されるユーザの移動距離からユーザがどの程度の距離に移動(変更)があったかを判定し、予め設定された閾値以上の移動があった場合に、表示制御部18において、オブジェクトデータの表示範囲の制御を行う。
また、判定部17は、例えば予め設定された撮像部12の向き情報に閾値以上の差があった場合に、オブジェクトデータの表示範囲の制御を行ってもよい。また、判定部17は、ユーザから表示範囲の変更指示があった場合に、オブジェクトデータの表示範囲の制御を行ってもよい。
表示制御部18は、判定部17による判定結果に基づいて、オブジェクトデータの表示範囲の制御を行う。表示制御部18は、端末10の位置及び向きに応じた領域内の位置に対応付けて登録されたARコンテンツ情報が検出された場合、そのオブジェクトデータや位置情報等を画面に表示する。
表示制御部18は、算出部21と、表示範囲決定部22と、選択候補受付部23と、オブジェクト表示部24とを有する。算出部21は、端末10の位置を基準として、複数のオブジェクトデータのそれぞれに対応付けられた位置までの距離を算出する。オブジェクトデータとその位置情報とが対応付けられたARコンテンツ情報は、予め管理サーバ等から取得しておいてもよく、算出部21による算出処理の開始時に管理サーバに問い合わせを行って取得してもよい。
また、算出部21は、各オブジェクトデータの位置情報の最大値や最小値、平均値、標準偏差、分散等を求めてもよい。また、算出部21は、検出部15から所定の時間間隔で得られる位置情報から端末10の移動距離又は移動速度等を算出してもよい。
表示範囲決定部22は、算出部21により算出した距離の分布(例えば、密集度等)に基づき、表示部13の画面にオブジェクトデータを表示する範囲(表示範囲)を決定する。なお、表示範囲は、例えば端末10からの距離(離間する方向における距離)であるが、これに限定されるものではない。例えば、表示範囲決定部22は、距離の分布に基づいて現在100mの表示範囲を、120m、150m、300m、500mと離間する方向に調整して、表示範囲を決定するが、調整する方向にしては、これに限定されるものではない。例えば、表示範囲決定部22は、表示範囲内に表示させるオブジェクトデータの数を予め設定し、設定した数のオブジェクトデータが表示可能となるように表示範囲を拡大又は縮小してもよい。なお、オブジェクトデータの数とは、実際の数値でもよく、全体のオブジェクトデータ数に対する割合でもよい。
また、表示範囲決定部22は、算出部21により算出した端末10の移動距離、移動速度距離等に基づき、オブジェクトデータを表示する範囲を決定してもよい。また、表示範囲決定部22は、選択候補受付部23によりユーザから受け付けた範囲候補に応じて、オブジェクトデータを表示する範囲を決定してもよい。
選択候補受付部23は、算出部21により算出された距離の分布に基づき、オブジェクトデータを表示する範囲の候補を複数設定し、設定した複数の表示範囲の候補を表示部13に表示させる。また、選択候補受付部23は、表示部13に表示された複数の表示範囲の候補のうち、何れかの選択をユーザから受け付ける。選択候補受付部23は、例えば各オブジェクトデータの位置情報をそのまま表示範囲候補としてもよく、オブジェクトデータの位置情報の最大値や最小値、平均値、標準偏差、分散等を求め、その結果に応じて表示範囲候補を設定してもよい。
オブジェクト表示部24は、表示範囲決定部22等により決定された表示範囲に対応させて、その範囲内にあるオブジェクトデータを撮像画像に重畳表示する。例えば、オブジェクト表示部24は、向き情報に対応させて、その向きの撮像画像の視野範囲(画角情報)内のオブジェクトデータを重畳表示する。また、オブジェクト表示部24は、表示範囲決定部22等により決定された表示範囲に対応させて、端末10の周囲にあるオブジェクトデータの位置情報をレーダマップ等を用いてレーダ表示(ガイド表示)してもよい。レーダ表示の画像は、撮像画像に重畳表示される。オブジェクト表示部24により重畳画像は、表示部13により表示される。
制御部19は、端末10の各構成全体を制御する。制御部19は、例えば通信部11による通信処理、撮像部12による撮像処理(画像取得処理)、表示部13による表示処理、検出部15による検出処理、認識部16により認識処理、判定部17による判定処理、表示制御部18による表示制御処理等を制御する。また、制御部19は、処理の開始や終了、エラー発生時の制御等も行う。
端末10は、例えばタブレット端末やスマートフォン、Personal Digital Assistants(PDA)、ノート型PC等であるが、これに限定されるものではなく、例えばゲーム機器、携帯電話等の通信端末であってもよい。
また、端末10の一例として、例えばヘッドマウントディスプレイ(HMD)や眼鏡型ディスプレイ等のような透過型の表示装置を用いてもよい。ヘッドマウントディスプレイや眼鏡型ディスプレイは、ユーザの目に対応した位置(視野上)に透過型の画面(表示部)を有する装着型デバイスである。端末10は、透過型の画面(表示部)上に、上述したオブジェクトデータやレーダマップ等を透過させて表示することで、ユーザが実際に見ている視野範囲内に上述したオブジェクトデータやレーダマップを表示させることができる。なお、オブジェクトデータやレーダマップは、透過性のある表示物として表示することができ、表示制御部18により表示制御される。
また、ヘッドマウントディスプレイや眼鏡型ディスプレイ等の場合には、上述した端末10の各構成のうち、表示部13等に関する構成と、その他の構成とが別体に設けられていてもよく、それらを接続することで上述した端末10と同様の構成を実現してもよい。
<端末10のハードウェア構成例>
次に、端末10として機能するコンピュータのハードウェア構成例について、図を用いて説明する。図2は、端末のハードウェア構成の一例を示す図である。図2の例において、端末10は、マイクロフォン(以下、「マイク」という)31と、スピーカ32と、カメラ33と、表示部34と、操作部35と、センサ部36と、電力部37と、無線部38と、近距離通信部39と、補助記憶装置40と、主記憶装置41と、Central Processing Unit(CPU)42と、ドライブ装置43とを有し、これらはシステムバスBで相互に接続されている。
マイク31は、ユーザが発した音声や、その他の音を入力する。スピーカ32は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク31及びスピーカ32は、例えば、通話機能等により通話相手と会話するとき等に用いることができるが、これに限定されるものではなく、音声による情報の入出力に用いることができる。
カメラ33は、例えば予め設定された画角内の実空間の画像(動画像、静止画像)を撮像する。カメラ33は、上述した撮像部12の一例である。カメラ33を端末10に内蔵されていてもよく、外付けされていてもよい。
表示部34は、ユーザに対してOperating System(OS)や各種アプリケーションで設定された画面(例えば、実空間にオブジェクトデータが重畳された画像等)を表示する。表示部34は、上述した表示部13の一例である。また、表示部34は、タッチパネルディスプレイ等でもよく、その場合には表示部34は、入出力部としての機能を有する。表示部34は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。
操作部35は、表示部34の画面に表示された操作ボタンや端末10の外部に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタンや音量調整ボタンでもよく、所定の順番で配列された文字入力用の操作キー等でもよい。ユーザは、例えば表示部34の画面上で所定の操作を行ったり、上述した操作ボタンを押すことで、表示部34により画面上のタッチ位置が検出される。また、表示部34は、画面上にアプリ実行結果やコンテンツやアイコン、カーソル等を表示することができる。
センサ部36は、端末10のある時点又は継続的な位置や傾き(方位)、動作を検出する。センサ部36は、上述した検出部15の一例である。例えば、センサ部36は、端末10の向き、角度、方向、位置、加速度等を検出するが、これに限定されるものではない。なお、センサ部36としては、例えばGPS、ジャイロセンサ、傾きセンサ、加速度センサ等であるが、これに限定されるものではない。
電力部37は、端末10の各構成に対して電力を供給する。電力部37は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部37は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。
無線部38は、例えばアンテナ等を用いて基地局(モバイルネットワーク)からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信データの送受信部である。
近距離通信部39は、例えば赤外線通信やWi−Fi、Bluetooth等の通信手法を用いて、他の端末10等のコンピュータと近距離通信を行うことができる。上述した無線部38及び近距離通信部39は、他のコンピュータとのデータの送受信を可能とする通信インタフェースである。
補助記憶装置40は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段である。補助記憶装置40は、CPU42からの制御信号に基づき、本実施形態における実行プログラム(表示制御プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置40は、CPU42からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。
主記憶装置41は、CPU42からの指示により補助記憶装置40から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置41は、例えばRead Only Memory(ROM)やRandom Access Memory(RAM)等である。
CPU42は、OS等の制御プログラム、及び主記憶装置41に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、本実施形態における表示制御における各処理を実現する。CPU42は、上述した制御部19の一例である。
具体的には、CPU42は、例えば操作部35等から得られるプログラムの実行指示等に基づき、補助記憶装置40にインストールされたプログラムを実行させることにより、主記憶装置41上でプログラムに対応する処理を行う。例えば、CPU42は、表示制御プログラムを実行させることで、上述した通信部11による各種データの通信、撮像部12による撮像、表示部13による表示、記憶部14による各種情報の表示、検出部15による位置情報や向き情報の検出等の処理を行う。また、CPU42は、表示制御プログラムを実行させることで、上述した認識部16による位置認識、判定部17による判定、表示制御部18による表示制御等の処理を行う。CPU42における処理内容は、上述した内容に限定されるものではない。CPU42により実行された内容は、必要に応じて補助記憶装置40等に記憶される。
ドライブ装置43は、例えば記録媒体44等を着脱自在にセットすることができ、セットした記録媒体44に記録された各種情報を読み込んだり、所定の情報を記録媒体44に書き込むことができる。ドライブ装置43は、例えば媒体装填スロット等であるが、これに限定されるものではない。
記録媒体44は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体44は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体44は、USBメモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等を実現することができる。また、上述した表示制御処理に対応する表示制御プログラムは、例えば端末10上で常駐している状態であってもよく、起動指示により起動させてもよい。
<データ例>
次に、本実施形態における表示制御処理で使用されるデータ例について図を用いて説明する。図3は、本実施形態で適用される各種データ例を示す図である。また、図4は、各種データのデータ構成の一例を示す図である。図3(A)は、シナリオ管理テーブルの一例と示し、図3(B)は、シーン管理テーブルの一例を示し、図3(C)は、ARコンテンツ管理テーブルの一例を示す。図3(A)〜図3(C)に示す各情報が上述したARコンテンツ情報の一例であるが、データ形式や構造については、これに限定されるものではなく、オブジェクトデータとその位置情報とが対応付けられた情報であればよい。
例えば、本実施形態では、世界座標系のような各座標値(位置情報)に対応させてARコンテンツを設定することができるが、注目すべき場所や物の場合には、1つの対象物に対して多数のオブジェクトデータが表示されてしまい、画面内に全ての情報が表示されなくなってしまう。例えば、工場等の点検業務等において、他の作業員に注意事項や操作内容等を通知するために事前にオブジェクトデータを設定する場合には、その点検を行う作業員の担当する対象物に対する情報が取得できればよい。したがって、そのようなシナリオやシーンを個別に管理するため、本実施形態では、図3、図4に示すように、シナリオとシーンとに関する識別情報等を有し、それらを階層化して管理する。ユーザは、自己の目的に応じたシナリオやシーンを選択又は設定することで、画面に重畳表示されるオブジェクトデータの種類等を選択することができる。また、シナリオやシーンを選択又は設定することで、例えばある特定の工場内、敷地内、建物内等のように、オブジェクトデータが表示される範囲を限定することができる。
図3(A)の例に示すシナリオ管理テーブルの項目としては、例えば「シナリオID」、「シナリオ名」等であるが、これに限定されるものではない。「シナリオID」は、ARコンテンツを提供する対象のシナリオを設定するものである。「シナリオ名」は、シナリオIDに対応するシナリオ名であり、例えば計画名、作業名、提示内容等により区別することができるが、これに限定されるものではない。
図3(B)の例に示すシーン管理テーブルの項目としては、例えば「親シナリオID」、「シーンID」、「シーン名」等があるが、これに限定されるものではない。「親シナリオID」は、シナリオの識別情報を示し、図3(A)に示すシナリオ管理テーブルの「シナリオID」の項目と関連付けられている。
「シーンID」は、親シナリオに対応するシーンを識別する情報であり、「シナリオID」を所定のシーン毎に細分化したものである。また、「シーン名」は、シーンIDに対応する場所、出来事、作業内容等の情報であるが、これに限定されるものではない。
図3(C)の例に示すARコンテンツ管理テーブルの項目としては、例えば「親シナリオID」、「親シーンID」、「ARコンテンツID」、「座標値」、「回転角度」、「拡縮率」、「テクスチャパス」等があるが、これに限定されるものではない。「親シナリオID」は、図3(A)に示すシナリオIDに関連付けられている。「親シーンID」は、親シナリオIDを所定のシーン毎に細分化した情報であり、図3(B)に示すシーンIDに関連付けられている。「ARコンテンツID」は、各親シーンIDに対応する1又は複数のオブジェクトデータを識別するものである。「座標値」は、オブジェクトデータを表示する三次元位置情報(Xc1,Yc1,Zc1)である。
「回転角度」は、対応するオブジェクトデータに対して予め設定された基本角度から三次元方向にどの程度傾いているかを示す情報(Xr1,Yr1,Zr1)である。「拡縮率」は、対応するオブジェクトデータに対して予め設定された大きさを基準に三次元方向にどの程度拡大又は縮小しているかを示す情報(Xs1,Ys1,Zs1)である。本実施形態では、上述した「座標値」、「回転角度」、及び「拡縮率」等のうち、少なくとも1つをオブジェクトデータの位置情報としてもよい。
「テクスチャパス」は、ARコンテンツIDに対応するオブジェクトデータの格納先情報である。例えば、「http://xxx.png」のように、管理サーバや管理サーバ以外の装置等のアドレス情報でもよく、フォルダ等の格納先でもよいが、これに限定されるものではない。また、「テクスチャパス」には、オブジェクトデータに対応する画像データや映像データ、テキストデータ等の情報(ファイル名)が直接格納されていてもよい。
本実施形態において、各データ例は、図4に示すような階層化したデータ構成を有する。図4の例では、シナリオID「1」の「○○工場点検」については、各シーンとして「○○施設点検」(シーン1)、「△△施設点検」(シーン2)、「××施設点検」(シーン3)が細分化して設定される。これらは、階層化して表現することができ、更に各シーンにARコンテンツ1〜4が設定されている。つまり、1つのシーンにおいて、複数のARコンテンツを設定することができる。図4の例では、ツリー構造のイメージでデータが管理されるが、管理される構造等については、これに限定されるものではない。
なお、上述した各種データは、予めインターネットやLAN等の通信ネットワークを介して、管理サーバ等から取得し、記憶部14等に記憶される情報である。上述した各種データは、例えば本実施形態における表示制御処理の実行時に管理サーバ等から取得することができるが、これに限定されるものではない。また、上述した各種データは、端末10から得られるユーザ情報に対応付けて設定されていてもよく、端末10から要求された情報のみを取得させてもよい。また、記憶部14に記憶される情報は、これに限定されるものではなく、ユーザ情報や、処理履歴情報、各種設定情報等を記憶してもよい。
<表示制御処理の一例>
次に、本実施形態における表示制御処理の一例についてフローチャートを用いて説明する。図5は、本実施形態における表示制御処理の一例を示すフローチャートである。図5の例において、端末10の制御部19は、本実施形態における表示制御処理を行うARアプリケーションを起動し(S01)、図3(A)〜(C)に示すようなARコンテンツ情報を管理サーバ等から取得する(S02)。
なお、S01の処理では、ARアプリケーションの起動により、例えば撮像部12による撮像を開始して撮像画像を取得したり、撮像部12以外から撮像画像を取得して、その取得画像を画面に表示してもよい。また、端末10がヘッドマウントディスプレイのような表示装置等の場合には、撮像画像ではなく透過型の画面(表示部)によりその先の実空間が見える状態となる。また、S02の処理は、予め記憶部14に記憶されていたARコンテンツ情報を取得してもよい。また、S02の処理では、例えばユーザが、上述したシナリオやシーン等から、表示させたいARコンテンツ(オブジェクトデータ)に対応するシナリオやシーンを選択し、選択したシナリオやシーンに対応するARコンテンツ情報を取得してもよい。
次に、検出部15は、端末10の位置情報を取得する(S03)。S03の処理では、例えば位置情報を定期的に測定する。次に、判定部17は、一定時間経過又は端末10の移動距離が一定以上か否かを判断する(S04)。なお、S04の処理では、端末10の向き情報が一定以上動いたか否かを閾値等と比較して判断してもよい。
S04の処理において、一定時間経過又は端末10の移動距離が一定以上である場合(S04において、YES)、表示範囲制御処理を行う(S05)。S05の処理では、端末10とARコンテンツ情報に含まれるオブジェクトデータとの距離を算出し、端末10の移動距離又は移動速度等に基づいて、オブジェクトデータの表示範囲を決定し、オブジェクトデータの表示範囲を設定する。なお、表示範囲制御処理の具体例については、後述する。
次に、S05の処理後、又はS04の処理において、一定時間経過又は端末10の移動距離が一定以上の場合(S04において、NO)、表示制御部18は、表示範囲内のオブジェクトデータを画面に表示する(S06)。S06の処理では、画面に表示されている撮像画像にオブジェクトデータを重畳表示してもよく、表示範囲内に基づく周囲のオブジェクトデータの位置情報をレーダ表示してもよい。
次に、制御部19は、ARアプリケーションを終了するか否かを判断し(S07)、ARアプリケーションを終了しない場合(S07において、NO)、S04の処理に戻る。また、ARアプリケーションを終了する場合(S07において、YES)、実行中のARアプリケーションを終了し(S08)、処理を終了する。
<表示範囲制御処理(S05)の第1の実施例>
次に、上述した表示範囲制御処理(S05)の第1の実施例についてフローチャートを用いて説明する。図6は、表示範囲制御処理の第1の実施例を示すフローチャートである。第1の実施例では、端末10の移動位置に対応させて(移動速度を考慮しない)表示範囲を制御する。
図6の例において、表示制御部18は、ユーザの現在位置(座標)と、上述したS02の処理で取得したARコンテンツ情報に含まれる各オブジェクトデータの位置(座標)との距離を算出する(S11)。次に、表示制御部18は、現在の表示範囲内に、各オブジェクトデータの位置が所定の条件を満たすように含まれているか否かを判断する(S12)。
ここで、S12の処理における所定の条件としては、例えば端末10からの各オブジェクトデータの距離分布等に基づき、事前に設定された全オブジェクトデータのうちの何%が現在の表示範囲内に入っているかという割合(第1の閾値)を条件にすることができる。
また、表示制御部18は、所定の条件として、端末10の位置から各オブジェクトデータまでの距離の平均値又は中央値等+α(α;距離補正情報)を算出し、その算出結果(第2の閾値)が、現在の表示範囲内に含まれているかを条件にしてもよい。なお、所定の条件は、例えばオブジェクトデータを表示する対象画像(撮像画像)の地形や環境等の条件に左右される可能性があるため、適宜カスタマイズ可能にしてもよい。
S12の処理において、所定の条件を満たさない場合(S12において、NO)、表示制御部18は、所定の条件を満たすように、オブジェクトデータの表示範囲を変更する(S13)。S13の処理では、例えば、予め設定されているオブジェクトデータの数が100個で、表示される割合の比率(第1の閾値)が75%の場合、75個のオブジェクトデータが表示されるように、表示範囲を変更(例えば、拡大又は縮小)する。なお、上述の75個は、70〜80個等のように所定の範囲を持たせてもよい。また、S13の処理では、端末10の現在位置からオブジェクトデータの距離の平均値又は中央値等を算出し、その算出結果(第2の閾値)+αを表示範囲としてもよい。
また、S12の処理において、現在の表示範囲内に、各オブジェクトデータの位置が所定の条件を満たすように含まれている場合(S12において、YES)、又は、S13の処理後、表示制御部18は、表示範囲に対応させてレーダの表示情報を設定する(S14)。
上述したように、移動位置を考慮した場合には、事前に決定された表示範囲(表示半径)を基準として、オブジェクトデータの表示範囲(緯度、経度、高度)を決定する。また、レーダ表示の具体例としては、緯度及び経度を有する二次元表示でもよく、ユーザを中心とした球形の三次元表示でもよい。
<表示範囲制御処理(S05)の第2の実施例>
次に、上述した表示制御処理(S05)の第2の実施例についてフローチャートを用いて説明する。図7は、表示制御処理の第2の実施例を示すフローチャートである。第2の実施例では、端末10の移動速度に対応させて表示範囲を制御する。
図7の例において、ユーザの現在位置(座標)と、上述したS02の処理で取得したARコンテンツ情報に含まれる各オブジェクトデータの位置(座標)との距離を算出する(S21)。次に、表示制御部18は、現在の表示範囲内に、各オブジェクトデータの位置が所定の条件を満たすように含まれているか否かを判断する(S22)。
所定の条件としては、上述した第1の実施例と同様であるため、ここでの具体的な説明は省略する。S22の処理において、所定の条件を満たさない場合(S12において、NO)、表示制御部18は、第1の実施例と同様に、所定の条件を満たすように、オブジェクトデータの表示範囲を変更する(S23)。
また、S22の処理において、現在の表示範囲内に、各オブジェクトデータの位置が所定の条件を満たすように含まれている場合(S22において、YES)、又は、S23の処理後、表示制御部18は、加速度センサ等を利用し、端末10の移動速度を算出する(S24)。
次に、表示制御部18は、端末10の現在の移動速度から、オブジェクトデータの非表示範囲を設定する(S25)。上述したS25の処理では、例えば端末10の移動速度等を考慮した場合、端末(ユーザ)10が自動車や新幹線等で高速移動している場合、近距離にあるオブジェクトデータは、いったん表示範囲内に入ったとしても短時間でユーザの視野範囲外(表示範囲外)に見切れてしまう。そのため、ユーザに対する適切な情報提示が困難となる可能性が高い。また、仮に上述した場合にも通常と同様に表示したとしても、一瞬表示されるのみであり、遠距離のオブジェクトデータの表示を妨げる可能性もある。したがって、第2の実施例では、上述した場合に対応させて、例えばオブジェクトデータの表示範囲とは別に、非表示範囲を設定する。これにより、端末(ユーザ)10が高速に移動している場合に、短時間(一瞬)で通過するような不要なオブジェクトデータの表示を抑止することができる。
ここで、非表示範囲の設定例としては、例えば端末10の移動速度を60(km/h)とし、オブジェクトデータの最低表示時間を3秒以上とした場合、オブジェクトデータの非表示範囲は、約50mとなる(60(km/h)=16.7(m/s)、16.7×3(s)≒50(m))。したがって、非表示範囲は、端末10からの距離が50m以内の範囲であり、表示制御部18は、その範囲に含まれるオブジェクトデータを表示対象から除くことができる。このように、非表示範囲は、例えば移動速度に応じて設定することができるが、これに限定されるものではない。
次に、表示制御部18は、表示範囲又は非表示範囲に対応させてレーダの表示情報を設定する(S26)。
<画面例>
次に、本実施形態を適用した画面例について図を用いて説明する。なお、以下の例では、端末10の一例としてタブレット端末を示しているが、これに限定されるものではなく、例えば、ヘッドマウントディスプレイのような表示装置でもよい。
図8は、本実施形態におけるオブジェクトデータの画面表示例を示す図である。図8(A)、(B)の例では、100mと1kmの場合におけるそれぞれのオブジェクトデータの見え方の例を示している。
図8(A)の例では、端末10の表示部13の画面50−1に、オブジェクトデータの表示範囲(半径r)を100mと設定した場合の表示例を示している。画面50−1には、撮像画像として実物体(実空間上の物体)51−1,51−2とが表示されている。また、画面50−1には、所定の位置(例えば、画面の右下の領域)にレーダ(レーダマップ)53−1が表示されている。レーダ53−1の形状は、円形に限定されるものではなく、例えば矩形のマップ等でもよい。また、レーダ53−1は、緯度、経度を用いて二次元表示しているが、これに限定されるものではなく、球状等による三次元表示(緯度、経度、高度)でもよい。
レーダ53−1には、画面50−1に表示されるオブジェクトデータ52−1の位置情報52−1aが表示される。また、レーダ53−1には、画面50−1上には表示されていないが端末10の周囲に存在する表示範囲外のオブジェクトデータ(表示候補)も表示させることができる。
本実施形態では、この表示範囲を、オブジェクトデータの距離分布、端末10の移動位置や移動速度に応じて自動で変更することができる。したがって、例えば図8(B)の画面50−2に示すように表示範囲(半径r)が1kmに変更されると、撮像方向の1km前方にある実物体51−2に対応付けられているオブジェクトデータ52−2を表示させることができる。また、レーダ53−2には、オブジェクトデータ52−1の位置情報52−1aと、オブジェクトデータ52−2の位置情報52−2aがそれぞれ表示される。
画面50に表示させるオブジェクトデータは、上述したシナリオ毎でもよく、シーン毎でもよい。これらは、事前にユーザにより設定してもよく、端末10(撮像部12)が撮像している位置や撮像方向、移動速度等に応じて設定してもよい。
<レーダ表示例>
図9は、本実施形態におけるレーダ表示の一例を示す図である。図9(A)、(B)では、図8に示すレーダ53の一例を示している。レーダ53は、表示範囲外領域(予備領域)61と、表示範囲領域62と、方位表示領域63と、視野領域64と、オブジェクトデータ位置情報65とが表示されている。オブジェクトデータ位置情報65は、それぞれARコンテンツ情報の位置情報から取得した位置(座標である)。
表示範囲外領域(予備領域)61は、オブジェクトデータそのものは画面に表示されていないが、端末10の周辺にあるオブジェクトデータの位置情報を表示する領域である。表示範囲領域62は、画面に表示可能なオブジェクトデータの位置情報を表示する領域である。端末10(撮像部12)が向きを変えて視野領域64の向きを変更することで、対応するオブジェクトデータが画面に表示される。方位表示領域63は、所定の方位(例えば、北)を表示する領域である。また、視野領域64は、オブジェクトデータが表示される領域である。
本実施形態において、端末10の位置は、例えば端末10を所持するユーザの移動やGPS位置情報の更新等の影響により動的に変化する。したがって、本実施形態では、その度に表示範囲を再設定することで、位置に応じて適切にオブジェクトデータを表示させることができる。
例えば、ユーザがGPS位置情報が更新されるまでの間に、前方に数十m程度移動した場合、ユーザ移動により、図9(A)に示すように事前に設定した表示範囲外となるオブジェクトデータ位置情報65aが発生する。しかしながら、上述した本実施形態により、図9(B)に示すように、ユーザ(端末10)とオブジェクトデータとの位置関係(距離)の分布(密集度)等に基づき、動的に表示範囲を変更するため、常にユーザが必要とするオブジェクトデータをレーダ53内に表示することができる。
なお、図9(B)の例では、100mから120mに範囲を拡大しているが、拡大範囲は、これに限定されるものではなく、例えば移動速度等に応じて100mから200mにしたり、100mから500mにしてもよい。また、ユーザの設定により拡大幅や縮小幅を調整することができる。
なお、図9に示すオブジェクトデータ位置情報65bは、端末10の位置から1km以上離れた地点にある情報であるため、ここではレーダ53には表示させなくてもよい。また、本実施形態では、ユーザが1km先にあるオブジェクトデータが必要か、100m程度の範囲内にあるオブジェクトデータが必要かは不明である。そのため、各オブジェクトデータの距離の分布に基づいて数パターンの表示範囲を候補として設定し、それを画面に表示し、ユーザから選択された表示範囲に基づいてオブジェクトデータは、その位置情報を表示させてもよい。
図10は、表示範囲を選択する画面例を示す図である。図10(A)〜(E)の例では、端末10の位置情報と各オブジェクトデータとの距離の分布(密集度)等に基づき、オブジェクトデータを表示する複数の範囲候補を表示し、複数の範囲候補のうち、何れかの範囲候補の選択を受け付け、受け付けた範囲候補に応じて、オブジェクトデータを表示する範囲を決定する。表示範囲の候補としては、例えば上述した各オブジェクトデータの位置情報をそのまま表示範囲候補としてもよく、オブジェクトデータの位置情報の最大値や最小値、平均値、標準偏差、分散等を求め、それらの結果を表示範囲の候補としてもよい。
図10(A)〜(E)の例では、端末10の位置情報と各オブジェクトデータとの距離の分布(密集度)等から、オブジェクトデータの最大表示範囲を端末10からの距離5000mと設定する。その距離5000mは、端末10からの距離が最大のオブジェクトデータの位置であってもよい。図10(A)〜(E)の例では、その5000mを基準に、100m、500m、1000m、3000mで区切って設定した値に対応する表示範囲リスト70を表示している。表示範囲リスト70は、例えばレーダ53を画面上からタッチすることで表示させることができるが、これに限定されるものではない。
ユーザは、図10に示す表示範囲リスト70から設定位置をスライドさせることで目的の表示範囲に設定することができ、端末10は、ユーザからの選択を受け付けて対応するオブジェクトデータの表示を実現する。なお、表示範囲リスト70の表示方式は、これに限定されるものではなく、チェックボックスやラジオボックス等の各種インタフェースにより表示させてもよい。
上述したように、本実施形態によれば、オブジェクトデータの位置を把握し易くすることができる。例えば、ユーザの現在地情報(GPS等で取得)と、オブジェクトデータの位置情報から表示範囲を算出し、それをレーダ等の初期値又は段階的な設定値として選択できるようにする。本実施形態は、例えばARマーカを利用したAR(ビジョンベースAR)にも、ロケーションベースARにも適用することができる。
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。
なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
端末の位置及び向きに応じた領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを画面に表示する表示制御方法において、
前記端末から複数のオブジェクトデータそれぞれに対応付けられた位置までの距離を算出し、
算出した前記距離の分布に基づき、前記画面にオブジェクトデータを表示する範囲を決定する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記2)
前記範囲は、前記端末からの距離であることを特徴とする付記1に記載の表示制御方法。
(付記3)
算出した前記距離の分布に基づき、前記オブジェクトデータを表示する複数の範囲候補を表示し、
前記複数の範囲候補のうち、何れかの範囲候補の選択を受け付け、
受け付けた前記範囲候補に応じて、前記オブジェクトデータを表示する前記範囲を決定する、ことを特徴とする請求項1又は2に記載の表示制御方法。
(付記4)
前記範囲に表示させるオブジェクトデータの数を予め設定し、
設定した数のオブジェクトデータが表示可能となるように表示範囲を拡大又は縮小することを特徴とする付記1乃至3の何れか1項に記載の表示制御方法。
(付記5)
前記端末の移動速度を算出し、
算出した前記移動速度に基づき、前記オブジェクトデータの非表示範囲を設定することを特徴とする付記1乃至4の何れか1項に記載の表示制御方法。
(付記6)
端末の位置及び向きに応じた領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを画面に表示する際、前記端末から複数のオブジェクトデータそれぞれに対応付けられた位置までの距離を算出し、
算出した前記距離の分布に基づき、前記画面にオブジェクトデータを表示する範囲を決定する、
処理をコンピュータに実行させるための表示制御プログラム。
(付記7)
検出した位置及び向きに応じた領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを画面に表示する情報処理装置において、
前記情報処理装置から複数のオブジェクトデータそれぞれに対応付けられた位置までの距離を算出する算出部と、
前記算出部により算出した前記距離の分布に基づき、前記画面にオブジェクトデータを表示する範囲を決定する表示範囲決定部と、
を有することを特徴とする情報処理装置。
10 端末(情報処理装置)
11 通信部
12 撮像部
13,34 表示部
14 記憶部
15 検出部
16 認識部
17 判定部
18 表示制御部
19 制御部
21 算出部
22 表示範囲決定部
23 選択候補受付部
24 オブジェクト表示部
31 マイクロフォン
32 スピーカ
33 カメラ
35 操作部
36 センサ部
37 電力部
38 無線部
39 近距離通信部
40 補助記憶装置
41 主記憶装置
42 CPU
43 ドライブ装置
44 記録媒体
50 画面
51 実物体
52 オブジェクトデータ
53 レーダ
61 表示範囲外領域(予備領域)
62 表示範囲領域
63 方位表示領域
64 視野領域
65 オブジェクトデータ位置情報
70 表示範囲リスト

Claims (7)

  1. 端末の位置及び向きに応じた領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを画面に表示する表示制御方法において、
    前記端末の移動速度に基づき、前記オブジェクトデータの表示を抑止する範囲を決定し、
    前記移動速度に基づいて、前記オブジェクトデータの前記画面への表示時間が、予め設定された最低表示時間に満たないオブジェクトデータを検出し、検出したオブジェクトデータの前記画面への表示を抑止する、
    処理をコンピュータが実行することを特徴とする表示制御方法。
  2. 前記端末から複数のオブジェクトデータそれぞれに対応付けられた位置までの距離を算出し、
    前記端末の移動速度を算出し、
    算出した前記距離の分布に基づき、前記画面にオブジェクトデータを表示する範囲を決定する、ことを特徴とする請求項1に記載の表示制御方法。
  3. 前記範囲は、前記端末からの距離であることを特徴とする請求項1または請求項2に記載の表示制御方法。
  4. 算出した前記距離の分布に基づき、前記オブジェクトデータを表示する複数の範囲候補を表示し、
    前記複数の範囲候補のうち、何れかの範囲候補の選択を受け付け、
    受け付けた前記範囲候補に応じて、前記オブジェクトデータを表示する前記範囲を決定する、ことを特徴とする請求項2に記載の表示制御方法。
  5. 前記範囲に表示させるオブジェクトデータの数を予め設定し、
    設定した数のオブジェクトデータが表示可能となるように表示範囲を拡大又は縮小することを特徴とする請求項1乃至4の何れか1項に記載の表示制御方法。
  6. 端末の位置及び向きに応じた領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを画面に表示する際、
    前記端末の移動速度に基づき、前記オブジェクトデータの表示を抑止する範囲を決定し、
    前記移動速度に基づいて、前記オブジェクトデータの前記画面への表示時間が、予め設定された最低表示時間に満たないオブジェクトデータを検出し、検出したオブジェクトデータの前記画面への表示を抑止する、
    処理をコンピュータに実行させるための表示制御プログラム。
  7. 検出した位置及び向きに応じた領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを画面に表示する情報処理装置において、
    前記情報処理装置の移動速度に基づき、前記オブジェクトデータの表示を抑止する範囲を決定する表示範囲決定部を有し、
    前記移動速度に基づいて、前記オブジェクトデータの前記画面への表示時間が、予め設定された最低表示時間に満たないオブジェクトデータを検出し、検出したオブジェクトデータの前記画面への表示を抑止することを特徴とする情報処理装置。
JP2015064261A 2015-03-26 2015-03-26 表示制御方法、表示制御プログラム、及び情報処理装置 Expired - Fee Related JP6481456B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015064261A JP6481456B2 (ja) 2015-03-26 2015-03-26 表示制御方法、表示制御プログラム、及び情報処理装置
US15/073,024 US10192332B2 (en) 2015-03-26 2016-03-17 Display control method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015064261A JP6481456B2 (ja) 2015-03-26 2015-03-26 表示制御方法、表示制御プログラム、及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2016184294A JP2016184294A (ja) 2016-10-20
JP6481456B2 true JP6481456B2 (ja) 2019-03-13

Family

ID=56975681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015064261A Expired - Fee Related JP6481456B2 (ja) 2015-03-26 2015-03-26 表示制御方法、表示制御プログラム、及び情報処理装置

Country Status (2)

Country Link
US (1) US10192332B2 (ja)
JP (1) JP6481456B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190221184A1 (en) * 2016-07-29 2019-07-18 Mitsubishi Electric Corporation Display device, display control device, and display control method
JP7047394B2 (ja) * 2018-01-18 2022-04-05 セイコーエプソン株式会社 頭部装着型表示装置、表示システム、及び、頭部装着型表示装置の制御方法
WO2020115909A1 (ja) * 2018-12-07 2020-06-11 三菱電機株式会社 入力表示制御装置、入力表示制御方法及び入力表示システム
JP7385238B2 (ja) * 2019-01-07 2023-11-22 株式会社mediVR リハビリテーション支援装置、リハビリテーション支援方法及びリハビリテーション支援プログラム
WO2023085302A1 (ja) * 2021-11-15 2023-05-19 株式会社Nttドコモ 情報処理装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720436B2 (en) * 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
JP5413170B2 (ja) * 2009-12-14 2014-02-12 大日本印刷株式会社 アノテーション表示システム,方法及びサーバ装置
CN102473322B (zh) * 2010-06-07 2014-12-24 松下电器(美国)知识产权公司 对象选择装置、对象选择程序及对象选择方法
US8963954B2 (en) 2010-06-30 2015-02-24 Nokia Corporation Methods, apparatuses and computer program products for providing a constant level of information in augmented reality
JP5405412B2 (ja) 2010-08-11 2014-02-05 株式会社Nttドコモ オブジェクト表示装置及びオブジェクト表示方法
KR101350033B1 (ko) * 2010-12-13 2014-01-14 주식회사 팬택 증강 현실 제공 단말기 및 방법
JP5728775B2 (ja) 2011-03-22 2015-06-03 株式会社Where 情報処理装置、及び情報処理方法
JP5786411B2 (ja) * 2011-03-31 2015-09-30 株式会社Jvcケンウッド 情報処理システム、検索装置、及びプログラム
EP2787324B1 (en) 2011-11-28 2019-09-25 Pioneer Corporation Display device and control method
JP5886688B2 (ja) * 2012-05-30 2016-03-16 日立マクセル株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2014128810A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
KR102161510B1 (ko) * 2013-09-02 2020-10-05 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
JP6039525B2 (ja) * 2013-09-27 2016-12-07 株式会社トヨタマップマスター ヘッドマウントディスプレイ及びその制御方法、並びにヘッドマウントディスプレイを制御するためのコンピュータプログラム及びコンピュータプログラムを記録した記録媒体
JP6107590B2 (ja) * 2013-10-16 2017-04-05 株式会社デンソー ヘッドアップディスプレイ装置

Also Published As

Publication number Publication date
US10192332B2 (en) 2019-01-29
US20160284051A1 (en) 2016-09-29
JP2016184294A (ja) 2016-10-20

Similar Documents

Publication Publication Date Title
JP6421670B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
US11221726B2 (en) Marker point location display method, electronic device, and computer-readable storage medium
WO2021128777A1 (en) Method, apparatus, device, and storage medium for detecting travelable region
US9401050B2 (en) Recalibration of a flexible mixed reality device
US10163266B2 (en) Terminal control method, image generating method, and terminal
US8908043B2 (en) System and method for location-based operation of a head mounted display
US20180018792A1 (en) Method and system for representing and interacting with augmented reality content
US10083539B2 (en) Control system for navigation in virtual reality environment
JP6481456B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
JP7026819B2 (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
US9262867B2 (en) Mobile terminal and method of operation
US10989559B2 (en) Methods, systems, and devices for displaying maps
EP2820576A1 (en) Method and apparatus for rendering items in a user interface
JP6409644B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
US9818196B2 (en) Method and device for positioning and navigating
US20150154769A1 (en) Wearable map and image display
WO2014102455A2 (en) Methods, apparatuses, and computer program products for retrieving views extending a user´s line of sight
WO2015125210A1 (ja) 情報表示装置及び情報表示プログラム
JP2016110296A (ja) ウェアラブルデバイス、情報処理方法及びプログラム
WO2021200187A1 (ja) 携帯端末および情報処理方法、並びに記憶媒体
CN110633335B (zh) 获取poi数据的方法、终端和可读存储介质
JP6447251B2 (ja) 情報処理装置、表示制御方法、及び表示制御プログラム
US20220253198A1 (en) Image processing device, image processing method, and recording medium
JP2020046863A (ja) 拡張現実空間に配置される3dオブジェクトを生成する方法
KR20180019860A (ko) 휴대 단말기용 거리뷰 기반 네비게이션 제공장치 및 제공방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190128

R150 Certificate of patent or registration of utility model

Ref document number: 6481456

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees