JP6409644B2 - 表示制御方法、表示制御プログラム、及び情報処理装置 - Google Patents

表示制御方法、表示制御プログラム、及び情報処理装置 Download PDF

Info

Publication number
JP6409644B2
JP6409644B2 JP2015064262A JP2015064262A JP6409644B2 JP 6409644 B2 JP6409644 B2 JP 6409644B2 JP 2015064262 A JP2015064262 A JP 2015064262A JP 2015064262 A JP2015064262 A JP 2015064262A JP 6409644 B2 JP6409644 B2 JP 6409644B2
Authority
JP
Japan
Prior art keywords
information
display
object data
terminal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015064262A
Other languages
English (en)
Other versions
JP2016184295A (ja
Inventor
奨 古賀
奨 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015064262A priority Critical patent/JP6409644B2/ja
Priority to US15/062,471 priority patent/US20160284130A1/en
Publication of JP2016184295A publication Critical patent/JP2016184295A/ja
Application granted granted Critical
Publication of JP6409644B2 publication Critical patent/JP6409644B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示制御方法、表示制御プログラム、及び情報処理装置に関する。
カメラ等の撮像装置により撮像された画像の一部にオブジェクトデータを重畳して表示させる拡張現実(Augmented Reality:AR)技術が知られている。AR技術では、画面上に表示するオブジェクトデータの種類や表示位置(配置情報)を設定する処理(以下、必要に応じて「オーサリング処理」という)がある。オーサリング処理において、オブジェクトデータの表示位置を設定する際には、左右方向の位置(x軸)、奥行方向の位置(y軸)、上下方向の位置(z軸)を登録する。
また、オーサリング処理では、Global Positioning System(GPS,全地球測位網)等から得た位置情報(緯度、経度、高度)に対応する三次元直交座標系の座標(x,y,z)をオブジェクトデータに対応付けてARコンテンツ情報として管理することができる。
上述したオーサリング処理後のAR表示では、端末の位置や向きに対応付けられたARコンテンツ情報を取得し、取得したARコンテンツ情報に含まれるオブジェクトデータを配置情報に基づいて画面上の所定の位置に表示する。
国際公開第2012/127605号
しかしながら、GPS等から得られる三次元の位置情報を利用して、オブジェクトデータの表示位置を編集する際に、奥行方向(例えば、GPSからの座標系ではy軸方向)の位置を正確に入力することができなかった。
一つの側面では、本発明は、オブジェクトデータの位置情報を入力する際、奥行方向の位置の入力を支援する表示制御方法、表示制御プログラム、及び情報処理装置を提供する。
一つの態様では、端末の位置及び向きに応じて特定される領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを表示部に表示する表示制御方法において、前記オブジェクトデータを対応付ける位置情報の入力を受け付けるモードか否かの判定を行い、前記オブジェクトデータを対応付ける位置情報を受け付けるモードである場合、前記端末からの距離を示す情報を、前記表示部に表示する、処理をコンピュータが実行する。
一つの側面として、オブジェクトデータの位置情報を入力する際、奥行方向の位置の入力を支援することができる。
端末の機能構成の一例を示す図である。 端末のハードウェア構成の一例を示す図である。 本実施形態で適用される各種データ例を示す図である。 各種データのデータ構成の一例を示す図である。 本実施形態における表示制御処理の一例を示すフローチャートである。 ガイド表示処理の一例を示すフローチャートである。 本実施形態におけるガイド表示の第1実施例を示す図である。 レーダマップの画面例を説明するための図である。 本実施形態におけるガイド表示の第2実施例を示す図である。 本実施形態におけるガイド表示の第3実施例を示す図である。 本実施形態におけるガイド表示の第4実施例を示す図である。
以下、図面に基づいて実施形態を説明する。
<情報処理装置の機能構成例>
情報処理装置(以下、必要に応じて「端末」という)の機能構成例について、図を用いて説明する。図1は、端末の機能構成の一例を示す図である。図1に示す端末10は、通信部11と、撮像部(画像取得部)12と、表示部13と、記憶部14と、検出部15と、データ処理部16と、判定部17と、表示制御部18と、制御部19とを有する。
通信部11は、例えばインターネットやLocal Area Network(LAN)等の通信ネットワークを介して接続された外部の装置とデータの送受信が可能な状態で接続されている。通信部11は、例えばデータ処理部16で登録されたオブジェクトデータとその配置情報とを含むARコンテンツ情報を、通信ネットワークを介して管理サーバ等に送信する。また、通信部11は、管理サーバ等に登録されたARコンテンツ情報等を受信する。
また、通信部11は、例えば赤外線通信やWi−Fi(登録商標)、Bluetooth(登録商標)等の通信手法を用いて、他の端末10等のコンピュータと近距離通信を行うことができる。
撮像部12は、一定のフレーム間隔で撮像(撮影)を行い、画像データを生成する。撮像部12は、例えばデジタルカメラ等であるが、これに限定されるものではない。また、撮像部12は、端末10に内蔵されていてもよく、接続可能な外部装置であってもよい。撮像部12を装着する場合には、傾きや方向等の向きが端末10と一体に動作されるものが好ましいが、これに限定されるものではない。また、撮像部12は、外部で撮像された画像データを取得してもよい。この場合には、位置情報や向き情報を有することが好ましいが、これに限定されるものではない。
表示部13は、画面上に撮像部12から取得した撮像画像を表示したり、撮像画像にオブジェクトデータを重畳した合成画像を表示する。また、表示部13は、本実施形態における表示制御処理を行うために予め設定されたメニュー画面や設定画面、端末10を操作するための操作画面等を表示する。また、表示部13は、タッチパネル等のように、画面上から情報の入力を行ってもよい。
記憶部14は、本実施形態において必要な各種情報を記憶する。記憶部14は、例えば、制御部19等の制御により、情報を書き込んだり、読み出したりすることができる。記憶部14には、例えばARコンテンツ情報(例えば、ARコンテンツ管理テーブル、ARコンテンツを区別するシナリオ管理テーブルやシーン管理テーブル等)、ガイド表示テーブル、その他の各種設定情報等が記憶されるが、記憶される内容については、これに限定されるものではない。また、上述した各情報は、管理サーバ等から取得した情報でもよく、ユーザが端末10から設定した情報であってもよい。
検出部15は、例えば一又は複数の測位方式を用いて端末10又は撮像部12の位置情報及び向き情報を取得する。位置情報の測位方式としては、例えばGPSがあるが、これに限定されるものではなく、例えば端末10が接続中のWi−Fiネットワーク(例えば、ルータ)やモバイルネットワーク(例えば、基地局)等の位置から位置情報(緯度、経度、高度)を取得してもよい。例えば、検出部15は、同時に複数のWi−Fiネットワークやモバイルネットワークと接続中の場合には、それぞれの位置情報の平均値や、受信強度が最大のルータや基地局等の位置情報を用いて端末10の位置情報を取得してもよい。
また、向き情報の測定方式としては、例えば電子コンパスやジャイロセンサ等を用いて、方位情報(傾斜(Pitch)、方位(Azimuth)、回転(Roll))等を取得することができるが、これに限定されるものではない。電子コンパスは、地磁気センサ、方位センサ等の一例であり、地球の地磁気を二次元又三次元で検出し、地磁気に対してどの方角を向いているかにより、方位情報を取得することができる。また、ジャイロセンサは、回転していることを検知したり、向きの変化を検知することで方位情報を取得することができる。
検出部15は、上述した位置情報や向き情報を所定のタイミングで定期的に取得する。また、検出部15は、各種センサや撮像部12等による検出距離や撮像範囲(画角情報)等を、予め設定された設定情報より取得することができる。
データ処理部16は、予め設定されたモードに対応するデータ処理を行う。データ処理部16は、例えばオーサリング処理を行うモードの場合には、端末10の位置及び向きに応じて特定される領域(エリア)内に対して、オブジェクトデータの種類、大きさ、回転角度、表示位置等の登録を行う。このとき、データ処理部16は、検出部15により得られる位置情報を用いて、オブジェクトデータの表示位置を設定することができる。また、データ処理部16は、表示制御部18により画面に表示される端末10からの距離を示す情報(ガイド)に基づいて表示位置を設定することができる。
データ処理部16は、登録した情報をARコンテンツ情報として記憶部14に記憶させてもよく、通信部11を介して管理サーバや他の端末10等に送信してもよい。また、データ処理部16は、管理サーバ等からARコンテンツ情報やガイド表示テーブル等を取得し、取得した情報を記憶部14に記憶させることもできる。
また、データ処理部16は、例えばオーサリングされたARコンテンツ情報を画面に表示する閲覧モードの場合には、端末10の位置及び向きに応じて特定される領域内の位置に基づいて、予め登録されたARコンテンツ情報を参照する。また、データ処理部16は、対応するARコンテンツ情報が検出されると、そのARコンテンツ情報に含まれるオブジェクトデータを表示部13に表示させる。なお、モードの種類については、上述した例に限定されるものではない。
判定部17は、データ処理部16におけるモードが、オーサリングを行うモード(オブジェクトデータを表示させる位置を決めるモード)であるか否かの判定を行う。例えば判定部17は、ユーザ操作により画面上等で、オーサリング処理を行うモードを設定した場合に、その設定した情報によりオーサリング処理を行うモードであるか、又は閲覧モード(既にオーサリングされたARコンテンツ情報を表示するモード)であるか等の判定を行う。
表示制御部18は、判定部17による判定結果がオーサリング処理を行うモードである場合、端末10からの距離を示す情報(ガイド)を、表示部13の画面に表示する。また、表示制御部18は、ガイドを端末10からの距離を基準に予め設定された間隔で所定の距離まで表示させることができる。ガイドの種類は、一又は複数有し、複数ある場合にはユーザ等により設定することができる。このガイド表示により、ユーザがオブジェクトデータの位置情報を入力する際、奥行方向の位置入力を支援することができ、閲覧モードの場合に適切な位置にオブジェクトデータを表示させることができる。
また、表示制御部18は、端末10の周囲にあるARコンテンツ情報の位置情報をマップとして表示したレーダマップを画面に表示させてもよい。その場合、表示制御部18は、ガイドの位置情報もレーダマップに表示させることができる。なお、マップの種類は、レーダマップに限定されるものではない。
制御部19は、端末10の各構成全体を制御する。制御部19は、例えばユーザが選択した端末10のモードに対応させて、オーサリング処理を行ったり、オーサリング処理されたARコンテンツ情報を閲覧する処理を行う。また、制御部19は、例えば本実施形態における表示制御処理の開始や終了、エラー発生時の制御等を行う。
端末10は、例えばタブレット端末やスマートフォン、Personal Digital Assistants(PDA)、ノート型PC等であるが、これに限定されるものではなく、例えばゲーム機器、携帯電話等の通信端末であってもよい。
また、端末10の一例として、例えばヘッドマウントディスプレイ(HMD)や眼鏡型ディスプレイ等のような透過型の表示装置を用いてもよい。ヘッドマウントディスプレイや眼鏡型ディスプレイは、ユーザの目に対応した位置(視野上)に透過型の画面(表示部)を有する装着型デバイスである。端末10は、透過型の画面(表示部)上に、上述したオブジェクトデータやガイドを透過させて表示することで、ユーザが実際に見ている視野範囲内に上述したオブジェクトデータやガイドを表示させることができる。なお、オブジェクトデータやガイドは、透過性のある表示物として表示することができ、表示制御部18により表示制御される。
また、ヘッドマウントディスプレイや眼鏡型ディスプレイ等の場合には、上述した端末10の各構成のうち、表示部13等に関する構成と、その他の構成とが別体に設けられていてもよく、それらを接続することで上述した端末10と同様の構成を実現してもよい。
<端末10のハードウェア構成例>
次に、端末10として機能するコンピュータのハードウェア構成例について、図を用いて説明する。図2は、端末のハードウェア構成の一例を示す図である。図2の例において、端末10は、マイクロフォン(以下、「マイク」という)31と、スピーカ32と、カメラ33と、表示部34と、操作部35と、センサ部36と、電力部37と、無線部38と、近距離通信部39と、補助記憶装置40と、主記憶装置41と、Central Processing Unit(CPU)42と、ドライブ装置43とを有し、これらはシステムバスBで相互に接続されている。
マイク31は、ユーザが発した音声や、その他の音を入力する。スピーカ32は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク31及びスピーカ32は、例えば、通話機能等により通話相手と会話するとき等に用いることができるが、これに限定されるものではなく、音声による情報の入出力に用いることができる。
カメラ33は、例えば予め設定された画角内の実空間の画像(動画像、静止画像)を撮像する。カメラ33は、上述した撮像部12の一例である。カメラ33を端末10に内蔵されていてもよく、外付けされていてもよい。
表示部34は、ユーザに対してOperating System(OS)や各種アプリケーションで設定された画面(例えば、実空間にオブジェクトデータが重畳された画像等)を表示する。表示部34は、上述した表示部13の一例である。
また、表示部34は、タッチパネルディスプレイ等でもよく、その場合には表示部34は、入出力部としての機能を有する。また、表示部34は、透過型のディスプレイでもよい。表示部34は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。
操作部35は、表示部34の画面に表示された操作ボタンや端末10の外部に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタンや音量調整ボタンでもよく、所定の順番で配列された文字入力用の操作キー等でもよい。ユーザは、例えば表示部34の画面上で所定の操作を行ったり、上述した操作ボタンを押すことで、表示部34により画面上のタッチ位置が検出され、画面上にアプリ実行結果やオブジェクトデータやアイコン、カーソル等が表示される。
センサ部36は、端末10のある時点又は継続的な位置や向き、加速度等に基づく動作等を検出するが、これに限定されるものではない。センサ部36は、上述した検出部15の一例である。センサ部36としては、例えばGPS、ジャイロセンサ、傾きセンサ、加速度センサ等であるが、これに限定されるものではない。
電力部37は、端末10の各構成に対して電力を供給する。電力部37は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部37は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。
無線部38は、例えばアンテナ等を用いて基地局(モバイルネットワーク)からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信データの送受信部である。
近距離通信部39は、例えば赤外線通信やWi−Fi、Bluetooth等の通信手法を用いて、他の端末10等のコンピュータと近距離通信を行うことができる。上述した無線部38及び近距離通信部39は、他のコンピュータとのデータの送受信を可能とする通信インタフェースである。
補助記憶装置40は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段である。補助記憶装置40は、CPU42からの制御信号に基づき、本実施形態における実行プログラム(表示制御プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置40は、CPU42からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。
主記憶装置41は、CPU42からの指示により補助記憶装置40から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置41は、例えばRead Only Memory(ROM)やRandom Access Memory(RAM)等である。
CPU42は、OS等の制御プログラム、及び主記憶装置41に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、本実施形態における表示制御における各処理を実現する。CPU42は、上述した制御部19の一例である。
具体的には、CPU42は、例えば操作部35等から得られるプログラムの実行指示等に基づき、補助記憶装置40にインストールされたプログラムを実行させることにより、主記憶装置41上でプログラムに対応する処理を行う。例えば、CPU42は、表示制御プログラムを実行させることで、上述した通信部11による各種データの通信、撮像部12による撮像、表示部13による表示、記憶部14による各種情報の表示、検出部15による位置情報や向き情報の検出等の処理を行う。また、CPU42は、表示制御プログラムを実行させることで、上述したデータ処理部16によるオーサリング処理でのARコンテンツ情報の登録、ARコンテンツ情報の閲覧、判定部17による判定、表示制御部18による表示制御等の処理を行うことができる。CPU42における処理内容は、上述した内容に限定されるものではない。CPU42により実行された内容は、必要に応じて補助記憶装置40等に記憶される。
ドライブ装置43は、例えば記録媒体44等を着脱自在にセットすることができ、セットした記録媒体44に記録された各種情報を読み込んだり、所定の情報を記録媒体44に書き込むことができる。ドライブ装置43は、例えば媒体装填スロット等であるが、これに限定されるものではない。
記録媒体44は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体44は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体44は、Universal Serial Bus(USB)メモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等を実現することができる。また、上述した表示制御処理に対応する表示制御プログラムは、例えば端末10上で常駐している状態であってもよく、起動指示により起動させてもよい。
<データ例>
次に、本実施形態における表示制御処理で使用されるデータ例について図を用いて説明する。図3は、本実施形態で適用される各種データ例を示す図である。また、図4は、各種データのデータ構成の一例を示す図である。図3(A)は、シナリオ管理テーブルの一例を示し、図3(B)は、シーン管理テーブルの一例を示し、図3(C)は、ARコンテンツ管理テーブルの一例を示し、図3(D)は、ガイド表示テーブルの一例を示す。
例えば、本実施形態では、GPSから取得した位置情報(緯度、経度、高度)に対応する世界座標系に示すように、各座標値(位置情報)に対応させてオブジェクトデータを設定することができる。しかしながら、端末10に対する特定の位置や向きに対して多数のオブジェクトデータが設定されていると、閲覧モード時に全てのオブジェクトデータが表示できなくなる。また、例えば工場等の点検業務等のときに、注意事項や操作内容等を事前にオブジェクトデータを用いて設定しておく場合には、その点検を行う担当者が担当する対象(シナリオやシーン)に対しての情報が取得できればよい。したがって、本実施形態では、オーサリング処理において、ARコンテンツ情報を場所や環境等のシナリオやシーンに基づいて個別に、図4に示すように階層化して設定することで、閲覧モード時に表示されるARコンテンツ情報を選択させることができる。
図3(A)の例に示すシナリオ管理テーブルの項目としては、例えば「シナリオID」、「シナリオ名」等であるが、これに限定されるものではない。「シナリオID」は、ARコンテンツ情報を提供する対象のシナリオを識別する情報である。「シナリオ名」は、シナリオIDに対応するシナリオ名であり、例えば計画名、作業名、提示内容等により区別することができるが、これに限定されるものではない。
図3(B)の例に示すシーン管理テーブルの項目としては、例えば「親シナリオID」、「シーンID」、「シーン名」等があるが、これに限定されるものではない。「親シナリオID」は、シナリオの識別情報を示し、図3(A)に示すシナリオ管理テーブルの「シナリオID」の項目と関連付けられている。
「シーンID」は、親シナリオに対応するシーンを識別する情報であり、「シナリオID」を所定のシーン毎に細分化した情報である。また、「シーン名」は、シーンIDに対応する場所、出来事、作業内容等の情報であるが、これに限定されるものではない。
図3(C)の例に示すARコンテンツ管理テーブルの項目としては、例えば「親シナリオID」、「親シーンID」、「ARコンテンツID」、「座標値」、「回転角度」、「拡縮率」、「テクスチャパス」等があるが、これに限定されるものではない。
「親シナリオID」は、図3(A)に示すシナリオIDに関連付けられている。「親シーンID」は、親シナリオIDを所定のシーン毎に細分化したものであり、図3(B)に示すシーンIDに関連付けられている。「ARコンテンツID」は、各親シーンIDに対応する一又は複数のオブジェクトデータを識別する情報である。「座標値」は、オブジェクトデータを表示する三次元位置(Xc1,Yc1,Zc1)に関する情報である。
「回転角度」は、オブジェクトデータが予め設定された基本角度から三次元方向にどの程度傾いているかを示す情報(Xr1,Yr1,Zr1)である。「拡縮率」は、オブジェクトデータの所定の大きさを基準にした拡大率、縮小率を示す情報であり、三次元の各軸(X,Y,Z)方向に対して設定される(Xs1,Ys1,Zs1)。本実施形態では、上述した「座標値」、「回転角度」、及び「拡縮率」等のうち、少なくとも1つをオブジェクトデータの位置情報としてもよい。
「テクスチャパス」は、ARコンテンツIDに対応するオブジェクトデータの格納先情報である。例えば、「http://xxx.png」のように、管理サーバや管理サーバ以外の装置等のアドレス情報でもよく、フォルダ等の格納先でもよいが、これに限定されるものではない。また、「テクスチャパス」には、オブジェクトデータに対応する画像データや映像データ、テキストデータ等の情報(ファイル名)が直接格納されていてもよい。
本実施形態において、図3(A)〜(C)に示す各データ例は、図4に示すような階層化したデータ構成を有する。図4の例では、シナリオID「1」の「○○工場点検」については、各シーンとして「○○施設点検」(シーン1)、「△△施設点検」(シーン2)、「××施設点検」(シーン3)が細分化して設定される。これらは、階層化して表現することができ、更に各シーンにARコンテンツ1〜4が設定されている。つまり、1つのシーンにおいて、複数のARコンテンツ情報を設定することができる。図4の例では、ツリー構造のイメージでデータが管理されるが、管理される構造等については、これに限定されるものではない。
図3(D)に示すガイド管理テーブルの項目としては、例えば「ガイド種別」、「間隔(m)」等があるが、これに限定されるものではない。「ガイド種別」は、オーサリング時に画面に表示されるガイド(端末10からの距離を示す情報)の種別を示す情報である。本実施形態では、予めガイド種別毎にガイド表示用のオブジェクトデータ(ガイド用オブジェクト)が設定されている。「距離間隔」は、ガイドを表示する端末10からの間隔を示す情報である。距離間隔は、ガイド種別毎に設定することができ、例えばガイド種別「1」に対する距離間隔として端末10を基準として20m間隔でガイドを表示させることができるが、これに限定されるものではない。ガイドの一例としては、例えば旗や、壁、円(サークル)、楕円等であり、間隔毎に色分けされていてもよいが、これに限定されるものではない。
なお、上述した各種データは、端末10で設定したり、上述した通信ネットワークを介して、管理サーバ等から取得し、記憶部14等に記憶される情報である。上記の情報は、例えば本実施形態における表示制御処理の実行時に管理サーバ等から取得することができるが、これに限定されるものではない。端末10は、予め設定されたARコンテンツ情報に対して変更、更新を行うことができ、それに応じてデータの内容も変更、更新される。また、これらの情報は、端末10から得られるユーザ情報に対応付けて設定されていてもよい。また、記憶部14に記憶される情報は、上述したデータ例に限定されるものではなく、ユーザ情報や、処理履歴情報、各種設定情報等を記憶してもよい。
<表示制御処理の一例>
次に、本実施形態における表示制御処理の一例についてフローチャートを用いて説明する。図5は、本実施形態における表示制御処理の一例を示すフローチャートである。図5の例において、端末10の制御部19は、本実施形態における表示制御処理を行うARアプリケーションを起動し(S01)、ARコンテンツ情報等を管理サーバ等から取得する(S02)。
なお、S01の処理では、ARアプリケーションの起動により、例えば撮像部12による撮像を開始して撮像画像を取得したり、撮像部12以外から撮像画像を取得して、その取得画像を画面に表示してもよい。また、端末10がヘッドマウントディスプレイのような表示装置等の場合には、撮像画像ではなく透過型の画面(表示部)によりその先の実空間が見える状態となる。また、S02の処理では、例えば図3(A)〜(C)に示すようなARコンテンツ情報を取得しておいてもよく、また取得しなくてもよい。また、S02の処理では、図3(D)に示すようなガイド表示テーブル等を取得してもよく、既に記憶部14に記憶されている場合には、取得しなくてもよい。
次に、検出部15は、端末10の位置情報や向き情報の検出を実行し、位置情報及び向き情報を検出したか否かを判断する(S03)。S03の処理では、例えばGPS等を用いて位置情報を測位し、例えば電子コンパス等を用いて向き情報を検出するが、これに限定されるものではなく、少なくとも位置情報を検出すればよい。
位置情報及び向き情報を検出した場合(S03において、YES)、判定部17は、ユーザ操作によりオーサリングによる編集指示があったか否か(オーサリング処理を行うモードか否か)を判断する(S04)。S04の処理では、例えばオーサリングによるARコンテンツ情報の新規登録や、既に登録されたARコンテンツ情報を変更する場合の編集指示等を含む。また、オーサリングによる編集指示は、例えば予め指示に対応する画面上のタッチや端末10への動作、音声等により入力することができるが、これに限定されるものではない。
S04の処理において、オーサリングによる編集指示があった場合(S04において、YES)、表示制御部18は、本実施形態におけるガイド表示処理を行う(S05)。S05の処理については、後述する。
次に、データ処理部16は、ARコンテンツ情報の登録処理を行う(S06)。S06の処理では、上述した図3(A)〜(C)に示すようなシナリオやシーン毎に、端末10の位置及び向きに応じて特定される領域(エリア)内に対して、オブジェクトデータの種類、大きさ、回転角度、表示位置等の登録を行うが、これに限定されるものではない。
次に、データ処理部16は、全ての登録が完了したか否かを判断し(S07)、全ての登録が完了していない場合(S07において、NO)、S06の処理に戻る。また、全ての登録が完了している場合(S07において、YES)、又は、S03の処理において、位置情報及び向き情報を検出していない場合(S03において、NO)、ARアプリケーションを終了するか否かを判断する(S08)。
ARアプリケーションを終了しない場合(S08において、NO)、S03の処理に戻る。また、ARアプリケーションを終了する場合(S08において、YES)、ARアプリケーションを終了し(S09)、オーサリングにおける表示制御処理を終了する。
上述したオーサリング処理によりARコンテンツ情報等が設定された後、端末10は、閲覧モードの処理として、例えば端末10の位置及び向きに応じて特定される領域内の位置に対応付けて登録されたARコンテンツ情報が検出された場合、そのARコンテンツ情報に含まれるオブジェクトデータを表示部13の画面の所定の位置に表示する。
<S05;ガイド表示処理>
次に、上述したガイド表示処理(S05)についてフローチャートを用いて説明する。図6は、ガイド表示処理の一例を示すフローチャートである。図5の例において、表示制御部18は、予め設定され記憶部14に記憶されたガイド情報を読み込み(S11)、読み込んだガイド情報に対応するオブジェクトデータ(ガイド用オブジェクト)を所定の間隔で表示する(S12)。ここで、ガイド情報とは、例えば図3(D)に示すガイド管理テーブル等であり、例えばARアプリケーション等で管理しているガイド用オブジェクト、ガイド用オブジェクトの表示距離間隔等であるが、これに限定されるものではない。
また、S12の処理において、どのガイド用オブジェクトを用いて表示するかについては、端末10に表示される設定画面等でユーザが任意に設定や選択を行ってもよい。ガイドは、ガイド種別毎に設定された端末10からの距離間隔に基づいて表示される。
次に、表示制御部18は、ガイド用オブジェクトの位置情報を示すレーダマップを表示する(S13)。ここで、レーダマップは、端末10の周囲にあるオーサリング処理で設定されたARコンテンツ情報の位置情報をマップとして表示したものである。なお、本実施形態において、S13に示すようなレーダマップの表示処理は行わなくてもよく、レーダマップの表示、非表示は、ユーザが任意に設定することができる。
<画面例>
次に、本実施形態を適用した画面例について図を用いて説明する。なお、以下の例では、端末10の一例としてタブレット端末を示しているが、これに限定されるものではなく、例えば、ヘッドマウントディスプレイのような表示装置でもよい。
<第1実施例>
図7は、本実施形態におけるガイド表示の第1実施例を示す図である。図7(A)は、第1実施例のガイド表示の概念図を示し、図7(B)は、第1実施例におけるガイドの画面表示例を示している。
例えば、図7に示す第1実施例では、ユーザ50がオーサリング処理として、端末10から所定の距離にある実物体(例えば、建物や山等)51に対してARコンテンツ情報52を設定する場合を示している。
第1実施例において、端末10は、まずユーザによるオーサリング処理を行う旨の指示や動作を受け付ける。その後、端末10は、図7(A)に示すように端末10の画面70に、予め設定されたガイド用オブジェクト60−1〜60−4を端末10の位置を基準(0m)として所定間隔(例えば、20m間隔)で表示する。
ガイド用オブジェクト60−1〜60−4は、透過性のある表示物である。したがって、ガイド用オブジェクト60−1〜60−4の先の景色や実物体等が隠れずに画面70に表示される。また、各ガイド用オブジェクト60−1〜60−4の距離間隔は、ガイド種別に対応した間隔で表示されるが、これに限定されるものではない。また、ガイド用オブジェクト60の表示数については、4つに限定されずに所定数又は端末10からの距離が所定距離になるまで一又は複数表示させることができる。
なお、図7(A)、(B)に示すように、ガイド用オブジェクト60−1〜60−4は、それぞれが識別できるように、表示する色、形状、及び大きさ等のうち、少なくとも1つの情報を異ならせて表示する。また、大きさを異ならせる場合には、端末10から離れるほど、大きいガイド用オブジェクトを表示するのが好ましい。これにより、図7(B)に示すように、ガイド用オブジェクト60〜60−4が端末10の画面70上で重ねて表示される場合でも、奥にあるガイド用オブジェクトの全てが隠れてしまうことがなく視認可能となる。
また、本実施形態において、表示制御部18は、上述したガイド用オブジェクト60の表示だけでなく、図7(B)に示すように、各ガイド用オブジェクト60の位置情報を示すレーダマップ80を表示してもよい。
図8は、レーダマップの画面例を説明するための図である。図8の例に示すレーダマップ80は、全表示範囲(50〜200000mで設定可能)に対して、ARコンテンツ情報表示領域81と、ARコンテンツ情報非表示領域82と、方位情報83と、視野領域84と、ガイド用オブジェクト位置情報85−1〜85−4と、オブジェクトデータ位置情報86とを有する。
ARコンテンツ情報表示領域81は、端末10の位置情報を中心として、その周囲360°において、所定の距離(例えば、半径100m、半径1km等)内に存在するオブジェクトデータ位置情報86を表示する。例えば、ARコンテンツ情報表示領域81内で、かつ視野領域84内にオブジェクトデータ位置情報86が存在すれば、そのオブジェクトデータは、画面に表示される。
ARコンテンツ情報非表示領域82は、端末10の位置情報を中心として、その周囲360°において、ARコンテンツ情報表示領域81よりも遠くで、かつ所定の距離(例えば、半径200m、半径2km等)内に存在するオブジェクトデータ位置情報86を表示する。例えば、視野領域84内にオブジェクトデータ位置情報86が存在しても、ARコンテンツ情報非表示領域82内にあれば、画面上に対応するオブジェクトデータは表示されない。
方位情報83は、端末10の視野範囲の方向を確認するための基準となる所定の方位の情報(例えば、「北」等)である。視野領域84は、端末10の位置及び向きに応じて特定されるエリアであり、例えば画面70上の表示内容に対応している。視野領域84は、例えば撮像部12による撮像範囲(画角情報)、検出可能な距離等により範囲を変更することができる。
ガイド用オブジェクト位置情報85−1〜85−4は、上述したガイド用オブジェクト60−1〜60−4のそれぞれの位置を示す情報である。なお、図8の例では、各ガイド用オブジェクト位置情報85−1〜85−4の間隔を表示してもよい。
オブジェクトデータ位置情報86は、オーサリング処理されたARコンテンツ情報(オブジェクト情報)の位置情報である。例えば、オブジェクトデータ位置情報86は、図7(B)に示すARコンテンツ情報52に対応する。
レーダマップ80における各表示内容については、図8の例に限定されるものではなく、色や模様等は任意に変更することができる。また、オブジェクトデータ位置情報86は、既に登録されているARコンテンツ情報と、現在編集中のARコンテンツ情報とを異なる色や模様等で表示してもよい。
また、本実施形態における位置情報の表示形態については、レーダマップ80に限定されるものではなく、例えば矩形マップ等でもよい。また、レーダマップ80は、二次元に限定されず、三次元の球状(又は立方体状)のマップでもよい。またレーダマップ80の表示位置は、図7(B)に示すように画面70の右下に限定されるものではなく、ユーザ操作により表示、非表示を切り替えてもよい。
なお、図7の例において、ARコンテンツ情報52におけるオブジェクトデータの位置座標は、緯度(degree)、経度(degree)、高度(m)等で決定される。また、図8の例に示すレーダマップ80は、0.00001(degree)を1(m)と近似して表現しているが、これに限定されるものではない。
第1実施例では、図7(B)に示すように、ガイド用オブジェクト60やレーダマップ80等のガイド表示を画面上に表示することで、画面70上の実物体(視野範囲に含まれる実物体)51に対応するARコンテンツ情報52の位置を設定する際、編集中のARコンテンツ情報52の位置と相対的に比較できるため、オーサリング処理において、特にGPS等で取得した位置情報の誤差が大きい奥行方向の位置を適切に入力することができる。なお、本実施形態では、例えばオーサリング処理におけるオブジェクトデータの左右方向や上下方向の位置入力についても、その入力を支援するようなガイド用オブジェクト60を表示させてもよい。
第1実施例によりオブジェクトデータに対する位置入力を行うことで、オーサリング処理後の閲覧モードにおいて、適切な位置にARコンテンツ情報52に含まれるオブジェクトデータを表示することができる。
<第2実施例>
図9は、本実施形態におけるガイド表示の第1実施例を示す図である。図9(A)は、第2実施例のガイド表示の概念図を示し、図9(B)は、第2実施例のガイドの画面表示例を示している。
例えば、図9に示す第2実施例では、ユーザ50が端末10から所定の距離にある実物体51に対してARコンテンツ情報52を設定する場合、図9(A)に示すようにガイド用オブジェクト61を扇状に地面に対して表示する。なお、第2実施例では、端末10からの距離に応じて色分けや模様分けがなされて、ガイド用オブジェクト61を透過させて表示するが、これに限定されるものではない。また、ガイド用オブジェクト61の形状は、扇形に限定されず、例えば円形、半円形、楕円形等でもよい。これにより、図9(B)に示すように、端末10の画面70上において、ガイド用オブジェクト61を基準にARコンテンツ情報52を適切な位置(奥行方向の位置等)に設定することができる。
<第3実施例>
図10は、本実施形態におけるガイド表示の第3実施例を示す図である。図10(A)は、第3実施例のガイド表示の概念図を示し、図10(B)は、第3実施例におけるガイドの画面表示例を示している。
例えば、図10に示す第3実施例では、端末10の画面70に対し、旗のガイド用オブジェクト62−1〜62−4を斜めに表示させる例を示している。例えば、ユーザ50が端末10から所定の距離にある実物体51に対応してARコンテンツ情報52を設定する場合(オーサリング処理する場合)、表示制御部18は、図10(A)に示すように、斜めにガイド用オブジェクト62−1〜62−4を透過させて画面70に表示する。
なお、どの程度斜めにするかについては、例えば予めユーザが設定情報として設定していてもよい。例えば、表示制御部18は、設定されたガイド種別に対応するガイド用オブジェクト62を取得し、そのガイド用オブジェクト62を端末10の向き情報から得られる正面方向ではなく、設定情報から取得した斜め角度だけ傾けた位置に所定の距離間隔で表示する。また、表示制御部18は、レーダマップ80にガイド用オブジェクト位置情報を表示する場合にも、ガイド用オブジェクト62の表示位置に対応させて、正面方向ではなく所定角度だけ斜め前方向に表示する。
第3実施例により、図10(B)に示すように、ガイド用オブジェクト62−1〜62−4が重ならずに画面70上で表示することができるため、ガイド位置を容易に把握することができる。
<第4実施例>
図11は、本実施形態におけるガイド表示の第4実施例を示す図である。図11(A)は、第4実施例のガイド表示の概念図を示し、図11(B)は、第4実施例におけるガイドの画面表示例を示している。
第4実施例では、図11(A)、(B)に示すように、複数のガイド用オブジェクトを表示する。これにより、視野範囲に含まれる実物体51までの距離(奥行方向の情報)を、より把握し易くすることができる。なお、図11(B)の例では、画面70の斜め前方にガイド用オブジェクトを表示させる例を用い、旗のガイド用オブジェクト62と、扇型のガイド用オブジェクト61とを合成して表示しているが、表示されるガイドの種類については、これに限定されるものではない。
また、第4実施例では、ガイドの種別に対応させて距離間隔を異ならせてもよく、それぞれのガイドに対して設定されている距離間隔のうち、何れかの距離間隔(例えば、最も短い間隔)に統一させて画面70に表示してもよい。
なお、上述した表示制御部18は、上述したガイドの表示に関し、端末10のオプション画面等を用いて、「ガイド表示の実施有無」、「ガイドの種別」、「距離間隔」等を設定可能にしてもよい。これにより、ARコンテンツ情報の編集距離が近い場合や、遠い場合であっても、適宜ガイド表示を変更可能となる。
上述したように、本実施形態によれば、オーサリング処理のモード時におけるオブジェクトデータの位置情報を入力する際、ガイド表示等により、奥行方向の位置の入力を支援することができる。なお、上述したガイド表示は、オーサリング処理のモードの場合ではなく、閲覧モードの場合にも表示されるように設定してもよい。
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。
なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
端末の位置及び向きに応じて特定される領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを表示部に表示する表示制御方法において、
前記オブジェクトデータを対応付ける位置情報の入力を受け付けるモードか否かの判定を行い、
前記オブジェクトデータを対応付ける位置情報を受け付けるモードである場合、前記端末からの距離を示す情報を、前記表示部に表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記2)
前記表示部は、前記端末のユーザの視野上に配置される透過型のディスプレイであって、前記距離を示す情報を透過性のある表示物とする、ことを特徴とする付記1に記載の表示制御方法。
(付記3)
前記距離を示す情報は、予め設定されたオブジェクトデータであることを特徴とする付記1又は2に記載の表示制御方法。
(付記4)
前記距離を示す情報の種類に応じた距離間隔で、前記距離を示す情報を表示することを特徴とする付記1乃至3の何れか1項に記載の表示制御方法。
(付記5)
前記端末からの距離に応じて前記距離を示す情報を複数表示する場合に、色、形状、及び大きさのうち、少なくとも1つの情報を異ならせて前記距離を示す情報を表示することを特徴とする付記1乃至4の何れか1項に記載の表示制御方法。
(付記6)
前記距離を示す情報に対する位置情報をレーダマップに表示することを特徴とする付記1乃至5の何れか1項に記載の表示制御方法。
(付記7)
端末の位置及び向きに応じて特定される領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを表示部に表示する表示制御プログラムにおいて、
前記オブジェクトデータを対応付ける位置情報の入力を受け付けるモードか否かの判定を行い、
前記オブジェクトデータを対応付ける位置情報を受け付けるモードである場合、前記端末からの距離を示す情報を、前記表示部に表示する、
処理をコンピュータに実行させるための表示制御プログラム。
(付記8)
検出した位置及び向きに応じて特定される領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを表示部に表示する情報処理装置において、
前記オブジェクトデータを対応付ける位置情報の入力を受け付けるモードか否かの判定を行う判定部と、
前記判定部による判定結果が、前記オブジェクトデータを対応付ける位置情報を受け付けるモードである場合、前記情報処理装置からの距離を示す情報を、前記表示部に表示する表示制御部と、
を有することを特徴とする情報処理装置。
10 端末(情報処理装置)
11 通信部
12 撮像部(画像取得部)
13、34 表示部
14 記憶部
15 検出部
16 データ処理部
17 判定部
18 表示制御部
19 制御部
31 マイクロフォン
32 スピーカ
33 カメラ
35 操作部
36 センサ部
37 電力部
38 無線部
39 近距離通信部
40 補助記憶装置
41 主記憶装置
42 CPU
43 ドライブ装置
44 記録媒体
50 ユーザ
51 実物体
52 ARコンテンツ情報
60〜62 ガイド用オブジェクト
70 画面
80 レーダマップ
81 ARコンテンツ情報表示領域
82 ARコンテンツ情報非表示領域
83 方位情報
84 視野領域
85 ガイド用オブジェクト位置情報
86 オブジェクトデータ位置情報

Claims (6)

  1. 端末の位置及び向きに応じて特定される領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを表示部に表示する表示制御方法において、
    前記オブジェクトデータを対応付ける位置情報の入力を受け付けるモードか否かの判定を行い、
    前記オブジェクトデータを対応付ける位置情報を受け付けるモードである場合、前記端末からの距離を示す情報を、前記表示部に表示する、
    処理をコンピュータが実行することを特徴とする表示制御方法。
  2. 前記表示部は、前記端末のユーザの視野上に配置される透過型の画面であって、前記距離を示す情報を透過性のある表示物とする、ことを特徴とする請求項1に記載の表示制御方法。
  3. 前記距離を示す情報は、予め設定されたオブジェクトデータであることを特徴とする請求項1又は2に記載の表示制御方法。
  4. 前記距離を示す情報の種類に応じた距離間隔で、前記距離を示す情報を表示することを特徴とする請求項1乃至3の何れか1項に記載の表示制御方法。
  5. 端末の位置及び向きに応じて特定される領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを表示部に表示する表示制御プログラムにおいて、
    前記オブジェクトデータを対応付ける位置情報の入力を受け付けるモードか否かの判定を行い、
    前記オブジェクトデータを対応付ける位置情報を受け付けるモードである場合、前記端末からの距離を示す情報を、前記表示部に表示する、
    処理をコンピュータに実行させるための表示制御プログラム。
  6. 検出した位置及び向きに応じて特定される領域内の位置に対応付けて登録されたオブジェクトデータが検出された場合、前記オブジェクトデータを表示部に表示する情報処理装置において、
    前記オブジェクトデータを対応付ける位置情報の入力を受け付けるモードか否かの判定を行う判定部と、
    前記判定部による判定結果が、前記オブジェクトデータを対応付ける位置情報を受け付けるモードである場合、前記情報処理装置からの距離を示す情報を、前記表示部に表示する表示制御部と、
    を有することを特徴とする情報処理装置。
JP2015064262A 2015-03-26 2015-03-26 表示制御方法、表示制御プログラム、及び情報処理装置 Expired - Fee Related JP6409644B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015064262A JP6409644B2 (ja) 2015-03-26 2015-03-26 表示制御方法、表示制御プログラム、及び情報処理装置
US15/062,471 US20160284130A1 (en) 2015-03-26 2016-03-07 Display control method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015064262A JP6409644B2 (ja) 2015-03-26 2015-03-26 表示制御方法、表示制御プログラム、及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2016184295A JP2016184295A (ja) 2016-10-20
JP6409644B2 true JP6409644B2 (ja) 2018-10-24

Family

ID=56975760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015064262A Expired - Fee Related JP6409644B2 (ja) 2015-03-26 2015-03-26 表示制御方法、表示制御プログラム、及び情報処理装置

Country Status (2)

Country Link
US (1) US20160284130A1 (ja)
JP (1) JP6409644B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10585294B2 (en) 2018-02-19 2020-03-10 Microsoft Technology Licensing, Llc Curved display on content in mixed reality
JP7066520B2 (ja) 2018-05-21 2022-05-13 Ntn株式会社 車両用動力装置および発電機付車輪用軸受
JP7089939B2 (ja) 2018-05-22 2022-06-23 Ntn株式会社 モータおよびこのモータを備えた車両用動力装置、発電機およびこの発電機を備えた発電機付車輪用軸受
JP7385238B2 (ja) * 2019-01-07 2023-11-22 株式会社mediVR リハビリテーション支援装置、リハビリテーション支援方法及びリハビリテーション支援プログラム
JP7225016B2 (ja) * 2019-04-19 2023-02-20 株式会社スクウェア・エニックス Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末
WO2022172335A1 (ja) * 2021-02-09 2022-08-18 マクセル株式会社 仮想ガイド表示装置、仮想ガイド表示システム、及び仮想ガイド表示方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6686280B1 (en) * 1999-07-22 2004-02-03 Taiwan Semiconductor Manufacturing Company Sidewall coverage for copper damascene filling
EP2380348A4 (en) * 2008-12-19 2012-06-13 Delphi Tech Inc ELECTRONIC SIDE VIEW INDICATOR SYSTEM
JP4816748B2 (ja) * 2009-03-06 2011-11-16 ソニー株式会社 ナビゲーション装置及びナビゲーション方法
US20110221771A1 (en) * 2010-03-12 2011-09-15 Cramer Donald M Merging of Grouped Markers in An Augmented Reality-Enabled Distribution Network
US8315674B2 (en) * 2010-10-08 2012-11-20 Research In Motion Limited System and method for displaying object location in augmented reality
WO2013023705A1 (en) * 2011-08-18 2013-02-21 Layar B.V. Methods and systems for enabling creation of augmented reality content
JP6171671B2 (ja) * 2013-07-24 2017-08-02 富士通株式会社 情報処理装置、位置指定方法および位置指定プログラム

Also Published As

Publication number Publication date
US20160284130A1 (en) 2016-09-29
JP2016184295A (ja) 2016-10-20

Similar Documents

Publication Publication Date Title
JP6409644B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
US11256384B2 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
JP6421670B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
US8619152B2 (en) Mobile terminal and operating method thereof
US9223408B2 (en) System and method for transitioning between interface modes in virtual and augmented reality applications
US9262867B2 (en) Mobile terminal and method of operation
AU2020256776B2 (en) Method and device for observing virtual article in virtual environment, and readable storage medium
EP3835953A1 (en) Display adaptation method and apparatus for application, device, and storage medium
US12086496B2 (en) Systems with overlapped displays
CN111768454A (zh) 位姿确定方法、装置、设备及存储介质
US10192332B2 (en) Display control method and information processing apparatus
CN109862412A (zh) 合拍视频的方法、装置及存储介质
JP2014182479A (ja) 姿勢によって拡張現実感の表示を制御する情報端末、システム、プログラム及び方法
CN111369684B (zh) 目标跟踪方法、装置、设备及存储介质
KR20190047922A (ko) 혼합현실을 이용한 정보 공유 시스템
JP2019002747A (ja) 目的地特定システム
CN112000899A (zh) 景点信息的展示方法、装置、电子设备及存储介质
CN110633335B (zh) 获取poi数据的方法、终端和可读存储介质
CN111798358B (zh) 确定算路时间的方法、装置、电子设备及可读存储介质
US20240314425A1 (en) Information processing system and non-transitory computer readable medium
WO2021200187A1 (ja) 携帯端末および情報処理方法、並びに記憶媒体
JP6447251B2 (ja) 情報処理装置、表示制御方法、及び表示制御プログラム
KR20220151328A (ko) 전자 장치 및 전자 장치 제어방법
CN104199640A (zh) 方向测量方法、装置及终端
CN114838672A (zh) 套管的形变图像确定方法、装置、终端及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180910

R150 Certificate of patent or registration of utility model

Ref document number: 6409644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees