JP2017016467A - Display control method, display control program, and information processing terminal - Google Patents
Display control method, display control program, and information processing terminal Download PDFInfo
- Publication number
- JP2017016467A JP2017016467A JP2015133644A JP2015133644A JP2017016467A JP 2017016467 A JP2017016467 A JP 2017016467A JP 2015133644 A JP2015133644 A JP 2015133644A JP 2015133644 A JP2015133644 A JP 2015133644A JP 2017016467 A JP2017016467 A JP 2017016467A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- processing terminal
- information
- display control
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示制御方法、表示制御プログラム及び情報処理端末に関する。 The present invention relates to a display control method, a display control program, and an information processing terminal.
従来より、カメラ等の撮像装置により撮像された画像の一部にオブジェクトデータを重畳して表示させる拡張現実(Augmented Reality:AR)技術が知られている。 2. Description of the Related Art Conventionally, augmented reality (AR) technology for displaying object data superimposed on a part of an image captured by an imaging device such as a camera is known.
また、従来では、Global Positioning System(GPS,全地球測位網)等の所定の測位方式から情報処理端末の位置情報を取得し、情報処理端末が撮影した画像に、取得した位置情報と対応するオブジェクトデータ等を重畳表示することが知られている。 Conventionally, the position information of the information processing terminal is acquired from a predetermined positioning method such as a Global Positioning System (GPS), and an object corresponding to the acquired position information is displayed on an image captured by the information processing terminal. It is known to superimpose data and the like.
従来の技術では、位置情報と対応するオブジェクトデータが多数存在する場合、多くのオブジェクトが情報処理端末に表示され、視認性が低下する。また、例えば観光地等では、土地勘に乏しいユーザに対して、オブジェクトデータと対応付いた場所や、表示されたオブジェクトが示すものが何かを把握させることが困難である。 In the conventional technique, when there are a lot of object data corresponding to the position information, many objects are displayed on the information processing terminal, and visibility is deteriorated. Further, for example, in a tourist spot, it is difficult for a user who is not familiar with the land to grasp the location associated with the object data and what the displayed object indicates.
一つの側面では、端末の移動状態に応じたARコンテンツの表示を行うことを目的としている。 In one aspect, the object is to display AR content according to the movement state of the terminal.
一態様によれば、検出された端末の位置情報及び向き情報に応じたエリアを特定し、特定した前記エリアの内、前記端末の移動状態に応じた範囲を特定し、特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する、処理をコンピュータが実行する。 According to one aspect, the area corresponding to the detected position information and orientation information of the terminal is specified, and the range corresponding to the movement state of the terminal is specified among the specified areas, and included in the specified range The computer executes a process of displaying the object data registered in association with any position information.
上記各手順は、上記各手順を実現する機能部、各手順をコンピュータに実行させるプログラム、プログラムを記憶したコンピュータ読み取り可能な記憶媒体とすることもできる。 Each procedure described above may be a functional unit that implements each procedure, a program that causes a computer to execute each procedure, or a computer-readable storage medium that stores the program.
端末の移動状態に応じたARコンテンツの表示を行うことができる。 The AR content can be displayed according to the moving state of the terminal.
以下、各実施形態について添付の図面を参照しながら説明する。尚、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。 Each embodiment will be described below with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.
図1は、オブジェクトの表示を説明する図である。図1に示す情報処理端末100は、撮像装置を有しており、撮像装置により撮像された撮像画像を画面10に表示させる。
FIG. 1 is a diagram for explaining object display. An
また、情報処理端末100は、撮像装置の撮像領域に含まれる位置情報と対応付けられたAR(Augmented Reality)コンテンツ情報を取得し、ARコンテンツ情報に含まれるオブジェクトデータを、撮像画像に重畳させて表示させる。ARコンテンツ情報は、オブジェクトデータと、オブジェクトデータと対応付けられた位置情報と、を含む情報である。
Further, the
図1に示す画面10には、建造物1の画像1aと、建造物2の画像2aとを含む撮像画像が表示されている。また、画面10には、オブジェクト11とオブジェクト12とが表示されている。
On the
オブジェクト11は、建造物1の位置を示す位置情報と対応付けられたオブジェクトデータを表示させたものであり、オブジェクト12は、建造物2の位置を示す位置情報と対応付けられたオブジェクトデータを表示させたものである。
The
ARコンテンツ情報は、後述するコンテンツ提供サーバに格納されている。情報処理端末100は、コンテンツ提供サーバから、位置情報が撮像装置の撮像領域に含まれるARコンテンツ情報を取得し、位置情報と対応付けられたオブジェクトデータを表示させる。
The AR content information is stored in a content providing server to be described later. The
また、情報処理端末100は、情報処理端末100の移動状態に応じて、撮像領域における、ARコンテンツ情報を取得する範囲を特定する。そして、情報処理端末100は、特定された範囲内に含まれる位置情報と対応するARコンテンツ情報を取得し、ARコンテンツ情報に含まれるオブジェクトデータを、撮像画像に重畳させる。以下の説明では、ARコンテンツ情報を取得する範囲として特定された範囲を取得対象領域と呼ぶ。また、移動状態とは、情報処理端末100の速度と、情報処理端末100の移動手段を含む。
In addition, the
具体的には、情報処理端末100は、例えば情報処理端末100のユーザが立ち止まっていた場合、つまり、情報処理端末100の速度が0又は0に近い場合等には、撮像領域において、情報処理端末100に近い範囲を取得対象領域とする。
Specifically, for example, when the user of the
また、情報処理端末100は、例えば情報処理端末100のユーザが、車や電車等で移動していた場合、つまり、情報処理端末100のユーザが所定の速度以上で移動していた場合等には、撮像領域において、情報処理端末100から遠い範囲を取得対象領域とする。
Further, the
以下に、図2を参照して取得対象領域の特定について説明する。図2は、取得対象領域について説明する図である。 Hereinafter, the specification of the acquisition target area will be described with reference to FIG. FIG. 2 is a diagram illustrating the acquisition target area.
図2において、距離Lpは、情報処理端末100の撮像装置の有するレンズの焦点距離であり、情報処理端末100から撮像領域20までの距離である。撮像領域20の幅Wと、高さHは、撮像装置のレンズの焦点距離と、画角とにより決まる。
In FIG. 2, a distance Lp is a focal length of a lens included in the imaging device of the
また、撮像領域20において、情報処理端末100と対向する平面21は、撮像装置のレンズの光学中心から焦点距離Lpの位置にある点を含む平面である。本実施形態では、情報処理端末100の撮像装置の有するレンズと、平面21との位置関係は固定されているものとした。
In the
情報処理端末100は、情報処理端末100の移動状態に応じて、撮像領域20において、ARコンテンツ情報を取得する取得対象領域22を特定する。
The
具体的には、情報処理端末100は、取得対象領域22の幅をW1、高さをH1、奥行きをD1とした場合に、情報処理端末100の速度が小さくなるほど、取得対象領域22を平面21に近づける。つまり、情報処理端末100は、撮像領域20の平面21から、取得対象領域22において撮像装置と対向する平面23までの距離Lを短くする。
Specifically, when the width of the
また、情報処理端末100は、情報処理端末100の速度が小さくなるほど、取得対象領域22の幅W1と高さH1を撮像領域20の幅Wと高さHに近づける。つまり、情報処理端末100は、取得対象領域22における平面23の面積を大きくする。このとき、情報処理端末100は、平面23の高さH1及び幅W1の中点が公差する交点Pは、レンズの光学中心と同一線上にあるものとし、幅W1と高さH1の値を変化させる際には、交点Pを中心に平面23の大きさが変化するようにする。
Further, the
さらに、情報処理端末100は、情報処理端末100の速度が小さくなるほど、取得対象領域22の奥行きD1を短くする。
Furthermore, the
そして、情報処理端末100は、情報処理端末100の速度が0となったとき、取得対象領域22の幅W1と高さH1とを、撮像領域20の幅Wと高さHと一致させ、奥行きD1の値を所定の値とする。所定の値の詳細は後述する。
Then, when the speed of the
また、情報処理端末100は、情報処理端末100の速度が大きくなるほど、取得対象領域22を平面21から遠ざける。つまり、情報処理端末100は、平面21から、平面23までの距離Lを長くする。以下の説明では、距離Lを、情報処理装置から取得対象領域までの距離と呼ぶ。
Further, the
また、情報処理端末100は、情報処理端末100の速度が大きくなるほど、取得対象領域22の幅W1及び高さH1の値を撮像領域20の幅W及び高さHの値を小さくする。つまり、情報処理端末100は、取得対象領域22における平面23の面積を小さくする。さらに、情報処理端末100は、情報処理端末100の速度が大きくなるほど、取得対象領域22の奥行きD1を長くする。
Further, the
以上のように、情報処理端末100は、情報処理端末100の速度に応じて、取得対象領域22を変化させる。以下に、図3を参照して取得対象領域の変化について説明する。図3は、取得対象領域の変化を説明する図である。
As described above, the
図3における取得対象領域31は、情報処理端末100の速度が0に近い場合を示している。ここで、例えば情報処理端末100の速度が大きくなっていった場合、取得対象領域31は、取得対象領域32へ変化する。
An
取得対象領域31の幅W31は、取得対象領域32の幅W32より広く、取得対象領域31の高さH31は、取得対象領域32の高さH32より高く、取得対象領域31の奥行きD31は、取得対象領域32の奥行きD32より短い。
The width W31 of the
このように、情報処理端末100は、情報処理端末100の速度に応じて、撮像領域20内の取得対象領域を変化させる。
As described above, the
ここで、情報処理端末100のユーザが、徒歩で移動している状態で、情報処理端末100の撮像画像上にオブジェクトを表示させようとした場合について考える。
Here, consider a case where the user of the
この場合、ユーザにとっては、徒歩で到達できない程遠くにあるものと対応するオブジェクトよりも、徒歩圏内にあるものと対応するオブジェクトの方が有用な情報となり得る。 In this case, for the user, an object corresponding to an object that is within walking distance can be more useful information than an object corresponding to an object that cannot be reached on foot.
そこで、情報処理端末100は、を撮像領域20において情報処理端末100に近い範囲(平面21に近い範囲)を取得対象領域31とし、取得対象領域31に位置情報が含まれるARコンテンツ情報を取得する。そして、情報処理端末100は、取得したARコンテンツ情報のオブジェクトデータを撮像画像と重畳させて表示させる。
Therefore, the
情報処理端末100は、取得対象領域31を情報処理端末100に近くすることで、情報処理端末100から近くにあるもののオブジェクトデータを表示させることができる。すなわち、情報処理端末100は、徒歩で移動しているユーザに対して有用と思われるオブジェクトデータを提供することができる。
The
また、情報処理端末100のユーザが、新幹線等で移動している状態で、情報処理端末100の撮像画像上にオブジェクトを表示させようとした場合について考える。
Further, consider a case where the user of the
この場合、情報処理端末100の速度が大きい(速い)ため、情報処理端末100の近くのオブジェクトを表示させても、オブジェクトが対応付いた場所をすぐに通過してしまう。このため、情報処理端末100の近くに表示されたオブジェクトは、ユーザにとって有用な情報とならない可能性が高い。
In this case, since the speed of the
そこで情報処理端末100は、情報処理端末100の速度が大きい場合には、情報処理端末100から離間する方向の範囲を取得対象領域32とし、取得対象領域32に位置情報が含まれるARコンテンツ情報を取得する。そして、情報処理端末100は、取得したARコンテンツ情報のオブジェクトデータを撮像画像と重畳させて表示させる。
Therefore, when the speed of the
情報処理端末100は、取得対象領域32を情報処理端末100に遠くすることで、情報処理端末100から遠くにあるもののオブジェクトデータを表示させることができる。すなわち、情報処理端末100は、高速で移動しているユーザに対して有用と思われるオブジェクトデータを提供することができる。
The
また、取得対象領域31、32は、両方とも、情報処理端末100が移動している際には、その進行方向に向かって前方の領域となるように決定される。つまり、情報処理端末100は、情報処理端末100の前方にあるオブジェクトデータを表示させる。
Further, the
以上のように、情報処理端末100は、速度に応じてARコンテンツ情報を取得する対象である取得対象領域を変化させるため、情報処理端末100の移動状態に応じたARコンテンツを表示させることができる。また、情報処理端末100は、ユーザにとって有用と思われるARコンテンツ情報を取得するため、情報処理端末100に多数のオブジェクトが表示されることを抑制でき、視認性を向上させることができる。
As described above, the
[第一の実施形態]
以下に図面を参照して第一の実施形態について説明する。図4は、第一の実施形態の表示制御システムの一例を示す図である。
[First embodiment]
The first embodiment will be described below with reference to the drawings. FIG. 4 is a diagram illustrating an example of the display control system according to the first embodiment.
本実施形態の表示制御システム300は、情報処理端末100と、コンテンツ提供サーバ200とを有する。情報処理端末100と、コンテンツ提供サーバ200とは、ネットワークを介して接続される。
The
本実施形態の情報処理端末100は、表示制御処理部110を有する。本実施形態のコンテンツ提供サーバ200は、コンテンツデータベース210を有する。
The
本実施形態の情報処理端末100は、表示制御処理部110により、情報処理端末100の移動状態に応じて、撮像領域におけるオブジェクトの取得対象領域を特定する。そして、情報処理端末100は、コンテンツ提供サーバ200から、位置情報が取得対象領域に含まれるARコンテンツ情報を取得し、位置情報と対応付けられたオブジェクトデータを表示させる。
In the
図5は、第一の実施形態のコンテンツデータベースの一例を示す図である。本実施形態のコンテンツデータベース210は、情報の項目として、オブジェクトID、位置情報、オブジェクトデータを有する。
FIG. 5 is a diagram illustrating an example of the content database according to the first embodiment. The
コンテンツデータベース210では、項目「オブジェクトID」に、その他の項目が対応付けられている。以下の説明では、項目「オブジェクトID」の値と、その他の項目の値とを含む情報をARコンテンツ情報と呼ぶ。
In the
項目「オブジェクトID」の値は、オブジェクトデータを識別する識別子である。項目「位置情報」の値は、オブジェクトデータと対応付けられており、予め設定された測位方式により測位された情報である。位置情報は、緯度、経度、高度からなる三次元座標(X,Y,Z)で表すことができる。 The value of the item “object ID” is an identifier for identifying object data. The value of the item “position information” is associated with the object data, and is information measured by a preset positioning method. The position information can be represented by three-dimensional coordinates (X, Y, Z) composed of latitude, longitude, and altitude.
項目「オブジェクトデータ」の値は、実際のオブジェクトデータの情報である。図5の例では、オブジェクトデータとしてテキストデータが示されているが、これに限定されない。本実施形態のオブジェクトデータは、画像、アイコン、アニメーション、マーク、模様、映像、或いはこれらの組み合わせのデータであってもよい。さらに、本実施形態のオブジェクトデータは、例えば観光情報等を示すデータであっても良い。 The value of the item “object data” is information of actual object data. In the example of FIG. 5, text data is shown as object data, but the present invention is not limited to this. The object data of this embodiment may be data of an image, an icon, an animation, a mark, a pattern, a video, or a combination thereof. Furthermore, the object data of the present embodiment may be data indicating sightseeing information, for example.
次に、本実施形態の情報処理端末100について説明する。図6は、情報処理端末のハードウェア構成の一例を示す図である。
Next, the
本実施形態の情報処理端末100は、それぞれバスBで相互に接続されている表示操作装置11、補助記憶装置12、ドライブ装置13、センサ14、メモリ装置15、演算処理装置16、通信装置17、撮像装置18、位置特定装置19を含む。
The
表示操作装置11は、表示機能と入力機能を有するタッチパネル等により実現される。補助記憶装置12は、情報処理端末100を制御する各種プログラムや、情報処理端末100の動作に必要なファイル、データ等を格納する。
ドライブ装置13は、例えば記録媒体6等を着脱自在にセットすることができ、セットした記録媒体6に記録された各種情報を読み込んだり、所定の情報を記録媒体6に書き込むことができる。ドライブ装置13は、例えば媒体装填スロット等であるが、これに限定されるものではない。
The
The
センサ14は、加速度センサと地磁気センサとを含む。加速度センサは、情報処理端末100の加速度を検出する。地磁気センサは、情報処理端末100が向いている方向を検出する。
The
メモリ装置15は、演算処理装置16による演算により得られたデータや値等を格納する。演算処理装置16は、各種プログラムを読み出して実行することで、情報処理端末100の有する各種の機能を実現する。通信装置17は、モデム、LANカード等を含み、ネットワークに接続する為に用いられる。また、通信装置17は、情報処理端末100と外部装置との通信を行う。
The
撮像装置18は、カメラである。位置特定装置19は、例えばGPS(Global Positioning System)機能等により、情報処理端末100の位置を特定する装置である。
The
表示制御プログラムは、情報処理端末100を制御する各種プログラムの少なくとも一部である。表示制御プログラムは例えば記録媒体6の配布やネットワークからのダウンロードなどによって提供される。表示制御プログラムを記録した記録媒体6は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
The display control program is at least a part of various programs that control the
また、表示制御プログラムは、表示制御プログラムを記録した記録媒体6がドライブ装置13にセットされるとは記録媒体6からドライブ装置13を介して補助記憶装置12にインストールされる。ネットワークからダウンロードされた表示制御プログラムは、通信装置17を介して補助記憶装置12にインストールされる。
The display control program is installed in the
尚、本実施形態のコンテンツ提供サーバ200は、例えば表示操作装置11の代わりに、キーワード等の入力装置と、ディスプレイ等の出力装置とを有する一般的なコンピュータであるため、説明を省略する。
Note that the
次に、図7を参照して本実施形態の情報処理端末100の機能について説明する。図7は、第一の実施形態の情報処理端末の機能を説明する図である。
Next, functions of the
本実施形態の情報処理端末100は、表示制御処理部110と、記憶部120とを有する。本実施形態の表示制御処理部110は、演算処理装置16が補助記憶装置12やメモリ装置15に格納された表示制御プログラムを実行することで実現される。本実施形態の記憶部120は、補助記憶装置12やメモリ装置15の所定の領域において実現される。
The
本実施形態の表示制御処理部110は、撮像領域特定部111、移動状態判定部112、取得対象領域決定部113、ARコンテンツ取得部114、表示処理部115を有する。また、記憶部120は、領域決定テーブル121を有する。
The display
本実施形態の撮像領域特定部111は、情報処理端末100の有する撮像装置の撮像領域を特定する。具体的には、撮像領域特定部111は、位置特定装置19により、情報処理端末100の位置を示す位置情報を取得し、位置情報に基づき撮像領域を特定する。
The imaging
本実施形態において、情報処理端末100の位置情報は、例えば緯度・経度・高さの情報として取得されても良い。本実施形態の位置特定装置19は、例えば所定のビーコンの受信等により、情報処理端末100の位置を特定し、位置情報として取得しても良い。また、本実施形態の位置特定装置19は、Wi−Fi(Wireless Fidelity)の接続の可否に応じて情報処理端末100の位置を特定し、位置情報として取得しても良い。
In the present embodiment, the position information of the
移動状態判定部112は、加速度センサ及び地磁気センサの値を取得し、情報処理端末100の速度と、進行方向を判定する。
The movement
取得対象領域決定部113は、移動状態判定部112により得られた情報処理端末100の移動状態に応じて、撮像領域における取得対象領域を特定する。より具体的には、取得対象領域決定部113は、後述する領域決定テーブル121を参照し、情報処理端末100の速度と対応する取得対象領域を特定する。
The acquisition target
ARコンテンツ取得部114は、コンテンツデータベース210を参照し、特定された取得対象領域内に位置情報が含まれるARコンテンツ情報を取得する。
The AR
表示処理部115は、取得したARコンテンツ情報を、撮像画像に重畳させて表示させる。
The
本実施形態の記憶部120は、領域決定テーブル121を有する。以下に、図8を参照して領域決定テーブル121について説明する。
The
図8は、領域決定テーブルの一例を示す図である。本実施形態の領域決定テーブル121では、情報の項目として、速度の範囲と、幅、高さ、奥行き及び距離が対応付けられている。 FIG. 8 is a diagram illustrating an example of the area determination table. In the area determination table 121 of the present embodiment, the speed range and the width, height, depth, and distance are associated as information items.
項目「速度の範囲」の値は、情報処理端末100の速度の範囲を示す。尚、Vは情報処理端末100の速度である。項目「幅」の値は、取得対象領域の幅W1の値を示す。項目「高さ」の値は、取得対象領域の高さH1の値を示す。項目「奥行き」の値は、取得対象領域の奥行きD1の値を示す。項目「距離」の値は、撮像領域において撮像装置に最も近い平面から取得対象領域において撮像装置と対向する平面までの距離である。具体的には、平面21から平面23までの距離Lの値である(図2参照)。
The value of the item “speed range” indicates the speed range of the
領域決定テーブル121において、V1、V2、V3は情報処理端末100の速度を示しており、これらの大小関係は、V1<V2<V3である。
In the area determination table 121, V1, V2, and V3 indicate the speed of the
領域決定テーブル121において、幅の大小関係は、W1a>W1b>W1cである。領域決定テーブル121において、高さの大小関係は、H1a>H1b>H1cである。領域決定テーブル121において、奥行きの大小関係は、D1c>D1b>D1aである。 In the area determination table 121, the width relationship is W1a> W1b> W1c. In the area determination table 121, the height relationship is H1a> H1b> H1c. In the region determination table 121, the depth relationship is D1c> D1b> D1a.
つまり、情報処理端末100の速度が大きくなるほど、取得対象領域は情報処理端末100が遠ざかり、且つ幅W1は狭くなり、高さH1は低くなり、奥行きD1は長くなる。
That is, as the speed of the
尚、領域決定テーブル121では、速度の範囲「0≦V<V1」と対応する幅W1aは撮像領域20の幅Wと同じ値であり、高さH1aは撮像領域20の高さHと同じ値であり、奥行きD1aは所定の値であり、距離L1は焦点距離Lpと同じ値であっても良い。
In the area determination table 121, the width W1a corresponding to the speed range “0 ≦ V <V1” is the same value as the width W of the
本実施形態における奥行きD1aの所定の値とは、例えば情報処理端末100から徒歩圏内の距離である。本実施形態において、例えば徒歩20分の距離を徒歩圏内とした場合、奥行きD1aにおける所定の値は、20分と、歩行速度として予め設定された分速とを乗算した結果の値となる。また、歩行速度は、情報処理端末100の加速度センサにより検出された速度を設定しても良い。このように設定すれば、情報処理端末100のユーザの歩行速度に応じた所定の値を設定することができる。
The predetermined value of the depth D1a in the present embodiment is a distance within walking distance from the
また、領域決定テーブル121において、例えば速度V1は、歩行速度の最大値となる値であっても良い。歩行速度の最大値は、例えば情報処理端末100のユーザが予め設定しても良いし、統計的な値が設定されていても良い。
In the area determination table 121, for example, the speed V1 may be a value that is the maximum value of the walking speed. The maximum walking speed may be set in advance by the user of the
次に、図9を参照し、本実施形態の情報処理端末100の動作について説明する。図9は、第一の実施形態の情報処理端末の動作を説明するフローチャートである。
Next, the operation of the
本実施形態の情報処理端末100は、表示制御処理部110の撮像領域特定部111により、撮像装置18の撮像領域を特定する(ステップS901)。より具体的には、撮像領域特定部111は、位置特定装置19により、情報処理端末100の位置情報を取得して位置を特定する。また、撮像領域特定部111は、センサ14に含まれる地磁気センサから、情報処理端末100の向きを特定する。そしても撮像領域特定部111は、情報処理端末100の位置と、向きと、撮像装置18のレンズの仕様等から、撮像領域を特定する。
In the
続いて情報処理端末100は、移動状態判定部112により、情報処理端末100の移動状態を判定する(ステップS902)。具体的には、移動状態判定部112は、センサ14に含まれる加速度センサの値から、情報処理端末100の速度を求める。
Subsequently, the
続いて情報処理端末100は、取得対象領域決定部113により、撮像領域における取得対象領域を決定する(ステップS903)。ステップS903の処理の詳細は後述する。
Subsequently, in the
続いて情報処理端末100は、ARコンテンツ取得部114により、コンテンツ提供サーバ200から、取得対象領域に位置情報が含まれるARコンテンツ情報を取得する(ステップS904)。
Subsequently, the
続いて情報処理端末100は、表示処理部115により、ARコンテンツ情報に含まれる位置情報を撮像画像上に反映させた位置に、位置情報と対応付けられたオブジェクトデータを表示させる(ステップS905)。
Subsequently, the
続いて情報処理端末100は、オブジェクトデータの表示の終了指示を受け付けたか否かを判定する(ステップS906)。ステップS906で終了指示を受け付けない場合、情報処理端末100の表示制御処理部110は、ステップS901へ戻る。また、ステップS906において表示の終了指示を受け付けた場合は、オブジェクトデータの表示を終了させ、処理を終了する(ステップS906)。
Subsequently, the
尚、図9では、撮像領域における取得対象領域を決定した後に、取得対象領域に位置情報が含まれるARコンテンツ情報を取得するものとしたが、これに限定されない。情報処理端末100は、撮像領域を特定した後に、撮像領域に位置情報が含まれるARコンテンツ情報を先に取得し、取得したARコンテンツ情報から、取得対象領域に位置情報が含まれるARコンテンツ情報を抽出しても良い。
In FIG. 9, after the acquisition target area in the imaging area is determined, the AR content information including position information in the acquisition target area is acquired. However, the present invention is not limited to this. The
次に、図10を参照し、本実施形態の取得対象領域決定部113の処理について説明する。図10は、第一の実施形態の取得対象領域決定部の処理を説明するフローチャートである。
Next, with reference to FIG. 10, the process of the acquisition target
本実施形態の取得対象領域決定部113は、移動状態判定部112により、情報処理端末100の速度が得られると、速度の値を取得する(ステップS1001)。続いて取得対象領域決定部113は、領域決定テーブル121を参照し、取得した速度の値が含まれる速度の範囲を決定する(ステップS1002)。
When the speed of the
続いて対象領域決定部113は、決定した速度の範囲と対応する幅W1、高さH1、奥行きD1及び距離Lの値を取得する(ステップS1003)。続いて対象領域決定部113は、撮像領域内において、ステップS1003で取得した各値により特定される領域を取得対象領域に決定し(ステップS1004)、処理を終了する。
Subsequently, the target
尚、本実施形態では、取得対象領域の幅W1、高さH1及び奥行きD1の値と、距離Lの値は、予め速度の範囲と対応付けられているものとしたが、これに限定されない。 In the present embodiment, the values of the width W1, the height H1, and the depth D1 of the acquisition target area and the value of the distance L are associated with the speed range in advance, but are not limited thereto.
取得対象領域の幅W1、高さH1及び奥行きD1の値と、距離Lの値は、例えば情報処理端末100の速度の値と、これらの各値との関係を示した関数等により決められても良い。
The values of the width W1, the height H1 and the depth D1 of the acquisition target region and the value of the distance L are determined by, for example, a speed value of the
具体的には、例えば取得対象領域の幅W1の値は、最大値を撮像領域20の幅Wの値とし、速度を示す値が大きくなるほど小さくなるような関数で定義されていても良い。同様に、取得対象領域の高さH1の値は、最大値を撮像領域20の高さHの値とし、速度を示す値が大きくなるほど小さくなるような関数で定義されていても良い。
Specifically, for example, the value of the width W1 of the acquisition target region may be defined by a function such that the maximum value is the value of the width W of the
また、取得対象領域の奥行きD1の値は、最小値を徒歩圏内の距離の値とし、速度を示す値が大きくなるほど大きくなるような関数で定義されていても良い。同様に、距離Lの値は、最小値を0とし、速度を示す値が大きくなるほど大きくなるような関数で定義されていても良い。 In addition, the value of the depth D1 of the acquisition target region may be defined by a function in which the minimum value is the distance value within walking distance, and increases as the value indicating the speed increases. Similarly, the value of the distance L may be defined by a function such that the minimum value is 0 and the value indicating the speed increases as the value increases.
以上のように、本実施形態によれば、情報処理端末100の速度に応じてARコンテンツ情報を取得する対象となる取得対象領域を決定し、速度に応じたARコンテンツ情報をユーザに提供する。したがって、本実施形態によれば、情報処理端末100のユーザの移動状態に応じたARコンテンツを表示させることができる。
As described above, according to the present embodiment, an acquisition target region that is a target for acquiring AR content information is determined according to the speed of the
[第二の実施形態]
以下に図面を参照して第二の実施形態について説明する。図11は、第一の実施形態の表示制御システムの一例を示す図である。
[Second Embodiment]
The second embodiment will be described below with reference to the drawings. FIG. 11 is a diagram illustrating an example of the display control system according to the first embodiment.
本実施形態の表示制御システム300Aは、情報処理端末100Aと、コンテンツ提供サーバ200Aとを有する。
The
本実施形態の情報処理端末100Aは、表示制御処理部110Aを有する。本実施形態のコンテンツ提供サーバ200Aは、車用コンテンツデータベース220、電車用コンテンツデータベース230、バス用コンテンツデータベース240、自転車用コンテンツデータベース250、徒歩用コンテンツデータベース260、地図データベース270を有する。
The
コンテンツ提供サーバ200Aの有する各コンテンツデータベースの詳細は後述する。コンテンツ提供サーバ200Aの有する地図データベース270は、例えばカーナビゲーションシステム等に利用される一般的な地図情報が格納されている。尚、本実施形態では、地図データベース270はコンテンツ提供サーバ200Aに設けられているものとしたが、これに限定されない。地図データベース270は、情報処理端末100A及びコンテンツ提供サーバ200Aと通信が可能なコンテンツ提供サーバ200A以外のサーバに設けられていても良い。
Details of each content database of the content providing server 200A will be described later. The
以下に、図12乃至図16を参照して本実施形態のコンテンツ提供データベース200Aの有する各コンテンツデータベースについて説明する。 Hereinafter, each content database included in the content providing database 200A of the present embodiment will be described with reference to FIGS.
図12は、車用コンテンツデータベースの一例を示す図である。本実施形態の車用コンテンツデータベース220は、情報の項目として、オブジェクトID、位置情報、オブジェクトデータを有する。
FIG. 12 is a diagram illustrating an example of a car content database. The
車用コンテンツデータベース220において、項目「オブジェクトデータ」の値であるオブジェクトデータは、車で移動しているユーザにとって有用と思われるオブジェクトデータである。具体的には、例えば車用コンテンツデータベース220のオブジェクトデータは、「○○パーキング」や「××高速入り口」等、道路上に存在するものと対応付けられたオブジェクトデータであっても良い。
In the
図13は、電車用コンテンツデータベースの一例を示す図である。本実施形態の電車用コンテンツデータベース230は、情報の項目として、オブジェクトID、位置情報、オブジェクトデータを有する。
FIG. 13 is a diagram illustrating an example of a train content database. The
電車用コンテンツデータベース230において、項目「オブジェクトデータ」の値であるオブジェクトデータは、電車で移動しているユーザにとって有用と思われるオブジェクトデータである。具体的には、例えば電車用コンテンツデータベース230のオブジェクトデータは、「富士山」、「○○川」等、電車の車窓から見えるものと対応付けられたオブジェクトデータであっても良い。
In the
図14は、バス用コンテンツデータベースの一例を示す図である。本実施形態のバス用コンテンツデータベース240は、情報の項目として、オブジェクトID、位置情報、オブジェクトデータを有する。
FIG. 14 is a diagram illustrating an example of a bus content database. The
バス用コンテンツデータベース240において、項目「オブジェクトデータ」の値であるオブジェクトデータは、バスで移動しているユーザにとって有用と思われるオブジェクトデータである。具体的には、例えばバス用コンテンツデータベース240のオブジェクトデータは、「○○停留所」等、バス停の名前であったり、バス停の近くに存在する店舗等と対応付けられたオブジェクトデータであっても良い。また、例えばバス用コンテンツデータベース240のオブジェクトデータは、「××公園」等、バスの車窓から見えるものと対応付けられたオブジェクトデータであっても良い。
In the
図15は、自転車用コンテンツデータベースの一例を示す図である。本実施形態の自転車用コンテンツデータベース250は、情報の項目として、オブジェクトID、位置情報、オブジェクトデータを有する。
FIG. 15 is a diagram illustrating an example of a bicycle content database. The
自転車用コンテンツデータベース250において、項目「オブジェクトデータ」の値であるオブジェクトデータは、自転車で移動しているユーザにとって有用と思われるオブジェクトデータである。具体的には、例えば自転車用コンテンツデータベース250のオブジェクトデータは、「サイクリングコースがあります」、「給水できます」等、自転車に乗っているユーザが利用できるものと対応付けられたオブジェクトデータであっても良い。
In the
図16は、徒歩用コンテンツデータベースの一例を示す図である。本実施形態の徒歩用コンテンツデータベース260は、情報の項目として、オブジェクトID、位置情報、オブジェクトデータを有する。
FIG. 16 is a diagram illustrating an example of a content database for walking. The walking
徒歩用コンテンツデータベース260において、項目「オブジェクトデータ」の値であるオブジェクトデータは、徒歩で移動しているユーザにとって有用と思われるオブジェクトデータである。具体的には、例えば徒歩用コンテンツデータベース260のオブジェクトデータは、「地下道への入り口」等、徒歩で移動しているユーザに対する道案内を目的としたオブジェクトデータであっても良い。また、例えば徒歩用コンテンツデータベース260のオブジェクトデータは、「ベンチあります」等、徒歩で移動しているユーザが利用できるものと対応付けられたオブジェクトデータであっても良い。 In the content database for walking 260, the object data that is the value of the item “object data” is object data that seems to be useful for a user who is moving on foot. Specifically, for example, the object data in the content database for walking 260 may be object data for the purpose of route guidance for a user who is moving on foot, such as “entrance to the underpass”. Further, for example, the object data in the content database for walking 260 may be object data associated with data that can be used by a user moving on foot, such as “There is a bench”.
図17は、第二の実施形態の情報処理端末の機能を説明する図である。本実施形態の情報処理端末100Aは、表示制御処理部110Aと、記憶部120Aとを有する。
FIG. 17 is a diagram illustrating functions of the information processing terminal according to the second embodiment. The
本実施形態の表示制御処理部110Aは、第一の実施形態の表示制御処理部110の有する各部に加え、移動手段判別部116を有する。
The display
本実施形態の移動手段判別部116は、加速度センサにより検出される情報処理端末100Aの速度の履歴を所定期間分保持し、後述する移動手段判別テーブル122を参照し、情報処理端末100Aの移動手段を判別する。
The moving means
本実施形態の記憶部120Aは、領域決定テーブル121に加えて、移動手段判別テーブル122を格納する。
The
以下に、本実施形態の移動手段判別テーブル122について説明する。図18は、第二の実施形態の移動手段判別テーブルの一例を示す図である。 Below, the moving means discrimination | determination table 122 of this embodiment is demonstrated. FIG. 18 is a diagram illustrating an example of a moving unit determination table according to the second embodiment.
本実施形態の移動手段判別テーブル122は、移動手段と、判定条件とが対応付けられている。移動手段は、車、バス、電車、自転車、徒歩である。尚、本実施形態の車は、乗用車等の一般車両を示す。判定条件は、情報処理端末100Aの移動手段を判別する際の条件である。
In the moving means determination table 122 of the present embodiment, moving means and determination conditions are associated with each other. The transportation means are a car, a bus, a train, a bicycle, and a walk. In addition, the vehicle of this embodiment shows general vehicles, such as a passenger car. The determination condition is a condition for determining the moving means of the
本実施形態では、情報処理端末100Aが、第一の所定の速度以上で、地図データベース270に格納された地図情報における道路上を移動していた場合、移動手段判別テーブル122により、情報処理端末100Aの移動手段を車と判別する。第一の所定速度とは、移動手段が車であると判別するための閾値であり、予め設定されている。
In this embodiment, when the
また、本実施形態では、情報処理端末100Aが、地図データベース270に格納された地図情報における道路上を移動し、且つ信号以外の場所で減速及び停車を繰り返す場合、移動手段判別テーブル122により、情報処理端末100Aの移動手段をバスと判別する。
Further, in this embodiment, when the
また、本実施形態では、情報処理端末100Aが、地図データベース270に格納された地図情報における線路上を移動している場合、移動手段判別テーブル122により、情報処理端末100Aの移動手段を電車と判別する。
In the present embodiment, when the
また、本実施形態では、情報処理端末100Aが、地図データベース270に格納された地図情報における道路のうち、車道又は歩道を移動し、且つ速度が所定の範囲内である場合、移動手段判別テーブル122により、情報処理端末100Aの移動手段を自転車と判別する。
Further, in this embodiment, when the
また、本実施形態では、情報処理端末100Aが、第二の所定の速度以下で移動している場合、移動手段判別テーブル122により、情報処理端末100Aの移動手段を徒歩と判別する。第二の所定速度とは、移動手段が徒歩であると判別するための閾値である。本実施形態の第二の所定速度は、歩行速度の最大値となる値であり、予め設定されている。
In this embodiment, when the
次に、図19を参照して本実施形態の情報処理端末100Aの動作について説明する。図19は、第二の実施形態の情報処理端末の動作を説明するフローチャートである。
Next, the operation of the
図19のステップS1901からステップS1903までの処理は、図9のステップS901からステップS903までの処理と同様であるから、説明を省略する。 The processing from step S1901 to step S1903 in FIG. 19 is the same as the processing from step S901 to step S903 in FIG.
情報処理端末100Aの表示制御処理部110Aは、ステップS1903において取得対象領域が決定すると、移動手段判別部116により、情報処理端末100Aの移動手段を判別する(ステップS1904)。
When the acquisition target area is determined in step S1903, the display
具体的には、移動手段判別部116は、保持している情報処理端末100Aの過去の速度の履歴と、移動手段判別テーブル122と、地図データベース270とを参照する。次に、移動手段判別部116は、情報処理端末100Aの速度の履歴と、情報処理端末100Aが移動している場所とが、移動手段判別テーブル122の判定条件を満たす移動手段を特定する。そして、移動手段判別部116は、特定された移動手段を、情報処理端末100Aの移動手段と判別する。
Specifically, the moving means
続いて情報処理端末100Aは、ARコンテンツ取得部114により、判別された移動手段と対応するコンテンツデータベースにおいて、位置情報が取得対象領域に含まれるARコンテンツ情報を取得する(ステップS1905)。
Subsequently, the
ステップS1906とステップS1907の処理は、図9のステップS905とステップS906の処理と同様であるから、説明を省略する。 The processing in steps S1906 and S1907 is the same as the processing in steps S905 and S906 in FIG.
以上のように、本実施形態では、情報処理端末100Aの速度に応じた範囲に、情報処理端末100Aの移動手段に応じたARコンテンツを表示させることができる。
As described above, in the present embodiment, AR content corresponding to the moving means of the
尚、本実施形態の情報処理端末100Aは、移動手段判別部116により情報処理端末100Aの移動手段を判別するものとしたが、これに限定されない。本実施形態の情報処理端末100Aは、例えば移動手段を入力させる画面を表示させ入力された移動手段に応じたARコンテンツ情報を取得しても良い。
In addition, although the
[第三の実施形態]
以下に図面を参照して第三の実施形態について説明する。図20は、第三の実施形態の表示制御システムの一例を示す図である。
[Third embodiment]
The third embodiment will be described below with reference to the drawings. FIG. 20 is a diagram illustrating an example of a display control system according to the third embodiment.
本実施形態の表示制御システム300Bは、情報処理端末100Bと、コンテンツ提供サーバ200Bとを有する。
The
本実施形態の情報処理端末100Bは、表示制御処理部110Bを有する。本実施形態のコンテンツ提供サーバ200Bは、車用コンテンツデータベース220、電車用コンテンツデータベース230、コンテンツデータベース210A、地図データベース270を有する。
The
コンテンツデータベース210Aは、移動手段が徒歩である場合のARコンテンツ情報や、移動手段が自転車用である場合のARコンテンツ情報が格納されている。また、コンテンツデータベース210Aは、移動手段に関わらず共通して提供されるARコンテンツ情報などが格納されている。
The
図21は、第三の実施形態の情報処理端末の機能を説明する図である。本実施形態の情報処理端末100Bは、表示制御処理部110Bと、記憶部120Bとを有する。
FIG. 21 is a diagram illustrating functions of the information processing terminal according to the third embodiment. The
本実施形態の表示制御処理部110Bは、取得対象領域決定部113Aと、移動手段判別部116Aと、を有する。
The display
本実施形態の取得対象領域決定部113Aは、移動手段判別部116Aにより判別された情報処理端末100Bの移動手段に応じて取得対象領域を決定する。また、本実施形態の取得対象領域決定部113Aは、移動手段により情報処理端末100Bの移動手段が判別されなかった場合に、情報処理端末100Bの速度に応じて取得対象領域を決定する。
The acquisition target
本実施形態の移動手段判別部116Aは、加速度センサにより検出される情報処理端末100Aの速度の履歴を所定期間分保持し、後述する移動手段判別テーブル123を参照し、情報処理端末100Bの移動手段を判別する。
The moving means
本実施形態の記憶部120Bは、移動手段判別テーブル123を格納する。以下に、本実施形態の移動手段判別テーブル123について説明する。
The
図22は、第三の情報処理端末の移動手段判別テーブルの一例を示す図である。本実施形態の移動手段判別テーブル123は、移動手段と、判定条件と、速度の範囲とが対応付けられている。 FIG. 22 is a diagram illustrating an example of the moving means determination table of the third information processing terminal. In the moving means determination table 123 of this embodiment, moving means, determination conditions, and speed ranges are associated with each other.
移動手段は、車と電車である。尚、本実施形態の車は、車道を走行する全ての車両を示す。 The moving means is a car and a train. In addition, the vehicle of this embodiment shows all the vehicles which drive | work a roadway.
判定条件は、情報処理端末100Aの移動手段が、対応する移動手段であるか否かを判別する際の条件である。
The determination condition is a condition for determining whether or not the moving unit of the
本実施形態では、情報処理端末100Bが、地図データベース270に格納されている地図情報に示される車道上を移動していた場合に、情報処理端末100Bの移動手段を車と判定する。また、移動手段である車と対応付けられた速度の範囲は、一般的な車両の速度の範囲であっても良い。
In the present embodiment, when the
同様に、本実施形態では、情報処理端末100Bが、地図データベース270に格納されている地図情報に示される線路上を移動していた場合に、情報処理端末100Bの移動手段を電車と判定する。また、移動手段である電車と対応付けられた速度の範囲は、一般的な電車の速度の範囲であっても良い。
Similarly, in the present embodiment, when the
次に、図23を参照し、本実施形態の情報処理端末100Bの動作について説明する。図23は、第三の実施形態の情報処理端末の動作を説明するフローチャートである。
Next, the operation of the
図23のステップS2301は、図9のステップS901の処理と同様であるから、説明を省略する。 Step S2301 in FIG. 23 is the same as the process in step S901 in FIG.
続いて情報処理端末100Bは、表示制御処理部110Bの移動手段判別部116Aにより、情報処理端末100Bの移動手段が判別されたか否かを判定する。
Subsequently, the
具体的には、移動手段判別部116Aは、情報処理端末100Bの位置情報の履歴を保持しておく。そして、移動手段判別部116Aは、移動手段判別テーブル123と、地図情報とを参照し、位置情報の変化から情報処理端末100Bが地図情報における車道上を移動しているか又は線路上を移動しているかを判定する。
Specifically, the moving means
移動手段判別部116Aは、情報処理端末100Bが車道上を移動していた場合は、移動手段を車と判別する。また、移動手段判別部116Aは、情報処理端末100Bが線路上を移動していた場合は、移動手段を電車と判別する。
116 A of moving means discrimination | determination parts discriminate | determine a moving means to be a vehicle, when the
ステップS2302において、移動手段が判別された場合、移動手段判別部116Aは、移動手段判別テーブル123において、移動手段と対応付けられた速度の範囲を取得する(ステップS2303)。
When the moving means is determined in step S2302, the moving means
ステップS2302において、移動手段の判別ができなかった場合、表示制御処理部110Bは、図9のステップS902へ進む。移動手段の判別ができない場合とは、情報処理端末100Bが車道及び線路以外の場所を移動している場合である。
If the moving means cannot be determined in step S2302, the display
ステップS2303に続いて、表示制御処理部110Bは、領域決定テーブル121を参照し、ステップS2303で取得した速度の範囲と対応する取得対象領域を決定する(ステップS2304)。
Subsequent to step S2303, the display
ステップS2305からステップS2307の処理は、図19のステップS1905からステップS1907までの処理と同様であるから、説明を省略する。 The processing from step S2305 to step S2307 is the same as the processing from step S1905 to step S1907 in FIG.
以上のように、本実施形態によれば、情報処理端末100Bの移動手段と、速度に応じて取得対象領域を決定することできるため、移動手段と速度を含む情報処理端末100Bの移動状態に応じたARコンテンツを表示させることができる。
As described above, according to the present embodiment, the acquisition target area can be determined according to the moving means of the
また、上記各実施形態では、情報処理端末が取得したARコンテンツ情報に含まれるオブジェクトデータを情報処理端末に表示させるものとしたが、これに限定されない。例えば、情報処理端末は、取得したオブジェクトデータを情報処理端末と通信可能なヘッドマウントディスプレイ等の端末に表示させても良い。 In the above embodiments, the object data included in the AR content information acquired by the information processing terminal is displayed on the information processing terminal. However, the present invention is not limited to this. For example, the information processing terminal may display the acquired object data on a terminal such as a head mounted display that can communicate with the information processing terminal.
開示の技術では、以下に記載する付記のような形態が考えられる。
(付記1)
検出された端末の位置情報及び向き情報に応じたエリアを特定し、
特定した前記エリアの内、前記端末の移動状態に応じた範囲を特定し、
特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記2)
前記移動状態に応じた範囲は、前記端末から離間する方向における範囲である、
ことを特徴とする付記1に記載の表示制御方法。
(付記3)
前記移動状態が移動中である場合、前記範囲を、前記端末の移動方向に応じた範囲とする、付記1又は2に記載の表示制御方法。
(付記4)
前記範囲を、前記端末の移動方向の前方の範囲とする、付記3に記載の表示制御方法。
(付記5)
前記移動状態が静止中である場合、前記移動状態が移動中である場合よりも、前記範囲が広くなる制御を行う、ことを特徴とする付記1乃至4の何れかに記載の表示制御方法。
(付記6)
前記移動中の速度が速いほど、前記範囲が狭くなる制御を行う、ことを特徴とする付記5に記載の表示制御方法。
(付記7)
前記移動状態は、前記端末のユーザが利用する移動手段の種別である、ことを特徴とする付記1乃至6の何れかに記載の表示制御方法。
(付記8)
前記移動状態は、前記端末の速度である、ことを特徴とする付記1乃至6の何れかに記載の表示制御方法。
(付記9)
前記移動手段は、前記端末の位置情報の履歴と、地図情報とに応じて判別される、付記7記載の表示制御方法。
(付記10)
前記移動手段は、前記端末の速度の履歴と、地図情報とに応じて判別される付記7又は9記載の表示制御方法。
(付記11)
検出された端末の位置情報及び向き情報に応じたエリアを特定し、
特定した前記エリアの内、前記端末の移動状態に応じた範囲を特定し、
特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する、
処理をコンピュータが実行することを特徴とする表示制御プログラム。
(付記12)
検出された位置情報及び向き情報に応じたエリアを特定する領域特定部と、
特定した前記エリアの内、移動状態に応じた範囲を特定する領域決定部と、
特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する表示処理部と、を有することを特徴とする情報処理端末。
In the disclosed technology, forms such as the following supplementary notes are conceivable.
(Appendix 1)
Identify the area according to the location information and orientation information of the detected terminal,
In the identified area, specify a range according to the movement state of the terminal,
Displaying object data registered in association with any position information included in the identified range;
A display control method, wherein a computer executes processing.
(Appendix 2)
The range according to the movement state is a range in a direction away from the terminal.
The display control method according to
(Appendix 3)
The display control method according to
(Appendix 4)
The display control method according to
(Appendix 5)
The display control method according to any one of
(Appendix 6)
The display control method according to
(Appendix 7)
The display control method according to any one of
(Appendix 8)
The display control method according to any one of
(Appendix 9)
The display control method according to appendix 7, wherein the moving means is determined in accordance with a history of position information of the terminal and map information.
(Appendix 10)
The display control method according to appendix 7 or 9, wherein the moving means is discriminated according to the speed history of the terminal and map information.
(Appendix 11)
Identify the area according to the location information and orientation information of the detected terminal,
In the identified area, specify a range according to the movement state of the terminal,
Displaying object data registered in association with any position information included in the identified range;
A display control program characterized in that a computer executes processing.
(Appendix 12)
An area specifying unit for specifying an area according to the detected position information and orientation information;
Of the identified areas, an area determining unit that identifies a range according to the movement state;
An information processing terminal comprising: a display processing unit that displays object data registered in association with any position information included in the specified range.
尚、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。 It should be noted that the present invention is not limited to the configuration shown here, such as a combination with other components in the configuration described in the above embodiment. These points can be changed without departing from the spirit of the present invention, and can be appropriately determined according to the application form.
100 :情報処理端末
110 :表示制御処理部
111 :撮像領域特定部
112 :移動状態判定部
113 :対象領域決定部
114 :ARコンテンツ取得部
115 :表示処理部
200 :コンテンツ提供サーバ
300 :表示制御システム
100: Information processing terminal 110: Display control processing unit 111: Imaging region specifying unit 112: Moving state determination unit 113: Target region determination unit 114: AR content acquisition unit 115: Display processing unit 200: Content providing server 300: Display control system
Claims (10)
特定した前記エリアの内、前記端末の移動状態に応じた範囲を特定し、
特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。 Identify the area according to the location information and orientation information of the detected terminal,
In the identified area, specify a range according to the movement state of the terminal,
Displaying object data registered in association with any position information included in the identified range;
A display control method, wherein a computer executes processing.
ことを特徴とする請求項1に記載の表示制御方法。 The range according to the movement state is a range in a direction away from the terminal.
The display control method according to claim 1.
特定した前記エリアの内、前記端末の移動状態に応じた範囲を特定し、
特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する、
処理をコンピュータが実行することを特徴とする表示制御プログラム。 Identify the area according to the location information and orientation information of the detected terminal,
In the identified area, specify a range according to the movement state of the terminal,
Displaying object data registered in association with any position information included in the identified range;
A display control program characterized in that a computer executes processing.
特定した前記エリアの内、移動状態に応じた範囲を特定する領域決定部と、
特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する表示処理部と、を有することを特徴とする情報処理端末。 An area specifying unit for specifying an area according to the detected position information and orientation information;
Of the identified areas, an area determining unit that identifies a range according to the movement state;
An information processing terminal comprising: a display processing unit that displays object data registered in association with any position information included in the specified range.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015133644A JP6651719B2 (en) | 2015-07-02 | 2015-07-02 | Display control method, display control program, and information processing terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015133644A JP6651719B2 (en) | 2015-07-02 | 2015-07-02 | Display control method, display control program, and information processing terminal |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017016467A true JP2017016467A (en) | 2017-01-19 |
JP6651719B2 JP6651719B2 (en) | 2020-02-19 |
Family
ID=57830797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015133644A Expired - Fee Related JP6651719B2 (en) | 2015-07-02 | 2015-07-02 | Display control method, display control program, and information processing terminal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6651719B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023218616A1 (en) * | 2022-05-12 | 2023-11-16 | 日産自動車株式会社 | Information processing method and information processing device |
JP7453192B2 (en) | 2021-09-27 | 2024-03-19 | Kddi株式会社 | Mobile device, program and method for presenting information based on object recognition according to user's dynamic state |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123807A (en) * | 2009-12-14 | 2011-06-23 | Dainippon Printing Co Ltd | Annotation display system, method and server device |
JP2012185570A (en) * | 2011-03-03 | 2012-09-27 | Nec Corp | Peripheral information retrieval device, system, method, and program |
JP2014093050A (en) * | 2012-11-06 | 2014-05-19 | Sony Corp | Image display device, image display method, and computer program |
JP2014130551A (en) * | 2012-12-29 | 2014-07-10 | Canon Inc | Information display apparatus, information display system, control method thereof, and program |
-
2015
- 2015-07-02 JP JP2015133644A patent/JP6651719B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123807A (en) * | 2009-12-14 | 2011-06-23 | Dainippon Printing Co Ltd | Annotation display system, method and server device |
JP2012185570A (en) * | 2011-03-03 | 2012-09-27 | Nec Corp | Peripheral information retrieval device, system, method, and program |
JP2014093050A (en) * | 2012-11-06 | 2014-05-19 | Sony Corp | Image display device, image display method, and computer program |
JP2014130551A (en) * | 2012-12-29 | 2014-07-10 | Canon Inc | Information display apparatus, information display system, control method thereof, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7453192B2 (en) | 2021-09-27 | 2024-03-19 | Kddi株式会社 | Mobile device, program and method for presenting information based on object recognition according to user's dynamic state |
WO2023218616A1 (en) * | 2022-05-12 | 2023-11-16 | 日産自動車株式会社 | Information processing method and information processing device |
Also Published As
Publication number | Publication date |
---|---|
JP6651719B2 (en) | 2020-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107328410B (en) | Method for locating an autonomous vehicle and vehicle computer | |
EP1653196B1 (en) | Map display for a navigation system | |
US8325180B2 (en) | Method for changing dynamic display mode and apparatus thereof in car navigation system | |
CN102208035B (en) | Image processing system and position measuring system | |
JP4370869B2 (en) | Map data updating method and map data updating apparatus | |
US20100292895A1 (en) | Driving support device | |
WO2018025624A1 (en) | Head-up display device, display control method, and control program | |
US20130124082A1 (en) | Navigation system and displaying method thereof | |
US20140172189A1 (en) | Method and control device for providing a course of a road ahead | |
CN102555940B (en) | Driving supporting system, driving supporting program and driving supporting method | |
CN110926487A (en) | Driving assistance method, driving assistance system, computing device, and storage medium | |
CN101467005A (en) | Navigation device and navigation method | |
JP2009109340A (en) | Vehicle navigation apparatus and vehicle navigation program | |
JP2014181927A (en) | Information provision device, and information provision program | |
JP2015184155A (en) | Map data structure, map data update method, vehicle position correction method, on-vehicle device, server, and vehicle position data correction system | |
JPWO2007096952A1 (en) | Map display system, map display method, map display apparatus and program in map display system | |
JP2004245610A (en) | System and method for analyzing passing of vehicle coming from opposite direction, and navigation device | |
KR20240014555A (en) | Curve guidance method, curve guidance apparatus, electronic apparatus and program stored in the computer-readable recording meduim | |
JP6651719B2 (en) | Display control method, display control program, and information processing terminal | |
KR20130066210A (en) | Device and method of acquiring traffic-control sign information using a camera | |
JP2005292064A (en) | Navigation system, data processing method, and computer program | |
WO2007088915A1 (en) | Route guidance device, route guidance method, route guidance program, and recording medium | |
JP2009109341A (en) | Own-vehicle position recognizer, own-vehicle position recognition program, and navigation apparatus using the same | |
JP6533675B2 (en) | Transfer information transmitting system, transfer information transmitting apparatus, guidance terminal, transfer information transmitting method, and transfer information transmitting program | |
KR100967921B1 (en) | Method for matching and storing of 3 dimension link in navigation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180413 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6651719 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |