JP2017016467A - Display control method, display control program, and information processing terminal - Google Patents

Display control method, display control program, and information processing terminal Download PDF

Info

Publication number
JP2017016467A
JP2017016467A JP2015133644A JP2015133644A JP2017016467A JP 2017016467 A JP2017016467 A JP 2017016467A JP 2015133644 A JP2015133644 A JP 2015133644A JP 2015133644 A JP2015133644 A JP 2015133644A JP 2017016467 A JP2017016467 A JP 2017016467A
Authority
JP
Japan
Prior art keywords
information processing
processing terminal
information
display control
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015133644A
Other languages
Japanese (ja)
Other versions
JP6651719B2 (en
Inventor
博 桑原
Hiroshi Kuwabara
博 桑原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015133644A priority Critical patent/JP6651719B2/en
Publication of JP2017016467A publication Critical patent/JP2017016467A/en
Application granted granted Critical
Publication of JP6651719B2 publication Critical patent/JP6651719B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To display AR content in accordance with a moving state of a terminal.SOLUTION: A computer executes processing of: specifying an area corresponding to position information and direction information of a terminal detected; specifying a range corresponding to a moving state of the terminal, in the specified area; and displaying object data registered in association with one piece of position information included in the specified range.SELECTED DRAWING: Figure 3

Description

本発明は、表示制御方法、表示制御プログラム及び情報処理端末に関する。   The present invention relates to a display control method, a display control program, and an information processing terminal.

従来より、カメラ等の撮像装置により撮像された画像の一部にオブジェクトデータを重畳して表示させる拡張現実(Augmented Reality:AR)技術が知られている。   2. Description of the Related Art Conventionally, augmented reality (AR) technology for displaying object data superimposed on a part of an image captured by an imaging device such as a camera is known.

また、従来では、Global Positioning System(GPS,全地球測位網)等の所定の測位方式から情報処理端末の位置情報を取得し、情報処理端末が撮影した画像に、取得した位置情報と対応するオブジェクトデータ等を重畳表示することが知られている。   Conventionally, the position information of the information processing terminal is acquired from a predetermined positioning method such as a Global Positioning System (GPS), and an object corresponding to the acquired position information is displayed on an image captured by the information processing terminal. It is known to superimpose data and the like.

特開2011−123807号公報JP 2011-123807 A

従来の技術では、位置情報と対応するオブジェクトデータが多数存在する場合、多くのオブジェクトが情報処理端末に表示され、視認性が低下する。また、例えば観光地等では、土地勘に乏しいユーザに対して、オブジェクトデータと対応付いた場所や、表示されたオブジェクトが示すものが何かを把握させることが困難である。   In the conventional technique, when there are a lot of object data corresponding to the position information, many objects are displayed on the information processing terminal, and visibility is deteriorated. Further, for example, in a tourist spot, it is difficult for a user who is not familiar with the land to grasp the location associated with the object data and what the displayed object indicates.

一つの側面では、端末の移動状態に応じたARコンテンツの表示を行うことを目的としている。   In one aspect, the object is to display AR content according to the movement state of the terminal.

一態様によれば、検出された端末の位置情報及び向き情報に応じたエリアを特定し、特定した前記エリアの内、前記端末の移動状態に応じた範囲を特定し、特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する、処理をコンピュータが実行する。   According to one aspect, the area corresponding to the detected position information and orientation information of the terminal is specified, and the range corresponding to the movement state of the terminal is specified among the specified areas, and included in the specified range The computer executes a process of displaying the object data registered in association with any position information.

上記各手順は、上記各手順を実現する機能部、各手順をコンピュータに実行させるプログラム、プログラムを記憶したコンピュータ読み取り可能な記憶媒体とすることもできる。   Each procedure described above may be a functional unit that implements each procedure, a program that causes a computer to execute each procedure, or a computer-readable storage medium that stores the program.

端末の移動状態に応じたARコンテンツの表示を行うことができる。   The AR content can be displayed according to the moving state of the terminal.

オブジェクトの表示を説明する図である。It is a figure explaining the display of an object. 取得対象領域について説明する図である。It is a figure explaining an acquisition object field. 取得対象領域の変化を説明する図である。It is a figure explaining the change of an acquisition object field. 第一の実施形態の表示制御システムの一例を示す図である。It is a figure which shows an example of the display control system of 1st embodiment. 第一の実施形態のコンテンツデータベースの一例を示す図である。It is a figure which shows an example of the content database of 1st embodiment. 情報処理端末のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an information processing terminal. 第一の実施形態の情報処理端末の機能を説明する図である。It is a figure explaining the function of the information processing terminal of 1st embodiment. 領域決定テーブルの一例を示す図である。It is a figure which shows an example of an area | region determination table. 第一の実施形態の情報処理端末の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the information processing terminal of 1st embodiment. 第一の実施形態の取得対象領域決定部の処理を説明するフローチャートである。It is a flowchart explaining the process of the acquisition object area | region determination part of 1st embodiment. 第一の実施形態の表示制御システムの一例を示す図である。It is a figure which shows an example of the display control system of 1st embodiment. 車用コンテンツデータベースの一例を示す図である。It is a figure which shows an example of the content database for cars. 電車用コンテンツデータベースの一例を示す図である。It is a figure which shows an example of the content database for trains. バス用コンテンツデータベースの一例を示す図である。It is a figure which shows an example of the content database for buses. 自転車用コンテンツデータベースの一例を示す図である。It is a figure which shows an example of the content database for bicycles. 徒歩用コンテンツデータベースの一例を示す図である。It is a figure which shows an example of the content database for a walk. 第二の実施形態の情報処理端末の機能を説明する図である。It is a figure explaining the function of the information processing terminal of 2nd embodiment. 第二の実施形態の移動手段判別テーブルの一例を示す図である。It is a figure which shows an example of the movement means discrimination | determination table of 2nd embodiment. 第二の実施形態の情報処理端末の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the information processing terminal of 2nd embodiment. 第三の実施形態の表示制御システムの一例を示す図である。It is a figure which shows an example of the display control system of 3rd embodiment. 第三の実施形態の情報処理端末の機能を説明する図である。It is a figure explaining the function of the information processing terminal of 3rd embodiment. 第三の実施形態の移動手段判別テーブルの一例を示す図である。It is a figure which shows an example of the movement means discrimination | determination table of 3rd embodiment. 第三の実施形態の情報処理端末の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the information processing terminal of 3rd embodiment.

以下、各実施形態について添付の図面を参照しながら説明する。尚、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。   Each embodiment will be described below with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

図1は、オブジェクトの表示を説明する図である。図1に示す情報処理端末100は、撮像装置を有しており、撮像装置により撮像された撮像画像を画面10に表示させる。   FIG. 1 is a diagram for explaining object display. An information processing terminal 100 illustrated in FIG. 1 includes an imaging device, and displays a captured image captured by the imaging device on a screen 10.

また、情報処理端末100は、撮像装置の撮像領域に含まれる位置情報と対応付けられたAR(Augmented Reality)コンテンツ情報を取得し、ARコンテンツ情報に含まれるオブジェクトデータを、撮像画像に重畳させて表示させる。ARコンテンツ情報は、オブジェクトデータと、オブジェクトデータと対応付けられた位置情報と、を含む情報である。   Further, the information processing terminal 100 acquires AR (Augmented Reality) content information associated with position information included in the imaging region of the imaging device, and superimposes object data included in the AR content information on the captured image. Display. The AR content information is information including object data and position information associated with the object data.

図1に示す画面10には、建造物1の画像1aと、建造物2の画像2aとを含む撮像画像が表示されている。また、画面10には、オブジェクト11とオブジェクト12とが表示されている。   On the screen 10 shown in FIG. 1, a captured image including an image 1a of the building 1 and an image 2a of the building 2 is displayed. In addition, an object 11 and an object 12 are displayed on the screen 10.

オブジェクト11は、建造物1の位置を示す位置情報と対応付けられたオブジェクトデータを表示させたものであり、オブジェクト12は、建造物2の位置を示す位置情報と対応付けられたオブジェクトデータを表示させたものである。   The object 11 displays object data associated with position information indicating the position of the building 1, and the object 12 displays object data associated with position information indicating the position of the building 2. It has been made.

ARコンテンツ情報は、後述するコンテンツ提供サーバに格納されている。情報処理端末100は、コンテンツ提供サーバから、位置情報が撮像装置の撮像領域に含まれるARコンテンツ情報を取得し、位置情報と対応付けられたオブジェクトデータを表示させる。   The AR content information is stored in a content providing server to be described later. The information processing terminal 100 acquires AR content information whose position information is included in the imaging area of the imaging device from the content providing server, and displays object data associated with the position information.

また、情報処理端末100は、情報処理端末100の移動状態に応じて、撮像領域における、ARコンテンツ情報を取得する範囲を特定する。そして、情報処理端末100は、特定された範囲内に含まれる位置情報と対応するARコンテンツ情報を取得し、ARコンテンツ情報に含まれるオブジェクトデータを、撮像画像に重畳させる。以下の説明では、ARコンテンツ情報を取得する範囲として特定された範囲を取得対象領域と呼ぶ。また、移動状態とは、情報処理端末100の速度と、情報処理端末100の移動手段を含む。   In addition, the information processing terminal 100 specifies a range in which the AR content information is acquired in the imaging region according to the movement state of the information processing terminal 100. Then, the information processing terminal 100 acquires AR content information corresponding to the position information included in the specified range, and superimposes the object data included in the AR content information on the captured image. In the following description, a range specified as a range from which AR content information is acquired is referred to as an acquisition target region. The moving state includes the speed of the information processing terminal 100 and the moving means of the information processing terminal 100.

具体的には、情報処理端末100は、例えば情報処理端末100のユーザが立ち止まっていた場合、つまり、情報処理端末100の速度が0又は0に近い場合等には、撮像領域において、情報処理端末100に近い範囲を取得対象領域とする。   Specifically, for example, when the user of the information processing terminal 100 is stopped, that is, when the speed of the information processing terminal 100 is 0 or close to 0, the information processing terminal 100 performs processing in the imaging area. A range close to 100 is set as an acquisition target region.

また、情報処理端末100は、例えば情報処理端末100のユーザが、車や電車等で移動していた場合、つまり、情報処理端末100のユーザが所定の速度以上で移動していた場合等には、撮像領域において、情報処理端末100から遠い範囲を取得対象領域とする。   Further, the information processing terminal 100 is, for example, when the user of the information processing terminal 100 is moving by car or train, that is, when the user of the information processing terminal 100 is moving at a predetermined speed or more. In the imaging region, a range far from the information processing terminal 100 is set as an acquisition target region.

以下に、図2を参照して取得対象領域の特定について説明する。図2は、取得対象領域について説明する図である。   Hereinafter, the specification of the acquisition target area will be described with reference to FIG. FIG. 2 is a diagram illustrating the acquisition target area.

図2において、距離Lpは、情報処理端末100の撮像装置の有するレンズの焦点距離であり、情報処理端末100から撮像領域20までの距離である。撮像領域20の幅Wと、高さHは、撮像装置のレンズの焦点距離と、画角とにより決まる。   In FIG. 2, a distance Lp is a focal length of a lens included in the imaging device of the information processing terminal 100 and is a distance from the information processing terminal 100 to the imaging region 20. The width W and height H of the imaging region 20 are determined by the focal length of the lens of the imaging device and the angle of view.

また、撮像領域20において、情報処理端末100と対向する平面21は、撮像装置のレンズの光学中心から焦点距離Lpの位置にある点を含む平面である。本実施形態では、情報処理端末100の撮像装置の有するレンズと、平面21との位置関係は固定されているものとした。   In the imaging region 20, the plane 21 facing the information processing terminal 100 is a plane including a point located at a focal length Lp from the optical center of the lens of the imaging apparatus. In the present embodiment, the positional relationship between the lens of the imaging device of the information processing terminal 100 and the plane 21 is fixed.

情報処理端末100は、情報処理端末100の移動状態に応じて、撮像領域20において、ARコンテンツ情報を取得する取得対象領域22を特定する。   The information processing terminal 100 specifies the acquisition target area 22 for acquiring the AR content information in the imaging area 20 according to the movement state of the information processing terminal 100.

具体的には、情報処理端末100は、取得対象領域22の幅をW1、高さをH1、奥行きをD1とした場合に、情報処理端末100の速度が小さくなるほど、取得対象領域22を平面21に近づける。つまり、情報処理端末100は、撮像領域20の平面21から、取得対象領域22において撮像装置と対向する平面23までの距離Lを短くする。   Specifically, when the width of the acquisition target area 22 is W1, the height is H1, and the depth is D1, the information processing terminal 100 moves the acquisition target area 22 to the plane 21 as the speed of the information processing terminal 100 decreases. Move closer to. That is, the information processing terminal 100 shortens the distance L from the plane 21 of the imaging region 20 to the plane 23 facing the imaging device in the acquisition target region 22.

また、情報処理端末100は、情報処理端末100の速度が小さくなるほど、取得対象領域22の幅W1と高さH1を撮像領域20の幅Wと高さHに近づける。つまり、情報処理端末100は、取得対象領域22における平面23の面積を大きくする。このとき、情報処理端末100は、平面23の高さH1及び幅W1の中点が公差する交点Pは、レンズの光学中心と同一線上にあるものとし、幅W1と高さH1の値を変化させる際には、交点Pを中心に平面23の大きさが変化するようにする。   Further, the information processing terminal 100 brings the width W1 and the height H1 of the acquisition target region 22 closer to the width W and the height H of the imaging region 20 as the speed of the information processing terminal 100 decreases. That is, the information processing terminal 100 increases the area of the plane 23 in the acquisition target region 22. At this time, the information processing terminal 100 assumes that the intersection point P where the midpoint of the height H1 and the width W1 of the plane 23 is within the same line as the optical center of the lens, and changes the values of the width W1 and the height H1. When doing so, the size of the plane 23 is changed around the intersection P.

さらに、情報処理端末100は、情報処理端末100の速度が小さくなるほど、取得対象領域22の奥行きD1を短くする。   Furthermore, the information processing terminal 100 shortens the depth D1 of the acquisition target region 22 as the speed of the information processing terminal 100 decreases.

そして、情報処理端末100は、情報処理端末100の速度が0となったとき、取得対象領域22の幅W1と高さH1とを、撮像領域20の幅Wと高さHと一致させ、奥行きD1の値を所定の値とする。所定の値の詳細は後述する。   Then, when the speed of the information processing terminal 100 becomes 0, the information processing terminal 100 matches the width W1 and the height H1 of the acquisition target region 22 with the width W and the height H of the imaging region 20, and the depth The value of D1 is set to a predetermined value. Details of the predetermined value will be described later.

また、情報処理端末100は、情報処理端末100の速度が大きくなるほど、取得対象領域22を平面21から遠ざける。つまり、情報処理端末100は、平面21から、平面23までの距離Lを長くする。以下の説明では、距離Lを、情報処理装置から取得対象領域までの距離と呼ぶ。   Further, the information processing terminal 100 moves the acquisition target region 22 away from the plane 21 as the speed of the information processing terminal 100 increases. That is, the information processing terminal 100 increases the distance L from the plane 21 to the plane 23. In the following description, the distance L is referred to as the distance from the information processing apparatus to the acquisition target area.

また、情報処理端末100は、情報処理端末100の速度が大きくなるほど、取得対象領域22の幅W1及び高さH1の値を撮像領域20の幅W及び高さHの値を小さくする。つまり、情報処理端末100は、取得対象領域22における平面23の面積を小さくする。さらに、情報処理端末100は、情報処理端末100の速度が大きくなるほど、取得対象領域22の奥行きD1を長くする。   Further, the information processing terminal 100 decreases the values of the width W1 and the height H1 of the acquisition target area 22 and the values of the width W and the height H of the imaging area 20 as the speed of the information processing terminal 100 increases. That is, the information processing terminal 100 reduces the area of the plane 23 in the acquisition target region 22. Furthermore, the information processing terminal 100 increases the depth D1 of the acquisition target region 22 as the speed of the information processing terminal 100 increases.

以上のように、情報処理端末100は、情報処理端末100の速度に応じて、取得対象領域22を変化させる。以下に、図3を参照して取得対象領域の変化について説明する。図3は、取得対象領域の変化を説明する図である。   As described above, the information processing terminal 100 changes the acquisition target region 22 according to the speed of the information processing terminal 100. Hereinafter, changes in the acquisition target area will be described with reference to FIG. FIG. 3 is a diagram illustrating changes in the acquisition target area.

図3における取得対象領域31は、情報処理端末100の速度が0に近い場合を示している。ここで、例えば情報処理端末100の速度が大きくなっていった場合、取得対象領域31は、取得対象領域32へ変化する。   An acquisition target area 31 in FIG. 3 indicates a case where the speed of the information processing terminal 100 is close to zero. Here, for example, when the speed of the information processing terminal 100 increases, the acquisition target area 31 changes to the acquisition target area 32.

取得対象領域31の幅W31は、取得対象領域32の幅W32より広く、取得対象領域31の高さH31は、取得対象領域32の高さH32より高く、取得対象領域31の奥行きD31は、取得対象領域32の奥行きD32より短い。   The width W31 of the acquisition target region 31 is wider than the width W32 of the acquisition target region 32, the height H31 of the acquisition target region 31 is higher than the height H32 of the acquisition target region 32, and the depth D31 of the acquisition target region 31 is acquired. It is shorter than the depth D32 of the target area 32.

このように、情報処理端末100は、情報処理端末100の速度に応じて、撮像領域20内の取得対象領域を変化させる。   As described above, the information processing terminal 100 changes the acquisition target area in the imaging area 20 according to the speed of the information processing terminal 100.

ここで、情報処理端末100のユーザが、徒歩で移動している状態で、情報処理端末100の撮像画像上にオブジェクトを表示させようとした場合について考える。   Here, consider a case where the user of the information processing terminal 100 tries to display an object on the captured image of the information processing terminal 100 while moving on foot.

この場合、ユーザにとっては、徒歩で到達できない程遠くにあるものと対応するオブジェクトよりも、徒歩圏内にあるものと対応するオブジェクトの方が有用な情報となり得る。   In this case, for the user, an object corresponding to an object that is within walking distance can be more useful information than an object corresponding to an object that cannot be reached on foot.

そこで、情報処理端末100は、を撮像領域20において情報処理端末100に近い範囲(平面21に近い範囲)を取得対象領域31とし、取得対象領域31に位置情報が含まれるARコンテンツ情報を取得する。そして、情報処理端末100は、取得したARコンテンツ情報のオブジェクトデータを撮像画像と重畳させて表示させる。   Therefore, the information processing terminal 100 sets the range close to the information processing terminal 100 in the imaging region 20 (the range close to the plane 21) as the acquisition target region 31, and acquires AR content information in which the acquisition target region 31 includes position information. . Then, the information processing terminal 100 displays the acquired object data of the AR content information superimposed on the captured image.

情報処理端末100は、取得対象領域31を情報処理端末100に近くすることで、情報処理端末100から近くにあるもののオブジェクトデータを表示させることができる。すなわち、情報処理端末100は、徒歩で移動しているユーザに対して有用と思われるオブジェクトデータを提供することができる。   The information processing terminal 100 can display object data of objects close to the information processing terminal 100 by bringing the acquisition target area 31 close to the information processing terminal 100. That is, the information processing terminal 100 can provide object data that seems useful to a user who is moving on foot.

また、情報処理端末100のユーザが、新幹線等で移動している状態で、情報処理端末100の撮像画像上にオブジェクトを表示させようとした場合について考える。   Further, consider a case where the user of the information processing terminal 100 tries to display an object on a captured image of the information processing terminal 100 while moving on a bullet train or the like.

この場合、情報処理端末100の速度が大きい(速い)ため、情報処理端末100の近くのオブジェクトを表示させても、オブジェクトが対応付いた場所をすぐに通過してしまう。このため、情報処理端末100の近くに表示されたオブジェクトは、ユーザにとって有用な情報とならない可能性が高い。   In this case, since the speed of the information processing terminal 100 is high (fast), even if an object near the information processing terminal 100 is displayed, it immediately passes through the place where the object is associated. For this reason, the object displayed near the information processing terminal 100 is not likely to be useful information for the user.

そこで情報処理端末100は、情報処理端末100の速度が大きい場合には、情報処理端末100から離間する方向の範囲を取得対象領域32とし、取得対象領域32に位置情報が含まれるARコンテンツ情報を取得する。そして、情報処理端末100は、取得したARコンテンツ情報のオブジェクトデータを撮像画像と重畳させて表示させる。   Therefore, when the speed of the information processing terminal 100 is high, the information processing terminal 100 sets the range in the direction away from the information processing terminal 100 as the acquisition target area 32, and sets AR content information including position information in the acquisition target area 32. get. Then, the information processing terminal 100 displays the acquired object data of the AR content information superimposed on the captured image.

情報処理端末100は、取得対象領域32を情報処理端末100に遠くすることで、情報処理端末100から遠くにあるもののオブジェクトデータを表示させることができる。すなわち、情報処理端末100は、高速で移動しているユーザに対して有用と思われるオブジェクトデータを提供することができる。   The information processing terminal 100 can display the object data of what is far from the information processing terminal 100 by moving the acquisition target region 32 away from the information processing terminal 100. That is, the information processing terminal 100 can provide object data that seems useful to a user who is moving at high speed.

また、取得対象領域31、32は、両方とも、情報処理端末100が移動している際には、その進行方向に向かって前方の領域となるように決定される。つまり、情報処理端末100は、情報処理端末100の前方にあるオブジェクトデータを表示させる。   Further, the acquisition target areas 31 and 32 are both determined to be forward areas in the traveling direction when the information processing terminal 100 is moving. That is, the information processing terminal 100 displays object data in front of the information processing terminal 100.

以上のように、情報処理端末100は、速度に応じてARコンテンツ情報を取得する対象である取得対象領域を変化させるため、情報処理端末100の移動状態に応じたARコンテンツを表示させることができる。また、情報処理端末100は、ユーザにとって有用と思われるARコンテンツ情報を取得するため、情報処理端末100に多数のオブジェクトが表示されることを抑制でき、視認性を向上させることができる。   As described above, the information processing terminal 100 can display the AR content according to the movement state of the information processing terminal 100 because the acquisition target region that is a target for acquiring the AR content information is changed according to the speed. . In addition, since the information processing terminal 100 acquires AR content information that is considered useful for the user, it is possible to suppress a large number of objects from being displayed on the information processing terminal 100 and to improve visibility.

[第一の実施形態]
以下に図面を参照して第一の実施形態について説明する。図4は、第一の実施形態の表示制御システムの一例を示す図である。
[First embodiment]
The first embodiment will be described below with reference to the drawings. FIG. 4 is a diagram illustrating an example of the display control system according to the first embodiment.

本実施形態の表示制御システム300は、情報処理端末100と、コンテンツ提供サーバ200とを有する。情報処理端末100と、コンテンツ提供サーバ200とは、ネットワークを介して接続される。   The display control system 300 according to the present embodiment includes the information processing terminal 100 and the content providing server 200. The information processing terminal 100 and the content providing server 200 are connected via a network.

本実施形態の情報処理端末100は、表示制御処理部110を有する。本実施形態のコンテンツ提供サーバ200は、コンテンツデータベース210を有する。   The information processing terminal 100 according to the present embodiment includes a display control processing unit 110. The content providing server 200 of this embodiment has a content database 210.

本実施形態の情報処理端末100は、表示制御処理部110により、情報処理端末100の移動状態に応じて、撮像領域におけるオブジェクトの取得対象領域を特定する。そして、情報処理端末100は、コンテンツ提供サーバ200から、位置情報が取得対象領域に含まれるARコンテンツ情報を取得し、位置情報と対応付けられたオブジェクトデータを表示させる。   In the information processing terminal 100 of this embodiment, the display control processing unit 110 specifies an acquisition target area of the object in the imaging area according to the movement state of the information processing terminal 100. Then, the information processing terminal 100 acquires AR content information whose position information is included in the acquisition target area from the content providing server 200, and displays object data associated with the position information.

図5は、第一の実施形態のコンテンツデータベースの一例を示す図である。本実施形態のコンテンツデータベース210は、情報の項目として、オブジェクトID、位置情報、オブジェクトデータを有する。   FIG. 5 is a diagram illustrating an example of the content database according to the first embodiment. The content database 210 of this embodiment has an object ID, position information, and object data as information items.

コンテンツデータベース210では、項目「オブジェクトID」に、その他の項目が対応付けられている。以下の説明では、項目「オブジェクトID」の値と、その他の項目の値とを含む情報をARコンテンツ情報と呼ぶ。   In the content database 210, the item “object ID” is associated with other items. In the following description, information including the value of the item “object ID” and the values of other items is referred to as AR content information.

項目「オブジェクトID」の値は、オブジェクトデータを識別する識別子である。項目「位置情報」の値は、オブジェクトデータと対応付けられており、予め設定された測位方式により測位された情報である。位置情報は、緯度、経度、高度からなる三次元座標(X,Y,Z)で表すことができる。   The value of the item “object ID” is an identifier for identifying object data. The value of the item “position information” is associated with the object data, and is information measured by a preset positioning method. The position information can be represented by three-dimensional coordinates (X, Y, Z) composed of latitude, longitude, and altitude.

項目「オブジェクトデータ」の値は、実際のオブジェクトデータの情報である。図5の例では、オブジェクトデータとしてテキストデータが示されているが、これに限定されない。本実施形態のオブジェクトデータは、画像、アイコン、アニメーション、マーク、模様、映像、或いはこれらの組み合わせのデータであってもよい。さらに、本実施形態のオブジェクトデータは、例えば観光情報等を示すデータであっても良い。   The value of the item “object data” is information of actual object data. In the example of FIG. 5, text data is shown as object data, but the present invention is not limited to this. The object data of this embodiment may be data of an image, an icon, an animation, a mark, a pattern, a video, or a combination thereof. Furthermore, the object data of the present embodiment may be data indicating sightseeing information, for example.

次に、本実施形態の情報処理端末100について説明する。図6は、情報処理端末のハードウェア構成の一例を示す図である。   Next, the information processing terminal 100 of this embodiment will be described. FIG. 6 is a diagram illustrating an example of a hardware configuration of the information processing terminal.

本実施形態の情報処理端末100は、それぞれバスBで相互に接続されている表示操作装置11、補助記憶装置12、ドライブ装置13、センサ14、メモリ装置15、演算処理装置16、通信装置17、撮像装置18、位置特定装置19を含む。   The information processing terminal 100 according to the present embodiment includes a display operation device 11, an auxiliary storage device 12, a drive device 13, a sensor 14, a memory device 15, an arithmetic processing device 16, a communication device 17, which are connected to each other via a bus B. An imaging device 18 and a position specifying device 19 are included.

表示操作装置11は、表示機能と入力機能を有するタッチパネル等により実現される。補助記憶装置12は、情報処理端末100を制御する各種プログラムや、情報処理端末100の動作に必要なファイル、データ等を格納する。
ドライブ装置13は、例えば記録媒体6等を着脱自在にセットすることができ、セットした記録媒体6に記録された各種情報を読み込んだり、所定の情報を記録媒体6に書き込むことができる。ドライブ装置13は、例えば媒体装填スロット等であるが、これに限定されるものではない。
The display operation device 11 is realized by a touch panel having a display function and an input function. The auxiliary storage device 12 stores various programs for controlling the information processing terminal 100, files and data necessary for the operation of the information processing terminal 100, and the like.
The drive device 13 can detachably set the recording medium 6 and the like, for example, can read various information recorded on the set recording medium 6, and can write predetermined information on the recording medium 6. The drive device 13 is, for example, a medium loading slot or the like, but is not limited to this.

センサ14は、加速度センサと地磁気センサとを含む。加速度センサは、情報処理端末100の加速度を検出する。地磁気センサは、情報処理端末100が向いている方向を検出する。   The sensor 14 includes an acceleration sensor and a geomagnetic sensor. The acceleration sensor detects the acceleration of the information processing terminal 100. The geomagnetic sensor detects the direction in which the information processing terminal 100 is facing.

メモリ装置15は、演算処理装置16による演算により得られたデータや値等を格納する。演算処理装置16は、各種プログラムを読み出して実行することで、情報処理端末100の有する各種の機能を実現する。通信装置17は、モデム、LANカード等を含み、ネットワークに接続する為に用いられる。また、通信装置17は、情報処理端末100と外部装置との通信を行う。   The memory device 15 stores data, values, and the like obtained by the calculation by the calculation processing device 16. The arithmetic processing unit 16 implements various functions of the information processing terminal 100 by reading and executing various programs. The communication device 17 includes a modem, a LAN card, and the like, and is used for connecting to a network. The communication device 17 performs communication between the information processing terminal 100 and an external device.

撮像装置18は、カメラである。位置特定装置19は、例えばGPS(Global Positioning System)機能等により、情報処理端末100の位置を特定する装置である。   The imaging device 18 is a camera. The position specifying device 19 is a device that specifies the position of the information processing terminal 100 using, for example, a GPS (Global Positioning System) function.

表示制御プログラムは、情報処理端末100を制御する各種プログラムの少なくとも一部である。表示制御プログラムは例えば記録媒体6の配布やネットワークからのダウンロードなどによって提供される。表示制御プログラムを記録した記録媒体6は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。   The display control program is at least a part of various programs that control the information processing terminal 100. The display control program is provided, for example, by distributing the recording medium 6 or downloading from the network. The recording medium 6 on which the display control program is recorded is information such as a CD-ROM, a flexible disk, a magneto-optical disk, etc., a recording medium for recording information optically, electrically or magnetically, a ROM, a flash memory, etc. Various types of recording media, such as a semiconductor memory that electrically records data, can be used.

また、表示制御プログラムは、表示制御プログラムを記録した記録媒体6がドライブ装置13にセットされるとは記録媒体6からドライブ装置13を介して補助記憶装置12にインストールされる。ネットワークからダウンロードされた表示制御プログラムは、通信装置17を介して補助記憶装置12にインストールされる。   The display control program is installed in the auxiliary storage device 12 from the recording medium 6 via the drive device 13 when the recording medium 6 on which the display control program is recorded is set in the drive device 13. The display control program downloaded from the network is installed in the auxiliary storage device 12 via the communication device 17.

尚、本実施形態のコンテンツ提供サーバ200は、例えば表示操作装置11の代わりに、キーワード等の入力装置と、ディスプレイ等の出力装置とを有する一般的なコンピュータであるため、説明を省略する。   Note that the content providing server 200 according to the present embodiment is a general computer having an input device such as a keyword and an output device such as a display instead of the display operation device 11, for example.

次に、図7を参照して本実施形態の情報処理端末100の機能について説明する。図7は、第一の実施形態の情報処理端末の機能を説明する図である。   Next, functions of the information processing terminal 100 according to the present embodiment will be described with reference to FIG. FIG. 7 is a diagram illustrating functions of the information processing terminal according to the first embodiment.

本実施形態の情報処理端末100は、表示制御処理部110と、記憶部120とを有する。本実施形態の表示制御処理部110は、演算処理装置16が補助記憶装置12やメモリ装置15に格納された表示制御プログラムを実行することで実現される。本実施形態の記憶部120は、補助記憶装置12やメモリ装置15の所定の領域において実現される。   The information processing terminal 100 according to the present embodiment includes a display control processing unit 110 and a storage unit 120. The display control processing unit 110 according to the present embodiment is realized by the arithmetic processing device 16 executing a display control program stored in the auxiliary storage device 12 or the memory device 15. The storage unit 120 of this embodiment is realized in a predetermined area of the auxiliary storage device 12 or the memory device 15.

本実施形態の表示制御処理部110は、撮像領域特定部111、移動状態判定部112、取得対象領域決定部113、ARコンテンツ取得部114、表示処理部115を有する。また、記憶部120は、領域決定テーブル121を有する。   The display control processing unit 110 according to the present embodiment includes an imaging region specifying unit 111, a movement state determination unit 112, an acquisition target region determination unit 113, an AR content acquisition unit 114, and a display processing unit 115. The storage unit 120 also has an area determination table 121.

本実施形態の撮像領域特定部111は、情報処理端末100の有する撮像装置の撮像領域を特定する。具体的には、撮像領域特定部111は、位置特定装置19により、情報処理端末100の位置を示す位置情報を取得し、位置情報に基づき撮像領域を特定する。   The imaging area specifying unit 111 of this embodiment specifies the imaging area of the imaging device included in the information processing terminal 100. Specifically, the imaging area specifying unit 111 acquires position information indicating the position of the information processing terminal 100 by the position specifying device 19 and specifies the imaging area based on the position information.

本実施形態において、情報処理端末100の位置情報は、例えば緯度・経度・高さの情報として取得されても良い。本実施形態の位置特定装置19は、例えば所定のビーコンの受信等により、情報処理端末100の位置を特定し、位置情報として取得しても良い。また、本実施形態の位置特定装置19は、Wi−Fi(Wireless Fidelity)の接続の可否に応じて情報処理端末100の位置を特定し、位置情報として取得しても良い。   In the present embodiment, the position information of the information processing terminal 100 may be acquired as latitude / longitude / height information, for example. The position specifying device 19 of this embodiment may specify the position of the information processing terminal 100 by receiving a predetermined beacon, for example, and acquire it as position information. Further, the position specifying device 19 of the present embodiment may specify the position of the information processing terminal 100 according to whether or not Wi-Fi (Wireless Fidelity) connection is possible, and may acquire the position information.

移動状態判定部112は、加速度センサ及び地磁気センサの値を取得し、情報処理端末100の速度と、進行方向を判定する。   The movement state determination unit 112 acquires values of the acceleration sensor and the geomagnetic sensor, and determines the speed and the traveling direction of the information processing terminal 100.

取得対象領域決定部113は、移動状態判定部112により得られた情報処理端末100の移動状態に応じて、撮像領域における取得対象領域を特定する。より具体的には、取得対象領域決定部113は、後述する領域決定テーブル121を参照し、情報処理端末100の速度と対応する取得対象領域を特定する。   The acquisition target area determination unit 113 specifies the acquisition target area in the imaging area according to the movement state of the information processing terminal 100 obtained by the movement state determination unit 112. More specifically, the acquisition target area determination unit 113 refers to an area determination table 121 described later, and specifies an acquisition target area corresponding to the speed of the information processing terminal 100.

ARコンテンツ取得部114は、コンテンツデータベース210を参照し、特定された取得対象領域内に位置情報が含まれるARコンテンツ情報を取得する。   The AR content acquisition unit 114 refers to the content database 210 and acquires AR content information in which position information is included in the specified acquisition target area.

表示処理部115は、取得したARコンテンツ情報を、撮像画像に重畳させて表示させる。   The display processing unit 115 displays the acquired AR content information superimposed on the captured image.

本実施形態の記憶部120は、領域決定テーブル121を有する。以下に、図8を参照して領域決定テーブル121について説明する。   The storage unit 120 of this embodiment has an area determination table 121. Hereinafter, the area determination table 121 will be described with reference to FIG.

図8は、領域決定テーブルの一例を示す図である。本実施形態の領域決定テーブル121では、情報の項目として、速度の範囲と、幅、高さ、奥行き及び距離が対応付けられている。   FIG. 8 is a diagram illustrating an example of the area determination table. In the area determination table 121 of the present embodiment, the speed range and the width, height, depth, and distance are associated as information items.

項目「速度の範囲」の値は、情報処理端末100の速度の範囲を示す。尚、Vは情報処理端末100の速度である。項目「幅」の値は、取得対象領域の幅W1の値を示す。項目「高さ」の値は、取得対象領域の高さH1の値を示す。項目「奥行き」の値は、取得対象領域の奥行きD1の値を示す。項目「距離」の値は、撮像領域において撮像装置に最も近い平面から取得対象領域において撮像装置と対向する平面までの距離である。具体的には、平面21から平面23までの距離Lの値である(図2参照)。   The value of the item “speed range” indicates the speed range of the information processing terminal 100. Note that V is the speed of the information processing terminal 100. The value of the item “width” indicates the value of the width W1 of the acquisition target area. The value of the item “height” indicates the value of the height H1 of the acquisition target area. The value of the item “depth” indicates the value of the depth D1 of the acquisition target area. The value of the item “distance” is a distance from a plane closest to the imaging device in the imaging region to a plane facing the imaging device in the acquisition target region. Specifically, it is the value of the distance L from the plane 21 to the plane 23 (see FIG. 2).

領域決定テーブル121において、V1、V2、V3は情報処理端末100の速度を示しており、これらの大小関係は、V1<V2<V3である。   In the area determination table 121, V1, V2, and V3 indicate the speed of the information processing terminal 100, and the magnitude relationship between them is V1 <V2 <V3.

領域決定テーブル121において、幅の大小関係は、W1a>W1b>W1cである。領域決定テーブル121において、高さの大小関係は、H1a>H1b>H1cである。領域決定テーブル121において、奥行きの大小関係は、D1c>D1b>D1aである。   In the area determination table 121, the width relationship is W1a> W1b> W1c. In the area determination table 121, the height relationship is H1a> H1b> H1c. In the region determination table 121, the depth relationship is D1c> D1b> D1a.

つまり、情報処理端末100の速度が大きくなるほど、取得対象領域は情報処理端末100が遠ざかり、且つ幅W1は狭くなり、高さH1は低くなり、奥行きD1は長くなる。   That is, as the speed of the information processing terminal 100 increases, the information processing terminal 100 moves away from the acquisition target region, the width W1 is narrowed, the height H1 is low, and the depth D1 is long.

尚、領域決定テーブル121では、速度の範囲「0≦V<V1」と対応する幅W1aは撮像領域20の幅Wと同じ値であり、高さH1aは撮像領域20の高さHと同じ値であり、奥行きD1aは所定の値であり、距離L1は焦点距離Lpと同じ値であっても良い。   In the area determination table 121, the width W1a corresponding to the speed range “0 ≦ V <V1” is the same value as the width W of the imaging area 20, and the height H1a is the same value as the height H of the imaging area 20. The depth D1a may be a predetermined value, and the distance L1 may be the same value as the focal length Lp.

本実施形態における奥行きD1aの所定の値とは、例えば情報処理端末100から徒歩圏内の距離である。本実施形態において、例えば徒歩20分の距離を徒歩圏内とした場合、奥行きD1aにおける所定の値は、20分と、歩行速度として予め設定された分速とを乗算した結果の値となる。また、歩行速度は、情報処理端末100の加速度センサにより検出された速度を設定しても良い。このように設定すれば、情報処理端末100のユーザの歩行速度に応じた所定の値を設定することができる。   The predetermined value of the depth D1a in the present embodiment is a distance within walking distance from the information processing terminal 100, for example. In this embodiment, for example, when a distance of 20 minutes on foot is within walking distance, the predetermined value in the depth D1a is a value obtained by multiplying 20 minutes by a minute speed set in advance as a walking speed. The walking speed may be set to a speed detected by an acceleration sensor of the information processing terminal 100. If it sets in this way, the predetermined value according to the walking speed of the user of the information processing terminal 100 can be set.

また、領域決定テーブル121において、例えば速度V1は、歩行速度の最大値となる値であっても良い。歩行速度の最大値は、例えば情報処理端末100のユーザが予め設定しても良いし、統計的な値が設定されていても良い。   In the area determination table 121, for example, the speed V1 may be a value that is the maximum value of the walking speed. The maximum walking speed may be set in advance by the user of the information processing terminal 100, for example, or a statistical value may be set.

次に、図9を参照し、本実施形態の情報処理端末100の動作について説明する。図9は、第一の実施形態の情報処理端末の動作を説明するフローチャートである。   Next, the operation of the information processing terminal 100 of this embodiment will be described with reference to FIG. FIG. 9 is a flowchart for explaining the operation of the information processing terminal according to the first embodiment.

本実施形態の情報処理端末100は、表示制御処理部110の撮像領域特定部111により、撮像装置18の撮像領域を特定する(ステップS901)。より具体的には、撮像領域特定部111は、位置特定装置19により、情報処理端末100の位置情報を取得して位置を特定する。また、撮像領域特定部111は、センサ14に含まれる地磁気センサから、情報処理端末100の向きを特定する。そしても撮像領域特定部111は、情報処理端末100の位置と、向きと、撮像装置18のレンズの仕様等から、撮像領域を特定する。   In the information processing terminal 100 according to the present embodiment, the imaging region specifying unit 111 of the display control processing unit 110 specifies the imaging region of the imaging device 18 (step S901). More specifically, the imaging area specifying unit 111 uses the position specifying device 19 to acquire position information of the information processing terminal 100 and specify the position. Further, the imaging region specifying unit 111 specifies the orientation of the information processing terminal 100 from the geomagnetic sensor included in the sensor 14. The imaging region specifying unit 111 also specifies the imaging region from the position and orientation of the information processing terminal 100, the lens specifications of the imaging device 18, and the like.

続いて情報処理端末100は、移動状態判定部112により、情報処理端末100の移動状態を判定する(ステップS902)。具体的には、移動状態判定部112は、センサ14に含まれる加速度センサの値から、情報処理端末100の速度を求める。   Subsequently, the information processing terminal 100 determines the movement state of the information processing terminal 100 by the movement state determination unit 112 (step S902). Specifically, the movement state determination unit 112 obtains the speed of the information processing terminal 100 from the value of the acceleration sensor included in the sensor 14.

続いて情報処理端末100は、取得対象領域決定部113により、撮像領域における取得対象領域を決定する(ステップS903)。ステップS903の処理の詳細は後述する。   Subsequently, in the information processing terminal 100, the acquisition target region determination unit 113 determines the acquisition target region in the imaging region (step S903). Details of the processing in step S903 will be described later.

続いて情報処理端末100は、ARコンテンツ取得部114により、コンテンツ提供サーバ200から、取得対象領域に位置情報が含まれるARコンテンツ情報を取得する(ステップS904)。   Subsequently, the information processing terminal 100 acquires the AR content information whose position information is included in the acquisition target area from the content providing server 200 by the AR content acquisition unit 114 (step S904).

続いて情報処理端末100は、表示処理部115により、ARコンテンツ情報に含まれる位置情報を撮像画像上に反映させた位置に、位置情報と対応付けられたオブジェクトデータを表示させる(ステップS905)。   Subsequently, the information processing terminal 100 causes the display processing unit 115 to display object data associated with the position information at a position where the position information included in the AR content information is reflected on the captured image (step S905).

続いて情報処理端末100は、オブジェクトデータの表示の終了指示を受け付けたか否かを判定する(ステップS906)。ステップS906で終了指示を受け付けない場合、情報処理端末100の表示制御処理部110は、ステップS901へ戻る。また、ステップS906において表示の終了指示を受け付けた場合は、オブジェクトデータの表示を終了させ、処理を終了する(ステップS906)。   Subsequently, the information processing terminal 100 determines whether or not an instruction to end object data display has been received (step S906). If the end instruction is not accepted in step S906, the display control processing unit 110 of the information processing terminal 100 returns to step S901. If a display end instruction is accepted in step S906, the display of the object data is ended and the process is ended (step S906).

尚、図9では、撮像領域における取得対象領域を決定した後に、取得対象領域に位置情報が含まれるARコンテンツ情報を取得するものとしたが、これに限定されない。情報処理端末100は、撮像領域を特定した後に、撮像領域に位置情報が含まれるARコンテンツ情報を先に取得し、取得したARコンテンツ情報から、取得対象領域に位置情報が含まれるARコンテンツ情報を抽出しても良い。   In FIG. 9, after the acquisition target area in the imaging area is determined, the AR content information including position information in the acquisition target area is acquired. However, the present invention is not limited to this. The information processing terminal 100 first acquires the AR content information in which the location information is included in the imaging region after specifying the imaging region, and acquires the AR content information in which the acquisition target region includes the location information from the acquired AR content information. It may be extracted.

次に、図10を参照し、本実施形態の取得対象領域決定部113の処理について説明する。図10は、第一の実施形態の取得対象領域決定部の処理を説明するフローチャートである。   Next, with reference to FIG. 10, the process of the acquisition target region determination unit 113 according to the present embodiment will be described. FIG. 10 is a flowchart for explaining processing of the acquisition target region determination unit of the first embodiment.

本実施形態の取得対象領域決定部113は、移動状態判定部112により、情報処理端末100の速度が得られると、速度の値を取得する(ステップS1001)。続いて取得対象領域決定部113は、領域決定テーブル121を参照し、取得した速度の値が含まれる速度の範囲を決定する(ステップS1002)。   When the speed of the information processing terminal 100 is obtained by the movement state determination unit 112, the acquisition target area determination unit 113 of the present embodiment acquires a speed value (step S1001). Subsequently, the acquisition target area determination unit 113 refers to the area determination table 121 and determines a speed range that includes the acquired speed value (step S1002).

続いて対象領域決定部113は、決定した速度の範囲と対応する幅W1、高さH1、奥行きD1及び距離Lの値を取得する(ステップS1003)。続いて対象領域決定部113は、撮像領域内において、ステップS1003で取得した各値により特定される領域を取得対象領域に決定し(ステップS1004)、処理を終了する。   Subsequently, the target area determination unit 113 acquires values of the width W1, the height H1, the depth D1, and the distance L corresponding to the determined speed range (step S1003). Subsequently, the target area determination unit 113 determines an area specified by each value acquired in step S1003 in the imaging area as an acquisition target area (step S1004), and ends the process.

尚、本実施形態では、取得対象領域の幅W1、高さH1及び奥行きD1の値と、距離Lの値は、予め速度の範囲と対応付けられているものとしたが、これに限定されない。   In the present embodiment, the values of the width W1, the height H1, and the depth D1 of the acquisition target area and the value of the distance L are associated with the speed range in advance, but are not limited thereto.

取得対象領域の幅W1、高さH1及び奥行きD1の値と、距離Lの値は、例えば情報処理端末100の速度の値と、これらの各値との関係を示した関数等により決められても良い。   The values of the width W1, the height H1 and the depth D1 of the acquisition target region and the value of the distance L are determined by, for example, a speed value of the information processing terminal 100 and a function indicating the relationship between these values. Also good.

具体的には、例えば取得対象領域の幅W1の値は、最大値を撮像領域20の幅Wの値とし、速度を示す値が大きくなるほど小さくなるような関数で定義されていても良い。同様に、取得対象領域の高さH1の値は、最大値を撮像領域20の高さHの値とし、速度を示す値が大きくなるほど小さくなるような関数で定義されていても良い。   Specifically, for example, the value of the width W1 of the acquisition target region may be defined by a function such that the maximum value is the value of the width W of the imaging region 20, and the value indicating the speed decreases. Similarly, the value of the height H1 of the acquisition target region may be defined by a function in which the maximum value is the value of the height H of the imaging region 20 and decreases as the value indicating the speed increases.

また、取得対象領域の奥行きD1の値は、最小値を徒歩圏内の距離の値とし、速度を示す値が大きくなるほど大きくなるような関数で定義されていても良い。同様に、距離Lの値は、最小値を0とし、速度を示す値が大きくなるほど大きくなるような関数で定義されていても良い。   In addition, the value of the depth D1 of the acquisition target region may be defined by a function in which the minimum value is the distance value within walking distance, and increases as the value indicating the speed increases. Similarly, the value of the distance L may be defined by a function such that the minimum value is 0 and the value indicating the speed increases as the value increases.

以上のように、本実施形態によれば、情報処理端末100の速度に応じてARコンテンツ情報を取得する対象となる取得対象領域を決定し、速度に応じたARコンテンツ情報をユーザに提供する。したがって、本実施形態によれば、情報処理端末100のユーザの移動状態に応じたARコンテンツを表示させることができる。   As described above, according to the present embodiment, an acquisition target region that is a target for acquiring AR content information is determined according to the speed of the information processing terminal 100, and AR content information corresponding to the speed is provided to the user. Therefore, according to the present embodiment, it is possible to display AR content according to the movement state of the user of the information processing terminal 100.

[第二の実施形態]
以下に図面を参照して第二の実施形態について説明する。図11は、第一の実施形態の表示制御システムの一例を示す図である。
[Second Embodiment]
The second embodiment will be described below with reference to the drawings. FIG. 11 is a diagram illustrating an example of the display control system according to the first embodiment.

本実施形態の表示制御システム300Aは、情報処理端末100Aと、コンテンツ提供サーバ200Aとを有する。   The display control system 300A of this embodiment includes an information processing terminal 100A and a content providing server 200A.

本実施形態の情報処理端末100Aは、表示制御処理部110Aを有する。本実施形態のコンテンツ提供サーバ200Aは、車用コンテンツデータベース220、電車用コンテンツデータベース230、バス用コンテンツデータベース240、自転車用コンテンツデータベース250、徒歩用コンテンツデータベース260、地図データベース270を有する。   The information processing terminal 100A according to the present embodiment includes a display control processing unit 110A. The content providing server 200A of the present embodiment includes a car content database 220, a train content database 230, a bus content database 240, a bicycle content database 250, a walking content database 260, and a map database 270.

コンテンツ提供サーバ200Aの有する各コンテンツデータベースの詳細は後述する。コンテンツ提供サーバ200Aの有する地図データベース270は、例えばカーナビゲーションシステム等に利用される一般的な地図情報が格納されている。尚、本実施形態では、地図データベース270はコンテンツ提供サーバ200Aに設けられているものとしたが、これに限定されない。地図データベース270は、情報処理端末100A及びコンテンツ提供サーバ200Aと通信が可能なコンテンツ提供サーバ200A以外のサーバに設けられていても良い。   Details of each content database of the content providing server 200A will be described later. The map database 270 of the content providing server 200A stores general map information used for, for example, a car navigation system. In the present embodiment, the map database 270 is provided in the content providing server 200A. However, the present invention is not limited to this. The map database 270 may be provided in a server other than the content providing server 200A that can communicate with the information processing terminal 100A and the content providing server 200A.

以下に、図12乃至図16を参照して本実施形態のコンテンツ提供データベース200Aの有する各コンテンツデータベースについて説明する。   Hereinafter, each content database included in the content providing database 200A of the present embodiment will be described with reference to FIGS.

図12は、車用コンテンツデータベースの一例を示す図である。本実施形態の車用コンテンツデータベース220は、情報の項目として、オブジェクトID、位置情報、オブジェクトデータを有する。   FIG. 12 is a diagram illustrating an example of a car content database. The vehicle content database 220 of the present embodiment includes an object ID, position information, and object data as information items.

車用コンテンツデータベース220において、項目「オブジェクトデータ」の値であるオブジェクトデータは、車で移動しているユーザにとって有用と思われるオブジェクトデータである。具体的には、例えば車用コンテンツデータベース220のオブジェクトデータは、「○○パーキング」や「××高速入り口」等、道路上に存在するものと対応付けられたオブジェクトデータであっても良い。   In the car content database 220, the object data that is the value of the item “object data” is object data that is considered useful for a user who is moving by car. Specifically, for example, the object data in the car content database 220 may be object data associated with data existing on a road such as “OO parking” or “XX high speed entrance”.

図13は、電車用コンテンツデータベースの一例を示す図である。本実施形態の電車用コンテンツデータベース230は、情報の項目として、オブジェクトID、位置情報、オブジェクトデータを有する。   FIG. 13 is a diagram illustrating an example of a train content database. The train content database 230 of this embodiment has an object ID, position information, and object data as information items.

電車用コンテンツデータベース230において、項目「オブジェクトデータ」の値であるオブジェクトデータは、電車で移動しているユーザにとって有用と思われるオブジェクトデータである。具体的には、例えば電車用コンテンツデータベース230のオブジェクトデータは、「富士山」、「○○川」等、電車の車窓から見えるものと対応付けられたオブジェクトデータであっても良い。   In the train content database 230, the object data that is the value of the item “object data” is object data that may be useful for a user who is moving by train. Specifically, for example, the object data in the train content database 230 may be object data associated with what can be seen from the train window such as “Mount Fuji” and “XX River”.

図14は、バス用コンテンツデータベースの一例を示す図である。本実施形態のバス用コンテンツデータベース240は、情報の項目として、オブジェクトID、位置情報、オブジェクトデータを有する。   FIG. 14 is a diagram illustrating an example of a bus content database. The bus content database 240 of this embodiment has an object ID, position information, and object data as information items.

バス用コンテンツデータベース240において、項目「オブジェクトデータ」の値であるオブジェクトデータは、バスで移動しているユーザにとって有用と思われるオブジェクトデータである。具体的には、例えばバス用コンテンツデータベース240のオブジェクトデータは、「○○停留所」等、バス停の名前であったり、バス停の近くに存在する店舗等と対応付けられたオブジェクトデータであっても良い。また、例えばバス用コンテンツデータベース240のオブジェクトデータは、「××公園」等、バスの車窓から見えるものと対応付けられたオブジェクトデータであっても良い。   In the bus content database 240, the object data that is the value of the item “object data” is object data that may be useful for a user traveling on the bus. Specifically, for example, the object data in the bus content database 240 may be object data associated with a bus stop name or a store near the bus stop, such as “XX stop”. . Further, for example, the object data in the bus content database 240 may be object data associated with what can be seen from the bus window such as “xx park”.

図15は、自転車用コンテンツデータベースの一例を示す図である。本実施形態の自転車用コンテンツデータベース250は、情報の項目として、オブジェクトID、位置情報、オブジェクトデータを有する。   FIG. 15 is a diagram illustrating an example of a bicycle content database. The bicycle content database 250 of this embodiment has an object ID, position information, and object data as information items.

自転車用コンテンツデータベース250において、項目「オブジェクトデータ」の値であるオブジェクトデータは、自転車で移動しているユーザにとって有用と思われるオブジェクトデータである。具体的には、例えば自転車用コンテンツデータベース250のオブジェクトデータは、「サイクリングコースがあります」、「給水できます」等、自転車に乗っているユーザが利用できるものと対応付けられたオブジェクトデータであっても良い。   In the bicycle content database 250, the object data that is the value of the item “object data” is object data that may be useful for a user who is traveling by bicycle. Specifically, for example, the object data in the bicycle content database 250 is object data associated with data that can be used by a user riding a bicycle, such as “I have a cycling course” or “I can supply water”. Also good.

図16は、徒歩用コンテンツデータベースの一例を示す図である。本実施形態の徒歩用コンテンツデータベース260は、情報の項目として、オブジェクトID、位置情報、オブジェクトデータを有する。   FIG. 16 is a diagram illustrating an example of a content database for walking. The walking content database 260 of the present embodiment includes an object ID, position information, and object data as information items.

徒歩用コンテンツデータベース260において、項目「オブジェクトデータ」の値であるオブジェクトデータは、徒歩で移動しているユーザにとって有用と思われるオブジェクトデータである。具体的には、例えば徒歩用コンテンツデータベース260のオブジェクトデータは、「地下道への入り口」等、徒歩で移動しているユーザに対する道案内を目的としたオブジェクトデータであっても良い。また、例えば徒歩用コンテンツデータベース260のオブジェクトデータは、「ベンチあります」等、徒歩で移動しているユーザが利用できるものと対応付けられたオブジェクトデータであっても良い。   In the content database for walking 260, the object data that is the value of the item “object data” is object data that seems to be useful for a user who is moving on foot. Specifically, for example, the object data in the content database for walking 260 may be object data for the purpose of route guidance for a user who is moving on foot, such as “entrance to the underpass”. Further, for example, the object data in the content database for walking 260 may be object data associated with data that can be used by a user moving on foot, such as “There is a bench”.

図17は、第二の実施形態の情報処理端末の機能を説明する図である。本実施形態の情報処理端末100Aは、表示制御処理部110Aと、記憶部120Aとを有する。   FIG. 17 is a diagram illustrating functions of the information processing terminal according to the second embodiment. The information processing terminal 100A according to the present embodiment includes a display control processing unit 110A and a storage unit 120A.

本実施形態の表示制御処理部110Aは、第一の実施形態の表示制御処理部110の有する各部に加え、移動手段判別部116を有する。   The display control processing unit 110A of the present embodiment includes a moving unit determination unit 116 in addition to the units included in the display control processing unit 110 of the first embodiment.

本実施形態の移動手段判別部116は、加速度センサにより検出される情報処理端末100Aの速度の履歴を所定期間分保持し、後述する移動手段判別テーブル122を参照し、情報処理端末100Aの移動手段を判別する。   The moving means determination unit 116 of the present embodiment holds a history of speed of the information processing terminal 100A detected by the acceleration sensor for a predetermined period, refers to a moving means determination table 122 described later, and moves the information processing terminal 100A. Is determined.

本実施形態の記憶部120Aは、領域決定テーブル121に加えて、移動手段判別テーブル122を格納する。   The storage unit 120 </ b> A of the present embodiment stores a moving unit determination table 122 in addition to the area determination table 121.

以下に、本実施形態の移動手段判別テーブル122について説明する。図18は、第二の実施形態の移動手段判別テーブルの一例を示す図である。   Below, the moving means discrimination | determination table 122 of this embodiment is demonstrated. FIG. 18 is a diagram illustrating an example of a moving unit determination table according to the second embodiment.

本実施形態の移動手段判別テーブル122は、移動手段と、判定条件とが対応付けられている。移動手段は、車、バス、電車、自転車、徒歩である。尚、本実施形態の車は、乗用車等の一般車両を示す。判定条件は、情報処理端末100Aの移動手段を判別する際の条件である。   In the moving means determination table 122 of the present embodiment, moving means and determination conditions are associated with each other. The transportation means are a car, a bus, a train, a bicycle, and a walk. In addition, the vehicle of this embodiment shows general vehicles, such as a passenger car. The determination condition is a condition for determining the moving means of the information processing terminal 100A.

本実施形態では、情報処理端末100Aが、第一の所定の速度以上で、地図データベース270に格納された地図情報における道路上を移動していた場合、移動手段判別テーブル122により、情報処理端末100Aの移動手段を車と判別する。第一の所定速度とは、移動手段が車であると判別するための閾値であり、予め設定されている。   In this embodiment, when the information processing terminal 100A is moving on the road in the map information stored in the map database 270 at a first predetermined speed or more, the information processing terminal 100A is determined by the moving means determination table 122. Is determined to be a car. The first predetermined speed is a threshold value for determining that the moving means is a car, and is set in advance.

また、本実施形態では、情報処理端末100Aが、地図データベース270に格納された地図情報における道路上を移動し、且つ信号以外の場所で減速及び停車を繰り返す場合、移動手段判別テーブル122により、情報処理端末100Aの移動手段をバスと判別する。   Further, in this embodiment, when the information processing terminal 100A moves on the road in the map information stored in the map database 270 and repeats deceleration and stop at a place other than the signal, the information is determined by the moving means determination table 122. The moving means of the processing terminal 100A is determined as a bus.

また、本実施形態では、情報処理端末100Aが、地図データベース270に格納された地図情報における線路上を移動している場合、移動手段判別テーブル122により、情報処理端末100Aの移動手段を電車と判別する。   In the present embodiment, when the information processing terminal 100A is moving on the track in the map information stored in the map database 270, the moving means of the information processing terminal 100A is determined as a train by the moving means determination table 122. To do.

また、本実施形態では、情報処理端末100Aが、地図データベース270に格納された地図情報における道路のうち、車道又は歩道を移動し、且つ速度が所定の範囲内である場合、移動手段判別テーブル122により、情報処理端末100Aの移動手段を自転車と判別する。   Further, in this embodiment, when the information processing terminal 100A moves on a roadway or a sidewalk among roads in map information stored in the map database 270 and the speed is within a predetermined range, the moving means determination table 122 Thus, the moving means of the information processing terminal 100A is determined as a bicycle.

また、本実施形態では、情報処理端末100Aが、第二の所定の速度以下で移動している場合、移動手段判別テーブル122により、情報処理端末100Aの移動手段を徒歩と判別する。第二の所定速度とは、移動手段が徒歩であると判別するための閾値である。本実施形態の第二の所定速度は、歩行速度の最大値となる値であり、予め設定されている。   In this embodiment, when the information processing terminal 100A is moving at a second predetermined speed or less, the moving means determination table 122 determines that the moving means of the information processing terminal 100A is walking. The second predetermined speed is a threshold value for determining that the moving means is walking. The second predetermined speed in the present embodiment is a value that is the maximum value of the walking speed, and is set in advance.

次に、図19を参照して本実施形態の情報処理端末100Aの動作について説明する。図19は、第二の実施形態の情報処理端末の動作を説明するフローチャートである。   Next, the operation of the information processing terminal 100A of this embodiment will be described with reference to FIG. FIG. 19 is a flowchart for explaining the operation of the information processing terminal according to the second embodiment.

図19のステップS1901からステップS1903までの処理は、図9のステップS901からステップS903までの処理と同様であるから、説明を省略する。   The processing from step S1901 to step S1903 in FIG. 19 is the same as the processing from step S901 to step S903 in FIG.

情報処理端末100Aの表示制御処理部110Aは、ステップS1903において取得対象領域が決定すると、移動手段判別部116により、情報処理端末100Aの移動手段を判別する(ステップS1904)。   When the acquisition target area is determined in step S1903, the display control processing unit 110A of the information processing terminal 100A determines the moving unit of the information processing terminal 100A by the moving unit determination unit 116 (step S1904).

具体的には、移動手段判別部116は、保持している情報処理端末100Aの過去の速度の履歴と、移動手段判別テーブル122と、地図データベース270とを参照する。次に、移動手段判別部116は、情報処理端末100Aの速度の履歴と、情報処理端末100Aが移動している場所とが、移動手段判別テーブル122の判定条件を満たす移動手段を特定する。そして、移動手段判別部116は、特定された移動手段を、情報処理端末100Aの移動手段と判別する。   Specifically, the moving means determination unit 116 refers to the history of past speeds of the information processing terminal 100 </ b> A that is held, the moving means determination table 122, and the map database 270. Next, the movement means determination unit 116 specifies a movement means in which the speed history of the information processing terminal 100A and the location where the information processing terminal 100A is moving satisfy the determination condition of the movement means determination table 122. Then, the movement means determination unit 116 determines the identified movement means as the movement means of the information processing terminal 100A.

続いて情報処理端末100Aは、ARコンテンツ取得部114により、判別された移動手段と対応するコンテンツデータベースにおいて、位置情報が取得対象領域に含まれるARコンテンツ情報を取得する(ステップS1905)。   Subsequently, the information processing terminal 100A acquires the AR content information in which the position information is included in the acquisition target area in the content database corresponding to the determined moving means by the AR content acquisition unit 114 (step S1905).

ステップS1906とステップS1907の処理は、図9のステップS905とステップS906の処理と同様であるから、説明を省略する。   The processing in steps S1906 and S1907 is the same as the processing in steps S905 and S906 in FIG.

以上のように、本実施形態では、情報処理端末100Aの速度に応じた範囲に、情報処理端末100Aの移動手段に応じたARコンテンツを表示させることができる。   As described above, in the present embodiment, AR content corresponding to the moving means of the information processing terminal 100A can be displayed in a range corresponding to the speed of the information processing terminal 100A.

尚、本実施形態の情報処理端末100Aは、移動手段判別部116により情報処理端末100Aの移動手段を判別するものとしたが、これに限定されない。本実施形態の情報処理端末100Aは、例えば移動手段を入力させる画面を表示させ入力された移動手段に応じたARコンテンツ情報を取得しても良い。   In addition, although the information processing terminal 100A of this embodiment shall determine the moving means of the information processing terminal 100A by the moving means determination part 116, it is not limited to this. The information processing terminal 100A according to the present embodiment may display, for example, a screen for inputting a moving unit and acquire AR content information corresponding to the input moving unit.

[第三の実施形態]
以下に図面を参照して第三の実施形態について説明する。図20は、第三の実施形態の表示制御システムの一例を示す図である。
[Third embodiment]
The third embodiment will be described below with reference to the drawings. FIG. 20 is a diagram illustrating an example of a display control system according to the third embodiment.

本実施形態の表示制御システム300Bは、情報処理端末100Bと、コンテンツ提供サーバ200Bとを有する。   The display control system 300B of the present embodiment includes an information processing terminal 100B and a content providing server 200B.

本実施形態の情報処理端末100Bは、表示制御処理部110Bを有する。本実施形態のコンテンツ提供サーバ200Bは、車用コンテンツデータベース220、電車用コンテンツデータベース230、コンテンツデータベース210A、地図データベース270を有する。   The information processing terminal 100B according to the present embodiment includes a display control processing unit 110B. The content providing server 200B according to the present embodiment includes a car content database 220, a train content database 230, a content database 210A, and a map database 270.

コンテンツデータベース210Aは、移動手段が徒歩である場合のARコンテンツ情報や、移動手段が自転車用である場合のARコンテンツ情報が格納されている。また、コンテンツデータベース210Aは、移動手段に関わらず共通して提供されるARコンテンツ情報などが格納されている。   The content database 210A stores AR content information when the moving means is walking, and AR content information when the moving means is for bicycles. Further, the content database 210A stores AR content information provided in common regardless of the moving means.

図21は、第三の実施形態の情報処理端末の機能を説明する図である。本実施形態の情報処理端末100Bは、表示制御処理部110Bと、記憶部120Bとを有する。   FIG. 21 is a diagram illustrating functions of the information processing terminal according to the third embodiment. The information processing terminal 100B of the present embodiment includes a display control processing unit 110B and a storage unit 120B.

本実施形態の表示制御処理部110Bは、取得対象領域決定部113Aと、移動手段判別部116Aと、を有する。   The display control processing unit 110B of the present embodiment includes an acquisition target area determination unit 113A and a moving means determination unit 116A.

本実施形態の取得対象領域決定部113Aは、移動手段判別部116Aにより判別された情報処理端末100Bの移動手段に応じて取得対象領域を決定する。また、本実施形態の取得対象領域決定部113Aは、移動手段により情報処理端末100Bの移動手段が判別されなかった場合に、情報処理端末100Bの速度に応じて取得対象領域を決定する。   The acquisition target area determination unit 113A of the present embodiment determines the acquisition target area according to the moving means of the information processing terminal 100B determined by the moving means determination unit 116A. In addition, the acquisition target area determination unit 113A according to the present embodiment determines the acquisition target area according to the speed of the information processing terminal 100B when the moving means of the information processing terminal 100B is not determined by the moving means.

本実施形態の移動手段判別部116Aは、加速度センサにより検出される情報処理端末100Aの速度の履歴を所定期間分保持し、後述する移動手段判別テーブル123を参照し、情報処理端末100Bの移動手段を判別する。   The moving means determination unit 116A of the present embodiment holds a history of speed of the information processing terminal 100A detected by the acceleration sensor for a predetermined period, refers to the moving means determination table 123 described later, and moves the information processing terminal 100B. Is determined.

本実施形態の記憶部120Bは、移動手段判別テーブル123を格納する。以下に、本実施形態の移動手段判別テーブル123について説明する。   The storage unit 120B of the present embodiment stores a moving means determination table 123. Below, the moving means discrimination | determination table 123 of this embodiment is demonstrated.

図22は、第三の情報処理端末の移動手段判別テーブルの一例を示す図である。本実施形態の移動手段判別テーブル123は、移動手段と、判定条件と、速度の範囲とが対応付けられている。   FIG. 22 is a diagram illustrating an example of the moving means determination table of the third information processing terminal. In the moving means determination table 123 of this embodiment, moving means, determination conditions, and speed ranges are associated with each other.

移動手段は、車と電車である。尚、本実施形態の車は、車道を走行する全ての車両を示す。   The moving means is a car and a train. In addition, the vehicle of this embodiment shows all the vehicles which drive | work a roadway.

判定条件は、情報処理端末100Aの移動手段が、対応する移動手段であるか否かを判別する際の条件である。   The determination condition is a condition for determining whether or not the moving unit of the information processing terminal 100A is a corresponding moving unit.

本実施形態では、情報処理端末100Bが、地図データベース270に格納されている地図情報に示される車道上を移動していた場合に、情報処理端末100Bの移動手段を車と判定する。また、移動手段である車と対応付けられた速度の範囲は、一般的な車両の速度の範囲であっても良い。   In the present embodiment, when the information processing terminal 100B is moving on the roadway indicated by the map information stored in the map database 270, the moving means of the information processing terminal 100B is determined to be a car. Further, the speed range associated with the vehicle as the moving means may be a general speed range of the vehicle.

同様に、本実施形態では、情報処理端末100Bが、地図データベース270に格納されている地図情報に示される線路上を移動していた場合に、情報処理端末100Bの移動手段を電車と判定する。また、移動手段である電車と対応付けられた速度の範囲は、一般的な電車の速度の範囲であっても良い。   Similarly, in the present embodiment, when the information processing terminal 100B is moving on a track indicated by the map information stored in the map database 270, the moving means of the information processing terminal 100B is determined as a train. Further, the speed range associated with the train as the moving means may be a general train speed range.

次に、図23を参照し、本実施形態の情報処理端末100Bの動作について説明する。図23は、第三の実施形態の情報処理端末の動作を説明するフローチャートである。   Next, the operation of the information processing terminal 100B of this embodiment will be described with reference to FIG. FIG. 23 is a flowchart for explaining the operation of the information processing terminal according to the third embodiment.

図23のステップS2301は、図9のステップS901の処理と同様であるから、説明を省略する。   Step S2301 in FIG. 23 is the same as the process in step S901 in FIG.

続いて情報処理端末100Bは、表示制御処理部110Bの移動手段判別部116Aにより、情報処理端末100Bの移動手段が判別されたか否かを判定する。   Subsequently, the information processing terminal 100B determines whether or not the moving means of the information processing terminal 100B has been determined by the moving means determination unit 116A of the display control processing unit 110B.

具体的には、移動手段判別部116Aは、情報処理端末100Bの位置情報の履歴を保持しておく。そして、移動手段判別部116Aは、移動手段判別テーブル123と、地図情報とを参照し、位置情報の変化から情報処理端末100Bが地図情報における車道上を移動しているか又は線路上を移動しているかを判定する。   Specifically, the moving means determination unit 116A holds a history of position information of the information processing terminal 100B. Then, the movement means determination unit 116A refers to the movement means determination table 123 and the map information, and the information processing terminal 100B is moving on the roadway in the map information or moving on the track from the change of the position information. It is determined whether or not.

移動手段判別部116Aは、情報処理端末100Bが車道上を移動していた場合は、移動手段を車と判別する。また、移動手段判別部116Aは、情報処理端末100Bが線路上を移動していた場合は、移動手段を電車と判別する。   116 A of moving means discrimination | determination parts discriminate | determine a moving means to be a vehicle, when the information processing terminal 100B is moving on the roadway. In addition, when the information processing terminal 100B is moving on the track, the moving means determination unit 116A determines that the moving means is a train.

ステップS2302において、移動手段が判別された場合、移動手段判別部116Aは、移動手段判別テーブル123において、移動手段と対応付けられた速度の範囲を取得する(ステップS2303)。   When the moving means is determined in step S2302, the moving means determination unit 116A acquires the speed range associated with the moving means in the moving means determination table 123 (step S2303).

ステップS2302において、移動手段の判別ができなかった場合、表示制御処理部110Bは、図9のステップS902へ進む。移動手段の判別ができない場合とは、情報処理端末100Bが車道及び線路以外の場所を移動している場合である。   If the moving means cannot be determined in step S2302, the display control processing unit 110B proceeds to step S902 in FIG. The case where the moving means cannot be determined is a case where the information processing terminal 100B is moving on a place other than the roadway and the track.

ステップS2303に続いて、表示制御処理部110Bは、領域決定テーブル121を参照し、ステップS2303で取得した速度の範囲と対応する取得対象領域を決定する(ステップS2304)。   Subsequent to step S2303, the display control processing unit 110B refers to the area determination table 121 and determines an acquisition target area corresponding to the speed range acquired in step S2303 (step S2304).

ステップS2305からステップS2307の処理は、図19のステップS1905からステップS1907までの処理と同様であるから、説明を省略する。   The processing from step S2305 to step S2307 is the same as the processing from step S1905 to step S1907 in FIG.

以上のように、本実施形態によれば、情報処理端末100Bの移動手段と、速度に応じて取得対象領域を決定することできるため、移動手段と速度を含む情報処理端末100Bの移動状態に応じたARコンテンツを表示させることができる。   As described above, according to the present embodiment, the acquisition target area can be determined according to the moving means of the information processing terminal 100B and the speed, and accordingly, according to the moving state of the information processing terminal 100B including the moving means and the speed. AR content can be displayed.

また、上記各実施形態では、情報処理端末が取得したARコンテンツ情報に含まれるオブジェクトデータを情報処理端末に表示させるものとしたが、これに限定されない。例えば、情報処理端末は、取得したオブジェクトデータを情報処理端末と通信可能なヘッドマウントディスプレイ等の端末に表示させても良い。   In the above embodiments, the object data included in the AR content information acquired by the information processing terminal is displayed on the information processing terminal. However, the present invention is not limited to this. For example, the information processing terminal may display the acquired object data on a terminal such as a head mounted display that can communicate with the information processing terminal.

開示の技術では、以下に記載する付記のような形態が考えられる。
(付記1)
検出された端末の位置情報及び向き情報に応じたエリアを特定し、
特定した前記エリアの内、前記端末の移動状態に応じた範囲を特定し、
特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記2)
前記移動状態に応じた範囲は、前記端末から離間する方向における範囲である、
ことを特徴とする付記1に記載の表示制御方法。
(付記3)
前記移動状態が移動中である場合、前記範囲を、前記端末の移動方向に応じた範囲とする、付記1又は2に記載の表示制御方法。
(付記4)
前記範囲を、前記端末の移動方向の前方の範囲とする、付記3に記載の表示制御方法。
(付記5)
前記移動状態が静止中である場合、前記移動状態が移動中である場合よりも、前記範囲が広くなる制御を行う、ことを特徴とする付記1乃至4の何れかに記載の表示制御方法。
(付記6)
前記移動中の速度が速いほど、前記範囲が狭くなる制御を行う、ことを特徴とする付記5に記載の表示制御方法。
(付記7)
前記移動状態は、前記端末のユーザが利用する移動手段の種別である、ことを特徴とする付記1乃至6の何れかに記載の表示制御方法。
(付記8)
前記移動状態は、前記端末の速度である、ことを特徴とする付記1乃至6の何れかに記載の表示制御方法。
(付記9)
前記移動手段は、前記端末の位置情報の履歴と、地図情報とに応じて判別される、付記7記載の表示制御方法。
(付記10)
前記移動手段は、前記端末の速度の履歴と、地図情報とに応じて判別される付記7又は9記載の表示制御方法。
(付記11)
検出された端末の位置情報及び向き情報に応じたエリアを特定し、
特定した前記エリアの内、前記端末の移動状態に応じた範囲を特定し、
特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する、
処理をコンピュータが実行することを特徴とする表示制御プログラム。
(付記12)
検出された位置情報及び向き情報に応じたエリアを特定する領域特定部と、
特定した前記エリアの内、移動状態に応じた範囲を特定する領域決定部と、
特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する表示処理部と、を有することを特徴とする情報処理端末。
In the disclosed technology, forms such as the following supplementary notes are conceivable.
(Appendix 1)
Identify the area according to the location information and orientation information of the detected terminal,
In the identified area, specify a range according to the movement state of the terminal,
Displaying object data registered in association with any position information included in the identified range;
A display control method, wherein a computer executes processing.
(Appendix 2)
The range according to the movement state is a range in a direction away from the terminal.
The display control method according to supplementary note 1, wherein:
(Appendix 3)
The display control method according to appendix 1 or 2, wherein when the movement state is moving, the range is a range corresponding to a moving direction of the terminal.
(Appendix 4)
The display control method according to attachment 3, wherein the range is a range in front of the moving direction of the terminal.
(Appendix 5)
The display control method according to any one of appendices 1 to 4, wherein when the moving state is stationary, the range is controlled to be wider than when the moving state is moving.
(Appendix 6)
The display control method according to appendix 5, wherein control is performed such that the range becomes narrower as the moving speed increases.
(Appendix 7)
The display control method according to any one of appendices 1 to 6, wherein the moving state is a type of moving means used by a user of the terminal.
(Appendix 8)
The display control method according to any one of appendices 1 to 6, wherein the movement state is a speed of the terminal.
(Appendix 9)
The display control method according to appendix 7, wherein the moving means is determined in accordance with a history of position information of the terminal and map information.
(Appendix 10)
The display control method according to appendix 7 or 9, wherein the moving means is discriminated according to the speed history of the terminal and map information.
(Appendix 11)
Identify the area according to the location information and orientation information of the detected terminal,
In the identified area, specify a range according to the movement state of the terminal,
Displaying object data registered in association with any position information included in the identified range;
A display control program characterized in that a computer executes processing.
(Appendix 12)
An area specifying unit for specifying an area according to the detected position information and orientation information;
Of the identified areas, an area determining unit that identifies a range according to the movement state;
An information processing terminal comprising: a display processing unit that displays object data registered in association with any position information included in the specified range.

尚、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。   It should be noted that the present invention is not limited to the configuration shown here, such as a combination with other components in the configuration described in the above embodiment. These points can be changed without departing from the spirit of the present invention, and can be appropriately determined according to the application form.

100 :情報処理端末
110 :表示制御処理部
111 :撮像領域特定部
112 :移動状態判定部
113 :対象領域決定部
114 :ARコンテンツ取得部
115 :表示処理部
200 :コンテンツ提供サーバ
300 :表示制御システム
100: Information processing terminal 110: Display control processing unit 111: Imaging region specifying unit 112: Moving state determination unit 113: Target region determination unit 114: AR content acquisition unit 115: Display processing unit 200: Content providing server 300: Display control system

Claims (10)

検出された端末の位置情報及び向き情報に応じたエリアを特定し、
特定した前記エリアの内、前記端末の移動状態に応じた範囲を特定し、
特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。
Identify the area according to the location information and orientation information of the detected terminal,
In the identified area, specify a range according to the movement state of the terminal,
Displaying object data registered in association with any position information included in the identified range;
A display control method, wherein a computer executes processing.
前記移動状態に応じた範囲は、前記端末から離間する方向における範囲である、
ことを特徴とする請求項1に記載の表示制御方法。
The range according to the movement state is a range in a direction away from the terminal.
The display control method according to claim 1.
前記移動状態が移動中である場合、前記範囲を、前記端末の移動方向に応じた範囲とする、請求項1又は2に記載の表示制御方法。   The display control method according to claim 1, wherein when the movement state is moving, the range is set to a range corresponding to a moving direction of the terminal. 前記範囲を、前記端末の移動方向の前方の範囲とする、請求項3に記載の表示制御方法。   The display control method according to claim 3, wherein the range is a range in front of the moving direction of the terminal. 前記移動状態が静止中である場合、前記移動状態が移動中である場合よりも、前記範囲が広くなる制御を行う、ことを特徴とする請求項1乃至4の何れかに記載の表示制御方法。   5. The display control method according to claim 1, wherein when the moving state is stationary, the range is controlled to be wider than when the moving state is moving. 6. . 前記移動中の速度が速いほど、前記範囲が狭くなる制御を行う、ことを特徴とする請求項5に記載の表示制御方法。   The display control method according to claim 5, wherein the range is narrowed as the moving speed increases. 前記移動状態は、前記端末のユーザが利用する移動手段の種別である、ことを特徴とする請求項1乃至6の何れかに記載の表示制御方法。   The display control method according to claim 1, wherein the moving state is a type of moving means used by a user of the terminal. 前記移動状態は、前記端末の速度である、ことを特徴とする請求項1乃至6の何れかに記載の表示制御方法。   The display control method according to claim 1, wherein the movement state is a speed of the terminal. 検出された端末の位置情報及び向き情報に応じたエリアを特定し、
特定した前記エリアの内、前記端末の移動状態に応じた範囲を特定し、
特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する、
処理をコンピュータが実行することを特徴とする表示制御プログラム。
Identify the area according to the location information and orientation information of the detected terminal,
In the identified area, specify a range according to the movement state of the terminal,
Displaying object data registered in association with any position information included in the identified range;
A display control program characterized in that a computer executes processing.
検出された位置情報及び向き情報に応じたエリアを特定する領域特定部と、
特定した前記エリアの内、移動状態に応じた範囲を特定する領域決定部と、
特定した前記範囲に含まれる何れかの位置情報に対応づけて登録されたオブジェクトデータを表示する表示処理部と、を有することを特徴とする情報処理端末。
An area specifying unit for specifying an area according to the detected position information and orientation information;
Of the identified areas, an area determining unit that identifies a range according to the movement state;
An information processing terminal comprising: a display processing unit that displays object data registered in association with any position information included in the specified range.
JP2015133644A 2015-07-02 2015-07-02 Display control method, display control program, and information processing terminal Expired - Fee Related JP6651719B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015133644A JP6651719B2 (en) 2015-07-02 2015-07-02 Display control method, display control program, and information processing terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015133644A JP6651719B2 (en) 2015-07-02 2015-07-02 Display control method, display control program, and information processing terminal

Publications (2)

Publication Number Publication Date
JP2017016467A true JP2017016467A (en) 2017-01-19
JP6651719B2 JP6651719B2 (en) 2020-02-19

Family

ID=57830797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015133644A Expired - Fee Related JP6651719B2 (en) 2015-07-02 2015-07-02 Display control method, display control program, and information processing terminal

Country Status (1)

Country Link
JP (1) JP6651719B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023218616A1 (en) * 2022-05-12 2023-11-16 日産自動車株式会社 Information processing method and information processing device
JP7453192B2 (en) 2021-09-27 2024-03-19 Kddi株式会社 Mobile device, program and method for presenting information based on object recognition according to user's dynamic state

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011123807A (en) * 2009-12-14 2011-06-23 Dainippon Printing Co Ltd Annotation display system, method and server device
JP2012185570A (en) * 2011-03-03 2012-09-27 Nec Corp Peripheral information retrieval device, system, method, and program
JP2014093050A (en) * 2012-11-06 2014-05-19 Sony Corp Image display device, image display method, and computer program
JP2014130551A (en) * 2012-12-29 2014-07-10 Canon Inc Information display apparatus, information display system, control method thereof, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011123807A (en) * 2009-12-14 2011-06-23 Dainippon Printing Co Ltd Annotation display system, method and server device
JP2012185570A (en) * 2011-03-03 2012-09-27 Nec Corp Peripheral information retrieval device, system, method, and program
JP2014093050A (en) * 2012-11-06 2014-05-19 Sony Corp Image display device, image display method, and computer program
JP2014130551A (en) * 2012-12-29 2014-07-10 Canon Inc Information display apparatus, information display system, control method thereof, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7453192B2 (en) 2021-09-27 2024-03-19 Kddi株式会社 Mobile device, program and method for presenting information based on object recognition according to user's dynamic state
WO2023218616A1 (en) * 2022-05-12 2023-11-16 日産自動車株式会社 Information processing method and information processing device

Also Published As

Publication number Publication date
JP6651719B2 (en) 2020-02-19

Similar Documents

Publication Publication Date Title
CN107328410B (en) Method for locating an autonomous vehicle and vehicle computer
EP1653196B1 (en) Map display for a navigation system
US8325180B2 (en) Method for changing dynamic display mode and apparatus thereof in car navigation system
CN102208035B (en) Image processing system and position measuring system
JP4370869B2 (en) Map data updating method and map data updating apparatus
US20100292895A1 (en) Driving support device
WO2018025624A1 (en) Head-up display device, display control method, and control program
US20130124082A1 (en) Navigation system and displaying method thereof
US20140172189A1 (en) Method and control device for providing a course of a road ahead
CN102555940B (en) Driving supporting system, driving supporting program and driving supporting method
CN110926487A (en) Driving assistance method, driving assistance system, computing device, and storage medium
CN101467005A (en) Navigation device and navigation method
JP2009109340A (en) Vehicle navigation apparatus and vehicle navigation program
JP2014181927A (en) Information provision device, and information provision program
JP2015184155A (en) Map data structure, map data update method, vehicle position correction method, on-vehicle device, server, and vehicle position data correction system
JPWO2007096952A1 (en) Map display system, map display method, map display apparatus and program in map display system
JP2004245610A (en) System and method for analyzing passing of vehicle coming from opposite direction, and navigation device
KR20240014555A (en) Curve guidance method, curve guidance apparatus, electronic apparatus and program stored in the computer-readable recording meduim
JP6651719B2 (en) Display control method, display control program, and information processing terminal
KR20130066210A (en) Device and method of acquiring traffic-control sign information using a camera
JP2005292064A (en) Navigation system, data processing method, and computer program
WO2007088915A1 (en) Route guidance device, route guidance method, route guidance program, and recording medium
JP2009109341A (en) Own-vehicle position recognizer, own-vehicle position recognition program, and navigation apparatus using the same
JP6533675B2 (en) Transfer information transmitting system, transfer information transmitting apparatus, guidance terminal, transfer information transmitting method, and transfer information transmitting program
KR100967921B1 (en) Method for matching and storing of 3 dimension link in navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R150 Certificate of patent or registration of utility model

Ref document number: 6651719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees