JP2012198668A - Information processing device, augmented reality provision method and program - Google Patents
Information processing device, augmented reality provision method and program Download PDFInfo
- Publication number
- JP2012198668A JP2012198668A JP2011061442A JP2011061442A JP2012198668A JP 2012198668 A JP2012198668 A JP 2012198668A JP 2011061442 A JP2011061442 A JP 2011061442A JP 2011061442 A JP2011061442 A JP 2011061442A JP 2012198668 A JP2012198668 A JP 2012198668A
- Authority
- JP
- Japan
- Prior art keywords
- display
- information
- unit
- tag
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims description 52
- 230000003190 augmentative effect Effects 0.000 title claims description 14
- 230000008569 process Effects 0.000 claims description 40
- 238000003384 imaging method Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 description 33
- 238000004891 communication Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 14
- 238000001514 detection method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000003825 pressing Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004240 magnesium diglutamate Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、情報処理装置、拡張現実感提供方法、及びプログラムに関する。 The present invention relates to an information processing apparatus, an augmented reality providing method, and a program.
拡張現実ソフトウェアでは、3次元空間の3次元座標に、仮想的なオブジェクト、即ちARオブジェクト(Augmented Reality Object)を配置すると、画面に表示されるARオブジェクト(以下、単に「ARオブジェクト」或いは「表示オブジェクト」とも記載する。)は、ユーザからの相対的な距離に応じて例えば相対的な距離が遠いARオブジェクトが小さく表示される。これにより、遠近感、即ち奥行き感を実現する。また、ユーザは、奥行き感が与えられることで、ARオブジェクトも現実に存在しているかのように感じられるようになる。
ところで、このような拡張現実ソフトウェアによる手法では、ユーザに近いARオブジェクトがユーザから遠いARオブジェクトを隠すことになるため、遠くに配置されたARオブジェクトが見えなくなる、クリック等の操作でARオブジェクトを選択し難くなる等の問題がある。
近時、拡張現実ソフトウェアには、タグ(ARオブジェクト)が重なって表示されている部分が一定の時間にわたりタップ(指をつけたままに)されると、重なっていたタグが螺旋状に順々に手前に表示されるものもある(例えば非特許文献1参照)。これにより、ユーザは、タグが手前に表示されたタイミングで所望のタグを見たり選択したりすることが可能となる。
In the augmented reality software, when a virtual object, that is, an AR object (Augmented Reality Object) is arranged at the three-dimensional coordinates of the three-dimensional space, the AR object (hereinafter simply referred to as “AR object” or “display object”) displayed on the screen. ”), For example, an AR object having a far relative distance is displayed small according to the relative distance from the user. This realizes a sense of perspective, that is, a sense of depth. Also, the user can feel as if the AR object actually exists by giving a sense of depth.
By the way, in such an augmented reality software method, an AR object close to the user hides an AR object far from the user, so that the AR object placed far away becomes invisible, and an AR object is selected by an operation such as clicking. There are problems such as difficulty.
Recently, in the augmented reality software, when the portion where the tag (AR object) is overlapped is tapped (with a finger on) for a certain period of time, the overlapped tag is spirally formed in order. Is displayed in front (see Non-Patent Document 1, for example). As a result, the user can view or select a desired tag at the timing when the tag is displayed in front.
しかしながら、非特許文献1の技術では、タグの内容を直ぐに知りたいと思っていても、タグが手前に表示されるのを待つ必要があるので、タグが多く存在するときにはタグの内容の確認に多くの時間がかかるおそれがある。
また、タグが動きつづけているため視認性が悪く、例えば文字情報が記載されたタグである場合、見落としてしまうこともある。
However, in the technique of Non-Patent Document 1, even if the user wants to know the contents of the tag immediately, it is necessary to wait for the tag to be displayed in front. May take a lot of time.
Moreover, since the tag continues to move, the visibility is poor. For example, in the case of a tag on which character information is described, it may be overlooked.
本発明はこのような問題点に鑑みなされたもので、表示オブジェクトをより適切に表示することを目的とする。 The present invention has been made in view of such problems, and an object thereof is to display a display object more appropriately.
そこで、本発明に係る情報処理装置は、当該情報処理装置の位置を示す位置情報を特定する特定部と、表示オブジェクトの現実空間での位置を示す位置情報と前記表示オブジェクトの表示態様を示す態様情報とを識別情報に関連付けて記憶する記憶部と、表示オブジェクトの表示が行われる表示部とを有する情報処理装置であって、前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出手段と、前記読出手段で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトの各々が重ならない前記表示部における表示位置に前記複数の表示オブジェクトを表示する表示制御手段と、を有することを特徴とする。 Therefore, an information processing apparatus according to the present invention includes a specifying unit that specifies position information indicating a position of the information processing apparatus, position information indicating a position of the display object in the real space, and a display mode of the display object. An information processing apparatus having a storage unit that stores information in association with identification information, and a display unit that displays a display object, and within a certain distance with reference to the positional information specified by the specifying unit It is generated from reading means for reading position information and aspect information associated with identification information of a display object from the storage unit, and a plurality of aspect information associated with a plurality of identification information read by the reading means. Display control means for displaying the plurality of display objects at a display position in the display unit in which each of the plurality of display objects does not overlap. It is characterized in.
また、本発明に係る情報処理装置は、当該情報処理装置の位置を示す位置情報を特定する特定部と、表示オブジェクトの現実空間での位置を示す位置情報と前記表示オブジェクトの表示態様を示す態様情報とを識別情報に関連付けて記憶する記憶部と、表示オブジェクトの表示が行われる表示部と、撮影を行う撮影部とを有する情報処理装置であって、前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出手段と、前記読出手段で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトを前記撮影部で撮影された映像に整合する前記表示部における表示位置に表示し、ユーザ操作を介して表示の切り替えの指示を受け付けたと判断すると、当該情報処理装置の位置情報と前記複数の表示オブジェクトの複数の位置情報とから夫々の距離を算出し、前記複数の表示オブジェクトの寸法を前記算出した距離が長いほど大きくして表示する表示制御手段と、を有することを特徴とする。 In addition, the information processing apparatus according to the present invention includes a specifying unit that specifies position information indicating a position of the information processing apparatus, position information indicating a position of the display object in the real space, and a display mode of the display object. An information processing apparatus including a storage unit that stores information in association with identification information, a display unit that displays a display object, and a shooting unit that performs shooting, and the position information specified by the specifying unit Reading means for reading position information and mode information associated with identification information of display objects within a certain distance as a reference from the storage unit, and a plurality of pieces associated with a plurality of identification information read by the reading means A plurality of display objects generated from the aspect information are displayed at display positions on the display unit that match the images captured by the imaging unit, and user operations are performed. If it is determined that the display switching instruction has been received, the distances are calculated from the position information of the information processing apparatus and the plurality of position information of the plurality of display objects, and the dimensions of the plurality of display objects are calculated. And a display control means for displaying a larger image as the distance is longer.
本発明によれば、表示オブジェクトをより適切に表示することができる。 According to the present invention, a display object can be displayed more appropriately.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<第1の実施形態>
図1は、本実施形態に係るAR提供システムの構成の一例を示す図である。AR提供システムは、現実空間の対象物に対して関連付けされたARオブジェクト(表示オブジェクトの一例)が重なって画面に表示されているときに、各ARオブジェクトを確認し易いようにARオブジェクトの配置、寸法等を変更する拡張現実提供システムの一例である。
AR提供システムは、端末装置100、及びサーバ装置200を含んで構成される。端末装置100とサーバ装置200とは、通信可能に接続されている。
端末装置100は、情報処理装置(コンピュータ)の一例であり、携帯情報端末、携帯電話、HMD(Head Mounted Display)、デジタルカメラ等である。端末装置100は、端末装置100を介して知覚できる現実空間に整合する位置に、サーバ装置200で生成された画像(コンピュータグラフィックス画像など)を表示することにより、拡張された現実感(AR:Augmented Reality)を提供する。
<First Embodiment>
FIG. 1 is a diagram illustrating an example of a configuration of an AR providing system according to the present embodiment. The AR providing system arranges an AR object so that each AR object can be easily confirmed when an AR object (an example of a display object) associated with an object in the real space is displayed on the screen in an overlapping manner. It is an example of an augmented reality providing system that changes dimensions and the like.
The AR providing system includes a
The
本実施形態では、端末装置100は、タッチパネル式の表示パネル10を有する。端末装置100は、端末装置100を介して知覚できる現実空間の対象物に整合する位置に、対象物に関する各種の情報(店名などの情報)を表す画像(ARオブジェクトの一例であるタグ等)を表示パネル10に表示する。
また、端末装置100は、一定の時間にわたり表示パネル10に対してタップ(指がつけたままに)される、端末装置100が振られる、端末装置100が水平方向に傾けられる、表示パネル10に表示されたアイコンが押下される等のユーザ操作(より具体的には表示変更指示)を受け付けると、重なって表示されているタグを重ならないように表示する。
例えば、端末装置100は、端末装置100と焼肉店のタグ(11〜14)との現実空間における各距離を算出し、焼肉店のタグ(11〜14)を距離順に整列して表示パネル10に表示する。この構成によれば、ユーザは、複数の焼肉店のタグ(11〜14)が表示されている中で、現在の位置から最も近い焼肉店が焼肉店Dであることを容易に把握できる。
In the present embodiment, the
Further, the
For example, the
サーバ装置200は、情報処理装置(コンピュータ)の一例である。サーバ装置200は、例えばネットワークを介して各種の情報処理装置(端末装置100、外部の情報処理装置等)と通信し、タグに関する各種の情報(後述のタグ情報)をタグDB20に格納して管理する。
また、サーバ装置200は、タグDB20のタグ情報をもとにタグを生成し、生成したタグを含むタグの表示に係る各種の情報(後述の表示情報など)を端末装置100に送信する。
なお、AR提供システムの構成は、上述した構成に限られるものではない。例えば、サーバ装置200がタグDB20を有する構成を採用したが、サーバ装置200とは異なる装置がタグDB20を有する構成を採用してもよいし、端末装置100がサーバ装置200の機能を備えていてもよい。
The
In addition, the
The configuration of the AR providing system is not limited to the configuration described above. For example, the
図2(A)は、端末装置100のハードウェア構成の一例を示す図である。端末装置100は、制御装置105、記憶装置110、通信装置115、表示装置120、方位検出装置125、姿勢検出装置130、及び撮影装置135を有する。
制御装置105は、例えばCPU(Central Processing Unit)であり、必要に応じて、記憶装置110よりプログラムを読み出して、プログラムを実行する。例えば、ARを提供するアプリケーション(ARアプリケーション)に係るプログラムが実行されることで、端末装置100における後述の機能、及び後述のフローチャートに係る処理が実現される。
また、制御装置105は、特定部の一例であり、通信装置115を介して衛星から取得された軌道情報から、いわゆるGPS(Global Positioning System)を利用して、端末装置100の現在の緯度・経度・高度などの位置を示す装置位置情報(位置情報の一例)を特定(測定)する。
FIG. 2A is a diagram illustrating an example of a hardware configuration of the
The
In addition, the
記憶装置110は、ROM(Read Only Memory)、RAM(Random Access Memory)、HD(Hard Disk)等であり、各種の情報を記憶する。より詳細に説明すると、記憶装置110(ROM)は、端末装置100の電源投入時に最初に読み込まれるプログラム等を記憶する。また、記憶装置110(RAM)は、端末装置100のメインメモリとして機能する。また、記憶装置110(HD)は、プログラム以外に制御装置105により算出された数値データ等を記憶する。
なお、端末装置100は、記憶装置110に記憶される各種の情報を、CD−ROM等の記録媒体から取得してもよいし、ネットワーク等を通じてダウンロードしてもよい。
The
Note that the
通信装置115は、外部装置(サーバ装置200等)と通信を行い、後述の表示情報などを受信する。通信装置115で受信された表示情報などは、記憶装置110に記憶される。
表示装置120は、表示部の一例であり、表示パネル10を有する。表示装置120は、各種の画像を表示パネル10に表示する。なお、本実施形態では、表示装置120として、非透過型の液晶ディスプレイを例に挙げて説明するが、透過型の液晶ディスプレイを採用してもよい。
The
The
方位検出装置125は、例えば電子コンパスであり、微弱な地磁気(例えば前後方向の地磁気及び左右方向の地磁気)を検知し、地磁気の強さから北の方向を計算して端末装置100の方位(方位情報)を算出する。
姿勢検出装置130は、例えばジャイロセンサであり、物体の角速度を検知し、角速度を積分などして角度(端末装置100の姿勢(姿勢情報))を算出する。
撮影装置135は、撮影部の一例であり、現実空間の撮影を行う。
なお、端末装置100のハードウェア構成は、これに限られるものではない。例えば、方位検出装置125及び姿勢検出装置130に代えて、方位検出装置125及び姿勢検出装置130の機能を一体とした機能を有する方位姿勢検出装置を採用してもよい。
The
The
The
Note that the hardware configuration of the
図2(B)は、サーバ装置200のハードウェア構成の一例を示す図である。サーバ装置200は、制御装置205、記憶装置210、通信装置215、表示装置220、及び入力装置225を有する。
制御装置205は、例えばCPU(Central Processing Unit)であり、必要に応じて、記憶装置210よりプログラムを読み出して、プログラムを実行する。プログラムが実行されることで、サーバ装置200における後述の機能、及び後述のフローチャートに係る処理が実現される。
FIG. 2B is a diagram illustrating an example of a hardware configuration of the
The
記憶装置210は、記憶部の一例であり、ROM(Read Only Memory)、RAM(Random Access Memory)、HD(Hard Disk)等であり、各種の情報を記憶する。より詳細に説明すると、記憶装置210(ROM)は、サーバ装置200の電源投入時に最初に読み込まれるプログラム等を記憶する。また、記憶装置210(RAM)は、サーバ装置200のメインメモリとして機能する。また、記憶装置210(HD)は、プログラム以外に制御装置205により算出された数値データ等を記憶する。
なお、サーバ装置200は、記憶装置210に記憶される各種の情報を、CD−ROM等の記録媒体から取得してもよいし、ネットワーク等を通じてダウンロードしてもよい。
The
The
通信装置215は、外部装置(端末装置100等)と通信を行う。例えば、通信装置215は、端末装置100から後述の装置情報を受信する。また、例えば、通信装置215は、各種の情報処理装置から後述のタグ情報を受信する。通信装置215で受信されたタグ情報は、記憶装置210(タグDB20等)に記憶される。
表示装置220は、ディスプレイ等であり、各種の情報を表示する。
入力装置225は、キーボード、マウス等であり、サーバ装置200に各種の情報を入力する。
The
The
The
図3は、サーバ装置200が管理するタグ情報を格納するタグDB20のテーブルの一例を示す図である。テーブルには、ID、位置、表示内容、登録日時、クリック数の情報を含んで構成されたタグ情報が記憶される。なお、より広義には、位置、表示内容、登録日時、クリック数の情報がIDに関連付けられて記憶装置210に記憶されている。
タグのIDを示すID情報は、ARオブジェクトを識別可能な識別情報の一例であり、タグ情報を一意に識別可能である。タグの位置を示すタグ位置情報は、ARオブジェクトの位置を示す位置情報の一例であり、現実空間におけるタグの場所、即ちタグが付された地点の緯度、経度、及び高度を示す情報である。
FIG. 3 is a diagram illustrating an example of a table of the
The ID information indicating the tag ID is an example of identification information that can identify the AR object, and the tag information can be uniquely identified. The tag position information indicating the position of the tag is an example of position information indicating the position of the AR object, and is information indicating the location of the tag in the real space, that is, the latitude, longitude, and altitude of the point to which the tag is attached.
タグの表示内容を示す表示内容情報は、ARオブジェクトの表示態様を示す態様情報の一例であり、各種の情報処理装置を介して入力された情報であり、タグの内容情報とタグの画像情報とタグの形状情報とを含んで構成される。
タグの内容情報は、対象物が店である場合は店名、対象物が美術品である場合は作者名など、タグが付された対象物に関する情報である。画像情報は、対象物が店である場合は店の写真、対象物が美術品である場合は美術品の写真など、タグが付された対象物に関する画像である。
The display content information indicating the display content of the tag is an example of the mode information indicating the display mode of the AR object, and is information input via various information processing devices. The tag content information, the tag image information, Tag shape information.
The content information of the tag is information regarding the target object to which the tag is attached, such as a store name when the target object is a store, and an author name when the target object is a work of art. The image information is an image relating to a tagged object such as a photograph of a store when the object is a store, and a photograph of a work of art when the object is a work of art.
タグの形状情報は、タグの属性(種類)を示す属性情報の一例であり、タグの形状を示す情報である。ここで、タグの形状情報は、ユーザにより指定される構成であってもよいし、管理者により指定される構成であってもよいし、或いはタグの内容情報を解析して自動的に指定される構成であってもよい。
なお、本実施形態では、形状情報に加えて又は代えて、コンビニエンスストア、薬局、ガソリンスタンドなどの対象物の属性、和食、洋食などの対象物におけるサービスの属性など、適宜の属性の情報を一又は複数採用できる。
登録日時を示す登録日時情報は、時間情報の一例であり、対象物に対してタグが付された日時、換言するならばタグ情報がタグDB20に登録された日時を示す情報である。クリック数を示すクリック数情報は、ARオブジェクトがアクセスされた回数を示す回数の情報の一例であり、サーバ装置200でリアルタイムに計数される、各種の情報処理装置においてタグがクリックされた回数の情報である。
The tag shape information is an example of attribute information indicating the tag attribute (type), and is information indicating the tag shape. Here, the shape information of the tag may be a configuration specified by the user, a configuration specified by the administrator, or automatically specified by analyzing the content information of the tag. It may be a configuration.
In the present embodiment, in addition to or instead of the shape information, information on appropriate attributes such as attributes of objects such as convenience stores, pharmacies, gas stations, and service attributes of objects such as Japanese food and Western food are all collected. Alternatively, a plurality can be employed.
The registration date / time information indicating the registration date / time is an example of time information, and is information indicating the date / time when the tag is attached to the object, in other words, the date / time when the tag information is registered in the
図4は、AR提供システムのシーケンスの一例を示す図である。端末装置100は、ARアプリケーションの起動の指示を受け付けると(SQ305)、サーバ装置200に装置情報を送信する(SQ310)。より具体的には、端末装置100は、ARアプリケーションの起動に応答して、撮影装置135の視野の特定に用いられる後述の装置情報をサーバ装置200に送信する。
FIG. 4 is a diagram illustrating an example of a sequence of the AR providing system. Upon receiving an AR application activation instruction (SQ305), the
SQ315では、サーバ装置200は、表示情報生成処理を行う。より具体的には、まず、サーバ装置200は、装置情報を受信し、装置情報により特定される撮影装置135の視野に含まれる一定の距離(例えば500m)内に存在するタグのIDを特定し、特定したタグのIDのタグ情報をタグDB20から抽出する。
次に、サーバ装置200は、抽出したタグ情報の内容情報、形状情報などをもとにタグを生成する。続いて、サーバ装置200は、生成したタグ、当該タグのタグ位置情報、登録日時情報などを含む表示情報をタグごとに生成する。
続いて、サーバ装置200は、生成した表示情報を端末装置100に送信する(SQ320)。
In SQ315, the
Next, the
Subsequently, the
ここで、端末装置100は、表示情報を受信すると、表示情報を記憶装置110に格納する。続いて、端末装置100は、撮影装置135で撮影された映像にタグを重畳して表示する。
また、端末装置100は、端末装置100の状態を監視する(SQ325)。より具体的には、端末装置100は、端末装置100の緯度、経度、高度、方位、及び姿勢の変化を監視する。このとき、端末装置100は、端末装置100の状態の変化を検知すると、装置情報をサーバ装置200に送信する(SQ330)。
なお、サーバ装置200は、装置情報を受信すると、SQ315と同様に、表示情報生成処理を行い(SQ335)、生成した表示情報を端末装置100に送信する(SQ340)。また、端末装置100は、SQ325と同様に、端末装置100の状態を監視する(SQ345)。
Here, when receiving the display information, the
Further, the
Upon receiving the device information, the
即ち、端末装置100は、ARアプリケーションが動作しているときは、基本的には、SQ310からSQ325までの一連の処理(通常表示処理)を繰り返し行う。
ただし、端末装置100は、表示変更指示を受け付けると(SQ350)、表示変更指示の種類に応じて、表示パネル10に表示されているタグを整列する(SQ355)。なお、SQ350の処理については図7を用いて詳細に説明する。
また、端末装置100は、整列を解除する旨の整列解除指示を受け付けると(SQ360)、通常表示処理が行われることになる。ここで、整列解除指示は、一定の時間にわたり表示パネル10に対してタップされる、端末装置100が振られる、端末装置100が水平方向に傾けられる、表示パネル10に表示されたアイコンが押下される等のユーザ操作をいう。
That is, when the AR application is operating, the
However, when receiving the display change instruction (SQ350), the
In addition, when the
図5は、端末装置100及びサーバ装置200の機能構成の一例を示す図である。
端末装置100は、制御部150、読出部155、表示制御部160、及び通信部165を有する。制御部150は、読出部155及び表示制御部160を管理すると共に、端末装置100における制御を司る。読出部155は、記憶装置110から各種の情報を読み出す。表示制御部160は、表示装置120を制御し、表示パネル10にタグ等を表示する。通信部165は、通信装置115を制御し、外部装置との通信を行う。
サーバ装置200は、制御部250及び通信部255を有する。制御部250は、通信部255を管理すると共に、サーバ装置200における制御を司る。通信部255は、通信装置215を制御し、外部装置との通信を行う。
FIG. 5 is a diagram illustrating an example of functional configurations of the
The
The
図6は、端末装置100の制御部150が行うAR提供処理に係るフローチャートの一例を示す図である。AR提供処理は、ARアプリケーションの起動の指示が受付けられることを契機に開始される。
まず、制御部150は、ARアプリケーションの終了の指示を受け付けたか否かを判断する(S405)。このとき、制御部150は、受け付けたと判断した場合、AR提供処理を終了する。他方、受け付けていないと判断した場合、制御部150は、S410の処理を行う。
S410では、制御部150は、端末装置100の装置位置情報を算出し、方位検出装置125から方位情報を受け取り、姿勢検出装置130から姿勢情報を受け取る。この際、制御部150は、算出した装置位置情報、並びに受け取った方位情報及び姿勢情報を記憶装置110に格納する。
FIG. 6 is a diagram illustrating an example of a flowchart related to the AR providing process performed by the
First, the
In S <b> 410, the
続いて、制御部150は、表示パネル10に表示するタグの表示情報をサーバ装置200から取得する(S415)。
より具体的には、まず、制御部150は、端末装置100の内部パラメータ(撮像面の寸法、レンズの焦点距離、レンズの歪みの度合いの情報など)をもとに撮影装置135の視野の範囲を特定する範囲情報(画角など)を算出し、範囲情報、装置位置情報、方位情報、及び姿勢情報を含む装置情報を生成する。次に、制御部150は、通信部165を介して、生成した装置情報をサーバ装置200に送信する。
そして、制御部150は、通信部165を介してサーバ装置200から表示情報を受信し、受信した表示情報を記憶装置110に格納する。
Subsequently, the
More specifically, first, the
Then, the
ここで、サーバ装置200において装置情報が受信されることを契機に行われる表示情報生成処理(SQ315など)の詳細について説明する。
表示情報生成処理では、まず、サーバ装置200の制御部250は、装置情報に含まれる範囲情報、方位情報、及び姿勢情報をもとに撮影装置135の視野を特定する。次に、制御部250は、撮影装置135の視野に含まれる装置位置情報の位置を基準として一定の距離内に存在するタグのIDをタグDB20のタグ位置情報を参照して特定する。次に、制御部250は、特定したタグのIDをもとにタグ情報をタグDB20から抽出する。
次に、制御部250は、抽出したタグ情報の内容情報と形状情報と規定の寸法情報とをもとにタグを生成する。規定の寸法情報は、タグの形状情報に対応して記憶装置210に設けられ、例えば、四角形に対しては縦100ピクセル、横200ピクセルが設けられている。この際、制御部250は、タグ情報に画像情報が設定されている場合、タグに画像情報を含める。そして、制御部250は、生成したタグ、当該タグのタグ位置情報、及び登録日時情報を含む表示情報をタグごとに生成する。この際、制御部250は、形状情報以外の他の属性情報があるときは、他の属性情報を表示情報に含める。
なお、制御部250は、通信部255を介して、生成した表示情報を端末装置100に送信する。
Here, the details of the display information generation process (SQ 315 and the like) performed when the
In the display information generation process, first, the
Next, the
Note that the
また、端末装置100の通信部165は、ネットワークを介してサーバ装置200から受信した表示情報を記憶装置110に記憶させる。続いて、端末装置100の制御部150は、読出部155を介して記憶装置110から表示情報を読み出し、表示制御部160を介して、撮影装置135で撮影された映像に整合する表示パネル10における表示位置に表示情報に含まれるタグを表示する(S420)。なお、位置合わせについては従来から用いられている技術を適用することができる。例えば、表示制御部160は、撮影装置135における座標系を表示パネル10における座標系に変換する。これにより、表示制御部160は、撮影装置135の映像、及びタグについて、表示パネル10内での表示位置を特定する。また、表示制御部160は、タグの寸法、明るさ等を表示パネル10に適合するように調整する。
続いて、制御部150は、端末装置100の状態に変化があったか否かを判断する(S425)。より具体的には、制御部150は、記憶装置110に記憶されている、今回の装置位置情報、方位方法、及び姿勢情報と、前回の装置位置情報、方位方法、及び姿勢情報とを比較して、一致するか否かを判断する。なお、完全に一致するか否かを判断する構成を採用してもよいし、規定の桁数までの数値が一致(略一致)するか否かを判断する構成を採用してもよい。
このとき、制御部150は、端末装置100の状態に変化があったと判断した場合、S405の処理を行う。他方、制御部150は、端末装置100の状態に変化がなかったと判断した場合、S430の処理を行う。
In addition, the
Subsequently, the
At this time, when the
S430では、制御部150は、表示変更指示が受け付けられたか否かを判断する。このとき、制御部150は、表示変更指示が受け付けられたと判断した場合、S435の処理を行う。他方、制御部150は、表示変更指示が受け付けられていないと判断した場合、S405の処理を行う。
S435では、制御部150は、読出部155及び表示制御部160を介して、タグ整列設定情報により指定された書式でタグを表示する(表示制御処理)。タグ整列設定情報は、どの様なルールでタグを整列(配置)するかというルールを規定した情報であり、表示変更指示の種類に対応して記憶装置110に記憶されている。なお、表示制御処理については図7を用いて詳細に説明する。
続いて、制御部150は、整列解除指示を受け付けたか否かを判断する(S440)。このとき、制御部150は、整列解除指示を受け付けたと判断した場合、S405の処理を行う。他方、制御部150は、整列解除指示を受け付けていないと判断した場合、S435の処理を行う。
In S430,
In S435, the
Subsequently, the
図7は、端末装置100の表示制御部160が行う表示制御処理に係るフローチャートの一例を示す図である。
まず、表示制御部160は、表示変更指示が距離整列指示であるか否かを判断する(S505)。より具体的には、表示制御部160は、距離の整列を指示するユーザインタフェース(後述の図8の距離整列アイコン705など)が操作されたか否かを判断する。このとき、表示制御部160は、表示変更指示が距離整列指示であると判断した場合、S510の処理を行う。他方、表示制御部160は、表示変更指示が距離整列指示でないと判断した場合、続いてS515の処理を行う。
S510では、表示制御部160は、距離順にタグを整列して表示パネル10に表示し、表示制御処理を終了する。
FIG. 7 is a diagram illustrating an example of a flowchart relating to display control processing performed by the
First, the
In S510, the
より詳細に説明すると、表示制御部160は、まず、距離整列指示に対応して設けられたタグ整列設定情報を記憶装置110から読み出す。このタグ整列設定情報には、端末装置100とタグとの距離に応じてタグを整列するためのルールが規定されている。本実施形態では、表示パネル10の下端から上端にかけて距離が短いものから順にタグを表示するルールが規定されている。しかしながら、上記ルールに限られるものではない。例えば、表示パネル10の左端から右端にかけて距離が短いものから順にタグを表示するルールを採用してもよい。
次に、表示制御部160は、端末装置100の装置位置情報とタグのタグ位置情報とから端末装置100とタグとの距離を算出する。なお、表示制御部160は、現実空間における距離を算出してもよいし、座標系における距離を算出してもよい。そして、表示制御部160は、上記ルールに従って距離順にタグを整列して表示する。このときの表示パネル10の表示態様の一例を図8(B)に示す。
More specifically, the
Next, the
S515では、表示制御部160は、表示変更指示が区間整列指示であるか否かを判断する。より具体的には、表示制御部160は、区間の整列を指示するユーザインタフェース(後述の図8の区間整列アイコン710など)が操作されたか否かを判断する。このとき、表示制御部160は、表示変更指示が区間整列指示であると判断した場合、S520の処理を行う。他方、表示制御部160は、表示変更指示が区間整列指示でないと判断した場合、続いてS525の処理を行う。
S520では、表示制御部160は、区間ごとにタグを整列して表示パネル10に表示し、表示制御処理を終了する。
In S515, the
In S520, the
より詳細に説明すると、表示制御部160は、まず、区間整列指示に対応して設けられたタグ整列設定情報を記憶装置110から読み出す。このタグ整列設定情報には、予め設けられた区間にタグを分類して整列するルールが規定されている。本実施形態では、表示パネル10の下端から上端にかけて距離が長くなる一定の距離ごと(例えば50m単位)の区間が定められ、区間ごとにタグを分類し、同じ区間に複数のタグが属する場合は横に並べるルールが規定されている。しかしながら、上記ルールに限られるものではなく、区間ごとにタグを整列する他のルールを採用してもよい。
次に、表示制御部160は、端末装置100の装置位置情報とタグのタグ位置情報とから端末装置100とタグとの距離を算出する。そして、表示制御部160は、算出した距離から、各タグが属する区間を特定し、区間ごとにタグを整列して表示する。この場合の表示パネル10の表示態様の一例を図8(C)に示す。
More specifically, the
Next, the
S525では、表示制御部160は、表示変更指示が一定時間押下指示であるか否かを判断する。より具体的には、表示制御部160は、表示パネル10における何れかのタグが一定の時間にわたりタップされたか否かを判断する。このとき、表示制御部160は、表示変更指示が一定時間押下指示であると判断した場合、S530の処理を行う。他方、表示制御部160は、表示変更指示が一定時間押下指示でないと判断した場合、続いてS535の処理を行う。
S530では、表示制御部160は、設定情報(デフォルトのタグ整列設定情報)に従ってタグを整列して表示パネル10に表示し、表示制御処理を終了する。
より詳細に説明すると、表示制御部160は、まず、ユーザにより押下された表示パネル10における表示位置を特定する。次に、表示制御部160は、特定した表示位置のタグが含まれるタグ群(表示オブジェクト群)を特定する。例えば、表示制御部160は、特定した表示位置の最も手前のタグを特定し、当該タグに重なって表示されているタグ、更にはそのタグに重なっているタグを特定し、このように連鎖的に特定したタグを整列の対象のタグ(対象タグ)として特定する。そして、表示制御部160は、対象タグのIDを記憶装置110に格納する。
次に、表示制御部160は、設定情報を記憶装置110から読み出す。本実施形態では、設定情報としては、後述の種類整列指示に対応して設けられたタグ整列設定情報が設定されているので、後述のS540の処理と同様の処理が行われる。
In S525, the
In S530, the
More specifically, the
Next, the
S535では、表示制御部160は、表示変更指示が種類整列指示であるか否かを判断する。より具体的には、表示制御部160は、種類の整列を指示するユーザインタフェース(後述の図9の種類整列アイコン725など)が操作されたか否かを判断する。このとき、表示制御部160は、表示変更指示が種類整列指示であると判断した場合、S540の処理を行う。他方、表示制御部160は、表示変更指示が種類整列指示でないと判断した場合、続いてS545の処理を行う。
S540では、表示制御部160は、種類ごとにタグを整列して表示パネル10に表示し、表示制御処理を終了する。
In S535, the
In S540, the
より詳細に説明すると、表示制御部160は、まず、種類整列指示に対応して設けられたタグ整列設定情報を記憶装置110から読み出す。このタグ整列設定情報には、予め設けられたタグの種類(属性)ごとに対象タグをまとめて整列するルールが規定されている。本実施形態では、種類ごとに対象タグを分類し、対象タグが1つのまとまり(タグ群)であったことを示す情報(色、線など)を用いて対象タグを識別し、種類が同じ対象タグを近接して表示するルールが規定されている。しかしながら、上記ルールに限られるものではなく、種類ごとにタグを整列する他のルールを採用してもよい。
そして、表示制御部160は、上記ルールに従って、各対象タグが属する種類を特定し、種類ごとに対象タグを整列して表示する。この場合の表示パネル10の表示態様の一例を図9(B)に示す。
More specifically, the
Then, the
S545では、表示制御部160は、表示変更指示が登録日時整列指示であるか否かを判断する。より具体的には、表示制御部160は、登録日時の整列を指示するユーザインタフェース(後述の図9の登録日時整列アイコン715など)が操作されたか否かを判断する。このとき、表示制御部160は、表示変更指示が登録日時整列指示であると判断した場合、S550の処理を行う。他方、表示制御部160は、表示変更指示が登録日時整列指示でないと判断した場合、続いてS555の処理を行う。
S550では、表示制御部160は、登録順にタグを整列して表示パネル10に表示し、表示制御処理を終了する。
In S545, the
In S550, the
より詳細に説明すると、表示制御部160は、まず、登録日時整列指示に対応して設けられたタグ整列設定情報を記憶装置110から読み出す。このタグ整列設定情報には、タグの登録日時に応じてタグを整列するルールが規定されている。本実施形態では、対象タグがタグ群であったことを示す情報を用いて対象タグを識別し、登録日時が新しいもの(或いは登録日時が古いもの)から順にタグを表示するルールが規定されている。しかしながら、上記ルールに限られるものではなく、登録日時順にタグを整列する他のルールを採用してもよい。
そして、表示制御部160は、上記ルールに従って、登録順にタグを整列して表示する。この場合の表示パネル10の表示態様の一例を図9(C)に示す。
More specifically, the
Then, the
S555では、表示制御部160は、表示変更指示がクリック数整列指示であるか否かを判断する。より具体的には、表示制御部160は、クリック数での整列を指示するユーザインタフェース(後述の図9のクリック数整列アイコン720など)が操作されたか否かを判断する。このとき、表示制御部160は、表示変更指示がクリック数整列指示であると判断した場合、S560の処理を行う。他方、表示制御部160は、表示変更指示がクリック数整列指示でないと判断した場合、表示制御処理を終了する。
S560では、表示制御部160は、サーバ装置200からクリック数情報を取得し、クリック数順(回数順)にタグを整列して表示パネル10に表示し、表示制御処理を終了する。
In S555, the
In S560, the
より詳細に説明すると、表示制御部160は、まず、制御部150及び通信部165を介してサーバ装置200にクリック数情報を要求する。
即ち、表示制御部160は、制御部150及び通信部165を介して対象タグのIDを送信する。他方、サーバ装置200の制御部250は、通信部255を介して対象タグのIDを受信すると、IDに対応するクリック数情報をタグDB20から抽出し、通信部255を介して、抽出したクリック数情報を対象タグのIDと共に端末装置100に送信する。
また、端末装置100の表示制御部160は、制御部150及び通信部165を介してクリック数情報を受信すると、クリック数整列指示に対応して設けられたタグ整列設定情報を記憶装置110から読み出す。このタグ整列設定情報には、タグのクリック数に応じてタグを整列するルールが規定されている。本実施形態では、対象タグがタグ群であったことを示す情報を用いて対象タグを識別し、クリック数が多いもの(或いはクリック数が少ないもの)から順にタグを表示するルールが規定されている。しかしながら、上記ルールに限られるものではなく、クリック数順にタグを整列する他のルールを採用してもよい。
そして、表示制御部160は、上記ルールに従って、クリック数順にタグを整列して表示する。
なお、クリック数情報については、本実施形態で説明したように、対象タグが特定されるたびにサーバ装置200に要求してもよいし、S415の処理でクリック数情報が含められた表示情報をサーバ装置200から取得して記憶装置110に記憶しておいてもよい。
More specifically, the
That is, the
Further, when the
Then, the
As described in the present embodiment, the click number information may be requested to the
図8は、表示パネル10の表示態様の一例(画面)を示す図である。
例えば、ユーザによりARアプリケーションが起動されると、図8(A)に示すように、撮影装置135で撮影された映像の整合した位置にタグが重畳されて表示パネル10に表示される。以下、この状態を「未整列画面」と記載する。そして、未整列画面において、距離整列アイコン705が押下された場合、図8(B)に示す距離整列画面に画面が切り替わる。また、未整列画面において、区間整列アイコン710が押下された場合、図8(C)に示す区間整列画面に画面が切り替わる。
FIG. 8 is a diagram illustrating an example (screen) of a display mode of the
For example, when the AR application is activated by the user, as shown in FIG. 8A, a tag is superimposed on a position where the video imaged by the
距離整列画面では、未整列画面において重なって表示されていたタグ(605〜630)が距離順に整列されて表示される。このように、タグが距離順に整列されることで、例えば、ユーザは、二番目や三番目に近い対象物或いは逆に最も遠い対象物が何であるかを容易に把握できるようになる。
区間整列画面では、未整列画面において重なって表示されていたタグ(605〜630)が区間ごとに整列されて表示される。このように、タグが区間ごとに整列されることで、例えば、ユーザは、どのくらいの距離に対象物が多く存在するのかを容易に把握できるようになる。
なお、距離整列画面において区間整列アイコン710が押下された場合、区間整列画面に画面が切り替わり、区間整列画面において距離整列アイコン705が押下された場合、距離整列画面に画面が切り替わる。また、距離整列画面又は距離整列画面において、整列解除指示が受け付けられると、未整列画面に画面が切り替わる。
On the distance alignment screen, the tags (605 to 630) displayed in an overlapping manner on the unaligned screen are displayed in the order of distance. Thus, by arranging the tags in order of distance, for example, the user can easily grasp what is the second or third closest object or conversely the most distant object.
In the section alignment screen, the tags (605 to 630) that are displayed in an overlapping manner on the unaligned screen are displayed by being aligned for each section. Thus, by arranging the tags for each section, for example, the user can easily grasp how many objects are present at a certain distance.
When the
図9は、表示パネル10の表示態様の一例(画面)を示す図である。
例えば、ユーザによりARアプリケーションが起動されると、図9(A)に示す未整列画面が表示パネル10に表示される。そして、未整列画面において、ユーザ805によりタグ(605〜605)のうちの何れかが一定の時間にわたりタップされた場合、図9(B)に示す種類整列画面に画面が切り替わる。また、種類整列画面において、登録日時整列アイコン715が押下された場合、図9(C)に示す登録日時整列画面に画面が切り替わる。
ここで、種類整列画面では、未整列画面において重なって表示されていたタグ群のうちタップされたタグが含まれるタグ群、即ちタグ(605〜615、630〜645)が種類ごとに整列されて表示される。
この例では、タグの属性(種類)が、タグの形状である場合を示したが、例えば、和食、洋食などの対象物のサービスの属性である場合、和食についてのタグ、洋食についてのタグが夫々で近接するように配置されて表示されることになる。なお、表示位置905は、ユーザ805によりタップされた表示位置を示す。また、識別線910は、タップされたタグ群であったタグを識別するものである。
また、登録日時整列画面では、未整列画面において重なって表示されていたタグ(605〜615、630〜645)が登録順に整列されて表示される。
FIG. 9 is a diagram illustrating an example (screen) of a display mode of the
For example, when the AR application is activated by the user, an unaligned screen shown in FIG. 9A is displayed on the
Here, in the type arrangement screen, the tag groups including the tapped tags among the tag groups that are displayed in an overlapped manner on the unsorted screen, that is, tags (605 to 615, 630 to 645) are arranged for each type. Is displayed.
In this example, the case where the attribute (type) of the tag is the shape of the tag is shown. However, for example, when the attribute is the service attribute of the target object such as Japanese food, Western food, the tag for Japanese food, They are arranged and displayed so as to be close to each other. Note that the
In addition, on the registration date and time alignment screen, the tags (605 to 615 and 630 to 645) that are displayed in an overlapping manner on the unaligned screen are displayed in order of registration.
なお、未整列画面において、距離整列アイコン705が押下された場合、距離整列画面に画面が切り替わり、区間整列アイコン710が押下された場合、区間整列画面に画面が切り替わる。
また、種類整列画面(或いは登録日時整列画面)においてクリック数整列アイコン720が押下された場合、クリック数整列画面(図示せず。)に画面が切り替わり、登録日時整列画面において種類整列アイコン725が押下された場合、種類整列画面に画面が切り替わる。また、種類整列画面、登録日時整列画面、又はクリック数整列画面において、整列解除指示が受け付けられると、未整列画面に画面が切り替わる。
図9に示す画面は、上述した構成に限られるものではない。例えば、種類整列画面、登録日時整列画面、及びクリック数整列画面では、タップされたタグ群とは異なる他のタグ群(タグD620、タグE625、タグJ650)をタップされたタグ群と同様に整列してもよい。また、種類整列画面、登録日時整列画面、及びクリック数整列画面では、タップされたタグ群のタグ以外のタグ(他のタグ群など)を非表示としてもよい。
When the
When the click
The screen shown in FIG. 9 is not limited to the configuration described above. For example, in the type alignment screen, the registration date alignment screen, and the click number alignment screen, other tag groups (tag D620, tag E625, tag J650) different from the tapped tag group are aligned in the same manner as the tapped tag group. May be. In addition, on the type alignment screen, the registration date alignment screen, and the click number alignment screen, tags other than the tags of the tapped tag group (other tag groups, etc.) may be hidden.
上述した構成によれば、拡張現実技術で本来行うべき重畳表示をユーザの指示に基づいて一旦解除して互いのタグが重ならないように再配置して表示されることで、各タグのクリックがより容易になる。また、各タグの内容を一斉に把握できるので、各タグの内容を比較することがより容易になる。また、表示変更指示に応じたタグの整列が行われるので、タグの関連性の把握がより容易になる。
なお、上述した各表示態様の選択順序はあくまでも一例であり、その順序や表示の種類は上述したものに限るものではない。また、各表示態様を選択する構成も上述したものに限られるものではなく、アイコンを押下するか、或いは一定の時間にわたりタグをタップするかという方法についても設計に応じて変更してよい。
According to the configuration described above, the superimposed display that should be originally performed in augmented reality technology is temporarily released based on the user's instruction and rearranged and displayed so that the tags do not overlap each other. It becomes easier. Moreover, since the contents of each tag can be grasped all at once, it becomes easier to compare the contents of each tag. In addition, since the tags are arranged according to the display change instruction, it is easier to grasp the relationship between the tags.
Note that the selection order of the display modes described above is merely an example, and the order and display type are not limited to those described above. Further, the configuration for selecting each display mode is not limited to that described above, and a method of pressing an icon or tapping a tag for a certain time may be changed according to the design.
<第2の実施形態>
本実施形態では、重なって表示されているタグを選択、把握する他の拡張現実感提供方法について説明する。なお、本実施形態では、第1の実施形態と同一の構成には同一の符号を用いて説明を適宜省略する。
図10は、表示パネル10の表示態様の一例(画面)を示す図である。
例えば、ユーザによりARアプリケーションが起動されると、図10(A)に示す未整列画面が表示パネル10に表示される。そして、未整列画面において、上空視点アイコン735が押下された場合、図10(B)に示す上空視点画面に画面が切り替わる。また、未整列画面において、寸法変更アイコン740が押下された場合、図10(C)に示す寸法変更画面に画面が切り替わる。
上空視点画面では、未整列画面において重なって表示されていたタグ(605〜630)が上空から見下ろしたときの内容として表示される。例えば、表示制御処理では、表示制御部160は、端末装置100の装置位置情報とタグのタグ位置情報とから表示パネル10におけるタグの新たな表示位置を算出し、タグの形状を上空から視認したとき用の態様に変更し、表示パネル10に表示する。この構成によれば、例えば、タグの位置の把握がより容易になる。
<Second Embodiment>
In the present embodiment, another augmented reality providing method for selecting and grasping the tags displayed in an overlapping manner will be described. In the present embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted as appropriate.
FIG. 10 is a diagram illustrating an example (screen) of a display mode of the
For example, when the AR application is activated by the user, an unaligned screen shown in FIG. 10A is displayed on the
In the sky viewpoint screen, the tags (605 to 630) that are displayed overlapping on the unaligned screen are displayed as contents when looking down from the sky. For example, in the display control process, the
寸法変更画面では、未整列画面において重なって表示されていたタグ(605〜630)の寸法が距離に応じて変更されて表示される。
例えば、表示制御処理では、表示制御部160は、各タグの左上の頂点を基準として、距離が長いほどタグの寸法が大きくなるようにタグの寸法を距離に応じて拡大(或いは縮小)する。より具体的には、表示制御部160は、端末装置100の装置位置情報とタグのタグ位置情報とから端末装置100とタグとの距離を算出し、距離に応じて拡大倍率(或いは縮小倍率)が規定された情報を記憶装置110から読み出し、読み出した情報に従ってタグの寸法を拡大(或いは縮小)する。つまり、通常の遠近法とは逆に、遠いオブジェクトをより大きく表示することにより、手前のオブジェクトに隠れてしまうことを避けるように表示する。
On the dimension change screen, the dimensions of the tags (605 to 630) displayed overlapping on the unaligned screen are changed and displayed according to the distance.
For example, in the display control process, the
なお、本実施形態は、この構成に限られるものではない。例えば、表示制御部160が各タグの中心を基準としてタグの寸法を距離に応じて拡大(或いは縮小)する構成としてもよい。また、例えば、表示制御部160が、タグの寸法を距離に応じて拡大(或いは縮小)したときのタグの配置を頂点ごとに算出し、最もタグの内容が表示される配置の頂点を選定し、選定した頂点を基準としてタグの寸法を距離に応じて拡大(或いは縮小)する構成を採用してもよい。
更に、各タグに表示される文字列情報、イメージ情報などを、各タグの中心付近ではなく、他のタグに隠れない位置を算出して表示する構成としてもよい。
また、上空視点画面又は寸法変更画面において、整列解除指示が受け付けられると、未整列画面に画面が切り替わる。
Note that the present embodiment is not limited to this configuration. For example, the
Furthermore, it is good also as a structure which calculates and displays the character string information, image information, etc. which are displayed on each tag not the vicinity of the center of each tag but the position hidden in another tag.
In addition, when an alignment release instruction is received on the sky viewpoint screen or the dimension change screen, the screen is switched to the unaligned screen.
上述した構成によれば、各タグのクリックがより容易になる。また、各タグの内容を一斉に把握できるので、各タグの内容を比較することがより容易になる。
なお、上述した実施形態では、ユーザが表示パネル10に対してタップ等の指示を行うことで整列画面に移行する構成を採用したが、本実施形態は、これに限られるものではない。例えば、姿勢検出装置130で検出された端末装置100の姿勢情報に基づいて、表示パネル10が略水平方向に倒されたことを契機にタグの形状を上空から視認したとき用の態様に変更する構成としてもよい。これにより、ユーザは、端末装置100の姿勢を操るだけで重なって見づらかった各タグの内容を比較することがより容易になる。
According to the above-described configuration, it is easier to click each tag. Moreover, since the contents of each tag can be grasped all at once, it becomes easier to compare the contents of each tag.
In the above-described embodiment, the configuration is adopted in which the user shifts to the alignment screen when the user instructs the
<その他の実施形態>
第1の実施形態、及び第2の実施形態では、撮影装置135の視野に含まれる一定の距離内に存在するタグのIDをタグDB20のタグ位置情報を参照して特定する構成を示したが、この構成に限られるものではない。
例えば、端末装置100が装置位置情報を含む装置情報をサーバ装置200に送信し、サーバ装置200が端末装置100から一定の距離内に存在するタグのIDをタグDB20のタグ位置情報を参照して特定する構成を採用してもよい。この場合、端末装置100は、受信する表示情報に含まれるタグの中から撮影装置135の視野に含まれるタグ(ID)を特定し、特定したタグを表示パネル10に表示する。
また、第1の実施形態、及び第2の実施形態では、タグが、サーバ装置200で生成される構成を示したが、この構成に限られるものではない。例えば、タグが、端末装置100で生成される構成を採用してもよい。この場合、サーバ装置200は、タグに代えて表示内容情報を表示情報に含めて端末装置100に送信する。
<Other embodiments>
In the first embodiment and the second embodiment, the configuration in which the ID of a tag existing within a certain distance included in the field of view of the
For example, the
In the first embodiment and the second embodiment, the configuration in which the tag is generated by the
また、第1の実施形態、及び第2の実施形態では、タグDB20に、タグの生成に用いられる表示内容情報、形状情報などが格納される構成を示したが、この構成に限られるものではない。例えば、サーバ装置200は、タグDB20へのタグ情報の登録の際に、表示内容情報、形状情報などをもとにタグを生成してタグDB20に格納してもよい。
また、端末装置100とサーバ装置200とが行う処理の分担は、上述した構成に限られるものではない。例えば、端末装置100がサーバ装置200の一部又は全部の処理を実行してもよいし、サーバ装置200が端末装置100の一部の処理を実行してもよい。
また、本実施形態では、第1の実施形態の構成、及び第2の実施形態の構成を適宜変更したり適宜組み合わせたりした構成を採用してもよい。
In the first embodiment and the second embodiment, the configuration in which display content information and shape information used for tag generation are stored in the
Further, the sharing of processing performed by the
In the present embodiment, a configuration in which the configuration of the first embodiment and the configuration of the second embodiment are appropriately changed or appropriately combined may be employed.
なお、表示パネル10の表示態様が上述した第1の実施形態、及び第2の実施形態で示した何れかの表示態様となるようにユーザが初期値を設定しておき、表示パネル10へのタップ操作や端末装置100の姿勢に応じて初期値で設定された表示態様に直接移行するようにしてもよい。
また、表示パネルとして透過型液晶ディスプレイを利用した携帯型端末、HMD等を使用する場合、必ずしも撮影装置135は必要ではなく、各ディスプレイの画角を初期値として設定しておき、表示されるARオブジェクトを特定してもよい。この場合、表示態様の選択については、画面への操作だけではなく、携帯型端末やHMDに備えられた物理的なスイッチ類で行ってもよく、或いは上述したような姿勢情報によって行ってもよい。
Note that the user sets initial values so that the display mode of the
Further, when a portable terminal using a transmissive liquid crystal display, an HMD, or the like is used as a display panel, the photographing
上述した各実施形態の構成によれば、表示オブジェクトをより適切に表示することができる。 According to the structure of each embodiment mentioned above, a display object can be displayed more appropriately.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
100 端末装置
200 サーバ装置
100
Claims (13)
前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出手段と、
前記読出手段で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトの各々が重ならない前記表示部における表示位置に前記複数の表示オブジェクトを表示する表示制御手段と、
を有することを特徴とする情報処理装置。 A storage for storing position information indicating the position of the information processing apparatus, position information indicating the position of the display object in the real space, and mode information indicating the display mode of the display object in association with the identification information An information processing apparatus having a display unit and a display unit on which a display object is displayed,
Reading means for reading position information and mode information associated with identification information of display objects within a certain distance from the position information specified by the specifying unit from the storage unit;
Display control for displaying the plurality of display objects at a display position in the display unit in which each of the plurality of display objects generated from the plurality of pieces of aspect information associated with the plurality of pieces of identification information read by the reading unit does not overlap. Means,
An information processing apparatus comprising:
前記表示制御手段は、前記撮影部で撮影された映像に整合する前記表示部における表示位置に前記複数の表示オブジェクトを表示し、ユーザ操作を介して表示の切り替えの指示を受け付けたと判断すると、前記複数の表示オブジェクトの各々が重ならない前記表示部における表示位置に前記複数の表示オブジェクトを表示することを特徴とする請求項1に記載の情報処理装置。 It further has a photographing unit for photographing,
When the display control means displays the plurality of display objects at the display position in the display unit that matches the video imaged by the imaging unit, and determines that the display switching instruction has been received through a user operation, The information processing apparatus according to claim 1, wherein the plurality of display objects are displayed at display positions on the display unit where the plurality of display objects do not overlap each other.
前記読出手段は、前記複数の表示オブジェクトの前記複数の識別情報の各々に関連付けられた属性情報を更に読み出し、
前記表示制御手段は、前記読出手段で読み出された属性情報に従って前記複数の表示オブジェクトを更に属性ごとに分類して表示することを特徴とする請求項1又は2に記載の情報処理装置。 The identification information stored in the storage unit is further associated with attribute information indicating the attribute of the display object,
The reading means further reads attribute information associated with each of the plurality of identification information of the plurality of display objects,
The information processing apparatus according to claim 1, wherein the display control unit further classifies and displays the plurality of display objects for each attribute according to the attribute information read by the reading unit.
前記読出手段は、前記複数の表示オブジェクトの前記複数の識別情報の各々に関連付けられた時間情報を更に読み出し、
前記表示制御手段は、前記読出手段で読み出された時間情報に従って前記複数の表示オブジェクトを更に登録順に整列して表示することを特徴とする請求項1又は2に記載の情報処理装置。 The identification information stored in the storage unit is further associated with time information indicating a time when position information and aspect information associated with the identification information are registered,
The reading means further reads time information associated with each of the plurality of identification information of the plurality of display objects,
3. The information processing apparatus according to claim 1, wherein the display control unit further displays the plurality of display objects in an order of registration according to the time information read by the reading unit.
前記表示制御手段は、前記複数の表示オブジェクトに対応する回数の情報を前記サーバ装置から取得し、前記取得した回数の情報に従って前記複数の表示オブジェクトを更にアクセスされた回数順に整列して表示することを特徴とする請求項1又は2に記載の情報処理装置。 The number of times the display object is accessed is counted, and is connected to be able to communicate with a server device that manages the information on the number of times.
The display control means acquires information on the number of times corresponding to the plurality of display objects from the server device, and displays the plurality of display objects in order of the number of times accessed in accordance with the information on the acquired number of times. The information processing apparatus according to claim 1 or 2.
前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出手段と、
前記読出手段で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトを前記撮影部で撮影された映像に整合する前記表示部における表示位置に表示し、ユーザ操作を介して表示の切り替えの指示を受け付けたと判断すると、当該情報処理装置の位置情報と前記複数の表示オブジェクトの複数の位置情報とから夫々の距離を算出し、前記複数の表示オブジェクトの寸法を前記算出した距離が長いほど大きくして表示する表示制御手段と、
を有することを特徴とする情報処理装置。 A storage for storing position information indicating the position of the information processing apparatus, position information indicating the position of the display object in the real space, and mode information indicating the display mode of the display object in association with identification information An information processing apparatus having a display unit, a display unit for displaying a display object, and a shooting unit for shooting,
Reading means for reading position information and mode information associated with identification information of display objects within a certain distance from the position information specified by the specifying unit from the storage unit;
Displaying a plurality of display objects generated from a plurality of pieces of aspect information associated with a plurality of pieces of identification information read by the reading unit at a display position in the display unit that matches a video imaged by the imaging unit; If it is determined that a display switching instruction has been received through a user operation, the distances are calculated from the position information of the information processing apparatus and the plurality of position information of the plurality of display objects, and the dimensions of the plurality of display objects are calculated. Display control means for displaying the larger as the calculated distance is longer,
An information processing apparatus comprising:
前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出工程と、
前記読出工程で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトの各々が重ならない前記表示部における表示位置に前記複数の表示オブジェクトを表示する表示制御工程と、
を有することを特徴とする拡張現実感提供方法。 A storage for storing position information indicating the position of the information processing apparatus, position information indicating the position of the display object in the real space, and mode information indicating the display mode of the display object in association with the identification information An augmented reality providing method in an information processing apparatus having a display unit and a display unit on which a display object is displayed,
A reading step of reading position information and mode information associated with identification information of a display object within a certain distance from the position information specified by the specifying unit from the storage unit;
Display control for displaying the plurality of display objects at a display position in the display unit in which each of the plurality of display objects generated from the plurality of pieces of aspect information associated with the plurality of identification information read in the reading step does not overlap. Process,
An augmented reality providing method characterized by comprising:
前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出工程と、
前記読出工程で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトを前記撮影部で撮影された映像に整合する前記表示部における表示位置に表示し、ユーザ操作を介して表示の切り替えの指示を受け付けたと判断すると、当該情報処理装置の位置情報と前記複数の表示オブジェクトの複数の位置情報とから夫々の距離を算出し、前記複数の表示オブジェクトの寸法を前記算出した距離が長いほど大きくして表示する表示制御工程と、
を有することを特徴とする拡張現実感提供方法。 A storage for storing position information indicating the position of the information processing apparatus, position information indicating the position of the display object in the real space, and mode information indicating the display mode of the display object in association with the identification information An augmented reality providing method in an information processing apparatus having a display unit, a display unit that displays a display object, and a shooting unit that performs shooting,
A reading step of reading position information and mode information associated with identification information of a display object within a certain distance from the position information specified by the specifying unit from the storage unit;
Displaying a plurality of display objects generated from a plurality of pieces of aspect information associated with a plurality of pieces of identification information read in the reading step at a display position in the display unit that matches a video imaged by the imaging unit; If it is determined that a display switching instruction has been received through a user operation, the distances are calculated from the position information of the information processing apparatus and the plurality of position information of the plurality of display objects, and the dimensions of the plurality of display objects are calculated. A display control step of displaying the larger as the calculated distance is longer,
An augmented reality providing method characterized by comprising:
前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出手段と、
前記読出手段で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトの各々が重ならない前記表示部における表示位置に前記複数の表示オブジェクトを表示する表示制御手段と、
して機能させるプログラム。 A specifying unit for specifying position information indicating the position of the computer, a storage unit for storing position information indicating the position of the display object in the real space and mode information indicating the display mode of the display object in association with identification information; A computer having a display unit on which display objects are displayed,
Reading means for reading position information and mode information associated with identification information of display objects within a certain distance from the position information specified by the specifying unit from the storage unit;
Display control for displaying the plurality of display objects at a display position in the display unit in which each of the plurality of display objects generated from the plurality of pieces of aspect information associated with the plurality of pieces of identification information read by the reading unit does not overlap. Means,
Program to make it work.
前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出手段と、
前記読出手段で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトを前記撮影部で撮影された映像に整合する前記表示部における表示位置に表示し、ユーザ操作を介して表示の切り替えの指示を受け付けたと判断すると、当該コンピュータの位置情報と前記複数の表示オブジェクトの複数の位置情報とから夫々の距離を算出し、前記複数の表示オブジェクトの寸法を前記算出した距離が長いほど大きくして表示する表示制御手段と、
して機能させるプログラム。 A specifying unit for specifying position information indicating the position of the computer, a storage unit for storing position information indicating the position of the display object in the real space and mode information indicating the display mode of the display object in association with identification information; A computer having a display unit for displaying a display object and a photographing unit for photographing;
Reading means for reading position information and mode information associated with identification information of display objects within a certain distance from the position information specified by the specifying unit from the storage unit;
Displaying a plurality of display objects generated from a plurality of pieces of aspect information associated with a plurality of pieces of identification information read by the reading unit at a display position in the display unit that matches a video imaged by the imaging unit; If it is determined that a display switching instruction has been received through a user operation, each distance is calculated from the position information of the computer and the plurality of position information of the plurality of display objects, and the dimensions of the plurality of display objects are calculated. Display control means for displaying a larger distance as the calculated distance is longer;
Program to make it work.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011061442A JP5755915B2 (en) | 2011-03-18 | 2011-03-18 | Information processing apparatus, augmented reality providing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011061442A JP5755915B2 (en) | 2011-03-18 | 2011-03-18 | Information processing apparatus, augmented reality providing method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015103484A Division JP5965515B2 (en) | 2015-05-21 | 2015-05-21 | Information processing apparatus, augmented reality providing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012198668A true JP2012198668A (en) | 2012-10-18 |
JP5755915B2 JP5755915B2 (en) | 2015-07-29 |
Family
ID=47180839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011061442A Active JP5755915B2 (en) | 2011-03-18 | 2011-03-18 | Information processing apparatus, augmented reality providing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5755915B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104469464A (en) * | 2013-09-25 | 2015-03-25 | 精工爱普生株式会社 | Image display device, method of controlling image display device, computer program, and image display system |
JP2015090524A (en) * | 2013-11-05 | 2015-05-11 | ソニー株式会社 | Information processor, information processing method, and program |
CN104808956A (en) * | 2014-01-23 | 2015-07-29 | 富士通株式会社 | System and method for controlling a display |
JP2015227919A (en) * | 2014-05-30 | 2015-12-17 | セイコーエプソン株式会社 | Image display device, control method of the same, computer program and image display system |
WO2016031358A1 (en) * | 2014-08-27 | 2016-03-03 | ソニー株式会社 | Display control device, display control method, and program |
US10235776B2 (en) | 2015-09-07 | 2019-03-19 | Kabushiki Kaisha Toshiba | Information processing device, information processing method, and information processing program |
WO2019130708A1 (en) * | 2017-12-25 | 2019-07-04 | ソニー株式会社 | Information processing device, information processing method, and program |
US10445911B2 (en) | 2016-05-25 | 2019-10-15 | Fujitsu Limited | Display control method and display control device |
JPWO2021256242A1 (en) * | 2020-06-15 | 2021-12-23 | ||
JP2023065528A (en) * | 2019-03-18 | 2023-05-12 | マクセル株式会社 | Head-mounted information processing apparatus and head-mounted display system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010118019A (en) * | 2008-11-14 | 2010-05-27 | Sharp Corp | Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium |
JP2010238098A (en) * | 2009-03-31 | 2010-10-21 | Ntt Docomo Inc | Terminal device, information presentation system, and terminal screen display method |
JP2012027606A (en) * | 2010-07-21 | 2012-02-09 | Brilliantservice Co Ltd | Air tag display system |
-
2011
- 2011-03-18 JP JP2011061442A patent/JP5755915B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010118019A (en) * | 2008-11-14 | 2010-05-27 | Sharp Corp | Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium |
JP2010238098A (en) * | 2009-03-31 | 2010-10-21 | Ntt Docomo Inc | Terminal device, information presentation system, and terminal screen display method |
JP2012027606A (en) * | 2010-07-21 | 2012-02-09 | Brilliantservice Co Ltd | Air tag display system |
Non-Patent Citations (2)
Title |
---|
柴田 史久 FUMIHISA SHIBATA: "拡張現実感(AR) Augmented Reality", 情報処理, vol. 第51巻 第4号, JPN6014039475, 15 April 2010 (2010-04-15), JP, pages 385 - 391, ISSN: 0002901022 * |
近藤 純司 JUNNJI KONNDOU: "カメラの向こうに拡がるセカイ セカイカメラで目指すもの", 月刊アスキードットテクノロジーズ ASCII.TECHNOLOGIES, vol. 第14巻 第11号, JPN6015015139, 1 November 2009 (2009-11-01), JP, pages 90 - 95, ISSN: 0003054998 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10451874B2 (en) | 2013-09-25 | 2019-10-22 | Seiko Epson Corporation | Image display device, method of controlling image display device, computer program, and image display system |
CN104469464A (en) * | 2013-09-25 | 2015-03-25 | 精工爱普生株式会社 | Image display device, method of controlling image display device, computer program, and image display system |
CN104469464B (en) * | 2013-09-25 | 2020-03-06 | 精工爱普生株式会社 | Image display device, method for controlling image display device, computer program, and image display system |
JP2015090524A (en) * | 2013-11-05 | 2015-05-11 | ソニー株式会社 | Information processor, information processing method, and program |
US9836115B2 (en) | 2013-11-05 | 2017-12-05 | Sony Corporation | Information processing device, information processing method, and program |
CN104808956A (en) * | 2014-01-23 | 2015-07-29 | 富士通株式会社 | System and method for controlling a display |
JP2015227919A (en) * | 2014-05-30 | 2015-12-17 | セイコーエプソン株式会社 | Image display device, control method of the same, computer program and image display system |
US10796669B2 (en) | 2014-08-27 | 2020-10-06 | Sony Corporation | Method and apparatus to control an augmented reality head-mounted display |
JPWO2016031358A1 (en) * | 2014-08-27 | 2017-06-08 | ソニー株式会社 | Display control apparatus, display control method, and program |
WO2016031358A1 (en) * | 2014-08-27 | 2016-03-03 | ソニー株式会社 | Display control device, display control method, and program |
US10235776B2 (en) | 2015-09-07 | 2019-03-19 | Kabushiki Kaisha Toshiba | Information processing device, information processing method, and information processing program |
US10445911B2 (en) | 2016-05-25 | 2019-10-15 | Fujitsu Limited | Display control method and display control device |
WO2019130708A1 (en) * | 2017-12-25 | 2019-07-04 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2023065528A (en) * | 2019-03-18 | 2023-05-12 | マクセル株式会社 | Head-mounted information processing apparatus and head-mounted display system |
US11972037B2 (en) | 2019-03-18 | 2024-04-30 | Maxell, Ltd. | Head mounted information processing apparatus and head mounted display system |
JPWO2021256242A1 (en) * | 2020-06-15 | 2021-12-23 | ||
WO2021256242A1 (en) * | 2020-06-15 | 2021-12-23 | Necソリューションイノベータ株式会社 | Guide device, guide system, guide method, program, and storage medium |
JP7355467B2 (en) | 2020-06-15 | 2023-10-03 | Necソリューションイノベータ株式会社 | Guide device, guide system, guide method, program, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP5755915B2 (en) | 2015-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5755915B2 (en) | Information processing apparatus, augmented reality providing method, and program | |
US9916673B2 (en) | Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device | |
US9582166B2 (en) | Method and apparatus for rendering user interface for location-based service having main view portion and preview portion | |
EP3050030B1 (en) | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor | |
US8897498B2 (en) | Mobile imaging device as navigator | |
CA2799443C (en) | Method and apparatus for presenting location-based content | |
CN104731337B (en) | Method for representing virtual information in true environment | |
KR101295712B1 (en) | Apparatus and Method for Providing Augmented Reality User Interface | |
US20160063671A1 (en) | A method and apparatus for updating a field of view in a user interface | |
CN109584374A (en) | The method, apparatus and computer readable storage medium of interactive navigation auxiliary are provided for using removable leader label | |
JP7032451B2 (en) | Dynamically changing the visual properties of indicators on digital maps | |
JP2013077328A (en) | Information processing system, information processing method and program | |
US9928305B2 (en) | Method and apparatus of physically moving a portable unit to view composite webpages of different websites | |
US20130120450A1 (en) | Method and apparatus for providing augmented reality tour platform service inside building by using wireless communication device | |
JP5952667B2 (en) | Message management apparatus, message management method, and program | |
JP6093841B2 (en) | System, information processing method and program | |
JP2012088801A (en) | Electronic book device and electronic book program | |
JP4710217B2 (en) | Information presenting apparatus, information presenting method, information presenting system, and computer program | |
JP5705793B2 (en) | Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program | |
JP5965515B2 (en) | Information processing apparatus, augmented reality providing method, and program | |
JP7065455B2 (en) | Spot information display system | |
JP4812609B2 (en) | Navigation system and navigation device | |
KR20200083747A (en) | method of processing VR video | |
JP2011095081A (en) | Guidance system, guidance method, route search device, and terminal device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130726 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141007 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150512 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150528 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5755915 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |