JP6711137B2 - 表示制御プログラム、表示制御方法および表示制御装置 - Google Patents

表示制御プログラム、表示制御方法および表示制御装置 Download PDF

Info

Publication number
JP6711137B2
JP6711137B2 JP2016104192A JP2016104192A JP6711137B2 JP 6711137 B2 JP6711137 B2 JP 6711137B2 JP 2016104192 A JP2016104192 A JP 2016104192A JP 2016104192 A JP2016104192 A JP 2016104192A JP 6711137 B2 JP6711137 B2 JP 6711137B2
Authority
JP
Japan
Prior art keywords
object data
display
area
unit
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016104192A
Other languages
English (en)
Other versions
JP2017211811A (ja
Inventor
敬史 酒井
敬史 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016104192A priority Critical patent/JP6711137B2/ja
Priority to US15/581,274 priority patent/US10445911B2/en
Publication of JP2017211811A publication Critical patent/JP2017211811A/ja
Application granted granted Critical
Publication of JP6711137B2 publication Critical patent/JP6711137B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示制御プログラム、表示制御方法および表示制御装置に関する。
近年、例えばスマートフォン等の端末を用いて、撮像された画像上にオブジェクトデータを重畳表示させるAR(Augmented Reality)技術が提案されている。この様なAR技術では、例えば、端末を対象物に向けて撮像すると、端末の位置および向きの情報や、撮像画像に含まれるマーカに基づいて、撮像画像にオブジェクトデータが重畳表示される。また、複数のオブジェクトデータを表示する場合に、オブジェクトデータ同士が重ならないように表示することが提案されている。
特開2012−198668号公報
しかしながら、オブジェクトデータは、オブジェクトデータを表示させる位置が撮像画像内にある場合に、撮像画像に重畳表示されるため、例えば、端末が対象物に向いた状態から通常の操作位置に戻されると、オブジェクトデータが表示されなくなる。このため、通常の操作位置では、オブジェクトデータの位置を把握することが困難である。
一つの側面では、本発明は、オブジェクトデータの位置を容易に把握できる表示制御プログラム、表示制御方法および表示制御装置を提供することにある。
一つの態様では、表示制御プログラムは、端末の位置および向きに応じたエリア内の位置に対応付けられたオブジェクトデータを表示部に表示させる処理をコンピュータに実行させる。すなわち、表示制御プログラムは、オブジェクトデータと位置とを対応付けて記憶する記憶部を参照して、前記エリア外の位置に対応付けられたオブジェクトデータと、該オブジェクトデータに対応付けられた位置とを特定する処理をコンピュータに実行させる。表示制御プログラムは、特定した前記オブジェクトデータに対応付けられた位置と、前記端末の位置および向きとに基づき、特定した前記オブジェクトデータに対応付けられた位置の前記端末に対する方向を特定する処理をコンピュータに実行させる。表示制御プログラムは、前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、特定した前記オブジェクトデータを表示する処理をコンピュータに実行させる。
オブジェクトデータの位置を容易に把握できる。
図1は、実施例1の端末装置の構成の一例を示すブロック図である。 図2は、オブジェクトデータの重畳表示の一例を示す図である。 図3は、オブジェクトデータ記憶部の一例を示す図である。 図4は、表示テーブル記憶部の一例を示す図である。 図5は、オブジェクトデータの位置および方向と表示領域における表示位置との関係の一例を示す図である。 図6は、オブジェクトデータの表示の遷移の一例を示す図である。 図7は、オブジェクトデータの表示の遷移の他の一例を示す図である。 図8は、実施例1の表示制御処理の一例を示すフローチャートである。 図9は、実施例1の表示制御処理の一例を示すフローチャートである。 図10は、実施例2の端末装置の構成の一例を示すブロック図である。 図11は、実施例2の表示制御処理の一例を示すフローチャートである。 図12は、実施例2の表示制御処理の一例を示すフローチャートである。 図13は、表示制御プログラムを実行するコンピュータの一例を示す図である。
以下、図面に基づいて、本願の開示する表示制御プログラム、表示制御方法および表示制御装置の実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。
図1は、実施例1の端末装置の構成の一例を示すブロック図である。図1に示す端末装置100は、例えば、ユーザが手に持って操作する情報処理装置であり、タブレット端末やスマートフォン等の移動体通信端末等を用いることができる。なお、以下の説明では、端末装置100を単に端末とも表現する場合がある。
端末装置100は、該端末装置100の位置および向きに応じたエリア内の位置に対応付けられたオブジェクトデータを表示部に表示させる。すなわち、端末装置100は、オブジェクトデータと位置とを対応付けて記憶する記憶部を参照して、エリア外の位置に対応付けられたオブジェクトデータと、該オブジェクトデータに対応付けられた位置とを特定する。端末装置100は、特定したオブジェクトデータに対応付けられた位置と、端末装置100の位置および向きとに基づき、特定したオブジェクトデータに対応付けられた位置の端末装置100に対する方向を特定する。端末装置100は、表示部の表示領域のうちの、特定した方向に応じた領域に、特定したオブジェクトデータを表示する。これにより、端末装置100は、オブジェクトデータの位置を容易に把握できる。
ここで、図2を用いて従来のオブジェクトデータの重畳表示について説明する。図2は、オブジェクトデータの重畳表示の一例を示す図である。図2(a)は、例えばスマートフォン等の端末11の表示操作部12に、対象物として街中が撮像された撮像画像が表示され、オブジェクトデータとしてARコンテンツが重畳表示された状態である。このとき、撮像画像上には、建物13にARコンテンツ13aが重畳表示され、建物14にARコンテンツ14aが重畳表示されている。
図2(b)は、図2(a)の状態から、端末11が通常の操作位置に戻され、下方向が撮像されている状態である。図2(b)では、図2(a)で重畳表示されていたARコンテンツ13a、14aは、建物13、14がともに撮像範囲から外れているため、表示されなくなる。つまり、ユーザは、通常の操作位置では、ARコンテンツ13a、14aの位置を把握することが困難となる。
図1に示すように、端末装置100は、通信部110と、表示操作部111と、位置検出センサ112と、カメラ113と、記憶部120と、制御部130とを有する。なお、端末装置100は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイス等の機能部を有することとしてもかまわない。
通信部110は、例えば、第3世代移動通信システム、LTE(Long Term Evolution)等の携帯電話回線および無線LAN(Local Area Network)等の通信モジュール等によって実現される。通信部110は、ネットワークを介して図示しないサーバ装置と接続され、サーバ装置との間で情報の通信を司る通信インタフェースである。通信部110は、重畳表示に用いるオブジェクトデータをサーバ装置から受信する。通信部110は、受信したオブジェクトデータを制御部130に出力する。
表示操作部111は、各種情報を表示するための表示デバイス、および、ユーザから各種操作を受け付ける入力デバイスである。例えば、表示操作部111は、表示デバイスとして液晶ディスプレイ等によって実現される。また、例えば、表示操作部111は、入力デバイスとして、タッチパネル等によって実現される。つまり、表示操作部111は、表示デバイスと入力デバイスとが一体化される。表示操作部111は、ユーザによって入力された操作を操作情報として制御部130に出力する。
位置検出センサ112は、端末装置100の位置および向きを検出するセンサである。位置検出センサ112は、例えば、位置を検出するGPS(Global Positioning System)受信機と、向きを検出する加速度センサ、ジャイロセンサおよび方位センサとを有する。位置検出センサ112は、GPS受信機において受信したGPS信号に基づいて、経度緯度および高度を含む位置情報を生成する。位置検出センサ112は、加速度センサ、ジャイロセンサおよび方位センサを用いて、端末装置100の向きを検出し、検出した向きの情報から方向情報を生成する。位置検出センサ112は、制御部130から検出指示が入力されると、位置情報および方向情報の生成を開始する。加速度センサとしては、例えば、ピエゾ抵抗型や静電容量型等の3軸加速度センサを用いることができる。ジャイロセンサとしては、例えば振動型のジャイロセンサを用いることができる。方位センサとしては、例えば、磁気センサを用いることができる。位置検出センサ112は、生成した位置情報および方向情報を制御部130に出力する。なお、位置検出センサ112は、その他の測位システムに対応するセンサであってもよい。
カメラ113は、撮像装置の一例であり、例えば端末装置100の背面、つまり表示操作部111と反対側の面に設けられ、周囲を撮像する。カメラ113は、例えば、撮像素子としてCMOS(Complementary Metal Oxide Semiconductor)イメージセンサまたはCCD(Charge Coupled Device)イメージセンサ等を用いて、画像を撮像する。カメラ113は、撮像素子が受光した光を光電変換しA/D(Analog/Digital)変換を行って画像を生成する。カメラ113は、生成した画像を制御部130に出力する。
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子等の記憶装置によって実現される。記憶部120は、オブジェクトデータ記憶部121と、表示テーブル記憶部122とを有する。また、記憶部120は、制御部130での処理に用いる情報を記憶する。
オブジェクトデータ記憶部121は、サーバ装置から取得したオブジェクトデータを記憶する。図3は、オブジェクトデータ記憶部の一例を示す図である。図3に示すように、オブジェクトデータ記憶部121は、「オブジェクトID(Identifier)」、「オブジェクトデータ」、「位置情報」といった項目を有する。オブジェクトデータ記憶部121は、例えばオブジェクトデータごとに1レコードとして記憶する。なお、オブジェクトデータ記憶部121に記憶されるオブジェクトデータは、予め図示しないサーバ装置から取得される。
「オブジェクトID」は、オブジェクトデータ、つまりARコンテンツを識別する識別子である。「オブジェクトデータ」は、サーバ装置から取得したオブジェクトデータを示す情報である。「オブジェクトデータ」は、例えば、オブジェクトデータ、つまりARコンテンツを構成するデータファイルである。「位置情報」は、オブジェクトデータに対応付けられている位置情報である。「位置情報」は、対応付けられたオブジェクトデータの世界座標系における位置情報を示す情報である。
表示テーブル記憶部122は、オブジェクトデータと、該オブジェクトデータが最初に表示された位置および時刻とを対応付ける表示テーブルを記憶する。図4は、表示テーブル記憶部の一例を示す図である。図4に示すように、表示テーブル記憶部122は、表示テーブルとして、オブジェクトデータの先頭アドレス122sと、各オブジェクトデータに対応するデータ122a、122b、122cとが格納されるキューを有する。なお、図4では、データ122aを一例として説明するが、データ122b、122cも同様の構成であるので、その説明は省略する。
データ122aは、オブジェクトに関する情報を記憶する項目122a1、および、オブジェクトデータが最初に表示された位置および時刻を記憶する項目122a2を有する。また、データ122aは、次のレコードのアドレスを示す次アドレス122a3、前のデータまたは先頭アドレス122sを示す前アドレス122a4、および、ユーザが表示されたオブジェクトデータを削除した際にマークする削除フラグ122a5を有する。
項目122a1は、例えば、オブジェクトデータに対応付けられた位置に存在する対象物の名称と、オブジェクトデータに対応付けられた位置を示す位置情報と、オブジェクトデータを重畳表示させる仮想空間の座標とを含む。項目122a1では、例えば、名称「A食堂」の対象物が、「北緯35度13分、東経132度95分」に位置し、「A食堂」に対応するオブジェクトデータが仮想空間の座標「x1,y1,z1」に対応付けられることを示す。ここで、仮想空間の座標は、表示操作部111に表示される、つまりオブジェクトデータが表示される表示領域(以下、エリアともいう。)における座標である。
項目122a2は、オブジェクトデータが最初に表示された位置および時刻を含む。項目122a2は、例えば、ユーザが、オブジェクトデータが最初に表示された位置から移動して、当該オブジェクトデータを表示する必要が無くなったか否かを判定するために用いられる情報である。すなわち、項目122a2は、データ122aをキューから削除するか否かを判定するために用いられる情報である。
制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部130は、第1特定部131と、第2特定部132と、表示制御部133とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
第1特定部131は、ARアプリケーションが起動されると、位置検出センサ112に対して検出指示を出力する。第1特定部131には、位置検出センサ112から検出指示に応じて位置情報および方向情報が入力される。すなわち、第1特定部131は、端末装置100の位置および向きの取得を開始する。第1特定部131は、位置情報および方向情報が入力されると、オブジェクトデータ記憶部121を参照し、入力された位置情報から所定距離内の位置情報を持つオブジェクトデータを特定する。第1特定部131は、特定したオブジェクトデータのオブジェクトIDと、位置情報および方向情報とを表示制御部133に出力する。
なお、第1特定部131は、表示操作部111に表示されるエリア内に対応する位置にあるオブジェクトデータだけでなく、エリア外に対応する位置にあるオブジェクトデータについても特定する。すなわち、第1特定部131は、オブジェクトデータと位置とを対応付けて記憶するオブジェクトデータ記憶部121を参照して、エリア外の位置に対応付けられたオブジェクトデータと、該オブジェクトデータに対応付けられた位置とを特定する。
また、第1特定部131は、端末装置100の移動量が所定以上か、または、所定時間経過したか否かを判定する。第1特定部131は、端末装置100の移動量が所定以上か、または、所定時間経過した場合には、表示テーブル記憶部122に記憶される表示テーブルを初期化する。なお、当該場合は、例えば、ユーザが移動した場合、または、端末装置100が操作されていない場合に相当する。所定時間は、任意の時間とすることができ、例えば5分とすることができる。
第1特定部131には、表示制御部133から表示領域であるエリアの範囲を示すエリア情報が入力される。第1特定部131は、端末装置100の移動量が所定未満か、または、所定時間経過していない場合には、エリア情報に基づいて、端末装置100の移動により表示テーブルにないオブジェクトデータがエリア外となるか否かを判定する。第1特定部131は、表示テーブルにないオブジェクトデータがエリア外とならない場合には、引き続き端末装置100の移動量が所定以上か、または、所定時間経過したか否かの判定を行う。
第1特定部131は、表示テーブルにないオブジェクトデータがエリア外となる場合には、エリア外となるオブジェクトデータの情報を表示テーブル記憶部122の表示テーブルに記憶する。また、第1特定部131は、端末装置100の移動により新たにエリア内となるオブジェクトデータがあるか否かを判定する。第1特定部131は、新たにエリア内となるオブジェクトデータがある場合には、当該オブジェクトデータのオブジェクトIDを表示制御部133に出力するとともに、エリア外情報を第2特定部132に出力する。第1特定部131は、新たにエリア内となるオブジェクトデータがない場合には、エリア外情報を第2特定部132に出力する。
第1特定部131は、エリア情報に基づいて、端末装置100の移動により表示テーブルにあるオブジェクトデータがエリア内となるか否かを判定する。第1特定部131は、表示テーブルにあるオブジェクトデータがエリア内となる場合には、当該オブジェクトデータを再表示させる旨の表示情報を表示制御部133に出力する。第1特定部131は、表示テーブルにあるオブジェクトデータがエリア内とならない場合には、再表示させるオブジェクトデータがない旨の表示情報を表示制御部133に出力する。
第2特定部132には、第1特定部131からエリア外情報が入力され、表示制御部133からエリア情報が入力される。第2特定部132は、第1特定部131からエリア外情報が入力されると、表示テーブル記憶部122の表示テーブルからエリア外となるオブジェクトデータの情報を取得する。第2特定部132は、エリア情報と、取得したエリア外となるオブジェクトデータの情報とに基づいて、表示操作部111の表示領域であるエリアにおいて、エリア外となるオブジェクトデータの位置に対する方向を特定する。すなわち、第2特定部132は、特定したオブジェクトデータに対応付けられた位置と、端末装置100の位置および向きとに基づき、特定したオブジェクトデータに対応付けられた位置の端末装置100に対する方向を特定する。第2特定部132は、特定した方向に対応する表示領域内、つまりエリア内の座標を表示制御部133に出力する。
ここで、図5を用いてエリア内の座標の算出について説明する。図5は、オブジェクトデータの位置および方向と表示領域における表示位置との関係の一例を示す図である。なお、エリアの設定については、表示制御部133で設定を行うので、ここでは、既にエリアが設定されているものとして説明する。図5の例では、表示領域21、つまりエリアの中心22を原点として2次元の座標が設定されている。第2特定部132は、エリア外の領域を、中心22を通るx軸、y軸および対角線により8つの領域に分割する。第2特定部132は、分割した各領域においてエリア外となるオブジェクトデータの位置から中心22を通る線分と、エリアの境界線、つまり表示領域21の画面の外枠との交点を求める。
第2特定部132は、例えば、第2領域にエリア外となるオブジェクトデータの位置23がある場合では、エリア外となるオブジェクトデータの位置23の座標(x1,y1)と中心22とを結ぶ線分24を引く。第2特定部132は、線分24と、エリアの境界線との交点25を求める。すなわち、第2特定部132は、第2領域を、y≦Ymax/Xmax、かつ、y≧0、かつ、x≧Xmaxとすると、交点25のy1’は、y1’:y1=Xmax:x1であるので、y1’=Xmax×y1/x1となる。つまり、エリア外となるオブジェクトデータの位置23に対応するエリア内の座標である交点25の座標は、(Xmax,y1’)となる。なお、エリア内の座標は、2次元だけでなく3次元の座標としてもよい。
図1の説明に戻って、表示制御部133は、ARアプリケーションが起動されると、カメラ113からの撮像画像の取得を開始する。表示制御部133には、第1特定部131からオブジェクトIDと、位置情報および方向情報とが入力される。表示制御部133は、入力された位置情報および方向情報に基づいて、表示領域であるエリアを設定し、設定したエリアをエリア情報として第1特定部131に出力する。
表示制御部133は、エリアを設定すると、オブジェクトデータ記憶部121を参照し、入力されたオブジェクトIDに基づいて、撮像画像に対してエリア内に位置するオブジェクトデータの重畳表示を開始する。また、表示制御部133は、第2特定部132からエリア内の座標が入力されると、表示領域(エリア)内の特定した方向に応じた領域にエリア外となるオブジェクトデータを重畳表示する。
また、表示制御部133は、特定した方向に応じた領域にエリア外となるオブジェクトデータを重畳表示している場合に、当該オブジェクトデータの削除操作を受け付けたか否かを判定する。オブジェクトデータの削除操作は、例えば、オブジェクトデータがフリック操作によって画面外に移動される場合が挙げられる。表示制御部133は、オブジェクトデータの削除操作を受け付けた場合には、表示領域から当該オブジェクトデータを削除する。また、表示制御部133は、表示テーブル記憶部122の表示テーブルの対応するデータに、削除フラグを設定する。表示制御部133は、オブジェクトデータの削除操作を受け付けていない場合には、削除フラグを設定しない。
表示制御部133は、第1特定部131から再表示させる旨の表示情報が入力されると、表示テーブル記憶部122を参照し、エリア内となるオブジェクトデータを撮像画像に重畳表示する。このとき、表示制御部133は、重畳表示するエリア内のオブジェクトデータとして、表示テーブルに記憶されているオブジェクトデータの情報のうち、削除フラグが設定されていないものを撮像画像に重畳表示する。すなわち、表示制御部133は、ユーザにより削除する旨の操作がされたオブジェクトデータは再表示しない。
表示制御部133は、第1特定部131から再表示させるオブジェクトデータがない旨の表示情報が入力されると、現在表示中のオブジェクトデータがある場合には、引き続き当該オブジェクトデータを撮像画像に重畳表示する。表示制御部133は、表示情報に対する処理が完了すると、ユーザから終了を受け付けたか否かを判定する。表示制御部133は、終了を受け付けていない場合には、第1特定部131に引き続き表示制御処理を行う旨を指示する。表示制御部133は、終了を受け付けた場合には、表示制御処理を終了する。
また、表示制御部133は、終了を受け付けた場合や、ARアプリケーションが停止された場合には、表示テーブル記憶部122の表示テーブルをクリアする。さらに、表示制御部133は、ユーザが重畳表示を行っていた場所から例えば屋内に移動して、GPS信号が途絶えた場合に表示テーブル記憶部122の表示テーブルをクリアするようにしてもよい。また、表示制御部133は、例えばユーザが重畳表示中のオブジェクトデータを全てフリック操作で画面上から削除した場合に、表示テーブル記憶部122の表示テーブルをクリアするようにしてもよい。さらに、表示制御部133は、例えばユーザが重畳表示中のオブジェクトデータを全て削除する操作、例えばシェイク操作を行った場合に、表示テーブル記憶部122の表示テーブルをクリアするようにしてもよい。
ここで、図6および図7を用いてオブジェクトデータの表示の遷移について説明する。図6は、オブジェクトデータの表示の遷移の一例を示す図である。図6(a)は、端末装置100を対象物31、32に向けた状態である。このとき、表示操作部111には、対象物31、32を含む撮像画像が表示され、さらに、対象物31の位置に対応付けられたオブジェクトデータ31aと、対象物32の位置に対応付けられたオブジェクトデータ32aとが撮像画像に重畳表示されている。なお、図6および図7の説明では、表示操作部111が表示領域であるエリアに相当する。
図6(b)は、図6(a)の状態からユーザが端末装置100を持って右方向に視点を動かした状態である。このとき、表示操作部111に表示される撮像画像は、対象物31、32がフレームアウトし、対象物33が新たに含まれる。オブジェクトデータ31a、32aは、対象物31、32が表示操作部111の表示領域から左方向にフレームアウトしたので、左側の境界に沿うように撮像画像に重畳表示される。すなわち、オブジェクトデータ31a、32aは、画面の左端に引っかかったように表示される。また、新たに撮像画像に含まれる対象物33の位置に対応付けられたオブジェクトデータ33aが撮像画像に重畳表示される。
図6(c)は、図6(b)の状態からユーザが端末装置100を手元の画面が見やすい位置に移動した状態、つまりカメラ113が床面方向を向いている状態である。表示操作部111に表示される撮像画像は、対象物33がフレームアウトし、対象物が含まれない状態となる。オブジェクトデータ31a、32aは、対象物31、32の位置に対応する方向である左上から上側の境界に沿うように撮像画像に重畳表示される。すなわち、オブジェクトデータ31a、32aは、画面の左上端から上端に引っかかったように表示される。また、オブジェクトデータ33aは、対象物33が表示操作部111の表示領域から上方向にフレームアウトしたので、上側の境界に沿うように撮像画像に重畳表示される。すなわち、オブジェクトデータ33aは、画面の上端に引っかかったように表示される。言い換えると、端末装置100では、端末装置100の向き等を変えると表示されなくなるオブジェクトデータを表示し続けることができる。また、端末装置100は、オブジェクトデータの元の位置を容易に推測できる。
なお、図6(c)の例では、オブジェクトデータ31a、32a、33aは、少しずらして表示されるので、複数のオブジェクトデータがあることが容易に判明する。また、重なっているオブジェクトデータは、例えばユーザがスワイプ等の操作を行うことで、移動することができる。また、重なっているオブジェクトデータは、例えばユーザがタップ等により選択することで、選択したオブジェクトデータを最前面に表示することにより、重なる順番を変更できるようにしてもよい。
図7は、オブジェクトデータの表示の遷移の他の一例を示す図である。図7(a)は、図6(a)と同様に、端末装置100を対象物31、32に向けた状態である。このとき、表示操作部111には、対象物31、32を含む撮像画像が表示され、さらに、対象物31の位置に対応付けられたオブジェクトデータ31aと、対象物32の位置に対応付けられたオブジェクトデータ32aとが撮像画像に重畳表示されている。
図7(b)は、図7(a)の状態からユーザが端末装置100を手元の画面が見やすい位置に移動した状態、つまりカメラ113が床面方向を向いている状態である。表示操作部111に表示される撮像画像は、対象物31、32がフレームアウトし、対象物が含まれない状態となる。オブジェクトデータ31a、32aは、対象物31、32の位置に対応する方向である上側の境界に沿うように撮像画像に重畳表示される。すなわち、オブジェクトデータ31a、32aは、画面の上端に引っかかったように表示される。図7(b)では、さらに、例えばユーザによるフリック操作34によって、オブジェクトデータ32aが画面外に移動されると、重畳表示されているオブジェクトデータ32aが画面上から削除される。
図7(c)は、図7(b)の状態からユーザが端末装置100を再び対象物31、32に向けた状態である。表示操作部111に表示される撮像画像は、対象物31、32が再度含まれる状態となる。このとき、オブジェクトデータ31aは、図7(a)の状態と同様に、対象物31に対応する位置に表示される。すなわち、端末装置100は、オブジェクトデータに対応付けられた位置がエリア内に移動した場合に、オブジェクトデータを表示操作部111に前回表示された態様と同じ態様で表示する。
これに対して、オブジェクトデータ32aは、図7(b)で削除され、表示テーブルの削除フラグが設定されているので、対象物32が撮像画像に含まれても重畳表示されない状態となる。すなわち、端末装置100は、オブジェクトデータに対応付けられた位置がエリア内に移動した場合に、オブジェクトデータに対応付けられた位置がエリア外にある際に、表示操作部111に表示しない指示を受け付けたオブジェクトデータを再表示しない。これにより、端末装置100は、ユーザが必要とする情報を含むオブジェクトデータのみを重畳表示することができる。
次に、実施例1の端末装置100の動作について説明する。図8および図9は、実施例1の表示制御処理の一例を示すフローチャートである。
端末装置100の表示制御部133は、ARアプリケーションが起動されると、カメラ113からの撮像画像の取得を開始する(ステップS1)。また、第1特定部131は、ARアプリケーションが起動されると、位置検出センサ112に対して検出指示を出力し、端末装置100の位置情報および方向情報の取得を開始する(ステップS2)。第1特定部131は、位置情報および方向情報が入力されると、オブジェクトデータ記憶部121を参照し、入力された位置情報から所定距離内の位置情報を持つオブジェクトデータを特定する。第1特定部131は、特定したオブジェクトデータのオブジェクトIDと、位置情報および方向情報とを表示制御部133に出力する。
表示制御部133には、第1特定部131からオブジェクトIDと、位置情報および方向情報とが入力される。表示制御部133は、入力された位置情報および方向情報に基づいて、表示領域であるエリアを設定し(ステップS3)、設定したエリアをエリア情報として第1特定部131に出力する。
表示制御部133は、エリアを設定すると、オブジェクトデータ記憶部121を参照し、入力されたオブジェクトIDに基づいて、撮像画像に対してエリア内に位置するオブジェクトデータの重畳表示を開始する(ステップS4)。
その後、端末装置100がユーザにより移動されると、第1特定部131は、端末装置100の移動量が所定以上か、または、所定時間経過したか否かを判定する(ステップS5)。第1特定部131は、端末装置100の移動量が所定以上か、または、所定時間経過した場合には(ステップS5:肯定)、表示テーブル記憶部122に記憶される表示テーブルを初期化する(ステップS6)。
第1特定部131は、端末装置100の移動量が所定未満か、または、所定時間経過していない場合には(ステップS5:否定)、端末装置100の移動により表示テーブルにないオブジェクトデータがエリア外となるか否かを判定する(ステップS7)。第1特定部131は、表示テーブルにないオブジェクトデータがエリア外とならない場合には(ステップS7:否定)、ステップS5に戻る。
第1特定部131は、表示テーブルにないオブジェクトデータがエリア外となる場合には(ステップS7:肯定)、エリア外となるオブジェクトデータの情報を表示テーブル記憶部122の表示テーブルに記憶する(ステップS8)。また、第1特定部131は、端末装置100の移動により新たにエリア内となるオブジェクトデータがあるか否かを判定する(ステップS9)。第1特定部131は、新たにエリア内となるオブジェクトデータがある場合には(ステップS9:肯定)、当該オブジェクトデータのオブジェクトIDを表示制御部133に出力するとともに、エリア外情報を第2特定部132に出力する。表示制御部133は、入力されたオブジェクトIDに基づいて、新たにエリア内となるオブジェクトデータの重畳表示を開始する(ステップS10)。第1特定部131は、新たにエリア内となるオブジェクトデータがない場合には(ステップS9:否定)、エリア外情報を第2特定部132に出力する。
第2特定部132は、第1特定部131からエリア外情報が入力されると、表示テーブル記憶部122の表示テーブルからエリア外となるオブジェクトデータの情報を取得する(ステップS11)。第2特定部132は、エリア情報と、取得したエリア外となるオブジェクトデータの情報とに基づいて、エリア外となるオブジェクトデータの位置に対する方向を特定する(ステップS12)。第2特定部132は、特定した方向に対応するエリア内の座標を表示制御部133に出力する。
表示制御部133は、第2特定部132からエリア内の座標が入力されると、エリア内の特定した方向に応じた領域にエリア外となるオブジェクトデータを重畳表示する(ステップS13)。また、表示制御部133は、特定した方向に応じた領域にエリア外となるオブジェクトデータを重畳表示している場合に、当該オブジェクトデータの削除操作を受け付けたか否かを判定する(ステップS14)。
表示制御部133は、オブジェクトデータの削除操作を受け付けた場合には(ステップS14:肯定)、表示領域から当該オブジェクトデータを削除する。また、表示制御部133は、表示テーブル記憶部122の表示テーブルの対応するデータに、削除フラグを設定する(ステップS15)。表示制御部133は、オブジェクトデータの削除操作を受け付けていない場合には(ステップS14:否定)、削除フラグを設定しない。
その後、端末装置100がユーザにより移動されると、第1特定部131は、エリア情報に基づいて、端末装置100の移動により表示テーブルにあるオブジェクトデータがエリア内となるか否かを判定する(ステップS16)。第1特定部131は、表示テーブルにあるオブジェクトデータがエリア内となる場合には(ステップS16:肯定)、当該オブジェクトデータを再表示させる旨の表示情報を表示制御部133に出力する。第1特定部131は、表示テーブルにあるオブジェクトデータがエリア内とならない場合には(ステップS16:否定)、再表示させるオブジェクトデータがない旨の表示情報を表示制御部133に出力する。
表示制御部133は、第1特定部131から再表示させる旨の表示情報が入力されると、表示テーブルに記憶されているオブジェクトデータの情報のうち、削除フラグが設定されておらず、エリア内となるオブジェクトデータを重畳表示する(ステップS17)。表示制御部133は、第1特定部131から再表示させるオブジェクトデータがない旨の表示情報が入力されると、現在表示中のオブジェクトデータがある場合には、引き続き当該オブジェクトデータを撮像画像に重畳表示する。表示制御部133は、表示情報に対する処理が完了すると、ユーザから終了を受け付けたか否かを判定する(ステップS18)。
表示制御部133は、終了を受け付けていない場合には(ステップS18:否定)、ステップS5に戻る。表示制御部133は、終了を受け付けた場合には(ステップS18:肯定)、表示制御処理を終了する。これにより、端末装置100は、オブジェクトデータの位置を容易に把握できる画面を提供することができる。また、端末装置100は、一度表示したオブジェクトデータを、端末装置100をユーザが見やすい位置に移動させた状態で確認できるので、視認性や操作性を向上することができる。また、端末装置100は、余分なオブジェクトデータが削除されると、再度同じ対象物に向けた場合に、削除されたオブジェクトデータを表示しないので、必要な情報のみを画面上に残して見ることができ、表示情報の選別を容易に行うことができる。また、端末装置100は、一度に表示されるオブジェクトデータだけでなく、現在撮像されていない情報も集めて1つの画面に表示できるので、情報の一覧性を増すことができる。
このように、端末装置100は、端末装置100の位置および向きに応じたエリア内の位置に対応付けられたオブジェクトデータを表示操作部111に表示させる。また、端末装置100は、オブジェクトデータと位置とを対応付けて記憶するオブジェクトデータ記憶部121を参照して、エリア外の位置に対応付けられたオブジェクトデータと、該オブジェクトデータに対応付けられた位置とを特定する。また、端末装置100は、特定したオブジェクトデータに対応付けられた位置と、端末装置100の位置および向きとに基づき、特定したオブジェクトデータに対応付けられた位置の端末装置100に対する方向を特定する。また、端末装置100は、表示操作部111の表示領域のうちの、特定した方向に応じた領域に、特定したオブジェクトデータを表示する。その結果、オブジェクトデータの位置を容易に把握できる。
また、端末装置100は、カメラ113により撮像されたエリアの撮像画像を取得する。また、端末装置100は、特定したオブジェクトデータを、取得した撮像画像に重畳して、新たな画像を生成する。また、端末装置100は、生成した新たな画像を表示操作部111に表示する。その結果、撮像画像に重畳表示されたオブジェクトデータの位置を容易に把握できる。
また、端末装置100では、オブジェクトデータは、該オブジェクトデータに対応付けられた位置がエリア内に含まれたことがあるオブジェクトデータである。その結果、一度重畳表示されたオブジェクトデータを、撮像されるエリアが変化しても重畳表示し続けることができる。
また、端末装置100は、オブジェクトデータに対応付けられた位置がエリア内に移動した場合に、オブジェクトデータを表示操作部111に前回表示された態様と同じ態様で表示する。その結果、一度重畳表示されたオブジェクトデータを、重畳表示しつつ撮像画像におけるオブジェクトデータに対応する位置に戻るように表示できる。
また、端末装置100は、オブジェクトデータに対応付けられた位置がエリア内に移動した場合に、オブジェクトデータに対応付けられた位置がエリア外にある際に、表示操作部111に表示しない指示を受け付けたオブジェクトデータを再表示しない。その結果、必要な情報のみを画面上に残して見ることができ、表示情報の選別を容易に行うことができる。
上記実施例1では、GPSを用いて位置情報を取得し、オブジェクトデータの位置情報に基づいて重畳表示を行ったが、マーカ等の基準物に基づいてオブジェクトデータの重畳表示を行ってもよく、この場合の実施の形態につき、実施例2として説明する。図10は、実施例2の端末装置の構成の一例を示すブロック図である。なお、実施例1の端末装置100と同一の構成には同一符号を付すことで、その重複する構成および動作の説明については省略する。
実施例2の端末装置200の制御部230は、実施例1の端末装置100の制御部130と比較して、検出部231と、算出部232とを有する。なお、検出部231および算出部232は、実施例1の第1特定部131に相当するので、同様の機能の説明は省略する場合がある。さらに、制御部230は、実施例1の制御部130と比較して、第2特定部132および表示制御部133に代えて、特定部233および表示制御部234を有する。同様に、特定部233は、実施例1の第2特定部132に相当するので、同様の機能の説明は省略する場合がある。
また、実施例2の端末装置200の記憶部220は、実施例1の端末装置100の記憶部120と比較して、オブジェクトデータ記憶部121に代えて、オブジェクトデータ記憶部221を有する。なお、オブジェクトデータ記憶部221は、オブジェクトデータ記憶部121と比較して、オブジェクトデータの位置情報を有しないのみであるので、その説明を省略する。
検出部231は、ARアプリケーションが起動されると、カメラ113からの撮像画像の取得を開始する。また、検出部231は、端末装置200の位置情報および方向情報の取得を開始する。検出部231は、撮像画像の取得を開始すると、撮像画像からマーカの検出を開始する。すなわち、検出部231は、撮像画像を解析し、オブジェクトデータと対応するマーカ、つまり基準物を検出する。言い換えると、検出部231は、端末装置200に設けられた撮像装置、つまりカメラ113により撮像された撮像画像から基準物を検出する。なお、マーカは、例えばARマーカを用いることができる。検出部231は、検出したマーカの情報を算出部232に出力する。また、検出部231は、位置情報および方向情報を算出部232および表示制御部234に出力する。
また、検出部231には、表示制御部234からエリア情報が入力される。検出部231は、端末装置200の移動量が所定以上か、または、所定時間経過したか否かを判定する。さらに、検出部231は、端末装置200の移動により表示テーブルにないオブジェクトデータがエリア外となるか否かを判定する。また、検出部231は、オブジェクトデータ記憶部221を参照し、マーカの情報に基づいて、端末装置200の移動により新たにエリア内となるオブジェクトデータがあるか否かを判定する。検出部231は、当該判定に基づいて、オブジェクトIDを表示制御部234に出力し、エリア外情報を特定部233に出力する。さらに、検出部231は、端末装置200の移動により表示テーブルにあるオブジェクトデータがエリア内となるか否かを判定する。検出部231は、当該判定に基づいて、表示情報を表示制御部234に出力する。なお、上述の各判定処理は、実施例1の第1特定部131での処理と同様であるので、その説明は省略する。
算出部232は、検出部231からマーカの情報が入力されると、マーカの情報に基づいて、検出されたマーカと端末装置200との相対位置を算出する。すなわち、算出部232は、検出された基準物に基づいて、基準物と端末装置200との相対位置を算出する。なお、相対位置は、仮想空間の座標、つまりエリアの座標における位置である。算出部232は、算出した相対位置と、位置情報および方向情報とに基づいて、実際の空間の位置情報を算出する。算出部232は、算出したエリアの座標および実際の空間の位置情報を表示テーブル記憶部122の表示テーブルに記憶する。また、算出部232は、オブジェクトデータ記憶部221を参照し、マーカの情報に基づいて、マーカに対応するオブジェクトデータのオブジェクトIDを取得する。算出部232は、オブジェクトIDと、算出した相対位置とを特定部233に出力する。
特定部233には、検出部231からエリア外情報が入力され、表示制御部234からエリア情報が入力される。特定部233は、算出部232からオブジェクトIDと、相対位置とが入力されると、入力された相対位置と、エリア情報とに基づいて、入力されたオブジェクトIDに対応するオブジェクトデータの方向を特定する。また、特定部233は、検出部231からエリア外情報が入力されると、表示テーブル記憶部122の表示テーブルからエリア外となるオブジェクトデータの情報を取得する。特定部233は、エリア情報と、取得したエリア外となるオブジェクトデータの情報とに基づいて、エリア外となるオブジェクトデータのマーカに対する方向を特定する。すなわち、特定部233は、端末装置200の位置および向きが変化した際に、算出した基準物と端末装置200との相対位置に基づいて、検出した基準物の端末装置200に対する方向を特定する。特定部233は、特定した方向に対応する表示領域内、つまりエリア内の座標を表示制御部234に出力する。
表示制御部234には、検出部231からオブジェクトIDと、位置情報および方向情報とが入力される。表示制御部234は、入力された位置情報および方向情報に基づいて、表示領域であるエリアを設定し、設定したエリアをエリア情報として検出部231および特定部233に出力する。
表示制御部234は、エリアを設定すると、オブジェクトデータ記憶部221を参照し、入力されたオブジェクトIDに基づいて、撮像画像に対してエリア内のマーカに対応するオブジェクトデータの重畳表示を開始する。また、表示制御部234は、特定部233からエリア内の座標が入力されると、表示領域(エリア)内の特定した方向に応じた領域にエリア外となるオブジェクトデータを重畳表示する。
また、表示制御部234は、特定した方向に応じた領域にエリア外となるオブジェクトデータを重畳表示している場合に、当該オブジェクトデータの削除操作を受け付けたか否かを判定する。また、表示制御部234は、入力された表示情報に応じてオブジェクトデータを重畳表示する。なお、これらの処理は、実施例1の表示制御部133での処理と同様であるので、その説明は省略する。また、表示制御部234は、終了を受け付けた場合や、ARアプリケーションが停止された場合の処理も、実施例1の表示制御部133での処理と同様であるので、その説明は省略する。
次に、実施例2の端末装置200の動作について説明する。図11および図12は、実施例2の表示制御処理の一例を示すフローチャートである。
端末装置200の検出部231は、ARアプリケーションが起動されると、カメラ113からの撮像画像の取得を開始する(ステップS1)。また、検出部231は、端末装置200の位置情報および方向情報の取得を開始する(ステップS2)。検出部231は、撮像画像の取得を開始すると、撮像画像からマーカの検出を開始する(ステップS21)。検出部231は、検出したマーカの情報を算出部232に出力する。また、検出部231は、位置情報および方向情報を表示制御部234に出力する。
算出部232は、検出部231からマーカの情報が入力されると、マーカの情報に基づいて、検出されたマーカと端末装置200との相対位置を算出する(ステップS22)。また、算出部232は、オブジェクトデータ記憶部221を参照し、マーカの情報に基づいて、マーカに対応するオブジェクトデータのオブジェクトIDを取得する。算出部232は、オブジェクトIDと、算出した相対位置とを特定部233に出力する。
表示制御部234には、検出部231からオブジェクトIDと、位置情報および方向情報とが入力される。表示制御部234は、入力された位置情報および方向情報に基づいて、表示領域であるエリアを設定し(ステップS3)、設定したエリアをエリア情報として検出部231および特定部233に出力する。
表示制御部234は、エリアを設定すると、オブジェクトデータ記憶部221を参照し、入力されたオブジェクトIDに基づいて、撮像画像に対してエリア内のマーカに対応するオブジェクトデータの重畳表示を開始する(ステップS23)。
その後、端末装置200がユーザにより移動されると、端末装置200は、ステップS5の処理に進む。端末装置200は、実施例1と同様に、ステップS5からステップS11の処理を実行する。なお、実施例2では、ステップS6の処理の後、ステップS22に進む。端末装置200は、ステップS11の処理の後、ステップS24の処理を実行する。特定部233は、オブジェクトIDと、相対位置と、エリア情報と、取得したエリア外となるオブジェクトデータの情報とに基づいて、エリア外となるオブジェクトデータのマーカに対する方向を特定する(ステップS24)。特定部233は、特定した方向に対応するエリア内の座標を表示制御部234に出力する。
端末装置200は、ステップS24の処理に続いて、実施例1と同様に、ステップS13からステップS18の処理を実行する。これにより、端末装置200は、オブジェクトデータの位置を容易に把握できる画面を提供することができる。また、端末装置200は、一度表示したオブジェクトデータを、端末装置200をユーザが見やすい位置に移動させた状態で確認できるので、視認性や操作性を向上することができる。また、端末装置200は、余分なオブジェクトデータが削除されると、再度同じ対象物に向けた場合に、削除されたオブジェクトデータを表示しないので、必要な情報のみを画面上に残して見ることができ、表示情報の選別を容易に行うことができる。また、端末装置200は、一度に表示されるオブジェクトデータだけでなく、現在撮像されていない情報も集めて1つの画面に表示できるので、情報の一覧性を増すことができる。
このように、端末装置200は、端末装置200の位置および向きに応じたエリア内の基準物に対応付けられたオブジェクトデータを表示操作部111に表示させる。すなわち、端末装置200は、端末装置200に設けられたカメラ113により撮像された撮像画像から基準物を検出する。また、端末装置200は、検出した基準物に基づいて、基準物と端末装置200との相対位置を算出する。また、端末装置200は、端末装置200の位置および向きが変化した際に、算出した基準物と端末装置200との相対位置に基づいて、検出した基準物の端末装置200に対する方向を特定する。また、端末装置200は、表示操作部111の表示領域のうちの、特定した方向に応じた領域に、検出した基準物に対応するオブジェクトデータを表示する。その結果、オブジェクトデータの位置を容易に把握できる。
なお、上記各実施例では、表示操作部111にオブジェクトデータの重畳表示を含む画面を表示したが、これに限定されない。例えば、端末装置100または200にHMD(Head Mounted Display)を接続してHMDに画面を表示し、HMDに設けられた位置検出センサの情報に基づいて、表示領域であるエリアの設定等を行ってもよい。
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、第1特定部131と第2特定部132とを統合してもよい。また、図示した各処理は、上記の順番に限定されるものではなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。
さらに、各装置で行われる各種処理機能は、CPU(又はMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。
ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図13は、表示制御プログラムを実行するコンピュータの一例を示す図である。
図13に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、データ入力を受け付ける入力装置302と、モニタ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る媒体読取装置304と、各種装置と接続するためのインタフェース装置305と、他の情報処理装置等と有線または無線により接続するための通信装置306とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM307と、フラッシュメモリ308とを有する。また、各装置301〜308は、バス309に接続される。
フラッシュメモリ308には、図1に示した第1特定部131、第2特定部132および表示制御部133の各処理部と同様の機能を有する表示制御プログラムが記憶される。また、フラッシュメモリ308には、図10に示した検出部231、算出部232、特定部233および表示制御部234の各処理部と同様の機能を有する表示制御プログラムが記憶されてもよい。また、フラッシュメモリ308には、オブジェクトデータ記憶部121または221、表示テーブル記憶部122、および、表示制御プログラムを実現するための各種データが記憶される。入力装置302は、例えば、コンピュータ300のユーザから操作情報等の各種情報の入力を受け付ける。モニタ303は、例えば、コンピュータ300のユーザに対して表示画面等の各種画面を表示する。インタフェース装置305は、例えばヘッドホン等が接続される。通信装置306は、例えば、図1または図10に示した通信部110と同様の機能を有し図示しないサーバ装置と接続され、サーバ装置と各種情報をやりとりする。
CPU301は、フラッシュメモリ308に記憶された各プログラムを読み出して、RAM307に展開して実行することで、各種の処理を行う。また、これらのプログラムは、コンピュータ300を図1に示した第1特定部131、第2特定部132および表示制御部133として機能させることができる。または、これらのプログラムは、コンピュータ300を図10に示した検出部231、算出部232、特定部233および表示制御部234として機能させることができる。
なお、上記の表示制御プログラムは、必ずしもフラッシュメモリ308に記憶されている必要はない。例えば、コンピュータ300が読み取り可能な記憶媒体に記憶されたプログラムを、コンピュータ300が読み出して実行するようにしてもよい。コンピュータ300が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこの表示制御プログラムを記憶させておき、コンピュータ300がこれらから表示制御プログラムを読み出して実行するようにしてもよい。
以上、本実施例を含む実施の形態に関し、さらに以下の付記を開示する。
(付記1)端末の位置および向きに応じたエリア内の位置に対応付けられたオブジェクトデータを表示部に表示させる表示制御プログラムにおいて、
オブジェクトデータと位置とを対応付けて記憶する記憶部を参照して、前記エリア外の位置に対応付けられたオブジェクトデータと、該オブジェクトデータに対応付けられた位置とを特定し、
特定した前記オブジェクトデータに対応付けられた位置と、前記端末の位置および向きとに基づき、特定した前記オブジェクトデータに対応付けられた位置の前記端末に対する方向を特定し、
前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、特定した前記オブジェクトデータを表示する、
処理をコンピュータに実行させることを特徴とする表示制御プログラム。
(付記2)撮像装置により撮像された前記エリアの撮像画像を取得し、
特定した前記オブジェクトデータを、取得した前記撮像画像に重畳して、新たな画像を生成し、
生成した前記新たな画像を前記表示部に表示する、
ことを特徴とする付記1に記載の表示制御プログラム。
(付記3)前記オブジェクトデータは、該オブジェクトデータに対応付けられた位置が前記エリア内に含まれたことがあるオブジェクトデータである、
ことを特徴とする付記1または2に記載の表示制御プログラム。
(付記4)前記表示する処理は、前記オブジェクトデータに対応付けられた位置が前記エリア内に移動した場合に、前記オブジェクトデータを前記表示部に前回表示された態様と同じ態様で表示する、
ことを特徴とする付記3に記載の表示制御プログラム。
(付記5)前記表示する処理は、前記オブジェクトデータに対応付けられた位置が前記エリア内に移動した場合に、前記オブジェクトデータに対応付けられた位置が前記エリア外にある際に、前記表示部に表示しない指示を受け付けたオブジェクトデータを再表示しない、
ことを特徴とする付記4に記載の表示制御プログラム。
(付記6)端末の位置および向きに応じたエリア内の基準物に対応付けられたオブジェクトデータを表示部に表示させる表示制御プログラムにおいて、
前記端末に設けられた撮像装置により撮像された撮像画像から前記基準物を検出し、
検出した前記基準物に基づいて、前記基準物と前記端末との相対位置を算出し、
前記端末の位置および向きが変化した際に、算出した前記基準物と前記端末との相対位置に基づいて、検出した前記基準物の前記端末に対する方向を特定し、
前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、検出した前記基準物に対応する前記オブジェクトデータを表示する、
処理をコンピュータに実行させることを特徴とする表示制御プログラム。
(付記7)端末の位置および向きに応じたエリア内の位置に対応付けられたオブジェクトデータを表示部に表示する表示制御方法において、
オブジェクトデータと位置とを対応付けて記憶する記憶部を参照して、前記エリア外の位置に対応付けられたオブジェクトデータと、該オブジェクトデータに対応付けられた位置とを特定し、
特定した前記オブジェクトデータに対応付けられた位置と、前記端末の位置および向きとに基づき、特定した前記オブジェクトデータに対応付けられた位置の前記端末に対する方向を特定し、
前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、特定した前記オブジェクトデータを表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記8)撮像装置により撮像された前記エリアの撮像画像を取得し、
特定した前記オブジェクトデータを、取得した前記撮像画像に重畳して、新たな画像を生成し、
生成した前記新たな画像を前記表示部に表示する、
ことを特徴とする付記7に記載の表示制御方法。
(付記9)前記オブジェクトデータは、該オブジェクトデータに対応付けられた位置が前記エリア内に含まれたことがあるオブジェクトデータである、
ことを特徴とする付記7または8に記載の表示制御方法。
(付記10)前記表示する処理は、前記オブジェクトデータに対応付けられた位置が前記エリア内に移動した場合に、前記オブジェクトデータを前記表示部に前回表示された態様と同じ態様で表示する、
ことを特徴とする付記9に記載の表示制御方法。
(付記11)前記表示する処理は、前記オブジェクトデータに対応付けられた位置が前記エリア内に移動した場合に、前記オブジェクトデータに対応付けられた位置が前記エリア外にある際に、前記表示部に表示しない指示を受け付けたオブジェクトデータを再表示しない、
ことを特徴とする付記10に記載の表示制御方法。
(付記12)端末の位置および向きに応じたエリア内の基準物に対応付けられたオブジェクトデータを表示部に表示する表示制御方法において、
前記端末に設けられた撮像装置により撮像された撮像画像から前記基準物を検出し、
検出した前記基準物に基づいて、前記基準物と前記端末との相対位置を算出し、
前記端末の位置および向きが変化した際に、算出した前記基準物と前記端末との相対位置に基づいて、検出した前記基準物の前記端末に対する方向を特定し、
前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、検出した前記基準物に対応する前記オブジェクトデータを表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記13)端末の位置および向きに応じたエリア内の位置に対応付けられたオブジェクトデータを表示部に表示する表示制御装置において、
オブジェクトデータと位置とを対応付けて記憶する記憶部を参照して、前記エリア外の位置に対応付けられたオブジェクトデータと、該オブジェクトデータに対応付けられた位置とを特定する第1特定部と、
特定した前記オブジェクトデータに対応付けられた位置と、前記端末の位置および向きとに基づき、特定した前記オブジェクトデータに対応付けられた位置の前記端末に対する方向を特定する第2特定部と、
前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、特定した前記オブジェクトデータを表示する表示制御部と、
を有することを特徴とする表示制御装置。
(付記14)前記表示制御部は、撮像装置により撮像された前記エリアの撮像画像を取得し、特定した前記オブジェクトデータを、取得した前記撮像画像に重畳して、新たな画像を生成し、生成した前記新たな画像を前記表示部に表示する、
ことを特徴とする付記13に記載の表示制御装置。
(付記15)前記オブジェクトデータは、該オブジェクトデータに対応付けられた位置が前記エリア内に含まれたことがあるオブジェクトデータである、
ことを特徴とする付記13または14に記載の表示制御装置。
(付記16)前記表示制御部は、前記オブジェクトデータに対応付けられた位置が前記エリア内に移動した場合に、前記オブジェクトデータを前記表示部に前回表示された態様と同じ態様で表示する、
ことを特徴とする付記15に記載の表示制御装置。
(付記17)前記表示制御部は、前記オブジェクトデータに対応付けられた位置が前記エリア内に移動した場合に、前記オブジェクトデータに対応付けられた位置が前記エリア外にある際に、前記表示部に表示しない指示を受け付けたオブジェクトデータを再表示しない、
ことを特徴とする付記16に記載の表示制御装置。
(付記18)端末の位置および向きに応じたエリア内の基準物に対応付けられたオブジェクトデータを表示部に表示する表示制御装置において、
前記端末に設けられた撮像装置により撮像された撮像画像から前記基準物を検出する検出部と、
検出した前記基準物に基づいて、前記基準物と前記端末との相対位置を算出する算出部と、
前記端末の位置および向きが変化した際に、算出した前記基準物と前記端末との相対位置に基づいて、検出した前記基準物の前記端末に対する方向を特定する特定部と、
前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、検出した前記基準物に対応する前記オブジェクトデータを表示する表示制御部と、
を有することを特徴とする表示制御装置。
100 端末装置
110 通信部
111 表示操作部
112 位置検出センサ
113 カメラ
120,220 記憶部
121,221 オブジェクトデータ記憶部
122 表示テーブル記憶部
130,230 制御部
131 第1特定部
132 第2特定部
133,234 表示制御部
231 検出部
232 算出部
233 特定部

Claims (10)

  1. 端末の位置および向きに応じたエリア内の位置に対応付けられたオブジェクトデータを表示部に表示させる表示制御プログラムにおいて、
    オブジェクトデータと位置とを対応付けて記憶する記憶部を参照して、前記エリア外の位置に対応付けられたオブジェクトデータと、該オブジェクトデータに対応付けられた位置とを特定し、
    特定した前記オブジェクトデータに対応付けられた位置と、前記端末の位置および向きとに基づき、特定した前記オブジェクトデータに対応付けられた位置の前記端末に対する方向を特定し、
    前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、特定した前記オブジェクトデータを表示
    前記端末の移動量が所定以上か、または、所定時間経過したか否かを判定し、前記移動量が所定以上である、または、前記所定時間経過したと判定した場合、前記表示部に表示されたことがある前記オブジェクトデータと、該オブジェクトデータが最初に表示された位置および時刻とを対応付ける表示テーブルを初期化する、
    処理をコンピュータに実行させることを特徴とする表示制御プログラム。
  2. 撮像装置により撮像された前記エリアの撮像画像を取得し、
    特定した前記オブジェクトデータを、取得した前記撮像画像に重畳して、新たな画像を生成し、
    生成した前記新たな画像を前記表示部に表示する、
    ことを特徴とする請求項1に記載の表示制御プログラム。
  3. 前記オブジェクトデータは、該オブジェクトデータに対応付けられた位置が前記エリア内に含まれたことがあるオブジェクトデータである、
    ことを特徴とする請求項1または2に記載の表示制御プログラム。
  4. 前記表示する処理は、前記オブジェクトデータに対応付けられた位置が前記エリア内に移動した場合に、前記オブジェクトデータを前記表示部に前回表示された態様と同じ態様で表示する、
    ことを特徴とする請求項3に記載の表示制御プログラム。
  5. 前記表示する処理は、前記オブジェクトデータに対応付けられた位置が前記エリア内に移動した場合に、前記オブジェクトデータに対応付けられた位置が前記エリア外にある際に、前記表示部に表示しない指示を受け付けたオブジェクトデータを再表示しない、
    ことを特徴とする請求項4に記載の表示制御プログラム。
  6. 端末の位置および向きに応じたエリア内の基準物に対応付けられたオブジェクトデータを表示部に表示させる表示制御プログラムにおいて、
    前記端末に設けられた撮像装置により撮像された撮像画像から前記基準物を検出し、
    検出した前記基準物に基づいて、前記基準物と前記端末との相対位置を算出し、
    前記端末の位置および向きが変化した際に、算出した前記基準物と前記端末との相対位置に基づいて、検出した前記基準物の前記端末に対する方向を特定し、
    前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、検出した前記基準物に対応する前記オブジェクトデータを表示
    前記端末の移動量が所定以上か、または、所定時間経過したか否かを判定し、前記移動量が所定以上である、または、前記所定時間経過したと判定した場合、前記表示部に表示されたことがある前記オブジェクトデータと、該オブジェクトデータが最初に表示された位置および時刻とを対応付ける表示テーブルを初期化する、
    処理をコンピュータに実行させることを特徴とする表示制御プログラム。
  7. 端末の位置および向きに応じたエリア内の位置に対応付けられたオブジェクトデータを表示部に表示する表示制御方法において、
    オブジェクトデータと位置とを対応付けて記憶する記憶部を参照して、前記エリア外の位置に対応付けられたオブジェクトデータと、該オブジェクトデータに対応付けられた位置とを特定し、
    特定した前記オブジェクトデータに対応付けられた位置と、前記端末の位置および向きとに基づき、特定した前記オブジェクトデータに対応付けられた位置の前記端末に対する方向を特定し、
    前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、特定した前記オブジェクトデータを表示す
    前記端末の移動量が所定以上か、または、所定時間経過したか否かを判定し、前記移動量が所定以上である、または、前記所定時間経過したと判定した場合、前記表示部に表示されたことがある前記オブジェクトデータと、該オブジェクトデータが最初に表示された位置および時刻とを対応付ける表示テーブルを初期化する、
    処理をコンピュータが実行することを特徴とする表示制御方法。
  8. 端末の位置および向きに応じたエリア内の基準物に対応付けられたオブジェクトデータを表示部に表示する表示制御方法において、
    前記端末に設けられた撮像装置により撮像された撮像画像から前記基準物を検出し、
    検出した前記基準物に基づいて、前記基準物と前記端末との相対位置を算出し、
    前記端末の位置および向きが変化した際に、算出した前記基準物と前記端末との相対位置に基づいて、検出した前記基準物の前記端末に対する方向を特定し、
    前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、検出した前記基準物に対応する前記オブジェクトデータを表示す
    前記端末の移動量が所定以上か、または、所定時間経過したか否かを判定し、前記移動量が所定以上である、または、前記所定時間経過したと判定した場合、前記表示部に表示されたことがある前記オブジェクトデータと、該オブジェクトデータが最初に表示された位置および時刻とを対応付ける表示テーブルを初期化する、
    処理をコンピュータが実行することを特徴とする表示制御方法。
  9. 端末の位置および向きに応じたエリア内の位置に対応付けられたオブジェクトデータを表示部に表示する表示制御装置において、
    オブジェクトデータと位置とを対応付けて記憶する記憶部を参照して、前記エリア外の位置に対応付けられたオブジェクトデータと、該オブジェクトデータに対応付けられた位置とを特定する第1特定部と、
    特定した前記オブジェクトデータに対応付けられた位置と、前記端末の位置および向きとに基づき、特定した前記オブジェクトデータに対応付けられた位置の前記端末に対する方向を特定する第2特定部と、
    前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、特定した前記オブジェクトデータを表示する表示制御部と、
    前記端末の移動量が所定以上か、または、所定時間経過したか否かを判定し、前記移動量が所定以上である、または、前記所定時間経過したと判定した場合、前記表示部に表示されたことがある前記オブジェクトデータと、該オブジェクトデータが最初に表示された位置および時刻とを対応付ける表示テーブルを初期化する判定部と、
    を有することを特徴とする表示制御装置。
  10. 端末の位置および向きに応じたエリア内の基準物に対応付けられたオブジェクトデータを表示部に表示する表示制御装置において、
    前記端末に設けられた撮像装置により撮像された撮像画像から前記基準物を検出する検出部と、
    検出した前記基準物に基づいて、前記基準物と前記端末との相対位置を算出する算出部と、
    前記端末の位置および向きが変化した際に、算出した前記基準物と前記端末との相対位置に基づいて、検出した前記基準物の前記端末に対する方向を特定する特定部と、
    前記表示部の表示領域のうちの、特定した前記方向に応じた領域に、検出した前記基準物に対応する前記オブジェクトデータを表示する表示制御部と、
    前記端末の移動量が所定以上か、または、所定時間経過したか否かを判定し、前記移動量が所定以上である、または、前記所定時間経過したと判定した場合、前記表示部に表示されたことがある前記オブジェクトデータと、該オブジェクトデータが最初に表示された位置および時刻とを対応付ける表示テーブルを初期化する判定部と、
    を有することを特徴とする表示制御装置。
JP2016104192A 2016-05-25 2016-05-25 表示制御プログラム、表示制御方法および表示制御装置 Active JP6711137B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016104192A JP6711137B2 (ja) 2016-05-25 2016-05-25 表示制御プログラム、表示制御方法および表示制御装置
US15/581,274 US10445911B2 (en) 2016-05-25 2017-04-28 Display control method and display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016104192A JP6711137B2 (ja) 2016-05-25 2016-05-25 表示制御プログラム、表示制御方法および表示制御装置

Publications (2)

Publication Number Publication Date
JP2017211811A JP2017211811A (ja) 2017-11-30
JP6711137B2 true JP6711137B2 (ja) 2020-06-17

Family

ID=60418169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016104192A Active JP6711137B2 (ja) 2016-05-25 2016-05-25 表示制御プログラム、表示制御方法および表示制御装置

Country Status (2)

Country Link
US (1) US10445911B2 (ja)
JP (1) JP6711137B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JP6891055B2 (ja) * 2017-06-28 2021-06-18 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US20200349737A1 (en) * 2019-05-03 2020-11-05 Fanuc America Corporation Multi-target calibration and augmentation
JP2021026260A (ja) * 2019-07-31 2021-02-22 セイコーエプソン株式会社 表示装置、表示方法、および、コンピュータープログラム
US11800231B2 (en) * 2019-09-19 2023-10-24 Apple Inc. Head-mounted display
US11495003B1 (en) * 2020-11-30 2022-11-08 A9.Com, Inc. Placing and manipulating multiple three-dimensional (3D) models using mobile augmented reality

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339377A (ja) * 2004-05-28 2005-12-08 Canon Inc 画像処理方法、画像処理装置
JP5423406B2 (ja) * 2010-01-08 2014-02-19 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法
JP5432000B2 (ja) * 2010-02-24 2014-03-05 株式会社ゼンリンデータコム 情報提示システム及びプログラム
JP5734700B2 (ja) * 2011-02-24 2015-06-17 京セラ株式会社 携帯情報機器および仮想情報表示プログラム
JP5755915B2 (ja) 2011-03-18 2015-07-29 新日鉄住金ソリューションズ株式会社 情報処理装置、拡張現実感提供方法、及びプログラム
JP5821526B2 (ja) * 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP5189673B1 (ja) * 2011-11-16 2013-04-24 株式会社コナミデジタルエンタテインメント 表示装置、表示方法、ならびに、プログラム
US9213185B1 (en) * 2012-01-06 2015-12-15 Google Inc. Display scaling based on movement of a head-mounted display
US9129430B2 (en) * 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
JP6303550B2 (ja) * 2014-02-03 2018-04-04 ブラザー工業株式会社 表示プログラムおよび表示装置
JP6364952B2 (ja) * 2014-05-23 2018-08-01 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法
US9898868B2 (en) * 2014-11-06 2018-02-20 Seiko Epson Corporation Display device, method of controlling the same, and program

Also Published As

Publication number Publication date
US20170345197A1 (en) 2017-11-30
JP2017211811A (ja) 2017-11-30
US10445911B2 (en) 2019-10-15

Similar Documents

Publication Publication Date Title
JP6711137B2 (ja) 表示制御プログラム、表示制御方法および表示制御装置
TWI782332B (zh) 一種擴增實境資料呈現方法、設備及儲存媒體
JP6981106B2 (ja) 撮像装置、画像表示システム、操作方法、プログラム
JP7305249B2 (ja) 画像特徴点の動き情報の決定方法、タスク実行方法およびデバイス
US8994785B2 (en) Method for generating video data and image photographing device thereof
CN104350736B (zh) 附近位置信息的增强现实布置
JP5315111B2 (ja) 端末装置、情報提示システム及び端末画面表示方法
JP7026819B2 (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
US20160248968A1 (en) Depth determination using camera focus
US9607654B2 (en) Video editing
JP5477059B2 (ja) 電子機器、画像出力方法及びプログラム
US20160050349A1 (en) Panoramic video
JP6337907B2 (ja) 表示制御装置、表示制御方法およびプログラム
US20210118236A1 (en) Method and apparatus for presenting augmented reality data, device and storage medium
EP2912839B1 (en) Method for providing contents and a digital device for the same
JP2014053794A (ja) 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP6686547B2 (ja) 画像処理システム、プログラム、画像処理方法
JP2017212510A (ja) 画像管理装置、プログラム、画像管理システム及び情報端末
JP6617547B2 (ja) 画像管理システム、画像管理方法、プログラム
JP2018005091A (ja) 表示制御プログラム、表示制御方法および表示制御装置
JP2017168132A (ja) 仮想オブジェクトの表示システム、表示システムプログラム及び表示方法
WO2021200187A1 (ja) 携帯端末および情報処理方法、並びに記憶媒体
JP6950548B2 (ja) 送信プログラム、方法及び装置、並びに画像合成プログラム、方法及び装置
JP2018041201A (ja) 表示制御プログラム、表示制御方法および情報処理装置
WO2022180459A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200511

R150 Certificate of patent or registration of utility model

Ref document number: 6711137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150