JP6447251B2 - Information processing apparatus, display control method, and display control program - Google Patents

Information processing apparatus, display control method, and display control program Download PDF

Info

Publication number
JP6447251B2
JP6447251B2 JP2015044024A JP2015044024A JP6447251B2 JP 6447251 B2 JP6447251 B2 JP 6447251B2 JP 2015044024 A JP2015044024 A JP 2015044024A JP 2015044024 A JP2015044024 A JP 2015044024A JP 6447251 B2 JP6447251 B2 JP 6447251B2
Authority
JP
Japan
Prior art keywords
information
altitude
object data
unit
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015044024A
Other languages
Japanese (ja)
Other versions
JP2016163338A (en
Inventor
伊織 村上
伊織 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015044024A priority Critical patent/JP6447251B2/en
Publication of JP2016163338A publication Critical patent/JP2016163338A/en
Application granted granted Critical
Publication of JP6447251B2 publication Critical patent/JP6447251B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Data Copying Or Recording (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、情報処理装置、表示制御方法、及び表示制御プログラムに関する。   The present invention relates to an information processing apparatus, a display control method, and a display control program.

カメラ等の撮像装置により撮像された画像の一部にオブジェクトデータを重畳して表示させる拡張現実(Augmented Reality:AR)技術が知られている。   Augmented reality (AR) technology is known in which object data is superimposed on a part of an image captured by an imaging device such as a camera.

従来のAR技術では、撮像画像から認識されたARマーカ等の基準物(画像データ)に対する位置情報や識別情報(マーカID)を取得すると、マーカIDに対応付けられたオブジェクトデータと配置情報とを含むARコンテンツを取得し、マーカ領域の大きさや形状(歪み)から、マーカとカメラとの位置関係を推定し、推定した位置関係を用いて、オブジェクトデータの配置(位置、向き等)を決定し、決定した配置でオブジェクトデータを撮影画像に重畳表示する。   In the conventional AR technology, when position information or identification information (marker ID) with respect to a reference object (image data) such as an AR marker recognized from a captured image is acquired, object data and arrangement information associated with the marker ID are obtained. AR content is acquired, the positional relationship between the marker and the camera is estimated from the size and shape (distortion) of the marker region, and the arrangement (position, orientation, etc.) of the object data is determined using the estimated positional relationship. The object data is superimposed and displayed on the captured image with the determined arrangement.

また、ARマーカに対応付いたオブジェクトデータを表示させるのではなく、Global Positioning System(GPS,全地球測位網)等の所定の測位方式からの位置情報と、端末装置の傾き情報とに基づいて、その端末装置が撮影した画像に対応するオブジェクトデータ等を重畳表示する。   Also, instead of displaying the object data associated with the AR marker, based on position information from a predetermined positioning method such as a Global Positioning System (GPS) and inclination information of the terminal device, Object data or the like corresponding to the image captured by the terminal device is superimposed and displayed.

特開平8−184436号公報JP-A-8-184436 国際公開第2012/033095号International Publication No. 2012/033095

しかしながら、現在のGPSの精度として10m〜20m程度の誤差がある。GPSは、三次元(緯度、経度、高度)で位置を測位することができるが、そのうち水平方向(緯度、経度)の誤差は、許容される場合が多い。一方、高度の20mの誤差による影響は大きく、例えば上から見下ろした場合における対象物のオブジェクトデータを撮影画像に重畳させたい場合でも、誤差により下から見上げた場合における対象物のオブジェクトデータが表示されてしまう場合がある。このように、測位に伴う高度誤差により、適切なオブジェクトデータが表示されない。   However, there is an error of about 10 m to 20 m as the accuracy of the current GPS. GPS can measure a position in three dimensions (latitude, longitude, altitude), but errors in the horizontal direction (latitude, longitude) are often allowed. On the other hand, the effect of an error of 20 m on the altitude is large. For example, even when it is desired to superimpose the object data of the object when looking down from the top on the photographed image, the object data of the object when looking up from below due to the error is displayed. May end up. Thus, appropriate object data is not displayed due to the altitude error associated with positioning.

一つの側面では、本発明は、測位に伴う高度誤差に対応したオブジェクトデータを表示することを目的とする。   In one aspect, an object of the present invention is to display object data corresponding to an altitude error associated with positioning.

一つの態様では、情報処理装置において、撮像装置により撮像された画像を取得する画像取得部と、前記撮像装置の高度情報を取得する高度情報取得部と、前記撮像装置の傾き情報を取得する傾き情報取得部と、取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する制御部と、を有する。   In one aspect, in the information processing device, an image acquisition unit that acquires an image captured by the imaging device, an altitude information acquisition unit that acquires altitude information of the imaging device, and a tilt that acquires tilt information of the imaging device An information acquisition unit; and a control unit that determines object data to be displayed on the image based on the error information of altitude included in the acquired altitude information and the acquired tilt information.

一つの側面として、測位に伴う高度誤差に対応したオブジェクトデータを表示することができる。   As one aspect, object data corresponding to an altitude error associated with positioning can be displayed.

端末装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of a terminal device. 端末装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a terminal device. ARコンテンツ情報の一例を示す図である。It is a figure which shows an example of AR content information. 補正時に用いられるオフセットデータの一例を示す図である。It is a figure which shows an example of the offset data used at the time of correction | amendment. 本実施形態における表示制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the display control process in this embodiment. 補正処理の一例を示すフローチャートである。It is a flowchart which shows an example of a correction process. 画面位置の計算処理の一例を示すフローチャートである。It is a flowchart which shows an example of a calculation process of a screen position. オブジェクトデータを重畳した画面例を示す図である。It is a figure which shows the example of a screen which superimposed object data. 本実施形態における高度の補正について説明するための図である。It is a figure for demonstrating correction | amendment of the altitude in this embodiment. オブジェクトデータの切り替わりの例を示す図である。It is a figure which shows the example of switching of object data.

以下、図面に基づいて実施形態を説明する。   Embodiments will be described below with reference to the drawings.

<情報処理装置の機能構成例>
本実施形態における情報処理装置の一例としての端末装置の機能構成例について、図を用いて説明する。図1は、端末装置の機能構成の一例を示す図である。図1に示す端末装置10は、通信部11と、撮像部(画像取得部)12と、表示部13と、記憶部14と、検出部(高度情報取得部、傾き情報取得部)15と、制御部16とを有する。
<Functional configuration example of information processing apparatus>
A functional configuration example of a terminal device as an example of an information processing device in the present embodiment will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of a functional configuration of the terminal device. 1 includes a communication unit 11, an imaging unit (image acquisition unit) 12, a display unit 13, a storage unit 14, a detection unit (altitude information acquisition unit, inclination information acquisition unit) 15, And a control unit 16.

通信部11は、例えばインターネットやLocal Area Network(LAN)等の通信ネットワークとデータの送受信が可能な状態で接続されている。通信部11は、例えばオブジェクトデータとその配置(位置)情報とを含むARコンテンツを管理する管理サーバ等に、撮影位置や傾き等の情報を送信し、管理サーバ等から対応するARコンテンツ情報等を受信する。オブジェクトデータとは、例えば現実空間に対応する三次元の仮想空間上に配置される物体のモデルデータ等であり、例えば撮像部12で撮影された画像に重畳して表示される重畳用データである。オブジェクトデータは、例えばテキスト、アイコン、アニメーション、マーク、模様、画像、映像等の様々な形態が含まれる。   The communication unit 11 is connected to a communication network such as the Internet or a local area network (LAN) in a state where data can be transmitted and received. For example, the communication unit 11 transmits information such as a shooting position and a tilt to a management server that manages AR content including, for example, object data and arrangement (position) information thereof, and corresponding AR content information and the like from the management server. Receive. The object data is, for example, model data of an object placed in a three-dimensional virtual space corresponding to the real space, and is, for example, superimposition data displayed superimposed on an image captured by the imaging unit 12. . The object data includes various forms such as text, icons, animations, marks, patterns, images, and videos.

また、通信部11は、例えば赤外線通信やWi−Fi(登録商標)、Bluetooth(登録商標)等の通信手法を用いて、他の端末装置10等のコンピュータと近距離通信を行うことができる。   The communication unit 11 can perform short-range communication with a computer such as another terminal device 10 using a communication method such as infrared communication, Wi-Fi (registered trademark), or Bluetooth (registered trademark).

撮像部12は、一定のフレーム間隔で撮影を行い、画像データを生成する。撮像部12は、例えばデジタルカメラ等の撮像装置であるが、これに限定されるものではない。また、撮像部12は、端末装置10に内蔵されていてもよく、接続可能な外部装置であってもよい。撮像部12を装着する場合には、傾きや方向等が端末装置10と一体に動作されるものが好ましいが、これに限定されるものではない。また、撮像部12は、外部(撮像装置)で撮影された画像データを取得してもよい。この場合には、撮像装置の位置情報や傾き情報を有することが好ましいが、これに限定されるものではない。   The imaging unit 12 captures images at regular frame intervals and generates image data. The imaging unit 12 is an imaging device such as a digital camera, for example, but is not limited thereto. The imaging unit 12 may be built in the terminal device 10 or may be a connectable external device. When the imaging unit 12 is mounted, it is preferable that the tilt, direction, and the like are operated integrally with the terminal device 10, but the present invention is not limited to this. In addition, the imaging unit 12 may acquire image data captured externally (imaging device). In this case, it is preferable to have position information and tilt information of the imaging device, but the present invention is not limited to this.

表示部13は、撮像部12から取得した撮影画像や、撮影画像にARコンテンツを重畳した合成画像を表示する。また、表示部13は、本実施形態における表示制御処理を行うために予め設定されたメニュー画面や設定画面、端末装置10を操作するための操作画面等を表示する。また、表示部13は、タッチパネル等のように、画面上から情報の入力を行ってもよい。   The display unit 13 displays a captured image acquired from the imaging unit 12 or a composite image in which AR content is superimposed on the captured image. Further, the display unit 13 displays a menu screen or setting screen set in advance for performing the display control process in the present embodiment, an operation screen for operating the terminal device 10, and the like. The display unit 13 may input information from the screen like a touch panel.

記憶部14は、本実施形態において必要な各種情報を記憶する。記憶部14は、例えば、制御部16等の制御により、情報を書き込んだり、読み出したりすることができる。記憶部14には、例えば上述したARコンテンツ情報、位置情報(高度)の補正時に用いられるオフセット情報、各種設定情報等が記憶されるが、記憶される内容については、これに限定されるものではない。   The storage unit 14 stores various information necessary for the present embodiment. For example, the storage unit 14 can write and read information under the control of the control unit 16 and the like. The storage unit 14 stores, for example, the above-described AR content information, offset information used when correcting position information (altitude), various setting information, and the like, but the stored content is not limited thereto. Absent.

検出部15は、例えば、1又は複数の測位方式を用いて端末装置10(又は撮像部12)の位置情報及び傾き情報を取得する。位置情報の測位方式としては、例えばGPSを用いたり、接続中のWi−Fiネットワーク(例えば、ルータ)やモバイルネットワーク(例えば、基地局)等の位置から位置情報(緯度、経度、高度)を取得することができるが、これに限定されるものではない。例えば、検出部15は、撮像部12の高度情報を取得する高度情報取得部でもよく、撮像部12の傾き情報を取得する傾き情報取得部でもよい。   For example, the detection unit 15 acquires position information and tilt information of the terminal device 10 (or the imaging unit 12) using one or a plurality of positioning methods. As a positioning method of position information, for example, GPS is used, or position information (latitude, longitude, altitude) is acquired from the position of a connected Wi-Fi network (for example, router) or mobile network (for example, base station). However, the present invention is not limited to this. For example, the detection unit 15 may be an altitude information acquisition unit that acquires altitude information of the imaging unit 12 or may be an inclination information acquisition unit that acquires inclination information of the imaging unit 12.

なお、検出部15は、幾つのGPSを用いて測位したかの情報を取得することができる。また、検出部15は、同時に複数のWi−Fiネットワークやモバイルネットワークと接続中の場合には、それぞれの位置情報の平均値や、受信強度が最大のルータや基地局等の位置情報を用いて端末装置10の位置情報を取得してもよい。   In addition, the detection part 15 can acquire the information of how many GPS were used for positioning. In addition, when the detection unit 15 is simultaneously connected to a plurality of Wi-Fi networks or mobile networks, the detection unit 15 uses the average value of each position information or the position information of the router or base station having the maximum reception intensity. The position information of the terminal device 10 may be acquired.

また、傾き情報の測定方式としては、例えば電子コンパスやジャイロセンサ等を用いて、方位情報(傾斜(Pitch)、方位(Azimuth)、回転(Roll))等を取得することができるが、これに限定されるものではない。電子コンパスは、地磁気センサ、方位センサ等の一例であり、地球の地磁気を二次元又三次元で検出し、地磁気に対してどの方角を向いているかにより、方位情報を取得することができる。また、ジャイロセンサは、回転していることを検知したり、向きの変化を検知することで方位情報を取得することができる。   As a method for measuring tilt information, for example, using an electronic compass or a gyro sensor, orientation information (tilt (Pitch), orientation (Azimuth), rotation (Roll)), etc. can be obtained. It is not limited. The electronic compass is an example of a geomagnetic sensor, an azimuth sensor, etc., and can detect the earth's geomagnetism in two or three dimensions, and acquire azimuth information depending on which direction it is oriented with respect to the geomagnetism. Further, the gyro sensor can acquire the azimuth information by detecting that it is rotating or detecting a change in direction.

検出部15は、上述した位置情報や傾き情報を定期的に取得する。また、検出部15は、各種センサや撮像部12等による検出距離や認識距離、撮影範囲(画角情報)等を、予め設定された設定情報より取得することができる。   The detection unit 15 periodically acquires the position information and the tilt information described above. Further, the detection unit 15 can acquire detection distances and recognition distances by various sensors, the imaging unit 12, and the like, a shooting range (viewing angle information), and the like from preset setting information.

制御部16は、端末装置10の各構成全体を制御する。制御部16は、例えば位置認識処理や表示制御処理等が実行される。位置認識処理とは、オブジェクトデータ等に対する特定の位置情報が端末装置10が取得する撮影画像内において取得可能な位置範囲内に含まれるか否かを認識する処理である。また、表示制御処理とは、位置認識処理において特定の位置情報が撮影画像内において取得可能な範囲内にある場合に、対応するオブジェクトデータを撮影画像の所定位置に重畳する処理である。また、制御部16は、端末装置10にイントールされている各種アプリケーションやソフトウェアの実行等を制御する。また、制御部16は、各種処理の開始や終了を制御したり、予め設定された前処理等を行ったり、異常発生時にエラー処理等の制御を行う。   The control unit 16 controls the entire configuration of the terminal device 10. For example, the control unit 16 executes position recognition processing, display control processing, and the like. The position recognition process is a process for recognizing whether or not specific position information for object data or the like is included in a position range that can be acquired in a captured image acquired by the terminal device 10. The display control process is a process of superimposing corresponding object data on a predetermined position of the captured image when specific position information is within a range that can be acquired in the captured image in the position recognition process. Further, the control unit 16 controls execution of various applications and software installed in the terminal device 10. In addition, the control unit 16 controls the start and end of various processes, performs a preprocess set in advance, and controls an error process when an abnormality occurs.

図1に示す制御部16は、認識部21と、判定部22と、補正部23と、表示制御部24とを有する。   The control unit 16 illustrated in FIG. 1 includes a recognition unit 21, a determination unit 22, a correction unit 23, and a display control unit 24.

認識部21は、端末装置10(又は撮像部12)の位置情報、傾き情報、認識距離、撮影範囲等の情報から、上述した位置認識処理を行う。例えば、認識部21は、端末装置10の位置情報、傾き情報、認識距離等から、その撮影画像内において取得可能な位置範囲内に対してオブジェクトデータを重畳表示するかを認識する。上述した位置認識処理により、例えばユーザにとって必要ないと思われる100km先の山が撮影されていたとしても、予め設定された距離以上離れている(認識距離外である)ため、その山に関するオブジェクトデータを重畳表示する対象にしない等の制御を行うことができる。なお、上述したようにオブジェクトデータを重畳表示する対象にするかしないかの判断基準については、例えば上述した方位、位置、認識距離等に基づいて予め設定され、記憶部14で管理されていてもよい。認識部21は、その情報を参照することで、上記の認識処理を行うことができる。   The recognizing unit 21 performs the above-described position recognizing process from information such as position information, tilt information, recognition distance, and shooting range of the terminal device 10 (or the imaging unit 12). For example, the recognizing unit 21 recognizes whether or not the object data is to be superimposed and displayed within the position range that can be acquired in the captured image from the position information, tilt information, recognition distance, and the like of the terminal device 10. For example, even if a 100 km ahead mountain that is considered unnecessary for the user is photographed by the position recognition process described above, the object data regarding the mountain is separated by a predetermined distance or more (outside the recognition distance). Can be controlled so as not to be a target to be superimposed. Note that, as described above, the criterion for determining whether or not the object data is to be superimposed and displayed may be set in advance based on, for example, the above-described azimuth, position, recognition distance, and the like, and managed by the storage unit 14. Good. The recognition unit 21 can perform the above recognition process by referring to the information.

判定部22は、本実施形態における位置情報(例えば、高度等)の補正が必要であるか否かを判定する。補正の必要性の有無は、例えば高度の補正を行ってもオブジェクトデータの内容が変わらない場合に必要性がないと判定される。また、所定の測位方式の場合には、無条件で補正する必要性がないと判定してもよい。なお、補正の必要性の有無の判断は、これに限定されるものではない。   The determination unit 22 determines whether correction of position information (for example, altitude or the like) in the present embodiment is necessary. Whether correction is necessary or not is determined to be unnecessary if the content of the object data does not change even if high-level correction is performed. In the case of a predetermined positioning method, it may be determined that there is no need to unconditionally correct. Note that the determination of the necessity of correction is not limited to this.

補正部23は、判定部22において、高度の補正が必要であると判定された場合に、例えば測位方式(例えば、GPS、Wi−Fiネットワーク、モバイルネットワーク)等に応じて設定された補正値(オフセット値)に基づいて、高度の補正値の算出を行う。オフセットに関する情報(オフセットテーブル)は、記憶部14に記憶される。なお、補正内容については、これに限定されるものではなく、高度以外の位置情報(緯度又は経度)や傾き情報を補正してもよい。また、補正される情報は、1つの種類(例えば、高度)だけでもよく、複数種類でもよい。   When the determination unit 22 determines that the altitude correction is necessary, the correction unit 23, for example, a correction value (for example, a GPS, a Wi-Fi network, a mobile network) or the like that is set according to a positioning method or the like. The altitude correction value is calculated based on the offset value. Information regarding the offset (offset table) is stored in the storage unit 14. The correction content is not limited to this, and position information (latitude or longitude) and inclination information other than altitude may be corrected. Further, the information to be corrected may be only one type (for example, altitude) or a plurality of types.

表示制御部24は、判定部22による判定結果や、補正部23による補正結果等が反映された位置情報、傾き情報、ARコンテンツ情報等に基づき、例えば撮影画像に含まれる対象物に対応するようなオブジェクトデータを撮影画像に重畳表示する。また、表示制御部24は、重畳表示された画像を表示部13により表示させる。これにより、測位に伴う高度誤差を考慮したオブジェクト表示を実現できる。   The display control unit 24 corresponds to, for example, an object included in the photographed image based on the position information, the tilt information, the AR content information, and the like reflecting the determination result by the determination unit 22, the correction result by the correction unit 23, and the like. Object data is superimposed on the captured image. Further, the display control unit 24 causes the display unit 13 to display the superimposed image. Thereby, the object display which considered the altitude error accompanying positioning can be realized.

端末装置10は、例えばタブレット端末やスマートフォン、Personal Digital Assistants(PDA)、ノート型PC等であるが、これに限定されるものではなく、例えばゲーム機器、携帯電話等の通信端末であってもよい。   The terminal device 10 is, for example, a tablet terminal, a smartphone, a personal digital assistant (PDA), a notebook PC, or the like, but is not limited thereto, and may be a communication terminal such as a game machine or a mobile phone. .

<端末装置10のハードウェア構成例>
次に、端末装置10として機能するコンピュータのハードウェア構成例について、図を用いて説明する。図2は、端末装置のハードウェア構成の一例を示す図である。図2の例において、端末装置10は、マイクロフォン(以下、「マイク」という)31と、スピーカ32と、カメラ33と、表示部34と、操作部35と、センサ部36と、電力部37と、無線部38と、近距離通信部39と、補助記憶装置40と、主記憶装置41と、CPU42と、ドライブ装置43とを有し、これらはシステムバスBで相互に接続されている。
<Example of Hardware Configuration of Terminal Device 10>
Next, a hardware configuration example of a computer that functions as the terminal device 10 will be described with reference to the drawings. FIG. 2 is a diagram illustrating an example of a hardware configuration of the terminal device. In the example of FIG. 2, the terminal device 10 includes a microphone (hereinafter referred to as “microphone”) 31, a speaker 32, a camera 33, a display unit 34, an operation unit 35, a sensor unit 36, and a power unit 37. The wireless unit 38, the short-range communication unit 39, the auxiliary storage device 40, the main storage device 41, the CPU 42, and the drive device 43 are connected to each other via a system bus B.

マイク31は、ユーザが発した音声や、その他の音を入力する。スピーカ32は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク31及びスピーカ32は、例えば、通話機能等により通話相手と会話するとき等に用いることができるが、これに限定されるものではなく、音声による情報の入出力に用いることができる。   The microphone 31 inputs a voice uttered by the user and other sounds. The speaker 32 outputs the other party's voice or sounds such as ringtones. The microphone 31 and the speaker 32 can be used, for example, when talking to a call partner using a call function or the like, but is not limited to this, and can be used for inputting and outputting information by voice.

カメラ33は、例えば予め設定された画角内の実空間の画像(動画像、静止画像)を撮影する。カメラ33は、上述した撮像部12の一例である。カメラ33を端末装置10に内蔵されていてもよく、外付けされていてもよい。   For example, the camera 33 captures an image of a real space (moving image, still image) within a preset angle of view. The camera 33 is an example of the imaging unit 12 described above. The camera 33 may be built in the terminal device 10 or may be externally attached.

表示部34は、ユーザに対してOperating System(OS)や各種アプリケーションで設定された画面(例えば、実空間にオブジェクトデータが重畳された画像等)を表示する。表示部34は、上述した表示部13の一例である。また、表示部34は、タッチパネルディスプレイ等でもよく、その場合には表示部34は、入出力部としての機能を有する。表示部34は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。   The display unit 34 displays to the user a screen set by an operating system (OS) or various applications (for example, an image in which object data is superimposed on a real space). The display unit 34 is an example of the display unit 13 described above. Further, the display unit 34 may be a touch panel display or the like. In that case, the display unit 34 has a function as an input / output unit. The display unit 34 is a display such as a Liquid Crystal Display (LCD) or an organic Electro Luminescence (EL).

操作部35は、表示部34の画面に表示された操作ボタンや端末装置10の外部に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタンや音量調整ボタンでもよく、所定の順番で配列された文字入力用の操作キー等でもよい。ユーザは、例えば表示部34の画面上で所定の操作を行ったり、上述した操作ボタンを押すことで、表示部34により画面上のタッチ位置が検出される。また、表示部34は、画面上にアプリ実行結果やコンテンツやアイコン、カーソル等を表示することができる。   The operation unit 35 is an operation button displayed on the screen of the display unit 34 or an operation button provided outside the terminal device 10. The operation button may be, for example, a power button or a volume adjustment button, or may be an operation key for character input arranged in a predetermined order. For example, when the user performs a predetermined operation on the screen of the display unit 34 or presses the operation button described above, the touch position on the screen is detected by the display unit 34. The display unit 34 can display an application execution result, content, icon, cursor, and the like on the screen.

センサ部36は、端末装置10のある時点又は継続的な位置や傾き(方位)、動作を検出する。センサ部36は、上述した検出部15の一例である。例えば、センサ部36は、端末装置10の傾き角度、方向、位置、加速度等を検出するが、これに限定されるものではない。なお、センサ部36としては、例えばGPS、ジャイロセンサ、傾きセンサ、加速度センサ等であるが、これに限定されるものではない。   The sensor unit 36 detects a certain point in time or a continuous position, inclination (azimuth), and operation of the terminal device 10. The sensor unit 36 is an example of the detection unit 15 described above. For example, the sensor unit 36 detects the tilt angle, direction, position, acceleration, and the like of the terminal device 10, but is not limited thereto. The sensor unit 36 is, for example, a GPS, a gyro sensor, a tilt sensor, an acceleration sensor, or the like, but is not limited thereto.

電力部37は、端末装置10の各構成に対して電力を供給する。電力部37は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部37は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。   The power unit 37 supplies power to each component of the terminal device 10. The power unit 37 is an internal power source such as a battery, but is not limited thereto. The power unit 37 can also detect the amount of power constantly or at predetermined time intervals and monitor the remaining amount of power.

無線部38は、例えばアンテナ等を用いて基地局(モバイルネットワーク)からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信データの送受信部である。   The radio unit 38 is a communication data transmission / reception unit that receives a radio signal (communication data) from a base station (mobile network) using an antenna or the like, or transmits a radio signal to the base station via an antenna.

近距離通信部39は、例えば赤外線通信やWi−Fi、Bluetooth等の通信手法を用いて、他の端末装置10等のコンピュータと近距離通信を行うことができる。上述した無線部38及び近距離通信部39は、他のコンピュータとのデータの送受信を可能とする通信インタフェースである。   The short-range communication unit 39 can perform short-range communication with a computer such as another terminal device 10 using a communication method such as infrared communication, Wi-Fi, or Bluetooth. The wireless unit 38 and the short-range communication unit 39 described above are communication interfaces that enable data transmission / reception with other computers.

補助記憶装置40は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段である。補助記憶装置40は、CPU42からの制御信号に基づき、本実施形態における実行プログラム(表示制御プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置40は、CPU42からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。   The auxiliary storage device 40 is a storage means such as a hard disk drive (HDD) or a solid state drive (SSD). The auxiliary storage device 40 stores an execution program (display control program) in the present embodiment, a control program provided in a computer, and the like based on a control signal from the CPU 42, and performs input / output as necessary. The auxiliary storage device 40 can read and write necessary information from each stored information based on a control signal from the CPU 42 and the like.

主記憶装置41は、CPU42からの指示により補助記憶装置40から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置41は、例えばRead Only Memory(ROM)やRandom Access Memory(RAM)等である。   The main storage device 41 stores an execution program read from the auxiliary storage device 40 in accordance with an instruction from the CPU 42, and stores various information obtained during the program execution. The main storage device 41 is, for example, a Read Only Memory (ROM) or a Random Access Memory (RAM).

CPU42は、OS等の制御プログラム、及び主記憶装置41に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、本実施形態における表示制御における各処理を実現する。CPU42は、上述した制御部16の一例である。   The CPU 42 controls processing of the entire computer, such as various operations and data input / output with each hardware component, based on a control program such as an OS and an execution program stored in the main storage device 41. Each process in the display control in this embodiment is realized. The CPU 42 is an example of the control unit 16 described above.

具体的には、CPU42は、例えば操作部35等から得られるプログラムの実行指示等に基づき、補助記憶装置40にインストールされたプログラムを実行させることにより、主記憶装置41上でプログラムに対応する処理を行う。例えば、CPU42は、表示制御プログラムを実行させることで、上述した通信部11による各種データの通信、撮像部12による撮像、表示部13による表示、記憶部14による各種情報の表示、検出部15による位置情報や傾き情報の検出等の処理を行う。また、CPU42は、表示制御プログラムを実行させることで、上述した認識部21による位置認識、判定部22による補正処理の対象であるかの判定、補正部23による位置情報等の補正、表示制御部24による表示制御等の処理を行う。CPU42における処理内容は、上述した内容に限定されるものではない。CPU42により実行された内容は、必要に応じて補助記憶装置40等に記憶される。   More specifically, the CPU 42 executes a program corresponding to the program on the main storage device 41 by causing the program installed in the auxiliary storage device 40 to be executed based on, for example, a program execution instruction obtained from the operation unit 35 or the like. I do. For example, by executing a display control program, the CPU 42 performs communication of various data by the communication unit 11 described above, imaging by the imaging unit 12, display by the display unit 13, display of various information by the storage unit 14, and detection by the detection unit 15. Processing such as detection of position information and tilt information is performed. Further, the CPU 42 executes the display control program, thereby determining the position recognition by the recognition unit 21 described above, determining whether it is a correction processing target by the determination unit 22, correcting the position information, etc. by the correction unit 23, and the display control unit. 24, such as display control, is performed. The processing content in the CPU 42 is not limited to the above-described content. The content executed by the CPU 42 is stored in the auxiliary storage device 40 or the like as necessary.

ドライブ装置43は、例えば記録媒体44等を着脱自在にセットすることができ、セットした記録媒体44に記録された各種情報を読み込んだり、所定の情報を記録媒体44に書き込むことができる。ドライブ装置43は、例えば媒体装填スロット等であるが、これに限定されるものではない。   The drive device 43 can detachably set the recording medium 44, for example, and can read various information recorded on the set recording medium 44 and write predetermined information on the recording medium 44. The drive device 43 is, for example, a medium loading slot or the like, but is not limited to this.

記録媒体44は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体44は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体44は、USBメモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。   The recording medium 44 is a computer-readable recording medium that stores an execution program and the like as described above. The recording medium 44 may be a semiconductor memory such as a flash memory, for example. The recording medium 44 may be a portable recording medium such as a USB memory, but is not limited thereto.

本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等を実現することができる。また、上述した表示制御処理に対応する表示制御プログラムは、例えば端末装置10上で常駐している状態であってもよく、起動指示により起動させてもよい。   In the present embodiment, by installing an execution program (for example, a display control program) in the hardware configuration of the computer main body described above, the hardware control and the software cooperate to perform the display control processing in the present embodiment. Can be realized. Further, the display control program corresponding to the above-described display control processing may be in a resident state on the terminal device 10, for example, or may be activated by an activation instruction.

<データ例>
次に、本実施形態における表示制御処理で使用されるデータ例について図を用いて説明する。図3は、ARコンテンツ情報の一例を示す図である。図3に示すARコンテンツ情報は、オブジェクトデータとその配置(位置)情報とを含む。
<Data example>
Next, an example of data used in the display control process in the present embodiment will be described with reference to the drawings. FIG. 3 is a diagram illustrating an example of AR content information. The AR content information shown in FIG. 3 includes object data and its arrangement (position) information.

図3に示すARコンテンツ情報の項目の一例としては、例えば「位置情報」、「カメラ情報」、「オブジェクトID」、「オブジェクトデータ」、「座標」等があるが、これに限定されるものではない。「位置情報」は、端末装置10の位置情報であり、予め設定された測位方式により測位された情報である。位置情報は、緯度、経度、高度からなる三次元座標(X,Y,Z)で表すことができる。「カメラ情報」とは、カメラの画角情報等のカメラパラメータであり、端末装置10又は撮像部12の傾き情報等を含む。「オブジェクトID」は、上述した位置情報及びカメラ情報に対応するオブジェクトデータを識別するための識別情報である。「オブジェクトデータ」は、実際のオブジェクトデータの情報である。図3の例では、オブジェクトデータとして画像データが示されているが、これに限定されるものではなく、テキスト、アイコン、アニメーション、マーク、模様、映像、或いはこれらの組み合わせのデータであってもよい。また、オブジェクトデータは、例えば建造物、椅子、机、配管、人物等の各種物体や矢印、マーク、標識、文字情報等のうち、少なくとも1つである。   Examples of the AR content information items shown in FIG. 3 include “position information”, “camera information”, “object ID”, “object data”, “coordinates”, and the like, but are not limited thereto. Absent. “Position information” is position information of the terminal device 10 and is information measured by a preset positioning method. The position information can be represented by three-dimensional coordinates (X, Y, Z) composed of latitude, longitude, and altitude. “Camera information” refers to camera parameters such as camera angle-of-view information, and includes tilt information of the terminal device 10 or the imaging unit 12. The “object ID” is identification information for identifying object data corresponding to the position information and camera information described above. “Object data” is information of actual object data. In the example of FIG. 3, image data is shown as object data, but the present invention is not limited to this, and may be data of text, icons, animations, marks, patterns, videos, or combinations thereof. . The object data is at least one of various objects such as buildings, chairs, desks, pipes, and people, arrows, marks, signs, character information, and the like.

「座標」は、位置情報やカメラ情報等に対応させてオブジェクトデータを重畳表示する位置を示す座標(x,y,z)である。座標は、各オブジェクトデータに対応付けられている。図3に示すARコンテンツ情報は、端末装置10が予め管理サーバ等から取得して記憶部14に記憶されていてもよく、オブジェクトデータを表示する際に、現在の位置情報、傾き情報等を管理サーバに問い合わせて、対応するARコンテンツ情報を取得してもよい。   “Coordinates” are coordinates (x, y, z) indicating a position where object data is superimposed and displayed in correspondence with position information, camera information, and the like. The coordinates are associated with each object data. The AR content information shown in FIG. 3 may be acquired in advance by the terminal device 10 from the management server or the like and stored in the storage unit 14, and when the object data is displayed, the current position information, inclination information, and the like are managed. The server may be inquired to obtain corresponding AR content information.

図4は、補正時に用いられるオフセットデータの一例を示す図である。図4に示すオフセットデータの項目としては、例えば「測位方式」、「オフセット内容」等があるが、これに限定されるものではない。本実施形態では、端末装置10が現在の位置を測位したときの測位方式に応じて、オフセット内容を設定する。「測位方式」は、測位の種類を示す情報である。「オフセット内容」は、対応するオフセットの内容に関する情報であり、例えば測位方式(計測方式)に応じて決められた誤差の最大値等が設定されるが、これに限定されるものではない。   FIG. 4 is a diagram illustrating an example of offset data used at the time of correction. The items of offset data shown in FIG. 4 include, for example, “positioning method”, “offset content”, but are not limited thereto. In the present embodiment, the offset content is set according to the positioning method when the terminal device 10 measures the current position. “Positioning method” is information indicating the type of positioning. “Offset content” is information relating to the content of the corresponding offset. For example, the maximum value of the error determined according to the positioning method (measurement method) is set, but the present invention is not limited to this.

また、本実施形態では、図4の例において測位方式がGPSの場合、オフセット値(誤差値)は、測位時に利用した人工衛星の数(以下、「衛星数」という)で判断する。これは、衛星数が多い方が誤差が少ないからである。例えば、「衛星数」が4個以下の場合には、オフセット100mとし、衛星数が4個より多く7個未満である場合には、オフセット50mとし、衛星数が7個より多い場合には、オフセット20mとする。   In the present embodiment, when the positioning method is GPS in the example of FIG. 4, the offset value (error value) is determined by the number of artificial satellites used for positioning (hereinafter referred to as “the number of satellites”). This is because the error is smaller when the number of satellites is larger. For example, when the “number of satellites” is 4 or less, the offset is 100 m. When the number of satellites is more than 4 and less than 7, the offset is 50 m. When the number of satellites is more than 7, The offset is 20 m.

また、Wi−Fiルータの場合には、端末装置10からの距離が近いため、100mのオフセット値を設定し、モバイルネットワークの場合には、1000mのオフセット値を設定する。図4に示す測位方式やそのオフセット値については、これに限定されるものではなく、例えば測位方式の種類や性能、測位環境等に応じて決められたオフセット値を設定することができる。   In the case of a Wi-Fi router, since the distance from the terminal device 10 is short, an offset value of 100 m is set, and in the case of a mobile network, an offset value of 1000 m is set. The positioning method and its offset value shown in FIG. 4 are not limited to this, and for example, an offset value determined according to the type and performance of the positioning method, the positioning environment, etc. can be set.

<表示制御処理の一例>
次に、本実施形態における表示制御処理の一例についてフローチャートを用いて説明する。図5は、本実施形態における表示制御処理の一例を示すフローチャートである。図5の例において、端末装置10の制御部16は、前処理として、AR表示に対応する表示制御プログラムの起動や撮像部12の起動、画像領域の取得等を行う(S01)。次に、撮像部12は、撮影を開始して、入力画像(画像データ)を取得する(S02)。
<Example of display control processing>
Next, an example of display control processing in the present embodiment will be described using a flowchart. FIG. 5 is a flowchart illustrating an example of the display control process in the present embodiment. In the example of FIG. 5, the control unit 16 of the terminal device 10 performs, as preprocessing, activation of a display control program corresponding to AR display, activation of the imaging unit 12, acquisition of an image area, and the like (S01). Next, the imaging unit 12 starts shooting and acquires an input image (image data) (S02).

次に、検出部15は、端末装置10の位置情報、傾き情報を取得する(S03)。S03の処理において、位置情報は、例えばGPSにより測位される。次に、制御部16は、補正を行うか否かを判断し(S04)、補正を行う場合(S04において、YES)、GPSにより得られた位置情報(緯度、経度、高度)のうち、高度誤差の補正処理を行う(S05)。なお、S05の処理については、後述する。また、S05の処理では、高度以外の誤差補正を行ってもよい。   Next, the detection part 15 acquires the positional information and inclination information of the terminal device 10 (S03). In the process of S03, the position information is measured by GPS, for example. Next, the control unit 16 determines whether or not to perform correction (S04), and when performing correction (YES in S04), the position information (latitude, longitude, and altitude) obtained by GPS includes altitude. Error correction processing is performed (S05). The process of S05 will be described later. Further, in the process of S05, error correction other than altitude may be performed.

また、制御部16は、S04の処理において、補正を行わない場合(S04において、NO)、又は、S05の処理後、その取得した高度を含む位置情報を認識する(S06)。次に、表示制御部24は、端末装置10の位置情報及び傾き情報(カメラ情報)に対応するARコンテンツ情報を取得する(S07)。このときの位置情報は、高度が補正された位置情報である。また、S07の処理では、例えば位置情報及び傾き情報に対応するARコンテンツ情報を記憶部14から取得してもよい。また、S07の処理では、ARコンテンツ情報を管理する管理サーバに対して問い合わせを行い、位置情報及び傾き情報に対応するコンテンツ情報を取得してもよい。   Further, the control unit 16 recognizes position information including the acquired altitude when correction is not performed in the process of S04 (NO in S04) or after the process of S05 (S06). Next, the display control unit 24 acquires AR content information corresponding to the position information and tilt information (camera information) of the terminal device 10 (S07). The position information at this time is position information whose altitude is corrected. In the process of S07, AR content information corresponding to position information and tilt information may be acquired from the storage unit 14, for example. In the process of S07, an inquiry may be made to the management server that manages the AR content information, and the content information corresponding to the position information and the tilt information may be acquired.

次に、表示制御部24は、変換行列を生成する(S08)。例えば、ARコンテンツ情報に含まれる「座標」の情報を実空間上の座標に変換する。変換行列を用いることで、例えば入力画像の撮影位置(座標)、大きさ、向きに対応して、オブジェクトデータの大きさ、向きを変更することができる。   Next, the display control unit 24 generates a conversion matrix (S08). For example, the “coordinate” information included in the AR content information is converted into coordinates in the real space. By using the transformation matrix, for example, the size and orientation of the object data can be changed corresponding to the shooting position (coordinates), size, and orientation of the input image.

次に、表示制御部24は、取得したオブジェクトデータに対する画像変換(例えば、S07における変換行列による座標変換、モデル・ビュー変換、透視変換等)をした後(S09)、入力画像に重畳表示する(S10)。モデル・ビュー変換とは、オブジェクトデータを実際のオブジェクト(矢印、マーク、文字情報)等の表示データに変換する処理である。また、透視変換とは、例えば三次元形状のオブジェクトの場合に、傾きや透過率、陰影等の情報を付加した表示データに変換する処理である。なお、画像変換の種類については、これに限定されるものではない。   Next, the display control unit 24 performs image conversion on the acquired object data (for example, coordinate conversion using a conversion matrix in S07, model-view conversion, perspective conversion, etc.) (S09), and then superimposes and displays it on the input image (S09). S10). Model-view conversion is a process of converting object data into display data such as actual objects (arrows, marks, character information). Further, the perspective conversion is a process of converting into display data to which information such as inclination, transmittance, and shadow is added in the case of a three-dimensional object, for example. Note that the type of image conversion is not limited to this.

次に、処理を終了するか否かを判断する(S11)、処理を終了しない場合(S11において、NO)、S02の処理に戻る。また、ユーザ等の終了指示等により処理を終了する場合(S11において、YES)、AR表示制御処理を終了する。   Next, it is determined whether or not to end the process (S11). If the process is not ended (NO in S11), the process returns to S02. In addition, when the process is terminated by a termination instruction or the like of the user or the like (YES in S11), the AR display control process is terminated.

<補正処理;S05>
次に、上述した補正処理(S05)について、フローチャートを用いて説明する。図6は、補正処理の一例を示すフローチャートである。図6の例において、補正部23は、GPS等の検出部15で取得した緯度、経度、高度等の位置情報を取得し(S21)、端末装置10の傾斜(Pitch)、方位(Azimuth)、回転(Roll)等の方位情報を取得する(S22)。
<Correction processing; S05>
Next, the correction process (S05) described above will be described using a flowchart. FIG. 6 is a flowchart illustrating an example of the correction process. In the example of FIG. 6, the correction unit 23 acquires position information such as latitude, longitude, and altitude acquired by the detection unit 15 such as GPS (S21), and the inclination (Pitch), direction (Azimuth) of the terminal device 10, Orientation information such as rotation is acquired (S22).

なお、本実施形態では、S21、S22の処理における高度と傾斜のみを用いる。S22の処理において、傾斜とは、例えば端末装置10の傾き角度で、X軸(水平方向)を中心にする回転角度であるが、これに限定されるものではない。また、S22の処理において、方位とは、端末装置10の方位角度で、y軸(垂直方向)を中心にする回転角度であるが、これに限定されるものではない。また、回転(Roll)は、端末装置10の回転角度で、イメージ図のようにz軸(奥行き)を中心にする回転角度であるが、これに限定されるものではない。   In the present embodiment, only the altitude and inclination in the processing of S21 and S22 are used. In the process of S22, the inclination is, for example, an inclination angle of the terminal device 10 and a rotation angle around the X axis (horizontal direction), but is not limited thereto. In the processing of S22, the azimuth is the azimuth angle of the terminal device 10 and is a rotation angle centered on the y-axis (vertical direction), but is not limited to this. The rotation (Roll) is a rotation angle of the terminal device 10 and is a rotation angle centered on the z axis (depth) as shown in the image diagram, but is not limited to this.

次に、補正部23は、図4に示すオフセットデータを用いた所定の補正式により補正値を算出する(S23)。なお、補正式の一例としては、「補正後の高度=高度−sinθ*オフセット」であるが、これに限定されるものではない。θは、例えば上述した傾斜の角度である。   Next, the correction unit 23 calculates a correction value by a predetermined correction formula using the offset data shown in FIG. 4 (S23). An example of the correction formula is “altitude after correction = altitude−sin θ * offset”, but is not limited thereto. θ is, for example, the angle of inclination described above.

次に、補正部23は、GPSの取得値(位置情報)を緯度、経度、補正後の高度として設定する(S24)。なお、上述の処理では、測位方式の一例としてGPSを用いたが、例えばWi−Fiネットワーク(ルータ)、モバイルネットワーク(基地局)に対しても同様にオフセットデータを用いて高度の補正を行うことができる。また、本実施形態では、高度の補正だけでなく、同様の手法を用いて緯度や経度等の補正を行ってもよい。   Next, the correction unit 23 sets the acquired value (position information) of GPS as latitude, longitude, and altitude after correction (S24). In the above-described processing, GPS is used as an example of the positioning method. However, for example, altitude correction is similarly performed on the Wi-Fi network (router) and the mobile network (base station) using offset data. Can do. In the present embodiment, not only altitude correction but also latitude and longitude may be corrected using a similar method.

<オブジェクトデータの表示位置(重畳位置)について>
ここで、本実施形態におけるオブジェクトデータの表示位置(重畳位置)について説明する。実空間上のオブジェクトデータは、ロケーション(緯度、経度、高度)によって測位されており、その情報は予め設定されたARコンテンツ情報情報等から取得することができる。本実施形態では、予めオブジェクトデータ毎にロケーション情報が含まれる。本実施形態における表示制御処理では、オブジェクトデータの画面位置の計算、二次元又は三次元での大きさ(サイズ)の計算、オブジェクトデータの回転の計算等を行い、例えば変換行列として生成しておく。
<About the display position (overlapping position) of the object data>
Here, the display position (superimposition position) of the object data in this embodiment will be described. Object data in real space is measured by location (latitude, longitude, altitude), and the information can be acquired from AR content information information set in advance. In the present embodiment, location information is included in advance for each object data. In the display control processing in the present embodiment, calculation of the screen position of the object data, calculation of the size (size) in two or three dimensions, calculation of rotation of the object data, etc. are performed, for example, generated as a transformation matrix. .

ここで、表示制御部24におけるオブジェクトデータの画面位置の計算処理についてフローチャートを用いて説明する。図7は、画面位置の計算処理の一例を示すフローチャートである。   Here, the calculation processing of the screen position of the object data in the display control unit 24 will be described using a flowchart. FIG. 7 is a flowchart illustrating an example of a screen position calculation process.

図7の例において、表示制御部24は、オブジェクトデータと端末装置10のロケーション(緯度、経度、高度)を入力し(S31)、緯度、経度、高度で、端末装置10とオブジェクトデータとの距離を計算する(S32)。なお、S31の処理では、端末装置10のロケーション(緯度、経度、高度)と傾き情報から対応するオブジェクトデータのロケーションを入力してもよい。   In the example of FIG. 7, the display control unit 24 inputs the object data and the location (latitude, longitude, altitude) of the terminal device 10 (S31), and the distance between the terminal device 10 and the object data in latitude, longitude, and altitude. Is calculated (S32). In the process of S31, the location of the corresponding object data may be input from the location (latitude, longitude, altitude) of the terminal device 10 and the tilt information.

次に、表示制御部24は、端末装置10の表示画面に対応させたx、y、z軸で、オブジェクトデータと画面中心との距離を計算する(S33)。このとき、オリエンテーション情報を入力する。オリエンテーション情報とは、例えば方向位置情報であり、方位、傾き、回転等が含まれる。次に、表示制御部24は、視野角と画面の高度とを入力し(S34)、OpenGL関連の位置パラメータを計算する(S35)。OpenGLとは、グラフィックス処理のためのプログラミングインターフェースである。位置パラメータ等を入力することで、入力画像に対応する三次元画像等を重畳表示することができる。なお、本実施形態では、OpenGLを用いるが、これに限定されるものではない。次に、表示制御部24は、OpenGLの位置パラメータを出力する(S36)。   Next, the display control unit 24 calculates the distance between the object data and the screen center on the x, y, and z axes corresponding to the display screen of the terminal device 10 (S33). At this time, orientation information is input. The orientation information is direction position information, for example, and includes azimuth, inclination, rotation, and the like. Next, the display control unit 24 inputs the viewing angle and the altitude of the screen (S34), and calculates OpenGL-related position parameters (S35). OpenGL is a programming interface for graphics processing. By inputting a position parameter or the like, a three-dimensional image or the like corresponding to the input image can be superimposed and displayed. In the present embodiment, OpenGL is used, but the present invention is not limited to this. Next, the display control unit 24 outputs the OpenGL position parameter (S36).

ここで、上述の内容を具体的に説明する。まず、緯度、経度、高度で端末装置10とオブジェクトデータの距離を以下の計算式(1)〜式(3)で計算する。式(1)〜式(3)では、例えば、緯度、経度、高度を用いて端末装置10とオブジェクトデータとの距離を計算する。   Here, the above-mentioned content is demonstrated concretely. First, the distance between the terminal device 10 and object data is calculated by the following calculation formulas (1) to (3) based on latitude, longitude, and altitude. In Expressions (1) to (3), for example, the distance between the terminal device 10 and the object data is calculated using latitude, longitude, and altitude.

Figure 0006447251
ここで、La1は端末装置10の緯度を示し、La2はオブジェクトデータの緯度を示し、Aは、端末装置10の高度を示す。また、Aは、オブジェクトデータの高度を示し、Lo1は、端末装置10の経度を示し、Lo2は、オブジェクトデータの経度を示す。また、Dは緯度での距離を示し、Dは高度での距離を示し、Dは経度での距離を示す。また、式(1)、式(3)の111111は、Latitude1度の変化における距離(111,111メートル)を示す。
Figure 0006447251
Here, L a1 indicates the latitude of the terminal device 10, L a2 indicates the latitude of the object data, and A 1 indicates the altitude of the terminal device 10. A 2 represents the altitude of the object data, L o1 represents the longitude of the terminal device 10, and L o2 represents the longitude of the object data. Further, D x represents a distance in latitude, D y represents a distance in altitude, and D z represents a distance in longitude. Moreover, 111111 of Formula (1) and Formula (3) shows the distance (111,111 meters) in the change of Latitude 1 degree.

次に、画面中央を原点とするx、y、z軸で、オブジェクトデータと画面中央の距離を以下の計算式(4)〜式(6)を用いて計算する。   Next, the distance between the object data and the screen center is calculated using the following calculation formulas (4) to (6) on the x, y, and z axes with the screen center as the origin.

Figure 0006447251
ここで、上述した式において、Dは、緯度で、端末装置10とオブジェクトデータの距離を示し、Dは高度で、端末装置10とオブジェクトデータの距離を示し、Dは、経度で、端末装置10とオブジェクトデータの距離を示す。また、xは端末装置10の傾斜(pitch)であり、yは、端末装置10の方位(azimuth)であり、zは端末装置10の回転(roll)である。また、Sはx軸で、オブジェクトデータと画面中央の距離を示し、Sはy軸で、オブジェクトデータと画面中央の距離を示し、Sはz軸で、オブジェクトデータと画面中央との距離を示す。
Figure 0006447251
Here, in the above-described equation, D x is latitude and indicates the distance between the terminal device 10 and object data, D y is altitude and indicates the distance between the terminal device 10 and object data, and D z is longitude, The distance between the terminal device 10 and object data is shown. Further, x is the pitch of the terminal device 10, y is the azimuth of the terminal device 10, and z is the rotation of the terminal device 10. S x is an x-axis indicating the distance between the object data and the center of the screen, S y is a y-axis indicating the distance between the object data and the center of the screen, and S z is a z-axis between the object data and the center of the screen. Indicates distance.

次に、OpenGL位置パラメータを以下の計算式(7)〜式(11)を用いて計算する。   Next, the OpenGL position parameter is calculated using the following calculation formulas (7) to (11).

Figure 0006447251
ここで、上述の式において、Lは、画面の幅を示し、Lは画面の高度を示す。また、Aは、左右から見る視野角を示し、Aは、上下から見る視野角を示す。また、Vは、x座標を示し、Vは、y座標を示す。また、Sはx軸で、オブジェクトデータと画面中央の距離を示し、Sはy軸で、オブジェクトデータと画面中央の距離を示し、Sはz軸で、オブジェクトデータと画面中央の距離を示し、Oはx軸で、OpenGLの位置パラメータを示し、Oはy軸で、OpenGLの位置パラメータを示し、Oはz軸で、OpenGLの位置パラメータを示す。
Figure 0006447251
Here, in the above formula, L x indicates the width of the screen, and L y indicates the altitude of the screen. Also, A x represents the viewing angle viewed from the left, A y indicates the viewing angle viewed from above and below. V x represents the x coordinate, and V y represents the y coordinate. S x is an x-axis indicating the distance between the object data and the center of the screen, S y is a y-axis indicating the distance between the object data and the center of the screen, and S z is a z-axis indicating the distance between the object data and the center of the screen. O x is the x-axis and the OpenGL position parameter, O y is the y-axis and the OpenGL position parameter, and O z is the z-axis and the OpenGL position parameter.

また、式(9)に示す20は、端末装置10とオブジェクトデータ間の距離で認識できる最小値(メートル)を示し、式(9)に示す200,000は、端末装置10とオブジェクトデータ間の距離で認識できる最大値(メートル)を示し、式(9)に示す50は、OpenGLの位置パラメータの最小値を示す。   Further, 20 shown in Expression (9) indicates a minimum value (meter) that can be recognized by the distance between the terminal apparatus 10 and the object data, and 200,000 shown in Expression (9) indicates the distance between the terminal apparatus 10 and the object data. The maximum value (meter) that can be recognized by the distance is shown, and 50 shown in the equation (9) indicates the minimum value of the OpenGL position parameter.

上述の手法により取得したオブジェクトデータを入力画像の位置情報(三次元座標等)に対応付けて、所定の位置に重畳表示する。図8は、オブジェクトデータを重畳した画面例を示す図である。図8の例では、入力画像50に対して、オブジェクトデータの内容に対応する実物のコンテンツ(対象物)51の一例として山が表示されている。   The object data acquired by the above-described method is displayed in a superimposed manner at a predetermined position in association with position information (such as three-dimensional coordinates) of the input image. FIG. 8 is a diagram illustrating an example of a screen on which object data is superimposed. In the example of FIG. 8, a mountain is displayed as an example of real content (target object) 51 corresponding to the content of the object data with respect to the input image 50.

この場合、入力画像50を撮像した端末装置10の位置情報と傾き情報とから、コンテンツ(対象物)51に対応させた情報として、オブジェクトデータ52−1,52−2を表示させることができる。オブジェクトデータ52は、名称等のテキストデータや矢印等の画像データ等であるが、これに限定されるものではない。また、本実施形態において、端末装置10の位置情報は、測位方式に対応して高度情報が補正される。   In this case, the object data 52-1 and 52-2 can be displayed as information corresponding to the content (target object) 51 from the position information and tilt information of the terminal device 10 that captured the input image 50. The object data 52 is text data such as a name or image data such as an arrow, but is not limited thereto. In the present embodiment, the position information of the terminal device 10 is corrected for altitude information corresponding to the positioning method.

ここで、図9は、本実施形態における高度の補正について説明するための図である。図9の例では、オブジェクトデータの一例として城60が画面に表示される。図9の例において、例えばGPSの測位による高度が0mであり、現実のユーザの位置が高度20mであったとすると、上(20mの位置)から見下ろしているにもかかわらず、下から見上げた城60が表示される可能性がある。   Here, FIG. 9 is a diagram for explaining altitude correction in the present embodiment. In the example of FIG. 9, a castle 60 is displayed on the screen as an example of object data. In the example of FIG. 9, for example, if the altitude measured by GPS is 0 m and the actual user's position is 20 m, the castle looked up from the bottom even though it is looking down from the top (20 m position). 60 may be displayed.

例えば、0〜10mの高度から見れるオブジェクトデータと、10m以上の位置から見れるオブジェクトデータとで、異なるオブジェクトデータが設定されていたとしても、高度の誤差により異なるオブジェクトデータが表示されてしまう。したがって、本実施形態では、上述した補正処理を行う。   For example, even if different object data is set for object data that can be seen from an altitude of 0 to 10 m and object data that can be seen from a position of 10 m or more, different object data is displayed due to an error in altitude. Therefore, in the present embodiment, the above-described correction process is performed.

補正の一例としては、上述したように「補正後の高度=取得した高度(誤差を含む)−端末の傾き(誤差なし)*オフセット(例えば、誤差の最大値等)」を用いて計算することができる。上述した図9の例に対応させると、端末装置10の傾きθが−50°とした場合、補正後の高度は、「高度−sinθ*20m(オフセットを20mとした場合)=0m−sin(−50°)*20=0m−(−15.32m)=15.32m(誤差を15.32m補正)」として、高度を補正することができる。   As an example of correction, as described above, calculation is performed using “corrected altitude = acquired altitude (including error) −tilt of terminal (no error) * offset (for example, maximum error value)”. Can do. In correspondence with the example of FIG. 9 described above, when the inclination θ of the terminal device 10 is −50 °, the corrected altitude is “altitude−sin θ * 20 m (when the offset is 20 m) = 0 m−sin ( −50 °) * 20 = 0 m − (− 15.32 m) = 15.32 m (error corrected by 15.32 m) ”, the altitude can be corrected.

また、上述したθの値は、端末装置10が上向きと下向きとで正負が逆になる。そのため、端末装置10の傾きが下向きなら上方向に高度を補正し、上向きなら下方向に高度を補正されることになる。また、sinθの正弦波を利用することで、−1〜+1の範囲、かつ、90°、−90°前後での変化がより自然となる。なお、本実施形態において、測位方式がWi−Fiネットワークやモバイルネットワークの場合には、それに対応するオフセット値を用いて補正が行われる。   Further, the value of θ described above is reversed between positive and negative depending on whether the terminal device 10 faces upward or downward. Therefore, the altitude is corrected in the upward direction if the inclination of the terminal device 10 is downward, and the altitude is corrected in the downward direction if it is upward. In addition, by using a sin sine wave, changes in the range of −1 to +1 and around 90 ° and −90 ° become more natural. In the present embodiment, when the positioning method is a Wi-Fi network or a mobile network, correction is performed using an offset value corresponding to the positioning method.

ここで、補正値は、ユーザが20mの位置にいる想定で作成しているが、計算結果では、15.32mと誤差がある。しかしながら、本実施形態では、補正の正確性は、それほど必要なく、例えば15.32mに補正することで、高度10mを基準にオブジェクトデータが切り替わるような大きな城等のオブジェクトデータを表示する場合には、その高度にあったオブジェクトデータを表示させることができる。本実施形態では、測位方式に応じたオフセット値を用いて簡易な計算で補正値を算出することができるため、処理負荷を軽減し、リアルタイムなオブジェクトデータの重畳表示を実現することができる。   Here, the correction value is created on the assumption that the user is at a position of 20 m, but the calculation result has an error of 15.32 m. However, in the present embodiment, the accuracy of correction is not so necessary. For example, when displaying object data such as a large castle where object data is switched based on an altitude of 10 m by correcting to 15.32 m, for example. , It can display the object data that suits its altitude. In the present embodiment, the correction value can be calculated by simple calculation using the offset value according to the positioning method, so that the processing load can be reduced and real-time object data superimposed display can be realized.

図10は、オブジェクトデータの切り替わりの例を示す図である。図10に示すようにことができる。図10に示すように、本実施形態におけるGPSの高度補正がない場合には、下から見た場合は見上げた画像(城60−1)が表示されてしまうが、本実施形態を適用して高度補正を行うことで、図10に示すように、端末装置10から上から見た場合の見下ろした構図の画像(城60−2)を表示することができる。   FIG. 10 is a diagram illustrating an example of switching of object data. As shown in FIG. As shown in FIG. 10, when there is no GPS altitude correction in the present embodiment, the looked up image (castle 60-1) is displayed when viewed from below, but this embodiment is applied. By performing altitude correction, as shown in FIG. 10, it is possible to display an image (castle 60-2) with a composition looking down when viewed from above from the terminal device 10.

上述したように、本実施形態によれば、GPS等の測位に伴う高度誤差に対応したオブジェクトデータを表示することができる。例えば、本実施形態では、GPS等によりロケーション情報(緯度、経度、高度)を取得し、GPSの認識状況による誤差の範囲情報を得る。また、電子コンパスにより端末の角度情報を取得し、高度の情報、誤差の範囲情報、端末の角度情報により、高度を補正する。本実施形態は、例えばARマーカを利用したAR(ビジョンベースAR)にも、ロケーションベースARにも適用することができる。   As described above, according to the present embodiment, it is possible to display object data corresponding to an altitude error associated with positioning such as GPS. For example, in the present embodiment, location information (latitude, longitude, altitude) is acquired by GPS or the like, and error range information based on GPS recognition status is obtained. Further, the angle information of the terminal is acquired by an electronic compass, and the altitude is corrected by the altitude information, the error range information, and the terminal angle information. The present embodiment can be applied to, for example, an AR (vision based AR) using an AR marker and a location based AR.

以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。   Although the embodiments have been described in detail above, the invention is not limited to the specific embodiments, and various modifications and changes can be made within the scope described in the claims. Moreover, it is also possible to combine a part or all of each Example mentioned above.

なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
撮像装置により撮像された画像を取得する画像取得部と、
前記撮像装置の高度情報を取得する高度情報取得部と、
前記撮像装置の傾き情報を取得する傾き情報取得部と、
取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する制御部と、
を有することを特徴とする情報処理装置。
(付記2)
前記制御部は、
前記高度情報を取得した測位方式の種類に応じて決められた誤差値を用いて前記高度情報の補正を行うことを特徴とする付記1に記載の情報処理装置。
(付記3)
前記制御部は、
前記高度情報の補正が必要な否かを判定し、前記高度情報の補正が必要であると判定された場合に、前記高度情報の補正を行うことを特徴とする付記1又は2に記載の情報処理装置。
(付記4)
前記測位方式は、GPS、Wi−Fiネットワーク、及びモバイルネットワークのうち、少なくとも1つを含むことを特徴とする付記2に記載の情報処理装置。
(付記5)
前記誤差値は、前記測位方式に対応する誤差の最大値であることを特徴とする付記2に記載の情報処理装置。
(付記6)
撮像装置により撮像された画像を取得し、
前記撮像装置の高度情報を取得し、
前記撮像装置の傾き情報を取得し、
取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する、
処理をコンピュータが実行する表示制御方法。
(付記7)
撮像装置により撮像された画像を取得し、
前記撮像装置の高度情報を取得し、
前記撮像装置の傾き情報を取得し、
取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する、
処理をコンピュータに実行させるための表示制御プログラム。
In addition, the following additional remarks are disclosed regarding the above Example.
(Appendix 1)
An image acquisition unit that acquires an image captured by the imaging device;
An altitude information acquisition unit for acquiring altitude information of the imaging device;
An inclination information acquisition unit for acquiring inclination information of the imaging device;
A control unit that determines object data to be displayed on the image based on error information of altitude included in the acquired altitude information and the acquired tilt information;
An information processing apparatus comprising:
(Appendix 2)
The controller is
The information processing apparatus according to appendix 1, wherein the altitude information is corrected using an error value determined according to a type of positioning method that has acquired the altitude information.
(Appendix 3)
The controller is
The information according to appendix 1 or 2, wherein whether or not the altitude information needs to be corrected is determined, and when it is determined that the altitude information needs to be corrected, the altitude information is corrected. Processing equipment.
(Appendix 4)
The information processing apparatus according to attachment 2, wherein the positioning method includes at least one of GPS, Wi-Fi network, and mobile network.
(Appendix 5)
The information processing apparatus according to appendix 2, wherein the error value is a maximum value of an error corresponding to the positioning method.
(Appendix 6)
Obtain an image captured by the imaging device,
Obtaining altitude information of the imaging device;
Obtaining tilt information of the imaging device;
Determining object data to be displayed on the image based on the error information of altitude included in the acquired altitude information and the acquired tilt information;
A display control method in which processing is executed by a computer.
(Appendix 7)
Obtain an image captured by the imaging device,
Obtaining altitude information of the imaging device;
Obtaining tilt information of the imaging device;
Determining object data to be displayed on the image based on the error information of altitude included in the acquired altitude information and the acquired tilt information;
A display control program for causing a computer to execute processing.

10 端末装置(情報処理装置)
11 通信部
12 撮像部(画像取得部)
13,34 表示部
14 記憶部
15 検出部(高度情報取得部、傾き情報取得部)
16 制御部
21 認識部
22 判定部
23 補正部
24 表示制御部
31 マイクロフォン
32 スピーカ
33 カメラ
35 操作部
36 センサ部
37 電力部
38 無線部
39 近距離通信部
40 補助記憶装置
41 主記憶装置
42 CPU
43 ドライブ装置
44 記録媒体
50 入力画像
51 コンテンツ(対象物)
52,60 オブジェクトデータ
10 Terminal device (information processing device)
11 Communication Unit 12 Imaging Unit (Image Acquisition Unit)
13, 34 Display unit 14 Storage unit 15 Detection unit (Altitude information acquisition unit, inclination information acquisition unit)
DESCRIPTION OF SYMBOLS 16 Control part 21 Recognition part 22 Judgment part 23 Correction part 24 Display control part 31 Microphone 32 Speaker 33 Camera 35 Operation part 36 Sensor part 37 Electric power part 38 Radio | wireless part 39 Short-range communication part 40 Auxiliary storage device 41 Main storage device 42 CPU
43 Drive device 44 Recording medium 50 Input image 51 Content (object)
52,60 Object data

Claims (6)

撮像装置により撮像された画像を取得する画像取得部と、
前記撮像装置の高度情報を取得する高度情報取得部と、
前記撮像装置の傾き情報を取得する傾き情報取得部と、
取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する制御部と、
を有することを特徴とする情報処理装置。
An image acquisition unit that acquires an image captured by the imaging device;
An altitude information acquisition unit for acquiring altitude information of the imaging device;
An inclination information acquisition unit for acquiring inclination information of the imaging device;
A control unit that determines object data to be displayed on the image based on error information of altitude included in the acquired altitude information and the acquired tilt information;
An information processing apparatus comprising:
前記制御部は、
前記高度情報を取得した測位方式の種類に応じて決められた誤差値を用いて前記高度情報の補正を行うことを特徴とする請求項1に記載の情報処理装置。
The controller is
The information processing apparatus according to claim 1, wherein the altitude information is corrected using an error value determined according to a type of a positioning method that acquired the altitude information.
前記制御部は、
前記高度情報の補正が必要な否かを判定し、前記高度情報の補正が必要であると判定された場合に、前記高度情報の補正を行うことを特徴とする請求項1又は2に記載の情報処理装置。
The controller is
The determination as to whether or not the altitude information needs to be corrected, and the altitude information is corrected when it is determined that the altitude information needs to be corrected. Information processing device.
前記測位方式は、GPS、Wi−Fiネットワーク、及びモバイルネットワークのうち、少なくとも1つを含むことを特徴とする請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the positioning method includes at least one of a GPS, a Wi-Fi network, and a mobile network. 撮像装置により撮像された画像を取得し、
前記撮像装置の高度情報を取得し、
前記撮像装置の傾き情報を取得し、
取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する、
処理をコンピュータが実行する表示制御方法。
Obtain an image captured by the imaging device,
Obtaining altitude information of the imaging device;
Obtaining tilt information of the imaging device;
Determining object data to be displayed on the image based on the error information of altitude included in the acquired altitude information and the acquired tilt information;
A display control method in which processing is executed by a computer.
撮像装置により撮像された画像を取得し、
前記撮像装置の高度情報を取得し、
前記撮像装置の傾き情報を取得し、
取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する、
処理をコンピュータに実行させるための表示制御プログラム。
Obtain an image captured by the imaging device,
Obtaining altitude information of the imaging device;
Obtaining tilt information of the imaging device;
Determining object data to be displayed on the image based on the error information of altitude included in the acquired altitude information and the acquired tilt information;
A display control program for causing a computer to execute processing.
JP2015044024A 2015-03-05 2015-03-05 Information processing apparatus, display control method, and display control program Expired - Fee Related JP6447251B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015044024A JP6447251B2 (en) 2015-03-05 2015-03-05 Information processing apparatus, display control method, and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015044024A JP6447251B2 (en) 2015-03-05 2015-03-05 Information processing apparatus, display control method, and display control program

Publications (2)

Publication Number Publication Date
JP2016163338A JP2016163338A (en) 2016-09-05
JP6447251B2 true JP6447251B2 (en) 2019-01-09

Family

ID=56845665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015044024A Expired - Fee Related JP6447251B2 (en) 2015-03-05 2015-03-05 Information processing apparatus, display control method, and display control program

Country Status (1)

Country Link
JP (1) JP6447251B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004247963A (en) * 2003-02-13 2004-09-02 Mvp:Kk Method, system, and apparatus for printing photographing image
JP4775205B2 (en) * 2006-09-20 2011-09-21 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP2014033392A (en) * 2012-08-06 2014-02-20 Nikon Corp Electronic apparatus, method, and program for calculating height of subject

Also Published As

Publication number Publication date
JP2016163338A (en) 2016-09-05

Similar Documents

Publication Publication Date Title
JP6344029B2 (en) Display method, display program, and display device
CN110169056B (en) Method and equipment for acquiring dynamic three-dimensional image
US10163266B2 (en) Terminal control method, image generating method, and terminal
US9367961B2 (en) Method, device and storage medium for implementing augmented reality
US8908043B2 (en) System and method for location-based operation of a head mounted display
US9355451B2 (en) Information processing device, information processing method, and program for recognizing attitude of a plane
WO2014169692A1 (en) Method,device and storage medium for implementing augmented reality
US11609345B2 (en) System and method to determine positioning in a virtual coordinate system
JP6217437B2 (en) Terminal apparatus, information processing apparatus, display control method, and display control program
JP6409644B2 (en) Display control method, display control program, and information processing apparatus
TWI587181B (en) Orientation sensing computing devices
WO2015010571A1 (en) Method, system, and device for performing operation for target
US10192332B2 (en) Display control method and information processing apparatus
JP6543924B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
CN114092655A (en) Map construction method, device, equipment and storage medium
JP6524706B2 (en) Display control method, display control program, and information processing apparatus
CN111093266B (en) Navigation calibration method and electronic equipment
CN109281664B (en) Method and device for predicting oil production of horizontal well
JP6447251B2 (en) Information processing apparatus, display control method, and display control program
CN112835021B (en) Positioning method, device, system and computer readable storage medium
CN114856527B (en) Method and device for determining wellhead distance in cluster well and computer storage medium
CN111798358B (en) Method and device for determining path time, electronic equipment and readable storage medium
US20150345944A1 (en) Method, apparatus, and terminal for measuring direction
CN110633335B (en) Method, terminal and readable storage medium for acquiring POI data
CN114254687A (en) Method, device and equipment for determining matching degree of drilling track and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181119

R150 Certificate of patent or registration of utility model

Ref document number: 6447251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees