JP6447251B2 - Information processing apparatus, display control method, and display control program - Google Patents
Information processing apparatus, display control method, and display control program Download PDFInfo
- Publication number
- JP6447251B2 JP6447251B2 JP2015044024A JP2015044024A JP6447251B2 JP 6447251 B2 JP6447251 B2 JP 6447251B2 JP 2015044024 A JP2015044024 A JP 2015044024A JP 2015044024 A JP2015044024 A JP 2015044024A JP 6447251 B2 JP6447251 B2 JP 6447251B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- altitude
- object data
- unit
- acquired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Details Of Cameras Including Film Mechanisms (AREA)
- Camera Data Copying Or Recording (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、情報処理装置、表示制御方法、及び表示制御プログラムに関する。 The present invention relates to an information processing apparatus, a display control method, and a display control program.
カメラ等の撮像装置により撮像された画像の一部にオブジェクトデータを重畳して表示させる拡張現実(Augmented Reality:AR)技術が知られている。 Augmented reality (AR) technology is known in which object data is superimposed on a part of an image captured by an imaging device such as a camera.
従来のAR技術では、撮像画像から認識されたARマーカ等の基準物(画像データ)に対する位置情報や識別情報(マーカID)を取得すると、マーカIDに対応付けられたオブジェクトデータと配置情報とを含むARコンテンツを取得し、マーカ領域の大きさや形状(歪み)から、マーカとカメラとの位置関係を推定し、推定した位置関係を用いて、オブジェクトデータの配置(位置、向き等)を決定し、決定した配置でオブジェクトデータを撮影画像に重畳表示する。 In the conventional AR technology, when position information or identification information (marker ID) with respect to a reference object (image data) such as an AR marker recognized from a captured image is acquired, object data and arrangement information associated with the marker ID are obtained. AR content is acquired, the positional relationship between the marker and the camera is estimated from the size and shape (distortion) of the marker region, and the arrangement (position, orientation, etc.) of the object data is determined using the estimated positional relationship. The object data is superimposed and displayed on the captured image with the determined arrangement.
また、ARマーカに対応付いたオブジェクトデータを表示させるのではなく、Global Positioning System(GPS,全地球測位網)等の所定の測位方式からの位置情報と、端末装置の傾き情報とに基づいて、その端末装置が撮影した画像に対応するオブジェクトデータ等を重畳表示する。 Also, instead of displaying the object data associated with the AR marker, based on position information from a predetermined positioning method such as a Global Positioning System (GPS) and inclination information of the terminal device, Object data or the like corresponding to the image captured by the terminal device is superimposed and displayed.
しかしながら、現在のGPSの精度として10m〜20m程度の誤差がある。GPSは、三次元(緯度、経度、高度)で位置を測位することができるが、そのうち水平方向(緯度、経度)の誤差は、許容される場合が多い。一方、高度の20mの誤差による影響は大きく、例えば上から見下ろした場合における対象物のオブジェクトデータを撮影画像に重畳させたい場合でも、誤差により下から見上げた場合における対象物のオブジェクトデータが表示されてしまう場合がある。このように、測位に伴う高度誤差により、適切なオブジェクトデータが表示されない。 However, there is an error of about 10 m to 20 m as the accuracy of the current GPS. GPS can measure a position in three dimensions (latitude, longitude, altitude), but errors in the horizontal direction (latitude, longitude) are often allowed. On the other hand, the effect of an error of 20 m on the altitude is large. For example, even when it is desired to superimpose the object data of the object when looking down from the top on the photographed image, the object data of the object when looking up from below due to the error is displayed. May end up. Thus, appropriate object data is not displayed due to the altitude error associated with positioning.
一つの側面では、本発明は、測位に伴う高度誤差に対応したオブジェクトデータを表示することを目的とする。 In one aspect, an object of the present invention is to display object data corresponding to an altitude error associated with positioning.
一つの態様では、情報処理装置において、撮像装置により撮像された画像を取得する画像取得部と、前記撮像装置の高度情報を取得する高度情報取得部と、前記撮像装置の傾き情報を取得する傾き情報取得部と、取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する制御部と、を有する。 In one aspect, in the information processing device, an image acquisition unit that acquires an image captured by the imaging device, an altitude information acquisition unit that acquires altitude information of the imaging device, and a tilt that acquires tilt information of the imaging device An information acquisition unit; and a control unit that determines object data to be displayed on the image based on the error information of altitude included in the acquired altitude information and the acquired tilt information.
一つの側面として、測位に伴う高度誤差に対応したオブジェクトデータを表示することができる。 As one aspect, object data corresponding to an altitude error associated with positioning can be displayed.
以下、図面に基づいて実施形態を説明する。 Embodiments will be described below with reference to the drawings.
<情報処理装置の機能構成例>
本実施形態における情報処理装置の一例としての端末装置の機能構成例について、図を用いて説明する。図1は、端末装置の機能構成の一例を示す図である。図1に示す端末装置10は、通信部11と、撮像部(画像取得部)12と、表示部13と、記憶部14と、検出部(高度情報取得部、傾き情報取得部)15と、制御部16とを有する。
<Functional configuration example of information processing apparatus>
A functional configuration example of a terminal device as an example of an information processing device in the present embodiment will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of a functional configuration of the terminal device. 1 includes a
通信部11は、例えばインターネットやLocal Area Network(LAN)等の通信ネットワークとデータの送受信が可能な状態で接続されている。通信部11は、例えばオブジェクトデータとその配置(位置)情報とを含むARコンテンツを管理する管理サーバ等に、撮影位置や傾き等の情報を送信し、管理サーバ等から対応するARコンテンツ情報等を受信する。オブジェクトデータとは、例えば現実空間に対応する三次元の仮想空間上に配置される物体のモデルデータ等であり、例えば撮像部12で撮影された画像に重畳して表示される重畳用データである。オブジェクトデータは、例えばテキスト、アイコン、アニメーション、マーク、模様、画像、映像等の様々な形態が含まれる。
The
また、通信部11は、例えば赤外線通信やWi−Fi(登録商標)、Bluetooth(登録商標)等の通信手法を用いて、他の端末装置10等のコンピュータと近距離通信を行うことができる。
The
撮像部12は、一定のフレーム間隔で撮影を行い、画像データを生成する。撮像部12は、例えばデジタルカメラ等の撮像装置であるが、これに限定されるものではない。また、撮像部12は、端末装置10に内蔵されていてもよく、接続可能な外部装置であってもよい。撮像部12を装着する場合には、傾きや方向等が端末装置10と一体に動作されるものが好ましいが、これに限定されるものではない。また、撮像部12は、外部(撮像装置)で撮影された画像データを取得してもよい。この場合には、撮像装置の位置情報や傾き情報を有することが好ましいが、これに限定されるものではない。
The
表示部13は、撮像部12から取得した撮影画像や、撮影画像にARコンテンツを重畳した合成画像を表示する。また、表示部13は、本実施形態における表示制御処理を行うために予め設定されたメニュー画面や設定画面、端末装置10を操作するための操作画面等を表示する。また、表示部13は、タッチパネル等のように、画面上から情報の入力を行ってもよい。
The
記憶部14は、本実施形態において必要な各種情報を記憶する。記憶部14は、例えば、制御部16等の制御により、情報を書き込んだり、読み出したりすることができる。記憶部14には、例えば上述したARコンテンツ情報、位置情報(高度)の補正時に用いられるオフセット情報、各種設定情報等が記憶されるが、記憶される内容については、これに限定されるものではない。
The
検出部15は、例えば、1又は複数の測位方式を用いて端末装置10(又は撮像部12)の位置情報及び傾き情報を取得する。位置情報の測位方式としては、例えばGPSを用いたり、接続中のWi−Fiネットワーク(例えば、ルータ)やモバイルネットワーク(例えば、基地局)等の位置から位置情報(緯度、経度、高度)を取得することができるが、これに限定されるものではない。例えば、検出部15は、撮像部12の高度情報を取得する高度情報取得部でもよく、撮像部12の傾き情報を取得する傾き情報取得部でもよい。
For example, the
なお、検出部15は、幾つのGPSを用いて測位したかの情報を取得することができる。また、検出部15は、同時に複数のWi−Fiネットワークやモバイルネットワークと接続中の場合には、それぞれの位置情報の平均値や、受信強度が最大のルータや基地局等の位置情報を用いて端末装置10の位置情報を取得してもよい。
In addition, the
また、傾き情報の測定方式としては、例えば電子コンパスやジャイロセンサ等を用いて、方位情報(傾斜(Pitch)、方位(Azimuth)、回転(Roll))等を取得することができるが、これに限定されるものではない。電子コンパスは、地磁気センサ、方位センサ等の一例であり、地球の地磁気を二次元又三次元で検出し、地磁気に対してどの方角を向いているかにより、方位情報を取得することができる。また、ジャイロセンサは、回転していることを検知したり、向きの変化を検知することで方位情報を取得することができる。 As a method for measuring tilt information, for example, using an electronic compass or a gyro sensor, orientation information (tilt (Pitch), orientation (Azimuth), rotation (Roll)), etc. can be obtained. It is not limited. The electronic compass is an example of a geomagnetic sensor, an azimuth sensor, etc., and can detect the earth's geomagnetism in two or three dimensions, and acquire azimuth information depending on which direction it is oriented with respect to the geomagnetism. Further, the gyro sensor can acquire the azimuth information by detecting that it is rotating or detecting a change in direction.
検出部15は、上述した位置情報や傾き情報を定期的に取得する。また、検出部15は、各種センサや撮像部12等による検出距離や認識距離、撮影範囲(画角情報)等を、予め設定された設定情報より取得することができる。
The
制御部16は、端末装置10の各構成全体を制御する。制御部16は、例えば位置認識処理や表示制御処理等が実行される。位置認識処理とは、オブジェクトデータ等に対する特定の位置情報が端末装置10が取得する撮影画像内において取得可能な位置範囲内に含まれるか否かを認識する処理である。また、表示制御処理とは、位置認識処理において特定の位置情報が撮影画像内において取得可能な範囲内にある場合に、対応するオブジェクトデータを撮影画像の所定位置に重畳する処理である。また、制御部16は、端末装置10にイントールされている各種アプリケーションやソフトウェアの実行等を制御する。また、制御部16は、各種処理の開始や終了を制御したり、予め設定された前処理等を行ったり、異常発生時にエラー処理等の制御を行う。
The
図1に示す制御部16は、認識部21と、判定部22と、補正部23と、表示制御部24とを有する。
The
認識部21は、端末装置10(又は撮像部12)の位置情報、傾き情報、認識距離、撮影範囲等の情報から、上述した位置認識処理を行う。例えば、認識部21は、端末装置10の位置情報、傾き情報、認識距離等から、その撮影画像内において取得可能な位置範囲内に対してオブジェクトデータを重畳表示するかを認識する。上述した位置認識処理により、例えばユーザにとって必要ないと思われる100km先の山が撮影されていたとしても、予め設定された距離以上離れている(認識距離外である)ため、その山に関するオブジェクトデータを重畳表示する対象にしない等の制御を行うことができる。なお、上述したようにオブジェクトデータを重畳表示する対象にするかしないかの判断基準については、例えば上述した方位、位置、認識距離等に基づいて予め設定され、記憶部14で管理されていてもよい。認識部21は、その情報を参照することで、上記の認識処理を行うことができる。
The recognizing
判定部22は、本実施形態における位置情報(例えば、高度等)の補正が必要であるか否かを判定する。補正の必要性の有無は、例えば高度の補正を行ってもオブジェクトデータの内容が変わらない場合に必要性がないと判定される。また、所定の測位方式の場合には、無条件で補正する必要性がないと判定してもよい。なお、補正の必要性の有無の判断は、これに限定されるものではない。
The
補正部23は、判定部22において、高度の補正が必要であると判定された場合に、例えば測位方式(例えば、GPS、Wi−Fiネットワーク、モバイルネットワーク)等に応じて設定された補正値(オフセット値)に基づいて、高度の補正値の算出を行う。オフセットに関する情報(オフセットテーブル)は、記憶部14に記憶される。なお、補正内容については、これに限定されるものではなく、高度以外の位置情報(緯度又は経度)や傾き情報を補正してもよい。また、補正される情報は、1つの種類(例えば、高度)だけでもよく、複数種類でもよい。
When the
表示制御部24は、判定部22による判定結果や、補正部23による補正結果等が反映された位置情報、傾き情報、ARコンテンツ情報等に基づき、例えば撮影画像に含まれる対象物に対応するようなオブジェクトデータを撮影画像に重畳表示する。また、表示制御部24は、重畳表示された画像を表示部13により表示させる。これにより、測位に伴う高度誤差を考慮したオブジェクト表示を実現できる。
The
端末装置10は、例えばタブレット端末やスマートフォン、Personal Digital Assistants(PDA)、ノート型PC等であるが、これに限定されるものではなく、例えばゲーム機器、携帯電話等の通信端末であってもよい。
The
<端末装置10のハードウェア構成例>
次に、端末装置10として機能するコンピュータのハードウェア構成例について、図を用いて説明する。図2は、端末装置のハードウェア構成の一例を示す図である。図2の例において、端末装置10は、マイクロフォン(以下、「マイク」という)31と、スピーカ32と、カメラ33と、表示部34と、操作部35と、センサ部36と、電力部37と、無線部38と、近距離通信部39と、補助記憶装置40と、主記憶装置41と、CPU42と、ドライブ装置43とを有し、これらはシステムバスBで相互に接続されている。
<Example of Hardware Configuration of
Next, a hardware configuration example of a computer that functions as the
マイク31は、ユーザが発した音声や、その他の音を入力する。スピーカ32は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク31及びスピーカ32は、例えば、通話機能等により通話相手と会話するとき等に用いることができるが、これに限定されるものではなく、音声による情報の入出力に用いることができる。
The
カメラ33は、例えば予め設定された画角内の実空間の画像(動画像、静止画像)を撮影する。カメラ33は、上述した撮像部12の一例である。カメラ33を端末装置10に内蔵されていてもよく、外付けされていてもよい。
For example, the
表示部34は、ユーザに対してOperating System(OS)や各種アプリケーションで設定された画面(例えば、実空間にオブジェクトデータが重畳された画像等)を表示する。表示部34は、上述した表示部13の一例である。また、表示部34は、タッチパネルディスプレイ等でもよく、その場合には表示部34は、入出力部としての機能を有する。表示部34は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。
The
操作部35は、表示部34の画面に表示された操作ボタンや端末装置10の外部に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタンや音量調整ボタンでもよく、所定の順番で配列された文字入力用の操作キー等でもよい。ユーザは、例えば表示部34の画面上で所定の操作を行ったり、上述した操作ボタンを押すことで、表示部34により画面上のタッチ位置が検出される。また、表示部34は、画面上にアプリ実行結果やコンテンツやアイコン、カーソル等を表示することができる。
The
センサ部36は、端末装置10のある時点又は継続的な位置や傾き(方位)、動作を検出する。センサ部36は、上述した検出部15の一例である。例えば、センサ部36は、端末装置10の傾き角度、方向、位置、加速度等を検出するが、これに限定されるものではない。なお、センサ部36としては、例えばGPS、ジャイロセンサ、傾きセンサ、加速度センサ等であるが、これに限定されるものではない。
The
電力部37は、端末装置10の各構成に対して電力を供給する。電力部37は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部37は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。
The power unit 37 supplies power to each component of the
無線部38は、例えばアンテナ等を用いて基地局(モバイルネットワーク)からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信データの送受信部である。
The
近距離通信部39は、例えば赤外線通信やWi−Fi、Bluetooth等の通信手法を用いて、他の端末装置10等のコンピュータと近距離通信を行うことができる。上述した無線部38及び近距離通信部39は、他のコンピュータとのデータの送受信を可能とする通信インタフェースである。
The short-
補助記憶装置40は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段である。補助記憶装置40は、CPU42からの制御信号に基づき、本実施形態における実行プログラム(表示制御プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置40は、CPU42からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。
The
主記憶装置41は、CPU42からの指示により補助記憶装置40から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置41は、例えばRead Only Memory(ROM)やRandom Access Memory(RAM)等である。
The
CPU42は、OS等の制御プログラム、及び主記憶装置41に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、本実施形態における表示制御における各処理を実現する。CPU42は、上述した制御部16の一例である。
The
具体的には、CPU42は、例えば操作部35等から得られるプログラムの実行指示等に基づき、補助記憶装置40にインストールされたプログラムを実行させることにより、主記憶装置41上でプログラムに対応する処理を行う。例えば、CPU42は、表示制御プログラムを実行させることで、上述した通信部11による各種データの通信、撮像部12による撮像、表示部13による表示、記憶部14による各種情報の表示、検出部15による位置情報や傾き情報の検出等の処理を行う。また、CPU42は、表示制御プログラムを実行させることで、上述した認識部21による位置認識、判定部22による補正処理の対象であるかの判定、補正部23による位置情報等の補正、表示制御部24による表示制御等の処理を行う。CPU42における処理内容は、上述した内容に限定されるものではない。CPU42により実行された内容は、必要に応じて補助記憶装置40等に記憶される。
More specifically, the
ドライブ装置43は、例えば記録媒体44等を着脱自在にセットすることができ、セットした記録媒体44に記録された各種情報を読み込んだり、所定の情報を記録媒体44に書き込むことができる。ドライブ装置43は、例えば媒体装填スロット等であるが、これに限定されるものではない。
The
記録媒体44は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体44は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体44は、USBメモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
The
本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等を実現することができる。また、上述した表示制御処理に対応する表示制御プログラムは、例えば端末装置10上で常駐している状態であってもよく、起動指示により起動させてもよい。
In the present embodiment, by installing an execution program (for example, a display control program) in the hardware configuration of the computer main body described above, the hardware control and the software cooperate to perform the display control processing in the present embodiment. Can be realized. Further, the display control program corresponding to the above-described display control processing may be in a resident state on the
<データ例>
次に、本実施形態における表示制御処理で使用されるデータ例について図を用いて説明する。図3は、ARコンテンツ情報の一例を示す図である。図3に示すARコンテンツ情報は、オブジェクトデータとその配置(位置)情報とを含む。
<Data example>
Next, an example of data used in the display control process in the present embodiment will be described with reference to the drawings. FIG. 3 is a diagram illustrating an example of AR content information. The AR content information shown in FIG. 3 includes object data and its arrangement (position) information.
図3に示すARコンテンツ情報の項目の一例としては、例えば「位置情報」、「カメラ情報」、「オブジェクトID」、「オブジェクトデータ」、「座標」等があるが、これに限定されるものではない。「位置情報」は、端末装置10の位置情報であり、予め設定された測位方式により測位された情報である。位置情報は、緯度、経度、高度からなる三次元座標(X,Y,Z)で表すことができる。「カメラ情報」とは、カメラの画角情報等のカメラパラメータであり、端末装置10又は撮像部12の傾き情報等を含む。「オブジェクトID」は、上述した位置情報及びカメラ情報に対応するオブジェクトデータを識別するための識別情報である。「オブジェクトデータ」は、実際のオブジェクトデータの情報である。図3の例では、オブジェクトデータとして画像データが示されているが、これに限定されるものではなく、テキスト、アイコン、アニメーション、マーク、模様、映像、或いはこれらの組み合わせのデータであってもよい。また、オブジェクトデータは、例えば建造物、椅子、机、配管、人物等の各種物体や矢印、マーク、標識、文字情報等のうち、少なくとも1つである。
Examples of the AR content information items shown in FIG. 3 include “position information”, “camera information”, “object ID”, “object data”, “coordinates”, and the like, but are not limited thereto. Absent. “Position information” is position information of the
「座標」は、位置情報やカメラ情報等に対応させてオブジェクトデータを重畳表示する位置を示す座標(x,y,z)である。座標は、各オブジェクトデータに対応付けられている。図3に示すARコンテンツ情報は、端末装置10が予め管理サーバ等から取得して記憶部14に記憶されていてもよく、オブジェクトデータを表示する際に、現在の位置情報、傾き情報等を管理サーバに問い合わせて、対応するARコンテンツ情報を取得してもよい。
“Coordinates” are coordinates (x, y, z) indicating a position where object data is superimposed and displayed in correspondence with position information, camera information, and the like. The coordinates are associated with each object data. The AR content information shown in FIG. 3 may be acquired in advance by the
図4は、補正時に用いられるオフセットデータの一例を示す図である。図4に示すオフセットデータの項目としては、例えば「測位方式」、「オフセット内容」等があるが、これに限定されるものではない。本実施形態では、端末装置10が現在の位置を測位したときの測位方式に応じて、オフセット内容を設定する。「測位方式」は、測位の種類を示す情報である。「オフセット内容」は、対応するオフセットの内容に関する情報であり、例えば測位方式(計測方式)に応じて決められた誤差の最大値等が設定されるが、これに限定されるものではない。
FIG. 4 is a diagram illustrating an example of offset data used at the time of correction. The items of offset data shown in FIG. 4 include, for example, “positioning method”, “offset content”, but are not limited thereto. In the present embodiment, the offset content is set according to the positioning method when the
また、本実施形態では、図4の例において測位方式がGPSの場合、オフセット値(誤差値)は、測位時に利用した人工衛星の数(以下、「衛星数」という)で判断する。これは、衛星数が多い方が誤差が少ないからである。例えば、「衛星数」が4個以下の場合には、オフセット100mとし、衛星数が4個より多く7個未満である場合には、オフセット50mとし、衛星数が7個より多い場合には、オフセット20mとする。 In the present embodiment, when the positioning method is GPS in the example of FIG. 4, the offset value (error value) is determined by the number of artificial satellites used for positioning (hereinafter referred to as “the number of satellites”). This is because the error is smaller when the number of satellites is larger. For example, when the “number of satellites” is 4 or less, the offset is 100 m. When the number of satellites is more than 4 and less than 7, the offset is 50 m. When the number of satellites is more than 7, The offset is 20 m.
また、Wi−Fiルータの場合には、端末装置10からの距離が近いため、100mのオフセット値を設定し、モバイルネットワークの場合には、1000mのオフセット値を設定する。図4に示す測位方式やそのオフセット値については、これに限定されるものではなく、例えば測位方式の種類や性能、測位環境等に応じて決められたオフセット値を設定することができる。
In the case of a Wi-Fi router, since the distance from the
<表示制御処理の一例>
次に、本実施形態における表示制御処理の一例についてフローチャートを用いて説明する。図5は、本実施形態における表示制御処理の一例を示すフローチャートである。図5の例において、端末装置10の制御部16は、前処理として、AR表示に対応する表示制御プログラムの起動や撮像部12の起動、画像領域の取得等を行う(S01)。次に、撮像部12は、撮影を開始して、入力画像(画像データ)を取得する(S02)。
<Example of display control processing>
Next, an example of display control processing in the present embodiment will be described using a flowchart. FIG. 5 is a flowchart illustrating an example of the display control process in the present embodiment. In the example of FIG. 5, the
次に、検出部15は、端末装置10の位置情報、傾き情報を取得する(S03)。S03の処理において、位置情報は、例えばGPSにより測位される。次に、制御部16は、補正を行うか否かを判断し(S04)、補正を行う場合(S04において、YES)、GPSにより得られた位置情報(緯度、経度、高度)のうち、高度誤差の補正処理を行う(S05)。なお、S05の処理については、後述する。また、S05の処理では、高度以外の誤差補正を行ってもよい。
Next, the
また、制御部16は、S04の処理において、補正を行わない場合(S04において、NO)、又は、S05の処理後、その取得した高度を含む位置情報を認識する(S06)。次に、表示制御部24は、端末装置10の位置情報及び傾き情報(カメラ情報)に対応するARコンテンツ情報を取得する(S07)。このときの位置情報は、高度が補正された位置情報である。また、S07の処理では、例えば位置情報及び傾き情報に対応するARコンテンツ情報を記憶部14から取得してもよい。また、S07の処理では、ARコンテンツ情報を管理する管理サーバに対して問い合わせを行い、位置情報及び傾き情報に対応するコンテンツ情報を取得してもよい。
Further, the
次に、表示制御部24は、変換行列を生成する(S08)。例えば、ARコンテンツ情報に含まれる「座標」の情報を実空間上の座標に変換する。変換行列を用いることで、例えば入力画像の撮影位置(座標)、大きさ、向きに対応して、オブジェクトデータの大きさ、向きを変更することができる。
Next, the
次に、表示制御部24は、取得したオブジェクトデータに対する画像変換(例えば、S07における変換行列による座標変換、モデル・ビュー変換、透視変換等)をした後(S09)、入力画像に重畳表示する(S10)。モデル・ビュー変換とは、オブジェクトデータを実際のオブジェクト(矢印、マーク、文字情報)等の表示データに変換する処理である。また、透視変換とは、例えば三次元形状のオブジェクトの場合に、傾きや透過率、陰影等の情報を付加した表示データに変換する処理である。なお、画像変換の種類については、これに限定されるものではない。
Next, the
次に、処理を終了するか否かを判断する(S11)、処理を終了しない場合(S11において、NO)、S02の処理に戻る。また、ユーザ等の終了指示等により処理を終了する場合(S11において、YES)、AR表示制御処理を終了する。 Next, it is determined whether or not to end the process (S11). If the process is not ended (NO in S11), the process returns to S02. In addition, when the process is terminated by a termination instruction or the like of the user or the like (YES in S11), the AR display control process is terminated.
<補正処理;S05>
次に、上述した補正処理(S05)について、フローチャートを用いて説明する。図6は、補正処理の一例を示すフローチャートである。図6の例において、補正部23は、GPS等の検出部15で取得した緯度、経度、高度等の位置情報を取得し(S21)、端末装置10の傾斜(Pitch)、方位(Azimuth)、回転(Roll)等の方位情報を取得する(S22)。
<Correction processing; S05>
Next, the correction process (S05) described above will be described using a flowchart. FIG. 6 is a flowchart illustrating an example of the correction process. In the example of FIG. 6, the
なお、本実施形態では、S21、S22の処理における高度と傾斜のみを用いる。S22の処理において、傾斜とは、例えば端末装置10の傾き角度で、X軸(水平方向)を中心にする回転角度であるが、これに限定されるものではない。また、S22の処理において、方位とは、端末装置10の方位角度で、y軸(垂直方向)を中心にする回転角度であるが、これに限定されるものではない。また、回転(Roll)は、端末装置10の回転角度で、イメージ図のようにz軸(奥行き)を中心にする回転角度であるが、これに限定されるものではない。
In the present embodiment, only the altitude and inclination in the processing of S21 and S22 are used. In the process of S22, the inclination is, for example, an inclination angle of the
次に、補正部23は、図4に示すオフセットデータを用いた所定の補正式により補正値を算出する(S23)。なお、補正式の一例としては、「補正後の高度=高度−sinθ*オフセット」であるが、これに限定されるものではない。θは、例えば上述した傾斜の角度である。
Next, the
次に、補正部23は、GPSの取得値(位置情報)を緯度、経度、補正後の高度として設定する(S24)。なお、上述の処理では、測位方式の一例としてGPSを用いたが、例えばWi−Fiネットワーク(ルータ)、モバイルネットワーク(基地局)に対しても同様にオフセットデータを用いて高度の補正を行うことができる。また、本実施形態では、高度の補正だけでなく、同様の手法を用いて緯度や経度等の補正を行ってもよい。
Next, the
<オブジェクトデータの表示位置(重畳位置)について>
ここで、本実施形態におけるオブジェクトデータの表示位置(重畳位置)について説明する。実空間上のオブジェクトデータは、ロケーション(緯度、経度、高度)によって測位されており、その情報は予め設定されたARコンテンツ情報情報等から取得することができる。本実施形態では、予めオブジェクトデータ毎にロケーション情報が含まれる。本実施形態における表示制御処理では、オブジェクトデータの画面位置の計算、二次元又は三次元での大きさ(サイズ)の計算、オブジェクトデータの回転の計算等を行い、例えば変換行列として生成しておく。
<About the display position (overlapping position) of the object data>
Here, the display position (superimposition position) of the object data in this embodiment will be described. Object data in real space is measured by location (latitude, longitude, altitude), and the information can be acquired from AR content information information set in advance. In the present embodiment, location information is included in advance for each object data. In the display control processing in the present embodiment, calculation of the screen position of the object data, calculation of the size (size) in two or three dimensions, calculation of rotation of the object data, etc. are performed, for example, generated as a transformation matrix. .
ここで、表示制御部24におけるオブジェクトデータの画面位置の計算処理についてフローチャートを用いて説明する。図7は、画面位置の計算処理の一例を示すフローチャートである。
Here, the calculation processing of the screen position of the object data in the
図7の例において、表示制御部24は、オブジェクトデータと端末装置10のロケーション(緯度、経度、高度)を入力し(S31)、緯度、経度、高度で、端末装置10とオブジェクトデータとの距離を計算する(S32)。なお、S31の処理では、端末装置10のロケーション(緯度、経度、高度)と傾き情報から対応するオブジェクトデータのロケーションを入力してもよい。
In the example of FIG. 7, the
次に、表示制御部24は、端末装置10の表示画面に対応させたx、y、z軸で、オブジェクトデータと画面中心との距離を計算する(S33)。このとき、オリエンテーション情報を入力する。オリエンテーション情報とは、例えば方向位置情報であり、方位、傾き、回転等が含まれる。次に、表示制御部24は、視野角と画面の高度とを入力し(S34)、OpenGL関連の位置パラメータを計算する(S35)。OpenGLとは、グラフィックス処理のためのプログラミングインターフェースである。位置パラメータ等を入力することで、入力画像に対応する三次元画像等を重畳表示することができる。なお、本実施形態では、OpenGLを用いるが、これに限定されるものではない。次に、表示制御部24は、OpenGLの位置パラメータを出力する(S36)。
Next, the
ここで、上述の内容を具体的に説明する。まず、緯度、経度、高度で端末装置10とオブジェクトデータの距離を以下の計算式(1)〜式(3)で計算する。式(1)〜式(3)では、例えば、緯度、経度、高度を用いて端末装置10とオブジェクトデータとの距離を計算する。
Here, the above-mentioned content is demonstrated concretely. First, the distance between the
次に、画面中央を原点とするx、y、z軸で、オブジェクトデータと画面中央の距離を以下の計算式(4)〜式(6)を用いて計算する。 Next, the distance between the object data and the screen center is calculated using the following calculation formulas (4) to (6) on the x, y, and z axes with the screen center as the origin.
次に、OpenGL位置パラメータを以下の計算式(7)〜式(11)を用いて計算する。 Next, the OpenGL position parameter is calculated using the following calculation formulas (7) to (11).
また、式(9)に示す20は、端末装置10とオブジェクトデータ間の距離で認識できる最小値(メートル)を示し、式(9)に示す200,000は、端末装置10とオブジェクトデータ間の距離で認識できる最大値(メートル)を示し、式(9)に示す50は、OpenGLの位置パラメータの最小値を示す。
Further, 20 shown in Expression (9) indicates a minimum value (meter) that can be recognized by the distance between the
上述の手法により取得したオブジェクトデータを入力画像の位置情報(三次元座標等)に対応付けて、所定の位置に重畳表示する。図8は、オブジェクトデータを重畳した画面例を示す図である。図8の例では、入力画像50に対して、オブジェクトデータの内容に対応する実物のコンテンツ(対象物)51の一例として山が表示されている。
The object data acquired by the above-described method is displayed in a superimposed manner at a predetermined position in association with position information (such as three-dimensional coordinates) of the input image. FIG. 8 is a diagram illustrating an example of a screen on which object data is superimposed. In the example of FIG. 8, a mountain is displayed as an example of real content (target object) 51 corresponding to the content of the object data with respect to the
この場合、入力画像50を撮像した端末装置10の位置情報と傾き情報とから、コンテンツ(対象物)51に対応させた情報として、オブジェクトデータ52−1,52−2を表示させることができる。オブジェクトデータ52は、名称等のテキストデータや矢印等の画像データ等であるが、これに限定されるものではない。また、本実施形態において、端末装置10の位置情報は、測位方式に対応して高度情報が補正される。
In this case, the object data 52-1 and 52-2 can be displayed as information corresponding to the content (target object) 51 from the position information and tilt information of the
ここで、図9は、本実施形態における高度の補正について説明するための図である。図9の例では、オブジェクトデータの一例として城60が画面に表示される。図9の例において、例えばGPSの測位による高度が0mであり、現実のユーザの位置が高度20mであったとすると、上(20mの位置)から見下ろしているにもかかわらず、下から見上げた城60が表示される可能性がある。
Here, FIG. 9 is a diagram for explaining altitude correction in the present embodiment. In the example of FIG. 9, a
例えば、0〜10mの高度から見れるオブジェクトデータと、10m以上の位置から見れるオブジェクトデータとで、異なるオブジェクトデータが設定されていたとしても、高度の誤差により異なるオブジェクトデータが表示されてしまう。したがって、本実施形態では、上述した補正処理を行う。 For example, even if different object data is set for object data that can be seen from an altitude of 0 to 10 m and object data that can be seen from a position of 10 m or more, different object data is displayed due to an error in altitude. Therefore, in the present embodiment, the above-described correction process is performed.
補正の一例としては、上述したように「補正後の高度=取得した高度(誤差を含む)−端末の傾き(誤差なし)*オフセット(例えば、誤差の最大値等)」を用いて計算することができる。上述した図9の例に対応させると、端末装置10の傾きθが−50°とした場合、補正後の高度は、「高度−sinθ*20m(オフセットを20mとした場合)=0m−sin(−50°)*20=0m−(−15.32m)=15.32m(誤差を15.32m補正)」として、高度を補正することができる。
As an example of correction, as described above, calculation is performed using “corrected altitude = acquired altitude (including error) −tilt of terminal (no error) * offset (for example, maximum error value)”. Can do. In correspondence with the example of FIG. 9 described above, when the inclination θ of the
また、上述したθの値は、端末装置10が上向きと下向きとで正負が逆になる。そのため、端末装置10の傾きが下向きなら上方向に高度を補正し、上向きなら下方向に高度を補正されることになる。また、sinθの正弦波を利用することで、−1〜+1の範囲、かつ、90°、−90°前後での変化がより自然となる。なお、本実施形態において、測位方式がWi−Fiネットワークやモバイルネットワークの場合には、それに対応するオフセット値を用いて補正が行われる。
Further, the value of θ described above is reversed between positive and negative depending on whether the
ここで、補正値は、ユーザが20mの位置にいる想定で作成しているが、計算結果では、15.32mと誤差がある。しかしながら、本実施形態では、補正の正確性は、それほど必要なく、例えば15.32mに補正することで、高度10mを基準にオブジェクトデータが切り替わるような大きな城等のオブジェクトデータを表示する場合には、その高度にあったオブジェクトデータを表示させることができる。本実施形態では、測位方式に応じたオフセット値を用いて簡易な計算で補正値を算出することができるため、処理負荷を軽減し、リアルタイムなオブジェクトデータの重畳表示を実現することができる。 Here, the correction value is created on the assumption that the user is at a position of 20 m, but the calculation result has an error of 15.32 m. However, in the present embodiment, the accuracy of correction is not so necessary. For example, when displaying object data such as a large castle where object data is switched based on an altitude of 10 m by correcting to 15.32 m, for example. , It can display the object data that suits its altitude. In the present embodiment, the correction value can be calculated by simple calculation using the offset value according to the positioning method, so that the processing load can be reduced and real-time object data superimposed display can be realized.
図10は、オブジェクトデータの切り替わりの例を示す図である。図10に示すようにことができる。図10に示すように、本実施形態におけるGPSの高度補正がない場合には、下から見た場合は見上げた画像(城60−1)が表示されてしまうが、本実施形態を適用して高度補正を行うことで、図10に示すように、端末装置10から上から見た場合の見下ろした構図の画像(城60−2)を表示することができる。
FIG. 10 is a diagram illustrating an example of switching of object data. As shown in FIG. As shown in FIG. 10, when there is no GPS altitude correction in the present embodiment, the looked up image (castle 60-1) is displayed when viewed from below, but this embodiment is applied. By performing altitude correction, as shown in FIG. 10, it is possible to display an image (castle 60-2) with a composition looking down when viewed from above from the
上述したように、本実施形態によれば、GPS等の測位に伴う高度誤差に対応したオブジェクトデータを表示することができる。例えば、本実施形態では、GPS等によりロケーション情報(緯度、経度、高度)を取得し、GPSの認識状況による誤差の範囲情報を得る。また、電子コンパスにより端末の角度情報を取得し、高度の情報、誤差の範囲情報、端末の角度情報により、高度を補正する。本実施形態は、例えばARマーカを利用したAR(ビジョンベースAR)にも、ロケーションベースARにも適用することができる。 As described above, according to the present embodiment, it is possible to display object data corresponding to an altitude error associated with positioning such as GPS. For example, in the present embodiment, location information (latitude, longitude, altitude) is acquired by GPS or the like, and error range information based on GPS recognition status is obtained. Further, the angle information of the terminal is acquired by an electronic compass, and the altitude is corrected by the altitude information, the error range information, and the terminal angle information. The present embodiment can be applied to, for example, an AR (vision based AR) using an AR marker and a location based AR.
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。 Although the embodiments have been described in detail above, the invention is not limited to the specific embodiments, and various modifications and changes can be made within the scope described in the claims. Moreover, it is also possible to combine a part or all of each Example mentioned above.
なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
撮像装置により撮像された画像を取得する画像取得部と、
前記撮像装置の高度情報を取得する高度情報取得部と、
前記撮像装置の傾き情報を取得する傾き情報取得部と、
取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する制御部と、
を有することを特徴とする情報処理装置。
(付記2)
前記制御部は、
前記高度情報を取得した測位方式の種類に応じて決められた誤差値を用いて前記高度情報の補正を行うことを特徴とする付記1に記載の情報処理装置。
(付記3)
前記制御部は、
前記高度情報の補正が必要な否かを判定し、前記高度情報の補正が必要であると判定された場合に、前記高度情報の補正を行うことを特徴とする付記1又は2に記載の情報処理装置。
(付記4)
前記測位方式は、GPS、Wi−Fiネットワーク、及びモバイルネットワークのうち、少なくとも1つを含むことを特徴とする付記2に記載の情報処理装置。
(付記5)
前記誤差値は、前記測位方式に対応する誤差の最大値であることを特徴とする付記2に記載の情報処理装置。
(付記6)
撮像装置により撮像された画像を取得し、
前記撮像装置の高度情報を取得し、
前記撮像装置の傾き情報を取得し、
取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する、
処理をコンピュータが実行する表示制御方法。
(付記7)
撮像装置により撮像された画像を取得し、
前記撮像装置の高度情報を取得し、
前記撮像装置の傾き情報を取得し、
取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する、
処理をコンピュータに実行させるための表示制御プログラム。
In addition, the following additional remarks are disclosed regarding the above Example.
(Appendix 1)
An image acquisition unit that acquires an image captured by the imaging device;
An altitude information acquisition unit for acquiring altitude information of the imaging device;
An inclination information acquisition unit for acquiring inclination information of the imaging device;
A control unit that determines object data to be displayed on the image based on error information of altitude included in the acquired altitude information and the acquired tilt information;
An information processing apparatus comprising:
(Appendix 2)
The controller is
The information processing apparatus according to
(Appendix 3)
The controller is
The information according to
(Appendix 4)
The information processing apparatus according to attachment 2, wherein the positioning method includes at least one of GPS, Wi-Fi network, and mobile network.
(Appendix 5)
The information processing apparatus according to appendix 2, wherein the error value is a maximum value of an error corresponding to the positioning method.
(Appendix 6)
Obtain an image captured by the imaging device,
Obtaining altitude information of the imaging device;
Obtaining tilt information of the imaging device;
Determining object data to be displayed on the image based on the error information of altitude included in the acquired altitude information and the acquired tilt information;
A display control method in which processing is executed by a computer.
(Appendix 7)
Obtain an image captured by the imaging device,
Obtaining altitude information of the imaging device;
Obtaining tilt information of the imaging device;
Determining object data to be displayed on the image based on the error information of altitude included in the acquired altitude information and the acquired tilt information;
A display control program for causing a computer to execute processing.
10 端末装置(情報処理装置)
11 通信部
12 撮像部(画像取得部)
13,34 表示部
14 記憶部
15 検出部(高度情報取得部、傾き情報取得部)
16 制御部
21 認識部
22 判定部
23 補正部
24 表示制御部
31 マイクロフォン
32 スピーカ
33 カメラ
35 操作部
36 センサ部
37 電力部
38 無線部
39 近距離通信部
40 補助記憶装置
41 主記憶装置
42 CPU
43 ドライブ装置
44 記録媒体
50 入力画像
51 コンテンツ(対象物)
52,60 オブジェクトデータ
10 Terminal device (information processing device)
11
13, 34
DESCRIPTION OF
43
52,60 Object data
Claims (6)
前記撮像装置の高度情報を取得する高度情報取得部と、
前記撮像装置の傾き情報を取得する傾き情報取得部と、
取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する制御部と、
を有することを特徴とする情報処理装置。 An image acquisition unit that acquires an image captured by the imaging device;
An altitude information acquisition unit for acquiring altitude information of the imaging device;
An inclination information acquisition unit for acquiring inclination information of the imaging device;
A control unit that determines object data to be displayed on the image based on error information of altitude included in the acquired altitude information and the acquired tilt information;
An information processing apparatus comprising:
前記高度情報を取得した測位方式の種類に応じて決められた誤差値を用いて前記高度情報の補正を行うことを特徴とする請求項1に記載の情報処理装置。 The controller is
The information processing apparatus according to claim 1, wherein the altitude information is corrected using an error value determined according to a type of a positioning method that acquired the altitude information.
前記高度情報の補正が必要な否かを判定し、前記高度情報の補正が必要であると判定された場合に、前記高度情報の補正を行うことを特徴とする請求項1又は2に記載の情報処理装置。 The controller is
The determination as to whether or not the altitude information needs to be corrected, and the altitude information is corrected when it is determined that the altitude information needs to be corrected. Information processing device.
前記撮像装置の高度情報を取得し、
前記撮像装置の傾き情報を取得し、
取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する、
処理をコンピュータが実行する表示制御方法。 Obtain an image captured by the imaging device,
Obtaining altitude information of the imaging device;
Obtaining tilt information of the imaging device;
Determining object data to be displayed on the image based on the error information of altitude included in the acquired altitude information and the acquired tilt information;
A display control method in which processing is executed by a computer.
前記撮像装置の高度情報を取得し、
前記撮像装置の傾き情報を取得し、
取得した前記高度情報に含まれる高度の誤差情報と、取得した前記傾き情報とに基づき、前記画像に表示するオブジェクトデータを決定する、
処理をコンピュータに実行させるための表示制御プログラム。 Obtain an image captured by the imaging device,
Obtaining altitude information of the imaging device;
Obtaining tilt information of the imaging device;
Determining object data to be displayed on the image based on the error information of altitude included in the acquired altitude information and the acquired tilt information;
A display control program for causing a computer to execute processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015044024A JP6447251B2 (en) | 2015-03-05 | 2015-03-05 | Information processing apparatus, display control method, and display control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015044024A JP6447251B2 (en) | 2015-03-05 | 2015-03-05 | Information processing apparatus, display control method, and display control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016163338A JP2016163338A (en) | 2016-09-05 |
JP6447251B2 true JP6447251B2 (en) | 2019-01-09 |
Family
ID=56845665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015044024A Expired - Fee Related JP6447251B2 (en) | 2015-03-05 | 2015-03-05 | Information processing apparatus, display control method, and display control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6447251B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004247963A (en) * | 2003-02-13 | 2004-09-02 | Mvp:Kk | Method, system, and apparatus for printing photographing image |
JP4775205B2 (en) * | 2006-09-20 | 2011-09-21 | カシオ計算機株式会社 | Imaging apparatus, imaging method, and program |
JP2014033392A (en) * | 2012-08-06 | 2014-02-20 | Nikon Corp | Electronic apparatus, method, and program for calculating height of subject |
-
2015
- 2015-03-05 JP JP2015044024A patent/JP6447251B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016163338A (en) | 2016-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6344029B2 (en) | Display method, display program, and display device | |
CN110169056B (en) | Method and equipment for acquiring dynamic three-dimensional image | |
US10163266B2 (en) | Terminal control method, image generating method, and terminal | |
US9367961B2 (en) | Method, device and storage medium for implementing augmented reality | |
US8908043B2 (en) | System and method for location-based operation of a head mounted display | |
US9355451B2 (en) | Information processing device, information processing method, and program for recognizing attitude of a plane | |
WO2014169692A1 (en) | Method,device and storage medium for implementing augmented reality | |
US11609345B2 (en) | System and method to determine positioning in a virtual coordinate system | |
JP6217437B2 (en) | Terminal apparatus, information processing apparatus, display control method, and display control program | |
JP6409644B2 (en) | Display control method, display control program, and information processing apparatus | |
TWI587181B (en) | Orientation sensing computing devices | |
WO2015010571A1 (en) | Method, system, and device for performing operation for target | |
US10192332B2 (en) | Display control method and information processing apparatus | |
JP6543924B2 (en) | INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS | |
CN114092655A (en) | Map construction method, device, equipment and storage medium | |
JP6524706B2 (en) | Display control method, display control program, and information processing apparatus | |
CN111093266B (en) | Navigation calibration method and electronic equipment | |
CN109281664B (en) | Method and device for predicting oil production of horizontal well | |
JP6447251B2 (en) | Information processing apparatus, display control method, and display control program | |
CN112835021B (en) | Positioning method, device, system and computer readable storage medium | |
CN114856527B (en) | Method and device for determining wellhead distance in cluster well and computer storage medium | |
CN111798358B (en) | Method and device for determining path time, electronic equipment and readable storage medium | |
US20150345944A1 (en) | Method, apparatus, and terminal for measuring direction | |
CN110633335B (en) | Method, terminal and readable storage medium for acquiring POI data | |
CN114254687A (en) | Method, device and equipment for determining matching degree of drilling track and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6447251 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |