JP7277410B2 - 拡張現実表示装置 - Google Patents

拡張現実表示装置 Download PDF

Info

Publication number
JP7277410B2
JP7277410B2 JP2020059922A JP2020059922A JP7277410B2 JP 7277410 B2 JP7277410 B2 JP 7277410B2 JP 2020059922 A JP2020059922 A JP 2020059922A JP 2020059922 A JP2020059922 A JP 2020059922A JP 7277410 B2 JP7277410 B2 JP 7277410B2
Authority
JP
Japan
Prior art keywords
augmented reality
display device
reality display
virtual object
ground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020059922A
Other languages
English (en)
Other versions
JP2021157717A (ja
Inventor
充徳 吉野
Original Assignee
東邦ガスネットワーク株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 東邦ガスネットワーク株式会社 filed Critical 東邦ガスネットワーク株式会社
Priority to JP2020059922A priority Critical patent/JP7277410B2/ja
Publication of JP2021157717A publication Critical patent/JP2021157717A/ja
Application granted granted Critical
Publication of JP7277410B2 publication Critical patent/JP7277410B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、埋設物位置確認用の拡張現実表示装置であって、地面を撮影する撮像部と、撮像部により撮影された撮影画像を表示する表示部と、拡張現実表示装置の位置情報を取得する位置情報取得部と、を備え、撮像部により撮影される地面における埋設物に関する仮想オブジェクトを表示する拡張現実表示装置に関するものである。
例えば、新規に水道管などを地中に敷設しようとする場合、敷設しようとする位置に、水道管を敷設するための設置溝を掘り起こし、当該設置溝に水道管を敷設する。この設置溝を掘り起こす際、既設のガス管などの埋設物があれば、当該埋設物を避けて工事を行わなければならない。このため、工事を行う現場では、既設のガス管の敷設状態を示す竣工図等に基づいて測量を行うなどし、埋設物の位置を割り出した後、設置溝を掘り起こす位置を定めている。この測量等によって埋設物の位置を割り出す作業は、時間がかかるため、作業時間の短縮化が求められている。
そこで注目されるのが、実空間に仮想オブジェクトを重畳して表示する拡張現実(AR:Augmented Reality)と呼ばれる技術である。撮像部および撮像部により撮影された撮影画像を表示させる拡張現実表示装置を用い、既設のガス管などを仮想オブジェクトとして、撮像部により撮影された実空間(地面など)の撮影画像に重畳して表示すれば、上記のように測量等の時間を要することなく、埋設物の位置を確認することができる。
ここで、AR技術には、ビジョンベースARと呼ばれる技術と、ロケーションベースARと呼ばれる技術がある。
ビジョンベースARは、マーカーや構造物等を事前に登録しておき、その登録されたマーカーや構造物等の位置において、仮想オブジェクトを表示させる技術である。しかし、仮想オブジェクトとしてガス管等の埋設物を表示しようとした場合、ガス管等の埋設物は広範囲に渡って埋設されるため、マーカーや構造物の登録作業が膨大となってしまう。よって、ガス管等の埋設物の位置を確認するために、ビジョンベースARを利用することは現実的でない。
一方のロケーションベースARは、GPS機器等により取得する位置情報に紐づけて仮想オブジェクトを表示する技術であり、ガス管等の埋設物を広範囲に表示させることに向いている。そこで、例えば、特許文献1に示すように、ガス管等の埋設物の位置を確認するためには、ロケーションベースARの活用が考えられる。
特開平10-313515号公報
しかしながら、上記従来技術には次のような問題があった。
ロケーションベースARは、GPS機器により拡張現実表示装置の位置は特定できるが、撮影画像上のどこに仮想オブジェクトを表示させるのかを正確に特定することができない。このため、撮影画像に重畳される仮想オブジェクトの尺度が、撮影画像上の実空間の物の尺度と合わない場合がある。すると、仮想オブジェクトとして既設のガス管等の埋設物を、撮影画像に重畳させて表示させても、実際に埋設されている位置とはずれて仮想オブジェクトが表示されたり、実際の埋設物よりも大きいサイズ(または小さいサイズ)の仮想オブジェクトが表示されたりしてしまうおそれがある。すると、既設の埋設物がある場所で、新規に水道管などを敷設しようとした場合、既設の埋設物と干渉してしまうような位置に水道管を敷設する計画となっていても、実際に埋設されている位置とはずれて表示される仮想オブジェクトによって、問題ないと判断され、地面を掘り起こす際に、既設の埋設物を損傷させるおそれがあった。
本発明は、上記問題点を解決するためのものであり、仮想オブジェクトの尺度を実空間の尺度に合わせて、正確な位置に表示させることが可能な埋設物位置確認用の拡張現実表示装置を提供することを目的とする。
上記課題を解決するために、本発明の拡張現実表示装置は、次のような構成を有している。
(1)埋設物位置確認用の拡張現実表示装置であって、地面を撮影する撮像部と、撮像部により撮影された撮影画像を表示する表示部と、拡張現実表示装置の位置情報を取得する位置情報取得部と、を備え、撮像部により撮影される地面における埋設物に関する仮想オブジェクトを表示する拡張現実表示装置において、仮想オブジェクトは、埋設物の敷設状態を表す図面データにより生成されたものであり、少なくとも埋設物の位置情報を有すること、拡張現実表示装置は、位置情報取得部により取得した位置情報と、撮像部と仮想オブジェクトの投影対象としての地面との距離である距離情報と、撮像部の画角と、に基づき、表示部に表示される地面の表示範囲を算出し、仮想オブジェクトの、表示範囲の範囲外となる部分をトリミングし、トリミングされた後の仮想オブジェクトを撮影画像に重畳して表示部に、実空間の尺度で表示する仮想オブジェクト合成プログラムを有すること、撮像部と地面との距離を定める位置決め部材を有すること、位置決め部材は、撮像部の中央に位置すること、撮像部が地面とともに撮影するユーザの足を、撮影画像中で、撮影画像に重畳して表示される仮想オブジェクトの位置に合わせ、埋設物の位置を特定すること、を特徴とする。
(1)に記載の拡張現実表示装置によれば、仮想オブジェクト合成プログラムが、位置情報取得部により取得した位置情報と、撮像部と地面との距離である距離情報と、撮像部の画角と、に基づき、表示部に表示される撮影画像の表示範囲を算出し、仮想オブジェクトの、表示範囲の範囲外となる部分をトリミングする。仮想オブジェクトは、埋設物の位置情報を有するため、位置情報取得部により取得した拡張現実表示装置の位置情報と照らし合わせ、仮想オブジェクトの内、表示範囲の範囲外となる部分を正確にトリミングすることが可能である。よって、仮想オブジェクトの尺度を実空間の尺度に合わせて、撮影画像の正確な位置に重畳して表示部に表示することが可能である。また、拡張現実表示装置を使用する場所に関わらず、位置決め部材(例えば、一脚や三脚のような棒状部材)によって撮像部と地面との距離が定まるため、当該定められた距離を距離情報として用いて、撮影画像の表示範囲を算出することができる。なお、この場合の距離情報は、仮想オブジェクト合成プログラムにおいて予め定められた値として用いられても良いし、拡張現実表示装置を使用する際に、手入力より距離情報を入力しても良い。
(4)(1)乃至(3)のいずれか1つに記載の拡張現実表示装置において、撮像部はズーム機能を有すること、画角は、ズーム機能による焦点距離の変動に応じて算出されること、を特徴とする。
(4)に記載の拡張現実表示装置によれば、地面に広範囲に渡って埋設される埋設物について、撮像部の有するズーム機能によって、埋設物の工事等に必要な部分の仮想オブジェクトを表示させることができる。
(5)(1)乃至(4)のいずれか1つに記載の拡張現実表示装置において、図面データは、少なくとも既設の埋設物および未設の埋設物の両方、またはいずれか一方に関するものであること、を特徴とする。
(5)に記載の拡張現実表示装置によれば、既設の埋設物を仮想オブジェクトとして、実空間の尺度に合わせて撮影画像に重畳して表示することができるため、既設の埋設物の位置を、容易にかつ正確に確認できるようになる。そうすると、例えば、ガス管等の既設の埋設物がある場所に、新規に水道管などを敷設しようとする場合、既設の埋設物を避けて工事をすることが容易となる。
また、例えば工事計画中の未設の埋設物を仮想オブジェクトとして、実空間の尺度に合わせて撮影画像に重畳して表示することができる。工事予定の現場において、正確な尺度で未設の埋設物の位置を仮想オブジェクトによって確認することができれば、例えば、舗装道路のカッター工事を行う際のカッターラインをマーキングする等の作業が容易になるなど、工事の準備作業が容易になる。また、既設の埋設物等の障害物を避けた計画となっているか等、工事計画の妥当性を容易にかつ正確に確認可能となる。
本発明の拡張現実表示装置によれば、仮想オブジェクトの尺度を実空間の尺度に合わせて、正確な位置に表示させることが可能となる。
第1の実施形態に係る拡張現実表示装置の外観の構成を示す図である。 第1の実施形態に係る拡張現実表示装置のハードウェア構成を示すブロック図である。 第1の実施形態に係る拡張現実表示装置の使用状態の一例を示す図である。 (a)~(c)は、既設の埋設物に関する仮想オブジェクトを撮影画像に重畳する場合を説明する図である。(a)は、仮想オブジェクト重畳前のディスプレイに表示される撮影画像であり、(b)は、仮想ガス管を表す図であり、(c)は、仮想オブジェクト重畳後のディスプレイに表示される撮影画像である。 (a)および(b)は、既設の埋設物に加え、未設の埋設物に関する仮想オブジェクトを撮影画像に重畳する場合を説明する図である。(a)は、仮想オブジェクト重畳前のディスプレイに表示される撮影画像であり、(b)は、仮想オブジェクト重畳後のディスプレイに表示される撮影画像である。 仮想オブジェクト合成プログラムの動作を表すフローチャートである。 従来技術によって仮想オブジェクトを重畳しディスプレイに表示される撮影画像である。 第2の実施形態に係る拡張現実表示装置のハードウェア構成を示すブロック図である。 第2の実施形態に係る拡張現実表示装置の使用状態の一例を示す図である。
本発明の拡張現実表示装置の実施形態について、図面を参照しながら詳細に説明する。
(第1の実施形態)
まず、第1の実施形態に係る拡張現実表示装置1の構成について説明する。図1は、本実施形態に係る拡張現実表示装置1の外観の構成を示す図である。図2は、拡張現実表示装置1のハードウェア構成を示すブロック図である。図3は、拡張現実表示装置1の使用状態の一例を示す図である。
拡張現実表示装置1は、図1に示すように、端末装置11と、GPS機器(位置情報取得部の一例)12と、カメラ(撮像部の一例)13と、定尺棒(位置決め部材の一例)14と、からなる。
端末装置11は、図1に示すように、ディスプレイ(表示部の一例)115を表面に備えており、該ディスプレイ115には、表面にタッチパネル(後述する操作部114)が設けられている。
GPS機器12は、GPS衛星が発するGPS信号を受信することで、拡張現実表示装置1の位置情報(経度、緯度)を取得する。
カメラ13は、後述する定尺棒14の接地面14a側(図1中の下方)を向いて取り付けられており、実空間を撮影するためのものである。そして、カメラ13により撮影した撮影画像は、ディスプレイ115に表示させることが可能である。また、カメラ13はズーム機能を有しており、不図示のズームレンズにより、屈折率や焦点距離を調整することが可能である。なお、カメラ13は、ズーム機能を有さず、単焦点レンズを有するものとしても良い。
定尺棒14は、円筒状の形状を有しており、一方の端部(図1中の上端部)にGPS機器12が取り付けられている。また、他方の端部(図1中の下端部)は、接地面14aとなっており、拡張現実表示装置1は、図3に示すように、接地面14aを地面30に当接させ、定尺棒14を地面30に対して垂直となるように使用者が保持して使用する。このように拡張現実表示装置1が保持されることで、カメラ13と地面30との距離D11が、拡張現実表示装置1を使用する場所に関わらず、定まることとなる。
次に、拡張現実表示装置1のハードウェアの構成について説明する。端末装置11は、図2に示すように、CPU111と、メモリ112と、方位センサ113と、慣性センサ117と、操作部114と、ディスプレイ115と、通信部116とを有している。そして、メモリ112には、仮想オブジェクトを、カメラ13により撮影した撮影画像に重畳してディスプレイ115に表示させるための仮想オブジェクト合成プログラム112aが記憶されている。
CPU111と、メモリ112と、方位センサ113と、操作部114と、ディスプレイ115と、通信部116とは、それぞれ相互にデータの授受が可能なように電気的に接続されている。また、CPU111には、端末装置11の外部に設けられているGPS機器12およびカメラ13も、相互にデータの授受が可能なように電気的に接続されている。
CPU111は、仮想オブジェクト合成プログラム112aに従って、端末装置11全体を制御する。
メモリ112は、コンピュータに内蔵されるROM、RAM、ハードディスク等の記憶装置である。
方位センサ113は、端末装置11が向く方角を検知するセンサである。例えば、地磁気センサが用いられる。
慣性センサ117は、端末装置11の、地面30に対する角度など、姿勢を検知するためのセンサである。加速度センサや角速度センサが用いられる。
操作部114は、例えば上述したディスプレイ115の表面に設けられたタッチパネルである。キーボード等の入力装置を設けることとしても良い。
ディスプレイ115は、カメラ13により撮影した撮影画像や、タッチパネルの操作の用に供される仮想的なボタン(後述する操作ボタン201,202(図4,図5参照))等を表示する。
通信部116は、サーバ等の外部の装置との間で通信ネットワークを介して情報の授受を実行する。授受される情報とは、例えば、カメラ13により撮影される撮影画像に重畳するために予め生成された仮想オブジェクトである。
ここで、仮想オブジェクトとは、拡張現実表示装置1を使用する位置(GPS機器12により取得する位置情報に基づく)における埋設物を表示するものであり、当該埋設物の敷設状態を表す図面データ(例えば、3次元点群データや、オルソ画像など)により生成されるものである。また、上記図面データとは、例えば既設の埋設物に関する竣工図等の管理図面や、工事計画中の未設の埋設物に関する図面が挙げられる。
既設の埋設物に関する竣工図等の管理図面により生成された仮想オブジェクトは、拡張現実表示装置1を使用する位置において、その地下に実際に埋設されている埋設物を表すものであり、拡張現実表示装置1の使用者は、どのような埋設物が敷設されているのか、撮影画像に重畳される仮想オブジェクトにより確認することができる。
一方で、工事計画中の未設の埋設物に関する図面により生成された仮想オブジェクトは、拡張現実表示装置1を使用する位置において、これから敷設される予定の埋設物を表すものであり、拡張現実表示装置1の使用者は、どのような計画で埋設物が敷設されるのか、撮影画像に重畳される仮想オブジェクトにより確認することができる。
次に、拡張現実表示装置1の使用態様および仮想オブジェクト合成プログラム112aの動作について説明する。例えば、図3に示すように、地面30の地下にガス管(埋設物の一例)20が敷設されている場所において、新規に水道管を埋設しようとする場合に、ガス管20の埋設位置を確認するために、拡張現実表示装置1を使用したとする。
ガス管20は、直管21A~21Eおよび継手22A~22Dからなっている。直管21A,21Eは、ともに地面30から同一の深さ(例えば、30cmの深さ)に埋設されるとともに、地面30に対して平行に敷設されている。そして、直管21Aに継手22Aを介して接続された直管21Bと、直管21Eに継手22Dを介して接続された直管21Dとは、地面30に対して直角に敷設されている。継手22B,22Cにより、直管21Cと直管21Dとを接続する直管21Cは、直管21A,21Eよりも深い位置(例えば、地面30から60cmの深さ)において、地面30に対して平行に敷設されている。
拡張現実表示装置1を使用するには、定尺棒14の接地面14aを地面30に当接させ、定尺棒14を地面30に対して垂直となるように使用者が保持して使用する。このとき、カメラ13は、地面30の側を向いており、地面30を撮影する。
そして、カメラ13により撮影された撮影画像はディスプレイ115に表示される。撮影画像としてディスプレイ115に表示される表示範囲R11は、拡張現実表示装置1の使用される位置と、カメラ13の画角A11と、カメラ13と地面30との距離D11により定まるものである。なお、画角A11は、カメラ13がズーム機能を有するため、ズームレンズにより屈折率や焦点距離が変更されるに応じて変動するものである。
図4(a)は、仮想オブジェクト重畳前のディスプレイ115に表示される撮影画像である。画面200に示す撮影画像は、表示範囲R11に対応している。また、画面200は、実空間のみを表示しているのであり、仮想オブジェクトはまだ表示されていない状態である。
画面200には、地面30と、地面30上に描かれた埋設計画ライン31,カッターライン32,舗装ライン33とが表示されている他、地面30のひび割れ34や、地面30上に落ちている小石35、拡張現実表示装置1の使用者の足36も表示されている。ここで、埋設計画ライン31とは、新規に埋設しようとしている水道管の埋設位置をマーキングしたものである。カッターライン32とは、新規に埋設しようとする水道管を埋設する際に、地面30を掘り起こす範囲をマーキングしたものである。舗装ライン33とは、例えば、歩道と車道とを区切る白線である。なお、画面200において破線で表されているものは、埋設されているガス管20であり、実際にはディスプレイ115に表示されていない。
また、画面200には、タッチパネルにより操作可能な仮想的なボタンとして、操作ボタン201,202が表示されている。操作ボタン201は、使用者が、撮影画像に仮想オブジェクトを重畳して表示させたいときに押すものである。操作ボタン201を押すと、仮想オブジェクト合成プログラム112aが動作し、ディスプレイ115に、撮影画像に仮想オブジェクトが重畳されて表示される。操作ボタン202は、使用者が、仮想オブジェクトの表示を終了させたいときに押すものである。操作ボタン202を押すと、仮想オブジェクトの表示が終了され、ディスプレイ115に、撮影画像のみが表示される。そして、仮想オブジェクト合成プログラム112aの動作が終了する。
操作ボタン201が押されたとき、仮想オブジェクト合成プログラム112aは以下のように動作する。図6は、仮想オブジェクト合成プログラム112aの動作を表すフローチャートである。
まず、CPU111は、GPS機器12により、拡張現実表示装置1の位置情報を取得する(S11)。そして、CPU111は、GPS機器12によって取得した位置情報に対応する位置における埋設物に関わる仮想オブジェクトの情報を、通信部116を介して取得する(S12)。ここでは、仮想オブジェクトとして、地面30に埋設されたガス管20を表す仮想ガス管50(図4(b)参照)の情報を取得する。
図4(b)は、仮想ガス管50を表す図である。なお、図4(b)に示す仮想ガス管50は、地面30の側から見たガス管20を表している。仮想ガス管50の仮想直管51A,51C,51Eは、それぞれガス管20の直管21A,21C,21Eに対応している。なお、直管21B,21Dは、地面30側からガス管20を見た場合、それぞれ継手22A,22Dに隠れて見えないため、ここでは省略されている。また、仮想ガス管50の仮想継手52A~52Dは、それぞれガス管20の継手22A~22Dに対応している。
この仮想ガス管50は、例えば、ガス管20の3次元点群データや、オルソ画像等の竣工図に基づいて生成されたものであり、ガス管20の位置情報(経度、緯度、高度)や、寸法情報(ガス管20の長さや、地面30からの深さ、管径等)を有している。例えば、3次元点群データに基づいて生成された仮想ガス管50は、無数の点が集合することで構成されるオブジェクトであり、当該無数の点のそれぞれが自身の位置情報を有することとなる。
図6のフローチャートの説明に戻ると、CPU111は、通信部116により仮想オブジェクトの情報を取得した後、カメラ13と地面30との距離D11の情報をメモリ112から読み出す(S13)。この距離D11は、定尺棒14により予め定められている値である。なお、距離D11の情報は、使用者がタッチパネルにより端末装置11に入力するものとしても良い。
次に、CPU111は、画角A11を算出する(S14)。この画角A11は、カメラ13に用いられるイメージセンサのサイズや、ズーム機能によって調整される屈折率や焦点距離を考慮して算出されるものである。
さらに、CPU111は、GPS機器12により取得した位置情報と、メモリ112から読み出した距離D11と、算出した画角A11に基づいて、三角関数により撮影画像の表示範囲R11を算出する(S15)。仮想オブジェクトの内、表示範囲R11の範囲外となる部分を特定して、当該特定された部分をトリミングする(S16)。
図4(b)に示すように、仮想ガス管50の内、表示範囲R11の外側の部分(図4(b)中の斜線部分)が、表示範囲R11の範囲外となる部分として特定され、トリミングされる。仮想ガス管50は、ガス管20の位置情報を有するため、当該位置情報を、GPS機器12により取得した拡張現実表示装置1の位置情報と照らし合わせることで、仮想ガス管50の内、表示範囲R11の範囲外となる部分を正確にトリミングすることが可能である。例えば、仮想ガス管50が3次元点群データにより生成されたものであれば、仮想ガス管50を構成する無数の点のそれぞれが有する自身の位置情報と、拡張現実表示装置1の位置情報との差分により、表示範囲R11の範囲内か範囲外かの判断がなされる。なお、トリミングの方法はこれに限定されず、仮想ガス管50は管の長さ等の寸法情報を有するため、算出された表示範囲R11と照らし合わせることによっても、仮想ガス管50の内、表示範囲R11の範囲外となる部分を正確にトリミングすることが可能である。
そして、CPU111は、トリミングされた後の仮想オブジェクトを、方位センサ113や、慣性センサ117により検知した端末11の向く方角や姿勢に合わせて、撮影画像とマッチングした上、重畳してディスプレイ115に表示させる(S17)。本実施形態では、トリミングされた後の仮想ガス管50が、撮影画像としての地面30に重畳されて、ディスプレイ115に表示される。
図4(c)は、仮想オブジェクト重畳後のディスプレイ115に表示される撮影画像である。画面210に示す撮影画像には、表示範囲R11に基づいてトリミングされた仮想ガス管50を撮影画像とマッチングした上、重畳されているため、仮想ガス管50の尺度が実空間の尺度と合致され、仮想ガス管50が実際のガス管20の位置に精度高く表示されている。
このように精度高く埋設物が表示されることで、既設の埋設物がある場所で、例えば新規に水道管を埋設しようとする場合に、その埋設しようとする計画に問題が無いか、容易にかつ正確に確認することができる。
また、実際に新規の水道管を埋設する工事を行う際、ガス管20が埋設されている位置を掘り起こさないように、地面30に、ガス管20が埋設されている位置のマーキングを行う。このマーキングを行う際にも、使用者は、ディスプレイ115に表示される画面210を見ながら、足36のつま先を仮想ガス管50に合わせるなどし、そのつま先位置でマーキングすることができる。よって、測量等を行う必要がなく、マーキング作業が容易となる。
画面210の例では、新規に埋設しようとしている水道管の埋設位置をマーキングした埋設計画ライン31が、仮想ガス管50の仮想継手52Aと、ほぼ接触するような位置となっていることが分かる。仮想ガス管50は、ガス管20の位置に精度良く表示されているため、埋設計画ライン31が、仮想継手52Aと接触しているということは、即ち、埋設計画ライン31が、実際の継手22Aと接触しているのであると、容易にかつ正確に確認される。このまま埋設計画ライン31に沿って工事を進めると、ガス管20を損傷させることとなるため、水道管の埋設位置の迂回等、計画の変更が必要であるとの判断がなされる。
図7は、従来技術によって仮想オブジェクトを重畳しディスプレイ115に表示される撮影画像である。従来技術のロケーションベースARでは、図7に示すように、仮想ガス管50が、実空間との尺度が合わず、実際のガス管20よりも大きく表示される場合がある。このような場合、図7中の右側のカッターライン32を、左側にずらせば問題なく工事が行えるように見えてしまうため、図7中の右側のカッターライン32の位置を変更するのみで工事が行われてしまう。しかし、実際には、上述の通り埋設計画ライン31が、実際の継手22Aと接触しているのであるから、ガス管20を損傷させる結果となってしまう。拡張現実表示装置1によれば、容易かつ確実にこのような事態を避けることができる。
図6のフローチャートの説明に戻ると、使用者が仮想オブジェクトの確認を終え、操作ボタン202を押すと、仮想オブジェクトの表示が終了され(S18)、ディスプレイ115の表示は、撮影画像のみが表示される画面200に戻る。そして、仮想オブジェクト合成プログラム112aの動作が終了する。
以上は、既設の埋設物のみに関する仮想オブジェクトを撮影画像に重畳する場合について説明したが、撮影画像には、工事計画中の未設の埋設物に関する図面により生成された仮想オブジェクトを重畳し、ディスプレイ115に表示させることも可能である。当該仮想オブジェクトは、拡張現実表示装置1を使用する位置において、その地下にこれから埋設される予定の埋設物を表すものであり、拡張現実表示装置1の使用者は、どのような埋設物が敷設される予定なのか、撮影画像に重畳される仮想オブジェクトにより確認することができる。
例えば、ガス管20が敷設されている地面30に、新規に水道管を埋設しようとする場合に、予め当該水道管の工事計画図面などに基づき、仮想オブジェクトを生成しておく。そして、地面30には、新規に埋設しようとしている水道管の埋設位置や、地面30を掘り起こす範囲をマーキングする埋設計画ライン31およびカッターライン32は、未だ描かれていない状態で、拡張現実表示装置1を使用したとする。
この場合、カメラ13により撮影され、ディスプレイ115に表示された撮影画像は、図5(a)の画面220のようになる。撮影画像には、舗装ライン33、地面30のひび割れ34、地面30上に落ちている小石35、拡張現実表示装置1の使用者の足36のみが表示されている。地面30には、埋設計画ライン31およびカッターライン32は描かれていないため、画面200と異なり、撮影画像に埋設計画ライン31およびカッターライン32は表示されていない。なお、画面220に表示されている撮影画像は、表示範囲R11に対応している。また、画面220は、実空間のみを表示しているのであり、仮想オブジェクトはまだ表示されていない状態である。
使用者が操作ボタン201を押すと、仮想オブジェクト合成プログラム112aが動作し、図5(b)の画面230のように、撮影画像に仮想オブジェクトが重畳され、ディスプレイ115に表示される。画面230に表示されている仮想オブジェクトは、新規に埋設予定の水道管の工事計画図面に基づいて生成された仮想埋設計画ライン54および仮想カッターライン55と、先に説明した画面210と同様の既設のガス管20を表す仮想ガス管50である。
このように、工事予定の現場において、正確な尺度で埋設予定の水道管の位置を仮想オブジェクトによって確認することができるため、実際に地面30に埋設計画ライン31およびカッターライン32をマーキングする作業が容易になるなど、工事の準備作業が容易になる。また、既設の埋設物(ガス管20)等の障害物を避けた計画となっているか等、工事計画の妥当性を容易にかつ正確に確認可能となる。なお、画面230には、既設の埋設物である仮想ガス管50と、未設の埋設物に関する仮想埋設計画ライン54および仮想カッターライン55とを同時に表示しているが、それぞれを別個に表示できるようにしても良い。
また、仮想オブジェクトは、管の長さや、埋設物の深さ、管径等の寸法情報を有しているため、画面230に示すように、寸法情報56A,56B,56Cを仮想オブジェクトとともに表示することが可能である。寸法情報56Aは直管21Eの地面30からの深さ、寸法情報56Bは直管21Cの地面30からの深さ、寸法情報56Cは直管21Aの地面30からの深さを表している。直管21A~21Eの管径を表示することも可能である。
さらにまた、既設のガス管20の交換が計画されている場合には、その工事計画図面に基づき、ガス管20の交換のために地面30を掘り起こす範囲を示す仮想カッターライン53を表示することも可能である。
以上説明したように、第1の実施形態の拡張現実表示装置1によれば、
(1)埋設物位置確認用の拡張現実表示装置1であって、地面30を撮影するカメラ13と、カメラ13により撮影された撮影画像を表示するディスプレイ115と、拡張現実表示装置1の位置情報を取得するGPS機器12と、を備え、カメラ13により撮影される地面30における埋設物(例えば、既設のガス管20や工事計画中の未設の水道管)に関する仮想オブジェクト(例えば、仮想ガス管50、仮想埋設計画ライン54、仮想カッターライン55)を表示する拡張現実表示装置1において、仮想オブジェクトは、埋設物の敷設状態を表す図面データにより生成されたものであり、少なくとも埋設物の位置情報を有すること、拡張現実表示装置1は、GPS機器12により取得した位置情報と、カメラ13と地面30との距離D11である距離情報と、カメラ13の画角A11と、に基づき、ディスプレイ115に表示される撮影画像の表示範囲R11を算出し、仮想オブジェクトの、表示範囲R11の範囲外となる部分をトリミングし、トリミングされた後の仮想オブジェクトを撮影画像に重畳してディスプレイ115に表示する仮想オブジェクト合成プログラム112aを有すること、を特徴とする。
(1)に記載の拡張現実表示装置1によれば、仮想オブジェクト合成プログラム112aが、GPS機器12により取得した位置情報と、カメラ13と地面30との距離D11である距離情報と、カメラ13の画角A11と、に基づき、ディスプレイ115に表示される撮影画像の表示範囲R11を算出し、仮想オブジェクトの、表示範囲R11の範囲外となる部分をトリミングする。仮想オブジェクトは、埋設物の位置情報を有するため、GPS機器12により取得した拡張現実表示装置1の位置情報と照らし合わせ、仮想オブジェクトの内、表示範囲の範囲外となる部分を正確にトリミングすることが可能である。よって、仮想オブジェクトの尺度を実空間の尺度に合わせて、撮影画像の正確な位置に重畳してディスプレイ115に表示することが可能である。
(2)(1)に記載の拡張現実表示装置1において、カメラ13と地面30との距離D11を定める定尺棒14を有すること、を特徴とする。
(2)に記載の拡張現実表示装置1によれば、拡張現実表示装置1を使用する場所に関わらず、定尺棒14によってカメラ13と地面30との距離が定まるため、当該定められた距離D11を距離情報として用いて、撮影画像の表示範囲R11を算出することができる。なお、この場合の距離情報は、仮想オブジェクト合成プログラム112aにおいて予め定められた値として用いられても良いし、拡張現実表示装置1を使用する際に、手入力より距離情報を入力しても良い。
(4)(1)乃至(3)のいずれか1つに記載の拡張現実表示装置において、カメラ13はズーム機能を有すること、画角A11は、ズーム機能による焦点距離の変動に応じて算出されること、を特徴とする。
(4)に記載の拡張現実表示装置1によれば、地面30に広範囲に渡って埋設される埋設物について、カメラ13の有するズーム機能によって、埋設物の工事等に必要な部分の仮想オブジェクトを表示させることができる。
(5)(1)乃至(4)のいずれか1つに記載の拡張現実表示装置1において、図面データは、少なくとも既設の埋設物(例えば、ガス管20)に関するものであること、を特徴とする。
(5)に記載の拡張現実表示装置1によれば、既設の埋設物を仮想オブジェクトとして、実空間の尺度に合わせて撮影画像に重畳して表示することができるため、既設の埋設物の位置を、容易にかつ正確に確認できるようになる。そうすると、例えば、ガス管20等の既設の埋設物がある場所に、新規に水道管などを敷設しようとする場合、既設の埋設物を避けて工事をすることが容易となる。
(6)(1)乃至(5)のいずれか1つに記載の拡張現実表示装置1において、図面データは、少なくとも未設の埋設物(例えば、工事計画中の未設の水道管)に関するものであること、を特徴とする。
(4)に記載の拡張現実表示装置1によれば、例えば工事計画中の未設の埋設物を仮想オブジェクトとして、実空間の尺度に合わせて撮影画像に重畳して表示することができる。工事予定の現場において、正確な尺度で未設の埋設物の位置を仮想オブジェクトによって確認することができれば、例えば、舗装道路のカッター工事を行う際のカッターライン32をマーキングする等の作業が容易になるなど、工事の準備作業が容易になる。また、既設の埋設物等の障害物を避けた計画となっているか等、工事計画の妥当性を容易にかつ正確に確認可能となる。
(第2の実施形態)
次に、第2の実施形態に係る拡張現実表示装置100について図8および図9を参照して、第1の実施形態と異なる点のみ説明する。図8は、第2の実施形態に係る拡張現実表示装置100のハードウェア構成を示すブロック図である。図9は、第2の実施形態に係る拡張現実表示装置100の使用状態の一例を示す図である。
拡張現実表示装置100は、GPS機器12とカメラ13が端末装置11に内蔵されている。また、距離センサ118が、CPU111と相互にデータの授受が可能なように電気的に接続されている。
そして、図9に示すように、地面30の上で拡張現実表示装置100を用いることで、距離センサ118によって、拡張現実表示装置100を使用する度にカメラ13と地面30との距離D11を検出し、表示範囲R11の算出を行う。つまり、第1の実施形態においては、図6のS13で、カメラ13と地面30との距離D11の情報をメモリ112から読み出しているが、第2の実施形態においては、距離D11の情報をメモリ112から読み出す代わりに、距離センサ118によって、カメラ13と地面30との距離D11を検出し、この測定された距離D11を距離情報として、表示範囲R11の算出に用いるのである。なお、距離センサ118としては、光学式のものや、超音波式のものが考えられる。
また、拡張現実表示装置100に定尺棒14や三脚等を用いることとしても良い。定尺棒14や三脚を用いることで、拡張現実表示装置100の位置決めがなされるため、より正確に距離センサ118が距離D11を検出することが可能となる。
以上説明したように、第2の実施形態の拡張現実表示装置100によれば、
(3)(1)に記載の拡張現実表示装置100において、カメラ13と地面30との距離を検出する距離センサ118を有すること、を特徴とする。
(3)に記載の拡張現実表示装置100によれば、拡張現実表示装置100を使用する場所に関わらず、距離センサ118によってカメラ13と地面30との距離D11を検出可能であるため、当該検出された距離D11を距離情報として用いて、撮影画像の表示範囲R11を算出することができる。なお、距離センサとしては、光学式のものや、超音波式のものが考えられる。
なお、上記実施形態は単なる例示にすぎず、本発明を何ら限定するものではない。したがって本発明は当然に、その要旨を逸脱しない範囲内で様々な改良、変形が可能である。例えば、上記実施形態においては、位置情報取得部としてのGPS機器12および撮像部としてのカメラ13が、端末装置11の外部に設けられているが、GPS機器12およびカメラ13は、端末装置11に内蔵されるものとしても良い。また、仮想オブジェクトのデータを通信部116によって取得することとしているが、端末装置11のメモリ112に記憶されているものとしても良い。
1 拡張現実表示装置
12 GPS機器(位置情報取得部の一例)
13 カメラ(撮像部の一例)
20 ガス管(埋設物の一例)
30 地面
50 仮想ガス管(仮想オブジェクトの一例)
54 仮想埋設計画ライン(仮想オブジェクトの一例)
55 仮想カッターライン(仮想オブジェクトの一例)
112a 仮想オブジェクト合成プログラム
115 ディスプレイ(表示部の一例)
A11 画角
D11 カメラと地面との距離
R11 表示範囲

Claims (3)

  1. 埋設物位置確認用の拡張現実表示装置であって、地面を撮影する撮像部と、前記撮像部により撮影された撮影画像を表示する表示部と、前記拡張現実表示装置の位置情報を取得する位置情報取得部と、を備え、前記撮像部により撮影される前記地面における埋設物に関する仮想オブジェクトを表示する拡張現実表示装置において、
    前記仮想オブジェクトは、前記埋設物の敷設状態を表す図面データにより生成されたものであり、少なくとも前記埋設物の位置情報を有すること、
    前記拡張現実表示装置は、
    前記位置情報取得部により取得した位置情報と、前記撮像部と前記仮想オブジェクトの投影対象としての前記地面との距離である距離情報と、前記撮像部の画角と、に基づき、前記表示部に表示される前記地面の表示範囲を算出し、
    前記仮想オブジェクトの、前記表示範囲の範囲外となる部分をトリミングし、
    前記トリミングされた後の前記仮想オブジェクトを前記撮影画像に重畳して前記表示部に、実空間の尺度で表示する仮想オブジェクト合成プログラムを有すること、
    前記撮像部と前記地面との距離を定める位置決め部材を有すること、
    前記位置決め部材は、前記撮像部の中央に位置すること、
    前記撮像部が前記地面とともに撮影するユーザの足を、前記撮影画像中で、前記撮影画像に重畳して表示される前記仮想オブジェクトの位置に合わせ、前記埋設物の位置を特定すること、
    を特徴とする拡張現実表示装置。
  2. 請求項1に記載の拡張現実表示装置において、
    前記撮像部はズーム機能を有すること、
    前記画角は、前記ズーム機能による焦点距離の変動に応じて算出されること、
    を特徴とする拡張現実表示装置。
  3. 請求項1または2に記載の拡張現実表示装置において、
    前記図面データは、少なくとも既設の埋設物および未設の埋設物の両方、またはいずれか一方に関するものであること、
    を特徴とする拡張現実表示装置。
JP2020059922A 2020-03-30 2020-03-30 拡張現実表示装置 Active JP7277410B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020059922A JP7277410B2 (ja) 2020-03-30 2020-03-30 拡張現実表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020059922A JP7277410B2 (ja) 2020-03-30 2020-03-30 拡張現実表示装置

Publications (2)

Publication Number Publication Date
JP2021157717A JP2021157717A (ja) 2021-10-07
JP7277410B2 true JP7277410B2 (ja) 2023-05-18

Family

ID=77918633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020059922A Active JP7277410B2 (ja) 2020-03-30 2020-03-30 拡張現実表示装置

Country Status (1)

Country Link
JP (1) JP7277410B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023085029A1 (ja) * 2021-11-11 2023-05-19
CN114549801B (zh) * 2022-04-25 2022-07-19 深圳市同立方科技有限公司 一种ar增强现实给排水工程可视化方法、装置及系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3095030U (ja) 2002-12-27 2003-07-18 一明 菊池 カメラスタンド
JP2005250560A (ja) 2004-03-01 2005-09-15 Mitsubishi Electric Corp 景観表示装置
JP2015114823A (ja) 2013-12-11 2015-06-22 三菱電機株式会社 携帯用端末装置
JP2016171989A (ja) 2015-03-16 2016-09-29 株式会社スクウェア・エニックス プログラム、記録媒体、情報処理装置及び制御方法
JP2017046105A (ja) 2015-08-25 2017-03-02 オリンパス株式会社 デジタルカメラシステム,デジタルカメラ,交換レンズ,歪曲収差補正処理方法,歪曲収差補正処理プログラム
JP2017073139A (ja) 2016-10-25 2017-04-13 三菱電機株式会社 端末装置、端末装置用プログラム、および不可視物の変位状態可視化方法
JP2017192106A (ja) 2016-04-15 2017-10-19 キヤノン株式会社 撮像装置およびその制御方法
JP2018007041A (ja) 2016-07-01 2018-01-11 マクセルホールディングス株式会社 撮像装置、表示装置、及び撮像表示システム
JP2018017953A (ja) 2016-07-29 2018-02-01 株式会社Jvcケンウッド 処理装置、表示システム、表示方法、及びプログラム
JP2018169824A (ja) 2017-03-30 2018-11-01 株式会社パスコ 道路施設管理支援装置及び道路施設管理支援プログラム
JP2019212225A (ja) 2018-06-08 2019-12-12 朝日航洋株式会社 端末装置および端末装置の制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10220686A (ja) * 1997-02-12 1998-08-21 Makoto Iwabuchi 伸縮可能な脚

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3095030U (ja) 2002-12-27 2003-07-18 一明 菊池 カメラスタンド
JP2005250560A (ja) 2004-03-01 2005-09-15 Mitsubishi Electric Corp 景観表示装置
JP2015114823A (ja) 2013-12-11 2015-06-22 三菱電機株式会社 携帯用端末装置
JP2016171989A (ja) 2015-03-16 2016-09-29 株式会社スクウェア・エニックス プログラム、記録媒体、情報処理装置及び制御方法
JP2017046105A (ja) 2015-08-25 2017-03-02 オリンパス株式会社 デジタルカメラシステム,デジタルカメラ,交換レンズ,歪曲収差補正処理方法,歪曲収差補正処理プログラム
JP2017192106A (ja) 2016-04-15 2017-10-19 キヤノン株式会社 撮像装置およびその制御方法
JP2018007041A (ja) 2016-07-01 2018-01-11 マクセルホールディングス株式会社 撮像装置、表示装置、及び撮像表示システム
JP2018017953A (ja) 2016-07-29 2018-02-01 株式会社Jvcケンウッド 処理装置、表示システム、表示方法、及びプログラム
JP2017073139A (ja) 2016-10-25 2017-04-13 三菱電機株式会社 端末装置、端末装置用プログラム、および不可視物の変位状態可視化方法
JP2018169824A (ja) 2017-03-30 2018-11-01 株式会社パスコ 道路施設管理支援装置及び道路施設管理支援プログラム
JP2019212225A (ja) 2018-06-08 2019-12-12 朝日航洋株式会社 端末装置および端末装置の制御方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PR TIMES,自由に角度調整できる雲台付きで、省スペースに設置できるカメラ用一脚を10月5日発売,[online],2018年10月05日,https://prtimes.jp/main/html/rd/p/000001611.000011495.html,[検索日:2021-04-20]
矢口竜太郎(日経XTECH),ARで堀り間違いをゼロに、部門間の壁もなくす,[online],2017年06月20日,https://xtech.nikkei.com/it/atcl/column/17/061300233/061600002/

Also Published As

Publication number Publication date
JP2021157717A (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
US9322652B2 (en) Stereo photogrammetry from a single station using a surveying instrument with an eccentric camera
US9552669B2 (en) System, apparatus, and method for utilizing geographic information systems
KR101285360B1 (ko) 증강현실을 이용한 관심 지점 표시 장치 및 방법
JP4944462B2 (ja) 地理データ収集装置
EP1584895A1 (en) Survey data processing system, storage medium for working data, and display device
EP3798993A1 (en) Design engineering tools for visualizing existing utility lines within a land area and validating placement of new utility lines
JP2007017406A (ja) 地理データ収集装置
EP2240740B1 (en) Localization of a surveying instrument in relation to a ground mark
JP6532412B2 (ja) 自己位置推定システム、自己位置推定方法、モバイル端末、サーバおよび自己位置推定プログラム
JP7277410B2 (ja) 拡張現実表示装置
KR101011813B1 (ko) 인접된 항공사진들 간의 중첩지역 표시장치
CN105339758A (zh) 使用重叠区域优化光束法平差
KR100822814B1 (ko) Gps/ins 장비를 이용한 측량 정보 및 gis 지리정보, 실시간 영상정보를 결합한 공간정보 서비스방법
CN110737009A (zh) 用于地理空间定位的方法及其便携式定位设备
JP5669438B2 (ja) 対象管理画像生成装置及び対象管理画像生成プログラム
EP1469281B1 (en) Electronic surveying apparatus
JP2004317237A (ja) 測量装置
JP4359084B2 (ja) 測量システム
JP4359083B2 (ja) 測量システム
KR20150020421A (ko) 휴대용 측량 단말기를 이용한 증강 현실 기반의 측량 시스템
JP7282578B2 (ja) 角度測定装置、距離測定装置、速度測定装置、標高測定装置、座標測定装置、角度測定方法、およびプログラム
JP4167509B2 (ja) 測量システム
JP2012194002A (ja) 計測システム
KR101401265B1 (ko) 지하 시설물 위치 제공 장치
KR101291924B1 (ko) 증강 현실 기반의 휴대용 측량 단말기를 이용한 측량 장치, 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220218

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20220509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230320

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230329

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R150 Certificate of patent or registration of utility model

Ref document number: 7277410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150