JP2023094344A - 拡張現実表示装置、方法、及びプログラム - Google Patents

拡張現実表示装置、方法、及びプログラム Download PDF

Info

Publication number
JP2023094344A
JP2023094344A JP2021209767A JP2021209767A JP2023094344A JP 2023094344 A JP2023094344 A JP 2023094344A JP 2021209767 A JP2021209767 A JP 2021209767A JP 2021209767 A JP2021209767 A JP 2021209767A JP 2023094344 A JP2023094344 A JP 2023094344A
Authority
JP
Japan
Prior art keywords
augmented reality
display device
image data
reality display
model data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021209767A
Other languages
English (en)
Inventor
慎也 荒生
Shinya Arao
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2021209767A priority Critical patent/JP2023094344A/ja
Publication of JP2023094344A publication Critical patent/JP2023094344A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】多くの障害物が存在する現場や狭い現場であっても仮想画像と現実画像とを位置合わせすることに貢献することができる拡張現実表示装置等を提供すること。【解決手段】所定のアプリ及びモデルデータを記憶する記憶部と、制御部と、を備える。モデルデータには、複数の壁の隅に対応する箇所のいずれかに合わせて位置情報が関連付けられた複数の仮想ARマーカが付与されている。制御部は、所定のアプリの起動時に、最寄りの仮想ARマーカが付与されている壁の隅に拡張現実表示装置の一端面を密着させるようにメッセージ表示させ、モデルデータ又は画像データ上に最寄りの仮想ARマーカを強調表示させ、壁への拡張現実表示装置の一端面の密着時にモデルデータと画像データとの位置合わせを行い、モデルデータと画像データとの位置合わせを行った後、測位された位置情報に基づいて、モデルデータと画像データとの位置合わせを連続的に行う。【選択図】図11

Description

本発明は、拡張現実表示装置、方法、及びプログラムに関する。
製造業DX(デジタルトランスフォーメーション)に関連し、製造業の生産現場では、現場記録(現場担当者、日時、点検結果、検査結果、現場写真、メモ書き)を、デジタルツイン上へ仮想付箋のようなかたちでマッピングしながら管理したいというニーズが高まっている。ここでいうデジタルツインとは、現場の3次元モデル(例えば、BIM(Building Information Modeling))、2次元モデル(例えば、現場図面、間取図、施工図)等である。また、維持管理やアフターサービスに向け、生産完了後でも、デジタルツイン上にマッピングされた現場記録を参照できるようにしたいというニーズが高まっている。
そこで、それらのニーズに応える技術が提供され始めている。例えば、特許文献1、2では、AR(Augmented Reality)マーカを用いてモデルデータ(図面データなど)を現実空間に位置合わせして表示するシステムが開示されている。しかしながら、部品や資材などの障害物が多く存在する現場(製造現場、建設現場など)では、ARマーカを設置(貼る、置くなど)することが困難なことが多い。また、広い現場や、見通しのよくない現場のような複数のARマーカの設置が必要とされる現場では、複数のARマーカを印刷して指定位置に設置するといった一連の作業が必要になり、その手間が大きい。さらに、建設現場のように物件が完成してしまうと、ARマーカは撤去されることが多く、ARマーカ撤去後に仮想空間を現実空間に位置合わせするにはARマーカの再設置が必要になる。
そこで、ARマーカを用いないでモデルデータを現実空間に位置合わせできるようにした技術も提供されている。例えば、特許文献3では、撮像画像における特徴点と仮想画像における特徴点と比較して座標変換することで撮像画像に対して仮想画像を位置合わせして表示するシステムが開示されている。また、特許文献4では、ライブビュー映像における対象と、仮想空間(マップ等)で登録されたマーク画像とを照合させてライブビュー映像と仮想空間とを位置合わせして表示するシステムが開示されている。
特開2018-163466号 特開2020-194214号 特開2014-002645号 特開2020-098568号
以下の分析は、本願発明者により与えられる。
しかしながら、ARマーカを用いない特許文献3、4に記載のシステムでも、部品や資材などの障害物が多く存在する現場では、障害物によって現実画像(撮像画像、ライブビュー映像等)において特徴点(対象)が隠れることが多く、現実画像と仮想画像(仮想空間、マップ等)との位置合わせができなくなる可能性がある。また、特許文献3、4に記載のシステムは、狭い現場(例えば、数メートル以内の部屋、通路、構造物)では、特徴点(対象)が撮像画像に入らなくなることが多く、現実画像と仮想画像との位置合わせができなくなる場面が多くなる。
本発明の主な課題は、多くの障害物が存在する現場や狭い現場であっても仮想画像と現実画像とを位置合わせすることに貢献することができる拡張現実表示装置、方法、及びプログラムを提供することである。
第1の視点に係る拡張現実表示装置は、撮影された撮影対象物の画像データにモデルデータを位置合わせして表示する拡張現実表示装置であって、情報を表示するように構成された表示部と、撮影対象物を撮影することによって画像データを生成するように構成された撮像部と、前記拡張現実表示装置の位置情報を検出するように構成された測位部と、所定のアプリ及びモデルデータを記憶するように構成された記憶部と、前記表示部、前記撮像部、前記測位部、及び前記記憶部を制御するとともに、所定の情報処理を行うように構成された制御部と、を備え、前記モデルデータには、複数の壁の隅に対応する箇所のいずれかに合わせて位置情報が関連付けられた複数の仮想ARマーカが付与されており、前記制御部は、前記所定のアプリの起動時に、前記複数の仮想ARマーカのうち最寄りの仮想ARマーカが付与されている壁の隅に前記拡張現実表示装置を合わせて前記拡張現実表示装置の一端面を前記壁に密着させるように前記表示部にメッセージ表示する処理と、前記モデルデータ又は前記画像データ上に前記最寄りの仮想ARマーカを前記表示部に強調表示する処理と、前記壁への前記拡張現実表示装置の前記一端面の密着時に前記モデルデータと前記画像データとの位置合わせを行う処理と、前記モデルデータと前記画像データとの位置合わせを行った後、前記測位部で検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行う処理と、を行うように構成されている。
第2の視点に係る拡張現実表示方法は、ハードウェア資源を用いて、撮影された撮影対象物の画像データにモデルデータを位置合わせして表示する拡張現実表示方法であって、前記モデルデータには、複数の壁の隅に対応する箇所のいずれかに合わせて位置情報が関連付けられた複数の仮想ARマーカが付与されており、所定のアプリの起動時に、前記複数の仮想ARマーカのうち最寄りの仮想ARマーカが付与されている壁の隅に前記ハードウェア資源を合わせて前記ハードウェア資源の一端面を前記壁に密着させるようにメッセージ表示するステップと、前記モデルデータ又は前記画像データ上に前記最寄りの仮想ARマーカを強調表示するステップと、前記壁への前記ハードウェア資源の前記一端面の密着時に前記モデルデータと前記画像データとの位置合わせを行うステップと、前記モデルデータと前記画像データとの位置合わせを行った後、測位によって検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行うステップと、を含む。
第3の視点に係るプログラムは、撮影された撮影対象物の画像データにモデルデータを位置合わせして表示する処理をハードウェア資源に実行させるプログラムであって、前記モデルデータには、複数の壁の隅に対応する箇所のいずれかに合わせて位置情報が関連付けられた複数の仮想ARマーカが付与されており、所定のアプリの起動時に、前記複数の仮想ARマーカのうち最寄りの仮想ARマーカが付与されている壁の隅に前記ハードウェア資源を合わせて前記ハードウェア資源の一端面を前記壁に密着させるようにメッセージ表示する処理と、前記モデルデータ又は前記画像データ上に前記最寄りの仮想ARマーカを強調表示する処理と、前記壁への前記ハードウェア資源の前記一端面の密着時に前記モデルデータと前記画像データとの位置合わせを行う処理と、前記モデルデータと前記画像データとの位置合わせを行った後、測位によって検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行う処理と、を前記ハードウェア資源に実行させる。
なお、プログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。また、本開示では、コンピュータプログラム製品として具現することも可能である。プログラムは、コンピュータ装置に入力装置又は外部から通信インタフェイスを介して入力され、記憶装置に記憶されて、プロセッサを所定のステップないし処理に従って駆動させ、必要に応じ中間状態を含めその処理結果を段階毎に表示装置を介して表示することができ、あるいは通信インタフェイスを介して、外部と交信することができる。そのためのコンピュータ装置は、一例として、典型的には互いにバスによって接続可能なプロセッサ、記憶装置、入力装置、通信インタフェイス、及び必要に応じ表示装置を備える。
前記第1~第3の視点によれば、多くの障害物が存在する現場や狭い現場であっても仮想画像と現実画像とを位置合わせすることに貢献することができる。
実施形態1に係る拡張現実表示装置の構成を模式的に示したブロック図である。 実施形態1に係る拡張現実表示装置でモデルデータを表示したときの一例を模式的に示したブロック図である。 実施形態1に係る拡張現実表示装置の上端面を仮想ARマーカが付与されている壁の隅に密着させるときの操作を模式的に示したイメージ図である。 実施形態1に係る拡張現実表示装置の撮像部の位置から右隅タイプの仮想ARマーカの基準点となる壁のエッジへのオフセット補正の一例を模式的に示したイメージ図である。 実施形態1に係る拡張現実表示装置の撮像部の位置から左隅タイプの仮想ARマーカの基準点となる壁のエッジへのオフセット補正の一例を模式的に示したイメージ図である。 実施形態1に係る拡張現実表示装置が仮想ARマーカ間を移動するときのイメージ図である。 実施形態1に係る拡張現実表示装置が最寄りの仮想ARマーカを自動検出したときの表示画像の一例を模式的に示したイメージ図である。 実施形態1に係る拡張現実表示装置における制御部の動作を模式的に示したフローチャートである。 実施形態2に係る拡張現実表示装置の構成を模式的に示したブロック図である。 実施形態2に係る拡張現実表示装置のアンカー情報に関するAR画像での登録からVR画像での閲覧へのフローを模式的に示したイメージ図である。 実施形態3に係る拡張現実表示装置の構成を模式的に示したブロック図である。 ハードウェア資源の構成を模式的に示したブロック図である。
以下、実施形態について図面を参照しつつ説明する。なお、本出願において図面参照符号を付している場合は、それらは、専ら理解を助けるためのものであり、図示の態様に限定することを意図するものではない。また、下記の実施形態は、あくまで例示であり、本発明を限定するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。さらに、本願開示に示す回路図、ブロック図、内部構成図、接続図などにおいて、明示は省略するが、入力ポート及び出力ポートが各接続線の入力端及び出力端のそれぞれに存在する。入出力インタフェイスも同様である。プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インタフェイス、及び必要に応じ表示装置を備え、コンピュータ装置は、通信インタフェイスを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、交信可能に構成される。
[実施形態1]
実施形態1に係る拡張現実表示装置について図面を用いて説明する。図1は、実施形態1に係る拡張現実表示装置の構成を模式的に示したブロック図である。図2は、実施形態1に係る拡張現実表示装置でモデルデータを表示したときの一例を模式的に示したブロック図である。図3は、実施形態1に係る拡張現実表示装置の上端面を仮想ARマーカが付与されている壁の隅に密着させるときの操作を模式的に示したイメージ図である。図4は、実施形態1に係る拡張現実表示装置の撮像部の位置から右隅タイプの仮想ARマーカの基準点となる壁のエッジへのオフセット補正の一例を模式的に示したイメージ図である。図5は、実施形態1に係る拡張現実表示装置の撮像部の位置から左隅タイプの仮想ARマーカの基準点となる壁のエッジへのオフセット補正の一例を模式的に示したイメージ図である。図6は、実施形態1に係る拡張現実表示装置が仮想ARマーカ間を移動するときのイメージ図である。図7は、実施形態1に係る拡張現実表示装置が最寄りの仮想ARマーカを自動検出したときの表示画像の一例を模式的に示したイメージ図である。
拡張現実表示装置10は、拡張現実画像を表示する装置である(図1参照)。拡張現実表示装置10は、コンピュータを構成する機能部(例えば、プロセッサ、記憶装置、入力装置、通信インタフェイス、及び表示装置)を備えた装置(コンピュータ装置)であって、測位(位置、方向等)機能及び撮像機能を有するものを用いることができ、例えば、スマートフォン、タブレット端末、パーソナルコンピュータ、眼鏡型デバイス等を用いることができる。拡張現実表示装置10は、撮影した画像データにおける撮影対象物1(例えば、構造物、壁、床等)に、モデルデータ15bにおけるモデル(図2の2)を位置合わせして表示する機能を有する。拡張現実表示装置10は、所定のプログラムを実行することによって、表示部11と、撮像部12と、測位部13と、入力部14と、記憶部15と、制御部16と、を備えた構成を実現する。
表示部11は、情報を表示する機能部である(図1参照)。表示部11は、制御部16の制御により、情報を表示する。表示部11には、例えば、液晶ディスプレイ、有機EL(ElectroLuminescence)ディスプレイ等の表示デバイス、拡張現実表示装置10と通信可能に接続された眼鏡型ディスプレイ等を用いることができる。
撮像部12は、撮影対象物1を撮影する機能部である(図1参照)。撮像部12は、撮影対象物1を撮影することによって画像データを生成する。撮像部12は、制御部16の制御により、撮影対象物1を撮影する。撮像部12には、例えば、CCD(Charge Coupled Device)センサとCMOS(Complementary Metal Oxide Semiconductor)センサ等のイメージセンサを用いることができ、さらに特徴量検出用の3次元センサ(例えば、ToF(Time of Flight)カメラ、ステレオカメラ、3次元-LIDAR(Laser Imaging Detection And Ranging)、デプスセンサ、測距センサ、距離カメラ等)が組み込まれたものを用いてもよい。撮像部12は、望遠や広角で撮影できるズームレンズを有するものであってもよい。撮像部12は、単眼、複眼であってもよい。
測位部13は、拡張現実表示装置10の現在位置に係る情報(例えば、経度、緯度、方向など)を検出する機能部である(図1参照)。測位部13は、制御部16の制御により、拡張現実表示装置10の現在位置を測位する。測位部13として、正確に位置合わせした状態から拡張現実表示装置10の移動(移動量、加速度の変化等)を追跡して位置合わせを連続的に行える機能、例えば、SLAM(Simultaneous Localization and Mapping)、IMU(Inertial Measurement Unit)を用いることができる。測位部13は、方位センサ、地磁気センサ、加速度センサ等を用いて撮像部12の光軸が向いている方向や仰角に関する角度情報も検出するものであってもよい。なお、正確に位置合わせする前の仮の位置合わせを行う場合には、測位部13として、補助的に、例えば、GPS(Global Positioning System)、予め位置情報が設定された複数の無線基地局との電波強度、UWB(Ultra Wide Band)、Bluetooth(登録商標)5 AoA(Angle of Arrival)(Quuppa)、BLE(Bluetooth(登録商標) Low Energy)ビーコン、GNSS(Global Navigation Satellite System:全球測位衛星システム)等を利用してもよい。
入力部14は、情報を入力する機能部である(図1参照)。入力部14は、制御部16の制御により、ユーザの操作によって入力された情報を入力する。入力部14には、例えば、タッチパネル、キーボード、マウス、非接触UI(User Interface)、ジェスチャセンサ、マイク、ヘッドセット等を用いることができる。
記憶部15は、各種の情報(データ、プログラム等)を記憶する機能部である(図1参照)。記憶部15には、例えば、RAM(Random Access Memory)、SSD(Solid State Drive)、HDD(Hard Disk Drive)等の記憶装置を用いることができる。記憶部15は、制御部16の制御により、情報の書き込みや読み出しを行う。記憶部15は、ARアプリ15a及びモデルデータ15bを記憶する。
ここで、ARアプリ15aは、撮像部12で撮影された画像データにおける撮影対象物1に、モデルデータ15bにおけるモデル(図2の2)を位置合わせして表示する処理を制御部16に実行させるアプリケーションソフトウェアである。ARアプリ15aによる処理の詳細は後述する。
モデルデータ15bは、撮影対象物1(例えば、建物)を仮想的に表したモデル(図2の2)の構造に関するデータである。モデルデータ15bとして、例えば、2次元データ、3次元データ、図面データ、仮想空間モデルなどを用いることができる。モデル2には、複数箇所に仮想ARマーカ3(図2の3a~3cに対応)が付与されている(図2参照)。仮想ARマーカ3は、モデル2における複数の壁7の隅に対応する箇所のいずれかに合わせて付与されている。仮想ARマーカ3は、拡張現実表示装置10の上端面(一端面)を壁7の隅に密着させるための目印となる。仮想ARマーカ3は、壁7のエッジ7a(角部)に対応する位置に基準点4を有する(図3参照)。基準点4は、仮想ARマーカ3の基準位置となり、位置情報(例えば、座標、経度、緯度、方向、高さ等)が関連付けられている。モデルデータ15bが3次元データの場合には、位置情報として高さも含まれる。仮想ARマーカ3は2種類あり、壁7の右隅タイプ(図2の3b)と、壁7の左隅タイプ(図2の3a、3c)とがある。仮想ARマーカ3を設定する位置として、例えば、モデルデータ15bとしての図面データにおける玄関の最寄りの壁7の隅に出発点となる仮想ARマーカ3aを付与し、その死角となるエリアの壁7の隅に別の仮想ARマーカ3bを付与するようにしてもよい。障害物が多く存在する現場を考慮して、互いに死角にならない近くの位置に仮想ARマーカ3b、3cを付与してもよい。
制御部16は、表示部11、撮像部12、測位部13、入力部14、及び、記憶部15を制御する機能部である(図1参照)。制御部16には、例えば、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、GPU(Graphics Processing Unit)等のプロセッサを用いることができる。制御部16は、記憶部15に記憶された所定のプログラムを実行することにより、プログラムに記述された所定の処理を行うことができる。
制御部16は、ARアプリ15aの起動時に、表示部11でモデルデータ15b(撮像部12で撮影している画像データでも可)を表示させる。制御部16は、測位部13(例えば、GPS)で拡張現実表示装置10の現在位置に係る情報(位置、方向、姿勢等)を検出し、検出された情報、及び、モデルデータ15bにおいて付与された仮想ARマーカ3の位置情報に基づいて、表示部11においてモデルデータ15b上に拡張現実表示装置10の仮の位置(図2の装置現在地5に相当)及び方向(装置中心から上端面が向いている方向;図2の装置向き6に相当)を表示させる(画像データの場合は画像データとモデルデータ15bとの仮の位置合わせを行って表示させる)。制御部16は、表示部11において、拡張現実表示装置10の最寄りの仮想ARマーカ3をモデルデータ15b上で強調表示(例えば、目立つ色、拡大、点滅等で表示;画像データの場合は仮想ARマーカを現物の壁の隅に強調表示)させ、仮想ARマーカ3が付与されている壁7の隅に拡張現実表示装置10の右端面又は左端面及び上端面を合わせて密着させるようメッセージ表示させる。
メッセージ表示では、密着させる際、表示部11を上(天井側)に向けて水平になるように拡張現実表示装置10を配置するようにメッセージ表示する。この時、拡張現実表示装置10の撮像部12(背面カメラに相当)が下(地面側)に向いている。仮想ARマーカ3が右隅タイプであれば、壁7の右隅に拡張現実表示装置10の右端面(上端面に対しして直角の関係にある他端面)を合わせて拡張現実表示装置10の上端面(一端面)を壁面に密着させる。仮想ARマーカ3が左隅タイプであれば、壁7の左隅に拡張現実表示装置10の左端面(上端面に対して直角の関係にある他端面)を合わせて拡張現実表示装置10の上端面を壁面に密着させる。
密着時に、制御部16は、ユーザが入力部14を操作(例えば、タップ)することにより、又は、自動的に、撮影した画像データにおける撮影対象物1に、モデルデータ15bにおけるモデル2を位置合わせする。位置合わせする際、平面的な位置だけでなく、方向を合わせるとともに、拡張現実表示装置10の撮像部12と地面(床)との間の距離(高さ)を測定して高さ方向でも位置を合わせる。
モデルデータ15bのモデル2と画像データの撮影対象物1との平面的な位置合わせは、撮像部12のレンズ位置からモデルデータ15bの仮想ARマーカ3の基準点4の位置へオフセット補正することで位置合わせの精度が向上するが、レンズ位置は拡張現実表示装置10の機種毎に異なる。制御部16は、拡張現実表示装置10の機種毎にオフセット補正を行い(図3、図4参照)、モデルデータ15bのモデル2と画像データの撮影対象物1との位置を正しく合わせる。オフセット補正では、実際のレンズ位置の数値(上端面、右端面、左端面からのレンズ中心までの距離(例えば、図3、図4のZ1、X1、X2)、レンズ表面から撮像素子までの距離)を入力したり、ARアプリ15aで予め設定された数値を用いてもよい。オフセット補正は、撮像部12が複眼レンズの場合、複数のレンズの中心位置の重心を撮像部12の基準位置としてオフセット補正することができるが、使用したレンズの中心位置に応じてオフセット補正するようにしてもよい。
また、モデルデータ15bのモデル2と画像データの撮影対象物1との高さ方向での位置合わせは、拡張現実表示装置10の撮像部12と地面(床)との間の距離(高さ)を測定する際、制御部16は、水平器機能を利用して、水平器を表示して拡張現実表示装置10の表示部11の表面が水平になったときに、拡張現実表示装置10の撮像部12から地面までの垂直方向の距離を測定して、モデルデータ15bと画像データとの高さ方向での位置合わせを行うようにしてもよい。また、制御部16は、拡張現実表示装置10の撮像部12の向き、及び、撮像部12から地面までの距離を測定し、測定した撮像部12の向き、及び、撮像部12から地面までの距離に基づいて、拡張現実表示装置10の撮像部12から地面までの垂直方向の距離を算出して、モデルデータ15bと画像データとの高さ方向での位置合わせを行うようにしてもよい。距離(高さ)は、例えば、AR基本測位機能(画像特徴点から生成した点群データを活用した測距)、三角視差測量、深度センサ、LiDAR(light detection and ranging)センサの測定値等に基づいて計算することができる。なお、モデルデータ15bが2次元モデルの場合、2次元モデルには高さの位置指定がないが、2次元モデルを床面に位置合わせる場合、拡張現実表示装置10の撮像部12と床との間の高さを測定して、2次元モデルと床面との高さ方向での位置合わせを行う。
制御部16は、一旦、仮想ARマーカ3によるモデルデータ15bと撮影データとの位置合わせを行うと、拡張現実表示装置10のユーザが移動しても、測位部13における所定の測位機能(AR基本測位機能)、例えば、SLAM(Simultaneous Localization and Mapping)又はIMU(Inertial Measurement Unit)により、拡張現実表示装置10の位置を把握しながら、モデルデータ15bと撮影データとの位置合わせを連続的に行う。例えば、図6のように、拡張現実表示装置10が位置(x1,z1)で仮想ARマーカ3dによるモデルデータ15bと撮影データとの位置合わせを行うと、位置(x2,z2)を経て、位置(x3,z3)までSLAM又はIMUにより、拡張現実表示装置10の位置を把握しながら、モデルデータ15bと撮影データとの位置合わせを連続的に行う。しかし、移動するにつれ、位置や向きの誤差が少しずつ累積し、やがては無視できない程度の誤差になる。誤差が無視できないほど大きくなったとき、仮想ARマーカ3と現場の壁7の隅とのずれも顕著に見える(一例としては、10cm程度ずれて見える)。誤差は拡張現実表示装置10の移動量が長くなると大きくなる傾向があるので、制御部16は、SLAM又はIMUによる位置合わせを開始してからの移動量(経過時間でも可)を計測し、計測された移動量が予め設定した閾値以上となったときに、誤差が無視できないほど大きくなったと推定するようにしてもよい。誤差が無視できないほど大きくなったとき、制御部16は、表示部11において、最寄りの仮想ARマーカ3が付与されている壁7の隅に拡張現実表示装置10の右端面又は左端面及び上端面を合わせて密着させるようメッセージ表示させる。例えば、図6のように、拡張現実表示装置10が位置(x2,z2)で誤差が無視できないほど大きくなったときにメッセージ表示させることができる。また、制御部16は、最寄りの仮想ARマーカ3が付与されている壁7の隅が画像データに入っているときに、当該仮想ARマーカ3を強調表示させる(図7の3e参照)。これにより、ユーザは、位置や向きのずれが大きいと判断した場合、最寄りの仮想ARマーカ3が付与されている壁7の隅へ拡張現実表示装置10を密着させる。密着時に、制御部16は、上記と同様に、ユーザが入力部14を操作(例えば、タップ)することにより、又は、自動的に、撮影した画像データにおける撮影対象物1に、モデルデータ15bにおけるモデル2を位置合わせする。例えば、図6のように、位置(x3,z3)で仮想ARマーカ3eが付与されている壁7の隅へ拡張現実表示装置10を密着させてモデルデータ15bと撮影データとの位置合わせを行うことができる。その後、制御部16は、測位部13における所定の測位機能(例えば、SLAM又はIMU)により、拡張現実表示装置10の位置を把握しながら、モデルデータ15bと撮影データとの位置合わせを連続的に行う。
次に、実施形態1に係る拡張現実表示装置における制御部の動作について図面を用いて説明する。図8は、実施形態1に係る拡張現実表示装置における制御部の動作を模式的に示したフローチャートである。なお、拡張現実表示装置の構成については図1を参照されたい。
まず、拡張現実表示装置10の制御部16は、ARアプリ15aの起動時に、表示部11でモデルデータ15bを表示させる(ステップA1)。
次に、制御部16は、測位部13(例えば、GPS)で拡張現実表示装置10の現在位置に係る情報を検出し、検出された情報、及び、モデルデータ15bにおいて付与された仮想ARマーカ3の位置情報に基づいて、表示部11においてモデルデータ15b上に拡張現実表示装置10の仮の位置(図2の装置現在地5に相当)及び方向(装置中心から上端面が向いている方向;図2の装置向き6に相当)を表示させる(ステップA2)。
次に、制御部16は、表示部11において、拡張現実表示装置10の最寄りの仮想ARマーカ3をモデルデータ15b上で強調表示(例えば、目立つ色や点滅で表示)させ、仮想ARマーカ3が付与されている壁7の隅に拡張現実表示装置10の右端面又は左端面及び上端面を合わせて密着させるようメッセージ表示させる(ステップA3)。
ステップA3の後、又は、ステップA8の後、制御部16は、ユーザによって仮想ARマーカ3が付与された壁7の隅に拡張現実表示装置10の右端面又は左端面を合わせて上端面を壁面に密着させ、かつ、ユーザが入力部14を操作(例えば、タップ)することにより、又は、自動的に、撮影した画像データにおける撮影対象物1に、モデルデータ15bにおけるモデル2を位置合わせして表示する(ステップA4)。なお、位置合わせの際、高さ方向の位置合わせや、レンズ位置に関するオフセット補正を行う。
ステップA4の後、又は、移動量が閾値未満の場合(ステップA7のNO)、制御部16は、測位部13におけるSLAM又はIMUにより、拡張現実表示装置10の位置を把握しながら、モデルデータ15bと撮影データとの位置合わせを連続的に行って表示する(ステップA5)。このとき、制御部16は、SLAM又はIMUによる位置合わせを開始してからの移動量を計測する。
次に、制御部16は、ユーザが入力部14を操作することにより、ARアプリを終了したか否かを判断する(ステップA6)。ARアプリを終了した場合(ステップA6のYES)、終了する。
ARアプリを終了していない場合(ステップA6のNO)、制御部16は、計測された移動量が予め設定した閾値以上となっているか否かを判断する(ステップA7)。移動量が閾値未満の場合(ステップA7のNO)、ステップA5に進む。
移動量が閾値以上の場合(ステップA7のYES)、制御部16は、表示部11において、最寄りの仮想ARマーカ3が付与されている壁7の隅に拡張現実表示装置10の右端面又は左端面及び上端面を合わせて密着させるようメッセージ表示させ、最寄りの仮想ARマーカ3が付与されている壁7の隅が画像データに入っているときに、当該仮想ARマーカ3を強調表示させる(ステップA8)。ステップA8の後、ステップA4に進む。
実施形態1によれば、モデルデータ15bに付与された仮想ARマーカ3に対応する壁7の隅に拡張現実表示装置10を密着させてモデルデータ15bと画像データとの位置合わせを行っているので、多くの障害物が存在する現場や狭い現場であってもモデルデータ15b(仮想画像)と画像データ(現実画像)とを位置合わせすることに貢献することができる。
また、実施形態1によれば、モデルデータ15b(仮想画像)と画像データ(現実画像)とを位置合わせする際に、基準点となる壁7のエッジ7aに対する拡張現実表示装置10の撮像部12のレンズ位置を考慮してオフセット補正を行っているので、位置合わせの精度を向上させることができる。
また、実施形態1によれば、モデルデータ15b(仮想画像)と画像データ(現実画像)との正確な位置合わせが必要な場面で、仮想ARマーカ3の強調表示や仮想ARマーカ3に対応する壁7の隅への拡張現実表示装置10の密着を促すメッセージ表示を行っているので、正確な位置合わせをスムーズに行うことができる。
さらに、実施形態1によれば、モデルデータ15b(仮想画像)と画像データ(現実画像)との正確な位置合わせ前の仮の位置合わせで、位置合わせ精度が低めのUWB、Bluetooth(登録商標)5 AoA、BLEビーコン、GNSS等を用い、正確な位置合わせで、仮想ARマーカ3に対応する壁7の隅に拡張現実表示装置10を密着させて位置合わせを行っているので、位置合わせの効率化を図ることができる。
[実施形態2]
実施形態2に係る仮想現実表示装置について図面を用いて説明する。図9は、実施形態2に係る拡張現実表示装置の構成を模式的に示したブロック図である。図10は、実施形態2に係る拡張現実表示装置のアンカー情報に関するAR画像での登録からVR画像での閲覧へのフローを模式的に示したイメージ図である。
実施形態2は、実施形態1を応用したものであり、モデルデータ15bに付与された仮想ARマーカ3に対応する壁7の隅に拡張現実表示装置10を密着させてモデルデータ15bと画像データとの位置合わせを行った後であって、SLAM又はIMUにより、拡張現実表示装置10の位置を把握しながら、モデルデータ15bと撮影データとの位置合わせを連続的に行っているときに、AR画像における仮想ARマーカに対する相対的な任意の位置に指定したアンカー9を打ち、その位置に関わる任意の情報(アンカー9の位置、メモ、写真、登録者名、登録日時等)を含むアンカー情報を作成してVR画像で表示できるようにしたものである(図9、図10参照)。
記憶部15は、VRデータ15c及びデータベース15dを記憶する。VRデータ15c及びデータベース15dは、外部のサーバ(図示せず)で記憶するようにしてもよい。VRデータ15cは、撮影された撮影対象物1の画像データに対応する仮想的なデータであり、設計者が作成した3次元データ(BIM等)や、深度センサ、LiDAR、デプスセンサなどの3次元センサで撮影して生成したデータを用いることができる。VRデータ15cは、モデルデータ15b(仮想ARマーカを含む)と位置的に関連付けられている。データベース15dには、アンカー情報が記憶されている。
制御部16は、測位部13で検出された位置情報に基づいて、モデルデータ15bと画像データとの位置合わせを連続的に行っているときに(つまり、AR画像を表示しているときに)、ユーザが入力部14を操作することによって、位置合わせの基礎となった仮想ARマーカ(図2の3a~3c)に対する相対的な任意の位置を指定して任意の情報を入力して作成されたアンカー情報を、データベース15dに記憶させる。制御部16は、表示部11でVRデータ15cを表示したときに、データベース15dからアンカー情報を読み出して、アンカー情報において指定された位置に対応するVRデータ15cの位置にアンカー情報(アンカーのみ、又は、アンカーに関連付けられた情報)を表示(重畳表示、スケルトン表示)させる。これにより、ユーザは撮影対象物1のVRデータ15cを参照しながら指定された位置のアンカー情報を閲覧できるようになる。
その他の構成及び動作は、実施形態1と同様である。
実施形態2によれば、実施形態1と同様に、多くの障害物が存在する現場や狭い現場であってもモデルデータ15b(仮想画像)と画像データ(現実画像)とを位置合わせすることに貢献することができるとともに、モデルデータ15bに付与された仮想ARマーカ3に対応する壁7の隅に拡張現実表示装置10を密着させてモデルデータ15bと画像データとの正確な位置合わせを行っているので、アンカー9に係るアンカー情報の記憶と再生の手間を低減することができ、同じ構造が連続する部分でも安定した動作を実現することができ、広い範囲でのアンカー情報の再生が可能となる。
[実施形態3]
実施形態3に係る仮想現実表示装置について図面を用いて説明する。図11は、実施形態3に係る拡張現実表示装置の構成を模式的に示したブロック図である。
拡張現実表示装置10は、撮影された撮影対象物1の画像データにモデルデータ15bを位置合わせして表示する装置である。拡張現実表示装置10は、表示部11と、撮像部12と、測位部13と、記憶部15と、制御部16と、を備える。表示部11は、情報を表示するように構成されている。撮像部12は、撮影対象物1を撮影することによって画像データを生成するように構成されている。測位部13は、拡張現実表示装置10の位置情報を検出するように構成されている。記憶部15は、所定のアプリ15a及びモデルデータ15bを記憶するように構成されている。制御部16は、表示部11、撮像部12、測位部13、及び記憶部15を制御するとともに、所定の情報処理を行うように構成されている。
モデルデータ15bには、複数の壁(例えば、図2の7)の隅に対応する箇所のいずれかに合わせて位置情報が関連付けられた複数の仮想ARマーカ(例えば、図2の3a~3c)が付与されている。
制御部16は、所定のアプリ15aの起動時に、複数の仮想ARマーカのうち最寄りの仮想ARマーカが付与されている壁の隅に拡張現実表示装置10を合わせて拡張現実表示装置10の一端面を壁に密着させるように表示部11にメッセージ表示する処理を行う。制御部16は、モデルデータ15b又は画像データ上に最寄りの仮想ARマーカを表示部11に強調表示する処理を行う。制御部16は、壁への拡張現実表示装置10の一端面の密着時にモデルデータ15bと画像データとの位置合わせを行う処理を行う。制御部16は、モデルデータ15bと画像データとの位置合わせを行った後、測位部13で検出された位置情報に基づいて、モデルデータ15bと画像データとの位置合わせを連続的に行う処理を行う。
実施形態3によれば、モデルデータ15bに付与された仮想ARマーカに対応する壁の隅に拡張現実表示装置10を密着させてモデルデータ15bと画像データとの位置合わせを行っているので、多くの障害物が存在する現場や狭い現場であってもモデルデータ15b(仮想画像)と画像データ(現実画像)とを位置合わせすることに貢献することができる。
なお、実施形態1~3に係る拡張現実表示装置は、いわゆるハードウェア資源(情報処理装置、コンピュータ)により構成することができ、図12に例示する構成を備えたものを用いることができる。例えば、ハードウェア資源100は、内部バス104により相互に接続される、プロセッサ101、メモリ102、ネットワークインタフェイス103等を備える。
なお、図12に示す構成は、ハードウェア資源100のハードウェア構成を限定する趣旨ではない。ハードウェア資源100は、図示しないハードウェア(例えば、入出力インタフェイス)を含んでもよい。あるいは、装置に含まれるプロセッサ101等のユニットの数も図12の例示に限定する趣旨ではなく、例えば、複数のプロセッサ101がハードウェア資源100に含まれていてもよい。プロセッサ101には、例えば、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、GPU(Graphics Processing Unit)等を用いることができる。
メモリ102には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等を用いることができる。
ネットワークインタフェイス103には、例えば、LAN(Local Area Network)カード、ネットワークアダプタ、ネットワークインタフェイスカード等を用いることができる。
ハードウェア資源100の機能は、上述の処理モジュールにより実現される。当該処理モジュールは、例えば、メモリ102に格納されたプログラムをプロセッサ101が実行することで実現される。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。即ち、上記処理モジュールが行う機能は、何らかのハードウェアにおいてソフトウェアが実行されることによって実現できればよい。
上記実施形態の一部または全部は以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
撮影された撮影対象物の画像データにモデルデータを位置合わせして表示する拡張現実表示装置であって、
情報を表示するように構成された表示部と、
撮影対象物を撮影することによって画像データを生成するように構成された撮像部と、
前記拡張現実表示装置の位置情報を検出するように構成された測位部と、
所定のアプリ及びモデルデータを記憶するように構成された記憶部と、
前記表示部、前記撮像部、前記測位部、及び前記記憶部を制御するとともに、所定の情報処理を行うように構成された制御部と、
を備え、
前記モデルデータには、複数の壁の隅に対応する箇所のいずれかに合わせて位置情報が関連付けられた複数の仮想ARマーカが付与されており、
前記制御部は、
前記所定のアプリの起動時に、前記複数の仮想ARマーカのうち最寄りの仮想ARマーカが付与されている壁の隅に前記拡張現実表示装置を合わせて前記拡張現実表示装置の一端面を前記壁に密着させるように前記表示部にメッセージ表示する処理と、
前記モデルデータ又は前記画像データ上に前記最寄りの仮想ARマーカを前記表示部に強調表示する処理と、
前記壁への前記拡張現実表示装置の前記一端面の密着時に前記モデルデータと前記画像データとの位置合わせを行う処理と、
前記モデルデータと前記画像データとの位置合わせを行った後、前記測位部で検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行う処理と、
を行うように構成されている、拡張現実表示装置。
[付記2]
前記測位部は、SLAM又はIMUにより前記拡張現実表示装置の位置情報を検出する機能を備え、
前記制御部は、前記SLAM又はIMUにより検出された前記拡張現実表示装置の前記位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行う処理を行うように構成されている、
付記1記載の拡張現実表示装置。
[付記3]
前記制御部は、前記モデルデータと前記画像データとの位置合わせを連続的に行っているときに、前記画像データに入った壁の隅に対応する箇所に付与されている前記仮想ARマーカを前記表示部に表示する処理を行うように構成されている、
付記1又は2記載の拡張現実表示装置。
[付記4]
前記制御部は、前記壁に密着してからの前記拡張現実表示装置の移動量又は時間が予め設定した閾値以上となったときに、前記複数の仮想ARマーカのうち最寄りの仮想ARマーカが付与されている壁の隅に前記拡張現実表示装置を合わせて前記拡張現実表示装置の前記一端面を前記壁に密着させるように前記表示部にメッセージ表示する処理を行うように構成されている、
付記1乃至3のいずれか一に記載の拡張現実表示装置。
[付記5]
前記制御部は、前記壁に密着してからの前記拡張現実表示装置の移動量又は時間が予め設定した閾値以上となり、かつ、前記最寄りの仮想ARマーカに対応する壁の隅が前記画像データに入っているときに、前記最寄りの仮想ARマーカを前記表示部に強調表示する処理を行うように構成されている、
付記4記載の拡張現実表示装置。
[付記6]
前記制御部は、
前記壁への前記拡張現実表示装置の前記一端面の密着時に前記モデルデータと前記画像データとの位置合わせを再度行う処理と、
前記モデルデータと前記画像データとの再度の位置合わせを行った後、前記測位部で検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行う処理と、
を行うように構成されている、
付記4又は5記載の拡張現実表示装置。
[付記7]
前記制御部は、前記密着時に前記モデルデータと前記画像データとの位置合わせを行う際に、前記撮像部から地面までの距離を測定して、測定された前記距離に基づいて前記モデルデータと前記画像データとの位置合わせを行うように構成されている、
付記1乃至6のいずれか一に記載の拡張現実表示装置。
[付記8]
前記制御部は、前記密着時に前記モデルデータと前記画像データとの位置合わせを行う際に、水平器機能により前記表示部の表面が水平になったときに、前記撮像部から地面までの距離を測定し、測定された前記距離に基づいて前記モデルデータと前記画像データとの位置合わせを行うように構成されている、
付記7記載の拡張現実表示装置。
[付記9]
前記制御部は、前記密着時に前記モデルデータと前記画像データとの位置合わせを行う際に、前記撮像部の向き及び前記撮像部から地面までの距離を測定し、測定した前記撮像部の向き及び前記撮像部から地面までの距離に基づいて、前記撮像部から地面までの垂直方向の距離を算出し、算出された前記距離に基づいて前記モデルデータと前記画像データとの位置合わせを行うように構成されている、
付記7記載の拡張現実表示装置。
[付記10]
前記測位部は、SLAM及びIMUとは異なる所定の機能部により前記拡張現実表示装置の位置情報を検出する機能を備え、
前記制御部は、前記最寄りの仮想ARマーカを強調表示する際に、前記所定の機能部により検出された前記拡張現実表示装置の前記位置情報、及び、前記最寄りの仮想ARマーカの前記位置情報に基づいて、前記モデルデータにおいて前記拡張現実表示装置の位置及び向きを表示する、又は、前記画像データに合わせて前記モデルデータを表示するように構成されている、
付記1乃至9のいずれか一に記載の拡張現実表示装置。
[付記11]
前記制御部は、前記メッセージ表示の際、前記壁の角部に、前記拡張現実表示装置の前記一端面に対して直角の関係にある前記拡張現実表示装置の他端面を合わせて前記拡張現実表示装置の前記一端面を前記壁に密着させるように前記表示部にメッセージ表示する処理を行うように構成されている、
付記1乃至10のいずれか一に記載の拡張現実表示装置。
[付記12]
前記制御部は、前記モデルデータと前記画像データとの位置合わせの際、予め設定された前記拡張現実表示装置における前記撮像部の位置に応じて前記モデルデータ又は前記画像データの位置のオフセット補正を行うように構成されている、
付記1乃至11のいずれか一に記載の拡張現実表示装置。
[付記13]
ユーザの操作により情報を入力するように構成された入力部をさらに備え、
前記記憶部は、さらに、前記画像データに対応するとともに前記モデルデータと位置的に関連付けられたVRデータと、データベースとを記憶するように構成され、
前記制御部は、
前記測位部で検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行っているときに、前記ユーザが前記入力部を操作することによって、位置合わせの基礎となった前記仮想ARマーカに対する相対的な任意の位置を指定して任意の情報を入力して作成されたアンカー情報を、前記データベースに記憶させる処理と、
前記表示部で前記VRデータを表示したときに、前記アンカー情報において指定された位置に対応する前記VRデータの位置に前記アンカー情報を表示させる処理と、
を行うように構成されている、
付記1乃至12のいずれか一に記載の拡張現実表示装置。
[付記14]
ハードウェア資源を用いて、撮影された撮影対象物の画像データにモデルデータを位置合わせして表示する拡張現実表示方法であって、
前記モデルデータには、複数の壁の隅に対応する箇所のいずれかに合わせて位置情報が関連付けられた複数の仮想ARマーカが付与されており、
所定のアプリの起動時に、前記複数の仮想ARマーカのうち最寄りの仮想ARマーカが付与されている壁の隅に前記ハードウェア資源を合わせて前記ハードウェア資源の一端面を前記壁に密着させるようにメッセージ表示するステップと、
前記モデルデータ又は前記画像データ上に前記最寄りの仮想ARマーカを強調表示するステップと、
前記壁への前記ハードウェア資源の前記一端面の密着時に前記モデルデータと前記画像データとの位置合わせを行うステップと、
前記モデルデータと前記画像データとの位置合わせを行った後、測位によって検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行うステップと、
を含む、拡張現実表示方法。
[付記15]
撮影された撮影対象物の画像データにモデルデータを位置合わせして表示する処理をハードウェア資源に実行させるプログラムであって、
前記モデルデータには、複数の壁の隅に対応する箇所のいずれかに合わせて位置情報が関連付けられた複数の仮想ARマーカが付与されており、
所定のアプリの起動時に、前記複数の仮想ARマーカのうち最寄りの仮想ARマーカが付与されている壁の隅に前記ハードウェア資源を合わせて前記ハードウェア資源の一端面を前記壁に密着させるようにメッセージ表示する処理と、
前記モデルデータ又は前記画像データ上に前記最寄りの仮想ARマーカを強調表示する処理と、
前記壁への前記ハードウェア資源の前記一端面の密着時に前記モデルデータと前記画像データとの位置合わせを行う処理と、
前記モデルデータと前記画像データとの位置合わせを行った後、測位によって検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行う処理と、
を前記ハードウェア資源に実行させる、プログラム。
なお、上記の特許文献の各開示は、本書に引用をもって繰り込み記載されているものとし、必要に応じて本発明の基礎ないし一部として用いることが出来るものとする。本発明の全開示(特許請求の範囲及び図面を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせないし選択(必要により不選択)が可能である。すなわち、本発明は、請求の範囲及び図面を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、本願に記載の数値及び数値範囲については、明記がなくともその任意の中間値、下位数値、及び、小範囲が記載されているものとみなされる。さらに、上記引用した文献の各開示事項は、必要に応じ、本願発明の趣旨に則り、本願発明の開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれる(属する)ものと、みなされる。
1 撮影対象物
2 モデル
3、3a~3e、3L、3R 仮想ARマーカ
4 基準点
5 装置現在地
6 装置向き
7 壁
7a エッジ
8 手
9 アンカー
10 拡張現実表示装置
11 表示部
12 撮像部
13 測位部
14 入力部
15 記憶部
15a ARアプリ(所定のアプリ)
15b モデルデータ
15c VRデータ
15d データベース
16 制御部
100 ハードウェア資源
101 プロセッサ
102 メモリ
103 ネットワークインタフェイス
104 内部バス

Claims (15)

  1. 撮影された撮影対象物の画像データにモデルデータを位置合わせして表示する拡張現実表示装置であって、
    情報を表示するように構成された表示部と、
    撮影対象物を撮影することによって画像データを生成するように構成された撮像部と、
    前記拡張現実表示装置の位置情報を検出するように構成された測位部と、
    所定のアプリ及びモデルデータを記憶するように構成された記憶部と、
    前記表示部、前記撮像部、前記測位部、及び前記記憶部を制御するとともに、所定の情報処理を行うように構成された制御部と、
    を備え、
    前記モデルデータには、複数の壁の隅に対応する箇所のいずれかに合わせて位置情報が関連付けられた複数の仮想ARマーカが付与されており、
    前記制御部は、
    前記所定のアプリの起動時に、前記複数の仮想ARマーカのうち最寄りの仮想ARマーカが付与されている壁の隅に前記拡張現実表示装置を合わせて前記拡張現実表示装置の一端面を前記壁に密着させるように前記表示部にメッセージ表示する処理と、
    前記モデルデータ又は前記画像データ上に前記最寄りの仮想ARマーカを前記表示部に強調表示する処理と、
    前記壁への前記拡張現実表示装置の前記一端面の密着時に前記モデルデータと前記画像データとの位置合わせを行う処理と、
    前記モデルデータと前記画像データとの位置合わせを行った後、前記測位部で検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行う処理と、
    を行うように構成されている、拡張現実表示装置。
  2. 前記測位部は、SLAM又はIMUにより前記拡張現実表示装置の位置情報を検出する機能を備え、
    前記制御部は、前記SLAM又はIMUにより検出された前記拡張現実表示装置の前記位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行う処理を行うように構成されている、
    請求項1記載の拡張現実表示装置。
  3. 前記制御部は、前記モデルデータと前記画像データとの位置合わせを連続的に行っているときに、前記画像データに入った壁の隅に対応する箇所に付与されている前記仮想ARマーカを前記表示部に表示する処理を行うように構成されている、
    請求項1又は2記載の拡張現実表示装置。
  4. 前記制御部は、前記壁に密着してからの前記拡張現実表示装置の移動量又は時間が予め設定した閾値以上となったときに、前記複数の仮想ARマーカのうち最寄りの仮想ARマーカが付与されている壁の隅に前記拡張現実表示装置を合わせて前記拡張現実表示装置の前記一端面を前記壁に密着させるように前記表示部にメッセージ表示する処理を行うように構成されている、
    請求項1乃至3のいずれか一に記載の拡張現実表示装置。
  5. 前記制御部は、前記壁に密着してからの前記拡張現実表示装置の移動量又は時間が予め設定した閾値以上となり、かつ、前記最寄りの仮想ARマーカに対応する壁の隅が前記画像データに入っているときに、前記最寄りの仮想ARマーカを前記表示部に強調表示する処理を行うように構成されている、
    請求項4記載の拡張現実表示装置。
  6. 前記制御部は、
    前記壁への前記拡張現実表示装置の前記一端面の密着時に前記モデルデータと前記画像データとの位置合わせを再度行う処理と、
    前記モデルデータと前記画像データとの再度の位置合わせを行った後、前記測位部で検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行う処理と、
    を行うように構成されている、
    請求項4又は5記載の拡張現実表示装置。
  7. 前記制御部は、前記密着時に前記モデルデータと前記画像データとの位置合わせを行う際に、前記撮像部から地面までの距離を測定して、測定された前記距離に基づいて前記モデルデータと前記画像データとの位置合わせを行うように構成されている、
    請求項1乃至6のいずれか一に記載の拡張現実表示装置。
  8. 前記制御部は、前記密着時に前記モデルデータと前記画像データとの位置合わせを行う際に、水平器機能により前記表示部の表面が水平になったときに、前記撮像部から地面までの距離を測定し、測定された前記距離に基づいて前記モデルデータと前記画像データとの位置合わせを行うように構成されている、
    請求項7記載の拡張現実表示装置。
  9. 前記制御部は、前記密着時に前記モデルデータと前記画像データとの位置合わせを行う際に、前記撮像部の向き及び前記撮像部から地面までの距離を測定し、測定した前記撮像部の向き及び前記撮像部から地面までの距離に基づいて、前記撮像部から地面までの垂直方向の距離を算出し、算出された前記距離に基づいて前記モデルデータと前記画像データとの位置合わせを行うように構成されている、
    請求項7記載の拡張現実表示装置。
  10. 前記測位部は、SLAM及びIMUとは異なる所定の機能部により前記拡張現実表示装置の位置情報を検出する機能を備え、
    前記制御部は、前記最寄りの仮想ARマーカを強調表示する際に、前記所定の機能部により検出された前記拡張現実表示装置の前記位置情報、及び、前記最寄りの仮想ARマーカの前記位置情報に基づいて、前記モデルデータにおいて前記拡張現実表示装置の位置及び向きを表示する、又は、前記画像データに合わせて前記モデルデータを表示するように構成されている、
    請求項1乃至9のいずれか一に記載の拡張現実表示装置。
  11. 前記制御部は、前記メッセージ表示の際、前記壁の角部に、前記拡張現実表示装置の前記一端面に対して直角の関係にある前記拡張現実表示装置の他端面を合わせて前記拡張現実表示装置の前記一端面を前記壁に密着させるように前記表示部にメッセージ表示する処理を行うように構成されている、
    請求項1乃至10のいずれか一に記載の拡張現実表示装置。
  12. 前記制御部は、前記モデルデータと前記画像データとの位置合わせの際、予め設定された前記拡張現実表示装置における前記撮像部の位置に応じて前記モデルデータ又は前記画像データの位置のオフセット補正を行うように構成されている、
    請求項1乃至11のいずれか一に記載の拡張現実表示装置。
  13. ユーザの操作により情報を入力するように構成された入力部をさらに備え、
    前記記憶部は、さらに、前記画像データに対応するとともに前記モデルデータと位置的に関連付けられたVRデータと、データベースとを記憶するように構成され、
    前記制御部は、
    前記測位部で検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行っているときに、前記ユーザが前記入力部を操作することによって、位置合わせの基礎となった前記仮想ARマーカに対する相対的な任意の位置を指定して任意の情報を入力して作成されたアンカー情報を、前記データベースに記憶させる処理と、
    前記表示部で前記VRデータを表示したときに、前記アンカー情報において指定された位置に対応する前記VRデータの位置に前記アンカー情報を表示させる処理と、
    を行うように構成されている、
    請求項1乃至12のいずれか一に記載の拡張現実表示装置。
  14. ハードウェア資源を用いて、撮影された撮影対象物の画像データにモデルデータを位置合わせして表示する拡張現実表示方法であって、
    前記モデルデータには、複数の壁の隅に対応する箇所のいずれかに合わせて位置情報が関連付けられた複数の仮想ARマーカが付与されており、
    所定のアプリの起動時に、前記複数の仮想ARマーカのうち最寄りの仮想ARマーカが付与されている壁の隅に前記ハードウェア資源を合わせて前記ハードウェア資源の一端面を前記壁に密着させるようにメッセージ表示するステップと、
    前記モデルデータ又は前記画像データ上に前記最寄りの仮想ARマーカを強調表示するステップと、
    前記壁への前記ハードウェア資源の前記一端面の密着時に前記モデルデータと前記画像データとの位置合わせを行うステップと、
    前記モデルデータと前記画像データとの位置合わせを行った後、測位によって検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行うステップと、
    を含む、拡張現実表示方法。
  15. 撮影された撮影対象物の画像データにモデルデータを位置合わせして表示する処理をハードウェア資源に実行させるプログラムであって、
    前記モデルデータには、複数の壁の隅に対応する箇所のいずれかに合わせて位置情報が関連付けられた複数の仮想ARマーカが付与されており、
    所定のアプリの起動時に、前記複数の仮想ARマーカのうち最寄りの仮想ARマーカが付与されている壁の隅に前記ハードウェア資源を合わせて前記ハードウェア資源の一端面を前記壁に密着させるようにメッセージ表示する処理と、
    前記モデルデータ又は前記画像データ上に前記最寄りの仮想ARマーカを強調表示する処理と、
    前記壁への前記ハードウェア資源の前記一端面の密着時に前記モデルデータと前記画像データとの位置合わせを行う処理と、
    前記モデルデータと前記画像データとの位置合わせを行った後、測位によって検出された位置情報に基づいて、前記モデルデータと前記画像データとの位置合わせを連続的に行う処理と、
    を前記ハードウェア資源に実行させる、プログラム。
JP2021209767A 2021-12-23 2021-12-23 拡張現実表示装置、方法、及びプログラム Pending JP2023094344A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021209767A JP2023094344A (ja) 2021-12-23 2021-12-23 拡張現実表示装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021209767A JP2023094344A (ja) 2021-12-23 2021-12-23 拡張現実表示装置、方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2023094344A true JP2023094344A (ja) 2023-07-05

Family

ID=87001360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021209767A Pending JP2023094344A (ja) 2021-12-23 2021-12-23 拡張現実表示装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2023094344A (ja)

Similar Documents

Publication Publication Date Title
US10354407B2 (en) Camera for locating hidden objects
US10467758B1 (en) Imagery-based construction progress tracking
US20180286098A1 (en) Annotation Transfer for Panoramic Image
US9888215B2 (en) Indoor scene capture system
US9222771B2 (en) Acquisition of information for a construction site
US20170256097A1 (en) Local positioning system for augmented reality applications
US10896327B1 (en) Device with a camera for locating hidden object
US10997785B2 (en) System and method for collecting geospatial object data with mediated reality
US20150317070A1 (en) Mobile handheld instruments and methods
CN110703805B (zh) 立体物体测绘航线规划方法、装置、设备、无人机及介质
JP2019153274A (ja) 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム
US20190197711A1 (en) Method and system for recording spatial information
US11395102B2 (en) Field cooperation system and management device
JP6725736B1 (ja) 画像特定システムおよび画像特定方法
CN113610702B (zh) 一种建图方法、装置、电子设备及存储介质
CN107766476B (zh) 基于楼块数据的众包数据处理方法、装置、设备及存储介质
EP4332631A1 (en) Global optimization methods for mobile coordinate scanners
CN111161350B (zh) 位置信息及位置关系确定方法、位置信息获取装置
US9852542B1 (en) Methods and apparatus related to georeferenced pose of 3D models
US9188444B2 (en) 3D object positioning in street view
TW201621273A (zh) 行動定位裝置及其定位方法
US11869159B2 (en) High density 3D environment capture with guided mixed reality
CN112558008A (zh) 基于光通信装置的导航方法、系统、设备及介质
JP2023094344A (ja) 拡張現実表示装置、方法、及びプログラム
US20200005832A1 (en) Method for calculating position coordinates and electronic device