JP2023077071A - Marker setting method - Google Patents

Marker setting method Download PDF

Info

Publication number
JP2023077071A
JP2023077071A JP2021190197A JP2021190197A JP2023077071A JP 2023077071 A JP2023077071 A JP 2023077071A JP 2021190197 A JP2021190197 A JP 2021190197A JP 2021190197 A JP2021190197 A JP 2021190197A JP 2023077071 A JP2023077071 A JP 2023077071A
Authority
JP
Japan
Prior art keywords
marker
virtual
markers
glasses
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021190197A
Other languages
Japanese (ja)
Inventor
シンテイ コ
Shintei Ko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hms Co Ltd
Original Assignee
Hms Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hms Co Ltd filed Critical Hms Co Ltd
Priority to JP2021190197A priority Critical patent/JP2023077071A/en
Publication of JP2023077071A publication Critical patent/JP2023077071A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To efficiently set a plurality of markers in aligning a virtual space with a real space in an AR device using the markers.SOLUTION: A marker setting method includes the steps of: setting a plurality of markers in a real space at predetermined intervals; storing, in a storage unit, virtual data including a plurality of virtual markers corresponding to the markers in the real space; measuring misalignment between the markers in image data obtained by capturing the markers in the real space through an imaging unit of an AR device and the virtual markers in the virtual data superimposed on the image data; and adjusting the intervals of the markers according to the misalignment.SELECTED DRAWING: Figure 9

Description

本開示は、マーカ設置方法に関する。 The present disclosure relates to a marker placement method.

従来、ARグラス、スマートフォン、タブレット端末等のAR(拡張現実)を表示するARデバイスを用いて、現実空間(実世界)の風景や撮影画像に、ヴァーチャル画像(例えば3D-CADデータ等)を重ね合わせて表示することが知られている(例えば特許文献1参照)。 Conventionally, virtual images (for example, 3D-CAD data, etc.) are superimposed on real space (real world) landscapes and captured images using AR devices that display AR (augmented reality) such as AR glasses, smartphones, and tablet terminals. It is known to display them together (see, for example, Patent Document 1).

特開2014-115957号公報JP 2014-115957 A

上記のようなARデバイスにおいて、現実世界の風景にヴァーチャル画像の位置を合わせるために、現実世界におけるARデバイスの位置、姿勢、移動などの情報を取得する必要がある。特に、土木、建築分野等の現場ではGPSの使用が困難であることが多いため、例えばVSLAMと呼ばれる手法で自己位置の推定と環境地図作成を同時に行うことが考えられる。また、現実世界の風景にヴァーチャル画像の位置を合わせるために、ARマーカ等のマーカを現実空間に設置して、ARグラスの撮像部で当該マーカを撮像することで、ARマーカの位置、姿勢を参照する方法が考えられる。 In the AR device as described above, it is necessary to acquire information such as the position, posture, and movement of the AR device in the real world in order to match the position of the virtual image with the landscape of the real world. In particular, it is often difficult to use GPS in the fields of civil engineering and construction, so it is conceivable to estimate the self-position and create an environment map at the same time by a technique called VSLAM, for example. In addition, in order to match the position of the virtual image with the scenery of the real world, a marker such as an AR marker is installed in the real space, and the image of the marker is captured by the imaging unit of the AR glasses. A method of referencing is conceivable.

例えば、複数のマーカを用いて現実世界の風景にヴァーチャル画像の位置を合わせる場合、どのように効率的にマーカを設置するかについては考えられていなかった。 For example, no consideration has been given to how to efficiently place the markers when aligning the position of the virtual image with the scenery of the real world using a plurality of markers.

そこで、本開示は上記技術課題に鑑みてなされたものであり、その目的は、マーカを用いてARデバイスにおけるヴァーチャル空間と現実空間との位置合わせを行う際に、効率的に複数のマーカを設置することができるマーカ設置方法を提供することである。 Therefore, the present disclosure has been made in view of the above technical problems, and an object of the present disclosure is to efficiently set a plurality of markers when aligning a virtual space and a real space in an AR device using markers. It is an object of the present invention to provide a marker installation method capable of

本開示におけるマーカ設置方法は、現実空間において複数のマーカを所定間隔で設置するステップと、
前記現実空間の前記複数のマーカに対応する複数の仮想マーカを含むヴァーチャルデータを記憶部に記憶するステップと、
ARデバイスの撮像部で前記現実空間の前記マーカを撮像した画像データにおける前記マーカと、前記画像データに重ねて表示されるヴァーチャルデータの前記仮想マーカとの間のずれを測定するステップと、
前記ずれに応じて、複数のマーカの前記間隔を調整するステップと、を含むことを特徴とする。
A marker installation method according to the present disclosure includes the steps of installing a plurality of markers at predetermined intervals in a physical space;
storing in a storage unit virtual data including a plurality of virtual markers corresponding to the plurality of markers in the physical space;
measuring a deviation between the marker in image data obtained by imaging the marker in the real space with an imaging unit of an AR device and the virtual marker in virtual data displayed superimposed on the image data;
and adjusting the intervals of the plurality of markers according to the deviation.

本開示によれば、マーカを用いてARデバイスにおけるヴァーチャル空間と現実空間との位置合わせを行う際に、効率的に複数のマーカを設置することができるマーカ設置方法を提供することが可能となる。 According to the present disclosure, it is possible to provide a marker installation method that can efficiently install a plurality of markers when aligning a virtual space and a real space in an AR device using markers. .

本開示の一実施形態に係るARシステムの構成例を示す図である。1 is a diagram illustrating a configuration example of an AR system according to an embodiment of the present disclosure; FIG. 本実施形態に係るARデバイスの構成例を示す図である。It is a figure which shows the structural example of the AR device which concerns on this embodiment. 本実施形態に係るサーバの構成例を示す図である。It is a figure which shows the structural example of the server which concerns on this embodiment. 本実施形態に係るARマーカの設置例を示す図である。It is a figure which shows the installation example of the AR marker which concerns on this embodiment. 本実施形態のARデバイスの自己位置推定方法に係るフローチャート図である。FIG. 3 is a flowchart of a method for estimating the self-position of an AR device according to the present embodiment; 本実施形態に係るARマーカの他の設置例を示す図である。It is a figure which shows the other example of installation of the AR marker which concerns on this embodiment. 本実施形態に係る現実空間とヴァーチャル空間の位置合わせ方法に係るフローチャート図である。FIG. 4 is a flow chart diagram relating to a method for aligning a physical space and a virtual space according to the present embodiment; 本実施形態に係るマーカの設置例を示す平面図である。It is a top view showing an example of setting of a marker concerning this embodiment. 本実施形態の現実空間に対するヴァーチャル空間の位置合わせ方法に係るフローチャート図である。FIG. 4 is a flow chart diagram relating to a method of aligning a virtual space with a real space according to the present embodiment.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.

図1は、本発明の一実施形態に係るARシステムの一例を示す。図1に示すように、本例のARシステムは、ARデバイス10と、サーバ20とを備える。ARデバイス10とサーバ20とは、ネットワーク30を介して接続され、通信可能である。 FIG. 1 shows an example of an AR system according to one embodiment of the invention. As shown in FIG. 1 , the AR system of this example includes an AR device 10 and a server 20 . The AR device 10 and the server 20 are connected via a network 30 and can communicate with each other.

<ARデバイス>
本例のARデバイス10は、眼鏡型の情報処理端末であるARグラスである。なお、ARデバイス10は、ARグラスに限られず、スマートフォン、タブレット端末等の情報処理装置であってもよい。
<AR device>
The AR device 10 of this example is AR glasses, which is a glasses-type information processing terminal. Note that the AR device 10 is not limited to AR glasses, and may be an information processing device such as a smart phone or a tablet terminal.

図2は、ARデバイス10の構成の概略を説明するブロック図である。図示のように、ARデバイス10は、例えば、制御部11、記憶部12、表示部13、通信部14、撮像部15、センサ部16を備え、これらが互いにバス17を介して接続される。 FIG. 2 is a block diagram outlining the configuration of the AR device 10. As shown in FIG. As illustrated, the AR device 10 includes, for example, a control unit 11 , a storage unit 12 , a display unit 13 , a communication unit 14 , an imaging unit 15 and a sensor unit 16 , which are connected to each other via a bus 17 .

制御部11は、各部間のデータの受け渡しを行うとともに、ARデバイス10全体の制御を行うものである。例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって実現される。制御部11は、記憶部12にアクセス可能であり、記憶部12に情報を格納したり、記憶部12から情報を読み出したりすることができる。 The control unit 11 exchanges data between units and controls the entire AR device 10 . For example, it is implemented by a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The control unit 11 can access the storage unit 12 and can store information in the storage unit 12 and read information from the storage unit 12 .

制御部11は、記憶部12に記憶されたプログラムを実行することによって、各種データの取得、生成、出力等を行う。制御部11は、撮像部15、センサ部16、サーバ20等の他の装置から取得した情報を取得し、当該情報と記憶部12の情報等に基づいて、ARグラスの位置及び姿勢(向き)を推定することができる。 The control unit 11 acquires, generates, and outputs various data by executing programs stored in the storage unit 12 . The control unit 11 acquires information acquired from other devices such as the imaging unit 15, the sensor unit 16, and the server 20, and based on the information and the information in the storage unit 12, etc., determines the position and orientation (orientation) of the AR glasses. can be estimated.

記憶部12は、1つ以上のステップを行うためのプログラム、コード等を記憶しており、制御部11は、当該プログラム等に従って、各部の動作を制御する。記憶部12は、システムプログラムが記憶された読取専用の記憶領域である不揮発性記憶装置と、制御部11による演算処理のワーク領域として使用される書き換え可能な記憶領域である揮発性記憶装置とを有している。不揮発性記憶装置は、例えば、ROM(Read Only Memory)やフラッシュメモリ、ハードディスクなどによって実現され、揮発性記憶装置は、RAM(Random Access Memory)やVRAM(Video Random Access Memory)などによって実現される。 The storage unit 12 stores a program, code, etc. for performing one or more steps, and the control unit 11 controls the operation of each unit according to the program or the like. The storage unit 12 includes a non-volatile storage device that is a read-only storage area in which a system program is stored, and a volatile storage device that is a rewritable storage area used as a work area for arithmetic processing by the control unit 11. have. Non-volatile storage devices are implemented by, for example, ROM (Read Only Memory), flash memory, hard disks, etc., and volatile storage devices are implemented by RAM (Random Access Memory), VRAM (Video Random Access Memory), and the like.

記憶部12は、たとえば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。記憶部12は、撮像部15やセンサ部16から取得した各データを記憶することができる。例えば、撮像部15としてのカメラで撮像した静止画・動画等の画像データが内蔵メモリ又は外部メモリに記憶されるようにしてもよい。 Storage unit 12 may include, for example, a separable medium such as an SD card or random access memory (RAM), or an external storage device. The storage unit 12 can store each data acquired from the imaging unit 15 and the sensor unit 16 . For example, image data such as still images and moving images captured by a camera as the imaging unit 15 may be stored in the built-in memory or the external memory.

表示部13は、例えば液晶表示装置などの表示装置を備えている。表示装置としては、例えば、ウェイブガイド形式のディスプレイ(Wave Guide Display)とすることができる。表示装置には、制御部11により制御される画像が表示される。つまり、表示部13は、制御部11が生成した画像を表示させることができる。また、表示装置は、一部または全体が透明または半透明に構成された透明部を有し、当該透明部を通して現実空間の風景を視認しつつ、ヴァーチャル画像をその風景に重ねて表示させることができる。表示部13は、表示装置とは別に、1以上のレンズを備えていてもよい。 The display unit 13 includes a display device such as a liquid crystal display device. The display device may be, for example, a wave guide display. An image controlled by the control unit 11 is displayed on the display device. That is, the display unit 13 can display the image generated by the control unit 11 . In addition, the display device has a transparent part that is partially or wholly transparent or semi-transparent, and through the transparent part, the scenery in the real space can be visually recognized, and the virtual image can be displayed superimposed on the scenery. can. The display unit 13 may include one or more lenses in addition to the display device.

表示部13は、現実空間の画像(例えば後述するマーカ等)が撮像(撮影)された際のARグラスの位置(撮像位置)及び姿勢(撮像方向)に応じたヴァーチャル画像(3D-CADモデル、CGモデル等)を、表示装置のレンズを透過して見える現実空間の風景に重ね合わせて表示させる。なお、表示部13は、撮像部15によって撮像された画像にヴァーチャル画像を重ね合わせたAR画像を制御部11等により生成し、当該AR画像を表示するようにしてもよい。 The display unit 13 displays a virtual image (3D-CAD model, CG model, etc.) is superimposed and displayed on the landscape of the real space seen through the lens of the display device. Note that the display unit 13 may generate an AR image in which a virtual image is superimposed on the image captured by the imaging unit 15 using the control unit 11 or the like, and display the AR image.

通信部14は、ARデバイス10を、インターネットを含むネットワーク30に接続する。この通信部14は、Bluetooth(登録商標)やBLE(Bluetooth Low Energy)といった近距離通信インターフェースを具備するものであってもよい。 The communication unit 14 connects the AR device 10 to a network 30 including the Internet. The communication unit 14 may include a short-range communication interface such as Bluetooth (registered trademark) or BLE (Bluetooth Low Energy).

撮像部15は、1以上の撮像装置(カメラ)を備えている。制御部11は、撮像装置によって撮像された静止画または動画の画像データを記憶部12、サーバ20等に送ることができる。撮像装置は、例えば、RGBカメラ、VSLAM用の左右一対の魚眼カメラ(fisheye Camera)、ToFカメラ(Time-of-Flight Camera)等を含むことができる。このような撮像装置は、センサ部16としても機能し得る。例えば、ToFカメラ(Time-of-Flight Camera)は、光の飛行時間を測定することで対象物との距離することができるものであり、ToFセンサとも称される。 The imaging unit 15 includes one or more imaging devices (cameras). The control unit 11 can send image data of still images or moving images captured by the imaging device to the storage unit 12, the server 20, and the like. The imaging device can include, for example, an RGB camera, a pair of left and right fisheye cameras for VSLAM, a ToF camera (Time-of-Flight Camera), and the like. Such an imaging device can also function as the sensor section 16 . For example, a ToF camera (Time-of-Flight Camera) measures the flight time of light to determine the distance to an object, and is also called a ToF sensor.

撮像部15は、ユーザの操作に応じて、あるいは予め設定された指示情報に基づいて、所定時間にわたって連続した画像を撮像することができる。また、撮像部15は、ユーザの操作、あるいは予め設定された指示情報に基づいて、非連続的な1時点の画像を撮像することもできる。つまり、撮像部15は、静止画、動画の撮像が可能である。 The image capturing unit 15 can capture images continuously over a predetermined period of time according to a user's operation or based on preset instruction information. The imaging unit 15 can also capture non-continuous images at one point in time based on the user's operation or preset instruction information. That is, the imaging unit 15 can capture still images and moving images.

センサ部16は、例えば、3軸加速度センサ、3軸ジャイロセンサ、方位センサ、GPS等とすることができる。各センサは、各センサが検出した位置、姿勢、移動の速度、加速度等の情報(検出信号)を制御部11に伝達(入力)することができる。 The sensor unit 16 can be, for example, a 3-axis acceleration sensor, a 3-axis gyro sensor, an orientation sensor, GPS, or the like. Each sensor can transmit (input) to the control unit 11 information (detection signals) such as the position, posture, movement speed, and acceleration detected by each sensor.

ARグラスは、ユーザ等からの要求(指示)の入力を受け付ける入力部を備えてもよい。入力部は、例えば、タッチパネル、機械的なスイッチとすることができる。なお、入力部は、アイトラッキング技術を用いた視線入力や、マイク等を用いた音声入力を受け付けるものであってもよい。入力部は、スマートフォン等の別の情報処理装置からの入力を受け付けるようにしてもよい。ARグラスは、音声等を出力するスピーカ等の出力部を備えてもよい。 The AR glasses may include an input unit that receives input of a request (instruction) from a user or the like. The input unit can be, for example, a touch panel or a mechanical switch. Note that the input unit may receive line-of-sight input using eye tracking technology or voice input using a microphone or the like. The input unit may receive input from another information processing device such as a smart phone. The AR glasses may include an output unit such as a speaker for outputting voice or the like.

<サーバ>
サーバ20は、システム管理者等が各種サービス等を運営・管理する際に利用する情報処理装置であり、例えば、ワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティング技術によって論理的に実現されてもよい。
<server>
The server 20 is an information processing device used when a system administrator or the like operates and manages various services. may be logically realized by

図3に示すように、サーバ20は、例えば、制御部21、記憶部22、出力部23、通信部24、入力部25を備え、これらが互いにバス26を介して接続される。サーバ20は、通信部24を介してARグラスと通信可能である。サーバ20は、ARグラス等から各種の要求信号を受信すると、制御部21においてプログラムによる処理を実行し、処理結果(例えば、生成された画像や音声等)を適宜ARグラス等に送信したり、記憶部22に記憶したりする。なお、上記プログラムの一部は、ARグラスに送信されてARグラス上で実行されてもよい。 As shown in FIG. 3, the server 20 includes, for example, a control unit 21, a storage unit 22, an output unit 23, a communication unit 24, and an input unit 25, which are connected to each other via a bus 26. The server 20 can communicate with AR glasses via the communication unit 24 . When receiving various request signals from the AR glasses or the like, the server 20 executes processing by a program in the control unit 21, and appropriately transmits the processing results (for example, generated images, sounds, etc.) to the AR glasses or the like, It is stored in the storage unit 22 . Note that part of the above program may be transmitted to AR glasses and executed on the AR glasses.

制御部21は、各部間のデータの受け渡しを行うとともに、サーバ20全体の制御を行うものであり、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)が所定のメモリ(記憶部)に格納されたプログラムを実行することによって実現される。 The control unit 21 exchanges data between units and controls the entire server 20. A CPU (Central Processing Unit) and a GPU (Graphics Processing Unit) are stored in a predetermined memory (storage unit). It is realized by executing the program

記憶部22は、システムプログラムが記憶された読取専用の記憶領域である不揮発性記憶装置と、制御部21による演算処理のワーク領域として使用される書き換え可能な記憶領域である揮発性記憶装置とを有している。不揮発性記憶装置は、例えば、ROM(Read Only Memory)やフラッシュメモリ、ハードディスクなどによって実現され、揮発性記憶装置は、RAM(Random Access Memory)やVRAM(Video Random Access Memory)などによって実現される。 The storage unit 22 includes a non-volatile storage device that is a read-only storage area in which the system program is stored, and a volatile storage device that is a rewritable storage area used as a work area for arithmetic processing by the control unit 21. have. Non-volatile storage devices are implemented by, for example, ROM (Read Only Memory), flash memory, hard disks, etc., and volatile storage devices are implemented by RAM (Random Access Memory), VRAM (Video Random Access Memory), and the like.

記憶部22は、ヴァーチャル空間に関する情報、ヴァーチャル画像に関する情報、マーカに関する情報、各座標系(現実空間座標系、ARデバイス座標系、マーカ座標系、仮想空間座標系)関する情報等を記憶することができる。 The storage unit 22 can store information on virtual space, information on virtual images, information on markers, information on each coordinate system (real space coordinate system, AR device coordinate system, marker coordinate system, virtual space coordinate system), and the like. can.

記憶部22は、ARカメラ等から受信した情報を記憶することができる。また、記憶部22は、上記ARカメラの記憶部12に記憶された情報を記憶するようにしてもよい。 The storage unit 22 can store information received from an AR camera or the like. Also, the storage unit 22 may store the information stored in the storage unit 12 of the AR camera.

出力部23は、音声を出力するスピーカ、画像を表示するディスプレイ等で構成される。 The output unit 23 includes a speaker for outputting sound, a display for displaying images, and the like.

通信部24は、サーバ20を、インターネットを含むネットワーク30に接続する。この通信部24は、Bluetooth(登録商標)やBLE(Bluetooth Low Energy)といった近距離通信インターフェースを具備するものであってもよい。 The communication unit 24 connects the server 20 to a network 30 including the Internet. The communication unit 24 may include a short-range communication interface such as Bluetooth (registered trademark) or BLE (Bluetooth Low Energy).

入力部25は、キーボードやマウス、あるいはタッチパネル等とすることができる。 The input unit 25 can be a keyboard, mouse, touch panel, or the like.

図4は、ARデバイス10としてのARグラスと、現場の構造物50の壁面に設置したマーカ40を用いて、ARデバイス10の自己位置推定の精度を高める方法を示す図である。 FIG. 4 is a diagram showing a method of increasing the accuracy of self-position estimation of the AR device 10 using AR glasses as the AR device 10 and the markers 40 installed on the wall surface of the structure 50 on site.

<マーカ>
マーカ40は、例えば、AprilTagとすることができるが、これに限られず、ARTag、ARToolkit、ARToolkitPlus、RUNE-Tag、reacTIVison等の、他のARマーカ(ARタグ)とすることができる。マーカ40は、例えば、全体として正方形である。マーカ40は、複数の正方形をした画素が二次元に配列されたマトリクス構造を有するものであり、各画素が白または黒で表示される。マーカ40の形状、描かれた図形はこれに限定されない。
<Marker>
The marker 40 can be, for example, AprilTag, but is not limited to it, and can be other AR markers (AR tags) such as ARTag, ARToolkit, ARToolkitPlus, RUN-Tag, reactTIVison, and the like. The marker 40 is, for example, generally square. The marker 40 has a matrix structure in which a plurality of square pixels are arranged two-dimensionally, and each pixel is displayed in white or black. The shape of the marker 40 and the drawn figure are not limited to this.

マーカ40として、AprilTagを採用する場合、例えば36h11マークシリーズは587個のマーカで構成される。ARデバイス10のカメラで任意のマーカ40を撮像するだけで、それぞれのマーカ40固有のID(識別情報)を取得することができる。なお、ARデバイス10のカメラで任意のマーカ40を撮像する際には、マーカ40を正面から撮像してもよいし、斜めから撮像してもよく、制御部による画像処理によって、各マーカ40固有の識別情報、位置、姿勢の情報を取得することができる。それぞれのマーカ40の画像と、各画像に対応するID情報とが予め関連付けられて記憶部22(もしくは記憶部12)に記憶されている。 When AprilTag is adopted as the marker 40, the 36h11 mark series, for example, consists of 587 markers. An ID (identification information) unique to each marker 40 can be acquired simply by capturing an image of an arbitrary marker 40 with the camera of the AR device 10 . Note that when an arbitrary marker 40 is imaged by the camera of the AR device 10, the marker 40 may be imaged from the front or obliquely. identification information, position, and posture information can be obtained. The image of each marker 40 and the ID information corresponding to each image are pre-associated and stored in storage unit 22 (or storage unit 12).

具体的には、例えば、ARグラスのカメラで撮像した画像データをサーバ20に送信すると、サーバ20の制御部21が記憶部22に記憶されたデータを参照し、そのマーカ40に対応するID情報を、ARグラスに送信する。これにより、ARグラスの制御部11がそのマーカ40に対応するIDを取得することができる。このID情報として、例えば、現実空間における位置、姿勢等の情報を関連付けて記憶部22に記憶させておくことができる。これによれば、カメラでマーカ40を撮像するだけで、マーカ40のIDに加えて、当該マーカの現実空間における位置、姿勢等の情報を正確に把握することができる。 Specifically, for example, when image data captured by a camera of AR glasses is transmitted to the server 20, the control unit 21 of the server 20 refers to the data stored in the storage unit 22, and ID information corresponding to the marker 40 is obtained. to the AR glasses. Thereby, the control unit 11 of the AR glasses can acquire the ID corresponding to the marker 40 . As this ID information, for example, information such as the position and orientation in the real space can be associated and stored in the storage unit 22 . According to this, by simply capturing an image of the marker 40 with a camera, information such as the position and orientation of the marker in the real space can be accurately grasped in addition to the ID of the marker 40 .

このようなマーカ40に関する情報は、ARグラスの表示部13に表示させることができる。ユーザは、ARグラスのカメラでマーカ40を撮像するだけで、そのマーカ40のID、位置、姿勢等の情報を表示部13から確認することができる。なお、カメラで撮像したマーカ40の画像に基づいて、そのマーカ40のIDを取得する処理は、(サーバ20と通信せずに)ARカメラのみで一連の処理を行うようにしてもよい。その場合、ARカメラの記憶部12に、マーカ40に関する情報を予め記憶しておく。 Information about such markers 40 can be displayed on the display unit 13 of the AR glasses. The user can confirm information such as the ID, position, and orientation of the marker 40 from the display unit 13 by simply capturing an image of the marker 40 with the camera of the AR glasses. Note that the process of acquiring the ID of the marker 40 based on the image of the marker 40 captured by the camera may be performed only by the AR camera (without communicating with the server 20). In that case, information about the marker 40 is stored in advance in the storage unit 12 of the AR camera.

<座標系>
ここで、図4に示すように、ARグラスには、ARグラス固有の座標系(ARデバイス座標系)が設定される。また、マーカ40には、マーカ40固有の座標系(マーカ座標系)が設定されている。さらに、現実空間には、現実空間座標系(世界座標系)が設定され、ヴァーチャルモデルには、ヴァーチャル空間座標系(仮想空間座標系)が設定される。
<Coordinate system>
Here, as shown in FIG. 4, a coordinate system unique to AR glasses (AR device coordinate system) is set for the AR glasses. A coordinate system unique to the marker 40 (marker coordinate system) is set for the marker 40 . Furthermore, a physical space coordinate system (world coordinate system) is set in the physical space, and a virtual space coordinate system (virtual space coordinate system) is set in the virtual model.

各座標系は、例えば3次元の直交座標系であり、直行する3本の座標軸(x軸、y軸、z軸)と、3本の座標軸が交わる原点を有する。各座標系の情報は、記憶部12、22に記憶することができる。すなわち、各座標系の原点位置、座標軸の向き、並びに、各座標系同士の相対的な位置、姿勢(向き)の関係を、記憶部12、22に記憶することができる。なお、位置とは3次元の座標で表現され、姿勢とは、3次元の方向(x軸、y軸、z軸それぞれの軸の周りでの回転角度)で表現され得る。 Each coordinate system is, for example, a three-dimensional orthogonal coordinate system, and has three orthogonal coordinate axes (x-axis, y-axis, and z-axis) and an origin where the three coordinate axes intersect. Information on each coordinate system can be stored in the storage units 12 and 22 . That is, the origin position of each coordinate system, the direction of the coordinate axis, and the relative positions and attitudes (orientations) of the coordinate systems can be stored in the storage units 12 and 22 . The position can be represented by three-dimensional coordinates, and the orientation can be represented by three-dimensional directions (rotation angles around the x-, y-, and z-axes).

<ヴァーチャルデータ>
記憶部22は、3次元のヴァーチャル空間(仮想空間)に関する情報、及び、ヴァーチャル空間において所定の位置、姿勢で位置決めされたヴァーチャルモデル(3次元又は2次元のCGモデル)に関する情報を記憶することができる。ヴァーチャルデータは、ヴァーチャル空間座標系の情報を有する。仮想空間データは、所定の現実空間(例えば建築現場)の空間データに対応していることが好ましい。仮想空間における位置、方向、座標系は、現実空間における位置、方向、座標系に対応付けられる。ヴァーチャル空間座標系の原点位置は、現実空間における所定の位置に一致(または対応)させることができる。また、ヴァーチャル空間座標系の3本の座標軸は、現実空間に設定された3本の座標軸に一致(または対応)させることができる。また、ヴァーチャルモデルの仮想空間上の形状、位置及び向きは、例えば、現実空間における実際の建築現場に設けられる建物等の形状、位置及び向きに対応している。
<Virtual data>
The storage unit 22 can store information about a three-dimensional virtual space (virtual space) and information about a virtual model (three-dimensional or two-dimensional CG model) positioned at a predetermined position and posture in the virtual space. can. Virtual data has information on a virtual space coordinate system. The virtual space data preferably corresponds to space data of a predetermined real space (for example, a building site). The position, direction, and coordinate system in the virtual space are associated with the position, direction, and coordinate system in the real space. The origin position of the virtual space coordinate system can match (or correspond to) a predetermined position in the real space. Also, the three coordinate axes of the virtual space coordinate system can be made to match (or correspond to) the three coordinate axes set in the real space. Also, the shape, position and orientation of the virtual model in the virtual space correspond to, for example, the shape, position and orientation of a building or the like provided at an actual construction site in the real space.

ヴァーチャルモデルは、例えば、対象物の3D-CADデータ、あるいはBIM(Building Information Modeling)データから作成することができる。なお、ヴァーチャル画像の作成方法や、画像データの種類は特に限定されない。記憶部12は、仮想空間の座標系の原点に対するヴァーチャルモデルの位置情報、当該仮想空間座標系においてどの方向を向いているかを示す姿勢情報を有する。また、仮想空間の設定、ヴァーチャルモデルの配置は、例えば、BIMデータといった設計データに基づいて予め行われる。また、ヴァーチャルモデルは、平面図(例えば、2Dの施工図又は平面詳細図)に基づくものであってもよい。ヴァーチャルモデルの生成は、サーバ20で行われてもよいし、他の装置で行われてもよい。ARグラスは、サーバ20からヴァーチャルモデルに関するデータを予め取得しておいてもよいし、ARグラスの使用中に連続的に(もしくは断続的に)ヴァーチャルモデルに関するデータを繰り返し取得するようにしてもよい。 A virtual model can be created, for example, from 3D-CAD data or BIM (Building Information Modeling) data of an object. Note that the method of creating the virtual image and the type of image data are not particularly limited. The storage unit 12 has position information of the virtual model with respect to the origin of the coordinate system of the virtual space, and orientation information indicating which direction the virtual model faces in the coordinate system of the virtual space. Also, setting of the virtual space and placement of the virtual model are performed in advance based on design data such as BIM data, for example. The virtual model may also be based on a plan view (eg, a 2D construction plan or plan detail view). The generation of the virtual model may be performed by the server 20, or may be performed by another device. The AR glasses may acquire data on the virtual model from the server 20 in advance, or may repeatedly acquire data on the virtual model continuously (or intermittently) while using the AR glasses. .

ARデバイス座標系の原点及び各座標軸は、ARグラスに対して所定の位置、向きで設定されている。制御部11(もしくは制御部21)は、ARグラスの撮像部15で撮像した画像に基づいて、ARグラスの位置、姿勢を推定し、ヴァーチャルデータを現実空間座標系に対応させることができる。 The origin and each coordinate axis of the AR device coordinate system are set at predetermined positions and orientations with respect to the AR glasses. The control unit 11 (or the control unit 21) can estimate the position and orientation of the AR glasses based on the image captured by the imaging unit 15 of the AR glasses, and associate the virtual data with the real space coordinate system.

ARグラスは、撮像部15で撮像された現実空間の画像(映像)に基づいて、物体のヴァーチャル画像を現実空間の風景(もしくは現実世界の画像)に重ね合わせて表示させる装置である。ARグラスは、例えば、土木、建築、鉄道、交通の現場において、作業員、監督者等のユーザが頭部に装着するなど、携帯して用いられる。当該現場の現実空間の風景に、設置予定の部材や建物等のヴァーチャル画像を設置予定の位置、設置予定の向き(姿勢)で、現実空間の風景(もしくは現実世界の画像)に重ね合わせて表示させる。ヴァーチャル画像は、3D-CAD等により予め生成し、ARデバイス10又はサーバ20等の記憶部12、22に記憶される。 The AR glass is a device that superimposes a virtual image of an object on a real space landscape (or a real world image) based on a real space image (video) captured by the imaging unit 15 and displays the superimposed image. AR glasses are used in a portable manner, for example, by being worn on the head by users such as workers and supervisors at sites of civil engineering, construction, railroads, and transportation. Display a virtual image of the components and buildings to be installed on the scenery of the real space of the site at the planned installation position and orientation (orientation), superimposed on the scenery of the real space (or image of the real world). Let A virtual image is generated in advance by 3D-CAD or the like and stored in the storage units 12 and 22 of the AR device 10 or the server 20 or the like.

ARグラスは、ARグラスの位置、姿勢(角度)の情報を取得して、制御部11が、記憶部12のデータを取得、参照しつつ、当該位置、姿勢に対応する画像データを生成する。そして、生成した画像データ(ヴァーチャル画像のデータ)を、表示部13に表示させる。これにより、ARグラスの位置、姿勢に応じたヴァーチャル画像が、現実世界の風景に重なるようにARグラスに表示される。現場において、ユーザがヴァーチャル画像を確認することで、作業過程又は最終的なイメージを持ちながら作業することができ、作業ミスを抑制しながら確実に作業を進めることができる。また、離れた場所から指示をする場合にも、立体的なヴァーチャル画像を見ながら会話することで、効率的に指示することができる。 The AR glasses acquire information on the position and orientation (angle) of the AR glasses, and the control unit 11 acquires and refers to the data in the storage unit 12 to generate image data corresponding to the position and orientation. Then, the generated image data (virtual image data) is displayed on the display unit 13 . As a result, a virtual image corresponding to the position and orientation of the AR glasses is displayed on the AR glasses so as to overlap the scenery of the real world. By checking the virtual image at the site, the user can work while having an image of the work process or the final image, and can proceed with work reliably while suppressing work mistakes. Also, even when giving instructions from a remote location, it is possible to give instructions efficiently by conversing while viewing a three-dimensional virtual image.

ARグラスの位置情報、姿勢情報(方向情報)は、例えば自己位置推定の技術により取得することができる。自己位置推定の技術は、例えば、Visual SLAM(Simultaneous Localization And Mapping)、VIO(Visual Inertial Odometry)等の画像情報を活用した技術があり、ARグラスには上記技術を実現するためのカメラやセンサ等が搭載され得る。このような自己位置推定技術は、特に非GPS環境下においては有効である。本例のARグラスは、所謂「Visual SLAM」により、撮像部15で撮像した映像から自己位置推定と環境地図(ヴァーチャル空間)の作成を同時に行うことができる。 The position information and orientation information (direction information) of the AR glasses can be obtained by, for example, self-position estimation technology. Self-position estimation technology includes, for example, Visual SLAM (Simultaneous Localization And Mapping), VIO (Visual Inertial Odometer) and other technologies that utilize image information, and AR glasses have cameras, sensors, etc. to realize the above technologies. can be loaded. Such self-position estimation technology is particularly effective in non-GPS environments. The AR glasses of this example can simultaneously perform self-position estimation and creation of an environment map (virtual space) from the image captured by the imaging unit 15 by so-called “Visual SLAM”.

本実施形態のARグラスは、ユーザが頭部に装着する眼鏡型の表示装置であり、1枚以上のレンズ(表示部13と一体または別体)、レンズ等を支持するフレーム(枠体)、制御部11、撮像部15、センサ部16、表示部13、通信部、記憶部12、入力部等を備えることができる。なお、ARグラスの一部の構成(制御部11等)を別ユニットとして分離し、有線もしくは無線で接続するようにしてもよいし、制御部11や記憶部12を用いて行う処理を、サーバ20で実行するようにしてもよい。 The AR glasses of this embodiment are spectacle-type display devices worn by the user on the head, and include one or more lenses (integrated with or separate from the display unit 13), a frame (frame body) for supporting the lenses and the like, It can include a control unit 11, an imaging unit 15, a sensor unit 16, a display unit 13, a communication unit, a storage unit 12, an input unit, and the like. A part of the configuration of the AR glasses (control unit 11, etc.) may be separated as a separate unit and connected by wire or wirelessly. 20 may be executed.

ARグラスの位置及び姿勢は、制御部11における自己位置推定部によって決定される。ARグラスは、インターネット等のネットワークを介して、あるいは直接的にサーバ20等の情報処理装置に通信接続するための通信部を備える。これにより、通信部を備えた他の情報処理装置との間で、各種データの送受信を行うことができる。例えば、ARグラスで撮像した画像データ、制御部11で生成した画像データ、センサ部16で取得したセンサデータ等をサーバ20に送信してサーバ20側で記憶、処理したり、サーバ20から送信された画像等のデータを受信したりすることができる。 The position and orientation of the AR glasses are determined by the self-position estimator in the controller 11 . The AR glasses have a communication unit for communication connection to an information processing device such as the server 20 or the like via a network such as the Internet or directly. As a result, various data can be transmitted/received to/from another information processing apparatus having a communication unit. For example, image data captured by AR glasses, image data generated by the control unit 11, sensor data acquired by the sensor unit 16, and the like are transmitted to the server 20 and stored and processed on the server 20 side, or transmitted from the server 20. It is also possible to receive data such as images that have been captured.

なお、ARデバイス10の撮像部15で撮像した画像をサーバ20に送信して、サーバ20の制御部21において、ARデバイス10に表示する画像を生成するようにしてもよい。 An image captured by the imaging unit 15 of the AR device 10 may be transmitted to the server 20 so that the control unit 21 of the server 20 generates an image to be displayed on the AR device 10 .

制御部11は、撮像部15(カメラ)の位置(撮像位置)及び姿勢(撮像方向)の情報を取得して、当該画像が撮像された際の撮像部15の位置及び姿勢に応じたヴァーチャルモデルの画像を(記憶部12の情報に基づいて)生成し、表示部13に出力する。 The control unit 11 acquires information on the position (imaging position) and orientation (imaging direction) of the imaging unit 15 (camera), and creates a virtual model corresponding to the position and orientation of the imaging unit 15 when the image was captured. image is generated (based on the information in the storage unit 12 ) and output to the display unit 13 .

制御部11は、画像を撮像部15で撮像した際の位置及び姿勢と同じ条件で、当該撮像部15が仮想空間にあると仮定した仮想カメラで仮想空間内に設置されたヴァーチャルモデルを撮像した場合のヴァーチャルモデルの画像を生成し、表示部13は現実空間の風景(もしくは現実空間の画像)に重なり合うように表示する。 The control unit 11 captures an image of the virtual model set in the virtual space with a virtual camera assuming that the image capturing unit 15 is in the virtual space under the same conditions as the position and orientation when the image was captured by the image capturing unit 15. An image of a virtual model of the case is generated, and the display unit 13 displays it so as to overlap the scenery of the real space (or the image of the real space).

ヴァーチャルモデルをARグラスの表示部13に表示する際には、カメラの位置及び姿勢だけではなく、例えば、現実空間の明るさ等の他のパラメータを考慮してもよい。また、ヴァーチャルモデルを半透明にして、ヴァーチャルモデル画像が重なる部分(隠れる部分)も視認できるようにしてもよい。なお、ARグラスの表示部13は、カメラの位置及び姿勢に対応して、表示するヴァーチャル画像を設定したり、修正したりする。 When displaying the virtual model on the display unit 13 of the AR glasses, other parameters such as the brightness of the real space may be considered in addition to the position and orientation of the camera. Also, the virtual model may be translucent so that the portion where the virtual model image overlaps (hidden portion) can also be visually recognized. Note that the display unit 13 of the AR glasses sets and modifies the virtual image to be displayed according to the position and orientation of the camera.

制御部11は、撮像部15又はセンサ部16からの情報に基づいて、ARグラスの撮像装置の移動状態(移動の有無、移動方向、移動速度等)を推定することができる。制御部11は、当該移動状態情報に応じて、仮想空間におけるカメラの位置及び姿勢(カメラが仮想空間にあるとした場合の位置及び姿勢)を算出する。表示部13は、修正した位置及び姿勢に基づいて画像に対するヴァーチャルモデルの重ね合わせを行う。このような処理を連続的に行うことで、ユーザの動きに応じたARグラスの移動に追従したヴァーチャル画像を、表示部13に表示させることができる。 Based on the information from the imaging unit 15 or the sensor unit 16, the control unit 11 can estimate the moving state (presence or absence of movement, moving direction, moving speed, etc.) of the AR glasses imaging device. The control unit 11 calculates the position and orientation of the camera in the virtual space (the position and orientation when the camera is in the virtual space) according to the movement state information. The display unit 13 superimposes the virtual model on the image based on the corrected position and orientation. By continuously performing such processing, it is possible to display on the display unit 13 a virtual image that follows the movement of the AR glasses according to the movement of the user.

表示部13は、撮影される画像を入力する度(連続的または断続的)に、また、センサ部等から移動状態を示す情報を受け付ける度に、表示される画像の生成及びディスプレイへの出力を行う。即ち、表示部13は、カメラの移動状態に追従するように現実空間の風景又は画像にヴァーチャルモデルを重ね合わせて表示する。表示部13の当該機能は、公知のARの方法(例えば、ARToolKitのトラッキングアルゴリズム、SLAM機能)によって実現することができる。 The display unit 13 generates an image to be displayed and outputs it to the display each time an image to be captured is input (continuously or intermittently) or each time information indicating the movement state is received from the sensor unit or the like. conduct. That is, the display unit 13 superimposes and displays the virtual model on the landscape or image in the real space so as to follow the moving state of the camera. The function of the display unit 13 can be realized by a known AR method (eg, ARToolKit tracking algorithm, SLAM function).

以下、図4、図5を参照しつつ、マーカ40を用いた自己位置及び姿勢を校正(補正)する方法について説明する。 A method of calibrating (correcting) the self-position and orientation using the marker 40 will be described below with reference to FIGS. 4 and 5. FIG.

まず、図4に示すように、マーカ40を、建築現場等の所定の位置に、予め位置決めして設置しておく(ステップS1)。現実空間座標系におけるマーカ40の位置、姿勢(向き)は、予めARグラスかサーバ20の少なくとも何れかの記憶部(12、22)に記憶しておく。図4の例では、構造物50の鉛直な壁面にマーカ40を設置しているが、水平面等でもよい。また、構造物50の壁面の上縁(上端部に位置する水平な縁部)と側縁(側端部に位置する鉛直な縁部)に対して、マーカ40の2辺が平行になるように貼り付けられているが、これに限られない。 First, as shown in FIG. 4, a marker 40 is previously positioned and installed at a predetermined position such as a construction site (step S1). The position and orientation (orientation) of the marker 40 in the physical space coordinate system are stored in advance in storage units (12, 22) of at least one of the AR glasses and the server 20. FIG. In the example of FIG. 4, the marker 40 is installed on the vertical wall surface of the structure 50, but it may be installed on a horizontal surface or the like. Also, the two sides of the marker 40 are parallel to the upper edge (horizontal edge located at the upper end) and the side edge (vertical edge located at the side edge) of the wall surface of the structure 50 . , but not limited to.

ユーザは、ARグラスのカメラの撮像範囲内に当該マーカ40が位置するようにカメラの向きを調整し、カメラでマーカ40を撮像する(ステップS2)。 The user adjusts the orientation of the camera so that the marker 40 is positioned within the imaging range of the camera of the AR glasses, and images the marker 40 with the camera (step S2).

制御部(11、21)は、撮影されたマーカ40の画像データに基づいて、ARデバイス座標系(カメラ座標系)上でのマーカ40の3次元の位置、姿勢を算出する。その際、正方形のマーカ40の何れかの角を構成する1点と、当該1点の角で直行する2辺(エッジ)を参照要素(参照点、参照線)として、マーカ40の位置と姿勢を決定する。制御部(11、21)は、ARグラス座標系と、マーカ座標系との3次元の相対的な位置関係(座標変換マトリクス(R、T))を算出する。 The control unit (11, 21) calculates the three-dimensional position and orientation of the marker 40 on the AR device coordinate system (camera coordinate system) based on the captured image data of the marker 40. FIG. At that time, the position and posture of the marker 40 are determined using a point that forms one of the corners of the square marker 40 and two sides (edges) perpendicular to the corner of the square marker 40 as reference elements (reference points, reference lines). to decide. Control units (11, 21) calculate a three-dimensional relative positional relationship (coordinate transformation matrix (R, T)) between the AR glass coordinate system and the marker coordinate system.

また制御部(11、21)は、ARデバイス座標系上でのマーカ40の位置、姿勢に基づいて、座標変換マトリクス(R、T)を用いて逆算することにより、マーカ座標系上でのARグラスの位置、姿勢を算出する。これにより、制御部(11、21)は、マーカ40に対するARグラスの相対的な位置、姿勢を算出する(ステップS3)。 In addition, the control unit (11, 21) performs back calculation using the coordinate transformation matrix (R, T) based on the position and orientation of the marker 40 on the AR device coordinate system to obtain the AR on the marker coordinate system. Calculate the position and orientation of the glass. Thereby, the control unit (11, 21) calculates the relative position and orientation of the AR glasses with respect to the marker 40 (step S3).

制御部(11、21)は、撮影されたマーカ40の画像データに基づいて、現実空間座標系でのマーカ40の識別情報、位置、姿勢の情報を記憶部(12、22)から取得する。換言すると、制御部(11、21)は、マーカ座標系と、現実空間座標系との3次元の相対的な位置関係(座標変換マトリクス(R0、T0))を記憶部(12、22)から取得する。現実空間座標系上のマーカ40の位置及び姿勢、現実空間座標系とマーカ座標系との相対的な3次元の位置関係(位置と姿勢)は予め記憶部(12、22)に記憶されている。制御部(11、21)は、位置や形状が既知の物体の画像と、それを撮像したカメラの位置及び姿勢を求める、いわゆるPnP問題(Perspective n-Point)を解くことで、カメラ及びこれを含むARグラスの位置座標(撮像位置座標)及び姿勢が推定可能となる。 Based on the captured image data of the marker 40, the control unit (11, 21) acquires the identification information, the position, and the orientation information of the marker 40 in the physical space coordinate system from the storage unit (12, 22). In other words, the control unit (11, 21) stores the three-dimensional relative positional relationship (coordinate transformation matrix (R0, T0)) between the marker coordinate system and the real space coordinate system from the storage unit (12, 22). get. The position and orientation of the marker 40 on the physical space coordinate system and the relative three-dimensional positional relationship (position and orientation) between the physical space coordinate system and the marker coordinate system are stored in advance in storage units (12, 22). . The control unit (11, 21) solves a so-called PnP problem (Perspective n-Point) to obtain an image of an object whose position and shape are known and the position and orientation of the camera that captured the image, thereby Position coordinates (imaging position coordinates) and orientation of the AR glasses included can be estimated.

制御部(11、21)は、マーカ40に対するARグラスの相対的な位置、姿勢の情報と、現実空間座標系とマーカ座標系との相対的な3次元の位置関係とに基づいて、(つまり、座標変換マトリクス(R0、T0)を用いて逆算することにより、)現実空間座標系上でのARグラスの位置、姿勢を算出する(ステップS4)。 The control units (11, 21) are based on the relative position and orientation information of the AR glasses with respect to the marker 40 and the relative three-dimensional positional relationship between the real space coordinate system and the marker coordinate system (that is, , and the coordinate transformation matrix (R0, T0) to calculate the position and orientation of the AR glasses on the physical space coordinate system (step S4).

このような方法により、ARグラスは、高い精度で現実空間座標系上での自己位置と姿勢を推定することができる。 With such a method, the AR glasses can estimate the self position and orientation on the real space coordinate system with high accuracy.

以下に、図6、図7を参照しつつ、現実空間に対するヴァーチャル空間の位置合わせ方法について説明する。より具体的には、ARデバイスを現場で用いる際の初期設定の方法について説明する。 A method of aligning the virtual space with the real space will be described below with reference to FIGS. More specifically, the initial setting method for using the AR device in the field will be described.

本実施形態に係る、現実空間に対するヴァーチャル空間の位置合わせ方法にあっては、現実空間における角部または縁部に沿ってマーカを設置するステップと、構造物の角部または縁部に対する前記マーカの位置及び姿勢を測定するステップと、ARデバイスの撮像部でマーカを撮像した画像情報に基づいて、マーカに対するARデバイスの相対的な位置及び姿勢を算出するステップと、測定するステップで得た情報と、算出するステップで得た情報とに基づいて、現実空間の座標系に対する予め記憶部に記憶されたヴァーチャル空間の座標系の位置合わせを行うステップと、を含む。このような構成により、どのような環境であっても、つまり様々な環境において、高い精度で現実空間に対するヴァーチャル空間の位置合わせを実行することができる。 In the method of aligning the virtual space with the real space according to the present embodiment, the steps of placing a marker along a corner or edge in the real space; a step of measuring the position and orientation; a step of calculating the relative position and orientation of the AR device with respect to the marker based on image information of the marker captured by the imaging unit of the AR device; and information obtained in the measuring step. and aligning the coordinate system of the virtual space stored in advance in the storage unit with the coordinate system of the real space based on the information obtained in the calculating step. With such a configuration, it is possible to align the virtual space with the real space with high accuracy in any environment, that is, in various environments.

具体的に、例えば、現場においてARグラスを最初に使用する際に、ユーザは初期設定(セットアップ)を行う。まず、ARグラスの電源スイッチをオンにすること等により、ARグラスに記憶されたアプリケーションを起動させる。そして、初期設定として、3次元のヴァーチャル画像が設定されるヴァーチャル空間座標系(ヴァーチャル世界)と、現実空間座標系(現実世界)との最初の位置合わせを行う。ヴァーチャル画像が設定されるヴァーチャル空間座標系の情報は、記憶部12、22に記憶される。ヴァーチャル空間座標系の情報は、ヴァーチャル座標系と、ヴァーチャルモデルの情報、ヴァーチャル空間におけるマーカの情報を含む。 Specifically, for example, when using the AR glasses for the first time in the field, the user performs initial settings (setup). First, the application stored in the AR glasses is started by turning on the power switch of the AR glasses. Then, as an initial setting, initial alignment is performed between a virtual space coordinate system (virtual world) in which a three-dimensional virtual image is set and a real space coordinate system (real world). Information on the virtual space coordinate system in which the virtual image is set is stored in storage units 12 and 22 . The virtual space coordinate system information includes the virtual coordinate system, virtual model information, and marker information in the virtual space.

現場において、例えば建物や構造物等が設置される空間の入り口付近において、3次元の設計図面(3D-CAD等)で参照し易い位置の近傍にマーカ40を設置する(ステップS11)。参照し易い位置とは、例えば、建物の角部(外面の角部または内面の角部)や縁部(例えば直線状のエッジ)である。なお、制御部がVSLAM等で自己位置推定とマッピング(地図形成)を行う際には、隣接する2つの平面が交わるエッジ(縁部)、3つの平面が交わる角部を参照点Pとすることができる。マーカを設置する際には、接着手段等を用いて貼り付けることで、対象物にマーカを着脱可能な状態で固定することができる。 At the site, for example, near the entrance of a space where buildings, structures, etc. are installed, a marker 40 is installed near a position that can be easily referred to in a three-dimensional design drawing (3D-CAD, etc.) (step S11). The easy-to-reference locations are, for example, corners (outer corners or inner corners) and edges (eg, straight edges) of the building. When the control unit performs self-position estimation and mapping (map formation) using VSLAM or the like, the edge (edge) where two adjacent planes intersect and the corner where three planes intersect are used as reference points P. can be done. When the marker is installed, the marker can be detachably fixed to the object by sticking it using an adhesive means or the like.

図6に示す例では、建物内の互いに直交する3面(水平な床面と、2つの鉛直な壁面)が交わる角部(内角部)を、参照点Pとしている。そして、床面に第1のマーカ40aを設置し、壁面(側壁の表面)に第2のマーカ40bを設置している。 In the example shown in FIG. 6, the reference point P is a corner (inner corner) where three mutually orthogonal surfaces (a horizontal floor surface and two vertical wall surfaces) in the building intersect. A first marker 40a is installed on the floor surface, and a second marker 40b is installed on the wall surface (side wall surface).

マーカ40を設置する際には、複数のマーカ40をそれぞれ別の平面(壁面、床面)に設置することが好ましい。これによれば、1つのマーカ40のみを使って位置合わせする場合に比べて、多くの情報を参照することができるので、位置合わせの精度を高めることができる。なお、マーカ40を設置する位置は、鉛直な壁面、水平な床面が好ましいが、これに限られない。また、位置合わせの精度を高める観点から、互いに直交する平面にそれぞれマーカ40を設置することが好ましい。これによれば、互いに対して斜めに延在する平面にマーカを設置する場合に比べて、位置合わせの精度を高めることができる。 When installing the markers 40, it is preferable to install the plurality of markers 40 on different planes (wall surface, floor surface). According to this, more information can be referred to than when performing alignment using only one marker 40, so the accuracy of alignment can be improved. The position where the marker 40 is installed is preferably a vertical wall surface or a horizontal floor surface, but is not limited to this. Moreover, from the viewpoint of increasing the accuracy of alignment, it is preferable to install the markers 40 on planes orthogonal to each other. According to this, the accuracy of alignment can be improved compared to the case where the markers are placed on planes extending obliquely with respect to each other.

また、参照点Pである角部を構成する複数の壁面にそれぞれマーカ40を設置することが好ましい。これによれば、参照点Pである角部の周囲に複数のマーカを異なる角度で設置することができ、位置合わせの精度をさらに高めることができる。 Further, it is preferable to install the markers 40 on each of the plurality of wall surfaces forming the corners, which are the reference points P. As shown in FIG. According to this, it is possible to set a plurality of markers at different angles around the corner, which is the reference point P, and to further improve the accuracy of alignment.

また、ARデバイス10の撮像部15で同時に撮像できる領域内に、(つまり比較的近接した位置に)複数のマーカ40を配置することが好ましい。図6の例では、第1のマーカ40aと第2のマーカ40bがそれぞれ互いに直交する平面(床面と壁面)に設置されている。なお、本例のように、2つのマーカ40で縁部(2つの平面が交わる直線状のエッジ)を両側から挟むように、当該2つのマーカ40を設置することが好ましい。 In addition, it is preferable to arrange a plurality of markers 40 (that is, at relatively close positions) within an area that can be imaged simultaneously by the imaging unit 15 of the AR device 10 . In the example of FIG. 6, the first marker 40a and the second marker 40b are installed on planes (floor surface and wall surface) perpendicular to each other. As in this example, it is preferable to install the two markers 40 such that the two markers 40 sandwich an edge (a linear edge where two planes intersect) from both sides.

マーカ40は、建物の角部、縁部(エッジ)に沿って設置することが好ましい。より具体的に、建物の内壁面の角部を構成する壁面の、直行する2辺と、正方形状のマーカの角を形成する2辺とがそれぞれ互いに平行になるように、マーカ40を設置することが好ましい。あるいは、建物等の構造物の何れかの縁部と、四角形のマーカ40の1辺とが平行になるように配置することが好ましい。このようにすることで、マーカ40を適切な位置、姿勢で設置し易く、現実空間に対するヴァーチャル空間の位置決めも容易となる。なお、マーカは、所定の位置(緯度、経度)において、所定の姿勢(例えば、東西南北の何れかの方角にマーカの1辺が平行等)で、地面に位置決めした状態で設置してもよい。マーカ40は、墨出し等の方法により、基準となる角、エッジに対して、平面に沿ってオフセットさせて配置することができる。 The markers 40 are preferably installed along the corners and edges of the building. More specifically, the marker 40 is installed so that the two orthogonal sides of the wall surface forming the corners of the inner wall surface of the building and the two sides forming the corners of the square marker are parallel to each other. is preferred. Alternatively, it is preferable to arrange so that one edge of a structure such as a building and one side of the square marker 40 are parallel to each other. By doing so, it is easy to set the marker 40 at an appropriate position and attitude, and positioning of the virtual space with respect to the real space is also facilitated. Note that the marker may be positioned on the ground at a predetermined position (latitude and longitude) and in a predetermined orientation (for example, one side of the marker is parallel to any of the north, south, east, and west directions). . The markers 40 can be offset along the plane from the reference corners and edges by a method such as marking.

レーザー測位計などの測定装置を用いて、3D-CAD設計図面の参照点Pと座標軸(方位軸)からの相対的な各マーカ40のずれ(つまりマーカ40の相対的な位置及び姿勢)を示すデータ(R0,T0)を計測する(ステップS12)。具体的に、現実空間において、建物の角部(参照点P)及びエッジを基準として、マーカ40の位置、姿勢をそれぞれ測定(実測)する。これにより、現実空間座標系と、それぞれのマーカ座標系との関係(位置、姿勢)を算出できる。現実空間におけるマーカ40の位置、姿勢の情報は、サーバ20の記憶部22に記憶される。サーバ20からARグラスに当該情報を送信する。なお、ずれを示すデータ(座標変換マトリクス(R0,T0))をARグラスの記憶部12に記憶するようにしてもよい。測定装置は、レーザー測位計に限られず、現実空間における特定の2点間の距離、姿勢等を測定できるものであればよい。例えば、水平器や、遠い距離から角度や距離を測る望遠鏡であってもよい。また例えば、自動墨出し装置、レーザー墨出し器等を含めた墨出しによる測定方法を用いてもよい。自動墨出し装置は、装置の基準点に対する相対位置を計測して現在位置を判断したり、基準線の位置において、床に線を引いたりすることができる。測定装置は、例えば、カメラによって撮影した画像から床、壁、参照点の形状、寸法を算出するものであってもよい。または、測定器は、レーザーによる距離測定計を用いて床の寸法を取得するものであってもよい。 Using a measuring device such as a laser positioning meter, the relative deviation of each marker 40 from the reference point P and the coordinate axis (orientation axis) of the 3D-CAD design drawing (that is, the relative position and orientation of the marker 40) is indicated. Data (R0, T0) are measured (step S12). Specifically, in the real space, the position and orientation of the marker 40 are measured (actually measured) with reference to the corner (reference point P) and edge of the building. Thereby, the relationship (position, orientation) between the physical space coordinate system and each marker coordinate system can be calculated. Information on the position and orientation of the marker 40 in the physical space is stored in the storage unit 22 of the server 20 . The information is transmitted from the server 20 to the AR glasses. Note that data indicating the shift (coordinate conversion matrix (R0, T0)) may be stored in the storage unit 12 of the AR glasses. The measuring device is not limited to the laser positioning device, and may be any device that can measure the distance, posture, etc. between two specific points in the real space. For example, it may be a level or a telescope for measuring angles and distances from a long distance. In addition, for example, a measuring method by marking including an automatic marking device, a laser marking device, and the like may be used. The automatic marking device can determine the current position by measuring the relative position of the device with respect to the reference point, or draw a line on the floor at the position of the reference line. The measuring device may, for example, calculate the shape and dimensions of the floor, walls, and reference points from images captured by a camera. Alternatively, the measuring device may use a laser range finder to obtain the dimensions of the floor.

そして、現場において、ARグラスの撮像部15で設置したマーカ40(40a,40b)を撮像する(ステップS13)。ARグラスの制御部は、マーカ40を自動的に検出する。制御部は、各マーカ40(40a,40b)に対するARグラスの相対的な位置と姿勢を算出する(ステップS14)。そして、各マーカ40(40a,40b)に対するARグラスの相対的な位置と姿勢の情報と、上記のずれを示すデータ(R0,T0)とを利用して、現実空間に対するヴァーチャル空間の最初の位置合わせが実現される(ステップS15)。つまり、現実空間座標系と、ヴァーチャル空間座標系とが関連付けられる。好ましくは、現実空間座標系の原点位置及び3本の座標軸の方向に、ヴァーチャル空間座標系の原点位置及び3本の座標軸の方向を一致させる。 Then, at the site, the placed marker 40 (40a, 40b) is imaged by the imaging unit 15 of the AR glasses (step S13). The AR glasses controller automatically detects the marker 40 . The control unit calculates the relative position and orientation of the AR glasses with respect to each marker 40 (40a, 40b) (step S14). Then, using the information of the relative position and orientation of the AR glasses with respect to each marker 40 (40a, 40b) and the data (R0, T0) indicating the deviation, the initial position of the virtual space with respect to the real space Alignment is realized (step S15). That is, the physical space coordinate system and the virtual space coordinate system are associated. Preferably, the origin position and the directions of the three coordinate axes of the virtual space coordinate system are aligned with the position of the origin and the directions of the three coordinate axes of the real space coordinate system.

なお、本例のように、マーカ40を直交する2つの平面に設置することが好ましく、これによれば、位置合わせの精度をさらに高めることができる。また、互いに直交する3つの平面にそれぞれマーカ40を設置することで、さらに位置合わせの精度を高めることが可能となる。 It should be noted that it is preferable to install the markers 40 on two orthogonal planes, as in this example, whereby the accuracy of alignment can be further improved. In addition, by setting the markers 40 on each of the three planes orthogonal to each other, it is possible to further improve the accuracy of alignment.

本開示の技術は、例えば、トンネル工事のように特徴点が少ない場所、類似する風景が多い場所、あるいは、常に環境が変化する状況において、特に有効である。そして、このような課題を有する分野として、例えば、土木、建築、鉄道、交通などの分野が挙げられる。 The technology of the present disclosure is particularly effective in, for example, places with few feature points such as tunnel construction, places with many similar landscapes, or situations where the environment is constantly changing. Fields having such problems include, for example, fields such as civil engineering, construction, railroads, and transportation.

以下、図8、図9を参照しつつ、複数のマーカ40を用いた自己位置及び姿勢を校正(補正)する方法について説明する。図8は、現実空間の建物の内部に、入口から複数のマーカを所定の一定間隔で設置する場合を示す平面図である。設置するマーカの位置は床面でも壁面でもよいし、他の位置でもよい。なお、図8の例では、6個のマーカを設置しているが、これに限られない。なお、各マーカ40は、上述のように、参照点となる現時空間の角部、縁部に沿って設置することが好ましい。 A method of calibrating (correcting) the self-position and orientation using a plurality of markers 40 will be described below with reference to FIGS. 8 and 9. FIG. FIG. 8 is a plan view showing a case where a plurality of markers are installed at predetermined regular intervals from the entrance inside a building in real space. The position of the marker to be installed may be on the floor surface, the wall surface, or other positions. Although six markers are installed in the example of FIG. 8, the number of markers is not limited to this. In addition, as described above, each marker 40 is preferably installed along the corners and edges of the current space-time that serve as reference points.

本実施形態に係るマーカ設置方法は、現実空間において複数のマーカを所定間隔で設置するステップと、前記現実空間の前記複数のマーカに対応する複数の仮想マーカを含むヴァーチャルデータを記憶部に記憶するステップと、ARデバイスの撮像部で前記現実空間の前記マーカを撮像した画像データにおける前記マーカと、前記画像データに重ねて表示されるヴァーチャルデータの前記仮想マーカとの間のずれを測定するステップと、前記ずれに応じて、複数のマーカの前記間隔を調整するステップと、を含む。このような構成により、マーカを用いてARデバイスにおけるヴァーチャル空間と現実空間との位置合わせを行う際に、効率的に複数のマーカを設置することができる。 A marker placement method according to the present embodiment includes the steps of placing a plurality of markers at predetermined intervals in a physical space, and storing in a storage unit virtual data including a plurality of virtual markers corresponding to the plurality of markers in the physical space. measuring a deviation between the marker in image data obtained by imaging the marker in the physical space with an imaging unit of an AR device and the virtual marker in virtual data superimposed on the image data; and adjusting the spacing of the plurality of markers according to the deviation. With such a configuration, it is possible to efficiently set a plurality of markers when aligning the virtual space and the real space in the AR device using the markers.

図8、図9に示すように、現実空間において一定の間隔で複数のマーカ40を設置する(ステップS21)。例えば、建物や構造物等の空間の入り口付近に、上記位置合わせ用の第1のマーカ40を設置する。複数のマーカ40はそれぞれ、互いに同一のものでも、異なる種類のマーカ40であってもよい。 As shown in FIGS. 8 and 9, a plurality of markers 40 are placed at regular intervals in the physical space (step S21). For example, the first marker 40 for alignment is installed near the entrance of a space such as a building or structure. The plurality of markers 40 may be the same as each other or different types of markers 40 .

次いで、第1のマーカ40からの距離が特定距離(例えば10m等)となるように、空間に合わせて第2のマーカ40を設置する。同様に、第2のマーカ40からの距離が上記特定距離となるように、第3のマーカ40を設置し、第3のマーカ40からの距離が特定距離となるように第4のマーカ40を設置する。このように、現場の空間(状況)に合わせて、等間隔でマーカ40を設置する。なお、特定距離は特に限定されず、適宜変更可能な数値である。 Next, the second marker 40 is installed in accordance with the space so that the distance from the first marker 40 is a specific distance (for example, 10 m). Similarly, the third marker 40 is placed so that the distance from the second marker 40 is the specified distance, and the fourth marker 40 is placed so that the distance from the third marker 40 is the specified distance. Install. In this way, the markers 40 are installed at regular intervals according to the space (situation) of the site. Note that the specific distance is not particularly limited, and is a numerical value that can be changed as appropriate.

ここで、ヴァーチャル空間に仮想マーカを設定する(ステップS22)。なお、仮想マーカの設定は、現実空間にマーカを設置するステップS21の前でも後でもよい。例えば、記憶部に記憶されるヴァーチャル空間のヴァーチャルモデルにおいて、現実空間のマーカの位置、姿勢と一致するように、それぞれのマーカ40を描画(3Dモデリング)し、記憶する。これにより、ARグラスの表示部13に表示されるヴァーチャル画像として、現実空間のマーカ40に対応する仮想マーカが表示される。なお、現実空間の現場に設置される壁や床等を含む構造物に対応する(同形状)の壁や床を含むヴァーチャルモデルが、ヴァーチャル空間に位置決めされたヴァーチャルデータとして予め記憶部に記憶されている。 Here, a virtual marker is set in the virtual space (step S22). Note that the setting of the virtual marker may be performed before or after step S21 of setting the marker in the physical space. For example, in the virtual model of the virtual space stored in the storage unit, each marker 40 is drawn (3D modeling) and stored so as to match the position and orientation of the marker in the real space. As a result, a virtual marker corresponding to the marker 40 in the physical space is displayed as a virtual image displayed on the display unit 13 of the AR glasses. A virtual model including walls and floors (of the same shape) corresponding to structures including walls and floors installed on site in the real space is stored in advance in the storage unit as virtual data positioned in the virtual space. ing.

そして、ARグラスに表示されるヴァーチャル画像を確認しながら、現実空間の現場の入口から空間内を移動し、第1のマーカから第2,第3・・というようにARグラスの撮像部で撮像しながら移動する。その際、現実空間の各マーカ40に重ねて表示されることを想定したそれぞれの仮想マーカ(ARグラスに表示される仮想マーカ)の位置、姿勢と、現実空間のマーカ40の位置、姿勢とを比較する。なお、ARグラスはVSLAM等により自己位置と姿勢を推定し続け、それに応じたヴァーチャル画像を表示部に表示する。そして、現実空間のマーカの位置、姿勢と、仮想マーカの位置、姿勢との間のずれ量が、所定の閾値を超えているか否かを確認する(ステップS23)。閾値は、予め管理者側で定めた値が記憶部に記憶されるようにしてもよいし、ユーザが入力部を介して数値を入力したり、または複数の予め設定された選択肢の中から選択したりすることで、ユーザが設定できるようにしてもよい。位置のずれの閾値は5mmといったように距離で示され、姿勢のずれの閾値は5°といったように角度で示される。 Then, while confirming the virtual image displayed on the AR glasses, move in the space from the entrance of the site in the real space, and shoot from the first marker to the second, third, etc. with the imaging unit of the AR glasses. move while At that time, the position and orientation of each virtual marker (virtual marker displayed on the AR glass) assumed to be superimposed and displayed on each marker 40 in the real space, and the position and orientation of the marker 40 in the real space. compare. Note that the AR glasses continue to estimate their own position and orientation using VSLAM or the like, and display a corresponding virtual image on the display unit. Then, it is checked whether or not the amount of deviation between the position and orientation of the marker in the physical space and the position and orientation of the virtual marker exceeds a predetermined threshold (step S23). For the threshold value, a value determined in advance by the administrator may be stored in the storage unit, or the user may input a numerical value via the input unit, or select from a plurality of preset options. You may enable a user to set by doing. The positional deviation threshold is indicated by a distance, such as 5 mm, and the posture deviation threshold is indicated by an angle, such as 5°.

ずれ量の測定は、例えば、ARグラス、またはサーバの制御部が実行することができる。ユーザがARグラスの撮像部でマーカを撮像すると、制御部は、ARグラスの撮像部で撮像した画像と、ARグラスの表示部に表示させるためのヴァーチャル画像とを重ね合わせて、現実空間を撮像した画像のマーカの位置、姿勢と、ヴァーチャル画像の位置、姿勢とのずれを、測定する。より具体的には、現実空間を撮像した画像のマーカのマーカ座標系と、ヴァーチャル空間の仮想マーカの仮想マーカ座標系とを比較することができる。現実のマーカ座標系の原点と仮想マーカ座標系の原点同士の距離を測定したり、現実のマーカ座標系の座標軸と仮想マーカ座標系の座標軸の向き(姿勢)とを比較し、それらの差(角度)を測定したりする。また、例えば、参照点同士を比較し、測定することができる。例えば、四角形のマーカ40の特定の角同士の距離を測定したり、辺同士の距離、相対的な角度を測定したりすることで、現実画像のマーカとヴァーチャル画像のマーカとのずれを測定する。なお、ずれの測定方法はこれに限られない。 The deviation amount can be measured by, for example, the AR glasses or the control unit of the server. When the user captures an image of the marker with the imaging unit of the AR glasses, the control unit superimposes the image captured with the imaging unit of the AR glasses and the virtual image to be displayed on the display unit of the AR glasses to capture the real space. The deviation between the position and orientation of the marker in the captured image and the position and orientation of the virtual image is measured. More specifically, it is possible to compare the marker coordinate system of the marker in the image obtained by capturing the physical space and the virtual marker coordinate system of the virtual marker in the virtual space. Measure the distance between the origin of the real marker coordinate system and the origin of the virtual marker coordinate system, compare the orientation (orientation) of the coordinate axes of the real marker coordinate system and the virtual marker coordinate system, and measure the difference between them ( angle). Also, for example, reference points can be compared and measured. For example, by measuring the distance between specific corners of the quadrangle marker 40, or by measuring the distance between sides or the relative angle, the deviation between the marker in the real image and the marker in the virtual image is measured. . Note that the method of measuring the deviation is not limited to this.

そして、ずれ量が閾値を超えている場合、マーカ40間の距離を調整する(ステップS24)。例えば、現実の第2マーカ40と、第2の仮想マーカとの位置のずれ量が10mmを超えている場合、マーカ40間の距離を短くする。具体的に、上記のようにマーカ40間の距離を10mとしてずれ量を確認した結果、ずれ量が閾値を超えていた場合には、例えば、マーカ間の距離を2m小さくして8mにする等、当初の距離10mよりも短い距離にする。本例では、まず第2のマーカの位置を調整し、例えば、第1のマーカに近い位置となるように、第2のマーカを移動させる(近い位置に設置する)。どの程度距離を短く調整するかは、予め定めて記憶部に記憶させてもよいし、ユーザが決めてもよい。あるいは、ずれ量の大きさに応じて、調整距離を決定してもよい。その場合、ずれ量が大きければ調整距離も大きくし、逆にずれ量が小さければ、調整距離も短くすることができる。なお、上記例においては、調整距離を2mとしている。ずれ量がほとんどない場合、マーカ間の距離を大きくしてもよい。その場合も、どの程度距離を長くするかは、予め定めて記憶部に記憶させてもよいし、ユーザが決めてもよい。あるいは、ずれ量の大きさに応じて、調整距離を決定してもよい。 Then, when the deviation amount exceeds the threshold, the distance between the markers 40 is adjusted (step S24). For example, if the positional deviation amount between the actual second marker 40 and the second virtual marker exceeds 10 mm, the distance between the markers 40 is shortened. Specifically, as a result of confirming the deviation amount with the distance between the markers 40 set to 10 m as described above, if the deviation amount exceeds the threshold value, for example, the distance between the markers is reduced by 2 m to 8 m, or the like. , to a distance shorter than the initial distance of 10 m. In this example, first, the position of the second marker is adjusted, for example, the second marker is moved to a position closer to the first marker (installed closer). How short the distance is to be adjusted may be determined in advance and stored in the storage unit, or may be determined by the user. Alternatively, the adjustment distance may be determined according to the amount of deviation. In this case, if the deviation amount is large, the adjustment distance can be increased, and conversely, if the deviation amount is small, the adjustment distance can be shortened. In addition, in the above example, the adjustment distance is set to 2 m. If there is little deviation, the distance between markers may be increased. Also in that case, how long the distance should be increased may be determined in advance and stored in the storage unit, or may be determined by the user. Alternatively, the adjustment distance may be determined according to the amount of deviation.

現実空間においてマーカの位置、姿勢を調整した後は、ヴァーチャル空間における仮想マーカの位置もそれに合わせて変更し、記憶部に記憶する。その際、例えばレーザ測位計などの測定装置を用いて、現時空間のマーカの位置、姿勢を測定してもよい。これによれば、より正確な位置、姿勢で、仮想マーカをモデリングすることができる。 After adjusting the position and orientation of the marker in the real space, the position of the virtual marker in the virtual space is also changed accordingly and stored in the storage unit. At that time, for example, a measurement device such as a laser positioning device may be used to measure the position and orientation of the marker in the current spatio-temporal space. According to this, the virtual marker can be modeled with a more accurate position and orientation.

上記の通り、現実空間のマーカと、ヴァーチャル画像の仮想マーカとの位置、姿勢のずれを確認することで、ARグラスの移動検出等の精度を確認することができる。そして、(ARグラスの精度に応じて)マーカ40間の距離が適切かどうかを確認することができる。その結果、また、マーカ40を適切な感覚で設置することができるので、マーカ40の使用効率を高めることができる。つまり、無駄に多くのマーカ40を使用してしまうことを防止することができる。 As described above, it is possible to check the accuracy of detecting the movement of the AR glasses by checking the position and posture deviation between the markers in the real space and the virtual markers in the virtual image. It can then check if the distance between the markers 40 is appropriate (depending on the accuracy of the AR glasses). As a result, since the marker 40 can be installed with an appropriate feeling, the usage efficiency of the marker 40 can be improved. That is, it is possible to prevent unnecessary use of many markers 40 .

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is obvious that those who have ordinary knowledge in the technical field of the present disclosure can conceive of various modifications or modifications within the scope of the technical idea described in the claims. is naturally within the technical scope of the present disclosure.

本明細書において説明した装置は、単独の装置として実現されてもよく、一部または全部がネットワークで接続された複数の装置(例えばクラウドサーバ)等により実現されてもよい。例えば、サーバ20の制御部21および記憶部22は、互いにネットワークで接続された異なるサーバにより実現されてもよい。 The devices described herein may be implemented as a single device, or may be implemented by a plurality of devices (eg, cloud servers) partially or wholly connected via a network, or the like. For example, the control unit 21 and the storage unit 22 of the server 20 may be realized by different servers connected to each other via a network.

本明細書において説明した装置による一連の処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。本実施形態に係るARデバイス10、サーバ20の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。 The sequence of operations performed by the apparatus described herein may be implemented using software, hardware, or a combination of software and hardware. It is possible to prepare a computer program for realizing each function of the AR device 10 and the server 20 according to the present embodiment and implement it in a PC or the like. A computer-readable recording medium storing such a computer program can also be provided. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Also, the above computer program may be distributed, for example, via a network without using a recording medium.

また、本明細書においてフローチャート図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。 Also, the processes described with reference to flowcharts in this specification do not necessarily have to be executed in the illustrated order. Some processing steps may be performed in parallel. Also, additional processing steps may be employed, and some processing steps may be omitted.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Also, the effects described herein are merely illustrative or exemplary, and are not limiting. In other words, the technology according to the present disclosure can produce other effects that are obvious to those skilled in the art from the description of this specification in addition to or instead of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(項目1)
現実空間において複数のマーカを所定間隔で設置するステップと、
前記現実空間の前記複数のマーカに対応する複数の仮想マーカを含むヴァーチャルデータを記憶部に記憶するステップと、
ARデバイスの撮像部で前記現実空間の前記マーカを撮像した画像データにおける前記マーカと、前記画像データに重ねて表示されるヴァーチャルデータの前記仮想マーカとの間のずれを測定するステップと、
前記ずれに応じて、複数のマーカの前記間隔を調整するステップと、を含むことを特徴とするマーカ設置方法。
(項目2)
前記ずれを測定するステップにおいて、前記撮像した画像データにおける前記マーカのマーカ座標系と、前記仮想マーカの仮想マーカ座標系との位置及び姿勢の少なくとも一方の差を測定する、ことを特徴とする項目1に記載のマーカ設置方法。
(項目3)
前記間隔を調整するステップにおいて、
前記ずれが所定の第1閾値よりも大きい場合に、前記間隔を小さくする、項目1または2に記載のマーカ設置方法。
(項目4)
前記間隔を調整するステップにおいて、
前記ずれが所定の第2閾値よりも小さい場合に、前記間隔を大きくする、項目1~3の何れかに記載のマーカ設置方法。
Note that the following configuration also belongs to the technical scope of the present disclosure.
(Item 1)
placing a plurality of markers at predetermined intervals in the physical space;
storing in a storage unit virtual data including a plurality of virtual markers corresponding to the plurality of markers in the physical space;
measuring a deviation between the marker in image data obtained by imaging the marker in the real space with an imaging unit of an AR device and the virtual marker in virtual data displayed superimposed on the image data;
and adjusting the intervals of the plurality of markers according to the deviation.
(Item 2)
An item characterized in that in the step of measuring the deviation, a difference in at least one of position and orientation between the marker coordinate system of the marker in the imaged image data and the virtual marker coordinate system of the virtual marker is measured. 1. The marker installation method according to 1.
(Item 3)
In the step of adjusting the interval,
3. The marker placement method according to item 1 or 2, wherein the distance is reduced when the deviation is greater than a predetermined first threshold.
(Item 4)
In the step of adjusting the interval,
4. The marker placement method according to any one of items 1 to 3, wherein the interval is increased when the deviation is smaller than a predetermined second threshold.

1 ARシステム
10 ARデバイス
20 サーバ
30 ネットワーク
40 マーカ

1 AR System 10 AR Device 20 Server 30 Network 40 Marker

Claims (4)

現実空間において複数のマーカを所定間隔で設置するステップと、
前記現実空間の前記複数のマーカに対応する複数の仮想マーカを含むヴァーチャルデータを記憶部に記憶するステップと、
ARデバイスの撮像部で前記現実空間の前記マーカを撮像した画像データにおける前記マーカと、前記画像データに重ねて表示されるヴァーチャルデータの前記仮想マーカとの間のずれを測定するステップと、
前記ずれに応じて、複数のマーカの前記間隔を調整するステップと、を含むことを特徴とするマーカ設置方法。
placing a plurality of markers at predetermined intervals in the physical space;
storing in a storage unit virtual data including a plurality of virtual markers corresponding to the plurality of markers in the physical space;
measuring a deviation between the marker in image data obtained by imaging the marker in the real space with an imaging unit of an AR device and the virtual marker in virtual data displayed superimposed on the image data;
and adjusting the intervals of the plurality of markers according to the deviation.
前記ずれを測定するステップにおいて、前記撮像した画像データにおける前記マーカのマーカ座標系と、前記仮想マーカの仮想マーカ座標系との位置及び姿勢の少なくとも一方の差を測定する、ことを特徴とする請求項1に記載のマーカ設置方法。 The step of measuring the shift measures a difference in at least one of position and orientation between the marker coordinate system of the marker in the captured image data and the virtual marker coordinate system of the virtual marker. Item 1. The marker installation method according to item 1. 前記間隔を調整するステップにおいて、
前記ずれが所定の第1閾値よりも大きい場合に、前記間隔を小さくする、請求項1または2に記載のマーカ設置方法。
In the step of adjusting the interval,
3. The marker placement method according to claim 1, wherein said gap is reduced when said deviation is greater than a predetermined first threshold.
前記間隔を調整するステップにおいて、
前記ずれが所定の第2閾値よりも小さい場合に、前記間隔を大きくする、請求項1~3の何れかに記載のマーカ設置方法。

In the step of adjusting the interval,
4. The marker placement method according to any one of claims 1 to 3, wherein said gap is increased when said deviation is smaller than a predetermined second threshold.

JP2021190197A 2021-11-24 2021-11-24 Marker setting method Pending JP2023077071A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021190197A JP2023077071A (en) 2021-11-24 2021-11-24 Marker setting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021190197A JP2023077071A (en) 2021-11-24 2021-11-24 Marker setting method

Publications (1)

Publication Number Publication Date
JP2023077071A true JP2023077071A (en) 2023-06-05

Family

ID=86610447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021190197A Pending JP2023077071A (en) 2021-11-24 2021-11-24 Marker setting method

Country Status (1)

Country Link
JP (1) JP2023077071A (en)

Similar Documents

Publication Publication Date Title
US20210215931A1 (en) System for virtual display and method of use
US11386572B2 (en) Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
US20190272676A1 (en) Local positioning system for augmented reality applications
CN111065891B (en) Indoor navigation system based on augmented reality
JP6171079B1 (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
EP3246660B1 (en) System and method for referencing a displaying device relative to a surveying instrument
US10187589B2 (en) System and method for mixing a scene with a virtual scenario
Hübner et al. Marker-based localization of the microsoft hololens in building models
WO2018113759A1 (en) Detection system and detection method based on positioning system and ar/mr
US20220284620A1 (en) Information terminal apparatus and position recognition sharing method
JP2018106661A (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
US20200318964A1 (en) Location information display device and surveying system
EP4258015A1 (en) Support system for mobile coordinate scanner
JP2021162607A (en) Display system, information processing apparatus, and display control method for display system
US11869159B2 (en) High density 3D environment capture with guided mixed reality
JP2023077071A (en) Marker setting method
JP2023077070A (en) Method of aligning virtual space with respect to real space
JP7207915B2 (en) Projection system, projection method and program
CN112558008A (en) Navigation method, system, equipment and medium based on optical communication device
WO2024095744A1 (en) Information processing device, information processing method, and program
TWI814624B (en) Landmark identification and marking system for a panoramic image and method thereof
US20210225041A1 (en) Accurately positioning augmented reality models within images
US20220155592A1 (en) System for virtual display and method of use
WO2024057779A1 (en) Information processing device, program, and information processing system
JP2023094344A (en) Augmented reality display device, method, and program