JP7042380B1 - Display device, program and display method - Google Patents

Display device, program and display method Download PDF

Info

Publication number
JP7042380B1
JP7042380B1 JP2021150427A JP2021150427A JP7042380B1 JP 7042380 B1 JP7042380 B1 JP 7042380B1 JP 2021150427 A JP2021150427 A JP 2021150427A JP 2021150427 A JP2021150427 A JP 2021150427A JP 7042380 B1 JP7042380 B1 JP 7042380B1
Authority
JP
Japan
Prior art keywords
virtual
space
marker
virtual object
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021150427A
Other languages
Japanese (ja)
Other versions
JP2023042981A (en
Inventor
敬仁 森
政臣 和田
亮 森口
有未 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Plant Construction Co Ltd
Original Assignee
Hitachi Plant Construction Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Plant Construction Co Ltd filed Critical Hitachi Plant Construction Co Ltd
Priority to JP2021150427A priority Critical patent/JP7042380B1/en
Application granted granted Critical
Publication of JP7042380B1 publication Critical patent/JP7042380B1/en
Publication of JP2023042981A publication Critical patent/JP2023042981A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】簡便に仮想物体の作成を可能とする。【解決手段】表示装置(仮想物体表示装置100)は、カメラ151と、物体の位置および向きを計測する空間センサ(デプスセンサ153)と、仮想空間における仮想マーカの位置および向きを含む仮想マーカ情報(マーカ情報133)を記憶する記憶部130を備える。さらに表示装置は、空間センサの計測結果から物体の空間形状データを生成する空間認識部115と、カメラ151が撮像した実マーカの位置および向きを認識するマーカ認識部113と、仮想空間内にあり、形状が空間形状データに一致する仮想物体であって、仮想マーカに対する位置および向きが実マーカに対する物体の位置および向きと一致する仮想物体を生成する仮想物体生成部116と、カメラ151の撮像映像を表示する表示制御部117とを備える。【選択図】図1PROBLEM TO BE SOLVED: To easily create a virtual object. A display device (virtual object display device 100) includes a camera 151, a space sensor (depth sensor 153) for measuring the position and orientation of an object, and virtual marker information including the position and orientation of a virtual marker in a virtual space. A storage unit 130 for storing marker information 133) is provided. Further, the display device is in the virtual space, the space recognition unit 115 that generates the space shape data of the object from the measurement result of the space sensor, the marker recognition unit 113 that recognizes the position and orientation of the real marker imaged by the camera 151, and the marker recognition unit 113. , The image captured by the camera 151 and the virtual object generation unit 116 that generates a virtual object whose shape matches the spatial shape data and whose position and orientation with respect to the virtual marker match the position and orientation of the object with respect to the real marker. Is provided with a display control unit 117 for displaying. [Selection diagram] Fig. 1

Description

本発明は、表示装置、プログラムおよび表示方法に関する。 The present invention relates to display devices, programs and display methods.

仮想空間(仮想3次元空間)にある仮想物体を実空間の映像に重畳して表示する複合現実(Mixed Reality)に関する技術が普及しており、ゲームの他に設計や試作における完成イメージの確認などに用いられている。重畳して表示するときには、仮想物体と実空間との位置合わせ、換言すれば仮想空間の座標系と実空間の座標系とが一致することが必要となる。このために例えば、マーカを用いて座標系を一致させる手法がある。詳しくは、先ず、仮想空間の原点に対応する実空間の位置にマーカ(実マーカ)を設置する。次に、仮想物体の表示装置がマーカを認識して実空間の原点の位置と座標軸の向きとを特定し、仮想空間の座標系と合致するように仮想物体を表示する。 Technology related to mixed reality that superimposes and displays virtual objects in virtual space (virtual three-dimensional space) on images in real space is widespread, and in addition to games, confirmation of completed images in design and trial production, etc. It is used in. When displaying in superposition, it is necessary to align the virtual object and the real space, in other words, to match the coordinate system of the virtual space and the coordinate system of the real space. For this purpose, for example, there is a method of matching the coordinate system using a marker. Specifically, first, a marker (real marker) is installed at the position of the real space corresponding to the origin of the virtual space. Next, the display device of the virtual object recognizes the marker, identifies the position of the origin of the real space and the direction of the coordinate axis, and displays the virtual object so as to match the coordinate system of the virtual space.

表示装置には加速度センサや角速度センサが備わり、表示装置が移動して姿勢を変えても、センサの測定値から実空間における自身の位置と姿勢とを算出することができる。しかしながら、マーカの位置から離れるほど算出した位置・姿勢と、実際の位置・姿勢とに誤差が生じる。 The display device is equipped with an acceleration sensor and an angular velocity sensor, and even if the display device moves and changes its posture, it can calculate its own position and posture in real space from the measured values of the sensors. However, the farther away from the marker position, the more an error occurs between the calculated position / posture and the actual position / posture.

誤差を修正するために特許文献1に記載の映像表示システムは、実空間において基準マーカに対応する第1サブマーカを検出し、座標軸(仮想物体)に予め対応付けられた複数の第1仮想位置のうち第1サブマーカと最も近い第1仮想位置と第1サブマーカの位置関係を演算する第1位置関係演算部と、実空間において基準マーカに対して予め決められた位置に配置された第2サブマーカを検出し、複数の第1仮想位置の間隔よりも狭い間隔で座標軸に予め対応付けられた複数の第2仮想位置と第2サブマーカとの位置関係を演算する第2位置関係演算部と、座標軸と撮像装置の位置及び姿勢との関係を修正する修正部と、を備える。
このような映像表示システムでは、間隔が所定距離内になるように第1サブマーカおよび第2サブマーカを設置することにより、誤差を小さく保つことができるようになる。
The video display system described in Patent Document 1 for correcting an error detects a first submarker corresponding to a reference marker in real space, and has a plurality of first virtual positions associated with a coordinate axis (virtual object) in advance. Among them, the first positional relationship calculation unit that calculates the positional relationship between the first virtual position closest to the first submarker and the first submarker, and the second submarker arranged at a predetermined position with respect to the reference marker in the real space. A second positional relationship calculation unit that detects and calculates the positional relationship between a plurality of second virtual positions and a second submarker associated with the coordinate axes in advance at intervals narrower than the intervals of the plurality of first virtual positions, and the coordinate axes. A correction unit for correcting the relationship between the position and the posture of the image pickup device is provided.
In such an image display system, the error can be kept small by installing the first submarker and the second submarker so that the intervals are within a predetermined distance.

特開2019-066292号公報Japanese Unexamined Patent Publication No. 2019-066292

特許文献1に記載の技術では、実空間の物体上の第1サブマーカおよび第2サブマーカに対応して、仮想物体上に第1仮想位置および第2仮想位置を設定する必要がある。このため、マーカに対応する仮想位置には仮想物体があり、この仮想物体上に仮想位置を設定することになる。 In the technique described in Patent Document 1, it is necessary to set a first virtual position and a second virtual position on a virtual object corresponding to a first submarker and a second submarker on an object in real space. Therefore, there is a virtual object in the virtual position corresponding to the marker, and the virtual position is set on this virtual object.

しかしながら、サブマーカが設置される物体に対応した仮想物体が存在する(仮想空間内の物体モデルが作成されている)とは限らない。例えばプラントなどの建設現場において仮設の足場にマーカを置くことがあるが、プラントの設備や配管に対応した仮想空間のモデル(仮想物体)は作成されても、仮設の足場のモデルまでは作成されない。このため、基準マーカや第1サブマーカ、第2サブマーカの設置位置は現場の床ないしは壁などに限定され、誤差を十分に抑えるほどの間隔で設置するのが困難である。 However, there is not always a virtual object corresponding to the object in which the submarker is installed (an object model in the virtual space is created). For example, at a construction site such as a plant, a marker may be placed on a temporary scaffold, but even if a virtual space model (virtual object) corresponding to plant equipment and piping is created, a model of the temporary scaffold is not created. .. Therefore, the installation positions of the reference marker, the first sub-marker, and the second sub-marker are limited to the floor or wall of the site, and it is difficult to install them at intervals sufficiently to suppress the error.

仮設の足場をモデル化して足場の仮想物体を準備するにしても、事前に足場の高さや位置が決まっているとは限らない。また、表示装置(映像表示システム)を使用する直前に足場を組み立てることもある。このため、足場の仮想物体(仮想位置が設定される仮想物体)を事前に準備するのは実用的ではない。
本発明は、このような背景を鑑みてなされたものであり、簡便に仮想物体の作成を可能とする表示装置、プログラムおよび表示方法を提供することを課題とする。
Even if a temporary scaffold is modeled and a virtual object of the scaffold is prepared, the height and position of the scaffold are not always determined in advance. In addition, the scaffolding may be assembled immediately before using the display device (video display system). Therefore, it is not practical to prepare a virtual object for scaffolding (a virtual object for which a virtual position is set) in advance.
The present invention has been made in view of such a background, and an object of the present invention is to provide a display device, a program, and a display method capable of easily creating a virtual object.

上記した課題を解決するため、本発明に係る表示装置は、カメラと、実空間における物体の位置および向きを計測する空間センサと、仮想空間における仮想マーカの位置および向きを含む仮想マーカ情報を記憶する記憶部と、前記空間センサの計測結果から前記物体の空間形状データを生成する空間認識部と、前記カメラが撮像した実マーカの位置および向きを認識するマーカ認識部と、前記仮想空間内に前記空間センサの計測値に基づく計測仮想物体を生成する仮想物体生成部と、前記カメラの撮像映像を表示する表示制御部とを備え、前記仮想物体生成部は、前記仮想空間における前記計測仮想物体の形状が前記物体の前記空間形状データに一致するように、かつ、前記仮想空間における前記仮想マーカに対する前記計測仮想物体の位置および向きが、前記実空間における前記実マーカに対する前記物体の位置および向きと一致するように、前記仮想空間内に前記計測仮想物体を生成することを特徴とする。 In order to solve the above-mentioned problems, the display device according to the present invention stores a camera, a spatial sensor that measures the position and orientation of an object in real space, and virtual marker information including the position and orientation of a virtual marker in virtual space. A storage unit, a space recognition unit that generates spatial shape data of the object from the measurement result of the space sensor, a marker recognition unit that recognizes the position and orientation of the actual marker imaged by the camera, and a marker recognition unit in the virtual space. A virtual object generation unit that generates a measurement virtual object based on the measurement value of the space sensor and a display control unit that displays an image captured by the camera are provided, and the virtual object generation unit is the measurement virtual object in the virtual space. The position and orientation of the measured virtual object with respect to the virtual marker in the virtual space is the position and orientation of the object with respect to the real marker in the real space so that the shape of the object matches the spatial shape data of the object. It is characterized in that the measurement virtual object is generated in the virtual space so as to coincide with.

本発明によれば、簡便に仮想物体の作成を可能とする表示装置、プログラムおよび表示方法を提供することができる。上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a display device, a program, and a display method that enable easy creation of a virtual object. Issues, configurations and effects other than those described above will be clarified by the description of the following embodiments.

本実施形態に係る仮想物体表示装置の機能ブロック図である。It is a functional block diagram of the virtual object display device which concerns on this embodiment. 本実施形態に係る仮想物体を説明するための図である。It is a figure for demonstrating the virtual object which concerns on this embodiment. 本実施形態に係る仮想物体表示装置を使用する作業者の手順(利用手順)を示すフローチャートである。It is a flowchart which shows the procedure (use procedure) of the worker who uses the virtual object display device which concerns on this embodiment. 本実施形態に係る仮想物体表示装置が実行する仮想物体表示処理のフローチャートである。It is a flowchart of the virtual object display process executed by the virtual object display device which concerns on this embodiment.

≪仮想物体表示装置の概要≫
次に、本発明を実施するための形態(実施形態)における仮想物体表示装置(表示装置)について説明する。仮想物体表示装置は、実空間の映像(撮影映像、撮影画像)に仮想物体の画像を重ねて表示する。例えば、プラントなどの建設現場において、設置予定である設備の仮想物体の画像が、設置予定場所に設置場所の映像と重ねられて表示される。
≪Overview of virtual object display device≫
Next, a virtual object display device (display device) in the embodiment (embodiment) for carrying out the present invention will be described. The virtual object display device superimposes an image of a virtual object on a real space image (captured image, captured image) and displays it. For example, at a construction site such as a plant, an image of a virtual object of equipment to be installed is displayed superimposed on an image of the installation location at the planned installation location.

仮想物体表示装置は、デプスセンサを用いて設置予定場所周辺に存在する、例えば配管や仮設物などの既設の物体(物体表面)を計測(スキャン)して形状データを取得し、新たな仮想物体として仮想空間に取り込む。仮想物体表示装置は、既設の物体に対応する新たな仮想物体の画像と、設置予定の仮想物体の画像と、設置予定場所の映像とを重ねて表示することができる。このような映像(画像)を見ることで作業者は、設置予定設備と既存の物体とが接触しないか、必要な間隔を得られるかを確認することができる。 The virtual object display device uses a depth sensor to measure (scan) existing objects (object surfaces) such as pipes and temporary objects that exist around the planned installation location, acquire shape data, and use it as a new virtual object. Import into virtual space. The virtual object display device can superimpose an image of a new virtual object corresponding to an existing object, an image of a virtual object to be installed, and an image of a planned installation location. By viewing such an image (image), the operator can confirm whether the equipment to be installed and the existing object do not come into contact with each other and whether the required distance can be obtained.

仮想物体の画像と現場の映像とを重ねて表示するには、仮想物体が存在する仮想空間の座標系と、現場の空間の座標系とを合わせる(一致させる)必要がある。このために仮想物体表示装置は、現場に設置された実マーカの位置・向き(姿勢)をカメラで取得して、仮想空間の仮想マーカの位置・向きと合わせることで、2つの座標系を合わせる。 In order to display the image of the virtual object and the image of the site in an overlapping manner, it is necessary to match (match) the coordinate system of the virtual space in which the virtual object exists with the coordinate system of the space of the site. For this purpose, the virtual object display device aligns the two coordinate systems by acquiring the position / orientation (posture) of the actual marker installed at the site with the camera and matching it with the position / orientation of the virtual marker in the virtual space. ..

仮想物体表示装置は慣性センサを備え、自身の移動距離や姿勢の変化が検知できるため、実マーカの近傍(例えば数m以内)ならば、一定の精度で仮想物体の画像と現場空間の映像を重ねて表示できる。しかしながら、実マーカから離れるほど慣性センサの測定誤差が累積して、表示がずれる。このため移動して誤差が大きくなる前に、改めて実マーカと仮想マーカとを用いて座標系を合わせることが望まれる。 Since the virtual object display device is equipped with an inertia sensor and can detect changes in its own movement distance and posture, if it is in the vicinity of a real marker (for example, within a few meters), the image of the virtual object and the image of the site space can be displayed with a certain accuracy. Can be displayed in layers. However, the farther away from the actual marker, the more the measurement error of the inertial sensor accumulates, and the display shifts. Therefore, it is desirable to match the coordinate system again using the real marker and the virtual marker before moving and increasing the error.

仮想物体表示装置は、仮想空間に取り込まれた既設の物体に対応する仮想物体に設定した第2仮想マーカと、この第2仮想マーカに対応して当該既設の物体に設置した第2実マーカとを基準として座標系を合わせて、仮想物体の画像と実空間の撮影映像とを高精度に重ねて表示できるようになる。 The virtual object display device includes a second virtual marker set on a virtual object corresponding to an existing object captured in the virtual space, and a second real marker installed on the existing object corresponding to the second virtual marker. By matching the coordinate system with the reference, the image of the virtual object and the captured image in the real space can be superimposed and displayed with high accuracy.

このように仮想物体表示装置は、デプスセンサで物体を計測して仮想空間に取り込み、取り込んだ仮想物体(計測仮想物体)に設定された仮想マーカと、物体に設置されてカメラで取得された実マーカとを合わせることを繰り返すことで、基準となるマーカを次々に替えながら仮想物体と実空間の撮影映像とを重ねて表示できる。実マーカと仮想マーカとを次々に替えることで、実空間と仮想空間とのずれがなくなり、仮想物体表示装置は高精度に仮想物体と実空間の撮影映像とを重ねて表示できるようになる。 In this way, the virtual object display device measures the object with the depth sensor, captures it in the virtual space, and sets the virtual object (measurement virtual object) to be captured, and the real marker installed on the object and acquired by the camera. By repeating the combination of and, the virtual object and the captured image in the real space can be displayed in an overlapping manner while changing the reference marker one after another. By changing the real marker and the virtual marker one after another, the deviation between the real space and the virtual space is eliminated, and the virtual object display device can display the virtual object and the captured image in the real space in an overlapping manner with high accuracy.

≪仮想物体表示装置の構成≫
図1は、本実施形態に係る仮想物体表示装置100の機能ブロック図である。仮想物体表示装置100はコンピュータであり、制御部110、記憶部130、入出力部140、カメラ151、タッチパネルディスプレイ152、デプスセンサ153、および慣性センサ154を備える。入出力部140が通信デバイスを備え、他の装置とのデータ送受信が可能であってもよい。また入出力部140にメディアドライブが接続され、記録媒体を用いたデータのやり取りが可能であってもよい。
<< Configuration of virtual object display device >>
FIG. 1 is a functional block diagram of the virtual object display device 100 according to the present embodiment. The virtual object display device 100 is a computer and includes a control unit 110, a storage unit 130, an input / output unit 140, a camera 151, a touch panel display 152, a depth sensor 153, and an inertial sensor 154. The input / output unit 140 may be provided with a communication device and may be capable of transmitting / receiving data to / from other devices. Further, a media drive may be connected to the input / output unit 140 so that data can be exchanged using a recording medium.

カメラ151は、実マーカを含む現場を撮像するカメラである。タッチパネルディスプレイ152は、利用者の操作を受け付けるタッチパネル付きのディスプレイである。デプスセンサ153は、例えばToF(Time-of-Flight)深度センサであって、壁や床、機材、設置物など空間にある物体(物体表面)までの距離を計測して、空間内の物体形状を取得することができる。慣性センサ154は、3方向の加速度センサやジャイロスコープ(角速度センサ)などを含む。慣性センサ154の測定値から仮想物体表示装置100の姿勢や移動距離、移動方向を算出することができる。 The camera 151 is a camera that captures an image of the site including the actual marker. The touch panel display 152 is a display with a touch panel that accepts user operations. The depth sensor 153 is, for example, a ToF (Time-of-Flight) depth sensor that measures the distance to an object (object surface) in space such as a wall, floor, equipment, or installation, and measures the shape of the object in space. Can be obtained. The inertial sensor 154 includes a three-way acceleration sensor, a gyroscope (angular velocity sensor), and the like. The posture, moving distance, and moving direction of the virtual object display device 100 can be calculated from the measured values of the inertial sensor 154.

≪仮想物体表示装置:記憶部≫
記憶部130は、ROM(Read Only Memory)やRAM(Random Access Memory)、フラッシュメモリなどの記憶機器を含んで構成される。記憶部130には、モデル情報131、空間形状情報132、マーカ情報133、およびプログラム134が記憶される。プログラム134には、後記する仮想物体表示処理(図4参照)の記述が含まれる。
<< Virtual object display device: Storage unit >>
The storage unit 130 includes storage devices such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a flash memory. Model information 131, spatial shape information 132, marker information 133, and program 134 are stored in the storage unit 130. The program 134 includes a description of the virtual object display process (see FIG. 4) described later.

モデル情報131は、仮想空間にある仮想物体の情報であり、例えば仮想物体の表面を構成するポリゴンに係る形状や仮想空間における位置・向きなどのデータを含む。後記するように仮想物体には、製作済み仮想物体と計測仮想物体とがある。空間形状情報132は、デプスセンサ153の計測値であって、実空間における物体の表面を構成する点群の情報であり、実空間における各点の位置を示す。マーカ情報133は、仮想物体上に設定された仮想マーカの位置・向きを含む情報である。 The model information 131 is information on a virtual object in the virtual space, and includes, for example, data such as a shape related to polygons constituting the surface of the virtual object and a position / orientation in the virtual space. As will be described later, virtual objects include manufactured virtual objects and measured virtual objects. The space shape information 132 is a measured value of the depth sensor 153, is information on a group of points constituting the surface of an object in the real space, and indicates the position of each point in the real space. The marker information 133 is information including the position and orientation of the virtual marker set on the virtual object.

≪仮想物体表示装置:制御部≫
制御部110は、CPU(Central Processing Unit)を含んで構成され、モデル情報取得部111、マーカ設定部112、マーカ認識部113、位置姿勢算出部114、空間認識部115、仮想物体生成部116、および表示制御部117が備わる。
モデル情報取得部111は、入出力部140を介して仮想物体の情報を取得してモデル情報131に格納する。モデル情報取得部111が取得する仮想物体は、設計されて製作されたモデルであるので、以下では製作済み仮想物体とも記す。
≪Virtual object display device: Control unit≫
The control unit 110 includes a CPU (Central Processing Unit), and includes a model information acquisition unit 111, a marker setting unit 112, a marker recognition unit 113, a position / orientation calculation unit 114, a space recognition unit 115, and a virtual object generation unit 116. And a display control unit 117 is provided.
The model information acquisition unit 111 acquires information on a virtual object via the input / output unit 140 and stores it in the model information 131. Since the virtual object acquired by the model information acquisition unit 111 is a designed and manufactured model, it is also referred to as a manufactured virtual object below.

マーカ設定部112は、仮想物体表示装置100の利用者である作業者の指示により、仮想空間内の仮想物体上に仮想マーカを設定する。仮想マーカは、例えば仮想物体近くの仮想空間内の床に設定されたり、仮想物体の表面に設定されたりする。なお、仮想物体の情報はモデル情報131に格納されている。
マーカ認識部113は、マーカ認識モードにおいてカメラ151の撮影映像に含まれる実マーカを認識し、実マーカの位置および向きを取得する。
The marker setting unit 112 sets a virtual marker on a virtual object in the virtual space according to an instruction of a worker who is a user of the virtual object display device 100. The virtual marker is set, for example, on the floor in the virtual space near the virtual object, or on the surface of the virtual object. The information of the virtual object is stored in the model information 131.
The marker recognition unit 113 recognizes the actual marker included in the captured image of the camera 151 in the marker recognition mode, and acquires the position and orientation of the actual marker.

位置姿勢算出部114は、マーカ認識部113が取得した実マーカの位置・向きを基準にし、慣性センサ154の測定値から算出した位置・向きの変化を加えて、仮想物体表示装置100の位置・向き(姿勢)を算出する。換言すれば、位置姿勢算出部114は、実マーカを基準とした仮想物体表示装置100の位置・向きを算出する。
空間認識部115は、空間認識モードにおいてデプスセンサ153の計測値に基づいて実空間にある物体(物体表面)を示す点群の位置を算出して、空間形状情報132に格納する。なお点群(各点)の位置とは実空間における位置であり、実空間における仮想物体表示装置100の位置・向き(姿勢)に基づいて算出可能である。
The position / orientation calculation unit 114 uses the position / orientation of the actual marker acquired by the marker recognition unit 113 as a reference, and adds the change in the position / orientation calculated from the measured value of the inertial sensor 154 to the position / orientation of the virtual object display device 100. Calculate the orientation (posture). In other words, the position / orientation calculation unit 114 calculates the position / orientation of the virtual object display device 100 with reference to the actual marker.
The space recognition unit 115 calculates the position of a point cloud indicating an object (object surface) in the real space based on the measured value of the depth sensor 153 in the space recognition mode, and stores it in the space shape information 132. The position of the point cloud (each point) is a position in the real space, and can be calculated based on the position / orientation (posture) of the virtual object display device 100 in the real space.

仮想物体生成部116は、空間形状情報132にある点群の位置情報に基づいて物体の形状・位置・向きを算出し、仮想物体の情報を生成してモデル情報131に格納する。換言すれば仮想物体生成部116は、仮想空間における仮想物体の形状が物体の空間形状情報132にある物体を示す点群の位置データに一致するように仮想物体を生成する。さらに仮想物体生成部116は、仮想空間における仮想マーカに対する仮想物体の位置・向きが、実空間における実マーカに対する物体の位置・向きと一致するように、仮想物体を生成する。仮想物体生成部116が生成した仮想物体は、デプスセンサ153の計測値に基づいて生成された仮想物体であり、以下では計測仮想物体とも記す。 The virtual object generation unit 116 calculates the shape, position, and orientation of the object based on the position information of the point cloud in the spatial shape information 132, generates the information of the virtual object, and stores it in the model information 131. In other words, the virtual object generation unit 116 generates a virtual object so that the shape of the virtual object in the virtual space matches the position data of the point cloud indicating the object in the space shape information 132 of the object. Further, the virtual object generation unit 116 generates a virtual object so that the position / orientation of the virtual object with respect to the virtual marker in the virtual space matches the position / orientation of the object with respect to the real marker in the real space. The virtual object generated by the virtual object generation unit 116 is a virtual object generated based on the measured value of the depth sensor 153, and is also referred to as a measured virtual object below.

表示制御部117は、カメラ151が撮影映像に仮想物体の画像を重畳して表示する。表示制御部117は、仮想空間における仮想物体の位置・向きと合致するように、撮影映像内に仮想物体の画像を重畳して表示する。詳しくは、表示制御部117は実マーカと仮想物体の画像との位置・向きの関係が、仮想空間における仮想マーカと仮想物体との位置・向きの関係と一致するように仮想物体の画像を表示する。なお以下では、撮影映像に重ねて表示される仮想物体の画像を単に仮想物体とも記す。例えば、表示制御部117はカメラ151が撮影映像に仮想物体を重畳して表示する、と記す。
また、複数の仮想物体(の位置)が重なっている場合、表示制御部117は重なっている部分を表示しない。例えば、製作済み仮想物体と計測仮想物体とが重なっている場合、表示制御部117は何れか一方または双方の重なっている部分を表示しない。
The display control unit 117 displays the image of the virtual object superimposed on the captured image by the camera 151. The display control unit 117 superimposes and displays an image of the virtual object in the captured image so as to match the position and orientation of the virtual object in the virtual space. Specifically, the display control unit 117 displays the image of the virtual object so that the relationship between the position and orientation of the real marker and the image of the virtual object matches the relationship between the position and orientation of the virtual marker and the virtual object in the virtual space. do. In the following, the image of the virtual object displayed overlaid on the captured image is also simply referred to as a virtual object. For example, the display control unit 117 describes that the camera 151 superimposes and displays a virtual object on the captured image.
Further, when a plurality of virtual objects (positions) overlap, the display control unit 117 does not display the overlapped portion. For example, when the manufactured virtual object and the measured virtual object overlap, the display control unit 117 does not display the overlapping portion of either one or both.

≪仮想物体≫
図2は、本実施形態に係る仮想物体300を説明するための図である。仮想物体300は、発電プラントに設置されるタービンを跨ぐ歩廊をモデル化した仮想物体である。仮想物体300は、現場に設置される予定の歩廊の3次元モデルであり、製作済み仮想物体である。仮想マーカ350は、歩廊が設置されるフロアに置かれる実マーカに対応する仮想マーカであって、仮想空間にある仮想フロア330上に設定されている。歩廊と実マーカとの位置・向きの関係、および仮想物体300と仮想マーカ350との位置・向きの関係は一致するように、実マーカは歩廊が設置される現場のフロアに設置される。なお実マーカは、仮想マーカ350と同等の2つの矢印と1つの矩形が印(記)された板状のものであるが、仮想マーカも実マーカもこのような図形に限定されるものではない。
以下では仮想物体300を例にした仮想物体表示装置100の利用手順(図3参照)、および仮想物体表示装置100の仮想物体表示処理(図4参照)を説明する。
≪Virtual object≫
FIG. 2 is a diagram for explaining the virtual object 300 according to the present embodiment. The virtual object 300 is a virtual object that models a corridor straddling a turbine installed in a power plant. The virtual object 300 is a three-dimensional model of the corridor to be installed at the site, and is a manufactured virtual object. The virtual marker 350 is a virtual marker corresponding to a real marker placed on the floor where the corridor is installed, and is set on the virtual floor 330 in the virtual space. The actual marker is installed on the floor of the site where the corridor is installed so that the relationship between the position and orientation of the corridor and the actual marker and the relationship between the position and orientation of the virtual object 300 and the virtual marker 350 match. The real marker is a plate-shaped one marked (marked) with two arrows and one rectangle equivalent to the virtual marker 350, but neither the virtual marker nor the real marker is limited to such a figure. ..
Hereinafter, a procedure for using the virtual object display device 100 (see FIG. 3) using the virtual object 300 as an example and a virtual object display process (see FIG. 4) for the virtual object display device 100 will be described.

≪仮想物体表示装置の利用手順≫
図3は、本実施形態に係る仮想物体表示装置100を使用する作業者の手順(利用手順)を示すフローチャートである。
ステップS11において作業者は、仮想物体の情報を仮想物体表示装置100に取り込む。この例では製作済み仮想物体である仮想物体300および仮想フロア330の情報が、ネットワークまたは記憶媒体を用いて仮想物体表示装置100に取り込まれる。
≪Procedure for using virtual object display device≫
FIG. 3 is a flowchart showing a procedure (usage procedure) of a worker who uses the virtual object display device 100 according to the present embodiment.
In step S11, the operator takes in the information of the virtual object into the virtual object display device 100. In this example, the information of the virtual object 300 and the virtual floor 330, which are the manufactured virtual objects, is taken into the virtual object display device 100 by using a network or a storage medium.

ステップS12において作業者は、仮想物体(製作済み仮想物体または計測仮想物体)に仮想マーカを設定する。ステップS11に続くステップS12において作業者は、仮想マーカ350を仮想フロア330上に図2に示したように設定する。
ステップS13において作業者は、ステップS12で設定した仮想マーカの位置・向きに対応するように、現場に実マーカを設置する。例えば作業者は、仮想フロア330における仮想マーカ350の位置・向きに対応するように、歩廊を設置する現場のフロアの位置・向きに実マーカを設置する。
In step S12, the operator sets a virtual marker on the virtual object (manufactured virtual object or measured virtual object). In step S12 following step S11, the operator sets the virtual marker 350 on the virtual floor 330 as shown in FIG.
In step S13, the operator installs a real marker at the site so as to correspond to the position and orientation of the virtual marker set in step S12. For example, the worker installs the actual marker at the position / orientation of the floor at the site where the corridor is installed so as to correspond to the position / orientation of the virtual marker 350 on the virtual floor 330.

ステップS14において作業者は、仮想物体表示装置100をマーカ認識モードにして、カメラ151で実マーカを撮影する。続いて作業者が現場(フロアや空間)をカメラ151で撮影すると、仮想物体表示装置100は現場の映像に重ねて仮想物体(の画像)を表示する。例えば作業者が、歩廊が設置される予定の場所を撮影すると、仮想物体表示装置100は歩廊をモデル化した製作済み仮想物体である仮想物体300(の画像)を表示する。また、後記するステップS18で計測仮想物体となる物体を読み込み(計測)済みであれば、現場の映像に重ねて当該計測仮想物体も表示される。
作業者は、製作済み仮想物体である仮想物体300の位置・向きが正しいかを確認(判断)し、結果を仮想物体表示装置100に入力する。現場には仮想物体300の実物である歩廊は存在しないが、作業者は周辺の物体との位置関係を基に確認する。周辺の物体としては、歩廊が跨ぐタービンや配管などがある。
In step S14, the operator sets the virtual object display device 100 in the marker recognition mode and photographs the actual marker with the camera 151. Subsequently, when the operator takes a picture of the site (floor or space) with the camera 151, the virtual object display device 100 displays the virtual object (image) on the image of the site. For example, when an operator photographs a place where a corridor is planned to be installed, the virtual object display device 100 displays (an image) of a virtual object 300 (an image) which is a manufactured virtual object modeling the corridor. Further, if the object to be the measurement virtual object has been read (measured) in step S18 described later, the measurement virtual object is also displayed on the image of the site.
The operator confirms (determines) whether the position and orientation of the virtual object 300, which is a manufactured virtual object, is correct, and inputs the result to the virtual object display device 100. Although there is no actual corridor of the virtual object 300 at the site, the operator confirms it based on the positional relationship with the surrounding objects. Peripheral objects include turbines and pipes that straddle the corridor.

ステップS15において作業者は、表示された仮想物体300の位置・向きが正しいならば(ステップS15→OK)ステップS16に進み、ずれていれば(ステップS15→NG)ステップS13に戻る。ステップS13に戻ると作業者は、ステップS12で設定した仮想マーカと合うように実マーカを設置し直す。 In step S15, the operator proceeds to step S16 if the position and orientation of the displayed virtual object 300 are correct (step S15 → OK), and returns to step S13 if they are misaligned (step S15 → NG). Returning to step S13, the operator re-installs the actual marker so as to match the virtual marker set in step S12.

ステップS16において作業者は、移動したり干渉を確認したりする。この例では、歩廊の手摺りが既設の配管と干渉しないかを確認するために、作業者は歩廊を設置するフロアの1つ上のフロアに移動する。このフロアは歩廊(仮想物体300)の右側の階段を下りた位置にあるフロアである。以下ではこのフロアを2階フロア(後記する仮想物体340参照)と記す。また作業者は、現場の映像と重ねて表示される仮想物体300を見て、歩廊と現場にある物体(配管など)が干渉しなかを確認する。 In step S16, the operator moves or confirms interference. In this example, the worker moves to the floor one floor above the floor where the corridor will be installed to make sure that the handrails in the corridor do not interfere with the existing piping. This floor is located down the stairs on the right side of the corridor (virtual object 300). In the following, this floor will be referred to as the second floor (see the virtual object 340 described later). In addition, the operator looks at the virtual object 300 displayed on top of the image of the site, and confirms whether the corridor and the object (piping, etc.) at the site interfere with each other.

ステップS17において作業者は、作業を継続する場合にはステップS18に進む。
ステップS18において作業者は、仮想物体表示装置100を空間認識モードにして、計測仮想物体とする物体をスキャン(デプスセンサ153で読み取る)してステップS12に戻る。計測仮想物体とする物体は、仮想マーカを設定する物体や歩廊(仮想物体300)との干渉を確認する物体である。作業者は2階フロアや歩廊の手摺り付近の配管をスキャンする(デプスセンサ153で読み取る)。
In step S17, the worker proceeds to step S18 if he / she wants to continue the work.
In step S18, the operator sets the virtual object display device 100 in the space recognition mode, scans the object to be the measurement virtual object (reads by the depth sensor 153), and returns to step S12. The object to be a measurement virtual object is an object for setting a virtual marker or an object for confirming interference with a corridor (virtual object 300). The worker scans the pipes near the handrails on the second floor and the corridor (read by the depth sensor 153).

作業者が2階フロアをスキャンすると、仮想物体表示装置100は2階フロアの計測仮想物体を生成して表示する。図2記載の仮想物体340は、スキャンされて計測仮想物体にモデル化された2階フロアである。ステップS12に戻って作業者は、2階フロアである仮想物体340に仮想マーカ360を設定し、ステップS13,S14で2階フロアに実マーカを設置して読み込むことできる。すると仮想物体表示装置100は、この仮想マーカ360と実マーカを基準に、仮想物体を現場の映像に重ねて表示する。 When the worker scans the second floor, the virtual object display device 100 generates and displays the measured virtual object on the second floor. The virtual object 340 shown in FIG. 2 is a second floor that has been scanned and modeled as a measurement virtual object. Returning to step S12, the operator can set the virtual marker 360 on the virtual object 340 which is the second floor, and install and read the actual marker on the second floor in steps S13 and S14. Then, the virtual object display device 100 superimposes and displays the virtual object on the image of the site based on the virtual marker 360 and the real marker.

また、作業者が配管をスキャンすると、仮想物体表示装置100は、仮想物体300の他にスキャンされた配管をモデル化した計測仮想物体を表示する。仮想物体表示装置100は、複数の仮想物体が重なっている場合に一方の仮想物体の重なっている部分を表示しない。作業者は、干渉する可能性がある手摺りがあるはずの空間(手摺りの画像として表示されている空間)を様々な位置や向きから撮影することで、干渉(表示されない仮想物体)の有無を確認する。 Further, when the operator scans the pipe, the virtual object display device 100 displays a measurement virtual object that models the scanned pipe in addition to the virtual object 300. When a plurality of virtual objects overlap, the virtual object display device 100 does not display the overlapping portion of one of the virtual objects. The operator can take pictures of the space where there should be a handrail that may interfere (the space displayed as an image of the handrail) from various positions and orientations, and the presence or absence of interference (virtual object that is not displayed). To confirm.

≪仮想物体表示処理≫
図4は、本実施形態に係る仮想物体表示装置100が実行する仮想物体表示処理のフローチャートである。
ステップS31においてモデル情報取得部111は、作業者の指示(図3記載のステップS11参照)に従って製作済み仮想物体である仮想物体300の情報を取得してモデル情報131に格納する。
ステップS32においてマーカ設定部112は、作業者が指示(ステップS12参照)した仮想マーカの位置・向きを取得して設定する(マーカ情報133に格納する)。
≪Virtual object display processing≫
FIG. 4 is a flowchart of a virtual object display process executed by the virtual object display device 100 according to the present embodiment.
In step S31, the model information acquisition unit 111 acquires information on the virtual object 300, which is a manufactured virtual object, and stores it in the model information 131 according to the instruction of the operator (see step S11 in FIG. 3).
In step S32, the marker setting unit 112 acquires and sets the position and orientation of the virtual marker instructed by the operator (see step S12) (stored in the marker information 133).

ステップS33においてマーカ認識部113は、カメラ151の撮影映像に含まれる実マーカを認識し、実マーカの位置および向きを取得する。以後、位置姿勢算出部114は、実マーカを基準とした仮想物体表示装置100の位置・向きを算出する。なおマーカ認識部113は、作業者がマーカ認識モードに切り替えたことを契機に撮影映像に含まれる実マーカの検出処理を開始して実マーカを認識する。 In step S33, the marker recognition unit 113 recognizes the actual marker included in the captured image of the camera 151, and acquires the position and orientation of the actual marker. After that, the position / orientation calculation unit 114 calculates the position / orientation of the virtual object display device 100 with reference to the actual marker. The marker recognition unit 113 recognizes the actual marker by starting the detection process of the actual marker included in the captured image when the operator switches to the marker recognition mode.

ステップS34において表示制御部117は、カメラ151が撮影映像に仮想物体の画像を重畳して表示する。仮想物体がステップS31で取得した製作済み仮想物体である仮想物体300のみであれば、表示制御部117は撮影映像に仮想物体300の画像を重畳して表示する。後記するステップS37,S38で計測仮想物体(例えば2階フロアである仮想物体340)が取得されていれば、表示制御部117は仮想物体300の他に当該計測仮想物体も撮影画像に重畳して表示する。 In step S34, the display control unit 117 displays the image of the virtual object superimposed on the captured image by the camera 151. If the virtual object is only the virtual object 300, which is the manufactured virtual object acquired in step S31, the display control unit 117 superimposes the image of the virtual object 300 on the captured image and displays it. If the measured virtual object (for example, the virtual object 340 on the second floor) is acquired in steps S37 and S38 described later, the display control unit 117 superimposes the measured virtual object on the captured image in addition to the virtual object 300. indicate.

ステップS35において表示制御部117は、作業者による仮想物体の位置・向きが正しいかずれているかの判断結果(ステップS14,S15参照)を取得する。表示制御部117は、正しいならば(ステップS35→OK)ステップS36に進み、ずれているならば(ステップS35→NG)ステップS33に戻る。
ステップS36において表示制御部117は、作業者による終了の指示(ステップS17参照)があれば(ステップS36→YES)仮想物体表示処理を終了し、終了の指示がなければ(ステップS36→NO)ステップS37に進む。
In step S35, the display control unit 117 acquires the determination result (see steps S14 and S15) of whether the position / orientation of the virtual object is correct or deviated by the operator. If the display control unit 117 is correct (step S35 → OK), the process proceeds to step S36, and if the display control unit 117 is deviated (step S35 → NG), the process returns to step S33.
In step S36, the display control unit 117 ends the virtual object display process if there is an end instruction (see step S17) by the operator (step S36 → YES), and if there is no end instruction (step S36 → NO), the display control unit 117 ends. Proceed to S37.

ステップS37において空間認識部115は、デプスセンサ153の計測値に基づいて実空間にある物体(物体表面)を示す点群の位置を算出して、空間形状情報132に格納する。なお物体は、2階フロアや配管である(ステップS18参照)。また空間認識部115は、作業者が空間認識モードに切り替えたことを契機にデプスセンサ153を起動して、計測する。 In step S37, the space recognition unit 115 calculates the position of a point cloud indicating an object (object surface) in the real space based on the measured value of the depth sensor 153, and stores it in the space shape information 132. The objects are the second floor and piping (see step S18). Further, the space recognition unit 115 activates the depth sensor 153 when the operator switches to the space recognition mode, and measures the measurement.

ステップS38において仮想物体生成部116は、空間形状情報132にある点群の位置情報に基づいて物体の形状・位置・向きを算出し、算出結果を計測仮想物体の情報に変換してモデル情報131に格納する。この変換された計測仮想物体には仮想物体340(図2参照)が含まれる。 In step S38, the virtual object generation unit 116 calculates the shape, position, and orientation of the object based on the position information of the point cloud in the spatial shape information 132, converts the calculation result into the information of the measurement virtual object, and model information 131. Store in. The converted measured virtual object includes a virtual object 340 (see FIG. 2).

ステップS39において表示制御部117は、カメラ151が撮影映像に仮想物体の画像を重畳して表示する。この仮想物体とは、歩廊や2階フロア、配管の仮想物体である。なお、複数の物体(の位置)が重なっている場合、表示制御部117は重なっている部分を表示しない。例えば、歩廊の仮想物体300と配管の仮想物体が重なっている場合、表示制御部117は仮想物体300の重なっている部分を表示しない。このように重なっている部分を表示しない処理は、ステップS34でも同様である。 In step S39, the display control unit 117 displays the image of the virtual object superimposed on the captured image by the camera 151. This virtual object is a virtual object of a corridor, a second floor, and a pipe. When a plurality of objects (positions) overlap, the display control unit 117 does not display the overlapped portion. For example, when the virtual object 300 in the corridor and the virtual object in the pipe overlap, the display control unit 117 does not display the overlapping portion of the virtual object 300. The process of not displaying the overlapping portions is the same in step S34.

≪仮想物体表示処理の特徴≫
仮想物体表示装置100は、仮想マーカおよび実マーカを基準にして位置や向きが一致するように仮想物体を撮影画像に重畳して表示する。表示される仮想物体は予め準備された製作済み仮想物体(ステップS31で取得された仮想物体)に限らず、現場で取得された計測仮想物体(ステップS37~S38参照)も含む。
≪Characteristics of virtual object display processing≫
The virtual object display device 100 superimposes and displays a virtual object on a captured image so that the positions and orientations match with respect to the virtual marker and the real marker. The displayed virtual object is not limited to the manufactured virtual object (virtual object acquired in step S31) prepared in advance, but also includes the measurement virtual object (see steps S37 to S38) acquired at the site.

仮想マーカが設定可能な仮想物体は、製作済み仮想物体限らず、計測仮想物体にも設定可能である(ステップS32参照)。このため作業者は、現場を移動して移動先の物体に対応する計測仮想物体に仮想マーカを設定可能となる。移動先において仮想マーカと実マーカとによる位置・向きの基準が設けられることになり、仮想物体表示装置100は、高精度に仮想物体を撮影画像に重畳して表示することができる。延いては、作業者は正確に設置予定の物体(例えば歩廊などの設備)と既設の物体(例えば配管)とが干渉するか否かを確認できるようになる。 The virtual object to which the virtual marker can be set is not limited to the manufactured virtual object, but can also be set to the measurement virtual object (see step S32). Therefore, the operator can move the site and set a virtual marker on the measurement virtual object corresponding to the moved object. A position / orientation reference based on the virtual marker and the real marker is provided at the moving destination, and the virtual object display device 100 can display the virtual object superimposed on the captured image with high accuracy. As a result, the operator can accurately confirm whether or not the object to be installed (for example, equipment such as a corridor) and the existing object (for example, piping) interfere with each other.

≪変形例:位置合わせ≫
上記した実施形態において仮想物体の位置がずれている場合には(ステップS15,S35→NG参照)実マーカを設置し直して(ステップS13参照)、読み込み直している(ステップS14,S33参照)。実マーカの設置し直しではなく、仮想マーカの設定し直し、または仮想物体の位置調整であってもよい。例えば仮想物体表示装置100が、実空間に設置した実マーカに合うように、仮想空間にある仮想物体上の仮想マーカを設定し直しや、現場の映像に表示される仮想物体の位置調整が行えるようにしてもよい。このようにすることで、作業者は仮想空間の座標系と実空間の座標系との一致が短時間で行えるようになる。
≪Transformation example: Alignment≫
When the position of the virtual object is deviated in the above embodiment (see steps S15 and S35 → NG), the actual marker is re-installed (see step S13) and reloaded (see steps S14 and S33). Instead of resetting the real marker, the virtual marker may be reset or the position of the virtual object may be adjusted. For example, the virtual object display device 100 can reset the virtual marker on the virtual object in the virtual space so as to match the actual marker installed in the real space, and can adjust the position of the virtual object displayed on the on-site image. You may do so. By doing so, the worker can match the coordinate system of the virtual space with the coordinate system of the real space in a short time.

≪変形例:干渉確認≫
上記した実施形態において複数の仮想物体(の位置)が重なっている場合に、表示制御部117は重なっている部分を表示しない(ステップS39参照)。表示制御部117は、重なっている部分、または複数の物体で距離が所定値以下の部分を強調するように表示してもよい。表示制御部117は、このような部分を、例えば色を変える、物体間の距離が表示されたポップアップウィンドウを表示するなどして、強調してもよい。
≪Modification example: Interference confirmation≫
When a plurality of virtual objects (positions) overlap in the above embodiment, the display control unit 117 does not display the overlapped portion (see step S39). The display control unit 117 may display so as to emphasize the overlapping portion or the portion of a plurality of objects whose distance is equal to or less than a predetermined value. The display control unit 117 may emphasize such a portion by, for example, changing the color or displaying a pop-up window displaying the distance between the objects.

≪その他変形例≫
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
≪Other variants≫
Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and further, various modifications such as omission and substitution can be made without departing from the gist of the present invention. These embodiments and variations thereof are included in the scope and gist of the invention described in the present specification and the like, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

100 仮想物体表示装置(表示装置)
111 モデル情報取得部
112 マーカ設定部
113 マーカ認識部
114 位置姿勢算出部
115 空間認識部
116 仮想物体生成部
117 表示制御部
132 空間形状情報(空間形状データ)
133 マーカ情報(仮想マーカ情報)
151 カメラ
153 デプスセンサ(空間センサ)
154 慣性センサ
300 仮想物体(製作済み仮想物体)
340 仮想物体(計測仮想物体)
350,360 仮想マーカ
100 Virtual object display device (display device)
111 Model information acquisition unit 112 Marker setting unit 113 Marker recognition unit 114 Position / orientation calculation unit 115 Space recognition unit 116 Virtual object generation unit 117 Display control unit 132 Spatial shape information (spatial shape data)
133 Marker information (virtual marker information)
151 Camera 153 Depth sensor (spatial sensor)
154 Inertia sensor 300 Virtual object (manufactured virtual object)
340 virtual object (measurement virtual object)
350,360 virtual marker

Claims (9)

カメラと、
実空間における物体の位置および向きを計測する空間センサと、
仮想空間における仮想マーカの位置および向きを含む仮想マーカ情報を記憶する記憶部と、
前記空間センサの計測結果から前記物体の空間形状データを生成する空間認識部と、
前記カメラが撮像した実マーカの位置および向きを認識するマーカ認識部と、
前記仮想空間内に前記空間センサの計測値に基づく計測仮想物体を生成する仮想物体生成部と、
前記カメラの撮像映像を表示する表示制御部とを備え、
前記仮想物体生成部は、
前記仮想空間における前記計測仮想物体の形状が前記物体の前記空間形状データに一致するように、
かつ、前記仮想空間における前記仮想マーカに対する前記計測仮想物体の位置および向きが、前記実空間における前記実マーカに対する前記物体の位置および向きと一致するように、前記仮想空間内に前記計測仮想物体を生成する
ことを特徴とする表示装置。
With the camera
Spatial sensors that measure the position and orientation of objects in real space,
A storage unit that stores virtual marker information including the position and orientation of virtual markers in virtual space,
A space recognition unit that generates space shape data of the object from the measurement results of the space sensor,
A marker recognition unit that recognizes the position and orientation of the actual marker imaged by the camera, and
A virtual object generation unit that generates a measurement virtual object based on the measurement value of the space sensor in the virtual space,
It is equipped with a display control unit that displays the captured image of the camera.
The virtual object generation unit is
So that the shape of the measured virtual object in the virtual space matches the space shape data of the object.
In addition, the measurement virtual object is placed in the virtual space so that the position and orientation of the measurement virtual object with respect to the virtual marker in the virtual space coincide with the position and orientation of the object with respect to the real marker in the real space. A display device characterized by producing.
前記記憶部には、前記仮想空間に存在する製作済み仮想物体に係る情報が記憶され、
前記表示制御部は、前記実マーカに対する位置および向きが、前記仮想マーカに対する前記製作済み仮想物体の位置および向きと一致する前記製作済み仮想物体の画像を、前記カメラの撮影画像に重畳して表示する
ことを特徴とする請求項1に記載の表示装置。
Information related to the manufactured virtual object existing in the virtual space is stored in the storage unit.
The display control unit superimposes and displays an image of the manufactured virtual object whose position and orientation with respect to the real marker matches the position and orientation of the manufactured virtual object with respect to the virtual marker. The display device according to claim 1, wherein the display device is characterized by the above.
前記記憶部には、前記仮想空間に存在する製作済み仮想物体に係る情報が記憶され、
前記計測仮想物体に第2仮想マーカを設定するマーカ設定部をさらに備え、
前記マーカ認識部は、前記計測仮想物体に対する前記第2仮想マーカの位置および向きに対応する前記物体の位置および向きに設置された第2実マーカの位置および向きを認識し、
前記表示制御部は、前記第2実マーカに対する位置および向きが、前記第2仮想マーカに対する前記製作済み仮想物体の位置および向きと一致する前記製作済み仮想物体の画像を、前記カメラの撮影画像に重畳して表示する
ことを特徴とする請求項1に記載の表示装置。
Information related to the manufactured virtual object existing in the virtual space is stored in the storage unit.
Further, a marker setting unit for setting a second virtual marker on the measurement virtual object is provided.
The marker recognition unit recognizes the position and orientation of the second real marker installed at the position and orientation of the object corresponding to the position and orientation of the second virtual marker with respect to the measurement virtual object.
The display control unit uses an image of the manufactured virtual object whose position and orientation with respect to the second real marker coincides with the position and orientation of the manufactured virtual object with respect to the second virtual marker as an image taken by the camera. The display device according to claim 1, wherein the display device is superimposed and displayed.
前記表示制御部は、前記実マーカに対する位置および向きが、前記仮想マーカに対する前記計測仮想物体の位置および向きと一致する仮想物体の画像を、前記カメラの撮影画像に重畳して表示する
ことを特徴とする請求項2~3の何れか1項に記載の表示装置。
The display control unit is characterized in that an image of a virtual object whose position and orientation with respect to the real marker matches the position and orientation of the measurement virtual object with respect to the virtual marker is superimposed on the captured image of the camera. The display device according to any one of claims 2 to 3.
前記表示制御部は、前記仮想空間において前記計測仮想物体と前記製作済み仮想物体とが重なる場合に、重なる前記計測仮想物体の部分または重なる前記製作済み仮想物体の部分の画像を表示しない
ことを特徴とする請求項4に記載の表示装置。
The display control unit is characterized in that when the measured virtual object and the manufactured virtual object overlap in the virtual space, the image of the overlapping portion of the measured virtual object or the overlapping portion of the manufactured virtual object is not displayed. The display device according to claim 4.
前記表示制御部は、前記仮想空間において前記計測仮想物体と前記製作済み仮想物体とが重なる部分、または、前記計測仮想物体の部分と前記製作済み仮想物体の部分であって2つの部分の距離が所定値以下の部分を強調して表示する
ことを特徴とする請求項4に記載の表示装置。
In the display control unit, the distance between the portion where the measurement virtual object and the manufactured virtual object overlap in the virtual space, or the portion between the measurement virtual object and the manufactured virtual object, and the distance between the two portions is set. The display device according to claim 4, wherein a portion of a predetermined value or less is highlighted and displayed.
前記空間認識部は、前記空間センサの計測結果から第2物体の空間形状データを生成し、
前記仮想物体生成部は、前記仮想空間内にあり、形状が当該空間形状データに一致する仮想物体であって、前記第2仮想マーカに対する位置および向きが前記第2実マーカに対する前記第2物体の位置および向きと一致する第2計測仮想物体を生成し、
前記表示制御部は、前記第2実マーカに対する位置および向きが、前記第2仮想マーカに対する前記第2計測仮想物体の位置および向きと一致する前記第2計測仮想物体の画像を、前記カメラの撮影画像に重畳して表示する
ことを特徴とする請求項3に記載の表示装置。
The space recognition unit generates space shape data of the second object from the measurement result of the space sensor, and generates the space shape data.
The virtual object generation unit is a virtual object that is in the virtual space and whose shape matches the space shape data, and the position and orientation with respect to the second virtual marker is the position and orientation of the second object with respect to the second real marker. Generate a second measurement virtual object that matches the position and orientation,
The display control unit captures an image of the second measurement virtual object whose position and orientation with respect to the second real marker coincides with the position and orientation of the second measurement virtual object with respect to the second virtual marker. The display device according to claim 3, wherein the display device is superimposed on an image and displayed.
カメラと、
実空間における物体の位置および向きを計測する空間センサと、
仮想空間における仮想マーカの位置および向きを含む仮想マーカ情報を記憶する記憶部とを備えるコンピュータを、
前記空間センサの計測結果から前記物体の空間形状データを生成する空間認識部と、
前記カメラが撮像した実マーカの位置および向きを認識するマーカ認識部と、
前記仮想空間内に前記空間センサの計測値に基づく計測仮想物体を生成する仮想物体生成部と、
前記カメラの撮像映像を表示する表示制御部とを備え、
前記仮想物体生成部は、
前記仮想空間における前記計測仮想物体の形状が前記物体の前記空間形状データに一致するように、
かつ、前記仮想空間における前記仮想マーカに対する前記計測仮想物体の位置および向きが、前記実空間における前記実マーカに対する前記物体の位置および向きと一致するように、前記仮想空間内に前記計測仮想物体を生成する
表示装置として機能させるためのプログラム。
With the camera
Spatial sensors that measure the position and orientation of objects in real space,
A computer equipped with a storage unit that stores virtual marker information including the position and orientation of the virtual marker in the virtual space.
A space recognition unit that generates space shape data of the object from the measurement results of the space sensor,
A marker recognition unit that recognizes the position and orientation of the actual marker imaged by the camera, and
A virtual object generation unit that generates a measurement virtual object based on the measurement value of the space sensor in the virtual space,
It is equipped with a display control unit that displays the captured image of the camera.
The virtual object generation unit is
So that the shape of the measured virtual object in the virtual space matches the space shape data of the object.
In addition, the measurement virtual object is placed in the virtual space so that the position and orientation of the measurement virtual object with respect to the virtual marker in the virtual space coincide with the position and orientation of the object with respect to the real marker in the real space. A program to function as a display device to generate.
カメラと、
実空間における物体の位置および向きを計測する空間センサと、
仮想空間における仮想マーカの位置および向きを含む仮想マーカ情報を記憶する記憶部とを備える表示装置が、
前記空間センサの計測結果から前記物体の空間形状データを生成するステップと、
前記カメラが撮像した実マーカの位置および向きを認識するステップと、
前記仮想空間内に前記空間センサの計測値に基づく計測仮想物体を生成するステップと、
前記カメラの撮像映像を表示するステップとを実行し、
前記仮想空間における前記計測仮想物体の形状は、前記物体の前記空間形状データに一致し、
前記仮想空間における前記仮想マーカに対する前記計測仮想物体の位置および向きが、前記実空間における前記実マーカに対する前記物体の位置および向きと一致する
表示方法。
With the camera
Spatial sensors that measure the position and orientation of objects in real space,
A display device including a storage unit that stores virtual marker information including the position and orientation of the virtual marker in the virtual space.
A step of generating spatial shape data of the object from the measurement result of the spatial sensor, and
The step of recognizing the position and orientation of the actual marker imaged by the camera,
A step of generating a measurement virtual object based on the measurement value of the space sensor in the virtual space,
The step of displaying the captured image of the camera is executed.
The shape of the measured virtual object in the virtual space matches the space shape data of the object, and
A display method in which the position and orientation of the measured virtual object with respect to the virtual marker in the virtual space coincide with the position and orientation of the object with respect to the real marker in the real space.
JP2021150427A 2021-09-15 2021-09-15 Display device, program and display method Active JP7042380B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021150427A JP7042380B1 (en) 2021-09-15 2021-09-15 Display device, program and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021150427A JP7042380B1 (en) 2021-09-15 2021-09-15 Display device, program and display method

Publications (2)

Publication Number Publication Date
JP7042380B1 true JP7042380B1 (en) 2022-03-25
JP2023042981A JP2023042981A (en) 2023-03-28

Family

ID=81214407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021150427A Active JP7042380B1 (en) 2021-09-15 2021-09-15 Display device, program and display method

Country Status (1)

Country Link
JP (1) JP7042380B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024019807A1 (en) * 2022-07-18 2024-01-25 Nant Holdings Ip, Llc Determining a camera control point for virtual production

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213355A (en) 2002-12-27 2004-07-29 Canon Inc Information processing method
JP2007064684A (en) 2005-08-29 2007-03-15 Canon Inc Marker arrangement assisting method and device therefor
JP2008046687A (en) 2006-08-10 2008-02-28 Canon Inc Photographic environment calibration method and information processor
JP2012033119A (en) 2010-08-03 2012-02-16 Hitachi Ltd Three-dimensional environment generation system
JP2015204079A (en) 2014-04-16 2015-11-16 富士通株式会社 Display method, display program and display device
JP2017016577A (en) 2015-07-06 2017-01-19 キヤノン株式会社 Information processor, and control method, and program, for the same
JP2019066292A (en) 2017-09-29 2019-04-25 株式会社Nttドコモ Video display system
JP2020523713A (en) 2017-06-14 2020-08-06 ライティックス システムズ リミテッド Method and system for generating adaptive projected reality at a construction site
JP2020194214A (en) 2019-05-24 2020-12-03 鹿島建設株式会社 Image display device
WO2021040010A1 (en) 2019-08-30 2021-03-04 ソニー株式会社 Information processing device, and control method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7346245B2 (en) * 2019-10-30 2023-09-19 北陸電気工事株式会社 Construction site recording program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213355A (en) 2002-12-27 2004-07-29 Canon Inc Information processing method
JP2007064684A (en) 2005-08-29 2007-03-15 Canon Inc Marker arrangement assisting method and device therefor
JP2008046687A (en) 2006-08-10 2008-02-28 Canon Inc Photographic environment calibration method and information processor
JP2012033119A (en) 2010-08-03 2012-02-16 Hitachi Ltd Three-dimensional environment generation system
JP2015204079A (en) 2014-04-16 2015-11-16 富士通株式会社 Display method, display program and display device
JP2017016577A (en) 2015-07-06 2017-01-19 キヤノン株式会社 Information processor, and control method, and program, for the same
JP2020523713A (en) 2017-06-14 2020-08-06 ライティックス システムズ リミテッド Method and system for generating adaptive projected reality at a construction site
JP2019066292A (en) 2017-09-29 2019-04-25 株式会社Nttドコモ Video display system
JP2020194214A (en) 2019-05-24 2020-12-03 鹿島建設株式会社 Image display device
WO2021040010A1 (en) 2019-08-30 2021-03-04 ソニー株式会社 Information processing device, and control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024019807A1 (en) * 2022-07-18 2024-01-25 Nant Holdings Ip, Llc Determining a camera control point for virtual production
US11924561B2 (en) 2022-07-18 2024-03-05 Nant Holdings, LLC Determining a camera control point for virtual production

Also Published As

Publication number Publication date
JP2023042981A (en) 2023-03-28

Similar Documents

Publication Publication Date Title
US20170256097A1 (en) Local positioning system for augmented reality applications
CN111033536A (en) Method and system for generating adaptive projected reality at construction site
JP2009543220A (en) Method and system for automatically performing a multidimensional space survey
US20150268033A1 (en) Relative Object Localization Process for Local Positioning System
KR20110068469A (en) The method for 3d object information extraction from single image without meta information
JP7003594B2 (en) 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium
US11288877B2 (en) Method for matching a virtual scene of a remote scene with a real scene for augmented reality and mixed reality
JP6451139B2 (en) Arrangement plan support system, arrangement plan support method, and arrangement plan support program
JP7042380B1 (en) Display device, program and display method
JPWO2020003497A1 (en) Imaging equipment calibration equipment, monitoring equipment, work machines and calibration methods
CN113124883B (en) Off-line punctuation method based on 3D panoramic camera
JP6386263B2 (en) Image forming apparatus, image forming system, and image forming program
JP5669438B2 (en) Object management image generation apparatus and object management image generation program
US20230142960A1 (en) Construction of formwork and scaffolding using mobile devices
Wang et al. A construction progress on-site monitoring and presentation system based on the integration of augmented reality and BIM
US20230384095A1 (en) System and method for controlling a light projector in a construction site
JP2668034B2 (en) Construction equipment
JP2014035341A (en) System and method for measuring installation accuracy of construction members
JP6932062B2 (en) Piping completion drawing creation system and piping construction drawing creation method, as well as flying objects and pipe joint position calculation devices used in the piping completion drawing creation system
JP6912996B2 (en) Offset map creation support system and offset map creation support method, as well as flying objects and offset map creation support devices used in the offset map creation support system.
JP2020194214A (en) Image display device
JP6722000B2 (en) Surveying support device
KR101189167B1 (en) The method for 3d object information extraction from single image without meta information
JP2022178396A (en) Guiding type remote operation method and device
JP2003271993A (en) Monitor image processing method, image monitoring system, and maintenance work system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210915

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220314

R150 Certificate of patent or registration of utility model

Ref document number: 7042380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150