JP7042380B1 - Display device, program and display method - Google Patents
Display device, program and display method Download PDFInfo
- Publication number
- JP7042380B1 JP7042380B1 JP2021150427A JP2021150427A JP7042380B1 JP 7042380 B1 JP7042380 B1 JP 7042380B1 JP 2021150427 A JP2021150427 A JP 2021150427A JP 2021150427 A JP2021150427 A JP 2021150427A JP 7042380 B1 JP7042380 B1 JP 7042380B1
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- space
- marker
- virtual object
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 22
- 239000003550 marker Substances 0.000 claims abstract description 90
- 238000005259 measurement Methods 0.000 claims abstract description 42
- 238000010586 diagram Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 238000009434 installation Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】簡便に仮想物体の作成を可能とする。【解決手段】表示装置(仮想物体表示装置100)は、カメラ151と、物体の位置および向きを計測する空間センサ(デプスセンサ153)と、仮想空間における仮想マーカの位置および向きを含む仮想マーカ情報(マーカ情報133)を記憶する記憶部130を備える。さらに表示装置は、空間センサの計測結果から物体の空間形状データを生成する空間認識部115と、カメラ151が撮像した実マーカの位置および向きを認識するマーカ認識部113と、仮想空間内にあり、形状が空間形状データに一致する仮想物体であって、仮想マーカに対する位置および向きが実マーカに対する物体の位置および向きと一致する仮想物体を生成する仮想物体生成部116と、カメラ151の撮像映像を表示する表示制御部117とを備える。【選択図】図1PROBLEM TO BE SOLVED: To easily create a virtual object. A display device (virtual object display device 100) includes a camera 151, a space sensor (depth sensor 153) for measuring the position and orientation of an object, and virtual marker information including the position and orientation of a virtual marker in a virtual space. A storage unit 130 for storing marker information 133) is provided. Further, the display device is in the virtual space, the space recognition unit 115 that generates the space shape data of the object from the measurement result of the space sensor, the marker recognition unit 113 that recognizes the position and orientation of the real marker imaged by the camera 151, and the marker recognition unit 113. , The image captured by the camera 151 and the virtual object generation unit 116 that generates a virtual object whose shape matches the spatial shape data and whose position and orientation with respect to the virtual marker match the position and orientation of the object with respect to the real marker. Is provided with a display control unit 117 for displaying. [Selection diagram] Fig. 1
Description
本発明は、表示装置、プログラムおよび表示方法に関する。 The present invention relates to display devices, programs and display methods.
仮想空間(仮想3次元空間)にある仮想物体を実空間の映像に重畳して表示する複合現実(Mixed Reality)に関する技術が普及しており、ゲームの他に設計や試作における完成イメージの確認などに用いられている。重畳して表示するときには、仮想物体と実空間との位置合わせ、換言すれば仮想空間の座標系と実空間の座標系とが一致することが必要となる。このために例えば、マーカを用いて座標系を一致させる手法がある。詳しくは、先ず、仮想空間の原点に対応する実空間の位置にマーカ(実マーカ)を設置する。次に、仮想物体の表示装置がマーカを認識して実空間の原点の位置と座標軸の向きとを特定し、仮想空間の座標系と合致するように仮想物体を表示する。 Technology related to mixed reality that superimposes and displays virtual objects in virtual space (virtual three-dimensional space) on images in real space is widespread, and in addition to games, confirmation of completed images in design and trial production, etc. It is used in. When displaying in superposition, it is necessary to align the virtual object and the real space, in other words, to match the coordinate system of the virtual space and the coordinate system of the real space. For this purpose, for example, there is a method of matching the coordinate system using a marker. Specifically, first, a marker (real marker) is installed at the position of the real space corresponding to the origin of the virtual space. Next, the display device of the virtual object recognizes the marker, identifies the position of the origin of the real space and the direction of the coordinate axis, and displays the virtual object so as to match the coordinate system of the virtual space.
表示装置には加速度センサや角速度センサが備わり、表示装置が移動して姿勢を変えても、センサの測定値から実空間における自身の位置と姿勢とを算出することができる。しかしながら、マーカの位置から離れるほど算出した位置・姿勢と、実際の位置・姿勢とに誤差が生じる。 The display device is equipped with an acceleration sensor and an angular velocity sensor, and even if the display device moves and changes its posture, it can calculate its own position and posture in real space from the measured values of the sensors. However, the farther away from the marker position, the more an error occurs between the calculated position / posture and the actual position / posture.
誤差を修正するために特許文献1に記載の映像表示システムは、実空間において基準マーカに対応する第1サブマーカを検出し、座標軸(仮想物体)に予め対応付けられた複数の第1仮想位置のうち第1サブマーカと最も近い第1仮想位置と第1サブマーカの位置関係を演算する第1位置関係演算部と、実空間において基準マーカに対して予め決められた位置に配置された第2サブマーカを検出し、複数の第1仮想位置の間隔よりも狭い間隔で座標軸に予め対応付けられた複数の第2仮想位置と第2サブマーカとの位置関係を演算する第2位置関係演算部と、座標軸と撮像装置の位置及び姿勢との関係を修正する修正部と、を備える。
このような映像表示システムでは、間隔が所定距離内になるように第1サブマーカおよび第2サブマーカを設置することにより、誤差を小さく保つことができるようになる。
The video display system described in Patent Document 1 for correcting an error detects a first submarker corresponding to a reference marker in real space, and has a plurality of first virtual positions associated with a coordinate axis (virtual object) in advance. Among them, the first positional relationship calculation unit that calculates the positional relationship between the first virtual position closest to the first submarker and the first submarker, and the second submarker arranged at a predetermined position with respect to the reference marker in the real space. A second positional relationship calculation unit that detects and calculates the positional relationship between a plurality of second virtual positions and a second submarker associated with the coordinate axes in advance at intervals narrower than the intervals of the plurality of first virtual positions, and the coordinate axes. A correction unit for correcting the relationship between the position and the posture of the image pickup device is provided.
In such an image display system, the error can be kept small by installing the first submarker and the second submarker so that the intervals are within a predetermined distance.
特許文献1に記載の技術では、実空間の物体上の第1サブマーカおよび第2サブマーカに対応して、仮想物体上に第1仮想位置および第2仮想位置を設定する必要がある。このため、マーカに対応する仮想位置には仮想物体があり、この仮想物体上に仮想位置を設定することになる。 In the technique described in Patent Document 1, it is necessary to set a first virtual position and a second virtual position on a virtual object corresponding to a first submarker and a second submarker on an object in real space. Therefore, there is a virtual object in the virtual position corresponding to the marker, and the virtual position is set on this virtual object.
しかしながら、サブマーカが設置される物体に対応した仮想物体が存在する(仮想空間内の物体モデルが作成されている)とは限らない。例えばプラントなどの建設現場において仮設の足場にマーカを置くことがあるが、プラントの設備や配管に対応した仮想空間のモデル(仮想物体)は作成されても、仮設の足場のモデルまでは作成されない。このため、基準マーカや第1サブマーカ、第2サブマーカの設置位置は現場の床ないしは壁などに限定され、誤差を十分に抑えるほどの間隔で設置するのが困難である。 However, there is not always a virtual object corresponding to the object in which the submarker is installed (an object model in the virtual space is created). For example, at a construction site such as a plant, a marker may be placed on a temporary scaffold, but even if a virtual space model (virtual object) corresponding to plant equipment and piping is created, a model of the temporary scaffold is not created. .. Therefore, the installation positions of the reference marker, the first sub-marker, and the second sub-marker are limited to the floor or wall of the site, and it is difficult to install them at intervals sufficiently to suppress the error.
仮設の足場をモデル化して足場の仮想物体を準備するにしても、事前に足場の高さや位置が決まっているとは限らない。また、表示装置(映像表示システム)を使用する直前に足場を組み立てることもある。このため、足場の仮想物体(仮想位置が設定される仮想物体)を事前に準備するのは実用的ではない。
本発明は、このような背景を鑑みてなされたものであり、簡便に仮想物体の作成を可能とする表示装置、プログラムおよび表示方法を提供することを課題とする。
Even if a temporary scaffold is modeled and a virtual object of the scaffold is prepared, the height and position of the scaffold are not always determined in advance. In addition, the scaffolding may be assembled immediately before using the display device (video display system). Therefore, it is not practical to prepare a virtual object for scaffolding (a virtual object for which a virtual position is set) in advance.
The present invention has been made in view of such a background, and an object of the present invention is to provide a display device, a program, and a display method capable of easily creating a virtual object.
上記した課題を解決するため、本発明に係る表示装置は、カメラと、実空間における物体の位置および向きを計測する空間センサと、仮想空間における仮想マーカの位置および向きを含む仮想マーカ情報を記憶する記憶部と、前記空間センサの計測結果から前記物体の空間形状データを生成する空間認識部と、前記カメラが撮像した実マーカの位置および向きを認識するマーカ認識部と、前記仮想空間内に前記空間センサの計測値に基づく計測仮想物体を生成する仮想物体生成部と、前記カメラの撮像映像を表示する表示制御部とを備え、前記仮想物体生成部は、前記仮想空間における前記計測仮想物体の形状が前記物体の前記空間形状データに一致するように、かつ、前記仮想空間における前記仮想マーカに対する前記計測仮想物体の位置および向きが、前記実空間における前記実マーカに対する前記物体の位置および向きと一致するように、前記仮想空間内に前記計測仮想物体を生成することを特徴とする。 In order to solve the above-mentioned problems, the display device according to the present invention stores a camera, a spatial sensor that measures the position and orientation of an object in real space, and virtual marker information including the position and orientation of a virtual marker in virtual space. A storage unit, a space recognition unit that generates spatial shape data of the object from the measurement result of the space sensor, a marker recognition unit that recognizes the position and orientation of the actual marker imaged by the camera, and a marker recognition unit in the virtual space. A virtual object generation unit that generates a measurement virtual object based on the measurement value of the space sensor and a display control unit that displays an image captured by the camera are provided, and the virtual object generation unit is the measurement virtual object in the virtual space. The position and orientation of the measured virtual object with respect to the virtual marker in the virtual space is the position and orientation of the object with respect to the real marker in the real space so that the shape of the object matches the spatial shape data of the object. It is characterized in that the measurement virtual object is generated in the virtual space so as to coincide with.
本発明によれば、簡便に仮想物体の作成を可能とする表示装置、プログラムおよび表示方法を提供することができる。上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a display device, a program, and a display method that enable easy creation of a virtual object. Issues, configurations and effects other than those described above will be clarified by the description of the following embodiments.
≪仮想物体表示装置の概要≫
次に、本発明を実施するための形態(実施形態)における仮想物体表示装置(表示装置)について説明する。仮想物体表示装置は、実空間の映像(撮影映像、撮影画像)に仮想物体の画像を重ねて表示する。例えば、プラントなどの建設現場において、設置予定である設備の仮想物体の画像が、設置予定場所に設置場所の映像と重ねられて表示される。
≪Overview of virtual object display device≫
Next, a virtual object display device (display device) in the embodiment (embodiment) for carrying out the present invention will be described. The virtual object display device superimposes an image of a virtual object on a real space image (captured image, captured image) and displays it. For example, at a construction site such as a plant, an image of a virtual object of equipment to be installed is displayed superimposed on an image of the installation location at the planned installation location.
仮想物体表示装置は、デプスセンサを用いて設置予定場所周辺に存在する、例えば配管や仮設物などの既設の物体(物体表面)を計測(スキャン)して形状データを取得し、新たな仮想物体として仮想空間に取り込む。仮想物体表示装置は、既設の物体に対応する新たな仮想物体の画像と、設置予定の仮想物体の画像と、設置予定場所の映像とを重ねて表示することができる。このような映像(画像)を見ることで作業者は、設置予定設備と既存の物体とが接触しないか、必要な間隔を得られるかを確認することができる。 The virtual object display device uses a depth sensor to measure (scan) existing objects (object surfaces) such as pipes and temporary objects that exist around the planned installation location, acquire shape data, and use it as a new virtual object. Import into virtual space. The virtual object display device can superimpose an image of a new virtual object corresponding to an existing object, an image of a virtual object to be installed, and an image of a planned installation location. By viewing such an image (image), the operator can confirm whether the equipment to be installed and the existing object do not come into contact with each other and whether the required distance can be obtained.
仮想物体の画像と現場の映像とを重ねて表示するには、仮想物体が存在する仮想空間の座標系と、現場の空間の座標系とを合わせる(一致させる)必要がある。このために仮想物体表示装置は、現場に設置された実マーカの位置・向き(姿勢)をカメラで取得して、仮想空間の仮想マーカの位置・向きと合わせることで、2つの座標系を合わせる。 In order to display the image of the virtual object and the image of the site in an overlapping manner, it is necessary to match (match) the coordinate system of the virtual space in which the virtual object exists with the coordinate system of the space of the site. For this purpose, the virtual object display device aligns the two coordinate systems by acquiring the position / orientation (posture) of the actual marker installed at the site with the camera and matching it with the position / orientation of the virtual marker in the virtual space. ..
仮想物体表示装置は慣性センサを備え、自身の移動距離や姿勢の変化が検知できるため、実マーカの近傍(例えば数m以内)ならば、一定の精度で仮想物体の画像と現場空間の映像を重ねて表示できる。しかしながら、実マーカから離れるほど慣性センサの測定誤差が累積して、表示がずれる。このため移動して誤差が大きくなる前に、改めて実マーカと仮想マーカとを用いて座標系を合わせることが望まれる。 Since the virtual object display device is equipped with an inertia sensor and can detect changes in its own movement distance and posture, if it is in the vicinity of a real marker (for example, within a few meters), the image of the virtual object and the image of the site space can be displayed with a certain accuracy. Can be displayed in layers. However, the farther away from the actual marker, the more the measurement error of the inertial sensor accumulates, and the display shifts. Therefore, it is desirable to match the coordinate system again using the real marker and the virtual marker before moving and increasing the error.
仮想物体表示装置は、仮想空間に取り込まれた既設の物体に対応する仮想物体に設定した第2仮想マーカと、この第2仮想マーカに対応して当該既設の物体に設置した第2実マーカとを基準として座標系を合わせて、仮想物体の画像と実空間の撮影映像とを高精度に重ねて表示できるようになる。 The virtual object display device includes a second virtual marker set on a virtual object corresponding to an existing object captured in the virtual space, and a second real marker installed on the existing object corresponding to the second virtual marker. By matching the coordinate system with the reference, the image of the virtual object and the captured image in the real space can be superimposed and displayed with high accuracy.
このように仮想物体表示装置は、デプスセンサで物体を計測して仮想空間に取り込み、取り込んだ仮想物体(計測仮想物体)に設定された仮想マーカと、物体に設置されてカメラで取得された実マーカとを合わせることを繰り返すことで、基準となるマーカを次々に替えながら仮想物体と実空間の撮影映像とを重ねて表示できる。実マーカと仮想マーカとを次々に替えることで、実空間と仮想空間とのずれがなくなり、仮想物体表示装置は高精度に仮想物体と実空間の撮影映像とを重ねて表示できるようになる。 In this way, the virtual object display device measures the object with the depth sensor, captures it in the virtual space, and sets the virtual object (measurement virtual object) to be captured, and the real marker installed on the object and acquired by the camera. By repeating the combination of and, the virtual object and the captured image in the real space can be displayed in an overlapping manner while changing the reference marker one after another. By changing the real marker and the virtual marker one after another, the deviation between the real space and the virtual space is eliminated, and the virtual object display device can display the virtual object and the captured image in the real space in an overlapping manner with high accuracy.
≪仮想物体表示装置の構成≫
図1は、本実施形態に係る仮想物体表示装置100の機能ブロック図である。仮想物体表示装置100はコンピュータであり、制御部110、記憶部130、入出力部140、カメラ151、タッチパネルディスプレイ152、デプスセンサ153、および慣性センサ154を備える。入出力部140が通信デバイスを備え、他の装置とのデータ送受信が可能であってもよい。また入出力部140にメディアドライブが接続され、記録媒体を用いたデータのやり取りが可能であってもよい。
<< Configuration of virtual object display device >>
FIG. 1 is a functional block diagram of the virtual
カメラ151は、実マーカを含む現場を撮像するカメラである。タッチパネルディスプレイ152は、利用者の操作を受け付けるタッチパネル付きのディスプレイである。デプスセンサ153は、例えばToF(Time-of-Flight)深度センサであって、壁や床、機材、設置物など空間にある物体(物体表面)までの距離を計測して、空間内の物体形状を取得することができる。慣性センサ154は、3方向の加速度センサやジャイロスコープ(角速度センサ)などを含む。慣性センサ154の測定値から仮想物体表示装置100の姿勢や移動距離、移動方向を算出することができる。
The camera 151 is a camera that captures an image of the site including the actual marker. The
≪仮想物体表示装置:記憶部≫
記憶部130は、ROM(Read Only Memory)やRAM(Random Access Memory)、フラッシュメモリなどの記憶機器を含んで構成される。記憶部130には、モデル情報131、空間形状情報132、マーカ情報133、およびプログラム134が記憶される。プログラム134には、後記する仮想物体表示処理(図4参照)の記述が含まれる。
<< Virtual object display device: Storage unit >>
The
モデル情報131は、仮想空間にある仮想物体の情報であり、例えば仮想物体の表面を構成するポリゴンに係る形状や仮想空間における位置・向きなどのデータを含む。後記するように仮想物体には、製作済み仮想物体と計測仮想物体とがある。空間形状情報132は、デプスセンサ153の計測値であって、実空間における物体の表面を構成する点群の情報であり、実空間における各点の位置を示す。マーカ情報133は、仮想物体上に設定された仮想マーカの位置・向きを含む情報である。
The
≪仮想物体表示装置:制御部≫
制御部110は、CPU(Central Processing Unit)を含んで構成され、モデル情報取得部111、マーカ設定部112、マーカ認識部113、位置姿勢算出部114、空間認識部115、仮想物体生成部116、および表示制御部117が備わる。
モデル情報取得部111は、入出力部140を介して仮想物体の情報を取得してモデル情報131に格納する。モデル情報取得部111が取得する仮想物体は、設計されて製作されたモデルであるので、以下では製作済み仮想物体とも記す。
≪Virtual object display device: Control unit≫
The
The model
マーカ設定部112は、仮想物体表示装置100の利用者である作業者の指示により、仮想空間内の仮想物体上に仮想マーカを設定する。仮想マーカは、例えば仮想物体近くの仮想空間内の床に設定されたり、仮想物体の表面に設定されたりする。なお、仮想物体の情報はモデル情報131に格納されている。
マーカ認識部113は、マーカ認識モードにおいてカメラ151の撮影映像に含まれる実マーカを認識し、実マーカの位置および向きを取得する。
The
The
位置姿勢算出部114は、マーカ認識部113が取得した実マーカの位置・向きを基準にし、慣性センサ154の測定値から算出した位置・向きの変化を加えて、仮想物体表示装置100の位置・向き(姿勢)を算出する。換言すれば、位置姿勢算出部114は、実マーカを基準とした仮想物体表示装置100の位置・向きを算出する。
空間認識部115は、空間認識モードにおいてデプスセンサ153の計測値に基づいて実空間にある物体(物体表面)を示す点群の位置を算出して、空間形状情報132に格納する。なお点群(各点)の位置とは実空間における位置であり、実空間における仮想物体表示装置100の位置・向き(姿勢)に基づいて算出可能である。
The position /
The
仮想物体生成部116は、空間形状情報132にある点群の位置情報に基づいて物体の形状・位置・向きを算出し、仮想物体の情報を生成してモデル情報131に格納する。換言すれば仮想物体生成部116は、仮想空間における仮想物体の形状が物体の空間形状情報132にある物体を示す点群の位置データに一致するように仮想物体を生成する。さらに仮想物体生成部116は、仮想空間における仮想マーカに対する仮想物体の位置・向きが、実空間における実マーカに対する物体の位置・向きと一致するように、仮想物体を生成する。仮想物体生成部116が生成した仮想物体は、デプスセンサ153の計測値に基づいて生成された仮想物体であり、以下では計測仮想物体とも記す。
The virtual
表示制御部117は、カメラ151が撮影映像に仮想物体の画像を重畳して表示する。表示制御部117は、仮想空間における仮想物体の位置・向きと合致するように、撮影映像内に仮想物体の画像を重畳して表示する。詳しくは、表示制御部117は実マーカと仮想物体の画像との位置・向きの関係が、仮想空間における仮想マーカと仮想物体との位置・向きの関係と一致するように仮想物体の画像を表示する。なお以下では、撮影映像に重ねて表示される仮想物体の画像を単に仮想物体とも記す。例えば、表示制御部117はカメラ151が撮影映像に仮想物体を重畳して表示する、と記す。
また、複数の仮想物体(の位置)が重なっている場合、表示制御部117は重なっている部分を表示しない。例えば、製作済み仮想物体と計測仮想物体とが重なっている場合、表示制御部117は何れか一方または双方の重なっている部分を表示しない。
The
Further, when a plurality of virtual objects (positions) overlap, the
≪仮想物体≫
図2は、本実施形態に係る仮想物体300を説明するための図である。仮想物体300は、発電プラントに設置されるタービンを跨ぐ歩廊をモデル化した仮想物体である。仮想物体300は、現場に設置される予定の歩廊の3次元モデルであり、製作済み仮想物体である。仮想マーカ350は、歩廊が設置されるフロアに置かれる実マーカに対応する仮想マーカであって、仮想空間にある仮想フロア330上に設定されている。歩廊と実マーカとの位置・向きの関係、および仮想物体300と仮想マーカ350との位置・向きの関係は一致するように、実マーカは歩廊が設置される現場のフロアに設置される。なお実マーカは、仮想マーカ350と同等の2つの矢印と1つの矩形が印(記)された板状のものであるが、仮想マーカも実マーカもこのような図形に限定されるものではない。
以下では仮想物体300を例にした仮想物体表示装置100の利用手順(図3参照)、および仮想物体表示装置100の仮想物体表示処理(図4参照)を説明する。
≪Virtual object≫
FIG. 2 is a diagram for explaining the
Hereinafter, a procedure for using the virtual object display device 100 (see FIG. 3) using the
≪仮想物体表示装置の利用手順≫
図3は、本実施形態に係る仮想物体表示装置100を使用する作業者の手順(利用手順)を示すフローチャートである。
ステップS11において作業者は、仮想物体の情報を仮想物体表示装置100に取り込む。この例では製作済み仮想物体である仮想物体300および仮想フロア330の情報が、ネットワークまたは記憶媒体を用いて仮想物体表示装置100に取り込まれる。
≪Procedure for using virtual object display device≫
FIG. 3 is a flowchart showing a procedure (usage procedure) of a worker who uses the virtual
In step S11, the operator takes in the information of the virtual object into the virtual
ステップS12において作業者は、仮想物体(製作済み仮想物体または計測仮想物体)に仮想マーカを設定する。ステップS11に続くステップS12において作業者は、仮想マーカ350を仮想フロア330上に図2に示したように設定する。
ステップS13において作業者は、ステップS12で設定した仮想マーカの位置・向きに対応するように、現場に実マーカを設置する。例えば作業者は、仮想フロア330における仮想マーカ350の位置・向きに対応するように、歩廊を設置する現場のフロアの位置・向きに実マーカを設置する。
In step S12, the operator sets a virtual marker on the virtual object (manufactured virtual object or measured virtual object). In step S12 following step S11, the operator sets the
In step S13, the operator installs a real marker at the site so as to correspond to the position and orientation of the virtual marker set in step S12. For example, the worker installs the actual marker at the position / orientation of the floor at the site where the corridor is installed so as to correspond to the position / orientation of the
ステップS14において作業者は、仮想物体表示装置100をマーカ認識モードにして、カメラ151で実マーカを撮影する。続いて作業者が現場(フロアや空間)をカメラ151で撮影すると、仮想物体表示装置100は現場の映像に重ねて仮想物体(の画像)を表示する。例えば作業者が、歩廊が設置される予定の場所を撮影すると、仮想物体表示装置100は歩廊をモデル化した製作済み仮想物体である仮想物体300(の画像)を表示する。また、後記するステップS18で計測仮想物体となる物体を読み込み(計測)済みであれば、現場の映像に重ねて当該計測仮想物体も表示される。
作業者は、製作済み仮想物体である仮想物体300の位置・向きが正しいかを確認(判断)し、結果を仮想物体表示装置100に入力する。現場には仮想物体300の実物である歩廊は存在しないが、作業者は周辺の物体との位置関係を基に確認する。周辺の物体としては、歩廊が跨ぐタービンや配管などがある。
In step S14, the operator sets the virtual
The operator confirms (determines) whether the position and orientation of the
ステップS15において作業者は、表示された仮想物体300の位置・向きが正しいならば(ステップS15→OK)ステップS16に進み、ずれていれば(ステップS15→NG)ステップS13に戻る。ステップS13に戻ると作業者は、ステップS12で設定した仮想マーカと合うように実マーカを設置し直す。
In step S15, the operator proceeds to step S16 if the position and orientation of the displayed
ステップS16において作業者は、移動したり干渉を確認したりする。この例では、歩廊の手摺りが既設の配管と干渉しないかを確認するために、作業者は歩廊を設置するフロアの1つ上のフロアに移動する。このフロアは歩廊(仮想物体300)の右側の階段を下りた位置にあるフロアである。以下ではこのフロアを2階フロア(後記する仮想物体340参照)と記す。また作業者は、現場の映像と重ねて表示される仮想物体300を見て、歩廊と現場にある物体(配管など)が干渉しなかを確認する。
In step S16, the operator moves or confirms interference. In this example, the worker moves to the floor one floor above the floor where the corridor will be installed to make sure that the handrails in the corridor do not interfere with the existing piping. This floor is located down the stairs on the right side of the corridor (virtual object 300). In the following, this floor will be referred to as the second floor (see the
ステップS17において作業者は、作業を継続する場合にはステップS18に進む。
ステップS18において作業者は、仮想物体表示装置100を空間認識モードにして、計測仮想物体とする物体をスキャン(デプスセンサ153で読み取る)してステップS12に戻る。計測仮想物体とする物体は、仮想マーカを設定する物体や歩廊(仮想物体300)との干渉を確認する物体である。作業者は2階フロアや歩廊の手摺り付近の配管をスキャンする(デプスセンサ153で読み取る)。
In step S17, the worker proceeds to step S18 if he / she wants to continue the work.
In step S18, the operator sets the virtual
作業者が2階フロアをスキャンすると、仮想物体表示装置100は2階フロアの計測仮想物体を生成して表示する。図2記載の仮想物体340は、スキャンされて計測仮想物体にモデル化された2階フロアである。ステップS12に戻って作業者は、2階フロアである仮想物体340に仮想マーカ360を設定し、ステップS13,S14で2階フロアに実マーカを設置して読み込むことできる。すると仮想物体表示装置100は、この仮想マーカ360と実マーカを基準に、仮想物体を現場の映像に重ねて表示する。
When the worker scans the second floor, the virtual
また、作業者が配管をスキャンすると、仮想物体表示装置100は、仮想物体300の他にスキャンされた配管をモデル化した計測仮想物体を表示する。仮想物体表示装置100は、複数の仮想物体が重なっている場合に一方の仮想物体の重なっている部分を表示しない。作業者は、干渉する可能性がある手摺りがあるはずの空間(手摺りの画像として表示されている空間)を様々な位置や向きから撮影することで、干渉(表示されない仮想物体)の有無を確認する。
Further, when the operator scans the pipe, the virtual
≪仮想物体表示処理≫
図4は、本実施形態に係る仮想物体表示装置100が実行する仮想物体表示処理のフローチャートである。
ステップS31においてモデル情報取得部111は、作業者の指示(図3記載のステップS11参照)に従って製作済み仮想物体である仮想物体300の情報を取得してモデル情報131に格納する。
ステップS32においてマーカ設定部112は、作業者が指示(ステップS12参照)した仮想マーカの位置・向きを取得して設定する(マーカ情報133に格納する)。
≪Virtual object display processing≫
FIG. 4 is a flowchart of a virtual object display process executed by the virtual
In step S31, the model
In step S32, the
ステップS33においてマーカ認識部113は、カメラ151の撮影映像に含まれる実マーカを認識し、実マーカの位置および向きを取得する。以後、位置姿勢算出部114は、実マーカを基準とした仮想物体表示装置100の位置・向きを算出する。なおマーカ認識部113は、作業者がマーカ認識モードに切り替えたことを契機に撮影映像に含まれる実マーカの検出処理を開始して実マーカを認識する。
In step S33, the
ステップS34において表示制御部117は、カメラ151が撮影映像に仮想物体の画像を重畳して表示する。仮想物体がステップS31で取得した製作済み仮想物体である仮想物体300のみであれば、表示制御部117は撮影映像に仮想物体300の画像を重畳して表示する。後記するステップS37,S38で計測仮想物体(例えば2階フロアである仮想物体340)が取得されていれば、表示制御部117は仮想物体300の他に当該計測仮想物体も撮影画像に重畳して表示する。
In step S34, the
ステップS35において表示制御部117は、作業者による仮想物体の位置・向きが正しいかずれているかの判断結果(ステップS14,S15参照)を取得する。表示制御部117は、正しいならば(ステップS35→OK)ステップS36に進み、ずれているならば(ステップS35→NG)ステップS33に戻る。
ステップS36において表示制御部117は、作業者による終了の指示(ステップS17参照)があれば(ステップS36→YES)仮想物体表示処理を終了し、終了の指示がなければ(ステップS36→NO)ステップS37に進む。
In step S35, the
In step S36, the
ステップS37において空間認識部115は、デプスセンサ153の計測値に基づいて実空間にある物体(物体表面)を示す点群の位置を算出して、空間形状情報132に格納する。なお物体は、2階フロアや配管である(ステップS18参照)。また空間認識部115は、作業者が空間認識モードに切り替えたことを契機にデプスセンサ153を起動して、計測する。
In step S37, the
ステップS38において仮想物体生成部116は、空間形状情報132にある点群の位置情報に基づいて物体の形状・位置・向きを算出し、算出結果を計測仮想物体の情報に変換してモデル情報131に格納する。この変換された計測仮想物体には仮想物体340(図2参照)が含まれる。
In step S38, the virtual
ステップS39において表示制御部117は、カメラ151が撮影映像に仮想物体の画像を重畳して表示する。この仮想物体とは、歩廊や2階フロア、配管の仮想物体である。なお、複数の物体(の位置)が重なっている場合、表示制御部117は重なっている部分を表示しない。例えば、歩廊の仮想物体300と配管の仮想物体が重なっている場合、表示制御部117は仮想物体300の重なっている部分を表示しない。このように重なっている部分を表示しない処理は、ステップS34でも同様である。
In step S39, the
≪仮想物体表示処理の特徴≫
仮想物体表示装置100は、仮想マーカおよび実マーカを基準にして位置や向きが一致するように仮想物体を撮影画像に重畳して表示する。表示される仮想物体は予め準備された製作済み仮想物体(ステップS31で取得された仮想物体)に限らず、現場で取得された計測仮想物体(ステップS37~S38参照)も含む。
≪Characteristics of virtual object display processing≫
The virtual
仮想マーカが設定可能な仮想物体は、製作済み仮想物体限らず、計測仮想物体にも設定可能である(ステップS32参照)。このため作業者は、現場を移動して移動先の物体に対応する計測仮想物体に仮想マーカを設定可能となる。移動先において仮想マーカと実マーカとによる位置・向きの基準が設けられることになり、仮想物体表示装置100は、高精度に仮想物体を撮影画像に重畳して表示することができる。延いては、作業者は正確に設置予定の物体(例えば歩廊などの設備)と既設の物体(例えば配管)とが干渉するか否かを確認できるようになる。
The virtual object to which the virtual marker can be set is not limited to the manufactured virtual object, but can also be set to the measurement virtual object (see step S32). Therefore, the operator can move the site and set a virtual marker on the measurement virtual object corresponding to the moved object. A position / orientation reference based on the virtual marker and the real marker is provided at the moving destination, and the virtual
≪変形例:位置合わせ≫
上記した実施形態において仮想物体の位置がずれている場合には(ステップS15,S35→NG参照)実マーカを設置し直して(ステップS13参照)、読み込み直している(ステップS14,S33参照)。実マーカの設置し直しではなく、仮想マーカの設定し直し、または仮想物体の位置調整であってもよい。例えば仮想物体表示装置100が、実空間に設置した実マーカに合うように、仮想空間にある仮想物体上の仮想マーカを設定し直しや、現場の映像に表示される仮想物体の位置調整が行えるようにしてもよい。このようにすることで、作業者は仮想空間の座標系と実空間の座標系との一致が短時間で行えるようになる。
≪Transformation example: Alignment≫
When the position of the virtual object is deviated in the above embodiment (see steps S15 and S35 → NG), the actual marker is re-installed (see step S13) and reloaded (see steps S14 and S33). Instead of resetting the real marker, the virtual marker may be reset or the position of the virtual object may be adjusted. For example, the virtual
≪変形例:干渉確認≫
上記した実施形態において複数の仮想物体(の位置)が重なっている場合に、表示制御部117は重なっている部分を表示しない(ステップS39参照)。表示制御部117は、重なっている部分、または複数の物体で距離が所定値以下の部分を強調するように表示してもよい。表示制御部117は、このような部分を、例えば色を変える、物体間の距離が表示されたポップアップウィンドウを表示するなどして、強調してもよい。
≪Modification example: Interference confirmation≫
When a plurality of virtual objects (positions) overlap in the above embodiment, the
≪その他変形例≫
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
≪Other variants≫
Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and further, various modifications such as omission and substitution can be made without departing from the gist of the present invention. These embodiments and variations thereof are included in the scope and gist of the invention described in the present specification and the like, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.
100 仮想物体表示装置(表示装置)
111 モデル情報取得部
112 マーカ設定部
113 マーカ認識部
114 位置姿勢算出部
115 空間認識部
116 仮想物体生成部
117 表示制御部
132 空間形状情報(空間形状データ)
133 マーカ情報(仮想マーカ情報)
151 カメラ
153 デプスセンサ(空間センサ)
154 慣性センサ
300 仮想物体(製作済み仮想物体)
340 仮想物体(計測仮想物体)
350,360 仮想マーカ
100 Virtual object display device (display device)
111 Model
133 Marker information (virtual marker information)
151 Camera 153 Depth sensor (spatial sensor)
154
340 virtual object (measurement virtual object)
350,360 virtual marker
Claims (9)
実空間における物体の位置および向きを計測する空間センサと、
仮想空間における仮想マーカの位置および向きを含む仮想マーカ情報を記憶する記憶部と、
前記空間センサの計測結果から前記物体の空間形状データを生成する空間認識部と、
前記カメラが撮像した実マーカの位置および向きを認識するマーカ認識部と、
前記仮想空間内に前記空間センサの計測値に基づく計測仮想物体を生成する仮想物体生成部と、
前記カメラの撮像映像を表示する表示制御部とを備え、
前記仮想物体生成部は、
前記仮想空間における前記計測仮想物体の形状が前記物体の前記空間形状データに一致するように、
かつ、前記仮想空間における前記仮想マーカに対する前記計測仮想物体の位置および向きが、前記実空間における前記実マーカに対する前記物体の位置および向きと一致するように、前記仮想空間内に前記計測仮想物体を生成する
ことを特徴とする表示装置。 With the camera
Spatial sensors that measure the position and orientation of objects in real space,
A storage unit that stores virtual marker information including the position and orientation of virtual markers in virtual space,
A space recognition unit that generates space shape data of the object from the measurement results of the space sensor,
A marker recognition unit that recognizes the position and orientation of the actual marker imaged by the camera, and
A virtual object generation unit that generates a measurement virtual object based on the measurement value of the space sensor in the virtual space,
It is equipped with a display control unit that displays the captured image of the camera.
The virtual object generation unit is
So that the shape of the measured virtual object in the virtual space matches the space shape data of the object.
In addition, the measurement virtual object is placed in the virtual space so that the position and orientation of the measurement virtual object with respect to the virtual marker in the virtual space coincide with the position and orientation of the object with respect to the real marker in the real space. A display device characterized by producing.
前記表示制御部は、前記実マーカに対する位置および向きが、前記仮想マーカに対する前記製作済み仮想物体の位置および向きと一致する前記製作済み仮想物体の画像を、前記カメラの撮影画像に重畳して表示する
ことを特徴とする請求項1に記載の表示装置。 Information related to the manufactured virtual object existing in the virtual space is stored in the storage unit.
The display control unit superimposes and displays an image of the manufactured virtual object whose position and orientation with respect to the real marker matches the position and orientation of the manufactured virtual object with respect to the virtual marker. The display device according to claim 1, wherein the display device is characterized by the above.
前記計測仮想物体に第2仮想マーカを設定するマーカ設定部をさらに備え、
前記マーカ認識部は、前記計測仮想物体に対する前記第2仮想マーカの位置および向きに対応する前記物体の位置および向きに設置された第2実マーカの位置および向きを認識し、
前記表示制御部は、前記第2実マーカに対する位置および向きが、前記第2仮想マーカに対する前記製作済み仮想物体の位置および向きと一致する前記製作済み仮想物体の画像を、前記カメラの撮影画像に重畳して表示する
ことを特徴とする請求項1に記載の表示装置。 Information related to the manufactured virtual object existing in the virtual space is stored in the storage unit.
Further, a marker setting unit for setting a second virtual marker on the measurement virtual object is provided.
The marker recognition unit recognizes the position and orientation of the second real marker installed at the position and orientation of the object corresponding to the position and orientation of the second virtual marker with respect to the measurement virtual object.
The display control unit uses an image of the manufactured virtual object whose position and orientation with respect to the second real marker coincides with the position and orientation of the manufactured virtual object with respect to the second virtual marker as an image taken by the camera. The display device according to claim 1, wherein the display device is superimposed and displayed.
ことを特徴とする請求項2~3の何れか1項に記載の表示装置。 The display control unit is characterized in that an image of a virtual object whose position and orientation with respect to the real marker matches the position and orientation of the measurement virtual object with respect to the virtual marker is superimposed on the captured image of the camera. The display device according to any one of claims 2 to 3.
ことを特徴とする請求項4に記載の表示装置。 The display control unit is characterized in that when the measured virtual object and the manufactured virtual object overlap in the virtual space, the image of the overlapping portion of the measured virtual object or the overlapping portion of the manufactured virtual object is not displayed. The display device according to claim 4.
ことを特徴とする請求項4に記載の表示装置。 In the display control unit, the distance between the portion where the measurement virtual object and the manufactured virtual object overlap in the virtual space, or the portion between the measurement virtual object and the manufactured virtual object, and the distance between the two portions is set. The display device according to claim 4, wherein a portion of a predetermined value or less is highlighted and displayed.
前記仮想物体生成部は、前記仮想空間内にあり、形状が当該空間形状データに一致する仮想物体であって、前記第2仮想マーカに対する位置および向きが前記第2実マーカに対する前記第2物体の位置および向きと一致する第2計測仮想物体を生成し、
前記表示制御部は、前記第2実マーカに対する位置および向きが、前記第2仮想マーカに対する前記第2計測仮想物体の位置および向きと一致する前記第2計測仮想物体の画像を、前記カメラの撮影画像に重畳して表示する
ことを特徴とする請求項3に記載の表示装置。 The space recognition unit generates space shape data of the second object from the measurement result of the space sensor, and generates the space shape data.
The virtual object generation unit is a virtual object that is in the virtual space and whose shape matches the space shape data, and the position and orientation with respect to the second virtual marker is the position and orientation of the second object with respect to the second real marker. Generate a second measurement virtual object that matches the position and orientation,
The display control unit captures an image of the second measurement virtual object whose position and orientation with respect to the second real marker coincides with the position and orientation of the second measurement virtual object with respect to the second virtual marker. The display device according to claim 3, wherein the display device is superimposed on an image and displayed.
実空間における物体の位置および向きを計測する空間センサと、
仮想空間における仮想マーカの位置および向きを含む仮想マーカ情報を記憶する記憶部とを備えるコンピュータを、
前記空間センサの計測結果から前記物体の空間形状データを生成する空間認識部と、
前記カメラが撮像した実マーカの位置および向きを認識するマーカ認識部と、
前記仮想空間内に前記空間センサの計測値に基づく計測仮想物体を生成する仮想物体生成部と、
前記カメラの撮像映像を表示する表示制御部とを備え、
前記仮想物体生成部は、
前記仮想空間における前記計測仮想物体の形状が前記物体の前記空間形状データに一致するように、
かつ、前記仮想空間における前記仮想マーカに対する前記計測仮想物体の位置および向きが、前記実空間における前記実マーカに対する前記物体の位置および向きと一致するように、前記仮想空間内に前記計測仮想物体を生成する
表示装置として機能させるためのプログラム。 With the camera
Spatial sensors that measure the position and orientation of objects in real space,
A computer equipped with a storage unit that stores virtual marker information including the position and orientation of the virtual marker in the virtual space.
A space recognition unit that generates space shape data of the object from the measurement results of the space sensor,
A marker recognition unit that recognizes the position and orientation of the actual marker imaged by the camera, and
A virtual object generation unit that generates a measurement virtual object based on the measurement value of the space sensor in the virtual space,
It is equipped with a display control unit that displays the captured image of the camera.
The virtual object generation unit is
So that the shape of the measured virtual object in the virtual space matches the space shape data of the object.
In addition, the measurement virtual object is placed in the virtual space so that the position and orientation of the measurement virtual object with respect to the virtual marker in the virtual space coincide with the position and orientation of the object with respect to the real marker in the real space. A program to function as a display device to generate.
実空間における物体の位置および向きを計測する空間センサと、
仮想空間における仮想マーカの位置および向きを含む仮想マーカ情報を記憶する記憶部とを備える表示装置が、
前記空間センサの計測結果から前記物体の空間形状データを生成するステップと、
前記カメラが撮像した実マーカの位置および向きを認識するステップと、
前記仮想空間内に前記空間センサの計測値に基づく計測仮想物体を生成するステップと、
前記カメラの撮像映像を表示するステップとを実行し、
前記仮想空間における前記計測仮想物体の形状は、前記物体の前記空間形状データに一致し、
前記仮想空間における前記仮想マーカに対する前記計測仮想物体の位置および向きが、前記実空間における前記実マーカに対する前記物体の位置および向きと一致する
表示方法。 With the camera
Spatial sensors that measure the position and orientation of objects in real space,
A display device including a storage unit that stores virtual marker information including the position and orientation of the virtual marker in the virtual space.
A step of generating spatial shape data of the object from the measurement result of the spatial sensor, and
The step of recognizing the position and orientation of the actual marker imaged by the camera,
A step of generating a measurement virtual object based on the measurement value of the space sensor in the virtual space,
The step of displaying the captured image of the camera is executed.
The shape of the measured virtual object in the virtual space matches the space shape data of the object, and
A display method in which the position and orientation of the measured virtual object with respect to the virtual marker in the virtual space coincide with the position and orientation of the object with respect to the real marker in the real space.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021150427A JP7042380B1 (en) | 2021-09-15 | 2021-09-15 | Display device, program and display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021150427A JP7042380B1 (en) | 2021-09-15 | 2021-09-15 | Display device, program and display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7042380B1 true JP7042380B1 (en) | 2022-03-25 |
JP2023042981A JP2023042981A (en) | 2023-03-28 |
Family
ID=81214407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021150427A Active JP7042380B1 (en) | 2021-09-15 | 2021-09-15 | Display device, program and display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7042380B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024019807A1 (en) * | 2022-07-18 | 2024-01-25 | Nant Holdings Ip, Llc | Determining a camera control point for virtual production |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213355A (en) | 2002-12-27 | 2004-07-29 | Canon Inc | Information processing method |
JP2007064684A (en) | 2005-08-29 | 2007-03-15 | Canon Inc | Marker arrangement assisting method and device therefor |
JP2008046687A (en) | 2006-08-10 | 2008-02-28 | Canon Inc | Photographic environment calibration method and information processor |
JP2012033119A (en) | 2010-08-03 | 2012-02-16 | Hitachi Ltd | Three-dimensional environment generation system |
JP2015204079A (en) | 2014-04-16 | 2015-11-16 | 富士通株式会社 | Display method, display program and display device |
JP2017016577A (en) | 2015-07-06 | 2017-01-19 | キヤノン株式会社 | Information processor, and control method, and program, for the same |
JP2019066292A (en) | 2017-09-29 | 2019-04-25 | 株式会社Nttドコモ | Video display system |
JP2020523713A (en) | 2017-06-14 | 2020-08-06 | ライティックス システムズ リミテッド | Method and system for generating adaptive projected reality at a construction site |
JP2020194214A (en) | 2019-05-24 | 2020-12-03 | 鹿島建設株式会社 | Image display device |
WO2021040010A1 (en) | 2019-08-30 | 2021-03-04 | ソニー株式会社 | Information processing device, and control method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7346245B2 (en) * | 2019-10-30 | 2023-09-19 | 北陸電気工事株式会社 | Construction site recording program |
-
2021
- 2021-09-15 JP JP2021150427A patent/JP7042380B1/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213355A (en) | 2002-12-27 | 2004-07-29 | Canon Inc | Information processing method |
JP2007064684A (en) | 2005-08-29 | 2007-03-15 | Canon Inc | Marker arrangement assisting method and device therefor |
JP2008046687A (en) | 2006-08-10 | 2008-02-28 | Canon Inc | Photographic environment calibration method and information processor |
JP2012033119A (en) | 2010-08-03 | 2012-02-16 | Hitachi Ltd | Three-dimensional environment generation system |
JP2015204079A (en) | 2014-04-16 | 2015-11-16 | 富士通株式会社 | Display method, display program and display device |
JP2017016577A (en) | 2015-07-06 | 2017-01-19 | キヤノン株式会社 | Information processor, and control method, and program, for the same |
JP2020523713A (en) | 2017-06-14 | 2020-08-06 | ライティックス システムズ リミテッド | Method and system for generating adaptive projected reality at a construction site |
JP2019066292A (en) | 2017-09-29 | 2019-04-25 | 株式会社Nttドコモ | Video display system |
JP2020194214A (en) | 2019-05-24 | 2020-12-03 | 鹿島建設株式会社 | Image display device |
WO2021040010A1 (en) | 2019-08-30 | 2021-03-04 | ソニー株式会社 | Information processing device, and control method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024019807A1 (en) * | 2022-07-18 | 2024-01-25 | Nant Holdings Ip, Llc | Determining a camera control point for virtual production |
US11924561B2 (en) | 2022-07-18 | 2024-03-05 | Nant Holdings, LLC | Determining a camera control point for virtual production |
Also Published As
Publication number | Publication date |
---|---|
JP2023042981A (en) | 2023-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20170256097A1 (en) | Local positioning system for augmented reality applications | |
CN111033536A (en) | Method and system for generating adaptive projected reality at construction site | |
JP2009543220A (en) | Method and system for automatically performing a multidimensional space survey | |
US20150268033A1 (en) | Relative Object Localization Process for Local Positioning System | |
KR20110068469A (en) | The method for 3d object information extraction from single image without meta information | |
JP7003594B2 (en) | 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium | |
US11288877B2 (en) | Method for matching a virtual scene of a remote scene with a real scene for augmented reality and mixed reality | |
JP6451139B2 (en) | Arrangement plan support system, arrangement plan support method, and arrangement plan support program | |
JP7042380B1 (en) | Display device, program and display method | |
JPWO2020003497A1 (en) | Imaging equipment calibration equipment, monitoring equipment, work machines and calibration methods | |
CN113124883B (en) | Off-line punctuation method based on 3D panoramic camera | |
JP6386263B2 (en) | Image forming apparatus, image forming system, and image forming program | |
JP5669438B2 (en) | Object management image generation apparatus and object management image generation program | |
US20230142960A1 (en) | Construction of formwork and scaffolding using mobile devices | |
Wang et al. | A construction progress on-site monitoring and presentation system based on the integration of augmented reality and BIM | |
US20230384095A1 (en) | System and method for controlling a light projector in a construction site | |
JP2668034B2 (en) | Construction equipment | |
JP2014035341A (en) | System and method for measuring installation accuracy of construction members | |
JP6932062B2 (en) | Piping completion drawing creation system and piping construction drawing creation method, as well as flying objects and pipe joint position calculation devices used in the piping completion drawing creation system | |
JP6912996B2 (en) | Offset map creation support system and offset map creation support method, as well as flying objects and offset map creation support devices used in the offset map creation support system. | |
JP2020194214A (en) | Image display device | |
JP6722000B2 (en) | Surveying support device | |
KR101189167B1 (en) | The method for 3d object information extraction from single image without meta information | |
JP2022178396A (en) | Guiding type remote operation method and device | |
JP2003271993A (en) | Monitor image processing method, image monitoring system, and maintenance work system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210915 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7042380 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |