JP2021064267A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2021064267A
JP2021064267A JP2019189556A JP2019189556A JP2021064267A JP 2021064267 A JP2021064267 A JP 2021064267A JP 2019189556 A JP2019189556 A JP 2019189556A JP 2019189556 A JP2019189556 A JP 2019189556A JP 2021064267 A JP2021064267 A JP 2021064267A
Authority
JP
Japan
Prior art keywords
design
virtual object
unit
image
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019189556A
Other languages
Japanese (ja)
Other versions
JP7403273B2 (en
Inventor
寛幸 野本
Hiroyuki Nomoto
寛幸 野本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Plant Systems and Services Corp
Original Assignee
Toshiba Plant Systems and Services Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Plant Systems and Services Corp filed Critical Toshiba Plant Systems and Services Corp
Priority to JP2019189556A priority Critical patent/JP7403273B2/en
Publication of JP2021064267A publication Critical patent/JP2021064267A/en
Application granted granted Critical
Publication of JP7403273B2 publication Critical patent/JP7403273B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image processing apparatus configured to superimpose a different part between a designed design member and a design member arranged in a real space on a real-space image, and an image processing method.SOLUTION: An image processing apparatus includes an alignment unit, a difference processing unit, an image processing unit, and a display unit. The alignment unit aligns a three-dimensional model space generated based on a design member designed by computer-assisted design where a virtual object is arranged with a coordinate system of a real space. The difference processing unit generates a difference between the virtual object and three-dimensional member data corresponding to the virtual object, as a second virtual object. The image processing unit generates an image of the second virtual object to be observed from a viewing position of a user, in association with a real-space image, on the basis of the alignment. The display unit superimposes the second virtual object on the real-space image.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、画像処理装置、及び画像処理方法に関する。 Embodiments of the present invention relate to an image processing apparatus and an image processing method.

現実空間画像に仮想オブジェクトを重ねて表示する画像処理装置が知られている。一方で、施工現場では、3次元CADシステムで設計された3次元の設計部材の情報を用いて2次元の施工用の施工図面を起こしている。 An image processing device that superimposes a virtual object on a real space image and displays it is known. On the other hand, at the construction site, a construction drawing for two-dimensional construction is created using the information of the three-dimensional design member designed by the three-dimensional CAD system.

ところが二次元の施工図面から3次元の設計部材を施工する場合に、人の認識ミスなどにより施工を間違ってしまう恐れがある。 However, when constructing a three-dimensional design member from a two-dimensional construction drawing, there is a risk that the construction will be mistaken due to a human recognition error or the like.

特開2012−94102号公報Japanese Unexamined Patent Publication No. 2012-94102

本発明が解決しようとする課題は、コンピュータ支援設計により設計された設計部材と現実空間に配置された設計部材との相違箇所を現実空間画像に重畳可能な画像処理装置、及び画像処理方法を提供することである。 The problem to be solved by the present invention is to provide an image processing device capable of superimposing a difference between a design member designed by computer-aided design and a design member arranged in the real space on a real space image, and an image processing method. It is to be.

本実施形態に係る画像処理装置は、位置合わせ部と、差分処理部と、画像処理部と、表示部と、を備える。位置合わせ部は、コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。差分処理部は、仮想オブジェクトと、現実空間内の設計部材に基づき生成された3次元部材データとの差分を、第2仮想オブジェクトとして生成する。画像処理部は、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される第2仮想オブジェクトの画像を生成する。表示部は、現実空間画像と第2仮想オブジェクトとを重畳表示する。 The image processing apparatus according to the present embodiment includes an alignment unit, a difference processing unit, an image processing unit, and a display unit. The alignment unit aligns the coordinate system of the three-dimensional model space in which the virtual object generated based on the design member designed by the computer-aided design is arranged and the coordinate system of the real space. The difference processing unit generates a difference between the virtual object and the three-dimensional member data generated based on the design member in the real space as the second virtual object. Based on the alignment, the image processing unit generates an image of the second virtual object observed from the user's viewpoint position in correspondence with the real space image observed from the user's viewpoint position. The display unit superimposes and displays the real space image and the second virtual object.

本実施形態によれば、コンピュータ支援設計により設計された設計部材と現実空間に配置された設計部材との相違箇所を現実空間画像に重畳できる。 According to this embodiment, the difference between the design member designed by the computer-aided design and the design member arranged in the real space can be superimposed on the real space image.

本実施形態に係る画像処理装置の構成を示すブロック図。The block diagram which shows the structure of the image processing apparatus which concerns on this embodiment. 複数の計算メッシュで構成される計算格子を示す図。The figure which shows the calculation grid which consists of a plurality of calculation meshes. 設計部材に付与された属性情報を示す図。The figure which shows the attribute information given to the design member. 設計処理部により生成された設計部材を模式的に示す図。The figure which shows typically the design member generated by the design processing part. 設計処理部により生成された既設のフランジ管の設計部材を模式的に示す図。The figure which shows typically the design member of the existing flange pipe generated by the design processing part. 設計部材に基づく仮想オブジェクトの断面図。Sectional view of a virtual object based on a design member. 現実空間内のフランジ管を示す図。The figure which shows the flange tube in the real space. 現実空間内の設計部材に基づく3次元部材データの断面図。Cross-sectional view of 3D member data based on the design member in the real space. 設計部材に基づく仮想オブジェクトを現実空間に重畳した断面図。A cross-sectional view of a virtual object based on a design member superimposed on the real space. L型アングル材の2次仮想オブジェクトを現実空間に重畳した図。The figure which superposed the secondary virtual object of the L-shaped angle material on the real space. 画像処理装置における画像処理の流れを示すフローチャート。The flowchart which shows the flow of image processing in an image processing apparatus.

以下、本発明の実施形態に係る画像処理装置、及び画像処理方法について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は、本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分又は同様な機能を有する部分には同一の符号又は類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。 Hereinafter, the image processing apparatus and the image processing method according to the embodiment of the present invention will be described in detail with reference to the drawings. The embodiments shown below are examples of the embodiments of the present invention, and the present invention is not construed as being limited to these embodiments. Further, in the drawings referred to in the present embodiment, the same parts or parts having similar functions are designated by the same reference numerals or similar reference numerals, and the repeated description thereof may be omitted. In addition, the dimensional ratio of the drawing may differ from the actual ratio for convenience of explanation, or a part of the configuration may be omitted from the drawing.

(一実施形態)
図1は、本実施形態に係る画像処理装置1の構成を示すブロック図である。図1を用いて、画像処理装置1の構成例を説明する。図1に示すように、本実施形態に係る画像処理装置1は、カメラで撮影した現実空間と3次元モデル空間とを位置合わせし、現実空間画像と仮想オブジェクトの画像とを重畳表示する装置である。この画像処理装置1は、頭部装着映像部10と、設計部20と、表示部30と、マーカ40とを備えて構成されている。
(One Embodiment)
FIG. 1 is a block diagram showing a configuration of an image processing device 1 according to the present embodiment. A configuration example of the image processing apparatus 1 will be described with reference to FIG. As shown in FIG. 1, the image processing device 1 according to the present embodiment is a device that aligns a real space photographed by a camera with a three-dimensional model space and superimposes and displays a real space image and an image of a virtual object. is there. The image processing device 1 includes a head-mounted image unit 10, a design unit 20, a display unit 30, and a marker 40.

頭部装着映像部10は、例えばウェアラブルコンピュータであり、操作者の頭部に装着する装置である。頭部装着映像部10の詳細な構成は後述する。 The head-mounted image unit 10 is, for example, a wearable computer, which is a device worn on the operator's head. The detailed configuration of the head-mounted image unit 10 will be described later.

設計部20は、例えば、CPU(Central Processing Unit)を含んで構成され、設計空間の座標系に設計部材を配置する。この設計部20は、例えばキャド(CAD:computer−aided design)であり、3次元CADモデルを有する設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する。この設計部20は、属性情報付与部202と、設計処理部204と、入力操作部206と、を有する。 The design unit 20 is configured to include, for example, a CPU (Central Processing Unit), and arranges design members in the coordinate system of the design space. The design unit 20 is, for example, a CAD (CAD: computer-aided design), generates a design member using a design support tool having a three-dimensional CAD model, and arranges the design member in the three-dimensional model space for design. .. The design unit 20 includes an attribute information giving unit 202, a design processing unit 204, and an input operation unit 206.

属性情報付与部202は、後述の設計処理部204により生成する設計部材に属性情報を付与する。例えば、属性情報付与部202は、3次元CADモデルを選択するための3次元CADモデル属性情報を付与する。 The attribute information giving unit 202 gives attribute information to the design member generated by the design processing unit 204 described later. For example, the attribute information giving unit 202 gives the three-dimensional CAD model attribute information for selecting the three-dimensional CAD model.

設計処理部204は、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する。この設計処理部204は、属性情報付与部202により付与された属性情報に基づき、設計部材を生成し、設計用の3次元モデル空間に配置する。例えば、設計処理部204は、属性情報付与部202により付与された3次元CADモデル属性情報に基づき、設計用の3次元CADモデルの中から設計部材を選択する。なお、属性情報付与部202および設計処理部204の詳細は後述する。 The design processing unit 204 generates a design member by using the design support tool, and arranges the design member in the three-dimensional model space for design. The design processing unit 204 generates a design member based on the attribute information given by the attribute information giving unit 202, and arranges the design member in the three-dimensional model space for design. For example, the design processing unit 204 selects a design member from the three-dimensional CAD model for design based on the three-dimensional CAD model attribute information given by the attribute information giving unit 202. The details of the attribute information giving unit 202 and the design processing unit 204 will be described later.

入力操作部206は、設計部20を含む頭部装着映像部10の操作に必要となる情報を入力する。入力操作部206は、例えばキーボード、マウス、ポインティングデバイスなどにより構成される。また、入力操作部206は、仮想のキーボードやテンキーとして頭部装着映像部10などに映し出し、使用可能である。 The input operation unit 206 inputs information necessary for operating the head-mounted image unit 10 including the design unit 20. The input operation unit 206 includes, for example, a keyboard, a mouse, a pointing device, and the like. Further, the input operation unit 206 can be used by projecting it on the head-mounted image unit 10 or the like as a virtual keyboard or numeric keypad.

表示部30は、各種の情報を表示する。例えば、表示部30は、設計部20により生成された各種の情報を表示する。また、表示部30は、後述する出力処理部110dの出力信号を用いて現実空間画像と仮想オブジェクトとを重畳表示することも可能である。例えば、表示部30は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ等によって構成される。 The display unit 30 displays various types of information. For example, the display unit 30 displays various information generated by the design unit 20. Further, the display unit 30 can superimpose and display the real space image and the virtual object by using the output signal of the output processing unit 110d described later. For example, the display unit 30 is composed of a liquid crystal display, a CRT (Cathode Ray Tube) display, or the like.

マーカ40は、2次元の幾何模様を有するマーカであり、現実空間の座標系と、設計用の3次元モデル空間の座標系とを対応付けるために用いられる。 The marker 40 is a marker having a two-dimensional geometric pattern, and is used to associate the coordinate system in the real space with the coordinate system in the three-dimensional model space for design.

ここで、頭部装着映像部10の詳細な構成を説明する。頭部装着映像部10は、CPUを含んで構成され、複数のカメラ102と、マイク104と、3次元計測部105と、入力処理部106と、データ蓄積部107と、認識処理部108と、画像制御処理部110と、液晶画面112と、スピーカ114とを有している。 Here, the detailed configuration of the head-mounted image unit 10 will be described. The head-mounted image unit 10 includes a CPU, and includes a plurality of cameras 102, a microphone 104, a three-dimensional measurement unit 105, an input processing unit 106, a data storage unit 107, and a recognition processing unit 108. It has an image control processing unit 110, a liquid crystal screen 112, and a speaker 114.

カメラ102は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary MOS)カメラのようなカラーデジタルカメラによって構成される。カメラ102毎は、現実空間の現実空間画像を画像データとして出力する。カメラ102が撮像した画像データは入力処理部106を介して画像制御処理部110に出力される。 The camera 102 is composed of a color digital camera such as a CCD (Charge Coupled Device) camera or a CMOS (Complementary MOS) camera, for example. Each camera 102 outputs a real space image of the real space as image data. The image data captured by the camera 102 is output to the image control processing unit 110 via the input processing unit 106.

マイク104は、操作者の発生する例えばジェスチャとしての音声を集音し、音声データを出力する。マイク104は、集音した音声データを、入力処理部106を介して音声認識処理部108aに出力する。 The microphone 104 collects the voice generated by the operator, for example, as a gesture, and outputs the voice data. The microphone 104 outputs the collected voice data to the voice recognition processing unit 108a via the input processing unit 106.

3次元計測部105は、例えば3Dレーザ計測装置であり、非接触計測により、対象構造物の表面(例えば建造物の屋内(通路や部屋)であれば内壁面)の位置、および設計部材の3次元部材データ(アズビルトデータ)を計測する装置である。 The three-dimensional measuring unit 105 is, for example, a 3D laser measuring device, and by non-contact measurement, the position of the surface of the target structure (for example, the inner wall surface in the case of an indoor (passage or room) of a building) and the design member 3 It is a device that measures three-dimensional member data (as-built data).

例えば3次元計測部105が3Dレーザ計測装置の場合、現実空間内の基準位置(例えば基準マーク)に3Dレーザ計測装置を配置する。そして3Dレーザ計測装置は、対象構造物に向かってレーザを走査する。次に3Dレーザ計測装置は対象構造物で反射したレーザを受光し、基準位置からの距離を計測して、レーザの出力方向と距離から対象構造物の表面点の3次元座標を算出する。 For example, when the three-dimensional measuring unit 105 is a 3D laser measuring device, the 3D laser measuring device is arranged at a reference position (for example, a reference mark) in the real space. The 3D laser measuring device then scans the laser toward the target structure. Next, the 3D laser measuring device receives the laser reflected by the target structure, measures the distance from the reference position, and calculates the three-dimensional coordinates of the surface point of the target structure from the output direction and distance of the laser.

すなわち、3次元計測部105は、非接触計測により自身が設置されている基準位置を基に、対象構造物の表面上までの距離を測定し、それらの形状データ(例えば、点群データ)を得る。形状データは、レーザ計測により測定された空間の範囲を示す点群データであり、例えば物が置かれていない箱形の室内では、箱形の形状を示すものとなる。或いは設計部材が配置されている場合には、設計部材の形状をした3次元部材データと箱形の形状とを示すものとなる。これらの形状データは、データ蓄積部107に蓄積される。この場合、現実空間内の設計部材の全範囲を測定するために、基準位置を複数用いることが可能である。 That is, the three-dimensional measuring unit 105 measures the distance to the surface of the target structure based on the reference position where it is installed by non-contact measurement, and collects the shape data (for example, point cloud data) of them. obtain. The shape data is point cloud data indicating the range of space measured by laser measurement, and indicates a box shape in a box-shaped room where no object is placed, for example. Alternatively, when the design member is arranged, the three-dimensional member data in the shape of the design member and the box-shaped shape are shown. These shape data are stored in the data storage unit 107. In this case, a plurality of reference positions can be used to measure the entire range of the design member in the real space.

3次元計測部105としては、3Dレーザ以外にも光から電波までの指向性を持つ電磁波測定装置、超音波測定装置、およびステレオビジョン測定装置などの機器を用いることができる。なお、3次元計測部105は、頭部装着映像部10に装着して使用してもよい。この場合には、後述の3次元空間認識処理部108cの位置姿勢情報を用いて基点座標及び座標軸を時系列に決めることが可能である。 As the three-dimensional measuring unit 105, devices such as an electromagnetic wave measuring device, an ultrasonic measuring device, and a stereovision measuring device having directivity from light to radio waves can be used in addition to the 3D laser. The three-dimensional measurement unit 105 may be attached to the head-mounted image unit 10 for use. In this case, it is possible to determine the base point coordinates and the coordinate axes in time series by using the position / orientation information of the three-dimensional space recognition processing unit 108c described later.

入力処理部106は、位置合わせ部106aと、座標統合部106bと、変換部106cと、を有する。
位置合わせ部106aは、設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。より具体的には、カメラ102が撮像したマーカ40の情報を用いて、頭部装着映像部10の位置姿勢を認識し、3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。例えば、本実施形態に係るマーカ40は、3次元モデル空間の座標系の座標原点に配置されている。このため、マーカ40は、3次元モデル空間の座標系の座標原点に対応する現実空間の位置に配置され、マーカ40の撮像画像データに基づき、頭部装着映像部10の位置姿勢が認識される。
The input processing unit 106 includes an alignment unit 106a, a coordinate integration unit 106b, and a conversion unit 106c.
The alignment unit 106a aligns the coordinate system of the three-dimensional model space in which the virtual object generated based on the design member is arranged and the coordinate system of the real space. More specifically, using the information of the marker 40 captured by the camera 102, the position and orientation of the head-mounted image unit 10 are recognized, and the coordinate system in the three-dimensional model space and the coordinate system in the real space are aligned. I do. For example, the marker 40 according to the present embodiment is arranged at the coordinate origin of the coordinate system in the three-dimensional model space. Therefore, the marker 40 is arranged at a position in the real space corresponding to the coordinate origin of the coordinate system in the three-dimensional model space, and the position and orientation of the head-mounted image unit 10 are recognized based on the captured image data of the marker 40. ..

座標統合部106bは、基準位置からスキャンして計測されたローカル座標系の点群データを現実空間の座標系に統合し、3次元部材データを含む統合形状データを生成する。なお、現実空間内の異なる計測位置における複数の点群データが得られた場合、各々の基準位置で計測されたローカル座標系の複数の点群データを統合し、現実空間の座標系の統合形状データを生成する。この際に、3次元部材データは、現実空間の座標系に対応付けられる。 The coordinate integration unit 106b integrates the point cloud data of the local coordinate system measured by scanning from the reference position into the coordinate system of the real space, and generates integrated shape data including the three-dimensional member data. When multiple point cloud data at different measurement positions in the real space are obtained, the multiple point cloud data of the local coordinate system measured at each reference position are integrated, and the integrated shape of the coordinate system in the real space is integrated. Generate data. At this time, the three-dimensional member data is associated with the coordinate system in the real space.

変換部106cは、設計処理部204により生成された設計部材の情報を仮想オブジェクトに変換する。より、具体的には、変換部106cは、3次元モデル空間に配置された設計部材の情報、例えば3次元CADモデルの情報を用いて、設計部材を3次元モデル空間に配置された仮想オブジェクトに変換する。 The conversion unit 106c converts the information of the design member generated by the design processing unit 204 into a virtual object. More specifically, the conversion unit 106c uses the information of the design member arranged in the 3D model space, for example, the information of the 3D CAD model, to make the design member into a virtual object arranged in the 3D model space. Convert.

データ蓄積部107は、例えばハードディスクドライブ装置やメモリなどで構成される。データ蓄積部107には、上述のように、座標統合部106bを介して取得された形状データが蓄積される。また、座標統合部106bにより統合された現実空間の座標系に関連付けられた3次元部材データなどを含む統合形状データなどが蓄積される。 The data storage unit 107 is composed of, for example, a hard disk drive device or a memory. As described above, the data storage unit 107 stores the shape data acquired via the coordinate integration unit 106b. In addition, integrated shape data including three-dimensional member data associated with the coordinate system in the real space integrated by the coordinate integration unit 106b is accumulated.

認識処理部108は、音声認識処理部108aと、画像認識処理部108bと、3次元空間認識処理部108cと、を有する。
音声認識処理部108aは、マイク104が集音した音声データを指示コードに変換する。例えば、頭部装着映像部10は、この指示コードに従った制御動作を行う。
The recognition processing unit 108 includes a voice recognition processing unit 108a, an image recognition processing unit 108b, and a three-dimensional space recognition processing unit 108c.
The voice recognition processing unit 108a converts the voice data collected by the microphone 104 into an instruction code. For example, the head-mounted image unit 10 performs a control operation according to this instruction code.

画像認識処理部108bは、重畳表示された画像内における現実空間画像内の座標と、仮想オブジェクトの画像上における座標との間の距離情報を取得する。 The image recognition processing unit 108b acquires the distance information between the coordinates in the real space image in the superimposed and displayed image and the coordinates in the image of the virtual object.

3次元空間認識処理部108cは、例えばカメラ102が撮像した画像データに基づき、現実空間内の画像から抽出された自然特徴点の3次元座標をSfM(Structure from Motion)により算出し、ランドマークデータとして記憶する。そして、3次元空間認識処理部108cは、ランドマークデータとカメラ102が撮像した画像データから得られる自然特徴点との対応関係に基づき、頭部装着映像部10の位置姿勢を推定する。このように、マーカ40が撮像されない場合にも、現実空間内の座標系における頭部装着映像部10の位置姿勢、及び頭部装着映像部10に装着時の3次元計測部105の基準座標の推定が可能となる。 The three-dimensional space recognition processing unit 108c calculates the three-dimensional coordinates of the natural feature points extracted from the image in the real space based on the image data captured by the camera 102, for example, by SfM (Structure from Motion), and the landmark data. Remember as. Then, the three-dimensional space recognition processing unit 108c estimates the position and orientation of the head-mounted image unit 10 based on the correspondence between the landmark data and the natural feature points obtained from the image data captured by the camera 102. In this way, even when the marker 40 is not imaged, the position and orientation of the head-mounted image unit 10 in the coordinate system in the real space and the reference coordinates of the three-dimensional measuring unit 105 when mounted on the head-mounted image unit 10 It can be estimated.

画像処理制御部110は、制御部110aと、差分処理部110bと、画像処理部110cと、出力処理部110dとを有する。
制御部110aは、画像処理装置1全体を制御する。
The image processing control unit 110 includes a control unit 110a, a difference processing unit 110b, an image processing unit 110c, and an output processing unit 110d.
The control unit 110a controls the entire image processing device 1.

差分処理部110bは、仮想オブジェクトと、仮想オブジェクトに対応する3次元部材データとの差分を第2仮想オブジェクトとして生成する。仮想オブジェクトには、位置合わせ部106aによる座標系の位置合わせにより、現実空間内の座標系が属性情報として関連付けられている。差分処理部110bは、この属性情報を用いて、第2仮想オブジェクトを生成する。差分処理部110bの詳細は後述する。 The difference processing unit 110b generates a difference between the virtual object and the three-dimensional member data corresponding to the virtual object as the second virtual object. The coordinate system in the real space is associated with the virtual object as attribute information by the alignment of the coordinate system by the alignment unit 106a. The difference processing unit 110b uses this attribute information to generate a second virtual object. The details of the difference processing unit 110b will be described later.

画像処理部110cは、位置合わせ部106aによる位置合わせに基づき、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される第2仮想オブジェクト及び仮想オブジェクトの少なくとも一方の画像とを合成する。より具体的には、画像処理部110cは、位置合わせ部106aによる位置合わせが終了した後には、3次元空間認識処理部108cにより推定される頭部装着映像部10の位置姿勢に基づき、設計部材に基づき生成された仮想オブジェクト、及び差分処理部110bにより生成された第2仮想オブジェクトの位置及び形状を変更して、現実空間画像に重畳する。また、画像処理部110cは、例えば3次元部材データをメッシュ形状で示す3次元部材オブジェクトを生成し、現実空間画像に重畳する。この場合にも、3次元空間認識処理部108cにより推定される頭部装着映像部10の位置姿勢に基づき、3次元部材オブジェクトの位置及び形状を変更して、現実空間画像に重畳する。 The image processing unit 110c is the at least one of the real space image observed from the user's viewpoint position and the second virtual object and the virtual object observed from the user's viewpoint position based on the alignment by the alignment unit 106a. Combine with the image. More specifically, the image processing unit 110c is a design member based on the position and orientation of the head-mounted image unit 10 estimated by the three-dimensional space recognition processing unit 108c after the alignment by the alignment unit 106a is completed. The position and shape of the virtual object generated based on the above and the second virtual object generated by the difference processing unit 110b are changed and superimposed on the real space image. Further, the image processing unit 110c generates, for example, a three-dimensional member object showing the three-dimensional member data in a mesh shape and superimposes the three-dimensional member object on the real space image. Also in this case, the position and shape of the three-dimensional member object are changed based on the position and orientation of the head-mounted image unit 10 estimated by the three-dimensional space recognition processing unit 108c, and superimposed on the real space image.

出力処理部110dは、画像処理部110cなどから入力されたデータ形式を変換して、表示部30、液晶画面112、及びスピーカ114に出力する。 The output processing unit 110d converts the data format input from the image processing unit 110c or the like and outputs the data format to the display unit 30, the liquid crystal screen 112, and the speaker 114.

液晶画面112は、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される第2仮想オブジェクト及び仮想オブジェクトの少なくとも一方の画像とを重畳表示する。また、液晶画面112は、例えば3次元部材データの3次元部材オブジェクトなどを現実空間画像に重畳表示することが可能である。 The liquid crystal screen 112 superimposes and displays a real space image observed from the user's viewpoint position and an image of at least one of the second virtual object and the virtual object observed from the user's viewpoint position. Further, the liquid crystal screen 112 can superimpose and display, for example, a three-dimensional member object of three-dimensional member data on a real space image.

液晶画面112は、例えば頭部装着型ディスプレイである。また、液晶画面112を光学シースルー方式によって実現してもよい。例えば、光学シースルー型液晶ディスプレイに、観察者の視点の位置および姿勢に応じて生成した仮想オブジェクトの画像を表示することにより実現される。この場合には、現実空間の画像ではなく、実際の現実空間に重なるように仮想オブジェクトの画像が重畳される。 The liquid crystal screen 112 is, for example, a head-mounted display. Further, the liquid crystal screen 112 may be realized by an optical see-through method. For example, it is realized by displaying an image of a virtual object generated according to the position and orientation of the viewpoint of the observer on an optical see-through liquid crystal display. In this case, the image of the virtual object is superimposed so as to overlap the actual real space, not the image in the real space.

なお、頭部装着映像部10と、設計部20との通信は無線通信でも有線通信でもよい。同様に、頭部装着映像部10と、表示部30との通信は無線通信でも有線通信でもよい。また、設計部20を頭部装着映像部10内に構成してもよい。さらにまた、頭部装着映像部10と、3次元計測部105との通信も無線通信でも有線通信でもよい。 The communication between the head-mounted image unit 10 and the design unit 20 may be wireless communication or wired communication. Similarly, the communication between the head-mounted image unit 10 and the display unit 30 may be wireless communication or wired communication. Further, the design unit 20 may be configured in the head-mounted image unit 10. Furthermore, the communication between the head-mounted image unit 10 and the three-dimensional measurement unit 105 may be wireless communication or wired communication.

また、頭部装着映像部10を操作者が装着した状態で、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置してもよい。すなわち、現場で設計した設計部材を仮想オブジェクトの画像として観察可能となる。この際に、設計支援ツールの操作には、入力操作部206を仮想のキーボードやテンキーとして頭部装着映像部10などに映し出し、使用してもよい。このように、設計行為を行いながら、実際の現実空間に重なる設計部材の仮想オブジェクトを確認、検証、及び修正をすることが可能となり、設計効率をより上げることができる。これにより、従来であれば3Dレーザスキャン作業のプロセスが必要であったが、不要となり、大幅な工程短縮につなげることも可能となる。 Further, the design member may be generated by using the design support tool while the head-mounted image unit 10 is worn by the operator, and the design member may be arranged in the three-dimensional model space for design. That is, the design member designed at the site can be observed as an image of a virtual object. At this time, for the operation of the design support tool, the input operation unit 206 may be projected on the head-mounted image unit 10 or the like as a virtual keyboard or numeric keypad and used. In this way, it is possible to confirm, verify, and modify the virtual object of the design member that overlaps with the actual real space while performing the design act, and the design efficiency can be further improved. As a result, the process of 3D laser scanning work has been required in the past, but it is no longer necessary, and it is possible to significantly shorten the process.

スピーカ114は、認識処理部108による認識結果に基づく音声を出力する。例えば、音声認識処理部108aで出力された指示コードに基づく音声を出力する。例えば、設計支援ツールに対して音声により指示することも可能である。 The speaker 114 outputs voice based on the recognition result by the recognition processing unit 108. For example, the voice based on the instruction code output by the voice recognition processing unit 108a is output. For example, it is possible to give a voice instruction to the design support tool.

ここで、図2〜図5を用いて、属性情報付与部202および設計処理部204の詳細な構成を説明する。
図2は、モデル空間を示す格子点モデルと設計部材の配置を示す図である。図2に基づき、格子点モデル内の設計部材の配置を説明する。ここでは、3次元の格子点モデル300の水平面の一部を示している。図2に示すように、属性情報付与部202は、施工対象となる現実空間の実際の寸法に基づき、施工対象となる現実空間に対応する3次元モデル空間として3次元の格子点モデル300を生成する。座標B1〜B3、及び座標C1〜C3は格子点モデル300の位置を示している。例えば、座標B1〜B3、及び座標C1〜C3は現実空間の通り芯の位置に対応している。また、マーカ位置M1は、位置合わせ部106aにより座標空間の位置合わせを行う際にマーカ40を配置する位置を示している。
Here, the detailed configuration of the attribute information giving unit 202 and the design processing unit 204 will be described with reference to FIGS. 2 to 5.
FIG. 2 is a diagram showing a grid point model showing a model space and an arrangement of design members. The arrangement of the design members in the grid point model will be described with reference to FIG. Here, a part of the horizontal plane of the three-dimensional grid point model 300 is shown. As shown in FIG. 2, the attribute information adding unit 202 generates a three-dimensional lattice point model 300 as a three-dimensional model space corresponding to the real space to be constructed based on the actual dimensions of the real space to be constructed. To do. Coordinates B1 to B3 and coordinates C1 to C3 indicate the position of the grid point model 300. For example, the coordinates B1 to B3 and the coordinates C1 to C3 correspond to the positions of the cores in the real space. Further, the marker position M1 indicates a position where the marker 40 is arranged when the alignment unit 106a aligns the coordinate space.

属性情報付与部202は、3次元モデル空間内に設計部材を配置する位置を属性情報として付与する。より具体的には、属性情報付与部202は、入力処理部106により指示された3次元の格子点モデル300(図2)上の座標に基づき、設計部材を配置する位置を属性情報として付与する。例えば、属性情報付与部202は、入力処理部106により指示された3次元の格子点モデル300(図2)上の通り芯の位置に対応させて、設計部材を配置する位置を属性情報として付与することも可能である。また、属性情報付与部202は、画像認識処理部108bにより取得された距離情報を用いて3次元のモデル空間内に設計部材を配置してもよい。 The attribute information giving unit 202 gives the position where the design member is arranged in the three-dimensional model space as the attribute information. More specifically, the attribute information giving unit 202 gives the position where the design member is arranged as the attribute information based on the coordinates on the three-dimensional grid point model 300 (FIG. 2) instructed by the input processing unit 106. .. For example, the attribute information giving unit 202 gives the position where the design member is arranged as the attribute information corresponding to the position of the street core on the three-dimensional grid point model 300 (FIG. 2) instructed by the input processing unit 106. It is also possible to do. Further, the attribute information giving unit 202 may arrange the design member in the three-dimensional model space by using the distance information acquired by the image recognition processing unit 108b.

図3は、設計部材に付与された属性情報を示す図である。図3を用いて、設計部材に付与された属性情報を説明する。図3に示すように、属性情報付与部202は、設計処理部204により生成される設計部材A1〜A8に、部材の種別を示す属性情報も付与する。例えば、属性情報付与部202は、設計処理部204で生成可能な属性情報のデータとして、例えば径100Aの配管、径100Aのフランジ管などの情報を記憶している。そして、属性情報付与部202は、入力処理部106により指示された属性情報を設計部材A1〜A8に付与する。 FIG. 3 is a diagram showing attribute information given to the design member. The attribute information given to the design member will be described with reference to FIG. As shown in FIG. 3, the attribute information imparting unit 202 also imparts attribute information indicating the type of the member to the design members A1 to A8 generated by the design processing unit 204. For example, the attribute information giving unit 202 stores information such as a pipe having a diameter of 100A and a flange pipe having a diameter of 100A as data of attribute information that can be generated by the design processing unit 204. Then, the attribute information giving unit 202 gives the attribute information instructed by the input processing unit 106 to the design members A1 to A8.

設計部材A4〜A8には、既に現実空間に配置されている設計部材R1〜R5が属性情報として付与されている。すなわち、属性情報付与部202は、設計部材A4〜A8の属性情報として現実空間に配置されている設計部材R1〜R5を付与することが可能である。 Design members R1 to R5 already arranged in the real space are added to the design members A4 to A8 as attribute information. That is, the attribute information giving unit 202 can give the design members R1 to R5 arranged in the real space as the attribute information of the design members A4 to A8.

ここで、図4を用いて、3次元モデル空間内に配置される設計部材A1〜A3の例を説明する。図4は、設計処理部204により生成された設計部材A1〜A3を模式的に示す図である。図4に示すように、設計処理部204は、設計部材に付与された属性情報に基づき、3次元モデル空間内に設計部材A1〜A3を生成する。より具体的には、設計処理部204は、設計部材に付与された3次元CADモデルの情報及び位置情報を用いて、3次元モデル空間内に設計部材A1〜A3を生成する。 Here, an example of the design members A1 to A3 arranged in the three-dimensional model space will be described with reference to FIG. FIG. 4 is a diagram schematically showing design members A1 to A3 generated by the design processing unit 204. As shown in FIG. 4, the design processing unit 204 generates the design members A1 to A3 in the three-dimensional model space based on the attribute information given to the design member. More specifically, the design processing unit 204 generates the design members A1 to A3 in the three-dimensional model space by using the information and the position information of the three-dimensional CAD model given to the design member.

ここで、図5を用いて、既設の設計データに基づく設計部材A4を説明する。図5は、設計処理部204により生成された既設のフランジ管R1の設計部材A4を模式的に示す図である。図5に示すように、設計処理部204は、現実空間に本来施工されるべき設計部材R1の既設設計データに基づき設計部材A4を3次元モデル空間に配置する。図5内には図示していないが、設計部材R2〜R4の既設設計データに基づき設計部材A5〜A7も同様に、3次元モデル空間に配置される。 Here, the design member A4 based on the existing design data will be described with reference to FIG. FIG. 5 is a diagram schematically showing a design member A4 of the existing flange pipe R1 generated by the design processing unit 204. As shown in FIG. 5, the design processing unit 204 arranges the design member A4 in the three-dimensional model space based on the existing design data of the design member R1 that should be originally constructed in the real space. Although not shown in FIG. 5, the design members A5 to A7 are also arranged in the three-dimensional model space based on the existing design data of the design members R2 to R4.

ここで、図6を用いて、設計部材A4〜A7の仮想オブジェクトZA4〜ZA7を説明する。図6は、変換部106cにより生成された仮想オブジェクトZA4〜ZA7の仮想断面Z1(図7)における断面を模式的に示す図である。仮想オブジェクトZA4〜ZA7は設計部材A4〜A7に対応する。図6に示すように、変換部106cは、現実空間に本来施工されるべき設計部材R1〜R4の既設設計データに基づく仮想オブジェクトZA4〜ZA7を3次元モデル空間に配置する。このように、変換部106cは、現実空間に本来施工されるべき部材に関しても3次元モデル空間内に仮想オブジェクトZA4〜ZA7などとして配置することが可能である。 Here, the virtual objects ZA4 to ZA7 of the design members A4 to A7 will be described with reference to FIG. FIG. 6 is a diagram schematically showing a cross section of virtual objects ZA4 to ZA7 generated by the conversion unit 106c in a virtual cross section Z1 (FIG. 7). The virtual objects ZA4 to ZA7 correspond to the design members A4 to A7. As shown in FIG. 6, the conversion unit 106c arranges virtual objects ZA4 to ZA7 based on the existing design data of the design members R1 to R4 that should be originally constructed in the real space in the three-dimensional model space. In this way, the conversion unit 106c can arrange the members that should be originally constructed in the real space as virtual objects ZA4 to ZA7 in the three-dimensional model space.

ここで、図7を用いて、現実空間内のフランジ管R1の計測データを説明する。図7は、現実空間内のフランジ管R1を示す図である。上述の3次元計測部105は、例えばマーカM1と他の複数の基準位置などを基準座標として現実空間内のフランジ管R1などを計測し、座標統合部106bは、現実空間の座標系に対応付けられた3次元部材データを生成する。Z1は、仮想断面である。なお、図7では、サポート鋼材R3、R4、L型アングル材R5の図示は、省略されている。 Here, the measurement data of the flange tube R1 in the real space will be described with reference to FIG. 7. FIG. 7 is a diagram showing a flange tube R1 in a real space. The above-mentioned three-dimensional measurement unit 105 measures the flange tube R1 in the real space using the marker M1 and a plurality of other reference positions as reference coordinates, and the coordinate integration unit 106b associates the coordinate system with the coordinate system in the real space. The generated 3D member data is generated. Z1 is a virtual cross section. In FIG. 7, the support steel materials R3, R4, and L-shaped angle material R5 are not shown.

ここで、図8を用いて、3次元部材データの例を説明する。図8は、現実空間内の設計部材R1、R3、R4に基づく3次元部材データZR1、ZR3、ZR4の仮想断面Z1における断面図を模式的に示す図である。このように、既に現実空間に配置されている設計部材R1、R3、R4などが3次元部材データZR1、ZR3、ZR4として、座標統合部106bにより生成される。なお、図8では、設計部材R2は、施工ミスにより施工されていない例を示している。 Here, an example of three-dimensional member data will be described with reference to FIG. FIG. 8 is a diagram schematically showing a cross-sectional view of the three-dimensional member data ZR1, ZR3, ZR4 based on the design members R1, R3, R4 in the real space in the virtual cross section Z1. In this way, the design members R1, R3, R4 and the like already arranged in the real space are generated as the three-dimensional member data ZR1, ZR3, ZR4 by the coordinate integration unit 106b. Note that FIG. 8 shows an example in which the design member R2 is not constructed due to a construction error.

ここで、図3、図6及び図8を参照しつつ、図9及び10を用いて差分処理部110bの処理の詳細例を説明する。図9は、設計部材R1〜R4に基づく仮想オブジェクトZA4〜ZA7を現実空間に重畳した仮想断面Z1における断面図である。ZA5(R2)は、第2仮想オブジェクトの例を示している。 Here, with reference to FIGS. 3, 6 and 8, a detailed example of the processing of the difference processing unit 110b will be described with reference to FIGS. 9 and 10. FIG. 9 is a cross-sectional view of the virtual cross section Z1 in which the virtual objects ZA4 to ZA7 based on the design members R1 to R4 are superimposed on the real space. ZA5 (R2) shows an example of the second virtual object.

差分処理部110bは、データ蓄積部107に蓄積される3次元部材データを用いて、例えば仮想オブジェクトZA5と3次元部材データZR2との差分処理を行う。より具体的には、差分処理部110bは、仮想オブジェクトZA5に対応する現実空間の座標系における3次元部材データZR2を、データ蓄積部107から抽出する。次に、差分処理部110bは、3次元部材データZR2は表面データであるので、表面データに包含される範囲に対して充填処理を行った充填データを生成する。そして、差分処理部110bは、仮想オブジェクトZA5と、仮想オブジェクトZA5に対応する充填データとの差分処理を行う。このように、差分処理部110bは、仮想オブジェクトZA5に対して不足する3次元部材データZR2の領域を仮想オブジェクトZA5の2次仮想オブジェクトZA5(R2)として演算する。なお、図8に示すように、3次元部材データZR2は現実空間には存在しないので、充填データは0として処理される。 The difference processing unit 110b uses the three-dimensional member data stored in the data storage unit 107 to perform difference processing between, for example, the virtual object ZA5 and the three-dimensional member data ZR2. More specifically, the difference processing unit 110b extracts the three-dimensional member data ZR2 in the coordinate system in the real space corresponding to the virtual object ZA5 from the data storage unit 107. Next, since the three-dimensional member data ZR2 is surface data, the difference processing unit 110b generates filling data obtained by performing filling processing on the range included in the surface data. Then, the difference processing unit 110b performs difference processing between the virtual object ZA5 and the filling data corresponding to the virtual object ZA5. In this way, the difference processing unit 110b calculates the area of the three-dimensional member data ZR2 that is insufficient for the virtual object ZA5 as the secondary virtual object ZA5 (R2) of the virtual object ZA5. As shown in FIG. 8, since the three-dimensional member data ZR2 does not exist in the real space, the filling data is processed as 0.

差分処理部110bは、仮想オブジェクトZA4に対応する設計部材R1しか現実空間に配置されていない場合、現実空間内の仮想オブジェクトZA4が配置される空間から所定範囲の3次元部材データをデータ蓄積部107から抽出する。例えば、現実空間内の仮想オブジェクトZA4が配置される空間から30センチメートルの範囲を加えた領域内の3次元部材データをデータ蓄積部107から抽出する。次に、差分処理部110bは、3次元部材データは表面データであるので、表面データに包含される範囲に対して充填処理を行った充填データを生成する。そして、差分処理部110bは、仮想オブジェクトZA4と充填データとの差分処理を行う。これにより、仮想オブジェクトZA4に対して過不足する3次元部材データZR1の領域を仮想オブジェクトZA4の2次仮想オブジェクトとして演算できる。このように、差分処理部110bは、現実空間の仮想オブジェクトZA4が配置される空間から所定範囲の3次元部材データと、仮想オブジェクトZA4との差分処理を行い、過不足する領域データを第2仮想オブジェクトとして生成する。 When only the design member R1 corresponding to the virtual object ZA4 is arranged in the real space, the difference processing unit 110b stores the three-dimensional member data in a predetermined range from the space in which the virtual object ZA4 is arranged in the real space. Extract from. For example, the three-dimensional member data in the area including the range of 30 cm from the space where the virtual object ZA4 in the real space is arranged is extracted from the data storage unit 107. Next, since the three-dimensional member data is surface data, the difference processing unit 110b generates filling data in which the filling process is performed on the range included in the surface data. Then, the difference processing unit 110b performs difference processing between the virtual object ZA4 and the filling data. As a result, the area of the three-dimensional member data ZR1 that is excessive or insufficient with respect to the virtual object ZA4 can be calculated as a secondary virtual object of the virtual object ZA4. In this way, the difference processing unit 110b performs difference processing between the three-dimensional member data in a predetermined range from the space where the virtual object ZA4 in the real space is arranged and the virtual object ZA4, and the excess / deficiency area data is the second virtual. Create as an object.

また、差分処理部110bは、図6に示すように、各仮想オブジェクトZA4〜ZA7が接合している場合には、接合した仮想オブジェクトZA4〜ZA7に対して上述の処理を行ってもよい。例えば、図3に示すように、設計の仕様上はサポート鋼材R2が、現実空間に配置されているはずである。しかし、図8に示すように、現実空間には、サポート鋼材R2が配置されていない。この場合、上述の処理を行うと、接合した仮想オブジェクトZA4〜ZA7と、3次元部材データZR1、ZR3、ZR4の充填データの差分が演算され、不足する領域データとして第2仮想オブジェクトZA5(R2)が生成される。そして、出力処理部110dは、第2仮想オブジェクトZA5(R2)を現実空間に重畳表示する画像信号を生成する。 Further, as shown in FIG. 6, the difference processing unit 110b may perform the above-mentioned processing on the joined virtual objects ZA4 to ZA7 when the virtual objects ZA4 to ZA7 are joined. For example, as shown in FIG. 3, the support steel material R2 should be arranged in the real space according to the design specifications. However, as shown in FIG. 8, the support steel material R2 is not arranged in the real space. In this case, when the above processing is performed, the difference between the joined virtual objects ZA4 to ZA7 and the filling data of the three-dimensional member data ZR1, ZR3, and ZR4 is calculated, and the second virtual object ZA5 (R2) is used as insufficient area data. Is generated. Then, the output processing unit 110d generates an image signal in which the second virtual object ZA5 (R2) is superimposed and displayed in the real space.

例えば、不足領域に対応する第2仮想オブジェクトZA5(R2)は、他の仮想オブジェクトZA4、ZA6、ZA7の色(例えば緑)と異なる色、例えば赤色で表示される。一方で、余剰する領域に対応する第2仮想オブジェクトは、他の仮想オブジェクトと異なる色、例えば青色で表示される。 For example, the second virtual object ZA5 (R2) corresponding to the shortage area is displayed in a color different from the colors (for example, green) of the other virtual objects ZA4, ZA6, and ZA7, for example, red. On the other hand, the second virtual object corresponding to the surplus area is displayed in a color different from other virtual objects, for example, blue.

図10は、L型アングル材R5が逆向きに付いている場合の差分処理例を示す図である。左上図が3次元部材データZR1、ZR5を示し、左下図が仮想オブジェクトZA4、ZA8を示し、右図が差分処理後の図を示す。右図に示すように、差分処理部110bは、各仮想オブジェクトZA4、ZA8が接合している場合には、接合した仮想オブジェクトZA4、ZA8に対して上述の差分処理を行う。この場合、上述の差分処理を行うと、接合した仮想オブジェクトZA4、ZA8と、3次元部材データZR1、ZR5の充填データの差分が演算され、不足する領域データとして第2仮想オブジェクトZA8(R5)が生成される。そして、出力処理部110dは、第2仮想オブジェクトZA8(R5)を現実空間に重畳表示する画像信号を生成する。 FIG. 10 is a diagram showing an example of difference processing when the L-shaped angle member R5 is attached in the opposite direction. The upper left figure shows the three-dimensional member data ZR1 and ZR5, the lower left figure shows the virtual objects ZA4 and ZA8, and the right figure shows the figure after the difference processing. As shown in the right figure, when the virtual objects ZA4 and ZA8 are joined, the difference processing unit 110b performs the above-mentioned difference processing on the joined virtual objects ZA4 and ZA8. In this case, when the above-mentioned difference processing is performed, the difference between the joined virtual objects ZA4 and ZA8 and the filling data of the three-dimensional member data ZR1 and ZR5 is calculated, and the second virtual object ZA8 (R5) is generated as insufficient area data. Will be generated. Then, the output processing unit 110d generates an image signal in which the second virtual object ZA8 (R5) is superimposed and displayed in the real space.

このように、コンピュータ支援設計により設計された施工図内の設計部材に対応する仮想オブジェクトZA4〜ZA8と、現実空間に配置された設計部材R1〜R5との相違箇所を現実空間画像に第2仮想オブジェクトZA5(R2)、ZA8(R5)として重畳可能である。これにより、本来施工されるはずの施工図内の設計部材と、現実空間内の施工結果との相違箇所を現実空間内に、第2仮想オブジェクトZA5(R2)、ZA8(R5)として視覚化することができる。 In this way, the difference between the virtual objects ZA4 to ZA8 corresponding to the design members in the construction drawing designed by the computer-aided design and the design members R1 to R5 arranged in the real space is shown in the real space image as the second virtual. It can be superimposed as objects ZA5 (R2) and ZA8 (R5). As a result, the difference between the design member in the construction drawing that should be originally constructed and the construction result in the real space is visualized as the second virtual objects ZA5 (R2) and ZA8 (R5) in the real space. be able to.

図11は、画像処理装置1における画像処理の流れを示すフローチャートの一例である。
図11に示すように、操作者は、属性情報付与部202により施工に用いる設計部材とマーカ40の属性情報を入力する(ステップS100)。操作者は、例えば表示部30に表示される3次元モデル空間内に、設計部材を配置する位置に対応する座標を入力操作部206により指示する。また、操作者は、例えば表示部30に表示される3次元CADモデルの一覧の中から設計部材を選択する。属性情報付与部202は、これらの情報を設計部材の属性情報として付与する。この際に、3次元モデル空間にマーカ40を配置する座標も設定される。
FIG. 11 is an example of a flowchart showing the flow of image processing in the image processing device 1.
As shown in FIG. 11, the operator inputs the attribute information of the design member and the marker 40 used for construction by the attribute information adding unit 202 (step S100). The operator instructs, for example, the coordinates corresponding to the position where the design member is arranged in the three-dimensional model space displayed on the display unit 30 by the input operation unit 206. Further, the operator selects a design member from, for example, a list of three-dimensional CAD models displayed on the display unit 30. The attribute information giving unit 202 gives such information as attribute information of the design member. At this time, the coordinates for arranging the marker 40 in the three-dimensional model space are also set.

次に、設計処理部204は、属性情報付与部202により付与された属性情報に基づき、設計部材を生成し、設計用の3次元モデル空間に配置する(ステップS102)。これらの設計部材は、例えば表示部30に表示され、操作者により視認される。続けて、変換部106cは、設計処理部204により生成された設計部材の情報を仮想オブジェクトに変換する。これにより、コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトが3次元モデル空間内に配置される。 Next, the design processing unit 204 generates a design member based on the attribute information given by the attribute information giving unit 202, and arranges the design member in the three-dimensional model space for design (step S102). These design members are displayed on the display unit 30, for example, and are visually recognized by the operator. Subsequently, the conversion unit 106c converts the information of the design member generated by the design processing unit 204 into a virtual object. As a result, the virtual object generated based on the design member designed by the computer-aided design is arranged in the three-dimensional model space.

次に、3次元計測部105を基準位置に配置し、対象構造物に向かってレーザを走査し、設計部材の計測を行う(ステップS104)。3次元部材データなどは、データ蓄積部107に蓄積される。この際に、未計測の領域が存在する場合には、基準位置を変更し、計測を繰り返す。続けて、座標統合部106bは、計測された3次元部材データなどを現実空間の座標系に統合し、3次元部材データを含む統合形状データを生成する。 Next, the three-dimensional measuring unit 105 is arranged at the reference position, the laser is scanned toward the target structure, and the design member is measured (step S104). Three-dimensional member data and the like are stored in the data storage unit 107. At this time, if there is an unmeasured area, the reference position is changed and the measurement is repeated. Subsequently, the coordinate integration unit 106b integrates the measured three-dimensional member data and the like into the coordinate system in the real space, and generates integrated shape data including the three-dimensional member data.

次に、3次元モデル空間に設定されたマーカ40の座標に対応する現実空間の位置にマーカ40を配置し、カメラ102により撮像する(ステップS106)。続けて、位置合わせ部106aは、撮像されたたマーカ40の情報に基づき、3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う(ステップS108)。 Next, the marker 40 is placed at a position in the real space corresponding to the coordinates of the marker 40 set in the three-dimensional model space, and an image is taken by the camera 102 (step S106). Subsequently, the alignment unit 106a aligns the coordinate system in the three-dimensional model space with the coordinate system in the real space based on the information of the imaged marker 40 (step S108).

差分処理部110bは、現実空間の座標系に基づき、仮想オブジェクトと、仮想オブジェクトに対応する3次元部材データとの差分を第2仮想オブジェクトとして生成する(ステップS110)。 The difference processing unit 110b generates a difference between the virtual object and the three-dimensional member data corresponding to the virtual object as the second virtual object based on the coordinate system in the real space (step S110).

次に、3次元空間認識処理部108cは、カメラ102が撮像した画像データから自然特徴点を取得し、ランドマークデータと自然特徴点との対応関係に基づき、頭部装着映像部10の位置姿勢を推定する(ステップS112)。 Next, the three-dimensional space recognition processing unit 108c acquires natural feature points from the image data captured by the camera 102, and based on the correspondence between the landmark data and the natural feature points, the position and orientation of the head-mounted image unit 10 Is estimated (step S112).

次に、画像処理部110cは、位置姿勢の推定結果に基づき、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される第2仮想オブジェクトの画像とを重畳し、出力処理部110dを介して液晶画面112及び表示部30に表示する(ステップS114)。 Next, the image processing unit 110c superimposes the real space image observed from the user's viewpoint position and the image of the second virtual object observed from the user's viewpoint position based on the estimation result of the position and orientation. , Displayed on the liquid crystal screen 112 and the display unit 30 via the output processing unit 110d (step S114).

制御部110aは、画像処理制御を継続する否かを判断する(ステップS116)。画像処理制御を継続する場合(ステップS116のNO)、ステップS112からの処理を繰り返す。一方、画像処理制御を終了する場合(ステップS116のYES)、全体処理を終了する。 The control unit 110a determines whether to continue the image processing control (step S116). When continuing the image processing control (NO in step S116), the processing from step S112 is repeated. On the other hand, when the image processing control is terminated (YES in step S116), the entire processing is terminated.

以上のように、本実施形態によれば、位置合わせ部106aが、設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標と、現実空間の座標との位置合わせを行い、差分処理部110bが設計部材の仮想オブジェクトと、仮想オブジェクトに対応する現実空間内の3次元部材データとの差分を第2仮想オブジェクトとして生成する。そして、画像処理部110cが、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される第2仮想オブジェクトの画像を生成する。これにより、本来施工されはずの設計部材と、現実空間内の施工結果との相違箇所を現実空間内に、第2仮想オブジェクトとして視覚化することができる。 As described above, according to the present embodiment, the alignment unit 106a aligns the coordinates of the three-dimensional model space in which the virtual object generated based on the design member is arranged and the coordinates of the real space, and makes a difference. The processing unit 110b generates the difference between the virtual object of the design member and the three-dimensional member data in the real space corresponding to the virtual object as the second virtual object. Then, the image processing unit 110c generates an image of the second virtual object observed from the user's viewpoint position in correspondence with the real space image observed from the user's viewpoint position based on the alignment. As a result, it is possible to visualize the difference between the design member that should have been originally constructed and the construction result in the real space as a second virtual object in the real space.

本実施形態による画像処理装置1におけるデータ処理方法の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、データ処理方法の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。また、データ処理方法の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。 At least a part of the data processing method in the image processing apparatus 1 according to the present embodiment may be configured by hardware or software. When configured by software, a program that realizes at least a part of the functions of the data processing method may be stored in a recording medium such as a flexible disk or a CD-ROM, read by a computer, and executed. The recording medium is not limited to a removable one such as a magnetic disk or an optical disk, and may be a fixed recording medium such as a hard disk device or a memory. Further, a program that realizes at least a part of the functions of the data processing method may be distributed via a communication line (including wireless communication) such as the Internet. Further, the program may be encrypted, modulated, compressed, and distributed via a wired line or wireless line such as the Internet, or stored in a recording medium.

以上、いくつかの実施形態を説明したが、これらの実施形態は、例としてのみ提示したものであり、発明の範囲を限定することを意図したものではない。本明細書で説明した新規な装置、方法及びプログラムは、その他の様々な形態で実施することができる。また、本明細書で説明した装置、方法及びプログラムの形態に対し、発明の要旨を逸脱しない範囲内で、種々の省略、置換、変更を行うことができる。 Although some embodiments have been described above, these embodiments are presented only as examples and are not intended to limit the scope of the invention. The novel devices, methods and programs described herein can be implemented in a variety of other forms. In addition, various omissions, substitutions, and changes can be made to the forms of the apparatus, method, and program described in the present specification without departing from the gist of the invention.

1:画像処理装置、10:頭部装着映像部、20:設計部、30:表示部、40:マーカ、105:3次元計測部、106a:位置合わせ部、106c:変換部、108:認識処理部、108b:画像認識処理部、110b:差分処理部、110c:画像処理部、206:入力操作部 1: Image processing device, 10: Head-mounted image unit, 20: Design unit, 30: Display unit, 40: Marker, 105: Three-dimensional measurement unit, 106a: Alignment unit, 106c: Conversion unit, 108: Recognition processing Unit, 108b: Image recognition processing unit, 110b: Difference processing unit, 110c: Image processing unit, 206: Input operation unit

Claims (9)

コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う位置合わせ部と、
前記仮想オブジェクトと、前記現実空間内の設計部材に基づき生成された3次元部材データとの差分を、第2仮想オブジェクトとして生成する差分処理部と、
前記位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、前記使用者の視点位置から観察される前記第2仮想オブジェクトの画像を生成する画像処理部と、
前記現実空間画像と前記第2仮想オブジェクトとを重畳表示する表示部と、
を備える画像処理装置。
An alignment unit that aligns the coordinate system of the 3D model space where the virtual objects generated based on the design members designed by computer-aided design are placed and the coordinate system of the real space.
A difference processing unit that generates a difference between the virtual object and the three-dimensional member data generated based on the design member in the real space as a second virtual object.
An image processing unit that generates an image of the second virtual object observed from the user's viewpoint position in correspondence with the real space image observed from the user's viewpoint position based on the alignment.
A display unit that superimposes and displays the real space image and the second virtual object, and
An image processing device comprising.
前記現実空間内の前記設計部材を3次元部材データとして3次元計測する3次元計測部と、を更に備え、
前記差分処理部は、前記3次元部材データを用いて、前記第2仮想オブジェクトを生成する、請求項1に記載の画像処理装置。
Further provided with a three-dimensional measuring unit for three-dimensionally measuring the design member in the real space as three-dimensional member data.
The image processing apparatus according to claim 1, wherein the difference processing unit generates the second virtual object using the three-dimensional member data.
前記画像処理部は、前記位置合わせに基づき、前記使用者の視点位置から観察される前記現実空間画像に対応させて、前記3次元部材データの3次元部材オブジェクトを生成し、
前記表示部は、前記現実空間画像と前記3次元部材オブジェクトとを重畳表示する、請求項1に記載の画像処理装置。
Based on the alignment, the image processing unit generates a three-dimensional member object of the three-dimensional member data in correspondence with the real space image observed from the viewpoint position of the user.
The image processing device according to claim 1, wherein the display unit superimposes and displays the real space image and the three-dimensional member object.
前記差分処理部は、前記現実空間内の前記仮想オブジェクトが配置される空間から所定範囲内の前記3次元部材データと、前記仮想オブジェクトとの差分処理を行い、過不足する領域データを前記第2仮想オブジェクトとして生成する、請求項1乃至3のいずれか一項に記載の画像処理装置。 The difference processing unit performs difference processing between the three-dimensional member data within a predetermined range from the space in which the virtual object is arranged in the real space and the virtual object, and obtains excess or deficiency area data in the second. The image processing apparatus according to any one of claims 1 to 3, which is generated as a virtual object. 前記差分処理部は、前記仮想オブジェクトに関連付けられた前記現実空間の座標系における位置情報に基づき、前記所定範囲の前記3次元部材データを抽出する、請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the difference processing unit extracts the three-dimensional member data in the predetermined range based on the position information in the coordinate system in the real space associated with the virtual object. 前記画像処理部は、前記位置合わせに基づき、前記使用者の視点位置から観察される前記現実空間画像に対応させて、前記使用者の視点位置から観察される前記仮想オブジェクトの画像を生成し、
前記表示部は、前記現実空間画像と前記仮想オブジェクトとを重畳表示する、請求項1乃至5のいずれか一項に記載の画像処理装置。
Based on the alignment, the image processing unit generates an image of the virtual object observed from the user's viewpoint position in correspondence with the real space image observed from the user's viewpoint position.
The image processing device according to any one of claims 1 to 5, wherein the display unit superimposes and displays the real space image and the virtual object.
前記現実空間に配置済みの部材の設計データに基づき前記設計部材を前記3次元モデル空間に配置する設計部と、
前記設計部材を前記仮想オブジェクトに変換する変換部と、を更に備え、
前記画像処理部は、前記配置済みの部材の設計データに基づく前記仮想オブジェクトを重畳表示する、請求項6に記載の画像処理装置。
A design unit that arranges the design member in the three-dimensional model space based on the design data of the member already arranged in the real space, and a design unit.
A conversion unit that converts the design member into the virtual object is further provided.
The image processing device according to claim 6, wherein the image processing unit superimposes and displays the virtual object based on the design data of the arranged member.
前記設計部を操作する入力操作部を更に有し、
前記変換部は、前記入力操作部を介して前記設計部により生成された前記設計部材を前記仮想オブジェクトに変換する、請求項7に記載の画像処理装置。
Further having an input operation unit for operating the design unit,
The image processing apparatus according to claim 7, wherein the conversion unit converts the design member generated by the design unit via the input operation unit into the virtual object.
コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う位置合わせ工程と、
前記仮想オブジェクトと、前記現実空間内の設計部材に基づき生成された3次元部材データとの差分を、第2仮想オブジェクトとして生成する差分処理工程と、
前記位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、前記使用者の視点位置から観察される前記第2仮想オブジェクトの画像を生成する画像処理工程と、
前記現実空間画像と前記第2仮想オブジェクトとを重畳表示する表示工程と、
を備える画像処理方法。
An alignment process that aligns the coordinate system of the 3D model space where the virtual objects generated based on the design members designed by computer-aided design are placed and the coordinate system of the real space.
A difference processing step of generating a difference between the virtual object and the three-dimensional member data generated based on the design member in the real space as a second virtual object.
An image processing step of generating an image of the second virtual object observed from the user's viewpoint position in correspondence with the real space image observed from the user's viewpoint position based on the alignment.
A display process for superimposing and displaying the real space image and the second virtual object, and
An image processing method comprising.
JP2019189556A 2019-10-16 2019-10-16 Image processing device and image processing method Active JP7403273B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019189556A JP7403273B2 (en) 2019-10-16 2019-10-16 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019189556A JP7403273B2 (en) 2019-10-16 2019-10-16 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2021064267A true JP2021064267A (en) 2021-04-22
JP7403273B2 JP7403273B2 (en) 2023-12-22

Family

ID=75486335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019189556A Active JP7403273B2 (en) 2019-10-16 2019-10-16 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7403273B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023020469A (en) * 2021-07-30 2023-02-09 株式会社オプティム Surveying system, surveying device, surveying method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229057A (en) * 2013-05-22 2014-12-08 川崎重工業株式会社 Component assembly work support system and component assembly method
JP2017168077A (en) * 2016-03-09 2017-09-21 株式会社リコー Image processing method, display device, and inspection system
JP2017191351A (en) * 2016-04-11 2017-10-19 株式会社日立製作所 Work support system and method
JP2018180868A (en) * 2017-04-12 2018-11-15 株式会社Ecadソリューションズ Image processing device and manufacturing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229057A (en) * 2013-05-22 2014-12-08 川崎重工業株式会社 Component assembly work support system and component assembly method
JP2017168077A (en) * 2016-03-09 2017-09-21 株式会社リコー Image processing method, display device, and inspection system
JP2017191351A (en) * 2016-04-11 2017-10-19 株式会社日立製作所 Work support system and method
JP2018180868A (en) * 2017-04-12 2018-11-15 株式会社Ecadソリューションズ Image processing device and manufacturing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023020469A (en) * 2021-07-30 2023-02-09 株式会社オプティム Surveying system, surveying device, surveying method, and program

Also Published As

Publication number Publication date
JP7403273B2 (en) 2023-12-22

Similar Documents

Publication Publication Date Title
US20190272676A1 (en) Local positioning system for augmented reality applications
JP6286805B2 (en) Modeling device, three-dimensional model generation device, modeling method, program, layout simulator
JP4999734B2 (en) ENVIRONMENTAL MAP GENERATION DEVICE, METHOD, AND PROGRAM
KR20180131471A (en) Apparatus for integrated management of construction errors using 3d scanning with bim and method thereof
JP4025442B2 (en) 3D model conversion apparatus and method
JP5999679B2 (en) Equipment maintenance management system
KR101988372B1 (en) Apparatus and Method for 3-Dimensional Reverse Modeling of Building Structure Using Photo Images
JP2020523713A (en) Method and system for generating adaptive projected reality at a construction site
CN104169941A (en) Automatic tracking matte system
JP2005215917A (en) Working drawing creation support method and replacement model creation method
JP5817953B1 (en) Projector system and calibration board
US10015466B2 (en) Spatial information visualization apparatus, storage medium, and spatial information visualization method
JP2003270719A (en) Projection method, projector, and method and system for supporting work
JP6310149B2 (en) Image generation apparatus, image generation system, and image generation method
JP2018088139A (en) Three-dimensional space visualization device, three-dimensional space visualization method and program
JP7403273B2 (en) Image processing device and image processing method
JP2013008257A (en) Image composition program
JP2021152935A (en) Information visualization system, information visualization method, and program
JP7112908B2 (en) Survey data processing device and cross-sectional drawing creation method for creating cross-sectional view of 3D point cloud data
JP2018088065A (en) Information visualization system, information visualization method, and program
JP2013092888A (en) Data processor
JP7287408B2 (en) Display method, information processing device, and program
JP2021064264A (en) Image processing apparatus and image processing method
JP7098473B2 (en) Image processing device and image processing method
JP3575469B2 (en) Synthetic moving image generating apparatus and synthetic moving image generating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7403273

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150