JP2020024497A - Image processing device, and image processing method - Google Patents

Image processing device, and image processing method Download PDF

Info

Publication number
JP2020024497A
JP2020024497A JP2018147619A JP2018147619A JP2020024497A JP 2020024497 A JP2020024497 A JP 2020024497A JP 2018147619 A JP2018147619 A JP 2018147619A JP 2018147619 A JP2018147619 A JP 2018147619A JP 2020024497 A JP2020024497 A JP 2020024497A
Authority
JP
Japan
Prior art keywords
design
image
unit
image processing
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018147619A
Other languages
Japanese (ja)
Other versions
JP7098473B2 (en
Inventor
寛幸 野本
Hiroyuki Nomoto
寛幸 野本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Plant Systems and Services Corp
Original Assignee
Toshiba Plant Systems and Services Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Plant Systems and Services Corp filed Critical Toshiba Plant Systems and Services Corp
Priority to JP2018147619A priority Critical patent/JP7098473B2/en
Publication of JP2020024497A publication Critical patent/JP2020024497A/en
Application granted granted Critical
Publication of JP7098473B2 publication Critical patent/JP7098473B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To provide an image processing device, and an image processing method which can superimpose an installation result image of a designed member designed by computer-aided design on a real space image.SOLUTION: An image processing device comprises an alignment unit, an image processing unit, and a display unit. The alignment unit aligns a coordinate system of a three-dimensional model space in which a virtual object generated based on a designed member designed by computer-aided design is disposed with a coordinate system of a real space. The image processing unit generates an image of the virtual object observed from a view position of a user, in association with a real space image observed from the view position of the user, on the basis of alignment. The display unit displays the real space image and the virtual object in a superimposed manner.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、画像処理装置、及び画像処理方法に関する。   An embodiment of the present invention relates to an image processing device and an image processing method.

現実空間画像に仮想オブジェクトを重ねて表示する画像処理装置が知られている。一方で、施工現場では、3次元CADシステムで設計された3次元の設計部材の情報を用いて2次元の施工用の施工図面を起こしている。   2. Description of the Related Art An image processing apparatus that displays a virtual object superimposed on a real space image is known. On the other hand, at a construction site, a construction drawing for two-dimensional construction is generated using information of three-dimensional design members designed by a three-dimensional CAD system.

ところが二次元の施工図面から3次元の設計部材を施工する場合に、人の認識ミスなどにより施工を間違ってしまう恐れがある。   However, when constructing a three-dimensional design member from a two-dimensional construction drawing, there is a risk that construction may be erroneously performed due to a human recognition error or the like.

特開2012−94102号公報JP 2012-94102 A

本発明が解決しようとする課題は、コンピュータ支援設計により設計された設計部材の施工結果画像を現実空間画像に重畳可能な画像処理装置、及び画像処理方法を提供することである。   An object of the present invention is to provide an image processing apparatus and an image processing method capable of superimposing a construction result image of a design member designed by computer-aided design on a real space image.

本実施形態に係る画像処理装置は、位置合わせ部と、画像処理部と、表示部と、を備える。位置合わせ部は、コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。画像処理部は、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される仮想オブジェクトの画像を生成する。表示部は、実空間画像と仮想オブジェクトとを重畳表示する。   The image processing device according to the present embodiment includes a positioning unit, an image processing unit, and a display unit. The alignment unit aligns a coordinate system in a three-dimensional model space, in which a virtual object generated based on a design member designed by computer-aided design is arranged, with a coordinate system in a real space. The image processing unit generates an image of the virtual object observed from the viewpoint position of the user, based on the alignment, in correspondence with the real space image observed from the viewpoint position of the user. The display unit superimposes and displays the real space image and the virtual object.

本実施形態によれば、コンピュータ支援設計により設計された設計部材の施工結果画像を現実空間画像に重畳できる。   According to the present embodiment, a construction result image of a design member designed by computer-aided design can be superimposed on a real space image.

本実施形態に係る画像処理装置の構成を示すブロック図。FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment. 複数の計算メッシュで構成される計算格子を示す図。The figure which shows the calculation grid comprised by a some calculation mesh. 設計部材に付与された属性情報を示す図。The figure which shows the attribute information given to the design member. 設計処理部により生成された設計部材を模式的に示す図。The figure which shows typically the design member produced | generated by the design processing part. 設計部材に基づく仮想オブジェクトを現実空間に重畳した図。The figure which superimposed the virtual object based on the design member on the real space. 除去予定の設計部材に基づく仮想オブジェクトを現実空間に重畳した図。The figure which superimposed the virtual object based on the design member scheduled to be removed on the real space. 可動する仮想オブジェクトを現実空間に重畳した図。The figure which superimposed the movable virtual object on the real space. 仮想オブジェクト上の点と、認識された指先を示す図。FIG. 4 is a diagram showing points on a virtual object and recognized fingertips. 仮想オブジェクト上の点と、確定点を示すマークを表示した図。The figure which displayed the point which shows the point on a virtual object, and the fixed point. 現実空間上の点と、認識された指先を示す図。The figure which shows the point in real space, and the recognized fingertip. 現実空間上の点と、確定点を示すマークを表示した図。The figure which displayed the mark which shows the point in a real space, and a fixed point. 仮想オブジェクト上の点と現実空間画像上の点との間の距離を示す図。The figure which shows the distance between the point on a virtual object, and the point on a real space image. 設計部材における仮想オブジェクトの配置点を示す図。The figure which shows the arrangement | positioning point of the virtual object in a design member. 配置点と、設計部材の仮想オブジェクトを示す図。FIG. 3 is a diagram illustrating an arrangement point and a virtual object of a design member. 現実空間画像に重畳された設計部材の移動を示す図。The figure which shows the movement of the design member superimposed on the physical space image. 配置点に配置された設計部材の仮想オブジェクトを示す図。The figure which shows the virtual object of the design member arrange | positioned at the arrangement point. 再配置された設計部材の移動を示す図。The figure which shows the movement of the relocated design member. 画像処理装置における画像処理の流れを示すフローチャート。5 is a flowchart illustrating a flow of image processing in the image processing apparatus. 設計部毎に工程順の情報を属性情報として付与した結果を示す図。The figure which shows the result of having given the information of process order as attribute information for every design part. 最初の工程における設計部材の仮想オブジェクトを重畳した図。The figure which superimposed the virtual object of the design member in the first process. 次の工程における設計部材の仮想オブジェクトを重畳した図。The figure which superimposed the virtual object of the design member in the next process. 3番目の工程における設計部材の仮想オブジェクトを重畳した図。The figure which superimposed the virtual object of the design member in the 3rd process.

以下、本発明の実施形態に係る画像処理装置、及び画像処理方法について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は、本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分又は同様な機能を有する部分には同一の符号又は類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。   Hereinafter, an image processing apparatus and an image processing method according to an embodiment of the present invention will be described in detail with reference to the drawings. The embodiments described below are examples of the embodiments of the present invention, and the present invention is not construed as being limited to these embodiments. In the drawings referred to in this embodiment, the same portions or portions having similar functions are denoted by the same reference numerals or similar reference numerals, and repeated description thereof may be omitted. Further, the dimensional ratios in the drawings may be different from the actual ratios for convenience of description, or some of the components may be omitted from the drawings.

(第1実施形態)
図1は、本実施形態に係る画像処理装置1の構成を示すブロック図である。図1に示すように、本実施形態に係る画像処理装置1は、カメラで撮影した現実空間と3次元モデル空間とを位置合わせし、現実空間画像と仮想オブジェクトの画像とを重畳表示する装置である。この画像処理装置1は、頭部装着映像部10と、設計部20と、表示部30と、マーカ40とを備えて構成されている。
(1st Embodiment)
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus 1 according to the present embodiment. As shown in FIG. 1, an image processing apparatus 1 according to the present embodiment is an apparatus that positions a real space captured by a camera and a three-dimensional model space, and superimposes and displays a real space image and a virtual object image. is there. The image processing apparatus 1 includes a head-mounted image unit 10, a design unit 20, a display unit 30, and a marker 40.

頭部装着映像部10は、例えばウェアラブルコンピュータであり、操作者の頭部に装着する装置である。頭部装着映像部10の詳細な構成は後述する。   The head mounted image section 10 is, for example, a wearable computer, and is a device that is mounted on the operator's head. The detailed configuration of the head mounted image section 10 will be described later.

設計部20は、例えば、CPU(Central Processing Unit)を含んで構成され、設計空間の座標系に設計部材を配置する。この設計部20は、例えばキャド(CAD:computer−aided design)であり、3次元CADモデルを有する設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する。この設計部20は、属性情報付与部202と、設計処理部204と、入力操作部206と、を有する。   The design unit 20 includes, for example, a CPU (Central Processing Unit), and arranges design members in a coordinate system of a design space. The design unit 20 is, for example, a CAD (computer-aided design), generates a design member using a design support tool having a three-dimensional CAD model, and arranges the design member in a three-dimensional model space for design. . The design unit 20 includes an attribute information providing unit 202, a design processing unit 204, and an input operation unit 206.

属性情報付与部202は、後述の設計処理部204により生成する設計部材に属性情報を付与する。例えば、属性情報付与部202は、3次元CADモデルを選択するための3次元CADモデル属性情報を付与する。   The attribute information assigning unit 202 assigns attribute information to a design member generated by a design processing unit 204 described later. For example, the attribute information assigning unit 202 assigns three-dimensional CAD model attribute information for selecting a three-dimensional CAD model.

設計処理部204は、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する。この設計処理部204は、属性情報付与部202により付与された属性情報に基づき、設計部材を生成し、設計用の3次元モデル空間に配置する。例えば、設計処理部204は、属性情報付与部202により付与された3次元CADモデル属性情報に基づき、設計用の3次元CADモデルの中から設計部材を選択する。なお、属性情報付与部202および設計処理部204の詳細は後述する。   The design processing unit 204 generates a design member using a design support tool, and arranges the design member in a three-dimensional model space for design. The design processing unit 204 generates a design member based on the attribute information given by the attribute information giving unit 202, and arranges the design member in a three-dimensional model space for design. For example, the design processing unit 204 selects a design member from a three-dimensional CAD model for design based on the three-dimensional CAD model attribute information provided by the attribute information providing unit 202. The details of the attribute information providing unit 202 and the design processing unit 204 will be described later.

入力操作部206は、設計部20を含む頭部装着映像部10の操作に必要となる情報を入力する。入力操作部206は、例えばキーボード、マウス、ポインティングデバイスなどにより構成される。   The input operation unit 206 inputs information necessary for operating the head mounted video unit 10 including the design unit 20. The input operation unit 206 includes, for example, a keyboard, a mouse, a pointing device, and the like.

表示部30は、各種の情報を表示する。例えば、表示部30は、設計部20により生成された各種の情報を表示する。また、表示部30は、現実空間画像と仮想オブジェクトとを重畳表示する。例えば、表示部30は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ等によって構成される。   The display unit 30 displays various information. For example, the display unit 30 displays various information generated by the design unit 20. The display unit 30 displays the real space image and the virtual object in a superimposed manner. For example, the display unit 30 is configured by a liquid crystal display, a CRT (Cathode Ray Tube) display, or the like.

マーカ40は、2次元の幾何模様を有するマーカであり、現実空間の座標系と、設計用の3次元モデル空間の座標系とを対応付けるために用いられる。   The marker 40 is a marker having a two-dimensional geometric pattern, and is used to associate a coordinate system in the real space with a coordinate system in the three-dimensional model space for design.

ここで、頭部装着映像部10の詳細な構成を説明する。頭部装着映像部10は、CPUを含んで構成され、複数のカメラ102と、マイク104と、入力処理部106と、認識処理部108と、画像制御処理部110と、液晶画面112と、スピーカ114とを有している。   Here, a detailed configuration of the head-mounted video unit 10 will be described. The head-mounted image unit 10 includes a CPU, and includes a plurality of cameras 102, a microphone 104, an input processing unit 106, a recognition processing unit 108, an image control processing unit 110, a liquid crystal screen 112, 114.

カメラ102は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary MOS)カメラのようなカラーデジタルカメラによって構成される。カメラ102毎は、現実空間の画像を画像データとして出力する。カメラ102が撮像した画像データは入力処理部106を介して画像処理部110bに出力される。   The camera 102 is configured by a color digital camera such as a CCD (Charge Coupled Device) camera or a CMOS (Complementary MOS) camera. Each camera 102 outputs an image of the real space as image data. Image data captured by the camera 102 is output to the image processing unit 110b via the input processing unit 106.

マイク104は、操作者の発生する例えばジェスチャとしての音声を集音し、音声データを出力する。マイク104は、集音した音声データを入力処理部106を介して音声認識処理部108aに出力する。   The microphone 104 collects, for example, a voice generated by the operator as a gesture, and outputs voice data. The microphone 104 outputs the collected voice data to the voice recognition processing unit 108a via the input processing unit 106.

入力処理部106は、位置合わせ部106aと、変換部106bと、を有する。
位置合わせ部106aは、設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。より具体的には、カメラ102が撮像したマーカ40の情報を用いて、頭部装着映像部10の位置姿勢を認識し、3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。例えば、本実施形態に係るマーカ40は、3次元モデル空間の座標系の座標原点に配置されている。このため、マーカ40は、3次元モデル空間の座標系の座標原点に対応する現実空間の位置に配置され、マーカ40の撮像画像データに基づき、頭部装着映像部10の位置姿勢が認識される。
The input processing unit 106 has a positioning unit 106a and a conversion unit 106b.
The positioning unit 106a performs positioning between the coordinate system in the three-dimensional model space where the virtual objects generated based on the design members are arranged and the coordinate system in the real space. More specifically, the information of the marker 40 captured by the camera 102 is used to recognize the position and orientation of the head-mounted image unit 10, and to align the coordinate system of the three-dimensional model space with the coordinate system of the real space. I do. For example, the marker 40 according to the present embodiment is arranged at the coordinate origin of the coordinate system in the three-dimensional model space. For this reason, the marker 40 is arranged at a position in the real space corresponding to the coordinate origin of the coordinate system in the three-dimensional model space, and the position and orientation of the head-mounted video unit 10 are recognized based on the captured image data of the marker 40. .

変換部106bは、設計処理部204により生成された設計部材の情報を仮想オブジェクトに変換する。より、具体的には、変換部106bは、3次元モデル空間に配意された設計部材の情報、例えば3次元CADモデルの情報を用いて、設計部材を3次元モデル空間に配置された仮想オブジェクトに変換する。   The conversion unit 106b converts the information on the design members generated by the design processing unit 204 into a virtual object. More specifically, the conversion unit 106b uses the information on the design members allocated in the three-dimensional model space, for example, the information on the three-dimensional CAD model to convert the design members into virtual objects arranged in the three-dimensional model space. Convert to

認識処理部108は、音声認識処理部108aと、画像認識処理部108bと、3次元空間認識処理部108cと、を有する。
音声認識処理部108aは、マイク104が集音した音声データを指示コードに変換する。例えば、頭部装着映像部10は、この指示コードに従った制御動作を行う。
The recognition processing unit 108 includes a voice recognition processing unit 108a, an image recognition processing unit 108b, and a three-dimensional space recognition processing unit 108c.
The voice recognition processing unit 108a converts the voice data collected by the microphone 104 into an instruction code. For example, the head-mounted video unit 10 performs a control operation according to the instruction code.

画像認識処理部108bは、重畳表示された画像内における現実空間画像内の座標と、仮想オブジェクトの画像上における座標との間の距離情報を取得する。より詳細な構成は、後述する。   The image recognition processing unit 108b acquires distance information between the coordinates in the real space image in the superimposed image and the coordinates in the image of the virtual object. A more detailed configuration will be described later.

3次元空間認識処理部108cは、例えばカメラ102が撮像した画像データに基づき、現実空間内の画像から抽出された自然特徴点の3次元座標をSfM(Structure from Motion)により算出し、ランドマークデータとして記憶する。そして、3次元空間認識処理部108cは、ランドマークデータとカメラ102が撮像した画像データから得られる自然特徴点との対応関係に基づき、頭部装着映像部10の位置姿勢を推定する。このように、マーカ40が撮像されない場合にも、現実空間内の座標系における頭部装着映像部10の位置姿勢の推定が可能となる。   The three-dimensional space recognition processing unit 108c calculates the three-dimensional coordinates of the natural feature points extracted from the image in the real space by using SfM (Structure from Motion) based on the image data captured by the camera 102, for example, and calculates landmark data. To be stored. Then, the three-dimensional space recognition processing unit 108c estimates the position and orientation of the head-mounted image unit 10 based on the correspondence between the landmark data and the natural feature points obtained from the image data captured by the camera 102. As described above, even when the marker 40 is not imaged, the position and orientation of the head-mounted image unit 10 in the coordinate system in the real space can be estimated.

画像処理制御部110は、制御部110aと、画像処理部110bと、出力処理部110cとを有する。
制御部110aは、画像処理装置1全体を制御する。
The image processing control unit 110 has a control unit 110a, an image processing unit 110b, and an output processing unit 110c.
The control unit 110a controls the entire image processing apparatus 1.

画像処理部110bは、位置合わせ部106aによる位置合わせに基づき、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される仮想オブジェクトの画像とを合成する。より具体的には、画像処理部110bは、位置合わせ部106aによる位置合わせが終了した後には、3次元空間認識処理部108cにより推定される頭部装着映像部10の位置姿勢に基づき、設計部材に基づき生成された仮想オブジェクトの位置及び形状を変更して、現実空間画像に重畳する。また、画像処理部110bは、仮想オブジェクトの可動オブジェクトを生成し、現実空間画像に重畳表示する。   The image processing unit 110b combines the real space image observed from the viewpoint position of the user and the image of the virtual object observed from the viewpoint position of the user, based on the alignment by the alignment unit 106a. More specifically, after the positioning by the positioning unit 106a is completed, the image processing unit 110b determines the design member based on the position and orientation of the head-mounted image unit 10 estimated by the three-dimensional space recognition processing unit 108c. The position and shape of the virtual object generated based on are changed and superimposed on the real space image. Further, the image processing unit 110b generates a movable object of the virtual object and superimposes the movable object on the real space image.

出力処理部110cは、画像処理部110bなどから入力されたデータ形式を変換して、表示部30、液晶画面112、及びスピーカ114に出力する。   The output processing unit 110c converts a data format input from the image processing unit 110b or the like, and outputs the data to the display unit 30, the liquid crystal screen 112, and the speaker 114.

液晶画面112は、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される仮想オブジェクトの画像とを重畳表示する。液晶画面112は、例えば頭部装着型ディスプレイである。また、液晶画面112を光学シースルー方式によって実現してもよい。例えば、光学シースルー型液晶ディスプレイに、観察者の視点の位置および姿勢に応じて生成した仮想オブジェクトの画像を表示することにより実現される。この場合には、現実空間の画像ではなく、実際の現実空間に重なるように仮想オブジェクトの画像が重畳される。   The liquid crystal screen 112 superimposes and displays the real space image observed from the viewpoint position of the user and the image of the virtual object observed from the viewpoint position of the user. The liquid crystal screen 112 is, for example, a head mounted display. Further, the liquid crystal screen 112 may be realized by an optical see-through method. For example, this is realized by displaying an image of a virtual object generated according to the position and orientation of the observer's viewpoint on an optical see-through liquid crystal display. In this case, the image of the virtual object is superimposed so as to overlap not the image of the real space but the actual real space.

なお、頭部装着映像部10と、設計部20との通信は無線通信でも有線通信でもよい。同様に、頭部装着映像部10と、表示部30との通信は無線通信でも有線通信でもよい。また、設計部20を頭部装着映像部10内に構成してもよい。   Note that the communication between the head-mounted image unit 10 and the design unit 20 may be wireless communication or wired communication. Similarly, the communication between the head-mounted video unit 10 and the display unit 30 may be wireless communication or wired communication. Further, the design unit 20 may be configured in the head-mounted image unit 10.

さらにまた、頭部装着映像部10を操作者が装着した状態で、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置してもよい。すなわち、現場で設計した設計部材を仮想オブジェクトの画像として観察可能となる。この際に、設計支援ツールの操作には、入力操作部206を仮想のキーボードやテンキーとして頭部装着映像部10などに映し出し、使用してもよい。このように、設計行為を行いながら、実際の現実空間に重なる設計部材の仮想オブジェクトを確認、検証、及び修正をすることが可能となり、設計効率をより上げることができる。これにより、従来であれば3Dレーザスキャン作業のプロセスが必要であったが、不要となり、大幅な工程短縮につなげることも可能となる。   Furthermore, a design member may be generated using a design support tool in a state where the operator wears the head-mounted image unit 10, and the design member may be arranged in a three-dimensional model space for design. That is, the design member designed on site can be observed as an image of the virtual object. At this time, for the operation of the design support tool, the input operation unit 206 may be displayed on the head mounted image unit 10 or the like as a virtual keyboard or numeric keypad and used. As described above, it is possible to confirm, verify, and correct the virtual object of the design member overlapping the actual real space while performing the design action, and it is possible to further improve the design efficiency. Accordingly, a 3D laser scanning operation process was conventionally required, but is no longer necessary, and it is possible to significantly reduce the number of steps.

スピーカ114は、認識処理部108による認識結果に基づく音声を出力する。例えば、音声認識処理部108aで出力された指示コードに基づく音声を出力する。例えば、設計支援ツールに対して音声により指示することも可能である。   The speaker 114 outputs a sound based on the recognition result by the recognition processing unit 108. For example, a voice based on the instruction code output by the voice recognition processing unit 108a is output. For example, it is also possible to instruct the design support tool by voice.

ここで、属性情報付与部202および設計処理部204の詳細な構成を説明する。
図2は、モデル空間を示す格子モデルと設計部材の配置を示す図である。ここでは、3次元の格子点モデル300の水平面の一部を示している。図2に示すように、属性情報付与部202は、施工対象となる現実空間の実際の寸法に基づき、施工対象となる現実空間に対応する3次元モデル空間として3次元の格子点モデル300を生成する。座標B1〜B3、及び座標C1〜C3は格子点モデル300の位置を示している。例えば、座標B1〜B3、及び座標C1〜C3は現実空間の通り芯の位置に対応している。また、マーカ位置M1は、位置合わせ部106aにより座標空間の位置合わせを行う際にマーカ40を配置する位置を示している。
Here, a detailed configuration of the attribute information providing unit 202 and the design processing unit 204 will be described.
FIG. 2 is a diagram illustrating a lattice model indicating a model space and an arrangement of design members. Here, a part of the horizontal plane of the three-dimensional grid point model 300 is shown. As shown in FIG. 2, the attribute information providing unit 202 generates a three-dimensional grid point model 300 as a three-dimensional model space corresponding to the real space to be constructed, based on the actual dimensions of the real space to be constructed. I do. The coordinates B1 to B3 and the coordinates C1 to C3 indicate the positions of the grid point model 300. For example, the coordinates B1 to B3 and the coordinates C1 to C3 correspond to the position of the center of the real space. The marker position M1 indicates a position at which the marker 40 is arranged when the positioning unit 106a performs positioning in the coordinate space.

属性情報付与部202は、3次元モデル空間内に設計部材を配置する位置を属性情報として付与する。より具体的には、属性情報付与部202は、入力処理部106により指示された3次元の格子点モデル300(図2)上の座標に基づき、設計部材を配置する位置を属性情報として付与する。例えば、属性情報付与部202は、入力処理部106により指示された3次元の格子点モデル300(図2)上の通り芯の位置に対応させて、設計部材を配置する位置を属性情報として付与することも可能である。また、属性情報付与部202は、画像認識処理部108bにより取得された距離情報を用いて3次元のモデル空間内に設計部材を配置してもよい。   The attribute information assigning unit 202 assigns, as attribute information, a position at which the design member is arranged in the three-dimensional model space. More specifically, the attribute information assigning unit 202 assigns the position at which the design member is to be arranged as attribute information based on the coordinates on the three-dimensional lattice model 300 (FIG. 2) specified by the input processing unit 106. . For example, the attribute information assigning unit 202 assigns the position at which the design member is to be arranged as attribute information in correspondence with the position of the center line on the three-dimensional lattice model 300 (FIG. 2) specified by the input processing unit 106. It is also possible. In addition, the attribute information providing unit 202 may arrange the design members in the three-dimensional model space using the distance information acquired by the image recognition processing unit 108b.

図3は、設計部材に付与された属性情報を示す図である。図3に示すように、
属性情報付与部204は、設計処理部204により生成される設計部材A1〜A4、D1,MV1〜MV2に属性情報も付与する。例えば、属性情報付与部204は、設計処理部204で生成可能な属性情報のデータとして、例えば径100Aの配管、径100Aのフランジ管などの情報を記憶している。そして、属性情報付与部204は、入力処理部106により指示された属性情報を設計部材A1〜A3に付与する。属性情報付与部204は、これらの径100Aの配管、径100Aのフランジ管などの情報として、設計処理部204に記憶される3次元CADモデルの情報を付与してもよい。或いは、別の三次元モデルの情報を付与してもよい。
FIG. 3 is a diagram showing attribute information given to a design member. As shown in FIG.
The attribute information assigning unit 204 also assigns attribute information to the design members A1 to A4, D1, and MV1 to MV2 generated by the design processing unit 204. For example, the attribute information assigning unit 204 stores information on, for example, a pipe having a diameter of 100A and a flange pipe having a diameter of 100A as data of attribute information that can be generated by the design processing unit 204. Then, the attribute information assigning unit 204 assigns the attribute information specified by the input processing unit 106 to the design members A1 to A3. The attribute information providing unit 204 may provide information of the three-dimensional CAD model stored in the design processing unit 204 as information on the pipe having a diameter of 100A, the flange pipe having a diameter of 100A, and the like. Alternatively, information of another three-dimensional model may be added.

設計部材A4には、既に現実空間に配置されている設計部材R1が属性情報として付与されている。すなわち、属性情報付与部204は、設計部材A4の属性情報として現実空間に配置されている設計部材R1を付与することが可能である。同様に、属性情報付与部204は、除去予定の設計部材D1の属性情報として現実空間に配置されている設計部材R2を付与することが可能である。また、属性情報付与部204は、移動モーションオブジェクトを生成する設計部材MV1の属性情報として現実空間に配置されている設計部材R3を付与することが可能である。同様に、移動モーションオブジェクトを生成する設計部材MV2の属性情報として、3次元モデル空間内に配置されている仮想オブジェクト、例えば後述する電動ポンプZMV2(図14など)を付与することが可能である。   To the design member A4, the design member R1 already arranged in the real space is given as attribute information. That is, the attribute information providing unit 204 can provide the design member R1 arranged in the real space as the attribute information of the design member A4. Similarly, the attribute information providing unit 204 can provide the design member R2 arranged in the real space as the attribute information of the design member D1 to be removed. Further, the attribute information providing unit 204 can provide the design member R3 arranged in the real space as the attribute information of the design member MV1 that generates the moving motion object. Similarly, as the attribute information of the design member MV2 that generates the moving motion object, it is possible to add a virtual object arranged in the three-dimensional model space, for example, an electric pump ZMV2 (FIG. 14) described later.

図4は、設計処理部204により生成された設計部材を模式的に示す図である。図4に示すように、設計処理部204は、設計部材に付与された属性情報に基づき、3次元モデル空間内に設計部材A1〜A3を生成し、配置する。例えば、設計処理部204は、設計部材に付与された3次元CADモデルの情報及び位置情報を用いて、3次元モデル空間内に設計部材A1〜A3を生成し、配置する。   FIG. 4 is a diagram schematically illustrating a design member generated by the design processing unit 204. As shown in FIG. 4, the design processing unit 204 generates and arranges the design members A1 to A3 in the three-dimensional model space based on the attribute information given to the design members. For example, the design processing unit 204 generates and arranges the design members A1 to A3 in the three-dimensional model space using the information and the position information of the three-dimensional CAD model assigned to the design member.

また、設計処理部204は、現実空間に配置済みの設計部材R1の既設設計データに基づき設計部材A4を3次元のモデル空間に配置する。このように、設計処理部204は、既設の部材に関しても3次元モデル空間内に設計部材A4、D1、MV1などを配置することが可能である。   The design processing unit 204 arranges the design member A4 in the three-dimensional model space based on the existing design data of the design member R1 already arranged in the real space. As described above, the design processing unit 204 can arrange the design members A4, D1, MV1, and the like in the three-dimensional model space with respect to the existing members.

図5は、設計処理部204により生成された設計部材A1〜A4を変換部106bにより仮想オブジェクトZA1〜ZA4に変換して現実空間に重畳した図である。上側の図が現実空間の画像であり、下側の図が仮想オブジェクトを現実空間に重畳した図である。図5に示すように、設計に基づく施工位置に設計部材A1〜A4の仮想オブジェクトZA1〜ZA4を重畳可能であり、施工予想図を現実空間内に視覚化することができる。また、現実空間に配置されている設計部材R1に対応する設計部材A4の仮想オブジェクトを実空間に重畳することで、設計部材R1が設計された位置に配置されているか否かを確認することも可能となる。   FIG. 5 is a diagram in which the design members A1 to A4 generated by the design processing unit 204 are converted into virtual objects ZA1 to ZA4 by the conversion unit 106b and are superimposed on the real space. The upper diagram is an image of the real space, and the lower diagram is a diagram in which the virtual object is superimposed on the real space. As shown in FIG. 5, the virtual objects ZA1 to ZA4 of the design members A1 to A4 can be superimposed on the construction position based on the design, and the construction drawing can be visualized in the real space. Further, by superimposing a virtual object of the design member A4 corresponding to the design member R1 arranged in the real space on the real space, it is possible to confirm whether the design member R1 is arranged at the designed position. It becomes possible.

図6は、除去予定の設計部材R2の設計部材D1を仮想オブジェクトZD1に変換して現実空間に重畳した図である。上側の図が現実空間の画像であり、下側の図が仮想オブジェクトZD1を現実空間画像に重畳した図である。図6に示すように、現実空間に配置されている設計部材R2に対応する設計部材D1の仮想オブジェクトZD1を現実空間画像に重畳することで、除去予定の設計部材R2の位置も確認可能となる。例えば、画像処理部110bは、除去予定の設計部材R2を示すマークE1などを更に重畳することが可能である。   FIG. 6 is a diagram in which the design member D1 of the design member R2 to be removed is converted into the virtual object ZD1 and is superimposed on the real space. The upper diagram is an image of the real space, and the lower diagram is a diagram in which the virtual object ZD1 is superimposed on the real space image. As shown in FIG. 6, by superimposing the virtual object ZD1 of the design member D1 corresponding to the design member R2 placed in the real space on the real space image, the position of the design member R2 to be removed can also be confirmed. . For example, the image processing unit 110b can further superimpose a mark E1 or the like indicating the design member R2 to be removed.

図7は、可動する設計部材R3の設計部材MV1を仮想オブジェクトZMV1に変換して現実空間に重畳した図である。ここで、可動する設計部材R3は開閉する装置の蓋である。上側の図が現実空間の画像であり、下側の図が仮想オブジェクトZD1を現実空間に重畳した図である。図7に示すように、画像処理部110bは、設計部材MV1の仮想オブジェクトZMV1の座標を変えて複数生成し、時系列に現実空間画像に重畳する。これにより、可動する部材R3が可動する範囲を視認することが可能となる。   FIG. 7 is a diagram in which the design member MV1 of the movable design member R3 is converted into a virtual object ZMV1 and superimposed on the real space. Here, the movable design member R3 is a lid of the device that opens and closes. The upper diagram is an image of the real space, and the lower diagram is a diagram in which the virtual object ZD1 is superimposed on the real space. As shown in FIG. 7, the image processing unit 110b generates a plurality of virtual objects ZMV1 of the design member MV1 by changing the coordinates, and superimposes the virtual objects ZMV1 on the real space image in a time series. Thereby, it becomes possible to visually recognize the movable range of the movable member R3.

図8〜図12に基づき、画像認識処理部108bの詳細な処理を説明する。
図8は、現実空間に重畳された仮想オブジェクト上のマーク点E1と、画像認識処理部108bにより認識された指先E2を示す図である。図8に示すように、画像認識処理部108bは、使用者の視点位置と認識した指先E2とを結ぶ線が現実空間、及び現実空間に重畳された仮想オブジェクトのいずれかに交わる点を3次元座標として画像処理部110bに出力する。画像処理部110bは、この3次元座標に基づき、マーク点E3を現実空間、又は現実空間に重畳された仮想オブジェクトに重畳する。
The detailed processing of the image recognition processing unit 108b will be described with reference to FIGS.
FIG. 8 is a diagram illustrating a mark point E1 on the virtual object superimposed on the real space and a fingertip E2 recognized by the image recognition processing unit 108b. As illustrated in FIG. 8, the image recognition processing unit 108b determines the point at which the line connecting the user's viewpoint position and the recognized fingertip E2 intersects either the real space or the virtual object superimposed on the real space. The coordinates are output to the image processing unit 110b. The image processing unit 110b superimposes the mark point E3 on the real space or a virtual object superimposed on the real space based on the three-dimensional coordinates.

図9は、現実空間に重畳された仮想オブジェクト上のマーク点E3と、確定点であることを示すマークE4とを示す図である。図9に示すように画像処理部110bは、位置が確定すると、マークE4を現実空間画像に重畳する。   FIG. 9 is a diagram showing a mark point E3 on the virtual object superimposed on the real space and a mark E4 indicating a fixed point. As shown in FIG. 9, when the position is determined, the image processing unit 110b superimposes the mark E4 on the real space image.

図10は、現実空間上のマーク点E5と、画像認識処理部108bにより認識された指先E2を示す図である。図10に示すように、画像認識処理部108bは、使用者の視点位置と認識した指先E2とを結ぶ線が現実空間、及び現実空間に重畳された仮想オブジェクトのいずれかに交わる交を3次元座標として画像処理部110bに出力する。画像処理部110bは、この3次元座標に基づき、マーク点E5を現実空間、又は現実空間に重畳された仮想オブジェクトに重畳する。   FIG. 10 is a diagram showing a mark point E5 in the real space and a fingertip E2 recognized by the image recognition processing unit 108b. As illustrated in FIG. 10, the image recognition processing unit 108b performs a three-dimensional intersection of a line connecting the viewpoint position of the user and the recognized fingertip E2 with either the real space or the virtual object superimposed on the real space. The coordinates are output to the image processing unit 110b. The image processing unit 110b superimposes the mark point E5 on the real space or the virtual object superimposed on the real space based on the three-dimensional coordinates.

図11は、現実空間上のマーク点E5と、確定点であることを示すマークE6を示す図である。図11に示すように、画像処理部110bは、位置が確定すると、マークE6を現実空間画像に重畳する。   FIG. 11 is a diagram showing a mark point E5 in the real space and a mark E6 indicating a fixed point. As shown in FIG. 11, when the position is determined, the image processing unit 110b superimposes the mark E6 on the real space image.

図12は、仮想オブジェクト上のマーク点E1と現実空間上のマーク点E5との間の距離E7を示す図である。図12に示すように、画像認識処理部108bは、2点の位置が確定すると、2点間の距離E7を演算し、画像処理部110bに出力する。画像処理部110bは、距離E7を示す情報を現実空間画像に重畳する。このように、仮想オブジェクト上のマーク点E1と現実空間上のマーク点E5との間の距離を取得できるので、現実空間の寸法が設計図とずれている場合などにも、正確な距離情報を取得できる。これにより、設計情報をより正確に修正することが可能となる。   FIG. 12 is a diagram illustrating a distance E7 between the mark point E1 on the virtual object and the mark point E5 on the real space. As shown in FIG. 12, when the positions of the two points are determined, the image recognition processing unit 108b calculates the distance E7 between the two points and outputs the distance E7 to the image processing unit 110b. The image processing unit 110b superimposes information indicating the distance E7 on the physical space image. As described above, since the distance between the mark point E1 on the virtual object and the mark point E5 on the real space can be obtained, accurate distance information can be obtained even when the dimensions of the real space are different from the design drawing. Can be obtained. This makes it possible to correct the design information more accurately.

例えば、頭部装着映像部10を操作者が装着した状態で、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する際に、画像認識処理部108bが取得した、仮想オブジェクト上のマーク点E1と現実空間上のマーク点E5との間の距離を用いることが可能となる。このように、設計部20は、画像認識処理部108bにより取得された距離情報を用いて前記3次元モデル空間に設計部材を配置することも可能である。   For example, when a design member is generated using a design support tool while the head-mounted image unit 10 is worn by an operator, and the design member is arranged in a three-dimensional model space for design, the image recognition processing unit 108b It is possible to use the distance between the mark point E1 on the virtual object and the mark point E5 in the real space, which has been acquired by the user. As described above, the design unit 20 can arrange the design members in the three-dimensional model space using the distance information acquired by the image recognition processing unit 108b.

図13〜図17に基づき、設計部材MV2における仮想オブジェクトの自由移動処理を説明する。
図13は、現実空間に重畳された設計部材MV2における仮想オブジェクトZMV2の配置点であるマーク点E8を示す図である。図13に示すように、画像認識処理部108bは、使用者の視点位置と認識した指先とを結ぶ線が現実空間と交わる交点を3次元座標として画像処理部110bに出力する。画像処理部110bは、この3次元座標に基づき、マーク点E8を現実空間、又は現実空間に重畳された仮想オブジェクトに重畳する。
The free movement processing of the virtual object in the design member MV2 will be described with reference to FIGS.
FIG. 13 is a diagram illustrating a mark point E8, which is an arrangement point of the virtual object ZMV2 in the design member MV2 superimposed on the real space. As illustrated in FIG. 13, the image recognition processing unit 108b outputs, to the image processing unit 110b, the intersection of the line connecting the user's viewpoint position and the recognized fingertip with the real space as three-dimensional coordinates. The image processing unit 110b superimposes the mark point E8 on the real space or the virtual object superimposed on the real space based on the three-dimensional coordinates.

図14は、現実空間に重畳された設計部材MV2の仮想オブジェクトZMV2を示す図である。図14に示すように、画像処理部110bは、例えばマーク点E8に仮想オブジェクトZMV2の底面の中心座標を合わせて配置する。   FIG. 14 is a diagram illustrating the virtual object ZMV2 of the design member MV2 superimposed on the real space. As shown in FIG. 14, the image processing unit 110b arranges, for example, the mark point E8 with the center coordinates of the bottom surface of the virtual object ZMV2.

図15は、現実空間に重畳された仮想オブジェクトZMV2の移動を示す図である。図15に示すように、画像処理部110bは、仮想オブジェクトZMV2の位置を操作者の指示する方向に向けて変更し、時系列に現実空間に重畳する。これらから分かるように、仮想オブジェクトの移動経路には障害物があり、指示方向では設計部材MV2の移動はできない。   FIG. 15 is a diagram illustrating movement of the virtual object ZMV2 superimposed on the real space. As illustrated in FIG. 15, the image processing unit 110b changes the position of the virtual object ZMV2 in the direction specified by the operator, and superimposes the virtual object ZMV2 on the real space in a time series. As can be seen from these, there is an obstacle on the movement path of the virtual object, and the design member MV2 cannot move in the indicated direction.

図16は、異なる位置に再配置された設計部材MV2の仮想オブジェクトZMV2を示す図である。マークEは、操作の指示する移動方向を示す。このように、操作者は設計部材MV2の移動方向を指示可能である。   FIG. 16 is a diagram illustrating the virtual object ZMV2 of the design member MV2 rearranged at a different position. The mark E indicates the movement direction instructed by the operation. Thus, the operator can instruct the moving direction of the design member MV2.

図17は、再配置された設計部材MV2の移動を示す図である。図16に示すように、仮想オブジェクトZMV2の移動経路には障害物がなく、指示方向に設計部材MV2を移動させることが可能である。このように、設計部材MV2の仮想オブジェクトZMV2を現実空間内の任意の位置に配置し、任意の移動方向に移動させることが可能である。これにより、設計部材MV2の移動が可能であるか否かを視覚により確認することが可能である。   FIG. 17 is a diagram showing the movement of the rearranged design member MV2. As shown in FIG. 16, there is no obstacle on the movement path of the virtual object ZMV2, and the design member MV2 can be moved in the indicated direction. In this way, it is possible to arrange the virtual object ZMV2 of the design member MV2 at an arbitrary position in the real space and move it in an arbitrary moving direction. This makes it possible to visually check whether the design member MV2 can be moved.

図18は、画像処理装置1における画像処理の流れを示すフローチャートの一例である。
図18に示すように、操作者は、属性情報付与部202により施工に用いる設計部材の属性情報を入力する(ステップS100)。操作者は、例えば表示部30に表示される3次元モデル空間内に、設計部材を配置する位置に対応する座標を入力操作部206により指示する。また、操作者は、例えば表示部30に表示される3次元CADモデルの一覧の中から設計部材を選択する。属性情報付与部202は、これらの情報を設計部材の属性情報として付与する。この際に、3次元モデル空間にマーカ40を配置する座標も設定される。
FIG. 18 is an example of a flowchart showing the flow of image processing in the image processing apparatus 1.
As shown in FIG. 18, the operator inputs attribute information of a design member used for construction by the attribute information providing unit 202 (step S100). The operator instructs the coordinates corresponding to the position where the design member is to be arranged in the three-dimensional model space displayed on the display unit 30 by using the input operation unit 206, for example. The operator selects a design member from a list of three-dimensional CAD models displayed on the display unit 30, for example. The attribute information assigning unit 202 assigns such information as attribute information of the design member. At this time, coordinates for arranging the marker 40 in the three-dimensional model space are also set.

次に、設計処理部204は、属性情報付与部202により付与された属性情報に基づき、設計部材を生成し、設計用の3次元モデル空間に配置する(ステップS102)。これらの設計部材は、例えば表示部30に表示され、操作者により視認される。   Next, the design processing unit 204 generates a design member based on the attribute information provided by the attribute information providing unit 202, and arranges the design member in a three-dimensional model space for design (step S102). These design members are displayed on the display unit 30, for example, and are visually recognized by the operator.

次に、3次元モデル空間に設定されたマーカ40の座標に対応する現実空間の位置にマーカ40を配置し、カメラ102により撮像する(ステップS104)。続けて、位置合わせ部106aは、撮像されたたマーカ40の情報に基づき、3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う(ステップS106)。   Next, the marker 40 is arranged at a position in the real space corresponding to the coordinates of the marker 40 set in the three-dimensional model space, and an image is taken by the camera 102 (step S104). Subsequently, the positioning unit 106a performs positioning between the coordinate system in the three-dimensional model space and the coordinate system in the real space based on the information of the captured marker 40 (step S106).

次に、3次元空間認識処理部108cは、カメラ102が撮像した画像データから自然特徴点を取得し(ステップS108)、ランドマークデータと自然特徴点との対応関係に基づき、頭部装着映像部10の位置姿勢を推定する(ステップS110)。   Next, the three-dimensional space recognition processing unit 108c acquires natural feature points from the image data captured by the camera 102 (step S108), and based on the correspondence between the landmark data and the natural feature points, the head-mounted video unit 10 position and orientation are estimated (step S110).

次に、変換部106bは、設計処理部204により生成された設計部材の情報を仮想オブジェクトに変換する。これにより、コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトが3次元モデル空間内に配置される。続けて、画像処理部110bは、位置姿勢の推定結果に基づき、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される仮想オブジェクトの画像とを重畳する(ステップS112)。   Next, the conversion unit 106b converts the information on the design members generated by the design processing unit 204 into a virtual object. Thereby, the virtual object generated based on the design member designed by the computer-aided design is arranged in the three-dimensional model space. Subsequently, the image processing unit 110b superimposes the real space image observed from the user's viewpoint position and the image of the virtual object observed from the user's viewpoint position, based on the estimation result of the position and orientation (step). S112).

制御部110aは、画像処理制御を継続する否かを判断する(ステップS114)。画像処理制御を継続する場合(ステップS114のNO)、ステップS108からの処理を繰り返す。一方、画像処理制御を終了する場合(ステップS114のYES)、全体処理を終了する。   The control unit 110a determines whether to continue the image processing control (Step S114). When the image processing control is continued (NO in step S114), the processing from step S108 is repeated. On the other hand, when ending the image processing control (YES in step S114), the entire process ends.

以上のように、本実施形態によれば、位置合わせ部106aが、設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標と、現実空間の座標との位置合わせを行い、画像処理部110bが、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される仮想オブジェクトの画像を生成する。これにより、現実空間画像に設計部材に基づき生成された仮想オブジェクトを重畳表示することが可能となり、設計部材を用いた施工結果を施工前に確認することができる。   As described above, according to the present embodiment, the positioning unit 106a performs positioning between the coordinates in the three-dimensional model space where the virtual objects generated based on the design members are arranged and the coordinates in the real space, and The processing unit 110b generates an image of the virtual object observed from the viewpoint of the user, based on the alignment, in correspondence with the real space image observed from the viewpoint of the user. Thereby, it becomes possible to superimpose and display the virtual object generated based on the design member on the real space image, and to check the construction result using the design member before construction.

(第2実施形態)
第2実施形態に係る画像処理装置1は、属性情報付与部202が、更に複数の設計部材に工程順の情報を属性情報として付与することができる点で第1実施形態に係る画像処理装置1と相違する。以下では、第1実施形態と相違する点に関して説明する。
(2nd Embodiment)
The image processing apparatus 1 according to the first embodiment is different from the image processing apparatus 1 according to the first embodiment in that the attribute information providing unit 202 can further provide process order information as attribute information to a plurality of design members. Is different from Hereinafter, points different from the first embodiment will be described.

図19は、第2実施形態に係る属性情報付与部202が設計部毎に工程順の情報を属性情報として付与した結果を示す図である。図19に示すように、本実施形態に係る属性情報付与部202は、工程順を更に属性情報として付与することができる。   FIG. 19 is a diagram illustrating a result of the attribute information assigning unit 202 according to the second embodiment assigning information on a process order as attribute information for each design unit. As shown in FIG. 19, the attribute information assigning unit 202 according to the present embodiment can further assign a process order as attribute information.

図20は、属性情報が2018/7/09が付与された設計部材A8、A9の仮想オブジェクトZA8、ZA9を現実空間画像に重畳表示した図である。
図21は、属性情報が2018/7/16が付与された設計部材A10、A11の仮想オブジェクトZA10、ZA11を現実空間画像に更に重畳表示した図である。
図22は、属性情報が2018/7/23が付与された設計部材A12、A13の仮想オブジェクトZA13、ZA13を現実空間画像に更に重畳表示した図である。
FIG. 20 is a diagram in which the virtual objects ZA8 and ZA9 of the design members A8 and A9 to which the attribute information 2018/7/09 is added are superimposed and displayed on the real space image.
FIG. 21 is a diagram in which virtual objects ZA10 and ZA11 of design members A10 and A11 to which attribute information 2018/7/16 is added are further superimposed and displayed on a real space image.
FIG. 22 is a diagram in which virtual objects ZA13 and ZA13 of design members A12 and A13 to which attribute information 2018/7/23 is added are further superimposed and displayed on the real space image.

図20〜22に示すように、画像処理部110bは、属性情報に従った順に仮想オブジェクトを現実空間画像に重畳表示する。また、画像処理部110bは、属性情報に対応する日付を示す画像を生成し現実空間画像に重畳表示する。   As shown in FIGS. 20 to 22, the image processing unit 110b superimposes and displays virtual objects on a real space image in the order according to the attribute information. Further, the image processing unit 110b generates an image indicating a date corresponding to the attribute information and superimposes the image on the physical space image.

図20に示すように、画像処理部110bは、属性情報に従った順に仮想オブジェクトを現実空間画像に重畳表示する。   As shown in FIG. 20, the image processing unit 110b superimposes and displays the virtual objects on the real space image in the order according to the attribute information.

以上のように、本実施形態によれば、属性情報付与部202が設計部材毎に工程順の情報を属性情報として付与することとした。これにより、画像処理部110bは、属性情報に従った順に仮想オブジェクトを現実空間画像に重畳表示することができる。このように、現実空間画像に設計部材に基づき生成された仮想オブジェクトを工程順に重畳表示することが可能となり、設計部材を用いた施工過程を実施の施工前に確認することができる。   As described above, according to the present embodiment, the attribute information assigning unit 202 assigns process order information as attribute information for each design member. Thereby, the image processing unit 110b can superimpose and display the virtual objects on the real space image in the order according to the attribute information. In this way, it is possible to superimpose and display the virtual objects generated based on the design members on the real space image in the order of steps, and to check the construction process using the design members before the execution of the construction.

本実施形態による画像処理装置1におけるデータ処理方法の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、データ処理方法の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。また、データ処理方法の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。   At least a part of the data processing method in the image processing apparatus 1 according to the present embodiment may be configured by hardware or software. When configured by software, a program for realizing at least a part of the function of the data processing method may be stored in a recording medium such as a flexible disk or a CD-ROM, and read and executed by a computer. The recording medium is not limited to a removable medium such as a magnetic disk or an optical disk, but may be a fixed recording medium such as a hard disk device or a memory. Further, a program that realizes at least a part of the function of the data processing method may be distributed via a communication line (including wireless communication) such as the Internet. Further, the program may be encrypted, modulated, or compressed, and distributed via a wired or wireless line such as the Internet, or stored in a recording medium.

以上、いくつかの実施形態を説明したが、これらの実施形態は、例としてのみ提示したものであり、発明の範囲を限定することを意図したものではない。本明細書で説明した新規な装置、方法及びプログラムは、その他の様々な形態で実施することができる。また、本明細書で説明した装置、方法及びプログラムの形態に対し、発明の要旨を逸脱しない範囲内で、種々の省略、置換、変更を行うことができる。   While some embodiments have been described above, these embodiments have been presented by way of example only, and are not intended to limit the scope of the invention. The novel devices, methods, and programs described herein can be implemented in various other forms. In addition, various omissions, substitutions, and changes can be made to the forms of the apparatus, method, and program described in this specification without departing from the spirit of the invention.

1:画像処理装置、10:頭部装着映像部、20:設計部、30:表示部、40:マーカ、106a:位置合わせ部、106b:変換部、108:認識処理部、108b:画像認識処理部、110b:画像処理部、202:属性情報付与部、204:設計処理部、206:入力操作部 1: image processing apparatus, 10: head mounted image section, 20: design section, 30: display section, 40: marker, 106a: alignment section, 106b: conversion section, 108: recognition processing section, 108b: image recognition processing Unit, 110b: image processing unit, 202: attribute information giving unit, 204: design processing unit, 206: input operation unit

Claims (10)

コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う位置合わせ部と、
前記位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、前記使用者の視点位置から観察される前記仮想オブジェクトの画像を生成する画像処理部と、
前記現実空間画像と前記仮想オブジェクトとを重畳表示する表示部と、
を備える画像処理装置。
A positioning unit for performing positioning between a coordinate system in a three-dimensional model space for arranging a virtual object generated based on a design member designed by computer-aided design and a coordinate system in a real space;
Based on the alignment, an image processing unit that generates an image of the virtual object observed from the viewpoint position of the user, corresponding to a real space image observed from the viewpoint position of the user,
A display unit that superimposes and displays the real space image and the virtual object;
An image processing apparatus comprising:
前記3次元モデル空間に設計部材を配置する設計部と、
前記設計部により配置された設計部材の情報を前記仮想オブジェクトに変換する変換部と、
をさらに備える、請求項1に記載の画像処理装置。
A design unit for arranging design members in the three-dimensional model space;
A conversion unit that converts information of the design members arranged by the design unit into the virtual object,
The image processing apparatus according to claim 1, further comprising:
前記設計部を操作する入力操作部を更に有し、
前記変換部は、前記入力操作部を介して配置された前記3次元モデル空間内の設計部材を前記使用者の視点位置から観察される前記仮想オブジェクトに変換する、請求項2に記載の画像処理装置。
Further comprising an input operation unit for operating the design unit,
The image processing according to claim 2, wherein the conversion unit converts a design member in the three-dimensional model space arranged via the input operation unit into the virtual object observed from a viewpoint position of the user. apparatus.
前記設計部は、前記現実空間に配置済みの部材の設計データに基づき前記設計部材を前記3次元モデル空間に配置し、
前記画像処理部は、前記現実空間に前記配置済みの部材の仮想オブジェクトを重畳表示する、請求項2に記載の画像処理装置。
The design unit arranges the design members in the three-dimensional model space based on design data of members arranged in the real space,
The image processing device according to claim 2, wherein the image processing unit superimposes and displays a virtual object of the placed member in the real space.
前記重畳表示された画像内における前記現実空間画像内の座標と、前記仮想オブジェクトの画像上の座標との間の距離情報を取得する画像認識処理部をさらに備える、請求項4に記載の画像処理装置。   The image processing according to claim 4, further comprising an image recognition processing unit configured to acquire distance information between coordinates in the real space image in the superimposed image and coordinates on the image of the virtual object. apparatus. 前記設計部は、前記画像認識処理部により取得された距離情報を用いて前記3次元モデル空間に設計部材を配置する、請求項5に記載の画像処理装置。   The image processing device according to claim 5, wherein the design unit arranges a design member in the three-dimensional model space using the distance information acquired by the image recognition processing unit. 前記設計部により配置される複数の設計部材に工程順の情報を属性情報として付与する属性情報付与部をさらに備え、
前記画像処理部は、前記工程順に応じて、複数の設計部材に対応する仮想オブジェクトを順に前記現実空間画像に重畳表示する、請求項2乃至6のいずれか一項に記載の画像処理装置。
An attribute information assigning unit that assigns process order information as attribute information to the plurality of design members arranged by the design unit,
The image processing apparatus according to claim 2, wherein the image processing unit superimposes and displays virtual objects corresponding to a plurality of design members on the real space image in accordance with the process order.
前記画像処理部は、前記仮想オブジェクトの可動オブジェクトを生成し、前記現実空間に時系列に重畳表示する、請求項1乃至7のいずれか一項に記載の画像処理装置。   The image processing device according to claim 1, wherein the image processing unit generates a movable object of the virtual object and superimposes and displays the movable object on the real space in a time series. 前記画像処理部は、前記可動オブジェクトを前記現実空間内の所定の方向に移動させる、請求項8に記載の画像処理装置。   The image processing device according to claim 8, wherein the image processing unit moves the movable object in a predetermined direction in the real space. コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う位置合わせ工程と、
前記位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、前記使用者の視点位置から観察される前記仮想オブジェクトの画像を生成する画像処理工程と、
前記現実空間画像と前記仮想オブジェクトとを重畳表示する表示工程と、
を備える画像処理方法。
An alignment step of aligning a coordinate system in a three-dimensional model space for arranging a virtual object generated based on a design member designed by computer-aided design with a coordinate system in a real space;
Based on the alignment, an image processing step of generating an image of the virtual object observed from the viewpoint position of the user, corresponding to a real space image observed from the viewpoint position of the user,
A display step of superimposing and displaying the real space image and the virtual object;
An image processing method comprising:
JP2018147619A 2018-08-06 2018-08-06 Image processing device and image processing method Active JP7098473B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018147619A JP7098473B2 (en) 2018-08-06 2018-08-06 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018147619A JP7098473B2 (en) 2018-08-06 2018-08-06 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2020024497A true JP2020024497A (en) 2020-02-13
JP7098473B2 JP7098473B2 (en) 2022-07-11

Family

ID=69618699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018147619A Active JP7098473B2 (en) 2018-08-06 2018-08-06 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7098473B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249985A (en) * 1999-12-27 2001-09-14 Ohbayashi Corp Execution plan supporting system, execution plan supporting method, and recording medium recorded with computer program for realizing execution plan supporting system
JP2005135355A (en) * 2003-03-28 2005-05-26 Olympus Corp Data authoring processing apparatus
JP2006048639A (en) * 2004-06-29 2006-02-16 Canon Inc Method and apparatus for processing information
JP2007228315A (en) * 2006-02-24 2007-09-06 Mitsubishi Heavy Ind Ltd System for supporting construction work and inspection for structure inside building
JP2011008351A (en) * 2009-06-23 2011-01-13 Canon Inc Image processing method and image processing apparatus
JP2014123376A (en) * 2012-12-21 2014-07-03 Dassault Systemes Delmia Corp Location correction of virtual objects
JP2017059213A (en) * 2015-09-16 2017-03-23 ザ・ボーイング・カンパニーThe Boeing Company Immersive design management system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249985A (en) * 1999-12-27 2001-09-14 Ohbayashi Corp Execution plan supporting system, execution plan supporting method, and recording medium recorded with computer program for realizing execution plan supporting system
JP2005135355A (en) * 2003-03-28 2005-05-26 Olympus Corp Data authoring processing apparatus
JP2006048639A (en) * 2004-06-29 2006-02-16 Canon Inc Method and apparatus for processing information
JP2007228315A (en) * 2006-02-24 2007-09-06 Mitsubishi Heavy Ind Ltd System for supporting construction work and inspection for structure inside building
JP2011008351A (en) * 2009-06-23 2011-01-13 Canon Inc Image processing method and image processing apparatus
JP2014123376A (en) * 2012-12-21 2014-07-03 Dassault Systemes Delmia Corp Location correction of virtual objects
JP2017059213A (en) * 2015-09-16 2017-03-23 ザ・ボーイング・カンパニーThe Boeing Company Immersive design management system

Also Published As

Publication number Publication date
JP7098473B2 (en) 2022-07-11

Similar Documents

Publication Publication Date Title
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
US11032603B2 (en) Recording remote expert sessions
JP5857946B2 (en) Image processing apparatus, image processing method, and program
JP2013054661A (en) Information display system, information display method and program for information display
CN105637559A (en) Structural modeling using depth sensors
JP2006048639A (en) Method and apparatus for processing information
WO2019093457A1 (en) Information processing device, information processing method and program
JP2015011480A (en) Image generation device, image generation method and program
JP2010257081A (en) Image procession method and image processing system
JP2012221416A (en) Computer system, and assembly animation generation method
JP2013008257A (en) Image composition program
JP5664215B2 (en) Augmented reality display system, augmented reality display method used in the system, and augmented reality display program
WO2022032688A1 (en) Method for remote assistance and device
JP2010205031A (en) Method, system and program for specifying input position
JP2019053359A (en) Data processing device
JP7098473B2 (en) Image processing device and image processing method
JP7403273B2 (en) Image processing device and image processing method
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method
JP2013092888A (en) Data processor
JP7287408B2 (en) Display method, information processing device, and program
JP6800599B2 (en) Information processing equipment, methods and programs
JP7557932B2 (en) Image processing device and image processing method
JP6123618B2 (en) Video output apparatus, video output method, and program
JP6899715B2 (en) Drawing system, drawing method and program
JP2015069445A (en) Video output device, video output method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191011

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210517

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210526

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210528

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210618

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210622

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220121

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220506

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220603

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220629

R150 Certificate of patent or registration of utility model

Ref document number: 7098473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150