JP2020024497A - Image processing device, and image processing method - Google Patents
Image processing device, and image processing method Download PDFInfo
- Publication number
- JP2020024497A JP2020024497A JP2018147619A JP2018147619A JP2020024497A JP 2020024497 A JP2020024497 A JP 2020024497A JP 2018147619 A JP2018147619 A JP 2018147619A JP 2018147619 A JP2018147619 A JP 2018147619A JP 2020024497 A JP2020024497 A JP 2020024497A
- Authority
- JP
- Japan
- Prior art keywords
- design
- image
- unit
- image processing
- real space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明の実施形態は、画像処理装置、及び画像処理方法に関する。 An embodiment of the present invention relates to an image processing device and an image processing method.
現実空間画像に仮想オブジェクトを重ねて表示する画像処理装置が知られている。一方で、施工現場では、3次元CADシステムで設計された3次元の設計部材の情報を用いて2次元の施工用の施工図面を起こしている。 2. Description of the Related Art An image processing apparatus that displays a virtual object superimposed on a real space image is known. On the other hand, at a construction site, a construction drawing for two-dimensional construction is generated using information of three-dimensional design members designed by a three-dimensional CAD system.
ところが二次元の施工図面から3次元の設計部材を施工する場合に、人の認識ミスなどにより施工を間違ってしまう恐れがある。 However, when constructing a three-dimensional design member from a two-dimensional construction drawing, there is a risk that construction may be erroneously performed due to a human recognition error or the like.
本発明が解決しようとする課題は、コンピュータ支援設計により設計された設計部材の施工結果画像を現実空間画像に重畳可能な画像処理装置、及び画像処理方法を提供することである。 An object of the present invention is to provide an image processing apparatus and an image processing method capable of superimposing a construction result image of a design member designed by computer-aided design on a real space image.
本実施形態に係る画像処理装置は、位置合わせ部と、画像処理部と、表示部と、を備える。位置合わせ部は、コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。画像処理部は、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される仮想オブジェクトの画像を生成する。表示部は、実空間画像と仮想オブジェクトとを重畳表示する。 The image processing device according to the present embodiment includes a positioning unit, an image processing unit, and a display unit. The alignment unit aligns a coordinate system in a three-dimensional model space, in which a virtual object generated based on a design member designed by computer-aided design is arranged, with a coordinate system in a real space. The image processing unit generates an image of the virtual object observed from the viewpoint position of the user, based on the alignment, in correspondence with the real space image observed from the viewpoint position of the user. The display unit superimposes and displays the real space image and the virtual object.
本実施形態によれば、コンピュータ支援設計により設計された設計部材の施工結果画像を現実空間画像に重畳できる。 According to the present embodiment, a construction result image of a design member designed by computer-aided design can be superimposed on a real space image.
以下、本発明の実施形態に係る画像処理装置、及び画像処理方法について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は、本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分又は同様な機能を有する部分には同一の符号又は類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。 Hereinafter, an image processing apparatus and an image processing method according to an embodiment of the present invention will be described in detail with reference to the drawings. The embodiments described below are examples of the embodiments of the present invention, and the present invention is not construed as being limited to these embodiments. In the drawings referred to in this embodiment, the same portions or portions having similar functions are denoted by the same reference numerals or similar reference numerals, and repeated description thereof may be omitted. Further, the dimensional ratios in the drawings may be different from the actual ratios for convenience of description, or some of the components may be omitted from the drawings.
(第1実施形態)
図1は、本実施形態に係る画像処理装置1の構成を示すブロック図である。図1に示すように、本実施形態に係る画像処理装置1は、カメラで撮影した現実空間と3次元モデル空間とを位置合わせし、現実空間画像と仮想オブジェクトの画像とを重畳表示する装置である。この画像処理装置1は、頭部装着映像部10と、設計部20と、表示部30と、マーカ40とを備えて構成されている。
(1st Embodiment)
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus 1 according to the present embodiment. As shown in FIG. 1, an image processing apparatus 1 according to the present embodiment is an apparatus that positions a real space captured by a camera and a three-dimensional model space, and superimposes and displays a real space image and a virtual object image. is there. The image processing apparatus 1 includes a head-mounted
頭部装着映像部10は、例えばウェアラブルコンピュータであり、操作者の頭部に装着する装置である。頭部装着映像部10の詳細な構成は後述する。
The head mounted
設計部20は、例えば、CPU(Central Processing Unit)を含んで構成され、設計空間の座標系に設計部材を配置する。この設計部20は、例えばキャド(CAD:computer−aided design)であり、3次元CADモデルを有する設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する。この設計部20は、属性情報付与部202と、設計処理部204と、入力操作部206と、を有する。
The
属性情報付与部202は、後述の設計処理部204により生成する設計部材に属性情報を付与する。例えば、属性情報付与部202は、3次元CADモデルを選択するための3次元CADモデル属性情報を付与する。
The attribute
設計処理部204は、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する。この設計処理部204は、属性情報付与部202により付与された属性情報に基づき、設計部材を生成し、設計用の3次元モデル空間に配置する。例えば、設計処理部204は、属性情報付与部202により付与された3次元CADモデル属性情報に基づき、設計用の3次元CADモデルの中から設計部材を選択する。なお、属性情報付与部202および設計処理部204の詳細は後述する。
The
入力操作部206は、設計部20を含む頭部装着映像部10の操作に必要となる情報を入力する。入力操作部206は、例えばキーボード、マウス、ポインティングデバイスなどにより構成される。
The
表示部30は、各種の情報を表示する。例えば、表示部30は、設計部20により生成された各種の情報を表示する。また、表示部30は、現実空間画像と仮想オブジェクトとを重畳表示する。例えば、表示部30は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ等によって構成される。
The
マーカ40は、2次元の幾何模様を有するマーカであり、現実空間の座標系と、設計用の3次元モデル空間の座標系とを対応付けるために用いられる。
The
ここで、頭部装着映像部10の詳細な構成を説明する。頭部装着映像部10は、CPUを含んで構成され、複数のカメラ102と、マイク104と、入力処理部106と、認識処理部108と、画像制御処理部110と、液晶画面112と、スピーカ114とを有している。
Here, a detailed configuration of the head-mounted
カメラ102は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary MOS)カメラのようなカラーデジタルカメラによって構成される。カメラ102毎は、現実空間の画像を画像データとして出力する。カメラ102が撮像した画像データは入力処理部106を介して画像処理部110bに出力される。
The camera 102 is configured by a color digital camera such as a CCD (Charge Coupled Device) camera or a CMOS (Complementary MOS) camera. Each camera 102 outputs an image of the real space as image data. Image data captured by the camera 102 is output to the
マイク104は、操作者の発生する例えばジェスチャとしての音声を集音し、音声データを出力する。マイク104は、集音した音声データを入力処理部106を介して音声認識処理部108aに出力する。
The
入力処理部106は、位置合わせ部106aと、変換部106bと、を有する。
位置合わせ部106aは、設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。より具体的には、カメラ102が撮像したマーカ40の情報を用いて、頭部装着映像部10の位置姿勢を認識し、3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。例えば、本実施形態に係るマーカ40は、3次元モデル空間の座標系の座標原点に配置されている。このため、マーカ40は、3次元モデル空間の座標系の座標原点に対応する現実空間の位置に配置され、マーカ40の撮像画像データに基づき、頭部装着映像部10の位置姿勢が認識される。
The
The positioning unit 106a performs positioning between the coordinate system in the three-dimensional model space where the virtual objects generated based on the design members are arranged and the coordinate system in the real space. More specifically, the information of the
変換部106bは、設計処理部204により生成された設計部材の情報を仮想オブジェクトに変換する。より、具体的には、変換部106bは、3次元モデル空間に配意された設計部材の情報、例えば3次元CADモデルの情報を用いて、設計部材を3次元モデル空間に配置された仮想オブジェクトに変換する。
The
認識処理部108は、音声認識処理部108aと、画像認識処理部108bと、3次元空間認識処理部108cと、を有する。
音声認識処理部108aは、マイク104が集音した音声データを指示コードに変換する。例えば、頭部装着映像部10は、この指示コードに従った制御動作を行う。
The
The voice
画像認識処理部108bは、重畳表示された画像内における現実空間画像内の座標と、仮想オブジェクトの画像上における座標との間の距離情報を取得する。より詳細な構成は、後述する。
The image
3次元空間認識処理部108cは、例えばカメラ102が撮像した画像データに基づき、現実空間内の画像から抽出された自然特徴点の3次元座標をSfM(Structure from Motion)により算出し、ランドマークデータとして記憶する。そして、3次元空間認識処理部108cは、ランドマークデータとカメラ102が撮像した画像データから得られる自然特徴点との対応関係に基づき、頭部装着映像部10の位置姿勢を推定する。このように、マーカ40が撮像されない場合にも、現実空間内の座標系における頭部装着映像部10の位置姿勢の推定が可能となる。
The three-dimensional space
画像処理制御部110は、制御部110aと、画像処理部110bと、出力処理部110cとを有する。
制御部110aは、画像処理装置1全体を制御する。
The image
The
画像処理部110bは、位置合わせ部106aによる位置合わせに基づき、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される仮想オブジェクトの画像とを合成する。より具体的には、画像処理部110bは、位置合わせ部106aによる位置合わせが終了した後には、3次元空間認識処理部108cにより推定される頭部装着映像部10の位置姿勢に基づき、設計部材に基づき生成された仮想オブジェクトの位置及び形状を変更して、現実空間画像に重畳する。また、画像処理部110bは、仮想オブジェクトの可動オブジェクトを生成し、現実空間画像に重畳表示する。
The
出力処理部110cは、画像処理部110bなどから入力されたデータ形式を変換して、表示部30、液晶画面112、及びスピーカ114に出力する。
The
液晶画面112は、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される仮想オブジェクトの画像とを重畳表示する。液晶画面112は、例えば頭部装着型ディスプレイである。また、液晶画面112を光学シースルー方式によって実現してもよい。例えば、光学シースルー型液晶ディスプレイに、観察者の視点の位置および姿勢に応じて生成した仮想オブジェクトの画像を表示することにより実現される。この場合には、現実空間の画像ではなく、実際の現実空間に重なるように仮想オブジェクトの画像が重畳される。
The
なお、頭部装着映像部10と、設計部20との通信は無線通信でも有線通信でもよい。同様に、頭部装着映像部10と、表示部30との通信は無線通信でも有線通信でもよい。また、設計部20を頭部装着映像部10内に構成してもよい。
Note that the communication between the head-mounted
さらにまた、頭部装着映像部10を操作者が装着した状態で、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置してもよい。すなわち、現場で設計した設計部材を仮想オブジェクトの画像として観察可能となる。この際に、設計支援ツールの操作には、入力操作部206を仮想のキーボードやテンキーとして頭部装着映像部10などに映し出し、使用してもよい。このように、設計行為を行いながら、実際の現実空間に重なる設計部材の仮想オブジェクトを確認、検証、及び修正をすることが可能となり、設計効率をより上げることができる。これにより、従来であれば3Dレーザスキャン作業のプロセスが必要であったが、不要となり、大幅な工程短縮につなげることも可能となる。
Furthermore, a design member may be generated using a design support tool in a state where the operator wears the head-mounted
スピーカ114は、認識処理部108による認識結果に基づく音声を出力する。例えば、音声認識処理部108aで出力された指示コードに基づく音声を出力する。例えば、設計支援ツールに対して音声により指示することも可能である。
The
ここで、属性情報付与部202および設計処理部204の詳細な構成を説明する。
図2は、モデル空間を示す格子モデルと設計部材の配置を示す図である。ここでは、3次元の格子点モデル300の水平面の一部を示している。図2に示すように、属性情報付与部202は、施工対象となる現実空間の実際の寸法に基づき、施工対象となる現実空間に対応する3次元モデル空間として3次元の格子点モデル300を生成する。座標B1〜B3、及び座標C1〜C3は格子点モデル300の位置を示している。例えば、座標B1〜B3、及び座標C1〜C3は現実空間の通り芯の位置に対応している。また、マーカ位置M1は、位置合わせ部106aにより座標空間の位置合わせを行う際にマーカ40を配置する位置を示している。
Here, a detailed configuration of the attribute
FIG. 2 is a diagram illustrating a lattice model indicating a model space and an arrangement of design members. Here, a part of the horizontal plane of the three-dimensional
属性情報付与部202は、3次元モデル空間内に設計部材を配置する位置を属性情報として付与する。より具体的には、属性情報付与部202は、入力処理部106により指示された3次元の格子点モデル300(図2)上の座標に基づき、設計部材を配置する位置を属性情報として付与する。例えば、属性情報付与部202は、入力処理部106により指示された3次元の格子点モデル300(図2)上の通り芯の位置に対応させて、設計部材を配置する位置を属性情報として付与することも可能である。また、属性情報付与部202は、画像認識処理部108bにより取得された距離情報を用いて3次元のモデル空間内に設計部材を配置してもよい。
The attribute
図3は、設計部材に付与された属性情報を示す図である。図3に示すように、
属性情報付与部204は、設計処理部204により生成される設計部材A1〜A4、D1,MV1〜MV2に属性情報も付与する。例えば、属性情報付与部204は、設計処理部204で生成可能な属性情報のデータとして、例えば径100Aの配管、径100Aのフランジ管などの情報を記憶している。そして、属性情報付与部204は、入力処理部106により指示された属性情報を設計部材A1〜A3に付与する。属性情報付与部204は、これらの径100Aの配管、径100Aのフランジ管などの情報として、設計処理部204に記憶される3次元CADモデルの情報を付与してもよい。或いは、別の三次元モデルの情報を付与してもよい。
FIG. 3 is a diagram showing attribute information given to a design member. As shown in FIG.
The attribute
設計部材A4には、既に現実空間に配置されている設計部材R1が属性情報として付与されている。すなわち、属性情報付与部204は、設計部材A4の属性情報として現実空間に配置されている設計部材R1を付与することが可能である。同様に、属性情報付与部204は、除去予定の設計部材D1の属性情報として現実空間に配置されている設計部材R2を付与することが可能である。また、属性情報付与部204は、移動モーションオブジェクトを生成する設計部材MV1の属性情報として現実空間に配置されている設計部材R3を付与することが可能である。同様に、移動モーションオブジェクトを生成する設計部材MV2の属性情報として、3次元モデル空間内に配置されている仮想オブジェクト、例えば後述する電動ポンプZMV2(図14など)を付与することが可能である。
To the design member A4, the design member R1 already arranged in the real space is given as attribute information. That is, the attribute
図4は、設計処理部204により生成された設計部材を模式的に示す図である。図4に示すように、設計処理部204は、設計部材に付与された属性情報に基づき、3次元モデル空間内に設計部材A1〜A3を生成し、配置する。例えば、設計処理部204は、設計部材に付与された3次元CADモデルの情報及び位置情報を用いて、3次元モデル空間内に設計部材A1〜A3を生成し、配置する。
FIG. 4 is a diagram schematically illustrating a design member generated by the
また、設計処理部204は、現実空間に配置済みの設計部材R1の既設設計データに基づき設計部材A4を3次元のモデル空間に配置する。このように、設計処理部204は、既設の部材に関しても3次元モデル空間内に設計部材A4、D1、MV1などを配置することが可能である。
The
図5は、設計処理部204により生成された設計部材A1〜A4を変換部106bにより仮想オブジェクトZA1〜ZA4に変換して現実空間に重畳した図である。上側の図が現実空間の画像であり、下側の図が仮想オブジェクトを現実空間に重畳した図である。図5に示すように、設計に基づく施工位置に設計部材A1〜A4の仮想オブジェクトZA1〜ZA4を重畳可能であり、施工予想図を現実空間内に視覚化することができる。また、現実空間に配置されている設計部材R1に対応する設計部材A4の仮想オブジェクトを実空間に重畳することで、設計部材R1が設計された位置に配置されているか否かを確認することも可能となる。
FIG. 5 is a diagram in which the design members A1 to A4 generated by the
図6は、除去予定の設計部材R2の設計部材D1を仮想オブジェクトZD1に変換して現実空間に重畳した図である。上側の図が現実空間の画像であり、下側の図が仮想オブジェクトZD1を現実空間画像に重畳した図である。図6に示すように、現実空間に配置されている設計部材R2に対応する設計部材D1の仮想オブジェクトZD1を現実空間画像に重畳することで、除去予定の設計部材R2の位置も確認可能となる。例えば、画像処理部110bは、除去予定の設計部材R2を示すマークE1などを更に重畳することが可能である。
FIG. 6 is a diagram in which the design member D1 of the design member R2 to be removed is converted into the virtual object ZD1 and is superimposed on the real space. The upper diagram is an image of the real space, and the lower diagram is a diagram in which the virtual object ZD1 is superimposed on the real space image. As shown in FIG. 6, by superimposing the virtual object ZD1 of the design member D1 corresponding to the design member R2 placed in the real space on the real space image, the position of the design member R2 to be removed can also be confirmed. . For example, the
図7は、可動する設計部材R3の設計部材MV1を仮想オブジェクトZMV1に変換して現実空間に重畳した図である。ここで、可動する設計部材R3は開閉する装置の蓋である。上側の図が現実空間の画像であり、下側の図が仮想オブジェクトZD1を現実空間に重畳した図である。図7に示すように、画像処理部110bは、設計部材MV1の仮想オブジェクトZMV1の座標を変えて複数生成し、時系列に現実空間画像に重畳する。これにより、可動する部材R3が可動する範囲を視認することが可能となる。
FIG. 7 is a diagram in which the design member MV1 of the movable design member R3 is converted into a virtual object ZMV1 and superimposed on the real space. Here, the movable design member R3 is a lid of the device that opens and closes. The upper diagram is an image of the real space, and the lower diagram is a diagram in which the virtual object ZD1 is superimposed on the real space. As shown in FIG. 7, the
図8〜図12に基づき、画像認識処理部108bの詳細な処理を説明する。
図8は、現実空間に重畳された仮想オブジェクト上のマーク点E1と、画像認識処理部108bにより認識された指先E2を示す図である。図8に示すように、画像認識処理部108bは、使用者の視点位置と認識した指先E2とを結ぶ線が現実空間、及び現実空間に重畳された仮想オブジェクトのいずれかに交わる点を3次元座標として画像処理部110bに出力する。画像処理部110bは、この3次元座標に基づき、マーク点E3を現実空間、又は現実空間に重畳された仮想オブジェクトに重畳する。
The detailed processing of the image
FIG. 8 is a diagram illustrating a mark point E1 on the virtual object superimposed on the real space and a fingertip E2 recognized by the image
図9は、現実空間に重畳された仮想オブジェクト上のマーク点E3と、確定点であることを示すマークE4とを示す図である。図9に示すように画像処理部110bは、位置が確定すると、マークE4を現実空間画像に重畳する。
FIG. 9 is a diagram showing a mark point E3 on the virtual object superimposed on the real space and a mark E4 indicating a fixed point. As shown in FIG. 9, when the position is determined, the
図10は、現実空間上のマーク点E5と、画像認識処理部108bにより認識された指先E2を示す図である。図10に示すように、画像認識処理部108bは、使用者の視点位置と認識した指先E2とを結ぶ線が現実空間、及び現実空間に重畳された仮想オブジェクトのいずれかに交わる交を3次元座標として画像処理部110bに出力する。画像処理部110bは、この3次元座標に基づき、マーク点E5を現実空間、又は現実空間に重畳された仮想オブジェクトに重畳する。
FIG. 10 is a diagram showing a mark point E5 in the real space and a fingertip E2 recognized by the image
図11は、現実空間上のマーク点E5と、確定点であることを示すマークE6を示す図である。図11に示すように、画像処理部110bは、位置が確定すると、マークE6を現実空間画像に重畳する。
FIG. 11 is a diagram showing a mark point E5 in the real space and a mark E6 indicating a fixed point. As shown in FIG. 11, when the position is determined, the
図12は、仮想オブジェクト上のマーク点E1と現実空間上のマーク点E5との間の距離E7を示す図である。図12に示すように、画像認識処理部108bは、2点の位置が確定すると、2点間の距離E7を演算し、画像処理部110bに出力する。画像処理部110bは、距離E7を示す情報を現実空間画像に重畳する。このように、仮想オブジェクト上のマーク点E1と現実空間上のマーク点E5との間の距離を取得できるので、現実空間の寸法が設計図とずれている場合などにも、正確な距離情報を取得できる。これにより、設計情報をより正確に修正することが可能となる。
FIG. 12 is a diagram illustrating a distance E7 between the mark point E1 on the virtual object and the mark point E5 on the real space. As shown in FIG. 12, when the positions of the two points are determined, the image
例えば、頭部装着映像部10を操作者が装着した状態で、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する際に、画像認識処理部108bが取得した、仮想オブジェクト上のマーク点E1と現実空間上のマーク点E5との間の距離を用いることが可能となる。このように、設計部20は、画像認識処理部108bにより取得された距離情報を用いて前記3次元モデル空間に設計部材を配置することも可能である。
For example, when a design member is generated using a design support tool while the head-mounted
図13〜図17に基づき、設計部材MV2における仮想オブジェクトの自由移動処理を説明する。
図13は、現実空間に重畳された設計部材MV2における仮想オブジェクトZMV2の配置点であるマーク点E8を示す図である。図13に示すように、画像認識処理部108bは、使用者の視点位置と認識した指先とを結ぶ線が現実空間と交わる交点を3次元座標として画像処理部110bに出力する。画像処理部110bは、この3次元座標に基づき、マーク点E8を現実空間、又は現実空間に重畳された仮想オブジェクトに重畳する。
The free movement processing of the virtual object in the design member MV2 will be described with reference to FIGS.
FIG. 13 is a diagram illustrating a mark point E8, which is an arrangement point of the virtual object ZMV2 in the design member MV2 superimposed on the real space. As illustrated in FIG. 13, the image
図14は、現実空間に重畳された設計部材MV2の仮想オブジェクトZMV2を示す図である。図14に示すように、画像処理部110bは、例えばマーク点E8に仮想オブジェクトZMV2の底面の中心座標を合わせて配置する。
FIG. 14 is a diagram illustrating the virtual object ZMV2 of the design member MV2 superimposed on the real space. As shown in FIG. 14, the
図15は、現実空間に重畳された仮想オブジェクトZMV2の移動を示す図である。図15に示すように、画像処理部110bは、仮想オブジェクトZMV2の位置を操作者の指示する方向に向けて変更し、時系列に現実空間に重畳する。これらから分かるように、仮想オブジェクトの移動経路には障害物があり、指示方向では設計部材MV2の移動はできない。
FIG. 15 is a diagram illustrating movement of the virtual object ZMV2 superimposed on the real space. As illustrated in FIG. 15, the
図16は、異なる位置に再配置された設計部材MV2の仮想オブジェクトZMV2を示す図である。マークEは、操作の指示する移動方向を示す。このように、操作者は設計部材MV2の移動方向を指示可能である。 FIG. 16 is a diagram illustrating the virtual object ZMV2 of the design member MV2 rearranged at a different position. The mark E indicates the movement direction instructed by the operation. Thus, the operator can instruct the moving direction of the design member MV2.
図17は、再配置された設計部材MV2の移動を示す図である。図16に示すように、仮想オブジェクトZMV2の移動経路には障害物がなく、指示方向に設計部材MV2を移動させることが可能である。このように、設計部材MV2の仮想オブジェクトZMV2を現実空間内の任意の位置に配置し、任意の移動方向に移動させることが可能である。これにより、設計部材MV2の移動が可能であるか否かを視覚により確認することが可能である。 FIG. 17 is a diagram showing the movement of the rearranged design member MV2. As shown in FIG. 16, there is no obstacle on the movement path of the virtual object ZMV2, and the design member MV2 can be moved in the indicated direction. In this way, it is possible to arrange the virtual object ZMV2 of the design member MV2 at an arbitrary position in the real space and move it in an arbitrary moving direction. This makes it possible to visually check whether the design member MV2 can be moved.
図18は、画像処理装置1における画像処理の流れを示すフローチャートの一例である。
図18に示すように、操作者は、属性情報付与部202により施工に用いる設計部材の属性情報を入力する(ステップS100)。操作者は、例えば表示部30に表示される3次元モデル空間内に、設計部材を配置する位置に対応する座標を入力操作部206により指示する。また、操作者は、例えば表示部30に表示される3次元CADモデルの一覧の中から設計部材を選択する。属性情報付与部202は、これらの情報を設計部材の属性情報として付与する。この際に、3次元モデル空間にマーカ40を配置する座標も設定される。
FIG. 18 is an example of a flowchart showing the flow of image processing in the image processing apparatus 1.
As shown in FIG. 18, the operator inputs attribute information of a design member used for construction by the attribute information providing unit 202 (step S100). The operator instructs the coordinates corresponding to the position where the design member is to be arranged in the three-dimensional model space displayed on the
次に、設計処理部204は、属性情報付与部202により付与された属性情報に基づき、設計部材を生成し、設計用の3次元モデル空間に配置する(ステップS102)。これらの設計部材は、例えば表示部30に表示され、操作者により視認される。
Next, the
次に、3次元モデル空間に設定されたマーカ40の座標に対応する現実空間の位置にマーカ40を配置し、カメラ102により撮像する(ステップS104)。続けて、位置合わせ部106aは、撮像されたたマーカ40の情報に基づき、3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う(ステップS106)。
Next, the
次に、3次元空間認識処理部108cは、カメラ102が撮像した画像データから自然特徴点を取得し(ステップS108)、ランドマークデータと自然特徴点との対応関係に基づき、頭部装着映像部10の位置姿勢を推定する(ステップS110)。
Next, the three-dimensional space
次に、変換部106bは、設計処理部204により生成された設計部材の情報を仮想オブジェクトに変換する。これにより、コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトが3次元モデル空間内に配置される。続けて、画像処理部110bは、位置姿勢の推定結果に基づき、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される仮想オブジェクトの画像とを重畳する(ステップS112)。
Next, the
制御部110aは、画像処理制御を継続する否かを判断する(ステップS114)。画像処理制御を継続する場合(ステップS114のNO)、ステップS108からの処理を繰り返す。一方、画像処理制御を終了する場合(ステップS114のYES)、全体処理を終了する。
The
以上のように、本実施形態によれば、位置合わせ部106aが、設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標と、現実空間の座標との位置合わせを行い、画像処理部110bが、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される仮想オブジェクトの画像を生成する。これにより、現実空間画像に設計部材に基づき生成された仮想オブジェクトを重畳表示することが可能となり、設計部材を用いた施工結果を施工前に確認することができる。
As described above, according to the present embodiment, the positioning unit 106a performs positioning between the coordinates in the three-dimensional model space where the virtual objects generated based on the design members are arranged and the coordinates in the real space, and The
(第2実施形態)
第2実施形態に係る画像処理装置1は、属性情報付与部202が、更に複数の設計部材に工程順の情報を属性情報として付与することができる点で第1実施形態に係る画像処理装置1と相違する。以下では、第1実施形態と相違する点に関して説明する。
(2nd Embodiment)
The image processing apparatus 1 according to the first embodiment is different from the image processing apparatus 1 according to the first embodiment in that the attribute
図19は、第2実施形態に係る属性情報付与部202が設計部毎に工程順の情報を属性情報として付与した結果を示す図である。図19に示すように、本実施形態に係る属性情報付与部202は、工程順を更に属性情報として付与することができる。
FIG. 19 is a diagram illustrating a result of the attribute
図20は、属性情報が2018/7/09が付与された設計部材A8、A9の仮想オブジェクトZA8、ZA9を現実空間画像に重畳表示した図である。
図21は、属性情報が2018/7/16が付与された設計部材A10、A11の仮想オブジェクトZA10、ZA11を現実空間画像に更に重畳表示した図である。
図22は、属性情報が2018/7/23が付与された設計部材A12、A13の仮想オブジェクトZA13、ZA13を現実空間画像に更に重畳表示した図である。
FIG. 20 is a diagram in which the virtual objects ZA8 and ZA9 of the design members A8 and A9 to which the attribute information 2018/7/09 is added are superimposed and displayed on the real space image.
FIG. 21 is a diagram in which virtual objects ZA10 and ZA11 of design members A10 and A11 to which attribute information 2018/7/16 is added are further superimposed and displayed on a real space image.
FIG. 22 is a diagram in which virtual objects ZA13 and ZA13 of design members A12 and A13 to which attribute information 2018/7/23 is added are further superimposed and displayed on the real space image.
図20〜22に示すように、画像処理部110bは、属性情報に従った順に仮想オブジェクトを現実空間画像に重畳表示する。また、画像処理部110bは、属性情報に対応する日付を示す画像を生成し現実空間画像に重畳表示する。
As shown in FIGS. 20 to 22, the
図20に示すように、画像処理部110bは、属性情報に従った順に仮想オブジェクトを現実空間画像に重畳表示する。
As shown in FIG. 20, the
以上のように、本実施形態によれば、属性情報付与部202が設計部材毎に工程順の情報を属性情報として付与することとした。これにより、画像処理部110bは、属性情報に従った順に仮想オブジェクトを現実空間画像に重畳表示することができる。このように、現実空間画像に設計部材に基づき生成された仮想オブジェクトを工程順に重畳表示することが可能となり、設計部材を用いた施工過程を実施の施工前に確認することができる。
As described above, according to the present embodiment, the attribute
本実施形態による画像処理装置1におけるデータ処理方法の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、データ処理方法の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。また、データ処理方法の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。 At least a part of the data processing method in the image processing apparatus 1 according to the present embodiment may be configured by hardware or software. When configured by software, a program for realizing at least a part of the function of the data processing method may be stored in a recording medium such as a flexible disk or a CD-ROM, and read and executed by a computer. The recording medium is not limited to a removable medium such as a magnetic disk or an optical disk, but may be a fixed recording medium such as a hard disk device or a memory. Further, a program that realizes at least a part of the function of the data processing method may be distributed via a communication line (including wireless communication) such as the Internet. Further, the program may be encrypted, modulated, or compressed, and distributed via a wired or wireless line such as the Internet, or stored in a recording medium.
以上、いくつかの実施形態を説明したが、これらの実施形態は、例としてのみ提示したものであり、発明の範囲を限定することを意図したものではない。本明細書で説明した新規な装置、方法及びプログラムは、その他の様々な形態で実施することができる。また、本明細書で説明した装置、方法及びプログラムの形態に対し、発明の要旨を逸脱しない範囲内で、種々の省略、置換、変更を行うことができる。 While some embodiments have been described above, these embodiments have been presented by way of example only, and are not intended to limit the scope of the invention. The novel devices, methods, and programs described herein can be implemented in various other forms. In addition, various omissions, substitutions, and changes can be made to the forms of the apparatus, method, and program described in this specification without departing from the spirit of the invention.
1:画像処理装置、10:頭部装着映像部、20:設計部、30:表示部、40:マーカ、106a:位置合わせ部、106b:変換部、108:認識処理部、108b:画像認識処理部、110b:画像処理部、202:属性情報付与部、204:設計処理部、206:入力操作部 1: image processing apparatus, 10: head mounted image section, 20: design section, 30: display section, 40: marker, 106a: alignment section, 106b: conversion section, 108: recognition processing section, 108b: image recognition processing Unit, 110b: image processing unit, 202: attribute information giving unit, 204: design processing unit, 206: input operation unit
Claims (10)
前記位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、前記使用者の視点位置から観察される前記仮想オブジェクトの画像を生成する画像処理部と、
前記現実空間画像と前記仮想オブジェクトとを重畳表示する表示部と、
を備える画像処理装置。 A positioning unit for performing positioning between a coordinate system in a three-dimensional model space for arranging a virtual object generated based on a design member designed by computer-aided design and a coordinate system in a real space;
Based on the alignment, an image processing unit that generates an image of the virtual object observed from the viewpoint position of the user, corresponding to a real space image observed from the viewpoint position of the user,
A display unit that superimposes and displays the real space image and the virtual object;
An image processing apparatus comprising:
前記設計部により配置された設計部材の情報を前記仮想オブジェクトに変換する変換部と、
をさらに備える、請求項1に記載の画像処理装置。 A design unit for arranging design members in the three-dimensional model space;
A conversion unit that converts information of the design members arranged by the design unit into the virtual object,
The image processing apparatus according to claim 1, further comprising:
前記変換部は、前記入力操作部を介して配置された前記3次元モデル空間内の設計部材を前記使用者の視点位置から観察される前記仮想オブジェクトに変換する、請求項2に記載の画像処理装置。 Further comprising an input operation unit for operating the design unit,
The image processing according to claim 2, wherein the conversion unit converts a design member in the three-dimensional model space arranged via the input operation unit into the virtual object observed from a viewpoint position of the user. apparatus.
前記画像処理部は、前記現実空間に前記配置済みの部材の仮想オブジェクトを重畳表示する、請求項2に記載の画像処理装置。 The design unit arranges the design members in the three-dimensional model space based on design data of members arranged in the real space,
The image processing device according to claim 2, wherein the image processing unit superimposes and displays a virtual object of the placed member in the real space.
前記画像処理部は、前記工程順に応じて、複数の設計部材に対応する仮想オブジェクトを順に前記現実空間画像に重畳表示する、請求項2乃至6のいずれか一項に記載の画像処理装置。 An attribute information assigning unit that assigns process order information as attribute information to the plurality of design members arranged by the design unit,
The image processing apparatus according to claim 2, wherein the image processing unit superimposes and displays virtual objects corresponding to a plurality of design members on the real space image in accordance with the process order.
前記位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、前記使用者の視点位置から観察される前記仮想オブジェクトの画像を生成する画像処理工程と、
前記現実空間画像と前記仮想オブジェクトとを重畳表示する表示工程と、
を備える画像処理方法。 An alignment step of aligning a coordinate system in a three-dimensional model space for arranging a virtual object generated based on a design member designed by computer-aided design with a coordinate system in a real space;
Based on the alignment, an image processing step of generating an image of the virtual object observed from the viewpoint position of the user, corresponding to a real space image observed from the viewpoint position of the user,
A display step of superimposing and displaying the real space image and the virtual object;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018147619A JP7098473B2 (en) | 2018-08-06 | 2018-08-06 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018147619A JP7098473B2 (en) | 2018-08-06 | 2018-08-06 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020024497A true JP2020024497A (en) | 2020-02-13 |
JP7098473B2 JP7098473B2 (en) | 2022-07-11 |
Family
ID=69618699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018147619A Active JP7098473B2 (en) | 2018-08-06 | 2018-08-06 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7098473B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001249985A (en) * | 1999-12-27 | 2001-09-14 | Ohbayashi Corp | Execution plan supporting system, execution plan supporting method, and recording medium recorded with computer program for realizing execution plan supporting system |
JP2005135355A (en) * | 2003-03-28 | 2005-05-26 | Olympus Corp | Data authoring processing apparatus |
JP2006048639A (en) * | 2004-06-29 | 2006-02-16 | Canon Inc | Method and apparatus for processing information |
JP2007228315A (en) * | 2006-02-24 | 2007-09-06 | Mitsubishi Heavy Ind Ltd | System for supporting construction work and inspection for structure inside building |
JP2011008351A (en) * | 2009-06-23 | 2011-01-13 | Canon Inc | Image processing method and image processing apparatus |
JP2014123376A (en) * | 2012-12-21 | 2014-07-03 | Dassault Systemes Delmia Corp | Location correction of virtual objects |
JP2017059213A (en) * | 2015-09-16 | 2017-03-23 | ザ・ボーイング・カンパニーThe Boeing Company | Immersive design management system |
-
2018
- 2018-08-06 JP JP2018147619A patent/JP7098473B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001249985A (en) * | 1999-12-27 | 2001-09-14 | Ohbayashi Corp | Execution plan supporting system, execution plan supporting method, and recording medium recorded with computer program for realizing execution plan supporting system |
JP2005135355A (en) * | 2003-03-28 | 2005-05-26 | Olympus Corp | Data authoring processing apparatus |
JP2006048639A (en) * | 2004-06-29 | 2006-02-16 | Canon Inc | Method and apparatus for processing information |
JP2007228315A (en) * | 2006-02-24 | 2007-09-06 | Mitsubishi Heavy Ind Ltd | System for supporting construction work and inspection for structure inside building |
JP2011008351A (en) * | 2009-06-23 | 2011-01-13 | Canon Inc | Image processing method and image processing apparatus |
JP2014123376A (en) * | 2012-12-21 | 2014-07-03 | Dassault Systemes Delmia Corp | Location correction of virtual objects |
JP2017059213A (en) * | 2015-09-16 | 2017-03-23 | ザ・ボーイング・カンパニーThe Boeing Company | Immersive design management system |
Also Published As
Publication number | Publication date |
---|---|
JP7098473B2 (en) | 2022-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10964108B2 (en) | Augmentation of captured 3D scenes with contextual information | |
US11032603B2 (en) | Recording remote expert sessions | |
JP5857946B2 (en) | Image processing apparatus, image processing method, and program | |
JP2013054661A (en) | Information display system, information display method and program for information display | |
CN105637559A (en) | Structural modeling using depth sensors | |
JP2006048639A (en) | Method and apparatus for processing information | |
WO2019093457A1 (en) | Information processing device, information processing method and program | |
JP2015011480A (en) | Image generation device, image generation method and program | |
JP2010257081A (en) | Image procession method and image processing system | |
JP2012221416A (en) | Computer system, and assembly animation generation method | |
JP2013008257A (en) | Image composition program | |
JP5664215B2 (en) | Augmented reality display system, augmented reality display method used in the system, and augmented reality display program | |
WO2022032688A1 (en) | Method for remote assistance and device | |
JP2010205031A (en) | Method, system and program for specifying input position | |
JP2019053359A (en) | Data processing device | |
JP7098473B2 (en) | Image processing device and image processing method | |
JP7403273B2 (en) | Image processing device and image processing method | |
JP6405539B2 (en) | Label information processing apparatus for multi-viewpoint image and label information processing method | |
JP2013092888A (en) | Data processor | |
JP7287408B2 (en) | Display method, information processing device, and program | |
JP6800599B2 (en) | Information processing equipment, methods and programs | |
JP7557932B2 (en) | Image processing device and image processing method | |
JP6123618B2 (en) | Video output apparatus, video output method, and program | |
JP6899715B2 (en) | Drawing system, drawing method and program | |
JP2015069445A (en) | Video output device, video output method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191011 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200907 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210517 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210517 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210526 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210528 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20210618 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20210622 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220121 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220328 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20220506 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20220603 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20220603 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7098473 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |