JP7098473B2 - 画像処理装置、及び画像処理方法 - Google Patents

画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
JP7098473B2
JP7098473B2 JP2018147619A JP2018147619A JP7098473B2 JP 7098473 B2 JP7098473 B2 JP 7098473B2 JP 2018147619 A JP2018147619 A JP 2018147619A JP 2018147619 A JP2018147619 A JP 2018147619A JP 7098473 B2 JP7098473 B2 JP 7098473B2
Authority
JP
Japan
Prior art keywords
design
image
real space
space
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018147619A
Other languages
English (en)
Other versions
JP2020024497A (ja
Inventor
寛幸 野本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Plant Systems and Services Corp
Original Assignee
Toshiba Plant Systems and Services Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Plant Systems and Services Corp filed Critical Toshiba Plant Systems and Services Corp
Priority to JP2018147619A priority Critical patent/JP7098473B2/ja
Publication of JP2020024497A publication Critical patent/JP2020024497A/ja
Application granted granted Critical
Publication of JP7098473B2 publication Critical patent/JP7098473B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明の実施形態は、画像処理装置、及び画像処理方法に関する。
現実空間画像に仮想オブジェクトを重ねて表示する画像処理装置が知られている。一方で、施工現場では、3次元CADシステムで設計された3次元の設計部材の情報を用いて2次元の施工用の施工図面を起こしている。
ところが二次元の施工図面から3次元の設計部材を施工する場合に、人の認識ミスなどにより施工を間違ってしまう恐れがある。
特開2012-94102号公報
本発明が解決しようとする課題は、コンピュータ支援設計により設計された設計部材の施工結果画像を現実空間画像に重畳可能な画像処理装置、及び画像処理方法を提供することである。
本実施形態に係る画像処理装置は、位置合わせ部と、画像処理部と、表示部と、を備える。位置合わせ部は、コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。画像処理部は、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される仮想オブジェクトの画像を生成する。表示部は、実空間画像と仮想オブジェクトとを重畳表示する。
本実施形態によれば、コンピュータ支援設計により設計された設計部材の施工結果画像を現実空間画像に重畳できる。
本実施形態に係る画像処理装置の構成を示すブロック図。 複数の計算メッシュで構成される計算格子を示す図。 設計部材に付与された属性情報を示す図。 設計処理部により生成された設計部材を模式的に示す図。 設計部材に基づく仮想オブジェクトを現実空間に重畳した図。 除去予定の設計部材に基づく仮想オブジェクトを現実空間に重畳した図。 可動する仮想オブジェクトを現実空間に重畳した図。 仮想オブジェクト上の点と、認識された指先を示す図。 仮想オブジェクト上の点と、確定点を示すマークを表示した図。 現実空間上の点と、認識された指先を示す図。 現実空間上の点と、確定点を示すマークを表示した図。 仮想オブジェクト上の点と現実空間画像上の点との間の距離を示す図。 設計部材における仮想オブジェクトの配置点を示す図。 配置点と、設計部材の仮想オブジェクトを示す図。 現実空間画像に重畳された設計部材の移動を示す図。 配置点に配置された設計部材の仮想オブジェクトを示す図。 再配置された設計部材の移動を示す図。 画像処理装置における画像処理の流れを示すフローチャート。 設計部毎に工程順の情報を属性情報として付与した結果を示す図。 最初の工程における設計部材の仮想オブジェクトを重畳した図。 次の工程における設計部材の仮想オブジェクトを重畳した図。 3番目の工程における設計部材の仮想オブジェクトを重畳した図。
以下、本発明の実施形態に係る画像処理装置、及び画像処理方法について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は、本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分又は同様な機能を有する部分には同一の符号又は類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。
(第1実施形態)
図1は、本実施形態に係る画像処理装置1の構成を示すブロック図である。図1に示すように、本実施形態に係る画像処理装置1は、カメラで撮影した現実空間と3次元モデル空間とを位置合わせし、現実空間画像と仮想オブジェクトの画像とを重畳表示する装置である。この画像処理装置1は、頭部装着映像部10と、設計部20と、表示部30と、マーカ40とを備えて構成されている。
頭部装着映像部10は、例えばウェアラブルコンピュータであり、操作者の頭部に装着する装置である。頭部装着映像部10の詳細な構成は後述する。
設計部20は、例えば、CPU(Central Processing Unit)を含んで構成され、設計空間の座標系に設計部材を配置する。この設計部20は、例えばキャド(CAD:computer-aided design)であり、3次元CADモデルを有する設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する。この設計部20は、属性情報付与部202と、設計処理部204と、入力操作部206と、を有する。
属性情報付与部202は、後述の設計処理部204により生成する設計部材に属性情報を付与する。例えば、属性情報付与部202は、3次元CADモデルを選択するための3次元CADモデル属性情報を付与する。
設計処理部204は、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する。この設計処理部204は、属性情報付与部202により付与された属性情報に基づき、設計部材を生成し、設計用の3次元モデル空間に配置する。例えば、設計処理部204は、属性情報付与部202により付与された3次元CADモデル属性情報に基づき、設計用の3次元CADモデルの中から設計部材を選択する。なお、属性情報付与部202および設計処理部204の詳細は後述する。
入力操作部206は、設計部20を含む頭部装着映像部10の操作に必要となる情報を入力する。入力操作部206は、例えばキーボード、マウス、ポインティングデバイスなどにより構成される。
表示部30は、各種の情報を表示する。例えば、表示部30は、設計部20により生成された各種の情報を表示する。また、表示部30は、現実空間画像と仮想オブジェクトとを重畳表示する。例えば、表示部30は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ等によって構成される。
マーカ40は、2次元の幾何模様を有するマーカであり、現実空間の座標系と、設計用の3次元モデル空間の座標系とを対応付けるために用いられる。
ここで、頭部装着映像部10の詳細な構成を説明する。頭部装着映像部10は、CPUを含んで構成され、複数のカメラ102と、マイク104と、入力処理部106と、認識処理部108と、画像制御処理部110と、液晶画面112と、スピーカ114とを有している。
カメラ102は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary MOS)カメラのようなカラーデジタルカメラによって構成される。カメラ102毎は、現実空間の画像を画像データとして出力する。カメラ102が撮像した画像データは入力処理部106を介して画像処理部110bに出力される。
マイク104は、操作者の発生する例えばジェスチャとしての音声を集音し、音声データを出力する。マイク104は、集音した音声データを入力処理部106を介して音声認識処理部108aに出力する。
入力処理部106は、位置合わせ部106aと、変換部106bと、を有する。
位置合わせ部106aは、設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。より具体的には、カメラ102が撮像したマーカ40の情報を用いて、頭部装着映像部10の位置姿勢を認識し、3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。例えば、本実施形態に係るマーカ40は、3次元モデル空間の座標系の座標原点に配置されている。このため、マーカ40は、3次元モデル空間の座標系の座標原点に対応する現実空間の位置に配置され、マーカ40の撮像画像データに基づき、頭部装着映像部10の位置姿勢が認識される。
変換部106bは、設計処理部204により生成された設計部材の情報を仮想オブジェクトに変換する。より、具体的には、変換部106bは、3次元モデル空間に配意された設計部材の情報、例えば3次元CADモデルの情報を用いて、設計部材を3次元モデル空間に配置された仮想オブジェクトに変換する。
認識処理部108は、音声認識処理部108aと、画像認識処理部108bと、3次元空間認識処理部108cと、を有する。
音声認識処理部108aは、マイク104が集音した音声データを指示コードに変換する。例えば、頭部装着映像部10は、この指示コードに従った制御動作を行う。
画像認識処理部108bは、重畳表示された画像内における現実空間画像内の座標と、仮想オブジェクトの画像上における座標との間の距離情報を取得する。より詳細な構成は、後述する。
3次元空間認識処理部108cは、例えばカメラ102が撮像した画像データに基づき、現実空間内の画像から抽出された自然特徴点の3次元座標をSfM(Structure from Motion)により算出し、ランドマークデータとして記憶する。そして、3次元空間認識処理部108cは、ランドマークデータとカメラ102が撮像した画像データから得られる自然特徴点との対応関係に基づき、頭部装着映像部10の位置姿勢を推定する。このように、マーカ40が撮像されない場合にも、現実空間内の座標系における頭部装着映像部10の位置姿勢の推定が可能となる。
画像処理制御部110は、制御部110aと、画像処理部110bと、出力処理部110cとを有する。
制御部110aは、画像処理装置1全体を制御する。
画像処理部110bは、位置合わせ部106aによる位置合わせに基づき、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される仮想オブジェクトの画像とを合成する。より具体的には、画像処理部110bは、位置合わせ部106aによる位置合わせが終了した後には、3次元空間認識処理部108cにより推定される頭部装着映像部10の位置姿勢に基づき、設計部材に基づき生成された仮想オブジェクトの位置及び形状を変更して、現実空間画像に重畳する。また、画像処理部110bは、仮想オブジェクトの可動オブジェクトを生成し、現実空間画像に重畳表示する。
出力処理部110cは、画像処理部110bなどから入力されたデータ形式を変換して、表示部30、液晶画面112、及びスピーカ114に出力する。
液晶画面112は、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される仮想オブジェクトの画像とを重畳表示する。液晶画面112は、例えば頭部装着型ディスプレイである。また、液晶画面112を光学シースルー方式によって実現してもよい。例えば、光学シースルー型液晶ディスプレイに、観察者の視点の位置および姿勢に応じて生成した仮想オブジェクトの画像を表示することにより実現される。この場合には、現実空間の画像ではなく、実際の現実空間に重なるように仮想オブジェクトの画像が重畳される。
なお、頭部装着映像部10と、設計部20との通信は無線通信でも有線通信でもよい。同様に、頭部装着映像部10と、表示部30との通信は無線通信でも有線通信でもよい。また、設計部20を頭部装着映像部10内に構成してもよい。
さらにまた、頭部装着映像部10を操作者が装着した状態で、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置してもよい。すなわち、現場で設計した設計部材を仮想オブジェクトの画像として観察可能となる。この際に、設計支援ツールの操作には、入力操作部206を仮想のキーボードやテンキーとして頭部装着映像部10などに映し出し、使用してもよい。このように、設計行為を行いながら、実際の現実空間に重なる設計部材の仮想オブジェクトを確認、検証、及び修正をすることが可能となり、設計効率をより上げることができる。これにより、従来であれば3Dレーザスキャン作業のプロセスが必要であったが、不要となり、大幅な工程短縮につなげることも可能となる。
スピーカ114は、認識処理部108による認識結果に基づく音声を出力する。例えば、音声認識処理部108aで出力された指示コードに基づく音声を出力する。例えば、設計支援ツールに対して音声により指示することも可能である。
ここで、属性情報付与部202および設計処理部204の詳細な構成を説明する。
図2は、モデル空間を示す格子モデルと設計部材の配置を示す図である。ここでは、3次元の格子点モデル300の水平面の一部を示している。図2に示すように、属性情報付与部202は、施工対象となる現実空間の実際の寸法に基づき、施工対象となる現実空間に対応する3次元モデル空間として3次元の格子点モデル300を生成する。座標B1~B3、及び座標C1~C3は格子点モデル300の位置を示している。例えば、座標B1~B3、及び座標C1~C3は現実空間の通り芯の位置に対応している。また、マーカ位置M1は、位置合わせ部106aにより座標空間の位置合わせを行う際にマーカ40を配置する位置を示している。
属性情報付与部202は、3次元モデル空間内に設計部材を配置する位置を属性情報として付与する。より具体的には、属性情報付与部202は、入力処理部106により指示された3次元の格子点モデル300(図2)上の座標に基づき、設計部材を配置する位置を属性情報として付与する。例えば、属性情報付与部202は、入力処理部106により指示された3次元の格子点モデル300(図2)上の通り芯の位置に対応させて、設計部材を配置する位置を属性情報として付与することも可能である。また、属性情報付与部202は、画像認識処理部108bにより取得された距離情報を用いて3次元のモデル空間内に設計部材を配置してもよい。
図3は、設計部材に付与された属性情報を示す図である。図3に示すように、
属性情報付与部204は、設計処理部204により生成される設計部材A1~A4、D1,MV1~MV2に属性情報も付与する。例えば、属性情報付与部202は、設計処理部204で生成可能な属性情報のデータとして、例えば径100Aの配管、径100Aのフランジ管などの情報を記憶している。そして、属性情報付与部202は、入力処理部106により指示された属性情報を設計部材A1~A3に付与する。属性情報付与部204は、これらの径100Aの配管、径100Aのフランジ管などの情報として、設計処理部204に記憶される3次元CADモデルの情報を付与してもよい。或いは、別の三次元モデルの情報を付与してもよい。
設計部材A4には、既に現実空間に配置されている設計部材R1が属性情報として付与されている。すなわち、属性情報付与部202は、設計部材A4の属性情報として現実空間に配置されている設計部材R1を付与することが可能である。同様に、属性情報付与部202は、除去予定の設計部材D1の属性情報として現実空間に配置されている設計部材R2を付与することが可能である。また、属性情報付与部202は、移動モーションオブジェクトを生成する設計部材MV1の属性情報として現実空間に配置されている設計部材R3を付与することが可能である。同様に、移動モーションオブジェクトを生成する設計部材MV2の属性情報として、3次元モデル空間内に配置されている仮想オブジェクト、例えば後述する電動ポンプZMV2(図14など)を付与することが可能である。
図4は、設計処理部204により生成された設計部材を模式的に示す図である。図4に示すように、設計処理部204は、設計部材に付与された属性情報に基づき、3次元モデル空間内に設計部材A1~A3を生成し、配置する。例えば、設計処理部204は、設計部材に付与された3次元CADモデルの情報及び位置情報を用いて、3次元モデル空間内に設計部材A1~A3を生成し、配置する。
また、設計処理部204は、現実空間に配置済みの設計部材R1の既設設計データに基づき設計部材A4を3次元のモデル空間に配置する。このように、設計処理部204は、既設の部材に関しても3次元モデル空間内に設計部材A4、D1、MV1などを配置することが可能である。
図5は、設計処理部204により生成された設計部材A1~A4を変換部106bにより仮想オブジェクトZA1~ZA4に変換して現実空間に重畳した図である。上側の図が現実空間の画像であり、下側の図が仮想オブジェクトを現実空間に重畳した図である。図5に示すように、設計に基づく施工位置に設計部材A1~A4の仮想オブジェクトZA1~ZA4を重畳可能であり、施工予想図を現実空間内に視覚化することができる。また、現実空間に配置されている設計部材R1に対応する設計部材A4の仮想オブジェクトを実空間に重畳することで、設計部材R1が設計された位置に配置されているか否かを確認することも可能となる。
図6は、除去予定の設計部材R2の設計部材D1を仮想オブジェクトZD1に変換して現実空間に重畳した図である。上側の図が現実空間の画像であり、下側の図が仮想オブジェクトZD1を現実空間画像に重畳した図である。図6に示すように、現実空間に配置されている設計部材R2に対応する設計部材D1の仮想オブジェクトZD1を現実空間画像に重畳することで、除去予定の設計部材R2の位置も確認可能となる。例えば、画像処理部110bは、除去予定の設計部材R2を示すマークE1などを更に重畳することが可能である。
図7は、可動する設計部材R3の設計部材MV1を仮想オブジェクトZMV1に変換して現実空間に重畳した図である。ここで、可動する設計部材R3は開閉する装置の蓋である。上側の図が現実空間の画像であり、下側の図が仮想オブジェクトZD1を現実空間に重畳した図である。図7に示すように、画像処理部110bは、設計部材MV1の仮想オブジェクトZMV1の座標を変えて複数生成し、時系列に現実空間画像に重畳する。これにより、可動する部材R3が可動する範囲を視認することが可能となる。
図8~図12に基づき、画像認識処理部108bの詳細な処理を説明する。
図8は、現実空間に重畳された仮想オブジェクト上のマーク点E3と、画像認識処理部108bにより認識された指先E2を示す図である。図8に示すように、画像認識処理部108bは、使用者の視点位置と認識した指先E2とを結ぶ線が現実空間、及び現実空間に重畳された仮想オブジェクトのいずれかに交わる点を3次元座標として画像処理部110bに出力する。画像処理部110bは、この3次元座標に基づき、マーク点E3を現実空間、又は現実空間に重畳された仮想オブジェクトに重畳する。
図9は、現実空間に重畳された仮想オブジェクト上のマーク点E3と、確定点であることを示すマークE4とを示す図である。図9に示すように画像処理部110bは、位置が確定すると、マークE4を現実空間画像に重畳する。
図10は、現実空間上のマーク点E5と、画像認識処理部108bにより認識された指先E2を示す図である。図10に示すように、画像認識処理部108bは、使用者の視点位置と認識した指先E2とを結ぶ線が現実空間、及び現実空間に重畳された仮想オブジェクトのいずれかに交わる交を3次元座標として画像処理部110bに出力する。画像処理部110bは、この3次元座標に基づき、マーク点E5を現実空間、又は現実空間に重畳された仮想オブジェクトに重畳する。
図11は、現実空間上のマーク点E5と、確定点であることを示すマークE6を示す図である。図11に示すように、画像処理部110bは、位置が確定すると、マークE6を現実空間画像に重畳する。
図12は、仮想オブジェクト上のマーク点E3と現実空間上のマーク点E5との間の距離E7を示す図である。図12に示すように、画像認識処理部108bは、2点の位置が確定すると、2点間の距離E7を演算し、画像処理部110bに出力する。画像処理部110bは、距離E7を示す情報を現実空間画像に重畳する。このように、仮想オブジェクト上のマーク点E1と現実空間上のマーク点E5との間の距離を取得できるので、現実空間の寸法が設計図とずれている場合などにも、正確な距離情報を取得できる。これにより、設計情報をより正確に修正することが可能となる。
例えば、頭部装着映像部10を操作者が装着した状態で、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する際に、画像認識処理部108bが取得した、仮想オブジェクト上のマーク点E3と現実空間上のマーク点E5との間の距離を用いることが可能となる。このように、設計部20は、画像認識処理部108bにより取得された距離情報を用いて前記3次元モデル空間に設計部材を配置することも可能である。
図13~図17に基づき、設計部材MV2における仮想オブジェクトの自由移動処理を説明する。
図13は、現実空間に重畳された設計部材MV2における仮想オブジェクトZMV2の配置点であるマーク点E8を示す図である。図13に示すように、画像認識処理部108bは、使用者の視点位置と認識した指先とを結ぶ線が現実空間と交わる交点を3次元座標として画像処理部110bに出力する。画像処理部110bは、この3次元座標に基づき、マーク点E8を現実空間、又は現実空間に重畳された仮想オブジェクトに重畳する。
図14は、現実空間に重畳された設計部材MV2の仮想オブジェクトZMV2を示す図である。図14に示すように、画像処理部110bは、例えばマーク点E8に仮想オブジェクトZMV2の底面の中心座標を合わせて配置する。
図15は、現実空間に重畳された仮想オブジェクトZMV2の移動を示す図である。図15に示すように、画像処理部110bは、仮想オブジェクトZMV2の位置を操作者の指示する方向に向けて変更し、時系列に現実空間に重畳する。これらから分かるように、仮想オブジェクトの移動経路には障害物があり、指示方向では設計部材MV2の移動はできない。
図16は、異なる位置に再配置された設計部材MV2の仮想オブジェクトZMV2を示す図である。マークE9は、操作の指示する移動方向を示す。このように、操作者は設計部材MV2の移動方向を指示可能である。
図17は、再配置された設計部材MV2の移動を示す図である。図16に示すように、仮想オブジェクトZMV2の移動経路には障害物がなく、指示方向に設計部材MV2を移動させることが可能である。このように、設計部材MV2の仮想オブジェクトZMV2を現実空間内の任意の位置に配置し、任意の移動方向に移動させることが可能である。これにより、設計部材MV2の移動が可能であるか否かを視覚により確認することが可能である。
図18は、画像処理装置1における画像処理の流れを示すフローチャートの一例である。
図18に示すように、操作者は、属性情報付与部202により施工に用いる設計部材の属性情報を入力する(ステップS100)。操作者は、例えば表示部30に表示される3次元モデル空間内に、設計部材を配置する位置に対応する座標を入力操作部206により指示する。また、操作者は、例えば表示部30に表示される3次元CADモデルの一覧の中から設計部材を選択する。属性情報付与部202は、これらの情報を設計部材の属性情報として付与する。この際に、3次元モデル空間にマーカ40を配置する座標も設定される。
次に、設計処理部204は、属性情報付与部202により付与された属性情報に基づき、設計部材を生成し、設計用の3次元モデル空間に配置する(ステップS102)。これらの設計部材は、例えば表示部30に表示され、操作者により視認される。
次に、3次元モデル空間に設定されたマーカ40の座標に対応する現実空間の位置にマーカ40を配置し、カメラ102により撮像する(ステップS104)。続けて、位置合わせ部106aは、撮像されたたマーカ40の情報に基づき、3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う(ステップS106)。
次に、3次元空間認識処理部108cは、カメラ102が撮像した画像データから自然特徴点を取得し(ステップS108)、ランドマークデータと自然特徴点との対応関係に基づき、頭部装着映像部10の位置姿勢を推定する(ステップS110)。
次に、変換部106bは、設計処理部204により生成された設計部材の情報を仮想オブジェクトに変換する。これにより、コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトが3次元モデル空間内に配置される。続けて、画像処理部110bは、位置姿勢の推定結果に基づき、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される仮想オブジェクトの画像とを重畳する(ステップS112)。
制御部110aは、画像処理制御を継続する否かを判断する(ステップS114)。画像処理制御を継続する場合(ステップS114のNO)、ステップS108からの処理を繰り返す。一方、画像処理制御を終了する場合(ステップS114のYES)、全体処理を終了する。
以上のように、本実施形態によれば、位置合わせ部106aが、設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標と、現実空間の座標との位置合わせを行い、画像処理部110bが、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される仮想オブジェクトの画像を生成する。これにより、現実空間画像に設計部材に基づき生成された仮想オブジェクトを重畳表示することが可能となり、設計部材を用いた施工結果を施工前に確認することができる。
(第2実施形態)
第2実施形態に係る画像処理装置1は、属性情報付与部202が、更に複数の設計部材に工程順の情報を属性情報として付与することができる点で第1実施形態に係る画像処理装置1と相違する。以下では、第1実施形態と相違する点に関して説明する。
図19は、第2実施形態に係る属性情報付与部202が設計部毎に工程順の情報を属性情報として付与した結果を示す図である。図19に示すように、本実施形態に係る属性情報付与部202は、工程順を更に属性情報として付与することができる。
図20は、属性情報が2018/7/09が付与された設計部材A8、A9の仮想オブジェクトZA8、ZA9を現実空間画像に重畳表示した図である。
図21は、属性情報が2018/7/16が付与された設計部材A10、A11の仮想オブジェクトZA10、ZA11を現実空間画像に更に重畳表示した図である。
図22は、属性情報が2018/7/23が付与された設計部材A12、A13の仮想オブジェクトZA13、ZA13を現実空間画像に更に重畳表示した図である。
図20~22に示すように、画像処理部110bは、属性情報に従った順に仮想オブジェクトを現実空間画像に重畳表示する。また、画像処理部110bは、属性情報に対応する日付を示す画像を生成し現実空間画像に重畳表示する。
図20に示すように、画像処理部110bは、属性情報に従った順に仮想オブジェクトを現実空間画像に重畳表示する。
以上のように、本実施形態によれば、属性情報付与部202が設計部材毎に工程順の情報を属性情報として付与することとした。これにより、画像処理部110bは、属性情報に従った順に仮想オブジェクトを現実空間画像に重畳表示することができる。このように、現実空間画像に設計部材に基づき生成された仮想オブジェクトを工程順に重畳表示することが可能となり、設計部材を用いた施工過程を実施の施工前に確認することができる。
本実施形態による画像処理装置1におけるデータ処理方法の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、データ処理方法の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD-ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。また、データ処理方法の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
以上、いくつかの実施形態を説明したが、これらの実施形態は、例としてのみ提示したものであり、発明の範囲を限定することを意図したものではない。本明細書で説明した新規な装置、方法及びプログラムは、その他の様々な形態で実施することができる。また、本明細書で説明した装置、方法及びプログラムの形態に対し、発明の要旨を逸脱しない範囲内で、種々の省略、置換、変更を行うことができる。
1:画像処理装置、10:頭部装着映像部、20:設計部、30:表示部、40:マーカ、106a:位置合わせ部、106b:変換部、108:認識処理部、108b:画像認識処理部、110b:画像処理部、202:属性情報付与部、204:設計処理部、206:入力操作部

Claims (9)

  1. 施工対象となる現実空間の実際の寸法に基づき、前記施工対象となる前記現実空間に対応する3次元モデル空間を形成し、この3次元モデル空間の座標系の座標を示す3次元の格子点モデルを生成し、コンピュータ支援設計により設計された設計部材を前記3次元モデル空間内に配置すると共に、前記3次元モデル空間の座標系にマーカ配置座標を設定する設計部と、
    前記設計部により配置された設計部材の情報を仮想オブジェクトに変換し、前記3次元モデル空間に配置する変換部と、
    前記現実空間における前記3次元モデル空間のマーカ配置座標に対応した位置に配置されたマーカを撮像し、撮像した前記マーカの情報及び前記3次元モデル空間の前記マーカ配置座標に基づき前記3次元モデル空間の座標系と、前記現実空間の座標系との位置合わせを行う位置合わせ部と、
    前記現実空間を撮像した画像データから得たランドマークおよび使用者の視点に相当するカメラが撮像した画像データから使用者の視点位置を推定する3次元空間認識処理部と、
    前記位置合わせおよび前記視点位置の推定に基づき、前記使用者の視点位置から観察される現実空間画像に対応させて、前記使用者の視点位置から観察される前記仮想オブジェクトの画像を生成する画像処理部と、
    前記現実空間画像と前記仮想オブジェクトとを重畳表示する表示部と、
    を備える画像処理装置。
  2. 前記設計部を操作する入力操作部を更に有し、
    前記変換部は、前記入力操作部を介して配置された前記3次元モデル空間内の設計部材を前記使用者の視点位置から観察される前記仮想オブジェクトに変換する、請求項に記載の画像処理装置。
  3. 前記設計部は、前記現実空間に配置済の部材の設計データに基づき前記設計部材を前記3次元モデル空間に配置し、
    前記画像処理部は、前記現実空間に前記配置済の部材の仮想オブジェクトを重畳表示する、請求項に記載の画像処理装置。
  4. 前記重畳表示された画像内における前記現実空間画像内の座標と、前記仮想オブジェクトの画像上の座標との間の距離情報を取得する画像認識処理部をさらに備える、請求項3に記載の画像処理装置。
  5. 前記設計部は、前記画像認識処理部により取得された距離情報を用いて前記3次元モデル空間に設計部材を配置する、請求項に記載の画像処理装置。
  6. 前記設計部により配置される複数の設計部材に工程順の情報を属性情報として付与する属性情報付与部をさらに備え、
    前記画像処理部は、前記工程順に応じて、複数の設計部材に対応する仮想オブジェクトを順に前記現実空間画像に重畳表示する、請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 前記画像処理部は、前記仮想オブジェクトの可動オブジェクトを生成し、前記現実空間に時系列に重畳表示する、請求項1乃至6のいずれか一項に記載の画像処理装置。
  8. 前記画像処理部は、前記可動オブジェクトを前記現実空間内の所定の方向に移動させる、請求項7に記載の画像処理装置。
  9. 施工対象となる現実空間の実際の寸法に基づき、前記施工対象となる前記現実空間に対応する3次元モデル空間を形成し、この3次元モデル空間の座標系の座標を示す3次元の格子点モデルを生成し、コンピュータ支援設計により設計された設計部材を前記3次元モデル空間内に配置すると共に、前記3次元モデル空間の座標系にマーカ配置座標を設定する設計工程と、
    前記設計工程により配置された設計部材の情報を仮想オブジェクトに変換し、前記3次元モデル空間に配置する変換工程と、
    前記現実空間における前記3次元モデル空間のマーカ配置座標に対応した位置に配置されたマーカを撮像し、撮像した前記マーカの情報及び前記3次元モデル空間の前記マーカ配置座標に基づき前記3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う位置合わせ工程と、
    前記現実空間を撮像した画像データから得たランドマークおよび使用者の視点に相当するカメラが撮像した画像データから使用者の視点位置を推定する3次元空間認識処理工程と、
    前記位置合わせおよび前記視点位置の推定に基づき、前記使用者の視点位置から観察される現実空間画像に対応させて、前記使用者の視点位置から観察される前記仮想オブジェクトの画像を生成する画像処理工程と、
    前記現実空間画像と前記仮想オブジェクトとを重畳表示する表示工程と、
    を備える画像処理方法。
JP2018147619A 2018-08-06 2018-08-06 画像処理装置、及び画像処理方法 Active JP7098473B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018147619A JP7098473B2 (ja) 2018-08-06 2018-08-06 画像処理装置、及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018147619A JP7098473B2 (ja) 2018-08-06 2018-08-06 画像処理装置、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2020024497A JP2020024497A (ja) 2020-02-13
JP7098473B2 true JP7098473B2 (ja) 2022-07-11

Family

ID=69618699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018147619A Active JP7098473B2 (ja) 2018-08-06 2018-08-06 画像処理装置、及び画像処理方法

Country Status (1)

Country Link
JP (1) JP7098473B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249985A (ja) 1999-12-27 2001-09-14 Ohbayashi Corp 施工計画支援システム、施工計画支援方法、および、施工計画支援システムを実現するためのコンピュータプログラムを記録した記録媒体
JP2005135355A (ja) 2003-03-28 2005-05-26 Olympus Corp データオーサリング処理装置
JP2006048639A (ja) 2004-06-29 2006-02-16 Canon Inc 情報処理方法および情報処理装置
JP2007228315A (ja) 2006-02-24 2007-09-06 Mitsubishi Heavy Ind Ltd 建屋内における構造物の建設工事及び点検支援装置
JP2011008351A (ja) 2009-06-23 2011-01-13 Canon Inc 画像処理方法及び画像処理装置
JP2014123376A (ja) 2012-12-21 2014-07-03 Dassault Systemes Delmia Corp 仮想オブジェクトの配置補正
JP2017059213A (ja) 2015-09-16 2017-03-23 ザ・ボーイング・カンパニーThe Boeing Company 没入型設計管理システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249985A (ja) 1999-12-27 2001-09-14 Ohbayashi Corp 施工計画支援システム、施工計画支援方法、および、施工計画支援システムを実現するためのコンピュータプログラムを記録した記録媒体
JP2005135355A (ja) 2003-03-28 2005-05-26 Olympus Corp データオーサリング処理装置
JP2006048639A (ja) 2004-06-29 2006-02-16 Canon Inc 情報処理方法および情報処理装置
JP2007228315A (ja) 2006-02-24 2007-09-06 Mitsubishi Heavy Ind Ltd 建屋内における構造物の建設工事及び点検支援装置
JP2011008351A (ja) 2009-06-23 2011-01-13 Canon Inc 画像処理方法及び画像処理装置
JP2014123376A (ja) 2012-12-21 2014-07-03 Dassault Systemes Delmia Corp 仮想オブジェクトの配置補正
JP2017059213A (ja) 2015-09-16 2017-03-23 ザ・ボーイング・カンパニーThe Boeing Company 没入型設計管理システム

Also Published As

Publication number Publication date
JP2020024497A (ja) 2020-02-13

Similar Documents

Publication Publication Date Title
JP4434890B2 (ja) 画像合成方法及び装置
JP5378374B2 (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
JP4677273B2 (ja) 情報処理方法および情報処理装置
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
JP4278979B2 (ja) ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム
JP6077010B2 (ja) 作業支援端末および作業支援システム
JP2017191351A (ja) 作業支援システム及び方法
JP2005107969A (ja) 画像表示方法及び画像表示システム
CN105637559A (zh) 使用深度传感器的结构建模
JP4834424B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JPWO2016151691A1 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
US20150269759A1 (en) Image processing apparatus, image processing system, and image processing method
JP2003150220A (ja) シミュレーション装置
JP2016205974A (ja) 測定システムおよびユーザインタフェース装置
JPWO2015107665A1 (ja) 作業支援用データ作成プログラム
WO2019093457A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019020997A (ja) 情報処理装置及びその制御方法、並びに、プログラム
JP2010257081A (ja) 画像処理方法及び画像処理装置
JP2009258884A (ja) ユーザインタフェイス
JP2013008257A (ja) 画像合成プログラム
JP7098473B2 (ja) 画像処理装置、及び画像処理方法
CN116569545A (zh) 远程协助的方法和设备
JP7403273B2 (ja) 画像処理装置、及び画像処理方法
JP6405539B2 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
KR101496761B1 (ko) 다면 스크린 프로젝션 기반 휴대용 3차원 모델 제어 시스템 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191011

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210517

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210526

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210528

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210618

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210622

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220121

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220506

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220603

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220629

R150 Certificate of patent or registration of utility model

Ref document number: 7098473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150