JP7403273B2 - 画像処理装置、及び画像処理方法 - Google Patents

画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
JP7403273B2
JP7403273B2 JP2019189556A JP2019189556A JP7403273B2 JP 7403273 B2 JP7403273 B2 JP 7403273B2 JP 2019189556 A JP2019189556 A JP 2019189556A JP 2019189556 A JP2019189556 A JP 2019189556A JP 7403273 B2 JP7403273 B2 JP 7403273B2
Authority
JP
Japan
Prior art keywords
virtual object
design
real space
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019189556A
Other languages
English (en)
Other versions
JP2021064267A (ja
Inventor
寛幸 野本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Plant Systems and Services Corp
Original Assignee
Toshiba Plant Systems and Services Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Plant Systems and Services Corp filed Critical Toshiba Plant Systems and Services Corp
Priority to JP2019189556A priority Critical patent/JP7403273B2/ja
Publication of JP2021064267A publication Critical patent/JP2021064267A/ja
Application granted granted Critical
Publication of JP7403273B2 publication Critical patent/JP7403273B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明の実施形態は、画像処理装置、及び画像処理方法に関する。
現実空間画像に仮想オブジェクトを重ねて表示する画像処理装置が知られている。一方で、施工現場では、3次元CADシステムで設計された3次元の設計部材の情報を用いて2次元の施工用の施工図面を起こしている。
ところが二次元の施工図面から3次元の設計部材を施工する場合に、人の認識ミスなどにより施工を間違ってしまう恐れがある。
特開2012-94102号公報
本発明が解決しようとする課題は、コンピュータ支援設計により設計された設計部材と現実空間に配置された設計部材との相違箇所を現実空間画像に重畳可能な画像処理装置、及び画像処理方法を提供することである。
本実施形態に係る画像処理装置は、位置合わせ部と、差分処理部と、画像処理部と、表示部と、を備える。位置合わせ部は、コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。差分処理部は、仮想オブジェクトと、現実空間内の設計部材に基づき生成された3次元部材データとの差分を、第2仮想オブジェクトとして生成する。画像処理部は、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される第2仮想オブジェクトの画像を生成する。表示部は、現実空間画像と第2仮想オブジェクトとを重畳表示する。
本実施形態によれば、コンピュータ支援設計により設計された設計部材と現実空間に配置された設計部材との相違箇所を現実空間画像に重畳できる。
本実施形態に係る画像処理装置の構成を示すブロック図。 複数の計算メッシュで構成される計算格子を示す図。 設計部材に付与された属性情報を示す図。 設計処理部により生成された設計部材を模式的に示す図。 設計処理部により生成された既設のフランジ管の設計部材を模式的に示す図。 設計部材に基づく仮想オブジェクトの断面図。 現実空間内のフランジ管を示す図。 現実空間内の設計部材に基づく3次元部材データの断面図。 設計部材に基づく仮想オブジェクトを現実空間に重畳した断面図。 L型アングル材の2次仮想オブジェクトを現実空間に重畳した図。 画像処理装置における画像処理の流れを示すフローチャート。
以下、本発明の実施形態に係る画像処理装置、及び画像処理方法について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は、本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分又は同様な機能を有する部分には同一の符号又は類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。
(一実施形態)
図1は、本実施形態に係る画像処理装置1の構成を示すブロック図である。図1を用いて、画像処理装置1の構成例を説明する。図1に示すように、本実施形態に係る画像処理装置1は、カメラで撮影した現実空間と3次元モデル空間とを位置合わせし、現実空間画像と仮想オブジェクトの画像とを重畳表示する装置である。この画像処理装置1は、頭部装着映像部10と、設計部20と、表示部30と、マーカ40とを備えて構成されている。
頭部装着映像部10は、例えばウェアラブルコンピュータであり、操作者の頭部に装着する装置である。頭部装着映像部10の詳細な構成は後述する。
設計部20は、例えば、CPU(Central Processing Unit)を含んで構成され、設計空間の座標系に設計部材を配置する。この設計部20は、例えばキャド(CAD:computer-aided design)であり、3次元CADモデルを有する設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する。この設計部20は、属性情報付与部202と、設計処理部204と、入力操作部206と、を有する。
属性情報付与部202は、後述の設計処理部204により生成する設計部材に属性情報を付与する。例えば、属性情報付与部202は、3次元CADモデルを選択するための3次元CADモデル属性情報を付与する。
設計処理部204は、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する。この設計処理部204は、属性情報付与部202により付与された属性情報に基づき、設計部材を生成し、設計用の3次元モデル空間に配置する。例えば、設計処理部204は、属性情報付与部202により付与された3次元CADモデル属性情報に基づき、設計用の3次元CADモデルの中から設計部材を選択する。なお、属性情報付与部202および設計処理部204の詳細は後述する。
入力操作部206は、設計部20を含む頭部装着映像部10の操作に必要となる情報を入力する。入力操作部206は、例えばキーボード、マウス、ポインティングデバイスなどにより構成される。また、入力操作部206は、仮想のキーボードやテンキーとして頭部装着映像部10などに映し出し、使用可能である。
表示部30は、各種の情報を表示する。例えば、表示部30は、設計部20により生成された各種の情報を表示する。また、表示部30は、後述する出力処理部110dの出力信号を用いて現実空間画像と仮想オブジェクトとを重畳表示することも可能である。例えば、表示部30は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ等によって構成される。
マーカ40は、2次元の幾何模様を有するマーカであり、現実空間の座標系と、設計用の3次元モデル空間の座標系とを対応付けるために用いられる。
ここで、頭部装着映像部10の詳細な構成を説明する。頭部装着映像部10は、CPUを含んで構成され、複数のカメラ102と、マイク104と、3次元計測部105と、入力処理部106と、データ蓄積部107と、認識処理部108と、画像制御処理部110と、液晶画面112と、スピーカ114とを有している。
カメラ102は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary MOS)カメラのようなカラーデジタルカメラによって構成される。カメラ102毎は、現実空間の現実空間画像を画像データとして出力する。カメラ102が撮像した画像データは入力処理部106を介して画像制御処理部110に出力される。
マイク104は、操作者の発生する例えばジェスチャとしての音声を集音し、音声データを出力する。マイク104は、集音した音声データを、入力処理部106を介して音声認識処理部108aに出力する。
3次元計測部105は、例えば3Dレーザ計測装置であり、非接触計測により、対象構造物の表面(例えば建造物の屋内(通路や部屋)であれば内壁面)の位置、および設計部材の3次元部材データ(アズビルトデータ)を計測する装置である。
例えば3次元計測部105が3Dレーザ計測装置の場合、現実空間内の基準位置(例えば基準マーク)に3Dレーザ計測装置を配置する。そして3Dレーザ計測装置は、対象構造物に向かってレーザを走査する。次に3Dレーザ計測装置は対象構造物で反射したレーザを受光し、基準位置からの距離を計測して、レーザの出力方向と距離から対象構造物の表面点の3次元座標を算出する。
すなわち、3次元計測部105は、非接触計測により自身が設置されている基準位置を基に、対象構造物の表面上までの距離を測定し、それらの形状データ(例えば、点群データ)を得る。形状データは、レーザ計測により測定された空間の範囲を示す点群データであり、例えば物が置かれていない箱形の室内では、箱形の形状を示すものとなる。或いは設計部材が配置されている場合には、設計部材の形状をした3次元部材データと箱形の形状とを示すものとなる。これらの形状データは、データ蓄積部107に蓄積される。この場合、現実空間内の設計部材の全範囲を測定するために、基準位置を複数用いることが可能である。
3次元計測部105としては、3Dレーザ以外にも光から電波までの指向性を持つ電磁波測定装置、超音波測定装置、およびステレオビジョン測定装置などの機器を用いることができる。なお、3次元計測部105は、頭部装着映像部10に装着して使用してもよい。この場合には、後述の3次元空間認識処理部108cの位置姿勢情報を用いて基点座標及び座標軸を時系列に決めることが可能である。
入力処理部106は、位置合わせ部106aと、座標統合部106bと、変換部106cと、を有する。
位置合わせ部106aは、設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。より具体的には、カメラ102が撮像したマーカ40の情報を用いて、頭部装着映像部10の位置姿勢を認識し、3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。例えば、本実施形態に係るマーカ40は、3次元モデル空間の座標系の座標原点に配置されている。このため、マーカ40は、3次元モデル空間の座標系の座標原点に対応する現実空間の位置に配置され、マーカ40の撮像画像データに基づき、頭部装着映像部10の位置姿勢が認識される。
座標統合部106bは、基準位置からスキャンして計測されたローカル座標系の点群データを現実空間の座標系に統合し、3次元部材データを含む統合形状データを生成する。なお、現実空間内の異なる計測位置における複数の点群データが得られた場合、各々の基準位置で計測されたローカル座標系の複数の点群データを統合し、現実空間の座標系の統合形状データを生成する。この際に、3次元部材データは、現実空間の座標系に対応付けられる。
変換部106cは、設計処理部204により生成された設計部材の情報を仮想オブジェクトに変換する。より、具体的には、変換部106cは、3次元モデル空間に配置された設計部材の情報、例えば3次元CADモデルの情報を用いて、設計部材を3次元モデル空間に配置された仮想オブジェクトに変換する。
データ蓄積部107は、例えばハードディスクドライブ装置やメモリなどで構成される。データ蓄積部107には、上述のように、座標統合部106bを介して取得された形状データが蓄積される。また、座標統合部106bにより統合された現実空間の座標系に関連付けられた3次元部材データなどを含む統合形状データなどが蓄積される。
認識処理部108は、音声認識処理部108aと、画像認識処理部108bと、3次元空間認識処理部108cと、を有する。
音声認識処理部108aは、マイク104が集音した音声データを指示コードに変換する。例えば、頭部装着映像部10は、この指示コードに従った制御動作を行う。
画像認識処理部108bは、重畳表示された画像内における現実空間画像内の座標と、仮想オブジェクトの画像上における座標との間の距離情報を取得する。
3次元空間認識処理部108cは、例えばカメラ102が撮像した画像データに基づき、現実空間内の画像から抽出された自然特徴点の3次元座標をSfM(Structure from Motion)により算出し、ランドマークデータとして記憶する。そして、3次元空間認識処理部108cは、ランドマークデータとカメラ102が撮像した画像データから得られる自然特徴点との対応関係に基づき、頭部装着映像部10の位置姿勢を推定する。このように、マーカ40が撮像されない場合にも、現実空間内の座標系における頭部装着映像部10の位置姿勢、及び頭部装着映像部10に装着時の3次元計測部105の基準座標の推定が可能となる。
画像処理制御部110は、制御部110aと、差分処理部110bと、画像処理部110cと、出力処理部110dとを有する。
制御部110aは、画像処理装置1全体を制御する。
差分処理部110bは、仮想オブジェクトと、仮想オブジェクトに対応する3次元部材データとの差分を第2仮想オブジェクトとして生成する。仮想オブジェクトには、位置合わせ部106aによる座標系の位置合わせにより、現実空間内の座標系が属性情報として関連付けられている。差分処理部110bは、この属性情報を用いて、第2仮想オブジェクトを生成する。差分処理部110bの詳細は後述する。
画像処理部110cは、位置合わせ部106aによる位置合わせに基づき、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される第2仮想オブジェクト及び仮想オブジェクトの少なくとも一方の画像とを合成する。より具体的には、画像処理部110cは、位置合わせ部106aによる位置合わせが終了した後には、3次元空間認識処理部108cにより推定される頭部装着映像部10の位置姿勢に基づき、設計部材に基づき生成された仮想オブジェクト、及び差分処理部110bにより生成された第2仮想オブジェクトの位置及び形状を変更して、現実空間画像に重畳する。また、画像処理部110cは、例えば3次元部材データをメッシュ形状で示す3次元部材オブジェクトを生成し、現実空間画像に重畳する。この場合にも、3次元空間認識処理部108cにより推定される頭部装着映像部10の位置姿勢に基づき、3次元部材オブジェクトの位置及び形状を変更して、現実空間画像に重畳する。
出力処理部110dは、画像処理部110cなどから入力されたデータ形式を変換して、表示部30、液晶画面112、及びスピーカ114に出力する。
液晶画面112は、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される第2仮想オブジェクト及び仮想オブジェクトの少なくとも一方の画像とを重畳表示する。また、液晶画面112は、例えば3次元部材データの3次元部材オブジェクトなどを現実空間画像に重畳表示することが可能である。
液晶画面112は、例えば頭部装着型ディスプレイである。また、液晶画面112を光学シースルー方式によって実現してもよい。例えば、光学シースルー型液晶ディスプレイに、観察者の視点の位置および姿勢に応じて生成した仮想オブジェクトの画像を表示することにより実現される。この場合には、現実空間の画像ではなく、実際の現実空間に重なるように仮想オブジェクトの画像が重畳される。
なお、頭部装着映像部10と、設計部20との通信は無線通信でも有線通信でもよい。同様に、頭部装着映像部10と、表示部30との通信は無線通信でも有線通信でもよい。また、設計部20を頭部装着映像部10内に構成してもよい。さらにまた、頭部装着映像部10と、3次元計測部105との通信も無線通信でも有線通信でもよい。
また、頭部装着映像部10を操作者が装着した状態で、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置してもよい。すなわち、現場で設計した設計部材を仮想オブジェクトの画像として観察可能となる。この際に、設計支援ツールの操作には、入力操作部206を仮想のキーボードやテンキーとして頭部装着映像部10などに映し出し、使用してもよい。このように、設計行為を行いながら、実際の現実空間に重なる設計部材の仮想オブジェクトを確認、検証、及び修正をすることが可能となり、設計効率をより上げることができる。これにより、従来であれば3Dレーザスキャン作業のプロセスが必要であったが、不要となり、大幅な工程短縮につなげることも可能となる。
スピーカ114は、認識処理部108による認識結果に基づく音声を出力する。例えば、音声認識処理部108aで出力された指示コードに基づく音声を出力する。例えば、設計支援ツールに対して音声により指示することも可能である。
ここで、図2~図5を用いて、属性情報付与部202および設計処理部204の詳細な構成を説明する。
図2は、モデル空間を示す格子点モデルと設計部材の配置を示す図である。図2に基づき、格子点モデル内の設計部材の配置を説明する。ここでは、3次元の格子点モデル300の水平面の一部を示している。図2に示すように、属性情報付与部202は、施工対象となる現実空間の実際の寸法に基づき、施工対象となる現実空間に対応する3次元モデル空間として3次元の格子点モデル300を生成する。座標B1~B3、及び座標C1~C3は格子点モデル300の位置を示している。例えば、座標B1~B3、及び座標C1~C3は現実空間の通り芯の位置に対応している。また、マーカ位置M1は、位置合わせ部106aにより座標空間の位置合わせを行う際にマーカ40を配置する位置を示している。
属性情報付与部202は、3次元モデル空間内に設計部材を配置する位置を属性情報として付与する。より具体的には、属性情報付与部202は、入力処理部106により指示された3次元の格子点モデル300(図2)上の座標に基づき、設計部材を配置する位置を属性情報として付与する。例えば、属性情報付与部202は、入力処理部106により指示された3次元の格子点モデル300(図2)上の通り芯の位置に対応させて、設計部材を配置する位置を属性情報として付与することも可能である。また、属性情報付与部202は、画像認識処理部108bにより取得された距離情報を用いて3次元のモデル空間内に設計部材を配置してもよい。
図3は、設計部材に付与された属性情報を示す図である。図3を用いて、設計部材に付与された属性情報を説明する。図3に示すように、属性情報付与部202は、設計処理部204により生成される設計部材A1~A8に、部材の種別を示す属性情報も付与する。例えば、属性情報付与部202は、設計処理部204で生成可能な属性情報のデータとして、例えば径100Aの配管、径100Aのフランジ管などの情報を記憶している。そして、属性情報付与部202は、入力処理部106により指示された属性情報を設計部材A1~A8に付与する。
設計部材A4~A8には、既に現実空間に配置されている設計部材R1~R5が属性情報として付与されている。すなわち、属性情報付与部202は、設計部材A4~A8の属性情報として現実空間に配置されている設計部材R1~R5を付与することが可能である。
ここで、図4を用いて、3次元モデル空間内に配置される設計部材A1~A3の例を説明する。図4は、設計処理部204により生成された設計部材A1~A3を模式的に示す図である。図4に示すように、設計処理部204は、設計部材に付与された属性情報に基づき、3次元モデル空間内に設計部材A1~A3を生成する。より具体的には、設計処理部204は、設計部材に付与された3次元CADモデルの情報及び位置情報を用いて、3次元モデル空間内に設計部材A1~A3を生成する。
ここで、図5を用いて、既設の設計データに基づく設計部材A4を説明する。図5は、設計処理部204により生成された既設のフランジ管R1の設計部材A4を模式的に示す図である。図5に示すように、設計処理部204は、現実空間に本来施工されるべき設計部材R1の既設設計データに基づき設計部材A4を3次元モデル空間に配置する。図5内には図示していないが、設計部材R2~R4の既設設計データに基づき設計部材A5~A7も同様に、3次元モデル空間に配置される。
ここで、図6を用いて、設計部材A4~A7の仮想オブジェクトZA4~ZA7を説明する。図6は、変換部106cにより生成された仮想オブジェクトZA4~ZA7の仮想断面Z1(図7)における断面を模式的に示す図である。仮想オブジェクトZA4~ZA7は設計部材A4~A7に対応する。図6に示すように、変換部106cは、現実空間に本来施工されるべき設計部材R1~R4の既設設計データに基づく仮想オブジェクトZA4~ZA7を3次元モデル空間に配置する。このように、変換部106cは、現実空間に本来施工されるべき部材に関しても3次元モデル空間内に仮想オブジェクトZA4~ZA7などとして配置することが可能である。
ここで、図7を用いて、現実空間内のフランジ管R1の計測データを説明する。図7は、現実空間内のフランジ管R1を示す図である。上述の3次元計測部105は、例えばマーカM1と他の複数の基準位置などを基準座標として現実空間内のフランジ管R1などを計測し、座標統合部106bは、現実空間の座標系に対応付けられた3次元部材データを生成する。Z1は、仮想断面である。なお、図7では、サポート鋼材R3、R4、L型アングル材R5の図示は、省略されている。
ここで、図8を用いて、3次元部材データの例を説明する。図8は、現実空間内の設計部材R1、R3、R4に基づく3次元部材データZR1、ZR3、ZR4の仮想断面Z1における断面図を模式的に示す図である。このように、既に現実空間に配置されている設計部材R1、R3、R4などが3次元部材データZR1、ZR3、ZR4として、座標統合部106bにより生成される。なお、図8では、設計部材R2は、施工ミスにより施工されていない例を示している。
ここで、図3、図6及び図8を参照しつつ、図9及び10を用いて差分処理部110bの処理の詳細例を説明する。図9は、設計部材R1~R4に基づく仮想オブジェクトZA4~ZA7を現実空間に重畳した仮想断面Z1における断面図である。ZA5(R2)は、第2仮想オブジェクトの例を示している。
差分処理部110bは、データ蓄積部107に蓄積される3次元部材データを用いて、例えば仮想オブジェクトZA5と3次元部材データZR2との差分処理を行う。より具体的には、差分処理部110bは、仮想オブジェクトZA5に対応する現実空間の座標系における3次元部材データZR2を、データ蓄積部107から抽出する。次に、差分処理部110bは、3次元部材データZR2は表面データであるので、表面データに包含される範囲に対して充填処理を行った充填データを生成する。そして、差分処理部110bは、仮想オブジェクトZA5と、仮想オブジェクトZA5に対応する充填データとの差分処理を行う。このように、差分処理部110bは、仮想オブジェクトZA5に対して不足する3次元部材データZR2の領域を仮想オブジェクトZA5の2次仮想オブジェクトZA5(R2)として演算する。なお、図8に示すように、3次元部材データZR2は現実空間には存在しないので、充填データは0として処理される。
差分処理部110bは、仮想オブジェクトZA4に対応する設計部材R1しか現実空間に配置されていない場合、現実空間内の仮想オブジェクトZA4が配置される空間から所定範囲の3次元部材データをデータ蓄積部107から抽出する。例えば、現実空間内の仮想オブジェクトZA4が配置される空間から30センチメートルの範囲を加えた領域内の3次元部材データをデータ蓄積部107から抽出する。次に、差分処理部110bは、3次元部材データは表面データであるので、表面データに包含される範囲に対して充填処理を行った充填データを生成する。そして、差分処理部110bは、仮想オブジェクトZA4と充填データとの差分処理を行う。これにより、仮想オブジェクトZA4に対して過不足する3次元部材データZR1の領域を仮想オブジェクトZA4の2次仮想オブジェクトとして演算できる。このように、差分処理部110bは、現実空間の仮想オブジェクトZA4が配置される空間から所定範囲の3次元部材データと、仮想オブジェクトZA4との差分処理を行い、過不足する領域データを第2仮想オブジェクトとして生成する。
また、差分処理部110bは、図6に示すように、各仮想オブジェクトZA4~ZA7が接合している場合には、接合した仮想オブジェクトZA4~ZA7に対して上述の処理を行ってもよい。例えば、図3に示すように、設計の仕様上はサポート鋼材R2が、現実空間に配置されているはずである。しかし、図8に示すように、現実空間には、サポート鋼材R2が配置されていない。この場合、上述の処理を行うと、接合した仮想オブジェクトZA4~ZA7と、3次元部材データZR1、ZR3、ZR4の充填データの差分が演算され、不足する領域データとして第2仮想オブジェクトZA5(R2)が生成される。そして、出力処理部110dは、第2仮想オブジェクトZA5(R2)を現実空間に重畳表示する画像信号を生成する。
例えば、不足領域に対応する第2仮想オブジェクトZA5(R2)は、他の仮想オブジェクトZA4、ZA6、ZA7の色(例えば緑)と異なる色、例えば赤色で表示される。一方で、余剰する領域に対応する第2仮想オブジェクトは、他の仮想オブジェクトと異なる色、例えば青色で表示される。
図10は、L型アングル材R5が逆向きに付いている場合の差分処理例を示す図である。左上図が3次元部材データZR1、ZR5を示し、左下図が仮想オブジェクトZA4、ZA8を示し、右図が差分処理後の図を示す。右図に示すように、差分処理部110bは、各仮想オブジェクトZA4、ZA8が接合している場合には、接合した仮想オブジェクトZA4、ZA8に対して上述の差分処理を行う。この場合、上述の差分処理を行うと、接合した仮想オブジェクトZA4、ZA8と、3次元部材データZR1、ZR5の充填データの差分が演算され、不足する領域データとして第2仮想オブジェクトZA8(R5)が生成される。そして、出力処理部110dは、第2仮想オブジェクトZA8(R5)を現実空間に重畳表示する画像信号を生成する。
このように、コンピュータ支援設計により設計された施工図内の設計部材に対応する仮想オブジェクトZA4~ZA8と、現実空間に配置された設計部材R1~R5との相違箇所を現実空間画像に第2仮想オブジェクトZA5(R2)、ZA8(R5)として重畳可能である。これにより、本来施工されるはずの施工図内の設計部材と、現実空間内の施工結果との相違箇所を現実空間内に、第2仮想オブジェクトZA5(R2)、ZA8(R5)として視覚化することができる。
図11は、画像処理装置1における画像処理の流れを示すフローチャートの一例である。
図11に示すように、操作者は、属性情報付与部202により施工に用いる設計部材とマーカ40の属性情報を入力する(ステップS100)。操作者は、例えば表示部30に表示される3次元モデル空間内に、設計部材を配置する位置に対応する座標を入力操作部206により指示する。また、操作者は、例えば表示部30に表示される3次元CADモデルの一覧の中から設計部材を選択する。属性情報付与部202は、これらの情報を設計部材の属性情報として付与する。この際に、3次元モデル空間にマーカ40を配置する座標も設定される。
次に、設計処理部204は、属性情報付与部202により付与された属性情報に基づき、設計部材を生成し、設計用の3次元モデル空間に配置する(ステップS102)。これらの設計部材は、例えば表示部30に表示され、操作者により視認される。続けて、変換部106cは、設計処理部204により生成された設計部材の情報を仮想オブジェクトに変換する。これにより、コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトが3次元モデル空間内に配置される。
次に、3次元計測部105を基準位置に配置し、対象構造物に向かってレーザを走査し、設計部材の計測を行う(ステップS104)。3次元部材データなどは、データ蓄積部107に蓄積される。この際に、未計測の領域が存在する場合には、基準位置を変更し、計測を繰り返す。続けて、座標統合部106bは、計測された3次元部材データなどを現実空間の座標系に統合し、3次元部材データを含む統合形状データを生成する。
次に、3次元モデル空間に設定されたマーカ40の座標に対応する現実空間の位置にマーカ40を配置し、カメラ102により撮像する(ステップS106)。続けて、位置合わせ部106aは、撮像されたたマーカ40の情報に基づき、3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う(ステップS108)。
差分処理部110bは、現実空間の座標系に基づき、仮想オブジェクトと、仮想オブジェクトに対応する3次元部材データとの差分を第2仮想オブジェクトとして生成する(ステップS110)。
次に、3次元空間認識処理部108cは、カメラ102が撮像した画像データから自然特徴点を取得し、ランドマークデータと自然特徴点との対応関係に基づき、頭部装着映像部10の位置姿勢を推定する(ステップS112)。
次に、画像処理部110cは、位置姿勢の推定結果に基づき、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される第2仮想オブジェクトの画像とを重畳し、出力処理部110dを介して液晶画面112及び表示部30に表示する(ステップS114)。
制御部110aは、画像処理制御を継続する否かを判断する(ステップS116)。画像処理制御を継続する場合(ステップS116のNO)、ステップS112からの処理を繰り返す。一方、画像処理制御を終了する場合(ステップS116のYES)、全体処理を終了する。
以上のように、本実施形態によれば、位置合わせ部106aが、設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標と、現実空間の座標との位置合わせを行い、差分処理部110bが設計部材の仮想オブジェクトと、仮想オブジェクトに対応する現実空間内の3次元部材データとの差分を第2仮想オブジェクトとして生成する。そして、画像処理部110cが、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される第2仮想オブジェクトの画像を生成する。これにより、本来施工されはずの設計部材と、現実空間内の施工結果との相違箇所を現実空間内に、第2仮想オブジェクトとして視覚化することができる。
本実施形態による画像処理装置1におけるデータ処理方法の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、データ処理方法の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD-ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。また、データ処理方法の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
以上、いくつかの実施形態を説明したが、これらの実施形態は、例としてのみ提示したものであり、発明の範囲を限定することを意図したものではない。本明細書で説明した新規な装置、方法及びプログラムは、その他の様々な形態で実施することができる。また、本明細書で説明した装置、方法及びプログラムの形態に対し、発明の要旨を逸脱しない範囲内で、種々の省略、置換、変更を行うことができる。
1:画像処理装置、10:頭部装着映像部、20:設計部、30:表示部、40:マーカ、105:3次元計測部、106a:位置合わせ部、106c:変換部、108:認識処理部、108b:画像認識処理部、110b:差分処理部、110c:画像処理部、206:入力操作部

Claims (10)

  1. コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う位置合わせ部と、
    前記仮想オブジェクトと、前記現実空間内の設計部材に基づき生成された3次元部材データとの差分処理を行い、不足する領域データおよび余剰するデータ領域それぞれを第2仮想オブジェクトとして生成する差分処理部と、
    前記位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、前記使用者の視点位置から観察される前記第2仮想オブジェクトの画像を生成する画像処理部と、
    前記現実空間画像と前記第2仮想オブジェクトとを重畳表示する表示部と、
    を備える画像処理装置。
  2. 前記現実空間内の前記設計部材を3次元部材データとして3次元計測する3次元計測部と、を更に備え、
    前記差分処理部は、前記3次元部材データを用いて、前記第2仮想オブジェクトを生成する、請求項1に記載の画像処理装置。
  3. 前記画像処理部は、前記位置合わせに基づき、前記使用者の視点位置から観察される前記現実空間画像に対応させて、前記3次元部材データの3次元部材オブジェクトを生成し、
    前記表示部は、前記現実空間画像と前記3次元部材オブジェクトとを重畳表示する、請求項1に記載の画像処理装置。
  4. 前記差分処理部は、前記現実空間内の前記仮想オブジェクトが配置される空間から所定範囲内の前記3次元部材データと、前記仮想オブジェクトとの差分処理を行い、過不足する領域データを前記第2仮想オブジェクトとして生成する、請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記差分処理部は、前記仮想オブジェクトに関連付けられた前記現実空間の座標系における位置情報に基づき、前記所定範囲の前記3次元部材データを抽出する、請求項4に記載の画像処理装置。
  6. 前記画像処理部は、前記位置合わせに基づき、前記使用者の視点位置から観察される前記現実空間画像に対応させて、前記使用者の視点位置から観察される前記仮想オブジェクトの画像を生成し、
    前記表示部は、前記現実空間画像と前記仮想オブジェクトとを重畳表示する、請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 前記現実空間に配置済みの部材の設計データに基づき前記設計部材を前記3次元モデル空間に配置する設計部と、
    前記設計部材を前記仮想オブジェクトに変換する変換部と、を更に備え、
    前記画像処理部は、前記配置済みの部材の設計データに基づく前記仮想オブジェクトを重畳表示する、請求項6に記載の画像処理装置。
  8. 前記設計部を操作する入力操作部を更に有し、
    前記変換部は、前記入力操作部を介して前記設計部により生成された前記設計部材を前記仮想オブジェクトに変換する、請求項7に記載の画像処理装置。
  9. 前記表示部は、前記不足する領域データおよび余剰するデータ領域の第2仮想オブジェクトを互いに異なる色で表示する、請求項1乃至8のいずれか一項に記載の画像処理装置
  10. コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う位置合わせ工程と、
    前記仮想オブジェクトと、前記現実空間内の設計部材に基づき生成された3次元部材データとの差分処理を行い、不足する領域データおよび余剰するデータ領域それぞれを第2仮想オブジェクトとして生成する差分処理工程と、
    前記位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、前記使用者の視点位置から観察される前記第2仮想オブジェクトの画像を生成する画像処理工程と、
    前記現実空間画像と前記第2仮想オブジェクトとを重畳表示する表示工程と、
    を備える画像処理方法。
JP2019189556A 2019-10-16 2019-10-16 画像処理装置、及び画像処理方法 Active JP7403273B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019189556A JP7403273B2 (ja) 2019-10-16 2019-10-16 画像処理装置、及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019189556A JP7403273B2 (ja) 2019-10-16 2019-10-16 画像処理装置、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2021064267A JP2021064267A (ja) 2021-04-22
JP7403273B2 true JP7403273B2 (ja) 2023-12-22

Family

ID=75486335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019189556A Active JP7403273B2 (ja) 2019-10-16 2019-10-16 画像処理装置、及び画像処理方法

Country Status (1)

Country Link
JP (1) JP7403273B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7406904B2 (ja) * 2021-07-30 2023-12-28 株式会社オプティム 測量システム、測量装置、測量方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229057A (ja) 2013-05-22 2014-12-08 川崎重工業株式会社 部品組立作業支援システムおよび部品組立方法
JP2017168077A (ja) 2016-03-09 2017-09-21 株式会社リコー 画像処理方法、表示装置および点検システム
JP2017191351A (ja) 2016-04-11 2017-10-19 株式会社日立製作所 作業支援システム及び方法
JP2018180868A (ja) 2017-04-12 2018-11-15 株式会社Ecadソリューションズ 画像処理装置及び製造システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229057A (ja) 2013-05-22 2014-12-08 川崎重工業株式会社 部品組立作業支援システムおよび部品組立方法
JP2017168077A (ja) 2016-03-09 2017-09-21 株式会社リコー 画像処理方法、表示装置および点検システム
JP2017191351A (ja) 2016-04-11 2017-10-19 株式会社日立製作所 作業支援システム及び方法
JP2018180868A (ja) 2017-04-12 2018-11-15 株式会社Ecadソリューションズ 画像処理装置及び製造システム

Also Published As

Publication number Publication date
JP2021064267A (ja) 2021-04-22

Similar Documents

Publication Publication Date Title
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
KR101988372B1 (ko) 사진 이미지를 이용한 3차원 건축물 모델 역설계 장치 및 방법
JP5257335B2 (ja) 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
JP6192938B2 (ja) 三次元合成処理システムおよび三次元合成処理方法
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
JP5378374B2 (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
KR102036545B1 (ko) 오디오, 비주얼 및 모션 분석 기능을 갖는 디지털 카메라
US6529626B1 (en) 3D model conversion apparatus and method
US10015466B2 (en) Spatial information visualization apparatus, storage medium, and spatial information visualization method
JP2005215917A (ja) 施工図作成支援方法およびリプレースモデル作成方法
US20080316203A1 (en) Information processing method and apparatus for specifying point in three-dimensional space
JPWO2016042926A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP3104638B2 (ja) 3次元画像作成装置
KR101875047B1 (ko) 사진측량을 이용한 3d 모델링 시스템 및 방법
JP2018088139A (ja) 3次元空間可視化装置、3次元空間可視化方法およびプログラム
JP7403273B2 (ja) 画像処理装置、及び画像処理方法
KR100757751B1 (ko) 실내 환경의 환경맵 생성 장치 및 방법
JP6405539B2 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
JP2013092888A (ja) データ処理装置
JP7557932B2 (ja) 画像処理装置、及び画像処理方法
JP7287408B2 (ja) 表示方法、情報処理装置、及びプログラム
JP6545033B2 (ja) 三次元温度分布表示装置
JP7098473B2 (ja) 画像処理装置、及び画像処理方法
JP5863280B2 (ja) 撮像装置、画像処理方法及びプログラム
JP2000137834A (ja) 合成動画像生成装置および合成動画像生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7403273

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150