JP2021064264A - 画像処理装置、及び画像処理方法 - Google Patents

画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
JP2021064264A
JP2021064264A JP2019189515A JP2019189515A JP2021064264A JP 2021064264 A JP2021064264 A JP 2021064264A JP 2019189515 A JP2019189515 A JP 2019189515A JP 2019189515 A JP2019189515 A JP 2019189515A JP 2021064264 A JP2021064264 A JP 2021064264A
Authority
JP
Japan
Prior art keywords
unit
image
real space
image processing
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019189515A
Other languages
English (en)
Inventor
寛幸 野本
Hiroyuki Nomoto
寛幸 野本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Plant Systems and Services Corp
Original Assignee
Toshiba Plant Systems and Services Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Plant Systems and Services Corp filed Critical Toshiba Plant Systems and Services Corp
Priority to JP2019189515A priority Critical patent/JP2021064264A/ja
Publication of JP2021064264A publication Critical patent/JP2021064264A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】現実空間内の障害物を回避した開始点と終了点との間の経路に基づく仮想オブジェクトを現実空間画像に重畳可能な画像処理装置、及び画像処理方法を提供する。【解決手段】本実施形態に係る画像処理装置は、経路生成部と、位置合わせ部と、画像処理部と、表示部と、を備える。経路生成部は、現実空間における障害物の位置情報に基づいて、現実空間における開始点と終了点との間の経路を、障害物を回避して生成する。位置合わせ部は、経路に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。画像処理部は、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される仮想オブジェクトの画像を生成する。表示部は、現実空間画像と仮想オブジェクトの画像とを重畳表示する。【選択図】図1

Description

本発明の実施形態は、画像処理装置、及び画像処理方法に関する。
現実空間画像に仮想オブジェクトを重ねて表示する画像処理装置が知られている。一方で、施工現場では、3次元CADシステムで設計された3次元の設計部材の情報を用いて2次元の施工用の施工図面を起こしている。
ところが、現実空間に、3次元の設計部材を施工しようとすると、現実空間内の障害物により施工が困難となる場合があった。
特開2012−94102号公報 特開2017−211987号公報
本発明が解決しようとする課題は、現実空間内の障害物を回避した開始点と終了点との間の経路に基づく仮想オブジェクトを現実空間画像に重畳可能な画像処理装置、及び画像処理方法を提供することである。
本実施形態に係る画像処理装置は、経路生成部と、位置合わせ部と、画像処理部と、表示部と、を備える。経路生成部は、現実空間における障害物の位置情報に基づいて、現実空間における開始点と終了点との間の経路を、障害物を回避して生成する。位置合わせ部は、経路に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。画像処理部は、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される仮想オブジェクトの画像を生成する。表示部は、現実空間画像と仮想オブジェクトとを重畳表示する。
本実施形態によれば、現空間内の障害物を回避した開始点と終了点との間の経路に基づく仮想オブジェクトの画像を現実空間画像に重畳できる。
本実施形態に係る画像処理装置の構成を示すブロック図。 設計部材に付与された属性情報を示す図。 経路生成部の処理を説明する模式図。 設計処理部により生成された設計部材を模式的に示す図。 変換部により生成された仮想オブジェクトが現実空間に重畳された例を模式的に示す図。 画像処理装置における画像処理の流れを示すフローチャートの一例。 第2実施形態に係る画像処理装置の構成を示すブロック図。 第2実施形態に係る経路生成部が処理に用いる3次元の格子点モデルを説明する模式図。 搬入資材の仮想オブジェクトの画像を示す図。
以下、本発明の実施形態に係る画像処理装置、及び画像処理方法について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は、本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分又は同様な機能を有する部分には同一の符号又は類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。
(第1実施形態)
図1は、本実施形態に係る画像処理装置1の構成を示すブロック図である。図1を用いて、画像処理装置1の構成例を説明する。図1に示すように、本実施形態に係る画像処理装置1は、カメラで撮影した現実空間と3次元モデル空間とを位置合わせし、現実空間画像と仮想オブジェクトの画像とを重畳表示する装置である。この画像処理装置1は、頭部装着映像部10と、生成部20と、表示部30と、マーカ40とを備えて構成されている。
頭部装着映像部10は、例えばウェアラブルコンピュータであり、操作者の頭部に装着する装置である。頭部装着映像部10の詳細な構成は後述する。
生成部20は、例えば、CPU(Central Processing Unit)を含んで構成され、3次元モデル空間の座標系に、現空間内の障害物を回避した開始点と終了点との間の経路に基づく設計部材を、現実空間における障害物の位置に基づいて生成する。この生成部20は、属性情報付与部200と、経路生成部201、設計処理部202と、入力操作部206と、を有する。なお、本実施形態に係る接続空間は、設計部材に対応する。
属性情報付与部200は、後述の経路生成部201及び設計処理部202により生成する設計部材に属性情報を付与する。例えば、属性情報付与部200は、設計部材の太さの情報を属性情報として付与する。
経路生成部201は、属性情報付与部200により付与された属性情報を用いて、現実空間における開始点と終了点との間を接続する経路を、現実空間における障害物の位置に基づいて生成する。この経路生成部201は、経路の位置情報を設計処理部202に出力する。
設計処理部202は、例えばキャド(CAD:computer−aided design)であり、3次元CADモデルを有する設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置する。この設計処理部202は、属性情報付与部200により付与された属性情報、及び経路生成部201により得られた位置情報に基づき、設計部材を生成し、設計用の3次元モデル空間に配置する。例えば、設計処理部202は、属性情報付与部200により付与された3次元CADモデル属性情報に基づき、設計用の3次元CADモデルの中から設計部材を選択する。なお、属性情報付与部200および設計処理部202の詳細は後述する。
入力操作部206は、生成部20を含む頭部装着映像部10の操作に必要となる情報を入力する。入力操作部206は、例えばキーボード、マウス、ポインティングデバイスなどにより構成される。また、入力操作部206は、仮想のキーボードやテンキーとして頭部装着映像部10などに映し出し、使用可能である。例えば、入力操作部206は、現実空間における開始点と終了点とを入力する。また、入力操作部206は、設計部材の属性情報を入力することも可能である。
表示部30は、各種の情報を表示する。例えば、表示部30は、生成部20により生成された各種の情報を表示する。また、表示部30は、後述する出力処理部110cの出力信号を用いて現実空間画像と仮想オブジェクトとを重畳表示することも可能である。例えば、表示部30は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ等によって構成される。
マーカ40は、2次元の幾何模様を有するマーカであり、現実空間の座標系と、設計用の3次元モデル空間の座標系とを対応付けるために用いられる。
ここで、頭部装着映像部10の詳細な構成を説明する。頭部装着映像部10は、CPUを含んで構成され、複数のカメラ102と、マイク104と、3次元計測部105と、入力処理部106と、データ蓄積部107と、認識処理部108と、画像制御処理部110と、液晶画面112と、スピーカ114とを有している。
カメラ102は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary MOS)カメラのようなカラーデジタルカメラによって構成される。カメラ102毎は、現実空間の現実空間画像を画像データとして出力する。カメラ102が撮像した画像データは入力処理部106を介して画像制御処理部110に出力される。
マイク104は、操作者の発生する例えばジェスチャとしての音声を集音し、音声データを出力する。マイク104は、集音した音声データを、入力処理部106を介して音声認識処理部108aに出力する。
3次元計測部105は、例えば3Dレーザ計測装置であり、非接触計測により、対象構造物の表面(例えば建造物の屋内(通路や部屋)であれば内壁面)の位置、および設計部材の3次元部材データ(アズビルトデータ)を計測する装置である。
例えば3次元計測部105が3Dレーザ計測装置の場合、現実空間内の基準位置(例えば基準マーク)に3Dレーザ計測装置を配置する。そして3Dレーザ計測装置は、障害物、例えば既設の設計部材、机、椅子、箱に向かってレーザを走査する。次に3Dレーザ計測装置は障害物で反射したレーザを受光し、基準位置からの距離を計測して、レーザの出力方向と距離から障害物の表面点の3次元座標を算出する。
すなわち、3次元計測部105は、非接触計測により自身が設置されている基準位置を基に、対象構造物の表面上までの距離を測定し、それらの形状データ(例えば、点群データ)を得る。形状データは、レーザ計測により測定された空間の範囲を示す点群データであり、例えば物が置かれていない箱形の室内では、箱形の形状を示すものとなる。或いは障害物などが配置されている場合には、障害物の形状をした3次元障害物データと箱形の形状とを示すものとなる。これらの形状データは、データ蓄積部107に蓄積される。この場合、現実空間内の設計部材の全範囲を測定するために、基準位置を複数用いることが可能である。
3次元計測部105としては、3Dレーザ以外にも光から電波までの指向性を持つ電磁波測定装置、超音波測定装置、およびステレオビジョン測定装置などの機器を用いることができる。なお、3次元計測部105は、頭部装着映像部10に装着して使用してもよい。この場合には、後述の3次元空間認識処理部108cの位置姿勢情報を用いて基点座標及び座標軸を時系列に決めることが可能である。
入力処理部106は、位置合わせ部106aと、座標統合部106bと、変換部106cと、を有する。
位置合わせ部106aは、設計部材に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。より具体的には、カメラ102が撮像したマーカ40の情報を用いて、頭部装着映像部10の位置姿勢を認識し、3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う。例えば、本実施形態に係るマーカ40は、3次元モデル空間の座標系の座標原点に配置されている。このため、マーカ40は、3次元モデル空間の座標系の座標原点に対応する現実空間の位置に配置され、マーカ40の撮像画像データに基づき、頭部装着映像部10の位置姿勢が認識される。
座標統合部106bは、基準位置からスキャンして計測されたローカル座標系の点群データを現実空間の座標系に統合し、3次元部材データを含む統合形状データを生成する。なお、現実空間内の異なる計測位置における複数の点群データが得られた場合、各々の基準位置で計測されたローカル座標系の複数の点群データを統合し、現実空間の座標系の統合形状データを生成する。この際に、3次元障害物データは、現実空間の座標系に対応付けられる。
変換部106cは、設計処理部202により生成された設計部材の情報を仮想オブジェクトに変換する。より、具体的には、変換部106cは、3次元モデル空間に配置された設計部材の情報、例えば3次元CADモデルの情報を用いて、設計部材を3次元モデル空間に配置された仮想オブジェクトに変換する。
データ蓄積部107は、例えばハードディスクドライブ装置やメモリなどで構成される。データ蓄積部107には、上述のように、座標統合部106bを介して取得された形状データが蓄積される。また、座標統合部106bにより統合された現実空間の座標系に関連付けられた3次元障害物データなどを含む統合形状データなどが蓄積される。
認識処理部108は、音声認識処理部108aと、画像認識処理部108bと、3次元空間認識処理部108cと、を有する。
音声認識処理部108aは、マイク104が集音した音声データを指示コードに変換する。例えば、頭部装着映像部10は、この指示コードに従った制御動作を行う。
画像認識処理部108bは、重畳表示された画像内における現実空間画像内の座標と、仮想オブジェクトの画像上における座標との間の距離情報を取得する。
3次元空間認識処理部108cは、例えばカメラ102が撮像した画像データに基づき、現実空間内の画像から抽出された自然特徴点の3次元座標をSfM(Structure from Motion)により算出し、ランドマークデータとして記憶する。そして、3次元空間認識処理部108cは、ランドマークデータとカメラ102が撮像した画像データから得られる自然特徴点との対応関係に基づき、頭部装着映像部10の位置姿勢を推定する。このように、マーカ40が撮像されない場合にも、現実空間内の座標系における頭部装着映像部10の位置姿勢、及び頭部装着映像部10に装着時の3次元計測部105の基準座標の推定が可能となる。
画像処理制御部110は、制御部110aと、画像処理部110bと、出力処理部110cとを有する。
制御部110aは、画像処理装置1全体を制御する。
画像処理部110bは、位置合わせ部106aによる位置合わせに基づき、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される仮想オブジェクトの画像とを合成する。より具体的には、画像処理部110bは、位置合わせ部106aによる位置合わせが終了した後には、3次元空間認識処理部108cにより推定される頭部装着映像部10の位置姿勢に基づき、設計部材に基づき生成された仮想オブジェクトの位置及び形状を変更して、現実空間画像に重畳する。また、画像処理部110bは、例えば3次元障害物データをメッシュ形状で示す3次元障害物オブジェクトを生成し、現実空間画像に重畳する。この場合にも、3次元空間認識処理部108cにより推定される頭部装着映像部10の位置姿勢に基づき、3次元障害物オブジェクトの位置及び形状を変更して、現実空間画像に重畳する。
出力処理部110cは、画像処理部110bなどから入力されたデータ形式を変換して、表示部30、液晶画面112、及びスピーカ114に出力する。
液晶画面112は、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される仮想オブジェクトの画像とを重畳表示する。また、液晶画面112は、例えば3次元障害物オブジェクトなどを現実空間画像に重畳表示することが可能である。
液晶画面112は、例えば頭部装着型ディスプレイである。また、液晶画面112を光学シースルー方式によって実現してもよい。例えば、光学シースルー型液晶ディスプレイに、観察者の視点の位置および姿勢に応じて生成した仮想オブジェクトの画像を表示することにより実現される。この場合には、現実空間の画像ではなく、実際の現実空間に重なるように仮想オブジェクトの画像が重畳される。
なお、頭部装着映像部10と、生成部20との通信は無線通信でも有線通信でもよい。同様に、頭部装着映像部10と、表示部30との通信は無線通信でも有線通信でもよい。また、生成部20を頭部装着映像部10内に構成してもよい。さらにまた、頭部装着映像部10と、3次元計測部105との通信も無線通信でも有線通信でもよい。
また、頭部装着映像部10を操作者が装着した状態で、設計支援ツールを用いて設計部材を生成し、設計用の3次元モデル空間に設計部材を配置してもよい。すなわち、現場で設計した設計部材を仮想オブジェクトの画像として観察可能となる。この際に、設計支援ツールの操作には、入力操作部206を仮想のキーボードやテンキーとして頭部装着映像部10などに映し出し、使用してもよい。このように、設計行為を行いながら、実際の現実空間に重なる設計部材の仮想オブジェクトを確認、検証、及び修正をすることが可能となり、設計効率をより上げることができる。
スピーカ114は、認識処理部108による認識結果に基づく音声を出力する。例えば、音声認識処理部108aで出力された指示コードに基づく音声を出力する。例えば、設計支援ツールに対して音声により指示することも可能である。
ここで、図2〜図5を用いて、属性情報付与部200、経路生成部201および設計処理部202の詳細な構成を説明する。
図2は、設計部材に付与された属性情報を示す図である。図2を用いて、設計部材に付与された属性情報を説明する。図2に示すように、属性情報付与部200は、経路生成部201および設計処理部202により生成される設計部材A1〜A3に、部材の種別を示す属性情報も付与する。例えば、属性情報付与部200は、設計処理部202で生成可能な属性情報のデータとして、例えば径100Aの配管、径100Aのフランジ管などの情報を記憶している。そして、属性情報付与部200は、入力処理部106により指示された属性情報を設計部材A1〜A3に付与する。特に、A2は、湾曲を許容する設計部材である。これらの径を含む属性情報は、入力操作部206による操作により、リアルタイムに変更可能である。つまり、頭部装着映像部10を装着した状態で、属性情報を変更可能である。これにより、様々な仮想設計も可能となる。
図3は、経路生成部201の処理を説明する模式図である。図3を用いて、経路生成部201の処理例を説明する。経路生成部201は、施工対象となる現実空間の実際の寸法に基づき、施工対象となる現実空間に対応する演算用の3次元モデル空間として3次元の格子点モデルを生成する。座標B1〜B3、及び座標C1〜C3は格子点モデルの位置を示している。例えば、座標B1〜B3、及び座標C1〜C3は現実空間の通り芯の位置に対応している。
経路生成部201は、データ蓄積部107から3次元障害物データの情報を取得し、3次元の格子点モデルに配置する。続けて、経路生成部201は、設計部材A1〜A3の属性情報を用いて、開始点S10から終了点E10を結ぶ経路A1、A2、A3を、現実空間における障害物の位置情報に基づいて生成する。この場合、例えば特開2017−211987号公報に記載される方法を用いることが可能である。すなわち、経路生成部201は、現実空間内の経路A1、A2、A3が経由する位置の候補である経由候補点を、格子点モデル空間において設計部材A1〜A3の設置位置と、設計部材A1〜A3の設置向きとによって示す経由候補点情報を取得する。続けて、経由候補点情報取得過程において取得された経由候補点情報と、経由候補点情報が示す複数の経由候補点を接続する経路の重みとに基づいて、重みを重みとしてもつ重み付きグラフを生成する。そして、グラフ生成過程において生成された重み付きグラフに基づいて、いずれかの経由候補点を経由する配管の経路を探索する。この際に、経路生成部201は、経由候補点情報取得過程において取得された経由候補点情報が示す設置位置と設置向きと、格子点モデル空間における障害物の位置とに基づいて、経由候補点のおのおのの間を設計部材A1〜A3により接続可能か否かを判定する接続判定過程をさらに有し、グラフ生成過程は、接続判定過程において設計部材A1〜A3により接続可能と判定される経由候補点のおのおのの間に重み付きグラフのエッジを生成し、生成したエッジに基づいて重み付きグラフを生成する。また、例えばグラフ生成過程は、設計部材A1〜A3の長さと、設計部材A1〜A3の屈曲箇所の個数とに基づいて重みを算出し、算出した重みに基づいて、重み付きグラフを生成する。
このような処理により、経路生成部201は、障害物を回避する設計部材A1〜A3の属性情報を用いた経路A1、A2、A3を生成する。そして、経路生成部201は、経路A1、A2、A3における設計部材A1〜A3に対応する位置情報を設計処理部202に出力する。
ここで、図4を用いて、3次元モデル空間内に配置される設計部材A1〜A3の例を説明する。図4は、設計処理部202により生成された設計部材A1〜A3を模式的に示す図である。図4に示すように、設計処理部202は、設計部材に付与された属性情報に基づき、設計用の3次元モデル空間内に設計部材A1〜A3を生成する。より具体的には、設計処理部202は、設計部材に付与された3次元CADモデルの情報、及び経路生成部201により演算された位置情報を用いて、設計用の3次元モデル空間内に設計部材A1〜A3を生成する。なお、本実施形態では、経路生成部201と、設計処理部202とで用いる3次元モデル空間をそれぞれ用意したが、これに限定されない。例えば、経路生成部201用の3次元モデル空間に、設計処理部202用の3次元モデル空間を使用することも可能である。この場合、経路生成部201と設計処理部202とを統合して、一つの経路生成部201として構成することも可能である。
ここで、図5を用いて、設計部材A1〜A3の仮想オブジェクトZA1〜ZA3の画像を説明する。図5は、変換部106cにより生成された仮想オブジェクトZA1〜ZA3が、画像処理部110bにより現実空間に重畳された例を模式的に示す図である。図5に示すように、表示部30、および液晶画面112は、障害物を回避した設計部材A1〜A3の仮想オブジェクトZA1〜ZA3を現実空間に重畳表示する。
図6は、画像処理装置1における画像処理の流れを示すフローチャートの一例である。
図6に示すように、操作者は、属性情報付与部200により施工に用いる設計部材とマーカ40の属性情報を入力する(ステップS100)。操作者は、例えば表示部30に表示される3次元モデル空間内に、設計部材を配置する開始点、終了点に対応する座標を入力操作部206により指示する。また、操作者は、例えば表示部30に表示される3次元CADモデルの一覧の中から設計部材を選択する。属性情報付与部200は、これらの情報を設計部材の属性情報として付与する。この際に、3次元モデル空間にマーカ40を配置する座標も設定される。
次に、3次元計測部105を基準位置に配置し、対象構造物に向かってレーザを走査し、障害物の計測を行う(ステップS102)。3次元障害物データなどは、データ蓄積部107に蓄積される。この際に、未計測の領域が存在する場合には、基準位置を変更し、計測を繰り返す。続けて、座標統合部106bは、計測された3次元障害物データなどを現実空間の座標系に統合し、3次元障害物データを含む統合形状データを生成する。
次に、操作者は、入力操作部206により開始点と終了点の空間座標を入力する(ステップS104)。続けて、経路生成部201は、属性情報付与部200により付与された属性情報に基づき、障害物を回避した開始点から終了点を結ぶ各設計部材の経路を生成し、各設計部材の位置情報を設計処理部202に出力する。
設計処理部202は、属性情報付与部200および経路生成部201により付与された属性情報に基づき、設計部材を生成し、設計用の3次元モデル空間に配置する(ステップS106)。これらの設計部材は、例えば表示部30に表示され、操作者により視認される。続けて、変換部106cは、設計処理部202により生成された設計部材の情報を仮想オブジェクトに変換する。これにより、コンピュータ支援設計により設計された設計部材に基づき生成された仮想オブジェクトが3次元モデル空間内に配置される。
次に、3次元モデル空間に設定されたマーカ40の座標に対応する現実空間の位置にマーカ40を配置し、カメラ102により撮像する(ステップS108)。続けて、位置合わせ部106aは、撮像されたたマーカ40の情報に基づき、3次元モデル空間の座標系と、現実空間の座標系との位置合わせを行う(ステップS110)。
次に、3次元空間認識処理部108cは、カメラ102が撮像した画像データから自然特徴点を取得し、ランドマークデータと自然特徴点との対応関係に基づき、頭部装着映像部10の位置姿勢を推定する(ステップS112)。
次に、画像処理部110bは、位置姿勢の推定結果に基づき、使用者の視点位置から観察された現実空間画像と、使用者の視点位置から観察される仮想オブジェクトの画像とを重畳し、出力処理部110cを介して液晶画面112及び表示部30に表示する(ステップS114)。
制御部110aは、画像処理制御を継続する否かを判断する(ステップS116)。画像処理制御を継続する場合(ステップS116のNO)、ステップS112からの処理を繰り返す。一方、画像処理制御を終了する場合(ステップS116のYES)、全体処理を終了する。
以上のように、本実施形態によれば、経路生成部201が、現実空間における開始点と終了点との間を接続する経路を、現実空間における障害物の位置情報に基づいて生成する。この経路に基づき生成された設計部材を配置する3次元モデル空間の座標と、現実空間の座標との位置合わせを行い、画像処理部110bが、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される設計部材に基づく仮想オブジェクトの画像を生成する。これにより、障害物を回避した設計部材の施工結果を現実空間内に、仮想オブジェクトとして視覚化することができる。
(第2実施形態)
第1実施形態に係る経路生成部201は、設計部材の情報を用いて経路を生成していたが、第2実施形態に係る経路生成部201は、搬入資材の属性情報を用いて搬入経路を生成する点で相違する。以下では第1実施形態に係る画像処理装置1と異なる点を説明する。
図7は、第2実施形態に係る画像処理装置1の構成を示すブロック図である。図7を用いて、第2実施形態に係る画像処理装置1の構成例を説明する。
属性情報付与部200は、搬入する設計部材の属性情報を付与する。例えば、属性情報付与部200は、搬入資材の形状及び大きさの情報を属性情報として付与する。
図8を用いて、第2実施形態に係る経路生成部201の処理例を説明する。図8は、第2実施形態に係る経路生成部201が処理に用いる3次元の格子点モデルを説明する模式図である。図8に示すように、経路生成部201は、施工対象となる現実空間の実際の寸法に基づき、施工対象となる現実空間に対応する演算用の3次元の格子点モデルを3次元モデル空間として生成する。座標B1〜B3、及び座標C1〜C3は格子点モデルの位置を示している。例えば、座標B1〜B3、及び座標C1〜C3は現実空間の通り芯の位置に対応している。経路生成部201は、データ蓄積部107から3次元障害物データの情報を取得し、3次元モデル空間に配置する。
経路生成部201は、搬入資材の属性情報を用いて、開始点S20から終了点E20を結ぶ経路を、現実空間における障害物の位置情報に基づいて生成する。例えば、経路生成部201は、搬入資材が障害物と干渉しない開始点S20から終了点E20の最短経路探索を行い、最短経路を3次元の格子点モデルに書き込む処理を行う。
配置部203は、搬入資材の属性情報に基づき、経路生成部201が生成した経路に沿った向きの搬入資材モデルを複数生成し、3次元モデル空間に配置する。そして、変換部106cは、配置部203により生成された複数の搬入資材モデルを複数の仮想オブジェクトに変換する。
図9を用いて、搬入資材の仮想オブジェクトZMV2の画像を説明する。図9は、搬入資材の仮想オブジェクトZMV2の画像を示す図である。図9は、変換部106cにより生成された仮想オブジェクトZMV2が、画像処理部110bにより現実空間に重畳された例を模式的に示す図である。図9に示すように、表示部30、および液晶画面112は、障害物を回避した搬入資材の仮想オブジェクトZMV2を現実空間に重畳表示する。この場合、画像処理部110bは、複数の仮想オブジェクトZMV2に基づき、時系列な仮想オブジェクトZMV2の画像を生成し、現実空間に時系列に重畳表示する。これにより、仮想オブジェクトZMV2が障害物を回避して、移動する様子を現実空間画像に重畳して観察可能である。
以上のように、本実施形態によれば、経路生成部201が、現実空間における開始点と終了点との間を接続する搬入資材の経路を、現実空間における障害物の位置情報に基づいて生成する。この経路に基づき生成された搬入資材を配置する3次元モデル空間の座標と、現実空間の座標との位置合わせを行い、画像処理部110bが、位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、使用者の視点位置から観察される搬入資材に基づく仮想オブジェクトの画像を時系列に生成する。これにより、障害物を回避した搬入資材の搬入状況を現実空間内に、仮想オブジェクトとして視覚化することができる。
本実施形態による画像処理装置1におけるデータ処理方法の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、データ処理方法の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。また、データ処理方法の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
以上、いくつかの実施形態を説明したが、これらの実施形態は、例としてのみ提示したものであり、発明の範囲を限定することを意図したものではない。本明細書で説明した新規な装置、方法及びプログラムは、その他の様々な形態で実施することができる。また、本明細書で説明した装置、方法及びプログラムの形態に対し、発明の要旨を逸脱しない範囲内で、種々の省略、置換、変更を行うことができる。
1:画像処理装置、10:頭部装着映像部、20:生成部、30:表示部、40:マーカ、105:3次元計測部、106a:位置合わせ部、106c:変換部、108:認識処理部、108b:画像認識処理部、110b:画像処理部、200:属性情報付与部、201:経路生成部、202:設計処理部、203:配置部、206:入力操作部

Claims (8)

  1. 現実空間における障害物の位置情報に基づいて、前記現実空間における開始点と終了点との間の経路を、前記障害物を回避して生成する経路生成部と、
    前記経路に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、前記現実空間の座標系との位置合わせを行う位置合わせ部と、
    前記位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、前記使用者の視点位置から観察される前記仮想オブジェクトの画像を生成する画像処理部と、
    前記現実空間画像と前記仮想オブジェクトの画像とを重畳表示する表示部と、
    を備える画像処理装置。
  2. 前記経路に基づき、前記3次元モデル空間に設計部材を配置する設計部と、
    前記設計部により配置された設計部材の情報を前記仮想オブジェクトに変換する変換部と、
    をさらに備える、請求項1に記載の画像処理装置。
  3. 前記経路は、搬入資材の搬入経路であり、
    前記経路に基づき、前記3次元モデル空間に前記経路に沿って複数の搬入資材を配置する配置部と、
    前記配置部により配置された複数の搬入資材の情報を複数の前記仮想オブジェクトに変換する変換部と、
    をさらに備え、
    前記画像処理部は、前記複数の前記仮想オブジェクトに基づき、時系列な前記仮想オブジェクトの画像を生成し、前記現実空間に時系列に重畳表示する、請求項1に記載の画像処理装置。
  4. 前記現実空間における開始点と終了点とを入力する入力操作部を更に有し、
    前記経路生成部は、前記入力操作部を介して入力された前記開始点と前記終了点を接続する前記経路を生成する、請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記入力操作部は、属性情報も入力可能であり、
    前記経路生成部は、前記入力操作部を介して入力された前記属性情報を用いて前経路を生成する、請求項4に記載の画像処理装置。
  6. 前記属性情報は、搬入資材の形状と大きさに関する情報であり、
    前記経路生成部は、前記属性情報に応じて、前記障害物と干渉しない前記経路を生成する、請求項5に記載の画像処理装置。
  7. 前記現実空間内の前記障害物を3次元障害物データとして3次元計測する3次元計測部を更に備え、
    前記経路生成部は、前記3次元障害物データを用いて、前記経路を生成する、請求項1に記載の画像処理装置。
  8. 現実空間における障害物の位置情報に基づいて、前記現実空間における開始点と終了点との間の経路を、前記障害物を回避して生成する経路生成工程と、
    前記経路に基づき生成された仮想オブジェクトを配置する3次元モデル空間の座標系と、前記現実空間の座標系との位置合わせを行う位置合わせ工程と、
    前記位置合わせに基づき、使用者の視点位置から観察される現実空間画像に対応させて、前記使用者の視点位置から観察される前記仮想オブジェクトの画像を生成する画像処理工程と、
    前記現実空間画像と前記仮想オブジェクトの画像とを重畳表示する表示工程と、
    を備える画像処理方法。
JP2019189515A 2019-10-16 2019-10-16 画像処理装置、及び画像処理方法 Pending JP2021064264A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019189515A JP2021064264A (ja) 2019-10-16 2019-10-16 画像処理装置、及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019189515A JP2021064264A (ja) 2019-10-16 2019-10-16 画像処理装置、及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2021064264A true JP2021064264A (ja) 2021-04-22

Family

ID=75486395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019189515A Pending JP2021064264A (ja) 2019-10-16 2019-10-16 画像処理装置、及び画像処理方法

Country Status (1)

Country Link
JP (1) JP2021064264A (ja)

Similar Documents

Publication Publication Date Title
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
US20190272676A1 (en) Local positioning system for augmented reality applications
JP5378374B2 (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
JP5211120B2 (ja) 情報表示装置及び情報表示方法
JP5999679B2 (ja) 設備保守管理システム
JP2014137244A (ja) 三次元合成処理システムおよび三次元合成処理方法
CN111033536A (zh) 用于在施工现场生成自适应投射现实的方法和系统
CN105637559A (zh) 使用深度传感器的结构建模
US10015466B2 (en) Spatial information visualization apparatus, storage medium, and spatial information visualization method
JP6310149B2 (ja) 画像生成装置、画像生成システム及び画像生成方法
JP2008293357A (ja) 情報処理方法および情報処理装置
KR100757751B1 (ko) 실내 환경의 환경맵 생성 장치 및 방법
JP2016099665A (ja) 視点位置算出装置、画像生成装置、視点位置算出方法、画像生成方法、視点位置算出プログラム、及び、画像生成プログラム
JP6719368B2 (ja) 3次元空間可視化装置、3次元空間可視化方法およびプログラム
JP2014010559A (ja) 計測支援装置、方法及びプログラム
JP2013008257A (ja) 画像合成プログラム
JP7403273B2 (ja) 画像処理装置、及び画像処理方法
JP2018088065A (ja) 情報可視化システム、情報可視化方法、及びプログラム
JP2021064264A (ja) 画像処理装置、及び画像処理方法
JP2013092888A (ja) データ処理装置
JP7287408B2 (ja) 表示方法、情報処理装置、及びプログラム
JP7098473B2 (ja) 画像処理装置、及び画像処理方法
JP6405539B2 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
JP2006267026A (ja) 画像処理方法、画像処理装置
JP4017351B2 (ja) 3次元モデル生成装置および3次元モデル生成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521