JP2018073095A - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP2018073095A JP2018073095A JP2016211664A JP2016211664A JP2018073095A JP 2018073095 A JP2018073095 A JP 2018073095A JP 2016211664 A JP2016211664 A JP 2016211664A JP 2016211664 A JP2016211664 A JP 2016211664A JP 2018073095 A JP2018073095 A JP 2018073095A
- Authority
- JP
- Japan
- Prior art keywords
- data
- virtual object
- image processing
- scale
- real object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】現実物体に仮想物体を重畳表示するために、仮想物体の縮尺を現実物体の縮尺に合わせる技術を提供する。【解決手段】現実物体に重畳表示するための仮想物体のデータを作成する画像処理装置が、前記現実物体の形状から作成された三次元形状データを取得する物体形状取得手段と、前記現実物体に対応する三次元モデルを定義するモデルデータを対応データとして取得する対応データ取得手段と、前記三次元形状データと前記対応データに基づいて、前記三次元モデルに対する前記現実物体の縮尺を計算する縮尺計算手段と、前記縮尺計算手段により計算された縮尺で、前記対応データから仮想物体のデータを作成する仮想物体作成手段と、を有する。【選択図】図2
Description
本発明は画像処理を行う画像処理装置および画像処理方法に関するものである。
従来、三次元CAD(Computer−aided Design)システムを用いて設計された製品の操作性、デザイン、メンテナンス性などを検証するためには、アルミ材や発泡樹脂を用いて試作品を作製していた。しかし、設計変更のたびに試作品を作製して検証を行うのは、そのたびに試作品作製のためのコストがかかることが課題であった。そのため、物体があたかも現実に存在するかのように利用者に仮想物体を提示するVR(Virtual Reality)技術が、試作品を利用した検証の代替として利用されてきた。
また近年、現実空間上に仮想物体を重畳表示することで複合現実感を与える、いわゆるMR(Mixed Reality)技術が普及しはじめている。このMR技術も製品の設計・検証に利用される機会が増えてきている。
MR技術を利用すると、1つの試作品(現実物体)の上に、モデルデータから生成した様々な仮想物体を重畳表示することで、製品のカラーバリエーションやデザインバリエーションを容易に生成できる。また、製品の主要部分のみを試作品として用意し、残りの部分(オプションパーツ、形状のバリエーションなど)については仮想物体で表現することも可能である。これにより、現実物体である試作品で操作性や触感の検証を行いつつ、色、模様、細部の形状などの外観デザインについては仮想物体で検証することができるため、検証作業の効率化を図ることができる。また、実際の試作数を大幅に減らせるため、コストを削減できるという利点もある。なお、MR技術に関する先行文献としては特許文献1がある。
MR技術では仮想物体を現実に存在するかのように感じさせることが求められている。そのため、MR技術を用いた検証では、試作品および仮想物体を実寸(モデルデータと同じ寸法)で作製することが一般的である。これにより、設計した製品が実際に存在するかのように検証を行うことを可能にしている。
しかしながら、試作品を用いた検証作業では、モデルデータとは異なるサイズで試作品を作製する場合がある。例えば、建造物、建設機械、車両、製造装置のようにサイズの大きな物体の場合は、コストや効率の観点から数分の1〜数百分の1の縮尺で作製した試作模型を用いて検証が行われる。このように、実寸でない試作品の検証作業でもMR技術を利用するためには、試作品の縮尺に合うように仮想物体の縮尺を変更する必要がある。このとき、試作品の縮尺が既知であるならば、それに合わせて仮想物体の縮尺を変更することができる。しかし、試作品の縮尺が不明の場合には、観察者が試作品と仮想物体を比較しながら仮想物体の縮尺を調整することで、試作品(現実物体)と仮想物体の縮尺を合わ
せなければならない。このような縮尺合わせの作業には多大な時間と手間がかかるため、問題となる。
せなければならない。このような縮尺合わせの作業には多大な時間と手間がかかるため、問題となる。
特許文献2には、VR技術において仮想物体の縮尺変更を行う方法が開示されている。具体的には、特許文献2の映像表示システムでは、観察者が判断した仮想物体の長さを入力として受け付け、入力値と事前に設定された現実物体の実寸とを計算機が比較することで、仮想物体の縮尺を変更して表示する。しかしながら、この方法では、観察者の感覚に基づいて縮尺の変更を行うため、現実物体の縮尺と仮想物体の縮尺を正確に合わせることが難しい。
本発明は上記実情に鑑みてなされたものであり、現実物体に仮想物体を重畳表示するために、仮想物体の縮尺を現実物体の縮尺に合わせる技術を提供することを目的とする。
本発明の第一態様は、現実物体に重畳表示するための仮想物体のデータを作成する画像処理装置であって、前記現実物体の形状から作成された三次元形状データを取得する物体形状取得手段と、前記現実物体に対応する三次元モデルを定義するモデルデータを対応データとして取得する対応データ取得手段と、前記三次元形状データと前記対応データに基づいて、前記三次元モデルに対する前記現実物体の縮尺を計算する縮尺計算手段と、前記縮尺計算手段により計算された縮尺で、前記対応データから仮想物体のデータを作成する仮想物体作成手段と、を有することを特徴とする画像処理装置を提供する。
本発明の第二態様は、現実物体に重畳表示するための仮想物体のデータを作成する画像処理方法であって、前記現実物体の形状から作成された三次元形状データを取得するステップと、前記現実物体に対応する三次元モデルを定義するモデルデータを対応データとして取得するステップと、前記三次元形状データと前記対応データに基づいて、前記三次元モデルに対する前記現実物体の縮尺を計算するステップと、前記計算された縮尺で、前記対応データから仮想物体のデータを作成するステップと、を有することを特徴とする画像処理方法を提供する。
本発明の第三態様は、本発明の第二態様に係る画像処理方法の各ステップを実行するためのプログラムを提供する。
本発明によれば、現実物体に仮想物体を重畳表示するために、仮想物体の縮尺を現実物体の縮尺に合わせることが可能になる。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(ハードウェア構成)
以下の実施形態で説明される方法は、図1に示すブロック図の構成を持つコンピュータ装置100で動作する。また、各実施形態における方法はそれぞれ単一のコンピュータ装置で実現してもよいし、必要に応じた複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)やWide Area Network(WAN)などで接続されている。
以下の実施形態で説明される方法は、図1に示すブロック図の構成を持つコンピュータ装置100で動作する。また、各実施形態における方法はそれぞれ単一のコンピュータ装置で実現してもよいし、必要に応じた複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)やWide Area Network(WAN)などで接続されている。
図1において、符号101はコンピュータ装置100全体を制御するプロセッサであるCentral Processing Unit(CPU)を示す。符号102は変更を必要としないプログラムやパラメータを格納するRead Only Memory(ROM)を示す。符号103は記憶装置などから供給されるプログラムやデータを一時記憶するワークメモリであるRandom Access Memory(RAM)を示す。符号104はコンピュータ装置100に設置されたハードディスクやフラッシュメモリなどの記憶装置を示す。記憶装置104は、コンピュータ装置100に固定されたデバイスでもよいし、コンピュータ装置100に対し着脱可能なデバイスでもよいし、コンピュータ装置100とネットワークを介して接続されるネットワークストレージでもよい。記憶装置104は、例えば、フレキシブルディスク(FD)やCompact Disk(CD)等の光ディスク、磁気や光カード、ICカード、メモリカードなども含む。符号105はデータを入力する入力デバイス109(ポインティングデバイス、タッチパネル、キーボード、3Dスキャナ、センサなど)とのインタフェースを示す。符号106はコンピュータ装置100の保持するデータや供給されたデータを出力するための出力デバイス110(ディスプレイ、ヘッドマウントディスプレイ、プリンタなど)とのインタフェースを示す。符号107はネットワーク111(LAN、インターネットなど)に接続するためのネットワークインタフェースを示す。符号108はユニット101〜107を通信可能に接続するシステムバスである。後述するMR装置はネットワークインタフェース107又は不図示のシリアルバスを介してコンピュータ装置100に接続される。あるいは、センサおよびヘッドマウントディスプレイをインタフェース105および106に接続し、CPU101でMRのアプリケーションプログラムを実行することにより、コンピュータ装置100によりMR装置を実現してもよい。
本発明の目的は、後述する機能を実現するプログラムコードを記録した記録媒体をコンピュータ装置100に供給し、CPU101(プロセッサ)がそのプログラムコードをRAM103(メモリ)にロードし実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が後述する機能を実現することとなる。したがって、そのプログラムコードそのもの、および、そのプログラムコードを非一時的に記録
したコンピュータ読取可能な記録媒体を、発明として捉えることができる。
したコンピュータ読取可能な記録媒体を、発明として捉えることができる。
プログラムコードを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどがある。また、そのほかの記憶媒体としてはCD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、DVD、フラッシュメモリ、USBメモリなども用いることができる。また、プログラムコードの実行はコンピュータが直接行うだけでなく、コンピュータ上で稼動しているOperating System(OS)などによって処理されてもよい。さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットによって処理されてもよい。
<実施形態1>
実施形態1では、実寸とは異なるサイズ(縮尺は未知でもよい)で作製された現実物体が与えられた場合に、当該現実物体と同じ縮尺の仮想物体のデータを自動ないし半自動で生成する方法を説明する。現実物体は、例えば、モデルデータを基に3Dプリンタにより造形された物でもよいし、人が作製した物でもよい。
実施形態1では、実寸とは異なるサイズ(縮尺は未知でもよい)で作製された現実物体が与えられた場合に、当該現実物体と同じ縮尺の仮想物体のデータを自動ないし半自動で生成する方法を説明する。現実物体は、例えば、モデルデータを基に3Dプリンタにより造形された物でもよいし、人が作製した物でもよい。
(画像処理装置の構成)
図2は、実施形態1に係る画像処理装置の機能を示すブロック図である。画像処理装置200は、モデルデータから現実物体と同じ縮尺の仮想物体のデータを作成するための装置であり、図1に示すコンピュータ装置100においてCPU101が所要の画像処理プログラムを実行することにより実現されるものである。
図2は、実施形態1に係る画像処理装置の機能を示すブロック図である。画像処理装置200は、モデルデータから現実物体と同じ縮尺の仮想物体のデータを作成するための装置であり、図1に示すコンピュータ装置100においてCPU101が所要の画像処理プログラムを実行することにより実現されるものである。
画像処理装置200は、3Dデータを取得するための機能として、物体形状取得部201と3Dデータ取得部202を持つ。画像処理装置200は、3Dデータを管理するための機能として、3Dデータ保管部203を持つ。画像処理装置200は、縮尺を変更した仮想物体を作成するための機能として、縮尺計算部204と仮想物体作成部205を持つ。画像処理装置200は、ユーザーからの指示を取得するための機能として、指示提示部207と寸法単位取得部208を持つ。画像処理装置200は、ユーザーへ仮想現実感や複合現実感を提供するための機能として、表示制御部206を持つ。
なお、本実施形態では、表示制御部206が仮想物体のデータに基づき表示用画像を生成しMR装置211のディスプレイに出力する構成を想定する。ただし、表示制御部206の機能を画像処理装置200の外(つまり、MR装置211側)に設けてもよい。その構成の場合、画像処理装置200では仮想物体のデータの生成までを行い、その仮想物体のデータをMR装置211に送出する。そして、MR装置211が、画像処理装置200から受信した仮想物体のデータに基づき、仮想現実感や複合現実感を提供するための表示用画像を生成しディスプレイに表示する。
物体形状取得部201は、現実物体の三次元形状データを取得する機能である。三次元形状データは、現実物体の形状から作成されたデータである。三次元形状データを取得する方法としては、例えば3Dスキャナ210により現実物体を計測する方法や、現実物体を撮影した二次元画像又はステレオ画像から三次元形状を復元する方法などがあるが、これらに限定されない。また、三次元形状データのデータ形式も問わない。例えばPCD(ポイントクラウドデータ)などの三次元点群データとして取得しても良い。あるいは、STL(Stereolithography)やAMF(Additive Manufacturing File Format)、3MFなどのポリゴンメッシュデータとして取得しても良い。
3Dデータ取得部202は、現実物体に対応する三次元モデルを定義するモデルデータ
(以下、「現実物体に対応するモデルデータ」又は単に「対応データ」という。)を取得する機能(対応データ取得機能)である。モデルデータは、例えば、三次元CADシステムを用いて作成された設計図面を表す設計データ(CADデータ)でもよいし、設計データから作成した前述のSTL、AMF、3MFなどのポリゴンメッシュデータでもよい。例えば、現実物体を作製するために利用されたモデルデータが、対応データとして選ばれる。
(以下、「現実物体に対応するモデルデータ」又は単に「対応データ」という。)を取得する機能(対応データ取得機能)である。モデルデータは、例えば、三次元CADシステムを用いて作成された設計図面を表す設計データ(CADデータ)でもよいし、設計データから作成した前述のSTL、AMF、3MFなどのポリゴンメッシュデータでもよい。例えば、現実物体を作製するために利用されたモデルデータが、対応データとして選ばれる。
3Dデータ取得部202は、3Dデータ保管部203に保管されている複数のモデルデータのなかから、現実物体の三次元形状データと特定の条件を満たすモデルデータを対応データとして抽出する。「特定の条件」は、例えば、三次元形状データで定義される三次元物体とモデルデータで定義される三次元モデルが同一又は類似の形状(相似形を含む)を有することなどである。モデルデータの検索(すなわち、形状が類似しているか否かの判断)は、三次元形状データとモデルデータのそれぞれから形状的特徴をあらわす特徴量を抽出し、特徴量の類似度を評価することにより判断してもよい。例えば、特許文献3(特開2000−222428号公報)に開示されている方法のように、三次元モデルを簡易化した検索モデル(ポリゴン数を減らしたモデル)を用いて形状の類似を判断することも好ましい。「特定の条件」の他の例として、現実物体に付加されたIDとモデルデータに関連付けられたIDとが一致するという条件を用いてもよい。現実物体にIDを付加する方法としては、例えば、物体表面にIDを刻印又は印字する方法、IDを記録したバーコードや二次元コードやRFIDタグを物体表面に貼り付ける方法などがある。なお、上記の条件は例でありこれらに限定されるものではない。夫々の例における3Dデータ保管部203でのデータ保管方法は後述する。
3Dデータ保管部203は、複数の三次元モデルのモデルデータを記憶するデータベース(データ保管機能)である。3Dデータ保管部203は、モデルデータと、3Dデータ取得部202での検索に利用するデータとを関連付けて記憶することが好ましい。検索に利用するデータとしては、例えば3Dデータ取得部202で特許文献3の方法を用いる場合、特許文献3に開示されているような検索モデルを保管するとよい。また、現実物体に付加されたIDに一致するモデルデータを取得する場合には、例えば図3に示すように、IDとモデルデータを関連付けて保管するとよい。図3の場合、行ごとに関連を示しており、一列目のIDを二列目のモデルデータファイルが持つことを示している。例えばモデルデータファイル「Data1.xxx」は、IDとして1を持つことを示している。
縮尺計算部204は、三次元形状データとモデルデータを比較することによって、現実物体の縮尺を計算する機能である。縮尺計算部204は、例えば、三次元形状データとモデルデータから夫々のバウンディングボックスを作成し、バウンディングボックスの最も長い辺の長さを比較することで縮尺を計算してもよい。バウンディングボックスは、三次元形状データ又はモデルデータで定義される三次元モデルに外接する最小のボックス(直方体)である。他の方法として、縮尺計算部204は、三次元モデルを構成する頂点群のなかで最も遠い2点間の距離を三次元形状データとモデルデータのあいだで比較することで、縮尺を計算してもよい。上記は例であり、縮尺を計算する方法は問わない。
仮想物体作成部205は、対応データから、現実物体の縮尺に合わせて仮想物体のデータを作成する機能である。仮想物体のデータは、例えば、ポリゴンメッシュの三次元データである。仮想物体のデータのフォーマットは例えば前述のSTLやAMF、3MFなどを利用できるが、これらに限定されるものではない。
表示制御部206は、仮想物体のデータに基づき、現実物体に重畳表示するための仮想物体の画像を生成し出力する機能である。仮想物体と現実物体の重畳表示は、例えば、MR装置211により実現される。MR装置211は、ディスプレイ、ヘッドマウントディ
スプレイ、プロジェクタなどを用いて画像表示を行うとよい。
スプレイ、プロジェクタなどを用いて画像表示を行うとよい。
指示提示部207は、三次元形状データやモデルデータに寸法単位が設定されていなかった場合に、寸法単位の入力を求める機能である。寸法単位取得部208は、入力された寸法単位を取得する機能である。
(処理フロー)
次に、画像処理装置200における処理の流れについて図4を用いて説明する。
ステップS401では、物体形状取得部201が、現実物体の三次元形状データを読み込む。
次に、画像処理装置200における処理の流れについて図4を用いて説明する。
ステップS401では、物体形状取得部201が、現実物体の三次元形状データを読み込む。
ステップS402では、3Dデータ取得部202が、ステップS401で取得した三次元形状データと特定の条件を満たすモデルデータ(対応データ)を3Dデータ保管部203から検索する。対応データが検出された場合、3Dデータ取得部202はその対応データを3Dデータ保管部203から読み込む。
ステップS403では、ステップS402で対応データを取得できたかを判定する。取得できていた場合(True)にはステップS404の処理に進み、取得できていなかった場合(False)には処理を終了する。
ステップS403では、ステップS402で対応データを取得できたかを判定する。取得できていた場合(True)にはステップS404の処理に進み、取得できていなかった場合(False)には処理を終了する。
ステップS404では、ステップS401で取得した三次元形状データと、ステップS402で取得した対応データを、縮尺計算部204が比較することで、現実物体の縮尺を計算する。詳細については図5を使って後述する。
ステップS405では、仮想物体作成部205が、ステップS402で取得した対応データから、ステップS404で算出した縮尺で、仮想物体のデータを作成する。
ステップS406では、表示制御部206が、ステップS405で作成した仮想物体のデータに基づき仮想物体の画像を生成し、MR装置211に出力する。MR装置211を用いた表示の例については図7を使って後述する。
ステップS405では、仮想物体作成部205が、ステップS402で取得した対応データから、ステップS404で算出した縮尺で、仮想物体のデータを作成する。
ステップS406では、表示制御部206が、ステップS405で作成した仮想物体のデータに基づき仮想物体の画像を生成し、MR装置211に出力する。MR装置211を用いた表示の例については図7を使って後述する。
(縮尺の計算)
図5は、ステップS404の縮尺の計算処理を示している。
ステップS501では、縮尺計算部204が、ステップS401で取得した三次元形状データとステップS402で取得した対応データに寸法単位が指定されているかどうかを判定する。少なくともいずれか一方のデータに寸法単位が指定されていなかった場合(False)にはステップS502の処理へ進み、両方のデータとも寸法単位が指定されていた場合(True)にはステップS503に進む。
図5は、ステップS404の縮尺の計算処理を示している。
ステップS501では、縮尺計算部204が、ステップS401で取得した三次元形状データとステップS402で取得した対応データに寸法単位が指定されているかどうかを判定する。少なくともいずれか一方のデータに寸法単位が指定されていなかった場合(False)にはステップS502の処理へ進み、両方のデータとも寸法単位が指定されていた場合(True)にはステップS503に進む。
ステップS502では、指示提示部207が、例えば図6のようなユーザーインタフェースを表示することで利用者に寸法単位の入力を求める。寸法単位入力指示ウィンドウ600は、利用者に三次元形状データや対応データの寸法単位を入力することを求めるウィンドウである。
図6では、利用者がポインタ602を用いて、寸法単位入力部601のドロップダウンメニューの中からinchの項目を選択した状態を示している。ポインタ602の操作には、例えばコンピュータ装置100に接続された入力デバイス109としてマウスを使用する。マウスを使用する場合には、寸法単位入力部601のドロップダウンメニューにポインタを移動し、選択したい寸法単位の上で左クリックすることで選択される。選択された寸法単位は寸法単位取得部208により取得される。
ステップS503では、縮尺計算部204が、三次元形状データに基づく三次元物体のバウンディングボックスと、対応データに基づく三次元モデルのバウンディングボックス
を作成する。
ステップS504では、縮尺計算部204が、ステップS503で作成したバウンディングボックスを用いて縮尺を計算する。具体的には、縮尺計算部204は、三次元形状データに基づく三次元物体のバウンディングボックスと、対応データに基づく三次元モデルのバウンディングボックスの夫々から最も長い辺を抽出し、抽出した辺の長さの比を計算する。
を作成する。
ステップS504では、縮尺計算部204が、ステップS503で作成したバウンディングボックスを用いて縮尺を計算する。具体的には、縮尺計算部204は、三次元形状データに基づく三次元物体のバウンディングボックスと、対応データに基づく三次元モデルのバウンディングボックスの夫々から最も長い辺を抽出し、抽出した辺の長さの比を計算する。
図5の処理例では、三次元形状データとモデルデータの両方の寸法単位を要求したが、三次元形状データの寸法単位のみを要求してもよい。現実物体のサイズさえ分かれば、モデルデータの寸法単位がたとえ未知でも、現実物体と同じサイズになるように仮想物体を生成することが可能だからである。
(MR装置の表示例)
図7Aは、現実の空間を撮影した映像である現実空間702に存在している現実物体701を示している。この現実物体701は、例えば設計の検証を行う製品の簡易試作品などを撮影したものである。
図7Bは、仮想空間704にステップS405で作成した仮想物体703を配置した様子を示している。
図7Cは、現実物体701に仮想物体703が重畳表示されるように現実空間702と仮想空間704を重ね合わせることで作成した複合現実空間705を示している。この複合現実空間705の作成はMR装置211で行い、例えば、利用者が装着しているヘッドマウントディスプレイを用いて表示する。
図7Aは、現実の空間を撮影した映像である現実空間702に存在している現実物体701を示している。この現実物体701は、例えば設計の検証を行う製品の簡易試作品などを撮影したものである。
図7Bは、仮想空間704にステップS405で作成した仮想物体703を配置した様子を示している。
図7Cは、現実物体701に仮想物体703が重畳表示されるように現実空間702と仮想空間704を重ね合わせることで作成した複合現実空間705を示している。この複合現実空間705の作成はMR装置211で行い、例えば、利用者が装着しているヘッドマウントディスプレイを用いて表示する。
これにより利用者は、実寸とは異なるサイズで作製された現実物体上に、当該現実物体と同じサイズになるように縮尺が調整された仮想物体を重畳表示することが容易に可能になる。しかも、現実物体の縮尺(実寸との比)が未知であっても、仮想物体の適切な縮尺が自動で計算される。したがって、実寸でない試作品等の検証にもMR技術を容易に使用することができるようになる。
<実施形態2>
実施形態1には、仮想物体の表現(表示形態)を変更しながら検証を行うことができないため、多彩なパターンのデザインを容易に検証することができないという課題があった。実施形態2ではこの課題を解決する。
実施形態1には、仮想物体の表現(表示形態)を変更しながら検証を行うことができないため、多彩なパターンのデザインを容易に検証することができないという課題があった。実施形態2ではこの課題を解決する。
図8に実施形態2の画像処理装置800の構成を示す。本実施形態の画像処理装置800は、図2に示した実施形態1の構成に加えて、3つの機能要素、すなわち表示形態保管部801、表示形態取得部802、および終了指示取得部803を有する。
表示形態保管部801は、後述する表示形態取得部802から得た、仮想物体の表示形態の情報を保管する機能である。保管するのは最新の情報のみであり、表示形態保管部801が新たな情報を取得した場合には、古い情報を破棄して新しい情報のみを保管する。表示形態取得部802は、表示形態の情報を取得する機能である。ここで取得する情報は例えば仮想物体を表示する際の表面色、利用するテクスチャの情報、仮想物体の透明度などである。上記の取得情報は例でありこれに限らない。終了指示取得部803は、表示処理の終了指示を取得する機能である。
次に、画像処理装置800における処理の流れについて説明する。
本実施形態の画像処理方法は、実施形態1の画像処理方法に対し、表示形態を変更する処理を追加したものである。そのため本実施形態の処理フローでは、図4に示した実施形
態1の処理フローの、表示処理を行う部分であるステップS406が、図9に示す処理フローに置き換わる。その他の処理は図4に示したものと同じである。
態1の処理フローの、表示処理を行う部分であるステップS406が、図9に示す処理フローに置き換わる。その他の処理は図4に示したものと同じである。
ステップS901では、指示提示部207が、例えば図10のようなユーザーインタフェースを表示することで、利用者から表示形態の情報の入力を求める。ここでは仮想物体を表示する際の表面色を取得する例を具体的に説明する。表示形態入力ウィンドウ1000では、利用者に仮想物体の表面色の入力を求める。図10では、利用者がポインタ1002を用い、表示色入力部1001のドロップダウンメニューの中から黄を選択した状態を示している。ポインタ1002の操作には、例えばコンピュータ装置100に接続された入力デバイス109としてマウスを使用する。マウスを使用する場合には、表示色入力部1001のドロップダウンメニューにポインタを移動し、選択したい表面色の上で左クリックすることで選択される。選択された表示色は表示形態取得部802により取得される。
ステップS902では、表示形態取得部802が、ステップS901で取得した表示形態の情報と、表示形態保管部801に現在保管されている表示形態の情報とが同じかを判定する。異なる場合(True)はステップS903に進み、同じ場合(False)はステップS904に進む。
ステップS903では、表示形態取得部802が、ステップS901で取得した表示形態を表示形態保管部801に保存する。
ステップS903では、表示形態取得部802が、ステップS901で取得した表示形態を表示形態保管部801に保存する。
ステップS904では、表示制御部206が、ステップS903で保存した表示形態に則って仮想物体の画像を生成し、その仮想物体の画像を現実物体に重畳表示する。表示形態を変更する例として、MR装置211で表示する仮想物体の表面色を変更する例を、図11Aおよび図11Bに示す。図11Aおよび図11Bは、図7で前述した現実物体701、仮想物体703、複合現実空間705を示している。図11Aでは、仮想物体703の表面色が指定されていない場合を示している。この場合、表面色1101はMR装置211に設定されたデフォルトの表面色となる。図11Bでは、ステップS903で保管した表示形態を用いて、ステップS904で仮想物体を表示した状態を示している。表現上網掛け模様で示しているが、実際には例えば青色や赤色の表面色で仮想物体703を表示する。
ステップS905では、表示制御部206が、表示の終了指示が存在するかを判定し、終了指示が存在したら処理を終了する。存在しなかった場合はステップS901の処理へ戻る。終了指示は終了指示取得部803により取得する。終了指示は例えば図10に示されるユーザーインタフェースの右上に存在するバツ印を左クリックすることで指示される。
本実施形態の構成により、利用者は、実施形態1で得られる効果に加えて、仮想物体の表現を容易に変更しながら検証を行うことができるようになる。そのため、より多彩なパターンのデザインを容易に検証することが可能になった。
<実施形態3>
実施形態1には、現実物体に仮想物体のみを重畳表示するため、現実物体に装着する部品の検証や、部品を含む全体像の検証を容易に行うことができないという課題があった。本発明の実施形態3ではこの課題を解決する。
実施形態1には、現実物体に仮想物体のみを重畳表示するため、現実物体に装着する部品の検証や、部品を含む全体像の検証を容易に行うことができないという課題があった。本発明の実施形態3ではこの課題を解決する。
図12に実施形態3の画像処理装置1200の構成を示す。本実施形態の画像処理装置1200は、図2に示した実施形態1の構成に加えて1つの機能要素、すなわち関連3Dデータ特定部1201を有する。
関連3Dデータ特定部1201は、3Dデータ保管部203に格納された複数のモデルデータのなかから、現実物体に対応する対応データと関連性を有する他のモデルデータ(以下「関連データ」とよぶ)を検索し取得する機能(関連データ取得機能)である。関連データは、例えば三次元CADシステムを用いて作成された設計図面を表す設計データ(CADデータ)や、設計データから作成した前述のSTL、AMF、3MFなどの3Dデータである。
本実施形態における3Dデータ保管部203では、モデルデータ同士の関連性の有無を容易に判定することができるようなデータ構造で、複数のモデルデータが保管されている。例えば、複数のモデルデータは図13に示すツリー構造の形で保管される。ツリー構造は、ノードとノードの関連性を親子関係のように示すものであり、各ノードに1つずつモデルデータが保存されている。図13に示す例では、特定のノードから関連を上にたどると親ノードを、下にたどると子ノードを特定することができる。例えばノードAは、親ノードを持たず、2つの子ノードAA,ABを持つ。ノードAAは親ノードAを持ち、3つの子ノードAAA、AAB、AACを持つ。その他の要素に関しても同様に関連が記述されている。
次に、画像処理装置1200における処理の流れについて説明する。
本実施形態の画像処理方法は、実施形態1の画像処理方法に対し、関連データから作成した仮想物体を表示する処理を追加したものである。そのため本実施形態の処理フローでは、図4に示した実施形態1の処理フローのステップS406が、図14に示す処理フローに置き換わる。その他の処理は図4に示したものと同じである。
本実施形態の画像処理方法は、実施形態1の画像処理方法に対し、関連データから作成した仮想物体を表示する処理を追加したものである。そのため本実施形態の処理フローでは、図4に示した実施形態1の処理フローのステップS406が、図14に示す処理フローに置き換わる。その他の処理は図4に示したものと同じである。
図14に示す処理フローの詳細を説明する。ステップS1401では、関連3Dデータ特定部1201が、ステップS402で特定した対応データに関連する関連データを特定する。3Dデータ保管部203に、図13に示すようなツリー構造で複数の設計データが保存されている場合を例に説明する。ステップS402で特定した対応データがノードAABに保存されているとする。関連3Dデータ特定部1201は、このノードAABを基準として、事前に設定した範囲(例えば三親等など)に従って基準ノードからツリーを探査し、検出されたノードに保存されているモデルデータを関連データとして取得する。三親等の場合は、ノードA,ノードAA、ノードAB、ノードAAA、ノードAACに保存されている5つのモデルデータが関連データとして取得される。本実施形態では三親等の例で説明したが、基準ノードと関連性を有する範囲はこれに限定されるものではなく、例えば、子孫ノードや、基準ノードの全兄弟ノードなどを指定しても構わない。
ステップS1402では、関連3Dデータ特定部1201が、ステップS1401で関連データを特定できたかを判定する。関連データが1つ以上存在した場合(True)、ステップS1403の処理に進み、関連データが存在しなかった場合(False)、ステップS1404の処理に進む。
ステップS1403では、仮想物体作成部205が、ステップS1401で特定した関連データから、ステップS504で計算した縮尺に合うように仮想物体を作成する。以下、関連データから生成した仮想物体を「関連仮想物体」とよび、対応データから生成した仮想物体を「対応仮想物体」とよぶ。
ステップS1404では、 表示制御部206が、実施形態1で説明したステップS4
05で作成した対応仮想物体とステップS1403で作成した関連仮想物体を複合現実空間上に表示する。複合現実空間における現実物体と各仮想物体の配置は実施形態1で説明したのと同様の方法で決定する。
05で作成した対応仮想物体とステップS1403で作成した関連仮想物体を複合現実空間上に表示する。複合現実空間における現実物体と各仮想物体の配置は実施形態1で説明したのと同様の方法で決定する。
ここで、モデルデータの中に物体同士の相対位置が定義されている場合には、表示制御部206は、モデルデータで定義された相対位置に従って、対応仮想物体と関連仮想物体の配置を決定することができる。物体同士の相対位置が定義されていない場合には、表示制御部206は、利用者に各物体の配置を指定させ、その指定された配置に従って、対応仮想物体と関連仮想物体の配置を行ってもよい。
(MR装置の表示例)
図15Aは、現実空間1502に存在している現実物体1501を示している。この現実物体1501は、例えば製品の本体(主要部)を表現した製品の簡易試作品などである。点線で示された円柱部分は、現実物体1501の下部に、パーツをはめ込むためのくぼみが有ることを表現している。
図15Aは、現実空間1502に存在している現実物体1501を示している。この現実物体1501は、例えば製品の本体(主要部)を表現した製品の簡易試作品などである。点線で示された円柱部分は、現実物体1501の下部に、パーツをはめ込むためのくぼみが有ることを表現している。
図15Bでは、仮想空間1505に、ステップS405で作成した対応仮想物体1503とステップS1403で作成した関連仮想物体1504を配置した様子を示している。この例では、関連仮想物体1504は対応仮想物体1503の下部にはめ込まれるパーツを表現しているため、関連仮想物体1504が対応仮想物体1503に装着される位置で仮想空間1505上に配置されている。点線で示された円柱は、対応仮想物体1503の下部に、他の部品をはめ込むためのくぼみが有ることを示している。また、点線で示された円柱内に実線で示された円柱が示している。これらの円柱は仮想物体1503に関連仮想物体1504がはめ込まれていることを表現しており、図15B上では説明のために表示しているが、実際には表示されなくても良い。
図15Cは、複合現実空間1506に現実物体1501と対応仮想物体1503と関連仮想物体1504を表示した様子を示している。関連仮想物体1504の対応仮想物体1503に対する相対位置は、モデルデータと前記関連データから抽出するか、利用者に指定させる。
本実施形態の方法によれば、複合現実空間1506上で関連仮想物体1504が現実物体1501にはめ込まれた状態を検証することができる。その結果、利用者は実施形態1で得られる効果に加えて、現実物体に装着する部品の検証や、部品を含む全体像の検証に関しても容易に行うことができるようになる。
<実施形態4>
実施形態3には、製品の内部で使用する部品などの通常では見えない部分に使用する部品の検証を行う際に、関連仮想物体で対応仮想物体や現実物体が隠されてしまうという課題があった。本発明の実施形態4ではこの課題を解決する。
実施形態3には、製品の内部で使用する部品などの通常では見えない部分に使用する部品の検証を行う際に、関連仮想物体で対応仮想物体や現実物体が隠されてしまうという課題があった。本発明の実施形態4ではこの課題を解決する。
図16に実施形態4の画像処理装置1600の構成を示す。本実施形態の画像処理装置1600は、図8に示した実施形態2の構成に加えて、4つの機能要素、すなわち関連3Dデータ特定部1201、利用者視点位置姿勢取得部1601、物体位置姿勢取得部1602、表示形態判定部1603を有する。関連3Dデータ特定部1201は、図12に示した実施形態3のものと同じである。
利用者視点位置姿勢取得部1601は、利用者の視点の位置および視線方向を表す視点位置姿勢情報を取得する機能である。視点位置姿勢情報を取得する方法は問わない。例えば利用者に磁気センサーを装着することで取得してもよいし、ジャイロセンサーや加速度センサーなどを装着することで取得してもよい。
物体位置姿勢取得部1602は、仮想物体を重畳表示する現実物体の位置および姿勢を
表す現実物体位置姿勢情報を取得するための機能である。現実物体位置姿勢情報を取得する方法は問わない。例えば現実物体に磁気センサーを装着することで取得してもよいし、ジャイロセンサーや加速度センサーなどを装着することで取得してもよい。
表す現実物体位置姿勢情報を取得するための機能である。現実物体位置姿勢情報を取得する方法は問わない。例えば現実物体に磁気センサーを装着することで取得してもよいし、ジャイロセンサーや加速度センサーなどを装着することで取得してもよい。
表示形態判定部1603は、視点位置姿勢情報と、現実物体位置姿勢情報と、仮想物体作成部205で作成した関連仮想物体を用いて、利用者の視点と現実物体の間に関連仮想物体が表示されているかを判定する機能である。
次に、画像処理装置1600における処理の流れについて説明する。
本実施形態の画像処理方法は、実施形態3の画像処理方法に対し、関連仮想物体の透明度を変化させる処理を追加したものである。これにより、利用者が、関連仮想物体の背後に存在する現実物体ないし対応仮想物体を視認しながら検証を行うことを可能にする。本実施形態の処理フローでは、実施形態3の処理フローのステップS1404が、図17に示す処理フローに置き換わる。その他の処理は図4および図14に示したものと同じである。
本実施形態の画像処理方法は、実施形態3の画像処理方法に対し、関連仮想物体の透明度を変化させる処理を追加したものである。これにより、利用者が、関連仮想物体の背後に存在する現実物体ないし対応仮想物体を視認しながら検証を行うことを可能にする。本実施形態の処理フローでは、実施形態3の処理フローのステップS1404が、図17に示す処理フローに置き換わる。その他の処理は図4および図14に示したものと同じである。
図17に示す処理フローの詳細を説明する。ステップS1701では、利用者視点位置姿勢取得部1601が、利用者の視点位置姿勢情報を取得する。ステップS1702では、物体位置姿勢取得部1602が、仮想物体を重畳表示する現実物体の現実物体位置姿勢情報を取得する。なお、ステップS1701およびS1702はどちらの処理を先に行ってもよい。
ステップS1703では、指示提示部207が、例えば図19のようなユーザーインタフェースを表示することで、利用者に関連仮想物体を半透明表示する際の透明度の入力を求める。表示形態入力ウィンドウ1900では、利用者に仮想物体の透明度の入力を求める。利用者がポインタ1902を用い、透明度入力部のスライダー1901を動かすことで透明度を選択した状態を示している。ポインタ1902の操作には、例えばコンピュータ装置100に接続された入力デバイス109としてマウスを使用する。マウスを使用する場合には、透明度入力部1901のスライダーにポインタを移動し、選択したい透明度まで左右にドラッグすることで選択される。入力された透明度は、表示形態取得部802が取得する。
ステップS1704では、表示形態取得部802が、表示形態保管部801に現在保管されている透明度とステップS1703で取得した透明度が同じかを判定する。異なる場合、ステップS1705の処理に進み、同じ場合はステップS1706の処理に進む。
ステップS1705では、表示形態取得部802が、ステップS1703で取得した透明度を表示形態保管部801に保存する。
ステップS1705では、表示形態取得部802が、ステップS1703で取得した透明度を表示形態保管部801に保存する。
ステップS1706では、表示形態判定部1603が、ステップS1701で取得した視点位置姿勢情報と、ステップS1702で取得した現実物体位置姿勢情報が、前回取得した夫々の値と比較して変化があるかを判定する。変化が有った場合はステップS1707の処理に進み、変化がなかった場合にはステップS1708の処理に進む。初回判定時は必ずステップS1707に進む。
ステップS1707では、表示形態判定部1603が、関連仮想物体の表示形態を決定し、結果を表示形態保管部801に保管する。詳細については図20を使って後述する。
ステップS1708では、表示形態判定部1603が、ステップS1701およびS1702で取得した視点位置姿勢情報と物体位置姿勢情報を保存する。
ステップS1709では、表示制御部206が、ステップS1707で決定した表示形態で複合現実空間の表示を行う。表示形態の変更に関する処理以外は実施形態3で説明し
たステップS1404と同様に行う。
ステップS1708では、表示形態判定部1603が、ステップS1701およびS1702で取得した視点位置姿勢情報と物体位置姿勢情報を保存する。
ステップS1709では、表示制御部206が、ステップS1707で決定した表示形態で複合現実空間の表示を行う。表示形態の変更に関する処理以外は実施形態3で説明し
たステップS1404と同様に行う。
ステップS1710では、表示制御部206が表示の終了指示が存在するかを判定し、終了指示が存在したら処理を終了する。存在しなかった場合にはステップS1701の処理に戻る。終了指示は終了指示取得部803により取得される。終了指示は、例えば図19に示されるユーザーインタフェースの右上に存在するバツ印を左クリックすることで指示される。
図20はステップS1707で行う表示形態の変更処理のフローを示している。
ステップS2001では、表示制御部206が、複合現実空間上の対応仮想物体の位置および姿勢を表す対応仮想物体位置姿勢情報を取得する。
ステップS2002では、表示制御部206が、複合現実空間上の関連仮想物体の位置および姿勢を表す関連仮想物体位置姿勢情報を取得する。
ステップS2001では、表示制御部206が、複合現実空間上の対応仮想物体の位置および姿勢を表す対応仮想物体位置姿勢情報を取得する。
ステップS2002では、表示制御部206が、複合現実空間上の関連仮想物体の位置および姿勢を表す関連仮想物体位置姿勢情報を取得する。
ステップS2003では、表示形態判定部1603が、利用者の視線と対応仮想物体が交差するかを判定する。まず、ステップS1701で所得した視点位置姿勢情報から、現在利用者が向いている方向を表す視線方向ベクトルdを求める。視線方向ベクトルdは長さ1に正規化されたベクトルである。d=(dx,dy,dz)とする。次に、視点位置姿勢情報から現在の利用者の視点位置を表す視点位置ベクトルuを求める。u=(ux、uy、uz)とする。視線方向ベクトルdと視点位置ベクトルuを用いて、利用者の視線を表す半直線の式をSとして以下の式で表す。tは0より大きい実数とする。
S=u+dt (1)
S=u+dt (1)
次に、表示形態判定部1603は、半直線Sが、対応仮想物体と交差するかを判定する。判定は、指定した検出対象物体が指定した検出対象線上に存在するかを判定する処理で行う。検出対象物体として対応仮想物体を、検出対象線として半直線Sを指定した場合で説明する。判定の結果、対応仮想物体と半直線Sが交差していなかった場合、ステップS2006の処理へ進む。交差していた場合、ステップS2004の処理に進む。
表示形態判定部1603は、指定された検出対象物体である対応仮想物体のバウンディングボックスを作成し、バウンディングボックスに存在する6つの面の中から1つを選択する。選択した面に存在する4つの頂点を夫々点A、点B、点C、点Dとし、選択した面を面ABCDとする。頂点A、B、C、Dの位置ベクトルを夫々(Ax,Ay,Az)、(Bx,By,Bz)、(Cx,Cy,Cz)、(Dx,Dy,Dz)とする。頂点A、B、C、Dを用いて、平面の一般式を用いて選択した面を含む平面の式を求める。求めた平面の式を以下の(2)とする。e,f,g,hは実数とする。
eX+fY+gZ+h=0 (2)
式(2)で表される平面上の点を点Pとし、その位置ベクトルを(Px,Py,Pz)とする。
eX+fY+gZ+h=0 (2)
式(2)で表される平面上の点を点Pとし、その位置ベクトルを(Px,Py,Pz)とする。
次に、表示形態判定部1603は、点Pが検出対象線である半直線S上に存在するか調べる。式(1)と式(2)に点Pを代入すると、以下の式(4)、式(5)が求められる。
P=u+dt (4)
ePx+fPy+gPz+h=0 (5)
P=u+dt (4)
ePx+fPy+gPz+h=0 (5)
式(4)と式(5)から、以下の式(6)が求められる。(e,f,g)は前述のe、f、gをそれぞれ一列目に持つ一行三列行列である。uTとdTは夫々の転置行列を表す。
t=−{(e,f,g)・uT}/(e,f,g)・dT (6)
t=−{(e,f,g)・uT}/(e,f,g)・dT (6)
式(6)より、(e,f,g)・dT=0の時、表示形態判定部1603は、検出対象線と平面は交差しない(つまり平行)と判定する。
式(6)より、表示形態判定部1603は、検出対象線と平面が交差する際のtの値を求める。式(1)に式(6)で算出したtの値を代入し、検出対象線と平面の交点Pを求める。
表示形態判定部1603は、求めた点Pがバウンディングボックスの面ABCDに含まれるかを調べることで、面ABCDと検出対象線が交差するかを判定する。
上記の計算を、バウンディングボックスのすべての面に対して行ことで、検出対象物体と検出対象線が交差するかを判定する。
式(6)より、表示形態判定部1603は、検出対象線と平面が交差する際のtの値を求める。式(1)に式(6)で算出したtの値を代入し、検出対象線と平面の交点Pを求める。
表示形態判定部1603は、求めた点Pがバウンディングボックスの面ABCDに含まれるかを調べることで、面ABCDと検出対象線が交差するかを判定する。
上記の計算を、バウンディングボックスのすべての面に対して行ことで、検出対象物体と検出対象線が交差するかを判定する。
ステップS2004では、表示形態判定部1603が、利用者の視線と関連仮想物体が交差するかを判定する。
まず、利用者の視線が対応仮想物体と交差するまでの区間を表現するために、半直線Sの実数tの値に式(7)に示す制限を加える。t’はステップS2003で行った判定で算出したtのうち、式(4)に代入した際に算出される点PがステップS2003で行った判定で作成したバウンディングボックスの面上に存在し、かつ最小のものである。
0<t<t’ (7)
まず、利用者の視線が対応仮想物体と交差するまでの区間を表現するために、半直線Sの実数tの値に式(7)に示す制限を加える。t’はステップS2003で行った判定で算出したtのうち、式(4)に代入した際に算出される点PがステップS2003で行った判定で作成したバウンディングボックスの面上に存在し、かつ最小のものである。
0<t<t’ (7)
また、式(7)の条件を付与した半直線Sを、線分S’とする。
S’=u+dt (0<t<t’) (8)
S’=u+dt (0<t<t’) (8)
次に、表示形態判定部1603は、関連仮想物体と線分S’が交差するかを判定する。判定処理は、ステップS2003で説明した処理と同じである。ただし、ステップS2004では検出対象物体に関連仮想物体を、検出対象線に線分S’を指定する。関連仮想物体と線分S’が交差していると判定された場合には、ステップS2005の処理に進む。交差していない場合にはステップS2006の処理へ進む。
ステップS2005では、表示形態判定部1603が、表示形態保管部801に関連仮想物体を半透明にする表示形態を保存する。ステップS2006では、表示形態判定部1603が、表示形態保管部801に、通常通りの表示形態(例えば、関連仮想物体を不透明にする表示形態)を保存する。
図18A〜図18Cに判定の例を示す。
図18Aでは、利用者が複合現実空間1805上で、現実物体1803を関連仮想物体1802越しに見ている様子を示している。視点位置1801から出ている点線で表現されている視線1804は、線分S’に当たるものである。このような場合、線分S’が関連仮想物体1802と交差していると判定するため、表示形態を変更する(関連仮想物体
1802を半透明にする)と判定する。
図18Aでは、利用者が複合現実空間1805上で、現実物体1803を関連仮想物体1802越しに見ている様子を示している。視点位置1801から出ている点線で表現されている視線1804は、線分S’に当たるものである。このような場合、線分S’が関連仮想物体1802と交差していると判定するため、表示形態を変更する(関連仮想物体
1802を半透明にする)と判定する。
図18Bでは、視線1804(線分S’)は関連仮想物体1802と交差していないため、表示形態を変更しないで(関連仮想物体1802を不透明にする)を表示する。
図18Cでは、視線1804が現実物体1803と交差していないため、視線1804は半直線Sに当たる。現実物体1803と半直線Sが交差していないため、表示形態を変更しないで表示する。
図18Cでは、視線1804が現実物体1803と交差していないため、視線1804は半直線Sに当たる。現実物体1803と半直線Sが交差していないため、表示形態を変更しないで表示する。
これにより利用者は、実施形態3で得られる効果に加えて、常に現実物体を視認しながら検証作業を行うことが可能になる。そのため試作品を用いた検証が行いにくい製品の内部で使用する部品など、通常では見えない部分に使用する部品に関してもMR技術を用いて検証を行うことが可能になる。
<その他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、本発明の目的は、以下のようにすることによって達成することもできる。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
200:画像処理装置、201:物体形状取得部、202:3Dデータ取得部、204:縮尺計算部、205:仮想物体作成部
Claims (12)
- 現実物体に重畳表示するための仮想物体のデータを作成する画像処理装置であって、
前記現実物体の形状から作成された三次元形状データを取得する物体形状取得手段と、
前記現実物体に対応する三次元モデルを定義するモデルデータを対応データとして取得する対応データ取得手段と、
前記三次元形状データと前記対応データに基づいて、前記三次元モデルに対する前記現実物体の縮尺を計算する縮尺計算手段と、
前記縮尺計算手段により計算された縮尺で、前記対応データから仮想物体のデータを作成する仮想物体作成手段と、
を有することを特徴とする画像処理装置。 - 前記三次元形状データは、前記現実物体の形状を計測することにより作成されたデータである
ことを特徴とする請求項1に記載の画像処理装置。 - 前記対応データは、前記現実物体の設計データである
ことを特徴とする請求項1又は2に記載の画像処理装置。 - 複数の三次元モデルの夫々のモデルデータを記憶するデータ保管手段をさらに有し、
前記対応データ取得手段は、前記データ保管手段から、前記三次元形状データで定義される三次元物体と同一又は類似の形状を有する三次元モデルのモデルデータを、前記対応データとして取得する
ことを特徴とする請求項1〜3のうちいずれか1項に記載の画像処理装置。 - 複数の三次元モデルの夫々のモデルデータをIDと関連付けて記憶するデータ保管手段をさらに有し、
前記対応データ取得手段は、前記データ保管手段から、前記現実物体に付加されたIDと同じIDに関連付けられているモデルデータを、前記対応データとして取得する
ことを特徴とする請求項1〜3のうちいずれか1項に記載の画像処理装置。 - 前記縮尺計算手段は、前記三次元形状データで定義される三次元物体のバウンディングボックスの最も長い辺の長さと、前記対応データで定義される三次元モデルのバウンディングボックスの最も長い辺の長さとを比較することにより、前記縮尺を計算する
ことを特徴とする請求項1〜5のうちいずれか1項に記載の画像処理装置。 - 前記仮想物体のデータに基づき、前記現実物体に重畳表示するための仮想物体の画像を生成する表示制御手段をさらに有する
ことを特徴とする請求項1〜6のうちいずれか1項に記載の画像処理装置。 - 利用者により指示された前記仮想物体の表示形態の情報を取得する表示形態取得手段をさらに有し、
前記表示制御手段は、前記表示形態の情報に応じて前記仮想物体の画像の表示形態を変更する
ことを特徴とする請求項7に記載の画像処理装置。 - 前記対応データと関連性を有する他のモデルデータを関連データとして取得する関連データ取得手段をさらに有し、
前記仮想物体作成手段は、前記縮尺計算手段により計算された縮尺で、前記関連データから関連仮想物体のデータを作成し、
前記表示制御手段は、前記仮想物体のデータおよび前記関連仮想物体のデータに基づき、前記現実物体に重畳表示するための仮想物体の画像、および前記仮想物体と相対位置を合わせて表示するための関連仮想物体の画像を生成する
ことを特徴とする請求項7に記載の画像処理装置。 - 利用者の視点の情報と、前記仮想物体の位置および姿勢の情報と、前記関連仮想物体の位置および姿勢の情報と、に基づいて、前記視点からみたときに前記関連仮想物体によって前記仮想物体が隠されるか否かを判定する判定手段をさらに有し、
前記関連仮想物体によって前記仮想物体が隠されると判定された場合に、前記表示制御手段は、前記関連仮想物体が半透明で表示されるように前記関連仮想物体の表示形態を変更する
ことを特徴とする請求項9に記載の画像処理装置。 - 現実物体に重畳表示するための仮想物体のデータを作成する画像処理方法であって、
前記現実物体の形状から作成された三次元形状データを取得するステップと、
前記現実物体に対応する三次元モデルを定義するモデルデータを対応データとして取得するステップと、
前記三次元形状データと前記対応データに基づいて、前記三次元モデルに対する前記現実物体の縮尺を計算するステップと、
前記計算された縮尺で、前記対応データから仮想物体のデータを作成するステップと、を有することを特徴とする画像処理方法。 - 請求項11に記載の画像処理方法の各ステップを実行するためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016211664A JP2018073095A (ja) | 2016-10-28 | 2016-10-28 | 画像処理装置および画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016211664A JP2018073095A (ja) | 2016-10-28 | 2016-10-28 | 画像処理装置および画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018073095A true JP2018073095A (ja) | 2018-05-10 |
Family
ID=62112719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016211664A Pending JP2018073095A (ja) | 2016-10-28 | 2016-10-28 | 画像処理装置および画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018073095A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11138759B2 (en) | 2018-12-13 | 2021-10-05 | Fujitsu Limited | Image processing apparatus and image processing method |
KR20220080920A (ko) * | 2020-12-08 | 2022-06-15 | 한국해양대학교 산학협력단 | 3차원 형상측정 결과 및 cad 설계 데이터의 정량적 비교를 통한 형상분류 시스템 |
-
2016
- 2016-10-28 JP JP2016211664A patent/JP2018073095A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11138759B2 (en) | 2018-12-13 | 2021-10-05 | Fujitsu Limited | Image processing apparatus and image processing method |
KR20220080920A (ko) * | 2020-12-08 | 2022-06-15 | 한국해양대학교 산학협력단 | 3차원 형상측정 결과 및 cad 설계 데이터의 정량적 비교를 통한 형상분류 시스템 |
KR102437913B1 (ko) * | 2020-12-08 | 2022-08-29 | 한국해양대학교 산학협력단 | 3차원 형상측정 결과 및 cad 설계 데이터의 정량적 비교를 통한 형상분류 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9619942B2 (en) | Coordinate geometry augmented reality process | |
US10304206B2 (en) | Selecting feature patterns and corresponding layout positions for viewpoint measurement | |
US10013506B2 (en) | Annotating real-world objects | |
JP7182976B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
ITTO940765A1 (it) | Procedimento per memorizzare e ritrovare immagini di persone, ad esempio in archivi fotografici e per la costruzione di identikit. | |
KR20190117354A (ko) | 실내공간의 3차원 지도 생성 방법 및 장치 | |
JP4914123B2 (ja) | 画像処理装置及び方法 | |
CN101866379B (zh) | 用于可视化计算机屏幕上显示的对象的方法、程序和产品编辑系统 | |
JP6860776B2 (ja) | 仮想空間制御装置、その制御方法、及びプログラム | |
JP2010128742A (ja) | 3次元データ作成装置 | |
JP6438995B2 (ja) | 図面投影システム、図面投影方法及びプログラム | |
JP6198223B2 (ja) | 三次元モデル作成システム | |
Zou et al. | Characteristics of models that impact transformation of BIMs to virtual environments to support facility management operations | |
JP2018073095A (ja) | 画像処理装置および画像処理方法 | |
JP5625700B2 (ja) | 三次元cadプログラム、装置および三次元cadの処理方法 | |
KR102031647B1 (ko) | 상품과 포장상자의 3차원 합성영상 생성 시스템 및 방법 | |
KR20190115161A (ko) | 3차원 객체 생성 장치 | |
JP2018010455A (ja) | 3次元cadデータの作成システムおよび作成方法 | |
JP6958993B2 (ja) | 土木工事の出来形評価システム、出来形評価方法、及びプログラム | |
KR20230101469A (ko) | 타겟 객체의 디지털 모델로부터 에지의 특성을 검출하고 샘플 포인트를 설정하여 타겟 객체를 학습하는 방법 및 이를 이용하여 타켓 객체를 구현한 실물 객체에 가상 모델을 증강하는 방법 | |
JPS62251905A (ja) | 対話形グラフイツク入力システム | |
Auliaramadani et al. | Augmented reality for 3D house design visualization from floorplan image | |
JP6719168B1 (ja) | 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 | |
JP2007128265A (ja) | 照合装置、照合方法および照合プログラム | |
Morigi et al. | Reconstructing surfaces from sketched 3d irregular curve networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20181116 |