JP6704698B2 - 情報処理装置、情報処理方法、情報処理システム、及びプログラム - Google Patents

情報処理装置、情報処理方法、情報処理システム、及びプログラム Download PDF

Info

Publication number
JP6704698B2
JP6704698B2 JP2015175018A JP2015175018A JP6704698B2 JP 6704698 B2 JP6704698 B2 JP 6704698B2 JP 2015175018 A JP2015175018 A JP 2015175018A JP 2015175018 A JP2015175018 A JP 2015175018A JP 6704698 B2 JP6704698 B2 JP 6704698B2
Authority
JP
Japan
Prior art keywords
virtual
information processing
target object
tool
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015175018A
Other languages
English (en)
Other versions
JP2017049950A (ja
Inventor
敦 ▲浜▼口
敦 ▲浜▼口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015175018A priority Critical patent/JP6704698B2/ja
Publication of JP2017049950A publication Critical patent/JP2017049950A/ja
Application granted granted Critical
Publication of JP6704698B2 publication Critical patent/JP6704698B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、仮想空間における仮想物体の表示に関するものである。
近年、設計・製造分野において、期間短縮・費用削減のために、プロトタイプを用いた評価に代わり、CAD(コンピュータ支援設計)システムを用いた設計(形状・デザイン)が導入されている。CADシステムを用いて設計されたデータをもとに、剛性や組み立てやすさやメンテナンス性などの検証をする際に、CADシステムを扱える技術者と扱えない技術者がコミュニケーションを図る手段として、複合現実感システムが用いられている。
複合現実感システムは、MR:Mixed Realityとも呼ばれる。複合現実感システムとは、現実を撮影した実写映像に、CG(コンピュータグラフィックス)で作成した仮想映像を重畳させて表示する技術であり、CADシステムの習熟度に関わらず、直感的な理解が可能である。
このように複合現実感システムにおいて、仮想空間上の距離を測定する機能が求められる。例えば、離間した部品同士が衝撃時に接触しない程度にクリアランスが確保されているかの検証や耐衝撃性や耐熱性に関して部品の肉厚が十分に存在しているかの検証に必要である。
そこで、特許文献1では、三次元ポインティングに関し、主ポインタのポイント方向に補助ポインタを表示するように構成されている。そして、主ポインタが仮想物体に接近し、補助ポインタが仮想物体に接触すると、表示制御手段の隠線および隠面処理機能の作用によって、補助ポインタの全部または一部が仮想物体に埋没した状態の画像が表示される。そして、補助ポインタの埋没の程度は主ポインタと仮想物体の距離に対応して変化するので、ユーザは補助ポインタを観察することによって主ポインタと仮想物体との距離を視覚的に認識し、正確な三次元ポインティング作業を容易に行なうことができる。
特開平6−83935
また、仮想物体の面上の距離を、ものさしや定規などを模した仮想計測工具によって測定することも考えられる。しかしながら、その場合、仮想物体との距離を視覚的に認識できたとしても、正確な距離計測が行なえない可能性がある。なぜなら、仮想物体同士の接触であるため、ユーザは物理的な手応えを感じることができないので、仮想物体の面と仮想計測工具を平行に保ちながら接触させることが難しいからである。そのため、仮想計測工具の全部または一部が仮想物体内に埋没した状態や、仮想計測工具が仮想物体から離間した状態で、計測してしまうことが起こり得る。
本発明は上記課題を解決するためになされたものであり、情報処理装置に、仮想空間において距離を計測するための仮想計測工具をユーザの操作に基づいて移動させる移動手段と、仮想対象物体と前記仮想計測工具との位置関係を判定する判定手段と、前記位置関係が所定の近接状態にあると判定された場合に、前記仮想計測工具を前記仮想対象物体の所定の面に接した状態で表示するように制御する制御手段とを備え、前記仮想計測工具は目盛を有し、前記制御手段は該目盛を読める向きで当該仮想計測工具を表示する。
本発明によれば、仮想物体の面上の距離を仮想計測工具によって計測する際に、仮想計測工具が仮想対象物体内に埋没することなく、仮想計測工具が仮想対象物体と接した状態で表示されるため、正確な距離を容易に計測することが可能となる。
実施形態1における情報処理装置の機能構成を示すブロック図である。 実施形態1における仮想対象物体の表面上に表示される仮想計測工具を示す模式図である。 変形例1における仮想対象物体の断面上に表示される仮想計測工具を示す模式図である。 実施形態1の仮想対象物体の表面上に表示される仮想計測工具の表示のされ方の処理について詳細を示すフローチャートである。 変形例1における仮想対象物体の断面の形成の方法を示す模式図である。 変形例1における仮想対象物体の断面形成の処理の詳細を示すフローチャートである。 実施形態1における情報処理装置のハードウェア構成の例を示す図である。 変形例2における仮想対象物体の断面上に表示される仮想計測工具を示す模式図である。 変形例3における仮想対象物体の断面上に表示される仮想計測工具を示す模式図である。 変形例4における仮想対象物体の断面上に表示される仮想計測工具を示す模式図である。 変形例4における仮想対象物体の断面上に表示される仮想計測工具を示す模式図である。
(実施形態1)
以下、添付図面を参照して、本発明を適用した好適な実施形態に従って詳細に説明するが、本発明はこれに限定されるものではない。
本発明は、複合現実感システムに関するものである。複合現実感システムとは、現実を撮影した実写映像に、CG(コンピュータグラフィックス)で作成した仮想映像を重畳させて表示する技術である。本明細書中において、実写映像で表わされる空間を現実空間、仮想映像で表わされる空間を仮想空間、現実空間と仮想空間が融合した空間を複合現実空間と呼ぶ。
図7は、本実施形態における情報処理装置100のハードウェア構成図である。同図において、中央演算処理装置(CPU)710は、バス700を介して接続する各デバイスを統括的に制御する。CPU710は、読み出し専用メモリ(ROM)720に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM720に記憶されており、ランダムアクセスメモリ(RAM)730に一時記憶され、CPU710によって適宜実行される。また、入力I/F740は、外部の装置(撮像装置や操作装置など)から情報処理装置100で処理可能な形式で入力信号として入力する。また、出力I/F750は、外部の装置(例えばヘッドマウントディスプレイなどの表示装置)へ処理可能な形式で出力信号として出力する。
図1は本実施形態における情報処理装置の機能構成を示すブロック図である。
本実施形態における情報処理装置100は、ヘッドマウントディスプレイ111(以下、HMDと称する)に接続されて情報処理システムを構成している。情報処理装置100は、HMD111内の撮像部107から取り込んだ現実空間の画像と仮想空間の画像とを合成し、複合現実感映像としてHMD111内の表示部110に出力する。
撮像部107は、現実空間を撮影し、撮像した画像を情報処理装置100に取り込む。撮影された画像は、合成部109にて仮想物体の画像と合成して表示部110に合成画像として表示する。本実施形態では、撮像部107は、HMD111に内蔵されているものとする。
表示部110は、合成部109で描画した合成画像をユーザに提示する。本実施形態では、HMD111に内蔵されたディスプレイを用いる。
情報処理装置100は、仮想物体データベース101、接触判定部103、仮想物体描画部104、接触部位算出部105、位置姿勢取得部108、合成部109、を備える。図1には図示していないが、音提示部や振動提示部などの、接触していることをユーザに通知する機構を設けても良い。
これらの各機能部は、CPU710が、ROM720に格納されたプログラムをRAM730に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU710を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
仮想物体データベース101は、仮想物体のモデルを保持するデータベースである。仮想物体のモデルには、後述の仮想対象物体や仮想計測工具や仮想切断工具が含まれる。仮想物体のモデルは、例えば、仮想物体の形状、表示色、初期位置姿勢を含んでいる。本実施形態では、図2(a)に示すような仮想計測工具202を用いて、被計測対象である仮想対象物体201を計測する場合を例にとって説明する。
位置姿勢取得部108は、撮像部107から取り込んだ画像に基づいて、現実空間の撮像部107の位置姿勢(即ち、HMD111の位置姿勢)と仮想物体の位置姿勢を推定する。本実施形態では、撮像部107の位置姿勢をユーザの視点位置姿勢とする。撮像部107の位置姿勢の算出は、現実空間に配置されたマーカを撮像した画像に基づいて行われる。また、仮想物体の位置姿勢は、例えば、以下のように推定する。まず、仮想物体に対応する操作部などの現実物を予め現実空間に配置する。そして、現実物にマーカを貼りつけておき、該マーカを撮像した画像に基づいて現実物の位置姿勢位置姿勢を推定し、該推定された現実物の位置姿勢を該現実物に対応する仮想物体の位置姿勢として推定する。そして、ユーザが操作部を操作するなどして現実物を動かすことによって、仮想物体の位置姿勢を変更することができる。
しかしながら、ユーザの視点位置姿勢や仮想物体の位置姿勢を取得する方法はこれに限定されない。例えば、現実物に三次元の位置姿勢を計測するセンサを付設または内蔵させても用いてもよいし、市販のモーションキャプチャシステムを利用して撮像部107に対する現実物の位置姿勢を計測することで仮想物体の位置姿勢を求めることも可能である。また、仮想物体に対応する現実物を用意しなくても、予め設定された位置に仮想物体を表示し、コントローラ等を用いて仮想物体を移動させてもよい。
接触判定部103は、仮想物体の位置姿勢および形状に基づいて、複数の仮想物体同士の接触の有無を判定する。仮想物体同士の接触とは、例えば、仮想対象物体201と仮想計測工具202との接触であり、また例えば、仮想対象物体201と後述の仮想切断工具203との接触である。
2つの仮想物体同士の接触判定は、以下の手順で実現する。ここで、仮想物体は三角形ポリゴンを組み合わせて形成されているものとする。まず、それぞれの仮想物体から三角形ポリゴンを一つずつ取り出し、その三角形ポリゴン同士が交差しているかどうかを判定する。これを全ての三角形ポリゴンの組み合わせに対して行ない、一つでも交差している場合は仮想物体同士が接触していると判定する。さらに、この処理を全ての仮想物体の組み合わせに対して行なう。
しかしながら、接触判定部103の実現方法はこれに限るものではない。例えば、仮想対象物体201の一面を有限あるいは無限に延伸し、延伸した面と、仮想計測工具202の三角形ポリゴンとが交差する際に、仮想対象物体201と仮想計測工具202が接触していると判定してもよい。また、例えば、仮想対象物体201の周囲に仮想的なバウンダリーボックスを設け、バウンダリーボックスと、仮想計測工具202が交差した際に、仮想対象物体201と仮想計測工具202が接触していると判定してもよい。さらに、このような接触状態の判定に代えて、所定の近接状態にある位置関係の他の判定として、仮想対象物体201と仮想計測工具202との距離が閾値未満であることを判定して、後述する接触した場合の処理と同様の処理を行うようにしてもよい。
接触部位算出部105は、接触判定部103で接触していると判定された仮想物体から、接触部位を算出する。本実施形態では交差している三角形ポリゴンの集合と、交線の集合とを接触部位として算出する。
仮想物体描画部104は、接触情報と仮想対象物体201、仮想計測工具202を描画した画像を生成する。より具体的には、仮想物体データベースに保存されたモデルデータや接触部位算出部105で算出された接触部位情報に基づいて仮想空間の画像を生成する。
まず、仮想空間の画像を生成するための仮想視点の位置姿勢を位置姿勢取得部108から取得する。仮想視点の位置姿勢は、例えば、基準とする世界座標系における撮像部107の位置姿勢情報を入力すればよい。また、仮想対象物体201と仮想計測工具202および接触情報の3次元頂点位置は、位置姿勢取得部108で取得された位置姿勢に基づいて更新する。更新した仮想物体と接触情報の3次元頂点は、仮想視点に基づいて設定された投影面に投影される。投影後のポリゴン・線分の描画処理は、一般的な3次元画像生成における描画処理と同じであるため詳細な説明は省略する。
本実施形態では、仮想対象物体201と仮想計測工具202が接触した際、仮想計測工具202が仮想対象物体201内に埋没することなく仮想物体の面上を滑るように表示される。したがって、接触判定部103で接触していると判定されると、接触部位算出部105で接触部位が算出され、その情報に基づき、仮想物体描画部104が演算を行なう。接触部位情報が示す接触部位を含む仮想対象物体201の面を、仮想物体データベースに保存された仮想対象物体201のモデルデータから呼び出し、その面の形状に沿って、仮想計測工具202を表示させる。これ以降、仮想計測工具202の移動する範囲は、この面上に制限される。
図2は本実施形態における仮想空間の画像の例を示した模式図である。本実施形態における、仮想物体描画部104で生成された仮想空間の画像を図2(a)〜(c)に示している。
仮想計測工具202が仮想対象物体201に接触していない場合、図2(a)のように表示される。図2(b)のように仮想計測工具202が仮想対象物体201に接触すると、接触判定部103で接触していると判定される。そして接触部位算出部105で接触部位情報が算出され、図2(c)のように仮想計測工具202が仮想対象物体201内に埋没することなく仮想物体の表面上を滑るように表示される。
合成部109は、撮像部107から取り込んだ現実空間の画像と、仮想物体描画部104で描画された仮想空間の画像とを合成する。合成処理は、撮像部107により撮像された現実空間の実写画像の上に仮想空間の画像を描画することにより行なう。すなわち、仮想対象物体201と仮想計測工具202の領域以外の領域は、現実空間画像の画素が表示される合成画像となる。もちろん仮想空間の画像を半透明にして、背後の現実空間の画像が透けて見えるようにしてもよい。表示部110は、合成部109で描画した合成画像をユーザに提示する。
ここで、図4は、本実施形態の処理の詳細を示すフローチャートである。図1と図2と図4を用いて、仮想対象物体201と仮想計測工具202が配置されている状況を例に本実施形態の処理の詳細を説明する。
ステップS801では、仮想物体描画部104は、仮想物体データベース101から仮想対象物体201と仮想計測工具202のデータを読み込む。
ステップS802では、位置姿勢取得部108は、撮像部107で撮影された現実空間の画像を取得する。そして、位置姿勢取得部108は、取得した画像に基づいて撮像部107の位置姿勢情報を算出する。ステップS802以降の処理は、撮像部107から現実空間の画像が更新されるまで処理が一時停止され、更新があった場合に後段の処理を実行する。ただし、本実施形態は、撮像部107の画像更新ごとに処理をすることに限定されるものではなく、例えば、位置姿勢取得部108で新たな位置姿勢が取得されたタイミングで処理を実行する方法でも適用可能である。
ステップS803では、位置姿勢取得部108は、取得した位置姿勢情報を接触判定部103と仮想物体描画部104に送出する。
ステップS806において、接触判定部103は、RAM730に格納されている仮想対象物体201と仮想計測工具202の位置姿勢情報およびポリゴンデータを参照する。そして、接触判定部103は、仮想対象物体201と仮想計測工具202を構成するポリゴンごとに交差しているかどうか判定する。
仮想対象物体201と仮想計測工具202が離間している状態のときは、S806で接触していないと判定され、ステップS810に処理を移す。ステップS810においては、仮想対象物体201と仮想計測工具202は、図2(a)のように表示される。
一方、ユーザが図2(b)の矢印前後のように、仮想計測工具202に対応するマーカを移動させ、仮想対象物体201に対して、離間している状態から接触している状態にしたとき、ステップS806において、201と202が接触していると判定される。ステップS806において、仮想対象物体201と仮想計測工具202が接触していると判定されたとき、ステップS809に処理を移す。ステップS809では、接触部位算出部105が仮想物体の接触部位の情報を計算し、その情報に基づき、ステップS811において、仮想計測工具202が仮想対象物体201内に埋没することなく仮想物体の表面上を滑るように計算され、描画される。
図2(c)は、この様子を模式的に表したものである。すなわち、仮想計測工具202と仮想対象物体201が接触していると判定された場合、仮想計測工具202が、矢印で示す先、すなわち仮想対象物体201の表面上に表示される。この際、仮想計測工具202が仮想対象物体201内に埋没しているような表示を一瞬行ない、ユーザに接触したことを強調して伝えても良い。
本実施形態においては、仮想対象物体201と仮想計測工具202は、三角形ポリゴンの情報に基づいて描画される。
ステップS812では、合成部109は、撮像部107が撮像した現実空間の画像と、仮想物体描画部104で描画された仮想空間の画像とを合成して合成画像を生成する。
ステップS813において、表示部110は、合成部109で合成された合成画像を表示し、HMD111を装着するユーザに提示する。さらに、図1には図示しない振動提示部と音提示部を設けて、ユーザに仮想対象物体201と仮想計測工具202が接触したことを伝えるようにしてもよい。
ステップS815では、ユーザから終了コマンドがキーボードなどの入力装置で送信されたかどうかを判定し、終了コマンドがなければステップS802に処理を移し、終了コマンドが送信されたと判定された場合は処理を終了する。
(変形例1)
実施形態1では、仮想計測工具202が仮想対象物体201内に埋没することなく仮想物体の表面上を滑るように表示されたが、下記のように、仮想物体の表面ではなく、仮想物体の断面を滑るように表示してもよい。
図3を用いて、変形例1を説明する。図3は、変形例1における、仮想対象物体201の断面301について、仮想計測工具202を用いて距離を計測する場合を表わした模式図である。図3(b)の矢印前後のように、仮想対象物体201と仮想計測工具202が離間している状態から、ユーザが仮想計測工具202に対応する操作部を移動させると、仮想対象物体201の断面301と仮想計測工具202が接触していると判定される。その際、変形例1では、仮想計測工具202が仮想対象物体201内に埋没することなく仮想物体の断面301を滑るように計算され、描画される。
図3(c)は、この様子を模式的に表わしたものである。すなわち、仮想計測工具202と仮想対象物体201が接触していると判定された場合、仮想計測工具202が、矢印で示す先、すなわち仮想対象物体201の断面301上に表示される。以上、仮想計測工具202が仮想対象物体201内に埋没することなく仮想対象物体201の断面上を滑るように表示される方法を示した。接触する面が仮想対象物体201の表面ではなく断面であること以外は、実施形態1と共通であるため、仮想計測工具202の表示に関する説明は割愛する。
変形例1において、図3(a)に示す断面301を形成する方法として、図5および図6で示される、以下の方法を用いても良い。図5(a)では、仮想空間に仮想対象物体201と仮想切断工具501があり、仮想切断工具501は、現実空間においてユーザが操作する操作部の位置姿勢に対応して位置姿勢を逐次変更できる。仮想切断工具501を用いて仮想対象物体201の任意の位置を指定して断面301を形成することが可能である。仮想切断工具501には、刃502が備わっており、この刃の方向に仮想対象物体201を切断可能である。仮想切断工具501に対応する操作部には、断面の固定指示を行うための断面固定ボタンを設けても良い。本実施形態では、断面固定ボタンは断面固定解除ボタンを兼ねており、断面固定ボタンを押下すると、押下した時点の断面を固定して表示でき、再度断面固定ボタンを押下すると断面の固定が解除される。もちろん断面固定ボタンと断面固定解除ボタンとを別に設けてもよい。
図5(b)は、仮想対象物体201が仮想切断工具501によって切断された様子を示している。図5(b)では、刃502が仮想対象物体201に接触し、刃502に平行な断面301が形成されている。図示しないが、断面301を仮想対象物体201の表面と識別可能な表示態様で表示してもよい。より具体的には、断面を物体の表面と異なる色で着色するようにしてもよく、このことによってユーザはより断面を見やすくなる。一方で、刃502を含む面を、有限あるいは無限に延伸し、延伸された面と仮想対象物体201が交差した際に、平行な断面301が形成されるようにしてもよい。また、仮想対象物体201の周囲にバウンダリーボックスを設けて、バウンダリーボックスと仮想切断工具501が交差した際に、断面301が形成されるようにしてもよい。図6は、断面を形成し固定する方法を表わすフローチャートである。図1と図6を用いて、さらに詳細に説明する。
ステップS601では、仮想物体描画部104は、仮想物体データベース101から仮想対象物体201と仮想断面切断工具501のデータを読み込む。
ステップS602では、位置姿勢取得部108は、撮像部107で撮影された現実空間の画像を取得する。そして、位置姿勢取得部108は、取得した画像に基づいて撮像部107の位置姿勢情報を算出する。
ステップS603は、位置姿勢取得部108は、位置姿勢情報を接触判定部103と仮想物体描画部104に送出する。
ステップS604において、接触判定部103は、RAM730に格納されている仮想対象物体201と仮想断面切断工具501の位置姿勢情報およびポリゴンデータを参照し、201と501を構成するポリゴンごとに交差しているかどうか判定する。
仮想対象物体201と仮想断面切断工具501が離間している状態のときは、S806で接触していないと判定され、ステップS605に処理を移す。ステップS605において、仮想対象物体201は未切断の状態で描画され、ステップS608において、仮想対象物体201と仮想断面切断工具501と実写映像が合成される。この際、図5(a)のように表示される。ステップS609では、ユーザから終了コマンドがキーボードなどの入力装置で送信されたかどうかを判定し、終了コマンドがなければステップS602に処理を移し、終了判定された場合は処理を終了する。
一方で、仮想断面切断工具501に対応するマーカを移動させ、仮想対象物体201に対して、離間している状態から接触している状態にしたとき、ステップS604において、仮想対象物体201と仮想断面切断工具501が接触していると判定される。ステップS604において、仮想対象物体201と仮想断面切断工具501が接触していると判定されたとき、ステップS606に処理を移す。ステップS606において、仮想対象物体201は切断面301で切断された状態で描画される。
ステップS607では、ユーザによって断面固定ボタンが押下されているかどうかによって処理が分かれる。断面固定ボタン503が押下されていない場合、ステップS608に進み、仮想対象物体201と仮想断面切断工具501と実写映像が合成される。この際、仮想対象物体201と仮想断面切断工具501が接触した瞬間の断面301が形成され、図5(b)のように表示される。
ステップS607において、ユーザによって断面固定ボタンが押下されている場合、ステップS610に処理を移す。S610においては、仮想対象物体201の断面301が固定された状態で描画され、ステップS611に進む。ステップS611においては、断面301が固定された状態の仮想対象物体201と仮想断面切断工具501と実写映像が合成される。ステップS612では、ユーザから終了コマンドがキーボードなどの入力装置で送信されたかどうかを判定し、終了コマンドがなければステップS613に処理を移し、終了判定された場合は処理を終了する。
ステップS613では、断面固定ボタンと兼用している断面固定解除ボタンをユーザが再度押下しているかどうかによって、処理を分岐する。断面固定解除ボタンが押下されていない場合、位置姿勢取得部108は、撮像部107で撮影された現実空間の画像を取得し、取得した画像に基づいて撮像部107の位置姿勢情報を算出する。そしてステップS610に戻る。断面固定解除ボタンが押下されるまで、断面301は固定されたままループする。一方、ステップS613において、断面固定解除ボタンが押下される場合、断面の固定は解除され、ステップS602に戻る。
以上、変形例1について断面301を形成する方法、および断面301を固定して表示する方法について説明したが、上記部分を除いては、実施形態1で示した説明と共通であるため、説明を割愛する。
(変形例2)
次に、本実施形態の変形例2について説明する。実施形態1および変形例1で示したとおり、仮想対象物体201に仮想計測工具202が接触した際に、仮想計測工具202が仮想対象物体201内に埋没することなく、仮想対象物体201の表面上あるいは断面301上を滑るように表示される。変形例2では、仮想対象物体201に仮想計測工具202が接触した際に、接触前後で、仮想計測工具202の表示態様を変更する。より具体的には、色を変化させる。このことにより、ユーザは、より明示的に仮想対象物体201の表面上に仮想計測工具202が接触していて、滑るように表示されていることが分かる。
図1と図8を用いて、変形例2をさらに詳しく説明する。まず、ユーザが、図8(a)の矢印前後のように、仮想計測工具202に対応するマーカを移動させ、仮想対象物体201に対して、離間している状態から接触している状態になったとする。このとき、接触部位算出部105が仮想物体の接触部位の情報を計算し、その情報に基づき、仮想計測工具202が仮想対象物体201内に埋没することなく仮想物体の表面上を滑るように計算され、描画される。このとき変形例2では、仮想計測工具202の色が変わる。図8(b)の矢印で示す先、すなわち仮想対象物体201の表面上に表示される瞬間に、仮想計測工具が801のように変色する。
以上、変形例2について説明したが、上記部分を除いては、実施形態1および変形例1で示した説明と共通であるため、説明を割愛する。
(変形例3)
本実施形態の変形例3について説明する。実施形態1および変形例1、2で示したとおり、仮想対象物体201に仮想計測工具202が接触した際に、仮想計測工具202が仮想対象物体201内に埋没することなく、仮想対象物体201の表面上あるいは断面301上を滑るように表示される。しかしながら仮想計測工具202に目盛が存在するとき、仮想計測工具202の表裏が反転していて、目盛を判読しづらい場合がある。変形例3では、図9で示すとおり、仮想計測工具202が仮想対象物体201内に埋没することなく、仮想対象物体201の表面上あるいは断面301上を滑るように表示される際、目盛が反転している場合、表裏を修正して表示される。以上、変形例3について説明したが、上記部分を除いては、実施形態1および変形例1、2で示した説明と共通であるため、説明を割愛する。
(変形例4)
本実施形態の変形例4について説明する。仮想計測工具202は、ユーザが現実空間の物体を移動することに対応して仮想空間上を移動可能である。図10の1001は、現実空間に存在するユーザが持つ棒であるが、この棒1001の動きに対応して、仮想空間上の仮想計測工具202が動く。例えば、図10の棒1001にマーカを貼りつけておき、該マーカを撮像した画像に基づいて棒1001の位置姿勢位置姿勢を推定し、推定された棒1001の位置姿勢を該現実物に対応する仮想計測工具202の位置姿勢として推定する。そして、ユーザが棒1001を動かすことによって、仮想計測工具202の位置姿勢を変更することができる。また、棒1001に三次元センサを貼りつけ、または内蔵させても用いてもよい。また市販のモーションキャプチャシステムを利用してもよく、その際は、再帰性反射する球を棒1001に貼り付け、外部の赤外線LEDから赤外線を照射し、棒1001の位置姿勢を推定する。
変形例4では、仮想対象物体201に仮想計測工具202が接触している状態でも、仮想対象物体201に仮想計測工具202が離間している状態でも、該現実空間の棒1001と、該仮想空間の仮想計測工具202のなす、三次元上の角度を一定に保つ。前述のとおり、仮想対象物体201に仮想計測工具202が接触した際に、仮想計測工具202が仮想対象物体201内に埋没することなく、仮想対象物体201の表面上あるいは断面301上を滑るように表示される。
ここでは、仮想対象物体201に仮想計測工具202が接触した状態で、該現実空間の棒1001をいかなる角度に向けても、図10の(a)〜(c)に示すとおり、棒1001と仮想計測工具202のなす、三次元上の角度は一定である。また図11(a)および(b)に示すとおり、仮想計測工具202が、仮想対象物体201内に埋没することなく、仮想対象物体201上を滑るように表示される際に、棒1001と仮想計測工具202のなす、三次元上の角度は一定に保たれる。
以上、変形例4について説明したが、上記部分を除いては、実施形態1および変形例1、2、3で示した説明と共通であるため、説明を割愛する。
(その他の実施形態)
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、コンピュータ読み取り可能なプログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
更に、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどとの協働で実施形態の機能が実現されてもよい。この場合、OSなどが、実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。
100 情報処理装置
101 仮想物体データベース
103 接触判定部
104 仮想物体描画部
105 接触部位算出部
107 撮像部
108 位置姿勢取得部
109 合成部
110 表示部
111 HMD

Claims (16)

  1. 仮想空間において距離を計測するための仮想計測工具をユーザの操作に基づいて移動させる移動手段と、
    仮想対象物体と前記仮想計測工具との位置関係を判定する判定手段と、
    前記位置関係が所定の近接状態にあると判定された場合に、前記仮想計測工具を前記仮想対象物体の所定の面に接した状態で表示するように制御する制御手段とを備え
    前記仮想計測工具は目盛を有し、前記制御手段は該目盛を読める向きで当該仮想計測工具を表示することを特徴とする情報処理装置。
  2. 前記制御手段は、前記仮想計測工具を前記仮想対象物体の所定の面に接した状態で表示した後は、前記移動手段が当該仮想計測工具を移動させる範囲を前記所定の面上に制限することを特徴とする請求項1に記載の情報処理装置。
  3. 前記所定の近接状態は接触状態であり、前記所定の面は接触した面であることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記所定の近接状態は距離が閾値未満の状態であり、前記所定の面は最も近い面であることを特徴とする請求項1または2に記載の情報処理装置。
  5. 前記移動手段はユーザが操作する操作部の位置姿勢に基づいて前記仮想計測工具を移動することを特徴とする請求項1ないし4のいずれか1項に記載の情報処理装置。
  6. 前記仮想対象物体を切断して切断面を表示する切断手段を有し、前記所定の面は当該切断面であることを特徴とする請求項1または2に記載の情報処理装置。
  7. 前記切断手段は、ユーザが操作する操作部の位置姿勢に基づいて前記切断面を逐次変更することを特徴とする請求項6に記載の情報処理装置。
  8. 前記切断手段は、前記切断面を指定する仮想切断工具を表示し、前記操作部の位置姿勢に基づいて当該仮想切断工具を移動させることで前記切断面を逐次変更することを特徴とする請求項7に記載の情報処理装置。
  9. 前記切断手段は、前記ユーザによる固定指示に基づいて、前記操作部の位置姿勢によらず、前記切断面を当該固定指示がなされた時点の切断面で固定して表示することを特徴と
    する請求項7または8に記載の情報処理装置。
  10. 前記切断面を前記仮想対象物体の他の面とは識別可能な表示態様で表示することを特徴
    とする請求項7ないし9のいずれか1項に記載の情報処理装置。
  11. 前記切断面を前記仮想対象物体の他の面とは異なる色で表示することを特徴とする請求
    項10に記載の情報処理装置。
  12. 前記制御手段は、前記位置関係が所定の近接状態にあると判定された場合に、前記仮想計測工具の表示態様を変更することを特徴とする請求項1ないし11のいずれか1項に記載の情報処理装置。
  13. 前記制御手段は、前記位置関係が所定の近接状態にあると判定された場合に、前記仮想計測工具と前記仮想対象物体とがなす角を保って接した状態で表示するように制御することを特徴とする請求項1に記載の情報処理装置。
  14. 移動手段が、仮想空間において距離を計測するための仮想計測工具をユーザの操作に基づいて移動させる移動工程と、
    判定手段が、仮想対象物体と前記仮想計測工具との位置関係を判定する判定工程と、
    制御手段が、前記位置関係が所定の近接状態にあると判定された場合に、前記仮想計測工具を前記仮想対象物体の所定の面に接した状態で表示するように制御する制御工程とを備え、前記仮想計測工具は目盛を有し、前記制御手段は該目盛を読める向きで当該仮想計測工具を表示することを特徴とする情報処理方法。
  15. コンピュータを請求項1に記載の情報処理装置の各手段として機能させることを特徴とするプログラム。
  16. 請求項1に記載の情報処理装置と、前記仮想対象物体及び前記仮想計測工具を表示する表示装置とを備えることを特徴とする情報処理システム。
JP2015175018A 2015-09-04 2015-09-04 情報処理装置、情報処理方法、情報処理システム、及びプログラム Active JP6704698B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015175018A JP6704698B2 (ja) 2015-09-04 2015-09-04 情報処理装置、情報処理方法、情報処理システム、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015175018A JP6704698B2 (ja) 2015-09-04 2015-09-04 情報処理装置、情報処理方法、情報処理システム、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017049950A JP2017049950A (ja) 2017-03-09
JP6704698B2 true JP6704698B2 (ja) 2020-06-03

Family

ID=58279771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015175018A Active JP6704698B2 (ja) 2015-09-04 2015-09-04 情報処理装置、情報処理方法、情報処理システム、及びプログラム

Country Status (1)

Country Link
JP (1) JP6704698B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7202805B2 (ja) * 2018-08-03 2023-01-12 北陸電力株式会社 工事記録用プログラム

Also Published As

Publication number Publication date
JP2017049950A (ja) 2017-03-09

Similar Documents

Publication Publication Date Title
JP2019070909A (ja) 情報処理装置、情報処理方法及びプログラム
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP4777182B2 (ja) 複合現実感提示装置及びその制御方法、プログラム
JP4667111B2 (ja) 画像処理装置、画像処理方法
JP4677273B2 (ja) 情報処理方法および情報処理装置
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP5824537B2 (ja) 情報処理装置および情報処理方法
JP2008210276A (ja) 三次元モデル情報の生成方法及び装置
JP4666060B2 (ja) 情報処理装置、情報処理システム及びプログラム
US10614590B2 (en) Apparatus for determination of interference between virtual objects, control method of the apparatus, and storage medium
JP2009276996A (ja) 情報処理装置、情報処理方法
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP7363962B2 (ja) 処理装置、検出装置、システム及びプログラム
JP6676294B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5467683B2 (ja) 立体映像表示装置の立体ノギス像形成装置およびプログラム
JP2021135776A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6704698B2 (ja) 情報処理装置、情報処理方法、情報処理システム、及びプログラム
KR101903996B1 (ko) 의료 영상 시뮬레이션 방법 및 그 방법을 이용한 장치
JP2006085375A (ja) 画像処理方法、画像処理装置
JP4689344B2 (ja) 情報処理方法、情報処理装置
JP2019045997A (ja) 情報処理装置及びその方法、プログラム
JP2006343954A (ja) 画像処理方法、画像処理装置
US20200258193A1 (en) Information processing apparatus, information processing method, and storage medium
JP2008040913A (ja) 情報処理方法、情報処理装置
JP2015121892A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200513

R151 Written notification of patent or utility model registration

Ref document number: 6704698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151