JP6948801B2 - 情報処理装置、情報処理装置の制御方法及びプログラム - Google Patents

情報処理装置、情報処理装置の制御方法及びプログラム Download PDF

Info

Publication number
JP6948801B2
JP6948801B2 JP2017037530A JP2017037530A JP6948801B2 JP 6948801 B2 JP6948801 B2 JP 6948801B2 JP 2017037530 A JP2017037530 A JP 2017037530A JP 2017037530 A JP2017037530 A JP 2017037530A JP 6948801 B2 JP6948801 B2 JP 6948801B2
Authority
JP
Japan
Prior art keywords
model
image
virtual object
information processing
overlap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017037530A
Other languages
English (en)
Other versions
JP2018142273A (ja
Inventor
澤田 圭一
圭一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017037530A priority Critical patent/JP6948801B2/ja
Publication of JP2018142273A publication Critical patent/JP2018142273A/ja
Application granted granted Critical
Publication of JP6948801B2 publication Critical patent/JP6948801B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、情報処理装置の制御方法及びプログラムに関し、特に、現実物体と仮想物体とのインタラクションを実現する技術に関する。
現実空間と仮想空間を融合し、体験者が仮想の物体とのインタラクションを行えるようにする複合現実感(Mixed Reality:MR)の技術がある。MR技術では、現実の風景に対して仮想物体を表すコンピュータグラフィックス(以下、「CG」と記述)を合成して提示したり、現実物体と仮想物体との接触を表現したりことで、インタラクションを実現する。
特許文献1では、撮影画像から抽出した現実物体の輪郭を結ぶことでポリゴンを生成し、そのポリゴンと仮想物体との前後関係に基づいて、撮影画像に仮想物体を合成する技術が開示されている。また、特許文献2では、撮影画像から手指形状を推定し、仮想物体との接触を判定する技術が開示されている。
特許第5574852号公報 特開2009−3813公報
しかし、特許文献1の技術で生成するポリゴンは現実物体の輪郭を結んだものであり、厚みを反映していないので、このポリゴンを用いて接触判定を行うと、厚み分だけ判定結果がずれてしまう恐れがある。また、特許文献2の技術で推定した手指形状は必ずしも輪郭線に沿ったものとはならないため、この手指形状を用いて画像合成を行うと、輪郭をはみ出して画像が合成されてしまうことがある。このように、従来の技術では、画像の合成と接触判定の両方を高精度に行うことが難しいという課題がある。
本発明は、上記の課題に鑑みてなされたものであり、画像の合成と接触判定の両方を高精度に行うための技術を提供することを目的とする。
上記の目的を達成する本発明に係る情報処理装置は、
現実物体を撮影した画像から抽出した前記現実物体の輪郭点を結ぶ面で構成される第一のモデルを生成するモデル生成手段と、
前記現実物体の表面形状を表す第二のモデルを取得するモデル取得手段と、
前記第二のモデルと仮想物体のCGモデルとの重なりと、前記第一のモデルの前記画像への投影領域と前記仮想物体の前記CGモデルの前記画像への投影領域との重なりとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定手段と、
前記第一のモデルと前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成手段と、
を備えることを特徴とする。
本発明によれば、画像の合成と接触判定の両方を高精度に行うことができる。
実施形態1に係る情報処理装置のハードウェア構成を示す図である。 実施形態1に係る情報処理装置の機能構成を示す図である。 実施形態1に係る情報処理装置が実施する処理の手順を示すフローチャートである。 実施形態1に係る手指の輪郭点抽出方法の一例を示す図である。 実施形態1に係る接触判定部の処理を模式的に示す図である。 実施形態1に係る画像合成部の処理を模式的に示す図である。 実施形態1に係る輪郭モデルと表面モデルを模式的に示す図である。 表実施形態1に係る面モデルを用いた接触判定処理を模式的に示す図である。 実施形態3に係る情報処理装置の機能構成を示す図である。 実施形態3に係る情報処理装置が実施する処理の手順を示すフローチャートである。 実施形態3に係る輪郭モデルと表面モデルの投影領域を模式的に示す図である。 実施形態3に係る組み合わせ判断部による判断の例を示す図である。 実施形態2に係る情報処理装置が実施する処理の手順を示すフローチャートである。 実施形態2に係る接触判定部の処理の手順を示すフローチャートである。
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(実施形態1)
本実施形態では、接触判定処理では現実物体の表面モデルを使用(選択)し、画像合成処理では現実物体の輪郭モデルを使用(選択)することにより、現実物体の厚みを考慮した高精度な接触判定処理と、現実物体の輪郭線に沿った綺麗な合成処理との両方を実現する例を説明する。
<ハードウェア構成>
図1は、本実施形態に係る情報処理装置のハードウェア構成を示す図である。情報処理装置100は、CPU101、RAM102、ROM103、HDD104、インタフェース105、システムバス106を含んで構成されている。、情報処理装置100は、インタフェース105を介してHMD(Head Mounted Display)107及びセンサ108と接続されている。
CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス106を介して後述する各構成を統括的に制御する。これにより、後述する様々な処理が実行される。
HDD104は、二次記憶装置としての役割を持つ。CPU101は、HDD104からのデータ読み出し、およびHDD104へのデータ書き込みが可能である。なお、二次記憶装置は、HDDの他、光ディスクドライブ等の記憶デバイスでもよい。
インタフェース105は、HMD107やセンサ108などの外部機器とのデータのやり取りを行う。HMD107は、撮影部109,110と表示部111,112とを備えており、撮影部109,110の撮影画像や後述の合成画像を表示部111,112に表示する。なお、本発明は情報処理装置100にHMD107が接続されている場合に限定されず、現実物体の撮影画像を取得できる構成であれば適用可能である。
センサ108は、特定の現実物体の形状を計測するセンサである。以下では、センサ108が手指の形状を計測するセンサであるものとして説明を行うが、本発明はこれに限定されず、任意の現実物体を計測する場合に適用できる。センサ108として、例えば、デプスセンサ、IR(Infrared Ray)センサ、ハンドトラッキング用のデータグローブなどを用いることができる。
なお、情報処理装置100の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
<機能構成>
図2は、本実施形態に係る情報処理装置の機能構成を示す図である。情報処理装置100は、画像取得部201、輪郭点抽出部202、三次元位置算出部203、輪郭モデル生成部204、表面モデル取得部205、接触判定部206、及び画像合成部207を備えている。
画像取得部201は、撮影部109,110からそれぞれ撮影画像を取得する。輪郭点抽出部202は、画像取得部201により取得された撮影画像のそれぞれから手指の輪郭点を抽出する。三次元位置算出部203は、輪郭点抽出部202により抽出された輪郭点の三次元位置を算出する。
輪郭モデル生成部204は、三次元位置算出部203により算出された輪郭点の三次元位置に基づいて、輪郭点抽出部202により抽出された輪郭点を結ぶことで輪郭モデルを生成する。表面モデル取得部205は、センサ108から手指の表面形状を表す表面モデルを取得する。
接触判定部206は、表面モデル取得部205により取得された表面モデルと仮想物体との重なりに基づいて、手指と仮想物体との接触を判定する。仮想物体の詳細については後述する。画像合成部207は、輪郭モデルと仮想物体のCGモデルとの前後関係に基づいて、画像取得部201により取得された撮影画像中に仮想物体を合成する。
<処理>
また、図3は、本実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。ステップS301において、画像取得部201は、撮影部109,110からそれぞれ撮影画像を取得する。以下、撮影部109、110から取得した撮影画像をまとめて、「ステレオ画像」とも記述する。
ステップS302において、輪郭点抽出部202が、ステップS301において取得したステレオ画像のそれぞれから手指の輪郭点を抽出する。ここで図4は、手指の輪郭点抽出方法の一例を示す図である。輪郭点抽出部202は、まず、あらかじめ登録しておいた手の色に基づいて、撮影画像401,402から手指領域403,404を抽出する。そして、撮影画像401,402中の一定間隔で引かれた水平線(もしくは、エピポーラ線)と手指領域403,404との交点を輪郭点として抽出する。なお、本発明における輪郭点抽出はこの方法に限定されず、任意の方法で手指の輪郭点を抽出することができる。
ステップS303において、三次元位置算出部203は、ステップS302で抽出された輪郭点の三次元位置を算出する。ここで、三次元位置の算出には任意の方法を用いることができる。例えば、特許文献1に記載されているように、撮影画像401,402のそれぞれから抽出した輪郭点の対応付けを行い、三角測量技術を適用することで、輪郭点の三次元位置を算出することができる。
ステップS304において、輪郭モデル生成部204は、ステップS302で抽出された輪郭点を結ぶことで手指の輪郭モデルを生成する。その際、輪郭モデル生成部204は、ステップS303で算出された三次元位置を用いることで、三次元ポリゴンとして輪郭モデルを生成する。輪郭モデルの詳細については後述する。
ステップS305において、表面モデル取得部205は、センサ108から手指の表面形状を表す表面モデルを取得する。手指の表面モデルの詳細については後述する。
ステップS306において、接触判定部206は、ステップS305で取得された表面モデルと仮想物体のCGモデルとの重なりに基づいて、手指と仮想物体との接触を判定する。ここで、図5は、本実施形態に係る接触判定部206の処理を模式的に示す図である。図5(a)は手指501と仮想物体502とが接触していない状態を示しており、図5(b)は手指501と仮想物体502とが接触している状態を示している。接触判定部206は、仮想物体502の形状を表すCGモデルをRAM102、ROM103、HDD104などから取得し、手指501の形状を表す表面モデルとの重なりの有無を調べることで、手指501と仮想物体502との接触を判定する。
ステップS307において、画像合成部207は、ステップS304で生成された輪郭モデルと、仮想物体502のCGモデルとの前後関係に基づいて、撮影画像401,402上に仮想物体502を合成する。ここで、図6は、本実施形態に係る画像合成部207の処理を模式的に示す図である。図6(a)は手指501が仮想物体502の手前にある状態を示しており、図6(b)は手指501が仮想物体502の奥にある状態を示している。図6(a)では仮想物体502の一部が手指501に隠され、図6(b)では手指501の一部が仮想物体502に隠されている。画像合成部207は、手指501と仮想物体502との前後関係に基づいてレンダリング処理を行うことで、合成画像を生成する。
具体的には、撮影部109,110から手指501と仮想物体502までの距離をそれぞれ算出し、各画素について手指501と仮想物体502とのうちのより近い方を描画する。また、画像合成部207は、接触判定部206による判定結果に基づいて、合成された画像上の仮想物体502を点滅させたり動かしたりすることで、合成された画像上の仮想物体502の表示態様を動的に変更してもよい。例えば、接触している場合に点滅させたり、動かしたりすればよい。これにより、手指501と仮想物体502とのインタラクションを実現することができる。
以下では、図7を参照して、輪郭モデルと表面モデルの特徴について説明する。図7(a)は輪郭モデル701を模式的に示し、図7(b)は表面モデル702を模式的に示している。図7(a)に示すように、輪郭モデル701は輪郭点抽出部202が抽出した輪郭点を結んだモデルであるため、その形状は撮影画像401,402上の手指501の輪郭線に沿ったものとなる。そのため、画像合成部207の処理において手指501の形状を表すために輪郭モデル701を用いると、手指501の輪郭線に沿って綺麗に合成を行うことができる(輪郭のはみ出しを少なくすることができる)。しかし、輪郭モデル701は輪郭以外の部分(手のひらや手の甲など、手指501の内部)に頂点を持たないため、手指501の厚みを反映することができない。そのため、接触判定部206の処理において手指501の形状を輪郭モデル701で表すと、手指501の厚み分だけ判定結果がずれてしまう。
一方、図7(b)に示すように、表面モデル702は、手指の関節を結ぶボーンに対して手指の厚み分だけ肉付けを行うことで生成される手指の表面形状を表すモデルであり、手指501の厚みを反映したモデルである。そのため、接触判定部206の処理において手指501の形状を表面モデル702で表すと、手指501の厚みを考慮した高精度な接触判定を行うことができる。しかし、表面モデル702は、輪郭点を結んだ輪郭モデル701とは異なり、撮影画像401,402上の手指501の輪郭線に沿った形状であるとは限らない。なぜなら、関節の位置や手指の厚みが実際と異なると、その分だけ撮影画像401,402上の手指501の輪郭線からずれるからである。そのため、画像合成部207の処理において手指501の形状を表面モデル702で表すと、手指501と仮想物体502の輪郭線に沿って綺麗に合成を行うことができない(輪郭のはみ出しが多くなってしまう)。
これに対し、本発明の主眼は、接触判定部206及び画像合成部207の処理において、輪郭モデル701及び表面モデル702という複数のモデルを適切に用いることである。特に、本実施形態では、接触判定部206の処理に表面モデル702を用い、画像合成部207の処理に輪郭モデル701を用いる。これによって、手指501の厚みを考慮した高精度な接触判定処理と、手指501の輪郭線に沿った綺麗な合成処理との両方を同時に実現することができる。
なお、手指501の表面モデルを撮影画像401,402に投影し、その結果を半透明表示するなどして、表面モデルが撮影画像401,402上のどこにあるかをユーザが認識できるようにしてもよい。
以上説明したように、本実施形態では、接触判定処理では現実物体の表面モデルを使用し、画像合成処理では現実物体の輪郭モデルを使用する。これにより、現実物体の厚みを考慮した高精度な接触判定処理と、現実物体の輪郭線に沿った綺麗な合成処理との両方を実現することができる。
(実施形態2)
実施形態1では、接触判定部206の処理に表面モデル702を用い、画像合成部207の処理に輪郭モデル701を用いる例を説明した。これに対し、本実施形態では、接触判定部206の処理に輪郭モデル701と表面モデル702との両方を用いることで、より違和感の少ない接触判定処理を実現する例を説明する。すなわち、本実施形態と実施形態1とは、接触判定部206の処理に輪郭モデル701と表面モデル702との両方を用いる点が主として異なる。したがって、本実施形態の説明において、実施形態1と同一の部分については、図1〜図7に付した符号と同一の符号を付す等して詳細な説明を省略する。
<処理>
図13は、本実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。なお、図13におけるステップS301〜S305及びS307の各処理は、それぞれ実施形態1で図3を参照して説明した各処理と同様であるため、説明を省略する。
ステップS1301において、接触判定部206は、輪郭モデル701、表面モデル702と仮想物体502との重なりに基づいて、手指501と仮想物体502との接触を判定する。詳細は後述する。
ここで図8は、表面モデル702を用いた接触判定処理を模式的に示す図である。以下では、図8を参照して、表面モデル702を用いた接触判定処理の問題点を説明する。図8に示すように、表面モデル702を撮影画像401,402に投影すると、その形状が手指501の輪郭線に沿っていない場合がある。そのため、撮影画像401,402上で手指501が仮想物体502に重なっていない場合でも、手指501と仮想物体502とが接触していると判定される場合がある。これは、MR体験を行っているユーザの視覚情報と接触判定との間に不整合がある状態であり、ユーザに違和感を与えてしまう。本実施形態では、こうした問題を解決するために、仮想物体502の形状を表すCGモデルと表面モデル702とが重なっており、かつ、撮影画像401,402上で手指501が仮想物体502に重なっている場合に、両者が接触していると判定する。このように判定することで、ユーザの視覚上(撮影画像401,402上)で接触していないにも関わらず、接触していると判定されることを防ぐことができる。
続いて、図14は、本実施形態に係る接触判定部の処理の手順を示すフローチャートである。ステップS1401において、接触判定部206は、表面モデル702と仮想物体502との重なりを判定する。ステップS1401で重なっていないと判定された場合、ステップS1402において、接触判定部206は、手指501と仮想物体502とが接触していないと判定し、処理を終了する。一方、ステップS1401で重なっていると判定された場合、ステップS1403へ進む。
ステップS1403において、接触判定部206は、輪郭モデル701と仮想物体502とを、撮影画像401,402に投影する。ステップS1404において、接触判定部206は、輪郭モデル701の投影結果と仮想物体502の投影結果とが重なっているか判定する。ステップS1404で重なっていないと判定された場合、ステップS1402へ進み、接触判定部206は、手指501と仮想物体502とが接触していないと判定し、処理を終了する。一方、ステップS1404で重なっていると判定された場合、ステップS1405へ進み、接触判定部206は、手指501と仮想物体502とが接触していると判定し、処理を終了する。
なお、ステップS1404における輪郭モデル701の投影領域の代わりに、ステップS302で抽出した手指領域403,404を利用してもよい。その他の処理については、実施形態1と同様であるため、説明を省略する。
以上説明したように、本実施形態では、仮想物体502の形状を表すCGモデルと表面モデル702とが重なっており、かつ、撮影画像401,402上で手指501が仮想物体502に重なっている場合に、両者が接触していると判定する。これにより、撮影画像401,402上で手指501と仮想物体502とが重なっていない場合に、手指501と仮想物体502が接触していると判定されることを防ぐことができる。
(実施形態3)
実施形態1及び実施形態2では、接触判定部206と画像合成部207の処理に、あらかじめ決められた輪郭モデル701と表面モデル702との組み合わせを用いる例を説明した。これに対し、本実施形態では、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702との組み合わせを判断し、その判断結果に基づいて処理を行う例を説明する。本実施形態と実施形態1及び実施形態2とは、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702との組み合わせを判断する点が主として異なる。したがって、本実施形態の説明において、実施形態1及び実施形態2と同一の部分については、図1〜図8に付した符号と同一の符号を付す等して詳細な説明を省略する。
<機能構成>
図9は、本実施形態に係る情報処理装置の機能構成を示す図である。情報処理装置100は、実施形態1、2に関して図2を参照して説明した構成に加えて、組み合わせ判断部901をさらに備えている。組み合わせ判断部901は、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702との組み合わせを判断する。判断処理の詳細は後述する。
<処理>
図10は、本実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。なお、ステップS301〜S305の各処理は、実施形態1で図3を参照して説明した処理と同様であるため、説明を省略する。
ステップS1001において、組み合わせ判断部901は、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702の組み合わせを判断する。組み合わせ判断部901の処理の詳細は後述する。
ステップS1002において、接触判定部206は、ステップS1001で判断された組み合わせのモデルを用いて、手指501と仮想物体502との接触を判定する。接触判定方法は実施形態1と同様であるため、説明を省略する。
ステップS1003において、画像合成部207は、ステップS1001で判断された組み合わせのモデルを用いて、撮影画像401,402上に仮想物体502を合成する。画像合成方法は実施形態1と同様であるため、説明を省略する。
ここで、図11は、輪郭モデル701と表面モデル702の投影領域を模式的に示す図である。以下では、図11を参照して、組み合わせ判断部901の処理で算出する投影領域の重なり度合について説明する。
組み合わせ判断部901は、輪郭モデル701と表面モデル702との両方を撮影画像401,402に投影し、輪郭モデル701の投影領域1101と、表面モデル702の投影領域1102との重なり度合に応じて組み合わせを判断する。重なり度合を示す指標として、例えば、以下の式で表されるF値を用いることができる。
Figure 0006948801
ここで、TPは「輪郭モデルの投影領域1101」と「表面モデルの投影領域1102」の論理和領域、FNは「輪郭モデルの投影領域1101」と「表面モデルの投影領域1102の論理否定」の論理和領域の画素数である。また、FPは「輪郭モデルの投影領域1101の論理否定」と「表面モデルの投影領域1102」の論理和領域、TNは「輪郭モデルの投影領域1101の論理否定」と「表面モデルの投影領域1102の論理否定」の論理和領域の画素数である。なお、本発明は重なり度合にF値を用いる場合に限定されず、重なり度合として任意の他の指標を用いることができる。
続いて、図12は、組み合わせ判断部901による判断の例を示す図である。以下では、図12を参照して、組み合わせ判断部901の処理の詳細について説明する。以下の例では、輪郭モデルの投影領域1101と表面モデルの投影領域1102との重なり度合があらかじめ決められた閾値以上か閾値未満かによって組み合わせを判断する。
図12の例1では、重なり度合が閾値以上(高い)である場合は接触判定に表面モデル702、画像合成に輪郭モデル701を用い、重なり度合が閾値未満(低い)である場合は接触判定に用いるモデルを輪郭モデル701に切り替える。すなわち、どちらの処理でも輪郭モデルを使用する。また、例2では、重なり度合が閾値未満である場合は画像合成に用いるモデルを表面モデル702に切り替える。すなわち、どちらの処理でも表面モデルを使用する。
これらの処理によって、重なり度合が高い場合には接触判定と画像合成の両方を高精度に行いつつ、重なり度合が低い場合には接触判定の結果と画像合成の結果とが異なることによる違和感を防ぐことができる。
なお、本発明は図12の例に限定されず、任意の組み合わせを判定できる。また、実施形態2と同様に、1つの処理について輪郭モデル701と表面モデル702との両方を用いるように組み合わせを判断してもよい。また、本発明は輪郭モデル701と表面モデル702との組み合わせを判断するのに重なり度合を用いる場合に限定されない。例えば、高精度モードや速度優先モードなどのモード設定に応じてモデルの組み合わせを判断してもよい。その場合、例えば、高精度モードでは接触判定と画像合成とに異なるモデルを用い、速度優先モードでは接触判定と画像合成とに同じモデルを用いる。
また、ユーザが表面モデル702と輪郭モデル701との組み合わせを直接指定するようにしてもよい。また、重なり度合があらかじめ設定した閾値よりも低い場合にユーザに警告を行うようにしてもよい。警告の方法は自由であるが、例えば、表示部111,112に文章で警告を出力したり、不図示のスピーカから音を鳴らしたりすることで警告を行ってもよい。
以上説明したように、本実施形態では、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702との組み合わせを判断し、その判断結果に基づいて処理を行う。これによって、適したモデルの組み合わせで処理を行い、より高精度に接触判定と画像合成とを行うことができる。
[変形例]
以上説明した各実施形態では、センサ108から取得した表面モデル702を利用する場合を例に挙げて説明した。しかしながら、本発明はこれに限定されず、センサ108から取得した情報(デプス画像やIR画像など)や撮影画像401,402を利用して表面モデル702を生成し、それを利用してもかまわない。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:情報処理装置、201:画像取得部、202:輪郭点抽出部、203:三次元位置算出部、204:輪郭モデル生成部、205:表面モデル取得部、206:接触判定部、207:画像合成部、901:組み合わせ判断部

Claims (12)

  1. 現実物体を撮影した画像から抽出した前記現実物体の輪郭点を結ぶ面で構成される第一のモデルを生成するモデル生成手段と、
    前記現実物体の表面形状を表す第二のモデルを取得するモデル取得手段と、
    前記第二のモデルと仮想物体のCGモデルとの重なりと、前記第一のモデルの前記画像への投影領域と前記仮想物体の前記CGモデルの前記画像への投影領域との重なりとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定手段と、
    前記第一のモデルと前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記画像合成手段は、前記第一のモデルと前記仮想物体の前記CGモデルとの前後関係に基づいて前記画像中に前記仮想物体を合成することを特徴とする請求項1に記載の情報処理装置。
  3. 前記接触判定手段は、前記第二のモデルと仮想物体のCGモデルとが重なっており、且つ、前記第一のモデルの前記画像への投影領域と前記仮想物体の前記CGモデルの前記画像への投影領域とが重なっている場合に、前記現実物体と前記仮想物体とが接触していると判定することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記接触判定手段は、前記第二のモデルと仮想物体のCGモデルとが重なっていても、前記第一のモデルの前記画像への投影領域と前記仮想物体の前記CGモデルの前記画像への投影領域とが重なっていない場合には、前記現実物体と前記仮想物体とが接触していないと判定することを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  5. 現実物体を撮影した画像から抽出した前記現実物体の輪郭点を結ぶ面で構成される第一のモデルを生成するモデル生成手段と、
    前記現実物体の表面形状を表す第二のモデルを取得するモデル取得手段と、
    前記第一のモデルの前記画像への投影領域と前記第二のモデルの前記画像への投影領域との重なり度合に基づき前記第一のモデルまたは前記第二のモデルから選択されたいずれかのモデルと、仮想物体のCGモデルとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定手段と、
    前記第一のモデルの前記画像への投影領域と前記第二のモデルの前記画像への投影領域との重なり度合に基づき前記第一のモデルまたは前記第二のモデルから選択されたいずれかのモデルと、前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成手段と、
    を備えることを特徴とする情報処理装置。
  6. 前記接触判定手段は、前記重なり度合が閾値未満である場合には、前記第一のモデルを選択し、前記画像合成手段は、前記重なり度合が閾値未満である場合には、前記第一のモデルを選択することを特徴とする請求項に記載の情報処理装置。
  7. 前記接触判定手段は、前記重なり度合が閾値未満である場合には、前記第二のモデルを選択し、前記画像合成手段は、前記重なり度合が閾値未満である場合には、前記第二のモデルを選択することを特徴とする請求項に記載の情報処理装置。
  8. 前記重なり度合が閾値未満である場合に警告を出力する警告手段をさらに備えることを特徴とする請求項乃至の何れか1項に記載の情報処理装置。
  9. 前記画像合成手段は、前記接触判定手段の判定結果に基づいて、合成された画像上の前記仮想物体の表示態様を動的に変更することを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  10. 情報処理装置の制御方法であって、
    現実物体を撮影した画像から抽出した前記現実物体の輪郭点を結ぶ面で構成される第一のモデルを生成するモデル生成工程と、
    前記現実物体の表面形状を表す第二のモデルを取得するモデル取得工程と、
    前記第二のモデルと仮想物体のCGモデルとの重なりと、前記第一のモデルの前記画像への投影領域と前記仮想物体の前記CGモデルの前記画像への投影領域との重なりとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定工程と、
    前記第一のモデルと前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成工程と、
    を有することを特徴とする情報処理装置の制御方法。
  11. 情報処理装置の制御方法であって、
    現実物体を撮影した画像から抽出した前記現実物体の輪郭点を結ぶ面で構成される第一のモデルを生成するモデル生成工程と、
    前記現実物体の表面形状を表す第二のモデルを取得するモデル取得工程と、
    前記第一のモデルの前記画像への投影領域と前記第二のモデルの前記画像への投影領域との重なり度合に基づき前記第一のモデルまたは前記第二のモデルから選択されたいずれかのモデルと、仮想物体のCGモデルとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定工程と、
    前記第一のモデルの前記画像への投影領域と前記第二のモデルの前記画像への投影領域との重なり度合に基づき前記第一のモデルまたは前記第二のモデルから選択されたいずれかのモデルと、前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成工程と、
    を有することを特徴とする情報処理装置の制御方法。
  12. コンピュータを、請求項1乃至の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2017037530A 2017-02-28 2017-02-28 情報処理装置、情報処理装置の制御方法及びプログラム Active JP6948801B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017037530A JP6948801B2 (ja) 2017-02-28 2017-02-28 情報処理装置、情報処理装置の制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017037530A JP6948801B2 (ja) 2017-02-28 2017-02-28 情報処理装置、情報処理装置の制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018142273A JP2018142273A (ja) 2018-09-13
JP6948801B2 true JP6948801B2 (ja) 2021-10-13

Family

ID=63528028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017037530A Active JP6948801B2 (ja) 2017-02-28 2017-02-28 情報処理装置、情報処理装置の制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6948801B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3813018A1 (en) * 2019-10-24 2021-04-28 XRSpace CO., LTD. Virtual object operating system and virtual object operating method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3777650B2 (ja) * 1995-04-28 2006-05-24 松下電器産業株式会社 インターフェイス装置
JP5109294B2 (ja) * 2006-06-19 2012-12-26 三菱電機株式会社 3次元位置補正装置
JP4786483B2 (ja) * 2006-09-14 2011-10-05 富士通株式会社 生体認証装置の生体誘導制御方法及び生体認証装置
JP5526465B2 (ja) * 2007-06-22 2014-06-18 国立大学法人 筑波大学 爪位置データ検出装置及び爪位置データ検出方法、並びに爪位置データ検出プログラム
KR20140010616A (ko) * 2012-07-16 2014-01-27 한국전자통신연구원 3d 가상 객체에 대한 조작 처리 장치 및 방법

Also Published As

Publication number Publication date
JP2018142273A (ja) 2018-09-13

Similar Documents

Publication Publication Date Title
KR101687017B1 (ko) 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
CN104380338B (zh) 信息处理器以及信息处理方法
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2023086791A (ja) 情報処理装置、情報処理方法、及びプログラム
KR101556992B1 (ko) 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템
JP5709440B2 (ja) 情報処理装置、情報処理方法
US20150199850A1 (en) Information processing apparatus and information processing method
JP2011028309A5 (ja)
JP2014106543A (ja) 画像処理装置、画像処理方法及びプログラム
JP6742701B2 (ja) 情報処理装置、その制御方法及びプログラム
CN110573992B (zh) 使用增强现实和虚拟现实编辑增强现实体验
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP6948801B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
US20200133388A1 (en) Information processing apparatus, information processing method, and storage medium
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
KR101807512B1 (ko) 맵핑형 3차원 상호작용 장치 및 방법
JP2018128739A (ja) 画像処理装置、画像処理方法、コンピュータプログラム、及び記憶媒体
JP2019032713A5 (ja)
KR102157246B1 (ko) 실제 손에 대응하는 가상 손 모델링 방법 및 이를 위한 장치
WO2020036114A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2016099839A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2022112228A (ja) 情報処理装置、情報処理方法及びプログラム
KR20040008456A (ko) 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200217

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210921

R151 Written notification of patent or utility model registration

Ref document number: 6948801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151