JP2018142273A - Information processing apparatus, method for controlling information processing apparatus, and program - Google Patents
Information processing apparatus, method for controlling information processing apparatus, and program Download PDFInfo
- Publication number
- JP2018142273A JP2018142273A JP2017037530A JP2017037530A JP2018142273A JP 2018142273 A JP2018142273 A JP 2018142273A JP 2017037530 A JP2017037530 A JP 2017037530A JP 2017037530 A JP2017037530 A JP 2017037530A JP 2018142273 A JP2018142273 A JP 2018142273A
- Authority
- JP
- Japan
- Prior art keywords
- model
- image
- virtual object
- processing apparatus
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims description 59
- 239000000203 mixture Substances 0.000 claims abstract description 33
- 230000002194 synthesizing effect Effects 0.000 claims description 10
- 230000015572 biosynthetic process Effects 0.000 claims description 9
- 238000003786 synthesis reaction Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 11
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理装置の制御方法及びプログラムに関し、特に、現実物体と仮想物体とのインタラクションを実現する技術に関する。 The present invention relates to an information processing apparatus, a control method for the information processing apparatus, and a program, and more particularly, to a technique for realizing an interaction between a real object and a virtual object.
現実空間と仮想空間を融合し、体験者が仮想の物体とのインタラクションを行えるようにする複合現実感(Mixed Reality:MR)の技術がある。MR技術では、現実の風景に対して仮想物体を表すコンピュータグラフィックス(以下、「CG」と記述)を合成して提示したり、現実物体と仮想物体との接触を表現したりことで、インタラクションを実現する。 There is a mixed reality (MR) technique that fuses a real space and a virtual space so that an experiencer can interact with a virtual object. In MR technology, interaction is achieved by synthesizing and presenting computer graphics (hereinafter referred to as “CG”) representing a virtual object to a real landscape, or expressing contact between a real object and a virtual object. Is realized.
特許文献1では、撮影画像から抽出した現実物体の輪郭を結ぶことでポリゴンを生成し、そのポリゴンと仮想物体との前後関係に基づいて、撮影画像に仮想物体を合成する技術が開示されている。また、特許文献2では、撮影画像から手指形状を推定し、仮想物体との接触を判定する技術が開示されている。 Patent Document 1 discloses a technique for generating a polygon by connecting the contour of a real object extracted from a captured image, and synthesizing the virtual object with the captured image based on the front-rear relationship between the polygon and the virtual object. . Patent Document 2 discloses a technique for estimating a finger shape from a captured image and determining contact with a virtual object.
しかし、特許文献1の技術で生成するポリゴンは現実物体の輪郭を結んだものであり、厚みを反映していないので、このポリゴンを用いて接触判定を行うと、厚み分だけ判定結果がずれてしまう恐れがある。また、特許文献2の技術で推定した手指形状は必ずしも輪郭線に沿ったものとはならないため、この手指形状を用いて画像合成を行うと、輪郭をはみ出して画像が合成されてしまうことがある。このように、従来の技術では、画像の合成と接触判定の両方を高精度に行うことが難しいという課題がある。 However, since the polygon generated by the technique of Patent Document 1 is obtained by connecting the contour of a real object and does not reflect the thickness, if the contact determination is performed using this polygon, the determination result is shifted by the thickness. There is a risk. In addition, since the finger shape estimated by the technique of Patent Document 2 does not necessarily follow the contour line, if image synthesis is performed using this finger shape, the image may be synthesized by protruding the contour. . As described above, the conventional technique has a problem that it is difficult to perform both image synthesis and contact determination with high accuracy.
本発明は、上記の課題に鑑みてなされたものであり、画像の合成と接触判定の両方を高精度に行うための技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide a technique for performing both image synthesis and contact determination with high accuracy.
上記の目的を達成する本発明に係る情報処理装置は、
現実物体を撮影した画像から抽出した前記現実物体の輪郭点を結ぶ面で構成される第一のモデルを生成するモデル生成手段と、
前記現実物体の表面形状を表す第二のモデルを取得するモデル取得手段と、
前記第二のモデルと仮想物体のCGモデルとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定手段と、
前記第一のモデルと前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成手段と、
を備えることを特徴とする。
An information processing apparatus according to the present invention that achieves the above object is as follows.
Model generating means for generating a first model composed of a plane connecting contour points of the real object extracted from an image of the real object;
Model acquisition means for acquiring a second model representing the surface shape of the real object;
Contact determination means for determining contact between the real object and the virtual object based on the second model and a CG model of the virtual object;
Image synthesizing means for synthesizing the virtual object in the image based on the first model and the CG model of the virtual object;
It is characterized by providing.
本発明によれば、画像の合成と接触判定の両方を高精度に行うことができる。 According to the present invention, both image synthesis and contact determination can be performed with high accuracy.
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, embodiments will be described with reference to the drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
(実施形態1)
本実施形態では、接触判定処理では現実物体の表面モデルを使用(選択)し、画像合成処理では現実物体の輪郭モデルを使用(選択)することにより、現実物体の厚みを考慮した高精度な接触判定処理と、現実物体の輪郭線に沿った綺麗な合成処理との両方を実現する例を説明する。
(Embodiment 1)
In the present embodiment, the contact determination process uses (selects) the surface model of the real object, and the image composition process uses (selects) the contour model of the real object, so that high-precision contact in consideration of the thickness of the real object is used. An example will be described in which both the determination process and the clean synthesis process along the contour of the real object are realized.
<ハードウェア構成>
図1は、本実施形態に係る情報処理装置のハードウェア構成を示す図である。情報処理装置100は、CPU101、RAM102、ROM103、HDD104、インタフェース105、システムバス106を含んで構成されている。、情報処理装置100は、インタフェース105を介してHMD(Head Mounted Display)107及びセンサ108と接続されている。
<Hardware configuration>
FIG. 1 is a diagram illustrating a hardware configuration of the information processing apparatus according to the present embodiment. The
CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス106を介して後述する各構成を統括的に制御する。これにより、後述する様々な処理が実行される。
The
HDD104は、二次記憶装置としての役割を持つ。CPU101は、HDD104からのデータ読み出し、およびHDD104へのデータ書き込みが可能である。なお、二次記憶装置は、HDDの他、光ディスクドライブ等の記憶デバイスでもよい。
The HDD 104 has a role as a secondary storage device. The
インタフェース105は、HMD107やセンサ108などの外部機器とのデータのやり取りを行う。HMD107は、撮影部109,110と表示部111,112とを備えており、撮影部109,110の撮影画像や後述の合成画像を表示部111,112に表示する。なお、本発明は情報処理装置100にHMD107が接続されている場合に限定されず、現実物体の撮影画像を取得できる構成であれば適用可能である。
The
センサ108は、特定の現実物体の形状を計測するセンサである。以下では、センサ108が手指の形状を計測するセンサであるものとして説明を行うが、本発明はこれに限定されず、任意の現実物体を計測する場合に適用できる。センサ108として、例えば、デプスセンサ、IR(Infrared Ray)センサ、ハンドトラッキング用のデータグローブなどを用いることができる。
The
なお、情報処理装置100の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
In addition, although the component of the
<機能構成>
図2は、本実施形態に係る情報処理装置の機能構成を示す図である。情報処理装置100は、画像取得部201、輪郭点抽出部202、三次元位置算出部203、輪郭モデル生成部204、表面モデル取得部205、接触判定部206、及び画像合成部207を備えている。
<Functional configuration>
FIG. 2 is a diagram illustrating a functional configuration of the information processing apparatus according to the present embodiment. The
画像取得部201は、撮影部109,110からそれぞれ撮影画像を取得する。輪郭点抽出部202は、画像取得部201により取得された撮影画像のそれぞれから手指の輪郭点を抽出する。三次元位置算出部203は、輪郭点抽出部202により抽出された輪郭点の三次元位置を算出する。
The
輪郭モデル生成部204は、三次元位置算出部203により算出された輪郭点の三次元位置に基づいて、輪郭点抽出部202により抽出された輪郭点を結ぶことで輪郭モデルを生成する。表面モデル取得部205は、センサ108から手指の表面形状を表す表面モデルを取得する。
The contour
接触判定部206は、表面モデル取得部205により取得された表面モデルと仮想物体との重なりに基づいて、手指と仮想物体との接触を判定する。仮想物体の詳細については後述する。画像合成部207は、輪郭モデルと仮想物体のCGモデルとの前後関係に基づいて、画像取得部201により取得された撮影画像中に仮想物体を合成する。
The
<処理>
また、図3は、本実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。ステップS301において、画像取得部201は、撮影部109,110からそれぞれ撮影画像を取得する。以下、撮影部109、110から取得した撮影画像をまとめて、「ステレオ画像」とも記述する。
<Processing>
FIG. 3 is a flowchart illustrating a procedure of processing performed by the information processing apparatus according to the present embodiment. In step S301, the
ステップS302において、輪郭点抽出部202が、ステップS301において取得したステレオ画像のそれぞれから手指の輪郭点を抽出する。ここで図4は、手指の輪郭点抽出方法の一例を示す図である。輪郭点抽出部202は、まず、あらかじめ登録しておいた手の色に基づいて、撮影画像401,402から手指領域403,404を抽出する。そして、撮影画像401,402中の一定間隔で引かれた水平線(もしくは、エピポーラ線)と手指領域403,404との交点を輪郭点として抽出する。なお、本発明における輪郭点抽出はこの方法に限定されず、任意の方法で手指の輪郭点を抽出することができる。
In step S302, the contour
ステップS303において、三次元位置算出部203は、ステップS302で抽出された輪郭点の三次元位置を算出する。ここで、三次元位置の算出には任意の方法を用いることができる。例えば、特許文献1に記載されているように、撮影画像401,402のそれぞれから抽出した輪郭点の対応付けを行い、三角測量技術を適用することで、輪郭点の三次元位置を算出することができる。
In step S303, the three-dimensional
ステップS304において、輪郭モデル生成部204は、ステップS302で抽出された輪郭点を結ぶことで手指の輪郭モデルを生成する。その際、輪郭モデル生成部204は、ステップS303で算出された三次元位置を用いることで、三次元ポリゴンとして輪郭モデルを生成する。輪郭モデルの詳細については後述する。
In step S304, the contour
ステップS305において、表面モデル取得部205は、センサ108から手指の表面形状を表す表面モデルを取得する。手指の表面モデルの詳細については後述する。
In step S <b> 305, the surface
ステップS306において、接触判定部206は、ステップS305で取得された表面モデルと仮想物体のCGモデルとの重なりに基づいて、手指と仮想物体との接触を判定する。ここで、図5は、本実施形態に係る接触判定部206の処理を模式的に示す図である。図5(a)は手指501と仮想物体502とが接触していない状態を示しており、図5(b)は手指501と仮想物体502とが接触している状態を示している。接触判定部206は、仮想物体502の形状を表すCGモデルをRAM102、ROM103、HDD104などから取得し、手指501の形状を表す表面モデルとの重なりの有無を調べることで、手指501と仮想物体502との接触を判定する。
In step S306, the
ステップS307において、画像合成部207は、ステップS304で生成された輪郭モデルと、仮想物体502のCGモデルとの前後関係に基づいて、撮影画像401,402上に仮想物体502を合成する。ここで、図6は、本実施形態に係る画像合成部207の処理を模式的に示す図である。図6(a)は手指501が仮想物体502の手前にある状態を示しており、図6(b)は手指501が仮想物体502の奥にある状態を示している。図6(a)では仮想物体502の一部が手指501に隠され、図6(b)では手指501の一部が仮想物体502に隠されている。画像合成部207は、手指501と仮想物体502との前後関係に基づいてレンダリング処理を行うことで、合成画像を生成する。
In step S <b> 307, the
具体的には、撮影部109,110から手指501と仮想物体502までの距離をそれぞれ算出し、各画素について手指501と仮想物体502とのうちのより近い方を描画する。また、画像合成部207は、接触判定部206による判定結果に基づいて、合成された画像上の仮想物体502を点滅させたり動かしたりすることで、合成された画像上の仮想物体502の表示態様を動的に変更してもよい。例えば、接触している場合に点滅させたり、動かしたりすればよい。これにより、手指501と仮想物体502とのインタラクションを実現することができる。
Specifically, the distances from the photographing units 109 and 110 to the
以下では、図7を参照して、輪郭モデルと表面モデルの特徴について説明する。図7(a)は輪郭モデル701を模式的に示し、図7(b)は表面モデル702を模式的に示している。図7(a)に示すように、輪郭モデル701は輪郭点抽出部202が抽出した輪郭点を結んだモデルであるため、その形状は撮影画像401,402上の手指501の輪郭線に沿ったものとなる。そのため、画像合成部207の処理において手指501の形状を表すために輪郭モデル701を用いると、手指501の輪郭線に沿って綺麗に合成を行うことができる(輪郭のはみ出しを少なくすることができる)。しかし、輪郭モデル701は輪郭以外の部分(手のひらや手の甲など、手指501の内部)に頂点を持たないため、手指501の厚みを反映することができない。そのため、接触判定部206の処理において手指501の形状を輪郭モデル701で表すと、手指501の厚み分だけ判定結果がずれてしまう。
Hereinafter, the features of the contour model and the surface model will be described with reference to FIG. FIG. 7A schematically shows the
一方、図7(b)に示すように、表面モデル702は、手指の関節を結ぶボーンに対して手指の厚み分だけ肉付けを行うことで生成される手指の表面形状を表すモデルであり、手指501の厚みを反映したモデルである。そのため、接触判定部206の処理において手指501の形状を表面モデル702で表すと、手指501の厚みを考慮した高精度な接触判定を行うことができる。しかし、表面モデル702は、輪郭点を結んだ輪郭モデル701とは異なり、撮影画像401,402上の手指501の輪郭線に沿った形状であるとは限らない。なぜなら、関節の位置や手指の厚みが実際と異なると、その分だけ撮影画像401,402上の手指501の輪郭線からずれるからである。そのため、画像合成部207の処理において手指501の形状を表面モデル702で表すと、手指501と仮想物体502の輪郭線に沿って綺麗に合成を行うことができない(輪郭のはみ出しが多くなってしまう)。
On the other hand, as shown in FIG. 7B, the
これに対し、本発明の主眼は、接触判定部206及び画像合成部207の処理において、輪郭モデル701及び表面モデル702という複数のモデルを適切に用いることである。特に、本実施形態では、接触判定部206の処理に表面モデル702を用い、画像合成部207の処理に輪郭モデル701を用いる。これによって、手指501の厚みを考慮した高精度な接触判定処理と、手指501の輪郭線に沿った綺麗な合成処理との両方を同時に実現することができる。
On the other hand, the main point of the present invention is to appropriately use a plurality of models such as the
なお、手指501の表面モデルを撮影画像401,402に投影し、その結果を半透明表示するなどして、表面モデルが撮影画像401,402上のどこにあるかをユーザが認識できるようにしてもよい。
The surface model of the
以上説明したように、本実施形態では、接触判定処理では現実物体の表面モデルを使用し、画像合成処理では現実物体の輪郭モデルを使用する。これにより、現実物体の厚みを考慮した高精度な接触判定処理と、現実物体の輪郭線に沿った綺麗な合成処理との両方を実現することができる。 As described above, in this embodiment, the surface model of the real object is used in the contact determination process, and the contour model of the real object is used in the image composition process. Thereby, it is possible to realize both a highly accurate contact determination process in consideration of the thickness of the real object and a beautiful synthesis process along the contour line of the real object.
(実施形態2)
実施形態1では、接触判定部206の処理に表面モデル702を用い、画像合成部207の処理に輪郭モデル701を用いる例を説明した。これに対し、本実施形態では、接触判定部206の処理に輪郭モデル701と表面モデル702との両方を用いることで、より違和感の少ない接触判定処理を実現する例を説明する。すなわち、本実施形態と実施形態1とは、接触判定部206の処理に輪郭モデル701と表面モデル702との両方を用いる点が主として異なる。したがって、本実施形態の説明において、実施形態1と同一の部分については、図1〜図7に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Embodiment 2)
In the first embodiment, the example in which the
<処理>
図13は、本実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。なお、図13におけるステップS301〜S305及びS307の各処理は、それぞれ実施形態1で図3を参照して説明した各処理と同様であるため、説明を省略する。
<Processing>
FIG. 13 is a flowchart illustrating a procedure of processing performed by the information processing apparatus according to the present embodiment. Note that the processes in steps S301 to S305 and S307 in FIG. 13 are the same as the processes described with reference to FIG.
ステップS1301において、接触判定部206は、輪郭モデル701、表面モデル702と仮想物体502との重なりに基づいて、手指501と仮想物体502との接触を判定する。詳細は後述する。
In step S <b> 1301, the
ここで図8は、表面モデル702を用いた接触判定処理を模式的に示す図である。以下では、図8を参照して、表面モデル702を用いた接触判定処理の問題点を説明する。図8に示すように、表面モデル702を撮影画像401,402に投影すると、その形状が手指501の輪郭線に沿っていない場合がある。そのため、撮影画像401,402上で手指501が仮想物体502に重なっていない場合でも、手指501と仮想物体502とが接触していると判定される場合がある。これは、MR体験を行っているユーザの視覚情報と接触判定との間に不整合がある状態であり、ユーザに違和感を与えてしまう。本実施形態では、こうした問題を解決するために、仮想物体502の形状を表すCGモデルと表面モデル702とが重なっており、かつ、撮影画像401,402上で手指501が仮想物体502に重なっている場合に、両者が接触していると判定する。このように判定することで、ユーザの視覚上(撮影画像401,402上)で接触していないにも関わらず、接触していると判定されることを防ぐことができる。
Here, FIG. 8 is a diagram schematically showing a contact determination process using the
続いて、図14は、本実施形態に係る接触判定部の処理の手順を示すフローチャートである。ステップS1401において、接触判定部206は、表面モデル702と仮想物体502との重なりを判定する。ステップS1401で重なっていないと判定された場合、ステップS1402において、接触判定部206は、手指501と仮想物体502とが接触していないと判定し、処理を終了する。一方、ステップS1401で重なっていると判定された場合、ステップS1403へ進む。
Next, FIG. 14 is a flowchart illustrating a processing procedure of the contact determination unit according to the present embodiment. In step S1401, the
ステップS1403において、接触判定部206は、輪郭モデル701と仮想物体502とを、撮影画像401,402に投影する。ステップS1404において、接触判定部206は、輪郭モデル701の投影結果と仮想物体502の投影結果とが重なっているか判定する。ステップS1404で重なっていないと判定された場合、ステップS1402へ進み、接触判定部206は、手指501と仮想物体502とが接触していないと判定し、処理を終了する。一方、ステップS1404で重なっていると判定された場合、ステップS1405へ進み、接触判定部206は、手指501と仮想物体502とが接触していると判定し、処理を終了する。
In step S1403, the
なお、ステップS1404における輪郭モデル701の投影領域の代わりに、ステップS302で抽出した手指領域403,404を利用してもよい。その他の処理については、実施形態1と同様であるため、説明を省略する。
Note that the
以上説明したように、本実施形態では、仮想物体502の形状を表すCGモデルと表面モデル702とが重なっており、かつ、撮影画像401,402上で手指501が仮想物体502に重なっている場合に、両者が接触していると判定する。これにより、撮影画像401,402上で手指501と仮想物体502とが重なっていない場合に、手指501と仮想物体502が接触していると判定されることを防ぐことができる。
As described above, in this embodiment, the CG model representing the shape of the
(実施形態3)
実施形態1及び実施形態2では、接触判定部206と画像合成部207の処理に、あらかじめ決められた輪郭モデル701と表面モデル702との組み合わせを用いる例を説明した。これに対し、本実施形態では、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702との組み合わせを判断し、その判断結果に基づいて処理を行う例を説明する。本実施形態と実施形態1及び実施形態2とは、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702との組み合わせを判断する点が主として異なる。したがって、本実施形態の説明において、実施形態1及び実施形態2と同一の部分については、図1〜図8に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Embodiment 3)
In the first embodiment and the second embodiment, an example in which a predetermined combination of the
<機能構成>
図9は、本実施形態に係る情報処理装置の機能構成を示す図である。情報処理装置100は、実施形態1、2に関して図2を参照して説明した構成に加えて、組み合わせ判断部901をさらに備えている。組み合わせ判断部901は、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702との組み合わせを判断する。判断処理の詳細は後述する。
<Functional configuration>
FIG. 9 is a diagram illustrating a functional configuration of the information processing apparatus according to the present embodiment. The
<処理>
図10は、本実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。なお、ステップS301〜S305の各処理は、実施形態1で図3を参照して説明した処理と同様であるため、説明を省略する。
<Processing>
FIG. 10 is a flowchart illustrating a procedure of processing performed by the information processing apparatus according to the present embodiment. Note that the processing in steps S301 to S305 is the same as the processing described with reference to FIG.
ステップS1001において、組み合わせ判断部901は、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702の組み合わせを判断する。組み合わせ判断部901の処理の詳細は後述する。
In step S <b> 1001, the
ステップS1002において、接触判定部206は、ステップS1001で判断された組み合わせのモデルを用いて、手指501と仮想物体502との接触を判定する。接触判定方法は実施形態1と同様であるため、説明を省略する。
In step S1002, the
ステップS1003において、画像合成部207は、ステップS1001で判断された組み合わせのモデルを用いて、撮影画像401,402上に仮想物体502を合成する。画像合成方法は実施形態1と同様であるため、説明を省略する。
In step S1003, the
ここで、図11は、輪郭モデル701と表面モデル702の投影領域を模式的に示す図である。以下では、図11を参照して、組み合わせ判断部901の処理で算出する投影領域の重なり度合について説明する。
Here, FIG. 11 is a diagram schematically showing the projection areas of the
組み合わせ判断部901は、輪郭モデル701と表面モデル702との両方を撮影画像401,402に投影し、輪郭モデル701の投影領域1101と、表面モデル702の投影領域1102との重なり度合に応じて組み合わせを判断する。重なり度合を示す指標として、例えば、以下の式で表されるF値を用いることができる。
The
ここで、TPは「輪郭モデルの投影領域1101」と「表面モデルの投影領域1102」の論理和領域、FNは「輪郭モデルの投影領域1101」と「表面モデルの投影領域1102の論理否定」の論理和領域の画素数である。また、FPは「輪郭モデルの投影領域1101の論理否定」と「表面モデルの投影領域1102」の論理和領域、TNは「輪郭モデルの投影領域1101の論理否定」と「表面モデルの投影領域1102の論理否定」の論理和領域の画素数である。なお、本発明は重なり度合にF値を用いる場合に限定されず、重なり度合として任意の他の指標を用いることができる。
Here, TP is a logical sum area of “contour
続いて、図12は、組み合わせ判断部901による判断の例を示す図である。以下では、図12を参照して、組み合わせ判断部901の処理の詳細について説明する。以下の例では、輪郭モデルの投影領域1101と表面モデルの投影領域1102との重なり度合があらかじめ決められた閾値以上か閾値未満かによって組み合わせを判断する。
Next, FIG. 12 is a diagram illustrating an example of determination by the
図12の例1では、重なり度合が閾値以上(高い)である場合は接触判定に表面モデル702、画像合成に輪郭モデル701を用い、重なり度合が閾値未満(低い)である場合は接触判定に用いるモデルを輪郭モデル701に切り替える。すなわち、どちらの処理でも輪郭モデルを使用する。また、例2では、重なり度合が閾値未満である場合は画像合成に用いるモデルを表面モデル702に切り替える。すなわち、どちらの処理でも表面モデルを使用する。
In Example 1 of FIG. 12, when the degree of overlap is equal to or greater than a threshold (high), the
これらの処理によって、重なり度合が高い場合には接触判定と画像合成の両方を高精度に行いつつ、重なり度合が低い場合には接触判定の結果と画像合成の結果とが異なることによる違和感を防ぐことができる。 With these processes, when the degree of overlap is high, both contact determination and image composition are performed with high accuracy, and when the degree of overlap is low, the sense of discomfort caused by the difference between the result of contact determination and the result of image composition is prevented. be able to.
なお、本発明は図12の例に限定されず、任意の組み合わせを判定できる。また、実施形態2と同様に、1つの処理について輪郭モデル701と表面モデル702との両方を用いるように組み合わせを判断してもよい。また、本発明は輪郭モデル701と表面モデル702との組み合わせを判断するのに重なり度合を用いる場合に限定されない。例えば、高精度モードや速度優先モードなどのモード設定に応じてモデルの組み合わせを判断してもよい。その場合、例えば、高精度モードでは接触判定と画像合成とに異なるモデルを用い、速度優先モードでは接触判定と画像合成とに同じモデルを用いる。
In addition, this invention is not limited to the example of FIG. 12, Arbitrary combinations can be determined. Further, as in the second embodiment, the combination may be determined so that both the
また、ユーザが表面モデル702と輪郭モデル701との組み合わせを直接指定するようにしてもよい。また、重なり度合があらかじめ設定した閾値よりも低い場合にユーザに警告を行うようにしてもよい。警告の方法は自由であるが、例えば、表示部111,112に文章で警告を出力したり、不図示のスピーカから音を鳴らしたりすることで警告を行ってもよい。
Further, the user may directly specify the combination of the
以上説明したように、本実施形態では、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702との組み合わせを判断し、その判断結果に基づいて処理を行う。これによって、適したモデルの組み合わせで処理を行い、より高精度に接触判定と画像合成とを行うことができる。
As described above, in the present embodiment, the combination of the
[変形例]
以上説明した各実施形態では、センサ108から取得した表面モデル702を利用する場合を例に挙げて説明した。しかしながら、本発明はこれに限定されず、センサ108から取得した情報(デプス画像やIR画像など)や撮影画像401,402を利用して表面モデル702を生成し、それを利用してもかまわない。
[Modification]
In each embodiment described above, the case where the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100:情報処理装置、201:画像取得部、202:輪郭点抽出部、203:三次元位置算出部、204:輪郭モデル生成部、205:表面モデル取得部、206:接触判定部、207:画像合成部、901:組み合わせ判断部 100: Information processing device 201: Image acquisition unit 202: Contour point extraction unit 203: Three-dimensional position calculation unit 204: Contour model generation unit 205: Surface model acquisition unit 206: Contact determination unit 207: Image Combining unit, 901: combination determining unit
Claims (13)
前記現実物体の表面形状を表す第二のモデルを取得するモデル取得手段と、
前記第二のモデルと仮想物体のCGモデルとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定手段と、
前記第一のモデルと前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成手段と、
を備えることを特徴とする情報処理装置。 Model generating means for generating a first model composed of a plane connecting contour points of the real object extracted from an image of the real object;
Model acquisition means for acquiring a second model representing the surface shape of the real object;
Contact determination means for determining contact between the real object and the virtual object based on the second model and a CG model of the virtual object;
Image synthesizing means for synthesizing the virtual object in the image based on the first model and the CG model of the virtual object;
An information processing apparatus comprising:
前記組み合わせ判断手段は、前記重なり度合が閾値以上である場合には、前記接触判定手段の処理で前記第二のモデルを使用し、前記画像合成手段の処理で前記第一のモデルを使用するように判断することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 A combination of the first model and the second model is determined based on the degree of overlap between the projection area of the first model onto the image and the projection area of the second model onto the image. It further comprises a combination judgment means,
The combination determination unit uses the second model in the processing of the contact determination unit and uses the first model in the processing of the image synthesis unit when the degree of overlap is equal to or greater than a threshold value. The information processing apparatus according to claim 1, wherein the information processing apparatus determines whether or not the information processing apparatus is in an appropriate state.
前記現実物体の表面形状を表す第二のモデルを取得するモデル取得手段と、
前記第一のモデルの前記画像への投影領域と前記第二のモデルの前記画像への投影領域との重なり度合に基づき前記第一のモデルまたは前記第二のモデルから選択されたいずれかのモデルと、仮想物体のCGモデルとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定手段と、
前記第一のモデルの前記画像への投影領域と前記第二のモデルの前記画像への投影領域との重なり度合に基づき前記第一のモデルまたは前記第二のモデルから選択されたいずれかのモデルと、前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成手段と、
を備えることを特徴とする情報処理装置。 Model generating means for generating a first model composed of a plane connecting contour points of the real object extracted from an image of the real object;
Model acquisition means for acquiring a second model representing the surface shape of the real object;
One model selected from the first model or the second model based on the degree of overlap between the projection area of the first model onto the image and the projection area of the second model onto the image Contact determination means for determining contact between the real object and the virtual object based on a CG model of the virtual object;
One model selected from the first model or the second model based on the degree of overlap between the projection area of the first model onto the image and the projection area of the second model onto the image Image synthesizing means for synthesizing the virtual object in the image based on the CG model of the virtual object;
An information processing apparatus comprising:
現実物体を撮影した画像から抽出した前記現実物体の輪郭点を結ぶ面で構成される第一のモデルを生成するモデル生成工程と、
前記現実物体の表面形状を表す第二のモデルを取得するモデル取得工程と、
前記第二のモデルと仮想物体のCGモデルとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定工程と、
前記第一のモデルと前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成工程と、
を有することを特徴とする情報処理装置の制御方法。 A method for controlling an information processing apparatus,
A model generation step of generating a first model composed of surfaces connecting contour points of the real object extracted from an image obtained by photographing the real object;
A model acquisition step of acquiring a second model representing the surface shape of the real object;
A contact determination step of determining contact between the real object and the virtual object based on the second model and a CG model of the virtual object;
An image synthesis step of synthesizing the virtual object in the image based on the first model and the CG model of the virtual object;
A method for controlling an information processing apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017037530A JP6948801B2 (en) | 2017-02-28 | 2017-02-28 | Information processing equipment, control methods and programs for information processing equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017037530A JP6948801B2 (en) | 2017-02-28 | 2017-02-28 | Information processing equipment, control methods and programs for information processing equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018142273A true JP2018142273A (en) | 2018-09-13 |
JP6948801B2 JP6948801B2 (en) | 2021-10-13 |
Family
ID=63528028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017037530A Active JP6948801B2 (en) | 2017-02-28 | 2017-02-28 | Information processing equipment, control methods and programs for information processing equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6948801B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021068405A (en) * | 2019-10-24 | 2021-04-30 | 未來市股▲ふん▼有限公司 | Virtual object operating system and virtual object operating method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09185456A (en) * | 1995-04-28 | 1997-07-15 | Matsushita Electric Ind Co Ltd | Interface device |
JP2007333679A (en) * | 2006-06-19 | 2007-12-27 | Mitsubishi Electric Corp | Three-dimensional position correcting apparatus |
JP2008071158A (en) * | 2006-09-14 | 2008-03-27 | Fujitsu Ltd | Living body guide control method for biometrics authentication device, and biometrics authentication device |
JP2009003813A (en) * | 2007-06-22 | 2009-01-08 | Univ Of Tsukuba | Finger shape estimation apparatus, finger shape estimation method and program |
US20140015831A1 (en) * | 2012-07-16 | 2014-01-16 | Electronics And Telecommunications Research Institude | Apparatus and method for processing manipulation of 3d virtual object |
-
2017
- 2017-02-28 JP JP2017037530A patent/JP6948801B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09185456A (en) * | 1995-04-28 | 1997-07-15 | Matsushita Electric Ind Co Ltd | Interface device |
JP2007333679A (en) * | 2006-06-19 | 2007-12-27 | Mitsubishi Electric Corp | Three-dimensional position correcting apparatus |
JP2008071158A (en) * | 2006-09-14 | 2008-03-27 | Fujitsu Ltd | Living body guide control method for biometrics authentication device, and biometrics authentication device |
JP2009003813A (en) * | 2007-06-22 | 2009-01-08 | Univ Of Tsukuba | Finger shape estimation apparatus, finger shape estimation method and program |
US20140015831A1 (en) * | 2012-07-16 | 2014-01-16 | Electronics And Telecommunications Research Institude | Apparatus and method for processing manipulation of 3d virtual object |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021068405A (en) * | 2019-10-24 | 2021-04-30 | 未來市股▲ふん▼有限公司 | Virtual object operating system and virtual object operating method |
Also Published As
Publication number | Publication date |
---|---|
JP6948801B2 (en) | 2021-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6747504B2 (en) | Information processing apparatus, information processing method, and program | |
KR101687017B1 (en) | Hand localization system and the method using head worn RGB-D camera, user interaction system | |
US8055061B2 (en) | Method and apparatus for generating three-dimensional model information | |
US9607439B2 (en) | Information processing apparatus and information processing method | |
JP5845211B2 (en) | Image processing apparatus and image processing method | |
JP2020514909A (en) | Mixed reality system with multi-source virtual content composition and method of using the same to generate virtual content | |
JP5762600B1 (en) | Information processing apparatus and information processing method | |
US10403045B2 (en) | Photorealistic augmented reality system | |
JP2014106543A (en) | Image processor, image processing method and program | |
JP2011028309A5 (en) | ||
JP2007042055A (en) | Image processing method and image processor | |
JP2015082288A (en) | Information processing device and control method of the same | |
JP2012053631A (en) | Information processor and information processing method | |
JP2022058753A (en) | Information processing apparatus, information processing method, and program | |
KR20110055032A (en) | Apparatus and method for generating three demension content in electronic device | |
JP2009087161A (en) | Image processor and image processing method | |
JP6618260B2 (en) | Information processing apparatus, information processing method, and program | |
JP6948801B2 (en) | Information processing equipment, control methods and programs for information processing equipment | |
JP2018063567A (en) | Image processing device, image processing method and program | |
JP7029253B2 (en) | Information processing equipment and its method | |
JP4689344B2 (en) | Information processing method and information processing apparatus | |
JP2019144958A (en) | Image processing device, image processing method, and program | |
KR101807512B1 (en) | Apparatus and Method for 3 Dimentional Interaction based on Mapping type | |
JP2016099839A (en) | Information processing apparatus, information processing method, and program | |
JP6562371B1 (en) | Display device, display processing device, and display processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200217 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210921 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6948801 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |