JP2018142273A - Information processing apparatus, method for controlling information processing apparatus, and program - Google Patents

Information processing apparatus, method for controlling information processing apparatus, and program Download PDF

Info

Publication number
JP2018142273A
JP2018142273A JP2017037530A JP2017037530A JP2018142273A JP 2018142273 A JP2018142273 A JP 2018142273A JP 2017037530 A JP2017037530 A JP 2017037530A JP 2017037530 A JP2017037530 A JP 2017037530A JP 2018142273 A JP2018142273 A JP 2018142273A
Authority
JP
Japan
Prior art keywords
model
image
virtual object
processing apparatus
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017037530A
Other languages
Japanese (ja)
Other versions
JP6948801B2 (en
Inventor
澤田 圭一
Keiichi Sawada
圭一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017037530A priority Critical patent/JP6948801B2/en
Publication of JP2018142273A publication Critical patent/JP2018142273A/en
Application granted granted Critical
Publication of JP6948801B2 publication Critical patent/JP6948801B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform both image composition and contact determination with high accuracy.SOLUTION: An information processing apparatus includes a model generation unit configured to generate a first model constituted by surfaces connecting contour points of a real object extracted from an image obtained by photographing the real object, a model acquisition unit configured to acquire a second model representing a surface shape of the real object, a contact determination unit configured to determine whether the real object and a virtual object are in contact with each other on the basis of the second model and a CG model of the virtual object, and an image composition unit configured to synthesize the virtual object with the image on the basis of the first model and the CG model of the virtual object.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置、情報処理装置の制御方法及びプログラムに関し、特に、現実物体と仮想物体とのインタラクションを実現する技術に関する。   The present invention relates to an information processing apparatus, a control method for the information processing apparatus, and a program, and more particularly, to a technique for realizing an interaction between a real object and a virtual object.

現実空間と仮想空間を融合し、体験者が仮想の物体とのインタラクションを行えるようにする複合現実感(Mixed Reality:MR)の技術がある。MR技術では、現実の風景に対して仮想物体を表すコンピュータグラフィックス(以下、「CG」と記述)を合成して提示したり、現実物体と仮想物体との接触を表現したりことで、インタラクションを実現する。   There is a mixed reality (MR) technique that fuses a real space and a virtual space so that an experiencer can interact with a virtual object. In MR technology, interaction is achieved by synthesizing and presenting computer graphics (hereinafter referred to as “CG”) representing a virtual object to a real landscape, or expressing contact between a real object and a virtual object. Is realized.

特許文献1では、撮影画像から抽出した現実物体の輪郭を結ぶことでポリゴンを生成し、そのポリゴンと仮想物体との前後関係に基づいて、撮影画像に仮想物体を合成する技術が開示されている。また、特許文献2では、撮影画像から手指形状を推定し、仮想物体との接触を判定する技術が開示されている。   Patent Document 1 discloses a technique for generating a polygon by connecting the contour of a real object extracted from a captured image, and synthesizing the virtual object with the captured image based on the front-rear relationship between the polygon and the virtual object. . Patent Document 2 discloses a technique for estimating a finger shape from a captured image and determining contact with a virtual object.

特許第5574852号公報Japanese Patent No. 5574852 特開2009−3813公報JP 2009-3813 A

しかし、特許文献1の技術で生成するポリゴンは現実物体の輪郭を結んだものであり、厚みを反映していないので、このポリゴンを用いて接触判定を行うと、厚み分だけ判定結果がずれてしまう恐れがある。また、特許文献2の技術で推定した手指形状は必ずしも輪郭線に沿ったものとはならないため、この手指形状を用いて画像合成を行うと、輪郭をはみ出して画像が合成されてしまうことがある。このように、従来の技術では、画像の合成と接触判定の両方を高精度に行うことが難しいという課題がある。   However, since the polygon generated by the technique of Patent Document 1 is obtained by connecting the contour of a real object and does not reflect the thickness, if the contact determination is performed using this polygon, the determination result is shifted by the thickness. There is a risk. In addition, since the finger shape estimated by the technique of Patent Document 2 does not necessarily follow the contour line, if image synthesis is performed using this finger shape, the image may be synthesized by protruding the contour. . As described above, the conventional technique has a problem that it is difficult to perform both image synthesis and contact determination with high accuracy.

本発明は、上記の課題に鑑みてなされたものであり、画像の合成と接触判定の両方を高精度に行うための技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a technique for performing both image synthesis and contact determination with high accuracy.

上記の目的を達成する本発明に係る情報処理装置は、
現実物体を撮影した画像から抽出した前記現実物体の輪郭点を結ぶ面で構成される第一のモデルを生成するモデル生成手段と、
前記現実物体の表面形状を表す第二のモデルを取得するモデル取得手段と、
前記第二のモデルと仮想物体のCGモデルとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定手段と、
前記第一のモデルと前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成手段と、
を備えることを特徴とする。
An information processing apparatus according to the present invention that achieves the above object is as follows.
Model generating means for generating a first model composed of a plane connecting contour points of the real object extracted from an image of the real object;
Model acquisition means for acquiring a second model representing the surface shape of the real object;
Contact determination means for determining contact between the real object and the virtual object based on the second model and a CG model of the virtual object;
Image synthesizing means for synthesizing the virtual object in the image based on the first model and the CG model of the virtual object;
It is characterized by providing.

本発明によれば、画像の合成と接触判定の両方を高精度に行うことができる。   According to the present invention, both image synthesis and contact determination can be performed with high accuracy.

実施形態1に係る情報処理装置のハードウェア構成を示す図である。2 is a diagram illustrating a hardware configuration of the information processing apparatus according to the first embodiment. FIG. 実施形態1に係る情報処理装置の機能構成を示す図である。1 is a diagram illustrating a functional configuration of an information processing apparatus according to a first embodiment. 実施形態1に係る情報処理装置が実施する処理の手順を示すフローチャートである。3 is a flowchart illustrating a procedure of processing performed by the information processing apparatus according to the first embodiment. 実施形態1に係る手指の輪郭点抽出方法の一例を示す図である。It is a figure which shows an example of the contour point extraction method of the finger which concerns on Embodiment 1. FIG. 実施形態1に係る接触判定部の処理を模式的に示す図である。It is a figure which shows typically the process of the contact determination part which concerns on Embodiment 1. FIG. 実施形態1に係る画像合成部の処理を模式的に示す図である。It is a figure which shows typically the process of the image synthetic | combination part which concerns on Embodiment 1. FIG. 実施形態1に係る輪郭モデルと表面モデルを模式的に示す図である。It is a figure which shows typically the outline model and surface model which concern on Embodiment 1. FIG. 表実施形態1に係る面モデルを用いた接触判定処理を模式的に示す図である。It is a figure which shows typically the contact determination process using the surface model which concerns on table Embodiment 1. FIG. 実施形態3に係る情報処理装置の機能構成を示す図である。It is a figure which shows the function structure of the information processing apparatus which concerns on Embodiment 3. FIG. 実施形態3に係る情報処理装置が実施する処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of processing performed by the information processing apparatus according to the third embodiment. 実施形態3に係る輪郭モデルと表面モデルの投影領域を模式的に示す図である。It is a figure which shows typically the projection area | region of the outline model and surface model which concern on Embodiment 3. FIG. 実施形態3に係る組み合わせ判断部による判断の例を示す図である。It is a figure which shows the example of the judgment by the combination judgment part which concerns on Embodiment 3. FIG. 実施形態2に係る情報処理装置が実施する処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of processing performed by the information processing apparatus according to the second embodiment. 実施形態2に係る接触判定部の処理の手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure of a contact determination unit according to the second embodiment.

以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, embodiments will be described with reference to the drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

(実施形態1)
本実施形態では、接触判定処理では現実物体の表面モデルを使用(選択)し、画像合成処理では現実物体の輪郭モデルを使用(選択)することにより、現実物体の厚みを考慮した高精度な接触判定処理と、現実物体の輪郭線に沿った綺麗な合成処理との両方を実現する例を説明する。
(Embodiment 1)
In the present embodiment, the contact determination process uses (selects) the surface model of the real object, and the image composition process uses (selects) the contour model of the real object, so that high-precision contact in consideration of the thickness of the real object is used. An example will be described in which both the determination process and the clean synthesis process along the contour of the real object are realized.

<ハードウェア構成>
図1は、本実施形態に係る情報処理装置のハードウェア構成を示す図である。情報処理装置100は、CPU101、RAM102、ROM103、HDD104、インタフェース105、システムバス106を含んで構成されている。、情報処理装置100は、インタフェース105を介してHMD(Head Mounted Display)107及びセンサ108と接続されている。
<Hardware configuration>
FIG. 1 is a diagram illustrating a hardware configuration of the information processing apparatus according to the present embodiment. The information processing apparatus 100 includes a CPU 101, a RAM 102, a ROM 103, an HDD 104, an interface 105, and a system bus 106. The information processing apparatus 100 is connected to an HMD (Head Mounted Display) 107 and a sensor 108 via an interface 105.

CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス106を介して後述する各構成を統括的に制御する。これにより、後述する様々な処理が実行される。   The CPU 101 executes a program stored in the ROM 103 using the RAM 102 as a work memory, and comprehensively controls each component to be described later via the system bus 106. Thereby, various processes described later are executed.

HDD104は、二次記憶装置としての役割を持つ。CPU101は、HDD104からのデータ読み出し、およびHDD104へのデータ書き込みが可能である。なお、二次記憶装置は、HDDの他、光ディスクドライブ等の記憶デバイスでもよい。   The HDD 104 has a role as a secondary storage device. The CPU 101 can read data from the HDD 104 and write data to the HDD 104. The secondary storage device may be a storage device such as an optical disk drive in addition to the HDD.

インタフェース105は、HMD107やセンサ108などの外部機器とのデータのやり取りを行う。HMD107は、撮影部109,110と表示部111,112とを備えており、撮影部109,110の撮影画像や後述の合成画像を表示部111,112に表示する。なお、本発明は情報処理装置100にHMD107が接続されている場合に限定されず、現実物体の撮影画像を取得できる構成であれば適用可能である。   The interface 105 exchanges data with external devices such as the HMD 107 and the sensor 108. The HMD 107 includes photographing units 109 and 110 and display units 111 and 112, and displays captured images of the photographing units 109 and 110 and a composite image described later on the display units 111 and 112. Note that the present invention is not limited to the case where the HMD 107 is connected to the information processing apparatus 100, and can be applied to any configuration that can acquire a captured image of a real object.

センサ108は、特定の現実物体の形状を計測するセンサである。以下では、センサ108が手指の形状を計測するセンサであるものとして説明を行うが、本発明はこれに限定されず、任意の現実物体を計測する場合に適用できる。センサ108として、例えば、デプスセンサ、IR(Infrared Ray)センサ、ハンドトラッキング用のデータグローブなどを用いることができる。   The sensor 108 is a sensor that measures the shape of a specific real object. In the following description, it is assumed that the sensor 108 is a sensor that measures the shape of a finger. However, the present invention is not limited to this, and can be applied to measuring an arbitrary real object. As the sensor 108, for example, a depth sensor, an IR (Infrared Ray) sensor, a data glove for hand tracking, and the like can be used.

なお、情報処理装置100の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。   In addition, although the component of the information processing apparatus 100 exists besides the above, since it is not the main point of this invention, description is abbreviate | omitted.

<機能構成>
図2は、本実施形態に係る情報処理装置の機能構成を示す図である。情報処理装置100は、画像取得部201、輪郭点抽出部202、三次元位置算出部203、輪郭モデル生成部204、表面モデル取得部205、接触判定部206、及び画像合成部207を備えている。
<Functional configuration>
FIG. 2 is a diagram illustrating a functional configuration of the information processing apparatus according to the present embodiment. The information processing apparatus 100 includes an image acquisition unit 201, a contour point extraction unit 202, a three-dimensional position calculation unit 203, a contour model generation unit 204, a surface model acquisition unit 205, a contact determination unit 206, and an image composition unit 207. .

画像取得部201は、撮影部109,110からそれぞれ撮影画像を取得する。輪郭点抽出部202は、画像取得部201により取得された撮影画像のそれぞれから手指の輪郭点を抽出する。三次元位置算出部203は、輪郭点抽出部202により抽出された輪郭点の三次元位置を算出する。   The image acquisition unit 201 acquires captured images from the imaging units 109 and 110, respectively. The contour point extraction unit 202 extracts the contour points of the fingers from each of the captured images acquired by the image acquisition unit 201. The three-dimensional position calculation unit 203 calculates the three-dimensional position of the contour point extracted by the contour point extraction unit 202.

輪郭モデル生成部204は、三次元位置算出部203により算出された輪郭点の三次元位置に基づいて、輪郭点抽出部202により抽出された輪郭点を結ぶことで輪郭モデルを生成する。表面モデル取得部205は、センサ108から手指の表面形状を表す表面モデルを取得する。   The contour model generation unit 204 generates a contour model by connecting the contour points extracted by the contour point extraction unit 202 based on the three-dimensional position of the contour points calculated by the three-dimensional position calculation unit 203. The surface model acquisition unit 205 acquires a surface model representing the surface shape of the finger from the sensor 108.

接触判定部206は、表面モデル取得部205により取得された表面モデルと仮想物体との重なりに基づいて、手指と仮想物体との接触を判定する。仮想物体の詳細については後述する。画像合成部207は、輪郭モデルと仮想物体のCGモデルとの前後関係に基づいて、画像取得部201により取得された撮影画像中に仮想物体を合成する。   The contact determination unit 206 determines contact between the finger and the virtual object based on the overlap between the surface model acquired by the surface model acquisition unit 205 and the virtual object. Details of the virtual object will be described later. The image composition unit 207 synthesizes the virtual object in the captured image acquired by the image acquisition unit 201 based on the front-rear relationship between the contour model and the CG model of the virtual object.

<処理>
また、図3は、本実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。ステップS301において、画像取得部201は、撮影部109,110からそれぞれ撮影画像を取得する。以下、撮影部109、110から取得した撮影画像をまとめて、「ステレオ画像」とも記述する。
<Processing>
FIG. 3 is a flowchart illustrating a procedure of processing performed by the information processing apparatus according to the present embodiment. In step S301, the image acquisition unit 201 acquires captured images from the imaging units 109 and 110, respectively. Hereinafter, the captured images acquired from the imaging units 109 and 110 are collectively referred to as “stereo images”.

ステップS302において、輪郭点抽出部202が、ステップS301において取得したステレオ画像のそれぞれから手指の輪郭点を抽出する。ここで図4は、手指の輪郭点抽出方法の一例を示す図である。輪郭点抽出部202は、まず、あらかじめ登録しておいた手の色に基づいて、撮影画像401,402から手指領域403,404を抽出する。そして、撮影画像401,402中の一定間隔で引かれた水平線(もしくは、エピポーラ線)と手指領域403,404との交点を輪郭点として抽出する。なお、本発明における輪郭点抽出はこの方法に限定されず、任意の方法で手指の輪郭点を抽出することができる。   In step S302, the contour point extraction unit 202 extracts the contour points of the fingers from each of the stereo images acquired in step S301. Here, FIG. 4 is a diagram illustrating an example of a finger contour point extraction method. The contour point extraction unit 202 first extracts finger regions 403 and 404 from the captured images 401 and 402 based on the hand color registered in advance. Then, intersection points between horizontal lines (or epipolar lines) drawn at regular intervals in the captured images 401 and 402 and the finger regions 403 and 404 are extracted as contour points. Note that contour point extraction in the present invention is not limited to this method, and contour points of fingers can be extracted by any method.

ステップS303において、三次元位置算出部203は、ステップS302で抽出された輪郭点の三次元位置を算出する。ここで、三次元位置の算出には任意の方法を用いることができる。例えば、特許文献1に記載されているように、撮影画像401,402のそれぞれから抽出した輪郭点の対応付けを行い、三角測量技術を適用することで、輪郭点の三次元位置を算出することができる。   In step S303, the three-dimensional position calculation unit 203 calculates the three-dimensional position of the contour point extracted in step S302. Here, any method can be used to calculate the three-dimensional position. For example, as described in Patent Document 1, the contour points extracted from the captured images 401 and 402 are associated with each other, and the three-dimensional position of the contour points is calculated by applying a triangulation technique. Can do.

ステップS304において、輪郭モデル生成部204は、ステップS302で抽出された輪郭点を結ぶことで手指の輪郭モデルを生成する。その際、輪郭モデル生成部204は、ステップS303で算出された三次元位置を用いることで、三次元ポリゴンとして輪郭モデルを生成する。輪郭モデルの詳細については後述する。   In step S304, the contour model generation unit 204 generates a finger contour model by connecting the contour points extracted in step S302. At that time, the contour model generation unit 204 generates a contour model as a three-dimensional polygon by using the three-dimensional position calculated in step S303. Details of the contour model will be described later.

ステップS305において、表面モデル取得部205は、センサ108から手指の表面形状を表す表面モデルを取得する。手指の表面モデルの詳細については後述する。   In step S <b> 305, the surface model acquisition unit 205 acquires a surface model representing the surface shape of the finger from the sensor 108. Details of the finger surface model will be described later.

ステップS306において、接触判定部206は、ステップS305で取得された表面モデルと仮想物体のCGモデルとの重なりに基づいて、手指と仮想物体との接触を判定する。ここで、図5は、本実施形態に係る接触判定部206の処理を模式的に示す図である。図5(a)は手指501と仮想物体502とが接触していない状態を示しており、図5(b)は手指501と仮想物体502とが接触している状態を示している。接触判定部206は、仮想物体502の形状を表すCGモデルをRAM102、ROM103、HDD104などから取得し、手指501の形状を表す表面モデルとの重なりの有無を調べることで、手指501と仮想物体502との接触を判定する。   In step S306, the contact determination unit 206 determines the contact between the finger and the virtual object based on the overlap between the surface model acquired in step S305 and the CG model of the virtual object. Here, FIG. 5 is a diagram schematically illustrating processing of the contact determination unit 206 according to the present embodiment. FIG. 5A shows a state where the finger 501 and the virtual object 502 are not in contact, and FIG. 5B shows a state where the finger 501 and the virtual object 502 are in contact. The contact determination unit 206 acquires a CG model representing the shape of the virtual object 502 from the RAM 102, the ROM 103, the HDD 104, and the like, and checks whether or not there is an overlap with the surface model representing the shape of the finger 501 so that the finger 501 and the virtual object 502 are overlapped. Judging contact with.

ステップS307において、画像合成部207は、ステップS304で生成された輪郭モデルと、仮想物体502のCGモデルとの前後関係に基づいて、撮影画像401,402上に仮想物体502を合成する。ここで、図6は、本実施形態に係る画像合成部207の処理を模式的に示す図である。図6(a)は手指501が仮想物体502の手前にある状態を示しており、図6(b)は手指501が仮想物体502の奥にある状態を示している。図6(a)では仮想物体502の一部が手指501に隠され、図6(b)では手指501の一部が仮想物体502に隠されている。画像合成部207は、手指501と仮想物体502との前後関係に基づいてレンダリング処理を行うことで、合成画像を生成する。   In step S <b> 307, the image composition unit 207 synthesizes the virtual object 502 on the captured images 401 and 402 based on the front and back relationship between the contour model generated in step S <b> 304 and the CG model of the virtual object 502. Here, FIG. 6 is a diagram schematically illustrating processing of the image composition unit 207 according to the present embodiment. 6A shows a state in which the finger 501 is in front of the virtual object 502, and FIG. 6B shows a state in which the finger 501 is behind the virtual object 502. 6A, a part of the virtual object 502 is hidden by the finger 501 and a part of the finger 501 is hidden by the virtual object 502 in FIG. The image composition unit 207 generates a composite image by performing a rendering process based on the front-rear relationship between the finger 501 and the virtual object 502.

具体的には、撮影部109,110から手指501と仮想物体502までの距離をそれぞれ算出し、各画素について手指501と仮想物体502とのうちのより近い方を描画する。また、画像合成部207は、接触判定部206による判定結果に基づいて、合成された画像上の仮想物体502を点滅させたり動かしたりすることで、合成された画像上の仮想物体502の表示態様を動的に変更してもよい。例えば、接触している場合に点滅させたり、動かしたりすればよい。これにより、手指501と仮想物体502とのインタラクションを実現することができる。   Specifically, the distances from the photographing units 109 and 110 to the finger 501 and the virtual object 502 are respectively calculated, and the closer one of the finger 501 and the virtual object 502 is drawn for each pixel. Further, the image composition unit 207 blinks or moves the virtual object 502 on the synthesized image based on the determination result by the contact determination unit 206, thereby displaying the display mode of the virtual object 502 on the synthesized image. May be changed dynamically. For example, it may be blinked or moved when touching. Thereby, the interaction between the finger 501 and the virtual object 502 can be realized.

以下では、図7を参照して、輪郭モデルと表面モデルの特徴について説明する。図7(a)は輪郭モデル701を模式的に示し、図7(b)は表面モデル702を模式的に示している。図7(a)に示すように、輪郭モデル701は輪郭点抽出部202が抽出した輪郭点を結んだモデルであるため、その形状は撮影画像401,402上の手指501の輪郭線に沿ったものとなる。そのため、画像合成部207の処理において手指501の形状を表すために輪郭モデル701を用いると、手指501の輪郭線に沿って綺麗に合成を行うことができる(輪郭のはみ出しを少なくすることができる)。しかし、輪郭モデル701は輪郭以外の部分(手のひらや手の甲など、手指501の内部)に頂点を持たないため、手指501の厚みを反映することができない。そのため、接触判定部206の処理において手指501の形状を輪郭モデル701で表すと、手指501の厚み分だけ判定結果がずれてしまう。   Hereinafter, the features of the contour model and the surface model will be described with reference to FIG. FIG. 7A schematically shows the contour model 701, and FIG. 7B schematically shows the surface model 702. As shown in FIG. 7A, since the contour model 701 is a model that connects the contour points extracted by the contour point extraction unit 202, the shape thereof follows the contour line of the finger 501 on the captured images 401 and 402. It becomes a thing. Therefore, when the contour model 701 is used to represent the shape of the finger 501 in the processing of the image composition unit 207, it is possible to perform a beautiful composition along the contour line of the finger 501 (the protrusion of the contour can be reduced). ). However, since the contour model 701 does not have a vertex in a portion other than the contour (the inside of the finger 501 such as the palm or the back of the hand), the thickness of the finger 501 cannot be reflected. Therefore, if the shape of the finger 501 is represented by the contour model 701 in the processing of the contact determination unit 206, the determination result is shifted by the thickness of the finger 501.

一方、図7(b)に示すように、表面モデル702は、手指の関節を結ぶボーンに対して手指の厚み分だけ肉付けを行うことで生成される手指の表面形状を表すモデルであり、手指501の厚みを反映したモデルである。そのため、接触判定部206の処理において手指501の形状を表面モデル702で表すと、手指501の厚みを考慮した高精度な接触判定を行うことができる。しかし、表面モデル702は、輪郭点を結んだ輪郭モデル701とは異なり、撮影画像401,402上の手指501の輪郭線に沿った形状であるとは限らない。なぜなら、関節の位置や手指の厚みが実際と異なると、その分だけ撮影画像401,402上の手指501の輪郭線からずれるからである。そのため、画像合成部207の処理において手指501の形状を表面モデル702で表すと、手指501と仮想物体502の輪郭線に沿って綺麗に合成を行うことができない(輪郭のはみ出しが多くなってしまう)。   On the other hand, as shown in FIG. 7B, the surface model 702 is a model representing the surface shape of the finger generated by fleshing the bone connecting the finger joints by the thickness of the finger. This model reflects the thickness of 501. Therefore, when the shape of the finger 501 is represented by the surface model 702 in the processing of the contact determination unit 206, it is possible to perform highly accurate contact determination in consideration of the thickness of the finger 501. However, unlike the contour model 701 in which contour points are connected, the surface model 702 does not necessarily have a shape along the contour line of the finger 501 on the captured images 401 and 402. This is because, if the joint position and finger thickness are different from the actual ones, the contours of the fingers 501 on the captured images 401 and 402 are deviated accordingly. For this reason, when the shape of the finger 501 is represented by the surface model 702 in the processing of the image composition unit 207, it is not possible to cleanly synthesize along the contour line of the finger 501 and the virtual object 502 (the contours increase in number). ).

これに対し、本発明の主眼は、接触判定部206及び画像合成部207の処理において、輪郭モデル701及び表面モデル702という複数のモデルを適切に用いることである。特に、本実施形態では、接触判定部206の処理に表面モデル702を用い、画像合成部207の処理に輪郭モデル701を用いる。これによって、手指501の厚みを考慮した高精度な接触判定処理と、手指501の輪郭線に沿った綺麗な合成処理との両方を同時に実現することができる。   On the other hand, the main point of the present invention is to appropriately use a plurality of models such as the contour model 701 and the surface model 702 in the processing of the contact determination unit 206 and the image composition unit 207. In particular, in the present embodiment, the surface model 702 is used for the processing of the contact determination unit 206, and the contour model 701 is used for the processing of the image composition unit 207. Thereby, both a highly accurate contact determination process considering the thickness of the finger 501 and a beautiful composition process along the contour line of the finger 501 can be realized at the same time.

なお、手指501の表面モデルを撮影画像401,402に投影し、その結果を半透明表示するなどして、表面モデルが撮影画像401,402上のどこにあるかをユーザが認識できるようにしてもよい。   The surface model of the finger 501 is projected on the captured images 401 and 402, and the result is displayed semi-transparently so that the user can recognize where the surface model is on the captured images 401 and 402. Good.

以上説明したように、本実施形態では、接触判定処理では現実物体の表面モデルを使用し、画像合成処理では現実物体の輪郭モデルを使用する。これにより、現実物体の厚みを考慮した高精度な接触判定処理と、現実物体の輪郭線に沿った綺麗な合成処理との両方を実現することができる。   As described above, in this embodiment, the surface model of the real object is used in the contact determination process, and the contour model of the real object is used in the image composition process. Thereby, it is possible to realize both a highly accurate contact determination process in consideration of the thickness of the real object and a beautiful synthesis process along the contour line of the real object.

(実施形態2)
実施形態1では、接触判定部206の処理に表面モデル702を用い、画像合成部207の処理に輪郭モデル701を用いる例を説明した。これに対し、本実施形態では、接触判定部206の処理に輪郭モデル701と表面モデル702との両方を用いることで、より違和感の少ない接触判定処理を実現する例を説明する。すなわち、本実施形態と実施形態1とは、接触判定部206の処理に輪郭モデル701と表面モデル702との両方を用いる点が主として異なる。したがって、本実施形態の説明において、実施形態1と同一の部分については、図1〜図7に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Embodiment 2)
In the first embodiment, the example in which the surface model 702 is used for the processing of the contact determination unit 206 and the contour model 701 is used for the processing of the image composition unit 207 has been described. In contrast, in this embodiment, an example will be described in which contact determination processing with less discomfort is realized by using both the contour model 701 and the surface model 702 for the processing of the contact determination unit 206. That is, the present embodiment is different from the first embodiment mainly in that both the contour model 701 and the surface model 702 are used for the processing of the contact determination unit 206. Therefore, in the description of the present embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals as those in FIGS.

<処理>
図13は、本実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。なお、図13におけるステップS301〜S305及びS307の各処理は、それぞれ実施形態1で図3を参照して説明した各処理と同様であるため、説明を省略する。
<Processing>
FIG. 13 is a flowchart illustrating a procedure of processing performed by the information processing apparatus according to the present embodiment. Note that the processes in steps S301 to S305 and S307 in FIG. 13 are the same as the processes described with reference to FIG.

ステップS1301において、接触判定部206は、輪郭モデル701、表面モデル702と仮想物体502との重なりに基づいて、手指501と仮想物体502との接触を判定する。詳細は後述する。   In step S <b> 1301, the contact determination unit 206 determines contact between the finger 501 and the virtual object 502 based on the overlap between the contour model 701 and the surface model 702 and the virtual object 502. Details will be described later.

ここで図8は、表面モデル702を用いた接触判定処理を模式的に示す図である。以下では、図8を参照して、表面モデル702を用いた接触判定処理の問題点を説明する。図8に示すように、表面モデル702を撮影画像401,402に投影すると、その形状が手指501の輪郭線に沿っていない場合がある。そのため、撮影画像401,402上で手指501が仮想物体502に重なっていない場合でも、手指501と仮想物体502とが接触していると判定される場合がある。これは、MR体験を行っているユーザの視覚情報と接触判定との間に不整合がある状態であり、ユーザに違和感を与えてしまう。本実施形態では、こうした問題を解決するために、仮想物体502の形状を表すCGモデルと表面モデル702とが重なっており、かつ、撮影画像401,402上で手指501が仮想物体502に重なっている場合に、両者が接触していると判定する。このように判定することで、ユーザの視覚上(撮影画像401,402上)で接触していないにも関わらず、接触していると判定されることを防ぐことができる。   Here, FIG. 8 is a diagram schematically showing a contact determination process using the surface model 702. Below, with reference to FIG. 8, the problem of the contact determination process using the surface model 702 is demonstrated. As shown in FIG. 8, when the surface model 702 is projected onto the captured images 401 and 402, the shape may not follow the contour line of the finger 501. Therefore, even when the finger 501 does not overlap the virtual object 502 on the captured images 401 and 402, it may be determined that the finger 501 and the virtual object 502 are in contact with each other. This is a state where there is a mismatch between the visual information of the user who is performing the MR experience and the contact determination, which gives the user a sense of incongruity. In the present embodiment, in order to solve such a problem, the CG model representing the shape of the virtual object 502 and the surface model 702 overlap, and the finger 501 overlaps the virtual object 502 on the captured images 401 and 402. It is determined that the two are in contact. By making such a determination, it is possible to prevent the user from being determined to be in contact with the user's visual sense (on the captured images 401 and 402).

続いて、図14は、本実施形態に係る接触判定部の処理の手順を示すフローチャートである。ステップS1401において、接触判定部206は、表面モデル702と仮想物体502との重なりを判定する。ステップS1401で重なっていないと判定された場合、ステップS1402において、接触判定部206は、手指501と仮想物体502とが接触していないと判定し、処理を終了する。一方、ステップS1401で重なっていると判定された場合、ステップS1403へ進む。   Next, FIG. 14 is a flowchart illustrating a processing procedure of the contact determination unit according to the present embodiment. In step S1401, the contact determination unit 206 determines the overlap between the surface model 702 and the virtual object 502. If it is determined in step S1401 that they do not overlap, in step S1402, the contact determination unit 206 determines that the finger 501 and the virtual object 502 are not in contact, and ends the process. On the other hand, if it is determined in step S1401 that they overlap, the process proceeds to step S1403.

ステップS1403において、接触判定部206は、輪郭モデル701と仮想物体502とを、撮影画像401,402に投影する。ステップS1404において、接触判定部206は、輪郭モデル701の投影結果と仮想物体502の投影結果とが重なっているか判定する。ステップS1404で重なっていないと判定された場合、ステップS1402へ進み、接触判定部206は、手指501と仮想物体502とが接触していないと判定し、処理を終了する。一方、ステップS1404で重なっていると判定された場合、ステップS1405へ進み、接触判定部206は、手指501と仮想物体502とが接触していると判定し、処理を終了する。   In step S1403, the contact determination unit 206 projects the contour model 701 and the virtual object 502 onto the captured images 401 and 402. In step S1404, the contact determination unit 206 determines whether the projection result of the contour model 701 and the projection result of the virtual object 502 overlap. If it is determined in step S1404 that they do not overlap, the process proceeds to step S1402, and the contact determination unit 206 determines that the finger 501 and the virtual object 502 are not in contact with each other, and ends the process. On the other hand, if it is determined in step S1404 that they overlap, the process proceeds to step S1405, and the contact determination unit 206 determines that the finger 501 and the virtual object 502 are in contact, and ends the process.

なお、ステップS1404における輪郭モデル701の投影領域の代わりに、ステップS302で抽出した手指領域403,404を利用してもよい。その他の処理については、実施形態1と同様であるため、説明を省略する。   Note that the finger areas 403 and 404 extracted in step S302 may be used instead of the projection area of the contour model 701 in step S1404. Since other processes are the same as those in the first embodiment, the description thereof is omitted.

以上説明したように、本実施形態では、仮想物体502の形状を表すCGモデルと表面モデル702とが重なっており、かつ、撮影画像401,402上で手指501が仮想物体502に重なっている場合に、両者が接触していると判定する。これにより、撮影画像401,402上で手指501と仮想物体502とが重なっていない場合に、手指501と仮想物体502が接触していると判定されることを防ぐことができる。   As described above, in this embodiment, the CG model representing the shape of the virtual object 502 and the surface model 702 overlap, and the finger 501 overlaps the virtual object 502 on the captured images 401 and 402. In addition, it is determined that both are in contact. Accordingly, it is possible to prevent the finger 501 and the virtual object 502 from being determined to be in contact with each other when the finger 501 and the virtual object 502 do not overlap on the captured images 401 and 402.

(実施形態3)
実施形態1及び実施形態2では、接触判定部206と画像合成部207の処理に、あらかじめ決められた輪郭モデル701と表面モデル702との組み合わせを用いる例を説明した。これに対し、本実施形態では、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702との組み合わせを判断し、その判断結果に基づいて処理を行う例を説明する。本実施形態と実施形態1及び実施形態2とは、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702との組み合わせを判断する点が主として異なる。したがって、本実施形態の説明において、実施形態1及び実施形態2と同一の部分については、図1〜図8に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Embodiment 3)
In the first embodiment and the second embodiment, an example in which a predetermined combination of the contour model 701 and the surface model 702 is used for the processing of the contact determination unit 206 and the image composition unit 207 has been described. On the other hand, in the present embodiment, an example will be described in which a combination of the contour model 701 and the surface model 702 used for processing of the contact determination unit 206 and the image composition unit 207 is determined, and processing is performed based on the determination result. The present embodiment is different from Embodiments 1 and 2 mainly in that the combination of the contour model 701 and the surface model 702 used for the processing of the contact determination unit 206 and the image composition unit 207 is determined. Therefore, in the description of the present embodiment, the same parts as those in the first and second embodiments are denoted by the same reference numerals as those in FIGS.

<機能構成>
図9は、本実施形態に係る情報処理装置の機能構成を示す図である。情報処理装置100は、実施形態1、2に関して図2を参照して説明した構成に加えて、組み合わせ判断部901をさらに備えている。組み合わせ判断部901は、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702との組み合わせを判断する。判断処理の詳細は後述する。
<Functional configuration>
FIG. 9 is a diagram illustrating a functional configuration of the information processing apparatus according to the present embodiment. The information processing apparatus 100 further includes a combination determination unit 901 in addition to the configuration described with reference to FIG. The combination determination unit 901 determines a combination of the contour model 701 and the surface model 702 used for processing by the contact determination unit 206 and the image composition unit 207. Details of the determination process will be described later.

<処理>
図10は、本実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。なお、ステップS301〜S305の各処理は、実施形態1で図3を参照して説明した処理と同様であるため、説明を省略する。
<Processing>
FIG. 10 is a flowchart illustrating a procedure of processing performed by the information processing apparatus according to the present embodiment. Note that the processing in steps S301 to S305 is the same as the processing described with reference to FIG.

ステップS1001において、組み合わせ判断部901は、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702の組み合わせを判断する。組み合わせ判断部901の処理の詳細は後述する。   In step S <b> 1001, the combination determination unit 901 determines a combination of the contour model 701 and the surface model 702 that are used for processing by the contact determination unit 206 and the image composition unit 207. Details of the processing of the combination determination unit 901 will be described later.

ステップS1002において、接触判定部206は、ステップS1001で判断された組み合わせのモデルを用いて、手指501と仮想物体502との接触を判定する。接触判定方法は実施形態1と同様であるため、説明を省略する。   In step S1002, the contact determination unit 206 determines contact between the finger 501 and the virtual object 502 using the combination model determined in step S1001. Since the contact determination method is the same as that of the first embodiment, the description thereof is omitted.

ステップS1003において、画像合成部207は、ステップS1001で判断された組み合わせのモデルを用いて、撮影画像401,402上に仮想物体502を合成する。画像合成方法は実施形態1と同様であるため、説明を省略する。   In step S1003, the image composition unit 207 synthesizes the virtual object 502 on the captured images 401 and 402 using the combination model determined in step S1001. Since the image composition method is the same as that of the first embodiment, the description thereof is omitted.

ここで、図11は、輪郭モデル701と表面モデル702の投影領域を模式的に示す図である。以下では、図11を参照して、組み合わせ判断部901の処理で算出する投影領域の重なり度合について説明する。   Here, FIG. 11 is a diagram schematically showing the projection areas of the contour model 701 and the surface model 702. Below, with reference to FIG. 11, the overlapping degree of the projection area calculated by the process of the combination determination part 901 is demonstrated.

組み合わせ判断部901は、輪郭モデル701と表面モデル702との両方を撮影画像401,402に投影し、輪郭モデル701の投影領域1101と、表面モデル702の投影領域1102との重なり度合に応じて組み合わせを判断する。重なり度合を示す指標として、例えば、以下の式で表されるF値を用いることができる。   The combination determination unit 901 projects both the contour model 701 and the surface model 702 on the captured images 401 and 402, and combines them according to the degree of overlap between the projection region 1101 of the contour model 701 and the projection region 1102 of the surface model 702. Judging. As an index indicating the degree of overlap, for example, an F value represented by the following equation can be used.

Figure 2018142273
Figure 2018142273

ここで、TPは「輪郭モデルの投影領域1101」と「表面モデルの投影領域1102」の論理和領域、FNは「輪郭モデルの投影領域1101」と「表面モデルの投影領域1102の論理否定」の論理和領域の画素数である。また、FPは「輪郭モデルの投影領域1101の論理否定」と「表面モデルの投影領域1102」の論理和領域、TNは「輪郭モデルの投影領域1101の論理否定」と「表面モデルの投影領域1102の論理否定」の論理和領域の画素数である。なお、本発明は重なり度合にF値を用いる場合に限定されず、重なり度合として任意の他の指標を用いることができる。   Here, TP is a logical sum area of “contour model projection area 1101” and “surface model projection area 1102”, and FN is “contour model projection area 1101” and “logical model negative of surface model projection area 1102”. This is the number of pixels in the logical sum area. Further, FP is a logical sum area of “logical contour projection area 1101” and “surface model projection area 1102”, and TN is “logical negation of contour model projection area 1101” and “surface model projection area 1102”. This is the number of pixels in the logical sum area of “logical negation of”. Note that the present invention is not limited to the case where the F value is used for the overlapping degree, and any other index can be used as the overlapping degree.

続いて、図12は、組み合わせ判断部901による判断の例を示す図である。以下では、図12を参照して、組み合わせ判断部901の処理の詳細について説明する。以下の例では、輪郭モデルの投影領域1101と表面モデルの投影領域1102との重なり度合があらかじめ決められた閾値以上か閾値未満かによって組み合わせを判断する。   Next, FIG. 12 is a diagram illustrating an example of determination by the combination determination unit 901. Hereinafter, with reference to FIG. 12, details of the processing of the combination determination unit 901 will be described. In the following example, the combination is determined based on whether the degree of overlap between the projection area 1101 of the contour model and the projection area 1102 of the surface model is greater than or less than a predetermined threshold.

図12の例1では、重なり度合が閾値以上(高い)である場合は接触判定に表面モデル702、画像合成に輪郭モデル701を用い、重なり度合が閾値未満(低い)である場合は接触判定に用いるモデルを輪郭モデル701に切り替える。すなわち、どちらの処理でも輪郭モデルを使用する。また、例2では、重なり度合が閾値未満である場合は画像合成に用いるモデルを表面モデル702に切り替える。すなわち、どちらの処理でも表面モデルを使用する。   In Example 1 of FIG. 12, when the degree of overlap is equal to or greater than a threshold (high), the surface model 702 is used for contact determination, and the contour model 701 is used for image composition, and when the degree of overlap is less than the threshold (low), The model to be used is switched to the contour model 701. That is, the contour model is used in both processes. In Example 2, when the degree of overlap is less than the threshold, the model used for image composition is switched to the surface model 702. That is, the surface model is used for both processes.

これらの処理によって、重なり度合が高い場合には接触判定と画像合成の両方を高精度に行いつつ、重なり度合が低い場合には接触判定の結果と画像合成の結果とが異なることによる違和感を防ぐことができる。   With these processes, when the degree of overlap is high, both contact determination and image composition are performed with high accuracy, and when the degree of overlap is low, the sense of discomfort caused by the difference between the result of contact determination and the result of image composition is prevented. be able to.

なお、本発明は図12の例に限定されず、任意の組み合わせを判定できる。また、実施形態2と同様に、1つの処理について輪郭モデル701と表面モデル702との両方を用いるように組み合わせを判断してもよい。また、本発明は輪郭モデル701と表面モデル702との組み合わせを判断するのに重なり度合を用いる場合に限定されない。例えば、高精度モードや速度優先モードなどのモード設定に応じてモデルの組み合わせを判断してもよい。その場合、例えば、高精度モードでは接触判定と画像合成とに異なるモデルを用い、速度優先モードでは接触判定と画像合成とに同じモデルを用いる。   In addition, this invention is not limited to the example of FIG. 12, Arbitrary combinations can be determined. Further, as in the second embodiment, the combination may be determined so that both the contour model 701 and the surface model 702 are used for one process. Further, the present invention is not limited to the case where the overlapping degree is used to determine the combination of the contour model 701 and the surface model 702. For example, the combination of models may be determined according to mode settings such as a high accuracy mode and a speed priority mode. In this case, for example, different models are used for contact determination and image composition in the high accuracy mode, and the same model is used for contact determination and image composition in the speed priority mode.

また、ユーザが表面モデル702と輪郭モデル701との組み合わせを直接指定するようにしてもよい。また、重なり度合があらかじめ設定した閾値よりも低い場合にユーザに警告を行うようにしてもよい。警告の方法は自由であるが、例えば、表示部111,112に文章で警告を出力したり、不図示のスピーカから音を鳴らしたりすることで警告を行ってもよい。   Further, the user may directly specify the combination of the surface model 702 and the contour model 701. Further, a warning may be given to the user when the degree of overlap is lower than a preset threshold value. Although the warning method is arbitrary, for example, the warning may be output by outputting a warning in text on the display units 111 and 112 or by sounding from a speaker (not shown).

以上説明したように、本実施形態では、接触判定部206と画像合成部207の処理に用いる輪郭モデル701と表面モデル702との組み合わせを判断し、その判断結果に基づいて処理を行う。これによって、適したモデルの組み合わせで処理を行い、より高精度に接触判定と画像合成とを行うことができる。   As described above, in the present embodiment, the combination of the contour model 701 and the surface model 702 used for processing of the contact determination unit 206 and the image composition unit 207 is determined, and processing is performed based on the determination result. Thus, processing can be performed with a suitable combination of models, and contact determination and image synthesis can be performed with higher accuracy.

[変形例]
以上説明した各実施形態では、センサ108から取得した表面モデル702を利用する場合を例に挙げて説明した。しかしながら、本発明はこれに限定されず、センサ108から取得した情報(デプス画像やIR画像など)や撮影画像401,402を利用して表面モデル702を生成し、それを利用してもかまわない。
[Modification]
In each embodiment described above, the case where the surface model 702 acquired from the sensor 108 is used has been described as an example. However, the present invention is not limited to this, and the surface model 702 may be generated using information (depth image, IR image, etc.) acquired from the sensor 108 or the captured images 401 and 402, and the surface model 702 may be used. .

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:情報処理装置、201:画像取得部、202:輪郭点抽出部、203:三次元位置算出部、204:輪郭モデル生成部、205:表面モデル取得部、206:接触判定部、207:画像合成部、901:組み合わせ判断部   100: Information processing device 201: Image acquisition unit 202: Contour point extraction unit 203: Three-dimensional position calculation unit 204: Contour model generation unit 205: Surface model acquisition unit 206: Contact determination unit 207: Image Combining unit, 901: combination determining unit

Claims (13)

現実物体を撮影した画像から抽出した前記現実物体の輪郭点を結ぶ面で構成される第一のモデルを生成するモデル生成手段と、
前記現実物体の表面形状を表す第二のモデルを取得するモデル取得手段と、
前記第二のモデルと仮想物体のCGモデルとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定手段と、
前記第一のモデルと前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成手段と、
を備えることを特徴とする情報処理装置。
Model generating means for generating a first model composed of a plane connecting contour points of the real object extracted from an image of the real object;
Model acquisition means for acquiring a second model representing the surface shape of the real object;
Contact determination means for determining contact between the real object and the virtual object based on the second model and a CG model of the virtual object;
Image synthesizing means for synthesizing the virtual object in the image based on the first model and the CG model of the virtual object;
An information processing apparatus comprising:
前記接触判定手段は、前記第二のモデルと仮想物体のCGモデルとの重なりに基づいて前記接触を判定することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the contact determination unit determines the contact based on an overlap between the second model and a CG model of a virtual object. 前記画像合成手段は、前記第一のモデルと前記仮想物体の前記CGモデルとの前後関係に基づいて前記画像中に前記仮想物体を合成することを特徴とする請求項1又は2に記載の情報処理装置。   3. The information according to claim 1, wherein the image synthesizing unit synthesizes the virtual object in the image based on a front-to-back relationship between the first model and the CG model of the virtual object. Processing equipment. 前記接触判定手段は、前記第二のモデルと仮想物体のCGモデルとが重なっており、且つ、前記第一のモデルの前記画像への投影領域と前記仮想物体の前記CGモデルの前記画像への投影領域とが重なっている場合に、前記現実物体と前記仮想物体とが接触していると判定することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。   In the contact determination means, the second model and the CG model of the virtual object overlap each other, and the projection area of the first model on the image and the image of the CG model of the virtual object on the image 4. The information processing apparatus according to claim 1, wherein when the projection area overlaps, the information processing apparatus determines that the real object and the virtual object are in contact with each other. 前記接触判定手段は、前記第二のモデルと仮想物体のCGモデルとが重なっていても、前記第一のモデルの前記画像への投影領域と前記仮想物体の前記CGモデルの前記画像への投影領域とが重なっていない場合には、前記現実物体と前記仮想物体とが接触していないと判定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。   The contact determination means projects the projection area of the first model onto the image and the image of the CG model of the virtual object onto the image even if the second model and the CG model of the virtual object overlap. 5. The information processing apparatus according to claim 1, wherein when the area does not overlap, the information processing apparatus determines that the real object and the virtual object are not in contact with each other. 前記第一のモデルの前記画像への投影領域と前記第二のモデルの前記画像への投影領域との重なり度合に基づいて、前記第一のモデルと前記第二のモデルとの組み合わせを判断する組み合わせ判断手段をさらに備え、
前記組み合わせ判断手段は、前記重なり度合が閾値以上である場合には、前記接触判定手段の処理で前記第二のモデルを使用し、前記画像合成手段の処理で前記第一のモデルを使用するように判断することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
A combination of the first model and the second model is determined based on the degree of overlap between the projection area of the first model onto the image and the projection area of the second model onto the image. It further comprises a combination judgment means,
The combination determination unit uses the second model in the processing of the contact determination unit and uses the first model in the processing of the image synthesis unit when the degree of overlap is equal to or greater than a threshold value. The information processing apparatus according to claim 1, wherein the information processing apparatus determines whether or not the information processing apparatus is in an appropriate state.
現実物体を撮影した画像から抽出した前記現実物体の輪郭点を結ぶ面で構成される第一のモデルを生成するモデル生成手段と、
前記現実物体の表面形状を表す第二のモデルを取得するモデル取得手段と、
前記第一のモデルの前記画像への投影領域と前記第二のモデルの前記画像への投影領域との重なり度合に基づき前記第一のモデルまたは前記第二のモデルから選択されたいずれかのモデルと、仮想物体のCGモデルとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定手段と、
前記第一のモデルの前記画像への投影領域と前記第二のモデルの前記画像への投影領域との重なり度合に基づき前記第一のモデルまたは前記第二のモデルから選択されたいずれかのモデルと、前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成手段と、
を備えることを特徴とする情報処理装置。
Model generating means for generating a first model composed of a plane connecting contour points of the real object extracted from an image of the real object;
Model acquisition means for acquiring a second model representing the surface shape of the real object;
One model selected from the first model or the second model based on the degree of overlap between the projection area of the first model onto the image and the projection area of the second model onto the image Contact determination means for determining contact between the real object and the virtual object based on a CG model of the virtual object;
One model selected from the first model or the second model based on the degree of overlap between the projection area of the first model onto the image and the projection area of the second model onto the image Image synthesizing means for synthesizing the virtual object in the image based on the CG model of the virtual object;
An information processing apparatus comprising:
前記接触判定手段は、前記重なり度合が閾値未満である場合には、前記第一のモデルを選択し、前記画像合成手段は、前記重なり度合が閾値未満である場合には、前記第一のモデルを選択することを特徴とする請求項7に記載の情報処理装置。   The contact determination means selects the first model when the degree of overlap is less than a threshold, and the image composition means selects the first model when the degree of overlap is less than a threshold. The information processing apparatus according to claim 7, wherein the information processing apparatus is selected. 前記接触判定手段は、前記重なり度合が閾値未満である場合には、前記第二のモデルを選択し、前記画像合成手段は、前記重なり度合が閾値未満である場合には、前記第二のモデルを選択することを特徴とする請求項7に記載の情報処理装置。   The contact determination means selects the second model when the degree of overlap is less than a threshold value, and the image composition means selects the second model when the degree of overlap is less than a threshold value. The information processing apparatus according to claim 7, wherein the information processing apparatus is selected. 前記重なり度合が閾値未満である場合に警告を出力する警告手段をさらに備えることを特徴とする請求項7乃至9の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 7, further comprising a warning unit that outputs a warning when the degree of overlap is less than a threshold value. 前記画像合成手段は、前記接触判定手段の判定結果に基づいて、合成された画像上の前記仮想物体の表示態様を動的に変更することを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。   The said image synthetic | combination means dynamically changes the display mode of the said virtual object on the synthetic | combination image based on the determination result of the said contact determination means. The information processing apparatus described in 1. 情報処理装置の制御方法であって、
現実物体を撮影した画像から抽出した前記現実物体の輪郭点を結ぶ面で構成される第一のモデルを生成するモデル生成工程と、
前記現実物体の表面形状を表す第二のモデルを取得するモデル取得工程と、
前記第二のモデルと仮想物体のCGモデルとに基づいて前記現実物体と前記仮想物体との接触を判定する接触判定工程と、
前記第一のモデルと前記仮想物体の前記CGモデルとに基づいて前記画像中に前記仮想物体を合成する画像合成工程と、
を有することを特徴とする情報処理装置の制御方法。
A method for controlling an information processing apparatus,
A model generation step of generating a first model composed of surfaces connecting contour points of the real object extracted from an image obtained by photographing the real object;
A model acquisition step of acquiring a second model representing the surface shape of the real object;
A contact determination step of determining contact between the real object and the virtual object based on the second model and a CG model of the virtual object;
An image synthesis step of synthesizing the virtual object in the image based on the first model and the CG model of the virtual object;
A method for controlling an information processing apparatus, comprising:
コンピュータを、請求項1乃至11の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus of any one of Claims 1 thru | or 11.
JP2017037530A 2017-02-28 2017-02-28 Information processing equipment, control methods and programs for information processing equipment Active JP6948801B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017037530A JP6948801B2 (en) 2017-02-28 2017-02-28 Information processing equipment, control methods and programs for information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017037530A JP6948801B2 (en) 2017-02-28 2017-02-28 Information processing equipment, control methods and programs for information processing equipment

Publications (2)

Publication Number Publication Date
JP2018142273A true JP2018142273A (en) 2018-09-13
JP6948801B2 JP6948801B2 (en) 2021-10-13

Family

ID=63528028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017037530A Active JP6948801B2 (en) 2017-02-28 2017-02-28 Information processing equipment, control methods and programs for information processing equipment

Country Status (1)

Country Link
JP (1) JP6948801B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068405A (en) * 2019-10-24 2021-04-30 未來市股▲ふん▼有限公司 Virtual object operating system and virtual object operating method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185456A (en) * 1995-04-28 1997-07-15 Matsushita Electric Ind Co Ltd Interface device
JP2007333679A (en) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp Three-dimensional position correcting apparatus
JP2008071158A (en) * 2006-09-14 2008-03-27 Fujitsu Ltd Living body guide control method for biometrics authentication device, and biometrics authentication device
JP2009003813A (en) * 2007-06-22 2009-01-08 Univ Of Tsukuba Finger shape estimation apparatus, finger shape estimation method and program
US20140015831A1 (en) * 2012-07-16 2014-01-16 Electronics And Telecommunications Research Institude Apparatus and method for processing manipulation of 3d virtual object

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185456A (en) * 1995-04-28 1997-07-15 Matsushita Electric Ind Co Ltd Interface device
JP2007333679A (en) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp Three-dimensional position correcting apparatus
JP2008071158A (en) * 2006-09-14 2008-03-27 Fujitsu Ltd Living body guide control method for biometrics authentication device, and biometrics authentication device
JP2009003813A (en) * 2007-06-22 2009-01-08 Univ Of Tsukuba Finger shape estimation apparatus, finger shape estimation method and program
US20140015831A1 (en) * 2012-07-16 2014-01-16 Electronics And Telecommunications Research Institude Apparatus and method for processing manipulation of 3d virtual object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068405A (en) * 2019-10-24 2021-04-30 未來市股▲ふん▼有限公司 Virtual object operating system and virtual object operating method

Also Published As

Publication number Publication date
JP6948801B2 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
JP6747504B2 (en) Information processing apparatus, information processing method, and program
KR101687017B1 (en) Hand localization system and the method using head worn RGB-D camera, user interaction system
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
US9607439B2 (en) Information processing apparatus and information processing method
JP5845211B2 (en) Image processing apparatus and image processing method
JP2020514909A (en) Mixed reality system with multi-source virtual content composition and method of using the same to generate virtual content
JP5762600B1 (en) Information processing apparatus and information processing method
US10403045B2 (en) Photorealistic augmented reality system
JP2014106543A (en) Image processor, image processing method and program
JP2011028309A5 (en)
JP2007042055A (en) Image processing method and image processor
JP2015082288A (en) Information processing device and control method of the same
JP2012053631A (en) Information processor and information processing method
JP2022058753A (en) Information processing apparatus, information processing method, and program
KR20110055032A (en) Apparatus and method for generating three demension content in electronic device
JP2009087161A (en) Image processor and image processing method
JP6618260B2 (en) Information processing apparatus, information processing method, and program
JP6948801B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP2018063567A (en) Image processing device, image processing method and program
JP7029253B2 (en) Information processing equipment and its method
JP4689344B2 (en) Information processing method and information processing apparatus
JP2019144958A (en) Image processing device, image processing method, and program
KR101807512B1 (en) Apparatus and Method for 3 Dimentional Interaction based on Mapping type
JP2016099839A (en) Information processing apparatus, information processing method, and program
JP6562371B1 (en) Display device, display processing device, and display processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200217

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210921

R151 Written notification of patent or utility model registration

Ref document number: 6948801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151