JP5734080B2 - Information processing apparatus, processing method thereof, and program - Google Patents

Information processing apparatus, processing method thereof, and program Download PDF

Info

Publication number
JP5734080B2
JP5734080B2 JP2011105643A JP2011105643A JP5734080B2 JP 5734080 B2 JP5734080 B2 JP 5734080B2 JP 2011105643 A JP2011105643 A JP 2011105643A JP 2011105643 A JP2011105643 A JP 2011105643A JP 5734080 B2 JP5734080 B2 JP 5734080B2
Authority
JP
Japan
Prior art keywords
information
region
extraction
area
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011105643A
Other languages
Japanese (ja)
Other versions
JP2012238117A (en
Inventor
その子 宮谷
その子 宮谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011105643A priority Critical patent/JP5734080B2/en
Publication of JP2012238117A publication Critical patent/JP2012238117A/en
Application granted granted Critical
Publication of JP5734080B2 publication Critical patent/JP5734080B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、情報処理装置、その処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, a processing method thereof, and a program.

近年、現実空間の映像に三次元のCG(Computer Graphics)を合成することにより、現実空間にはない情報をユーザに提示する技術が開発されている。このような技術は、MR(Mixed Reality:複合現実感)システムと呼ばれている。   In recent years, a technique has been developed that presents information that is not in real space to a user by synthesizing three-dimensional CG (Computer Graphics) with video in real space. Such a technique is called an MR (Mixed Reality) system.

MRシステムは、現実空間と切り離された状況のみにおいて体験することが可能であった仮想空間と現実空間との共存を目的とし、仮想空間を増強する技術として注目されている。   The MR system is attracting attention as a technology for enhancing the virtual space for the purpose of coexistence of the virtual space and the real space that can be experienced only in a situation separated from the real space.

MRシステムを実現させるための1つの技術として位置合わせ技術がある。これは、現実空間のカメラの位置及び姿勢と仮想カメラの位置及び姿勢とを一致させることを目的とした技術であり、現実空間とCGとを違和感なく合成するために必要な技術である。   One technique for realizing the MR system is an alignment technique. This is a technique aimed at matching the position and orientation of the camera in the real space with the position and orientation of the virtual camera, and is a technique necessary for synthesizing the real space and the CG without a sense of incongruity.

現実空間のカメラの位置及び姿勢を算出する方法としては、位置姿勢計測センサを用いる方法や、カメラが撮影した特徴点の位置から画像処理を用いて算出する方法(特許文献1)、それら両者の技術を組み合わせた方法(特許文献2)などが提案されている。しかし、上述した方法では、現実空間の奥行き情報が不足しているため、CGと現実物との奥行き方向の関係を正しく表現することができない。   As a method for calculating the position and orientation of the camera in the real space, a method using a position / orientation measurement sensor, a method using image processing from the position of a feature point photographed by the camera (Patent Document 1), A method combining the technologies (Patent Document 2) has been proposed. However, in the above-described method, the depth information of the real space is insufficient, so that the relationship between the CG and the real object in the depth direction cannot be correctly expressed.

ここで、図9(a)に示すように、CG101に対してユーザが自らの手102を使ってCGに対して何らかの操作を行なう場合について考えてみる。符号103は、CGと現実画像との境界部分を示している。この場合、手の奥行き情報がないため、手102とCG101との奥行き関係を求めることはできない。そのため、図9(b)に示すように、手102がCG101によって隠れてしまった合成映像になってしまう。符号201は、CG101と手102との境界部分を示している。   Here, as shown in FIG. 9A, consider a case where the user performs some operation on the CG using his / her hand 102 with respect to the CG 101. Reference numeral 103 indicates a boundary portion between the CG and the real image. In this case, since there is no depth information of the hand, the depth relationship between the hand 102 and the CG 101 cannot be obtained. For this reason, as shown in FIG. 9B, a composite image in which the hand 102 is hidden by the CG 101 is obtained. Reference numeral 201 indicates a boundary portion between the CG 101 and the hand 102.

この状況に対処する方法の1つとしては、予め登録しておいた色情報に基づいてマスキング処理を行なう方法が提案されている(特許文献3)。この方法では、「現実画像内の予め登録された色領域」→「CG」→「現実画像」の優先順位で描画がなされる。例えば、手の色を予め登録しておいた場合、「手」→「CG」→「手以外の現実画像」の優先順位で描画が行なわれ、図10の符号301に示すように、CG101と手102との境界部分がなくなった合成映像が得られる。しかし、この方法においても、現実空間の奥行き情報がないため、奥行き方向の関係を必ずしも正しく表現することはできない。   As one of methods for dealing with this situation, a method of performing masking processing based on color information registered in advance has been proposed (Patent Document 3). In this method, rendering is performed in the priority order of “color region registered in advance in a real image” → “CG” → “real image”. For example, if the hand color is registered in advance, drawing is performed in the priority order of “hand” → “CG” → “real image other than hand”, and as shown by reference numeral 301 in FIG. A composite image in which the boundary portion with the hand 102 disappears is obtained. However, even in this method, since there is no depth information in the real space, the relationship in the depth direction cannot always be expressed correctly.

ここで、現実空間の奥行き情報を取得する方法としては、赤外線や超音波等を使用した奥行きセンサを用いる方法や、2つ以上のカメラで撮影した映像から画像処理を用いて距離を求める方法などが知られている。しかし、一般に、奥行き画像の解像度は、カメラの撮像解像度と比べて低く、また、測定可能範囲を大きくすればするほど、分解能が低くなってしまう場合が多い。   Here, as a method for acquiring depth information of the real space, a method using a depth sensor using infrared rays, ultrasonic waves, or the like, a method for obtaining a distance using image processing from images taken by two or more cameras, and the like It has been known. However, in general, the resolution of the depth image is lower than the imaging resolution of the camera, and the resolution is often lowered as the measurable range is increased.

そのため、不正確な奥行き情報が得られ、このような奥行き情報を用いて、現実画像とCGとを合成した場合、図11(a)に示すように、現実画像とCGとの境界部分103に不自然なノイズが発生してしまう。また、奥行き情報の分解能が低い場合には、図11(b)に示すように、本来の正しい位置関係すら表現できない場合も考えられる。このような奥行き画像の問題を回避する方法の1つとしては、カメラにより撮影された現実画像を用いて、奥行き画像を超解像度化する手法が提案されている(非特許文献1)。   Therefore, inaccurate depth information is obtained, and when such a depth information is used to synthesize a real image and a CG, as shown in FIG. 11A, a boundary portion 103 between the real image and the CG is displayed. Unnatural noise will occur. Further, when the resolution of the depth information is low, as shown in FIG. 11B, there may be a case where even the original correct positional relationship cannot be expressed. As one of methods for avoiding such a problem of depth images, a technique of super-resolution of a depth image using a real image taken by a camera has been proposed (Non-Patent Document 1).

特開2003−319388号公報JP 2003-319388 A 特開2007−164631号公報JP 2007-164631 A 特開2003−29675号公報JP 2003-29675 A

Qingxiong Yang, Ruigang Yang, James Davis, David Nister, Spatial-Depth Super Resolution for Range Images, CVPR 2007Qingxiong Yang, Ruigang Yang, James Davis, David Nister, Spatial-Depth Super Resolution for Range Images, CVPR 2007

上述した通り、奥行き情報が得られたとしても、当該奥行き情報の解像度が現実画像の解像度よりも低い場合や、分解能が低い場合には、現実画像とCGとの合成が不正確になってしまっていた。   As described above, even if the depth information is obtained, if the resolution of the depth information is lower than the resolution of the real image or if the resolution is low, the synthesis of the real image and the CG becomes inaccurate. It was.

また、複合現実感をユーザに体験させるためには、全ての処理をリアルタイムに実施する必要がある。しかし、上記方法(非特許文献1)では、距離画像の全領域に対して超解像度化の処理が行なわれるため、処理時間を要し、リアルタイム性を確保できない可能性がある。   Moreover, in order for the user to experience mixed reality, it is necessary to perform all processing in real time. However, in the above method (Non-Patent Document 1), since the super-resolution processing is performed on the entire area of the distance image, processing time is required and real-time performance may not be ensured.

本発明は、上記課題に鑑みてなされたものであり、現実画像と仮想画像(CG)とを正確且つ高速に合成できるようにした技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of synthesizing a real image and a virtual image (CG) accurately and at high speed.

上記課題を解決するため、本発明の一態様は、現実空間を撮影した現実画像に対して仮想画像を合成する情報処理装置であって、前記現実空間における各部の奥行き情報を取得する取得手段と、前記仮想画像における各部の奥行き情報を算出する奥行き情報算出手段と、前記取得した奥行き情報と前記算出した奥行き情報とをそれぞれ対応する位置毎に比較し、それぞれの差が所定の閾値を越える領域を抽出領域として抽出する領域抽出手段と、前記現実画像における色情報を用いて前記抽出領域を補正する補正手段と、前記補正手段により補正された前記抽出領域を、前記仮想画像の描画を禁止する描画禁止領域として規定する規定手段と、前記描画禁止領域に基づいて仮想画像を描画する描画手段と、前記現実画像と前記描画された仮想画像とを合成する合成手段とを具備する
In order to solve the above-described problem, an aspect of the present invention is an information processing apparatus that synthesizes a virtual image with a real image obtained by photographing a real space, and an acquisition unit that acquires depth information of each unit in the real space; The depth information calculating means for calculating the depth information of each part in the virtual image, the acquired depth information and the calculated depth information are compared for each corresponding position, and the difference exceeds the predetermined threshold value A region extracting means for extracting the virtual image as an extraction region, a correcting means for correcting the extraction region using color information in the real image, and prohibiting drawing of the virtual image in the extraction region corrected by the correcting means. Definition means for defining as a drawing prohibited area, drawing means for drawing a virtual image based on the drawing prohibited area, the real image and the drawn virtual Comprising a synthesizing means for synthesizing the image.

本発明によれば、現実画像と仮想画像(CG)とを正確且つ高速に合成できる。   According to the present invention, a real image and a virtual image (CG) can be synthesized accurately and at high speed.

本発明の一実施の形態に係わる情報処理装置10を配して構成した情報処理システムの構成の一例を示す図。The figure which shows an example of a structure of the information processing system which arranged and comprised the information processing apparatus 10 concerning one embodiment of this invention. 図1に示す情報処理装置10の処理の流れの一例を示すフローチャート。3 is a flowchart illustrating an example of a processing flow of the information processing apparatus 10 illustrated in FIG. 1. 図2のS107に示す第2の補正処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the 2nd correction | amendment process shown to S107 of FIG. 図2のS104の処理で抽出される領域(抽出領域)の概要を示す図。The figure which shows the outline | summary of the area | region (extraction area | region) extracted by the process of S104 of FIG. 図2のS106及びS107に示す補正処理の概要を示す図。The figure which shows the outline | summary of the correction process shown to S106 and S107 of FIG. 図2のS108〜S110の処理の概要を示す図。The figure which shows the outline | summary of the process of S108-S110 of FIG. 実施形態2に係わる情報処理装置10の処理の流れの一例を示すフローチャート。9 is a flowchart illustrating an example of a processing flow of the information processing apparatus 10 according to the second embodiment. 図7に示すS304及びS305の処理の概要を示す図。The figure which shows the outline | summary of the process of S304 and S305 shown in FIG. 従来技術を説明するための図。The figure for demonstrating a prior art. 従来技術を説明するための図。The figure for demonstrating a prior art. 従来技術を説明するための図。The figure for demonstrating a prior art.

以下、本発明に係わる実施の形態について添付図面を参照して詳細に説明する。   Embodiments according to the present invention will be described below in detail with reference to the accompanying drawings.

(実施形態1)
図1は、本発明の一実施の形態に係わる情報処理装置10を配して構成した情報処理システムの構成の一例を示す図である。
(Embodiment 1)
FIG. 1 is a diagram showing an example of the configuration of an information processing system configured by arranging an information processing apparatus 10 according to an embodiment of the present invention.

情報処理システムには、情報処理装置10と、撮像装置21と、位置姿勢計測装置22と、デプス値計測装置23と、表示装置24とが具備される。   The information processing system includes an information processing device 10, an imaging device 21, a position / orientation measurement device 22, a depth value measurement device 23, and a display device 24.

情報処理装置10、撮像装置21、位置姿勢計測装置22、デプス値計測装置23及び表示装置24には、コンピュータが内蔵されている。コンピュータには、CPU(Central Processing Unit)等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、ボタンやディスプレイ又はタッチパネル等の入出力手段、ネットワークカード等の通信手段等も具備されていても良い。なお、これら各構成部は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。   The information processing device 10, the imaging device 21, the position / orientation measurement device 22, the depth value measurement device 23, and the display device 24 have a built-in computer. The computer includes main control means such as a CPU (Central Processing Unit), and storage means such as ROM (Read Only Memory), RAM (Random Access Memory), and HDD (Hard Disk Drive). In addition, the computer may include other input / output means such as buttons, a display, or a touch panel, and communication means such as a network card. These components are connected by a bus or the like, and are controlled by the main control unit executing a program stored in the storage unit.

ここで、撮像装置21は、例えば、CCD(Charge Coupled Device)カメラなどで実現され、現実空間を撮影する。位置姿勢計測装置22は、例えば、ジャイロセンサ、磁器センサなどで実現され、撮像装置21の位置及び姿勢を計測する。   Here, the imaging device 21 is realized by, for example, a CCD (Charge Coupled Device) camera or the like, and images a real space. The position / orientation measurement device 22 is realized by, for example, a gyro sensor or a porcelain sensor, and measures the position and orientation of the imaging device 21.

デプス値計測装置23は、例えば、赤外線、超音波、又はステレオ画像などを用いて現実空間のデプス値(奥行き情報)を測定する。表示装置24は、例えば、CRT液晶モニターなどで実現され、情報処理装置10により合成された画像(映像)を表示する。   The depth value measuring device 23 measures the depth value (depth information) of the real space using, for example, infrared rays, ultrasonic waves, or stereo images. The display device 24 is realized by a CRT liquid crystal monitor, for example, and displays an image (video) synthesized by the information processing device 10.

ここで、情報処理装置10は、その機能的な構成として、画像取得部31と、位置姿勢算出部32と、記憶部33と、Zバッファ作成部34と、領域抽出部35と、デプス値取得部36と、補正部37とを具備して構成される。また、情報処理装置10には、ステンシルバッファ作成部38、CG描画部39、合成部40も設けられる。以下、各部の機能について説明する。   Here, the information processing apparatus 10 has, as its functional configuration, an image acquisition unit 31, a position / orientation calculation unit 32, a storage unit 33, a Z buffer creation unit 34, a region extraction unit 35, and a depth value acquisition. A unit 36 and a correction unit 37 are provided. The information processing apparatus 10 is also provided with a stencil buffer creation unit 38, a CG drawing unit 39, and a synthesis unit 40. Hereinafter, functions of each unit will be described.

画像取得部31は、撮像装置21により撮影された現実空間の画像を取得する。取得された現実画像は、補正部37及び合成部40へ送られる。また、現実画像は、撮像装置21の位置及び姿勢の計測処理に画像を使用する場合、位置姿勢算出部32へも送られる。   The image acquisition unit 31 acquires an image of the real space photographed by the imaging device 21. The acquired real image is sent to the correction unit 37 and the synthesis unit 40. The real image is also sent to the position / orientation calculation unit 32 when the image is used for the position and orientation measurement processing of the imaging device 21.

位置姿勢算出部32は、撮像装置21の位置及び姿勢を算出する。位置姿勢算出部32においては、位置姿勢計測装置22により計測された位置及び姿勢の計測値、現実画像の少なくともいずれかを用いて、撮像装置21の位置及び姿勢(の情報)を算出する。   The position / orientation calculation unit 32 calculates the position and orientation of the imaging device 21. The position and orientation calculation unit 32 calculates the position and orientation (information) of the imaging device 21 by using at least one of the position and orientation measurement values measured by the position and orientation measurement device 22 and a real image.

ここで、位置及び姿勢の計測値を用いて撮像装置21の位置及び姿勢を算出する場合、位置姿勢算出部32は、撮像装置21固有の特性を表すパラメータや、位置姿勢計測装置22の取り付け位置と撮像装置21のレンズ中心との位置姿勢関係を用いる。なお、撮像装置21固有の特性を表すパラメータは、例えば、撮像装置21の焦点距離や主点位置などを示す情報であり、記憶部33に予め記憶されている。   Here, when the position and orientation of the imaging device 21 are calculated using the measured values of the position and orientation, the position and orientation calculation unit 32 sets parameters indicating characteristics unique to the imaging device 21 and the attachment position of the position and orientation measurement device 22. And the position and orientation relationship between the lens center of the imaging device 21 and the lens center. Note that the parameter representing the characteristic unique to the imaging device 21 is, for example, information indicating the focal length, principal point position, and the like of the imaging device 21 and is stored in the storage unit 33 in advance.

また、現実画像を用いて撮像装置21の位置及び姿勢を算出する場合、位置姿勢算出部32は、撮像装置21固有の特性を表すパラメータと、現実空間に存在する指標に関する位置姿勢定義情報と、現実画像内の指標に関する位置情報とを用いる。なお、位置姿勢算出部32により算出された位置及び姿勢(の情報)は、Zバッファ作成部34、領域抽出部35及びCG描画部39へ送られる。   Further, when calculating the position and orientation of the imaging device 21 using a real image, the position / orientation calculation unit 32 includes parameters indicating characteristics unique to the imaging device 21, position / orientation definition information regarding an index existing in the real space, Position information relating to the index in the real image is used. The position and orientation (information) calculated by the position and orientation calculation unit 32 are sent to the Z buffer creation unit 34, the region extraction unit 35, and the CG drawing unit 39.

Zバッファ作成部34は、位置姿勢算出部32により算出された位置及び姿勢の情報に基づいて、仮想画像(CG)を投影したときのZ値(奥行き情報)を算出する。これにより、CGのZバッファを作成する。Zバッファは、仮想画像における各部の奥行き情報算出の結果がZ値として保持されるメモリ領域を示す。なお、算出されたZ値は、領域抽出部35へ送られる。   The Z buffer creation unit 34 calculates a Z value (depth information) when a virtual image (CG) is projected based on the position and orientation information calculated by the position and orientation calculation unit 32. This creates a CG Z-buffer. The Z buffer indicates a memory area in which the depth information calculation result of each part in the virtual image is held as a Z value. The calculated Z value is sent to the region extraction unit 35.

デプス値取得部36は、デプス値計測装置23により計測された現実空間のデプス値(デプスマップ)を取得する。なお、デプスマップには、撮像装置21により撮影された現実空間における各部の奥行き情報がデプス値として保持される。取得したデプス値(デプスマップ)は、領域抽出部35へ送られる。   The depth value acquisition unit 36 acquires the depth value (depth map) of the real space measured by the depth value measurement device 23. In the depth map, depth information of each part in the real space photographed by the imaging device 21 is held as a depth value. The acquired depth value (depth map) is sent to the region extraction unit 35.

記憶部33は、各種情報を記憶する。記憶部33には、撮像装置21の焦点距離や主点位置などの撮像装置21固有の特性を表すパラメータ、位置姿勢計測装置22の取り付け位置と撮像装置21のレンズ中心との位置姿勢関係などが記憶される。また、記憶部33には、現実空間に存在する指標の位置姿勢定義情報も記憶される。   The storage unit 33 stores various information. The storage unit 33 includes parameters representing characteristics unique to the imaging device 21 such as the focal length and principal point position of the imaging device 21, the position and orientation relationship between the attachment position of the position and orientation measurement device 22 and the lens center of the imaging device 21, and the like. Remembered. The storage unit 33 also stores position and orientation definition information of indices existing in the real space.

領域抽出部35は、Zバッファ作成部34により算出されたCGのZ値と、デプス値取得部36により取得された現実空間のデプス値とをそれぞれ対応する位置毎に比較し、その比較結果に基づいてZ値とデプス値との差が所定の閾値を越える領域を抽出する。この領域の抽出は、現実画像から行なわれる。なお、抽出する領域(抽出領域)は、上述した所定の閾値を「0」に設定し、Z値がデプス値を越える全ての領域としても良い。また、デプス値の分解能が低い場合には、閾値を「0」よりも小さい値に設定し、Z値がデプス値よりも小さくなる領域をも含めるようにしても良い。   The region extraction unit 35 compares the Z value of the CG calculated by the Z buffer creation unit 34 with the depth value of the real space acquired by the depth value acquisition unit 36 for each corresponding position, and the comparison result is obtained. Based on this, a region where the difference between the Z value and the depth value exceeds a predetermined threshold is extracted. This region is extracted from the real image. Note that the extraction region (extraction region) may be all regions where the predetermined threshold value is set to “0” and the Z value exceeds the depth value. In addition, when the resolution of the depth value is low, the threshold value may be set to a value smaller than “0” to include a region where the Z value is smaller than the depth value.

補正部37は、領域抽出部35により抽出された領域(抽出領域)に対して補正処理を行なう。より具体的には、補正部37は、抽出領域の色情報に基づいて、当該抽出領域の範囲を補正する。   The correction unit 37 performs correction processing on the region (extraction region) extracted by the region extraction unit 35. More specifically, the correction unit 37 corrects the range of the extraction region based on the color information of the extraction region.

ステンシルバッファ作成部38は、補正部37により補正された領域を書き込み禁止領域(描画禁止領域)として規定するステンシルバッファを作成する。すなわち、ステンシルバッファに規定された現実画像上における領域は、CGの描画が禁止される。作成されたステンシルバッファは、CG描画部39へ送られる。   The stencil buffer creation unit 38 creates a stencil buffer that defines the area corrected by the correction unit 37 as a write prohibited area (drawing prohibited area). That is, CG rendering is prohibited in the area on the real image defined in the stencil buffer. The created stencil buffer is sent to the CG drawing unit 39.

CG描画部39は、ステンシルバッファ作成部38により作成されたステンシルバッファに基づいて仮想画像(CG)を描画する。より具体的には、ステンシルバッファに規定された領域以外でCGの描画を行なう。合成部40は、現実画像とCG画像とを合成する。合成された映像は、表示装置24において表示される。   The CG drawing unit 39 draws a virtual image (CG) based on the stencil buffer created by the stencil buffer creating unit 38. More specifically, CG drawing is performed outside the area defined in the stencil buffer. The combining unit 40 combines the real image and the CG image. The synthesized video is displayed on the display device 24.

以上が、情報処理システムの構成の一例についての説明である。なお、情報処理装置10に設けられた機能的な構成は、必ずしも図示した通りに実現される必要はなく、システム内におけるいずれかの装置にその全部若しくは一部が実現されていればよい。   The above is the description of an example of the configuration of the information processing system. Note that the functional configuration provided in the information processing apparatus 10 does not necessarily have to be realized as illustrated, and may be realized in whole or in part in any apparatus in the system.

また、各種装置の構成も、必ずしも図示した通りに実現される必要はない。例えば、撮像装置21、位置姿勢計測装置22、デプス値計測装置23、表示装置24の少なくともいずれかが情報処理装置10内の構成として設けられていても良い。   Further, the configurations of the various apparatuses are not necessarily realized as illustrated. For example, at least one of the imaging device 21, the position / orientation measurement device 22, the depth value measurement device 23, and the display device 24 may be provided as a configuration in the information processing device 10.

次に、図2を用いて、図1に示す情報処理装置10における処理の流れの一例について説明する。   Next, an example of the flow of processing in the information processing apparatus 10 illustrated in FIG. 1 will be described with reference to FIG.

この処理では、まず、撮像装置21において、現実空間の撮影が行なわれる。すると、情報処理装置10は、画像取得部31において、撮像装置21により撮影された画像(現実画像)を取得する(S101)。また、このとき、デプス値計測装置23において、現実空間のデプス値が測定され、情報処理装置10は、デプス値取得部36において、当該デプス値(すなわち、デプスマップ)を取得する(S102)。   In this processing, first, imaging of the real space is performed in the imaging device 21. Then, the information processing apparatus 10 acquires an image (real image) captured by the imaging device 21 in the image acquisition unit 31 (S101). At this time, the depth value measurement device 23 measures the depth value of the real space, and the information processing device 10 acquires the depth value (that is, the depth map) in the depth value acquisition unit 36 (S102).

情報処理装置10は、Zバッファ作成部34において、位置姿勢算出部32により算出された撮像装置21の位置及び姿勢に基づいて、CGを投影したときのZ値を算出する(S103)。すなわち、CGのZバッファを作成する。   The information processing apparatus 10 calculates the Z value when the CG is projected based on the position and orientation of the imaging device 21 calculated by the position and orientation calculation unit 32 in the Z buffer creation unit 34 (S103). That is, a CG Z buffer is created.

情報処理装置10は、領域抽出部35において、現実空間のデプス値とCGのZ値とをそれぞれ対応する位置毎に比較し、CGのZ値と現実空間のデプス値との差が所定の閾値を越える領域(抽出領域)を抽出する(S104)。上述した通り、この抽出領域は、現実画像から抽出される。   The information processing apparatus 10 compares the depth value of the real space and the Z value of the CG for each corresponding position in the region extraction unit 35, and the difference between the Z value of the CG and the depth value of the real space is a predetermined threshold value. A region (extraction region) exceeding the threshold is extracted (S104). As described above, this extraction region is extracted from a real image.

ここで、情報処理装置10は、補正部37において、抽出領域を代表する色情報を算出(決定)する(S105)。この処理においては、例えば、抽出領域内の色情報(輝度及び色調等)のヒストグラムを作成し、頻度が最も高い色情報を代表値(代表色情報)として算出すれば良い。   Here, the information processing apparatus 10 calculates (determines) color information representative of the extraction region in the correction unit 37 (S105). In this process, for example, a histogram of color information (luminance, color tone, etc.) in the extraction region may be created, and color information with the highest frequency may be calculated as a representative value (representative color information).

情報処理装置10は、補正部37において、代表色情報を用いて、抽出領域の範囲を補正(第1の補正)する。より具体的には、代表色情報と、抽出領域における注目画素の色情報とを画素毎に比較する。比較の結果、注目画素の色情報が、代表色情報と類似していれば当該画素を抽出領域内に含め、類似していなければ抽出領域から排除する(S106)。なお、類似しているか否かはの判定は、色情報に対して所定の基準(例えば、閾値)を設け、代表色情報と注目画素との色情報が、所定の基準よりも類似しているか否かを比較することにより行なえば良い。   In the information processing apparatus 10, the correction unit 37 corrects the range of the extraction region using the representative color information (first correction). More specifically, the representative color information and the color information of the pixel of interest in the extraction area are compared for each pixel. As a result of the comparison, if the color information of the target pixel is similar to the representative color information, the pixel is included in the extraction area, and if not similar, it is excluded from the extraction area (S106). Whether or not they are similar is determined by setting a predetermined reference (for example, a threshold value) for the color information, and whether the color information of the representative color information and the target pixel is more similar than the predetermined reference This may be done by comparing whether or not.

続いて、情報処理装置10は、補正部37において、当該領域の色情報の変化量を用いて、S106で処理された抽出領域の範囲を更に補正(第2の補正)する(S107)。なお、この処理の詳細については後述する。   Subsequently, in the correction unit 37, the information processing apparatus 10 further corrects the range of the extraction area processed in S106 (second correction) using the change amount of the color information of the area (S107). Details of this process will be described later.

情報処理装置10は、ステンシルバッファ作成部38において、S106及びS107の処理で範囲が補正された抽出領域を書込み禁止とするステンシルバッファを作成する(S108)。そして、CG描画部39において、当該作成したステンシルバッファに基づいてCGを描画する(S109)。その後、情報処理装置10は、合成部40において、S101の処理で取得された現実画像と、S109の処理で描画されたCGとを合成した後(S110)、この処理を終了する。   In the stencil buffer creation unit 38, the information processing apparatus 10 creates a stencil buffer that prohibits writing in the extraction region whose range has been corrected in the processing of S106 and S107 (S108). Then, the CG drawing unit 39 draws CG based on the created stencil buffer (S109). Thereafter, the information processing apparatus 10 combines the actual image acquired in the process of S101 and the CG drawn in the process of S109 in the combining unit 40 (S110), and ends this process.

ここで、図3を用いて、図2のS107に示す第2の補正処理の詳細について説明する。   Here, the details of the second correction processing shown in S107 of FIG. 2 will be described with reference to FIG.

情報処理装置10は、補正部37において、現実画像を走査する(S201)。そして、注目画素が図2のS106の処理で抽出された領域(抽出領域)であるか否かを判定する。抽出領域でなければ(S202でNO)、未走査の画素が存在するか否かを判定し、未走査の画素があれば(S203でYES)、情報処理装置10は、再度、S201の処理を行なう。一方、未走査の画素がなければ(S203でNO)、情報処理装置10は、この処理を終了する。   The information processing apparatus 10 scans a real image in the correction unit 37 (S201). Then, it is determined whether or not the target pixel is the region (extraction region) extracted in the process of S106 in FIG. If it is not the extraction region (NO in S202), it is determined whether or not there is an unscanned pixel. If there is an unscanned pixel (YES in S203), the information processing apparatus 10 performs the process of S201 again. Do. On the other hand, if there is no unscanned pixel (NO in S203), the information processing apparatus 10 ends this process.

また、S202の処理の結果、抽出領域であれば(S202でYES)、情報処理装置10は、補正部37において、注目画素の所定範囲内(注目画素を囲む領域:例えば、注目画素の8近傍内)に、抽出領域以外にある画素が存在するか否かを探索する(S204)。抽出領域以外にある画素が存在しなければ(S205でNO)、情報処理装置10は、未走査の画素が存在するか否かを判定する。未走査の画素があれば(S209でYES)、情報処理装置10は、再度、S201の処理を行なう。一方、未走査の画素がなければ(S209でNO)、情報処理装置10は、この処理を終了する。   If the result of the processing in S202 is an extraction region (YES in S202), the information processing apparatus 10 causes the correction unit 37 to within a predetermined range of the target pixel (region surrounding the target pixel: for example, eight neighborhoods of the target pixel (Inside), it is searched whether there is a pixel outside the extraction region (S204). If there is no pixel outside the extraction region (NO in S205), the information processing apparatus 10 determines whether there is an unscanned pixel. If there is an unscanned pixel (YES in S209), the information processing apparatus 10 performs the process of S201 again. On the other hand, if there is no unscanned pixel (NO in S209), the information processing apparatus 10 ends this process.

S205の判定の結果、注目画素の所定範囲内に、抽出領域以外にある画素が存在すれば(S205でYES)、情報処理装置10は、補正部37において、注目画素を中心とした輝度変化を算出する(S206)。なお、輝度変化は、例えば、輝度や濃度の微分や、ラプラシアンなどにより求めれば良い。   As a result of the determination in S205, if there is a pixel other than the extraction region within the predetermined range of the target pixel (YES in S205), the information processing apparatus 10 causes the correction unit 37 to change the luminance around the target pixel. Calculate (S206). Note that the change in luminance may be obtained by, for example, differentiation of luminance or density, Laplacian, or the like.

S206の処理の結果、注目画素がエッジであれば(S207でYES)、情報処理装置10は、この処理を終了する。注目画素がエッジでなければ(S207でNO)、情報処理装置10は、注目画素の所定範囲内(例えば、注目画素の8近傍)の全てを抽出領域に含めた後(S208)、上述したS209の処理に進む。なお、S207の処理では、微分値の大きさが所定の閾値以上になった場合にエッジと判定すれば良い。また、ラプラシアンの符号が変化した場合にエッジと判定しても良い。   If the target pixel is an edge as a result of the process of S206 (YES in S207), the information processing apparatus 10 ends this process. If the target pixel is not an edge (NO in S207), the information processing apparatus 10 includes all of the target pixel within a predetermined range (for example, eight neighborhoods of the target pixel) in the extraction region (S208), and then the above-described S209. Proceed to the process. Note that in the processing of S207, an edge may be determined when the magnitude of the differential value exceeds a predetermined threshold value. Further, when the Laplacian code changes, it may be determined as an edge.

ここで、図4を用いて、図2のS104の処理で抽出される領域(抽出領域)の概要について説明する。   Here, the outline of the region (extraction region) extracted in the process of S104 of FIG. 2 will be described with reference to FIG.

符号51は、現実空間のデプスマップを示し、符号52は、仮想画像(CG)のZバッファを示し、符号53は、現実画像を示している。符号54及び符号55は、デプスマップ51のデプス値とZバッファ52のZ値との比較の結果に基づいて抽出された領域(抽出領域)を、デプスマップ及び現実画像においてそれぞれ示している。   Reference numeral 51 denotes a depth map of the real space, reference numeral 52 denotes a Z buffer of a virtual image (CG), and reference numeral 53 denotes a real image. Reference numerals 54 and 55 indicate regions (extraction regions) extracted based on the result of comparison between the depth value of the depth map 51 and the Z value of the Z buffer 52 in the depth map and the real image, respectively.

次に、図5を用いて、図2のS106及びS107に示す補正処理の概要について説明する。   Next, the outline of the correction process shown in S106 and S107 of FIG. 2 will be described with reference to FIG.

符号56は、図4に示す抽出領域55の拡大図を示している。すなわち、現実画像53における抽出領域54の拡大図である。符号56は、抽出領域56に対して第1の補正処理を実施した結果を示している。符号57は、第1の補正処理後の抽出領域57に対して、第2の補正処理(図3参照)を実施した結果を示している。すなわち、符号57においては、代表色情報に基づいて抽出領域の範囲が補正されており、符号58においては、色情報の変化量に基づいて抽出領域の範囲が補正されている。   Reference numeral 56 shows an enlarged view of the extraction region 55 shown in FIG. That is, it is an enlarged view of the extraction region 54 in the real image 53. Reference numeral 56 indicates a result of performing the first correction process on the extraction region 56. Reference numeral 57 indicates a result of performing the second correction process (see FIG. 3) on the extraction region 57 after the first correction process. That is, in the reference numeral 57, the range of the extraction area is corrected based on the representative color information, and in the reference numeral 58, the extraction area range is corrected based on the change amount of the color information.

次に、図6を用いて、図2のS108〜S110の処理の概要について説明する。   Next, the outline of the processing of S108 to S110 in FIG. 2 will be described with reference to FIG.

符号61は、第2の補正処理後の抽出領域64を描画禁止領域として規定するステンシルバッファを示している。符号62は、当該ステンシルバッファに基づいてCG65を描画した結果を示している。符号63は、CGの描画画像62と現実画像とを合成した合成画像63を示している。すなわち、符号62においては、ステンシルバッファに規定された領域以外でCGの描画が行なわれており、符号63においては、当該描画されたCGと現実画像との合成が行なわれている。   Reference numeral 61 denotes a stencil buffer that defines the extraction area 64 after the second correction processing as a drawing prohibited area. Reference numeral 62 indicates a result of drawing the CG 65 based on the stencil buffer. Reference numeral 63 indicates a composite image 63 obtained by combining the CG drawing image 62 and the real image. In other words, at Numeral 62, CG is drawn outside the area defined by the stencil buffer, and at Numeral 63, the drawn CG is synthesized with the actual image.

以上説明したように本実施形態によれば、現実空間のデプス値と仮想画像(CG)のZ値とを比較してCGの描画禁止領域の候補となる領域(抽出領域)を抽出する。そして、色情報に基づいて当該抽出領域の範囲を補正し、当該補正後の抽出領域に基づいてCGを描画して合成する。   As described above, according to the present embodiment, the depth value of the real space and the Z value of the virtual image (CG) are compared to extract a region (extraction region) that is a candidate for the CG rendering prohibited region. Then, the range of the extraction area is corrected based on the color information, and a CG is drawn and combined based on the corrected extraction area.

このように本実施形態によれば、現実画像と仮想画像(CG)との奥行き関係を考慮して、CGと現実画像との境界部分にノイズ等が生じることを抑えた合成映像を生成する。   As described above, according to the present embodiment, in consideration of the depth relationship between the real image and the virtual image (CG), a composite video in which noise or the like is suppressed from occurring at the boundary portion between the CG and the real image is generated.

また、本実施形態によれば、上記ノイズ等の発生を抑えるために抽出領域のみを対象として処理を行なうので、処理対象となる範囲が抑えられ、処理の高速化が図れる。すなわち、本実施形態によれば、ノイズ等の発生を抑えた合成映像をリアルタイムに生成することができる。   Further, according to the present embodiment, since processing is performed only on the extraction region in order to suppress the occurrence of the noise and the like, the range to be processed can be suppressed, and the processing speed can be increased. That is, according to the present embodiment, it is possible to generate a composite video in which generation of noise or the like is suppressed in real time.

(実施形態2)
次に、実施形態2について説明する。実施形態2に係わる情報処理装置10は、実施形態1を説明した図1と同様の構成となる。そのため、実施形態2に係わる情報処理装置10の構成については、図示を用いた説明を省略する。ここでは、相違する点について重点的に説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. The information processing apparatus 10 according to the second embodiment has the same configuration as that of FIG. Therefore, the description of the configuration of the information processing apparatus 10 according to the second embodiment is omitted. Here, the differences will be mainly described.

ここで、実施形態1を説明した図1と相違する構成としては、領域抽出部35及び補正部37が挙げられる。   Here, as a configuration different from FIG. 1 describing the first embodiment, a region extraction unit 35 and a correction unit 37 may be mentioned.

実施形態1に係わる領域抽出部35においては、現実画像から領域の抽出を行なっていたが、実施形態2に係わる領域抽出部35においては、デプスマップから領域の抽出を行なう。
また、実施形態1に係わる補正部37においては、第1の補正処理及び第2の補正処理を実施し、現実画像から抽出された抽出領域の範囲を補正していた。これに対して、実施形態2に係わる補正部37においては、現実画像ではなく、デプスマップから抽出された抽出領域に対して補正処理を行なう。補正処理としては、第1の補正処理及び第2の補正処理を行なわず、超解像度化処理を行なう。以下、この点についてより具体的に説明する。
The region extraction unit 35 according to the first embodiment extracts a region from a real image, but the region extraction unit 35 according to the second embodiment extracts a region from a depth map.
In the correction unit 37 according to the first embodiment, the first correction process and the second correction process are performed to correct the range of the extraction area extracted from the real image. On the other hand, in the correction unit 37 according to the second embodiment, the correction process is performed on the extracted region extracted from the depth map, not the actual image. As the correction process, the super-resolution process is performed without performing the first correction process and the second correction process. Hereinafter, this point will be described more specifically.

ここで、図7を用いて、実施形態2に係わる情報処理装置10における処理の流れの一例について説明する。   Here, an example of the flow of processing in the information processing apparatus 10 according to the second embodiment will be described with reference to FIG.

情報処理装置10は、実施形態1を説明した図2のS101〜S103と同様の処理を実施する(S301〜S303)。その後、情報処理装置10は、領域抽出部35において、現実空間のデプス値とCGのZ値とをそれぞれ対応する位置毎に比較し、CGのZ値と現実空間のデプス値との差が所定の閾値を越える領域(抽出領域)を抽出する(S304)。上述した通り、実施形態2においては、抽出領域は、デプスマップから抽出される。   The information processing apparatus 10 performs the same processing as S101 to S103 of FIG. 2 describing the first embodiment (S301 to S303). After that, the information processing apparatus 10 compares the depth value of the real space and the Z value of the CG for each corresponding position in the region extraction unit 35, and the difference between the Z value of the CG and the depth value of the real space is predetermined. An area (extraction area) exceeding the threshold is extracted (S304). As described above, in the second embodiment, the extraction region is extracted from the depth map.

情報処理装置10は、補正部37において、S304の処理で抽出された抽出領域54(及び/又は、抽出領域54とそれ以外の領域との境界領域)に対して超解像度化処理を行なう(S305)。すなわち、デプスマップにおける抽出領域を超解像度化する。この超解像度化は、現実画像における対応する領域(抽出領域55及び/又は、抽出領域55とそれ以外の領域との境界領域)の色情報を用いて行なわれる。なお、超解像度化は、例えば、非特許文献1に記載された手法等に従って行なえば良い。   In the correction unit 37, the information processing apparatus 10 performs the super-resolution processing on the extraction region 54 (and / or the boundary region between the extraction region 54 and the other region) extracted in the process of S304 (S305). ). That is, the extraction area in the depth map is made super resolution. This super-resolution is performed using color information of a corresponding region (extraction region 55 and / or a boundary region between the extraction region 55 and other regions) in the real image. The super-resolution may be performed according to the method described in Non-Patent Document 1, for example.

その後、情報処理装置10は、ステンシルバッファ作成部38において、S305の処理で超解像度化された領域を書込み禁止とするステンシルバッファを作成する(S306)。情報処理装置10は、当該作成したステンシルバッファに基づいてCGを描画する(S307)。その後、情報処理装置10は、合成部40において、S301の処理で取得された現実画像と、S307の処理で描画されたCGとを合成した後(S308)、この処理を終了する。   After that, the information processing apparatus 10 creates a stencil buffer in the stencil buffer creating unit 38 that prohibits writing the area that has been made super-resolution by the process of S305 (S306). The information processing apparatus 10 renders CG based on the created stencil buffer (S307). Thereafter, the information processing apparatus 10 combines the actual image acquired in the process of S301 and the CG drawn in the process of S307 in the combining unit 40 (S308), and ends this process.

ここで、図8を用いて、図7に示すS304及びS305の処理の概要について説明する。   Here, the outline of the processing of S304 and S305 shown in FIG. 7 will be described with reference to FIG.

符号54は、図4に示す抽出領域54の拡大図を示している。すなわち、デプスマップ51における抽出領域の拡大図を示している。符号71は、現実画像における抽出領域55の色情報を用いて、デプスマップ51における抽出領域54に対して超解像度化を行なった結果を示している。なお、符号71に示す抽出領域の形状が変化しているのは、超解像度化処理により抽出領域が高解像度化されたためである。   Reference numeral 54 shows an enlarged view of the extraction region 54 shown in FIG. That is, the enlarged view of the extraction area | region in the depth map 51 is shown. Reference numeral 71 indicates a result of performing super-resolution on the extraction region 54 in the depth map 51 using the color information of the extraction region 55 in the real image. Note that the shape of the extraction area indicated by reference numeral 71 is changed because the resolution of the extraction area is increased by the super-resolution processing.

以上説明したように実施形態2によれば、現実空間のデプス値と仮想画像(CG)のZ値とを比較してCGの描画禁止領域(抽出領域)を抽出する。そして、当該抽出領域を超解像度化により補正した後、当該補正後の抽出領域に基づいてCGを描画して合成する。   As described above, according to the second embodiment, the depth value of the real space and the Z value of the virtual image (CG) are compared to extract the CG rendering prohibited area (extraction area). Then, after the extraction area is corrected by super-resolution, a CG is drawn and synthesized based on the corrected extraction area.

これにより、実施形態2においても、実施形態1同様に、現実画像と仮想画像(CG)との奥行き関係を考慮して、ノイズ等の発生を抑えた合成映像をリアルタイムに生成することができる。   Thereby, also in the second embodiment, in the same manner as the first embodiment, in consideration of the depth relationship between the real image and the virtual image (CG), it is possible to generate a composite video in which generation of noise and the like is suppressed in real time.

以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。   The above is an example of a typical embodiment of the present invention, but the present invention is not limited to the embodiment described above and shown in the drawings, and can be appropriately modified and implemented without departing from the scope of the present invention. .

例えば、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施態様を採ることもできる。具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。   For example, the present invention can take an embodiment as a system, apparatus, method, program, storage medium, or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.

(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (8)

現実空間を撮影した現実画像に対して仮想画像を合成する情報処理装置であって、
前記現実空間における各部の奥行き情報を取得する取得手段と、
前記仮想画像における各部の奥行き情報を算出する奥行き情報算出手段と、
前記取得した奥行き情報と前記算出した奥行き情報とをそれぞれ対応する位置毎に比較し、それぞれの差が所定の閾値を越える領域を抽出領域として抽出する領域抽出手段と、
前記現実画像における色情報を用いて前記抽出領域を補正する補正手段と、
前記補正手段により補正された前記抽出領域を、前記仮想画像の描画を禁止する描画禁止領域として規定する規定手段と、
前記描画禁止領域に基づいて仮想画像を描画する描画手段と、
前記現実画像と前記描画された仮想画像とを合成する合成手段と
を具備することを特徴とする情報処理装置。
An information processing apparatus that combines a virtual image with a real image obtained by photographing a real space,
Obtaining means for obtaining depth information of each part in the real space;
Depth information calculating means for calculating depth information of each part in the virtual image;
An area extracting means for comparing the acquired depth information and the calculated depth information for each corresponding position, and extracting an area where the difference exceeds a predetermined threshold as an extraction area;
Correction means for correcting the extraction region using color information in the real image;
Defining means for defining the extraction area corrected by the correcting means as a drawing prohibition area that prohibits drawing of the virtual image;
Drawing means for drawing a virtual image based on the drawing prohibited area;
An information processing apparatus comprising: a synthesis unit that synthesizes the real image and the drawn virtual image.
前記領域抽出手段は、
前記抽出領域として、前記現実画像から前記取得した奥行き情報と前記算出した奥行き情報との差が所定の閾値を越える領域を抽出し、
前記補正手段は、
前記現実画像における色情報を用いて前記抽出領域の範囲を補正し、
前記規定手段は、
前記補正手段により範囲が補正された前記抽出領域を、前記描画禁止領域として規定する
ことを特徴とする請求項1記載の情報処理装置。
The region extracting means includes
As the extraction area, an area where a difference between the acquired depth information and the calculated depth information from the real image exceeds a predetermined threshold is extracted.
The correction means includes
Correcting the range of the extraction region using color information in the real image;
The defining means is
The information processing apparatus according to claim 1, wherein the extraction area whose range is corrected by the correction unit is defined as the drawing prohibited area.
前記補正手段は、
前記抽出領域を代表する色情報を決定する決定手段と、
前記決定手段により決定された代表色情報と、前記抽出領域の色情報とを画素毎に比較し、前記代表色情報と前記色情報とが所定の基準よりも類似している画素を前記抽出領域に含め、そうでない画素を前記抽出領域から排除する
ことを特徴とする請求項2記載の情報処理装置。
The correction means includes
Determining means for determining color information representative of the extraction region;
The representative color information determined by the determining means and the color information of the extraction area are compared for each pixel, and the pixels in which the representative color information and the color information are similar to a predetermined standard are compared with the extraction area. The information processing apparatus according to claim 2, wherein pixels that are not included are excluded from the extraction region.
前記補正手段は、
前記抽出領域の色情報の変化量に基づいて、前記抽出領域とそれ以外の領域との境界を変更する
ことを特徴とする請求項2又は3記載の情報処理装置。
The correction means includes
The information processing apparatus according to claim 2 or 3, wherein a boundary between the extraction region and other regions is changed based on a change amount of color information of the extraction region.
前記取得手段は、
前記取得した奥行き情報をデプス値としてデプスマップに保持し、
前記奥行き情報算出手段は、
前記算出した奥行き情報をZ値としてZバッファに保持し、
前記領域抽出手段は、
前記抽出領域として、前記デプスマップから前記デプス値と前記Z値との差が所定の閾値を越える領域を抽出し、
前記補正手段は、
前記抽出領域を、前記現実画像における対応する領域の色情報を用いて超解像度化し、
前記規定手段は、
前記現実画像における色情報を用いて、前記補正手段による補正により超解像度化された前記抽出領域を、前記描画禁止領域として規定する
ことを特徴とする請求項1記載の情報処理装置。
The acquisition means includes
The acquired depth information is held in the depth map as a depth value,
The depth information calculating means includes
The calculated depth information is held in a Z buffer as a Z value,
The region extracting means includes
As the extraction region, extract a region where the difference between the depth value and the Z value exceeds a predetermined threshold from the depth map,
The correction means includes
The extracted area is super-resolution using the color information of the corresponding area in the real image,
The defining means is
The information processing apparatus according to claim 1, wherein the extraction area that has been super-resolved by correction by the correction unit is defined as the drawing prohibited area by using color information in the real image.
前記現実空間を撮影した撮像装置の位置及び姿勢を算出する位置姿勢算出手段
を更に具備し、
前記奥行き情報算出手段は、
前記位置姿勢算出手段により算出された前記撮像装置の位置及び姿勢の情報に基づいて奥行き情報を算出する
ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
A position / orientation calculating means for calculating the position and orientation of the imaging device that has captured the real space;
The depth information calculating means includes
6. The information processing apparatus according to claim 1, wherein depth information is calculated based on position and orientation information of the imaging apparatus calculated by the position and orientation calculation unit.
現実空間を撮影した現実画像に対して仮想画像を合成する情報処理装置の処理方法であって、
取得手段が、前記現実空間における各部の奥行き情報を取得する工程と、
奥行き情報算出手段が、前記仮想画像における各部の奥行き情報を算出する工程と、
領域抽出手段が、前記取得した奥行き情報と前記算出した奥行き情報とをそれぞれ対応する位置毎に比較し、それぞれの差が所定の閾値を越える領域を抽出領域として抽出する工程と、
補正手段が、前記現実画像における色情報を用いて前記抽出領域を補正する工程と、
規定手段が、前記補正された前記抽出領域を、前記仮想画像の描画を禁止する描画禁止領域として規定する工程と、
描画手段が、前記描画禁止領域に基づいて仮想画像を描画する工程と、
合成手段が、前記現実画像と前記描画された仮想画像とを合成する工程と
を含むことを特徴とする処理方法。
A processing method of an information processing apparatus for combining a virtual image with a real image obtained by photographing a real space,
An obtaining unit obtaining depth information of each part in the real space;
Depth information calculating means calculating depth information of each part in the virtual image;
A region extracting means comparing the acquired depth information and the calculated depth information for each corresponding position, and extracting a region where each difference exceeds a predetermined threshold as an extraction region;
A step of correcting the extraction region using color information in the real image;
A defining unit defining the corrected extraction region as a drawing prohibited region that prohibits drawing of the virtual image;
A step of drawing a virtual image based on the drawing prohibited area;
A processing method comprising: a step of combining the real image and the drawn virtual image.
現実空間を撮影した現実画像に対して仮想画像を合成する情報処理装置に内蔵されたコンピュータを、
前記現実空間における各部の奥行き情報を取得する取得手段、
前記仮想画像における各部の奥行き情報を算出する奥行き情報算出手段、
前記取得した奥行き情報と前記算出した奥行き情報とをそれぞれ対応する位置毎に比較し、それぞれの差が所定の閾値を越える領域を抽出領域として抽出する領域抽出手段、
前記現実画像における色情報を用いて前記抽出領域を補正する補正手段、
前記補正手段により補正された前記抽出領域を、前記仮想画像の描画を禁止する描画禁止領域として規定する規定手段、
前記描画禁止領域に基づいて仮想画像を描画する描画手段、
前記現実画像と前記描画された仮想画像とを合成する合成手段
として機能させるためのプログラム。
A computer built in an information processing device that synthesizes a virtual image with a real image taken of a real space,
Acquisition means for acquiring depth information of each part in the real space;
Depth information calculating means for calculating depth information of each part in the virtual image;
A region extracting means for comparing the acquired depth information with the calculated depth information for each corresponding position and extracting a region where the difference exceeds a predetermined threshold as an extraction region;
Correction means for correcting the extraction region using color information in the real image;
Defining means for defining the extraction area corrected by the correcting means as a drawing prohibition area that prohibits drawing of the virtual image;
Drawing means for drawing a virtual image based on the drawing prohibited area;
A program for functioning as a synthesis means for synthesizing the real image and the drawn virtual image.
JP2011105643A 2011-05-10 2011-05-10 Information processing apparatus, processing method thereof, and program Active JP5734080B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011105643A JP5734080B2 (en) 2011-05-10 2011-05-10 Information processing apparatus, processing method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011105643A JP5734080B2 (en) 2011-05-10 2011-05-10 Information processing apparatus, processing method thereof, and program

Publications (2)

Publication Number Publication Date
JP2012238117A JP2012238117A (en) 2012-12-06
JP5734080B2 true JP5734080B2 (en) 2015-06-10

Family

ID=47460978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011105643A Active JP5734080B2 (en) 2011-05-10 2011-05-10 Information processing apparatus, processing method thereof, and program

Country Status (1)

Country Link
JP (1) JP5734080B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018005075T5 (en) 2017-10-30 2020-08-06 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
KR101881295B1 (en) * 2017-12-11 2018-07-24 (주)진명아이앤씨 Video system based on layer mixer using augmented reality

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4115117B2 (en) * 2001-10-31 2008-07-09 キヤノン株式会社 Information processing apparatus and method
JP2004234549A (en) * 2003-01-31 2004-08-19 Canon Inc Actual object model preparation method
JP4227561B2 (en) * 2004-06-03 2009-02-18 キヤノン株式会社 Image processing method and image processing apparatus
JP4324044B2 (en) * 2004-07-15 2009-09-02 キヤノン株式会社 Image processing apparatus and method
DE102005009437A1 (en) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Method and device for fading AR objects
JP4909176B2 (en) * 2007-05-23 2012-04-04 キヤノン株式会社 Mixed reality presentation apparatus, control method therefor, and computer program

Also Published As

Publication number Publication date
JP2012238117A (en) 2012-12-06

Similar Documents

Publication Publication Date Title
KR102342668B1 (en) Image processing apparatus, image processing method and storage medium
US8803918B2 (en) Methods and apparatus for calibrating focused plenoptic camera data
US9020241B2 (en) Image providing device, image providing method, and image providing program for providing past-experience images
WO2015146230A1 (en) Image display device and image display system
KR101932537B1 (en) Method and Apparatus for displaying the video on 3D map
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
EP2757789A1 (en) Image processing system, image processing method, and image processing program
JP2020129276A (en) Image processing device, image processing method, and program
JP6610535B2 (en) Image processing apparatus and image processing method
JP5653104B2 (en) Image processing apparatus, image processing method, and program
US8633926B2 (en) Mesoscopic geometry modulation
WO2012029658A1 (en) Imaging device, image-processing device, image-processing method, and image-processing program
JP2015135661A (en) Image processing device, imaging device, image processing method, and program
JP5734080B2 (en) Information processing apparatus, processing method thereof, and program
JP5820716B2 (en) Image processing apparatus, image processing method, computer program, recording medium, and stereoscopic image display apparatus
KR101566459B1 (en) Concave surface modeling in image-based visual hull
JP6756679B2 (en) Decision device, image processing device, decision method and decision program
JP6685814B2 (en) Imaging device and control method thereof
JP5926626B2 (en) Image processing apparatus, control method therefor, and program
JP2014199508A (en) Image processing apparatus, image processing method, and program
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP2011053456A (en) Image display method, program, image display device, and imaging apparatus with the image display device
JP5281720B1 (en) 3D image processing apparatus and 3D image processing method
JP2013115739A (en) Inter-image difference device and inter-image difference method
JP6234200B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150414

R151 Written notification of patent or utility model registration

Ref document number: 5734080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151