JP2012238117A - 情報処理装置、その処理方法及びプログラム - Google Patents

情報処理装置、その処理方法及びプログラム Download PDF

Info

Publication number
JP2012238117A
JP2012238117A JP2011105643A JP2011105643A JP2012238117A JP 2012238117 A JP2012238117 A JP 2012238117A JP 2011105643 A JP2011105643 A JP 2011105643A JP 2011105643 A JP2011105643 A JP 2011105643A JP 2012238117 A JP2012238117 A JP 2012238117A
Authority
JP
Japan
Prior art keywords
information
area
region
depth information
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011105643A
Other languages
English (en)
Other versions
JP5734080B2 (ja
Inventor
Sonoko Miyatani
その子 宮谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011105643A priority Critical patent/JP5734080B2/ja
Publication of JP2012238117A publication Critical patent/JP2012238117A/ja
Application granted granted Critical
Publication of JP5734080B2 publication Critical patent/JP5734080B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】
現実画像と仮想画像(CG)とを正確且つ高速に合成できるようにした技術を提供する。
【解決手段】
情報処理装置は、現実空間を撮影した現実画像に対して仮想画像を合成する。ここで、情報処理装置は、現実空間における各部の奥行き情報を取得する取得手段と、仮想画像における各部の奥行き情報を算出する奥行き情報算出手段と、取得した奥行き情報と算出した奥行き情報とをそれぞれ対応する位置毎に比較し、それぞれの差が所定の閾値を越える領域を抽出領域として抽出する領域抽出手段と、現実画像における色情報を用いて抽出領域を補正する補正手段と、補正した抽出領域を、仮想画像の描画を禁止する描画禁止領域として規定する規定手段と、描画禁止領域に基づいて仮想画像を描画する描画手段と、現実画像と描画した仮想画像とを合成する合成手段とを具備する。
【選択図】 図1

Description

本発明は、情報処理装置、その処理方法及びプログラムに関する。
近年、現実空間の映像に三次元のCG(Computer Graphics)を合成することにより、現実空間にはない情報をユーザに提示する技術が開発されている。このような技術は、MR(Mixed Reality:複合現実感)システムと呼ばれている。
MRシステムは、現実空間と切り離された状況のみにおいて体験することが可能であった仮想空間と現実空間との共存を目的とし、仮想空間を増強する技術として注目されている。
MRシステムを実現させるための1つの技術として位置合わせ技術がある。これは、現実空間のカメラの位置及び姿勢と仮想カメラの位置及び姿勢とを一致させることを目的とした技術であり、現実空間とCGとを違和感なく合成するために必要な技術である。
現実空間のカメラの位置及び姿勢を算出する方法としては、位置姿勢計測センサを用いる方法や、カメラが撮影した特徴点の位置から画像処理を用いて算出する方法(特許文献1)、それら両者の技術を組み合わせた方法(特許文献2)などが提案されている。しかし、上述した方法では、現実空間の奥行き情報が不足しているため、CGと現実物との奥行き方向の関係を正しく表現することができない。
ここで、図9(a)に示すように、CG101に対してユーザが自らの手102を使ってCGに対して何らかの操作を行なう場合について考えてみる。符号103は、CGと現実画像との境界部分を示している。この場合、手の奥行き情報がないため、手102とCG101との奥行き関係を求めることはできない。そのため、図9(b)に示すように、手102がCG101によって隠れてしまった合成映像になってしまう。符号201は、CG101と手102との境界部分を示している。
この状況に対処する方法の1つとしては、予め登録しておいた色情報に基づいてマスキング処理を行なう方法が提案されている(特許文献3)。この方法では、「現実画像内の予め登録された色領域」→「CG」→「現実画像」の優先順位で描画がなされる。例えば、手の色を予め登録しておいた場合、「手」→「CG」→「手以外の現実画像」の優先順位で描画が行なわれ、図10の符号301に示すように、CG101と手102との境界部分がなくなった合成映像が得られる。しかし、この方法においても、現実空間の奥行き情報がないため、奥行き方向の関係を必ずしも正しく表現することはできない。
ここで、現実空間の奥行き情報を取得する方法としては、赤外線や超音波等を使用した奥行きセンサを用いる方法や、2つ以上のカメラで撮影した映像から画像処理を用いて距離を求める方法などが知られている。しかし、一般に、奥行き画像の解像度は、カメラの撮像解像度と比べて低く、また、測定可能範囲を大きくすればするほど、分解能が低くなってしまう場合が多い。
そのため、不正確な奥行き情報が得られ、このような奥行き情報を用いて、現実画像とCGとを合成した場合、図11(a)に示すように、現実画像とCGとの境界部分103に不自然なノイズが発生してしまう。また、奥行き情報の分解能が低い場合には、図11(b)に示すように、本来の正しい位置関係すら表現できない場合も考えられる。このような奥行き画像の問題を回避する方法の1つとしては、カメラにより撮影された現実画像を用いて、奥行き画像を超解像度化する手法が提案されている(非特許文献1)。
特開2003−319388号公報 特開2007−164631号公報 特開2003−29675号公報
Qingxiong Yang, Ruigang Yang, James Davis, David Nister, Spatial-Depth Super Resolution for Range Images, CVPR 2007
上述した通り、奥行き情報が得られたとしても、当該奥行き情報の解像度が現実画像の解像度よりも低い場合や、分解能が低い場合には、現実画像とCGとの合成が不正確になってしまっていた。
また、複合現実感をユーザに体験させるためには、全ての処理をリアルタイムに実施する必要がある。しかし、上記方法(非特許文献1)では、距離画像の全領域に対して超解像度化の処理が行なわれるため、処理時間を要し、リアルタイム性を確保できない可能性がある。
本発明は、上記課題に鑑みてなされたものであり、現実画像と仮想画像(CG)とを正確且つ高速に合成できるようにした技術を提供することを目的とする。
上記課題を解決するため、本発明の一態様は、現実空間を撮影した現実画像に対して仮想画像を合成する情報処理装置であって、前記現実空間における各部の奥行き情報を取得する取得手段と、前記仮想画像における各部の奥行き情報を算出する奥行き情報算出手段と、前記取得した奥行き情報と前記算出した奥行き情報とをそれぞれ対応する位置毎に比較し、それぞれの差が所定の閾値を越える領域を抽出領域として抽出する領域抽出手段と、前記現実画像における色情報を用いて前記抽出領域を補正する補正手段と、前記補正手段により補正された前記抽出領域を、前記仮想画像の描画を禁止する描画禁止領域として規定する規定手段と、前記描画禁止領域に基づいて仮想画像を描画する描画手段と、前記現実画像と前記描画された仮想画像とを合成する合成手段とを具備する
本発明によれば、現実画像と仮想画像(CG)とを正確且つ高速に合成できる。
本発明の一実施の形態に係わる情報処理装置10を配して構成した情報処理システムの構成の一例を示す図。 図1に示す情報処理装置10の処理の流れの一例を示すフローチャート。 図2のS107に示す第2の補正処理の流れの一例を示すフローチャート。 図2のS104の処理で抽出される領域(抽出領域)の概要を示す図。 図2のS106及びS107に示す補正処理の概要を示す図。 図2のS108〜S110の処理の概要を示す図。 実施形態2に係わる情報処理装置10の処理の流れの一例を示すフローチャート。 図7に示すS304及びS305の処理の概要を示す図。 従来技術を説明するための図。 従来技術を説明するための図。 従来技術を説明するための図。
以下、本発明に係わる実施の形態について添付図面を参照して詳細に説明する。
(実施形態1)
図1は、本発明の一実施の形態に係わる情報処理装置10を配して構成した情報処理システムの構成の一例を示す図である。
情報処理システムには、情報処理装置10と、撮像装置21と、位置姿勢計測装置22と、デプス値計測装置23と、表示装置24とが具備される。
情報処理装置10、撮像装置21、位置姿勢計測装置22、デプス値計測装置23及び表示装置24には、コンピュータが内蔵されている。コンピュータには、CPU(Central Processing Unit)等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、ボタンやディスプレイ又はタッチパネル等の入出力手段、ネットワークカード等の通信手段等も具備されていても良い。なお、これら各構成部は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。
ここで、撮像装置21は、例えば、CCD(Charge Coupled Device)カメラなどで実現され、現実空間を撮影する。位置姿勢計測装置22は、例えば、ジャイロセンサ、磁器センサなどで実現され、撮像装置21の位置及び姿勢を計測する。
デプス値計測装置23は、例えば、赤外線、超音波、又はステレオ画像などを用いて現実空間のデプス値(奥行き情報)を測定する。表示装置24は、例えば、CRT液晶モニターなどで実現され、情報処理装置10により合成された画像(映像)を表示する。
ここで、情報処理装置10は、その機能的な構成として、画像取得部31と、位置姿勢算出部32と、記憶部33と、Zバッファ作成部34と、領域抽出部35と、デプス値取得部36と、補正部37とを具備して構成される。また、情報処理装置10には、ステンシルバッファ作成部38、CG描画部39、合成部40も設けられる。以下、各部の機能について説明する。
画像取得部31は、撮像装置21により撮影された現実空間の画像を取得する。取得された現実画像は、補正部37及び合成部40へ送られる。また、現実画像は、撮像装置21の位置及び姿勢の計測処理に画像を使用する場合、位置姿勢算出部32へも送られる。
位置姿勢算出部32は、撮像装置21の位置及び姿勢を算出する。位置姿勢算出部32においては、位置姿勢計測装置22により計測された位置及び姿勢の計測値、現実画像の少なくともいずれかを用いて、撮像装置21の位置及び姿勢(の情報)を算出する。
ここで、位置及び姿勢の計測値を用いて撮像装置21の位置及び姿勢を算出する場合、位置姿勢算出部32は、撮像装置21固有の特性を表すパラメータや、位置姿勢計測装置22の取り付け位置と撮像装置21のレンズ中心との位置姿勢関係を用いる。なお、撮像装置21固有の特性を表すパラメータは、例えば、撮像装置21の焦点距離や主点位置などを示す情報であり、記憶部33に予め記憶されている。
また、現実画像を用いて撮像装置21の位置及び姿勢を算出する場合、位置姿勢算出部32は、撮像装置21固有の特性を表すパラメータと、現実空間に存在する指標に関する位置姿勢定義情報と、現実画像内の指標に関する位置情報とを用いる。なお、位置姿勢算出部32により算出された位置及び姿勢(の情報)は、Zバッファ作成部34、領域抽出部35及びCG描画部39へ送られる。
Zバッファ作成部34は、位置姿勢算出部32により算出された位置及び姿勢の情報に基づいて、仮想画像(CG)を投影したときのZ値(奥行き情報)を算出する。これにより、CGのZバッファを作成する。Zバッファは、仮想画像における各部の奥行き情報算出の結果がZ値として保持されるメモリ領域を示す。なお、算出されたZ値は、領域抽出部35へ送られる。
デプス値取得部36は、デプス値計測装置23により計測された現実空間のデプス値(デプスマップ)を取得する。なお、デプスマップには、撮像装置21により撮影された現実空間における各部の奥行き情報がデプス値として保持される。取得したデプス値(デプスマップ)は、領域抽出部35へ送られる。
記憶部33は、各種情報を記憶する。記憶部33には、撮像装置21の焦点距離や主点位置などの撮像装置21固有の特性を表すパラメータ、位置姿勢計測装置22の取り付け位置と撮像装置21のレンズ中心との位置姿勢関係などが記憶される。また、記憶部33には、現実空間に存在する指標の位置姿勢定義情報も記憶される。
領域抽出部35は、Zバッファ作成部34により算出されたCGのZ値と、デプス値取得部36により取得された現実空間のデプス値とをそれぞれ対応する位置毎に比較し、その比較結果に基づいてZ値とデプス値との差が所定の閾値を越える領域を抽出する。この領域の抽出は、現実画像から行なわれる。なお、抽出する領域(抽出領域)は、上述した所定の閾値を「0」に設定し、Z値がデプス値を越える全ての領域としても良い。また、デプス値の分解能が低い場合には、閾値を「0」よりも小さい値に設定し、Z値がデプス値よりも小さくなる領域をも含めるようにしても良い。
補正部37は、領域抽出部35により抽出された領域(抽出領域)に対して補正処理を行なう。より具体的には、補正部37は、抽出領域の色情報に基づいて、当該抽出領域の範囲を補正する。
ステンシルバッファ作成部38は、補正部37により補正された領域を書き込み禁止領域(描画禁止領域)として規定するステンシルバッファを作成する。すなわち、ステンシルバッファに規定された現実画像上における領域は、CGの描画が禁止される。作成されたステンシルバッファは、CG描画部39へ送られる。
CG描画部39は、ステンシルバッファ作成部38により作成されたステンシルバッファに基づいて仮想画像(CG)を描画する。より具体的には、ステンシルバッファに規定された領域以外でCGの描画を行なう。合成部40は、現実画像とCG画像とを合成する。合成された映像は、表示装置24において表示される。
以上が、情報処理システムの構成の一例についての説明である。なお、情報処理装置10に設けられた機能的な構成は、必ずしも図示した通りに実現される必要はなく、システム内におけるいずれかの装置にその全部若しくは一部が実現されていればよい。
また、各種装置の構成も、必ずしも図示した通りに実現される必要はない。例えば、撮像装置21、位置姿勢計測装置22、デプス値計測装置23、表示装置24の少なくともいずれかが情報処理装置10内の構成として設けられていても良い。
次に、図2を用いて、図1に示す情報処理装置10における処理の流れの一例について説明する。
この処理では、まず、撮像装置21において、現実空間の撮影が行なわれる。すると、情報処理装置10は、画像取得部31において、撮像装置21により撮影された画像(現実画像)を取得する(S101)。また、このとき、デプス値計測装置23において、現実空間のデプス値が測定され、情報処理装置10は、デプス値取得部36において、当該デプス値(すなわち、デプスマップ)を取得する(S102)。
情報処理装置10は、Zバッファ作成部34において、位置姿勢算出部32により算出された撮像装置21の位置及び姿勢に基づいて、CGを投影したときのZ値を算出する(S103)。すなわち、CGのZバッファを作成する。
情報処理装置10は、領域抽出部35において、現実空間のデプス値とCGのZ値とをそれぞれ対応する位置毎に比較し、CGのZ値と現実空間のデプス値との差が所定の閾値を越える領域(抽出領域)を抽出する(S104)。上述した通り、この抽出領域は、現実画像から抽出される。
ここで、情報処理装置10は、補正部37において、抽出領域を代表する色情報を算出(決定)する(S105)。この処理においては、例えば、抽出領域内の色情報(輝度及び色調等)のヒストグラムを作成し、頻度が最も高い色情報を代表値(代表色情報)として算出すれば良い。
情報処理装置10は、補正部37において、代表色情報を用いて、抽出領域の範囲を補正(第1の補正)する。より具体的には、代表色情報と、抽出領域における注目画素の色情報とを画素毎に比較する。比較の結果、注目画素の色情報が、代表色情報と類似していれば当該画素を抽出領域内に含め、類似していなければ抽出領域から排除する(S106)。なお、類似しているか否かはの判定は、色情報に対して所定の基準(例えば、閾値)を設け、代表色情報と注目画素との色情報が、所定の基準よりも類似しているか否かを比較することにより行なえば良い。
続いて、情報処理装置10は、補正部37において、当該領域の色情報の変化量を用いて、S106で処理された抽出領域の範囲を更に補正(第2の補正)する(S107)。なお、この処理の詳細については後述する。
情報処理装置10は、ステンシルバッファ作成部38において、S106及びS107の処理で範囲が補正された抽出領域を書込み禁止とするステンシルバッファを作成する(S108)。そして、CG描画部39において、当該作成したステンシルバッファに基づいてCGを描画する(S109)。その後、情報処理装置10は、合成部40において、S101の処理で取得された現実画像と、S109の処理で描画されたCGとを合成した後(S110)、この処理を終了する。
ここで、図3を用いて、図2のS107に示す第2の補正処理の詳細について説明する。
情報処理装置10は、補正部37において、現実画像を走査する(S201)。そして、注目画素が図2のS106の処理で抽出された領域(抽出領域)であるか否かを判定する。抽出領域でなければ(S202でNO)、未走査の画素が存在するか否かを判定し、未走査の画素があれば(S203でYES)、情報処理装置10は、再度、S201の処理を行なう。一方、未走査の画素がなければ(S203でNO)、情報処理装置10は、この処理を終了する。
また、S202の処理の結果、抽出領域であれば(S202でYES)、情報処理装置10は、補正部37において、注目画素の所定範囲内(注目画素を囲む領域:例えば、注目画素の8近傍内)に、抽出領域以外にある画素が存在するか否かを探索する(S204)。抽出領域以外にある画素が存在しなければ(S205でNO)、情報処理装置10は、未走査の画素が存在するか否かを判定する。未走査の画素があれば(S209でYES)、情報処理装置10は、再度、S201の処理を行なう。一方、未走査の画素がなければ(S209でNO)、情報処理装置10は、この処理を終了する。
S205の判定の結果、注目画素の所定範囲内に、抽出領域以外にある画素が存在すれば(S205でYES)、情報処理装置10は、補正部37において、注目画素を中心とした輝度変化を算出する(S206)。なお、輝度変化は、例えば、輝度や濃度の微分や、ラプラシアンなどにより求めれば良い。
S206の処理の結果、注目画素がエッジであれば(S207でYES)、情報処理装置10は、この処理を終了する。注目画素がエッジでなければ(S207でNO)、情報処理装置10は、注目画素の所定範囲内(例えば、注目画素の8近傍)の全てを抽出領域に含めた後(S208)、上述したS209の処理に進む。なお、S207の処理では、微分値の大きさが所定の閾値以上になった場合にエッジと判定すれば良い。また、ラプラシアンの符号が変化した場合にエッジと判定しても良い。
ここで、図4を用いて、図2のS104の処理で抽出される領域(抽出領域)の概要について説明する。
符号51は、現実空間のデプスマップを示し、符号52は、仮想画像(CG)のZバッファを示し、符号53は、現実画像を示している。符号54及び符号55は、デプスマップ51のデプス値とZバッファ52のZ値との比較の結果に基づいて抽出された領域(抽出領域)を、デプスマップ及び現実画像においてそれぞれ示している。
次に、図5を用いて、図2のS106及びS107に示す補正処理の概要について説明する。
符号56は、図4に示す抽出領域55の拡大図を示している。すなわち、現実画像53における抽出領域54の拡大図である。符号56は、抽出領域56に対して第1の補正処理を実施した結果を示している。符号57は、第1の補正処理後の抽出領域57に対して、第2の補正処理(図3参照)を実施した結果を示している。すなわち、符号57においては、代表色情報に基づいて抽出領域の範囲が補正されており、符号58においては、色情報の変化量に基づいて抽出領域の範囲が補正されている。
次に、図6を用いて、図2のS108〜S110の処理の概要について説明する。
符号61は、第2の補正処理後の抽出領域64を描画禁止領域として規定するステンシルバッファを示している。符号62は、当該ステンシルバッファに基づいてCG65を描画した結果を示している。符号63は、CGの描画画像62と現実画像とを合成した合成画像63を示している。すなわち、符号62においては、ステンシルバッファに規定された領域以外でCGの描画が行なわれており、符号63においては、当該描画されたCGと現実画像との合成が行なわれている。
以上説明したように本実施形態によれば、現実空間のデプス値と仮想画像(CG)のZ値とを比較してCGの描画禁止領域の候補となる領域(抽出領域)を抽出する。そして、色情報に基づいて当該抽出領域の範囲を補正し、当該補正後の抽出領域に基づいてCGを描画して合成する。
このように本実施形態によれば、現実画像と仮想画像(CG)との奥行き関係を考慮して、CGと現実画像との境界部分にノイズ等が生じることを抑えた合成映像を生成する。
また、本実施形態によれば、上記ノイズ等の発生を抑えるために抽出領域のみを対象として処理を行なうので、処理対象となる範囲が抑えられ、処理の高速化が図れる。すなわち、本実施形態によれば、ノイズ等の発生を抑えた合成映像をリアルタイムに生成することができる。
(実施形態2)
次に、実施形態2について説明する。実施形態2に係わる情報処理装置10は、実施形態1を説明した図1と同様の構成となる。そのため、実施形態2に係わる情報処理装置10の構成については、図示を用いた説明を省略する。ここでは、相違する点について重点的に説明する。
ここで、実施形態1を説明した図1と相違する構成としては、領域抽出部35及び補正部37が挙げられる。
実施形態1に係わる領域抽出部35においては、現実画像から領域の抽出を行なっていたが、実施形態2に係わる領域抽出部35においては、デプスマップから領域の抽出を行なう。
また、実施形態1に係わる補正部37においては、第1の補正処理及び第2の補正処理を実施し、現実画像から抽出された抽出領域の範囲を補正していた。これに対して、実施形態2に係わる補正部37においては、現実画像ではなく、デプスマップから抽出された抽出領域に対して補正処理を行なう。補正処理としては、第1の補正処理及び第2の補正処理を行なわず、超解像度化処理を行なう。以下、この点についてより具体的に説明する。
ここで、図7を用いて、実施形態2に係わる情報処理装置10における処理の流れの一例について説明する。
情報処理装置10は、実施形態1を説明した図2のS101〜S103と同様の処理を実施する(S301〜S303)。その後、情報処理装置10は、領域抽出部35において、現実空間のデプス値とCGのZ値とをそれぞれ対応する位置毎に比較し、CGのZ値と現実空間のデプス値との差が所定の閾値を越える領域(抽出領域)を抽出する(S304)。上述した通り、実施形態2においては、抽出領域は、デプスマップから抽出される。
情報処理装置10は、補正部37において、S304の処理で抽出された抽出領域54(及び/又は、抽出領域54とそれ以外の領域との境界領域)に対して超解像度化処理を行なう(S305)。すなわち、デプスマップにおける抽出領域を超解像度化する。この超解像度化は、現実画像における対応する領域(抽出領域55及び/又は、抽出領域55とそれ以外の領域との境界領域)の色情報を用いて行なわれる。なお、超解像度化は、例えば、非特許文献1に記載された手法等に従って行なえば良い。
その後、情報処理装置10は、ステンシルバッファ作成部38において、S305の処理で超解像度化された領域を書込み禁止とするステンシルバッファを作成する(S306)。情報処理装置10は、当該作成したステンシルバッファに基づいてCGを描画する(S307)。その後、情報処理装置10は、合成部40において、S301の処理で取得された現実画像と、S307の処理で描画されたCGとを合成した後(S308)、この処理を終了する。
ここで、図8を用いて、図7に示すS304及びS305の処理の概要について説明する。
符号54は、図4に示す抽出領域54の拡大図を示している。すなわち、デプスマップ51における抽出領域の拡大図を示している。符号71は、現実画像における抽出領域55の色情報を用いて、デプスマップ51における抽出領域54に対して超解像度化を行なった結果を示している。なお、符号71に示す抽出領域の形状が変化しているのは、超解像度化処理により抽出領域が高解像度化されたためである。
以上説明したように実施形態2によれば、現実空間のデプス値と仮想画像(CG)のZ値とを比較してCGの描画禁止領域(抽出領域)を抽出する。そして、当該抽出領域を超解像度化により補正した後、当該補正後の抽出領域に基づいてCGを描画して合成する。
これにより、実施形態2においても、実施形態1同様に、現実画像と仮想画像(CG)との奥行き関係を考慮して、ノイズ等の発生を抑えた合成映像をリアルタイムに生成することができる。
以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。
例えば、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施態様を採ることもできる。具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (8)

  1. 現実空間を撮影した現実画像に対して仮想画像を合成する情報処理装置であって、
    前記現実空間における各部の奥行き情報を取得する取得手段と、
    前記仮想画像における各部の奥行き情報を算出する奥行き情報算出手段と、
    前記取得した奥行き情報と前記算出した奥行き情報とをそれぞれ対応する位置毎に比較し、それぞれの差が所定の閾値を越える領域を抽出領域として抽出する領域抽出手段と、
    前記現実画像における色情報を用いて前記抽出領域を補正する補正手段と、
    前記補正手段により補正された前記抽出領域を、前記仮想画像の描画を禁止する描画禁止領域として規定する規定手段と、
    前記描画禁止領域に基づいて仮想画像を描画する描画手段と、
    前記現実画像と前記描画された仮想画像とを合成する合成手段と
    を具備することを特徴とする情報処理装置。
  2. 前記領域抽出手段は、
    前記抽出領域として、前記現実画像から前記取得した奥行き情報と前記算出した奥行き情報との差が所定の閾値を越える領域を抽出し、
    前記補正手段は、
    前記現実画像における色情報を用いて前記抽出領域の範囲を補正し、
    前記規定手段は、
    前記補正手段により範囲が補正された前記抽出領域を、前記描画禁止領域として規定する
    ことを特徴とする請求項1記載の情報処理装置。
  3. 前記補正手段は、
    前記抽出領域を代表する色情報を決定する決定手段と、
    前記決定手段により決定された代表色情報と、前記抽出領域の色情報とを画素毎に比較し、前記代表色情報と前記色情報とが所定の基準よりも類似している画素を前記抽出領域に含め、そうでない画素を前記抽出領域から排除する
    ことを特徴とする請求項2記載の情報処理装置。
  4. 前記補正手段は、
    前記抽出領域の色情報の変化量に基づいて、前記抽出領域とそれ以外の領域との境界を変更する
    ことを特徴とする請求項2又は3記載の情報処理装置。
  5. 前記取得手段は、
    前記取得した奥行き情報をデプス値としてデプスマップに保持し、
    前記奥行き情報算出手段は、
    前記算出した奥行き情報をZ値としてZバッファに保持し、
    前記領域抽出手段は、
    前記抽出領域として、前記デプスマップから前記デプス値と前記Z値との差が所定の閾値を越える領域を抽出し、
    前記補正手段は、
    前記抽出領域を、前記現実画像における対応する領域の色情報を用いて超解像度化し、
    前記規定手段は、
    前記現実画像における色情報を用いて、前記補正手段による補正により超解像度化された前記抽出領域を、前記描画禁止領域として規定する
    ことを特徴とする請求項1記載の情報処理装置。
  6. 前記現実空間を撮影した撮像装置の位置及び姿勢を算出する位置姿勢算出手段
    を更に具備し、
    前記奥行き情報算出手段は、
    前記位置姿勢算出手段により算出された前記撮像装置の位置及び姿勢の情報に基づいて奥行き情報を算出する
    ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
  7. 現実空間を撮影した現実画像に対して仮想画像を合成する情報処理装置の処理方法であって、
    取得手段が、前記現実空間における各部の奥行き情報を取得する工程と、
    奥行き情報算出手段が、前記仮想画像における各部の奥行き情報を算出する工程と、
    領域抽出手段が、前記取得した奥行き情報と前記算出した奥行き情報とをそれぞれ対応する位置毎に比較し、それぞれの差が所定の閾値を越える領域を抽出領域として抽出する工程と、
    補正手段が、前記現実画像における色情報を用いて前記抽出領域を補正する工程と、
    規定手段が、前記補正された前記抽出領域を、前記仮想画像の描画を禁止する描画禁止領域として規定する工程と、
    描画手段が、前記描画禁止領域に基づいて仮想画像を描画する工程と、
    合成手段が、前記現実画像と前記描画された仮想画像とを合成する工程と
    を含むことを特徴とする処理方法。
  8. 現実空間を撮影した現実画像に対して仮想画像を合成する情報処理装置に内蔵されたコンピュータを、
    前記現実空間における各部の奥行き情報を取得する取得手段、
    前記仮想画像における各部の奥行き情報を算出する奥行き情報算出手段、
    前記取得した奥行き情報と前記算出した奥行き情報とをそれぞれ対応する位置毎に比較し、それぞれの差が所定の閾値を越える領域を抽出領域として抽出する領域抽出手段、
    前記現実画像における色情報を用いて前記抽出領域を補正する補正手段、
    前記補正手段により補正された前記抽出領域を、前記仮想画像の描画を禁止する描画禁止領域として規定する規定手段、
    前記描画禁止領域に基づいて仮想画像を描画する描画手段、
    前記現実画像と前記描画された仮想画像とを合成する合成手段
    として機能させるためのプログラム。
JP2011105643A 2011-05-10 2011-05-10 情報処理装置、その処理方法及びプログラム Active JP5734080B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011105643A JP5734080B2 (ja) 2011-05-10 2011-05-10 情報処理装置、その処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011105643A JP5734080B2 (ja) 2011-05-10 2011-05-10 情報処理装置、その処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2012238117A true JP2012238117A (ja) 2012-12-06
JP5734080B2 JP5734080B2 (ja) 2015-06-10

Family

ID=47460978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011105643A Active JP5734080B2 (ja) 2011-05-10 2011-05-10 情報処理装置、その処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5734080B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101881295B1 (ko) * 2017-12-11 2018-07-24 (주)진명아이앤씨 증강현실을 이용한 레이어 믹서 기반의 비디오 시스템
WO2019087491A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141569A (ja) * 2001-10-31 2003-05-16 Canon Inc 情報処理方法および映像合成装置
JP2004234549A (ja) * 2003-01-31 2004-08-19 Canon Inc 現実物体モデル作成方法
JP2005346468A (ja) * 2004-06-03 2005-12-15 Canon Inc 画像処理方法、画像処理装置
JP2006033383A (ja) * 2004-07-15 2006-02-02 Canon Inc 画像処理装置およびその方法
JP2008532149A (ja) * 2005-03-02 2008-08-14 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Arオブジェクトとの光学的な重なり合いを判定する方法および装置
JP2008293209A (ja) * 2007-05-23 2008-12-04 Canon Inc 複合現実感提示装置及びその制御方法、コンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141569A (ja) * 2001-10-31 2003-05-16 Canon Inc 情報処理方法および映像合成装置
JP2004234549A (ja) * 2003-01-31 2004-08-19 Canon Inc 現実物体モデル作成方法
JP2005346468A (ja) * 2004-06-03 2005-12-15 Canon Inc 画像処理方法、画像処理装置
JP2006033383A (ja) * 2004-07-15 2006-02-02 Canon Inc 画像処理装置およびその方法
JP2008532149A (ja) * 2005-03-02 2008-08-14 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Arオブジェクトとの光学的な重なり合いを判定する方法および装置
JP2008293209A (ja) * 2007-05-23 2008-12-04 Canon Inc 複合現実感提示装置及びその制御方法、コンピュータプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087491A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US11176747B2 (en) 2017-10-30 2021-11-16 Sony Corporation Information processing apparatus and information processing method
KR101881295B1 (ko) * 2017-12-11 2018-07-24 (주)진명아이앤씨 증강현실을 이용한 레이어 믹서 기반의 비디오 시스템

Also Published As

Publication number Publication date
JP5734080B2 (ja) 2015-06-10

Similar Documents

Publication Publication Date Title
JP7003238B2 (ja) 画像処理方法、装置、及び、デバイス
KR102342668B1 (ko) 화상 처리장치, 화상 처리방법 및 기억매체
US9020241B2 (en) Image providing device, image providing method, and image providing program for providing past-experience images
US8803918B2 (en) Methods and apparatus for calibrating focused plenoptic camera data
JP5847924B2 (ja) 拡張現実表現のための二次元画像取込み
KR101932537B1 (ko) 3차원 전자지도상에 촬영영상을 표시하는 방법 및 장치
US20180014003A1 (en) Measuring Accuracy of Image Based Depth Sensing Systems
EP2757789A1 (en) Image processing system, image processing method, and image processing program
JP6452360B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2015197745A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6610535B2 (ja) 画像処理装置および画像処理方法
JP5653104B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US8633926B2 (en) Mesoscopic geometry modulation
TW201225658A (en) Imaging device, image-processing device, image-processing method, and image-processing program
JP5734080B2 (ja) 情報処理装置、その処理方法及びプログラム
KR101566459B1 (ko) 이미지 기반의 비주얼 헐에서의 오목 표면 모델링
JP6756679B2 (ja) 決定装置、画像処理装置、決定方法及び決定プログラム
JP5926626B2 (ja) 画像処理装置及びその制御方法、プログラム
JP6685814B2 (ja) 撮像装置およびその制御方法
JP2014199508A (ja) 画像処理装置、画像処理方法及びプログラム
US20140221746A1 (en) Stereo endoscope apparatus and image processing method
JP5281720B1 (ja) 立体映像処理装置及び立体映像処理方法
JP2019159375A (ja) 情報処理装置,重畳表示プログラム,重畳表示方法
JP2013115739A (ja) 画像間差分装置および画像間差分方法
US20240161394A1 (en) Information processing apparatus, information processing method, and computer-readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150414

R151 Written notification of patent or utility model registration

Ref document number: 5734080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151