JP2016218905A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2016218905A
JP2016218905A JP2015105599A JP2015105599A JP2016218905A JP 2016218905 A JP2016218905 A JP 2016218905A JP 2015105599 A JP2015105599 A JP 2015105599A JP 2015105599 A JP2015105599 A JP 2015105599A JP 2016218905 A JP2016218905 A JP 2016218905A
Authority
JP
Japan
Prior art keywords
image
shooting
color information
imaging
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015105599A
Other languages
English (en)
Other versions
JP6587421B2 (ja
Inventor
中川 真志
Shinji Nakagawa
真志 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015105599A priority Critical patent/JP6587421B2/ja
Priority to US15/150,236 priority patent/US10002463B2/en
Publication of JP2016218905A publication Critical patent/JP2016218905A/ja
Application granted granted Critical
Publication of JP6587421B2 publication Critical patent/JP6587421B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】手間と時間を掛けず、様々な環境において肌色等の特定の色を高精度に検出可能にするための色情報を登録可能にすることを課題とする。
【解決手段】画像処理部(1050)は、対象被写体を配置させるための撮影領域を表す画像を生成し、撮影領域を表す画像を現実空間の実写映像に合成した表示用の合成映像を生成する。撮影領域判定部(1030)は、現実空間を撮像した撮像画像の撮影領域に相当する画像範囲の中に写っている対象被写体が、現実空間を撮像する際の撮像基準面からの距離として設定された距離範囲内に入っているか否かを判定し、対象被写体が前記距離範囲内に入っていると判定したとき、画像範囲内に写っている前記対象被写体の画像領域を検出する。肌色登録部(1040)は、検出された画像領域から肌色情報を抽出して、抽出した肌色情報を登録する。
【選択図】図1

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
特許文献1には、入力画像から例えば人の手の部分に対応した画像領域(手領域)を検出するための手領域検出装置が開示されている。特許文献1に記載の手領域検出装置は、先ず、人の統計的肌色特徴に基づいた肌色モデルを用いて、入力画像から手の候補領域を抽出する。次に、手領域検出装置は、その抽出された手の候補領域の形状複雑度を算出する。そして、手領域検出装置は、当該算出した形状複雑度を基に、手の候補領域が手領域であるか否かを判断する。
特開2007−52609号公報
前述した特許文献1に記載の技術の場合、人の統計的肌色特徴に基づく肌色モデルがどのようなモデルであるかにより、手領域を精度良く検出できるか否かが決まる。ただし、入力画像が肌色か否かを精度良く判定できる肌色モデルを生成するためには、例えば様々な環境等を考慮した膨大な数の肌色情報を予め取得して登録しておく必要がある。しかしながら、そのような膨大な数の肌色情報を予め登録しておくためには、非常に多くの手間と時間が必要になってしまう。
本発明はこのような問題点に鑑みてなされたものであり、手間と時間を掛けず、肌色等の特定の色を高精度に検出可能にするための色情報を登録する情報処理装置、情報処理方法、及びプログラムを提供することを目的とする。
本発明の情報処理装置は、対象被写体を配置させるための撮影領域を表す画像を生成し、前記撮影領域を表す画像を現実空間の実写映像に合成した表示用の合成映像を生成する生成手段と、現実空間を撮像した撮像画像の前記撮影領域に相当する画像範囲の中に写っている対象被写体が、現実空間を撮像する際の撮像基準面からの距離として設定された距離範囲内に入っているか否かを判定し、前記対象被写体が前記距離範囲内に入っていると判定したとき、前記画像範囲の中に写っている前記対象被写体の画像領域を検出する検出手段と、前記検出された画像領域から色情報を抽出して、前記抽出した色情報を特定の色情報として登録する登録手段とを有することを特徴とする。
本発明によれば、手間と時間を掛けず、肌色等の特定の色を高精度に検出可能にするための色情報を登録できる。
第1の実施形態の情報処理装置の一構成例を示す図である。 第1の実施形態の撮像部と撮影領域と手の配置例を示す図である。 手の特徴点に基づく手領域判定の説明に用いる図である。 第1の実施形態の情報処理装置による処理のフローチャートである。 画素深度に基づく手領域判定と肌色登録処理のフローチャートである。 手の特徴点に基づく手領域判定と肌色登録処理のフローチャートである。 第2の実施形態の情報処理装置の一構成例を説明する図である。 第2の実施形態で新たに決定される撮影領域の説明に用いる図である。 第2の実施形態の情報処理装置の撮影位置処理部のフローチャートである。
<第1の実施形態>
図1には、第1の実施形態の情報処理装置1000の概略構成を示す。第1の実施形態の情報処理装置1000には、撮像部100と表示部200が接続されている。撮像部100と表示部200は、一例として、ユーザが頭部に装着する頭部装着型画像表示装置(Head Mounted Display:以下、HMDと表記する。)等に搭載されている。なお、情報処理装置1000は、例えばHMD内に含まれていてもよいし、HMDから分離されていてもよい。情報処理装置1000とHMDが分離されている場合、当該HMDと情報処理装置1000は例えば無線や有線により接続される。また、情報処理装置1000とHMDが分離されている場合、情報処理装置1000は、例えばパーソナルコンピュータや携帯型の情報端末であってもよいし、専用装置として設けられていてもよい。
図2には、情報処理装置1000とHMD20との配置関係の一例を模式的に示している。HMD20に搭載されている撮像部100は、図2に示すように、一例として右カメラ100Lと左カメラ100Rからなるステレオカメラとなされている。HMD20に搭載されている表示部200は、右目用と左目用の表示装置を有した三次元表示が可能なディスプレイである。なお、表示部200は、二次元表示用のディスプレイであってもよい。図2には、HMD20の撮像部100にて撮影される対象被写体(例えば手220)と、現実空間内に仮想的に設定される撮影領域210とが描かれているが、これらの説明については後述する。
また、本実施形態の情報処理装置1000は、現実空間の実写映像とコンピュータグラフィックス処理で生成した仮想空間の画像とをリアルタイムに重ね合わせてユーザに提示する、複合現実感(Mixed Reality:MR)を実現する機能を有する。複合現実感を実現する場合、情報処理装置1000は、HMD20の撮像部100で撮影している実写映像の全域又は一部を、HMD20の撮像部100の撮影方向(方角)と撮影姿勢等に応じて生成した仮想空間画像に重畳して合成映像を生成する。そして、情報処理装置1000は、その合成映像を表示部200の画面に表示することにより、複合現実感をユーザに提供する。
一例として、現実空間の実写映像内に写っているユーザの「手」の映像を仮想空間の画像に合成するような場合、情報処理装置1000は、先ず、実写映像から手に対応した画像領域(以下、手領域とする)を検出する。具体的には、情報処理装置1000は、動画の実写映像を構成している各フレームの撮像画像の各画素の中から、手の肌色成分を有する画素を検出し、当該肌色成分を有する画素が集合した画像領域を手領域として検出する。また、情報処理装置1000は、HMD20の撮像部100による撮影の際の撮影方向(方角)と撮影姿勢を検出するとともに現実空間内における手の三次元位置を推定する。そして、情報処理装置1000は、実写映像から手領域を抽出し、現実空間内における手の三次元位置と、仮想空間内での手領域の三次元位置とが対応するように、当該手領域の画像を仮想空間内に配置させて仮想空間画像と合成する。これにより、現実空間に存在している手の実写映像が、仮想空間内に合成表示された複合現実感の実現が可能となる。
ここで、実写映像内の手の映像を仮想空間の画像に合成するような場合、実写映像から手領域を精度よく検出しなければならない。実写映像から手領域を検出する手法としては、一例として、人の統計的肌色特徴に基づく肌色モデルを用いて手領域を検出するような手法が考えられる。ただし、人の統計的肌色特徴に基づく肌色モデルを生成するには、通常は膨大な数の肌色情報を用意しなければならず、非常に多くの手間と時間が必要になってしまう。また、人の統計的肌色特徴に基づく肌色モデルは様々な人の手領域を検出するような用途では或る程度有効ではあるが、例えば特定のユーザの手領域を高精度に検出するような用途では必ずしも最適とは言えない。
このようなことから、本実施形態の情報処理装置1000は、例えばHMD20を装着している特定のユーザの手の肌色のような、特定の対象被写体の特定の色を高精度に検出可能にする色情報を、手間と時間を掛けずに登録可能となされている。以下、具体的な例として、図2に示すようなHMD20を装着しているユーザの手220を対象被写体の一例とし、その手220の皮膚の肌色を特定の色情報として取得して登録する場合を例に挙げて説明する。なお、本実施形態では、対象被写体としてユーザの手を例に挙げ、特定の色情報として肌色情報を例に挙げているが、本発明における対象被写体は手に限定されず、さらに、特定の色情報も肌色情報に限定されるものではない。また、本実施形態では、複合現実感への適用例を挙げているが、本発明は複合現実感に適用する場合だけに限定されるものではない。
手220の肌色情報を登録する例において、情報処理装置1000は、先ず、HMD20の撮像部100にて撮影されている現実空間内に、仮想的な三次元の撮影領域210を設定する。またこのとき、情報処理装置1000は、HMD20の表示部200の表示画面に、現実空間内に仮想的に設定された三次元の撮影領域210を表すコンピュータグラフィック(以下CGとする。)画像を重畳した合成映像を表示させる。撮影領域210は、HMD20の表示部200に表示されている実写映像、すなわち撮像部100が撮影している現実空間内で、ユーザの手220を配置させるべき三次元領域を表している。そして、情報処理装置1000は、HMD20の撮像部100が現実空間を撮像している撮像画像から、撮影領域210内に写っている手220の画像領域(手領域)を検出し、当該検出した手領域から肌色情報を抽出して登録する。なお、本実施形態の情報処理装置1000が撮影領域210内の手領域を検出し、その手領域から肌色情報を抽出して登録する処理の詳細については後述する。
本実施形態の情報処理装置1000は、前述した撮影領域210の設定と手領域の検出と肌色情報の抽出及び登録を実現するための構成として、図1に示すような各構成要素を有している。すなわち、情報処理装置1000は、画像取得部1010、データ記憶部1020、撮影領域判定部1030、肌色登録部1040、画像処理部1050、画像出力部1060を有している。画像処理部1050は生成手段の一例であり、撮影領域判定部1030は検出手段の一例であり、肌色登録部1040は登録手段の一例である。なお、情報処理装置1000が備えているこれらの各構成要素は、ハードウェアにより実現されてもよいし、ソフトウェアプログラムにより実現されてもよい。また、当該ソフトウェアプログラムは、コンピュータが読み取り可能な記憶媒体を介して、又は、ネットワーク等を介して、情報処理装置1000に提供されてインストールされてもよい。
画像取得部1010は、撮像制御手段の一例であり、撮像部100が撮影している現実空間の実写映像データ、つまりHMD20の右カメラ100Lと左カメラ100Rにより撮像されている左右二つの撮像画像データを取得する。なお、画像取得部1010は、例えばいわゆるビデオキャプチャーカードにより構成されている。画像取得部1010は、撮像部100から取得した撮像画像データを、データ記憶部1020に記憶させる。
データ記憶部1020は、画像取得部1010が取得した実写映像の撮像画像データ、画像処理部1050がCG処理により生成する仮想空間内の仮想物体等のデータ、後述する肌色登録部1040により検出される肌色情報等を記憶する。なお、データ記憶部1020は、撮像部100で撮像されて画像取得部1010で取得された動画の撮像画像、つまり現実空間の実写映像のデータを、略々リアルタイムに画像処理部1050へ転送する機能も備えている。
画像処理部1050は、CG処理により仮想空間内の仮想物体等の画像データを生成する。本実施形態の情報処理装置1000において手領域から肌色情報を検出して登録する処理が行われる場合、画像処理部1050は、図2に示したような三次元の撮影領域210を表すCG画像(以下、撮影領域CGモデルとする。)を生成する。撮影領域CGモデルは、奥行きのある三次元画像として生成され、図2に示したように撮影領域210が三次元の直方体モデルである場合には、撮影領域CGモデルも直方体三次元画像となされる。そして、画像処理部1050は、撮像部100にて撮影されて画像取得部1010で取得され、さらにデータ記憶部1020から略々リアルタイムに転送された動画の実写映像データに対し、撮影領域CGモデルを重畳させた合成映像を生成する。具体的には、本実施形態の場合、画像処理部1050は、撮影領域CGモデルを、撮像部100における撮像座標系(カメラ座標系)の固定位置にレンダリングすることにより、動画の実写映像データに対して撮影領域CGモデルを重畳させた合成映像を生成する。そして、画像処理部1050は、実写映像データに撮影領域CGモデルが重畳された合成映像データを、画像出力部1060へ送る。
画像出力部1060は、表示制御手段の一例であり、画像処理部1050から送られてきた合成映像を、表示部200の画面上に表示させる。これにより、表示部200の画面上には、現実空間の実写映像に撮影領域CGモデルが重畳された合成映像が表示されることになる。なお、本実施形態の場合、撮影領域CGモデルは、前述したように、撮像座標系の固定位置にレンダリングされている。このため、例えばユーザの頭部が動いてHMD20の撮像部100の撮影方向等が変化したことで、表示部200に表示される実写映像が変わったとしても、撮影領域CGモデルは、表示部200の画面上の固定位置に表示されてその表示位置は変化しない。
撮影領域判定部1030は、データ記憶部1020に記憶されている撮像画像について、撮影領域210に相当する画像範囲内に手領域があるか否か判定する。以下、撮影領域210に相当する画像範囲を撮影領域画像と表記する。そして、撮影領域判定部1030は、撮影領域画像内に手領域がある場合には、その手領域の画像データを肌色登録部1040へ送る。
具体的に説明すると、撮影領域判定部1030は、先ず、画像取得部1010で取得されてデータ記憶部1020に記憶された撮像画像のデータを読み出す。次に、撮影領域判定部1030は、その撮像画像の撮影領域画像内の各画素について、現実空間内での奥行き方向の距離(画素の深度)を推定する。なお、各画素の奥行き方向の距離とは、撮像部100の撮像面を現実空間内の撮像基準面とした場合に、その撮像基準面から、当該撮像面上に結像された対象被写体像の各画素にそれぞれ対応した対象被写体表面上の対応点までの距離である。
次に、撮影領域判定部1030は、各画素について推定した現実空間内での奥行き方向の距離(深度)が、現実空間内での撮影領域210の三次元空間内における奥行き方向の距離範囲(以下、撮影領域距離範囲とする。)内か否かを判断する。以下、現実空間内での撮影領域210の三次元空間内における奥行き方向の距離範囲を、撮影領域距離範囲と表記する。さらに、撮影領域判定部1030は、各画素について推定した現実空間内での奥行き方向の距離(深度)が、撮影領域距離範囲内であると判断した場合、それら各画素は手領域の画素であると判断する。そして、撮影領域判定部1030は、撮影領域距離範囲内の各画素からなる手領域の画像データを、肌色登録部1040へ送る。
なお、本実施形態において、撮像画像の各画素における現実空間内での奥行き方向の距離(深度)は、ステレオカメラの左右二つのステレオ画像を用いたいわゆるステレオ法のような、距離を推定可能な公知の手法を用いて求めることができる。また、距離推定手法の他の例としては、カメラレンズの合焦距離情報を用いたレンズ焦点法、特定パターンの光を対象被写体に投影してそのパターン変化の度合いから距離を算出する光投影法などの公知の手法を用いてもよい。その他にも、例えば赤外光を対象被写体に照射して、その反射光に基づいて距離(深度)を計測するいわゆる深度センサを用いてもよい。深度センサは、例えばHMD20に搭載される。また、図2では、手220の全体が撮影領域210内に入っている例を挙げているが、これら各距離推定手法では、手220の一部のみが撮影領域210内に入っていている場合でも距離を推定可能である。このように、本実施形態の情報処理装置1000は、撮像画像の各画素における現実空間内での奥行き方向の距離(深度)を推定することにより、撮像基準面から対象被写体である手220までの、現実空間内における奥行き方向の距離を推定している。
また、撮像画像の撮影領域画像内に手領域が存在しているかについては、必ずしも各画素の距離(深度)の値を算出しなくても可能である。一例として、公知のエピポーラ幾何に基づいて、撮像画像の撮影領域画像内に手領域が存在するか否かを判定してもよい。この場合、撮影領域判定部1030は、図3に示すように、図2の一方の左カメラ100Lで手220を撮影した左カメラ画像1300Lの撮影領域画像と、他方の右カメラ100Rで手220を撮影した右カメラ画像1300Rの撮影領域画像とを比較する。具体的には、撮影領域判定部1030は、右カメラ画像1300Rにおけるエピポーラ線上1312の一定範囲1313内に、左カメラ画像1300L内の特徴点1303Lに対応した特徴点1303Rが存在するか否かを判断する。なお、一定範囲1313は、撮影領域210の現実空間内の大きさに対応している。また、特徴点1303L,1303Rは、手220の中の或る特徴点1320に対応しており、画像内のエッジの交点やコーナー点など、物体認識で扱われるものであれば何れでもよく、複数の特徴点が組み合わされてもよい。撮影領域判定部1030は、左カメラ画像1300L内の特徴点1303Lに対応した特徴点1303Rが、右カメラ画像1300Rのエピポーラ線上1312の一定範囲1313内に存在すると判定した場合、撮影領域画像内に手領域が存在していると判断する。
このようなエピポーラ幾何に基づく手領域の判定手法においても、前述の各画素の距離(深度)を推定する場合と同様に、撮像基準面から対象被写体である手220までの現実空間内における奥行き方向の距離を推定していることになる。すなわち、図3の例において、撮影領域210は、現実空間内に仮想的に設定された三次元領域であり、現実空間内において撮像基準面からの奥行き方向の距離が仮想的に設定されているものである。したがって、当該撮影領域210に対応した撮影領域画像の特徴点に基づいて手領域が検出された場合、撮像基準面から手220までの距離は、撮影領域210に対して現実空間内で仮想的に設定された奥行き方向の距離範囲内であると推定されることになる。
また、手領域については、撮像画像から公知の凸包(凸包絡)を作成することで推定することができる。この場合、撮影領域判定部1030は、先ず、空間一次微分を計算して輪郭(エッジ)を検出するいわゆるSovelフィルタを用いて、左右のカメラ100L,100Rの撮像画像からエッジを抽出する。次に、撮影領域判定部1030は、そのエッジ上の点(画素)が、撮影領域画像内にあるか否かを左右二つのステレオ画像を用いたステレオ法の原理で判定する。そして、撮影領域判定部1030は、撮影領域画像内にあると判断されたエッジ上の画素の集合を包括する凸包を作成し、その凸包の画像領域を手領域と推定する。なお、凸包の領域は、例えば公知のQuickhullアルゴリズムやGraham's scanアルゴリズムなど、凸包の領域を生成可能であれば何れの公知の手法で算出してもよい。
図1の説明に戻り、肌色登録部1040は、撮影領域判定部1030にて手領域であると判定された各画素のデータの色情報を求め、それら各画素の色情報から色分布を求める。そして、肌色登録部1040は、その色分布により肌色に分類された各画素の色情報を、肌色情報としてデータ記憶部1020に記憶させる。これにより、データ記憶部1020には、特定のユーザの手220の肌色情報が登録される。なお、肌色登録部1040は、前述のようにして得られた肌色情報を、例えば予め用意された人の統計的肌色特徴に基づく肌色モデルに追加するような登録を行ってもよい。
画像処理部1050は、前述した撮影領域CGモデルを重畳させた合成映像を生成する際、既に登録された肌色情報に対応した肌色画像部分の各画素に対して所定の強調処理を施すようにした合成映像を生成してもよい。所定の強調処理は、一例として、既に登録された肌色情報に対応した肌色画像部分の各画素に対して、赤色の値をα値(透過係数)により合成する(アルファブレンディングにより重ね合せる)ような処理を挙げることができる。その他にも、所定の強調処理は、既に登録された肌色情報に対応した肌色画像部分の各画素を黒色にして塗りつぶすような処理であってもよい。これにより、表示部200の画面上には、登録済みの肌色に対応した画像部分が、ユーザから見て判り易く表示された(ユーザからみて強調表示された)合成映像が表示されることになる。このように、登録済みの肌色に対応した肌色画像部分が強調表示された場合、ユーザは、強調表示されていない肌色画像部分の肌色は未登録の肌色であることを認識できることになる。上述のような強調手法は、一例であり、登録済みの肌色画像部分がユーザから見て判り易く表示されるのであれば、他の表示手法を用いてもよい。
また、画像処理部1050は、撮影領域CGモデルと実写映像の手220との間の、現実空間内の奥行き方向の前後関係を表現した合成映像を生成してもよい。一例として、画像処理部1050は、撮影領域CGモデルのうち、現実空間内で手220よりも近い画像部分については手220の実写映像の上に表示、つまり手220の画像が隠れるように表示させる。一方、画像処理部1050は、撮影領域CGモデルのうち、現実空間内で手220よりも遠い画像部分については、手220の実写映像の下に表示、つまり手220の画像により隠れるように表示させる。
なお、本実施形態では、撮影領域210は、図2や図3のような直方体モデルとなされているが、例えば球モデルなどのような他の形状モデルであってもよい。撮影領域210が例えば球モデルである場合、撮影領域CGモデルは球画像となされる。
その他、撮影領域判定部1030は、登録済みの肌色情報に基づいて手領域を検出し、その手領域の距離をステレオ法等により推定してもよい。
次に、図4は、第1の実施形態の情報処理装置1000における撮像画像の取得から肌色情報の登録までの処理の流れを示したフローチャートである。図4において、撮像画像から肌色情報を取得して登録する処理がスタートすると、情報処理装置1000は、先ずステップS2010へ処理を進める。このステップS2010の処理は画像取得部1010にて行われる。
ステップS2010では、画像取得部1010は、撮像部100が撮像している動画像の実写映像の各フレームの撮像画像データを取得し、その撮像画像データをデータ記憶部1020へ記憶させる。ステップS2010の後、情報処理装置1000の処理は、画像処理部1050で行われるステップS2020へ遷移する。
ステップS2020において、画像処理部1050は、画像取得部1010で取得されてデータ記憶部1020に記憶された撮像画像データをデータ記憶部1020から読み出す。また、画像処理部1050は、登録済みの肌色情報が有る場合には、実写映像から、当該登録済みの肌色情報に対応した色の各画素からなる画像部分を検出する。そして、画像処理部1050は、実写映像に対して、登録済み肌色情報に対応した画像部分の各画素を前述のように強調表示するための画像処理を施す。ステップS2020の後、画像処理部1050は、処理をステップS2030へ進める。
ステップS2030では、画像処理部1050は、画像取得部1010で取得されてデータ記憶部1020から略々リアルタイムに転送されてくる実写映像に対し、撮影領域CGモデルを合成(重畳)して合成映像データを生成する。そして、画像処理部1050は、その合成映像データを画像出力部1060に送る。これにより、表示部200の画面上には、実写映像に撮影領域CGモデルが重畳された合成映像が表示される。ステップS2030の後、情報処理装置1000の処理は、撮影領域判定部1030と肌色登録部1040で行われるステップS2040へ遷移する。
ステップS2040において、撮影領域判定部1030は、画像取得部1010で取得されてデータ記憶部1020に記憶された撮像画像の中の撮影領域画像内に、手220の画像領域(手領域)があるか否かを、前述した手領域の判定処理により判定する。そして、撮影領域判定部1030は、撮影領域画像内に手領域があると判定した場合、その手領域の各画素のデータを肌色登録部1040へ送る。肌色登録部1040は、撮影領域判定部1030から送られてきた手領域の各画素の色情報から色分布を求める。そして、肌色登録部1040は、当該色分布により肌色に分類された各画素の色情報を、肌色情報としてデータ記憶部1020に登録する。ステップS2040の後、情報処理装置1000は、処理をステップS2050へ進める。
ステップS2050では、情報処理装置1000は、例えば図示しないユーザインターフェイスデバイスを通じてユーザから肌色情報の登録処理を終了する旨の指示が入力されたか否かを判断する。ユーザから登録処理の終了指示が入力されていない場合、情報処理装置1000は、処理をステップS2020へ戻す。一方、情報処理装置1000は、ステップS2050においてユーザから登録処理の終了指示が入力されたと判断した場合には、この図4のフローチャートの処理を終了する。
図5には、図4のステップS2040において、撮影領域判定部1030で行われる手領域の判定処理と、肌色登録部1040で行われる肌色登録処理の、詳細なフローチャートを示す。図5において、ステップS2110では、情報処理装置1000の撮影領域判定部1030は、前述したステレオ法、レンズ焦点法、光投影法、深度センサなどの何れかを用いて、撮像画像の画素毎に深度(距離)を算出する。ステップS2110の後、撮影領域判定部1030は、処理をステップS2120へ進める。
ステップS2120では、撮影領域判定部1030は、ステップS2110で距離(深度)を算出した画素毎に、各画素の現実空間内における距離と、撮影領域距離範囲とを比較する。撮影領域判定部1030は、撮影領域距離範囲内に各画素が存在する場合、それら各画素は手領域の画素であると判断する。一方、撮影領域判定部1030は、各画素の距離が撮影領域距離範囲外である場合、その画素は手領域の画素でないと判定する。そして、撮影領域判定部1030がステップS2120において手領域の画素であると判定した画素については、情報処理装置1000は、ステップS2130へ処理を進める。一方、撮影領域判定部1030がステップS2120において手領域の画素でないと判定した画素については、情報処理装置1000は、ステップS2140へ処理を進める。
ステップS2130の処理は、肌色登録部1040で行われる。ステップS2130では、肌色登録部1040は、ステップS2120にて撮影領域判定部1030が手領域であると判定した画素の肌色情報をデータ記憶部1020に登録する。ステップS2130の後、情報処理装置1000は、処理をステップS2140へ進める。
ステップS2140では、情報処理装置1000は、ステップS2110で距離が算出された全ての画素について前述のステップS2120での判定処理が終わり、またステップS2130で手領域の全ての画素について肌色登録処理が終了したか否か判断する。そして、情報処理装置1000は、それら全ての処理が終了していないと判断した場合には処理をステップS2120へ戻し、一方、終了したと判断した場合にはこの図5のフローチャートの処理を終了する。
次に、図6には、図4のステップS2040において、撮影領域判定部1030が前述の図3のようにエピポーラ幾何に基づいて手220(手領域)を検出する場合の手領域推定処理と肌色登録部1040で行われる肌色登録処理の詳細なフローチャートを示す。
図6において、ステップS2210では、撮影領域判定部1030は、データ記憶部1020から、左カメラ100Lで撮影された図3の左カメラ画像1300Lのデータを読み出す。そして、撮影領域判定部1030は、左カメラ画像1300Lから、前述したように特徴点1303Lを検出する。ステップS2210の後、撮影領域判定部1030は、処理をステップS2220へ進める。
ステップS2220では、撮影領域判定部1030は、データ記憶部1020から、左カメラ100Lによる左カメラ画像1300Lの撮影と同時に右カメラ100Rで撮影された、図3の右カメラ画像1300Rのデータを読み出す。次に、撮影領域判定部1030は、左カメラ画像1300Lの特徴点1303Lに対応した特徴点1303Rが右カメラ画像1300R内にあるか否かを判定する。すなわち、撮影領域判定部1030は、左カメラ画像1300Lの特徴点1303Lの画素に対応した座標の、右カメラ画像1300R内の画素が、特徴点1303Lと同一の特徴を有した画素か否かを判定する。なお、左カメラ画像1300Lの特徴点1303Lの画素に対応する右カメラ画像1300Rの画素は、図3の撮影領域210の奥行きと左右のカメラの相対位置及び相対姿勢から、公知のエピポーラ幾何計算に基づいて算出される。そして、撮影領域判定部1030は、左カメラ画像1300Lの特徴点1303Lに対応した特徴点1303Rが右カメラ画像1300R内にある場合、ステップS2230で特徴点1303L,1303Rの各画素の座標を登録する。なお、それら特徴点の画素の座標登録は、データ記憶部1020に記憶させることで行われる。一方、撮影領域判定部1030は、ステップS2220で左カメラ画像1300Lの特徴点1303Lと対応した特徴点1303Rが右カメラ画像1300R内に存在しない場合、ステップS2230では登録を行わない。ステップS2230の後、撮影領域判定部1030は、処理をステップS2240へ進める。
ステップS2240では、撮影領域判定部1030は、ステップS2210で検出された全ての特徴点に対するステップS2220とステップS2230の処理が終わったか否かを確認する。そして、撮影領域判定部1030は、処理が終わっていない場合にはステップS2220へ処理を戻し、一方、処理が終わったことを確認した場合にはステップS2250へ処理を進める。
ステップS2250では、撮影領域判定部1030は、撮影領域画像内で手220の特徴点1320を含む凸包の画像領域を算出する。そして、撮影領域判定部1030は、凸包の画像領域の画像データを、手領域の画像データとして肌色登録部1040へ送る。ステップS2250の後、情報処理装置1000の処理は、肌色登録部1040で行われるステップS2260へ遷移する。
ステップS2260では、肌色登録部1040は、撮影領域判定部1030から送られてきた手領域の画像データからノイズ成分を取り除くために、その手領域内の各色データをYCbCr色空間やHSV色空間などに分布させてクラスタリングを行う。ステップS2260の後、肌色登録部1040は、処理をステップS2270へ進める。
ステップS2270では、肌色登録部1040は、最も色分布の多いクラスタ、すなわちこの場合は肌色に分類されるクラスタの色情報を、肌色情報としてデータ記憶部1020に登録する。なお、クラスタリングに限らず、ヒストグラムを用いて肌色等の特定色を登録してもよい。また、手領域内の色分布に基づいて特定色情報を決定する方法であれば、他の手法を用いてもよい。ステップS2270の後は、ユーザからの終了通知がなされた場合に図6のフローチャートの処理を終了する。
なお、前述のようにして肌色登録部1040による肌色情報の登録が行われた場合、撮影領域判定部1030は、肌色登録部1040に登録された肌色情報に対する正誤の判断を行うこともできる。具体的な例を挙げて説明すると、撮影領域判定部1030は、先ず、肌色登録部1040で登録された肌色情報を基に、左右のカメラ画像1300L,1300Rから手領域と推定できる画像領域の検出を試みる。そして、手領域と推定できる画像領域の検出ができなかった場合は、肌色登録部1040で誤った肌色情報が登録されたとみなす。一方、手領域と推定できる画像領域を検出できた場合、撮影領域判定部1030は、その画像領域の輪郭線を、左右のカメラ画像1300L,1300Rの間でステレオマッチングすることにより、その輪郭部分の現実空間内における三次元位置を推定する。そして、撮影領域判定部1030は、輪郭線の三次元位置が、撮影領域210に対して設定されている撮影領域距離範囲内に対応している場合、肌色登録部1040で正しく肌色情報が登録されたと判断する。一方、撮影領域判定部1030は、輪郭線の三次元位置が撮影領域距離範囲内に対応していない場合、肌色登録部1040にて肌色の登録に失敗したとみなす。
肌色登録部1040は、肌色の登録が失敗したことを撮影領域判定部1030から知らされると、当該失敗したと判定された肌色登録を破棄し、前述したクラスタリング或いはヒストグラムの閾値を変更して、肌色登録の処理をやり直す。なお、撮影領域判定部1030において肌色の登録が失敗したと判定された場合、当該失敗したと判定された肌色登録を破棄し、新しい撮像画像を用いて撮影領域判定部1030での手領域判定と肌色登録部1040での肌色登録をやり直しても良い。
以上説明したように、第1の実施形態の情報処理装置1000は、手間と時間を掛けず、高精度に撮像画像から肌色等の特定の色情報を検出できる特定の色情報を登録可能となっている。すなわち、本実施形態の情報処理装置1000は、HMD20に画面表示されている実写映像の撮影領域CGモデル内に、ユーザが手220を入れる(かざす)だけで、手領域の推定と肌色情報の抽出及び登録を自動的に実行する。これにより、本実施形態によれば、予め大量の肌色情報を用意する必要がなく、手間や時間を掛けることなく、特定のユーザに合わせた肌色情報を素早く登録することができる。その結果として、本実施形態においては、複合現実感を実現するような場合に、現実空間の実写映像から精度良く特定のユーザの手領域を抽出でき、仮想空間内にユーザの手の画像を違和感なく合成することができるようになる。
<第2の実施形態>
図7には、第2の実施形態の情報処理装置2000の概略構成を示す。第2の実施形態の情報処理装置2000には、撮像部100と、表示部200と、姿勢入力部300とが接続されている。第2の実施形態では、撮像部100と表示部200と姿勢入力部300がHMDに搭載されている。第2の実施形態においても前述した第1の実施形態と同様に、情報処理装置2000は、HMD内に含まれていてもよいし、HMDと分離されていてもよい。
図8には、第2の実施形態の情報処理装置2000とHMD20との配置関係の一例を模式的に示している。また、図8は、HMD20のカメラ100R,100L(撮像部100)の撮影方向と、ユーザ800の手220(対象被写体)と、撮影領域210と、光源840と、ユーザ800の立ち位置830の、それぞれの位置関係の一例を模式的に示している。
ここで、手の実写映像と仮想空間を合成して複合現実感を実現するような場合において、例えば、外部環境光や手への光の当たり具合が異なると、撮像画像から手の一部又は全部を検出できなくなる場合や、他の被写体を手として誤検出してしまう場合がある。このように手を正しく検出できなくなる状態は、外部環境光や光の当たり具合が異なることで、手の明るさや色合いが変化するために発生すると考えられる。なお、異なる外部環境光としては、一例として、手に照明光が直接当たっている場合と当たっていない場合、晴天の光と曇天の光、昼光と夕日や朝日の光、室外と室内の光、電球光と蛍光灯の光等を挙げることができる。また、異なる光の当たり具合としては、一例として、斜光により手に陰影が生じているような場合等を挙げることができる。そして、複合現実感を実現する場合において、手を正しく検出できないと、例えば仮想空間内に合成されるべき手の実写映像が合成されなかったり、手の一部の映像のみが合成されたりするようなことが発生する虞がある。
このようなことから、第2の実施形態の情報処理装置2000は、先ず、多様な外部環境に対応できるだけの十分な肌色情報が登録されたか否かを自動的に判定する。次に、第2の実施形態の情報処理装置2000は、多様な外部環境に対応するのに十分な肌色情報が登録されているか否か判断する。そして、情報処理装置2000は、登録済みの肌色情報だけでは、多様な外部環境に対応するには不十分であると判断した場合には、どのような明るさと色合いの肌色情報が不足しているのかを推定する。
次に、情報処理装置2000は、不足している肌色情報を取得するためには、ユーザが何れの撮影位置で何れの方向に対象被写体(手)を向けて撮影すればよいかを推定する。さらに、その推定結果に基づいて、情報処理装置2000は、ユーザが何れの撮影位置で何れの方向に対象被写体(手)を向けて撮影すべきかを、当該ユーザに示すための新たな撮影領域210を設定する。すなわち、情報処理装置2000は、新たな撮影領域210を配置させるべき現実空間内の三次元位置を決める。そして、情報処理装置2000は、当該新たな撮影領域210を表す撮影領域CGモデルが、その現実空間内の三次元位置に対応した表示位置に配置されるように実写映像に合成し、その合成映像をHMD20の表示部200に表示させる。その後、情報処理装置2000は、多様な外部環境に対応できるだけの十分な肌色情報の登録ができたか否か判断し、十分な肌色情報の登録ができたと判断した場合に、自動的に肌色登録の処理を終了する。
図8の例は、不足している肌色情報が例えば逆光環境下における手の肌色情報であるような場合の位置関係を表している。情報処理装置2000は、逆光環境下で手220の肌色情報を取得するために、撮影の際のユーザ800の立ち位置830と手220を向ける方向と距離(深度)を提示するための撮影領域210を設定する。そして、図8の例では、情報処理装置2000は、HMD20の撮像部100を光源840の方向へ向けさせ、且つ、撮像部100と光源840との間に手220が入るような撮影領域210を表す撮影領域CGモデルを、HMD20の表示部200に表示させる。
第2の実施形態の情報処理装置2000は、図8の例のような撮影領域210を設定するために、図7に示す各構成要素を有している。なお、図7において前述の図1と同じ構成要素には同一の参照符号を付し、それらの説明については省略する。図7に示す第2の実施形態の情報処理装置2000は、前述の図1に示した各構成要素に加え、姿勢取得部2010と撮影位置処理部2020とを有している。また、第2の実施形態の場合、姿勢入力部300をも備えており、この姿勢入力部300は例えばHMDに配される。
姿勢入力部300は、撮像部100(図8のカメラ100R,100L)における撮影時のカメラの撮影方向(方角)と撮影姿勢を検出する。具体的には、姿勢入力部300は、HMD20に内蔵されているジャイロセンサや光学センサ、方位センサ等であり、HMD20のカメラ100R,100Lの撮影方角情報とヨー、ピッチ、ロールからなるカメラ姿勢情報を生成する。姿勢入力部300にて検出された撮影方角情報とカメラ姿勢情報は、姿勢取得部2010へ送られる。
姿勢取得部2010は、画像取得部1010にて画像データが取得されたとき、姿勢入力部300から撮影方角情報、ヨー、ピッチ、ロールのカメラ姿勢情報を取得して、データ記憶部1020に記憶させる。また、姿勢取得部2010は、撮像部100における撮影時の日時情報についてもデータ記憶部1020に記憶させる。
第2の実施形態の場合の撮影領域判定部1030は、前述の第1の実施形態で説明したのと同様にして手領域を検出する。第2の実施形態の場合の肌色登録部1040は、前述の第1の実施形態で説明したのと同様にして、手領域の各画素のデータから各画素の色分布を求める。また、第2の実施形態の場合、肌色登録部1040は、手領域の各画素のデータから、各画素における輝度を算出する。そして、肌色登録部1040は、色分布により肌色に分類された各画素の肌色情報と、各画素の輝度の情報とを、肌色情報としてデータ記憶部1020に記憶させる。
撮影位置処理部2020は、設定手段の一例であり、例えば撮像部100にて画像撮影がなされた際の日時情報を基に、データ記憶部1020に記憶された撮影方角情報とカメラ姿勢情報と肌色情報とを関連付けて登録する。すなわち、撮影位置処理部2020は、撮像部100で画像撮影がなされた際の撮影方角情報及びカメラ姿勢情報と、それら撮影方角情報とカメラ姿勢情報が取得された際の撮像画像から求められた肌色情報とを、関連付けて登録する。そして、撮影位置処理部2020は、撮影方角情報及びカメラ姿勢情報と、肌色情報の色及び輝度の情報とを参照して、画像処理部1050にて実写映像に合成されて表示部200の画面上に表示される、撮影領域CGモデルの表示位置を決定する。
具体的に説明すると、撮影位置処理部2020は、先ず、過去に登録した肌色の輝度が一様に分布しているか否かを確認する。ここで、一例として輝度が0〜255の値で表される場合を例に挙げると、過去に登録した肌色の輝度が一様に分布している場合とは、輝度の値として0から255までの値が登録されている状態である。このように、登録された肌色の輝度が一様に分布している場合には、多様な外部環境に対応できるだけの十分な肌色情報が既に登録されていると考えられる。これに対し、過去に登録した肌色の輝度が一様に分布しておらず、輝度の分布に偏りがある場合には、多様な外部環境に対応できるだけの十分な肌色情報が登録されていないと考えられる。したがって、撮影位置処理部2020は、過去に登録した肌色の輝度が一様に分布していない場合には、過去に登録した撮影方角情報とカメラ姿勢と肌色情報の輝度とを参照して、輝度分布を一様に分布させるために必要な新たな撮影領域210を推定する。すなわち、撮影位置処理部2020は、一様な輝度分布に対して不足している輝度分布を補うための撮影領域210を推定する。
輝度分布を一様に分布させるための新たな撮影領域210を設定する場合、撮影位置処理部2020は、先ず、過去の撮影時の各撮影方角におけるカメラ姿勢毎の輝度分布を参照する。そして、撮影位置処理部2020は、各撮影方角においてカメラ姿勢が変化することで輝度分布がどのように変化しているかを表す輝度勾配を計算する。さらに、撮影位置処理部2020は、過去の撮影による輝度勾配に基づいて、不足している肌色を撮影するための撮影方角とカメラ姿勢を推定し、その推定結果に基づいて新たな撮影領域210を設定する。
前述の図8を用いて説明すると、過去に順光環境下で様々な撮影方角とカメラ姿勢で撮影がなされ、各撮影方角におけるカメラ姿勢毎に肌色情報が関連付けられて登録されている場合、輝度分布は順光環境下に対応した高輝度寄りの分布になっていると考えられる。この場合、輝度分布を一様に分布させるためには、低輝度の肌色を得る必要がある。また、このような過去の撮影に基づく輝度分布から算出された輝度勾配からは、ユーザの立ち位置830と撮影方角をどのようにし、また、手220を現実空間のどの位置に配置させて撮影すれば、低輝度の肌色を撮影できるかを推定できる。すなわち、図8の例の場合は、ユーザ800の立ち位置830において撮影方角を光源840の側へ向け、光源840と撮像部100との間に手220を配置させるような、逆光環境下で撮影を行えば、低輝度の肌色を撮影できると推定される。このため、撮影位置処理部2020は、立ち位置830において、HMD20の撮像部100が光源840の方を向くような撮影方角で、且つ、手220が光源840と撮像部100との間に入るように、ユーザ800の動作を導くための撮影領域210を決定する。
第2の実施形態の場合、撮影領域210によりユーザ800の動作を導く必要があるため、撮影位置処理部2020は、HMD20の表示部200の画面上における撮影領域CGモデルの表示位置を、第1の実施形態のように固定位置ではなく変化させる。具体的には、撮影位置処理部2020は、ユーザ800が図8の立ち位置830に立っている場合、手220が図8の撮影領域210内に入るようになるまで、表示部200の画面上で撮影領域CGモデルの表示位置を刻々と変化させる。これにより、ユーザ800は、撮像部100が光源840の方を向き、さらに、手220が光源840と撮像部100との間に入るように導かれることになる。
図9は、第2の実施形態の情報処理装置2000の撮影位置処理部2020における処理の流れを示すフローチャートである。図9において、撮影位置処理部2020は、ステップS2310の処理として、姿勢入力部300が検出して姿勢取得部2010が取得した撮影方角情報及びカメラ姿勢情報を、データ記憶部1020から読み取る。ステップS2310の後、撮影位置処理部2020は、処理をステップS2320へ進める。
ステップS2320では、撮影位置処理部2020は、それら撮影方角情報及びカメラ姿勢情報が取得された際の肌色情報をデータ記憶部1020から読み取り、それら撮影方角情報とカメラ姿勢情報と肌色情報を関連付けてデータ記憶部1020に登録する。ステップS2320の後、撮影位置処理部2020は、処理をステップS2330へ進める。
ステップS2330では、撮影位置処理部2020は、データ記憶部1020に過去に登録された肌色の輝度が一様に分布しているか判定する。そして、撮影位置処理部2020は、ステップS2330において、過去に登録された肌色の輝度が一様に分布していると判定した場合には、多様な外部環境に対応できるだけの十分な肌色情報が登録されているとみなして、図9の処理を終了する。一方、撮影位置処理部2020は、ステップS2330において、過去に登録された肌色の輝度が一様に分布していないと判定した場合には、処理をステップS2340へ進める。
ステップS2340では、撮影位置処理部2020は、過去に登録したカメラ姿勢と輝度分布の変化から、不足している肌色情報の輝度を補って、一様な輝度分布が得られるようにするための新たな撮影領域210を推定する。そして、撮影位置処理部2020は、当該新たな撮影領域210を、画像処理部1050に生成させて、その撮影領域210を表す撮影領域CGモデルを、表示部200の画面上に表示させることで、ユーザ800へ提示する。ステップS2040の後、撮影位置処理部2020は、処理をステップS2310へ戻し、ステップS2330で一様な輝度分布が得られたと判定されるまで、ステップS2310からステップS2340の処理を繰り返す。
以上説明したように、第2の実施形態の情報処理装置2000は、第1の実施形態の場合と同様に、手間と時間を掛けず、撮像画像から肌色などの特定の色情報を登録可能となる。また、第2の実施形態の情報処理装置2000は、多様な外部環境に対応できるだけの十分な肌色情報が登録されたか否かを自動的に判定している。そして、第2の実施形態の情報処理装置2000によれば、登録済みの肌色情報が不足している場合には、新たな撮影領域210をユーザに提示することにより、多様な外部環境に対応できるだけの十分な肌色情報の取得と登録が可能となる。さらに、第2の実施形態の情報処理装置2000は、多様な外部環境に対応できるだけの十分な肌色情報の登録ができたと判定した場合、自動的に肌色登録の処理を終了することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100 撮像部、200 表示部、300 姿勢入力部、1010 画像取得部、1020 データ記憶部、1030 撮影領域判定部、1040 肌色登録部、1050 画像処理部、1060 画像出力部、2010 姿勢取得部、2020 撮影位置処理部

Claims (16)

  1. 対象被写体を配置させるための撮影領域を表す画像を生成し、前記撮影領域を表す画像を現実空間の実写映像に合成した表示用の合成映像を生成する生成手段と、
    現実空間を撮像した撮像画像の前記撮影領域に相当する画像範囲の中に写っている対象被写体が、現実空間を撮像する際の撮像基準面からの距離として設定された距離範囲内に入っているか否かを判定し、前記対象被写体が前記距離範囲内に入っていると判定したとき、前記画像範囲の中に写っている前記対象被写体の画像領域を検出する検出手段と、
    前記検出された画像領域から色情報を抽出して、前記抽出した色情報を特定の色情報として登録する登録手段と
    を有することを特徴とする情報処理装置。
  2. 前記撮影領域は、現実空間内に仮想的に設定される三次元領域であり、
    前記検出手段は、前記撮像基準面からの奥行き方向の距離範囲として前記撮影領域の三次元領域が現実空間内で仮想的に有している前記距離範囲内に、前記対象被写体が入っているか否かを判定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記登録手段は、前記検出された画像領域から抽出した色情報より色分布を求めて前記色分布を分類し、前記特定の色情報に分類される色分布の色情報を、前記特定の色情報として登録する請求項1又は2に記載の情報処理装置。
  4. 前記生成手段は、前記現実空間の実写映像を撮像する際の撮像座標系の固定位置に対応させるように、前記撮影領域を表す画像を配置させて前記実写映像に合成することにより、前記表示用の合成映像を生成することを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記撮像画像の撮像がなされた際の撮影方向と撮影姿勢の情報を取得する姿勢取得手段と、
    前記撮像画像の撮像がなされた際に前記姿勢取得手段にて取得された前記撮影方向と撮影姿勢の情報を、前記撮像画像の画像領域から前記登録手段により抽出されて登録された色情報に関連付けて登録し、前記登録した色情報と前記撮影方向と撮影姿勢とに基づいて、現実空間の中に前記撮影領域を仮想的に配置させるための三次元位置を設定する設定手段とを有し、
    前記生成手段は、前記設定された三次元位置に対応した実写映像の中の表示位置に、前記撮影領域を表す画像を配置させるようにして前記実写映像に合成して、前記表示用の合成映像を生成することを特徴とする請求項2〜4のいずれか1項に記載の情報処理装置。
  6. 前記設定手段は、前記登録手段により登録された色情報に含まれる輝度の分布から、一様な輝度分布に対して不足している輝度を求め、前記登録された色情報と撮影方向と撮影姿勢とを参照して、前記一様な輝度分布に対して不足している輝度を補う撮像のための撮影方向と撮影姿勢を推定し、前記推定した撮影方向と撮影姿勢に基づいて、現実空間の中に前記撮影領域を仮想的に配置させるための前記三次元位置を設定することを特徴とする請求項5に記載の情報処理装置。
  7. 前記生成手段は、現実空間の実写映像を構成している各画素の中で、前記登録された色情報を有する画素に対して所定の強調処理を施し、前記画素に対する所定の強調処理が施された後の実写映像を用いた前記合成映像を生成することを特徴とする請求項1〜6のいずれか1項に記載の情報処理装置。
  8. 前記検出手段は、前記画像範囲の中に写っている画像の画素毎に前記撮像基準面からの距離を推定し、前記画素毎に推定した距離が前記距離範囲内に入っているか否か判定し、前記推定した距離が前記距離範囲内に入っていると判定した場合に、前記対象被写体が前記距離範囲内に入っていると判定して、前記推定した距離が前記距離範囲内に入っていると判定された各画素からなる画像領域を、前記対象被写体の画像領域として検出することを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。
  9. 前記現実空間の実写映像の中に写っている対象被写体の画像と前記撮影領域を表す画像とが重なる場合、
    前記生成手段は、
    前記検出手段にて画素毎に距離が推定された画像の前記距離よりも、前記距離範囲の方が前記撮像基準面に近いときには、前記現実空間の実写映像の中に写っている前記対象被写体の画像が前記撮影領域を表す画像の上に重なるようにした前記合成映像を生成し、
    前記検出手段にて画素毎に距離が推定された画像の前記距離よりも、前記距離範囲の方が前記撮像基準面から遠いときには、前記現実空間の実写映像の中に写っている前記対象被写体の画像が前記撮影領域を表す画像の下に重なるようにした前記合成映像を生成することを特徴とする請求項8に記載の情報処理装置。
  10. 前記現実空間を撮像した撮像画像は、現実空間を撮像した左右二つのステレオ画像であり、
    前記検出手段は、前記左右二つのステレオ画像のうち、一方の画像の前記撮影領域に相当する画像範囲の中の第1の特徴点を求め、他方の画像の前記撮影領域に相当する画像範囲に対応したエピポーラ線上に前記第1の特徴点に対応した第2の特徴点が存在するか否かを判断し、前記エピポーラ線上に前記第1の特徴点に対応した第2の特徴点が存在すると判断したとき、前記対象被写体が前記距離範囲内に入っていると判定することを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。
  11. 前記検出手段は、前記一方の画像の前記画像範囲から求めた複数の第1の特徴点に各々対応した複数の第2の特徴点が、前記他方の画像の前記画像範囲に対応した前記エピポーラ線上に存在するか否かを判断し、前記複数の各第1の特徴点にそれぞれ対応した第2の特徴点が前記エピポーラ線上に存在すると判断した場合、前記一方の画像の前記複数の各第1の特徴点を含む画像領域と前記他方の画像の前記複数の各第2の特徴点を含む画像領域とを、前記対象被写体の画像領域として検出することを特徴とする請求項10に記載の情報処理装置。
  12. 前記検出手段は、前記登録手段により登録された色情報に基づいて前記左右二つのステレオ画像の前記撮影領域に相当する画像範囲から前記対象被写体に対応する画像領域を検出できるか否かと、前記画像領域を検出できた場合には前記左右二つのステレオ画像から現実空間内における前記画像領域の三次元位置を推定して、前記推定した三次元位置が前記距離範囲内か否かと、を判定することにより、前記登録手段による色情報の登録の正誤を判断し、前記対象被写体に対応する画像領域を検出できないと判定したとき、又は、前記画像領域を検出できた場合に前記推定した三次元位置が前記距離範囲内に入っていないと判定したときに、前記色情報の登録が誤であると判断し、
    前記登録手段は、前記検出手段により前記色情報の登録が誤であると判断された場合には、前記誤と判定された前記色情報の登録を破棄して、前記色情報の抽出と前記抽出した色情報の登録をやり直すことを特徴とする請求項10又は11に記載の情報処理装置。
  13. 前記登録手段は、前記検出手段により前記色情報の登録が誤であると判断された場合には、前記色情報を抽出する際に用いる閾値を変更して抽出し直した色情報、又は、新たな撮像画像を用いて前記検出手段により検出された画像領域から新たに抽出した色情報を、特定の色情報として登録し直すことを特徴とする請求項12に記載の情報処理装置。
  14. 撮像部に前記現実空間の三次元の実写映像を撮像させる撮像制御手段と、
    前記合成映像を表示部に三次元表示させる表示制御手段とを、更に有することを特徴とする請求項1〜13のいずれか1項に記載の情報処理装置。
  15. 生成手段が、対象被写体を配置させるための撮影領域を表す画像を生成し、前記撮影領域を表す画像を現実空間の実写映像に合成した表示用の合成映像を生成するステップと、
    検出手段が、現実空間を撮像した撮像画像の前記撮影領域に相当する画像範囲の中に写っている対象被写体が、現実空間を撮像する際の撮像基準面からの距離として設定された距離範囲内に入っているか否かを判定し、前記対象被写体が前記距離範囲内に入っていると判定したとき、前記画像範囲の中に写っている前記対象被写体の画像領域を検出するステップと、
    登録手段が、前記検出された画像領域から色情報を抽出して、前記抽出した色情報を特定の色情報として登録するステップと
    を含むことを特徴とする情報処理方法。
  16. コンピュータを、請求項1〜14のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2015105599A 2015-05-25 2015-05-25 情報処理装置、情報処理方法、及びプログラム Active JP6587421B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015105599A JP6587421B2 (ja) 2015-05-25 2015-05-25 情報処理装置、情報処理方法、及びプログラム
US15/150,236 US10002463B2 (en) 2015-05-25 2016-05-09 Information processing apparatus, information processing method, and storage medium, for enabling accurate detection of a color

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015105599A JP6587421B2 (ja) 2015-05-25 2015-05-25 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016218905A true JP2016218905A (ja) 2016-12-22
JP6587421B2 JP6587421B2 (ja) 2019-10-09

Family

ID=57399010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015105599A Active JP6587421B2 (ja) 2015-05-25 2015-05-25 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10002463B2 (ja)
JP (1) JP6587421B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019045989A (ja) * 2017-08-30 2019-03-22 キヤノン株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US11983959B2 (en) 2019-04-18 2024-05-14 Beckman Coulter, Inc. Securing data of objects in a laboratory environment
US12001600B2 (en) 2018-11-09 2024-06-04 Beckman Coulter, Inc. Service glasses with selective data provision

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726593B2 (en) 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US9940541B2 (en) 2015-07-15 2018-04-10 Fyusion, Inc. Artificially rendering images using interpolation of tracked control points
US10176592B2 (en) * 2014-10-31 2019-01-08 Fyusion, Inc. Multi-directional structured image array capture on a 2D graph
US10275935B2 (en) 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
US10262426B2 (en) 2014-10-31 2019-04-16 Fyusion, Inc. System and method for infinite smoothing of image sequences
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US10852902B2 (en) 2015-07-15 2020-12-01 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
JP6762544B2 (ja) * 2016-12-15 2020-09-30 ナーブ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
US10497179B2 (en) * 2018-02-23 2019-12-03 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method for performing real object detection and control using a virtual reality head mounted display system
CN108401452B (zh) * 2018-02-23 2021-05-07 香港应用科技研究院有限公司 使用虚拟现实头戴式显示器系统来执行真实目标检测和控制的装置和方法
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
US11265487B2 (en) * 2019-06-05 2022-03-01 Mediatek Inc. Camera view synthesis on head-mounted display for virtual reality and augmented reality
US11947736B1 (en) * 2022-12-21 2024-04-02 Varjo Technologies Oy Utilising focussing of light sources in image for controller tracking

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071158A (ja) * 2006-09-14 2008-03-27 Fujitsu Ltd 生体認証装置の生体誘導制御方法及び生体認証装置
JP2009015648A (ja) * 2007-07-05 2009-01-22 Canon Inc 画像処理装置、画像処理方法
JP2010015294A (ja) * 2008-07-02 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> 対象領域抽出装置、対象領域抽出方法、対象領域抽出プログラム及びそのプログラムを記録した記録媒体
JP2011223184A (ja) * 2010-04-07 2011-11-04 Sony Corp 画像合成装置、画像合成方法、及びプログラム
JP2012146236A (ja) * 2011-01-14 2012-08-02 Olympus Corp ジェスチャ入力装置
WO2015037472A1 (ja) * 2013-09-11 2015-03-19 ソニー株式会社 画像処理装置および方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4742542B2 (ja) * 2004-09-02 2011-08-10 株式会社ニコン 撮像装置
KR101303877B1 (ko) * 2005-08-05 2013-09-04 삼성전자주식회사 얼굴 검출과 피부 영역 검출을 적용하여 피부의 선호색변환을 수행하는 방법 및 장치
JP2007052609A (ja) 2005-08-17 2007-03-01 Sony Corp 手領域検出装置及び手領域検出方法、並びにプログラム
US7522769B2 (en) * 2005-09-09 2009-04-21 Hewlett-Packard Development Company, L.P. Method and system for skin color estimation from an image
KR101581954B1 (ko) * 2009-06-25 2015-12-31 삼성전자주식회사 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법
JP5898466B2 (ja) * 2011-11-11 2016-04-06 キヤノン株式会社 撮像装置、その制御方法、及びプログラム
JP2014035302A (ja) * 2012-08-09 2014-02-24 Panasonic Corp 対象物検出装置、対象物検出方法、プログラム
US9979946B2 (en) * 2013-02-19 2018-05-22 Mirama Service Inc I/O device, I/O program, and I/O method
US9329682B2 (en) * 2013-06-18 2016-05-03 Microsoft Technology Licensing, Llc Multi-step virtual object selection
JP6237138B2 (ja) * 2013-11-12 2017-11-29 富士ゼロックス株式会社 情報処理装置、画像形成装置、および、プログラム
KR102207856B1 (ko) * 2014-05-14 2021-01-26 한국전자통신연구원 사용자의 손 영역을 검출하기 위한 사용자 손 검출 장치 및 그 동작 방법
JP5762600B1 (ja) * 2014-06-06 2015-08-12 キヤノン株式会社 情報処理装置及び情報処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071158A (ja) * 2006-09-14 2008-03-27 Fujitsu Ltd 生体認証装置の生体誘導制御方法及び生体認証装置
JP2009015648A (ja) * 2007-07-05 2009-01-22 Canon Inc 画像処理装置、画像処理方法
JP2010015294A (ja) * 2008-07-02 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> 対象領域抽出装置、対象領域抽出方法、対象領域抽出プログラム及びそのプログラムを記録した記録媒体
JP2011223184A (ja) * 2010-04-07 2011-11-04 Sony Corp 画像合成装置、画像合成方法、及びプログラム
JP2012146236A (ja) * 2011-01-14 2012-08-02 Olympus Corp ジェスチャ入力装置
WO2015037472A1 (ja) * 2013-09-11 2015-03-19 ソニー株式会社 画像処理装置および方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019045989A (ja) * 2017-08-30 2019-03-22 キヤノン株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US12001600B2 (en) 2018-11-09 2024-06-04 Beckman Coulter, Inc. Service glasses with selective data provision
US11983959B2 (en) 2019-04-18 2024-05-14 Beckman Coulter, Inc. Securing data of objects in a laboratory environment

Also Published As

Publication number Publication date
US20160350975A1 (en) 2016-12-01
JP6587421B2 (ja) 2019-10-09
US10002463B2 (en) 2018-06-19

Similar Documents

Publication Publication Date Title
JP6587421B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7231306B2 (ja) イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム
CN109561296B (zh) 图像处理装置、图像处理方法、图像处理系统和存储介质
US7519218B2 (en) Marker detection method and apparatus, and position and orientation estimation method
JP6685827B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2017041731A1 (en) Markerless multi-user multi-object augmented reality on mobile devices
JP5740884B2 (ja) 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム
CN108648225B (zh) 目标图像获取系统与方法
US20170214899A1 (en) Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images
CN108683902B (zh) 目标图像获取系统与方法
WO2016029939A1 (en) Method and system for determining at least one image feature in at least one image
US20130215149A1 (en) Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium
JP5916248B2 (ja) 画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な情報記憶媒体
WO2018235163A1 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
JP6515039B2 (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
JP2010287174A (ja) 家具シミュレーション方法、装置、プログラム、記録媒体
JP2018163648A (ja) 画像処理装置、画像処理方法、及びプログラム
KR20190062102A (ko) 비디오 영상기반 2d/3d ar 실감체험 방법 및 장치
TWI501193B (zh) Computer graphics using AR technology. Image processing systems and methods
KR20160146567A (ko) 가변적으로 빠르게 움직이는 객체를 검출하는 방법 및 장치
CN112073640B (zh) 全景信息采集位姿获取方法及装置、系统
RU2735066C1 (ru) Способ отображения широкоформатного объекта дополненной реальности
JP6027952B2 (ja) 拡張現実画像生成システム、3次元形状データ生成装置、拡張現実提示装置、拡張現実画像生成方法、及びプログラム
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019106170A (ja) 3次元モデルの生成装置、生成方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190910

R151 Written notification of patent or utility model registration

Ref document number: 6587421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151