JP5762600B1 - 情報処理装置及び情報処理方法 - Google Patents
情報処理装置及び情報処理方法 Download PDFInfo
- Publication number
- JP5762600B1 JP5762600B1 JP2014117890A JP2014117890A JP5762600B1 JP 5762600 B1 JP5762600 B1 JP 5762600B1 JP 2014117890 A JP2014117890 A JP 2014117890A JP 2014117890 A JP2014117890 A JP 2014117890A JP 5762600 B1 JP5762600 B1 JP 5762600B1
- Authority
- JP
- Japan
- Prior art keywords
- subject
- color information
- image
- color
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Abstract
【課題】撮像画像の被写体領域を1枚の画像から簡便にかつ高速に決定できるようにする。【解決手段】被写体が映る撮像画像にCGモデル画像を合成して表示する画像合成方法であって、前記撮像画像に前記被写体の抽出情報を取得するための画像取得領域を指示画像として合成表示する被写体の指示画像描画工程と、前記被写体の画像取得領域に該当する前記撮像画像の領域から抽出情報を取得する被写体抽出情報取得工程と、前記被写体抽出情報取得工程で取得した抽出情報に基づいて、前記撮像画像とは異なる撮像画像における被写体の領域を決定する被写体領域決定工程とを備える。【選択図】図1
Description
本発明は情報処理装置及び情報処理方法に関し、特に、実写画像とコンピュータグラフィックスを、実写画像中の被写体領域を考慮して合成する際に用いて好適な技術に関する。
コンピュータによって作られる仮想空間と現実空間とを、繋ぎ目なく融合する複合現実感(Mixed Reality;MR)技術が注目されている。MR技術は、組み立て作業時に作業手順や配線の様子を重畳表示する組み立て支援、患者の体表面に体内の様子を重畳表示する手術支援等、様々な分野への応用が期待される。
仮想物体が現実空間に実在するように利用者が感じるためには、仮想物体と現実空間との間の幾何学的な整合性が重要である。複合現実感における幾何学的な整合性には、現実空間の座標系と仮想空間の座標系を一致させるための整合性と、現実物体と仮想物体の前後関係を正しく表現するための整合性とがある。後者の整合性を扱う問題は「オクルージョン問題」とも呼ばれ、特にカメラで撮影した画像に仮想物体を重畳させるビデオシースルー型のMRシステムでも重要な課題となる。本発明では、後者のオクルージョン問題を扱う。
特許文献1、特許文献2においては、オクルージョン問題に対し、手を被写体として仮想物体より手前に合成することで解決を図っている。これは、手が仮想物体よりも統計的に手前になることが多いことから、常に手の画像領域を仮想物体よりも手前に描画することで、仮想物体よりも手前にある手が隠れてしまう違和感を軽減する。
特許文献1では、背景用に撮影した画像と同一の背景で被写体も同時に映した画像の2枚の差分から被写体の色情報を抽出し、リアルタイムの撮像画像で抽出した被写体の色情報に一致する領域を被写体領域に設定する。
特許文献2は、色情報の抽出に、被写体と背景が同時に映る1枚の画像のみを利用する。この画像を画面上に表示し、設定者に被写体と背景を分離するためのユーザーインターフェースを提供することで、被写体の領域を設定者の意図通りに設定させられる。
また、非特許文献1では、カメラに対する手の奥行きデータを仮想物体の奥行きデータとピクセル単位で比較し、手前となる領域を描画することで、より正確性の高いオクルージョン問題の解決を図っている。なお、非特許文献1では、以下のようにして被写体領域を決定する。
(1)あらかじめ被写体の背景となる空間の画像を3次元のテクスチャとして保存する。
(2)現在のカメラ位置姿勢に応じて背景画像をレンダリングする。
(3)背景のレンダリング画像と現在の画像を比較して差分領域を算出する。
(4)差分領域を被写体領域として決定する。
(1)あらかじめ被写体の背景となる空間の画像を3次元のテクスチャとして保存する。
(2)現在のカメラ位置姿勢に応じて背景画像をレンダリングする。
(3)背景のレンダリング画像と現在の画像を比較して差分領域を算出する。
(4)差分領域を被写体領域として決定する。
林建一,加藤博一,西田正吾,"境界線ベースステレオマッチングを用いた実物体と仮想物体の前後判定",日本バーチャルリアリティ学会論文誌,Vol.10,No.3,pp.371−380,2005
特許文献1は、被写体である手の領域を決定するために、背景用画像と被写体を含む画像の2枚を撮影する必要があるため時間を要した。一方、特許文献2は、背景と被写体が映る1枚の画像で被写体の領域を決定できる。しかし、1枚の画像に対して、操作者が被写体領域と背景領域を分離するための色情報を登録する手作業に時間を要する。また、色情報の登録には、知識と慣れが必要であり、誰でもが簡単にできる作業ではなかった。
また、視点が移動可能なカメラで撮影される映像から、被写体の領域をリアルタイムに安定的に抽出するためには、被写体と背景を異なる視点から複数セット撮影する必要があり、枚数が増加するに従って被写体領域を決定する時間がさらに増える。
また、非特許文献1は、被写体が写り込む可能性のある背景を3次元画像として保存する必要があるため、事前に被写体が写り込まない背景シーンをテクスチャデータ用の画像として撮影する必要がある。このテクスチャデータの撮影も、背景の広さに比例して、事前準備に時間を要する。また、非特許文献1も特許文献2と同様にテクスチャデータの撮影のためには知識と慣れが必要であり、誰でもが簡単にできる作業ではなかった。
前述のように、被写体の領域を決定するために長い時間がかかると、展示会のように短時間でなるべく複数人にシステムを体験させたい状況では、一人あたりの体験時間が増加するため、充分に調整しないで体験させることがあった。しかしながら、体験者一人ひとりに対して適切な調整が行われないと、手の抽出にノイズが発生し、仮想物体よりも前に手が表示されないため、没入感を阻害する要因となっていた。そのため、被写体の抽出情報を短時間で算出できるような方法が望まれていた。
また、特許文献2の色情報の調整や非特許文献1のテクスチャデータの撮影など、事前の準備に時間がかかる方法では、事前準備の時間に制約があるシーンに適用できないという課題があった。
本発明は前述の問題点に鑑み、撮像画像の被写体領域を1枚の画像から簡便にかつ高速に決定できるようにすることを目的とする。
本発明は前述の問題点に鑑み、撮像画像の被写体領域を1枚の画像から簡便にかつ高速に決定できるようにすることを目的とする。
本発明の情報処理装置は、被写体を含む抽出用画像と、前記被写体の色情報を取得するための第1の取得領域を示す指示画像とを合成した合成画像を、表示部に表示させる表示制御手段と、前記合成画像のうち、前記指示画像によって示された前記第1の取得領域から前記被写体の色情報を取得する被写体色情報取得手段と、前記第1の取得領域と、該第1の取得領域に隣接する予め設定された色情報の取得対象ではない非取得領域とを除いた領域から、前記被写体の背景の色情報を取得する背景色情報取得手段と、前記取得手段により取得された前記被写体の色情報と、前記背景の色情報とに基づいて、前記被写体の抽出情報を決定する決定手段と、前記決定手段により決定された前記被写体の抽出情報を出力する出力手段とを備えることを特徴とする。
本発明によれば、視点が自由に移動できるカメラで撮像した画像において、被写体情報を抽出するための指示画像を提示することで、より速く被写体領域を決定できる。
[第1の実施形態]
以下、添付図面を参照して、本発明を適用した好適な実施形態に従って詳細に説明する。
本実施形態では、体験者の手150を被写体とする。そして、カメラ10で撮影した手150の領域を決定する被写体領域決定モードと、手150を含む実写画像とCGモデル160の画像(CGモデル画像)を被写体領域に基づいて合成表示する表示(体験)モードを切り替える例を説明する。
以下、添付図面を参照して、本発明を適用した好適な実施形態に従って詳細に説明する。
本実施形態では、体験者の手150を被写体とする。そして、カメラ10で撮影した手150の領域を決定する被写体領域決定モードと、手150を含む実写画像とCGモデル160の画像(CGモデル画像)を被写体領域に基づいて合成表示する表示(体験)モードを切り替える例を説明する。
図1は、本実施形態におけるリアルタイム画像合成装置の機能構成を示す模式図である。
図2は、本実施形態を実現するためのハードウェアを示すブロック図である。
図2において、201はCPU、202は画像取り込み器、203は記憶媒体、204はROM、205はRAM、206はマウス、207はキーボード、208はディスプレイである。また、10、11は撮像装置であり、本実施形態においては10の撮像装置のみをカメラ10として使用した例を説明する。
図2は、本実施形態を実現するためのハードウェアを示すブロック図である。
図2において、201はCPU、202は画像取り込み器、203は記憶媒体、204はROM、205はRAM、206はマウス、207はキーボード、208はディスプレイである。また、10、11は撮像装置であり、本実施形態においては10の撮像装置のみをカメラ10として使用した例を説明する。
画像取得部100は、本実施形態においては、カメラ10で撮像された画像を取得する。
図3(A)に画像の取得例を示す。カメラ10により撮像された実写画像305には、体験者の手150およびカメラ10の位置姿勢を計測するためのマーカー170が映り込んでいるものとする。
図3(A)に画像の取得例を示す。カメラ10により撮像された実写画像305には、体験者の手150およびカメラ10の位置姿勢を計測するためのマーカー170が映り込んでいるものとする。
記憶部101は、画像取得部100で受けた実写画像305を一時的に記憶する。画像取得部100からは、例えば1/30秒で画像データが送信される。さらに、記憶部101には、システムの動作モードとして、表示モードと被写体抽出情報算出モードの2モードを保持するための動作モードフラグを有する。さらに、記憶部101には、ユーザーが操作するキーボード207やマウス206などの入力を受けて、色情報の取得指示を指示画像描画部107に出すための指示フラグを有する。
被写体抽出情報算出部102は、記憶部101に記憶されているカメラ10の最新の画像を取得する、被写体抽出情報取得処理を行う。また、実写画像305における手150の被写体抽出情報を算出する。ここで、本実施形態における被写体抽出情報とは、多次元色空間であるYCbCr表色系の色座標値リストによって構成される。
ただし、本発明は、被写体抽出情報をYCbCr表色系の色座標値リストで保持することに限定されるものではなく、被写体をリアルタイムに抽出するための色情報として利用可能な情報であれば適用可能である。例えば、RGB表色系の色座標値リストを被写体抽出情報として利用してもよい。リアルタイムに実写画像305から手150の領域を決定する方法については後述する。
被写体抽出情報算出部102は、記憶部101に記憶されているカメラ10の画像における手150の領域を画像合成部105に出力する。
モデル形状記憶部103は、CGモデル160の3次元モデルデータ、および手150の3次元モデルデータを保持しておく。保持している3次元モデルデータは、画像生成部104に出力する。
モデル形状記憶部103は、CGモデル160の3次元モデルデータ、および手150の3次元モデルデータを保持しておく。保持している3次元モデルデータは、画像生成部104に出力する。
位置姿勢推定部106は、カメラ10の位置姿勢を計測して推定する。本実施形態では、撮像画像に映り込む正方形のマーカー170の投影像に基づいてカメラ10の位置姿勢を計測して推定する。例えば、画像を二値化し、直線フィッティングにより四角形の頂点を抽出し、山登り法の繰り返し演算で画像上における投影誤差を最小化してカメラ位置姿勢を推定すればよい。
なお、本発明は、位置姿勢推定部106の推定方法に依存するものではなく、光学式のモーションキャプチャ装置や磁気センサーなど、その他の計測方法を用いて撮像装置の位置姿勢を計測してもよい。
画像生成部104は、モデル形状記憶部103に格納されたCGモデル160、および位置姿勢推定部106から取得したカメラ10の視点位置姿勢に基づいて、CGモデル160の画像を生成する。
指示画像描画部107は、記憶部101の指示フラグに基づいて、指示画像307を単純な図形として描画する。単純な図形は円、楕円、多角形のうちいずれかである。本実施形態における指示画像307については、図3で説明する。
指示画像描画部107は、記憶部101の指示フラグに基づいて、指示画像307を単純な図形として描画する。単純な図形は円、楕円、多角形のうちいずれかである。本実施形態における指示画像307については、図3で説明する。
図3の(A)は、記憶部101におけるカメラ10で撮像された実写画像305である。この実写画像305に対し、図3の(B)の指示画像307を合成表示する。合成表示した模式図が図3の(C)の合成画像309となる。
本実施形態の指示画像307は、入力したい手150の外形を表わす輪郭線310が表示されており、輪郭線310の内部は色付きで半透明描画されていることが好ましい。また、輪郭線310の外部は透明であり、合成時に実写画像305の表示色を変化させないことが好ましい。ただし、本発明は、指示画像を半透明で描画することに限定するものではなく、輪郭線だけを表示したり、一部領域のみを透過したりするディザ処理で透過するような処理でも適用可能である。
この指示画像307をディスプレイ208に表示することにより、ユーザーは自身の手150をディスプレイ208の画面上の輪郭線310に容易に合わせられることになり、被写体の色情報を明示的に取得できる。
画像合成部105は、記憶部101の動作モードフラグが表示モードの場合、記憶部101に格納されているカメラ10の実写画像305に対して、画像生成部104で生成したCGモデル160の3次元形状の画像を合成する。ただし、被写体抽出情報算出部102で算出された手150の領域には、CGモデル160の画像を描画しないものとする。このように、手150の領域にCGモデル160の画像を描画しないことによって、該領域を被写体の領域(画像取得領域)として確保しCGモデル160よりも手150が手前に表示され、体験者の視覚的な違和感を軽減することができる。
画像合成部105で生成された合成画像は、ディスプレイ208で表示する。体験者が、CGモデル160と手150の前後関係が正しい合成画像をディスプレイ208で観察することができるので、あたかも、その場所にCGモデル160が実在するかのような体験が可能となる。
一方で、画像合成部105は、記憶部101の動作モードフラグが被写体抽出情報算出モードの場合、記憶部101に格納されているカメラ10の実写画像305に対して、指示画像描画部107で生成した指示画像307を合成する。
図4は、本実施形態におけるリアルタイム画像合成装置の処理の流れを示すフローチャートである。
S401では、画像取得部100が、カメラ10から画像を取得する。
S402では、記憶部101が、画像取得部100から取得した画像を一時的に記録する。
S401では、画像取得部100が、カメラ10から画像を取得する。
S402では、記憶部101が、画像取得部100から取得した画像を一時的に記録する。
S403では、CPU201が、記憶部101に格納されている動作モードを判定する。動作モードが表示モードの場合は、S404に処理を移す。動作モードが被写体抽出情報算出モードの場合は、S409に処理を移す。
S404では、位置姿勢推定部106が、カメラ10の位置姿勢を推定する。位置姿勢推定部106が推定した位置姿勢は、画像生成部104でCGモデル160の3次元形状のレンダリングを行う際に用いられる。
S404では、位置姿勢推定部106が、カメラ10の位置姿勢を推定する。位置姿勢推定部106が推定した位置姿勢は、画像生成部104でCGモデル160の3次元形状のレンダリングを行う際に用いられる。
S405では、画像生成部104が、モデル形状記憶部103に格納されている手150の3次元モデル形状と、CGモデル160の形状と、位置姿勢推定部106で求めたカメラ10の位置姿勢を取得する。さらに、画像生成部104は、カメラ10の位置姿勢から見たCGモデル160の画像を描画する3次元形状のレンダリング処理を行なう。
S406では、画像合成部105が、被写体抽出情報を読み出し、記憶部101に格納されている画像における手150の領域を決定する被写体領域決定処理を行う。
S406では、画像合成部105が、被写体抽出情報を読み出し、記憶部101に格納されている画像における手150の領域を決定する被写体領域決定処理を行う。
次に、画像合成部105が、色座標値リストの個々の座標値に該当する色を画像から1ピクセルごとに判定し、該当する色のピクセル座標値を「被写体領域の座標値リスト」として保存する。この座標値リスト自体が、画像における被写体領域に他ならない。
なお、該当する色を判定するときに、Y(輝度値)については閾値を設けて幅を持たせてもよい。例えば、座標値が128の場合に、閾値を50と設定した場合は、78〜178までの座標値は該当すると判定する。Yに閾値を設ける理由は、被写体が移動することによる照明変化は容易に起こりうるため、被写体領域をリアルタイムで安定的に抽出するためである。なお、同様の理由で、Cb、Cr(色差)にも閾値を設けて判定に幅を持たせてもよい。
S407では、画像合成部105が、S402で記録した実写画像305の上にS405で生成したCGモデル160の画像を上書きして合成する。ただし、合成前にS406で算出した被写体領域を取得し、合成するときに被写体領域に該当するピクセルにはCGモデル160の画像を描画しないようにする。すなわち、被写体領域には、実写画像305の画像が表示されることになり、体験者は自分の手150をCGモデル160よりも手前に視認することができる。
一方、被写体抽出情報算出モードでS409に移行した場合は、指示画像描画部107が、前述した指示画像307を生成する。
S410では、CPU201が、記憶部101に格納されている指示フラグを参照してON/OFFの判定を行う。指示フラグがOFFの場合は、S411に処理を移す。指示フラグがONの場合は、S412に処理を移す。
S410では、CPU201が、記憶部101に格納されている指示フラグを参照してON/OFFの判定を行う。指示フラグがOFFの場合は、S411に処理を移す。指示フラグがONの場合は、S412に処理を移す。
指示フラグは、例えば、体験者が指示画像の手の輪郭線310に自分の手150が重なるように調整して、ぴったりと重なったときにキーボード207やマウス206などから指示を出したときにONを格納する。指示フラグがOFFからONに変わったことをCPU201が検知することで、被写体の抽出情報を取得するタイミングを被写体抽出情報算出部102に指示する。
S412では、被写体抽出情報算出部102が、実写画像305における輪郭線310の内部領域の色情報を取得し、S413へ処理を移す。
S413では、被写体抽出情報算出部102が、S412で取得した色情報から被写体抽出情報を算出する。算出処理については、後述する図5のフローチャートで説明する。
S413では、被写体抽出情報算出部102が、S412で取得した色情報から被写体抽出情報を算出する。算出処理については、後述する図5のフローチャートで説明する。
S411では、画像合成部105が、実写画像305と指示画像307とを合成した合成画像309を生成する。
S408では、ディスプレイ208が、S407またはS411で生成した合成画像を表示画面に出力する。
S408では、ディスプレイ208が、S407またはS411で生成した合成画像を表示画面に出力する。
次に、図5のフローチャートを用いて、S413における被写体抽出情報の算出処理について説明する。
S501では、被写体抽出情報算出部102が、入力された色情報をYCbCr表色系の座標値に変換する。
S501では、被写体抽出情報算出部102が、入力された色情報をYCbCr表色系の座標値に変換する。
S502では、被写体抽出情報算出部102が、S501で算出した座標値を色座標リストに保存する。本実施形態では色座標リストは、Y、Cb、Crを個別のリストとして作成する。座標値としては、0から255の値を保存するものとする。
S503では、被写体抽出情報算出部102が、S502で保存したY、Cb、Crの3つの色座標リストに対し、個別に色座標ヒストグラムを作成する。色座標ヒストグラムは、色座標リストに保存されている座標値ごとに分類し、頻度値を算出するものである。
S503では、被写体抽出情報算出部102が、S502で保存したY、Cb、Crの3つの色座標リストに対し、個別に色座標ヒストグラムを作成する。色座標ヒストグラムは、色座標リストに保存されている座標値ごとに分類し、頻度値を算出するものである。
S504では、被写体抽出情報算出部102が、S503で算出した色座標ヒストグラムにおいて、頻度値が所定の閾値以下の色座標を特定する。さらに、閾値以下となった色座標値は、色座標リストから除外する。
S503とS504の処理は、輪郭線内の領域の中に、マニキュア、指輪などの装飾物が入ったり、手150ではない背景が写り込んでしまったりした場合のノイズ除去に相当する。ノイズ除去処理は、被写体ではない背景が、被写体領域であると誤認識されることを防ぐ役割を担っている。
S503とS504の処理は、輪郭線内の領域の中に、マニキュア、指輪などの装飾物が入ったり、手150ではない背景が写り込んでしまったりした場合のノイズ除去に相当する。ノイズ除去処理は、被写体ではない背景が、被写体領域であると誤認識されることを防ぐ役割を担っている。
前述のように、被写体抽出情報算出部102は、S501からS504までの処理を実行して、ノイズを除去した色座標リストを算出する。この色座標リストは、画像合成部105に出力され、CGモデル160の画像を合成するときの描画禁止領域として利用される。
以上の処理により、体験者は自分の手150の抽出情報をリアルタイム画像合成装置に簡便にかつ高速に指示することができ、別のオペレータが調整しなくても抽出精度の高い抽出情報を得ることが可能となる。
なお、本実施形態における被写体は手に限定されるものではなく、色情報に基づいて被写体を決定できる対象物であれば適用可能である。例えば、顔や体全体など被写体が動いたり、椅子や机など被写体が固定されたりしているものでも適用可能である。
また、本発明は、モード設定して1つのプログラムで動作を切り換えられるようにすることに限定されるものではない。例えば、事前に実写画像から被写体領域を決定するプログラムと、実写画像とCGモデル画像とを合成するプログラムを個別に実行することで実現してもよい。
[第2の実施形態]
第1の実施形態では、カメラ10は単眼であり、被写体抽出情報は、色情報を利用していた。しかし、本発明は被写体抽出情報が色情報に基づいて被写体領域を決定することに限定されるものではなく、2台のステレオカメラで被写体の奥行き情報を算出し、奥行き情報に基づいて被写体領域を決定する方法でも適用可能である。
本実施形態では、2台のカメラを内蔵するステレオビデオシースルーHMD(ヘッドマウントディスプレイ)を利用して、手150の奥行き情報を算出し、CGモデル160と手150の前後関係を表現する方法について説明する。
第1の実施形態では、カメラ10は単眼であり、被写体抽出情報は、色情報を利用していた。しかし、本発明は被写体抽出情報が色情報に基づいて被写体領域を決定することに限定されるものではなく、2台のステレオカメラで被写体の奥行き情報を算出し、奥行き情報に基づいて被写体領域を決定する方法でも適用可能である。
本実施形態では、2台のカメラを内蔵するステレオビデオシースルーHMD(ヘッドマウントディスプレイ)を利用して、手150の奥行き情報を算出し、CGモデル160と手150の前後関係を表現する方法について説明する。
図6は、本実施形態におけるリアルタイム画像合成装置の機能構成を示すブロック図である。
第1の実施形態に対して、カメラ11が増えて、カメラが2台になっている点と、ディスプレイ209が増えて、2台になっている点が異なる。カメラとディスプレイが2セットになることで、HMDを装着する体験者にさらに臨場感の高いMR体験を提供することができる。不図示であるが、カメラ10、カメラ11とディスプレイ208、ディスプレイ209はHMDにステレオディスプレイとして内蔵され、それぞれ固定して設置される。
第1の実施形態に対して、カメラ11が増えて、カメラが2台になっている点と、ディスプレイ209が増えて、2台になっている点が異なる。カメラとディスプレイが2セットになることで、HMDを装着する体験者にさらに臨場感の高いMR体験を提供することができる。不図示であるが、カメラ10、カメラ11とディスプレイ208、ディスプレイ209はHMDにステレオディスプレイとして内蔵され、それぞれ固定して設置される。
以下は、第1の実施形態と異なる部分のみを説明する。以下で説明していない部分は、第1の実施形態と同一であるものとする。
画像取得部100は、カメラ10とカメラ11の2つの画像を取得し、記憶部101に記憶する。
画像取得部100は、カメラ10とカメラ11の2つの画像を取得し、記憶部101に記憶する。
被写体抽出情報算出部102は、入力されたステレオの画像に対して、例えば非特許文献1の手法を用いて奥行き情報を算出する。すなわち、2つの画像における手150の領域の輪郭線を対応付け、ステレオカメラの既知の配置情報に基づいて、輪郭線における奥行きを三角測量で求める。さらに、輪郭線内部についても、水平方向における両端の奥行き値を線形補間によって求めることで、手150の領域全体の奥行き値を求めることができる。このように、被写体抽出情報算出部102は、手150の領域の奥行き情報を算出して、画像合成部105に出力する。
画像生成部104は、CGモデル160の画像を生成するときに、生成時に算出した画像の奥行き値も保持しておき、画像合成部105に出力する。
画像合成部105は、手150の奥行き情報に基づいて、CGモデル160の画像を合成する。ただし、CGモデル160の画像における各ピクセルの奥行き値と対応する手150の領域のピクセルの奥行き値とを比較し、CGモデル160のピクセルの奥行き値が小さい場合は、CGモデル160の画像のピクセルを描画する。
画像合成部105は、手150の奥行き情報に基づいて、CGモデル160の画像を合成する。ただし、CGモデル160の画像における各ピクセルの奥行き値と対応する手150の領域のピクセルの奥行き値とを比較し、CGモデル160のピクセルの奥行き値が小さい場合は、CGモデル160の画像のピクセルを描画する。
一方で、CGモデル160のピクセルの奥行き値が大きい場合は、CGモデル160の画像のピクセルを描画しない。この処理をCGモデル160の画像のすべてのピクセルに対して処理する。
本実施形態による処理には、第1の実施形態の図4のフローチャートを以下のように変更すればよい。
まず、S401、S402では、カメラ10とカメラ11の画像を取得して記憶部101に記憶する。
また、S406では、画像合成部105が、被写体抽出情報算出部102が算出した被写体領域の奥行き値を読み出し、S407でCGモデル160の画像の奥行き値と比較して、カメラに対して手前にある領域を描画する。
また、S413では、被写体抽出情報算出部102が、前述したようにステレオの画像から被写体領域の奥行き値を算出する。
まず、S401、S402では、カメラ10とカメラ11の画像を取得して記憶部101に記憶する。
また、S406では、画像合成部105が、被写体抽出情報算出部102が算出した被写体領域の奥行き値を読み出し、S407でCGモデル160の画像の奥行き値と比較して、カメラに対して手前にある領域を描画する。
また、S413では、被写体抽出情報算出部102が、前述したようにステレオの画像から被写体領域の奥行き値を算出する。
以上のように、本実施形態では、ステレオカメラの情報から手150の領域の奥行き値を算出し、CGモデル160と手150との前後関係をピクセル単位で判別することができる。すなわち、カメラに対して、手150がCGモデル160の後ろ側に回ったとしても、CGモデル160が手前に描画され、体験者の没入感を阻害することが軽減される。
[第3の実施形態]
第1の実施形態では、被写体領域の色情報に基づいて被写体抽出情報として算出した。しかし、本発明は、被写体領域の色情報のみに基づいて被写体抽出情報を算出することに限定されるものではなく、被写体領域以外の背景領域も利用して決定してもよい。
本実施形態では、指示画像で提示する手150の輪郭線310内部の色情報を取得するだけではなく、輪郭線310外部の背景領域の色情報も利用して背景領域上のノイズ除去することで、よりノイズの少ない被写体領域を決定する方法を説明する。
第1の実施形態では、被写体領域の色情報に基づいて被写体抽出情報として算出した。しかし、本発明は、被写体領域の色情報のみに基づいて被写体抽出情報を算出することに限定されるものではなく、被写体領域以外の背景領域も利用して決定してもよい。
本実施形態では、指示画像で提示する手150の輪郭線310内部の色情報を取得するだけではなく、輪郭線310外部の背景領域の色情報も利用して背景領域上のノイズ除去することで、よりノイズの少ない被写体領域を決定する方法を説明する。
本実施形態におけるリアルタイム画像合成装置の機能構成は、第1の実施形態の図1のブロック図を用いて説明する。なお、以下は変更部分だけを記載し、記載のない部分については、第1の実施形態と同一であるものとする。
本実施形態における指示画像描画部107は、入力された実写画像305に対し、図7の(B)で示すような指示画像710を合成して表示する。合成後の画像711を図7(C)に例示する。指示画像710では、輪郭線310の内部と外部の背景領域を区別できるように別の色で描画することが好ましい。また、合成時は、半透明で合成することが好ましい。
また、ステレオ表示のディスプレイ208、ディスプレイ209に指示画像を提示する場合、片側のディスプレイのみに指示画像を提示する方が好ましい。これは、両眼のディスプレイに指示画像を提示してしまうと、体験者は手150を奥行き方向にも調整しようとしてしまい、画像を取得するための準備の時間が増加してしまうためである。片眼のディスプレイのみに表示することで、より速く被写体抽出情報を決定することができる。
本実施形態における被写体抽出情報算出部102は、被写体領域の色情報と、背景領域の色情報に基づいて、最終的な被写体領域の抽出情報を算出する。処理の詳細は後述する。
本実施形態における処理手順を説明するフローチャートを、第1の実施形態の図4のフローチャートを用いて説明する。なお、以下は変更部分だけを記載し、記載のない部分については、第1の実施形態の処理と同一であるものとする。
本実施形態におけるS412では、被写体抽出情報算出部102が、輪郭線310内部の被写体領域だけではなく、輪郭線310の外部の背景領域についても背景抽出情報取得処理を行って色情報を取得し、S413へ処理を移す。
本実施形態におけるS412では、被写体抽出情報算出部102が、輪郭線310内部の被写体領域だけではなく、輪郭線310の外部の背景領域についても背景抽出情報取得処理を行って色情報を取得し、S413へ処理を移す。
本実施形態におけるS413では、輪郭線310の内部と背景領域を用いて被写体抽出情報を算出する。処理の詳細は、図8のフローチャートで説明する。
S801では、被写体抽出情報算出部102が、入力された被写体領域の色情報と背景領域の色情報の2つに対して個別にYCbCr表色系の座標値に変換する。
S801では、被写体抽出情報算出部102が、入力された被写体領域の色情報と背景領域の色情報の2つに対して個別にYCbCr表色系の座標値に変換する。
S802では、被写体抽出情報算出部102が、入力された被写体領域の色情報と背景領域の色情報の2つに対して個別にYCbCr表色系の色座標リストを作成する。すなわち、被写体領域のY、Cb、Crの色座標リストと、背景領域のY、Cb、Crの色座標リストを作成する。
S803では、被写体抽出情報算出部102が、S503と同様に、被写体領域と背景領域の色座標リストに対してヒストグラムを作成する。
S804では、被写体抽出情報算出部102が、S504と同様に、被写体領域と背景領域の色座標リストに対して、頻度値の閾値を下回る色座標値を特定し、色座標リストから除外する。
S804では、被写体抽出情報算出部102が、S504と同様に、被写体領域と背景領域の色座標リストに対して、頻度値の閾値を下回る色座標値を特定し、色座標リストから除外する。
S805では、被写体抽出情報算出部102が、被写体領域の色座標リストから背景領域の色座標値を削除する処理を行う。この処理を図9のフローチャートを用いて説明する。
まず、S901では、被写体抽出情報算出部102が、被写体領域の色座標リストの頻度値Haに対して、背景領域の色座標リストのヒストグラムの頻度値Hbを正規化する。この正規化は、被写体領域のヒストグラムの頻度値Haの合計Aと、背景領域のヒストグラムの頻度値Hbの合計Bを算出し、以下の式1のように、正規化した背景領域の頻度値Hcを算出する。
Hc = Hb*A/B (式1)
まず、S901では、被写体抽出情報算出部102が、被写体領域の色座標リストの頻度値Haに対して、背景領域の色座標リストのヒストグラムの頻度値Hbを正規化する。この正規化は、被写体領域のヒストグラムの頻度値Haの合計Aと、背景領域のヒストグラムの頻度値Hbの合計Bを算出し、以下の式1のように、正規化した背景領域の頻度値Hcを算出する。
Hc = Hb*A/B (式1)
次に、S902では、被写体領域の色座標リストにおける色座標と、背景領域の色座標リストにおける色座標で重複があるかどうかを検査する。
S903では、重複している色座標に対して、被写体領域の頻度値Haから、正規化した背景領域の頻度値Hcを減算し、差分がマイナス値になったか否かを判定する。このとき、減算の結果がマイナス値になった場合は、S904に処理を移し、被写体領域の色座標リストから、重複した色座標値を削除する。マイナス値にならなかった場合は、被写体領域の色座標リストから削除しない。
被写体抽出情報算出部102は、被写体領域の色座標リストを画像合成部105に出力する。
S903では、重複している色座標に対して、被写体領域の頻度値Haから、正規化した背景領域の頻度値Hcを減算し、差分がマイナス値になったか否かを判定する。このとき、減算の結果がマイナス値になった場合は、S904に処理を移し、被写体領域の色座標リストから、重複した色座標値を削除する。マイナス値にならなかった場合は、被写体領域の色座標リストから削除しない。
被写体抽出情報算出部102は、被写体領域の色座標リストを画像合成部105に出力する。
以上のように、被写体抽出情報を、被写体だけの色情報から求めるのではなく、背景領域の色情報も考慮して被写体領域を決定することにより、背景領域であるのに被写体領域であると誤判定される現象を回避できる。すなわち、背景領域上において、よりノイズの少ない被写体領域を決定することができる。
[第4の実施形態]
第3の実施形態では、被写体抽出情報算出部102が、図7の指示画像710で示したような、被写体である手150の領域と背景領域の2つを隣接させた状態で、色情報の取得を実施する。この場合、図7の輪郭線310の内部領域から、実際の手150がはみ出てしまうと、背景領域の色情報として登録されてしまう。
第3の実施形態では、被写体抽出情報算出部102が、図7の指示画像710で示したような、被写体である手150の領域と背景領域の2つを隣接させた状態で、色情報の取得を実施する。この場合、図7の輪郭線310の内部領域から、実際の手150がはみ出てしまうと、背景領域の色情報として登録されてしまう。
すなわち、本来登録するべき肌色の領域が背景領域の色情報として登録されるため、被写体領域の色座標リストから、肌色の一部の色座標が削除されることになる。肌色の一部の色座標が削除されてしまうと、手の150の領域の内部に穴が空き、手の中の穴にCGモデル160の一部が表示されてしまうため、体験者に違和感を与える。
本実施形態では、図10(B)に示すような被写体領域の色情報を取得する円形の領域1040と背景領域720の間に非取得領域1010を設けた指示画像1020を提示する方法を例示する。
本実施形態を実現するためには、第3の実施形態の指示画像描画部107で表示する指示画像を図10(B)のものに変更すればよい。
本実施形態を実現するためには、第3の実施形態の指示画像描画部107で表示する指示画像を図10(B)のものに変更すればよい。
被写体の色情報を取得する領域1040は、第3の実施形態の手の輪郭線とは異なり円形に変更した。また、手の輪郭線1030をより抽象的な輪郭線に変更している。この変更は、体験者に手の位置を調整させるときに、輪郭線の細部を気にしながら手の位置を調整することに時間を費やすことを回避して、調整時間を短縮するためである。
輪郭線1030は、撮影する場合の手の形を指示するために表示してもよい。ただし、図7の輪郭線310のように、あまり輪郭線に合わせることを意識させない抽象的な輪郭線であることが好ましい。
また、本実施形態における被写体抽出情報算出部102は、指示画像1020に合わせて被写体の色を取得する領域と背景の領域を変更すればよい。
処理については、第2の実施形態と同様の処理を実行すればよい。
以上の処理により、被写体抽出情報を取得するときに、被写体の色情報を取得する領域と背景の色情報を取得する領域にマージンを設けることで、体験者が手150を指示画像に合わせて調整する時間を軽減することができる。
処理については、第2の実施形態と同様の処理を実行すればよい。
以上の処理により、被写体抽出情報を取得するときに、被写体の色情報を取得する領域と背景の色情報を取得する領域にマージンを設けることで、体験者が手150を指示画像に合わせて調整する時間を軽減することができる。
すなわち、複数の体験者が並んで体験するようなコンテンツであっても、体験前に手の抽出情報を短時間で登録させることが可能となり、体験者一人ひとりの調整が可能となる。この調整によって、体験者の手150やCGモデル160の領域にノイズが含まれることが減少し、没入感の阻害を軽減することができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
10 カメラ
100 画像取得部
101 記憶部
102 被写体抽出情報算出部
103 モデル形状記憶部
104 画像生成部
105 画像合成部
106 位置姿勢推定部
107 指示画像描画部
150 手
160 CGモデル
170 正方形マーカー
208 ディスプレイ
100 画像取得部
101 記憶部
102 被写体抽出情報算出部
103 モデル形状記憶部
104 画像生成部
105 画像合成部
106 位置姿勢推定部
107 指示画像描画部
150 手
160 CGモデル
170 正方形マーカー
208 ディスプレイ
Claims (19)
- 被写体を含む抽出用画像と、前記被写体の色情報を取得するための第1の取得領域を示す指示画像とを合成した合成画像を、表示部に表示させる表示制御手段と、
前記合成画像のうち、前記指示画像によって示された前記第1の取得領域から前記被写体の色情報を取得する被写体色情報取得手段と、
前記第1の取得領域と、該第1の取得領域に隣接する予め設定された色情報の取得対象ではない非取得領域とを除いた領域から、前記被写体の背景の色情報を取得する背景色情報取得手段と、
前記取得手段により取得された前記被写体の色情報と、前記背景の色情報とに基づいて、前記被写体の抽出情報を決定する決定手段と、
前記決定手段により決定された前記被写体の抽出情報を出力する出力手段とを備えることを特徴とする情報処理装置。 - 前記決定手段は、前記被写体の色情報から前記背景の色情報を除去することにより、前記被写体の抽出情報を決定することを特徴とする請求項1に記載の情報処理装置。
- 前記被写体色情報取得手段は、前記被写体の色情報としてYCbCr表色系の座標値を画像から取得して被写体の色情報リストを生成し、
前記決定手段は、前記被写体の色情報リストにおいて座標値のヒストグラムの頻度値が閾値に達していない場合は前記被写体の色情報リストから座標値を削除することを特徴とする請求項1または2に記載の情報処理装置。 - 前記背景色情報取得手段は、前記背景の色情報としてYCbCr表色系の座標値を画像から取得して背景の色情報リストを生成し、
前記決定手段は、前記背景の色情報リストにおいて座標値のヒストグラムの頻度値が閾値に達していない場合は前記背景の色情報リストから座標値を削除することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。 - 前記被写体色情報取得手段は、前記被写体の色情報としてYCbCr表色系の座標値を画像から取得して被写体の色情報リストを生成し、
前記背景色情報取得手段は、前記背景の色情報としてYCbCr表色系の座標値を画像から取得して背景の色情報リストを生成し、
前記決定手段は、前記被写体の色情報リストと前記背景の色情報リストとで重複する色座標値を、前記被写体の色情報リストから削除することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。 - 前記決定手段は、更に、前記背景の色情報から算出した前記ヒストグラムの頻度値と、前記被写体の色情報から算出した前記ヒストグラムの頻度値の少なくとも一方を正規化し、前記被写体の色情報リストにおいて色座標値の頻度値から、前記背景の色情報リストにおいて対応する色座標値の頻度値を減算し、マイナス値になった色座標値を前記被写体のリストから除外することを特徴とする請求項5に記載の情報処理装置。
- 前記指示画像は、更に、前記非取得領域をも示す画像であることを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
- 前記表示制御手段は、前記被写体の輪郭線を描画した画像を、指示画像として合成表示することを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
- 前記指示画像は、前記輪郭線の形状を単純な図形として描画することを特徴とする請求項8に記載の情報処理装置。
- 前記単純な図形は円、楕円、多角形のうちいずれかであることを特徴とする請求項9に記載の情報処理装置。
- 体験者の両眼にステレオディスプレイを用いて表示する場合、
前記合成画像を、何れか1つのディスプレイにのみ提示することを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。 - 前記被写体は、体験者の手であることを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。
- 更に、前記出力手段で出力された前記被写体の抽出情報に基づいて、前記抽出用画像とは異なる入力画像における被写体の領域を決定する被写体領域決定手段を備えることを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。
- 更に、前記入力画像において、前記決定手段で決定された被写体の領域以外の領域に、CG画像を合成する合成手段を備えることを特徴とする請求項13に記載の情報処理装置。
- 前記合成手段は、前記被写体の領域には前記CG画像を合成しないことを特徴とする請求項14に記載の情報処理装置。
- 被写体を含む抽出用画像と、前記被写体の色情報を取得するための画像取得領域を示す指示画像とを合成した合成画像を、表示部に表示させる表示制御手段と、
前記合成画像のうち、前記指示画像によって示された前記画像取得領域から前記被写体の色情報を取得し、前記指示画像によって示された前記画像取得領域以外の領域を背景領域とし、該背景領域から前記被写体の背景の色情報を取得する取得手段と、
前記被写体の色情報から前記背景の色情報を除去することにより、前記被写体の抽出情報を決定する決定手段と、
前記決定手段により決定された前記被写体の抽出情報を出力する出力手段とを有し、
前記取得手段は、前記被写体の色情報としてYCbCr表色系の座標値を画像から取得して被写体の色情報リストを生成し、前記背景の色情報としてYCbCr表色系の座標値を画像から取得して背景の色情報リストを生成し、
前記決定手段は、前記被写体の色情報リストにおいて座標値のヒストグラムの頻度値が閾値に達していない場合は前記被写体の色情報リストから座標値を削除し、前記背景の色情報リストにおいて座標値のヒストグラムの頻度値が閾値に達していない場合は前記背景の色情報リストから座標値を削除し、
前記決定手段は、前記背景の色情報から算出した前記ヒストグラムの頻度値と、前記被写体の色情報から算出した前記ヒストグラムの頻度値の少なくとも一方を正規化し、前記被写体の色情報リストにおいて色座標値の頻度値から、前記背景の色情報リストにおいて対応する色座標値の頻度値を減算し、マイナス値になった色座標値を前記被写体のリストから除外することを特徴とする情報処理装置。 - 被写体を含む抽出用画像と、前記被写体の色情報を取得するための第1の取得領域を示す指示画像とを合成した合成画像を、表示部に表示させる表示制御工程と、
前記合成画像のうち、前記指示画像によって示された前記第1の取得領域から前記被写体の色情報を取得する被写体色情報取得工程と、
前記第1の取得領域と、該第1の取得領域に隣接する予め設定された色情報の取得対象ではない非取得領域とを除いた領域から、前記被写体の背景の色情報を取得する背景色情報取得工程と、
前記取得工程において取得された前記被写体の色情報と、前記背景の色情報とに基づいて、前記被写体の抽出情報を決定する決定工程と、
前記決定工程において決定された前記被写体の抽出情報を出力する出力工程とを備えることを特徴とする情報処理方法。 - 被写体を含む抽出用画像と、前記被写体の色情報を取得するための画像取得領域を示す指示画像とを合成した合成画像を、表示部に表示させる表示制御工程と、
前記合成画像のうち、前記指示画像によって示された前記画像取得領域から前記被写体の色情報を取得し、前記指示画像によって示された前記画像取得領域以外の領域を背景領域とし、該背景領域から前記被写体の背景の色情報を取得する取得工程と、
前記被写体の色情報から前記背景の色情報を除去することにより、前記被写体の抽出情報を決定する決定工程と、
前記決定工程において決定された前記被写体の抽出情報を出力する出力工程とを有し、
前記取得工程は、前記被写体の色情報としてYCbCr表色系の座標値を画像から取得して被写体の色情報リストを生成し、前記背景の色情報としてYCbCr表色系の座標値を画像から取得して背景の色情報リストを生成し、
前記決定工程は、前記被写体の色情報リストにおいて座標値のヒストグラムの頻度値が閾値に達していない場合は前記被写体の色情報リストから座標値を削除し、前記背景の色情報リストにおいて座標値のヒストグラムの頻度値が閾値に達していない場合は前記背景の色情報リストから座標値を削除し、
前記決定工程は、前記背景の色情報から算出した前記ヒストグラムの頻度値と、前記被写体の色情報から算出した前記ヒストグラムの頻度値の少なくとも一方を正規化し、前記被写体の色情報リストにおいて色座標値の頻度値から、前記背景の色情報リストにおいて対応する色座標値の頻度値を減算し、マイナス値になった色座標値を前記被写体のリストから除外することを特徴とする情報処理方法。 - コンピュータを、請求項1乃至16の何れか1項に記載の情報処理装置の各手段として実行させることを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014117890A JP5762600B1 (ja) | 2014-06-06 | 2014-06-06 | 情報処理装置及び情報処理方法 |
US14/728,899 US9679415B2 (en) | 2014-06-06 | 2015-06-02 | Image synthesis method and image synthesis apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014117890A JP5762600B1 (ja) | 2014-06-06 | 2014-06-06 | 情報処理装置及び情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5762600B1 true JP5762600B1 (ja) | 2015-08-12 |
JP2015230695A JP2015230695A (ja) | 2015-12-21 |
Family
ID=53887769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014117890A Active JP5762600B1 (ja) | 2014-06-06 | 2014-06-06 | 情報処理装置及び情報処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9679415B2 (ja) |
JP (1) | JP5762600B1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017059062A (ja) * | 2015-09-17 | 2017-03-23 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9727977B2 (en) * | 2014-12-29 | 2017-08-08 | Daqri, Llc | Sample based color extraction for augmented reality |
JP6587421B2 (ja) * | 2015-05-25 | 2019-10-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2017012264A (ja) * | 2015-06-29 | 2017-01-19 | セイコーエプソン株式会社 | リハビリ補助用具およびリハビリ装置 |
JP6867883B2 (ja) * | 2017-06-01 | 2021-05-12 | 株式会社日立ドキュメントソリューションズ | 空間表示装置、および、空間表示方法 |
CN108182730B (zh) * | 2018-01-12 | 2022-08-12 | 北京小米移动软件有限公司 | 虚实对象合成方法及装置 |
JP7204397B2 (ja) | 2018-09-21 | 2023-01-16 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US11436808B2 (en) * | 2018-10-09 | 2022-09-06 | Google Llc | Selecting augmented reality objects for display based on contextual cues |
CN113170090A (zh) | 2018-12-04 | 2021-07-23 | 麦克赛尔株式会社 | 头戴式显示装置 |
CN111325767B (zh) * | 2020-02-17 | 2023-06-02 | 杭州电子科技大学 | 基于真实场景的柑橘果树图像集合的合成方法 |
JP2022110885A (ja) | 2021-01-19 | 2022-07-29 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002209082A (ja) * | 2001-01-12 | 2002-07-26 | Minolta Co Ltd | 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理プログラムを記録したコンピュータ読取可能な記録媒体 |
JP2005293141A (ja) * | 2004-03-31 | 2005-10-20 | Canon Inc | マーカ検出方法及び装置並びに位置姿勢推定方法 |
JP2005346469A (ja) * | 2004-06-03 | 2005-12-15 | Canon Inc | 画像処理方法、画像処理装置 |
JP2008287410A (ja) * | 2007-05-16 | 2008-11-27 | Canon Inc | 画像処理方法及び画像処理装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06231275A (ja) * | 1993-01-29 | 1994-08-19 | Hitachi Ltd | 画像シミュレーション方法 |
JP4136420B2 (ja) * | 2002-03-29 | 2008-08-20 | キヤノン株式会社 | 情報処理方法および装置 |
US20040151376A1 (en) * | 2003-02-05 | 2004-08-05 | Konica Minolta Holdings, Inc. | Image processing method, image processing apparatus and image processing program |
JP2005107697A (ja) | 2003-09-29 | 2005-04-21 | Matsushita Electric Ind Co Ltd | Dramアクセス装置 |
JP4328639B2 (ja) | 2004-02-13 | 2009-09-09 | キヤノン株式会社 | 被写体検出情報の調整方法及び調整装置 |
US7634106B2 (en) * | 2004-09-22 | 2009-12-15 | Fujifilm Corporation | Synthesized image generation method, synthesized image generation apparatus, and synthesized image generation program |
WO2010029553A1 (en) * | 2008-09-11 | 2010-03-18 | Netanel Hagbi | Method and system for compositing an augmented reality scene |
JP5652097B2 (ja) * | 2010-10-01 | 2015-01-14 | ソニー株式会社 | 画像処理装置、プログラム及び画像処理方法 |
JP5216834B2 (ja) * | 2010-11-08 | 2013-06-19 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト表示装置及びオブジェクト表示方法 |
EP2512141B1 (en) * | 2011-04-15 | 2019-07-17 | Sony Interactive Entertainment Europe Limited | System and method of user interaction in augmented reality |
-
2014
- 2014-06-06 JP JP2014117890A patent/JP5762600B1/ja active Active
-
2015
- 2015-06-02 US US14/728,899 patent/US9679415B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002209082A (ja) * | 2001-01-12 | 2002-07-26 | Minolta Co Ltd | 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理プログラムを記録したコンピュータ読取可能な記録媒体 |
JP2005293141A (ja) * | 2004-03-31 | 2005-10-20 | Canon Inc | マーカ検出方法及び装置並びに位置姿勢推定方法 |
JP2005346469A (ja) * | 2004-06-03 | 2005-12-15 | Canon Inc | 画像処理方法、画像処理装置 |
JP2008287410A (ja) * | 2007-05-16 | 2008-11-27 | Canon Inc | 画像処理方法及び画像処理装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017059062A (ja) * | 2015-09-17 | 2017-03-23 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20150356785A1 (en) | 2015-12-10 |
JP2015230695A (ja) | 2015-12-21 |
US9679415B2 (en) | 2017-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5762600B1 (ja) | 情報処理装置及び情報処理方法 | |
US11423556B2 (en) | Methods and systems to modify two dimensional facial images in a video to generate, in real-time, facial images that appear three dimensional | |
JP5818773B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US9607439B2 (en) | Information processing apparatus and information processing method | |
US11010958B2 (en) | Method and system for generating an image of a subject in a scene | |
JP5818857B2 (ja) | 情報処理装置およびその制御方法 | |
US20180247449A1 (en) | Method and apparatus for controlling 3d medical image | |
KR101560508B1 (ko) | 3차원 이미지 모델 조정을 위한 방법 및 장치 | |
US8860847B2 (en) | Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for creating an image | |
WO2015098807A1 (ja) | 被写体と3次元仮想空間をリアルタイムに合成する撮影システム | |
JP2008210276A (ja) | 三次元モデル情報の生成方法及び装置 | |
WO2015142446A1 (en) | Augmented reality lighting with dynamic geometry | |
JP2013235537A (ja) | 画像作成装置、画像作成プログラム、及び記録媒体 | |
JP2022058753A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6775669B2 (ja) | 情報処理装置 | |
US11275434B2 (en) | Information processing apparatus, information processing method, and storage medium | |
TWI821220B (zh) | 影像擷取之設備及方法 | |
JP2020095741A (ja) | 画像処理装置、画像処理システム、画像処理方法及びプログラム | |
JP2021077078A (ja) | 拡張仮想空間提供システム | |
WO2018173206A1 (ja) | 情報処理装置 | |
JP7044846B2 (ja) | 情報処理装置 | |
JP7321029B2 (ja) | キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体 | |
JP7175715B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2018142273A (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JP2022093262A (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150512 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150609 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5762600 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |