JP5861881B2 - 画像合成装置、画像合成方法、プログラム、及び、画像合成システム - Google Patents

画像合成装置、画像合成方法、プログラム、及び、画像合成システム Download PDF

Info

Publication number
JP5861881B2
JP5861881B2 JP2012048390A JP2012048390A JP5861881B2 JP 5861881 B2 JP5861881 B2 JP 5861881B2 JP 2012048390 A JP2012048390 A JP 2012048390A JP 2012048390 A JP2012048390 A JP 2012048390A JP 5861881 B2 JP5861881 B2 JP 5861881B2
Authority
JP
Japan
Prior art keywords
image
light
information
unit
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012048390A
Other languages
English (en)
Other versions
JP2013182607A (ja
Inventor
宣男 飯塚
宣男 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012048390A priority Critical patent/JP5861881B2/ja
Publication of JP2013182607A publication Critical patent/JP2013182607A/ja
Application granted granted Critical
Publication of JP5861881B2 publication Critical patent/JP5861881B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、たとえば、撮像画角に仮想画像を合成する画像合成装置、画像合成方法、プログラム、及び、画像合成システムに関する。
コンピュータグラフィックスの分野では複数の画像を合成する技術が多用されており、そのような技術の一つに強化現実(Augmented Reality;以下、ARと略す)がある。ARとは、現実環境(現実の知覚)に、さらに任意の情報を加えることによって強化した知覚を提供することをいい、一般的には実際に知覚された「現実環境」に、仮想的に生成された「仮想環境」を合成することをいうが、本明細書ではこれに限定しない。双方が現実環境であってもよい。以下、説明を簡単にするために現実環境と仮想環境の合成を例にして説明する。
一般的に仮想環境は、コンピュータグラフィックス(以下、CG)で生成されるが、とりわけ、遠近感や奥行き感を得るために、三次元コンピュータグラフィックス(以下、3DCG)で生成されることが多い。
今、カメラで撮影された一人の人物の像(以下、第1の像)と、3DCGで生成された任意の像(以下、第2の像)との合成を考える。第1の像は現実環境であり、第2の像は仮想環境である。この場合、合成画像の遠近感や奥行き感は、各々の像の前後関係を加味することによって得ることができる。第1の像を前にすれば第1の像が近くに見え、その逆に、第1の像を後ろにすれば第1の像が遠くに見える。
この考え方を、たとえば、二人の人物の像(以下、第1Aの像と第1Bの像)に応用すると、この場合、第1Aの像と第1Bの像が近くに見えるようにするには、第1Aの像と第1Bの像を第2の像の前に配置すればよく、その逆に、第1Aの像と第1Bの像が遠くに見えるようにするには、第1Aの像と第1Bの像を第2の像の後ろに配置すればよい。
このようにして、ARにおける遠近感や奥行き感を得ることができる。
しかしながら、上記の例では、たとえば、第1Aの像と第1Bの像の“間”に第2の像を配置することができない。このため、いわゆるオクルージョン制御の点で不十分である。オクルージョンとは、物体を人の目で観察するときには必ず前後関係があり、手前にある物体は背景に位置する物体を隠すことから、この状態のことをいい、オクルージョン制御とは、そのような見え方に制御することをいう。
上記の例において、オクルージョン制御を行うことができない理由は、第1Aの像と第1Bの像が一つのオブジェクトだからであり、第1Aの像と第1Bの像とを別々のオブジェクトとして取り扱うことができないからである。
この点において、下記の特許文献1には、画像の奥行きを示すデータ(同文献では“Zデータ”と称している)に基づいて、オブジェクトを個別に扱えるようにし、任意の位置に画像を合成するというオクルージョン制御の技術が記載されている。
特開2000−11204号公報
しかしながら、特許文献1の技術にあっては、画像の奥行きを示すデータ(“Zデータ”)をどのようにして得るかについての明示的な開示がされていない。
より詳細に言えば、特許文献1の技術では、「背景画像のZデータは、所定の固定された視点に基づく表示画面内の奥行きを示す値である。」と記載(段落〔0034〕)されていることから、第1Aの像と第1Bの像について、それぞれ固定の視点を基準にした第1の奥行きデータと第2の奥行きデータとを与えるものと解されるところ、これらの奥行きデータの付与は、特許文献1の全体を参酌して「人為的」に行われるものと理解するのが自然であり、してみると、第1Aの像と第1Bの像の間に第2の像を配置するためには、当然のこと、適正なデータ(第1の奥行きデータと第2の奥行きデータ)の人的付与が前提であり、手間が掛かって面倒であるばかりか、リアルタイム性に欠けるという欠点があり、しかも、誤ったデータの付与が行われた場合には期待したオクルージョン制御を行うことができないという根本的な欠点もある。
そこで、本発明の目的は、特別なデータを必要とすることなく奥行きのある合成画像を生成することができるようにすることにある。
本発明に係る画像合成装置は、情報を時系列を伴った変調方式で変調しこの変調された情報を光に重畳させて発光する光源とオブジェクトとを撮像画角に収めた画像を、時系列的に連続して取得する第1の取得手段と、この第1の取得手段によって時系列的に連続して取得された画像に含まれる、変調された光から前記情報を復元する復元手段と、この復元手段によって復元された情報に基づいて画像を生成する画像生成手段と、前記第1の取得手段によって連続的に撮像して取得された画像における、前記オブジェクトへの前記変調された光の照射状況に基づいて、当該画像から前記オブジェクトに対応する画像領域を抜き出す処理を行う処理手段と、前記画像に前記光源の存在位置に基づいて前記画像生成手段によって生成された画像と、前記処理手段によって抜き出された画像領域と、を合成する合成手段と、を備えることを特徴とする。
本発明に係る画像合成方法は、情報を時系列を伴った変調方式で変調しこの変調された情報を光に重畳させて発光する光源とオブジェクトとを撮像画角に収めた画像を、時系列的に連続して取得する取得ステップと、この取得ステップにて時系列的に連続して取得された画像に含まれる、変調された光から前記情報を復元する復元ステップと、この復元ステップにて復元された情報に基づいて画像を生成する画像生成ステップと、前記取得ステップにて連続的に撮像して取得された画像における、前記オブジェクトへの前記変調された光の照射状況に基づいて、当該画像から前記オブジェクトに対応する画像領域を抜き出す処理を行う処理ステップと、前記画像に前記光源の存在位置に基づいて前記画像生成ステップにて生成された画像と、前記処理ステップにて抜き出された画像領域と、を合成する合成ステップと、を含むことを特徴とする。
本発明に係るプログラムは、コンピュータを、情報を時系列を伴った変調方式で変調しこの変調された情報を光に重畳させて発光する光源とオブジェクトとを撮像画角に収めた画像を、時系列的に連続して取得する取得手段、この取得手段によって時系列的に連続して取得された画像に含まれる、変調された光から前記情報を復元する復元手段、この復元手段によって復元された情報に基づいて画像を生成する画像生成手段、前記取得手段によって連続的に撮像して取得された画像における、前記オブジェクトへの前記変調された光の照射状況に基づいて、当該画像から前記オブジェクトに対応する画像領域を抜き出す処理を行う処理手段、前記画像に前記光源の存在位置に基づいて前記画像生成手段によって生成された画像と、前記処理手段によって抜き出された画像領域と、を合成する合成手段、として機能させることを特徴とする。
本発明に係る画像合成システムは、情報を時系列を伴った変調方式で変調し、この変調された情報を光に重畳させて発光する光源と、撮像装置とを含み、前記撮像装置は、前記光源とオブジェクトとを撮像画角に収めた画像を、連続的に撮像して取得する取得手段と、この取得手段によって連続的に撮像して取得された画像に含まれる、変調された光から前記情報を復元する復元手段と、この復元手段によって復元された情報に基づいて画像を生成する画像生成手段と、前記取得手段によって連続的に撮像して取得された画像における、前記オブジェクトへの前記変調された光の照射状況に基づいて、当該画像から前記オブジェクトに対応する画像領域を抜き出す処理を行う処理手段と、前記画像に前記光源の存在位置に基づいて前記画像生成手段によって生成された画像と、前記処理手段によって抜き出された画像領域と、を合成する合成手段と、を備えることを特徴とする。
本発明によれば、特別なデータを必要とすることなく奥行きのある合成画像を生成することができる。
実施形態のシステム構成図である。 光マーカ5の簡略外観図である。 発光部521〜528の構成図である。 光信号のデータフレームの一例を示す図である。 3DCGの表示例を示す図である。 画像合成部3の内部構造(処理手段要件と処理内容)を示す図(1/2)である。 画像合成部3の内部構造(処理手段要件と処理内容)を示す図(2/2)である。 利用シーンの一例を示す図である。 人物7、8の前後関係判定の概念図である。 図9の利用シーンにおける撮影画像を示す図である。 図10の画像から高輝度の光(発光部521〜528の光)だけを取り出した図である。 人物7、8の抽出画像を示す図である。 人物8(後景オブジェクト画像)の抽出画像を示す図である。 人物7(前景オブジェクト画像)の抽出画像を示す図である。 合成画像を示す図である。
以下、本発明の実施形態を、図面を参照しながら説明する。
図1は、実施形態のシステム構成図である。この図において、画像合成システム1は、CCDやCMOSなどの二次元撮像デバイスで構成された撮像部2、画像合成部3、液晶ディスプレイ等の表示部4及び光マーカ5を含み、概略的には、撮像部2で、光マーカ5とその光マーカ5の周囲に存在する現実環境の被写体(たとえば、人物6〜8)の像を撮像し、画像合成部3で、撮像部2の撮像信号に基づいて、(1)光マーカ5によって送信された光信号のデコード、(2)そのデコード結果に基づく3DCGの生成、(3)その3DCGと人物6〜8の像との画像合成、(4)合成画像の表示部4への出力、という一連の処理を実行するものであり、特に、(3)の画像合成を行う際に、人物6〜8の前後関係を把握して、適切な位置に3DCGを合成するという点に特徴がある。
図2は、光マーカ5の簡略外観図である。この光マーカ5は、立設位置変更可能な支柱500の上端から放射状に枝分かれした複数本(ここでは一例として8本とする)の腕木511〜518を備え、各々の腕木511〜518の先端に発光部521〜528を取り付けて構成されている。
発光部521〜528の床面からの高さHは、撮像部2の撮影範囲内に存在する現実環境の被写体の高さを考慮して適当に設定する。たとえば、現実環境の被写体が人物6〜8(図1参照)である場合、Hは、それらの人物6〜8の半身長程度(腰から胸あたりまで)としてもよい。
また、発光部521〜528の数は、図では8個であるが、これに限定されない。CG画像の合成位置を安定的に決定するためには、少なくとも4個あればよい。実施形態では、様々なケース(たとえば、人などが来て遮ることなど)を想定し、冗長度を増すために8個とした。これは、光マーカ5の前に人がいて、多少さえぎられることがあっても、8個のうちのいずれか4個が検出できれば、マーカ領域(光マーカ5の存在領域)の4隅を決定できるからであるが、もちろんこの数は一例に過ぎない。
図3は、発光部521〜528の構成図である。この図において、発光部521〜528はいずれも共通の構成を有しており、各々、LED等の輝度変調可能な光源529と、ドライバ/点滅制御器530と、送出IDデータメモリ531とを備えている。
このような構成を有する発光部521〜528は、送出IDデータメモリ531に格納されている任意のデータを光の点滅または輝度の変化で空間に光送信する公知の装置(たとえば、特開2009−087176号公報)を利用することができるが、公知の装置との相違は、光源529の機能にある。すなわち、この実施形態の光源529は、公知の装置と共通する「光通信機能」を有することに加え、さらに、現実環境(図1の例では人物6〜8)を明るく照らし出す「照明機能」も有する点で公知の装置と相違する。この特異な機能(照明機能)の用途等については、後で詳しく説明する。
なお、発光部521〜528からの光は可視光であってもよいが、赤外線等の非可視光であってもよい。この場合、撮像部2は、可視光の画像と非可視光(赤外線等)の画像の双方を撮像できるものとする必要がある。あるいは、撮像部2を、可視光撮像用の第1のカメラと、非可視光撮像用の第2のカメラとで構成し、それらの第1及び第2のカメラの撮影光軸を一致させたもの(いわゆる二眼システム)としてもよい。
図4は、発光部521〜528から送出される光信号のデータフレームの一例を示す図である。この図において、データフレーム9は、位置探索用の固定ヘッダ情報部90と、データペイロード用のIDデータ部91とを含み、固定ヘッダ情報部90に、変調光源の探索を容易にするための特定擬似乱数パターンなどのヘッダ情報を格納し、IDデータ部91に、それぞれの光源のID情報を光の輝度変化として変調(多くはON/OFF制御)するためのIDデータを格納する。
なお、本実施形態では、それぞれの発光部521〜528の信号が同期しているものとする。IDデータ部91は、照射領域を考えると、輝度加算されて不定であるが、ヘッダ情報部90に関しては、どの発光部521〜528からの光の輝度変化も一致するので、処理が可能である。また、さえぎり対策としては、発光部521〜528の数を増やすほかに、発光部521〜528の高さHを人物6〜8(図1参照)の身長以上に設定するなど、設置の工夫で対策することができ、そのような場合でも本発明は有効である。
図5は、3DCGの表示例を示す図である。この図において、表示部4には、光マーカ5の画像と、その光マーカ5からの光信号に基づいて生成された仮想環境(ここでは3DCG)の画像(以下、仮想画像10と称す)とが表示されている例が示されている。なお、図示の仮想画像10は、箱状の単純図形であるが、これは説明上の便宜例に過ぎない。合成する位置と向き及び大きさがわかれば、非常に複雑な3DCGを生成できることは周知のとおりである。
図6及び図7は、画像合成部3の内部構造(処理手段要件と処理内容)を示す図である。画像合成部3は、実際にはコンピュータで構成されており、コンピュータのソフトウェアとハードウェアの有機的結合によって構成されている。
<第1のブロック:B1>
B1は、撮像部2からの撮像信号に基づき、光マーカ5からの光信号を再生復号する処理ブロックであり、このB1は、通信処理用画像バッファ33、ヘッダ相関検出手段34、背景光排除画像バッファ35、信号領域決定手段36、受信座標リスト37、ビットデコード手段38、及び、ビットバッファ39を含み、ID受信(図4のデータフレーム9の受信)の完了次第、存在座標と合わせて後段処理(B2、B3)に送っていく。
各部の詳細は、以下のとおりである。
通信処理用画像バッファ33は、変調された光を検出およびそのデータを取得するため、一定数の画像を格納するバッファである。ヘッダ相関検出手段34は、通信処理用画像バッファ33に一定数格納された画像群のうち最も古く取得された画像群(ヘッダ部分に相当)を用いて、時系列を追って変化する輝度変化と予め設定された輝度変化との相関度を演算する。背景光排除画像バッファ35は、ヘッダ相関検出手段34による演算結果として、相関度が所定以上高い画像群について、背景光を排除する処理を行い、その結果の画像が格納されるバッファである。信号領域決定手段36は、背景光排除画像バッファ35に格納された画像群において、自己発光による高輝度領域をマーカ領域とみなし、その画像領域と座標とを決定する手段である。受信座標リスト37は、信号領域決定手段36で決定されたマーカ領域の位置を記憶管理するテーブル記憶手段である。ビットデコード手段38は、受信座標リスト37にて記憶管理されているマーカー領域を参照し、通信処理用画像バッファ33に格納される画像群におけるマーカー領域に対応する座標のビット判定を行ないデコードする。ビットバッファ39は、ビットデコード手段38にてデコードされたビットデータを格納する。なお、規定ビット数の受信が終わった(=その座標の1ブロック受信完了)などもこの中で判定する。
<第2のブロック:B2>
B2は、B1で座標とIDデータの組を逐次得るごとに、実画像に合わせこむべき3DCGの位置や向き及び大きさなどを制御してCG描画イメージを得る、いわゆるARCG合成を行う処理ブロックであり、このB2は、座標−IDセットリスト40、カメラ位置計算手段41、3DCGモデルデータ42、CG生成手段43、及び、CG画像データ44を含む。
なお、同図において、座標−IDセットリスト40、及び、3DCGモデルデータ42はデータそのものを示す。また、CG画像データ44は画像データそのものを示す。そして、カメラ位置計算手段41、及び、CG生成手段43は処理部を示す。
各部の詳細は、以下のとおりである。
座標−IDセットリスト40は、各光マーカのIDとその空間的配置の規則性を規定したデータである。カメラ位置計算手段41は、座標−IDセットリスト40のデータを元に3DCGモデルで表現される対象位置とカメラの相対位置関係を算出し、目的の3DCGモデルをカメラ画像に一致させて表示する場合のパラメータを得る手段である。3DCGモデルデータ42は、3DCGデータである。CG生成手段43は、3DCGモデルデータ42をカメラ位置計算41により得られたパラメータに基づきモニタ画像に一致させた、CGを生成する手段である。CG画像データ44は、CG生成手段43で得た画像データである。
<第3のブロック:B3>
B3は、モニタ画像において、前景となるべきオブジェクトの決定を行う本実施形態の特徴となる処理ブロックであり、後景オブジェクト抜き出し手段45、後景オブジェクト画像データ46、背景画像データ47、オブジェクト抜き出し手段48、オブジェクト画像データ49、前景オブジェクト抜き出し手段50、及び、前景オブジェクト画像データ51を含む。
なお、同図において、後景オブジェクト抜き出し手段45、オブジェクト抜き出し手段48、及び、前景オブジェクト抜き出し手段50は処理部を示す。また、後景オブジェクト画像データ46、背景画像データ47、オブジェクト画像データ49、及び、前景オブジェクト画像データ51は画像データそのものを示す。
各部の詳細は、以下のとおりである。
後景オブジェクト判定抜き出し手段45は、図10のような、自己発光だけでなく、特定変調光で照らされた間接照射部分も検出するための手段である。具体的には、照射部分は相関は同様でも輝度として低いので、検出として小さい輝度変化でも時間相関領域として判定できるよう、パラメータを調整され、また、必要に応じて適宜、連結領域判定や、人の着ている服に左右されずまた、オブジェクトが人影であることを利用して、光景の照射オブジェクト領域を抜き出す処理手段である。後景オブジェクト画像データ46は、後景オブジェクト判定抜き出し手段45から出力された画像データである。背景画像データ47は、オブジェクト切り出しのため、当初から何もオブジェクトがない状態を示したの画像データである。オブジェクト抜き出し手段48は、一般的な画像認識による、オブジェクト認識、たとえば、前述のように一様背景からの単純差分での抜き出しや、人影の形状に基づき、オブジェクトの存在を切り出すような公知の処理手段である。オブジェクト画像データ49は、そのようにして得た、オブジェクトだけを抜き出した画像データである。前景オブジェクト抜き出し手段50はオブジェクト画像データ49から、後景オブジェクト画像データ46の画像を画像減算で演算して、前景オブジェクト画像を抜き出す手段である。前景オブジェクト画像データ51は、前景オブジェクト抜き出し手段50の処理結果としての画像データである。
<共通要素>
さらに、画像合成部3は、これら3つの処理ブロック(B1〜B3)を備えるとともに、それらの処理ブロックの共通要素として、さらに、モニタ画像データ52と、画像合成手段53とを備える。
なお、モニタ画像データ52は画像データそのものを示し、画像合成手段53は処理部を示す。モニタ画像データ52は、カメラスルーの入力画像そのものである。画像合成手段53は、入力されたモニタ画像データ52に、処理ブロックB2で得たCG画像データ44、処理ブロックB3で得た前景オブジェクト画像データ51を順に重ね合わせる手段である。
次に、実施形態の利用シーンについて、具体的に説明する。
図8は、利用シーンの一例を示す図である。この図では、光マーカ5を間にして、その前後に人物7、8が位置する利用シーンを例示している。
いま、光マーカ5からの光信号に基づいて生成された仮想環境(ここでは3DCG)の画像を、先の図5に示したような仮想画像10(箱状の単純図形)とし、その仮想画像10の合成位置を人物7、8の間にする(オクルージョン制御する)ことを考える。
図9は、実施形態における人物7、8の前後関係判定の概念図である。この図において、今、撮像部2の撮影範囲内に人物7、8と光マーカ5が位置しているものとし、且つ、その並び順は、撮像部2に近い方から順に人物7、光マーカ5、人物8とする。
このような並び順において、光マーカ5からの光の照射状況により、人物7は、その後ろ部分(背中側)が明るく照らし出され、また、人物8は、その前部分(顔や胸及び腹など)が明るく照らし出される。ちなみに、人物7、8のハッチング部分は、光マーカ5からの光が当たらない陰の部分を表している。
図10は、図9の利用シーンにおける撮影画像を示す図であり、詳細には背景光排除画像バッファに格納される画像データに基づく画像を示すものである。同図の画像は、撮像部2の撮影画像から定常光と外乱光を排除し、光マーカ5が発する光(発光部521〜528の光)とその光により照射された人物8のオブジェクトとからなる。
図11は、図10の画像からマーカ領域の光(発光部521〜528の光)だけを取り出した図である。
これらの図において、図10の画像には人物8だけが写っている(換言すれば人物7は光マーカ5の光により照射されていない)。これは、先の図9で示したように、光マーカ5からの光により、人物8の前部分が明るく照らし出されているからであり、人物7の前部分は暗い陰の部分になっているからである。
また、図11の画像は、マーカ領域を切り抜いたものである。間接光と直接光は、一般に極端に輝度が変わるので、外乱光排除画像の中で特定スレッシュ以上の輝度領域を選択すればよい。この領域中心をデータ受信の代表座標とするなどして、以後のIDデータの受信処理ブロック(B1)で利用する。
図12は、人物7、8の抽出画像を示す図である。この抽出画像は公知の画像処理技術によって得ることができる。すなわち、オブジェクト(人物7、8)は、モニタ画像データ52と背景画像データ47との差分を使って得ることができる。あるいは、オブジェクト(人物7、8)の動きを検出して得ることもできるほか、他の様々な画像処理技術を利用しても得ることが可能である。
図13は、人物8のみの画像を示す図である。これは後景オブジェクト画像データ46に基づいた画像であり、照射領域の画像部分として抽出することができる。
図14は、人物7のみの画像を示す図である。これは前景オブジェクト画像データ51に基づいた画像であり、モニタ画像データ52と背景画像データ47との差分と、後景オブジェクト画像データ46とのAND演算によって得ることができる。
このように、人物7、8を、人物7については後景オブジェクト画像、人物8については前景オブジェクト画像として抽出できるので、これらのオブジェクト画像の間に仮想画像10(図5参照)を配置したような合成を行なうことができる。
図15は、この場合における合成画像を示す図である。この図において、人物7と人物8の間に仮想画像10が合成されている。
以上のとおりであるから、本実施形態によれば、特別なデータを必要とすることなく奥行きのある合成画像を生成することができるという格別の効果を奏することができる。
なお、本実施形態においては、処理ブロックB2の動作は画像合成部3で行なうものとしたがこれに限らず、復号した情報と自己の位置情報や撮像方向を外部のネットワークを介して所定のCG蓄積サーバへ送信し、CG蓄積サーバ側で合成すべきCG(仮想画像)を選択し、画像合成部へ送信する構成としてもよい。
また、本実施形態においては情報を輝度変調にて送信するようにしたが、色相における所定の色変移をビットデータに割り当て、光マーカを複色発光させる構成にしてもよい。
さらに、本実施形態においては、画像合成手段53は、入力されたモニタ画像データ52に、処理ブロックB2で得たCG画像データ44、処理ブロックB3で得た前景オブジェクト画像データ51を順に重ね合わせる処理を行ったがこれに限らず、CG画像データと前景オブジェクト画像データ51とを含んだモニタ画像データ52において奥行きが表現できていれば他の処理であってもよい。
この他の処理とは、具体的には、画素レベルでモニタ画像データ52、CG画像データ44、及び、抜き出された前景オブジェクト画像データ51が重なる領域を特定し、この特定された領域については、前景オブジェクト画像データ51に対応する画素領域を優先し、他の画素領域については無効化する等の処理である。
以下に、本件出願の特許請求の範囲に記載された発明を付記する。
(付記1)
請求項1に記載の発明は、
情報を時系列を伴った変調方式で変調しこの変調された情報を光に重畳させて発光する光源とオブジェクトとを撮像画角に収めた画像を、時系列的に連続して取得する第1の取得手段と、
この第1の取得手段によって時系列的に連続して取得された画像に含まれる、変調された光から前記情報を復元する復元手段と、
この復元手段によって復元された情報に基づいて画像を生成する画像生成手段と、
前記第1の取得手段によって連続的に撮像して取得された画像における、前記オブジェクトへの前記変調された光の照射状況に基づいて、当該画像から前記オブジェクトに対応する画像領域を抜き出す処理を行う処理手段と、
前記画像に前記光源の存在位置に基づいて前記画像生成手段によって生成された画像と、前記処理手段によって抜き出された画像領域と、を合成する合成手段と、
を備えることを特徴とする画像合成装置である。
(付記2)
請求項2に記載の発明は、
前記オブジェクトが存在しない状態の前記撮像画角の画像を取得する第2の取得手段をさらに備え、
前記処理手段は、前記オブジェクトへの前記変調された光の照射状況に加え、前記第1の取得手段によって取得された画像と前記第2の取得手段によって取得された画像とを比較して、前記オブジェクトに対応する画像領域を抜き出す処理を行うことを特徴とする請求項1記載の画像合成装置である。
(付記3)
請求項3に記載の発明は、
前記合成手段は、
前記画像における前記光源の存在位置に基づいて、この画像に前記画像生成手段によって生成された画像を合成する第1の合成手段と、
前記処理手段によって抜き出された画像領域を、前記第1の合成手段によって合成された画像に重畳合成する第2の合成手段と、
を含むことを特徴とする請求項1又は2記載の画像合成装置である。
(付記4)
請求項4に記載の発明は、
前記第1の取得手段により取得された画像から、前記光源の発光による高輝度領域を特定する領域特定手段をさらに備え、
前記第1の合成手段は、前記領域特定手段によって特定された高輝度領域を前記光源の存在位置と見做して、これに基づいてこの画像に前記画像生成手段によって生成された画像を合成することを特徴とする請求項3に記載の画像合成装置である。
(付記5)
請求項5に記載の発明は、
前記第1の取得手段は、撮像手段を含むことを特徴とする請求項1乃至4の何れかに記載の画像合成装置である。
(付記6)
請求項6に記載の発明は、
情報を時系列を伴った変調方式で変調しこの変調された情報を光に重畳させて発光する光源とオブジェクトとを撮像画角に収めた画像を、時系列的に連続して取得する取得ステップと、
この取得ステップにて時系列的に連続して取得された画像に含まれる、変調された光から前記情報を復元する復元ステップと、
この復元ステップにて復元された情報に基づいて画像を生成する画像生成ステップと、
前記取得ステップにて連続的に撮像して取得された画像における、前記オブジェクトへの前記変調された光の照射状況に基づいて、当該画像から前記オブジェクトに対応する画像領域を抜き出す処理を行う処理ステップと、
前記画像に前記光源の存在位置に基づいて前記画像生成ステップにて生成された画像と、前記処理ステップにて抜き出された画像領域と、を合成する合成ステップと、
を含むことを特徴とする画像合成方法である。
(付記7)
請求項7に記載の発明は、
コンピュータを、
情報を時系列を伴った変調方式で変調しこの変調された情報を光に重畳させて発光する光源とオブジェクトとを撮像画角に収めた画像を、時系列的に連続して取得する取得手段、
この取得手段によって時系列的に連続して取得された画像に含まれる、変調された光から前記情報を復元する復元手段、
この復元手段によって復元された情報に基づいて画像を生成する画像生成手段、
前記取得手段によって連続的に撮像して取得された画像における、前記オブジェクトへの前記変調された光の照射状況に基づいて、当該画像から前記オブジェクトに対応する画像領域を抜き出す処理を行う処理手段、
前記画像に前記光源の存在位置に基づいて前記画像生成手段によって生成された画像と、前記処理手段によって抜き出された画像領域と、を合成する合成手段、
として機能させることを特徴とするプログラムである。
(付記8)
請求項8に記載の発明は、
情報を時系列を伴った変調方式で変調し、この変調された情報を光に重畳させて発光する光源と、撮像装置とを含み、
前記撮像装置は、
前記光源とオブジェクトとを撮像画角に収めた画像を、連続的に撮像して取得する取得手段と、
この取得手段によって連続的に撮像して取得された画像に含まれる、変調された光から前記情報を復元する復元手段と、
この復元手段によって復元された情報に基づいて画像を生成する画像生成手段と、
前記取得手段によって連続的に撮像して取得された画像における、前記オブジェクトへの前記変調された光の照射状況に基づいて、当該画像から前記オブジェクトに対応する画像領域を抜き出す処理を行う処理手段と、
前記画像に前記光源の存在位置に基づいて前記画像生成手段によって生成された画像と、前記処理手段によって抜き出された画像領域と、を合成する合成手段と、
を備えることを特徴とする画像合成システムである。
1 画像合成システム
2 撮像部
3 画像合成部
5 光マーカ
6〜8 人物
10 仮想画像
33 通信処理用画像バッファ
34 ヘッダ相関検出手段
35 背景光排除画像バッファ
36 信号領域決定手段
37 受信座標リスト
38 ビットデコード手段
39 ビットバッファ
45 後景オブジェクト抜き出し手段
48 オブジェクト抜き出し手段
50 前景オブジェクト抜き出し手段
53 画像合成手段
521〜528 発光部
529 光源
530 ドライバ/点滅制御器
531 送出IDデータメモリ

Claims (8)

  1. 情報を時系列を伴った変調方式で変調しこの変調された情報を光に重畳させて発光する光源とオブジェクトとを撮像画角に収めた画像を、時系列的に連続して取得する第1の取得手段と、
    この第1の取得手段によって時系列的に連続して取得された画像に含まれる、変調された光から前記情報を復元する復元手段と、
    この復元手段によって復元された情報に基づいて画像を生成する画像生成手段と、
    前記第1の取得手段によって連続的に撮像して取得された画像における、前記オブジェクトへの前記変調された光の照射状況に基づいて、当該画像から前記オブジェクトに対応する画像領域を抜き出す処理を行う処理手段と、
    前記画像に前記光源の存在位置に基づいて前記画像生成手段によって生成された画像と、前記処理手段によって抜き出された画像領域と、を合成する合成手段と、
    を備えることを特徴とする画像合成装置。
  2. 前記オブジェクトが存在しない状態の前記撮像画角の画像を取得する第2の取得手段をさらに備え、
    前記処理手段は、前記オブジェクトへの前記変調された光の照射状況に加え、前記第1の取得手段によって取得された画像と前記第2の取得手段によって取得された画像とを比較して、前記オブジェクトに対応する画像領域を抜き出す処理を行うことを特徴とする請求項1記載の画像合成装置。
  3. 前記合成手段は、
    前記画像における前記光源の存在位置に基づいて、この画像に前記画像生成手段によって生成された画像を合成する第1の合成手段と、
    前記処理手段によって抜き出された画像領域を、前記第1の合成手段によって合成された画像に重畳合成する第2の合成手段と、
    を含むことを特徴とする請求項1又は2記載の画像合成装置。
  4. 前記第1の取得手段により取得された画像から、前記光源の発光による高輝度領域を特定する領域特定手段をさらに備え、
    前記第1の合成手段は、前記領域特定手段によって特定された高輝度領域を前記光源の存在位置と見做して、これに基づいてこの画像に前記画像生成手段によって生成された画像を合成することを特徴とする請求項3に記載の画像合成装置。
  5. 前記第1の取得手段は、撮像手段を含むことを特徴とする請求項1乃至4の何れかに記載の画像合成装置。
  6. 情報を時系列を伴った変調方式で変調しこの変調された情報を光に重畳させて発光する光源とオブジェクトとを撮像画角に収めた画像を、時系列的に連続して取得する取得ステップと、
    この取得ステップにて時系列的に連続して取得された画像に含まれる、変調された光から前記情報を復元する復元ステップと、
    この復元ステップにて復元された情報に基づいて画像を生成する画像生成ステップと、
    前記取得ステップにて連続的に撮像して取得された画像における、前記オブジェクトへの前記変調された光の照射状況に基づいて、当該画像から前記オブジェクトに対応する画像領域を抜き出す処理を行う処理ステップと、
    前記画像に前記光源の存在位置に基づいて前記画像生成ステップにて生成された画像と、前記処理ステップにて抜き出された画像領域と、を合成する合成ステップと、
    を含むことを特徴とする画像合成方法。
  7. コンピュータを、
    情報を時系列を伴った変調方式で変調しこの変調された情報を光に重畳させて発光する光源とオブジェクトとを撮像画角に収めた画像を、時系列的に連続して取得する取得手段、
    この取得手段によって時系列的に連続して取得された画像に含まれる、変調された光から前記情報を復元する復元手段、
    この復元手段によって復元された情報に基づいて画像を生成する画像生成手段、
    前記取得手段によって連続的に撮像して取得された画像における、前記オブジェクトへの前記変調された光の照射状況に基づいて、当該画像から前記オブジェクトに対応する画像領域を抜き出す処理を行う処理手段、
    前記画像に前記光源の存在位置に基づいて前記画像生成手段によって生成された画像と、前記処理手段によって抜き出された画像領域と、を合成する合成手段、
    として機能させることを特徴とするプログラム。
  8. 情報を時系列を伴った変調方式で変調し、この変調された情報を光に重畳させて発光する光源と、撮像装置とを含み、
    前記撮像装置は、
    前記光源とオブジェクトとを撮像画角に収めた画像を、連続的に撮像して取得する取得手段と、
    この取得手段によって連続的に撮像して取得された画像に含まれる、変調された光から前記情報を復元する復元手段と、
    この復元手段によって復元された情報に基づいて画像を生成する画像生成手段と、
    前記取得手段によって連続的に撮像して取得された画像における、前記オブジェクトへの前記変調された光の照射状況に基づいて、当該画像から前記オブジェクトに対応する画像領域を抜き出す処理を行う処理手段と、
    前記画像に前記光源の存在位置に基づいて前記画像生成手段によって生成された画像と、前記処理手段によって抜き出された画像領域と、を合成する合成手段と、
    を備えることを特徴とする画像合成システム。
JP2012048390A 2012-03-05 2012-03-05 画像合成装置、画像合成方法、プログラム、及び、画像合成システム Expired - Fee Related JP5861881B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012048390A JP5861881B2 (ja) 2012-03-05 2012-03-05 画像合成装置、画像合成方法、プログラム、及び、画像合成システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012048390A JP5861881B2 (ja) 2012-03-05 2012-03-05 画像合成装置、画像合成方法、プログラム、及び、画像合成システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015252731A Division JP6044702B2 (ja) 2015-12-25 2015-12-25 画像処理装置、画像処理方法、プログラム、及び、画像処理システム

Publications (2)

Publication Number Publication Date
JP2013182607A JP2013182607A (ja) 2013-09-12
JP5861881B2 true JP5861881B2 (ja) 2016-02-16

Family

ID=49273182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012048390A Expired - Fee Related JP5861881B2 (ja) 2012-03-05 2012-03-05 画像合成装置、画像合成方法、プログラム、及び、画像合成システム

Country Status (1)

Country Link
JP (1) JP5861881B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408536A (zh) * 2016-09-14 2017-02-15 北京小米移动软件有限公司 图像合成方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023038A (ja) * 1998-06-30 2000-01-21 Toshiba Corp 画像抽出装置
JP2009087176A (ja) * 2007-10-02 2009-04-23 Casio Comput Co Ltd オブジェクト生成システム、オブジェクト生成装置、及び、オブジェクト生成プログラム

Also Published As

Publication number Publication date
JP2013182607A (ja) 2013-09-12

Similar Documents

Publication Publication Date Title
US11199706B2 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
EP3430610B1 (en) Direct light compensation technique for augmented reality system
US10313661B2 (en) Wide baseline stereo for low-latency rendering
WO2016064435A1 (en) System and method for immersive and interactive multimedia generation
JP2014238731A (ja) 画像処理装置、画像処理システム、および画像処理方法
US20150256764A1 (en) Active-tracking based systems and methods for generating mirror image
JPWO2019171557A1 (ja) 画像表示システム
KR101274301B1 (ko) 적외선 엘이디 발광영역의 영상 복원을 통한 증강현실 시스템
JP2011182026A (ja) 画像処理装置、画像表示システム、画像抽出装置
KR20170011854A (ko) 디스플레이 장치 및 디스플레이 장치의 영상 구현 방법
JP5861881B2 (ja) 画像合成装置、画像合成方法、プログラム、及び、画像合成システム
KR101236644B1 (ko) 마커 정보의 실시간 변경 및 다수의 마커 제작을 위한 증강현실 기반의 적외선 마커 활용 방법
JP6044702B2 (ja) 画像処理装置、画像処理方法、プログラム、及び、画像処理システム
JP2018198025A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
WO2023277020A1 (ja) 画像表示システム及び画像表示方法
US20200202627A1 (en) Information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151209

R150 Certificate of patent or registration of utility model

Ref document number: 5861881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees