JP2006318015A - 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム - Google Patents

画像処理装置および画像処理方法、画像表示システム、並びに、プログラム Download PDF

Info

Publication number
JP2006318015A
JP2006318015A JP2005137223A JP2005137223A JP2006318015A JP 2006318015 A JP2006318015 A JP 2006318015A JP 2005137223 A JP2005137223 A JP 2005137223A JP 2005137223 A JP2005137223 A JP 2005137223A JP 2006318015 A JP2006318015 A JP 2006318015A
Authority
JP
Japan
Prior art keywords
image
video
user
ridge line
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005137223A
Other languages
English (en)
Inventor
Tetsujiro Kondo
哲二郎 近藤
Yasushi Tatsuhira
靖 立平
Tetsushi Kokubo
哲志 小久保
Kenji Tanaka
健司 田中
Hitoshi Mukai
仁志 向井
Takafumi Hibi
啓文 日比
Kazumasa Tanaka
和政 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005137223A priority Critical patent/JP2006318015A/ja
Publication of JP2006318015A publication Critical patent/JP2006318015A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】 ユーザの視点に応じた映像を表示させる。
【解決手段】 居室1内にいるユーザ31が、スクリーン3に投影された図3の映像に違和感を持たないようにするためには、壁、床、天井のそれぞれのテクスチャが同一であり、実際空間と仮想空間の明るさが対応している必要があり、更に、居室1の左の壁11と天井14との境界である左上稜線81と、バーチャル左上稜線61とが一直線となり、居室1の右の壁12と天井14との境界である右上稜線82と、バーチャル右上稜線62とが一直線となり、居室1の右の壁12と床15との境界である右下稜線83と、バーチャル右下稜線63とが一直線となり、かつ、居室1の左の壁11と床15との境界である左下稜線84と、バーチャル左下稜線64とが一直線となっていなければならない。本発明は、画像表示制御装置および画像表示システムに適用できる。
【選択図】図4

Description

本発明は、画像処理装置および画像処理方法、画像表示システム、並びに、プログラムに関し、特に、ユーザの視点に応じた映像を表示させることができる画像処理装置および画像処理方法、画像表示システム、並びに、プログラムに関する。
従来、テレビ会議などで臨場感を高めるために、実世界の物体と映像を合成する技術がある(例えば、特許文献1)。また、同様に、地理的に離れた複数の空間があたかも隣り合って存在するかのような感覚を与えるために、地理的に離れたサーバ間で互いに相手の部屋の映像や音声の情報を授受し、プロジェクタによって相手の部屋の映像をスクリーンに映し出させると同時に相手の部屋の音声をスピーカから発音させる技術がある(例えば、特許文献2)。
特開2001-184044号公報 特開2004-56161号公報
しかしながら、上述した特許文献1においては、実世界の物体と合成される映像が小さな物体の映像であれば、視聴者の視点を気にしなくてもよいが、合成される映像が、例えば、部屋のような大きな映像である場合、それを見るユーザの視点と映像が撮像されているポイント(カメラの位置)がずれてしまった場合、臨場感が削がれてしまう。
また、撮影したカメラ映像をそのまま投影しても、ユーザの視点位置とカメラの視点の光軸を一致させることはできないので、ユーザは、投射された映像に対して、違和感を持ってしまう。
また、上述した特許文献2において提示されている共有仮想空間は、2次元の映像の授受を前提としており、奥行きまで考慮したものになっていないため、ユーザは、投射された映像に対して違和感を持ち、仮想的に空間を共有しているという感覚、換言すれば、投射された映像が自分自身が存在する空間と連続しているという感覚を得にくい。
本発明はこのような状況に鑑みてなされたものであり、ユーザの位置に基づいて、投影される映像を変化させ、ユーザが違和感を覚えない仮想空間の映像を提供することができるようにするものである。
本発明の画像処理装置は、表示される画像を観察するユーザを含む映像を取得する映像取得手段と、映像取得手段により取得されたユーザを含む映像を基に、ユーザの視点位置を検出する視点位置検出手段と、表示される画像の元となる画像データであって、少なくとも1本の稜線を含む画像を表示するための画像データを記憶する記憶手段と、視点位置検出手段により検出されたユーザの視点位置を基に、記憶手段により記憶されている画像データの稜線を変換する稜線変換手段とを備えることを特徴とする。
ユーザが存在している空間の稜線情報を取得する稜線情報取得手段を更に備えさせるようにすることができ、稜線変換手段には、稜線情報取得手段により取得されたユーザが存在している空間の稜線情報を用いて、記憶手段により記憶されている画像データの稜線を変換させるようにすることができる。
稜線情報取得手段には、ユーザが存在している空間の映像を取得させて、取得された映像から直線成分を検出させ、所定のテンプレートと比較させることにより、ユーザが存在している空間の稜線情報を取得させるようにすることができる。
稜線情報取得手段には、エッジ検出フィルタを用いてエッジ検出を行わせ、更に、ハフ変換を実行させることにより、取得された映像から直線成分を検出させるようにすることができる。
記憶手段には、少なくとも1本の稜線を含む画像を表示するための画像データに対応付けて、表示される画像の4隅のうちの少なくとも1箇所から出発する稜線の終点に対応する座標を示す情報を、ユーザの視点位置ごとに更に保存させるようにすることができ、稜線変換手段には、視点位置検出手段により検出されたユーザの視点位置を基に、記憶手段により記憶されている稜線の終点に対応する座標を示す情報のうち、ユーザの視点位置に対応する情報を抽出し、抽出された情報を基に、画像データの稜線を変換させるようにすることができる。
ユーザが存在している空間の映像を取得する空間映像取得手段と、空間映像取得手段により取得された映像に基づいて、ユーザが存在している空間の所定の部分のテクスチャ情報を抽出するテクスチャ情報抽出手段と、テクスチャ情報抽出手段により抽出されたテクスチャ情報を基に、記記憶手段により記憶されている画像データの対応する部分のテクスチャを変換するテクスチャ変換手段とを更に備えさせるようにすることができる。
ユーザが存在している空間の映像を取得する空間映像取得手段と、空間映像取得手段により取得された映像に基づいて、ユーザが存在している空間の明るさ情報を抽出する明るさ情報抽出手段と、明るさ情報抽出手段により抽出された明るさ情報を基に、記記憶手段により記憶されている画像データの所定の部分の画素の輝度を変換する輝度変換手段とを更に備えさせるようにすることができる。
本発明の画像処理方法およびプログラムは、表示される画像を観察するユーザを含む映像を取得する映像取得ステップと、映像取得ステップの処理により取得されたユーザを含む映像を基に、ユーザの視点位置を検出する視点位置検出ステップと、表示される画像の元となる画像データであって、少なくとも1本の稜線を含む画像を表示するための画像データを所定の記憶部から読み出す読み出しステップと、視点位置検出ステップの処理により検出されたユーザの視点位置を基に、読み出しステップの処理により読み出された画像データの稜線を変換する稜線変換ステップとを含むことを特徴とする。
本発明の画像表示システムは、ユーザが存在している空間を囲む平面のうちのいずれか一面の全面に表示される画像を処理する画像処理装置と、画像処理装置により処理された画像を表示する表示装置と、ユーザが存在している空間において、表示される画像を観察するユーザを含む映像を撮像する撮像装置とにより構成される画像表示システムであって、画像処理装置は、撮像装置により撮像された、ユーザを含む映像を取得する映像取得手段と、映像取得手段により取得されたユーザを含む映像を基に、ユーザの視点位置を検出する視点位置検出手段と、表示される画像の元となる画像データであって、少なくとも1本の稜線を含む画像を表示するための画像データを記憶する記憶手段と、視点位置検出手段により検出されたユーザの視点位置を基に、記憶手段により記憶されている画像データの稜線を変換する稜線変換手段と、稜線変換手段により稜線が変換された画像データの表示装置への出力を制御する出力制御手段とを備えることを特徴とする。
本発明の画像処理装置および画像処理方法、画像表示システム、並びに、プログラムにおいては、表示される画像を観察するユーザを含む映像を基に、ユーザの視点位置が検出されて、この視点位置を基に、少なくとも1本の稜線を含む、表示される画像の元となる画像データの稜線が変換される。
本発明によれば、表示される画像を処理することができ、特に、画像を観察するユーザの視点位置を基に、少なくとも1本の稜線を含む画像の稜線を変換することができる。
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。
請求項1に記載の画像処理装置(例えば、図9の映像表示制御装置131または図22の映像表示制御装置251)は、ユーザが存在している空間(例えば、居室1)を囲む平面のうちのいずれか一面の全面(例えば、スクリーン3)に表示される画像を処理する画像処理装置であって、表示される画像を観察するユーザを含む映像を取得する映像取得手段(例えば、図9または図22のセンサ情報取得部142)と、映像取得手段により取得されたユーザを含む映像を基に、ユーザの視点位置を検出する視点位置検出手段(例えば、図9または図22の視点抽出部143)と、表示される画像の元となる画像データであって、少なくとも1本の稜線を含む画像を表示するための画像データを記憶する記憶手段(例えば、図9のバーチャル空間映像データベース144または図22のバーチャル空間映像データベース261)と、視点位置検出手段により検出されたユーザの視点位置を基に、記憶手段により記憶されている画像データの稜線を変換する稜線変換手段(例えば、図9のバーチャル空間映像の稜線変換部153または図22のバーチャル空間映像の稜線変換部271)とを備えることを特徴とする。
ユーザが存在している空間の稜線情報を取得する稜線情報取得手段(例えば、図9のリアル室内映像の稜線情報抽出部151)を更に備えることができ、稜線変換手段は、稜線情報取得手段により取得されたユーザが存在している空間の稜線情報を用いて、記憶手段により記憶されている画像データの稜線を変換することができる。
稜線情報取得手段は、ユーザが存在している空間の映像を取得して、取得された映像から直線成分を検出し、所定のテンプレート(例えば、図15の部屋の稜線のテンプレート201)と比較することにより、ユーザが存在している空間の稜線情報を取得することができる。
記憶手段(例えば、図22のバーチャル室内映像データベース261)は、少なくとも1本の稜線を含む画像を表示するための画像データに対応付けて、表示される画像の4隅のうちの少なくとも1箇所から出発する稜線の終点に対応する座標を示す情報を、ユーザの視点位置ごとに更に保存することができ、稜線変換手段(例えば、図22のバーチャル室内映像の稜線変換部271)は、視点位置検出手段により検出されたユーザの視点位置を基に、記憶手段により記憶されている稜線の終点に対応する座標を示す情報のうち、ユーザの視点位置に対応する情報を抽出し、抽出された情報を基に、画像データの稜線を変換することができる。
ユーザが存在している空間の映像を取得する空間映像取得手段(例えば、図9または図22のリアル室内映像取得部141)と、空間映像取得手段により取得された映像に基づいて、ユーザが存在している空間の所定の部分(例えば、壁、床、天井)のテクスチャ情報を抽出するテクスチャ情報抽出手段(例えば、図9または図22のリアル室内映像のテクスチャ情報抽出部154)と、テクスチャ情報抽出手段により抽出されたテクスチャ情報を基に、記記憶手段により記憶されている画像データの対応する部分のテクスチャを変換するテクスチャ変換手段(例えば、図9または図22のバーチャル空間映像のテクスチャ変換部156)とを更に備えることができる。
ユーザが存在している空間の映像を取得する空間映像取得手段(例えば、図9または図22のリアル室内映像取得部141)と、空間映像取得手段により取得された映像に基づいて、ユーザが存在している空間の明るさ情報を抽出する明るさ情報抽出手段(例えば、図9または図22のリアル室内映像の明るさ情報抽出部157)と、明るさ情報抽出手段により抽出された明るさ情報を基に、記記憶手段により記憶されている画像データの所定の部分の画素の輝度を変換する輝度変換手段(例えば、図9または図22のバーチャル空間映像の明るさ変換部159)とを更に備えることができる。
請求項8に記載の情報処理方法は、ユーザが存在している空間(例えば、居室1)を囲む平面のうちのいずれか一面の全面(例えば、スクリーン3)に表示される画像を処理する画像処理装置(例えば、図9の映像表示制御装置131または図22の映像表示制御装置251)の画像処理方法であって、表示される画像を観察するユーザを含む映像を取得する映像取得ステップ(例えば、図17のステップS2の処理)と、映像取得ステップの処理により取得されたユーザを含む映像を基に、ユーザの視点位置を検出する視点位置検出ステップ(例えば、図17のステップS4の処理)と、表示される画像の元となる画像データであって、少なくとも1本の稜線を含む画像を表示するための画像データを所定の記憶部から読み出す読み出しステップ(例えば、図17のステップS5の処理)と、視点位置検出ステップの処理により検出されたユーザの視点位置を基に、読み出しステップの処理により読み出された画像データの稜線を変換する稜線変換ステップ(例えば、図17のステップS6の処理)とを含むことを特徴とする。
また、請求項9に記載のプログラムにおいても、各ステップが対応する実施の形態(但し一例)は、請求項8に記載の情報処理方法と同様である。
請求項10に記載の画像表示システムは、ユーザが存在している空間(例えば、居室1)を囲む平面のうちのいずれか一面の全面(例えば、スクリーン3)に表示される画像を処理する画像処理装置(例えば、図9の映像表示制御装置131または図22の映像表示制御装置251)と、画像処理装置により処理された画像を表示する表示装置(例えば、図2のプロジェクタ41)と、ユーザが存在している空間において、表示される画像を観察するユーザを含む映像を撮像する撮像装置(例えば、視点取得センサ22)とにより構成される画像表示システムであって、画像処理装置は、撮像装置により撮像された、ユーザを含む映像を取得する映像取得手段(例えば、図9または図22のセンサ情報取得部142)と、映像取得手段により取得されたユーザを含む映像を基に、ユーザの視点位置を検出する視点位置検出手段(例えば、図9または図22の視点抽出部143)と、表示される画像の元となる画像データであって、少なくとも1本の稜線を含む画像を表示するための画像データを記憶する記憶手段(例えば、図9のバーチャル空間映像データベース144または図22のバーチャル空間映像データベース261)と、視点位置検出手段により検出されたユーザの視点位置を基に、記憶手段により記憶されている画像データの稜線を変換する稜線変換手段(例えば、図9のバーチャル空間映像の稜線変換部153または図22のバーチャル空間映像の稜線変換部271)と、稜線変換手段により稜線が変換された画像データの表示装置への出力を制御する出力制御手段(例えば、図9または図22の映像出力制御部146)とを備えることを特徴とする。
以下、図を参照して、本発明の実施の形態について説明する。
図1を参照して、本発明の一実施の形態に係る映像表示システムについて説明する。
居室1の壁面のうちのいずれか1つの面に、壁一面のディスプレイが設けられ、図9を用いて後述する映像表示制御装置の制御に基づいて、画像の表示が制御される。図1においては、壁一面のディスプレイとして、投影室2から投影される映像が壁面全体に表示されるスクリーン3が設けられる。投影室2の構成は、図2を用いて後述する。
居室1は、スクリーン3に向かって、左の壁11、右の壁12、背面の壁13、天井14、および、床15で囲まれている。左の壁11、右の壁12、または、背面の壁13のうちのいずれかに、少なくとも1つの図示しない出入り口が設けられる。
また、居室1内の全体を撮像することができ、かつ、スクリーン3に対向する位置に、室内撮影カメラ21が設置される。図1においては、居室1の天井14付近、背面の壁13よりで、かつ、壁面の壁13の中央の位置に、スクリーン3の方向に向かって居室1内を撮像することができるように、室内撮影カメラ21が設置されているものとする。
そして、居室1内のいずれかの位置に存在するユーザの位置を検出することができる視点取得センサ22が、居室1内の適切な位置に設置される。ユーザの位置を精度よく検出するには、複数の視点取得センサ22が、複数の異なる位置に設置されると好適である。図1においては、居室1の天井14付近、スクリーン3よりの位置で、左の壁11側に視点取得センサ22−1、右の壁12側に視点取得センサ22−2が、それぞれ設置されている。
次に、図2を参照して、投影室2について説明する。
居室1にいるユーザ31から参照可能なスクリーン3に映像を投影することができる投影室2が、スクリーン3の背面に設けられている。投影室2には、1つまたは複数のプロジェクタ41(図2においては、プロジェクタ41−1乃至プロジェクタ41−8)が設置され、プロジェクタ41により、スクリーン3全体に映像が投影されるようになされている。
スクリーン3に投影される映像には、充分な解像度と明るさがあることが望ましい。したがって、本実施の形態においては、解像度と明るさの面で有利で、かつ視聴者の影が写らないという点で望ましい、マルチ使いの(複数のプロジェクタを用いた)背面投射型の映像投射により、スクリーン3に映像を投射するものとして説明する。
なお、スクリーン3に映像を投影する方法としては、図2を用いて説明した以外にも、プロジェクタによる前面投射であってもよい。更に、壁一面に映像を表示させるための方法は、プロジェクタ41によるスクリーン3への映像の投影以外の方法であってもかまわない。例えば、スクリーン3に代わって、壁一面ディスプレイとして、液晶パネルやPDPパネルを壁面の全面に用いたもの(1枚のパネルであっても、複数のパネルを繋げたものであっても良い)を設置し、これらのパネルに、映像を表示させるようにしても良い。
図3に、スクリーン3に表示される映像の第1の例を示す。
図3に示される映像は、居室1がスクリーン3の先に延長して広がっているような感覚を、スクリーン3を参照するユーザ31に与えるものである。
この映像には、バーチャル左の壁51、バーチャル右の壁52、バーチャル奥の壁53、バーチャル天井54、および、バーチャル床55が含まれている。そして、バーチャル左の壁51とバーチャル天井54との境界が、バーチャル左上稜線61であり、バーチャル右の壁52とバーチャル天井54との境界が、バーチャル右上稜線62であり、バーチャル右の壁52とバーチャル床55との境界が、バーチャル右下稜線63であり、バーチャル左の壁51とバーチャル床55との境界が、バーチャル左下稜線64である。
また、居室1がスクリーン3の先に延長して広がっているような感覚を、スクリーン3を参照するユーザ31に与えるために、バーチャル左の壁51と居室1の左の壁11の色や模様が同一であること、バーチャル右の壁52と居室1の右の壁12の色や模様が同一であること、バーチャル天井54と居室1の天井14の色や模様が同一であること、および、バーチャル床55と居室1の床15の色や模様が同一であることが求められる。換言すれば、居室1の左の壁11、右の壁12、背面の壁13、天井14、および、床15のそれぞれのテクスチャと、スクリーン3に表示されるバーチャル左の壁51、バーチャル右の壁52、バーチャル奥の壁53、バーチャル天井54、および、バーチャル床55のテクスチャとがそれぞれ同一であることが求められる。更に、居室1の現在の明るさと、バーチャル左の壁51、バーチャル右の壁52、バーチャル奥の壁53、バーチャル天井54、および、バーチャル床55に囲まれる仮想空間の明るさとが対応していることが望ましい。
スクリーン3に、図3の映像が投影された状態について、図4を用いて説明する。
居室1内にいるユーザ31が、スクリーン3に投影された図3の映像に違和感を持たないようにするためには、上述したように、壁、床、天井のそれぞれのテクスチャが同一であり、実際空間と仮想空間の明るさが対応している必要がある。また、居室1内にいるユーザ31が、スクリーン3に投影された図3の映像に違和感を持たないようにするためには、更に、居室1の左の壁11と天井14との境界である左上稜線81と、バーチャル左上稜線61とが一直線となり、居室1の右の壁12と天井14との境界である右上稜線82と、バーチャル右上稜線62とが一直線となり、居室1の右の壁12と床15との境界である右下稜線83と、バーチャル右下稜線63とが一直線となり、かつ、居室1の左の壁11と床15との境界である左下稜線84と、バーチャル左下稜線64とが一直線となっていなければならない。
ユーザ31から見える左上稜線81、右上稜線82、右下稜線83、および、左下稜線84の角度は、ユーザの目の位置(視点の位置)によって決まるものである。したがって、ユーザ31が違和感を持たないようにスクリーン3に映像を表示させるためには、ユーザの目の位置を検知し、それを基に、スクリーン3に表示させる映像を処理する必要がある。換言すれば、スクリーン3に表示される映像は、検出されたユーザの目の位置に基づいて、バーチャル左上稜線61、バーチャル右上稜線62、バーチャル右下稜線63、および、バーチャル左下稜線64が調整された映像でなければならない。
また、スクリーン3に表示される映像は、稜線の調整のための画像処理(詳細は後述する)を行ったときにオクルージョン問題が発生することを回避するために、壁面上には物体を配置してもよいが、近景には何もおかないことが望ましい。
次に、スクリーン3に、図3を用いて説明した映像と異なる映像が表示された場合(第2の映像の例)について、図5を用いて説明する。図5において、スクリーン3に表示される映像は、居室1の隣に異なる部屋が連続して存在するような感覚を、スクリーン3を参照するユーザ31に与えるものである。
この映像には、図3および図4を用いて説明した場合と同様にして、バーチャル左の壁51、バーチャル右の壁52、バーチャル奥の壁53、バーチャル天井54、および、バーチャル床55が表示されている。そして、バーチャル左の壁51とバーチャル天井54との境界が、バーチャル左上稜線61であり、バーチャル右の壁52とバーチャル天井54との境界が、バーチャル右上稜線62であり、バーチャル右の壁52とバーチャル床55との境界が、バーチャル右下稜線63であり、バーチャル左の壁51とバーチャル床55との境界が、バーチャル左下稜線64である。
また、居室1の隣に異なる部屋が連続して存在するような感覚を、スクリーン3を参照するユーザ31に与えるために、バーチャル左の壁51、バーチャル右の壁52、バーチャル奥の壁53、バーチャル天井54、および、バーチャル床55によって囲まれる仮想空間(仮想的な部屋)と、ユーザ31が存在する居室1との境界線91が、スクリーン3の上下左右の端部を囲むように表示される。また、居室1内にいるユーザ31が、スクリーン3に投影された映像に違和感を持たないようにするためには、図4を用いて説明した場合と同様に、居室1の左の壁11と天井14との境界である左上稜線81と、バーチャル左上稜線61とが一直線となり、居室1の右の壁12と天井14との境界である右上稜線82と、バーチャル右上稜線62とが一直線となり、居室1の右の壁12と床15との境界である右下稜線83と、バーチャル右下稜線63とが一直線となり、かつ、居室1の左の壁11と床15との境界である左下稜線84と、バーチャル左下稜線64とが一直線となっていなければならない。
また、仮想的な部屋と、ユーザ31が存在する居室1とは異なる部屋であるものとするため、壁、床、天井のテクスチャは同一としなくても良い。しかしながら、居室1の現在の明るさと、バーチャル左の壁51、バーチャル右の壁52、バーチャル奥の壁53、バーチャル天井54、および、バーチャル床55に囲まれる仮想的な部屋の明るさとが対応していることが望ましい。
次に、スクリーン3に、図3乃至図5を用いて説明した映像と異なる映像が表示された場合(第3の映像の例)について、図6を用いて説明する。図6において、スクリーン3に表示される映像は、居室1の壁一面に掃き出し窓があり、その向こうにベランダが存在するような感覚を、スクリーン3を参照するユーザ31に与えるものである。
例えば、図6に示される仮想的なベランダが、ユーザ31が存在する居室1の右側(右側の壁12を挟んだ向こう側)にあると想定される部屋の外まで続いている広いベランダとして描かれている場合、この映像には、バーチャル左の壁51、および、バーチャル床55が表示されるとともに、バーチャル奥の壁53に代わって、風景101が表示され、風景101には、例えば、ベランダの手すりとその向こうの風景などが描かれる。そして、バーチャル左の壁51とバーチャル床55との境界として、バーチャル左下稜線64が表示される。図2に示される仮想的なベランダがスクリーン3に表示される場合、稜線は、バーチャル左下稜線64の1本のみとなる。
すなわち、居室1の向こうにベランダが連続して存在するような感覚を、スクリーン3を参照するユーザ31に与えるためには、仮想空間(仮想的なベランダ)と、ユーザ31が存在する居室1との境界線101(掃き出し窓の周辺の、現実世界においては、サッシなどが設置されるような箇所)が、スクリーン3の上下左右の端部を囲むように表示される。また、居室1の向こうにベランダが連続して存在するような感覚を、スクリーン3を参照するユーザ31に与えるためには、居室1の左の壁11と床15との境界である左下稜線84と、バーチャル左下稜線64とが一直線となっていなければならない。換言すれば、仮想空間において表示されるすべての稜線(ここでは、1本の稜線)が仮想空間と居室1とで連続していれば、ユーザは違和感を覚えることがない。
また、仮想的なベランダと、ユーザ31が存在する居室1とでは、壁、床、天井のテクスチャは同一としなくても良い。しかしながら、居室1の現在の明るさと、仮想的なベランダの明るさとがある程度対応していたり、仮想的なベランダの明るさが、現在時刻や現在の天気などと対応していることが望ましい。
次に、図7を参照して、室内撮影カメラ21の設置について説明する。
室内撮影カメラ21は、居室1の稜線位置の基準を求めるための情報、居室1の壁、床、および、天井のテクスチャ、並びに、居室1の明るさなどの情報を取得するために、居室1内の映像を撮像するものであり、撮像される映像の方向を上下左右に一定以内の角度内で変更可能なパンチルトカメラである。
部屋の付加情報を抽出する室内撮影カメラ21は、できるだけ、ユーザ31の視界を遮ることがないように、天井14の上から吊すのが好適である。その際、居室1内の座標系は、例えば、図7に示されるように、スクリーン3と天井14の交線の中央を原点(0,0,0)と定め、左の壁11から右の壁12の方向に伸びるスクリーン3と平行な軸をX軸、床15から天井14の方向に伸びるスクリーンと平行な軸をY軸、スクリーン3から室内撮影カメラ21の方向に伸びるスクリーン3に垂直な軸をZ軸とする。そして、スクリーン3から室内撮影カメラ21のパンチルトの中心位置までの最短距離をM、天井14から室内撮影カメラ21のパンチルトの中心位置までの最短距離をLとして、室内撮影カメラ21のパンチルトの中心位置の座標が(0,−L,M)と定められる。また、原点(0,0,0)から左の壁11または右の壁13までの距離は、それぞれNであり、床15から天井14までの距離は、Kであるものとする。以下、室内撮影カメラ21の撮像座標系は、居室1内の座標系に準じて説明する。
次に、図8を参照して、視点取得センサ22−1および視点取得センサ22−2の設置について説明する。
視点取得センサ22−1および視点取得センサ22−2は、例えば、広角カメラなどにより構成され、居室1内のユーザ31の重心位置(p、q、r)を取得するためのものである。視点取得センサ22−1および視点取得センサ22−2がユーザ31の重心位置(p、q、r)を取得する場合の座標系も、図7を用いて説明した居室1内の座標系に準じるものとする。また、図8においては、2つの視点取得センサ22が設置されているものとして図示しているが、視点取得センサ22の数は、居室内のユーザ31の重心位置(p、q、r)を取得することができるのであれば、1つまたは複数のいずれの数であっても良い。視点取得センサ22−1および視点取得センサ22−2による、居室1内のユーザ31の重心位置(p、q、r)の取得方法の詳細(一例)については、後述する。
次に、図9は、室内撮影カメラ21により撮像された居室1内の映像、並びに、視点取得センサ22−1および視点取得センサ22−2により取得された映像に基づいて、居室1内のユーザ31が違和感を覚えない映像をスクリーン3に表示させるための画像処理および映像出力の制御を実行する映像表示制御装置131の構成例を示すブロック図である。
リアル室内映像取得部141は、室内撮影カメラ21により撮像された居室1内の映像を取得し、画像処理部145のリアル室内映像の稜線情報抽出部151に供給する。この映像は、現実世界の居室1の映像であるので、表示される非現実の空間(バーチャルな空間)と区別するために、以下、適宜、リアル室内映像とも称するものとする。
センサ情報取得部142は、視点取得センサ22−1および視点取得センサ22−2により少なくとも1度撮像された、ユーザ31のいない居室1内の映像を取得し、背景画像として視点抽出部143に供給するとともに、視点取得センサ22−1および視点取得センサ22−2により撮像された映像(場合によっては、居室1内のユーザ31を含む映像)をリアルタイムで取得し、視点抽出部143に供給する。
視点抽出部143は、視点取得センサ22−1および視点取得センサ22−2により撮像された背景画像、すなわち、ユーザ31のいない居室1内の映像と、リアルタイムで取得されている居室1内の映像を基に、居室1内にユーザ31が存在するか否かを判断する。また、視点抽出部143は、ユーザ31が存在する場合は、ユーザ31の重心位置(p、q、r)を抽出し、これを基に、ユーザ31の視点位置を求め、ユーザ31の視点位置を示す情報を、画像処理部145の、バーチャル空間映像の稜線変換部153に供給する。
ここでは、視点取得センサ22−1および視点取得センサ22−2により撮像された2つの画像を用いて、ユーザ31の重心位置が求められる。視点抽出部143は、視点取得センサ22−1および視点取得センサ22−2により撮像されたユーザ3がいない居室1内の映像を、背景画像として保持している。視点抽出部143は、図10に示されるように、視点取得センサ22−1によりリアルタイムで取得されている居室1内のユーザ31を含む映像181−1と、保持されている背景画像182−1との差分絶対値画像183−1を求めるとともに、視点取得センサ22−2によりリアルタイムで取得されている居室1内のユーザ31を含む映像181−2と、保持されている背景画像182−2との差分絶対値画像183−2を求める。視点抽出部143は、差分絶対値画像183−1および差分絶対値画像183−2を基に、視点取得センサ22−1から観察されるユーザ31の重心位置(θa,φa)、および、視点取得センサ22−2から観察されるユーザ31の重心位置(θb,φb)を求めることができる。ここで、パン角をθaおよびθb、チルト角をφaおよびφbとする。また、理論上、チルト角φaおよびφbは等しい。
そして、視点抽出部143は、視点取得センサ22−1および視点取得センサ22−2のそれぞれから観察されるユーザ31の重心位置を基に、居室1内の座標系におけるユーザ31の重心位置(p、q、r)の座標を求める。XZ平面において、図11に示されるように、居室1内の座標系におけるユーザ31の重心位置(p、q、r)のうちのpおよびrは、次の式(1)および式(2)、並びに、式(3)および式(4)より求められる。
r=(N−p)tanθb ・・・(1)
r=(p+N)tanθa ・・・(2)
p=(tanθb−tanθa)/(tanθa+tanθb)×N ・・・(3)
r=2×tanθa×tanθb×N ・・・(4)
また、YZ平面においては、図12に示されるように、チルト角φa(=φb)は、次の式(5)で表される。したがって、居室1内の座標系におけるユーザ31の重心位置(p、q、r)のうちのqは、次の式(6)により求められる。
tanφb=(−q)/r ・・・(5)
q=−2×tanθa×tanθb×tanφb×N ・・・(6)
そして、視点抽出部143は、上述したようにして求められたユーザ31の重心位置(p、q、r)を基に、ユーザ31の視点の床15からの高さを求める。例えば、視点抽出部143は、図13に示されるように、ユーザ31が起立していても、着席していても、次の式(7)が成立しているものとして、ユーザの視線の高さは、ユーザの頭の最も高い位置から、15cm下であると推定することができる。
床15から重心までの高さ:ユーザの頭の最も高い位置=0.5:1・・・(7)
なお、2人以上のユーザが、居室1に存在する場合、それぞれのユーザの重心の中心座標位置を、居室内の仮想的なユーザの重心とし、その重心を基に求められる視点からスクリーン3を見た場合に違和感を持たないような映像が表示されるような制御が行われるものとする。
バーチャル空間データベース144は、図3乃至図6を用いて説明した、スクリーン3に表示させるためのバーチャル空間の元となる映像を少なくとも1つ保存しており、スクリーン3に表示させるために画像処理部145において処理されるデータを、画像処理部145のバーチャル映像の稜線情報抽出部152に供給する。バーチャル空間データベース144に複数の映像が保存されている場合、いずれのデータに対して画像処理が施されて、画像処理後の映像がスクリーン3に表示されるかは、例えば、ユーザ31が、図示しないリモコン等入力デバイスを用いて指令することができるようにしてもよい。
また、バーチャル空間データベース144に保存されている、スクリーン3に表示させるためのバーチャル空間の元となる映像は、少なくとも1本の稜線が画角の中に入っていなければならない。また、スクリーン3に表示させるためのバーチャル空間の元となる映像には、すべてが表示されるか否かにはかかわらず、4本の稜線が画角の中に含まれていると好適である。更に、バーチャル空間データベース144に保存されている、スクリーン3に表示させるためのバーチャル空間の元となる映像のうち、図3および図4を用いて説明した様に居室1を広く感じさせるために表示される映像は、後述するテクスチャ変換や明るさ変換を容易に行うことができるように、白く無地の壁および床が描かれているものであると好適である。
画像処理部145は、リアル室内映像取得部141から供給された、室内撮影カメラ21により撮像された居室1内の映像、および、視点抽出部143から供給された、居室1に存在するユーザ31の視点情報を基に、バーチャル空間データベース144から供給された、スクリーン3に表示させるためのバーチャル空間の元となる映像を画像処理し、居室1に存在するユーザ31の視点からスクリーン3に表示された映像を見た場合に、現実の空間と仮想的な空間が違和感なく連続しているように感じられるような映像に変換して、映像出力制御部146に供給する。
映像出力制御部146は、画像処理部145から供給される映像に対して、スクリーン3の表示方法に応じて必要な処理を施して出力する。例えば、スクリーン3に、図2を用いて説明したような複数のプロジェクタ41を用いて映像が表示される場合、映像出力制御部146は、供給された映像に対して、プロジェクタ41の数や配置に応じて、少なくとも一部が重なるように分割したり、プロジェクタ41の特性に基づいた補正を行うなどの処理を施し、処理後の映像を複数のプロジェクタ41にそれぞれ供給する。また、プロジェクタ以外の方法を用いて映像が表示される場合、映像出力制御部146においては、その表示方法または表示装置の特性に基づいた処理(例えば、フォーマット変換やガンマ補正など)が実行される。
画像処理部145は、リアル室内映像の稜線情報抽出部151、バーチャル空間映像の稜線情報抽出部152、バーチャル空間映像の稜線変換部153、リアル室内映像のテクスチャ情報抽出部154、バーチャル空間映像のテクスチャ情報抽出部155、バーチャル空間映像のテクスチャ変換部156、リアル室内映像の明るさ情報抽出部157、バーチャル空間映像の明るさ情報抽出部158、バーチャル空間映像の明るさ変換部159、および、空間境界重畳処理部160により構成されている。
リアル室内映像の稜線情報抽出部151は、リアル室内映像取得部141から供給された、室内撮影カメラ21により撮像された居室1内の映像から稜線情報を抽出し、抽出した稜線情報を、バーチャル空間映像の稜線変換部153に供給するとともに、リアル室内映像取得部141から供給された居室1内の映像を、リアル室内映像のテクスチャ情報抽出部154に供給する。
部屋の稜線抽出は、部屋のなかの定常的な(すなわち、時間によって変動することのない)直線を検出することで求められる。リアル室内映像の稜線情報抽出部151は、例えば、居室1の映像に、図14に示される水平方向のフィルタ191および垂直方向のフィルタ192を有するSobel(ゾーベル)フィルタ、または、Roberts,Prewitt等の一般的なエッジ検出フィルタ等を用いてエッジ検出処理を行い、その後にハフ変換を行って部屋の画像の直線を検出する。そして、リアル室内映像の稜線情報抽出部151は、検出された直線群から、図15に示されるような、部屋の稜線のテンプレート201に近いものを選定する。
ハフ変換とは、直線検出のために開発された画像変換技術であり、ノイズ成分を含む画像中から、パラメトリックな図形情報を抽出することができるように、入力空間(x,y)をパラメータ空間(ρ,θ)へマップ(ρ=xcosθ+ysinθ)して得られた曲線群の交点により、直線を「点」として表す変換である。
バーチャル空間映像の稜線情報抽出部152は、バーチャル空間データベース144から供給された、スクリーン3に表示させるためのバーチャル空間の元となる映像から、稜線情報を抽出し、抽出した稜線情報、および、バーチャル空間の元となる映像を、バーチャル空間映像の稜線変換部153に供給するとともに、バーチャル空間の元となる映像を、バーチャル空間映像のテクスチャ情報抽出部155に供給する。バーチャル空間映像の稜線情報抽出部152は、リアル室内映像の稜線情報抽出部151と同様の処理により、稜線情報を抽出するようにしても良いし、バーチャル空間データベース144にバーチャル空間の元となる映像とともに稜線情報が対応付けられて記憶されるようにし、その稜線情報を抽出するようにしても良い。
バーチャル空間映像の稜線変換部153は、視点抽出部143から供給された、居室1に存在するユーザ31の視点情報を基に、居室1に存在するユーザ31の視点から見た状態で、居室1の左の壁11と天井14との境界である左上稜線81と、バーチャル左上稜線61とが一直線となり、居室1の右の壁12と天井14との境界である右上稜線82と、バーチャル右上稜線62とが一直線となり、居室1の右の壁12と床15との境界である右下稜線83と、バーチャル右下稜線63とが一直線となり、かつ、居室1の左の壁11と床15との境界である左下稜線84と、バーチャル左下稜線64とが一直線となるように、バーチャル空間映像の稜線情報抽出部152から供給されたバーチャル空間の元となる映像を画像処理する。そして、バーチャル空間映像の稜線変換部153は、稜線が変換された処理済画像データをバーチャル空間映像のテクスチャ変換部156に供給する。
バーチャル空間の元となる映像を画像処理して変換するにあたり、ある視点からある視点の射影幾何の式は、次の式(8)および式(9)で表すことができる。
x=(a1×u+a2×v+a3)/(a7×x+a8×y+1)・・・(8)
y=(a4×u+a5×v+a6)/(a7×x+a8×y+1)・・・(9)
ここで、a1乃至a8の値は、処理前の画像の少なくとも4点から、処理後の画像の対応する点の射影が決まれば、例えば、最小自乗法などを用いて求めることが可能である。図16を用いて、稜線の変換について説明する。
具体的には、バーチャル空間映像の稜線変換部153は、まず、スクリーン3に表示させるためのバーチャル空間の元となる映像222を、室内撮影カメラ21により撮像された居室1内の映像221に投影する。映像を投影するために少なくとも必要となる対応する4点は、例えば、バーチャル空間の元となる映像222におけるバーチャル左側の壁51'、バーチャル右側の壁52'、バーチャル奥の壁53'、バーチャル天井54'、および、バーチャル床55'の交わる4つの頂点a',b',c',d'と、居室1内の映像221おけるそれらと対応する点である、バーチャル左側の壁51、バーチャル右側の壁52、バーチャル奥の壁53、バーチャル天井54、および、バーチャル床55の交わる4つの頂点a,b,c,dとすることができる。
スクリーン3に表示させるためのバーチャル空間の元となる映像222が、室内撮影カメラ21の設置位置から撮影された場合と同一の位置を視点としたものではなかった場合、室内撮影カメラ21により撮像された居室1内の映像221と、スクリーン3に表示させるためのバーチャル空間の元となる映像222のそれぞれの稜線情報を延長することにより、それぞれの稜線の交点となる消失点を得ることができる。そして、バーチャル空間映像の稜線変換部153は、スクリーン3に表示させるためのバーチャル空間の元となる映像の消失点O'を基に、それぞれの稜線の長さと稜線の端部から消失点O'までの距離との比、すなわち、バーチャル空間の元となる映像222のバーチャル左上稜線61'、バーチャル右上稜線62'、バーチャル右下稜線63'、およびバーチャル左下稜線64'のそれぞれの長さと、バーチャル奥の壁53'の4隅a',b',c',d'から消失点O'までの距離との比を求める。
そして、バーチャル空間映像の稜線変換部153は、室内撮影カメラ21により撮像された居室1内の映像221において、バーチャル奥の壁53の4隅の座標a,b,c,dを、バーチャル空間の元となる映像222において求められた比を基に算出し、室内撮影カメラ21により撮像された居室1内の映像221のうち、スクリーン3に対応する部分に投影される、バーチャル奥の壁53の位置を定めることができる。バーチャル奥の壁53の位置を定めることは、4本の稜線の長さを決定することと等しい。
そして、バーチャル空間映像の稜線変換部153は、スクリーン3に表示させるためのバーチャル空間の元となる映像222の4つの頂点a',b',c',d'と、室内撮影カメラ21により撮像された居室1内の映像221の4つの頂点a,b,c,dを基に、その射影行列を計算することができるので、例えば、最小自乗法などを用いて、バーチャル左側の壁51'、バーチャル右側の壁52'、バーチャル奥の壁53'、バーチャル天井54'、および、バーチャル床55'のそれぞれの座標を、室内撮影カメラ21により撮像された居室1内の映像221のうちのスクリーン3に対応する部分の座標に投影する射影行列Pa乃至Peを求めることができる。
次に、バーチャル空間映像の稜線変換部153は、視点抽出部143から供給された、居室1に存在するユーザ31の視点情報を基に、射影行列Pa乃至Peによって生成された投影画像を、スクリーン3に投影するために変換された稜線を有する画像223(すなわち、ユーザの視線に対応する画像)に投影する。
バーチャル空間映像の稜線変換部153は、視点抽出部143から供給された、居室1に存在するユーザ31の視点情報を基に、ユーザ31の視点が、画像223のいずれの座標位置に対応するかを求める。そして、バーチャル空間映像の稜線変換部153は、ユーザ31の視点に対応する座標位置を消失点O”として、バーチャル左上稜線61''、バーチャル右上稜線62''、バーチャル右下稜線63''、およびバーチャル左下稜線64''の角度を求め、上述したようにして求められた稜線と、稜線の端部と消失点との比を基に、バーチャル奥の壁53''の4隅の座標a'',b'',c'',d''の座標位置を定めることができる。バーチャル奥の壁53''の4隅の座標a'',b'',c'',d''の座標位置を定めることは、すなわち、スクリーン3に投影される画像の稜線の長さおよび角度を定めることである。
そして、バーチャル空間映像の稜線変換部153は、スクリーン3に表示させるための映像223における4つの頂点a'',b'',c'',d''と、室内撮影カメラ21により撮像された居室1内の映像221に投影された4つの頂点a,b,c,dを基に、その射影行列を計算することができるので、例えば、最小自乗法などを用いて、バーチャル左側の壁51''、バーチャル右側の壁52''、バーチャル奥の壁53''、バーチャル天井54''、および、バーチャル床55''のそれぞれの座標を投影する射影行列Pa'乃至Pe'を求めることができる。
このようにして生成されたバーチャル左上稜線61''、バーチャル右上稜線62''、バーチャル右下稜線63''、およびバーチャル左下稜線64''と、それらで区切られるバーチャル左側の壁51''、バーチャル右側の壁52''、バーチャル奥の壁53''、バーチャル天井54''、および、バーチャル床55''によって囲まれる仮想的な空間は、ユーザ31の視点において、実際の居室1の空間と連続性を有しているように見える。
次に、リアル室内映像のテクスチャ情報抽出部154は、リアル室内映像の稜線情報抽出部151から供給された居室1内の映像から、居室1の壁、床、天井のテクスチャ情報を抽出し、バーチャル空間映像のテクスチャ変換部156に供給するとともに、居室1内の映像を、リアル室内映像の明るさ情報抽出部157に供給する。
例えば、リアル室内映像のテクスチャ情報抽出部154は、左側の壁11、右側の壁12、奥の壁13、天井14、および、床15のそれぞれの位置において得られた画素に対して、周波数解析を行い、定常パターンの現れる周波数を取得し、その定常パターンを、バーチャル左側の壁51、バーチャル右側の壁52、バーチャル奥の壁53、バーチャル天井54、および、バーチャル床55のそれぞれに対応付けるためのテクスチャとして抽出する。
バーチャル空間映像のテクスチャ情報抽出部155は、バーチャル空間映像の稜線情報抽出部152から供給されたバーチャル空間の元となる映像から、壁、床、天井のテクスチャ情報を抽出し、バーチャル空間映像のテクスチャ変換部156に供給するとともに、バーチャル空間の元となる映像を、バーチャル空間映像の明るさ情報抽出部158に供給する。バーチャル空間映像のテクスチャ情報抽出部155は、例えば、リアル室内映像のテクスチャ情報抽出部154と同様の処理により、テクスチャ情報を取得するようにしても良いし、バーチャル空間データベース144にバーチャル空間の元となる映像とともにテクスチャ情報が対応付けられて記憶されるようにし、そのテクスチャ情報を抽出するようにしても良い。
バーチャル空間映像のテクスチャ変換部156は、リアル室内映像のテクスチャ情報抽出部154およびバーチャル空間映像のテクスチャ情報抽出部155から供給されたテクスチャ情報を基に、バーチャル空間映像の稜線変換部153から供給された、稜線が変換された処理済画像データの、壁、天井、床のテクスチャを変換し、テクスチャ変換処理後の画像データを、バーチャル空間映像の明るさ変換部159に供給する。
バーチャル空間映像のテクスチャ変換部156は、具体的には、左側の壁11、右側の壁12、奥の壁13、天井14、および、床15のそれぞれにおいて抽出された定常パターンを、その平均値が1.0となるように正規化した後、バーチャル左側の壁51、バーチャル右側の壁52、バーチャル奥の壁53、バーチャル天井54、および、バーチャル床55のそれぞれのテクスチャを変換する。
なお、スクリーン3に表示される映像が、例えば、図3および図4を用いて説明したように、居室1を広く見せるための映像ではなく、図5および図6を用いて説明したように、居室1とは異なる部屋、または、居室1の外側に広がる空間に対応する映像である場合、リアル空間とバーチャル空間のテクスチャを統一する必要はないので、バーチャル空間映像のテクスチャ変換部156、リアル室内映像のテクスチャ情報抽出部154およびバーチャル空間映像のテクスチャ情報抽出部155によるテクスチャ情報の抽出および変換の画像処理は実行されない。
リアル室内映像の明るさ情報抽出部157は、リアル室内映像のテクスチャ情報抽出部154から供給された居室1内の映像から、居室1の明るさ情報を抽出し、バーチャル空間映像の明るさ変換部159に供給する。居室1の明るさ情報の算出方法は、いずれの方法であっても良いが、リアル室内映像の明るさ情報抽出部157は、例えば、画像の左右に近い部分の平均輝度値を取得し、これを居室1の明るさ情報と定義するものとしても良いし、画像の所定の範囲内の平均輝度値、または、画像全体に平均的に散らばっている複数の画素の平均輝度値などを居室1の明るさ情報と定義するものとしても良い。
バーチャル空間映像の明るさ情報抽出部158は、バーチャル空間映像のテクスチャ情報抽出部155から供給されたバーチャル空間の元となる映像から、バーチャル空間の元となる映像の明るさ情報を抽出し、バーチャル空間映像の明るさ変換部159に供給する。バーチャル空間の元となる映像の明るさ情報の算出方法は、いずれの方法であっても良いが、例えば、バーチャル空間データベース144にバーチャル空間の元となる映像とともに明るさ情報が対応付けられて記憶されるようにし、その明るさ情報が抽出されるようにしても良い。
バーチャル空間映像の明るさ変換部159は、リアル室内映像の明るさ情報抽出部157から供給された居室1の明るさ情報、および、バーチャル空間映像の明るさ情報抽出部158から供給されたバーチャル空間の元となる映像の明るさ情報を基に、バーチャル空間の元となる映像のバーチャル左側の壁51、バーチャル右側の壁52、バーチャル奥の壁53、バーチャル天井54、および、バーチャル床55のそれぞれにおいて、輝度を変換し、輝度が変換された映像を、空間境界重畳処理部160に供給する。
空間境界重畳処理部160は、スクリーン3に表示される映像が、例えば、図3および図4を用いて説明したように、居室1を広く見せるための映像ではなく、図5および図6を用いて説明したように、居室1とは異なる部屋、または、居室1の外側に広がる空間に対応する映像である場合、必要に応じて、バーチャル空間映像の明るさ変換部159から供給された、稜線、テクスチャ、および、明るさが変換された映像に対して、図5および図6を用いて説明したようにして、リアル空間とバーチャル空間の境界となる部分の画像を重畳し、映像出力制御部146に供給する。
このようにして、画像処理部145は、視聴者の視点位置や室内状況に応じた画像処理を実行することにより、居室1に存在するユーザ31にとって臨場感がある空間を提示することができる。
なお、以上の説明においては、映像表示制御装置131において実行される処理では、リアル空間とバーチャル空間の4つの稜線を連続させる場合について説明したが、例えば、図6を用いて説明したように、3本以下の稜線を含む映像をスクリーン3に表示させる場合の処理も、基本的には同様であり、居室1に存在するユーザ31にとって臨場感がある空間を提示することができる。
次に、図17のフローチャートを参照して、映像表示制御装置131において実行される、映像表示制御処理について説明する。
ステップS1において、視点取得センサ22−1および視点取得センサ22−2は、ユーザがいない状態の居室を撮像する。映像表示制御装置131のセンサ情報取得部142は、視点取得センサ22−1および視点取得センサ22−2により撮像されたユーザがいない状態の居室の映像を取得し、視点抽出部143に供給する。視点抽出部143は、供給された映像を背景画像として記憶する。
ステップS2において、視点取得センサ22−1および視点取得センサ22−2は、居室を撮像し、撮像された映像を、センサ情報取得部142に供給する。センサ情報取得部142は、視点取得センサ22−1により撮像された居室の映像を取得し、視点抽出部143に供給する。
ステップS3において、視点抽出部143は、記憶されている背景画像と、供給された映像との差分を算出する。居室1にユーザ31が存在する場合、背景画像と供給された映像とには、ユーザ31が画像に含まれる分の差分が発生するので、視点抽出部143は、差分値があるか否かを基に、居室1にユーザ31が存在するか否かを判断する。ステップS3において、居室1にユーザ31が存在しないと判断された場合、処理は、ステップS2に戻り、それ以降の処理が繰り返される。
ステップS3において、居室1にユーザ31が存在すると判断された場合、ステップS4において、図18のフローチャートを用いて後述する視点情報抽出処理が実行される。
ステップS5において、バーチャル空間映像の稜線情報抽出部152は、バーチャル空間映像データベース144から、バーチャル空間の元となる映像を読み出す。
ステップS6において、図19のフローチャートを用いて後述する稜線変換処理が実行される。
ステップS7において、バーチャル空間映像のテクスチャ情報抽出部155は、供給されたバーチャル空間の元となる映像を基に、テクスチャ変換が必要であるか否かを判断する。例えば、図3および図4を用いて説明したように、居室1を広く感じさせるための映像をスクリーン3に表示させる場合、テクスチャ変換は必要であると判断され、図5または図6を用いて説明したように、居室1とは異なる空間が居室1につながっていることを感じさせるための映像をスクリーン3に表示させる場合、テクスチャ変換は必要ないと判断される。
ステップS7において、テクスチャ変換が必要ではないと判断された場合、バーチャル空間映像のテクスチャ情報抽出部155は、供給されたバーチャル空間の元となる映像をバーチャル空間映像の明るさ情報抽出部158に供給し、リアル室内映像のテクスチャ情報抽出部154は、撮像された居室1の映像を、リアル室内映像の明るさ情報抽出部157に供給し、バーチャル空間映像のテクスチャ変換部156は、ステップS6の稜線情報変換処理により稜線が変換された映像を、バーチャル空間映像の明るさ変換部159に供給し、処理は、ステップS9に進む。
ステップS7において、テクスチャ変換が必要であると判断された場合、ステップS8において、図20のフローチャートを用いて後述するテクスチャ変換処理が実行される。
ステップS7において、テクスチャ変換が必要ではないと判断された場合、または、ステップS8の処理の終了後、ステップS9において、バーチャル空間映像の明るさ変換部159は、明るさ変換が必要であるか否かを判断する。
ステップS9において、明るさ変換が必要ではないと判断された場合、バーチャル空間映像の明るさ変換部159は、バーチャル空間映像のテクスチャ変換部156から供給された映像(必要に応じて、ステップS8のテクスチャ変換処理によりテクスチャが変換された映像)を、空間境界重畳処理部160に供給し、処理は、ステップS11に進む。
ステップS9において、明るさ変換が必要であると判断された場合、ステップS10において、図21のフローチャートを用いて後述する明るさ変換処理が実行される。
ステップS9において、明るさ変換が必要ではないと判断された場合、または、ステップS10の処理の終了後、ステップS11において、空間境界重畳処理部160は、空間の境界となる映像の重畳が必要であるか否かを判断する。例えば、図3および図4を用いて説明したように、居室1を広く感じさせるための映像をスクリーン3に表示させる場合、空間の境界となる映像の重畳は必要ではないと判断され、図5または図6を用いて説明したように、居室1とは異なる空間が居室1につながっていることを感じさせるための映像をスクリーン3に表示させる場合、空間の境界となる映像の重畳は必要であると判断される。
ステップS11において、空間の境界となる映像の重畳が必要であると判断された場合、ステップS12において、空間境界重畳処理部160は、バーチャル空間映像の明るさ変換部159から供給された映像に、空間の境界となる映像を重畳し、処理後の映像を、映像出力制御部146に供給する。ステップS11において、空間の境界となる映像の重畳が必要ではないと判断された場合、空間境界重畳処理部160は、バーチャル空間映像の明るさ変換部159から供給された映像に処理を施さず、映像出力制御部146に供給する。
ステップS11において、空間の境界となる映像の重畳が必要ではないと判断された場合、または、ステップS12の処理の終了後、ステップS13において、映像出力制御部146は、供給された映像のスクリーン3への表示を制御して、処理が終了される。例えば、図2を用いて説明したように、複数のプロジェクタ41を用いて、スクリーン3へ映像が表示されるようになされていた場合、映像出力制御部146は、供給された映像に対して、プロジェクタ41の数や配置に応じて、少なくとも一部が重なるように映像を分割し、プロジェクタ41の特性に基づいた補正を行うなどの処理を施し、処理後の映像を複数のプロジェクタ41にそれぞれ供給する。また、プロジェクタ以外の方法を用いて映像が表示される場合であっても、映像出力制御部146においては、その表示方法または表示装置の特性に基づいた処理(例えば、フォーマット変換やガンマ補正など)が実行される。
このような処理により、撮像された居室1内の映像、取得された居室1内のユーザ31の視点の位置、および、バーチャル空間の元となる映像を用いて、ユーザが違和感なく居室1と連続していると感じるような仮想空間に対応する映像を、スクリーン3に表示させるようにすることができる。
次に、図18のフローチャートを参照して、図17のステップS4において実行される、視点情報抽出処理について説明する。
ステップS31において、視点抽出部143は、センサ情報取得部142から供給された映像を基に、居室に存在するユーザ31の重心を求める。
具体的には、視点抽出部143は、例えば、図10を用いて説明した様に、視点取得センサ22−1によりリアルタイムで取得されている居室1内のユーザ31を含む映像181−1と、保持されている背景画像182−1との差分絶対値画像を求めるとともに、視点取得センサ22−2によりリアルタイムで取得されている居室1内のユーザ31を含む映像181−2と、保持されている背景画像182−2との差分絶対値画像を求めることにより、それぞれのセンサから観察されるユーザ31の重心を求めることができる。
ステップS32において、視点抽出部143は、複数の撮影点から重心までの、パン角およびチルト角、すなわち視点取得センサ22−1から観察されるユーザ31の重心位置(θa,φa)、および、視点取得センサ22−2から観察されるユーザ31の重心位置(θb,φb)を求める。ここで、パン角がθaおよびθb、チルト角がφaおよびφbである。また、理論上、チルト角φaおよびφbは等しい。
ステップS33において、視点抽出部143は、重心の座標位置を求める。具体的には、図11を用いて説明した様に、ユーザ31の重心位置(p、q、r)のうちのpおよびrは、上述した式(1)および式(2)、並びに、式(3)および式(4)より求められ、図12を用いて説明した様に、ユーザ31の重心位置(p、q、r)のうちのqは、上述した式(6)により求められる。
ステップS34において、視点抽出部143は、ステップS33において求められた重心の座標位置を基に、例えば、図13を用いて説明した様にして、ユーザ31の視点の座標位置を求め、処理は、図17のステップS4に戻り、ステップS5に進む。
このような処理により、視点取得センサ22により取得された映像から、居室1内に存在するユーザ31の視点の座標を求めることができる。
次に、図19のフローチャートを参照して、図17のステップS6において実行される稜線変換処理について説明する。
ステップS51において、リアル室内映像の稜線情報抽出部151は、リアル室内映像取得部141から供給された居室1の映像を基に、居室1の稜線を抽出し、抽出された稜線情報を、バーチャル空間映像の稜線変換部153に供給する。具体的には、リアル室内映像の稜線情報抽出部151は、例えば、居室1の映像に対して、図14を用いて説明したSobell(ゾーベル)フィルタ、または、Roberts,Prewitt等の一般的なエッジ検出フィルタ等を用いてエッジ検出処理を行い、その後にハフ変換を行って部屋の画像の直線を検出し、得られた直線群から、図15に示されるような部屋の稜線のテンプレート201に近いものを選定する。
ステップS52において、バーチャル空間映像の稜線変換部153は、リアル室内映像の稜線情報抽出部151から供給された居室1の稜線を基に、室内撮影カメラ21から撮像された映像の消失点Oを求める。
ステップS53において、バーチャル空間映像の稜線情報抽出部152は、バーチャル空間映像データベース144から読み出されたバーチャル空間の元となる映像の稜線を抽出し、抽出された稜線情報を、バーチャル空間映像の稜線変換部153に供給する。
ステップS54において、バーチャル空間映像の稜線変換部153は、バーチャル空間映像の稜線情報抽出部152から供給されたバーチャル空間の元となる映像の稜線を基に、消失点O´を求める。
ステップS55において、バーチャル空間映像の稜線変換部153は、バーチャル空間の元となる映像の消失点O'を基に、図16を用いて説明した様に、それぞれの稜線と稜線の端部から消失点O'までの距離との比、すなわち、バーチャル空間の元となる映像222のバーチャル左上稜線61'、バーチャル右上稜線62'、バーチャル右下稜線63'、およびバーチャル左下稜線64'と、それぞれの稜線の延長に対応するバーチャル奥の壁53'の4隅a',b',c',d'から消失点O'までの距離との比を求め、表示されるバーチャル空間の稜線と奥の壁との交点の座標a,b,c,dを求める。また、図6を用いて説明した様なバーチャル空間が表示される場合、バーチャル空間の稜線と奥の壁との交点の座標a,b,c,dに代わって、稜線の終了点が求められる。換言すれば、ステップS55においては、バーチャル奥の壁53の仮想空間内の奥行き、すなわち、稜線の長さに対応する値が求められる。
ステップS56において、バーチャル空間映像の稜線変換部153は、バーチャル空間の元となる映像を、居室1の映像に投影するための射影行列を求める。具体的には、バーチャル空間映像の稜線変換部153は、例えば、図16を用いて説明した様に、スクリーン3に表示させるためのバーチャル空間の元となる映像222の4つの頂点a',b',c',d'と、室内撮影カメラ21により撮像された居室1内の映像221のうち、スクリーン3に対応する部分に投影されるバーチャル奥の壁53の4つの頂点a,b,c,dとを基に、例えば、上述した式(8)および式(9)を、最小自乗法などを用いて解くことにより、バーチャル左側の壁51'、バーチャル右側の壁52'、バーチャル奥の壁53'、バーチャル天井54'、および、バーチャル床55'のそれぞれの座標を、居室1の映像221のうち、スクリーン3に対応する部分の座標に投影する射影行列Pa乃至Peを求めることができる。
ステップS57において、バーチャル空間映像の稜線変換部153は、視点抽出部143により算出されて供給された視点情報を基に、スクリーン3に表示される映像の消失点O''を求める。すなわち、バーチャル空間映像の稜線変換部153は、視点抽出部143から供給された、居室1に存在するユーザ31の視点情報を基に、ユーザ31の視点が、画像223のいずれの座標位置に対応するかを求める。そして、バーチャル空間映像の稜線変換部153は、ユーザ31の視点に対応する座標位置を消失点O”とする。
ステップS58において、バーチャル空間映像の稜線変換部153は、ステップS57において求められた消失点O”を基に、スクリーン3に表示される映像における稜線、例えば、図16を用いて説明したバーチャル左上稜線61''、バーチャル右上稜線62''、バーチャル右下稜線63''、およびバーチャル左下稜線64''の角度を確定する。
ステップS59において、バーチャル空間映像の稜線変換部153は、ステップS58において確定された稜線の角度において、ステップS55において求められたそれぞれの稜線と稜線の端部から消失点O'までの距離との比を基に、スクリーン3に表示される映像の稜線と奥の壁との交点a'',b'',c'',d''を求める。
ステップS60において、バーチャル空間映像の稜線変換部153は、居室1の映像に投影されたバーチャル空間の映像を、スクリーン3に表示される映像に投影するための射影行列を求め、処理は、図17のステップS6に戻り、ステップS7に進む。すなわち、バーチャル空間映像の稜線変換部153は、スクリーン3に表示させるための映像223における4つの頂点a'',b'',c'',d''と、室内撮影カメラ21により撮像された居室1内の映像221に投影された4つの頂点a,b,c,dを基に、その射影行列を計算することができる。したがって、バーチャル空間映像の稜線変換部153は、例えば、最小自乗法などを用いて、居室1の映像221のうち、スクリーン3に対応する部分の座標を、実際にスクリーン3に投影される映像223のバーチャル左側の壁51''、バーチャル右側の壁52''、バーチャル奥の壁53''、バーチャル天井54''、および、バーチャル床55''のそれぞれの座標に投影する射影行列Pa'乃至Pe'を求めることができる。
このような処理により、バーチャル空間映像データベース144に保存されていた、バーチャル空間の元となる映像の稜線が、居室1に存在するユーザ31から見て、居室1の稜線の延長線上に(居室1の稜線と連続した直線上に)見えるように変換することができる。ユーザ31が居室1内のいずれの位置にいるかにかかわらず、実際の空間である居室1の稜線と、スクリーン3に表示される映像に含まれる稜線とが同一直線上に見えるようにすることにより、ユーザ31に、違和感のない仮想的な空間を感じさせることができる映像を提供することができる。
なお、ここでは、バーチャル空間の元となる映像の稜線を基に、消失点O´を求めるものとして説明したが、バーチャル空間データベース144に、バーチャル空間の元となる映像に対応付けて、それぞれの映像の消失点O´を示す情報を予め記憶させておき、バーチャル空間の元となる映像とともに、対応付けられて記憶されている消失点O´を示す情報を読み出して利用することができるようにしても良い。それぞれの映像の消失点O´を示す情報を予め記憶させておくと、例えば、図6を用いて説明したように、稜線が1本存在する映像を表示させるような場合に好適である。
次に、図20のフローチャートを参照して、図17のステップS8において実行される、テクスチャ変換処理について説明する。
ステップS81において、リアル室内映像のテクスチャ情報抽出部154は、リアル室内映像の稜線情報抽出部151から供給された居室1内の映像から、壁、床、天井のテクスチャ情報を抽出し、バーチャル空間映像のテクスチャ変換部156に供給するとともに、居室1内の映像を、リアル室内映像の明るさ情報抽出部157に供給する。
例えば、リアル室内映像のテクスチャ情報抽出部154は、供給された映像のうち、左側の壁11、右側の壁12、奥の壁13、天井14、および、床15のそれぞれの位置において得られた画素に対して周波数解析を行い、定常パターンの現れる周波数を取得し、その定常パターンをそれぞれのテクスチャとして抽出する。
ステップS82において、バーチャル空間映像のテクスチャ情報抽出部155は、バーチャル空間映像の稜線情報抽出部152から供給された、バーチャル空間の元となる映像から、壁、床、天井のテクスチャ情報を抽出し、バーチャル空間映像のテクスチャ変換部156に供給するとともに、居室1内の映像を、バーチャル空間映像の明るさ情報抽出部158に供給する。
バーチャル空間映像のテクスチャ情報抽出部155は、例えば、リアル室内映像のテクスチャ情報抽出部154と同様の処理により、テクスチャ情報を取得するようにしても良いし、バーチャル空間データベース144にバーチャル空間の元となる映像とともにテクスチャ情報が対応付けられて記憶されるようにし、そのテクスチャ情報を抽出するようにしても良い。
ステップS83において、バーチャル空間映像のテクスチャ変換部156は、ステップS81においてリアル室内映像のテクスチャ情報抽出部154から供給された居室1の壁、床、天井のテクスチャ情報、および、ステップS82においてバーチャル空間映像のテクスチャ情報抽出部155から供給されたバーチャル空間の元となる映像の壁、床、天井のテクスチャ情報を基に、バーチャル空間映像の稜線変換部153から供給された、稜線が変換された処理済画像データの、壁、天井、床のテクスチャを変換し、変換後の映像を、バーチャル空間映像の明るさ変換部159に供給する。
具体的には、バーチャル空間映像のテクスチャ変換部156は、左側の壁11、右側の壁12、奥の壁13、天井14、および、床15のそれぞれにおいて抽出された定常パターンを、その平均値が1.0となるように正規化した後、バーチャル空間映像の稜線変換部153から供給された、稜線が変換された処理済画像データのバーチャル左側の壁51、バーチャル右側の壁52、バーチャル奥の壁53、バーチャル天井54、および、バーチャル床55のそれぞれのテクスチャを変換する。ステップS83の処理の終了後、処理は、図17のステップS8に戻り、ステップS9に進む。
このような処理により、例えば、図3および図4を用いて説明した様に、スクリーン3に映像を表示させることにより、居室1内のユーザ31に、違和感なく居室1が広がったように感じさせるようにするために、居室1の壁、床、天井に合わせて、スクリーン3に表示される映像に含まれる壁、床、天井のテクスチャを変更することができる。
次に、図21のフローチャートを参照して、図17のステップS10において実行される、明るさ変換処理について説明する。
ステップS101において、リアル室内映像の明るさ情報抽出部157は、リアル室内映像のテクスチャ情報抽出部154から供給された、居室1内の映像から、明るさ情報を抽出し、バーチャル空間映像の明るさ変換部159に供給する。
ステップS102において、バーチャル空間映像の明るさ情報抽出部158は、バーチャル空間映像のテクスチャ情報抽出部155から供給された、バーチャル空間の元となる映像から、明るさ情報を抽出し、バーチャル空間映像の明るさ変換部159に供給する。
ステップS103において、バーチャル空間映像の明るさ変換部159は、ステップS101においてリアル室内映像の明るさ情報抽出部157から供給された、居室1内の明るさ情報、および、ステップS102においてバーチャル空間映像の明るさ情報抽出部158から供給された、バーチャル空間の元となる映像の明るさ情報に基づいて、バーチャル空間映像のテクスチャ変換部156から供給された、稜線が変換され、必要に応じてテクスチャ変換が施された処理済画像データの、壁、天井、床の明るさ情報、すなわち、画素の輝度値を変換する。ステップS103の処理の終了後、処理は、図17のステップS10に戻り、ステップS11に進む。
このような処理により、例えば、図3および図4を用いて説明した様に、スクリーン3に映像を表示させることにより、居室1内のユーザ31に、違和感なく居室1が広がったように感じさせるようにしたり、図5または図6を用いて説明した様に、スクリーン3に映像を表示させることにより、居室1内のユーザ31に、他の空間(部屋やベランダなど)が居室1に連続しているように感じさせるようにするために、居室1の明るさに合わせて、スクリーン3に表示される映像の明るさ(輝度値)を変更することができる。
なお、以上説明した処理の順番は、図17乃至図21のフローチャートを用いて説明した順番と異なるものであってもかまわない。例えば、明るさ変換処理やテクスチャ変換処理の順番が入れ替わっていたり、稜線変換処理よりも先に行われるようにしても良い。
また、図17乃至図21のフローチャートを用いて説明した処理においては、ユーザ31が居室1に存在することが検出された場合に、ユーザの視点の抽出、稜線変換、テクスチャ変換、明るさ変換の処理、および、空間の境界となる映像を重畳する処理が、それぞれ、リアルタイムに行われるものとして説明した。しかしながら、例えば、視点情報を抽出する処理(例えば、図18を用いて説明した処理)、および、稜線変換処理のうちの視点情報を利用する処理(例えば、図18のステップS57乃至ステップS60の処理)、明るさ変換の処理、並びに、空間の境界となる映像を重畳する処理(図17のステップS11およびステップS12の処理)以外の処理は、ユーザ31が居室1に存在するか否かを検出する以前に行っておくものとしても良い。そして、ユーザ31が居室1に存在することが検出されたとき、視点情報を抽出し、稜線変換処理のうちの視点情報を利用する処理を実行し、明るさ変換処理を実行して、得られた映像に、空間の境界となる映像を重畳する処理を施すようにしても良い。
また、室内撮影カメラ21が居室1の所定の位置に設置された後、画像処理部145のリアル室内映像の稜線抽出部151により抽出される居室1の稜線情報、および、リアル室内映像のテクスチャ抽出部154により抽出される居室1のテクスチャ情報は、基本的に変更されない。したがって、画像処理部145のリアル室内映像の稜線抽出部151は、予め居室1の稜線情報を取得しておくようにしてもよいし、リアル室内映像のテクスチャ抽出部154は、予め居室1のテクスチャ情報を取得しておくようにしてもよい。
更に、データ入力部を設けることなどにより、室内撮影カメラ21を用いて撮像された居室1の映像を用いて居室1の稜線情報、および、居室1のテクスチャ情報を得る代わりに、居室1の稜線情報、および、居室1のテクスチャ情報に対応するデータの外部入力を受け、入力された居室1の稜線情報、および、居室1のテクスチャ情報を記憶しておき、これを基に、上述した処理と同様の処理を実行するようにしても良い。
次に、図22は、室内撮影カメラ21により撮像された居室1内の映像、並びに、視点取得センサ22−1および視点取得センサ22−2により取得された映像に基づいて、居室1内のユーザ31が違和感を覚えない映像をスクリーン3に表示させるための画像処理のうち、稜線を変更する処理を、図9を用いて説明した映像表示制御装置131よりも簡易的に実行することができる映像表示制御装置251の構成例を示すブロック図である。
映像表示制御装置251は、予め居室1の構造およびスクリーン3の大きさが決まっている場合に利用可能である。
なお、図9における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
すなわち、図22の映像表示制御装置251は、バーチャル空間映像データベース144に代わってバーチャル空間映像データベース261が設けられ、画像処理部145に代わって画像処理部262が設けられている以外は、基本的に、図9の映像表示制御装置131と同様の構成を有するものである。
また、画像処理部262は、リアル室内映像の稜線情報抽出部151が省略され、バーチャル空間映像の稜線情報抽出部152およびバーチャル空間映像の稜線変換部153に代わって、バーチャル空間映像の稜線変換部271が設けられている以外は、基本的に、画像処理部145と同様の構成を有するものである。
バーチャル空間映像データベース261は、図9を用いて説明したバーチャル空間データベース144と同様に、例えば図3乃至図6を用いて説明したような少なくとも1本の稜線が画角の中に入っているバーチャル空間の元となる映像を少なくとも1つ保存している。更に、バーチャル空間映像データベース261は、バーチャル空間の元となる映像に対応付けて、ユーザの視野の位置とバーチャル奥の壁53の4隅(または、4隅のうちの少なくとも1箇所)の座標との関係を示す情報を、テーブル情報として保存している。バーチャル奥の壁53の4隅の座標は、すなわち、表示される画像の4隅(または、4隅のうちの少なくとも1箇所)から出発する稜線の終点に対応する座標である。なお、バーチャル空間映像データベース261は、バーチャル奥の壁53の4隅(または、4隅のうちの少なくとも1箇所)の座標に代わって、座標を求めるために必要なデータを、テーブル情報に含ませるようにしても良い。
予め居室1の構造およびスクリーン3の大きさが予め分かっている場合、バーチャル空間の元となる映像の稜線がユーザの視点によってどのように変更されるか、すなわち、ユーザ31の視野の位置とバーチャル奥の壁53の4隅(または、4隅のうちの少なくとも1箇所)の座標との関係を予め算出することが可能である。バーチャル空間映像データベース261には、それぞれの映像に対応付けられて、ユーザ31の視野の位置とバーチャル奥の壁53の4隅(または、4隅のうちの少なくとも1箇所)の座標との関係を示すテーブル情報が記録されている。
バーチャル奥の壁53の4隅の座標を求めるために必要なデータは、例えば、4隅のうちの少なくとも1点の座標と、バーチャル奥の壁53のたてと横の長さであっても良いし、4隅のうちの少なくとも1点の座標と、その座標に対して対向する位置にあるバーチャル奥の壁53の隅へ向かうベクトル情報(対角線に対応するベクトル情報)などであってもよい。すなわち、バーチャル奥の壁53の4隅の座標を求めるために必要なデータは、バーチャル奥の壁53の4隅の座標を求めることができるのであれば、いかなる形式のデータであっても良い。
また、ここでは、テーブル情報を保存しているものとして説明したが、ユーザの視点に対応付けて、スクリーン3に表示される映像のうち、バーチャル奥の壁53の4隅の座標を容易に求めることができるような情報であれば、例えば、視点と座標の関係を示す関数式など、いずれの形式の情報であってもかまわないことはいうまでもない。
バーチャル空間映像データベース261は、バーチャル空間の元となる映像と、対応するテーブル情報を、バーチャル空間映像の稜線変換部271に供給する。バーチャル空間データベース261に複数の映像が保存されている場合、いずれのデータに対して画像処理が施されて、画像処理後の映像がスクリーン3に表示されるかは、例えば、ユーザ31が、図示しないリモコン等入力デバイスを用いて指令することができるようにしてもよい。
バーチャル空間映像の稜線変換部271は、バーチャル空間映像データベース261から、バーチャル空間の元となる映像と、対応するテーブル情報を取得するとともに、視点抽出部143から、居室1に存在するユーザ31の視点情報の供給を受ける。バーチャル空間映像の稜線変換部271は、図23に示されるように、テーブル情報を基に、居室1に存在するユーザ31の視点に対応するバーチャル奥の壁53の4隅の座標a,b,c,dを求め、4隅の座標a,b,c,dを基に、スクリーン3に表示される映像におけるバーチャル左上稜線61、バーチャル右上稜線62、バーチャル右下稜線63、および、バーチャル左下稜線64を容易に決定することができ、対応する4点を用いて、射影行列を求めることが可能となる。
すなわち、図9を用いて説明した映像表示制御装置131においては、上述したように、ユーザ31の視点によって、スクリーン3に表示させる映像の消失点の座標を求め、バーチャル空間の元となる映像から室内撮影カメラ21によって撮影された映像のうちのスクリーン3に対応する部分に映像を投影した後、更に、表示される映像の消失点が、ユーザ31の視点に応じた消失点となるように、再度、映像を投影することにより、スクリーン3に表示させる映像が生成されるようになされていた。これに対して、図22の映像表示制御装置251においては、処理を簡単にするために、図23に示されるように、スクリーン3に表示される映像のうち、バーチャル奥の壁53の4隅の座標の情報(または、座標を求めるために必要な情報)を、ユーザの視点に対応付けて予め用意しておき、テーブル情報として保持するようにしたので、図9を用いて説明した映像表示制御装置131における場合よりも容易に、居室31に存在するユーザが違和感を覚えない映像をスクリーン3に表示させるようにすることが可能となる。
図22を用いて説明した映像表示制御装置251が実行する処理は、図17のフローチャートを参照して説明した映像表示制御処理のうち、ステップS6において実行される稜線変換処理(図19のフローチャートを参照して説明される処理)に代わって、図24のフローチャートを参照して説明される簡易稜線変換処理が実行されるものである。
次に、図24を参照して、図22を用いて説明した映像表示制御装置251が実行する簡易稜線変換処理について説明する。
なお、図22を用いて説明した映像表示制御装置251は、図17のフローチャートを参照して説明した映像表示制御処理のうち、ステップS6において図24のフローチャートを参照して説明した簡易稜線変換処理を実行するが、それ以外の処理は、図17のフローチャートを用いて説明した場合と基本的に同様の処理を実行するので、その説明は省略する。
ステップS131において、バーチャル空間映像の稜線変換部271は、バーチャル室内映像データベース261から読み出されたバーチャル空間の元となる映像に対応する、稜線とバーチャル奥の壁53との交点を示す情報のテーブルを読み出す。
ステップS132において、バーチャル空間映像の稜線変換部271は、視点抽出部143により算出された視点情報を基に、スクリーン3に表示される映像における稜線とバーチャル奥の壁53との交点(図23における座標a,b,c,d)を示す情報を抽出する。
ステップS133において、バーチャル空間映像の稜線変換部271は、図23に示されるように、スクリーンに表示される映像における稜線(バーチャル左上稜線61、バーチャル右上稜線62、バーチャル右下稜線63、および、バーチャル左下稜線64)を確定する。
ステップS134において、バーチャル空間映像の稜線変換部271は、2つの映像の対応する4点、すなわち、スクリーン3に表示される映像における仮想的な稜線と仮想的な奥の壁との4交点(図23における座標a,b,c,d)と、バーチャル空間の元となる映像の奥の壁の4隅の点とを基に、バーチャル空間の元となる映像を、スクリーン3に表示される映像に投影するための射影行列を求め、処理は、図17のステップS6に戻り、ステップS7に進む。
このような処理により、スクリーン3に表示される映像の稜線を、簡単な処理で、ユーザが違和感を覚えないように変更することが可能となる。
以上説明したように、本発明を適用することにより、居室1の壁一面に設けられたスクリーン3に表示される映像の少なくとも1本の稜線が、居室1に存在する視聴者、すなわちユーザ31の視点から見える居室1内の稜線と連続する直線上に見えるように表示される。これにより、居室1に存在する視聴者、すなわちユーザ31に提示される仮想的な空間が、ユーザ31の視点から見て、居室1の空間と違和感なく連続しているように感じられるものとなる。
実際の空間である居室1に対して連続するように提示される仮想的な空間は、少なくとも1本の稜線を含んでいれば、例えば、居室1を広げる空間であっても良いし、居室1と連続して存在する他の部屋であっても良いし、居室1の外部に広がるベランダなどの空間であっても良い。
上述した一連の処理は、ソフトウェアにより実行することもできる。そのソフトウェアは、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。この場合、例えば、図9を用いて説明した映像表示制御装置131や図22を用いて説明した映像表示制御装置251のすべてまたは一部は、図25に示されるようなパーソナルコンピュータ301により構成される。
図25において、CPU(Central Processing Unit)311は、ROM(Read Only Memory)312に記憶されているプログラム、または記憶部318からRAM(Random Access Memory)313にロードされたプログラムにしたがって、各種の処理を実行する。RAM313にはまた、CPU311が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU311、ROM312、およびRAM313は、バス314を介して相互に接続されている。このバス314にはまた、入出力インタフェース315も接続されている。
入出力インタフェース315には、キーボード、マウスなどよりなる入力部316、ディスプレイやスピーカなどよりなる出力部317、ハードディスクなどより構成される記憶部318、モデム、ターミナルアダプタなどより構成される通信部319が接続されている。通信部319は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース315にはまた、必要に応じてドライブ320が接続され、磁気ディスク331、光ディスク332、光磁気ディスク333、もしくは、半導体メモリ334などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部318にインストールされる。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
この記録媒体は、図25に示されるように、装置本体とは別に、ユーザにプログラムを供給するために配布される、プログラムが記憶されている磁気ディスク331(フロッピディスクを含む)、光ディスク332(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク333(MD(Mini-Disk)(商標)を含む)、もしくは半導体メモリ334などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに供給される、プログラムが記憶されているROM312や、記憶部318に含まれるハードディスクなどで構成される。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
また、本明細書において、複数の装置により構成されるシステムの一部、または、全部が実行する処理が、それよりも少ない数の装置によって実現される場合であっても、または、本明細書において、1つの装置が実行する処理が、複数の装置によって実現される場合であっても、本発明は適用可能であることは言うまでもない。
本発明の一実施の形態に係る映像表示システムについて説明するための図である。 投影室の構成について説明するための図である。 スクリーンに表示される映像の第1の例について説明するための図である。 図3の映像がスクリーンに表示された状態について説明するための図である。 スクリーンに表示される映像の第2の例について説明するための図である。 スクリーンに表示される映像の第3の例について説明するための図である。 室内撮影カメラの設置について説明するための図である。 視点取得センサの設置について説明するための図である。 映像表示制御装置の構成例を示すブロック図である。 ユーザの重心位置の取得について説明するための図である。 ユーザの重心位置の座標の取得について説明するための図である。 ユーザの重心位置の座標の取得について説明するための図である。 ユーザの視点位置の座標の取得について説明するための図である。 Sobelフィルタについて説明するための図である。 部屋の稜線のテンプレートについて説明するための図である。 稜線の変換について説明するための図である。 映像表示制御処理について説明するためのフローチャートである。 視点情報抽出処理 稜線変換処理 テクスチャ変換処理 明るさ変換処理 映像表示制御装置の異なる構成例を示すブロック図である。 稜線の決定について説明するための図である。 簡易稜線変換処理について説明するためのフローチャートである。 パーソナルコンピュータの構成例を示すブロック図である。
符号の説明
1 居室, 2 投射室, 3 スクリーン, 11 左の壁, 12 右の壁, 13 背面の壁, 14 天井, 15 床, 21 室内撮影カメラ, 22 視点取得センサ, 41 プロジェクタ, 51 バーチャル左の壁, 52 バーチャル右の壁, 53 バーチャル奥の壁, 54 バーチャル天井, 55 バーチャル床, 61 バーチャル左上稜線, 62 バーチャル右上稜線, 63 バーチャル右下稜線, 64 バーチャル左下稜線, 81 左上稜線, 82 右上稜線, 83 右下稜線, 84 左下稜線, 91 居室の境界線, 101 風景, 131 映像表示制御装置, 141 リアル室内映像取得部, 142 センサ情報取得部, 143 視点抽出部, 144 バーチャル空間映像データベース, 145 画像処理部, 146 映像出力制御部, 151 リアル室内映像の稜線情報抽出部, 152 バーチャル空間映像の稜線情報抽出部, 153 バーチャル空間映像の稜線変換部, 154 リアル室内映像のテクスチャ情報抽出部, 155 バーチャル空間映像のテクスチャ情報抽出部, 156 バーチャル空間映像のテクスチャ変換部, 157 リアル室内映像の明るさ情報抽出部, 158 バーチャル空間映像の明るさ情報抽出部, 159 バーチャル空間映像の明るさ変換部, 160 空間境界重畳処理部, 251 映像表示制御装置, 261 バーチャル室内映像データベース, 262 画像処理部, 271 バーチャル室内映像の稜線変換部

Claims (10)

  1. ユーザが存在している空間を囲む平面のうちのいずれか一面の全面に表示される画像を処理する画像処理装置において、
    表示される前記画像を観察する前記ユーザを含む映像を取得する映像取得手段と、
    前記映像取得手段により取得された前記ユーザを含む映像を基に、前記ユーザの視点位置を検出する視点位置検出手段と、
    表示される前記画像の元となる画像データであって、少なくとも1本の稜線を含む画像を表示するための画像データを記憶する記憶手段と、
    前記視点位置検出手段により検出された前記ユーザの視点位置を基に、前記記憶手段により記憶されている前記画像データの前記稜線を変換する稜線変換手段と
    を備えることを特徴とする画像処理装置。
  2. 前記ユーザが存在している空間の稜線情報を取得する稜線情報取得手段を更に備え、
    前記稜線変換手段は、前記稜線情報取得手段により取得された前記ユーザが存在している空間の稜線情報を用いて、前記記憶手段により記憶されている前記画像データの前記稜線を変換する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記稜線情報取得手段は、前記ユーザが存在している空間の映像を取得して、取得された映像から直線成分を検出し、所定のテンプレートと比較することにより、前記ユーザが存在している空間の稜線情報を取得する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記稜線情報取得手段は、エッジ検出フィルタを用いてエッジ検出を行い、更に、ハフ変換を実行することにより、取得された映像から直線成分を検出する
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記記憶手段は、少なくとも1本の稜線を含む前記画像を表示するための前記画像データに対応付けて、表示される前記画像の4隅のうちの少なくとも1箇所から出発する前記稜線の終点に対応する座標を示す情報を、前記ユーザの視点位置ごとに更に保存し、
    前記稜線変換手段は、前記視点位置検出手段により検出された前記ユーザの視点位置を基に、前記記憶手段により記憶されている前記稜線の終点に対応する座標を示す情報のうち、前記ユーザの視点位置に対応する情報を抽出し、抽出された情報を基に、前記画像データの前記稜線を変換する
    ことを特徴とする請求項1に記載の画像処理装置。
  6. 前記ユーザが存在している空間の映像を取得する空間映像取得手段と、
    前記空間映像取得手段により取得された映像に基づいて、前記ユーザが存在している空間の所定の部分のテクスチャ情報を抽出するテクスチャ情報抽出手段と、
    前記テクスチャ情報抽出手段により抽出された前記テクスチャ情報を基に、記記憶手段により記憶されている前記画像データの対応する部分のテクスチャを変換するテクスチャ変換手段と
    を更に備えることを特徴とする請求項1に記載の画像処理装置。
  7. 前記ユーザが存在している空間の映像を取得する空間映像取得手段と、
    前記空間映像取得手段により取得された映像に基づいて、前記ユーザが存在している空間の明るさ情報を抽出する明るさ情報抽出手段と、
    前記明るさ情報抽出手段により抽出された前記明るさ情報を基に、記記憶手段により記憶されている前記画像データの所定の部分の画素の輝度を変換する輝度変換手段と
    を更に備えることを特徴とする請求項1に記載の画像処理装置。
  8. ユーザが存在している空間を囲む平面のうちのいずれか一面の全面に表示される画像を処理する画像処理装置の画像処理方法において、
    表示される前記画像を観察する前記ユーザを含む映像を取得する映像取得ステップと、
    前記映像取得ステップの処理により取得された前記ユーザを含む映像を基に、前記ユーザの視点位置を検出する視点位置検出ステップと、
    表示される前記画像の元となる画像データであって、少なくとも1本の稜線を含む画像を表示するための画像データを所定の記憶部から読み出す読み出しステップと、
    前記視点位置検出ステップの処理により検出された前記ユーザの視点位置を基に、前記読み出しステップの処理により読み出された前記画像データの前記稜線を変換する稜線変換ステップと
    を含むことを特徴とする画像処理方法。
  9. ユーザが存在している空間を囲む平面のうちのいずれか一面の全面に表示される画像の処理をコンピュータに実行させるためのプログラムであって、
    表示される前記画像を観察する前記ユーザを含む映像を取得する映像取得ステップと、
    前記映像取得ステップの処理により取得された前記ユーザを含む映像を基に、前記ユーザの視点位置を検出する視点位置検出ステップと、
    表示される前記画像の元となる画像データであって、少なくとも1本の稜線を含む画像を表示するための画像データを所定の記憶部から読み出す読み出しステップと、
    前記視点位置検出ステップの処理により検出された前記ユーザの視点位置を基に、前記読み出しステップの処理により読み出された前記画像データの前記稜線を変換する稜線変換ステップと
    を含むことを特徴とする処理をコンピュータに実行させるためのプログラム。
  10. ユーザが存在している空間を囲む平面のうちのいずれか一面の全面に表示される画像を処理する画像処理装置と、
    前記画像処理装置により処理された前記画像を表示する表示装置と、
    前記ユーザが存在している空間において、表示される前記画像を観察する前記ユーザを含む映像を撮像する撮像装置と
    により構成される画像表示システムにおいて、
    前記画像処理装置は、
    前記撮像装置により撮像された、前記ユーザを含む映像を取得する映像取得手段と、
    前記映像取得手段により取得された前記ユーザを含む映像を基に、前記ユーザの視点位置を検出する視点位置検出手段と、
    表示される前記画像の元となる画像データであって、少なくとも1本の稜線を含む画像を表示するための画像データを記憶する記憶手段と、
    前記視点位置検出手段により検出された前記ユーザの視点位置を基に、前記記憶手段により記憶されている前記画像データの前記稜線を変換する稜線変換手段と、
    前記稜線変換手段により前記稜線が変換された前記画像データの前記表示装置への出力を制御する出力制御手段と
    を備えることを特徴とする画像表示システム。
JP2005137223A 2005-05-10 2005-05-10 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム Pending JP2006318015A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005137223A JP2006318015A (ja) 2005-05-10 2005-05-10 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005137223A JP2006318015A (ja) 2005-05-10 2005-05-10 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム

Publications (1)

Publication Number Publication Date
JP2006318015A true JP2006318015A (ja) 2006-11-24

Family

ID=37538680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005137223A Pending JP2006318015A (ja) 2005-05-10 2005-05-10 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム

Country Status (1)

Country Link
JP (1) JP2006318015A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146140A (ja) * 2007-12-13 2009-07-02 Ponos Corp 3次元画像表示装置
JP2017017523A (ja) * 2015-06-30 2017-01-19 Necネッツエスアイ株式会社 映像システム
JP2017097849A (ja) * 2015-10-29 2017-06-01 エックス−ライト スウィツァランド ゲゼルシャフト ミット ベシュレンクテル ハフツング 視覚化デバイス
JP2017143376A (ja) * 2016-02-09 2017-08-17 三菱電機インフォメーションネットワーク株式会社 画像合成装置および画像合成プログラム
KR20190048506A (ko) * 2017-10-31 2019-05-09 에스케이텔레콤 주식회사 가상 공간 제공 방법 및 장치
JP2021128714A (ja) * 2020-02-17 2021-09-02 株式会社ジオクリエイツ 調整装置及び調整方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198822A (ja) * 1997-01-10 1998-07-31 Sharp Corp 画像合成装置
JPH11161827A (ja) * 1997-09-29 1999-06-18 Xerox Corp 偽造通貨検出方法及び装置
JPH11316853A (ja) * 1998-05-01 1999-11-16 Hitachi Ltd 仮想現実感生成装置及び方法
JP2000076481A (ja) * 1998-06-30 2000-03-14 Lucent Technol Inc 3次元画像処理方法及び3次元画像処理装置
JP2000285245A (ja) * 1999-03-31 2000-10-13 Toshiba Corp 移動体の衝突防止装置、衝突防止方法、および記録媒体
JP2002170132A (ja) * 2000-12-04 2002-06-14 Mixed Reality Systems Laboratory Inc 情報提示装置及びその方法並びに記憶媒体
JP2003132374A (ja) * 2001-10-26 2003-05-09 Canon Inc 画像表示装置及びその方法並びに記憶媒体
WO2004042662A1 (en) * 2002-10-15 2004-05-21 University Of Southern California Augmented virtual environments
JP2005107970A (ja) * 2003-09-30 2005-04-21 Canon Inc 画像表示装置及び方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198822A (ja) * 1997-01-10 1998-07-31 Sharp Corp 画像合成装置
JPH11161827A (ja) * 1997-09-29 1999-06-18 Xerox Corp 偽造通貨検出方法及び装置
JPH11316853A (ja) * 1998-05-01 1999-11-16 Hitachi Ltd 仮想現実感生成装置及び方法
JP2000076481A (ja) * 1998-06-30 2000-03-14 Lucent Technol Inc 3次元画像処理方法及び3次元画像処理装置
JP2000285245A (ja) * 1999-03-31 2000-10-13 Toshiba Corp 移動体の衝突防止装置、衝突防止方法、および記録媒体
JP2002170132A (ja) * 2000-12-04 2002-06-14 Mixed Reality Systems Laboratory Inc 情報提示装置及びその方法並びに記憶媒体
JP2003132374A (ja) * 2001-10-26 2003-05-09 Canon Inc 画像表示装置及びその方法並びに記憶媒体
WO2004042662A1 (en) * 2002-10-15 2004-05-21 University Of Southern California Augmented virtual environments
JP2005107970A (ja) * 2003-09-30 2005-04-21 Canon Inc 画像表示装置及び方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146140A (ja) * 2007-12-13 2009-07-02 Ponos Corp 3次元画像表示装置
JP2017017523A (ja) * 2015-06-30 2017-01-19 Necネッツエスアイ株式会社 映像システム
JP2017097849A (ja) * 2015-10-29 2017-06-01 エックス−ライト スウィツァランド ゲゼルシャフト ミット ベシュレンクテル ハフツング 視覚化デバイス
JP2017143376A (ja) * 2016-02-09 2017-08-17 三菱電機インフォメーションネットワーク株式会社 画像合成装置および画像合成プログラム
KR20190048506A (ko) * 2017-10-31 2019-05-09 에스케이텔레콤 주식회사 가상 공간 제공 방법 및 장치
KR20210114365A (ko) * 2017-10-31 2021-09-23 에스케이텔레콤 주식회사 가상 공간 제공 방법 및 장치
KR102314787B1 (ko) * 2017-10-31 2021-10-20 에스케이텔레콤 주식회사 가상 공간 제공 방법 및 장치
KR102359230B1 (ko) * 2017-10-31 2022-02-08 에스케이텔레콤 주식회사 가상 공간 제공 방법 및 장치
JP2021128714A (ja) * 2020-02-17 2021-09-02 株式会社ジオクリエイツ 調整装置及び調整方法
JP7475026B2 (ja) 2020-02-17 2024-04-26 株式会社ジオクリエイツ 調整装置及び調整方法

Similar Documents

Publication Publication Date Title
JP7007348B2 (ja) 画像処理装置
JP5183277B2 (ja) 立体画像表示装置
US10893259B2 (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
JPWO2017094543A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法
JP7196421B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US20240265651A1 (en) Mixed reality display device and mixed reality display method
JP5727207B2 (ja) 画像監視装置
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
US10296080B2 (en) Systems and methods to simulate user presence in a real-world three-dimensional space
EP4012654A2 (en) Feature determination, measurement, and virtualization from 2-d image capture
JP2006318015A (ja) 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム
TW201429239A (zh) 視域顯示系統、視域顯示方法及記錄有視域顯示程式之電腦可讀取記錄媒體
JP2021506148A (ja) 画像キャプチャ装置及び画像キャプチャ方法
JP2003209769A (ja) 画像生成装置および方法
US10802390B2 (en) Spherical omnipolar imaging
US11430178B2 (en) Three-dimensional video processing
US11043019B2 (en) Method of displaying a wide-format augmented reality object
JP2019101563A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2004030408A (ja) 三次元画像表示装置及び表示方法
WO2023015868A1 (zh) 图像背景生成方法及装置、计算机可读存储介质
JP2016134765A (ja) 監視システム
WO2017104448A1 (ja) 情報処理装置、3次元モデル生成装置、情報処理装置の制御方法、及び、コンピュータープログラム
JP7447403B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP5326816B2 (ja) 遠隔会議システム、情報処理装置、及びプログラム
KR101559739B1 (ko) 가상 모델과 카메라 영상의 융합시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110301