JP4124995B2 - Video composition apparatus and information processing method - Google Patents

Video composition apparatus and information processing method Download PDF

Info

Publication number
JP4124995B2
JP4124995B2 JP2001334710A JP2001334710A JP4124995B2 JP 4124995 B2 JP4124995 B2 JP 4124995B2 JP 2001334710 A JP2001334710 A JP 2001334710A JP 2001334710 A JP2001334710 A JP 2001334710A JP 4124995 B2 JP4124995 B2 JP 4124995B2
Authority
JP
Japan
Prior art keywords
unit
video
data
image
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001334710A
Other languages
Japanese (ja)
Other versions
JP2003143478A (en
Inventor
利果 田中
剛 黒木
まほろ 穴吹
英太 小野
雅博 鈴木
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001334710A priority Critical patent/JP4124995B2/en
Publication of JP2003143478A publication Critical patent/JP2003143478A/en
Application granted granted Critical
Publication of JP4124995B2 publication Critical patent/JP4124995B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
撮影部で撮影された実写画像をベースとした画像の表示およびコンピュータグラフィックスをベースとした画像の表示を切り換えるものに関する。
【0002】
【従来の技術】
展望台等に置かれる望遠鏡は展望台からの景色を捉え、光学装置を用いて拡大などして使用者に提示するものであるが、従来の望遠鏡は景色を単に光学的に拡大して表示するものであるに過ぎないため、現実世界に実際に存在するものしか提示できないという問題があった。たとえば、望遠鏡では現実世界に存在する建物に付属した情報(住所や建物の名前など)を提示することはできず、また、現実世界中に仮想のキャラクタを配置して眺めるといったことも不可能である。また、望遠のズーム拡大率が限界に達してしまった場合に、注目されている対象物をコンピュータグラフィックス画像などに切り換えてさらに詳しく表示したり、注目した対象物の中を仮想世界として歩き回ることができなかった。こうした問題を解決するものとして以下のような従来例がある。
【0003】
望遠鏡から見る現実の景色に仮想的な文字や画像を重ね合わせる技術が、特許第2833206号「展望用ディスプレイ装置」に開示されている。ここで開示されている装置は、装置前方からの外界情景光と、仮想的な文字や画像を表示した面からの画像表示光を、ハーフミラー等によって構成されるコンバイナを用いて重ね合わせて装置利用者に提示する。
【0004】
【発明が解決しようとする課題】
通常の望遠鏡や特開2000−125171「光学装置」など、現実に見えるものを大きく拡大して見るための装置(以下、拡大表示装置)には、拡大率に制限がある。そのため、ズーム拡大率が限界に達してしまうとそれ以上大きく拡大して見ることができない。つまりズーム値が最大に達してしまった場合、使用者が「さらに詳しく見たい」と思ってズーム値を上げる操作をしても、対象物に関するさらに詳しい情報を表示することができなかった。
【0005】
本実施形態では、撮影部の光学系の制御が設定値以上に達してしまった場合には、注目されている対象物をコンピュータグラフィックス画像などに切り換えて、使用者の対象物をもっと詳しく見たいという要求を満たせるようにすることを目的とする。
【0006】
【課題を解決するための手段】
上記目的を達成するために、本発明は以下の構成を有することを特徴とする。
【0007】
本願請求項1記載の映像合成装置は、撮像部で撮影された実写画像をベースとした画像を表示する空間モードおよびコンピュータグラフィックスをベースとした画像を表示する空間モードを有する映像画合成装置であって、現実世界をレンズを介して撮影し実写画像を生成する撮像部と、前記撮像部を使用者が手動で動かすことを可能とする可動部を有する、前記撮像部を支持する支持部と、前記撮像部と前記支持部の相対的な姿勢を測定する姿勢測定部と、前記レンズの状態を制御するレンズ状態制御部と、コンピュータグラフィックスを生成するためのデータを保持するデータ部と、前記姿勢測定部からの姿勢情報と前記レンズ状態制御部からのレンズ状態情報と前記データ部に保持されているデータをもとに空間モードを設定する空間管理部と、前記空間管理部で設定された空間モードに基づいて、前記データ部に保持されているデータを用いてコンピュータ映像を生成するコンピュータ映像生成部と、前記撮像部で生成された実写画像と前記コンピュータ映像生成部で生成したコンピュータ映像とから表示すべき映像を生成する映像生成部とを有し、前記空間管理部は、前記撮像部で利用するレンズのズーム値が予め設定した設定値以上、かつ前記表示部の特定エリア内に表示されるコンピュータグラフィックスが前記データ部に保持されている場合に、前記コンピュータグラフィックスをベースとした画像を表示する空間モードを設定することを特徴とする。
【0008】
本願請求項7に記載の情報処理方法は、撮部で撮影された実写画像をエースとした画像の表示およびコンピュータグラフィックスをベースとした画像の表示を可能にする情報処理方法であって、撮部の姿勢情報およびズーム情報を入力し、前記ズーム情報に基づき前記撮部のズーム値が設定値より大きいか否かを判定し、前記姿勢情報に基づき撮影画像の所定領域に表示されるコンピュータグラフィックスがデータ部に保持されているか否かを判定し、前記ズーム値が前記設置値より大きく、かつ前記撮影画像の所定領域に表示されるコンピュータグラフィックスがデータ部に保持されている場合は、当該コンピュータグラフィックスに対応するコンピュータ映像を生成し、前記生成されたコンピュータ映像をベースとして画像を表示させることを特徴とする。
【0009】
【発明の実施の形態】
<第1実施形態>
第1実施形態の概要は次のとおりである。
【0010】
映像合成装置は展望台等で望遠鏡として、また博物館等で情報表示端末とし使用される。図1は第1実施形態による映像合成装置の概略構成を示すブロック図である。
【0011】
1は撮像部であり、たとえばカメラからなる。撮像部1は屋外の風景や屋内の展示物といった現実世界を撮影し、撮影映像を映像信号として撮影映像取込部2に出力する。
【0012】
2は撮影映像取込部であり、撮像部1から出た映像信号を映像合成部3に適した形式に変換して映像合成部3に送り出す。
【0013】
3は映像合成部であり、空間管理部10から取り出した空間モード情報に応じて、撮影映像取込部2からの撮影映像とコンピュータ映像生成部7からのコンピュータ映像を合成した合成画像、又はコンピュータ映像のみを表示部9に送出する。
【0014】
4は支持部であり、床等に設置され、撮像部1を支える。支持部4は可動部分を持ち、撮像部1を使用者が手動で左右方向および上下方向に自由に回転させることを可能にする。支持部4は床等に固定されてもよいが、たとえばレールや台車の上に載せて移動できるようにしてもよい。
【0015】
5は支持部4と撮像部1の相対的な姿勢を測定する姿勢測定部であり、撮像部1の姿勢情報、すなわち撮像部1の上下方向および左右方向の回転情報を空間管理部10からの要求に応じて、又は空間管理部10からの要求なしに空間管理部10に送り出す。姿勢測定部5は、例えば機械式のエンコーダなどから構成される。姿勢測定部5は支持部と撮像部の相対的な姿勢を測定することができればどういった構成としてもよく、他に例えばジャイロや光学式のセンサを利用することも可能である。
【0016】
6はレンズ状態制御部であり、図示しない操作部もしくは制御信号によりレンズの状態を操作する。レンズ状態制御部6は、例えば機械式のエンコーダやステッピングモータからなる。また、レンズ制御部6は、撮像部1で利用するレンズのズーム値やフォーカス値といったレンズ状態情報を空間管理部10からの要求に応じて、又は空間管理部10からの要求なしに空間管理部10に送り出す。ズーム値・フォーカス値とは、レンズ状態制御部6でエンコーダ等により出力される値である。
【0017】
10は空間管理部であり、姿勢測定部5から撮像部1の姿勢情報を取り出して撮像部1が向いている方向を推定し、またレンズ状態制御部6からレンズ状態情報を取り出して撮像部1の画角等を推定し、カメラ状態データとして保持する。空間管理部10はカメラ状態データおよびデータ部8の空間に関するデータを参照して、空間モードを決定する。空間モードとは、実写モード、VR空間モードなどである。
【0018】
実写モードは、撮像部1で撮影した実写画像そのもの、または実写画像をベースとしてコンピュータグラフィックスなどで生成した画像を合成した画像を提示する。
【0019】
VR空間モードは、ズーム値に従って実写モードから移行するモードであり、コンピュータグラフィックス画像をベースとした画像を提示する。
【0020】
VR空間モードによれば、例えば、注目されている対象物をコンピュータグラフィックス画像などに切り換えてさらに詳しく表示したり、対象物に関する情報を表示したり、対象物の中に入り込んでウォークスルーできるようにすることができる。
【0021】
VR空間モードの1例として提示する情報レベル自体を切り換える例を説明する。
【0022】
例えば対象物が布であった場合、布が糸の編みこみによってできている様子、糸が繊維からできている様子、さらには繊維が分子からできている様子までを、ズーム値によって切り換えて提示する。
【0023】
これは、1つのオブジェクトの対して解像度(LOD:Level of Details)の異なる複数のモデルを持たせて、視点位置などによってモデルを切り換えて表示する技術を用いることで実現できる。つまり、1つのオブジェクトに複数のモデルを持たせて、ズーム値に応じてモデルを切り換えて表示することにより実現できる。モデル切り換える際、画像同士のブレンディングなどを行って、画像をスムーズに切り換えることもできる。情報レベル自体を切り替える場合は、データ部8は、空間位置データに対応させて複数のモデルを保持するとともに、各モデルをズーム値に対応させて保持する。
【0024】
VR空間モードの他の1例として対象物内をVR空間としてウォークスルーしているような画像を提示する例を説明する。
【0025】
例えば、仮想カメラのカメラ視点位置を対象物付近に設定し、ズームイン操作を前進に、ズームアウト操作を後退に対応させ、対象物の中に入り込んでウォークスルーできるようにする。VR空間モードが解除される場合とは、例えば予めVR空間からの出口を用意しておき、そこから出た場合など予め条件を設定しておく。ウォークスルーしているような画像を提示する場合は、データ部8は、空間位置データに対応させてウォークスルーしているような画像を提示するためのデータ群を保持する。
【0026】
空間管理部10は、レンズ状態情報から空間モードを決定する。そして、決定された空間モードおよびカメラ状態データを、コンピュータ映像生成部7からの要求に応じて、又は表示モード決定部からの要求なしにコンピュータ映像生成部7に送り出す。さらに決定された空間モードを映像合成部3からの要求に応じて、又は映像合成部3からの要求なしに映像合成部3に送り出す。
【0027】
7はコンピュータ映像生成部であり、空間管理部10からカメラ状態データおよび空間モードに基づき、データ部8から必要なデータを取り出して、コンピュータ映像を生成する。そして、生成したコンピュータ映像は映像合成部3に送る。
【0028】
8はデータ部であり、たとえばハードディスクから構成され、コンピュータ映像生成部7に引き渡すデータを所持する。
【0029】
データ部8に格納されるデータとしては、実写モードにおいて実写画像に合成するコンピュータグラフィックス画像を生成するためのテキスト情報やパノラマ映像、三次元CG(コンピュータグラフィックス)データや、VR空間モードにおいて提示されるコンピュータグラフィックス画像を生成するための、上記説明したデータが格納されている。そして、データ部8は、コンピュータ映像生成部7からの要求に応じて適切なデータをコンピュータ映像生成部7に送出する。たとえばコンピュータ映像生成部7が撮像部1の視野に合成する三次元CGデータを要求してきた時に、データ部8は格納されている三次元CGデータの中から撮像部1の視野に含まれる三次元CGデータを取り出して送出する。なお、データ部8はハードディスクに限らず、データを保持することができる媒体であれば何でもよく、たとえばテープやメモリなどで構成してもよい。
【0030】
9は表示部であり、映像合成部3から送り出された合成映像信号を表示する。この際、表示部9は撮像部1と一体的に動くものとすると使用者にとっては直に望遠鏡などを覗き込むかのように直感的で理解しやすいが、必ずしもその必要はなく、たとえば撮像部1が可動で表示部9が固定されるという構成でもよい。また、この表示部9は複数備えられてもよく、その場合は合成映像を多数の人が見ることが可能になる。
【0031】
以上の様な構成を備えた本実施形態の制御について図2を用いて説明する。図2は本実施形態の映像合成装置における処理の手順を説明するフローチャートである。
【0032】
ステップS0ではデータ準備を行う。ステップS0ではデータ部8に格納する上述したデータを用意する。各データはあらかじめ現実世界との位置の対応をとっておく必要があり、たとえば三次元CGならばそれが現実世界中でどの位置に対応するかを指定しておかねばならない。また、パノラマ映像であればパノラマ映像のどの部分が現実世界のどの部分に対応するかを指定しておかねばならない。
【0033】
データ部8にパノラマ映像を格納する場合、格納するパノラマ映像としては、たとえば異なる時間帯や場所において撮影したパノラマ映像が考えられる。あらかじめ異なる時間帯に撮影したパノラマ映像を格納することで、たとえば展望台において曇天時においても展望台からの晴天時の眺めを再現することができる。また、異なる場所で撮影したパノラマ映像を格納することで、全く異なる場所で撮影されたパノラマ映像があたかもその場にあるかのように再現することができる。
【0034】
データ部8に格納するパノラマ映像は、たとえば撮像部1で撮影する。この場合、図14のように、撮像部10で撮影した映像を撮影映像取込部11で取り込み、データ部8に撮影映像を送ることになる。パノラマ映像はこのように撮像部1で撮影し、それをデータ部8に格納することができるが、データ部8にパノラマ映像を格納できる方法であればこれに限らずどのような方法でもよい。
【0035】
データ部8にパノラマ映像を格納する場合、そのパノラマ映像には空白の部分が含まれていてもよい。パノラマ映像中の空白を表現する方法としては、たとえばパノラマ映像の各画素に透過度を表すα値を与え、空白となっている画素のα値を0とする方法がある。撮影したパノラマ映像中において、パノラマ映像の合成を必要としない部分のα値を0としておけば、映像合成部3が撮影映像とパノラマ映像を合成する際、α値が0となっている部分に撮影映像を合成し、α値が0となっていない部分にはパノラマ映像を合成することで、パノラマ映像と撮影映像を一つの合成映像中に表示することが可能になる。このとき、パノラマ映像の各画素のα値をすべて1とすれば、映像合成時に、撮影映像を含まずパノラマ映像だけを含んだ合成映像が合成されることになる。
【0036】
このパノラマ映像の各画素にα値を与える方法について、展望室において本実施形態の映像合成装置を利用する場合の例を図7を用いて説明する。ステップS0において、展望室から周囲の光景を撮影してパノラマ映像Iが撮影され、このパノラマ映像Iには、室内の映像Rと室外の映像Pが含まれるものとする。室内の映像Rのα値を0とし、室外の映像Pのα値を1とすることで、映像合成部3で映像合成を行う際に、室内部分については撮影映像を合成し、室外部分については室外の映像Pを合成するといったことが可能になる。このことによって、室内を見た時には現実世界の撮影映像が見え、室外を見た時にはあらかじめ撮影されたパノラマ映像が見える、といったことが可能になる。
【0037】
ここではパノラマ映像中の空白の部分を表現する方法としてα値を用いる方法を挙げたが、この方法はパノラマ映像中の空白の部分を表現できる方法であればどのような方法でもよい。
【0038】
また、ここに格納するパノラマ映像データは、たとえば三次元CGをあらかじめパノラマ映像としてレンダリングしたものであってもよい。一般的に三次元CGの生成を実時間で行う場合には描画能力の制限などから三次元CGの精密さが限定されてしまうが、この手法を用いることで三次元CGのモデルを無制限に精密にし、より三次元CGの映像の質を高めることが可能である。この際、レンダリングしたパノラマ映像の各画素に透過度を表すα値を与え、パノラマ映像中においてCGの描かれていない部分のα値を0とすれば、映像合成部3が撮影映像とコンピュータ映像を合成する際、α値が0となっている部分について撮影映像を合成することで、撮影映像中にあらかじめレンダリングした三次元CGを合成することが可能になる。
【0039】
データ部8に三次元CGを格納する場合、格納する三次元CGとしては、たとえば仮想のキャラクタなどが考えられる。ここで、データ部8に格納する三次元CGデータには位置や大きさ、形状といった幾何情報だけでなく、制約関係や動きといったデータも含まれる。たとえばデータ部8に仮想のキャラクタの形状や動きの情報を格納しておくことで、現実世界中に仮想のキャラクタを登場させることが可能になる。
【0040】
また、データ部8にあらかじめ現実世界の奥行情報を入力して利用してもよい。あらかじめ現実世界の奥行情報を持ち利用することで、現実世界の映像とコンピュータ映像との前後関係を正しく反映した映像合成が可能になる。たとえば、ある建物とある建物の間で三次元CGのキャラクタを動かしたいという時、現実世界の奥行情報を持たない場合だと三次元CGのキャラクタの全身が建物の前面に表示されてしまうため、図3のように建物とキャラクタの前後関係が正しく反映されない。これに対して現実世界の奥行情報を持たせた場合には、キャラクタまでの奥行と建物までの奥行を比較し、キャラクタまでの奥行が建物の奥行よりも大きい部分のコンピュータ映像生成を行わないことで、図4のように建物とキャラクタの前後関係を正しく反映した合成映像を生成することができる。
【0041】
現実世界に奥行情報を持たせることはたとえば現実世界に三次元モデルを持たせることで実現できる。現実世界の奥行情報を三次元モデルとして与えた場合には、たとえば図5のように建物の上に三次元CGのキャラクタを乗せるなどといった接触関係を表現することが可能である。現実世界の三次元モデルは、たとえば地図データから生成することが可能である。
【0042】
ここで、地図データから現実世界の三次元モデルを生成する方法について図12、図13を用いて説明する。図12のような地図があるものとして、その地図の中には建物E、F、G、Hが描かれ、またこの建物E、F、G、Hの高さ情報が何らかの方法で得られたものとする。ここで、地図の左下端を原点とし、1mを1単位とした、図13のようなXYZ座標系を定義すると、建物Hは高さ10、幅15、奥行15の直方体として表現することができ、また他の建物E、F、Gも同様に表現することができる。
【0043】
以上のようにして地図データから現実世界の三次元モデルを生成することができる。ここでは図13のような座標系を定義したが、この座標系がいかなるものであれ地図データから三次元モデルを生成することができるのは言うまでもない。また、現実世界に三次元モデルを持たせる方法は上記の方法に限らず、現実世界の三次元モデルが構築できる方法であればどのような方法でもよい。
【0044】
また、現実世界の奥行情報は必ずしも三次元のモデルでなくてもよく、たとえば図6のように二次元のモデルとしてもよい。また、一視点から観察する場合は、必ずしも現実世界の三次元モデルを持つ必要はなく、レンジスキャナなどで得られた現実世界の奥行データを持ち、利用することとしてもよい。現実世界に奥行情報を持たせる方法は上記の方法に限らず、たとえば距離画像を用いる方法でもよく、現実世界までの奥行がわかるものであればどのような方法でもよい。
【0045】
データ準備後、ステップS1でシステムが起動される。ステップS2で撮像部1から映像が取得され、取得された撮影映像はたとえばNTSC映像信号として撮影映像取込部2に送られる。この際、撮像部1から撮影映像取込部2に送られる撮影映像はNTSC映像信号に限らず、映像を表現できるものであれば何でもよい。
【0046】
撮像部1で撮影された撮影映像は撮影映像取込部2で適切なフォーマットに変換され、映像合成部3に送られる。撮影映像取込部2ではたとえば撮像部1から送られてきたNTSC映像信号をデジタルデータに変換して映像合成部3に送るが、撮像部1の送り出す映像はNTSC映像信号に限らず映像を表現するものであれば何でもよく、また、撮影映像取込部2が映像合成部3に送り出す撮影映像もデジタルデータに限らず映像を表現し、映像合成部3が処理できるものであれば何でもよい。
【0047】
ステップS3で姿勢測定部5が撮像部1の姿勢を検知し、検知された姿勢情報は空間管理部10に送られる。ステップS4でレンズ状態制御部6が撮像部1で利用するレンズのズーム値やフォーカス値といったレンズ状態情報を検知し、検知されたレンズ状態情報は空間管理部10に送られる。
【0048】
ステップS5では空間管理部10が、姿勢測定部5から送出された姿勢情報とレンズ状態制御部6から送出されたレンズ状態情報から撮像部1の視野を推定し、データ部8から撮像部1の視野に含まれる範囲のデータを取得する。
【0049】
ここで、姿勢測定部5から送出された姿勢情報と、レンズ状態制御部6から送出されたレンズ状態情報から撮像部1の視野を求める方法にはさまざまなものがあるが、ここではそのうち一つの方法を示す。一般的に、撮像部1で利用するレンズのレンズ中心の位置と撮像部1の視野角を求めれば視野を求めることが可能であるため、以下ではまず姿勢測定部5から送出された姿勢情報から撮像部1で利用するレンズのレンズ中心の位置を求める方法について記し、その後にレンズ状態制御部6から送出されたレンズ状態情報から撮像部1の視野角を求める方法について記す。
【0050】
姿勢測定部5から送出された姿勢情報から撮像部1で利用するレンズのレンズ中心の位置を求める方法を10と図9を用いて説明する。図8は本実施形態の映像合成装置の外観図である。撮像部1と表示部9は支持部4に一体的に支持されており、回転中心Oを中心として上下方向および左右方向に回転できるものとする。支持部4は床に固定されているため、床と回転中心Oの位置関係は不変である。そのため、回転中心Oとレンズ中心LOの相対的な位置関係がわかれば、現実世界に対するレンズ中心LOの位置が一意に定まることとなる。
【0051】
ここで、回転中心Oを原点としたXYZ座標系を図のように定義し、左右の回転角φと上下の回転角θを図9のように定義する。撮像部1で用いるレンズのレンズ中心LOから回転中心Oまでの距離をdとして表すと、レンズ中心LOの座標は
x=−dsinθsinφ
y=dsinθcosφ
z=dcosθ
として表される。ここではXYZ座標系を図9のように定義したが、座標系をどのように定義しても、また上下および左右の回転角をどのように定義しても、左右方向の回転角と上下方向の回転角から撮像部1で利用するレンズのレンズ中心の位置が求まることは言うまでもない。
【0052】
レンズ状態制御部6から送出されたレンズ状態情報から撮像部1の視野角を求める方法を図10と図11を用いて説明する。まず、レンズ状態制御部6から送出されるズーム値から撮像部1で利用するレンズの焦点距離を算出する。ここで、レンズ状態制御部6から送出されるズーム値は撮像部1に備えられた8ビットのエンコーダから出力される値であるものとし、その値とレンズの焦点距離が図10のテーブルのように求まっているものとする。すると、図10のテーブルを用い、テーブルに載っていない値については補間を行うことで、撮像部1で利用するレンズの焦点距離をレンズ状態制御部6から送出されるズーム値を用いて求めることができる。ただし、レンズ状態制御部6が直接焦点距離を出力することができる場合には、図10のようなテーブルを用いて焦点距離を算出する必要はない。
【0053】
以上のようにして求まった撮像部1で利用するレンズの焦点距離をfとして、撮像部1に備わる撮像面の横幅をxとすると、図11から撮像部1の左右方向の視野角ψは次の式で求めることができる。
【0054】
ψ=2arctan(x/2f)
同様に、撮像部1に備わる撮像面の高さをyとすると、図11から撮像部1の上下方向の視野角μは次の式で求めることができる。
【0055】
μ=2arctan(y/2f)
以上のように、姿勢測定部5から送出された姿勢情報とレンズ状態制御部6から送出されたレンズ状態情報から撮像部1で利用するレンズのレンズ中心の位置と撮像部1の視野角が求まり、したがって撮像部1の視野を求めることが可能である。この際、撮像部1の視野を求める方法として上記のような方法を用いたが、撮像部1の視野が求まる方法であれば上記のような方法に限らずどのような方法でもよい。
【0056】
ステップS6では空間管理部10が、姿勢測定部5から送り出された姿勢情報とレンズ状態制御部6から送り出されたレンズ状態情報および、データ部8の空間データにより空間モードを決定する。
【0057】
空間モードの決定方法としては、現在の空間モードが実写モードある場合、レンズのズーム値を参照し、レンズのズーム値が予め設定した設定値未満の場合はモードを変更しない。
【0058】
レンズのズーム値が予め設定した設定値(以下、例えば、設定値をズームの最大値と設定した場合について説明する)以上の場合は、視野の中央領域(表示部の中央領域)の空間領域に対応するデータをデータ部8から検索する。そして、データ部8に対応するデータが検索された場合は、空間モードをVR空間モードに変更する。
【0059】
なお、視野の中央領域の空間領域にデータが存在しない場合は、モードを変更せず、実写モードが維持される。また、現在の空間モードがVR空間モードである場合は、モードが解除されるまでモードを変更しない。
【0060】
ステップS7では、コンピュータ映像生成部7が、ステップS6で決定された空間モードに対応するデータをデータ部8から取得し、コンピュータ映像を生成する。生成した映像は映像合成部3に送られる。
【0061】
ステップS8では、ステップS6で決定された空間モードに応じて、映像合成部3において撮影映像取込部2から送り出された撮影映像と、コンピュータ映像生成部7から送り出されたコンピュータ映像が合成して、又はコンピュータ映像のみで映像を生成する。生成された映像は表示部9に送られる。
【0062】
ステップS9では映像合成部3から送り出されてきた映像情報を表示部9が表示する。その後ステップS10でシステムを終了するかどうかがチェックされ、システムを終了させる場合はステップS11でシステムを終了させ、終了させない場合にはステップS2に戻り、上述の処理を繰り返す。
【0063】
以上のように、本実施形態によれば、拡大表示装置においてレンズのズーム値が予め設定した設定値以上に達してしまった場合には、ズーム値をあげる操作で、注目されている対象物をコンピュータグラフィックス画像などに切り換えてさらに詳しく表示したり、対象物に関する情報を表示したり、対象物の中に入り込んでウォークスルーできるようにすることができる。
【0064】
即ち、ある対象物へ拡大装置が可能な範囲を越えてズームしていった場合、ズーム対象物をに不可してある情報を切り換えて表示したり、対象物の中に入り込んだようなVR空間を提示することができる。これにより、望遠鏡などのズーム行動にあらわれる使用者の要求である、対象物をもっと詳しく見たい、近くで見たい、覗き込みたいなどの要求を満たす映像を表示することができる。
【0065】
<変形例>
操作部を備え、本実施形態の合成装置の使用者からの入力を受け付ける。また、発音部を備え、使用者に音を提示する。また、合成された映像を記憶する合成映像記憶部と記憶映像出力部を備える。また、第1の実施形態において、VR空間モードにおけるVR空間を、ズーム対象物とは関連のないVR空間にしてもよい。また、WWW(World Wide Web)のホームページを表示しても良い。
【0066】
また、本実施形態の映像合成装置は、展望台等で望遠鏡として使用することができるだけでなく、たとえば博物館等に設置して、現実世界の展示物に重ねて仮想的な映像を見せるような情報表示端末としても用いることが可能である。
【0067】
また、本実施形態の映像合成装置は、当然のことながら展望台や博物館での利用に限られるものではなく、本実施形態の映像合成装置が有効に利用可能な全ての状況において用いることが可能である。
【0068】
本実施形態の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本実施形態を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0069】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0070】
【発明の効果】
本発明によれば、光学系の制御が設定値以上に達してしまった場合には、注目されている対象物をコンピュータグラフィックス画像などに切り換えて、使用者の対象物をもっと詳しく見たいという要求を満たすことができる。
【図面の簡単な説明】
【図1】本実施形態の第一実施形態による映像合成装置の概略構成を示すブロック図である。
【図2】第一実施形態における、映像合成装置の処理手順を説明するフローチャートである。
【図3】現実世界の建物と仮想のキャラクタの前後関係が表現されていない場合の図である。
【図4】現実世界の建物と仮想のキャラクタの前後関係が表現されている場合の図である。
【図5】現実世界の建物と仮想のキャラクタの接触関係が表現されている場合の図である。
【図6】現実世界のモデルを二次元のモデルとして表現した場合の図である。
【図7】パノラマ映像の一部分にα値を与える場合を説明する図である。
【図8】姿勢制御部から送られる姿勢情報から撮像部で利用するレンズのレンズ中心の位置を求める方法を説明する図である。
【図9】姿勢制御部から送られる姿勢情報から撮像部で利用するレンズのレンズ中心の位置を求める方法を説明する図である。
【図10】レンズ状態制御部から送られるレンズ状態情報から撮像部で利用するレンズの焦点距離を求める方法を説明する図である。
【図11】撮像部で利用するレンズの焦点距離からレンズの視野角を求める方法を説明する図である。
【図12】地図データから現実世界の三次元モデルを生成する方法を説明する図である。
【図13】地図データから現実世界の三次元モデルを生成する方法を説明する図である。
【図14】撮像部でパノラマ映像を撮影し、データ部に格納する場合を説明する図である。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus for switching between display of an image based on a real image captured by an imaging unit and display of an image based on computer graphics.
[0002]
[Prior art]
A telescope placed on an observatory, etc. captures the scenery from the observatory and presents it to the user by magnifying it using an optical device. However, conventional telescopes simply optically magnify and display the scenery. Since it is only a thing, there was a problem that only what actually exists in the real world could be presented. For example, a telescope cannot present information attached to a building in the real world (such as an address or the name of a building), and it is impossible to view a virtual character placed in the real world. is there. Also, when the zoom magnification of the telephoto reaches the limit, switch the target object to a computer graphics image to display it in more detail, or walk around the target object as a virtual world I could not. There are the following conventional examples for solving these problems.
[0003]
Japanese Patent No. 2833206 “Display Device for Prospecting” discloses a technique for superimposing virtual characters and images on a real scene viewed from a telescope. The apparatus disclosed here superimposes external scene light from the front of the apparatus and image display light from a surface on which virtual characters and images are displayed using a combiner composed of a half mirror or the like. Present to the user.
[0004]
[Problems to be solved by the invention]
A device (hereinafter referred to as an enlarged display device) for enlarging and seeing what is actually seen, such as a normal telescope or Japanese Patent Application Laid-Open No. 2000-125171 “Optical device”, has a limitation on the enlargement ratio. Therefore, when the zoom magnification reaches the limit, it cannot be magnified further. In other words, when the zoom value has reached the maximum, even if the user performs an operation to increase the zoom value because he wants to see more details, it is not possible to display more detailed information about the object.
[0005]
In this embodiment, when the control of the optical system of the photographing unit reaches a set value or more, the target object of interest is switched to a computer graphics image or the like, and the user's target object is viewed in more detail. The purpose is to be able to satisfy the demand.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the present invention has the following structure.
[0007]
The video composition device according to claim 1 of the present application is a video image composition device having a spatial mode for displaying an image based on a photographed image taken by an imaging unit and a spatial mode for displaying an image based on computer graphics. An imaging unit that captures an image of the real world through a lens and generates a photographed image; and a support unit that supports the imaging unit and includes a movable unit that allows a user to manually move the imaging unit. A posture measurement unit that measures a relative posture of the imaging unit and the support unit, a lens state control unit that controls the state of the lens, and a data unit that holds data for generating computer graphics, A space in which a spatial mode is set based on posture information from the posture measurement unit, lens state information from the lens state control unit, and data held in the data unit. And a real image generated by the imaging unit, a computer video generation unit that generates computer video using data held in the data unit based on the spatial mode set by the spatial management unit And a video generation unit that generates a video to be displayed from the computer video generated by the computer video generation unit, wherein the space management unit sets a preset value of a zoom value of a lens used in the imaging unit As described above, when computer graphics displayed in a specific area of the display unit are held in the data unit, a spatial mode for displaying an image based on the computer graphics is set. To do.
[0008]
The information processing method according to the claims 7, an information processing method that allows for display and display of the image which is based on computer graphics image was captured photographed image imaging section and Ace, enter the attitude information and zoom information of the imaging section, and determines whether or not the zoom value of the imaging section based on the zoom information is larger than the set value, it is displayed in a predetermined area of the captured image based on the posture information computer graphics determines whether Luke held in the data unit that, not the zoom value is greater than the established value, and computer graphics displayed in a predetermined area of the captured image is stored in the data section If you can generate computer images corresponding to the computer graphics, displays an image of the computer image said generated as the base And characterized in that.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
<First Embodiment>
The outline of the first embodiment is as follows.
[0010]
The video composition device is used as a telescope at an observation deck or the like, and as an information display terminal at a museum or the like. FIG. 1 is a block diagram showing a schematic configuration of a video composition apparatus according to the first embodiment.
[0011]
Reference numeral 1 denotes an image pickup unit, which includes, for example, a camera. The imaging unit 1 captures a real world such as an outdoor landscape or an indoor exhibit, and outputs the captured video as a video signal to the captured video capturing unit 2.
[0012]
Reference numeral 2 denotes a captured video capturing unit that converts a video signal output from the imaging unit 1 into a format suitable for the video synthesis unit 3 and sends the video signal to the video synthesis unit 3.
[0013]
Reference numeral 3 denotes a video composition unit, which is a composite image obtained by synthesizing the captured video from the captured video capture unit 2 and the computer video from the computer video generation unit 7 according to the space mode information extracted from the space management unit 10 or a computer. Only the video is sent to the display unit 9.
[0014]
A support unit 4 is installed on the floor or the like and supports the imaging unit 1. The support unit 4 has a movable part, and allows the user to manually rotate the imaging unit 1 in the left-right direction and the up-down direction manually. The support unit 4 may be fixed to a floor or the like, but may be moved on a rail or a carriage, for example.
[0015]
Reference numeral 5 denotes an attitude measurement unit that measures the relative attitude of the support unit 4 and the imaging unit 1. The attitude information of the imaging unit 1, that is, the vertical and horizontal rotation information of the imaging unit 1 is obtained from the space management unit 10. The data is sent to the space management unit 10 in response to a request or without a request from the space management unit 10. The attitude measurement unit 5 is composed of, for example, a mechanical encoder. The posture measurement unit 5 may have any configuration as long as it can measure the relative posture of the support unit and the imaging unit, and a gyroscope or an optical sensor, for example, can also be used.
[0016]
Reference numeral 6 denotes a lens state control unit which operates the lens state by an operation unit (not shown) or a control signal. The lens state control unit 6 includes, for example, a mechanical encoder or a stepping motor. In addition, the lens control unit 6 receives lens state information such as a zoom value and a focus value of a lens used in the imaging unit 1 in response to a request from the space management unit 10 or without a request from the space management unit 10. Send to 10. The zoom value / focus value are values output from the encoder or the like by the lens state control unit 6.
[0017]
Reference numeral 10 denotes a space management unit that extracts orientation information of the imaging unit 1 from the orientation measurement unit 5 to estimate a direction in which the imaging unit 1 is facing, and extracts lens state information from the lens state control unit 6 to extract the imaging unit 1. Is estimated and stored as camera state data. The space management unit 10 refers to the camera state data and the data related to the space of the data unit 8 to determine the space mode. The spatial mode is a live-action mode, a VR spatial mode, or the like.
[0018]
The live-action mode presents an actual image taken by the imaging unit 1 or an image obtained by synthesizing an image generated by computer graphics based on the actual image.
[0019]
The VR space mode is a mode that shifts from the actual shooting mode according to the zoom value, and presents an image based on a computer graphics image.
[0020]
According to the VR space mode, for example, the object of interest can be switched to a computer graphics image to display in more detail, information about the object can be displayed, or the object can be walked through by entering into the object. Can be.
[0021]
An example of switching the information level itself presented as an example of the VR space mode will be described.
[0022]
For example, if the object is a cloth, the zooming value can be used to show how the cloth is made of yarn, how the thread is made of fibers, and how the fibers are made of molecules. To do.
[0023]
This can be realized by providing a plurality of models having different resolutions (LOD: Level of Details) for one object and switching and displaying the models according to the viewpoint position or the like. That is, it can be realized by providing a plurality of models for one object and switching and displaying the models according to the zoom value. When switching models, the images can be switched smoothly by blending the images. When the information level itself is switched, the data unit 8 holds a plurality of models corresponding to the spatial position data and holds each model corresponding to the zoom value.
[0024]
As another example of the VR space mode, an example will be described in which an image as if walking through the object as a VR space is presented.
[0025]
For example, the camera viewpoint position of the virtual camera is set in the vicinity of the object, the zoom-in operation corresponds to the forward movement, and the zoom-out operation corresponds to the backward movement so that the camera can walk through the object. When the VR space mode is canceled, for example, an exit from the VR space is prepared in advance, and a condition is set in advance such as when exiting from the VR space. When presenting an image that is walking through, the data unit 8 holds a data group for presenting an image that is walking through corresponding to the spatial position data.
[0026]
The space management unit 10 determines a space mode from the lens state information. Then, the determined spatial mode and camera state data are sent to the computer video generation unit 7 in response to a request from the computer video generation unit 7 or without a request from the display mode determination unit. Further, the determined spatial mode is sent to the video composition unit 3 in response to a request from the video composition unit 3 or without a request from the video composition unit 3.
[0027]
Reference numeral 7 denotes a computer video generation unit which extracts necessary data from the data unit 8 based on the camera state data and the space mode from the space management unit 10 and generates a computer video. The generated computer image is sent to the image composition unit 3.
[0028]
Reference numeral 8 denotes a data portion, which is composed of, for example, a hard disk and possesses data to be transferred to the computer video generation portion 7.
[0029]
Data stored in the data section 8 includes text information, panoramic video, three-dimensional CG (computer graphics) data for generating a computer graphics image to be combined with a live-action image in the live-action mode, and presentation in the VR space mode. The above-described data for generating a computer graphics image is stored. Then, the data unit 8 sends appropriate data to the computer video generation unit 7 in response to a request from the computer video generation unit 7. For example, when the computer image generation unit 7 requests 3D CG data to be combined with the visual field of the imaging unit 1, the data unit 8 selects the 3D data included in the visual field of the imaging unit 1 from the stored 3D CG data. CG data is extracted and transmitted. The data unit 8 is not limited to a hard disk, and any medium that can hold data may be used. For example, the data unit 8 may be composed of a tape or a memory.
[0030]
Reference numeral 9 denotes a display unit which displays the composite video signal sent out from the video composition unit 3. At this time, if the display unit 9 moves integrally with the imaging unit 1, it is intuitive and easy for the user to look into the telescope and the like, but this is not always necessary. 1 may be movable and the display unit 9 may be fixed. In addition, a plurality of display units 9 may be provided, and in this case, a large number of people can see the synthesized video.
[0031]
The control of the present embodiment having the above configuration will be described with reference to FIG. FIG. 2 is a flowchart for explaining a processing procedure in the video composition apparatus of this embodiment.
[0032]
In step S0, data preparation is performed. In step S0, the above-described data to be stored in the data portion 8 is prepared. Each data needs to correspond in advance with the position in the real world. For example, in the case of a three-dimensional CG, it is necessary to specify which position in the real world corresponds to the position. In the case of a panoramic video, it is necessary to specify which part of the panoramic video corresponds to which part of the real world.
[0033]
When a panoramic image is stored in the data unit 8, for example, a panoramic image taken in a different time zone or place can be considered as the stored panoramic image. By storing panoramic images taken in different time zones in advance, it is possible to reproduce a clear view from the observatory even when the observatory is overcast. Further, by storing panoramic images taken at different places, it is possible to reproduce the panoramic pictures taken at completely different places as if they were there.
[0034]
The panoramic video stored in the data unit 8 is captured by the imaging unit 1, for example. In this case, as shown in FIG. 14, the video captured by the imaging unit 10 is captured by the captured video capture unit 11 and the captured video is sent to the data unit 8. The panoramic video can be captured by the imaging unit 1 and stored in the data unit 8 as described above, but any method may be used as long as the panoramic video can be stored in the data unit 8.
[0035]
When a panoramic video is stored in the data portion 8, the panoramic video may include a blank portion. As a method of expressing a blank in a panoramic video, for example, there is a method in which an α value representing transparency is given to each pixel of the panoramic video and an α value of a blank pixel is set to zero. In the captured panoramic video, if the α value of the portion that does not require the synthesis of the panoramic video is set to 0, when the video synthesis unit 3 synthesizes the captured video and the panoramic video, the α value becomes 0. By synthesizing the photographic video and synthesizing the panoramic video to the portion where the α value is not 0, it is possible to display the panoramic video and the photographic video in one synthesized video. At this time, if all the α values of each pixel of the panoramic video are set to 1, a synthesized video including only the panoramic video without including the photographed video is synthesized at the time of video synthesis.
[0036]
A method for giving an α value to each pixel of the panoramic video will be described with reference to FIG. In step S0, a panoramic video I is shot by shooting a surrounding scene from the observation room, and this panoramic video I includes an indoor video R and an outdoor video P. When the α value of the indoor video R is set to 0 and the α value of the outdoor video P is set to 1, when the video synthesis unit 3 performs the video synthesis, the shot video is synthesized for the indoor portion, and the outdoor portion is Can synthesize outdoor video P. This makes it possible to see a real-world captured image when looking at the room and a pre-captured panoramic image when looking outside.
[0037]
Here, a method using the α value is given as a method for expressing a blank portion in a panoramic video, but this method may be any method as long as it can express a blank portion in a panoramic video.
[0038]
Further, the panoramic video data stored here may be, for example, data obtained by rendering a 3D CG as a panoramic video in advance. In general, when generating 3D CG in real time, the accuracy of 3D CG is limited due to limitations of drawing ability, etc., but using this method, 3D CG models can be refined without limitation. In addition, it is possible to further improve the quality of 3D CG images. At this time, if the α value indicating the transparency is given to each pixel of the rendered panoramic image, and the α value of the portion where the CG is not drawn is set to 0 in the panoramic image, the image composition unit 3 causes the captured image and the computer image to be displayed. When synthesizing the three-dimensional CG rendered in advance in the photographed video, it is possible to synthesize the photographed video for the portion where the α value is 0.
[0039]
When storing a three-dimensional CG in the data unit 8, for example, a virtual character can be considered as the stored three-dimensional CG. Here, the 3D CG data stored in the data unit 8 includes not only geometric information such as position, size, and shape, but also data such as constraint relations and motion. For example, by storing information on the shape and movement of the virtual character in the data unit 8, it becomes possible to make the virtual character appear in the real world.
[0040]
Further, the depth information of the real world may be input to the data unit 8 in advance and used. By having and using the depth information of the real world in advance, it is possible to synthesize video that correctly reflects the context of the real world video and computer video. For example, when you want to move a 3D CG character between a building and a building that does not have real-world depth information, the entire body of the 3D CG character will be displayed in front of the building. As shown in FIG. 3, the relationship between the building and the character is not correctly reflected. On the other hand, if you have real-world depth information, compare the depth to the character and the depth to the building, and do not generate computer images of the part where the depth to the character is greater than the depth of the building. Thus, as shown in FIG. 4, it is possible to generate a composite image that correctly reflects the context of the building and the character.
[0041]
Providing depth information in the real world can be realized, for example, by providing a three-dimensional model in the real world. When the depth information of the real world is given as a three-dimensional model, it is possible to express a contact relationship such as placing a three-dimensional CG character on a building as shown in FIG. A three-dimensional model of the real world can be generated from map data, for example.
[0042]
Here, a method for generating a three-dimensional model of the real world from map data will be described with reference to FIGS. Assuming that there is a map as shown in FIG. 12, buildings E, F, G, and H are drawn in the map, and height information of the buildings E, F, G, and H is obtained in some way. Shall. Here, if an XYZ coordinate system as shown in FIG. 13 is defined with the lower left corner of the map as the origin and 1 m as one unit, the building H can be expressed as a rectangular parallelepiped with height 10, width 15, and depth 15. Other buildings E, F, and G can be expressed in the same manner.
[0043]
As described above, a three-dimensional model of the real world can be generated from the map data. Although the coordinate system as shown in FIG. 13 is defined here, it is needless to say that a three-dimensional model can be generated from map data regardless of the coordinate system. Further, the method of providing a 3D model in the real world is not limited to the above method, and any method may be used as long as it can construct a 3D model of the real world.
[0044]
Further, the depth information in the real world is not necessarily a three-dimensional model, and may be a two-dimensional model as shown in FIG. 6, for example. When observing from one viewpoint, it is not always necessary to have a three-dimensional model of the real world, and the real world depth data obtained by a range scanner or the like may be used. The method of providing depth information in the real world is not limited to the above method, and for example, a method using a distance image may be used, and any method may be used as long as the depth to the real world can be understood.
[0045]
After data preparation, the system is started in step S1. In step S2, a video is acquired from the imaging unit 1, and the acquired captured video is sent to the captured video capturing unit 2 as an NTSC video signal, for example. At this time, the captured video sent from the imaging unit 1 to the captured video capturing unit 2 is not limited to the NTSC video signal, and any video can be used as long as the video can be expressed.
[0046]
The captured video captured by the imaging unit 1 is converted into an appropriate format by the captured video capturing unit 2 and sent to the video synthesis unit 3. The captured video capturing unit 2 converts, for example, an NTSC video signal sent from the imaging unit 1 into digital data and sends it to the video synthesis unit 3. The video sent out by the imaging unit 1 is not limited to the NTSC video signal and represents a video. The captured video that the captured video capture unit 2 sends to the video synthesis unit 3 is not limited to digital data, and any video can be processed as long as the video synthesis unit 3 can process the video.
[0047]
In step S <b> 3, the posture measurement unit 5 detects the posture of the imaging unit 1, and the detected posture information is sent to the space management unit 10. In step S <b> 4, the lens state control unit 6 detects lens state information such as a zoom value and a focus value of the lens used in the imaging unit 1, and the detected lens state information is sent to the space management unit 10.
[0048]
In step S <b> 5, the space management unit 10 estimates the field of view of the imaging unit 1 from the posture information sent from the posture measurement unit 5 and the lens state information sent from the lens state control unit 6. Get the data of the range included in the field of view.
[0049]
Here, there are various methods for obtaining the field of view of the imaging unit 1 from the posture information sent from the posture measuring unit 5 and the lens state information sent from the lens state control unit 6, but here one of them is used. The method is shown. Generally, since the field of view can be obtained by obtaining the position of the lens center of the lens used in the imaging unit 1 and the viewing angle of the imaging unit 1, first, from the posture information sent from the posture measuring unit 5, A method for obtaining the position of the lens center of the lens used in the imaging unit 1 will be described, and then a method for obtaining the viewing angle of the imaging unit 1 from the lens state information sent from the lens state control unit 6 will be described.
[0050]
A method for obtaining the position of the lens center of the lens used in the imaging unit 1 from the posture information sent from the posture measurement unit 5 will be described with reference to FIG. 10 and FIG. FIG. 8 is an external view of the video composition apparatus of the present embodiment. The imaging unit 1 and the display unit 9 are integrally supported by the support unit 4 and can be rotated in the vertical direction and the horizontal direction around the rotation center O. Since the support portion 4 is fixed to the floor, the positional relationship between the floor and the rotation center O is unchanged. Therefore, if the relative positional relationship between the rotation center O and the lens center LO is known, the position of the lens center LO with respect to the real world is uniquely determined.
[0051]
Here, the XYZ coordinate system with the rotation center O as the origin is defined as shown in the figure, and the left and right rotation angles φ and the upper and lower rotation angles θ are defined as shown in FIG. When the distance from the lens center LO to the rotation center O of the lens used in the imaging unit 1 is expressed as d, the coordinate of the lens center LO is x = −d sin θ sin φ.
y = dsin θ cos φ
z = d cos θ
Represented as: In this example, the XYZ coordinate system is defined as shown in FIG. 9. However, regardless of how the coordinate system is defined and how the vertical and horizontal rotation angles are defined, the horizontal rotation angle and the vertical direction are defined. It goes without saying that the position of the lens center of the lens used in the imaging unit 1 can be obtained from the rotation angle.
[0052]
A method for obtaining the viewing angle of the imaging unit 1 from the lens state information sent from the lens state control unit 6 will be described with reference to FIGS. First, the focal length of the lens used in the imaging unit 1 is calculated from the zoom value sent from the lens state control unit 6. Here, it is assumed that the zoom value sent from the lens state control unit 6 is a value outputted from an 8-bit encoder provided in the imaging unit 1, and the value and the focal length of the lens are as shown in the table of FIG. It is assumed that Then, by using the table of FIG. 10 and interpolating values not on the table, the focal length of the lens used in the imaging unit 1 is obtained using the zoom value sent from the lens state control unit 6. Can do. However, when the lens state control unit 6 can directly output the focal length, it is not necessary to calculate the focal length using a table as shown in FIG.
[0053]
Assuming that the focal length of the lens used in the imaging unit 1 obtained as described above is f and the horizontal width of the imaging surface provided in the imaging unit 1 is x, the viewing angle ψ in the horizontal direction of the imaging unit 1 is It can be calculated by the following formula.
[0054]
ψ = 2 arctan (x / 2f)
Similarly, assuming that the height of the imaging surface provided in the imaging unit 1 is y, the viewing angle μ in the vertical direction of the imaging unit 1 can be obtained from the following equation from FIG.
[0055]
μ = 2 arctan (y / 2f)
As described above, the position of the lens center of the lens used in the image pickup unit 1 and the viewing angle of the image pickup unit 1 are obtained from the posture information sent from the posture measurement unit 5 and the lens state information sent from the lens state control unit 6. Therefore, the field of view of the imaging unit 1 can be obtained. At this time, the method as described above is used as a method for obtaining the field of view of the imaging unit 1, but any method may be used as long as the method allows the field of view of the imaging unit 1 to be obtained.
[0056]
In step S <b> 6, the space management unit 10 determines the space mode based on the posture information sent from the posture measurement unit 5, the lens state information sent from the lens state control unit 6, and the spatial data in the data unit 8.
[0057]
As a determination method of the spatial mode, when the current spatial mode is the real-shooting mode, the zoom value of the lens is referred to, and when the zoom value of the lens is less than a preset value, the mode is not changed.
[0058]
When the zoom value of the lens is equal to or larger than a preset setting value (hereinafter, for example, the case where the setting value is set as the maximum zoom value), the space area of the central field of view (the central area of the display unit) Search corresponding to Lud over data from the data section 8. Then, when Lud over data to correspond to the data portion 8 is retrieved, to change the spatial mode to VR spatial mode.
[0059]
Note that data in the space area of the central region of the field of view if not, does not change the mode, photographed mode is maintained. If the current space mode is the VR space mode, the mode is not changed until the mode is canceled.
[0060]
In step S7, the computer video generation unit 7 acquires data corresponding to the spatial mode determined in step S6 from the data unit 8, and generates a computer video. The generated video is sent to the video composition unit 3.
[0061]
In step S8, in accordance with the spatial mode determined in step S6, the video image sent out from the shot video capturing unit 2 and the computer video sent out from the computer video generation unit 7 are synthesized in the video synthesis unit 3. Alternatively, the video is generated only from the computer video. The generated video is sent to the display unit 9.
[0062]
In step S <b> 9, the display unit 9 displays the video information sent from the video composition unit 3. Thereafter, in step S10, it is checked whether or not to end the system. If the system is to be ended, the system is ended in step S11. If not, the process returns to step S2, and the above-described processing is repeated.
[0063]
As described above, according to the present embodiment, when the zoom value of the lens reaches a preset value or more in the magnifying display device, the target object is noticed by increasing the zoom value. By switching to a computer graphics image or the like, it is possible to display in more detail, display information about the object, or walk into the object.
[0064]
In other words, when zooming beyond a possible range of the enlargement device to a certain object, the VR space is such that the information that is not possible for the zoom object is switched and displayed, or the object enters the object. Can be presented. Accordingly, it is possible to display an image that satisfies the user's request that appears in the zooming action of a telescope or the like, that the user wants to see the object in more detail, wants to see it closer, or wants to look into it.
[0065]
<Modification>
An operation unit is provided and receives input from a user of the synthesis apparatus of the present embodiment. It also has a sound generator and presents the sound to the user. In addition, a composite video storage unit that stores the composited video and a storage video output unit are provided. In the first embodiment, the VR space in the VR space mode may be a VR space that is not related to the zoom target. A home page of WWW (World Wide Web) may be displayed.
[0066]
In addition, the video composition device according to the present embodiment can be used as a telescope at an observation deck or the like, but is also installed in a museum or the like, for example, to display a virtual video superimposed on a real world exhibit. It can also be used as a display terminal.
[0067]
In addition, the video composition device of the present embodiment is not limited to use in an observation deck or a museum, and can be used in all situations where the video composition device of the present embodiment can be used effectively. It is.
[0068]
The object of the present embodiment is to supply a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (or CPU or MPU of the system or apparatus). ) Is also achieved by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present embodiment. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
[0069]
Further, after the program code read from the storage medium is written to a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the card or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
[0070]
【The invention's effect】
According to the present invention, when the control of the optical system has reached a set value or more, it is desired to switch the target object to a computer graphics image or the like so as to see the user's target object in more detail. Can meet the demand.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a video composition device according to a first embodiment of the present embodiment.
FIG. 2 is a flowchart illustrating a processing procedure of the video composition device in the first embodiment.
FIG. 3 is a diagram in a case where the context of a real-world building and a virtual character is not expressed.
FIG. 4 is a diagram in the case where the context of a real-world building and a virtual character is expressed.
FIG. 5 is a diagram in a case where a contact relationship between a real-world building and a virtual character is expressed.
FIG. 6 is a diagram when a real-world model is expressed as a two-dimensional model.
FIG. 7 is a diagram illustrating a case where an α value is given to a part of a panoramic video.
FIG. 8 is a diagram illustrating a method for obtaining the position of the lens center of a lens used in the imaging unit from posture information sent from the posture control unit.
FIG. 9 is a diagram illustrating a method for obtaining the position of the lens center of a lens used in the imaging unit from posture information sent from the posture control unit.
FIG. 10 is a diagram illustrating a method for obtaining a focal length of a lens used in an imaging unit from lens state information sent from a lens state control unit.
FIG. 11 is a diagram illustrating a method for obtaining a viewing angle of a lens from a focal length of the lens used in an imaging unit.
FIG. 12 is a diagram illustrating a method of generating a real-world three-dimensional model from map data.
FIG. 13 is a diagram for explaining a method of generating a real-world three-dimensional model from map data.
FIG. 14 is a diagram for describing a case where a panoramic video is captured by an imaging unit and stored in a data unit.

Claims (8)

撮像部で撮影された実写画像をベースとした画像を表示する空間モードおよびコンピュータグラフィックスをベースとした画像を表示する空間モードを有する映像画合成装置であって、
現実世界をレンズを介して撮影し実写画像を生成する撮像部と、
前記撮像部を使用者が手動で動かすことを可能とする可動部を有する、前記撮像部を支持する支持部と、
前記撮像部と前記支持部の相対的な姿勢を測定する姿勢測定部と、
前記レンズの状態を制御するレンズ状態制御部と、
コンピュータグラフィックスを生成するためのデータを保持するデータ部と、
前記姿勢測定部からの姿勢情報と前記レンズ状態制御部からのレンズ状態情報と前記データ部に保持されているデータをもとに空間モードを設定する空間管理部と、
前記空間管理部で設定された空間モードに基づいて、前記データ部に保持されているデータを用いてコンピュータ映像を生成するコンピュータ映像生成部と、
前記映像生成部で生成された映像を表示する表示部と、
前記撮像部で生成された実写画像と前記コンピュータ映像生成部で生成したコンピュータ映像とから表示すべき映像を生成する映像生成部とを有し、
前記空間管理部は、前記撮像部で利用するレンズのズーム値が予め設定した設定値以上、かつ前記表示部の特定エリア内に表示されるコンピュータグラフィックスが前記データ部に保持されている場合に、前記コンピュータグラフィックスをベースとした画像を表示する空間モードを設定することを特徴とする映像合成装置。
A video image synthesizing device having a spatial mode for displaying an image based on a photographed image taken by an imaging unit and a spatial mode for displaying an image based on computer graphics,
An imaging unit that shoots the real world through a lens and generates a real image;
A support unit that supports the imaging unit, and has a movable unit that allows a user to manually move the imaging unit;
A posture measuring unit for measuring a relative posture of the imaging unit and the support unit;
A lens state control unit for controlling the state of the lens;
A data portion for holding data for generating computer graphics;
A space management unit that sets a spatial mode based on posture information from the posture measurement unit, lens state information from the lens state control unit, and data held in the data unit;
A computer video generation unit that generates a computer video using data held in the data unit based on a spatial mode set in the space management unit;
A display unit for displaying the video generated by the video generation unit;
A video generation unit that generates a video to be displayed from a real image generated by the imaging unit and a computer video generated by the computer video generation unit;
The space management unit is configured such that when the zoom value of a lens used in the imaging unit is equal to or larger than a preset setting value and computer graphics displayed in a specific area of the display unit are held in the data unit. A video composition apparatus which sets a spatial mode for displaying an image based on the computer graphics.
前記支持部は、さらに前記映像生成部で生成された映像を表示する表示部と前記撮像部が一体的に支持することを特徴とする請求項1に記載の映像合成装置。  The video synthesizing apparatus according to claim 1, wherein the support unit further supports the display unit that displays the video generated by the video generation unit and the imaging unit integrally. 前記設定値はズーム値の最大値であることを特徴とする請求項1に記載の映像合成装置。  The video composition apparatus according to claim 1, wherein the set value is a maximum value of a zoom value. 前記特定エリアは、前記表示部の中央であることを特徴とする請求項2に記載の映像合成装置。  The video composition apparatus according to claim 2, wherein the specific area is a center of the display unit. 前記支持部は固定されていることを特徴とする請求項1乃至4の何れか1項に記載の映像合成装置。  The video composition device according to claim 1, wherein the support portion is fixed. 前記支持部が移動可能であることを特徴とする請求項1乃至4の何れか1項に記載の映像合成装置。  The video composition apparatus according to claim 1, wherein the support portion is movable. 撮像部で撮影された実写画像をースとした画像の表示およびコンピュータグラフィックスをベースとした画像の表示を可能にする情報処理方法であって、
撮像部の姿勢情報およびズーム情報を入力し、
前記ズーム情報に基づき前記撮像部のズーム値が設定値より大きいか否かを判定し、
前記姿勢情報に基づき撮影画像の所定領域に表示されるコンピュータグラフィックスがデータ部に保持されているか否かを判定し、
前記ズーム値が前記設置値より大きく、かつ前記撮影画像の所定領域に表示されるコンピュータグラフィックスがデータ部に保持されている場合は、当該コンピュータグラフィックスに対応するコンピュータ映像を生成し、
前記生成されたコンピュータ映像をベースとして画像を表示させることを特徴とする情報処理方法。
An information processing method for enabling display and display of the image which is based on computer graphics images and photographed base over scan the photographed image by the imaging unit,
Input the posture information and zoom information of the imaging unit,
It is determined whether the zoom value of the imaging unit is larger than a set value based on the zoom information,
It is determined whether or not computer graphics displayed in a predetermined area of the captured image based on the posture information is held in the data portion,
If the zoom value is larger than the installation value and computer graphics displayed in a predetermined area of the photographed image are held in the data portion, a computer image corresponding to the computer graphics is generated,
An information processing method for displaying an image based on the generated computer video.
請求項7に記載の情報処理方法をコンピュータで実現するためのコンピュータプログラム。  A computer program for realizing the information processing method according to claim 7 on a computer.
JP2001334710A 2001-10-31 2001-10-31 Video composition apparatus and information processing method Expired - Fee Related JP4124995B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001334710A JP4124995B2 (en) 2001-10-31 2001-10-31 Video composition apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001334710A JP4124995B2 (en) 2001-10-31 2001-10-31 Video composition apparatus and information processing method

Publications (2)

Publication Number Publication Date
JP2003143478A JP2003143478A (en) 2003-05-16
JP4124995B2 true JP4124995B2 (en) 2008-07-23

Family

ID=19149801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001334710A Expired - Fee Related JP4124995B2 (en) 2001-10-31 2001-10-31 Video composition apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP4124995B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5532748B2 (en) * 2009-08-25 2014-06-25 株式会社リコー Imaging device
JP6115673B2 (en) * 2016-04-14 2017-04-19 株式会社リコー Apparatus and program
US20180255285A1 (en) * 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
JP6275310B1 (en) * 2017-05-26 2018-02-07 株式会社テクテック Augmented reality display system, program and method
JP7417827B2 (en) * 2020-08-24 2024-01-19 株式会社Psychic VR Lab Image editing method, image display method, image editing system, and image editing program

Also Published As

Publication number Publication date
JP2003143478A (en) 2003-05-16

Similar Documents

Publication Publication Date Title
JP4072330B2 (en) Display device and information processing method
JP4115117B2 (en) Information processing apparatus and method
JP4262014B2 (en) Image photographing apparatus and image processing method
JP4642723B2 (en) Image generating apparatus and image generating method
US20110243388A1 (en) Image display apparatus, image display method, and program
JP2016062486A (en) Image generation device and image generation method
JP2002503893A (en) Virtual reality camera
JP7182920B2 (en) Image processing device, image processing method and program
JP2003187261A (en) Device and method for generating three-dimensional image, three-dimensional image processing apparatus, three-dimensional image photographing display system, three-dimensional image processing method and storage medium
JPH10155109A (en) Image pickup method, device and storage medium
JP2019145059A (en) Information processing unit, information processing system, information processing method and program
JP5253300B2 (en) Display control device, display device control method, program, and storage medium
JP2003134375A (en) Image pickup system
JP2010034652A (en) Multi-azimuth camera mounted mobile terminal apparatus
JP4124995B2 (en) Video composition apparatus and information processing method
JP2003143477A (en) Image compositing device and method
JP5448739B2 (en) Image reproducing apparatus, imaging apparatus, and image reproducing method
JP2009258005A (en) Three-dimensional measuring device and three-dimensional measuring method
JP2019101563A (en) Information processing apparatus, information processing system, information processing method, and program
JP4046973B2 (en) Information processing method and image mixing apparatus
JP2001057652A (en) Image input device and image input method
JP4266736B2 (en) Image processing method and apparatus
JP6685814B2 (en) Imaging device and control method thereof
JP5509986B2 (en) Image processing apparatus, image processing system, and image processing program
JP4262013B2 (en) Image processing method and image generation apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080415

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080507

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140516

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees