JP4046973B2 - Information processing method and image mixing apparatus - Google Patents

Information processing method and image mixing apparatus Download PDF

Info

Publication number
JP4046973B2
JP4046973B2 JP2001334709A JP2001334709A JP4046973B2 JP 4046973 B2 JP4046973 B2 JP 4046973B2 JP 2001334709 A JP2001334709 A JP 2001334709A JP 2001334709 A JP2001334709 A JP 2001334709A JP 4046973 B2 JP4046973 B2 JP 4046973B2
Authority
JP
Japan
Prior art keywords
image
unit
captured
mixing
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001334709A
Other languages
Japanese (ja)
Other versions
JP2003141523A (en
Inventor
まほろ 穴吹
剛 黒木
英太 小野
雅博 鈴木
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001334709A priority Critical patent/JP4046973B2/en
Publication of JP2003141523A publication Critical patent/JP2003141523A/en
Application granted granted Critical
Publication of JP4046973B2 publication Critical patent/JP4046973B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、撮影部で撮影された撮影画像に、予め保持されているパノラマ画像データから生成された画像を混合するものに関する。
【0002】
【従来の技術】
展望台等の見晴らしのよい場所において、目の前に広がる風景を眺めることがある。このとき、その風景をより明瞭に観察するための装置として、目の前の風景を光学的に拡大して提示する望遠鏡がある。
【0003】
また、カメラなどで現実世界をリアルタイムに撮影し、この撮影画像を介して現実世界を観察する装置も存在し、これを望遠鏡に応用した装置も、例えば特開2001−94971「光学装置」に開示されている。
【0004】
【発明が解決しようとする課題】
屋外の風景を眺める際の課題として、装置を利用する時の天候や時間帯によっては、現実世界を明瞭に観察できないという点がある。例えば高層ビルの屋上などにある展望鏡を使って周囲を眺める場合、曇天時は雲や靄によって風景中の建物が隠れてしまうといったことが起こりうる。また、夜になってしまえば、あたりは暗くなり、風景の観察はできない。こうした問題に対し、例えば特開2001−94971「光学装置」に開示された装置では、時間や季節などが変化したときに得られる複数の撮影画像を記憶しておき、複数の撮影画像から任意の画像を選択し、撮影中の画像の代わりに表示している。これは、その場所から見える風景の明瞭な観察を実現していると言える。
【0005】
しかしこの方法で観察できるのはまったく別の時刻における風景であり、目の前の風景を明瞭に観察することは実現していない。
【0006】
また、従来、カメラを内蔵したHMD(ヘッドマウントディスプレイ)を頭部に装着して頭部の動きに追従させて現実の風景とコンピュータ画像を合成させる装置がある。この装置を使うと、目の前の風景に基づく景観シミュレーションが実現される。
【0007】
この場合、現実の風景の上にコンピュータ画像を重ねて描画する方法が一般的である。すると、観察画面で比較的大きな領域を占めるコンピュータ画像を利用する場合などは現実の風景が見える部分が少なくなり、現実の風景とコンピュータ画像との位置関係が把握しにくいという課題が発生する。
【0008】
本発明は以上の点を鑑みてなされたものであり、撮影部で撮影した現実世界の撮影画像に生成画像を混合することにより、表示画像を明瞭化することを目的としている。
【0009】
【課題を解決するための手段】
上記目的を達成するために、本発明は以下の構成を有する。
【0010】
本願請求項1の発明は、撮影部で撮影された撮影画像に、予め保持されているパノラマ画像データから生成された画像を混合する情報処理方法であって、撮影部で撮影された撮影画像および該撮影部の姿勢情報を入力し、他時刻に撮影された撮影画像に基づくパノラマ画像データを保持し、前記撮影部の姿勢情報に基づき、前記撮影画像に対応する画像を前記パノラマ画像データから生成し、前記撮影画像を解析し、混合条件を求め、前記混合条件を用いて、前記生成された画像を前記撮影画像に混合することを特徴とする。
【0011】
本願請求項8の発明は、撮影部で撮影された撮影画像に、予め保持されているデータから生成された画像を混合する情報処理方法であって、撮影部で撮影された撮影画像および該撮影部の姿勢情報を入力し、前記撮影部の姿勢情報に基づき、予め保持されているデータから前記撮影画像に対応する画像を生成し、前記撮影画像の明るさを解析し、混合条件を求め、前記混合条件を用いて、前記生成された画像を前記撮影画像に混合することを特徴とする。
【0012】
本願請求項12の発明は、現実世界を撮影する撮影手段と、前記撮影部の姿勢を測定する姿勢測定手段と、前記撮影部の姿勢情報に基づき、予め保持されているデータから前記撮影画像に対応する画像を生成する生成手段と、前記撮影画像の明るさを解析し、混合条件を求める手段と、前記混合条件を用いて、前記生成された画像を前記撮影画像に混合する混合手段とを有するとを特徴とする。
【0013】
【発明の実施の形態】
以下、添付の図面を参照して本発明の好適な実施形態について説明する。
【0014】
<第一の実施形態>
第一の実施形態の概要は次のとおりである。図1は本発明の第一実施形態による画像混合装置の概略構成を示すブロック図である。
【0015】
1は撮像部であり、例えばカメラからなる。撮像部1は屋外の風景などの現実世界を撮影し、この撮影画像を画像信号として撮影画像取込部2に出力する。2は撮影画像取込部であり、撮像部1から出た画像信号を画像混合部3に適した形式に変換して画像混合部3に送出する。3は画像混合部であり、撮影画像取込部2からの取込画像と混合画像生成部7からの生成画像を混合して表示部9に送出する。
【0016】
4は支持部であり、床等に設置され、撮像部1を支える。支持部4は回転可動部分を持ち、撮像部1を使用者が手動で左右方向および上下方向に自由に回転させることを可能にする。支持部4は床等に固定されてもよいが、たとえばレールや台車の上に載せて移動できるようにしてもよい。
【0017】
5は姿勢測定部であり、撮像部1の姿勢情報、すなわち撮像部1の上下方向および左右方向の回転情報を混合画像生成部7からの要求に応じて、又は混合画像生成部7からの要求なしに混合画像生成部7に送出する。姿勢測定部5は、例えば機械式のエンコーダなどから構成される。また、他に例えばジャイロセンサや光学式のセンサを利用することが考えられる。また、複数のセンサ機器を組み合わせたものでも良い。
【0018】
6はレンズ状態制御部であり、撮像部1で利用するレンズのズーム値やフォーカス値といったレンズ状態情報を混合画像生成部7からの要求に応じて、又は混合画像生成部7からの要求なしに混合画像生成部7に送出する。ここで、ズーム値・フォーカス値とは、レンズ状態制御部6でエンコーダ等により出力された値であり、たとえばレンズ状態制御部6に8ビットのエンコーダが備えられている場合、出力される値は1〜256の範囲の値となる。レンズ状態制御部6はたとえばマイクロコンピュータを備え、エンコーダ等により出力された値を用いてレンズの焦点距離等を計算し、計算した値をレンズ状態情報として出力してもよい。また、レンズ状態制御部6は図示しない制御部や制御信号によりレンズの状態を操作する。レンズ状態制御部6は、例えば機械式のエンコーダやステッピングモータからなる。
【0019】
7は混合画像生成部であり、姿勢測定部5から撮像部1の姿勢情報を取り出して撮像部1が向いている水平方向角度及び上下方向角度を推定し、またレンズ状態制御部6からレンズ状態情報を取り出して撮像部1の画角を推定する。撮像部1の向いている水平方向角度及び上下方向角度と画角が推定できれば撮像部1の視野が求まるため、混合画像生成部7はデータ部8から撮像部1の視野に対応するデータを取り出す。取り出されたデータは画像混合部3に送られる。
【0020】
8はデータ部であり、例えばハードディスクから構成され、混合画像生成部7に引き渡す生成画像を保持する。データ部8に格納されるデータは、例えばテキストデータや三次元CG(コンピュータグラフィックス)データ、二次元CG画像、実写パノラマ画像である。
【0021】
データ部8は混合画像生成部7からの要求に応じて、適切なデータを混合画像生成部3に送出する。例えば混合画像生成部3が撮像部1の視野に混合する三次元CGデータを要求してきた時に、データ部8は格納されている三次元CGデータの中から撮像部1の視野に含まれる三次元CGデータを取り出して送出する。また例えば、混合画像生成部3が撮像部1の視野に混合する実写パノラマを要求してきた時には、その要求が発生した瞬間の撮像部1と同じ姿勢で撮影されるであろう画像に近い画像を含む実写パノラマ画像を取り出して送出する。なお、データ部8はハードディスクに限らず、データを保持することができる媒体であれば何でもよく、たとえばテープやメモリなどで構成してもよい。
【0022】
9は表示部であり、画像混合部3から送出された画像信号を表示する。この際、表示部9は撮像部1に連動して動くものとすると使用者にとっては直に望遠鏡などを覗き込むかのように直感的で理解しやすいが、必ずしもその必要はなく、例えば撮像部1が可動で表示部9が固定されるという構成でもよい。また、この表示部9は複数備えられてもよく、その場合は混合画像を多数の人が見ることが可能になる。
【0023】
以上の様な構成を備えた本実施形態の制御について、以下説明する。図2は本発明の画像混合装置における処理の手順を説明するフローチャートである。
【0024】
ステップS0では、データ部8に格納するデータを準備する。このデータは、例えば撮像部1を使って本装置利用時よりも前の時刻t(=t1、t2、・・・)に撮影した画像をつなぎ合わせた実写パノラマ画像である。この場合、図10のように、撮像部1で撮影した画像を撮影画像取込部2で取り込み、データ部8に撮影画像を送ることになる。パノラマ画像はこのように撮像部1で撮影し、それをデータ部8に格納することができるが、データ部8にパノラマ画像を格納できる方法であればこれに限らずどのような方法でもよい。実写パノラマ画像を作成するために、撮像部1を使って時刻tに撮影した画像を、以下では元画像と呼ぶ。
【0025】
この実写パノラマ画像を構成する画素のうち、元画像ではある決められた列、例えば左から1列目、の画素であったものには、その画素が撮影されたときの撮像部1の水平方向角度が対応付けられている。同様に、この実写パノラマ画像を構成する画素のうち、元画像ではある決められた行、例えば上から1行目、の画素であったものには、その画素が撮影されたときの撮像部1の上下方向角度が対応付けられている。ここで、上記の実写パノラマ画像に対応付ける水平方向角度と上下方向角度は、元画像を撮影した時刻tに姿勢測定部5が測定した撮像部1の姿勢情報から画像混合部7が推定したものである。
【0026】
以上のような実写パノラマ画像からは、撮像部1がとりうるある水平方向角度および上下方向角度を指定すると、撮像部1が時刻tに近い時刻にその姿勢において撮影したであろう画像に近い画像を、実写パノラマ画像から切り出すことができる。すなわち、撮像部1の水平方向角度が0度、上下方向角度が0度の姿勢で時刻t1に撮影した画像Pと、撮像部1の水平方向角度が30度、上下方向角度が0度の姿勢で時刻t2に撮影した画像Qとを元画像として実写パノラマ画像を作成し、実写パノラマ画像中の画素の中から画像Pおよび画像Qでは第1列目に位置していた画素が特定できる場合、撮像部1が水平方向角度15度、上下方向角度0度の姿勢で時刻t1および時刻t2に近い時刻に撮影したであろう画像に近い画像の第1列目にあたる画素列は、画像Pにおいて第1列目であった画素列と、画像Qにおいて第1列目であった画素列の間を1:1(=15−0:30−15)に内分する列であると算出でき、その算出した列が第1列目になるように、実写パノラマ画像から撮像部1の画角と同じ範囲を切り出せば、この切り出した画像は時刻t1および時刻t2に近い時刻において水平方向角度15度、上下方向角度0度の姿勢で撮影したであろう画像に近い画像となる。画像Pにおいて第1列目であった画素列と、画像Qにおいて第1列目であった画素列の間を1:1にちょうど内分する列がない場合、すなわちちょうど列と列の間が内分線である場合は、この内分線に接する2つの画像列のどちらかが第1列目になるように、実写パノラマ画像から撮像部1の画角と同じ範囲を切り出せばよい。この例では、元画像と切り出した画像の上下方向角度はともに0度同じであったが、これらが異なっても同様の方法が適用できる。
【0027】
また、撮像部1がとりうるある水平方向角度および上下方向角度を指定すると、その姿勢において撮影されるであろう画像に近い画像を切り出すことができると述べたが、これは切り出したい画像全体がステップ0で用意した実写パノラマ画像に含まれるような水平方向角度および上下方向角度が指定されることが前提である。例えば、画像Pと画像Qのみから作成された実写パノラマ画像からは、撮像部1の水平方向角度が0度から30度で上下方向角度が0度の姿勢において、時刻tに近い時刻に撮影するであろう画像に近い画像のみが切り出せる。
【0028】
またさらにこの実写パノラマ画像は、元画像を撮影した時刻tにレンズ状態制御部6から取り出したレンズ制御情報から画像混合部7が推定した撮影時の撮像部1の画角を対応づけたものである。すなわちある画角を指定すると、その指定した画角にズームした時に撮影される領域を、対応付けられた画角を基準としてこの画像から切り出すことができる。
【0029】
またさらにこの実写パノラマ画像は、撮像部1を使って撮影しパノラマ化した画像に対して色調の補正や輪郭線強調といった画像処理を施したものでもよい。
【0030】
データ部8には、実写パノラマ画像以外に、例えば、テキストデータや三次元CGデータ、二次元CG画像などを格納してもよい。
【0031】
これらの仮想世界を示すデータはあらかじめ現実世界における3次元座標との対応をとっておく必要がある。例えば、三次元CGは、現実世界中でどの3次元位置に対応するか、二次元CG画像ならばそれがどの位置からどの方向を見た時の画像なのかを指定しておかねばならない。
【0032】
データ準備後、ステップS1でシステムが起動される。ステップS2で撮像部1から画像が取得され、取得された撮影画像はたとえばNTSC画像信号として撮影画像取込部2に送られる。この際、撮像部1から撮影画像取込部2に送られる撮影画像はNTSC画像信号に限らず、画像を表現できるものであれば何でもよい。
【0033】
撮像部1で撮影された画像は撮影画像取込部2で適切なフォーマットに変換され、画像混合部3に送られる。撮影画像取込部2ではたとえば撮像部1から送られてきたNTSC画像信号をデジタルデータに変換して画像混合部3に送るが、撮像部1の送出する画像はNTSC画像信号に限らず画像を表現するものであれば何でもよく、また、撮影画像取込部2が画像混合部3に送出する撮影画像もデジタルデータに限らず画像を表現し、画像混合部3が処理できるものであれば何でもよい。
【0034】
ステップS3で姿勢測定部5が撮像部1の姿勢を検知し、検知された姿勢情報は混合画像生成部7に送られる。ステップS4でレンズ状態制御部6が撮像部1に付属したレンズからズーム値やフォーカス値といったレンズ状態情報を検知し、検知されたレンズ状態情報は混合画像生成部7に送られる。
【0035】
ステップS5では混合画像生成部7が、姿勢測定部5から送出された姿勢情報とレンズ状態制御部6から送出されたレンズ状態情報から、撮像部1のの水平方向角度と上下方向角度と画角を算出する。そしてこの水平方向角度と上下方向角度と画角に基づきデータ部8に格納されているデータを読み出し、撮像部1の視野内に位置する混合データを生成する。
【0036】
姿勢測定部5から送出された姿勢情報と、レンズ状態制御部6から送出されたレンズ状態情報とから撮像部1の視野を求める方法にはさまざまなものがあるが、ここではそのうち一つの方法を説明する。
【0037】
一般的に、撮像部1で利用するレンズのレンズ中心の位置と撮像部1の視野角を求めれば視野を求めることが可能であるため、以下ではまず姿勢測定部5から送出された姿勢情報から撮像部1で利用するレンズのレンズ中心の位置を求める方法について記し、その後にレンズ状態制御部6から送出されたレンズ状態情報から撮像部1の視野角を求める方法について記す。
【0038】
姿勢測定部5から送出された姿勢情報から撮像部1で利用するレンズのレンズ中心の位置を求める方法を図11と図12を用いて説明する。図11は本実施形態の画像混合装置の外観図である。撮像部1と表示部9は支持部4に一体的に支持されており、回転中心Oを中心として上下方向および左右方向に回転できるものとする。支持部4は床に固定されているため、床と回転中心Oの位置関係は不変である。そのため、回転中心Oとレンズ中心LOの相対的な位置関係がわかれば、現実世界に対するレンズ中心LOの位置が一意に定まることとなる。
【0039】
ここで、回転中心Oを原点としたXYZ座標系を図11のように定義し、左右の回転角φと上下の回転角θを図12のように定義する。撮像部1で用いるレンズのレンズ中心LOから回転中心Oまでの距離をdとして表すと、レンズ中心LOの座標は
x=−d sinθsinφ
y=dsinθcosφ
z=dcosθ
として表される。ここではXYZ座標系を図11のように定義したが、座標系をどのように定義しても、また上下および左右の回転角をどのように定義しても、左右方向の回転角と上下方向の回転角から撮像部1で利用するレンズのレンズ中心の位置が求まることは言うまでもない。
【0040】
レンズ状態制御部6から送出されたレンズ状態情報から撮像部1の視野角を求める方法を図13と図14を用いて説明する。まず、レンズ状態制御部6から送出されるズーム値から撮像部1で利用するレンズの焦点距離を算出する。ここで、レンズ状態制御部6から送出されるズーム値は撮像部1に備えられた8ビットのエンコーダから出力される値であるものとし、その値とレンズの焦点距離が図13のテーブルのように求まっているものとする。すると、図13のテーブルを参照し、テーブルに格納されていない値については補間を行うことにより、撮像部1で利用するレンズの焦点距離をレンズ状態制御部6から送出されるズーム値を用いて求めることができる。ただし、レンズ状態制御部6が直接焦点距離を出力することができる場合には、図13のようなテーブルを用いて焦点距離を算出する必要はない。
【0041】
以上のようにして求まった撮像部1で利用するレンズの焦点距離をfとして、撮像部1に備わる撮像面の横幅をxとすると、図14から撮像部1の左右方向の視野角ψは次の式で求めることができる。
【0042】
ψ=2arctan(x/2f)
同様に、撮像部1に備わる撮像面の高さをyとすると、図15から撮像部1の上下方向の視野角μは次の式で求めることができる。
【0043】
μ=2arctan(y/2f)
以上のように、姿勢測定部5から送出された姿勢情報とレンズ状態制御部6から送出されたレンズ状態情報から撮像部1で利用するレンズのレンズ中心の位置と撮像部1の視野角が求まり、したがって撮像部1の視野を求めることが可能である。
【0044】
なお、撮像部1の視野を求める方法は、撮像部1の視野が求まる方法であれば上記のような方法に限らずどのような方法でもよい。
【0045】
ステップS6ではデータ部8から取得したデータを用いて混合画像生成部7が生成画像を生成する。例えばこの生成画像は、撮像部1であらかじめステップS0にて時刻tに撮影した画像から生成した実写パノラマ画像から、ステップS5処理時の撮像部1とまったく同じ、もしくはほぼ同じ姿勢において同じ画角にズームしたときに撮影されるであろう画像に近い画像を切り出した画像である。切り出す方法については、ステップ0の説明部分に記載済みである。
【0046】
また例えばこの生成画像は、撮像部1の視野内に含まれる現実世界に対応付けられたテキストデータが透明の背景上に描画されたコンピュータ画像であったり、現実世界と対応づけられた3次元CGデータで構成された3次元仮想空間を、撮像部1に対応した位置および姿勢において仮想のカメラで撮影した2次元コンピュータ画像であったりする。さらにまた、この生成画像は、前記実写パノラマ画像から切り出した画像と前記2次元コンピュータ画像が混在する画像であったりする。生成した生成画像は画像混合部3に送られる。
【0047】
ステップS7では、画像混合部3において撮影画像取込部2から送出された取込画像と、混合画像生成部7から送出された生成画像が混合される。生成画像が撮像部1で撮影した実写パノラマ画像から切り出した画像の場合、取込画像はステップS5処理時に撮像部1において撮影された画像であり、生成画像は時刻tに近い時刻において撮像部1によって撮影されたであろう画像に近い画像であるが、両者の撮影時の水平方向角度と上下方向角度はまったく同じもしくはほぼ同じであり、撮影画角はまったく同じである。すなわち、両者の画像に写る静止物体はまったくもしくはほぼ同じで、明るさ等が異なる。生成画像がコンピュータ画像であるばあい、取込画像が含む現実世界に対応した空間を、コンピュータ画像が含んでいる。
【0048】
ステップS7における取込画像と生成画像の混合方法の一つには、アルファブレンディング処理がある。ある画像A中の座標(x、y)に位置する画素の輝度がA(x、y)[R、G、B]で表されるとすると、大きさが同じ2枚の画像Aおよび画像Bを混合して画像Cを生成するアルファブレンディング(αブレンディング)処理では、画像に含まれる全画素に対して
αA(x、y)[R、G、B]+(1−α)B(x、y)[R、G、B]=C(x、y)[R、G、B]
という処理を行う。αは透明度を示し、0以上1以下の任意の数値で、アルファ値と呼ばれる。αの値が0.5に近ければ混合画像は両者の撮影条件を均等に含み、0もしくは1に近い場合は混合画像がどちらか一方の画像とほぼ同じ物となる。特にα=0は、混合処理を行わないことに相当する。この処理では、画質が滑らかな混合画像を生成することができる。
【0049】
上記のアルファ値の設定は、手動で行っても良いし、自動で行っても良い。例えば、手動で行う場合は、図1のブロック図には示していないが、画像混合部3に接続されたキーボード等の混合率入力部を介してアルファ値を設定する。自動で行う場合は、画像混合部3が、撮影画像取込部2から得た画像を解析し、その解析結果に応じてアルファ値を決定する。
【0050】
以下に自動で行う場合のアルファ値の設定方法の1例を説明する。
【0051】
自動設定方法1:撮影画像画像取込部2から得た撮影画像の明度によってアルファ値(α)を決定する。
【0052】
自動設定方法1は、画像は明るいが細部をよく見えない場合に有効である。例えば、もやのかかった風景や霧がかかった風景のような細部がはっきりしない風景に対して、あらかじめデータ部8に格納されている晴れた時の風景を示すパノラマ画像を合成することによって、風景中の細部を見やすくすることができる。具体的には、撮影画像の明度の変化が小さければ、αを大きくすることにより、合成画像における晴れた時の風景を示すパノラマ画像の割合を増やす。
【0053】
まず、以下に示す変換式を用いて、撮影画像取込部2から得た撮影画像データをグレースケール画像に変換する。グレースケール画像とは明度によって濃淡が決まる画像であり、画素ごとにRGB成分の値が等しく,かつ,このRGB値は明度と等しく,彩度0のグレーのみで構成される画像データである。
【0054】
各画素の明度=RGBの各画素値=(a×R成分+b×G成分+c×B成分)a,b,cは任意の値でよいが,例として,ここではNTSC規格で使用されているYIQモデルに基づいた値(a=0.299,b=0.587,c=0.144)を挙げる。この値は,人間の視覚の色に対する感度の違いを考慮に入れて決められたものである。
【0055】
次に、得られたグレースケール画像からαを決定する。
【0056】
得られたグレースケール画像に対して2次元フーリエ変換(例えば、離散的コサイン変換)を行う。そして変換の結果から,ある周波数以上の高周波成分が全体において占める割合を算出し,その割合に応じてαを決定する。例えば,以下に示す変換式を使ってαを決定する。
【0057】
α=比例定数×高周波成分の割合+定数
ただし,α<0の場合は0,α>1の場合は1とする
比例定数を−0.8,定数を0.74とすると,「混合画像=(1−α)×取込画像+α×生成画像」の場合,高周波成分の割合が0.3(30%)ならばα=0.5,高周波成分の割合が0.8(80%)ならばα=0.1となる。
【0058】
この方法によれば、グレースケール画像の高周波成分が少さければ、すなわち、明度の変化が小さければαが大きくなる。
【0059】
また、得られたグレースケール画像の明度のばらつきを標準偏差として求め、この標準偏差の大きさに応じてαを決定しても構わない。
【0060】
例えば,以下の変換式に従ってαを決定する。
【0061】
α=比例定数×明度の標準偏差+定数
ただし,α<0の場合は0,α>1の場合は1とする
比例定数を0.004,定数を0とすると,「混合画像=(1−α)×取込画像+α×生成画像」の場合,明度の標準偏差が150ならばα=0.5,50ならばα=0.1となる。
【0062】
この方法によれば、グレースケール画像の標準偏差が小さければ、即ち明度の変化が小さければαが大きくなる。
【0063】
自動設定方法2:撮影画像取込部2から得た取込画像の明度と,混合画像生成部7から送出された生成画像の明度の比較によってアルファ値(α)を決定する。
【0064】
自動設定方法2は、撮影画像が暗くて全体的に見えないときに有効である。
【0065】
まず、自動設定方法1と同様の方法を用いて、撮影画像取込部2から得た撮影画像からグレースケール画像を生成する。さらに、混合画像生成部7で生成された生成画像からグレースレール画像を生成する。そして、得られた2枚のグレースケール画像のそれぞれの明度平均を算出する。
【0066】
得られた明度平均の差に従ってαを決定する。例えば以下の変換式を利用する。
【0067】
α=比例定数×(混合画像の平均明度−取込画像の平均明度)+定数
ただし,α<0の場合は0,α>1の場合は1とする
比例定数を0.004、定数を0とすると,「混合画像=(1−α)×取込画像+α×生成画像」の場合,明度の差が150ならばα=0.5,50ならばα=0.1となる。
【0068】
自動設定方法3:撮影画像取込部2から得た取込画像の明度と、混合画像生成部7から送出された生成画像の明度を、画素ごとに比較してアルファ値(α)を決定する。
【0069】
自動設定方法3も、撮影画像が暗くて全体的に見えないときに有効である。
【0070】
まず、撮影画像取込部2から得た画像と、混合画像生成部7で生成された生成画像から2枚のグレースケール画像を生成する。
【0071】
次に、画素ごとに撮影画像と生成画像の明度差を求め、明度差の平均を算出する。そして、明度差の平均に従ってαを決定する。例えば以下の変換式を利用する。
【0072】
α=比例定数×(混合画像と取込画像の明度差の平均)+定数
ただし,α<0の場合は0,α>1の場合は1とする。
【0073】
比例定数を0.004,定数を0とすると,「混合画像=(1−α)×取込画像+α×生成画像」の場合,明度差の平均が150ならばα=0.5,50ならばα=0.1となる。
【0074】
自動設定方法2および3によれば、撮影画像と生成画像の明度差に応じてαを決定しているので、晴れた時の撮影画像から生成されたパノラマ画像から生成画像が生成されているとすると、撮影画像が暗くてはっきり見えない場合には生成画像の合成比率が大きくなり細部の構成を強調することができる。
【0075】
このように、目的に応じて適切な自動設定方法が異なる。したがって、複数の自動設定方法を備え、操作部上でユーザによって指定された条件に応じて適切な自動設定方法を選択するようにしても構わない。例えば、自動設定方法1と自動設定方法2または3とを備えている場合は、条件指定部として操作部に晴れボタン、夜景ボタンを備えるようにすればよい。
【0076】
上述のアルファ値は画像毎に求めたが、生成画像の画素ごとにアルファ値を埋め込み、撮影画像と混合する場合にはこの埋め込まれた値を利用してアルファ値を設定しても良い。
【0077】
例えば、風景中の建物が写っている部分にはα=1という値が埋め込まれており、それ以外の部分にはα=0という値が埋め込まれていたとすると、この画像混合装置によって混合された画像は、建物部分は時刻tに近い時刻において撮像部1によって撮影されたであろう画像に近い画像が表示され、それ以外の部分にはステップS7処理時に撮像部1で撮影された画像が表示される。
【0078】
また、ステップS7における取込画像と生成画像の別の混合方法には、両者をモザイク状に混合する処理がある。この処理では、画素ごとに混合する2枚の画像のどちらかを表示することによって、混合画像を作成する。言い換えれば、これはアルファブレンディング処理を、画素ごとにアルファ値を換えて行った処理である。例えば2枚の画像Dおよび画像Eを混合し画像Fを作る場合には、画像の各画素の座標を(X、Y)で表しmとnを1以上の整数とすると、画像Fでは、例えば座標(2m−1、2n−1)および(2m、2n)で表せる画素にはα=0としてアルファブレンディング処理を行って画像Dの対応する画素が表示され、座標(2m、2n−1)および(2m−1、2n)で表せる画素にはα=1としてアルファブレンディング処理を行って画像Eの対応する画像が表示される。図7はこの混合処理を説明する図である。この処理では、少ない計算量で混合画像を生成することができる。
【0079】
上記の例では、隣り合う画素同士は異なる割合で混合されているが、画面の領域ごとに混合する割合を変えても良い。また、領域によって異なる混合処理を行っても良い。図8は画面全体にわたって一つの方法で混合を行った場合を説明する図である。図9は画面のある領域のみで混合処理を行い、残りの領域では処理を行わない場合を説明する図である。
【0080】
上記の画面の領域に応じて混合処理の方法や混合する割合を変える場合、その領域の指定は自動で行っても良いし、手動で行ってもよい。例えば、手動で行う場合は、図1のブロック図には示していないが、画像混合部3に接続されたマウスを使って画像中のある画素を指定すると、その画素からある一定の距離以内が指定された領域となる。自動で行う場合は、例えば取込画像に対して輪郭線強調処理を行い、強調された輪郭線によって画像を領域分けする。さらに例えば、図1のブロック図には示していないが、画像混合部3に接続されたキーボードを使ってキーワードを入力すると、そのキーワードに適合する領域が、指定された領域となる。
【0081】
以上に述べてきた混合は、1枚の取込画像に対して1枚の生成画像を混合する場合について述べてきたが、1枚の取込画像に対して2枚以上の生成画像を混合してもよい。この場合、例えば3つの画素値から1つの画素値を算出する処理によって混合を行っても良いし、取込画像と混合する生成画像を、画面の領域に応じて切り替えても良い。例えば、取込画像中のある強調したい部分には晴天時に作成したパノラマ画像から切り出した画像を混合し、それ以外の部分には黒一色の画像を生成することができる。
【0082】
取込画像と生成画像が混合された混合画像は表示部9に送られる。ステップS8では画像混合部3から送出されてきた混合画像情報を表示部9が表示する。その後ステップS9でシステムを終了するかどうかがチェックされ、システムを終了させる場合はステップS10でシステムを終了させ、終了させない場合にはステップS2に戻り、上述の処理を繰り返す。
【0083】
以上のように、第一の実施形態によれば、例えば展望台において屋外の風景を眺める際、曇天のために肉眼では風景中の建物等がよく見えない場合でも、目の前の風景と晴天時の風景が混ざり合って、建物等がより見やすい明瞭な屋外の風景を眺めることができる。晴天時に撮影した画像から作成した実写パノラマ画像をあらかじめデータ部8に格納し、姿勢情報とレンズ状態情報を用いて撮像部1が現実世界を撮影する時の水平方向角度と上下方向角度と画角を定め、データ部8に格納した実写パノラマ画像からその視野に対応する領域を切り出し、目の前の風景を撮影した撮影画像を取り込んだ撮影画像取込部2から送出された取込画像と混合して表示部9に表示することで、前記の事項は達成される。
【0084】
また、第一の実施形態によれば、例えば日が落ちて暗くなった時間帯に、屋外を照明で照らしているかのような風景を眺めることができる。すなわち、明るい時間帯に撮影した画像から作成した実写パノラマ画像をあらかじめデータ部8に格納し、姿勢情報とレンズ状態情報を用いて撮像部1が現実世界を撮影する時の水平方向角度と上下方向角度と画角を定め、データ部8に格納した実写パノラマ画像からその視野の部分を切り出し、その切り出した画像の一部分のみを目の前の風景を撮影した撮影画像を取り込んだ撮影画像取込部2から送出された取込画像の対応した部分と混合して表示部9に表示し、残りの部分は撮影画像取込部2から送出された取込画像をそのまま表示部9に表示することで、前記の事項は達成される。
【0085】
さらにまた、第一の実施形態によれば、例えば現在目の前に広がる風景に、仮想的に再現した過去や未来の風景を重ね合わせることができる。その場所の過去や未来の風景を再現する3次元CGデータをあらかじめデータ部8に格納し、その3次元CGデータで構成された3次元仮想空間を、撮像部1に対応した位置および姿勢において仮想カメラが撮影した2次元CG画像を生成し、撮像部1で実際に撮影した画像を取り込んだ撮影画像取込部2から送出された取込画像に混合することで、前記の事項は達成される。
【0086】
<第二の実施形態>
図3は第二の実施形態による画像混合装置の概略構成を示すブロック図である。第一実施形態による画像混合装置(図1)と同様の構成には同一の参照番号を付して、その詳細な説明を省略する。第二の実施形態では、支持部4を持たない点が異なる。また、第一実施形態での姿勢測定部5が位置姿勢測定部10となっている点が異なる。
【0087】
10は撮像部1の位置および姿勢を測定する位置姿勢測定部であり、撮像部1の位置情報および姿勢情報を混合画像生成部7からの要求に応じて、又は混合画像生成部7からの要求なしに混合画像生成部7に送出する。位置姿勢測定部10は、例えばジャイロセンサや光学式のセンサを利用することが考えられる。本明細書において位置姿勢測定部と記述する部分は、位置測定部および姿勢測定部の二つから構成されるものも含む。また、この位置姿勢測定部10は、複数のセンサ機器を組み合わせたものでもよい。
【0088】
混合画像生成部7は、位置姿勢測定部10から撮像部1の位置姿勢情報を取り出して撮像部1の位置および姿勢を推定し、またレンズ状態制御部6からレンズ状態情報を取り出して撮像部1の画角を推定する。撮像部1の位置および姿勢と画角が推定できれば撮像部1の視野が求まるため、混合画像生成部7はデータ部8から撮像部1の視野に対応するデータを取り出す。取り出されたデータは画像混合部3に送られる。
【0089】
表示部9は撮像部1および位置姿勢計測部10に連動して動くものとするのが望ましいが、必ずしもその必要はなく、例えば撮像部1が可動で表示部9が固定されるという構成でもよい。
【0090】
混合画像記憶部13はたとえばハードディスクからなり、画像混合部3から混合画像信号を受け取り、記録する。混合画像記憶部13としては他にたとえばビデオレコーダやハードディスク等を用いることが考えられ、画像を記憶できる媒体であれば何でもよい。る。また、混合画像記憶部13には混合画像以外の情報も記録され、たとえば合成した日付や場所といったテキスト情報や画像情報が記録される。
【0091】
記憶画像出力部14は混合画像記憶部13から混合画像の一部、もしくは全部を取り出して、画像や印刷物として出力する。記憶画像像出力部14としてはプリンタ等が考えられるが、記憶画像が出力できるものであれば何でもよい。る。
【0092】
入力部15はたとえばキーボードからなり、混合画像記憶部13に混合画像以外の情報を入力する。入力部15はキーボードに限らず、本発明の画像混合装置の利用者が入力できるものであれば何でもよい。
【0093】
以上の様な構成を備えた本実施形態の制御について、以下説明する。図4は本発明の画像混合装置における処理の手順を説明するフローチャートである。なお、第一の実施形態に示したフローチャート(図2)と同様の処理を行うステップについては同一の参照番号を付し、詳細な説明を省略する。記述がないステップについては、まったく同じ処理を行う。以下では第一の実施形態と第二の実施形態で異なる部分の説明を行う。
【0094】
ステップS0では、データ部8に格納するデータを準備する。このデータは、例えば第一の実施形態におけるステップS0で説明した撮像部1を使って本装置利用時よりも前の時刻t(=t1、t2、・・・)に撮影した画像をつなぎ合わせた実写パノラマ画像である。実写パノラマ画像を作成するために、撮像部1を使って時刻tに撮影した画像を、以下でも元画像と呼ぶ。
【0095】
この実写パノラマ画像を構成する画素のうち、元画像においてはある決められた列、例えば左から1列目、の画素であったものには、その画素が撮影されたときの撮像部1の位置および水平方向角度が対応付けられている。同様に、この実写パノラマ画像を構成する画素のうち、元画像においてはある決められた行、例えば上から1行目、の画素であったものには、その画素が撮影されたときの撮像部1の位置および上下方向角度が対応付けられている。ここで、上記の実写パノラマ画像に対応付ける位置および水平方向角度および上下方向角度は、元画像を撮影した時刻tに姿勢測定部5が測定した撮像部1の位置姿勢情報から推定したものである。
【0096】
以上のような実写パノラマ画像からは、撮像部1が取り得るある位置および水平方向角度および上下方向角度を指定すると、撮像部1が時刻tに近い時刻にその位置および姿勢において撮影したであろう画像に近い画像を、実写パノラマ画像から切り出すことができる。ただし、これは切り出したい画像全体が実写パノラマ画像に含まれるような位置および水平方向角度および上下方向角度における画像を切り出すことが前提であることはいうまでもない。
【0097】
またさらにこの実写パノラマ画像は、画像混合部が推定した撮影時の撮像部1の画角を対応づけたものである。すなわちある画角を指定すると、その指定した画角にズームした時に撮影される領域を、対応付けられた画角を基準としてこの画像から切り出すことができる。
【0098】
またさらにこの実写パノラマ画像は、撮像部1を使って撮影しパノラマ化した画像に対して色調の補正や輪郭線の強調などの画像処理を施したものでもよい。
【0099】
また、例えばデータ部8に格納するデータは、テキストデータや三次元CGデータ、二次元CG画像などである。このデータはあらかじめ現実世界における3次元座標との対応をとっておく必要があり、例えば三次元CGならばそれが現実世界中でどの3次元位置に対応するか、二次元CG画像ならばそれがどの位置からどの方向を見た時の画像なのかを指定しておかねばならない。
【0100】
データ準備後、ステップS1でシステムが起動される。ステップS2で撮像部1から画像が取得され、取得された撮影画像は撮影画像取込部2で適切なフォーマットに変換され、画像混合部3に送られる。ステップS11で位置姿勢測定部10が撮像部1の位置および姿勢を検知し、検知された位置姿勢情報は混合画像生成部7に送られる。ステップS4でレンズ状態制御部6が撮像部1で利用するレンズのズーム値やフォーカス値といったレンズ状態情報を検知し、検知されたレンズ状態情報は混合画像生成部7に送られる。
【0101】
ステップS5では混合画像生成部7が、位置姿勢測定部10から送出された位置姿勢情報とレンズ状態制御部6から送出されたレンズ状態情報から撮像部1の撮影時の位置と姿勢と画角を算出し、ステップS5処理時の撮像部1の視野に対応するデータを、データ部8から取得する。取得したデータは画像混合部3に送られる。
【0102】
ステップS6ではデータ部8から取得したデータを用いて混合画像生成部7が生成画像を生成する。例えばこの生成画像は、撮像部1であらかじめ撮影した実写パノラマ画像から、ステップS5処理時の撮像部1とまったく同じもしくはほぼ同じ位置姿勢において同じ画角にズームしたときに撮影される領域を切り出した画像である。また例えばこの生成画像は、撮像部1の視野内に含まれる現実世界に対応付けられたテキストデータが透明の背景上に描画されたコンピュータ画像であったり、現実世界と対応づけられた3次元CGデータで構成された3次元仮想空間を、撮像部1に対応した位置および姿勢において仮想のカメラで撮影した2次元コンピュータ画像であったりする。生成した生成画像は画像混合部3に送られる。
【0103】
また、第2の実施形態では、ステップS8に続いてステップS14で混合画像の記憶を行う。ステップS14では混合画像記憶部13が画像混合部3から送られてきた混合画像を記録する。
【0104】
第2の実施形態では、本画像混合装置の使用者がステップS9で使用を終えたとき、ステップS15で記憶画像出力部14から出力され、出力された結果は使用者に渡される。記憶画像出力部14はたとえばプリンタからなり、使用者は自らが本発明の画像混合装置を使用した際の混合画像の静止画を記念として持ち帰ることができる。
【0105】
ステップS15において記憶画像を出力する際、混合画像記憶部13に記録されている混合画像以外の情報を利用すれば、記憶画像に加えてたとえば当日の日付情報をテキストとして書き加えたりすることが可能である。また、使用者が入力部15から自分の名前を入力し、その名前をテキストとして混合画像に書き加えることも可能である。また、入力部15にたとえばタブレットを用いれば、本発明の画像混合装置の使用者が混合画像に対して自由に絵や文字を書き加えることも可能である。また、あらかじめ入力部15を通してたとえばフレームの画像を混合画像記憶部13に入力しておけば、フレームの画像の中に混合画像をはめこむことで、記念撮影風の記憶画像を出力することが可能である。
【0106】
以上のように、第二の実施形態によれば、例えば頭部装着型のシースルーディスプレイを使って現実正解を眺める際に、目の前の風景に別時刻の風景に近い画像が混ざり合った風景や、目の前の風景に仮想的に作成された風景が混ざり合った風景を眺めることができる。
【0107】
<第三の実施形態>
第三の実施形態の概要は次のとおりである。図5は第三の実施形態による画像混合装置の概略構成を示すブロック図である。第一実施形態による画像混合装置(図1)と同様の構成には同一の参照番号を付して、その詳細な説明を省略する。第三の実施形態では、支持部4およびレンズ状態制御部6を持たない点が異なる。
【0108】
5は姿勢測定部であり、撮像部1の姿勢情報、すなわち現実世界中での姿勢を混合画像生成部7からの要求に応じて、又は混合画像生成部7からの要求なしに混合画像生成部7に送出する。姿勢測定部5は、例えばジャイロセンサや光学式のセンサを利用することが考えられる。
【0109】
7は混合画像生成部であり、姿勢測定部5から撮像部1の姿勢情報を取り出して撮像部1が向いている方向を推定する。撮像部1の向いている方向が推定できれば、本装置の利用位置と撮像部1の画角が既知な時は撮像部1の視野が求まる。混合画像生成部7はデータ部8から撮像部1の視野に対応するデータを取り出す。取り出されたデータは画像混合部3に送られる。
【0110】
以上の様な構成を備えた本実施形態の制御について、以下説明する。図6は画像混合装置における処理の手順を説明するフローチャートである。なお、第一の実施形態に示したフローチャート(図2)と同様の処理を行うステップについては同一の参照番号を付し、詳細な説明を省略する。記述がないステップについては、まったく同じ処理を行う。以下では第一の実施形態と第三の実施形態で異なる部分の説明を行う。
【0111】
ステップS1でシステムが起動される。このとき、本装置は必ず定められた位置において利用されていなければならない。
【0112】
ステップS5では混合画像生成部7が、姿勢測定部5から送出された姿勢情報と、あらかじめ定められた本装置の利用位置の座標から撮像部1の視野を推定し、ステップS5処理時の撮像部1の視野に対応するデータを、データ部8から取得する。取得したデータは画像混合部3に送られる。
【0113】
以上のように、第三の実施形態によれば、例えば利用者があらかじめ決められた位置に立ち、頭部装着型のシースルーディスプレイを使って風景を眺める際に、目の前の風景に別時刻の風景に近い画像が混ざり合った風景や、目の前の風景に仮想的に作成された風景が混ざり合った風景を眺めることができる。
【0114】
また、本実施形態の画像混合装置は、当然のことながら屋外風景を対象とした利用に限られるものではなく、本発明の画像混合装置が有効に利用可能な全ての状況において用いることが可能である。
【0115】
本実施形態の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0116】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0117】
【発明の効果】
以上説明したように、本発明によれば、視界が不良なときに撮影している現実世界画像の視野を明瞭にすることができる。
【図面の簡単な説明】
【図1】第一実施形態による画像混合装置の概略構成を示すブロック図である。
【図2】第一実施形態における、画像混合装置の処理手順を説明するフローチャートである。
【図3】第二実施形態による画像混合装置の概略構成を示すブロック図である。
【図4】第二実施形態における、画像混合装置の処理手順を説明するフローチャートである。
【図5】本発明の第三実施形態による画像混合装置の概略構成を示すブロック図である。
【図6】第三実施形態における、画像混合装置の処理手順を説明するフローチャートである。
【図7】2つの画像を、モザイク状に混合する処理を説明する図である。
【図8】2つの画像を、画面全体にわたって混合する場合を説明する図である。
【図9】2つの画像を、画面の一部の領域においてのみ混合し、残りの領域では2つの画像のうちのどちらかを表示する場合を説明する図である。
【図10】撮像部でパノラマ画像を撮影し、データ部に格納する場合を説明する図である。
【図11】姿勢制御部から送られる姿勢情報から撮像部で利用するレンズのレンズ中心の位置を求める方法を説明する図である。
【図12】姿勢制御部から送られる姿勢情報から撮像部で利用するレンズのレンズ中心の位置を求める方法を説明する図である。
【図13】レンズ状態制御部から送られるレンズ状態情報から撮像部で利用するレンズの焦点距離を求める方法を説明する図である。
【図14】撮像部で利用するレンズの焦点距離からレンズの視野角を求める方法を説明する図である。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method for mixing an image generated from panoramic image data held in advance with a photographed image photographed by a photographing unit.
[0002]
[Prior art]
In a place with a good view, such as an observatory, you may see the scenery spreading out in front of you. At this time, as a device for more clearly observing the scenery, there is a telescope that optically enlarges and presents the scenery in front of you.
[0003]
There is also an apparatus for photographing the real world in real time with a camera or the like, and observing the real world through the captured image, and an apparatus that applies this to a telescope is also disclosed in, for example, Japanese Patent Laid-Open No. 2001-94971 “Optical apparatus”. Has been.
[0004]
[Problems to be solved by the invention]
A problem when viewing outdoor scenery is that the real world cannot be clearly observed depending on the weather and time zone when using the device. For example, when looking at the surroundings using a viewing mirror on the rooftop of a high-rise building, it may happen that the building in the landscape is hidden by clouds or haze when it is cloudy. Also, at night, the area will be dark and you will not be able to observe the scenery. For example, in the apparatus disclosed in Japanese Patent Application Laid-Open No. 2001-94971 “Optical apparatus”, a plurality of captured images obtained when time, season, or the like changes are stored. An image is selected and displayed instead of the image being shot. This is a clear observation of the scenery seen from the place.
[0005]
However, what can be observed with this method is a landscape at a completely different time, and it has not been possible to clearly observe the landscape in front of you.
[0006]
Conventionally, there is an apparatus that synthesizes an actual landscape and a computer image by mounting an HMD (head mounted display) incorporating a camera on the head and following the movement of the head. With this device, landscape simulation based on the scenery in front of you is realized.
[0007]
In this case, a method of drawing a computer image on a real landscape is generally used. Then, when using a computer image that occupies a relatively large area on the observation screen, there are fewer portions where the actual landscape can be seen, and there is a problem that it is difficult to grasp the positional relationship between the actual landscape and the computer image.
[0008]
The present invention has been made in view of the above points, and an object thereof is to clarify a display image by mixing a generated image with a real-world photographed image photographed by a photographing unit.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the present invention has the following configuration.
[0010]
The invention of claim 1 of the present application is an information processing method for mixing an image generated from panoramic image data held in advance with a captured image captured by a capturing unit, the captured image captured by the capturing unit, and The posture information of the photographing unit is input, panoramic image data based on a photographed image taken at another time is held, and an image corresponding to the photographed image is generated from the panoramic image data based on the posture information of the photographing unit. Then, the photographed image is analyzed to obtain a mixing condition, and the generated image is mixed with the photographed image using the mixing condition.
[0011]
The invention of claim 8 of the present application is an information processing method for mixing an image generated from data held in advance with a captured image captured by the capturing unit, the captured image captured by the capturing unit and the captured image Input posture information, generate an image corresponding to the photographed image from pre-stored data based on the posture information of the photographing unit, analyze the brightness of the photographed image, obtain a mixing condition, The generated image is mixed with the captured image using the mixing condition.
[0012]
The invention of claim 12 of the present application is based on the photographing means for photographing the real world, the posture measuring means for measuring the posture of the photographing unit, and the posture information of the photographing unit, from the data held in advance to the photographed image. Generating means for generating a corresponding image, means for analyzing the brightness of the captured image and obtaining a mixing condition, and mixing means for mixing the generated image with the captured image using the mixing condition It is characterized by having.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
[0014]
<First embodiment>
The outline of the first embodiment is as follows. FIG. 1 is a block diagram showing a schematic configuration of an image mixing apparatus according to a first embodiment of the present invention.
[0015]
Reference numeral 1 denotes an image pickup unit, which includes, for example, a camera. The imaging unit 1 captures the real world such as an outdoor landscape and outputs the captured image to the captured image capturing unit 2 as an image signal. Reference numeral 2 denotes a captured image capturing unit that converts an image signal output from the imaging unit 1 into a format suitable for the image mixing unit 3 and sends the image signal to the image mixing unit 3. An image mixing unit 3 mixes the captured image from the captured image capturing unit 2 and the generated image from the mixed image generation unit 7 and sends them to the display unit 9.
[0016]
A support unit 4 is installed on the floor or the like and supports the imaging unit 1. The support unit 4 has a rotationally movable part, and allows the user to manually rotate the imaging unit 1 freely in the left-right direction and the up-down direction. The support unit 4 may be fixed to a floor or the like, but may be moved on a rail or a carriage, for example.
[0017]
Reference numeral 5 denotes an attitude measurement unit, which receives attitude information of the imaging unit 1, that is, rotation information of the imaging unit 1 in the vertical and horizontal directions in response to a request from the mixed image generation unit 7 or a request from the mixed image generation unit 7. Without being sent to the mixed image generating unit 7. The attitude measurement unit 5 is composed of, for example, a mechanical encoder. In addition, for example, it is conceivable to use a gyro sensor or an optical sensor. Further, a combination of a plurality of sensor devices may be used.
[0018]
Reference numeral 6 denotes a lens state control unit which supplies lens state information such as a zoom value and a focus value of a lens used in the imaging unit 1 in response to a request from the mixed image generation unit 7 or without a request from the mixed image generation unit 7. The image is sent to the mixed image generation unit 7. Here, the zoom value / focus value are values output by the encoder or the like in the lens state control unit 6. For example, when the lens state control unit 6 includes an 8-bit encoder, the output value is The value is in the range of 1 to 256. The lens state control unit 6 may include, for example, a microcomputer, calculate the focal length of the lens using a value output by an encoder or the like, and output the calculated value as lens state information. The lens state control unit 6 operates the lens state by a control unit and a control signal (not shown). The lens state control unit 6 includes, for example, a mechanical encoder or a stepping motor.
[0019]
Reference numeral 7 denotes a mixed image generation unit which extracts posture information of the image pickup unit 1 from the posture measurement unit 5 to estimate the horizontal angle and the vertical angle that the image pickup unit 1 is facing, and from the lens state control unit 6 the lens state. Information is extracted and the angle of view of the imaging unit 1 is estimated. Since the visual field of the imaging unit 1 can be obtained if the horizontal direction angle and the vertical angle and the angle of view to which the imaging unit 1 is directed can be estimated, the mixed image generation unit 7 extracts data corresponding to the visual field of the imaging unit 1 from the data unit 8. . The extracted data is sent to the image mixing unit 3.
[0020]
Reference numeral 8 denotes a data portion, which is composed of, for example, a hard disk and holds a generated image to be transferred to the mixed image generating portion 7. Data stored in the data unit 8 is, for example, text data, three-dimensional CG (computer graphics) data, a two-dimensional CG image, and a real panorama image.
[0021]
The data unit 8 sends appropriate data to the mixed image generation unit 3 in response to a request from the mixed image generation unit 7. For example, when the mixed image generating unit 3 requests 3D CG data to be mixed with the field of view of the imaging unit 1, the data unit 8 includes the 3D included in the field of view of the imaging unit 1 from the stored 3D CG data. CG data is extracted and transmitted. Also, for example, when the mixed image generation unit 3 requests a real panorama to be mixed with the field of view of the imaging unit 1, an image close to an image that will be captured in the same posture as the imaging unit 1 at the moment when the request is generated is displayed. Take out the live-action panorama image including it and send it out. The data unit 8 is not limited to a hard disk, and any medium that can hold data may be used. For example, the data unit 8 may be composed of a tape or a memory.
[0022]
Reference numeral 9 denotes a display unit which displays the image signal sent from the image mixing unit 3. At this time, if the display unit 9 moves in conjunction with the imaging unit 1, it is intuitive and easy for the user to look into the telescope and the like, but this is not always necessary. 1 may be movable and the display unit 9 may be fixed. In addition, a plurality of display units 9 may be provided. In this case, a large number of people can see the mixed image.
[0023]
The control of the present embodiment having the above configuration will be described below. FIG. 2 is a flowchart for explaining a processing procedure in the image mixing apparatus of the present invention.
[0024]
In step S0, data to be stored in the data portion 8 is prepared. This data is, for example, a real panorama image obtained by stitching together images taken at time t (= t1, t2,...) Using the imaging unit 1 before using this apparatus. In this case, as shown in FIG. 10, an image captured by the imaging unit 1 is captured by the captured image capturing unit 2, and the captured image is sent to the data unit 8. A panoramic image can be captured by the imaging unit 1 and stored in the data unit 8 as described above, but any method may be used as long as the panoramic image can be stored in the data unit 8. In order to create a real panorama image, an image taken at time t using the imaging unit 1 is hereinafter referred to as an original image.
[0025]
Among the pixels constituting the real panorama image, the original image is a pixel in a predetermined column, for example, the first column from the left, and the horizontal direction of the imaging unit 1 when the pixel is photographed An angle is associated. Similarly, among the pixels constituting the real panorama image, the original image is a pixel in a predetermined row, for example, the pixel in the first row from the top, and the imaging unit 1 when the pixel is photographed Are associated with each other. Here, the horizontal angle and the vertical angle associated with the actual panorama image are estimated by the image mixing unit 7 from the posture information of the imaging unit 1 measured by the posture measurement unit 5 at the time t when the original image was captured. is there.
[0026]
From the actual panorama image as described above, when a certain horizontal angle and vertical angle that the imaging unit 1 can take are specified, an image close to an image that the imaging unit 1 would have captured in its posture at a time close to time t. Can be cut out from a live-action panoramic image. That is, the image P photographed at time t1 with the horizontal angle of the imaging unit 1 being 0 degrees and the vertical angle of 0 degrees, and the attitude of the imaging unit 1 with the horizontal angle of 30 degrees and the vertical angle of 0 degrees When a real panorama image is created using the image Q taken at time t2 as an original image and the pixels located in the first column in the image P and the image Q can be identified from the pixels in the real panorama image, A pixel column corresponding to the first column of an image close to an image that the imaging unit 1 would have taken at a time close to time t1 and time t2 in a posture with a horizontal angle of 15 degrees and a vertical angle of 0 degrees is the first column in the image P. It can be calculated as a column that internally divides the pixel column that was the first column and the pixel column that was the first column in the image Q into 1: 1 (= 15-0: 30-15). Take a picture from a live-action panoramic image so that the calculated row is the first row. If the same range as the angle of view of the section 1 is cut out, the cut out image is an image close to an image that would have been taken with a posture with a horizontal angle of 15 degrees and a vertical angle of 0 degrees at times close to time t1 and time t2. Become. If there is no column that exactly divides the pixel column that was the first column in the image P and the pixel column that was the first column in the image Q into 1: 1, that is, there is exactly In the case of an internal dividing line, the same range as the angle of view of the imaging unit 1 may be cut out from the actual panorama image so that one of the two image sequences in contact with the internal dividing line becomes the first column. In this example, the original image and the cut-out image have the same vertical angle of 0 degrees, but the same method can be applied even if they differ.
[0027]
In addition, it has been stated that if a certain horizontal angle and vertical angle that the imaging unit 1 can take are specified, an image close to an image that will be captured in that posture can be cut out. It is premised that the horizontal direction angle and the vertical direction angle that are included in the live-action panoramic image prepared in step 0 are specified. For example, from a real panorama image created only from the images P and Q, the image is taken at a time close to the time t in a posture in which the horizontal angle of the imaging unit 1 is 0 degrees to 30 degrees and the vertical angle is 0 degrees. Only images that are likely to be close to the image can be cut out.
[0028]
Further, the actual panorama image is obtained by associating the angle of view of the imaging unit 1 at the time of shooting estimated by the image mixing unit 7 from the lens control information extracted from the lens state control unit 6 at the time t when the original image was shot. is there. That is, when a certain angle of view is designated, an area captured when zooming to the designated angle of view can be cut out from this image with the associated angle of view as a reference.
[0029]
Further, the actual panorama image may be obtained by performing image processing such as color tone correction and contour enhancement on the panoramic image photographed using the imaging unit 1.
[0030]
For example, text data, three-dimensional CG data, two-dimensional CG image, and the like may be stored in the data unit 8 in addition to the actual panorama image.
[0031]
Data indicating these virtual worlds needs to correspond to the three-dimensional coordinates in the real world in advance. For example, the three-dimensional CG must specify which three-dimensional position in the real world corresponds to, and if it is a two-dimensional CG image, from which position and in what direction it is viewed.
[0032]
After data preparation, the system is started in step S1. In step S2, an image is acquired from the imaging unit 1, and the acquired captured image is sent to the captured image capturing unit 2 as, for example, an NTSC image signal. At this time, the captured image sent from the imaging unit 1 to the captured image capturing unit 2 is not limited to the NTSC image signal, and any image can be used as long as the image can be expressed.
[0033]
The image captured by the imaging unit 1 is converted into an appropriate format by the captured image capturing unit 2 and sent to the image mixing unit 3. The captured image capturing unit 2 converts, for example, an NTSC image signal sent from the imaging unit 1 into digital data and sends the digital data to the image mixing unit 3. However, the image sent by the imaging unit 1 is not limited to the NTSC image signal, but an image. Any image can be used as long as it can be expressed, and the captured image sent from the captured image capturing unit 2 to the image mixing unit 3 is not limited to digital data, and any image can be processed as long as the image mixing unit 3 can process the image. Good.
[0034]
In step S <b> 3, the posture measurement unit 5 detects the posture of the imaging unit 1, and the detected posture information is sent to the mixed image generation unit 7. In step S <b> 4, the lens state control unit 6 detects lens state information such as a zoom value and a focus value from the lens attached to the imaging unit 1, and the detected lens state information is sent to the mixed image generation unit 7.
[0035]
In step S <b> 5, the mixed image generation unit 7 determines the horizontal angle, the vertical angle, and the angle of view of the imaging unit 1 from the posture information sent from the posture measurement unit 5 and the lens state information sent from the lens state control unit 6. Is calculated. Then, based on the horizontal direction angle, the vertical direction angle, and the angle of view, the data stored in the data unit 8 is read out, and mixed data located in the field of view of the imaging unit 1 is generated.
[0036]
There are various methods for obtaining the field of view of the imaging unit 1 from the posture information sent from the posture measurement unit 5 and the lens state information sent from the lens state control unit 6, but here one of them is used. explain.
[0037]
Generally, since the field of view can be obtained by obtaining the position of the lens center of the lens used in the imaging unit 1 and the viewing angle of the imaging unit 1, first, from the posture information sent from the posture measuring unit 5, A method for obtaining the position of the lens center of the lens used in the imaging unit 1 will be described, and then a method for obtaining the viewing angle of the imaging unit 1 from the lens state information sent from the lens state control unit 6 will be described.
[0038]
A method of obtaining the lens center position of the lens used in the imaging unit 1 from the posture information sent from the posture measurement unit 5 will be described with reference to FIGS. 11 and 12. FIG. 11 is an external view of the image mixing apparatus of this embodiment. The imaging unit 1 and the display unit 9 are integrally supported by the support unit 4 and can be rotated in the vertical direction and the horizontal direction around the rotation center O. Since the support portion 4 is fixed to the floor, the positional relationship between the floor and the rotation center O is unchanged. Therefore, if the relative positional relationship between the rotation center O and the lens center LO is known, the position of the lens center LO with respect to the real world is uniquely determined.
[0039]
Here, the XYZ coordinate system with the rotation center O as the origin is defined as shown in FIG. 11, and the left and right rotation angles φ and the upper and lower rotation angles θ are defined as shown in FIG. When the distance from the lens center LO to the rotation center O of the lens used in the imaging unit 1 is expressed as d, the coordinates of the lens center LO are
x = −d sin θ sin φ
y = dsin θ cos φ
z = d cos θ
Represented as: Here, the XYZ coordinate system is defined as shown in FIG. 11. However, regardless of how the coordinate system is defined and how the vertical and horizontal rotation angles are defined, the horizontal rotation angle and the vertical direction are defined. It goes without saying that the position of the lens center of the lens used in the imaging unit 1 can be obtained from the rotation angle.
[0040]
A method for obtaining the viewing angle of the imaging unit 1 from the lens state information sent from the lens state control unit 6 will be described with reference to FIGS. 13 and 14. First, the focal length of the lens used in the imaging unit 1 is calculated from the zoom value sent from the lens state control unit 6. Here, it is assumed that the zoom value transmitted from the lens state control unit 6 is a value output from an 8-bit encoder provided in the imaging unit 1, and the value and the focal length of the lens are as shown in the table of FIG. It is assumed that Then, by referring to the table of FIG. 13 and interpolating values not stored in the table, the focal length of the lens used in the imaging unit 1 is used by using the zoom value sent from the lens state control unit 6. Can be sought. However, when the lens state control unit 6 can directly output the focal length, it is not necessary to calculate the focal length using a table as shown in FIG.
[0041]
Assuming that the focal length of the lens used in the imaging unit 1 obtained as described above is f and the horizontal width of the imaging surface provided in the imaging unit 1 is x, the horizontal viewing angle ψ of the imaging unit 1 is as follows from FIG. It can be calculated by the following formula.
[0042]
ψ = 2 arctan (x / 2f)
Similarly, assuming that the height of the imaging surface provided in the imaging unit 1 is y, the viewing angle μ in the vertical direction of the imaging unit 1 can be obtained from the following equation from FIG.
[0043]
μ = 2 arctan (y / 2f)
As described above, the position of the lens center of the lens used in the image pickup unit 1 and the viewing angle of the image pickup unit 1 are obtained from the posture information sent from the posture measurement unit 5 and the lens state information sent from the lens state control unit 6. Therefore, the field of view of the imaging unit 1 can be obtained.
[0044]
The method for obtaining the field of view of the imaging unit 1 is not limited to the method described above as long as the field of view of the imaging unit 1 is obtained.
[0045]
In step S <b> 6, the mixed image generation unit 7 generates a generated image using the data acquired from the data unit 8. For example, this generated image has the same angle of view in the same or almost the same posture as that of the imaging unit 1 at the time of step S5 from the actual panorama image generated from the image previously captured at the time t in step S0 by the imaging unit 1. This is an image obtained by cutting out an image close to an image that would be captured when zoomed. The method of cutting out has been described in the explanation part of Step 0.
[0046]
For example, the generated image is a computer image in which text data associated with the real world included in the field of view of the imaging unit 1 is drawn on a transparent background, or a three-dimensional CG associated with the real world. The three-dimensional virtual space composed of data may be a two-dimensional computer image taken by a virtual camera at a position and posture corresponding to the imaging unit 1. Furthermore, the generated image may be an image in which an image cut out from the actual panorama image and the two-dimensional computer image are mixed. The generated image is sent to the image mixing unit 3.
[0047]
In step S <b> 7, the captured image transmitted from the captured image capturing unit 2 and the generated image transmitted from the mixed image generating unit 7 are mixed in the image mixing unit 3. When the generated image is an image cut out from the real panorama image captured by the imaging unit 1, the captured image is an image captured by the imaging unit 1 at the time of processing in step S5, and the generated image is captured by the imaging unit 1 at a time close to time t. However, the horizontal angle and the vertical angle at the time of shooting are exactly the same or substantially the same, and the shooting angle of view is exactly the same. That is, the stationary objects appearing in both images are completely or substantially the same, but have different brightness. When the generated image is a computer image, the computer image includes a space corresponding to the real world included in the captured image.
[0048]
One method of mixing the captured image and the generated image in step S7 includes an alpha blending process. If the luminance of a pixel located at coordinates (x, y) in an image A is represented by A (x, y) [R, G, B], two images A and B having the same size In alpha blending (α blending) processing that generates image C by mixing
αA (x, y) [R, G, B] + (1-α) B (x, y) [R, G, B] = C (x, y) [R, G, B]
Perform the process. α indicates transparency, and is an arbitrary value between 0 and 1 and is called an alpha value. If the value of α is close to 0.5, the mixed image includes both shooting conditions equally, and if it is close to 0 or 1, the mixed image is almost the same as one of the images. In particular, α = 0 corresponds to not performing the mixing process. In this process, a mixed image with smooth image quality can be generated.
[0049]
The above alpha value setting may be performed manually or automatically. For example, when performing manually, although not shown in the block diagram of FIG. 1, the alpha value is set via a mixing rate input unit such as a keyboard connected to the image mixing unit 3. When performing automatically, the image mixing unit 3 analyzes the image obtained from the captured image capturing unit 2, and determines the alpha value according to the analysis result.
[0050]
Hereinafter, an example of an alpha value setting method in the case of performing automatically will be described.
[0051]
Automatic setting method 1: The alpha value (α) is determined according to the brightness of the captured image obtained from the captured image image capturing unit 2.
[0052]
The automatic setting method 1 is effective when the image is bright but details are not clearly visible. For example, by synthesizing a panoramic image showing a clear landscape stored in advance in the data unit 8 with a landscape with unclear details such as a hazy landscape or a foggy landscape, It can make it easy to see details in the landscape. Specifically, if the change in brightness of the photographed image is small, the ratio of the panoramic image showing a clear landscape in the composite image is increased by increasing α.
[0053]
First, the photographed image data obtained from the photographed image capturing unit 2 is converted into a grayscale image using the following conversion formula. A grayscale image is an image whose density is determined by lightness, and is image data composed of only gray of which saturation is 0 and the RGB values are equal for each pixel, and the RGB values are equal to lightness.
[0054]
Lightness of each pixel = each pixel value of RGB = (a × R component + b × G component + c × B component) a, b, and c may be arbitrary values. However, as an example, they are used in the NTSC standard here. The values based on the YIQ model (a = 0.299, b = 0.487, c = 0.144) are given. This value was determined taking into account the difference in sensitivity to human visual color.
[0055]
Next, α is determined from the obtained gray scale image.
[0056]
Two-dimensional Fourier transform (for example, discrete cosine transform) is performed on the obtained gray scale image. Then, from the conversion result, the ratio of high frequency components over a certain frequency to the whole is calculated, and α is determined according to the ratio. For example, α is determined using the following conversion formula.
[0057]
α = proportional constant × high-frequency component ratio + constant
However, 0 if α <0, 1 if α> 1.
Assuming that the proportionality constant is -0.8 and the constant is 0.74, if "mixed image = (1-α) x captured image + α x generated image", the ratio of high-frequency components is 0.3 (30%) If α = 0.5 and the high-frequency component ratio is 0.8 (80%), then α = 0.1.
[0058]
According to this method, if the high-frequency component of the grayscale image is small, that is, if the change in brightness is small, α is large.
[0059]
Further, the brightness variation of the obtained gray scale image may be obtained as a standard deviation, and α may be determined according to the standard deviation.
[0060]
For example, α is determined according to the following conversion formula.
[0061]
α = proportional constant × lightness standard deviation + constant
However, 0 if α <0, 1 if α> 1.
When the proportionality constant is 0.004 and the constant is 0, in the case of “mixed image = (1−α) × captured image + α × generated image”, if the standard deviation of brightness is 150, if α = 0.5, 50 Α = 0.1.
[0062]
According to this method, if the standard deviation of the grayscale image is small, that is, if the change in brightness is small, α is large.
[0063]
Automatic setting method 2: The alpha value (α) is determined by comparing the brightness of the captured image obtained from the captured image capturing unit 2 and the brightness of the generated image transmitted from the mixed image generating unit 7.
[0064]
The automatic setting method 2 is effective when the captured image is dark and cannot be seen as a whole.
[0065]
First, using a method similar to the automatic setting method 1, a grayscale image is generated from the captured image obtained from the captured image capturing unit 2. Further, a gray rail image is generated from the generated image generated by the mixed image generating unit 7. Then, the average brightness of each of the two obtained grayscale images is calculated.
[0066]
Α is determined according to the difference in brightness average obtained. For example, the following conversion formula is used.
[0067]
α = proportional constant × (average brightness of mixed image−average brightness of captured image) + constant
However, 0 if α <0, 1 if α> 1.
When the proportionality constant is 0.004 and the constant is 0, in the case of “mixed image = (1−α) × captured image + α × generated image”, if the difference in brightness is 150, if α = 0.5, 50 α = 0.1.
[0068]
Automatic setting method 3: The brightness of the captured image obtained from the captured image capturing unit 2 and the brightness of the generated image sent from the mixed image generating unit 7 are compared for each pixel to determine the alpha value (α). .
[0069]
The automatic setting method 3 is also effective when the captured image is dark and cannot be seen as a whole.
[0070]
First, two grayscale images are generated from the image obtained from the captured image capturing unit 2 and the generated image generated by the mixed image generating unit 7.
[0071]
Next, the brightness difference between the captured image and the generated image is obtained for each pixel, and the average brightness difference is calculated. Then, α is determined according to the average brightness difference. For example, the following conversion formula is used.
[0072]
α = proportional constant × (average brightness difference between mixed image and captured image) + constant
However, 0 is set when α <0, and 1 when α> 1.
[0073]
When the proportionality constant is 0.004 and the constant is 0, in the case of “mixed image = (1−α) × captured image + α × generated image”, if the average brightness difference is 150, then α = 0.5, 50 Α = 0.1.
[0074]
According to the automatic setting methods 2 and 3, since α is determined according to the brightness difference between the captured image and the generated image, the generated image is generated from the panoramic image generated from the captured image at the time of clearing. Then, when the captured image is dark and cannot be clearly seen, the composition ratio of the generated image is increased, and the configuration of details can be emphasized.
[0075]
Thus, an appropriate automatic setting method varies depending on the purpose. Therefore, a plurality of automatic setting methods may be provided, and an appropriate automatic setting method may be selected according to conditions specified by the user on the operation unit. For example, when the automatic setting method 1 and the automatic setting method 2 or 3 are provided, a sunny button and a night view button may be provided in the operation unit as the condition specifying unit.
[0076]
The above-described alpha value is obtained for each image. However, when the alpha value is embedded for each pixel of the generated image and mixed with the photographed image, the alpha value may be set using the embedded value.
[0077]
For example, assuming that a value of α = 1 is embedded in a part of a landscape in which a building is reflected and a value of α = 0 is embedded in other parts, the image is mixed by this image mixing device. As for the image of the building, an image close to the image that would have been captured by the image capturing unit 1 at a time close to time t is displayed, and the image captured by the image capturing unit 1 during the processing of step S7 is displayed in the other part. Is done.
[0078]
Another method of mixing the captured image and the generated image in step S7 includes a process of mixing both in a mosaic pattern. In this process, a mixed image is created by displaying one of two images that are mixed for each pixel. In other words, this is a process in which the alpha blending process is performed by changing the alpha value for each pixel. For example, when two images D and E are mixed to create an image F, the coordinates of each pixel of the image are represented by (X, Y), and m and n are integers of 1 or more. The pixels that can be represented by coordinates (2m-1, 2n-1) and (2m, 2n) are subjected to alpha blending processing with α = 0 and the corresponding pixels of image D are displayed, and coordinates (2m, 2n-1) and An image corresponding to the image E is displayed on the pixels represented by (2m−1, 2n) by performing alpha blending processing with α = 1. FIG. 7 is a diagram for explaining this mixing process. In this process, a mixed image can be generated with a small amount of calculation.
[0079]
In the above example, adjacent pixels are mixed at different ratios, but the mixing ratio may be changed for each area of the screen. Further, different mixing processes may be performed depending on the region. FIG. 8 is a diagram for explaining the case where mixing is performed by one method over the entire screen. FIG. 9 is a diagram illustrating a case where the mixing process is performed only in a certain area of the screen and the process is not performed in the remaining area.
[0080]
When the method of mixing processing and the mixing ratio are changed in accordance with the area of the screen, the area may be designated automatically or manually. For example, when performing manually, although not shown in the block diagram of FIG. 1, when a certain pixel in the image is designated using the mouse connected to the image mixing unit 3, the distance is within a certain distance from the pixel. It becomes the specified area. When performing automatically, for example, contour line emphasis processing is performed on the captured image, and the image is divided into regions based on the emphasized contour line. Further, for example, although not shown in the block diagram of FIG. 1, when a keyword is input using a keyboard connected to the image mixing unit 3, a region that matches the keyword becomes a designated region.
[0081]
In the above-described mixing, the case where one generated image is mixed with one captured image has been described. However, two or more generated images are mixed with one captured image. May be. In this case, for example, the mixing may be performed by a process of calculating one pixel value from three pixel values, or the generated image to be mixed with the captured image may be switched according to the area of the screen. For example, an image cut out from a panoramic image created in fine weather can be mixed in a part to be emphasized in a captured image, and a black color image can be generated in the other part.
[0082]
The mixed image obtained by mixing the captured image and the generated image is sent to the display unit 9. In step S8, the display unit 9 displays the mixed image information sent from the image mixing unit 3. Thereafter, in step S9, it is checked whether or not to end the system. If the system is to be ended, the system is ended in step S10. If not, the process returns to step S2, and the above-described processing is repeated.
[0083]
As described above, according to the first embodiment, for example, when viewing an outdoor landscape on an observation deck, even if a building or the like in the landscape cannot be seen with the naked eye due to cloudy weather, the landscape in front of you and the clear sky The scenery of the time is mixed and you can see the clear outdoor scenery where the buildings etc. are easier to see. A live-action panoramic image created from an image taken in fine weather is stored in the data unit 8 in advance, and the horizontal direction angle, the vertical direction angle, and the angle of view when the imaging unit 1 captures the real world using posture information and lens state information. The region corresponding to the field of view is cut out from the real panorama image stored in the data unit 8 and mixed with the captured image sent from the captured image capturing unit 2 capturing the captured image of the scenery in front of the eyes. Then, the above items are achieved by displaying on the display unit 9.
[0084]
In addition, according to the first embodiment, it is possible to view a landscape as if the outdoors are illuminated with illumination, for example, in a time zone when the sun goes down and darkens. That is, a live-action panoramic image created from an image captured in a bright time zone is stored in the data unit 8 in advance, and the horizontal direction angle and vertical direction when the imaging unit 1 captures the real world using posture information and lens state information. A captured image capturing unit that captures a captured image obtained by capturing an image of a scene in front of the eye, with the angle and the angle of view determined, the portion of the field of view cut out from the real panorama image stored in the data unit 8 2 is mixed with the corresponding part of the captured image sent from 2 and displayed on the display unit 9, and the remaining part is displayed on the display unit 9 as it is the captured image sent from the captured image capturing unit 2. The above items are achieved.
[0085]
Furthermore, according to the first embodiment, for example, a past or future landscape virtually reproduced can be superimposed on a landscape spreading in front of the present. Three-dimensional CG data that reproduces the past or future landscape of the place is stored in the data unit 8 in advance, and a three-dimensional virtual space configured by the three-dimensional CG data is virtually displayed at a position and orientation corresponding to the imaging unit 1. The above-mentioned matter is achieved by generating a two-dimensional CG image captured by the camera and mixing it with the captured image sent from the captured image capturing unit 2 that captures the image actually captured by the imaging unit 1. .
[0086]
<Second Embodiment>
FIG. 3 is a block diagram showing a schematic configuration of the image mixing apparatus according to the second embodiment. The same components as those of the image mixing apparatus (FIG. 1) according to the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. The second embodiment is different in that the support portion 4 is not provided. Moreover, the point by which the attitude | position measurement part 5 in 1st embodiment becomes the position / orientation measurement part 10 differs.
[0087]
Reference numeral 10 denotes a position / orientation measurement unit that measures the position and orientation of the imaging unit 1, and requests the position information and orientation information of the imaging unit 1 in response to a request from the mixed image generation unit 7 or a request from the mixed image generation unit 7. Without being sent to the mixed image generating unit 7. The position / orientation measurement unit 10 may use, for example, a gyro sensor or an optical sensor. In the present specification, the portion described as a position / orientation measurement unit includes a part composed of a position measurement unit and an attitude measurement unit. The position / orientation measurement unit 10 may be a combination of a plurality of sensor devices.
[0088]
The mixed image generation unit 7 extracts the position / orientation information of the imaging unit 1 from the position / orientation measurement unit 10 to estimate the position and orientation of the imaging unit 1, and extracts the lens state information from the lens state control unit 6 to acquire the imaging unit 1. Estimate the angle of view. If the position, orientation, and angle of view of the image capturing unit 1 can be estimated, the field of view of the image capturing unit 1 can be obtained. Therefore, the mixed image generation unit 7 extracts data corresponding to the field of view of the image capturing unit 1 from the data unit 8. The extracted data is sent to the image mixing unit 3.
[0089]
The display unit 9 is preferably moved in conjunction with the imaging unit 1 and the position / orientation measurement unit 10, but this is not always necessary. For example, the configuration may be such that the imaging unit 1 is movable and the display unit 9 is fixed. .
[0090]
The mixed image storage unit 13 includes, for example, a hard disk, and receives and records the mixed image signal from the image mixing unit 3. As the mixed image storage unit 13, for example, a video recorder or a hard disk may be used, and any medium can be used as long as it can store images. The In addition, information other than the mixed image is recorded in the mixed image storage unit 13, for example, text information and image information such as the date and place of the composition are recorded.
[0091]
The stored image output unit 14 takes out part or all of the mixed image from the mixed image storage unit 13 and outputs it as an image or printed matter. The stored image output unit 14 may be a printer or the like, but may be anything that can output a stored image. The
[0092]
The input unit 15 includes a keyboard, for example, and inputs information other than the mixed image to the mixed image storage unit 13. The input unit 15 is not limited to a keyboard, and may be anything that can be input by the user of the image mixing apparatus of the present invention.
[0093]
The control of the present embodiment having the above configuration will be described below. FIG. 4 is a flowchart for explaining the processing procedure in the image mixing apparatus of the present invention. In addition, the same reference number is attached | subjected about the step which performs the process similar to the flowchart (FIG. 2) shown in 1st embodiment, and detailed description is abbreviate | omitted. The steps that are not described are exactly the same. Below, a different part is demonstrated by 1st embodiment and 2nd embodiment.
[0094]
In step S0, data to be stored in the data portion 8 is prepared. This data is a combination of images taken at time t (= t1, t2,...) Prior to using this apparatus, for example, using the imaging unit 1 described in step S0 in the first embodiment. This is a live-action panoramic image. An image taken at time t using the imaging unit 1 to create a real panorama image will be referred to as an original image hereinafter.
[0095]
Among the pixels constituting the real panorama image, the original image is a pixel in a predetermined column, for example, the first column from the left, and the position of the imaging unit 1 when the pixel is captured And a horizontal angle are associated with each other. Similarly, among the pixels constituting the real panorama image, the original image includes pixels in a predetermined row, for example, the pixel in the first row from the top, and the imaging unit when the pixel is photographed The position 1 and the vertical angle are associated with each other. Here, the position, the horizontal direction angle, and the vertical direction angle associated with the actual panorama image are estimated from the position / orientation information of the image capturing unit 1 measured by the orientation measuring unit 5 at the time t when the original image was captured.
[0096]
If a certain position, horizontal angle, and vertical angle that can be taken by the imaging unit 1 are designated from the actual panorama image as described above, the imaging unit 1 would have taken a picture at that position and posture at a time close to time t. An image close to the image can be cut out from the real panorama image. However, it is needless to say that this is based on cutting out an image at a position where the entire image to be cut out is included in the real panorama image, and at a horizontal angle and an up-down angle.
[0097]
Further, the actual panorama image is obtained by associating the angle of view of the imaging unit 1 at the time of shooting estimated by the image mixing unit. That is, when a certain angle of view is designated, an area captured when zooming to the designated angle of view can be cut out from this image with the associated angle of view as a reference.
[0098]
Further, the actual panorama image may be obtained by performing image processing such as color tone correction and contour line enhancement on the image panoramicized by using the imaging unit 1.
[0099]
For example, the data stored in the data unit 8 is text data, three-dimensional CG data, a two-dimensional CG image, or the like. This data needs to have correspondence with the three-dimensional coordinates in the real world in advance. For example, if it is a three-dimensional CG, it corresponds to which three-dimensional position in the real world, and if it is a two-dimensional CG image, You have to specify the image from which position and from what direction.
[0100]
After data preparation, the system is started in step S1. In step S 2, an image is acquired from the imaging unit 1, and the acquired captured image is converted into an appropriate format by the captured image capturing unit 2 and sent to the image mixing unit 3. In step S <b> 11, the position and orientation measurement unit 10 detects the position and orientation of the imaging unit 1, and the detected position and orientation information is sent to the mixed image generation unit 7. In step S <b> 4, the lens state control unit 6 detects lens state information such as a zoom value and a focus value of the lens used in the imaging unit 1, and the detected lens state information is sent to the mixed image generation unit 7.
[0101]
In step S <b> 5, the mixed image generation unit 7 determines the position, posture, and angle of view at the time of shooting of the image pickup unit 1 from the position / posture information sent from the position / posture measurement unit 10 and the lens state information sent from the lens state control unit 6. The data corresponding to the visual field of the imaging unit 1 at the time of the process of step S5 is calculated and acquired from the data unit 8. The acquired data is sent to the image mixing unit 3.
[0102]
In step S <b> 6, the mixed image generation unit 7 generates a generated image using the data acquired from the data unit 8. For example, this generated image is obtained by cutting out a region shot when zooming to the same angle of view at the same or substantially the same position and orientation as the imaging unit 1 at the time of processing in step S5 from the real panorama image previously captured by the imaging unit 1. It is an image. For example, the generated image is a computer image in which text data associated with the real world included in the field of view of the imaging unit 1 is drawn on a transparent background, or a three-dimensional CG associated with the real world. The three-dimensional virtual space composed of data may be a two-dimensional computer image taken by a virtual camera at a position and posture corresponding to the imaging unit 1. The generated image is sent to the image mixing unit 3.
[0103]
In the second embodiment, the mixed image is stored in step S14 following step S8. In step S <b> 14, the mixed image storage unit 13 records the mixed image sent from the image mixing unit 3.
[0104]
In the second embodiment, when the user of the image mixing apparatus finishes using the image data in step S9, the image is output from the stored image output unit 14 in step S15, and the output result is passed to the user. The stored image output unit 14 is composed of, for example, a printer, and the user can take home a still image of the mixed image when he / she uses the image mixing apparatus of the present invention.
[0105]
When outputting the stored image in step S15, if information other than the mixed image recorded in the mixed image storage unit 13 is used, for example, date information of the day can be written as text in addition to the stored image. It is. It is also possible for the user to input his / her name from the input unit 15 and add the name as text to the mixed image. If a tablet is used for the input unit 15, for example, the user of the image mixing apparatus of the present invention can freely add a picture or a character to the mixed image. If, for example, a frame image is input to the mixed image storage unit 13 through the input unit 15 in advance, it is possible to output a commemorative photographed storage image by inserting the mixed image into the frame image. It is.
[0106]
As described above, according to the second embodiment, for example, when using a head-mounted see-through display to look at the real correct answer, a landscape in which an image close to the landscape at another time is mixed with the landscape in front of you Or, you can see a landscape in which a virtually created landscape is mixed with the landscape in front of you.
[0107]
<Third embodiment>
The outline of the third embodiment is as follows. FIG. 5 is a block diagram showing a schematic configuration of an image mixing apparatus according to the third embodiment. The same components as those of the image mixing apparatus (FIG. 1) according to the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. The third embodiment is different in that the support unit 4 and the lens state control unit 6 are not provided.
[0108]
Reference numeral 5 denotes an attitude measurement unit, which is a mixed image generation unit that changes the attitude information of the imaging unit 1, that is, the attitude in the real world, in response to a request from the mixed image generation unit 7 or without a request from the mixed image generation unit 7. 7 to send. The posture measuring unit 5 may be a gyro sensor or an optical sensor, for example.
[0109]
Reference numeral 7 denotes a mixed image generation unit that extracts posture information of the imaging unit 1 from the posture measurement unit 5 and estimates a direction in which the imaging unit 1 is facing. If the direction in which the imaging unit 1 is facing can be estimated, the field of view of the imaging unit 1 can be obtained when the use position of the apparatus and the angle of view of the imaging unit 1 are known. The mixed image generation unit 7 extracts data corresponding to the visual field of the imaging unit 1 from the data unit 8. The extracted data is sent to the image mixing unit 3.
[0110]
The control of the present embodiment having the above configuration will be described below. FIG. 6 is a flowchart for explaining a processing procedure in the image mixing apparatus. In addition, the same reference number is attached | subjected about the step which performs the process similar to the flowchart (FIG. 2) shown in 1st embodiment, and detailed description is abbreviate | omitted. The steps that are not described are exactly the same. Below, a different part is demonstrated by 1st embodiment and 3rd embodiment.
[0111]
In step S1, the system is activated. At this time, the apparatus must be used at a predetermined position.
[0112]
In step S5, the mixed image generation unit 7 estimates the field of view of the imaging unit 1 from the posture information sent from the posture measurement unit 5 and the coordinates of the use position of the apparatus determined in advance, and the imaging unit at the time of processing in step S5 Data corresponding to one field of view is acquired from the data unit 8. The acquired data is sent to the image mixing unit 3.
[0113]
As described above, according to the third embodiment, for example, when a user stands at a predetermined position and views a landscape using a head-mounted type see-through display, the time in front of the landscape is different. It is possible to view a landscape in which images close to the current landscape are mixed, or a landscape in which virtually created landscapes are mixed in front of you.
[0114]
In addition, the image mixing apparatus according to the present embodiment is not limited to use for outdoor scenery, and can be used in all situations where the image mixing apparatus according to the present invention can be effectively used. is there.
[0115]
The object of the present embodiment is to supply a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (or CPU or MPU of the system or apparatus). ) Is also achieved by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
[0116]
Further, after the program code read from the storage medium is written to a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the card or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
[0117]
【The invention's effect】
As described above, according to the present invention, it is possible to clarify the field of view of a real-world image captured when the field of view is poor.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an image mixing apparatus according to a first embodiment.
FIG. 2 is a flowchart illustrating a processing procedure of the image mixing device according to the first embodiment.
FIG. 3 is a block diagram showing a schematic configuration of an image mixing apparatus according to a second embodiment.
FIG. 4 is a flowchart illustrating a processing procedure of the image mixing device in the second embodiment.
FIG. 5 is a block diagram showing a schematic configuration of an image mixing device according to a third embodiment of the present invention.
FIG. 6 is a flowchart illustrating a processing procedure of the image mixing device according to the third embodiment.
FIG. 7 is a diagram illustrating a process of mixing two images in a mosaic shape.
FIG. 8 is a diagram illustrating a case where two images are mixed over the entire screen.
FIG. 9 is a diagram for explaining a case where two images are mixed only in a partial area of the screen, and one of the two images is displayed in the remaining area.
FIG. 10 is a diagram illustrating a case where a panoramic image is captured by an imaging unit and stored in a data unit.
FIG. 11 is a diagram illustrating a method for obtaining the position of the lens center of a lens used in the imaging unit from posture information sent from the posture control unit.
FIG. 12 is a diagram illustrating a method for obtaining the position of the lens center of a lens used in the imaging unit from posture information sent from the posture control unit.
FIG. 13 is a diagram illustrating a method for obtaining a focal length of a lens used in an imaging unit from lens state information sent from a lens state control unit.
FIG. 14 is a diagram illustrating a method for obtaining a viewing angle of a lens from a focal length of the lens used in an imaging unit.

Claims (12)

撮影部で撮影された撮影画像に、予め保持されているパノラマ画像データから生成された画像を混合する情報処理方法であって、
撮影部で撮影された撮影画像および該撮影部の姿勢情報を入力し、
他時刻に撮影された撮影画像に基づくパノラマ画像データを保持し、
前記撮影部の姿勢情報に基づき、前記撮影画像に対応する画像を前記パノラマ画像データから生成し、
前記撮影画像を解析し、混合条件を求め、
前記混合条件を用いて、前記生成された画像を前記撮影画像に混合することを特徴とする情報処理方法。
An information processing method for mixing an image generated from panoramic image data stored in advance with a captured image captured by an imaging unit,
Input the captured image captured by the imaging unit and the posture information of the imaging unit,
Hold panoramic image data based on images taken at other times,
Based on the posture information of the photographing unit, an image corresponding to the photographed image is generated from the panoramic image data,
Analyzing the captured image to determine the mixing conditions,
An information processing method, wherein the generated image is mixed with the captured image using the mixing condition.
前記混合条件は、複数の混合条件算出方法から選択された混合条件算出方法を用いて求められることを特徴とする請求項1記載の情報処理方法。The information processing method according to claim 1, wherein the mixing condition is obtained using a mixing condition calculation method selected from a plurality of mixing condition calculation methods. 前記混合条件は、前記撮影画像の明るさ情報に基づき求められることを特徴とする請求項1記載の情報処理方法。The information processing method according to claim 1, wherein the mixing condition is obtained based on brightness information of the captured image. 前記撮影画像からグレースケール画像を作成し、
前記グレースケール画像の空間周波数を解析し、前記混合条件を求めることを特徴とする請求項1記載の情報処理方法。
Create a grayscale image from the captured image,
The information processing method according to claim 1, wherein the mixing condition is obtained by analyzing a spatial frequency of the gray scale image.
前記混合条件は、前記撮影画像および前記生成された画像のそれぞれのグレースケール画像を作成し、
前記各グレースケール画像の平均値の差から前記混合条件を求めることを特徴とする請求項1記載の情報処理方法。
The mixing condition creates a grayscale image of each of the captured image and the generated image,
The information processing method according to claim 1, wherein the mixing condition is obtained from a difference between average values of the gray scale images.
前記他時刻に撮影された撮影画像は、晴れた時に撮影された撮影画像であることを特徴とする請求項1記載の情報処理方法。The information processing method according to claim 1, wherein the photographed image photographed at another time is a photographed image photographed when the weather is fine. 請求項1乃至7のいずれかに記載されている情報処理方法を実現するためのプログラム。The program for implement | achieving the information processing method described in any one of Claims 1 thru | or 7. 撮影部で撮影された撮影画像に、予め保持されているデータから生成された画像を混合する情報処理方法であって、
撮影部で撮影された撮影画像および該撮影部の姿勢情報を入力し、
前記撮影部の姿勢情報に基づき、予め保持されているデータから前記撮影画像に対応する画像を生成し、
前記撮影画像の明るさを解析し、混合条件を求め、
前記混合条件を用いて、前記生成された画像を前記撮影画像に混合することを特徴とする情報処理方法。
An information processing method for mixing an image generated from data held in advance with a captured image captured by an imaging unit,
Input the captured image captured by the imaging unit and the posture information of the imaging unit,
Based on the posture information of the photographing unit, an image corresponding to the photographed image is generated from data stored in advance,
Analyzing the brightness of the captured image to determine the mixing conditions,
An information processing method, wherein the generated image is mixed with the captured image using the mixing condition.
前記混合条件を前記生成した画像に埋め込むことを特徴とする請求項8記載の情報処理方法。The information processing method according to claim 8, wherein the mixing condition is embedded in the generated image. 前記撮影画像の画素ごとに混合条件を変えることを特徴とする請求項8記載の情報処理方法。9. The information processing method according to claim 8, wherein a mixing condition is changed for each pixel of the photographed image. 請求項8乃至10のいずれかに記載の情報処理方法を実現するためのプログラム。The program for implement | achieving the information processing method in any one of Claims 8 thru | or 10. 現実世界を撮影する撮影手段と、
前記撮影部の姿勢を測定する姿勢測定手段と、
前記撮影部の姿勢情報に基づき、予め保持されているデータから前記撮影画像に対応する画像を生成する生成手段と、
前記撮影画像の明るさを解析し、混合条件を求める手段と、
前記混合条件を用いて、前記生成された画像を前記撮影画像に混合する混合手段とを有するとを特徴とする画像混合装置。
Photography means for photographing the real world,
Posture measuring means for measuring the posture of the photographing unit;
Generating means for generating an image corresponding to the photographed image from pre-stored data based on posture information of the photographing unit;
Means for analyzing the brightness of the captured image and obtaining a mixing condition;
An image mixing apparatus comprising: a mixing unit that mixes the generated image with the captured image using the mixing condition.
JP2001334709A 2001-10-31 2001-10-31 Information processing method and image mixing apparatus Expired - Fee Related JP4046973B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001334709A JP4046973B2 (en) 2001-10-31 2001-10-31 Information processing method and image mixing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001334709A JP4046973B2 (en) 2001-10-31 2001-10-31 Information processing method and image mixing apparatus

Publications (2)

Publication Number Publication Date
JP2003141523A JP2003141523A (en) 2003-05-16
JP4046973B2 true JP4046973B2 (en) 2008-02-13

Family

ID=19149800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001334709A Expired - Fee Related JP4046973B2 (en) 2001-10-31 2001-10-31 Information processing method and image mixing apparatus

Country Status (1)

Country Link
JP (1) JP4046973B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110647005A (en) * 2016-04-28 2020-01-03 深圳市大疆创新科技有限公司 System and method for obtaining spherical panoramic images

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009081623A1 (en) * 2007-12-20 2009-07-02 Sharp Kabushiki Kaisha Image processing device and display device including it
JPWO2011132382A1 (en) * 2010-04-19 2013-07-18 日本電気株式会社 Information providing system, information providing method, and information providing program
JP5603202B2 (en) * 2010-11-01 2014-10-08 株式会社メガチップス Image processing apparatus and method of operating image processing apparatus
JP5786411B2 (en) * 2011-03-31 2015-09-30 株式会社Jvcケンウッド Information processing system, search device, and program
JP6412400B2 (en) * 2014-10-23 2018-10-24 日本放送協会 Image composition apparatus and image composition program
JP6930011B2 (en) * 2017-04-14 2021-09-01 株式会社ソニー・インタラクティブエンタテインメント Information processing equipment, information processing system, and image processing method
US11030732B2 (en) 2017-04-14 2021-06-08 Sony Interactive Entertainment Inc. Information processing device, information processing system, and image processing method for generating a sum picture by adding pixel values of multiple pictures

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110647005A (en) * 2016-04-28 2020-01-03 深圳市大疆创新科技有限公司 System and method for obtaining spherical panoramic images

Also Published As

Publication number Publication date
JP2003141523A (en) 2003-05-16

Similar Documents

Publication Publication Date Title
US6633304B2 (en) Mixed reality presentation apparatus and control method thereof
US10417829B2 (en) Method and apparatus for providing realistic 2D/3D AR experience service based on video image
USRE45785E1 (en) Virtual reality camera
JP3450833B2 (en) Image processing apparatus and method, program code, and storage medium
CN104079839B (en) Device and method for the multispectral imaging using parallax correction
JP4878083B2 (en) Image composition apparatus and method, and program
CN104246795B (en) The method and system of adaptive perspective correction for extrawide angle lens image
JP4115117B2 (en) Information processing apparatus and method
CN107844190B (en) Image display method and device based on virtual reality VR equipment
JP4072330B2 (en) Display device and information processing method
US20100110069A1 (en) System for rendering virtual see-through scenes
US7782320B2 (en) Information processing method and information processing apparatus
JP7182920B2 (en) Image processing device, image processing method and program
JP2010109783A (en) Electronic camera
JP4046973B2 (en) Information processing method and image mixing apparatus
CN114241168A (en) Display method, display device, and computer-readable storage medium
US11941729B2 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
CN108564654B (en) Picture entering mode of three-dimensional large scene
US20190066366A1 (en) Methods and Apparatus for Decorating User Interface Elements with Environmental Lighting
Ikeda et al. Calibration method for an omnidirectional multicamera system
RU2735066C1 (en) Method for displaying augmented reality wide-format object
JP2003143477A (en) Image compositing device and method
US20050105793A1 (en) Identifying a target region of a three-dimensional object from a two-dimensional image
CN112866507B (en) Intelligent panoramic video synthesis method and system, electronic device and medium
JP4124995B2 (en) Video composition apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4046973

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131130

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees