JPH10188029A - 仮想空間生成装置 - Google Patents

仮想空間生成装置

Info

Publication number
JPH10188029A
JPH10188029A JP8342881A JP34288196A JPH10188029A JP H10188029 A JPH10188029 A JP H10188029A JP 8342881 A JP8342881 A JP 8342881A JP 34288196 A JP34288196 A JP 34288196A JP H10188029 A JPH10188029 A JP H10188029A
Authority
JP
Japan
Prior art keywords
image
input
angle
viewpoint
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8342881A
Other languages
English (en)
Other versions
JP3433882B2 (ja
Inventor
Michio Miwa
輪 道 雄 三
Makoto Sato
藤 誠 佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP34288196A priority Critical patent/JP3433882B2/ja
Publication of JPH10188029A publication Critical patent/JPH10188029A/ja
Application granted granted Critical
Publication of JP3433882B2 publication Critical patent/JP3433882B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【課題】 ユーザが見たい視線の方向を入力するだけで
その方向に最も近い画像を選択することができる仮想空
間生成装置を提供すること。 【解決手段】 仮想空間生成装置を、画像入力手段1
と、画像入力手段の向いている角度を測定する角度測定
手段2と、入力画像と角度測定手段の測定した方向を記
録する入力情報記録手段3と、入力情報記録手段の情報
を構造化した結果を記録する構造化データ記録手段4
と、視点入力手段6と、視点入力手段から入力された視
点に最も近い画像を構造化データ記録手段から選択する
画像選択手段5と、前記画像選択手段の選択した画像を
表示する画像表示手段7とから構成する。これにより、
画像を入力すると同時に画像を入力した方向を測定する
ことができ、ユーザが見たい視線の方向を入力するだけ
でその方向に最も近い画像を選択することができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、動画像から3次元
空間を作成したり、撮影した動画像をフレーム毎に分割
し撮影時とは別の順序で見ることにより、仮想的な空間
移動を可能にする技術に関するものである。
【0002】
【従来の技術】図47 は、従来の仮想空間生成装置の一
例を示すブロック構成図である。図47において、符号
421は画像撮影手段、422はマッチング手段、42
3は立体画像生成手段、424は画像表示手段である。
次に、図48から図50を用いて従来の技術による生成
技術ついて説明する。図48は従来の仮想空間生成装置
の動作を説明した説明図である。図48において、43
1は地表などの表面、432は地表に建っている建物、
433および435は地表と平行に飛んでいる飛行機
で、433は或る時点に或る位置を飛んでいる飛行機、
435は飛行機433の位置から地表と平行に一定距離
飛んだ後の飛行機を表す。434は飛行機433から建
物432などを見たときの角度θ1、437は飛行機4
35から建物432などを見たときの角度θ2、436
は角度θ1を検出してから角度θ2を検出するまでに移
動した飛行機の移動距離を示している。図49は、図4
8の飛行機と建物の位置関係をさらに詳しく説明したも
のである。図49において、443は飛行機の移動距
離、444は撮影対象物としての建物の一部(これを注
目点とする)、445および446は地表と平行に飛ん
でいる飛行機で、445は或る時点に或る位置を飛んで
いる飛行機、446は飛行機445の位置から地表と平
行に一定距離飛んだ後の飛行機を表す。441は飛行機
445の移動方向と建物を見た方向のなす角度θ1であ
る。442は飛行機446の移動方向と建物を見た方向
のなす角度θ2である。飛行機の445から446まで
の移動距離443と注目点444までの距離は、三角形
444、445、446を構成しており、三角形の一辺
とその両端の角度がわかっているので、この三角形は大
きさが決まる。この結果、飛行機の移動方向443と建
物の一部までの距離447を求めることができる。な
お、図49中、448は飛行機445で建物を撮影した
ときの画像面、450は画像面448内における注目点
444の画像である。また、図49中、449は飛行機
446で建物を撮影したときの画像面、440は画像面
449内における注目点444の画像である。
【0003】そこで、図48のように水平に飛んでいる
飛行機から連続的に写真を撮影しながら撮影した物体ま
での距離を建物の多くの点について求めることによっ
て、地表面431などの上に建っている建物432など
の立体データを求めることが可能である。このような3
次元データを求めることができれば、建物などが建って
いる景観をコンピュータグラフィックスの技術を用いて
作成することができる。図48および図49を用いて説
明したように、画像撮影手段421で連続的な画像を撮
影し、マッチング手段422で画像間の対応をとり、立
体画像生成手段423で立体画像を生成し、画像表示手
段424で立体的な表示を行なう。
【0004】一方、立体形状を認識しなくても、仮想的
に3次元的に見せる技術として、イメージベースドレン
ダリングあるいは光線射影法などと呼ばれているものが
ある。これは、ある視点から見た映像を記録する方式で
あり、光線情報を仮想平面にマッピングして記録すると
いうものである。このような技術は、"PleopticModelin
g: An Image- Based Rendering System": Leonard Mcmi
llan, GaryBishop, Department of Computer Science U
niversity of North Carolina 、Computer Graphics Pr
oceedings Annual Conference Series, 1995, p39-p46:
「光線情報による3次元実空間の効率的記述に向けた光
線空間射影法、vis96−8,苗村 建、柳沢健之、
金子正義、原島博、p49−p56」において開示され
ている。図50はこうした手法を用いた仮想空間生成装
置のブロック構成図である。図50において、符号45
1は画像を撮影する画像撮影手段、452は隣り合った
画像のマッチングをとるマッチング手段、453は仮想
平面を作成する仮想平面生成手段、454は画像を表示
する画像表示手段である。図51はイメージベースドレ
ンダリングの概念を示したものである。図51におい
て、461は視点、462は物体、463は視点と物体
の間に置かれた仮想平面である。このような態様におい
て、物体462から出た光のうち、視点461に到達し
たものが人間の目に入る。このとき人は物体を認識でき
る。
【0005】一方、物体462と視点461の間に46
3のような仮想平面を考え、物体462から出た光をす
べて仮想平面463上に記録する。そして、視点461
からこの仮想平面463を見た角度に応じて記録した光
を表示すれば、人間はあたかもそこに物体があるように
見えるというものである。
【0006】図52および図53は、イメージベースド
レンダリングの手法を用いて、画像の撮影をしている様
子を示したものである。図52において、471はカメ
ラ、472は対象物、473は視点1である。撮影する
際には、カメラ471を視点1−473で左右に振って
撮影する。次に図53を用いて仮想平面の作成方法につ
いて述べる。図53で481はカメラ、472は対象
物、484は仮想平面、482は撮影した画像、483
は撮影した画像を仮想平面484に投影した画像であ
る。カメラ481で対象物472を撮影すると画像48
2が得られる。そこで、仮想平面484を対象物とカメ
ラの間に適当に設定して、画像482をこの仮想平面に
投影する。大きな仮想平面を作成する場合には、こうし
て投影した画像を張り合わせていく。このとき隣り合っ
た画像同士を張り合わせるために、画像を撮影した角度
を測定するため、カメラを使用する場合は、カメラを分
度器付の三脚に載置しカメラの回転角を正確に測定す
る。また、ビデオカメラで撮影する場合には画像認識の
技術を用いて隣り合った画像同士の対応点を連続的に求
めるといった方法(「投影法を用いた映像の解析方法と
映像ハンドリングへの応用」、阿久津明人、外村佳伸、
電子情報通信学会論文誌D-II,Vol.J79-D-II,No.5,pp675
-686, 1996年5月)が採用される。
【0007】
【発明が解決しようとする課題】しかしながら、図47
に示した従来の仮想空間生成装置では、異なった地点か
ら撮影した画像の中から、対応する箇所を複数個見つけ
ることが必要である。このため、対象物が曲面で構成さ
れていたり、光を反射しやすかったりすると、見る方向
によって見え方が異なるため対応点を見つけることが困
難で、立体データの作成が困難になってしまう。
【0008】また、図50に示した別の従来例の仮想空
間生成装置の場合においては、画像の位置関係を調べる
ために、画像同士の対応を正確に求める必要がある。す
なわち、ビデオカメラで撮影した連続したフレームを次
々に解析して、お互いの位置関係を求めて行く必要があ
る。このため、認識の難しい雪景色などの画像や、繰り
返しパターンの多い人工物のような画像の場合には、位
置関係を正しく求めることが困難であった。
【0009】また、三脚に分度器をつけた場合では、撮
影する毎に撮影した画像の撮影条件をノートなどに記録
しておかなければならないといった問題があった。本発
明は上記従来の問題点に鑑みてなされたもので、その目
的は、ユーザが見たい視線の方向を入力するだけでその
方向に最も近い画像を選択することができる仮想空間生
成装置を提供することである。
【0010】
【課題を解決するための手段】この課題を解決するため
に本発明は、第1に、仮想空間生成装置を、画像を入力
する画像入力手段と、前記画像入力手段の向いている角
度を測定する角度測定手段と、前記画像入力手段の入力
した画像と前記角度測定手段の測定した方向を記録する
入力情報記録手段と、前記入力情報記録手段の記録して
いる情報を構造化した結果を記録する構造化データ記録
手段と、視点を入力する視点入力手段と、前記視点入力
手段から入力された視点に最も近い画像を前記構造化デ
ータ記録手段から選択する画像選択手段と、前記画像選
択手段の選択した画像を表示する画像表示手段とから構
成したものである。また、構造化データ記録手段は画像
入力手段の入力した画像とこれと同時に角度測定手段か
ら入力された角度情報を組にして記録する。さらに、画
像選択手段は視点入力手段から入力された角度と同じ角
度を持つ構造化データ記録手段に記録された画像を選択
する。
【0011】これにより、画像を入力すると同時に画像
を入力した方向を測定することができ、ユーザが見たい
視線の方向を入力するだけでその方向に最も近い画像を
選択することができる。
【0012】第2に、第1の構成に加えて、画像入力手
段の位置を入力する位置測定手段を備え、前記位置測定
手段の測定した位置を前記第1の構成の仮想空間生成装
置の入力情報記録手段に入力する。また、構造化データ
記録手段は画像入力手段から入力された画像とこれと同
時に角度測定手段から入力された角度情報と位置測定手
段から入力された位置情報を組にして記録する。さら
に、画像選択手段は視点入力手段から入力された視点位
置を包む立体を作成し、前記視点入力装置によって入力
された視点からこの立体を見た領域1と呼ぶ部分を計算
し、前記立体を構造化データ記録手段に記録された画像
に対応する位置と角度から決められる視野から前記立体
を見た時の領域2と呼ぶ部分を前記構造化データに記録
された画像すべてに対して計算し、前記領域2に対する
前記領域2の重なる比率の最も大きなものに対する前記
構造化データに記録された画像を選択する。
【0013】これにより、画像入力手段から入力された
様々な位置で入力された複数の画像の中から、視点入力
装置から入力された視点位置に最も近い画像を選択する
ことができる。
【0014】第3に、第2の構成に加えて、画像入力装
置の入力する画像の拡大率を入力する拡大率入力手段を
有し、前記拡大率入力手段の入力する拡大率は第1の構
成の仮想空間生成装置の入力情報記録手段に入力される
ようにする。また、構造化データ記録手段は画像入力手
段から入力された画像とこれと同時に角度測定手段から
入力された角度情報と位置測定手段から入力された位置
情報と拡大率入力手段から入力された拡大率を組にして
記録することを特徴とする。
【0015】これにより、拡大率を変化させながら画像
を入力しても、視点入力手段から入力された視点に最も
近い画像を選択することができる。
【0016】第4に、第3の構成に加えて、画像入力装
置の入力する画像の対象物と、前記画像入力装置までの
距離を入力する距離測定手段を有し、前記距離測定手段
の入力する距離情報は前記第1の構成の仮想空間生成装
置の入力情報記録手段に入力されるようにする。また、
画像選択手段は、距離測定手段の入力する距離情報に合
わせて画像選択手段の生成する立体の大きさを構造化デ
ータ記録手段に記録された画像毎に決定し、画像毎に決
定された立体を視点入力手段から入力された視点から見
た領域1と、前記構造化データ記録手段に記録された位
置と角度と拡大率によって決定される視点から見た領域
2を前記構造化データ記録手段に記録された画像毎に計
算し、前記領域1と前記領域2の重なる割合が最も大き
なものに対する前記構造化データ記録手段に記録された
画像を選択する。
【0017】これにより、視点入力手段の入力した視点
位置に最も近い場所から、画像入力手段によって入力さ
れた画像を選択することができる。
【0018】第5に、本発明の別の態様の仮想空間生成
装置を、同期信号を発生する同期信号発生手段と、画像
を入力する画像入力手段と、前記同期信号発生手段の発
生する同期信号に合わせて前記画像入力手段によって入
力された画像を記録する画像記録手段と、前記画像記録
手段の向いている方向を測定する角度測定手段と、前記
角度測定手段によって測定された角度を前記同期信号発
生手段の発生する同期信号に合わせて角度を測定する記
録する角度記録手段と、前記画像記録手段によって記録
された画像と前記角度記録手段によって記録された角度
情報を同期信号に合わせて記録する入力情報記録手段
と、前記入力情報記録手段に記録された画像から前記角
度情報を利用して必要な画像を選択する画像選択手段
と、前記画像選択手段によって選択された画像をつなぎ
合わせる画像結合手段と、前記画像結合手段によって結
合された画像を記録する結合画像記録手段と、前記結合
画像記録手段に記録されている複数枚の結合画像を表示
する画像表示手段と、前記画像表示手段によって表示さ
れた複数枚の画像の中からお互いに対応する点を指示す
る対応点指示手段と、前記対応点指示手段によって対応
付けされた複数枚の結合画像から3次元空間中の仮想平
面を生成する仮想平面生成手段と、前記仮想平面生成手
段によって生成された仮想平面を記録する仮想平面記録
手段と、前記結合画像記録手段に記録された結合画像を
前記仮想平面記録手段によって記録された仮想平面に張
り付けるイメージ画像張り付け手段と、前記イメージ画
像張り付け手段によって仮想平面に張り付けられた画像
を表示する画像表示手段とによって構成したものであ
る。
【0019】かかる構成により、画像入力手段の入力し
た画像から仮想平面を立体的に作成し、任意の地点から
見た画像を作成することができる。
【0020】
【発明の実施の形態】本発明の請求項1に記載の発明
は、画像を入力する画像入力手段と、前記画像入力手段
の向いている角度を測定する角度測定手段と、前記画像
入力手段の入力した画像と前記角度測定手段の測定した
角度を記録する入力情報記録手段と、前記入力情報記録
手段の記録している情報を構造化した結果を記録する構
造化データ記録手段と、視点を入力する視点入力手段
と、前記視点入力手段から入力された視点に最も近い画
像を前記構造化データ記録手段から選択する画像選択手
段と、前記画像選択手段の選択した画像を表示する画像
表示手段とを備えたものであり、画像を入力すると同時
に画像を入力した方向を測定することができ、ユーザが
見たい視線の方向を入力するだけでその方向に最も近い
画像を選択するという作用を有する。
【0021】本発明の請求項2に記載の発明は、請求項
1の記載の仮想空間生成装置において、構造化データ記
録手段は画像入力手段の入力した画像とこれと同時に角
度測定手段から入力された角度情報を組にして記録する
ようにしたものである。
【0022】本発明の請求項3に記載の発明は、請求項
1に記載の仮想空間生成装置において、画像選択手段は
視点入力手段から入力された角度と同じ角度を持つ構造
化データ記録手段に記録された画像を選択するようにし
たものである。
【0023】本発明の請求項4に記載の発明は、請求項
1に記載の仮想空間生成装置において、画像入力手段の
位置を入力する位置測定手段を備え、前記位置測定手段
の測定した位置を入力情報記録手段に入力するようにし
たものである。
【0024】本発明の請求項5に記載の発明は、請求項
4に記載の仮想空間生成装置において、構造化データ記
録手段は画像入力手段から入力された画像と、これと同
時に角度測定手段から入力された角度情報と、位置測定
手段から入力された位置情報とを組にして記録するよう
にしたものである。
【0025】本発明の請求項6に記載の発明は、請求項
5に記載の仮想空間生成装置において、画像選択手段は
視点入力手段から入力された視点位置を包む立体を作成
し、前記視点入力装置によって入力された視点からこの
立体を見た領域1を計算し、また前記立体を構造化デー
タ記録手段に記録された画像に対応する位置と角度から
決められる視野から前記立体を見た時の領域2を前記構
造化データに記録された画像すべてについて計算し、前
記領域1に対する前記領域2の重なる比率の最も大きな
ものに対する前記構造化データ記録手段に記録された画
像を選択するようにしたものであり、画像入力手段から
入力された様々な位置で入力された複数の画像の中か
ら、視点入力装置から入力された視点位置に最も近い画
像を選択することができるという作用を有する。
【0026】本発明の請求項7に記載の発明は、請求項
6に記載の仮想空間生成装置において、画像選択手段の
作成する視点を包む立体は円筒形、直方体、多面体、
球、楕円のいずれかであるようにしたものである。
【0027】本発明の請求項8に記載の発明は、請求項
7に記載の仮想空間生成装置に加えて、画像入力装置の
入力する画像の拡大率を入力する拡大率入力手段を備え
たものであり、前記拡大率入力手段の入力する拡大率は
入力情報記録手段に入力され、拡大率を変化させながら
画像を入力しても、視点入力手段から入力された視点に
最も近い画像を選択することができるという作用を有す
る。
【0028】本発明の請求項9に記載の発明は、請求項
8に記載の仮想空間生成装置において、構造化データ記
録手段は画像入力手段から入力された画像と、これと同
時に角度測定手段から入力された角度情報と、位置測定
手段から入力された位置情報と、拡大率入力手段から入
力された拡大率とを組にして記録するようにしたもので
ある。
【0029】本発明の請求項10に記載の発明は、請求
項8に記載の仮想空間生成装置に加えて、画像入力装置
の入力する画像の対象物から前記画像入力装置までの距
離を入力する距離測定手段を有し、前記距離測定手段の
入力する距離情報は入力情報記録手段に入力されるよう
にしたものであり、視点入力手段の入力した視点位置に
最も近い場所から、画像入力手段によって入力された画
像を選択することができるという作用を有する。
【0030】本発明の請求項11に記載の発明は、請求
項10に記載の仮想空間生成装置において、画像選択手
段は、距離測定手段の入力する距離情報に合わせて画像
選択手段の生成する立体の大きさを構造化データ記録手
段に記録された画像毎に決定し、画像毎に決定された立
体を視点入力手段から入力された視点から見た領域1
と、前記構造化データ記録手段に記録された位置と角度
と拡大率によって決定される視点から見た領域2を前記
構造化データ記録手段に記録された画像毎に計算し、前
記領域1と前記領域2の重なる割合が最も大きなものに
対する前記構造化データ記録手段に記録された画像を選
択するようにしたものであり、視点入力手段の入力した
視点位置に最も近い場所から、画像入力手段によって入
力された画像を選択することができるという作用を有す
る。
【0031】本発明の請求項12に記載の発明は、同期
信号を発生する同期信号発生手段と、画像を入力する画
像入力手段と、前記同期信号発生手段の発生する同期信
号に合わせて前記画像入力手段によって入力された画像
を記録する画像記録手段と、前記画像記録手段の向いて
いる方向を測定する角度測定手段と、前記角度測定手段
によって測定された角度を前記同期信号発生手段の発生
する同期信号に合わせて角度を測定する記録する角度記
録手段と、前記画像記録手段によって記録された画像と
前記角度記録手段によって記録された角度情報を同期信
号に合わせて記録する入力情報記録手段と、前記入力情
報記録手段に記録された画像から前記角度情報を利用し
て必要な画像を選択する画像選択手段と、前記画像選択
手段によって選択された画像をつなぎ合わせる画像結合
手段と、前記画像結合手段によって結合された画像を記
録する結合画像記録手段と、前記結合画像記録手段に記
録されている複数枚の結合画像を表示する画像表示手段
と、前記画像表示手段によって表示された複数枚の画像
の中からお互いに対応する点を指示する対応点指示手段
と、前記対応点指示手段によって対応付けされた複数枚
の結合画像から3次元空間中の仮想平面を生成する仮想
平面生成手段と、前記仮想平面生成手段によって生成さ
れた仮想平面を記録する仮想平面記録手段と、前記結合
画像記録手段に記録された結合画像を前記仮想平面記録
手段によって記録された仮想平面に張り付けるイメージ
画像張り付け手段と、前記イメージ画像張り付け手段に
よって仮想平面に張り付けられた画像を表示する画像表
示手段とを備えたものであり、画像入力手段の入力した
画像から仮想平面を立体的に作成し、任意の地点から見
た画像を作成することができるという作用を有する。
【0032】(実施の形態1)図1は、本発明の第1の
実施の形態における仮想空間生成装置のブロック構成図
である。図1において、1は撮像装置やカメラなどから
成り画像を入力する画像入力手段、2は画像入力手段1
の向いている角度を測定する角度測定手段、3は画像入
力手段1の入力した画像情報と前記角度測定手段2の測
定した方向の情報などの入力情報を記録する入力情報記
録手段、4は入力情報記録手段3の記録している情報を
構造化した結果を記録する構造化データ記録手段、5は
後述の視点入力手段6から入力された視点に最も近い画
像を前記構造化データ記録手段4から選択する画像選択
手段、6は視点を入力する視点入力手段、7は画像選択
手段5の選択した画像を表示する画像表示手段である。
【0033】構造化データ記録手段4は画像入力手段1
の入力した画像とこれと同時に角度測定手段2から入力
された角度情報を組にして記録するものである。また、
画像選択手段5は、視点入力手段6から入力された角度
と同じ角度を持つ構造化データ記録手段4に記録された
画像を選択するものである。
【0034】図2は上記第1の実施の形態に係る仮想空
間生成装置を具体的な機器構成の例によって図説するも
のである。図2において、21は本体である。この事例
によれば、画像入力手段1の機器としてビデオカメラが
用いられる。このビデオカメラは本体21上に角度測定
手段2としてジャイロを装備し、また入力情報記録手段
3としてメモリを備え、さらに視点入力手段6として操
作パネル、画像表示手段7としてビューファインダー、
液晶ディスプレーを備えている。また、このビデオカメ
ラは、構造化データ記憶手段4および画像選択手段5を
内蔵している。
【0035】図3は図1に示す仮想空間生成装置の中の
入力情報記録手段3の部分をより詳細に示した要部ブロ
ック図である。この図に示すように、入力情報記録手段
3は画像入力手段1および角度測定手段2からの入力デ
ータを符号化する符号化手段35と、符号化された画像
情報および角度測定情報と連続的に記憶蓄積する連続デ
ータ蓄積手段36とを備えて成る。図3に示すように、
角度入力手段2や、画像入力手段1から入力された情報
は、符号化手段35によってデータ圧縮などの処理が行
なわれる。このとき、角度入力手段2および画像入力手
段1から同時に入力された情報は一緒する。たとえば、
MPEGのデータフォーマットを使用する場合は、角度
情報は音声信号に変換するといった処理を行なう。連続
データ蓄積手段36はこの様にして連続的に入力された
情報を蓄積していく。
【0036】図4は図1に示す仮想空間生成装置の中の
構造化データ記録手段4の部分をより詳細に示した要部
ブロック図である。この図に示すように、構造化データ
記録手段4は入力情報記録手段3からデータを受領して
構造化処理を施す構造化データ作成手段41を有してい
る。そして、この構造化データ作成手段41によって複
数枚の画像データ8が作成される。1枚の画像データ8
は角度測定手段2によって測定された角度情報から得ら
れた方向情報が格納されたインデックス部8aと、画像
入力手段1であるビデオカメラにより得られた画像情報
8bとから構成されており、画像入力手段1から入力さ
れた画像毎に複数枚作成される。
【0037】構造化データ作成手段41は、入力情報記
録手段3に符号化されて連続的に記録されている入力情
報を、撮影時の画像1枚毎に分割し、角度をもとににす
るインデックス付けを行なって多数枚の画像データ8と
する。このように、入力情報記録手段3にいったん入力
情報を記録し、構造化データ記録手段4で構造化すると
いった処理を行なうのは、画像情報8bなどの入力は撮
影と同時に行なう必要があるのに対し、データの構造化
は撮影した後に時間をかけて行っても差し支えないから
である。もし、入力情報の構造化を撮影と同時に行なう
ことができれば、入力情報記録手段を省略することがで
きる。
【0038】図5は図1に示す仮想空間生成装置の中の
画像選択手段5の部分をより詳細に示した要部ブロック
図である。この図に示すように、画像選択手段5は、構
造化データ記録手段4からの画像情報を読み込む画像読
み込み手段55と、構造化データ記録手段4からの方向
情報を入力するとともに視点入力手段6からの視点情報
を入力して両情報を比較する比較手段56とを有してい
る。比較手段56の比較結果は画像読み込み手段55へ
送付されて画像選択が行なわれ、選択された画像情報が
画像表示手段7へ出力される。
【0039】かかる構成を有する仮想空間生成装置の動
作を図6から図8を用いて説明する。図6は、画像入力
装置であるビデオカメラを用いて撮影対象物である立木
を撮影するにあたり、上記ビデオカメラを1地点に設置
して撮影角度を変えながら(つまり、首振りさせて)撮
影する状態を示す図である。また図7は上記のようにビ
デオカメラを1地点に設置して撮影角度を変えながら撮
影する場合に得られる画像を示す図である。図6におい
て、51は画像入力装置であるビデオカメラ、52は撮
影対象物、53は撮影地点である。図5に示すように、
撮影対象物52を撮影するために、カメラ51を撮影地
点53でいろいろな方向を向けて録画操作を行なう。図
7は撮影対象物と、撮影した画像の関係を示している。
図7において、52は図6において示したのと同様な撮
影対象物、62は画像入力装置の一部、63は画像入力
装置のレンズ、64はレンズを通して結ばれた像、65
は撮影された画像を示している。図7に示すように、撮
影対象物52を画像入力装置62によって撮影すると、
レンズ63を通して像64が結ばれる。ビデオカメラの
場合はこの地点(位置)に撮像素子があり、電子的に画
像が記録される。この地点に結ばれる像64を、便宜的
にレンズをはさんで同じ距離にある画像65で代用する
ことにする。図7に示すように、撮影対象物52が画像
65のように撮影される。
【0040】図8は視点と視野角などの関係をモデル化
して示したものである。図8において、71は視点、7
2は視野角、73は視点の方向、74は画像、75は画
像の視野、76は画像の視点を示している。画像74は
図7における画像65をモデル化して表したものであ
る。図8では、視点71から視野角72で方向73を見
て撮影した結果、画像74が得られたことを示してい
る。また、図8の右側はこれの簡易表現を表わしてお
り、画像の視野75で、視点71から見える範囲を、画
像の視点76で視点71の位置を表わしている。
【0041】図9は、撮影対象物を様々な視点から撮影
した様子を示している。図9において、81はユーザの
視野、82は第1の画像の視野、83は第2の画像の視
野、84は原点である。ユーザの視野81はユーザが原
点に立っていると考えて、視点入力手段6により見る角
度を決めることによって設定される。ユーザの視点に対
して、撮影した様々な画像の位置関係を求めるために、
ユーザの視野は原点中心でx軸を通るように固定する。
そして、画像の視野はユーザの視野にする相対角度を計
算し座標軸に設定する。図6に示すように、撮影地点5
3において様々な方向を向けてカメラで画像を撮影する
と、これに応じて角度入力手段2より撮影した方向の角
度が一緒に入力される。この角度をもとにユーザの視野
に対する相対位置を計算し、図9のように原点84の回
りに画像の視野を配置する。このとき、視野の最も多く
重なった画像を選択し表示する。すなわち、図4および
図5において、視点入力手段6から入力されたユーザの
見たい角度を元に、画像選択手段5の比較手段56が構
造化データ記録手段4のインデックス8aにある角度と
比較して、ユーザの視野と画像の視野の重なったもの
を、画像読み込み手段55が読み出す。そして、この画
像は画像表示手段7によって表示される。
【0042】(実施の形態2)図10は、第2の実施の
形態における仮想空間生成装置のブロック構成図であ
る。図10において、1は撮像装置やカメラなどから成
り画像を入力する画像入力手段、2は画像入力手段1の
向いている角度を測定する角度測定手段、3は画像入力
手段1の入力した画像情報と前記角度測定手段2の測定
した方向の情報などの入力情報を記録する入力情報記録
手段、4は入力情報記録手段3の記録している情報を構
造化した結果を記録する構造化データ記録手段、5は後
述の視点入力手段6から入力された視点に最も近い画像
を前記構造化データ記録手段4から選択する画像選択手
段、6は視点を入力する視点入力手段、7は画像選択手
段5の選択した画像を表示する画像表示手段、9は位置
測定手段である。すなわち、図10においては、1から
7までは実施の形態1と同じで、位置測定手段9が付加
されている。
【0043】図11は上記第2の実施の形態に係る仮想
空間生成装置を具体的な機器構成の例によって図説する
ものである。図11において、21は本体である。この
事例によれば、画像入力手段1の機器としてビデオカメ
ラが用いられる。このビデオカメラは本体21上に角度
測定手段2としてジャイロを装備し、また入力情報記録
手段3としてメモリを備え、さらに視点入力手段6とし
て操作パネル、画像表示手段7としてビューファインダ
ー、或いは液晶ディスプレー、位置測定手段9としてG
PS(グローバル・ポジショニング・システム:通信衛
星を使った位置測定システム)を備えている。また、こ
のビデオカメラは、構造化データ記憶手段4および画像
選択手段5を内蔵している。
【0044】図12は図10に示す仮想空間生成装置の
中の構造化データ記録手段4の部分をより詳細に示した
要部ブロック図である。この図に示すように、構造化デ
ータ記録手段4では複数枚の画像データ8が作成され
る。1枚の画像データ8は角度測定手段2によって測定
された角度情報から得られた方向情報が格納されたイン
デックス部8aと、画像入力手段1であるビデオカメラ
により得られた画像情報8bとから構成されており、画
像入力手段1から入力された画像毎に複数枚作成され
る。
【0045】構造化データ記録手段4では、入力情報記
録手段3に符号化されて連続的に記録されている入力情
報を、撮影時の画像1枚毎に分割し、角度をもとににす
るインデックス付けを行なって多数枚の画像データ33
とする。このように、入力情報記録手段3にいったん入
力情報を記録し、構造化データ記録手段4で構造化する
といった処理を行なうのは、画像情報8bなどの入力は
撮影と同時に行なう必要があるのに対し、データの構造
化は撮影した後に時間をかけて行っても差し支えないか
らである。もし、入力情報の構造化を撮影と同時に行な
うことができれば、入力情報記録手段を省略することが
できる。
【0046】かかる構成を有する第2の実施の形態に係
る仮想空間生成装置の動作を図13から図24を用いて
説明する。図13は、画像入力装置であるビデオカメラ
を用いて撮影対象物である立木を撮影するにあたり、一
台のビデオカメラを2地点(複数地点でもよい)に移動
させ、且つ撮影角度を変えながら(つまり、首振りさせ
ながら移動させて)撮影する状態を示す図である。また
図14は、上記のようにビデオカメラを位置を変え且つ
撮影角度を変えながら撮影した場合に得られる画像の視
野および視点を表す図である。図13において、121
は画像入力装置であるビデオカメラ、122は撮影対象
物、123および124は撮影地点である。図13に示
すように、撮影対象物122を撮影するために、カメラ
121を撮影地点123や撮影地点124などでいろい
ろな方向へ向けて録画操作を行なう。図14は、撮影対
象物122を様々な視点から撮影している様子を示して
いる。図14においては、画像の視野として先に図8を
用いて説明したのと同じ表現を用いている。図14にお
いて、131は撮影対象物、132は撮影対象物131
を様々な視点から撮影している様子を示している。ま
た、133は撮影対象物131に視点が近づいている様
子を示している。撮影対象物131は上記撮影対象物1
22と同じものであるが、ビデオカメラ121が遠ざか
ったり近づいたりと、より動き回って撮影地点が変わ
り、撮影のされ方が違っている。撮影対象物131を様
々な方向から知るために、132のように視点を様々な
位置に移動したり、133のように対象物に近づいたり
する。このようにして対象物131を撮影した結果、各
々の視点毎に画像が得られることになる。
【0047】図15は、撮影した画像を選択するための
手順を説明する図である。図15において、141、1
42、143、144、145は、撮影対象物131を
撮影した画像を選択するためにユーザが設定した視点で
これをユーザの視点と呼ぶ。画像を撮影した際の画像の
視点と区別するために、ユーザの視点には、視野角の間
に陰(図15中視野角の内部を扇形に塗ったもの)を入
れてある。ビデオカメラ121などで、撮影対象物13
1を次々と撮影した後、この画像をユーザが見る場合に
は、ユーザの視点を141から145のように指定して
行なう。141から144までは、いろいろな方向を見
ている場合を示しており、145は撮影対象物に近づい
て見ている様子を示している。
【0048】実施の形態2の課題は、これらの視点から
みたものに一番近い画像を図14の画像の中から選択す
ることである。図16は、画像の視点と、ユーザの視点
の対応を示している。同図中の符号は図14および図1
5で説明したものと同じである。ユーザの視点を141
に設定した場合、この方向で見て撮影した画像がないの
で、撮影した画像のどれかを表示する場合には、ユーザ
の指定した視点とはかなり異なった位置の画像を表示す
る。また、ユーザの視点142や144では、比較的指
示したユーザの視点と近い画像が得られる。また、ユー
ザの視点143では、近くのものはないが、少しはなれ
たものであれば撮影されていると考えられる。さらに、
ユーザの視点145の場合は、ユーザの視点144から
移動してきた場合、移動している視点132から撮影さ
れたものではなく、近づいている視点133の中から撮
影した画像に近いものが得られると考えられる。
【0049】図17は、撮影対象物を撮影した画像と、
ユーザの視点などの関係を示したものである。図17の
下は画像を撮影した場所における画像の視野とユーザの
視野の位置関係を立体的に示したもので、図17の左上
はこれを2次元的にわかりやすくしたものである。ま
た、右上は、画像に画像に対してユーザの視点から見え
る範囲を示したものである。そして、この図17はユー
ザの視野の方が画像の視野より前にある様子を示してい
る。図17において161はユーザの視野、162は画
像の視野、163、164、165は各々同心円、16
6は同心円165をユーザの視野から見た部分、167
は同心円165を画像の視野から見た部分、168はユ
ーザの視野に対応する画像、170は撮影対象物、16
9は撮影対象物170を撮影した画像、171はユーザ
の視野、172は画像の視野である。175は撮影対象
物170の背後におかれ、画像を表示する仮想の円筒、
173はユーザの視野166に対応するユーザの視野1
71から見える円筒の部分、172は画像の視野167
に対応する画像の視野172から見える円筒の部分であ
る。同心円上において、ユーザの視野161は図17に
示すように座標の原点とx座標軸を通るように固定され
ている。画像の視野162は、撮影した場所におけるユ
ーザの視野173と画像の視野174の位置関係を保つ
ようにx座標軸上に置かれる。ユーザの視野161から
同心円165をみると、同心円部分166が見える。こ
れに対して、画像の視野162から見えるものが、同心
円部分167である。画像は167にマッピングして考
える。
【0050】この関係を3次元的に見ると、図17の下
部に示してあるように、撮影対象物170、ユーザの視
野171、画像の視野172のようになる。この場合
は、物体を撮影した画像の視野172より前に、ユーザ
の視野171がある。撮影対象物170の背後に円筒1
75を仮想的に設け、ユーザの視野173や、画像の視
野172からこれを見ると、各視野173や174の部
分が見えることになる。このような視野から実際に見え
る画像を考えて見ると、画像の視野174からは168
のような実際に撮影した画像が見えることになり、ユー
ザの視野173から見える部分は、視野173、174
のこの位置関係の場合は、168のように画像の一部と
なる。
【0051】図18は、図17とは逆にユーザの視野の
方が画像の視野より後ろにある様子を示している。図1
8において、163、164、165は各々同心円、1
76は同心円163、164、165上におけるユーザ
の視野、177は同心円163、164、165上にお
ける画像の視野、178はユーザの視野176に対応す
る、立体的に表したユーザの視野、179は画像の視野
177に対応する、立体的に表した画像の視野を表わし
たものである。図18には示してないが、この図におい
ても、図17と同様、撮影対象物の背後に円筒175を
仮想的に設けてあるものとする。180は撮影対象物、
181は画像の視野177から円筒175上に見える画
像の範囲、182はユーザの視野176から円筒175
上に見える画像の範囲である。ユーザの視野178が画
像の視野179よりも後ろにあるために、ユーザの視野
から見える画像の範囲182の中(内側)に、画像18
1が見える。
【0052】図19は、ユーザの視野182と画像の視
野183がずれていることを示している。図19におい
て、163、164、165は各々同心円、182は同
心円163、164、165上におけるユーザの視野、
183は同心円163、164、165上における画像
の視野を表わしたものである。図19では 立体的な視
野表現は行なっていないが、図17および図18におけ
ると同様、同心円上のユーザの視野182に対応する、
立体的に表したユーザの視野、および同心円上の画像の
視野183に対応する、立体的に表した画像の視野を想
定するものである。さらに図19には示してないが、こ
の図においても、図17と同様、撮影対象物の背後に円
筒175を仮想的に設けてあるものとする。184は立
体的に表したユーザの視野から円筒175上に見える画
像の範囲、185は立体的に表した画像の視野から円筒
175上に見える画像の範囲である。ユーザの視野18
2と画像の視野185が互いにずれていることから、図
19に示すような位置関係から円筒175を見た場合、
ユーザの視野182からは184の範囲の画像が見え、
画像の範囲185の一部が見えることになる。なお、図
19で画像の範囲184と185のずれの大きさや方向
は、ユーザの視野182と画像の視野183の関係を正
確に表現したものではなく、単に入れ子になっているこ
とを表現している。
【0053】図20は、円筒175の半径を変えながら
(図20(a)と図20(b))円筒175に画像を投
影し、その投影像をユーザの視野から見ていくと、円筒
175の半径を変えるにしたがって、画像が見えたり見
えなかったりすることを示している図である。図20
(a)において、191はユーザの視野、192は画像
の視野、193はユーザの視野191から見える画像の
範囲、194は撮影対象物の画像、199および200
は円筒175を上から見た同心円を示している。図20
(a)は同心円199、200のうち内側の円199を
対象に考えている。また、図20(b)は外側の円20
0を対象に考えており、195はユーザの視野、196
は画像の視野、197はユーザの視野195から外側の
円の見える範囲、198は画像の視野196から外側の
円が見える範囲である。
【0054】このような状態において、各々の視野から
内側の円199を見た場合は、2つの視野191、19
2が重なったところがあるので、画像の範囲193およ
び194に示すように、ユーザの視点から見ると、円筒
にマッピングされた画像の一部が見える。しかし、図2
0(b)のように、外側の円200を見ると2つの視野
191、192が重なったところがないので、ユーザの
視野191からは、撮影対象物の画像は見えない。
【0055】図21(a)は、ユーザの視野と画像の視
野がまったく重ならない場合の状態を示している。図2
1(a)において、201はユーザの視野、202は画
像の視野である。この場合は、ユーザの視野から見た場
合、撮影対象物の画像は全く見えない。
【0056】図18から図21を用いて述べた画像の視
野とユーザの視野の関係を整理すると、次の3つのケー
スがあることがわかる。 (1)画像の視野とユーザの視野が同じ方向を向いてい
る場合である。この場合は、円筒の半径を大きくしてい
けば、かならずユーザの視野から画像が見えるようにな
る。 (2)画像の視野とユーザの視野が交差している場合で
ある。この場合は、円筒の一定の半径においてユーザの
視野から画像が見える。 (3)画像の視野とユーザの視野がまったく重ならない
場合である。この場合は、円筒の半径をどのようにして
もユーザの視野から画像が見えない。
【0057】ここで、実際の撮影対象物の位置と画像の
視野、ユーザの視野の関係には図21(b)の様な関係
がある。図21(b)において、203、210は画像
の視野、205はユーザの視野、206、207は撮影
対象物、209は視点、204はユーザの視点を中心と
する円筒の一部である。視点209から視野の方向に見
ると、視野の範囲にあるものがすべて見える。ユーザの
視野205に最も近い画像の視野を選ぶ際、撮影対象物
が207の場所にある場合は、画像の視野203は選ば
れ、撮影対象物が206にある場合は、画像の視野20
3は選ばれないのが好ましいが、撮影対象物までの距離
は不明である。そこで、ユーザの視野205に最も近い
画像の視野を選択する場合、ユーザの視点を中心にした
円筒を考え、ユーザの視野から見た円筒の部分と、画像
の視野から見た円筒の部分の重なり具合のみで判断する
ことにする。
【0058】例えば、図21(b)では、ユーザの視野
205から円筒204の見える範囲はC−E、画像の視
野203から見える円筒の範囲はB−D、画像の視野2
10から見える円筒の範囲はA−Fである。このため、
ユーザの視野205から見える範囲と画像の視野203
または視野209から見える範囲の割合は、視点209
の方が大きい。そこで、図21(b)の様な場合は、ユ
ーザの視野205には、画像の視野203の方が画像の
視野210より近いと判断して、画像の視野203を選
択することにする。そして、画像の視野を選択した後
に、ユーザの視野は画像の視野と一致させる。
【0059】図22は、ユーザの視野、画像の視野およ
び投影する円筒などの関係を示したものである。図22
において、211はユーザの視野、212は画像の視
野、215は円筒、216は円筒の半径、213はユー
ザの視野から円筒が見える範囲、214は画像の視野か
ら見た円筒の範囲、217はユーザの視野から見える円
筒の範囲と画像の視野から見える円筒の範囲の重なって
いる部分である。図22に示すように、重なった部分2
17は円筒215の半径216が変化するにつれて変化
する。
【0060】図23は図22の状態においてユーザの視
野211から円筒215の画像が見える範囲と、画像の
視野212から見える円筒215の範囲の関係を示した
ものである。図23において、221、223、225
はユーザの視野211から円筒215の見える範囲、2
22、224、226は画像の視野212から円筒21
5の見える範囲である。図23(a)は、ユーザの視野
211が画像の視野を含んでいる場合を示し、また図2
3(b)は逆に画像の視野212がユーザの視野を含ん
でいる場合を示している。円筒の半径が決まった後、ユ
ーザの視野211から見た円筒と、画像の視野212か
ら見える円筒の範囲を計算し、図23(c)のように重
ね合せる。そして、重なっている面積と重なっていない
部分の面積の和の比を求めることになる。そして、この
値は、ユーザの視野と画像の視野が一致したとき1対0
になり、全く一致しないときは0対1になるので1対0
に最も近いものをユーザの視点から見た画像に最も近い
ものにユーザの視点から見た画像に最も近いものとして
表示することにする。
【0061】図24はこの手順の流れをフローチャート
にしたものである。このフローチャートにおいて、画像
の選択処理が開始されると、処理ステップ(以下、単に
ステップという)ST1において円筒215の半径rが
設定され、次いでステップST2において画像を見るた
めの視点が決定される。この視点が決定されると、ステ
ップST3において、上記円筒215を見るための視点
から見える範囲を計算し、その結果(Aとする)が算出
される。次に、ステップST4において撮影した画像の
すべてについて円筒215上における撮影対象物の視点
から見える範囲を計算し、その結果(Bnとする)が算
出される。そして、ステップST5において、ステップ
ST4で求めたBnのうち上記ステップST3で求めた
Aとの面積比が最も小さなもの(比が「1」に近いも
の)を選択する。これによって、一連の画像の選択処理
動作が終了する。
【0062】(実施の形態3)図25は、実施の形態3
における仮想空間生成装置のブロック構成図である。図
25において、1から7まで、および9は実施の形態1
と同じで、拡大率入力手段241が付加されている。図
26は、実施の形態3における装置の実際を現わしてい
る。図10の実施の形態2と比較して、拡大縮小指示手
段241が新に付加されている。
【0063】以下、かかる構成を有する実施の形態3の
動作を図27を用いて説明する。図27において、26
1はユーザの視野、262は画像の視野、263はユー
ザの視点、264は画像の視点である。画像の視点26
4はユーザの視点263より前にあり、視野角が広がっ
ている。このため、各々の視野から見える円筒の範囲は
実施の形態1の場合と同じである。このようにして、拡
大率入力手段241が付加された場合は、拡大率に応じ
て視野角を変える。以下の処理は実施の形態と同じであ
る。
【0064】(実施の形態4)図28は、実施の形態4
における仮想空間生成装置のブロック構成図である。図
28において、1から7まで、および9、241は実施
の形態3と同じで、距離入力手段271が付加されてい
る。図29は実施の形態4における実際の装置を表わし
ている。実施の形態3と比較して、距離測定手段281
が新に付加されている。
【0065】図30、図31は実施の形態4の動作を説
明したものである。図30の右に示すように、簡略図で
は画像の位置291を表示する。292は画像までの距
離Lで、距離入力手段271から入力された距離を利用
する。図31は、距離入力手段271の利用方法を説明
したものである。図31において、301は撮影対象
物、302から304は画像の視点、305はユーザの
視点、306は円筒、310は画像の視野から見える円
筒の範囲、320はユーザの視野から見える円筒の範囲
である。画像までの距離がわかっている場合は、図31
に示すように、撮影した撮影対象物までのおおよその位
置がわかっているので、円筒が画像の位置に来るように
設定すれば、視点305から見た場合との大きさの比較
が実際のものと近くなる。
【0066】図32および図33は、画像までの距離が
わかっている場合の円筒の半径の決め方について説明し
たものである。図32において、311はユーザの視
野、312、315は画像の視野、313、316は画
像の位置、314、317は円筒、308、309は円
筒を半径を変えた場合の画像の視野から見える円筒の範
囲、320はユーザの視野から見える円筒の範囲であ
る。画像までの距離があらかじめわかっている場合は、
画像毎に円筒の大きさを314や317の様に変えて、
それぞれについて、図33の表に表したようにユーザの
視野から見た大きさと、画像の視野から見た大きさを比
較する。この結果、ユーザの視野に最も近い画像の視野
を持つものが選択される。例えば、撮影対象物318を
撮影した画像を見ようとする場合は、円筒を314のよ
うに設定する。このときのユーザの視野から見た円筒3
14と画像の視野312から見た円筒314の関係(こ
れを関係「31−上−A」とする)、およびユーザの視
野から見た円筒314と画像の視野315から見た円筒
314の関係(これを関係「31−上−B」とする)
は、図33の表のようになる。関係「31−上−A」で
は、ユーザの視野から見た画像と、画像の視野が重なっ
ているが、関係「31−上−B」では、重なりがないの
で、画像313が選択される。一方、円筒を317のよ
うにした場合は、各々の関係が図33の表中における関
係「31−下−A」および関係「31−下−B」のよう
になり、画像316が選択される。もし、撮影対象物ま
での距離がわからないとしたときは、最初に半径を31
7になるように設定すると、画像316が選ばれてしま
う。この結果、ユーザは身近にある撮影対象物318を
撮影した映像313が欲しかったとしても、画像313
は選択されなくなってしまう。このような問題を防ぐた
めに、画像までの距離を一緒に測定しておき、ユーザの
視点位置に近いところにある画像に円筒を位置付ける。
【0067】(実施の形態5)図34は、実施の形態5
における仮想空間生成装置のブロック構成図の前半を示
している。後半は図36に示してある。図32におい
て、321は同期信号発生手段、322は角度測定手
段、323は角度記録手段、324は画像入力手段、3
25は画像記録手段、326は入力画像記録手段、32
7は画像選択手段、328は画像結合手段、329は結
合画像記録手段である。また、本発明の実施の形態5の
具体的な機器構成の例について、図35から図37を用
いて説明する。図35は、本装置の画像入力手段および
角度測定手段を示している。図35において331はビ
デオカメラ、332は角度入力手段で一般的にはジャイ
ロセンサー、333はビデオの音声入力端子、334は
デジタルビデオカセット(DVC)、335はパソコ
ン、336は同期信号発生手段、337は角度情報記録
手段である。
【0068】この装置を使用した場合は、図13に示し
たように、第1の視点123および第2の視点124に
おいて周囲の撮影を行なう。ただし、この場合は撮影し
ながらの移動は行わないで、ある地点を中心としてその
周囲を撮影した後、次の位置に移動する。これは例え
ば、カメラを三脚に固定したりして行なう。この時、図
35に示したようにビデオカメラ331と角度入力手段
332が一体になっているので、角度入力手段332に
よってビデオカメラ331の向きが測定される。角度入
力手段332で測定された角度情報はパソコンの角度情
報記録手段337に記録される。一方、パソコン335
からは同期信号発生手段336によって同期信号が発生
されており、この同期信号はビデオカメラ331の音声
入力端子333を通じてデジタルビデオカメラ331の
ビデオカセット24に画像情報とともに記録される。
【0069】図36はこの装置を用いて、パノラマ画像
を作成する様子を示している。図36において、341
は角度画像配列、342、343は選択された画像、3
44は円、345は円の中心を表わしている。図35で
示したように、角度情報と画像情報は同期信号と共に記
録されるので、図36に示すように同じ時間に記録され
た画像と角度の配列を作成することが可能である。ま
た、画像はある地点の周囲をぐるりと一回りして撮影さ
れるので、角度情報は0から360度の範囲である。そ
こで、例えば、角度を45度おきにして画像を選択して
くれば、図36に示すように、中心345の周りの演習
上に8枚の画像を並べることができる。この8枚の画像
をつなぎあわせればパノラマ画像を作成することができ
る。
【0070】図37は、入力情報記録手段326と画像
選択手段327の動作を説明したものである。図37に
おいて、351は角度情報、352は画像、353は同
期信号、354は画像配列、355は配列生成手段、3
56はカウンター、357は比較手段、358は画像と
りだし手段である。他は図34と同じである。角度記録
手段323と画像記録手段325には、角度または画像
と同期信号が組になって記録されている。そこで、入力
情報記録手段326には、角度情報あるいは画像情報と
同期信号の組が351や352の様に入力される。配列
生成手段は、これらの組を調べ、同期信号の等しいもの
を組にして、画像配列354を生成する。画像選択手段
327では、カウンター356がたとえば、0、45、
・・・315といった等間隔の数を出力する。比較手段
357はこの数と、画像配列354の角度を比較して等
しいものを調べる。画像取り出し手段358はこの等し
い画像を画像配列354から取り出して、画像結合手段
329に渡す。画像結合手段329は、パノラマ画像を
生成する。この方式は、たとえば、アップル社のQui
ckTimeVRの技術を使用することが可能である("
QuickTimeVR-AnImage-Based Approach to Virtual Envi
ronment Navigation",Shenchang EricChen, Apple Comp
uter, Inc. Computer Graphics Proceedings, AnnualCo
nfrence Series, 1995, ACM-0-89791-701-4/95/008)。
結合画像記録手段329には、このようにして作成され
た複数枚の結合画像が記録される。
【0071】(実施の形態6)図38は本発明の第6の
実施の形態におけるブロック構成図を示している。図3
8において、329は結合画像記録手段、361は画像
表示手段、363は対応点指示手段、363は仮想平面
生成手段、365は仮想平面記録手段、366はイメー
ジ画像張り付け手段、367は画像表示手段である。以
下、図39から図46にしたがって、本発明の実施の形
態6の動作について説明する。
【0072】図39は画像表示手段72および対応点指
示手段363の動作を示している。図39において、3
71は画像表示手段、375および376は画像を左右
にスライドさせるボタン、371および372は結合画
像が表示されている画面、373および374は対応
点、378は対応点を指示しやすくする水平の直線、3
77は対応点指示手段のマウスである。結合画像が表示
される画面371および372には、図13の第1の撮
影地点123および第2の撮影地点124で撮影しパノ
ラマ画像として結合された、結合画像が表示される。ボ
タン375または376を押すと、画面371または3
72に表示された画像が左右にスクロールする。画面3
71と画面372に表示されている同じ物体373およ
び374を、マウス377を操作することによって指示
する。対応点は水平線378に乗っていないこともあ
る。ある地点の水平線について選択がすめば、水平線を
ずらして同じ操作を繰り返す。このようにして、結合画
像の全体に渡って対応点を指示していく。対応点の指示
の個数は、生成する仮想平面の精度に反映する。
【0073】図40および図41は仮想平面の作成法に
ついて、さらに詳しく説明したものである。図40にお
いて、381は結合画像、383は結合画像の一部、3
85は表示画面、387は三角形に分割された面を表わ
している。また、図41において、382は結合画像、
384は結合画像の一部、386は表示画面、388は
三角形に分割された面を表わしている。図40および図
41において、画面385および画面386に表示され
ている画像は、結合画像381および382の一部38
3および384である。表示されている部分は、ボタン
375および376の操作によって左右に移動する。図
39のような方法で、画面371および画面372で対
応点を指示していくと、画面385および386に示す
ように対応点が増えていく。図40および図41中、丸
の中の模様が同じものが対応点である。そして、これら
の対応点を、例えばドロネー三角形のアルゴリズムで三
角形に分割する。ドロネー三角形のアルゴリズムは、平
面上に多くの点が存在したとき、これを各々の三角形が
なるべく正三角形に近くなるように三角形分割するもの
である。
【0074】図42、図43、図44は、指定された対
応点から仮想平面を立体的に構成する方法について説明
したものである。これらの図において、図402は結合
画像および部分画像を表す図40、および図41と同様
の図である。図43は結合画像を第1の視点および第2
の視点から撮影した画像を張り合わせた円筒画面を真上
から見た図である。図44は結合画像を第1の視点およ
び第2の視点から撮影した画像を張り合わせた円筒画面
により仮想平面を立体的に生成する状態を真上から見た
図である。これらの図において、400および401は
第1の視点および第2の視点、398および399は第
1の視点400および第2の視点401を包む円筒、3
94および395は円筒の一部、392、393は第1
の視点400および第2の視点401から見た対応点、
403は対応点392、393の相対的な位置、396
は第1の視点400から見た対応点403の角度、39
7は第2の視点401から見た対応点403の角度、4
02は作成された仮想平面を示している。また、結合画
像381および382は第1の視点400および第2の
視点401から撮影した画像を張り合わせたものである
が、これを真上から見たものが、398および399の
円筒である。例えば、結合画像381は視点400から
見ると、円筒398に張り付けられていると考える。部
分画像383および384は、392および395に対
応している。部分画像383および384で対応点39
1を指示すると、円筒上ではそれぞれ392および39
3に対応することになる。このとき、392および39
3は第1の視点400および第2の視点401から見る
と角度396および397である。そこで、第1の視点
400と点392をつないだ線を延長した直線と、第2
の視点401と点393を結んだ直線延長した直線とが
交わる点403に対応点は存在することになる。なお、
ここで例えば第1の視点400と点403の実際の距離
は不明で、三角形400、401、403の相似形がも
とまる事になる。便宜的に400と401の距離を1と
しておく。このようにして各対応点に関してその位置を
求めていくと、402のような仮想平面の形を求める事
ができる。図38に示したように、結合画像381およ
び382を三角形に分割しておけば、仮想平面を多面体
として求めることができる。
【0075】図45は、このようにして求めた仮想平面
を輪切りにして見たものである。図46は、こうしてで
きる仮想平面を第1の視点400や第2の視点401以
外から見た画像を表示する方法について説明したもので
ある。図46において、411は仮想平面、413は新
たな視点、4122は新たな視点125から見た画像で
ある。仮想平面411には、第1の視点400または第
2の視点401から撮影した画像が張り付けられてい
る。そこで、新たな視点413からこの仮想平面411
をみれば、視点413から見た画像412が得られる。
以上のようにして、任意の視点から見た画像を作成する
ことが可能である。
【0076】
【発明の効果】以上説明したように本発明によれば、仮
想空間生成装置に、第1に画像を入力する画像入力手段
と、前記画像入力手段の向いている方向を測定する方向
測定手段と、前記画像入力手段の入力した画像と前記方
向測定手段の測定した方向を記録する入力情報記録手段
と、前記入力情報記録手段の記録している情報を構造化
した結果を記録する構造化データ記録手段と、視点を入
力する視点入力手段と、前記視点入力手段から入力され
た視点に最も近い画像を前記構造化データ記録手段から
選択する画像選択手段と、前記画像選択手段於選択した
画像を表示する画像表示手段の構成を備え、また、構造
化データ記録手段は画像入力手段の入力した画像とこれ
と同時に角度測定手段から入力された角度情報を組にし
て記録し、さらに、画像選択手段は視点入力手段から入
力された角度と同じ角度を持つ構造化データ記録手段に
記録された画像を選択するようにしたため、画像を入力
すると同時に画像を入力した方向を測定することがで
き、ユーザが見たい視線の方向を入力するだけでその方
向に最も地階画像を選択することができる。
【0077】また、上記構成に加えて、画像入力手段の
位置を入力する位置測定手段を備え、前記位置測定手段
の測定した位置を第1に記載の入力情報記録手段をに入
力し、また構造化データ記録手段は画像入力手段から入
力された画像とこれと同時に角度測定手段から入力され
た角度情報と位置測定手段から入力された位置情報を組
にして記録するようにし、さらに、画像選択手段は視点
入力手段から入力された視点位置を包む立体を作成し、
前記視点入力装置によって入力された視点からこの立体
を見た領域1部分を計算し、前記立体を構造化データ記
録手段に記録された画像に対応する位置と角度から決め
られる視野から前記立体を見た時の領域2と呼ぶ部分を
前記構造化データに記録された画像すべてに対して計算
し、前記領域2に対する前記領域2の重なる比率の最も
大きなものに対する前記構造化データに記録された画像
を選択するようにしたため、画像入力装置から入力され
た様々な位置で入力された画像から、視点入力装置から
入力された視点位置に最も地階画像を選択することがで
きる。
【0078】第3に、上記第2の構成に加えて、画像入
力装置の入力する画像の拡大率を入力する拡大率入力手
段を有し、前記拡大率入力手段の入力する拡大率を入力
情報記録手段に入力し、また構造化データ記録手段は画
像入力手段から入力された画像とこれと同時に角度測定
手段から入力された角度情報と位置測定手段から入力さ
れた位置情報と拡大率入力手段から入力された拡大率を
組にして記録するようにしたため、拡大率を変化させな
がら画像を入力しても、視点入力手段から入力された視
点に最も近い画像を選択することができる。
【0079】第4に、第3の構成に加えて、画像入力装
置の入力する画像の撮影対象物と、前記画像入力装置ま
での距離を入力する距離測定手段を有し、前記距離測定
手段の入力する距離情報を入力情報記録手段に入力し、
また、画像選択手段は、距離測定手段の入力する距離情
報に合わせて画像選択手段の生成する立体の大きさを構
造化データ記録手段に記録された画像毎に決定し、画像
毎に決定された立体を視点入力手段から見た領域1と、
前記構造化データ記録手段に記録された位置と角度と拡
大率によって決定される視点から見た領域2を前記構造
化データ記録手段に記録された画像毎に計算し、前記領
域1と前記領域2の重なる割合が最も大きな画像を選択
するようにしたため、視点入力手段の入力した視点位置
に最も近い場所から、画像入力手段によって入力された
画像を選択することができる。
【0080】第5に、仮想空間生成装置に、同期信号を
発生する同期信号発生手段と、画像を入力する画像入力
手段と、前記同期信号発生手段の発生する同期信号に合
わせて前記画像入力手段によって入力された画像を記録
する画像記録手段と、前記画像記録手段の向いている方
向を測定する角度測定手段と、前記角度測定手段によっ
て測定された角度を前記同期信号発生手段の発生する同
期信号に合わせて角度を測定する記録する角度記録手段
と、前記画像記録手段によって記録された画像と前記角
度記録手段によって記録された角度情報を同期信号に合
わせて記録する入力情報記録手段と、前記入力情報記録
手段に記録された画像から前記角度情報を利用して必要
な画像を選択する画像選択手段と、前記画像選択手段に
よって選択された画像をつなぎ合わせる画像結合手段
と、前記画像結合手段によって結合された画像を記録す
る結合画像記録手段と、前記結合画像記録手段に記録さ
れている複数枚の結合画像を表示する画像表示手段と、
前記画像表示手段によって表示された複数枚の画像の中
からお互いに対応する点を指示する対応点指示手段と、
前記対応点指示手段によって対応付けされた複数枚の結
合画像から3次元空間中の仮想平面を生成する仮想平面
生成手段と、前記仮想平面生成手段によって生成された
仮想平面を記録する仮想平面記録手段と、前記結合画像
記録手段に記録された結合画像を前記仮想平面記録手段
によって記録された仮想平面に張り付けるイメージ画像
張り付け手段と、前記イメージ画像張り付け手段によっ
て仮想平面に張り付けられた画像を表示する画像表示手
段によって構成を備えたため、画像入力手段の入力した
画像から仮想平面を立体的に作成し、任意の地点から見
た画像を作成することができるなど、種々の効果が得ら
れる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る仮想空間生成
装置のブロック構成図
【図2】前記第1の実施の形態に係る仮想空間生成装置
を具体的な機器構成の例によって解説するブロック図
【図3】前記第1の実施の形態に係る仮想空間生成装置
の中の入力情報記録手段の部分をより詳細に示した要部
ブロック図
【図4】前記第1の実施の形態に係る仮想空間生成装置
の中の構造化データ記録手段の部分をより詳細に示した
要部ブロック図
【図5】前記第1の実施の形態に係る仮想空間生成装置
の中の画像選択手段の部分をより詳細に示した要部ブロ
ック図画像選択手段
【図6】前記第1の実施の形態において、ビデオカメラ
を用いて撮影対象物である立木を撮影するに際し、ビデ
オカメラを1地点に設置して撮影角度を変えながら撮影
する状態を示す図
【図7】前記第1の実施の形態において、図6のように
ビデオカメラを1地点に設置して撮影角度を変えながら
撮影する場合に得られる画像を示す図
【図8】前記第1の実施の形態において、ビデオカメラ
で撮影して得られた画像の視点と視野角などの関係をモ
デル化して示した図
【図9】前記第1の実施の形態において、撮影対象物を
様々な視点から撮影した様子を示す図
【図10】本発明の第2の実施の形態に係る仮想空間生
成装置のブロック構成図
【図11】前記第2の実施の形態に係る仮想空間生成装
置を具体的な機器構成の例によって解説するブロック図
【図12】前記第2の実施の形態に係る仮想空間生成装
置の中の構造化データ記録手段の部分をより詳細に示し
た要部ブロック図
【図13】前記第2の実施の形態において、画像入力装
置であるビデオカメラを用いて撮影対象物である立木を
撮影するにあたり、一台のビデオカメラを2地点に移動
させ、且つ撮影角度を変えながら撮影する状態を示す図
【図14】前記第2の実施の形態において、図13に示
すようにビデオカメラを位置を変え且つ撮影角度を変え
ながら撮影した場合に得られる画像の視野および視点を
表す図
【図15】前記第2の実施の形態において、撮影した画
像を選択するための手順を説明する図
【図16】前記第2の実施の形態において、撮影対象物
に対する画像の視点と、ユーザの視点の対応を示す図
【図17】前記第2の実施の形態において、ユーザの視
野の方が画像の視野より後ろにある場合における、撮影
対象物を撮影した画像と、ユーザの視点などの関係を示
す図
【図18】前記第2の実施の形態において、図17とは
逆にユーザの視野の方が画像の視野より後ろにある場合
における、撮影対象物を撮影した画像と、ユーザの視点
などの関係を示す図
【図19】前記第2の実施の形態において、ユーザの視
野と画像の視野がずれている場合における、撮影対象物
を撮影した画像と、ユーザの視点などの関係を示す図
【図20】(a)前記第2の実施の形態において、円筒
の半径を変えながら円筒に画像を投影し、その投影像を
ユーザの視野から見る場合における画像の可視、不可視
の具合を、同心円のうち内側の円を対象に検討する図 (b)前記第2の実施の形態において、円筒の半径を変
えながら円筒に画像を投影し、その投影像をユーザの視
野から見る場合における画像の可視、不可視の具合を、
同心円のうち外側の円を対象に検討する図
【図21】(a)前記第2の実施の形態において、円筒
の半径を変えながら円筒に画像を投影し、その投影像を
ユーザの視野から見る場合における画像の可視、不可視
の具合を、ユーザの視野と画像の視野がまったく重なら
ない場合について検討する図 (b)前記第2の実施の形態において、実際の撮影対象
物の位置と画像の視野、ユーザの視野の関係を説明する
【図22】前記第2の実施の形態において、ユーザの視
野、画像の視野および投影する円筒などの関係を示す図
【図23】前記第2の実施の形態において、図22に示
す関係においてユーザの視野から円筒の画像が見える範
囲と、画像の視野から見える円筒の範囲の関係を示す図
【図24】前記第2の実施の形態において、円筒上にお
けるユーザの視野、画像の視野および投影する円筒など
の関係から画像選択を行なう動作の処理手順を説明する
フロー図
【図25】本発明の第3の実施の形態に係る仮想空間生
成装置のブロック構成図
【図26】前記第3の実施の形態に係る仮想空間生成装
置を具体的な機器構成の例によって解説するブロック図
【図27】前記第3の実施の形態において、ユーザの視
野の方が画像の視野より前にある場合における、撮影対
象物を撮影した画像とユーザの視点などの関係を示す図
【図28】本発明の第4の実施の形態に係る仮想空間生
成装置のブロック構成図
【図29】前記第4の実施の形態に係る仮想空間生成装
置を具体的な機器構成の例によって解説するブロック図
【図30】前記第4の実施の形態において、ビデオカメ
ラで撮影して得られた画像の視点と視野角などの関係を
モデル化して示した図
【図31】前記第4の実施の形態において、撮影対象物
に対する画像の視点と、ユーザの視点の対応を示す図
【図32】前記第4の実施の形態において、画像までの
距離がわかっている場合の、画像の視野および投影する
円筒などの関係から円筒の半径の決め方について説明す
る図
【図33】前記第4の実施の形態において、図33に示
す、画像までの距離がわかっている場合の円筒の半径の
決め方を表にして説明する図
【図34】本発明の第5の実施の形態に係る仮想空間生
成装置のブロック構成図
【図35】前記第5の実施の形態に係る仮想空間生成装
置を具体的な機器構成の例によって解説するブロック図
【図36】前記第5の実施の形態に係る仮想空間生成装
置を用いて、パノラマ画像を作成する様子を示す図
【図37】前記第5の実施の形態において、入力情報記
録手段と画像選択手段の動作を説明する図。
【図38】本発明の第6の実施の形態に係る仮想空間生
成装置のブロック構成図
【図39】前記第6の実施の形態において、画像表示手
段および対応点指示手段の動作を示す図
【図40】前記第6の実施の形態において、対応点をド
ロネー三角形のアルゴリズムで三角形に分割することに
よる仮想平面の作成法について説明する図
【図41】前記第6の実施の形態において、対応点をド
ロネー三角形のアルゴリズムで三角形に分割し、且つド
ロネー三角形のアルゴリズムによる複数の三角形のそれ
ぞれがなるべく正三角形に近くなるように三角形分割す
ることによる仮想平面の作成法について説明する図
【図42】前記第6の実施の形態において、指定された
対応点から仮想平面を立体的に構成するのに用いられ
る、結合画像および部分画像を表す図
【図43】前記第6の実施の形態において、図402の
結合画像を第1の視点および第2の視点から撮影した画
像を張り合わせた円筒画面を真上から見た図
【図44】前記第6の実施の形態において、 図402
の結合画像を第1の視点および第2の視点から撮影した
画像を張り合わせた円筒画面により仮想平面を立体的に
生成する状態を真上から見た図
【図45】前記第6の実施の形態において、求めた仮想
平面を輪切りにして見た図
【図46】前記第6の実施の形態において、求めた仮想
平面を第1の視点や第2の視点以外から見た画像を表示
する方法について説明する図
【図47】従来の仮想空間生成装置の一例を示すブロッ
ク構成図
【図48】従来の仮想空間生成装置の動作を説明する説
明図である
【図49】図48に示されている飛行機と建物の位置関
係を詳しく説明する図
【図50】仮想的に3次元的に見せる他の従来技術とし
ての、イメージベースドレンダリングあるいは光線射影
法を用いた仮想空間生成装置のブロック構成図である
【図51】前記他の従来例であるイメージベースドレン
ダリングの概念を示す図
【図52】前記他の従来例であるイメージベースドレン
ダリングの手法を用いて、画像の撮影をしている様子を
示す図
【図53】前記他の従来例であるイメージベースドレン
ダリングの手法を用いて、画像の撮影をし、仮想平面を
作成する方法を説明する図
【符号の説明】
1 画像入力手段 2 角度測定手段 3 入力情報記録手段 4 構造化データ記録手段 5 画像選択手段 6 視点入力手段 7 画像表示手段

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 画像を入力する画像入力手段と、前記画
    像入力手段の向いている角度を測定する角度測定手段
    と、前記画像入力手段の入力した画像と前記角度測定手
    段の測定した角度を記録する入力情報記録手段と、前記
    入力情報記録手段の記録している情報を構造化した結果
    を記録する構造化データ記録手段と、視点を入力する視
    点入力手段と、前記視点入力手段から入力された視点に
    最も近い画像を前記構造化データ記録手段から選択する
    画像選択手段と、前記画像選択手段の選択した画像を表
    示する画像表示手段とを備えた仮想空間生成装置。
  2. 【請求項2】 請求項1の記載の仮想空間生成装置にお
    いて、構造化データ記録手段は画像入力手段の入力した
    画像とこれと同時に角度測定手段から入力された角度情
    報を組にして記録することを特徴とする仮想空間生成装
    置。
  3. 【請求項3】 請求項1に記載の仮想空間生成装置にお
    いて、画像選択手段は視点入力手段から入力された角度
    と同じ角度を持つ構造化データ記録手段に記録された画
    像を選択することを特徴とする仮想空間生成装置。
  4. 【請求項4】 請求項1に記載の仮想空間生成装置にお
    いて、画像入力手段の位置を入力する位置測定手段を備
    え、前記位置測定手段の測定した位置を入力情報記録手
    段に入力することを特徴とする仮想空間生成装置。
  5. 【請求項5】 請求項4に記載の仮想空間生成装置にお
    いて、構造化データ記録手段は画像入力手段から入力さ
    れた画像と、これと同時に角度測定手段から入力された
    角度情報と、位置測定手段から入力された位置情報とを
    組にして記録することを特徴とする仮想空間生成装置。
  6. 【請求項6】 請求項5に記載の仮想空間生成装置にお
    いて、画像選択手段は視点入力手段から入力された視点
    位置を包む立体を作成し、前記視点入力装置によって入
    力された視点からこの立体を見た領域1を計算し、また
    前記立体を構造化データ記録手段に記録された画像に対
    応する位置と角度から決められる視野から前記立体を見
    た時の領域2を前記構造化データに記録された画像すべ
    てについて計算し、前記領域1に対する前記領域2の重
    なる比率の最も大きなものに対する前記構造化データ記
    録手段に記録された画像を選択することを特徴とする仮
    想空間生成装置。
  7. 【請求項7】 請求項6に記載の仮想空間生成装置にお
    いて、画像選択手段の作成する視点を包む立体は円筒
    形、直方体、多面体、球、楕円のいずれかであることを
    特徴とする仮想空間生成装置。
  8. 【請求項8】 請求項7に記載の仮想空間生成装置に加
    えて、画像入力装置の入力する画像の拡大率を入力する
    拡大率入力手段を有し、前記拡大率入力手段の入力する
    拡大率は入力情報記録手段に入力されることを特徴とす
    る仮想空間生成装置。
  9. 【請求項9】 請求項8に記載の仮想空間生成装置にお
    いて、構造化データ記録手段は画像入力手段から入力さ
    れた画像と、これと同時に角度測定手段から入力された
    角度情報と、位置測定手段から入力された位置情報と、
    拡大率入力手段から入力された拡大率とを組にして記録
    することを特徴とする仮想空間生成装置。
  10. 【請求項10】 請求項8に記載の仮想空間生成装置に
    加えて、画像入力装置の入力する画像の対象物から前記
    画像入力装置までの距離を入力する距離測定手段を有
    し、前記距離測定手段の入力する距離情報は入力情報記
    録手段に入力されることを特徴とする仮想空間生成装
    置。
  11. 【請求項11】 請求項10に記載の仮想空間生成装置
    において、画像選択手段は、距離測定手段の入力する距
    離情報に合わせて画像選択手段の生成する立体の大きさ
    を構造化データ記録手段に記録された画像毎に決定し、
    画像毎に決定された立体を視点入力手段から入力された
    視点から見た領域1と、前記構造化データ記録手段に記
    録された位置と角度と拡大率によって決定される視点か
    ら見た領域2を前記構造化データ記録手段に記録された
    画像毎に計算し、前記領域1と前記領域2の重なる割合
    が最も大きなものに対する前記構造化データ記録手段に
    記録された画像を選択することを特徴とする仮想空間生
    成装置。
  12. 【請求項12】 同期信号を発生する同期信号発生手段
    と、画像を入力する画像入力手段と、前記同期信号発生
    手段の発生する同期信号に合わせて前記画像入力手段に
    よって入力された画像を記録する画像記録手段と、前記
    画像記録手段の向いている方向を測定する角度測定手段
    と、前記角度測定手段によって測定された角度を前記同
    期信号発生手段の発生する同期信号に合わせて角度を測
    定する記録する角度記録手段と、前記画像記録手段によ
    って記録された画像と前記角度記録手段によって記録さ
    れた角度情報を同期信号に合わせて記録する入力情報記
    録手段と、前記入力情報記録手段に記録された画像から
    前記角度情報を利用して必要な画像を選択する画像選択
    手段と、前記画像選択手段によって選択された画像をつ
    なぎ合わせる画像結合手段と、前記画像結合手段によっ
    て結合された画像を記録する結合画像記録手段と、前記
    結合画像記録手段に記録されている複数枚の結合画像を
    表示する画像表示手段と、前記画像表示手段によって表
    示された複数枚の画像の中からお互いに対応する点を指
    示する対応点指示手段と、前記対応点指示手段によって
    対応付けされた複数枚の結合画像から3次元空間中の仮
    想平面を生成する仮想平面生成手段と、前記仮想平面生
    成手段によって生成された仮想平面を記録する仮想平面
    記録手段と、前記結合画像記録手段に記録された結合画
    像を前記仮想平面記録手段によって記録された仮想平面
    に張り付けるイメージ画像張り付け手段と、前記イメー
    ジ画像張り付け手段によって仮想平面に張り付けられた
    画像を表示する画像表示手段とを備えた仮想空間生成装
    置。
JP34288196A 1996-12-24 1996-12-24 仮想空間生成装置 Expired - Fee Related JP3433882B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34288196A JP3433882B2 (ja) 1996-12-24 1996-12-24 仮想空間生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34288196A JP3433882B2 (ja) 1996-12-24 1996-12-24 仮想空間生成装置

Publications (2)

Publication Number Publication Date
JPH10188029A true JPH10188029A (ja) 1998-07-21
JP3433882B2 JP3433882B2 (ja) 2003-08-04

Family

ID=18357234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34288196A Expired - Fee Related JP3433882B2 (ja) 1996-12-24 1996-12-24 仮想空間生成装置

Country Status (1)

Country Link
JP (1) JP3433882B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209613A (ja) * 1999-01-14 2000-07-28 Nippon Telegr & Teleph Corp <Ntt> パノラマ画像作成方法及びパノラマ画像を用いた周囲状況伝達方法並びにこれらの方法を記録した記録媒体
KR20000063181A (ko) * 2000-04-21 2000-11-06 서정완 얼라이브 3차원 입체영상구현방법
JP2007200130A (ja) * 2006-01-27 2007-08-09 National Agriculture & Food Research Organization 景観解析方法とこの方法を実行するコンピュータプログラムおよびこのプログラムを格納した媒体
WO2010134502A1 (ja) * 2009-05-18 2010-11-25 小平アソシエイツ株式会社 画像情報出力方法
JP2012221324A (ja) * 2011-04-11 2012-11-12 Taisei Corp パノラマ画像データ生成装置
JP2015049716A (ja) * 2013-09-02 2015-03-16 大成建設株式会社 パノラマ画像表示装置
JP2016070891A (ja) * 2014-10-01 2016-05-09 日本電信電話株式会社 映像データ処理装置及び映像データ処理プログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209613A (ja) * 1999-01-14 2000-07-28 Nippon Telegr & Teleph Corp <Ntt> パノラマ画像作成方法及びパノラマ画像を用いた周囲状況伝達方法並びにこれらの方法を記録した記録媒体
KR20000063181A (ko) * 2000-04-21 2000-11-06 서정완 얼라이브 3차원 입체영상구현방법
JP2007200130A (ja) * 2006-01-27 2007-08-09 National Agriculture & Food Research Organization 景観解析方法とこの方法を実行するコンピュータプログラムおよびこのプログラムを格納した媒体
WO2010134502A1 (ja) * 2009-05-18 2010-11-25 小平アソシエイツ株式会社 画像情報出力方法
JP4854819B2 (ja) * 2009-05-18 2012-01-18 小平アソシエイツ株式会社 画像情報出力方法
JP2012053896A (ja) * 2009-05-18 2012-03-15 Kodaira Associates Kk 画像情報出力方法
US8593486B2 (en) 2009-05-18 2013-11-26 Kodaira Associates Inc. Image information output method
JP2012221324A (ja) * 2011-04-11 2012-11-12 Taisei Corp パノラマ画像データ生成装置
JP2015049716A (ja) * 2013-09-02 2015-03-16 大成建設株式会社 パノラマ画像表示装置
JP2016070891A (ja) * 2014-10-01 2016-05-09 日本電信電話株式会社 映像データ処理装置及び映像データ処理プログラム

Also Published As

Publication number Publication date
JP3433882B2 (ja) 2003-08-04

Similar Documents

Publication Publication Date Title
US8970690B2 (en) Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
US10546410B2 (en) Method for inter-scene transitions
JP6775776B2 (ja) 自由視点移動表示装置
Neumann et al. Augmented virtual environments (ave): Dynamic fusion of imagery and 3d models
JP4804256B2 (ja) 情報処理方法
KR101323966B1 (ko) 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
EP2583449B1 (en) Mobile and server-side computational photography
JP4789745B2 (ja) 画像処理装置および方法
WO2008060933A2 (en) Method for scripting inter-scene transitions
EP1292877A1 (en) Apparatus and method for indicating a target by image processing without three-dimensional modeling
Bradley et al. Image-based navigation in real environments using panoramas
Chapdelaine-Couture et al. The omnipolar camera: A new approach to stereo immersive capture
JP2004265396A (ja) 映像生成システム及び映像生成方法
JP3433882B2 (ja) 仮想空間生成装置
US7148891B2 (en) Image display method and image display device
Zheng et al. Scanning scene tunnel for city traversing
Chandaria et al. The MATRIS project: real-time markerless camera tracking for augmented reality and broadcast applications
JPH10208074A (ja) 画像生成方法
EP3882846B1 (en) Method and device for collecting images of a scene for generating virtual reality data
JP3387900B2 (ja) 画像処理方法及び装置
Vanijja et al. Omni-directional stereoscopic images from one omni-directional camera
Asiminidis Augmented and Virtual Reality: Extensive Review
Kim et al. Image-based panoramic 3D virtual environment using rotating two multiview cameras
Todoroki et al. Light field rendering with omnidirectional camera
Czernuszenko Modeling three-dimensional scenes from video for virtual environments

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090530

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100530

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110530

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110530

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120530

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120530

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130530

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130530

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees