JP2000207575A - 空間融合装置及びこれを適用した応用装置 - Google Patents

空間融合装置及びこれを適用した応用装置

Info

Publication number
JP2000207575A
JP2000207575A JP306099A JP306099A JP2000207575A JP 2000207575 A JP2000207575 A JP 2000207575A JP 306099 A JP306099 A JP 306099A JP 306099 A JP306099 A JP 306099A JP 2000207575 A JP2000207575 A JP 2000207575A
Authority
JP
Japan
Prior art keywords
image
unit
user
space
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP306099A
Other languages
English (en)
Inventor
Takeo Miyazawa
丈夫 宮沢
Akiko Watanabe
朗子 渡邊
Stein Gideon
スタイン ギデオン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NADEISU KK
Original Assignee
NADEISU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NADEISU KK filed Critical NADEISU KK
Priority to JP306099A priority Critical patent/JP2000207575A/ja
Publication of JP2000207575A publication Critical patent/JP2000207575A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

(57)【要約】 【課題】 改良された、現実空間と仮想空間を統合する
空間融合装置を提供することを目的とする。また、この
装置を利用した各種応用装置を提供することを目的とす
る。 【解決手段】 この発明は、CG画像を現実のHMDの
視野に存在する光景と合成することができる空間融合装
置に関する。この装置は、ユーザーが見た現実のビュー
とCG画像とを自然に融合することができ、今後さまざ
まな分野での利用が期待されている。融合のためには、
ユーザーが現在どこにいて、どの方向を向いているかを
正確に検出する必要がある。この発明は、二つ以上の二
次元カメラ画像から幾何学的計算方法によって三次元座
標位置を求める手法を用いて検出している。現実のビュ
ーと位置あわせされたCG画像は、HMD内において表
示装置に表示され、この表示装置上の画像は現実のHM
Dの視野に存在する光景と光学的に合成される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、現実空間と仮想
空間を統合する技術に関し、特に、二つ以上の二次元カ
メラ画像から幾何学的計算方法によって三次元座標位置
を求める手法を利用した空間融合装置、及び、これを利
用した各種応用装置に関する。
【0002】
【従来の技術】人間の視覚で認識する現実空間とコンピ
ュータなどの外部装置によって人工的に生成された画像
データを1つのHMD(Head Mount Display)を介して統合
する技術の開発が、主に研究室レベルで行われている。
これを空間融合装置と名づける。この空間融合装置は、
現実に見える世界とコンピュータ等のデジタルデータに
より生成された仮想世界とを融合した空間体験をユーザ
ーに提供する。それらは、Argumented RealityやMixed
Realityとも呼ばれ、従来のバーチャルリアリティーがC
G(Computer Graphics)のみの仮想世界を構築し、ユーザ
ーに提供していたのに比較して、現実世界の拡張として
の情報環境を構築し、提供することができる。
【0003】
【発明が解決しようとする課題】この発明は、改良され
た、現実空間と仮想空間を統合する技術を提供すること
を目的とする。また、この技術を利用した各種応用装置
を提供することを目的とする。
【0004】
【課題を解決するための手段】この発明は、建築・教育
・医療・エンターテインメント及び電子商取引などの幅
広い分野において利用されると期待される。
【0005】この目的のために、本発明は、ヘッドマウ
ントディスプレイ(HMD)であって、カメラと、前記
カメラからの画像データを二つ以上の二次元カメラ画像
から幾何学的計算方法によって三次元座標位置を求める
手法により位置及び方向を検出する三次元位置検出部
と、前記位置及び方向に基づきCG画像を生成する画像
生成部と、前記画像生成部の出力を受けてCG画像を生
成する表示部と、前記画像生成部で生成された画像を現
実のビューと合成する合成部とを備える。
【0006】本発明は、携帯用のナビゲーション装置で
あって、ユーザーの現在位置を検出する位置検出部と、
現在位置に応じたナビゲーション情報を受信する受信部
と、ナビゲーションのための画像を生成する画像生成部
と、前記画像生成部で生成された画像を現実のビューと
合成する空間融合部とを備える空間融合装置を適用した
応用装置である。
【0007】本発明は、見通し外の画像融合装置であっ
て、ユーザーの視野の方向を検出する方向検出部と、ユ
ーザーの視野外の画像を入手するためのカメラと、前記
カメラの出力に基づき画像を生成する画像生成部と、前
記画像生成部で生成された画像を現実のビューと合成す
る空間融合部と、を備える空間融合装置を適用した応用
装置である。
【0008】本発明は、家具の配置などのシミュレーシ
ョンを行うための装置であって、予め複数の家具の形状
・模様・色彩・寸法に関するデータを格納する家具デー
タベースと、ユーザーの位置及び視野の方向を検出する
方向検出部と、前記複数の家具のいずれかを選択すると
ともに、その配置を指定するポインティングデバイスま
たは指をポインティングデバイスとして機能させるソフ
トウェアと、前記選択された家具を指定に従い仮想空間
に配置するとともに、前記方向検出部の出力に基づきユ
ーザーの視点からみた家具の画像を生成する画像生成部
と、前記画像生成部で生成された画像を現実のビューと
合成する空間融合部と、を備える空間融合装置を適用し
た応用装置である。
【0009】本発明は、リアルなゲームを提供するため
の装置であって、ゲームシナリオに従いゲームを進行さ
せるとともに、ゲーム画像を発生するゲーム処理装置
と、ユーザーの位置及び視野の方向を検出する方向検出
部と、ゲームに関する操作を行うためのポインティング
デバイスまたは指をポインティングデバイスとして機能
させるソフトウェアと、前記方向検出部の出力に基づき
ユーザーの視点からみたゲーム画像を生成する画像生成
部と、前記画像生成部で生成された画像を現実のビュー
と合成する空間融合部と、を備える空間融合装置を適用
した応用装置である。
【0010】
【発明の実施の形態】実施の形態1.以下に、この発明
の好適な実施の形態について説明する。
【0011】図1は、現実空間と仮想空間とを融合する
ために用いられる装置の一例を示す。ヘッドマウントデ
ィスプレイ(HMD)1は、仮想空間に係る画像を発生する
ための表示部としての液晶表示装置(LCD)11L,11
Rと、HMD1の現実空間内における三次元位置を求め
るためのカメラ12L,12Rとを備える。三次元位置
抽出処理部3は、カメラ12L,12Rの出力に基づき
HMD1の三次元位置を求める。画像生成装置4L,4
Rは、求められた三次元位置に基づき所定の処理を行
う。例えば、求められた三次元位置及びその向きに基づ
き視点を定め、この視点から見た仮想空間の画像を生成
する。なお、仮想空間に関する情報は図示しない装置か
ら供給される。あるいは、画像生成装置4が仮想空間に
関する情報を記憶あるいは生成する。
【0012】HMD1の三次元位置を簡易に求める最適
な方法として、HMDに小型のカメラを装着し、そのカ
メラから連続的に送られてくる二次元情報から三次元情
報を再構築し、そこから逆にHMDの三次元位置情報を算
出する方法が知られている。この「カメラ情報のみから
の三次元情報の再構築」を実現するために特に優れた方
法として、射影幾何学不偏分散量を用いた方法、三項線
形テンソル量を用いた方法、三項テンソルの応用として
のダイレクト・エスティメーション法等がある。これら
の方法は、カメラの内部パラメータによるキャリブレー
ション情報を必要とせず、与えられた二次元画像データ
のみからの三次元情報の復元を可能にしている。
【0013】図2(a)は、HMD1の概略外観図であ
る。バンド2は、HMD1をユーザーの頭部にしっかり
と締め付けるためのものである。図2(b)はHMD1
の使用状態を示す図である。
【0014】図3(a)は、HMD1の概略断面図であ
る。LCD11の画像は、HMD1のガラス等の透明部
材の内部を通って、透明部材の内側表面に投射される
(L2)。同時に、現実空間の映像(L1)も透明部材
の内部を通って内側表面に到達する。ユーザーは、現実
空間の映像(L1)と仮想空間の映像(L2)とが合成
された映像を見ることができる。
【0015】図3(b)は、図3(a)とは異なるHM
D1の概略断面図である。ハーフミラー・プリズムなど
の合成手段14により、現実空間の映像(L1)と仮想
空間の映像(L2)とが合成される。ユーザーはこの合
成された映像を見ることができる。
【0016】ところで、画像生成装置4は、仮想空間に
おいて三次元的な処理を行う。三次元的な処理は、二次
元的な処理に比べて多くの演算量を必要とするので、高
性能のハードウエアを使用しなければならない。一方、
人間の視覚特性から見ると、近い場所において三次元的
な処理の必要性は高いが、比較的遠い場所において三次
元的な処理の必要性はさほど高くない。そこで、近い場
所について三次元的な処理を行い、遠い場所について二
次元的な処理を行うことにより、処理の質を落とすこと
なくハードウエアの要求性能を引き下げることが可能で
ある。これにより装置の小型化及びコストダウンが可能
になる。
【0017】図4はこの処理のフローチャートを示し、
図5は処理の説明図を示す。図4によれば、物体までの
距離(d)を判定し(S1)、距離(d)を予め設定さ
れたしきい値(D)と比較し(S2)、D≧dの場合に
は三次元処理を行い(S3)、D<dの場合には二次元
処理を行う(S4)。しきい値(D)は、人間の視覚特
性及びハードウエアの処理能力から定められる。
【0018】ところで、HMD1を表示装置として用い
るだけでなく、インタラクティブな装置として用いるこ
とが考えられる。この場合において、何らかの操作を実
現するためのポインティングデバイスが必要となる。H
MD1の2つのカメラ12を用いて、ユーザーの手の位
置を二つ以上の二次元カメラ画像から幾何学的計算方法
によって三次元座標位置を求める手法により求めること
ができる。また指先の位置の検出精度を上げるために、
特定色にキャップ状の構造物を指先に装着することも可
能である。そこで、ユーザーの手及び/又は指そのもの
をポインティングデバイスとして使用し、手及び/又は
指の動きによりさまざまな操作を行うことが考えられ
る。例えば、指で現実の物体あるいは仮想空間中の物体
を指で示すことにより特定の物体を指定し、物体を指で
つまむことにより選択し、選択された物体を指でつまん
だまま動かすことにより場所を移動する。手と指の操作
により、いわゆるコンピュータマウスのクリック、ドラ
ッグ、ドロップに相当する処理が可能である。
【0019】実施の形態2.次に、実施の形態1の装置
を適用した装置について説明する。
【0020】図6乃至図8は、三次元パーソナルナビゲ
ーション装置の概要を示す。これは、現実の都市内を歩
き回るときに所望の情報を随時得るための装置である。
GPS(Global Positioning System)又は/および無線通信
手段を使用し受信装置と複数の基地局との無線信号到達
距離の差から発信者の絶対位置を求める類似の装置から
得た情報に基づき、ユーザーは所望の場所に向けて移動
することができる。あるいは、ユーザーは、都市に重畳
される3次元情報を見ることができる。この装置は、カ
ーナビゲーションに代わるものである。
【0021】図6に示されるように、この装置は、LCD
11及びカメラ12を備えるヘット゛マウントテ゛ィスフ゜レイ(HMD)1
と、カメラ12からの画像に基づき認識処理を行う3次
元認識装置24と、データベースコントロールを行う制
御部23と、CGを発生するCG発生装置25と、GPS又
は/および無線通信手段を使用し受信装置と複数の基地
局との無線信号到達距離の差から発信者の絶対位置を求
める装置21と、モバイルモデム22とを備える。
【0022】この装置の処理の概略を図7に示す。
【0023】GPSおよび無線通信手段を使用して受信
装置と複数の基地局との無線信号到達距離の差から発信
者の絶対位置を求める装置により装置のおよその位置を
検出する(S10)。検出された位置にしたがって、モ
バイルモデム22が3次元位置情報を含むデータを受信
する(S11)。この情報は3次元認識のための配列情
報を含む。CCDユニットからの画像に基づき三次元認識
装置24が都市の構造を検出する(S12)。CG発生
装置25は、GPS又は/および無線通信手段を使用し
受信装置と複数基地局との無線信号到達距離の差から発
信者の絶対位置を求める装置21からの位置情報、モバ
イルモデム22からのデータ及び三次元認識装置24か
らの検出情報に基づきHMD1上にオーバーラップされ
るCG情報を発生する(S13)。予めユーザーが目的地
を設定しておけば、HMDは道に大きな矢印をしめすこと
により、ユーザーにその方向又は位置を指し示す(図
8)。ユーザーがある種のカテゴリ(例えば、書店、レ
ストラン、警察など)の位置を知りたいのなら、HMDは
その位置を示したり、そこを指し示す。候補が複数ある
ときは、それらすべてについて方向を示したり、あるい
は最適な候補について方向を示す。また、受信した三次
元都市情報に基づき、視野内の建物に重ねて、その建物
の情報、例えば、建物の名前、店舗の種類、提供される
商品やサービスの情報を表示することができる(図
8)。
【0024】位置検出装置としてGPS又は/および無
線通信手段を使用し受信装置と複数基地局との無線信号
到達距離の差から発信者の絶対位置を求める装置が適当
である。この装置のための位置検出装置は、小さくかつ
軽くなければならない。モバイル通信の速度は、現在は
非常に遅い(9.6k−32kbps)が、次世代(20
00年から世界中でサービスが開始される予定)のCDMA
は、より早い通信速度(512k−1Mbps)を実現す
る。このような状況において、CD-ROMを持ち運ぶ必要は
なくなる。また、次の世代のモバイルフォンはGPS機
能または/及び無線通信手段を使用して受信装置と複数
基地局との間の無線信号到達距離の差から発信者の絶対
位置を求める機能を標準でもつと予想される。装置が1
00MバイトのRAMを備えるならば、現在の位置で必要な
情報をダウンロードすれば十分である。
【0025】ダウンロードされた情報は、都市情報ばか
りでなく、3次元認識及び配列情報を含んでいる。HMD1
のCCDユニット12は、都市の3次元構造を再構成すると
ともに、ダウンロードされた情報でそれを配列し、両方
の情報を効果的に配列する(図8)。
【0026】なお、モバイルモデム22で受信する三次
元都市情報の費用は、店舗及びレストランに請求され、
ユーザーには請求されない。三次元都市情報は一種の広
告であり、集客能力があるから、費用は提供者側に負担
させるべきである。
【0027】実施の形態3.図9は、ユーザが車両等の
内部にいるときに、カメラの画像と直接目視できる視野
内の像とを、空間融合装置を適用して組み合わせること
により、車両中から外の世界を見た透視図を提供するた
めの装置を示す。このシステムに衛星や航空機に搭載さ
れたイメージを結び付けるならば、前面の丘/山等の障
害物の後ろ側のイメージを合成したものを提供すること
ができる。
【0028】図9において、ユーザーの回りに配置され
たカメラ31Aないし31Dの出力はカメラ切り換え機
33に入力され、これらのうちの一部あるいは全部が選
択されて出力される。障害物の向こう側のカメラ32の
出力は、カメラ切り換え機33の出力とともに合成部3
4に入力される。合成部34は、三次元認識装置24の
出力に基づき最適な画像の合成を行う。この出力に基づ
き、CG発生装置25はCG画像を生成し、LCD11
に供給する。
【0029】図10(a)はカメラの配置を示す平面図
である。図10(b)は同じく側面図である。ユーザー
は車両35の窓Wを通して外部を見ることができる。カ
メラ31Aないし31dは、車両35の回りに、死角を
なくすように配置される。図10(a)において、ユー
ザーは窓Wから障害物36の方向を見ている。このと
き、カメラ31Aと31Dの画像を合成すれば、ユーザ
ーは広い範囲についての画像を得ることができて、死角
が解消する。さらに、障害物36の向こう側に配置され
たカメラ32の画像をも合成すれば、視野内にない範囲
についても視認できる。カメラ32は地上に設置される
ばかりでなく、人工衛星や航空機に搭載されることも可
能である。カメラ32が上空にあるときは、カメラ32
の画像に対して所定の変換を行うことにより、カメラ3
2が地上にある場合と同様の画像を提供できる。
【0030】このシステムによれば、ユーザーの直接の
視野が狭い場合でも、ユーザーは広い範囲を監視するこ
とができて死角を解消できる。さらに、障害物の向こう
側を見通しすることもできる。このシステムは、車両の
ドライバーの死角をなくすための装置や、山、丘あるい
は建物の向こう側を見通すための装置として利用可能で
ある。
【0031】実施の形態4.図11は、バーチャルイン
テリアデザインやバーチャル家具店を実現するための装
置を示す。従来の家具店は広いスペースを備え、多数の
家具を展示していた。図11の装置は、家具の展示を不
要にする。図11の装置は、お客の部屋でシミュレーシ
ョンを行うことにより、お客に家具/インテリアを販売
することができる。この装置はより実際的な家具及びそ
の配置の評価を可能とする。
【0032】ユーザーあるいはセールスマンがポインテ
ィングデバイス41または指先をポインティングデバイ
スとして機能させるソフトウェアを操作して、家具等を
設置する場所を指定する。設置場所が決まると、家具デ
ータベース42から所定の家具データを呼び出し、CG
を発生し、現実の画像と合成する。この装置によれば、
空き部屋に所望の家具を仮想的に配置することができる
ので、所望の家具を部屋に実際に置いたらどうなるかに
ついて、よりリアルなシミュレーションが可能になる。
図12のようにドアDの前にフロアマット44を置いて
そのデザインがマッチするかどうか判断したり、ドアD
の横に植物を置いてその配置が適当かどうか、例えばド
アの開閉に邪魔になるかどうか、を判断することができ
る。図13(a)は、ユーザーが見る画像の例である。
コンピュータにより合成された画像は44、45及び矢
印Pであり、他はHMD1を通して見る実際の像であ
る。矢印Pはポインティングデバイス41または指先を
ポインティングデバイスとして機能させるソフトウェア
により示される。ユーザーは矢印Pを任意の位置に移動
することにより、家具等の設置位置を指定できる。図1
3(b)は他の画像の例である。これは比較的大きな家
具46を矢印PでドラッグすることによりドアDを通し
ている状態を示す。CGにより家具46とドアDの干渉
を表示できるから、所望の家具がドアを通るかどうかを
容易に知ることができる。
【0033】実施の形態5.図14は、空間融合装置を
用いたゲーム装置を示す。この技術を用いたゲーム装置
の市場は大きいと考えられる。ゲームを進行させるゲー
ムコンピュータ51からデータを受けて、ゲーム画像発
生装置52は所定のゲーム画面、例えば、チェスゲーム
においてチェスボードと駒、及びそれらを操作する相手
プレーヤー等の画像を含む画面を発生する。発生された
画面は、前述の方法に従って現実のビューと合成され
る。
【0034】具体的なゲームの例として次のようなもの
が考えられる。
【0035】(1)プレーヤーはボード上にリアルな障害
物53、54(例えば、ブロック、山/川モデル)を置
き、3次元的に移動するキャラクタCの動きを制御す
る。あるいは、複数のプレーヤー同士で対戦し、人間が
コンピュータにより表現されたバーチャルオブジェクト
53,54の間を歩きまわる。
【0036】(2)コンピュータ相手のチェス/チェッカ
ーゲームであって、コンピュータにより合成された対戦
相手Cがチェスボード56上の駒55を自在に動かす。
従来の平面的なチェスゲームよりも、立体表現により実
感的であるとともに、相手が3次元的に表現されるので
従来になかった面白さが得られる。
【0037】実施の形態6.図6、9、11及び14の
装置により、下記の情報やサービスを提供できる。
【0038】1.廃虚/歴史的建物の再構築 遺跡を見学する際に、HMDによりその遺跡の復元した
状態を見せることができる。見学者は遺跡を歩き回りな
がら好きな角度から復元された仮想的な建物を見学する
ことができる。単なるCGの復元画像はよく知られてい
るが、これは単なる映画であり、インタラクティブ性に
欠ける。この実施の形態は、インタラクティブ性に優
れ、臨場感あふれる体験を提供できる。具体的には、次
のように処理する。遺跡として建物の土台が残っている
とき、その上の柱や屋根、室内の装飾の部分にコンピュ
ータによる合成画像を組み合わせる。なお、演算量を抑
えつつリアリティーを高めるために、遠方の建物、山な
どの画像は2次元イメージで実現し、近景の部分は3次元
イメージで実現することが考えられる。
【0039】また、必要に応じて二次元および三次元位
置情報と対応づけられた文章、音声、静止画、動画、C
Gまたはそれらの組み合わせによる付加的な説明を自動
的またはある条件に応じてまたはユーザーとのインタラ
クションの中で提示することができる。
【0040】2.恐竜/考古学的なものの再構成 博物館にある恐竜の骨格標本に、CGによる皮膚を貼り
付ける。恐竜の骨格標本がある部屋にユーザーが入る
と、画像発生装置が皮膚の配列及び表示のためのCADデ
ータをダウンロードする。合成部が、発生された画像を
ユーザーの視点からのCG画像に変換し、HMDに送る。
ユーザーはHMDを通してよりリアルな恐竜の標本を見
ることができる。
【0041】また、必要に応じて再構成されたCGデー
タの三次元位置情報と対応づけられた文章、音声、静止
画、動画、CGまたはそれらの組み合わせによる付加的
な説明を自動的またはある条件に応じてまたはユーザー
とのインタラクションの中で提示することができる。
【0042】3.デジタル博物館 (1)バーチャルイメージの展示物を、回転させたり、上
下逆さにしたり、投げ上げたり、する。
【0043】(2)バーチャル絵画及び彫刻を、オリシ゛ナルな
表示(天井や壁上に)として展示する。
【0044】(3)必要に応じて展示物、絵画、彫刻等
の二次元および三次元位置情報と対応づけられた文章、
音声、静止画、動画、CGまたはそれらの組み合わせに
よる付加的な説明を自動的またはある条件に応じてまた
はユーザーとのインタラクションの中で提示することが
できる。
【0045】4.機械・工場修理ガイダンス 本技術を用いて、機械の特定部位や工場の特定個所の三
次元位置とそれに必要とされる情報を重ねて表示する。
それにより、修理・メンテナンスが正確に短時間で可能
になる。
【0046】5.広告 屋外、屋外に三次元の模型、二次元の写真等に基づく広
告媒体を表示し、それに今回の空間融合装置を組み合わ
せることで、より集客力のある広告表現が可能になる。
【0047】6.写真・地図・模型等に基づく教材 三次元の模型、二次元の写真等に基づく学習教材を表現
し、それに今回の空間融合装置を組み合わせることで、
より学習効果の高い教材が実現する。
【0048】以上の説明において用いられる手段とは必
ずしも物理的手段を意味するものではなく、各手段の機
能が、ソフトウェアによって実現される場合も包含す
る。さらに、一つの手段の機能が、二つ以上の物理的手
段により実現されても、若しくは、二つ以上の手段の機
能が、一つの物理的手段により実現されてもよい。
【0049】なお、以上の説明において「画像」という
単語を用いたが、これはいわゆる可視画像のほかに、不
可視画像も含む。例えば、レーダー、超音波スキャナ、
CT画像、MRI画像、魚群探知機の画像等も含まれ
る。
【0050】
【発明の効果】以上のように、この発明によれば、改良
された、現実空間と仮想空間を統合する空間融合装置を
提供することを目的とする。また、この装置を利用した
各種応用装置を提供することを目的とする。
【図面の簡単な説明】
【図1】図1は、この発明の実施の形態に係る空間融合
装置の概略機能ブロック図である。
【図2】図2(a)及び(b)は、この発明の実施の形
態に係る空間融合装置の外観図である。
【図3】図3(a)は、この発明の実施の形態に係る空
間融合装置の融合の説明図である。図3(b)は、この
発明の実施の形態に係る空間融合装置の融合の他の説明
図である。
【図4】図4は、この発明の実施の形態に係る空間融合
装置の動作フローチャートである。
【図5】図5は、この発明の実施の形態に係る空間融合
装置の動作の説明図である。
【図6】図6は、この発明の実施の形態2に係る、空間
融合装置の応用装置の機能ブロック図である。
【図7】図7は、この発明の実施の形態2に係る、空間
融合装置の応用装置の動作フローチャートである。
【図8】図8は、この発明の実施の形態2に係る、空間
融合装置の応用装置の動作例である。
【図9】図9は、この発明の実施の形態3に係る、空間
融合装置の応用装置の機能ブロック図である。
【図10】図10(a)は、この発明の実施の形態3に
係る、空間融合装置の応用装置の動作説明図である。図
10(b)は、この発明の実施の形態3に係る、空間融
合装置の応用装置の動作説明図である。
【図11】図11は、この発明の実施の形態4に係る、
空間融合装置の応用装置の機能ブロック図である。
【図12】図12は、この発明の実施の形態4に係る、
空間融合装置の応用装置の動作説明図である。
【図13】図13(a)は、この発明の実施の形態4に
係る、空間融合装置の応用装置の動作説明図である。図
13(b)は、この発明の実施の形態4に係る、空間融
合装置の応用装置の動作説明図である。
【図14】図14は、この発明の実施の形態5に係る、
空間融合装置の応用装置の動作説明図である。
【図15】図15は、この発明の実施の形態5に係る、
空間融合装置の応用装置の動作説明図である。
【図16】図16は、この発明の実施の形態5に係る、
空間融合装置の応用装置の動作説明図である。
【符号の説明】
1 ヘッドマウントディスプレイ(HMD) 11 液晶表示装置(LCD) 12 カメラ 3 三次元位置抽出処理部 4 画像生成装置 21 発信者の絶対位置を求める装置 22 モバイルモデム 23 データベースコントロールを行う制御部 24 3次元認識装置 25 CG発生装置 31 カメラ 33 カメラ切り換え機 34 合成部 35 車両 36 障害物 41 ポインティングデバイス 42 家具データベース 51 ゲームコンピュータ 52 ゲーム画像発生装置 53,54 障害物 55 駒 56 チェスボード

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 ヘッドマウントディスプレイ(HMD)
    であって、 カメラと、 前記カメラの出力を二つ以上の二次元カメラ画像から幾
    何学的計算方法によって三次元座標位置を求める手法に
    より評価することにより位置及び方向を検出する三次元
    位置検出部と、 前記位置及び方向に基づきCG画像を生成する画像生成
    部と、 前記画像生成部の出力を受けてCG画像を生成する表示
    部と、 前記画像生成部で生成された画像を現実のHMDの視野
    に存在する光景と合成する合成部とを備える空間融合装
    置。
  2. 【請求項2】 請求項1記載の空間融合装置において、
    前記画像生成部は、予め設定された距離よりも近い部分
    について三次元CG画像を生成し、前記距離よりも遠い
    部分について二次元CG画像を生成する。
  3. 【請求項3】 携帯用のナビゲーション装置であって、 ユーザーの現在位置を検出する位置検出部と、 現在位置に応じたナビゲーション情報を受信する受信部
    と、 ナビゲーションのための画像を生成する画像生成部と、 前記画像生成部で生成された画像を現実のビューと合成
    する空間融合部と、を備える空間融合装置を適用した応
    用装置。
  4. 【請求項4】 請求項3記載の空間融合装置を適用した
    応用装置において、前記空間融合部は、カメラを備えた
    ヘッドマウントディスプレイ(HMD)であり、 前記位置検出部は、前記カメラの出力を二つ以上の二次
    元カメラ画像から幾何学的計算方法によって三次元座標
    位置を求める手法により評価することにより位置及び方
    向を求め、 前記画像生成部は、前記位置及び方向に基づき選択され
    たナビゲーション情報の画像を生成する。
  5. 【請求項5】 請求項3記載の空間融合装置を適用した
    応用装置において、さらに、グローバル・ポジショニン
    グ・システム(GPS)又は/および無線通信手段を使
    用し受信装置と複数の基地局との無線信号到達距離の差
    から発信者の絶対位置を求める装置を備え、前記受信部
    は前記装置の出力に応じてナビゲーション情報を受信す
    る。
  6. 【請求項6】 画像融合装置であって、 ユーザーの視野の方向を検出する方向検出部と、 ユーザーの視野外の画像を入手するためのカメラと、 前記カメラの出力に基づき画像を生成する画像生成部
    と、 前記画像生成部で生成された画像を現実のHMDの視野
    に存在する光景と合成する空間融合部と、を備える空間
    融合装置を適用した応用装置。
  7. 【請求項7】 請求項6記載の空間融合装置を適用した
    応用装置において、ユーザーが箱の内部にいて窓から外
    部を見るときに、前記カメラは前記窓の視野外の部分を
    カバーするように、前記箱の周囲に配置される。
  8. 【請求項8】 請求項6記載の空間融合装置を適用した
    応用装置において、ユーザーが壁、丘、山等の障害物の
    前にいるときに、前記カメラはユーザーから見て前記障
    害物の向こう側の部分をカバーするように配置される。
  9. 【請求項9】 請求項8記載の空間融合装置を適用した
    応用装置において、前記カメラは航空機、人工衛星等の
    プラットフォームに搭載される。
  10. 【請求項10】 家具の配置などのシミュレーションを
    行うための装置であって、 予め複数の家具の形状・模様・色彩・寸法に関するデー
    タを格納する家具データベースと、 ユーザーの位置及び視野の方向を検出する方向検出部
    と、 前記複数の家具のいずれかを選択するとともに、その配
    置を指定するポインティングデバイスまたは前述の指を
    ポインティングデバイスとして機能させるソフトウエア
    と、 前記選択された家具を指定に従い仮想空間に配置すると
    ともに、前記方向検出部の出力に基づきユーザーの視点
    からみた家具の画像を生成する画像生成部と、 前記画像生成部で生成された画像を現実のHMDの視野
    に存在する光景と合成する空間融合部と、を備える空間
    融合装置を適用した応用装置。
  11. 【請求項11】 リアルなゲームを提供するための装置
    であって、ゲームシナリオに従いゲームを進行させると
    ともに、ゲーム画像を発生するゲーム処理装置と、 ユーザーの位置及び視野の方向を検出する方向検出部
    と、 ゲームに関する操作を行うためのポインティングデバイ
    スまたは前述の指をポインティングデバイスとして機能
    させるソフトウエアと、 前記方向検出部の出力に基づきユーザーの視点からみた
    ゲーム画像を生成する画像生成部と、 前記画像生成部で生成された画像を現実のHMDの視野
    に存在する光景と合成する空間融合部と、を備える空間
    融合装置を適用した応用装置。
JP306099A 1999-01-08 1999-01-08 空間融合装置及びこれを適用した応用装置 Pending JP2000207575A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP306099A JP2000207575A (ja) 1999-01-08 1999-01-08 空間融合装置及びこれを適用した応用装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP306099A JP2000207575A (ja) 1999-01-08 1999-01-08 空間融合装置及びこれを適用した応用装置

Publications (1)

Publication Number Publication Date
JP2000207575A true JP2000207575A (ja) 2000-07-28

Family

ID=11546793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP306099A Pending JP2000207575A (ja) 1999-01-08 1999-01-08 空間融合装置及びこれを適用した応用装置

Country Status (1)

Country Link
JP (1) JP2000207575A (ja)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112287A (ja) * 2000-09-28 2002-04-12 Takenaka Komuten Co Ltd 仮想現実呈示システム
JP2003242527A (ja) * 2002-02-18 2003-08-29 Canon Inc 情報処理装置および方法
JP2003305276A (ja) * 2002-02-18 2003-10-28 Space Tag Inc ゲームシステム、ゲーム装置、および記録媒体
JP2008532149A (ja) * 2005-03-02 2008-08-14 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Arオブジェクトとの光学的な重なり合いを判定する方法および装置
JP2008276301A (ja) * 2007-04-25 2008-11-13 Fujifilm Corp 画像処理装置、方法およびプログラム
CN101729916A (zh) * 2008-10-10 2010-06-09 富士胶片株式会社 图像处理装置、图像记录装置、方法及程序
US7859532B2 (en) 2006-03-01 2010-12-28 Kabushiki Kaisha Square Enix Generating character images based upon display conditions
JP2011034429A (ja) * 2009-08-04 2011-02-17 Kddi Corp 表示方法および表示システム
JP2011047866A (ja) * 2009-08-28 2011-03-10 Kddi Corp 表示方法および表示システム
JP2012063253A (ja) * 2010-09-16 2012-03-29 Olympus Corp 画像生成システム、プログラム及び情報記憶媒体
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP5334145B1 (ja) * 2012-06-29 2013-11-06 トーヨーカネツソリューションズ株式会社 物品のピッキング作業の支援システム
JP2014515130A (ja) * 2011-03-10 2014-06-26 マイクロソフト コーポレーション 写実的に表されたビューのテーマベースの拡張
US8917169B2 (en) 1993-02-26 2014-12-23 Magna Electronics Inc. Vehicular vision system
US8993951B2 (en) 1996-03-25 2015-03-31 Magna Electronics Inc. Driver assistance system for a vehicle
US9008369B2 (en) 2004-04-15 2015-04-14 Magna Electronics Inc. Vision system for vehicle
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
JP2016507970A (ja) * 2013-01-04 2016-03-10 ヴァジックス コーポレーションVuzix Corporation 双方向型ウェアラブルポータブルスマート装置
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
US9555803B2 (en) 2002-05-03 2017-01-31 Magna Electronics Inc. Driver assistance system for vehicle
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle
JP2018192550A (ja) * 2017-05-16 2018-12-06 タクボエンジニアリング株式会社 塗装ロボットのティーチング方法
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
KR101917359B1 (ko) * 2017-08-03 2019-01-24 한국과학기술연구원 내부 및 외부 영상의 적응형 정합을 통한 실감 투시 방법 및 시스템
US10217294B2 (en) 2008-05-07 2019-02-26 Microsoft Technology Licensing, Llc Procedural authoring
US10539787B2 (en) 2010-02-28 2020-01-21 Microsoft Technology Licensing, Llc Head-worn adaptive display
CN111429571A (zh) * 2020-04-15 2020-07-17 四川大学 一种基于时空图像信息联合相关的快速立体匹配方法
US10860100B2 (en) 2010-02-28 2020-12-08 Microsoft Technology Licensing, Llc AR glasses with predictive control of external device based on event input

Cited By (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917169B2 (en) 1993-02-26 2014-12-23 Magna Electronics Inc. Vehicular vision system
US8993951B2 (en) 1996-03-25 2015-03-31 Magna Electronics Inc. Driver assistance system for a vehicle
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
JP2002112287A (ja) * 2000-09-28 2002-04-12 Takenaka Komuten Co Ltd 仮想現実呈示システム
JP2003242527A (ja) * 2002-02-18 2003-08-29 Canon Inc 情報処理装置および方法
JP2003305276A (ja) * 2002-02-18 2003-10-28 Space Tag Inc ゲームシステム、ゲーム装置、および記録媒体
US9834216B2 (en) 2002-05-03 2017-12-05 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US10118618B2 (en) 2002-05-03 2018-11-06 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9555803B2 (en) 2002-05-03 2017-01-31 Magna Electronics Inc. Driver assistance system for vehicle
US10351135B2 (en) 2002-05-03 2019-07-16 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US10683008B2 (en) 2002-05-03 2020-06-16 Magna Electronics Inc. Vehicular driving assist system using forward-viewing camera
US9643605B2 (en) 2002-05-03 2017-05-09 Magna Electronics Inc. Vision system for vehicle
US11203340B2 (en) 2002-05-03 2021-12-21 Magna Electronics Inc. Vehicular vision system using side-viewing camera
US10110860B1 (en) 2004-04-15 2018-10-23 Magna Electronics Inc. Vehicular control system
US9191634B2 (en) 2004-04-15 2015-11-17 Magna Electronics Inc. Vision system for vehicle
US9609289B2 (en) 2004-04-15 2017-03-28 Magna Electronics Inc. Vision system for vehicle
US9008369B2 (en) 2004-04-15 2015-04-14 Magna Electronics Inc. Vision system for vehicle
US9428192B2 (en) 2004-04-15 2016-08-30 Magna Electronics Inc. Vision system for vehicle
US10735695B2 (en) 2004-04-15 2020-08-04 Magna Electronics Inc. Vehicular control system with traffic lane detection
US11503253B2 (en) 2004-04-15 2022-11-15 Magna Electronics Inc. Vehicular control system with traffic lane detection
US10462426B2 (en) 2004-04-15 2019-10-29 Magna Electronics Inc. Vehicular control system
US9948904B2 (en) 2004-04-15 2018-04-17 Magna Electronics Inc. Vision system for vehicle
US10306190B1 (en) 2004-04-15 2019-05-28 Magna Electronics Inc. Vehicular control system
US10015452B1 (en) 2004-04-15 2018-07-03 Magna Electronics Inc. Vehicular control system
US9736435B2 (en) 2004-04-15 2017-08-15 Magna Electronics Inc. Vision system for vehicle
US10187615B1 (en) 2004-04-15 2019-01-22 Magna Electronics Inc. Vehicular control system
US11847836B2 (en) 2004-04-15 2023-12-19 Magna Electronics Inc. Vehicular control system with road curvature determination
JP2008532149A (ja) * 2005-03-02 2008-08-14 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Arオブジェクトとの光学的な重なり合いを判定する方法および装置
US7859532B2 (en) 2006-03-01 2010-12-28 Kabushiki Kaisha Square Enix Generating character images based upon display conditions
US11148583B2 (en) 2006-08-11 2021-10-19 Magna Electronics Inc. Vehicular forward viewing image capture system
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle
US11623559B2 (en) 2006-08-11 2023-04-11 Magna Electronics Inc. Vehicular forward viewing image capture system
US10787116B2 (en) 2006-08-11 2020-09-29 Magna Electronics Inc. Adaptive forward lighting system for vehicle comprising a control that adjusts the headlamp beam in response to processing of image data captured by a camera
US11951900B2 (en) 2006-08-11 2024-04-09 Magna Electronics Inc. Vehicular forward viewing image capture system
US11396257B2 (en) 2006-08-11 2022-07-26 Magna Electronics Inc. Vehicular forward viewing image capture system
JP4661824B2 (ja) * 2007-04-25 2011-03-30 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP2008276301A (ja) * 2007-04-25 2008-11-13 Fujifilm Corp 画像処理装置、方法およびプログラム
US10217294B2 (en) 2008-05-07 2019-02-26 Microsoft Technology Licensing, Llc Procedural authoring
CN101729916A (zh) * 2008-10-10 2010-06-09 富士胶片株式会社 图像处理装置、图像记录装置、方法及程序
JP2011034429A (ja) * 2009-08-04 2011-02-17 Kddi Corp 表示方法および表示システム
JP2011047866A (ja) * 2009-08-28 2011-03-10 Kddi Corp 表示方法および表示システム
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9875406B2 (en) 2010-02-28 2018-01-23 Microsoft Technology Licensing, Llc Adjustable extension for temple arm
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US10268888B2 (en) 2010-02-28 2019-04-23 Microsoft Technology Licensing, Llc Method and apparatus for biometric data capture
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
US9329689B2 (en) 2010-02-28 2016-05-03 Microsoft Technology Licensing, Llc Method and apparatus for biometric data capture
US10539787B2 (en) 2010-02-28 2020-01-21 Microsoft Technology Licensing, Llc Head-worn adaptive display
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US10860100B2 (en) 2010-02-28 2020-12-08 Microsoft Technology Licensing, Llc AR glasses with predictive control of external device based on event input
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
JP2012063253A (ja) * 2010-09-16 2012-03-29 Olympus Corp 画像生成システム、プログラム及び情報記憶媒体
US10972680B2 (en) 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
JP2014515130A (ja) * 2011-03-10 2014-06-26 マイクロソフト コーポレーション 写実的に表されたビューのテーマベースの拡張
JP5334145B1 (ja) * 2012-06-29 2013-11-06 トーヨーカネツソリューションズ株式会社 物品のピッキング作業の支援システム
JP2016507970A (ja) * 2013-01-04 2016-03-10 ヴァジックス コーポレーションVuzix Corporation 双方向型ウェアラブルポータブルスマート装置
JP2018192550A (ja) * 2017-05-16 2018-12-06 タクボエンジニアリング株式会社 塗装ロボットのティーチング方法
KR101917359B1 (ko) * 2017-08-03 2019-01-24 한국과학기술연구원 내부 및 외부 영상의 적응형 정합을 통한 실감 투시 방법 및 시스템
CN111429571A (zh) * 2020-04-15 2020-07-17 四川大学 一种基于时空图像信息联合相关的快速立体匹配方法

Similar Documents

Publication Publication Date Title
JP2000207575A (ja) 空間融合装置及びこれを適用した応用装置
Tamura et al. Mixed reality: Future dreams seen at the border between real and virtual worlds
Thomas et al. ARQuake: An outdoor/indoor augmented reality first person application
CN104731337B (zh) 用于在真实环境中表示虚拟信息的方法
KR101670147B1 (ko) 휴대용 디바이스, 가상 현실 시스템 및 방법
Costanza et al. Mixed reality: A survey
Craig Understanding augmented reality: Concepts and applications
Craig et al. Developing virtual reality applications: Foundations of effective design
KR101692335B1 (ko) 증강현실 영상표시 시스템 및 증강현실 영상표시 방법
JP6410874B1 (ja) Ar映像生成装置
US20100091036A1 (en) Method and System for Integrating Virtual Entities Within Live Video
CN106484115A (zh) 用于增强和虚拟现实的系统和方法
GB2554914A (en) Virtual reality system and method
CN110084878A (zh) 用于在真实环境中表示虚拟信息的方法
JP2012068481A (ja) 拡張現実表現システムおよび方法
US20180239514A1 (en) Interactive 3d map with vibrant street view
CN108144294A (zh) 互动操作实现方法、装置及客户端设备
CN109976527B (zh) 交互式vr展示系统
CN110926334A (zh) 测量方法、装置、电子设备及存储介质
Ayyanchira et al. Toward cross-platform immersive visualization for indoor navigation and collaboration with augmented reality
CN108205823A (zh) Mr全息真空体验店和体验方法
JP3341734B2 (ja) 映像表示装置
Yonov School atlas with augmented reality
Suomela et al. The evolution of perspective view in WalkMap
Grevtsova et al. Augmented, mixed and virtual reality. Techniques of visualization and presentation of archaeological heritage

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050614