JPH05282429A - 画像表示装置 - Google Patents

画像表示装置

Info

Publication number
JPH05282429A
JPH05282429A JP4339592A JP33959292A JPH05282429A JP H05282429 A JPH05282429 A JP H05282429A JP 4339592 A JP4339592 A JP 4339592A JP 33959292 A JP33959292 A JP 33959292A JP H05282429 A JPH05282429 A JP H05282429A
Authority
JP
Japan
Prior art keywords
image
distance
display
projection
viewfinder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4339592A
Other languages
English (en)
Inventor
Steven E Saunders
スティーブン・イー・サウンダーズ
Harry Vertelney
ハリー・ヴァーテルニイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Computer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Computer Inc filed Critical Apple Computer Inc
Publication of JPH05282429A publication Critical patent/JPH05282429A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6245Stereoscopic displays; Three-dimensional displays; Pseudo-three dimensional displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Digital Computer Display Output (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【目的】 本発明の目的は、3次元遠近画法の画像を適
切に写実的な遠近画法で見ることができるよう正確にレ
ンダリングするために、投影の中心と投影面との間の距
離を測定するための手段を提供することにある。 【構成】 本発明は、レンダリングされた像を表示する
ことができるディスプレイ、観察者からディスプレイま
での距離を測定することができるディスプレイと結合さ
れたレンジファインダ、及びであって、画像が、ディス
プレイが遠近画法ボリュームの投影面であり、投影面か
ら投影の中心までの距離がディスプレイから観察者まで
の距離に比例し、投影の中心から投影面までの距離がレ
ンジファインダによって検出された距離に応じて動的に
修正可能であるような遠近画法になる画像をディスプレ
イ上に表示するための手段で構成されている。 【効果】 本発明によれば、投影の中心と投影面との間
の距離を測定することにより3次元遠近画法の画像を正
確にレンダリングすることができ、これによって安価な
手段により画像を適切に写実的な遠近画法で見ることが
可能となる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、コンピュータグラフィ
ックスに関するものである。より詳しくは、本発明は、
ディスプレイまたはビューファインダ上における画像の
表示、及び投影面上に遠近画法像を正しくレンダリング
するためにディスプレイの観察者までの距離を求める技
術に関する。
【0002】
【従来の技術】3次元において画像を見るには、通常、
表示画面上における画像の適切なレンダリングを確保す
るために「ビューボリューム」を指定することが必要で
ある。三次元画像のレンダリング、特に投影面上におけ
る様々な像の遠近画法及び投影に関するレンダリングは
数多くの文献で扱われて来た(例えば、Foley,
J.、Van Dam,A.、Feiner,S.
K.、及びHughes,John F.共著の「コン
ピュータグラフィックス、原理と実践(Compute
r Graphics, Principles an
d Practice)」(1990年第2版)(以
下、Foley及びVan Damとする)の229〜
283ページを参照のこと)。一般に遠近投影法を用い
て三次元空間の画像から投影面への投影を行うために
は、投影面と投影の中心間の距離または仮定の距離が指
定されるべきである。これを指定することによって、あ
たかも観察者がレンダリングされた実在の対称物を観察
しているかのように、投影面またはディスプレイ上で遠
近画法像の写実的表示を得ることができる。典型的にい
うと、ユーザがワークステーションの前に座っている、
あるいはこれと同様の環境にいるようなアプリケーショ
ンの場合、投影面から投影の中心までの距離は、様々な
効果が得られるようユーザ設定可能である。背景に対す
る遠近画法またはスケールのひずみは問題ではない。さ
らに、このディスプレイの画像のレンダリングは、様々
なサイズと角度で見られるので、この画像は極めて正確
である必要はない。
【0003】少なくとも1つのアプリケーションにおい
ては、3次元画像における投影の中心と投影面の間の距
離の変化が重要な場合がある。例えば、建築において
は、建てようとする建物の3次元遠近画法像をレンダリ
ングすることがある。ある場合には、建築家は、工事前
に建物の設計が何らかの修正をしなければならないかど
うかの評価を行うために、建物の三次元模型を使用する
ことがある。これには、とりわけ、新しい建物を建てよ
うとする環境(周囲の地形及び建物)の地形構造が含ま
れることが多い。これも、工事前に建物の設計または周
囲の造園計画を修正しなければならないかどうかを評価
するための効果的な手段を与えてくれる。しかし、遺憾
ながら、このような模型は通常製作費が高価であり、普
通の単一家族用住宅の場合には費用効果が乏しい。
【0004】建物の可能な設計を評価するもう一つの方
法は、画像をその周囲の地形及び/または建物と共に三
次元レンダリングすることである。この場合も、そのエ
リアの模型またはその他の三次元地形図を構成する上記
の例と同様、そのようなコンピュータ生成画像の利用
は、普通の単一家族用の建築に関しては費用効果が乏し
い。さらに、画像のレンダリングが、建てようとする建
物及びその建物を組み入れようとする環境の正確な表現
になっていない場合もある。その原因は、例えば、スク
リーンが観察者の視野の全体にわたって画像を正確にレ
ンダリングするのに十分なサイズがないことや、視野の
投影面から建物の投影の中心までの距離が正確に分かっ
ていないことなどである。
【0005】
【発明が解決しようとする課題】本発明の1つの目的
は、3次元遠近画法の画像を適切に写実的な遠近画法で
見ることができるよう正確にレンダリングするために、
投影の中心と投影面との間の距離を測定するための手段
を提供することにある。
【0006】本発明のもう一つの目的は、対象物をそれ
を置こうとする環境中において正確に表示するための手
段を提供することにある。
【0007】本発明のもう一つの目的は、レンダリング
しようとする対象物の正確な遠近画法を確保するため
に、投影面と投影面の観察者との間の距離を自動的に測
定するための手段を提供することにある。
【0008】
【課題を解決するための手段】上記目的を達成する本発
明は、レンダリングした画像を表示することができ、観
察者にとって実質的に透過性を有するディスプレイより
なる画像を表示するための装置にある。本発明の装置
は、観察者からディスプレイまでの距離を測定すること
ができるディスプレイに結合されたレンジファインダを
有する。さらに、本発明の装置は、ディスプレイ上に画
像を表示するための手段を具備する。その画像は、ディ
スプレイが遠近画法ボリュームの投影面となるような遠
近画法を有する。投影面から投影の中心までの距離は、
ディスプレイから観察者までの距離に比例し、投影の中
心から投影面までの距離は、レンジファインダによって
検出される距離に応じて動的に修正可能である。本発明
の装置の実施例においては、レンジファインダはソナー
または赤外線距離検出手段よりなる。一実施例において
は、本発明の装置は、背景が観察者に見え、かつディス
プレイ上にレンダリングされた画像が背景の一部として
見えるように、ディスプレイの観察者の視野中に保持す
ることも可能である。投影の中心から投影面までの動的
に修正可能な距離はレンジファインダによって測定可能
であり、そのために、画像は、背景場面に関して正確な
遠近画法によりレンダリングすることができる。本発明
の他の実施例においては、透過型ディスプレイではな
く、背景場面は、それらの場面をデジタル化することに
よって、あるいはそれらの場面のリアルタイムビデオ画
像を表示することによって、ビデオディスプレイ上に表
示することも可能である。レンダリングされた画像は、
その後、ビデオ同期手段またはこれと同様の手段を用い
て背景場面に重ねることができる。
【0009】
【実施例】以下、ディスプレイから観察者までの距離を
測定するための装置、及びその距離によって可能となる
正確な遠近画法により対象物をディスプレイ上にレンダ
リングするための手段を実施例により詳細に説明する。
以下の説明においては本発明の完全な理解が得られるよ
うに、例示説明のため、位置、アプリケーション、ハー
ドウェア装置等について詳細な具体的記載が数多くなさ
れている。しかしながら、当業者であれば、本発明はこ
れらの特定の詳細内容の一部がなくとも実施可能である
ということは自明であろう。その他の場合においては、
本発明が不必要に不明瞭になるのを避けるため、周知の
装置及び方法に関する詳細な説明は省略した。
【0010】本発明の実施例は、図1に符号100で示
されている。すなわち、100はビューファインダを示
し、このビューファインダ100はその観察者の目の位
置130から例えば距離dの所与の位置に設置される。
ビューファインダ100としては、液晶ディスプレイ
(LCD)、ブラウン管表示装置(CRT)あるいは当
業者に周知の他の同様のディスプレイを用いることがで
きる。しかしながら、この実施例においては、ビューフ
ァインダ100は透過型の液晶ディスプレイよりなり、
観察者の目の位置が130にあるとき、コンピュータで
生成された像を観察者が見る実像の遠近画法による像に
重ねるように用いられる。このようにすると、ビューフ
ァインダ100は透過型であるため、ビューファインダ
100上に生成される画像は観察者が認識する場面の一
部であるように見せることが可能である。ビューファイ
ンダ100は、観察者の目の位置130とビューファイ
ンダ100の位置の間の距離dを測定することができる
距離検出手段またはレンジファインダ110と結合され
ている。この距離検出手段110としては、ソナー、超
音波または赤外線距離測定装置、あるいは当業者に周知
の市販の他の距離測定装置をしようすることができる。
他の実施例においては、レンジファインダ110は、カ
メラ及びカメラを観察者の位置に向けることによって得
られる信号中の高周波成分が最大となるようにした論理
との組み合わせで構成することも可能である。これによ
れば、確実に画像を焦点位置に保つと共に距離dを計算
することができる。このようにして、観察者の目の位置
130とビューファインダ100との間の距離dを求め
ることができ、ビューファインダ100上に表示される
画像をこれが結合されたレンダリングエンジンにおいて
更新することができる。これによって、ビューファイン
ダ100に表示される像のリアルタイム更新も可能とな
る。このようにして、ビューファインダ100の位置が
動いてdが変化しても、ビューファインダ100に表示
される像の遠近画法は、必要に応じて何回でもレンダリ
ングエンジンによって更新することができる。
【0011】もう一つの実施例においては、ビューファ
インダ100は、さらに、三次元空間におけるビューフ
ァインダ100の位置と対象物170の位置150の間
の距離d′を測定するために使用される第2のレンジフ
ァインダ120を有する。距離d及びd′は、三次元空
間において、適切な三次元のクリップボリューム(ビュ
ーボリューム)160により画像をレンダリングするた
めに用いることができる。一実施例においては、対象物
170は実在でなくともよく、その場合でも、ビューフ
ァインダ100上でレンダリングして、背景上に重ねる
ことが可能である。このように、対象物の位置はビュー
ファインダ100からの距離d′として正確に反映させ
ることができる。従って、観察者に対してビューファイ
ンダ100に表される遠近画法は、対象物170があた
かもビューボリューム160中で位置150に実在する
かのように正確なものとすることができる。1つのアプ
リケーションにおいては、対象物170が物理的に存在
し、透過型ビューファインダ100を通して認識するこ
とができる場合、ビューファインダ100に表示された
画像に追加の画像や他の対象物を重ねることも可能であ
る。このように、それらの追加画像は、ビューファイン
ダ100上の対象物170の画像に関して適切な遠近画
法により表示することができる。従って、目が位置13
0にある観察者は、位置150にある実在の対象物17
0についての観察者の認識との関連において、ビューフ
ァインダ100に像が正しく表示された遠近画法図を見
ることができる。
【0012】この実施例においてビューファインダ10
0に表示しようとする対象像の遠近画法図の生成の仕方
を図2に示す。図1に示したようなビューボリューム1
60は、図1に100で示したようなビューファインダ
上における遠近画法像の生成に用いることができる。ビ
ューボリューム160は、ビューファインダ100の観
察者の目の位置130と一致する投影の中心を有する。
この投影の中心(目の位置)130は図2に示す投影面
200から距離dの位置にある。距離dは図1に示す目
の位置130(投影の中心)からビューファインダ10
0までの距離と同じ距離である。170で示すような表
示しようとする対象物の画像201を投影面200上に
生成するには、投影面200に遠近画法像201を生成
するために、対象物からの3つの正射投影を用いなけれ
ばならない。このプロセスは、前出のFoley及びV
an Damの232及至237ページに詳細に説明さ
れている。ここで、図2に示す例及び以下の説明におい
ては、垂直視点(VPN)は投影面200に垂直である
ということに注意すべきである。しかしながら、当業者
であれば、斜角遠近投影画法を用いることも可能であ
り、それに応じて画像201も修正することができると
いうことは明らかであろう。ただし、この実施例の説明
においては、簡単のため、以下、VPNは図2に示す2
00のような投影面に垂直であるものとして扱う。
【0013】図2に示す例においては、画像はdと距離
xpar 及びypar に基づきスケーリングしなければなら
ない。xpar 及びypar は投影の中心から投影面200
上のx軸及びy軸のエッジまでの距離である。従って、
画像の各x値は値xpar /dだけスケーリングされ、各
y値は値ypar /dだけスケーリングされる。図1に示
すようなビューファインダ100と結合することが可能
なレンダリングエンジンを使用すると、投影の中心13
0から投影面200までの距離dの値を変える場合にお
いても、対象物170の種々異なる遠近画法図を200
のような投影面上に、従って表示装置にレンダリングす
ることができる。種々異なるdの値を用いて装置により
行われるスケーリングの詳細な説明については、前出の
Foley及びVan Damの253及至260ペー
ジに記載されている。
【0014】一実施例においては、ビューファインダ1
00は、図3に示すようなアプリケーションに用いるこ
とができる。例えば、ユーザは、図3に示す350のよ
うな背景風景のビューファインダの図301上に重ねら
れた対象物の画像201をレンダリングするために、透
過型ビューファインダ100を用いることができる。こ
こで、350は、例えば建てようとする建物の設計案の
立地などである。レンジファインダ装置110を用いて
ビューファインダ100から投影の中心(観察者の目の
位置)130までの距離dを計算し、各々対応する計算
においてこのdとxpar 及びypar の値を用いることに
より画像をスケーリングする。レンダリングエンジン3
70は、この実施例で要求される全てのスケーリング及
びレンダリング動作を実行する。本発明の種々の実施例
において、レンダリングエンジン370は、カリフォル
ニア州マウンテンビューのシリコングラフィクス社(S
ilicon Graphics, Inc.)から入
手可能なIdsワークステーションのような市販の多数
のコンピュータまたはワークステーションの中の1つ、
80x86マイクロプロセッサベースのIBM互換コン
ピュータシステムのいずれか1つ、あるいはその他市販
のどのようなマイクロコンピュータまたはワークステー
ションでも用いることができる。ただし、この実施例に
おいては、レンダリングエンジン370はカリフォルニ
ア州Cupertinoのアップル・コンピュータ社製
のマッキントッシュIIパーソナルコンピュータ・ファ
ミリーの中の1つを使用する。一実施例においては、レ
ンダリングエンジン370は、ビューファインダ100
上で201のような画像を適切にレンダリングするため
の68030中央処理装置よりなる。他の実施例におい
ては、本発明の譲受人に譲渡されている米国特許第4,
622,545号に開示されているようなコンピュータ
システムを使用することも可能である。
【0015】レンジファインダ110は、動作時、ビュ
ーファインダ100から図3に示す観察者の目の位置1
30までの距離dを測定する。これによって、レンダリ
ングエンジン370に距離dがフィードバックされ、レ
ンダリングエンジン370はこれによってビューファイ
ンダ100上の画像201を更新することができる。こ
のようにして、ビューファインダ100から投影の中心
130(目の位置)までの距離を確認することにより、
画像201は、観察者がビューファインダ100を通し
て見る状態で、背景風景350の視野301に相応する
適切な遠近画法図となるようビューファインダ100上
でスケーリングされ、レンダリングされる。レンダリン
グエンジン370により円滑な更新を行うことができる
ように、レンジファインダ110によって適切な間隔で
サンプリングを行うことも可能である。このプロセスに
ついて、以下図5を参照しつつ説明する。
【0016】図5に示すプロセス500は、実施例の装
置100と共に用いて背景画像の上に重ねられた画像ま
たは目標物をレンダリングすることが可能な1つの方法
を示す。プロセス500は、501で開始され、ステッ
プ502において対象物の3次元ワールド座標プリミテ
ィブを受け取る。例えば、3次元座標空間における対称
物の「寸法」を確定しなければならない。寸法を確定し
たならば、図2に示すように、投影面から3次元ワール
ド座標空間においてレンダリングされた対象物までの距
離d′がステップ503において測定される。ステップ
503でd′が求まったならば、ステップ504におい
てビューボリュームがクリッピングされる。前方のクリ
ッピング平面は、図1及び3に示す目位置130にある
ものとして扱うことができる。
【0017】ステップ505においては、投影の中心1
30からビューファインダ100の位置までの距離dが
レンジファインダ110から信号を受け取ることによっ
て確定される。次に、ステップ506においては、dが
修正されているかどうかが判断される。これによって視
距離の動的修正が可能であり、従ってビューファインダ
100上の画像201の動的更新が可能となる。dが変
わっていなければ、プロセス500はステップ505へ
戻り、ビューファインダ100上に最も新しくレンダリ
ングされた画像をそのまま残す。距離dはステップ50
5の反復毎にサンプリングされ、dが変化しない限り、
新しい画像がレンダリングされることはない。ステップ
506においてdが修正されていると判断されると、プ
ロセス500はステップ507に進み、投影面に画像が
投影される。この動作は、図2に図式的に示されてお
り、レンダリングしようとする対象物170が200で
示すような投影面に投影される。ステップ507におい
て投影された画像は、ステップ508において装置座標
系に変換され(適切な視野が得られるようx方向及びy
方向に適切にスケーリングするために)、その画像がス
テップ509においてレンダリングされる。従って、ス
テップ506での判断によりdの値が変化していれば、
画像201の更新された遠近画法図がビューファインダ
100上に新たに表示される。そのため、投影の中心と
ビューファインダ100の位置との間のあらゆる距離d
について、目の位置130で見て適切な遠近画法図を常
に維持することができる。
【0018】当業者であれば、本発明を実施する上にお
いて、ビューファインダに100で示すような透過型液
晶ディスプレイを使うことは必ずしも必要でないという
ことは理解できよう。実際、本発明の趣旨及び範囲内に
おいて他の多くの実施例が考えられる。そのような他の
実施例の1つを図4に示す。
【0019】図4に示すように、400のような装置を
図3の装置に代わりに用いることも可能である。全体を
400で示すこの実施例の装置は、450で示すような
ビデオカメラよりなり、ビデオカメラとしては多くの市
販品の中のどれを用いても差し支えない。ビデオカメラ
450は、図4に示す420のようなケーブル及びイン
タフェースを介してディジタル化/レンダリングエンジ
ン470と結合することができる。例えば、ディジタル
化/レンダリングエンジン470は、図3のレンダリン
グエンジン370と同様、商業ベースで入手可能なワー
クステーションあるいは他のコンピュータシステムであ
ってもよい。しかしながら、ディジタル化/レンダリン
グエンジン470は、さらに420のようなラインを介
してビデオデータを受け取ることができ、受け取ったビ
デオデータをデジタル化することができる。次に、デジ
タル化されたビデオデータは、435で示すようなディ
スプレイ上でレンダリングすることができる。これによ
って、ディスプレイには、図4に示す背景場面350の
画像402が表示される。画像がデジタル化されていれ
ば、前に説明した建物の画像201のような第2のレン
ダリングされた画像を、図4に示す402のような背景
場面の画像の上に重ねることができる。この場合も、画
像201の大きさ(倍率)及び遠近画法は、図4に示す
ようなビューファインダ435の位置から観察者または
投影の中心の位置430までの距離dに応じて変えるこ
とが可能である。図4に示す装置400は、やはり距離
dを確定する機能を有する図4に示す410のような距
離検出装置を有する。このようにして、430のような
ユーザの位置からみた背景風景350の遠近画法を適切
に維持することができる。
【0020】本発明のさらに他の実施例においては、図
4の装置は、450のようなビデオカメラからの映像信
号を図4に示す470のようなエンジンによってレンダ
リングされた像と「ジェンロック(同期結合)」する、
あるいは同期させるために用いることができる。従っ
て、カメラ450によって生成されたデジタル化された
画像ではなく、ライブのビデオ画像402を用いること
ができ、これにコンピュータ生成された画像201を重
ねることができる。この実施例においては、ディスプレ
イ435に結合されたレンジファインダ410によって
距離dを測定しさえすれば、402のような背景ビデオ
画像に重ねるのに適切な画像201の遠近画法を得るこ
とができる。
【0021】以上、本発明をその特定の実施例に関連し
て詳細に説明した。しかしながら、本発明に対しては、
特許請求の範囲に記載する本発明の趣旨及び範囲を逸脱
することなくの種々の修正態様及び変更態様を構成する
ことが可能なことは明白であろう。従って、本願の明細
書及び図面は例示説明を目的とするものであり、限定的
な意味を有するものではない。
【0022】
【発明の効果】本発明によれば、投影の中心と投影面と
の間の距離を測定することにより3次元遠近画法の画像
を正確にレンダリングすることができ、これによって安
価な手段により画像を適切に写実的な遠近画法で見るこ
とが可能となる。
【図面の簡単な説明】
【図1】本発明のレンジファインダの一実施例を示す説
明図である。
【図2】ビューボリュームを用いて画像が本発明のビュ
ーレンジファインダにどのように投影されるかを示す説
明図である。
【図3】透過型ビューファインダをレンジファインダと
組み合わせて用いることにより建築計画用地に置かれた
建物を評価する仕方を示す説明図である。
【図4】カメラを用いて背景場面の画像をサンプリング
し、そのサンプリングした画像にコンピュータ生成した
3次元レンダリング画像を重ねることが可能な本発明の
他の実施例を示す説明図である。
【図5】観察者までの距離dが可変であるディスプレイ
上に画像をレンダリングするために使用するプロセスの
フローチャートである。
【符号の説明】
100・・・ビューファインダ 110、120・・・レンジファインダ 130・・・目の位置 170・・・対象物

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 (a)レンダリングされた画像を表示す
    る実質的に観察者にとって透過性を有するディスプレイ
    と; (b)そのディスプレイに結合されていて、観察者から
    ディスプレイまでの距離を測定することができるレンジ
    ファインダと; (c)ディスプレイが遠近画法ボリュームの投影面であ
    り、投影面から投影の中心までの距離がディスプレイか
    ら観察者までの距離に比例し、投影の中心から投影面ま
    での距離がレンジファインダによって検出された距離に
    応じて動的に修正可能な画像をディスプレイ上に表示す
    る手段と;からなる画像表示装置。
  2. 【請求項2】 (a)レンダリングされた画像を表示す
    ることができるディスプレイと; (b)そのディスプレイに結合されいて、観察者からデ
    ィスプレイまでの距離を測定することができるレンジフ
    ァインダと; (c)ディスプレイが遠近画法ボリュームの投影面であ
    り、投影面から投影の中心までの距離がディスプレイか
    ら観察者までの距離に比例し、投影の中心から投影面ま
    での距離がレンジファインダによって検出された距離に
    応じて動的に修正可能である画像をディスプレイ上に表
    示する手段と;からなる画像標示装置。
JP4339592A 1991-12-20 1992-11-27 画像表示装置 Withdrawn JPH05282429A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/811,082 US5252950A (en) 1991-12-20 1991-12-20 Display with rangefinder
US811,082 1991-12-20

Publications (1)

Publication Number Publication Date
JPH05282429A true JPH05282429A (ja) 1993-10-29

Family

ID=25205500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4339592A Withdrawn JPH05282429A (ja) 1991-12-20 1992-11-27 画像表示装置

Country Status (2)

Country Link
US (1) US5252950A (ja)
JP (1) JPH05282429A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121838A (ja) * 2003-10-15 2005-05-12 Olympus Corp カメラ

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05273945A (ja) * 1992-03-27 1993-10-22 Nec Corp 情報処理装置
JP3262287B2 (ja) * 1992-07-24 2002-03-04 日本フィリップス株式会社 表示システム
US5644324A (en) 1993-03-03 1997-07-01 Maguire, Jr.; Francis J. Apparatus and method for presenting successive images
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
GB2278196A (en) * 1993-05-18 1994-11-23 William Michael Frederi Taylor Information system using GPS
US5694142A (en) * 1993-06-21 1997-12-02 General Electric Company Interactive digital arrow (d'arrow) three-dimensional (3D) pointing
US6411266B1 (en) 1993-08-23 2002-06-25 Francis J. Maguire, Jr. Apparatus and method for providing images of real and virtual objects in a head mounted display
US6690338B1 (en) 1993-08-23 2004-02-10 Francis J. Maguire, Jr. Apparatus and method for providing images of real and virtual objects in a head mounted display
US7301536B2 (en) 1993-09-10 2007-11-27 Geovector Corporation Electro-optic vision systems
US6064398A (en) * 1993-09-10 2000-05-16 Geovector Corporation Electro-optic vision systems
US6037936A (en) 1993-09-10 2000-03-14 Criticom Corp. Computer vision system with a graphic user interface and remote camera control
US7453451B1 (en) 1999-03-16 2008-11-18 Maguire Francis J Jr Moveable headrest for viewing images from different directions
US6181371B1 (en) 1995-05-30 2001-01-30 Francis J Maguire, Jr. Apparatus for inducing attitudinal head movements for passive virtual reality
US8330812B2 (en) * 1995-05-30 2012-12-11 Simulated Percepts, Llc Method and apparatus for producing and storing, on a resultant non-transitory storage medium, computer generated (CG) video in correspondence with images acquired by an image acquisition device tracked in motion with respect to a 3D reference frame
US7724278B2 (en) * 1995-05-30 2010-05-25 Maguire Francis J Jr Apparatus with moveable headrest for viewing images from a changing direction-of-view
US5734421A (en) * 1995-05-30 1998-03-31 Maguire, Jr.; Francis J. Apparatus for inducing attitudinal head movements for passive virtual reality
US6535210B1 (en) 1995-06-07 2003-03-18 Geovector Corp. Vision system computer modeling apparatus including interaction with real scenes with respect to perspective and spatial relationship as measured in real-time
US5852492A (en) * 1996-06-07 1998-12-22 Lockheed Martin Vought Systems Corp. Fused lasar range/intensity image display for a human interpretation of lasar data
US6042231A (en) * 1996-08-02 2000-03-28 Vega Vista, Inc. Methods and systems for relieving eye strain
US6364485B1 (en) 1996-08-02 2002-04-02 Vega Vista, Inc. Methods and systems for relieving eye strain
WO1999035633A2 (en) * 1998-01-06 1999-07-15 The Video Mouse Group Human motion following computer mouse and game controller
US6076928A (en) 1998-06-15 2000-06-20 Fateh; Sina Ideal visual ergonomic system for computer users
US6173239B1 (en) 1998-09-30 2001-01-09 Geo Vector Corporation Apparatus and methods for presentation of information relating to objects being addressed
US6650305B1 (en) 1998-10-02 2003-11-18 Honeywell Inc. Wireless electronic display
US6597346B1 (en) * 1998-10-02 2003-07-22 Honeywell Inc. Hand held computer with see-through display
US6396475B1 (en) 1999-08-27 2002-05-28 Geo Vector Corp. Apparatus and methods of the remote address of objects
US6522292B1 (en) 2000-02-23 2003-02-18 Geovector Corp. Information systems having position measuring capacity
US7031875B2 (en) 2001-01-24 2006-04-18 Geo Vector Corporation Pointing systems for addressing objects
US6953249B1 (en) 2001-01-29 2005-10-11 Maguire Jr Francis J Method and devices for displaying images for viewing with varying accommodation
US20030184594A1 (en) * 2002-03-25 2003-10-02 John Ellenby Apparatus and methods for interfacing with remote addressing systems
US20040219961A1 (en) * 2003-04-08 2004-11-04 Ellenby Thomas William Computer games having variable execution dependence with respect to spatial properties of a mobile unit.
EP1814101A1 (en) * 2004-11-19 2007-08-01 Daem Interactive, Sl Personal device with image-acquisition functions for the application of augmented reality resources and corresponding method
US20060190812A1 (en) * 2005-02-22 2006-08-24 Geovector Corporation Imaging systems including hyperlink associations
KR101309176B1 (ko) * 2006-01-18 2013-09-23 삼성전자주식회사 증강 현실 장치 및 방법
JP5521226B2 (ja) * 2006-05-25 2014-06-11 富士フイルム株式会社 表示システム、表示方法、および表示プログラム
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
US9596401B2 (en) 2006-10-02 2017-03-14 Sony Corporation Focusing an image based on a direction of a face of a user
US8384718B2 (en) * 2008-01-10 2013-02-26 Sony Corporation System and method for navigating a 3D graphical user interface
JP4781440B2 (ja) * 2009-02-05 2011-09-28 ソニー エリクソン モバイル コミュニケーションズ, エービー 画像撮影装置、画像撮影装置の制御方法及び制御プログラム
US9489102B2 (en) * 2010-10-22 2016-11-08 Hewlett-Packard Development Company, L.P. System and method of modifying lighting in a display system
WO2012054063A1 (en) 2010-10-22 2012-04-26 Hewlett-Packard Development Company L.P. An augmented reality display system and method of display
US8854802B2 (en) 2010-10-22 2014-10-07 Hewlett-Packard Development Company, L.P. Display with rotatable display screen
JP2013017146A (ja) * 2011-07-06 2013-01-24 Sony Corp 表示制御装置、表示制御方法およびプログラム
US9223138B2 (en) 2011-12-23 2015-12-29 Microsoft Technology Licensing, Llc Pixel opacity for augmented reality
US8638498B2 (en) 2012-01-04 2014-01-28 David D. Bohn Eyebox adjustment for interpupillary distance
US9779643B2 (en) 2012-02-15 2017-10-03 Microsoft Technology Licensing, Llc Imaging structure emitter configurations
US9297996B2 (en) 2012-02-15 2016-03-29 Microsoft Technology Licensing, Llc Laser illumination scanning
US9726887B2 (en) 2012-02-15 2017-08-08 Microsoft Technology Licensing, Llc Imaging structure color conversion
US9368546B2 (en) 2012-02-15 2016-06-14 Microsoft Technology Licensing, Llc Imaging structure with embedded light sources
US9578318B2 (en) 2012-03-14 2017-02-21 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US9558590B2 (en) 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
KR20210137340A (ko) * 2020-05-08 2021-11-17 삼성디스플레이 주식회사 표시 장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2613497B1 (fr) * 1987-03-31 1991-08-16 Thomson Csf Viseur binoculaire, holographique et a grand champ, utilisable sur casque
US4897715A (en) * 1988-10-31 1990-01-30 General Electric Company Helmet display

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121838A (ja) * 2003-10-15 2005-05-12 Olympus Corp カメラ
US7750966B2 (en) 2003-10-15 2010-07-06 Olympus Corporation Camera with framing means
US8040420B2 (en) 2003-10-15 2011-10-18 Olympus Corporation Camera

Also Published As

Publication number Publication date
US5252950A (en) 1993-10-12

Similar Documents

Publication Publication Date Title
JPH05282429A (ja) 画像表示装置
CA3096601C (en) Presenting image transition sequences between viewing locations
JP4435145B2 (ja) 幾何情報を校正してパノラマ映像を提供する方法および装置
US20200111250A1 (en) Method for reconstructing three-dimensional space scene based on photographing
US6668082B1 (en) Image processing apparatus
JP4512584B2 (ja) イメージマッチング速度とブレンディング方法を改善したパノラマ映像提供方法および装置
US6081273A (en) Method and system for building three-dimensional object models
US7259778B2 (en) Method and apparatus for placing sensors using 3D models
CN110191326B (zh) 一种投影系统分辨率扩展方法、装置和投影系统
US7746377B2 (en) Three-dimensional image display apparatus and method
US6727910B2 (en) Method and system for inversion of detail-in-context presentations
US20140015924A1 (en) Rapid 3D Modeling
US20130121559A1 (en) Mobile device with three dimensional augmented reality
US10606347B1 (en) Parallax viewer system calibration
EP1074943A2 (en) Image processing method and apparatus
JPH0375682A (ja) 写真写実影像を高速で生成する方法
US7148891B2 (en) Image display method and image display device
US20200225033A1 (en) System and method for using digital technology to perform stereo aerial photo interpretation
US6567085B1 (en) Display techniques for three-dimensional virtual reality
JP2005174151A (ja) 三次元画像表示装置及び方法
CN111968245B (zh) 三维空间的标线展示方法、装置、电子设备和存储介质
JP3156649B2 (ja) 変形ラベル型景観ラベリング装置およびシステム
JPH11144076A (ja) 映像作成装置
JP2016161445A (ja) 屋根勾配推定システム及び屋根勾配推定方法
JP2005140623A (ja) 画像計測方法、装置、プログラム及び記録媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000201