JP3872100B2 - 頭部搭載型の画像表示装置 - Google Patents

頭部搭載型の画像表示装置 Download PDF

Info

Publication number
JP3872100B2
JP3872100B2 JP50685895A JP50685895A JP3872100B2 JP 3872100 B2 JP3872100 B2 JP 3872100B2 JP 50685895 A JP50685895 A JP 50685895A JP 50685895 A JP50685895 A JP 50685895A JP 3872100 B2 JP3872100 B2 JP 3872100B2
Authority
JP
Japan
Prior art keywords
image
display
display device
head
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP50685895A
Other languages
English (en)
Inventor
昌昭 安川
正 杵淵
憲子 渡辺
邦夫 米野
正一 内山
弘 鎌倉
穣児 唐沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Application granted granted Critical
Publication of JP3872100B2 publication Critical patent/JP3872100B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1632External expansion units, e.g. docking stations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1654Details related to the display arrangement, including those related to the mounting of the display in the housing the display being detachable, e.g. for remote use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1656Details related to functional adaptations of the enclosure, e.g. to provide protection against EMI, shock, water, or to host detachable peripherals like a mouse or removable expansions units like PCMCIA cards, or to provide access to internal components for maintenance or to removable storage supports like CDs or DVDs, or to mechanically mount accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0156Head-up displays characterised by mechanical features with movable elements with optionally usable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7475Constructional details of television projection apparatus
    • H04N5/7491Constructional details of television projection apparatus of head mounted projectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Instrument Panels (AREA)
  • Position Input By Displaying (AREA)

Description

技術分野
本発明は、仮想空間のスクリーン上に画像を表示する頭部搭載型の画像表示装置及びそれを備えた情報処理装置に関する。
発明の背景
電子回路の設計や実験などでは、使用する部品の仕様を確認しながら作業を行うために、データシートなどの資料が必要となるが、設計者の机上や机の周りはそれらの資料で満たされ雑然としがちであった。その結果作業場所が狭くなったり、また必要な資料が探しにくいなど、作業効率が低下しがちであった。
一方、設計の効率化の一つの手段として、コンピュータを道具として設計するCAE(Computer Aided Engineering)化が進められている。例えば、データシートなどの資料はコンピュータに登録しておき、必要に応じてディスプレイの画面上に読み出して参照する、いわゆるペーパーレスの設計環境が構築されており、前述のような不都合は解消されつつある。
しかしながら、部品点数が多くなって資料も同時に多数のものを参照したい場合には、画面上にウィンドウをいくつか開いて、それぞれに別の資料を表示することはできるが、情報を表示するCRTディスプレイなどには物理的に限られた大きさと限られた解像度があるため、ウィンドウが多くなると重ねて表示せざるをえなくなり、その結果同時に参照できる情報には限界が生じてしまい、前述のような実際の資料を雑然と置いた場合の方が、必要な情報に早くたどりつけることも少なくはなく、CAE化による効率化にも限界があった。
また、別の状況として、据え付けられた機械装置の保守や修理などの場合には、作業をしながらマニュアル類を参照しなければならない場合が多いが、周囲の環境が雑然としていて、それらを見やすい場所に置くことが困難な場合が多く、作業効率が低下してしまっていた。しかしCRTディスプレイなどを置くことはさらに困難なことからCAE化ができず、他に適当な解決策はなかった。
そこで、一つの方法として頭部に表示装置を装着し、そこへ資料の情報を表示することが考えられ、いくつかの提案がなされている。
特開平5−100192号公報にはワープロ等の電子機器の画面をメガネ型のディスプレイに表示することが記載されているが、これは従来のディスプレイをメガネ型にしたものにすぎず、多くの資料を提示するのには適していなかった。また、特開平4−263283号公報には可搬型の仮想現実装置が提案されているが、人工現実装置を提供するものであって、表示した内容を操作するのには適していなかった。
また、従来の頭部搭載型の画像表示装置においては、虚像である液晶表示画像と外界のキーボードとの画質の差が大きく、それらを交互に視認することが原因となっていくつかの問題が提起されていた。そのような問題を解決するために表示画像と外界像とをオーバラップさせて表示させたものがある。
ただし、そのようなタイプの頭部搭載型の画像表示装置にも問題がある。たとえば、表示画像と、外界像が単にオーバーラップされるだけなので、表示画像内に外界像が重なって見え、非常に視認性が悪い、左右の目で、異なる画像を見るので非常に疲れ易い、といったことがあげられる。
また、頭部搭載型の画像表示装置において、例えば、ワープロ入力する際に、表示画像を見ながらタイプしたいキーを確認するため、キーボードを見る等表示画像を見ながら外部を見る必要が生じていた。
その解決方法としては、例えば、外界風景と演算装置からの画像とを切り替える手段を設けるか、或いは特開平5−100192号公報に提示されるように視野の一部でディスプレイを視認し、他の一部に外界を見るように構成している。
しかしながら、上記の場合には入力装置を視野の特定部分で見ながら入力を行うことになり、画像表示装置を頭部に装着することにより入力姿勢の自由度等が失われ、長時間の作業をすると疲労の程度が著しいという問題があった。また、入力装置をキーボードにした場合には、キーの大きさが指先より大きくなると非常に入力が難しく、キーボードの大きさが実用的な携帯端末の大きさの限界を決定している。
さらに、従来のキーボードではキーの配置が固定されているため、様々なアプリケーションの最適なキー配置が難しい。
また、マルチメディアと呼ばれる情報化社会においては、動画表示や、静止画の表示などが混在して表示されたものを扱う場合が多い。そのような社会的状況の中で、動画像メディアの作成作業が複雑化し、専門的な知識や技術の無い一般的な人々にはメディアを有効に使った適切な表現を行なうことが困難になってきている。
また、ハイパーメディア化に関しては、アップル社のHyperCardが有名であるが、これらに関してもマウスによりクリックする場所の数が多く、場所によってはクリックする場所を間違えるなどの問題があった。
さらには、映像製作における映像素材の加工、合成、編集するポストプロダクションの工程では、事前の計算にしたがった複雑な手順を正確に実行することを要求されるために手間の問題の他、実際に映像を組み合わせながら想いを練るといった柔軟な製作が難しい問題があった。
また、頭部搭載型の画像表示装置を利用した場合には、情報処理装置から出力される画像表示情報を見ることができるのは、頭部搭載型の画像表示装置を装着している人のみである。複数の人が情報処理装置から出力される画像表示情報を見る必要が生じた場合は、
(1)1つの頭部搭載型の画像表示装置を順番に着け換えながら利用するか、
(2)場合によっては、別のCRTディスプレイを持つ情報処理装置を用意する必要が生じる
など目的あるいは用途に応じて複数の装置を用意しなければならない。
また、コンピューターやワードプロセッサーのダウンサイジングが進み携帯型の情報処理装置が普及傾向にあるが、これらの携帯型情報処理装置はオープンタイプのディスプレイを備えており、それを開いて使用するのが通常である。しかし、携帯型情報処理装置のさらなる小型化と、使用場所の拡大化につれ、さらには公然と機密文書を作成したいという要求に応えて、これらの携帯型情報処理装置のディスプレイとして、頭部搭載型の画像表示装置の利用が提案されている。これは、例えば特開平5−100192公報に掲載されるように、キーボード及び本体から構成される演算処理装置と頭部搭載型の画像表示装置からなり、演算処理装置から出力される画面情報を、頭部搭載型の画像表示装置を通じて拡大虚像として視認するものである。しかし、これら従来の構成においては、演算処理装置と頭部搭載型の画像表示装置とが常時別体になっているため、携帯時には演算処理装置とは別に頭部搭載型表示装置を携帯する必要があり、小型化されている割りには携帯性が良くなかった。また、頭部搭載型の画像表示装置を専用ケースに収納して携帯するにしても、取扱いが煩雑になるばかりか故障等のトラブルも発生し易い。
発明の開示
本発明の目的は、効率のよい設計、実験や保守、修理などに適した頭部搭載型の画像表示装置を提供することにある。
本発明の他の目的は、携帯性及び視認性が高く、かつ使用者の健康に支障のない頭部搭載型の画素表示装置を提供することにある。
(A)本発明の一つの態様による頭部搭載型の画像表示装置は、液晶表示パネルと拡大光学系とがフレームに収納され、前記フレームの前面の視野に前記拡大光学系を通して前記液晶表示パネルに生成された画像の拡大虚像が視認される頭部搭載型の画像表示装置において、
前記画像表示装置の装着者の頭部の向きを検出する第1の方向検出手段と、
前記装着者の視線を検出する注視点検出手段と、
複数の仮想画面を表示する1つの表示枠を前記フレーム前面の視野に形成するとともに、前記表示枠内の表示を前記第1の方向検出手段の出力に基づいてスクロールし、前記注視点検出手段の出力に基づいて前記表示枠内の複数の仮想画面から一つの仮想画面を選択し、選択された前記仮想画面を、前記注視点検出手段の出力に基づいて表示枠内で移動させ、又は別記第1の方向検出手段の出力に基づい表示枠外に移動させる画像生成手段と、
前記画像生成手段における前記一つの仮想画面の選択を確定し、又は前記選択された仮想画面の移動を停止させるトリガ入力手段と
を備えたものである。
また、本発明の他の態様による頭部搭載型の画像表示装置は、上記の装置において、前記画像生成手段は、前記トリガ手段の入力によって確定された選択仮想画面を拡大又は縮小する機能を更に備えたものである。
本発明の他の態様による頭部搭載型の画像表示装置は、前記画像表示装置の装着者の上体の向きを検出する第2の方向検出手段を備え、前記第2の方向検出手段の出力に応じて前記表示枠内の表示のスクロールを禁止させるものである。
上述の構成からなる本発明によれば、回路設計や実験などを行う場合、使おうとする部品の仕様を確認するためのデータシートなどの資料を表示枠に表示することができるため、部品点数が多くなっても資料によって作業の場所が狭くなることもなく、作業効率の低下を避けることができる。
また、据え付けられた機械装置の保守や修理などの場合において、マニュアルを置く適当な場所が確保できなくとも、作業者との位置関係が一定の表示枠内に表示させることができるため、効率の良い作業を行うことができる。
さらに、表示枠内の任意の仮想画面を自由に動かすことができるため、必要な画面を最も見やすい位置に移動して見ることができ、作業者に無理な姿勢などの負担をかけることがない。
また、仮想画面の移動は、手を使わなくても可能なため、両手は作業に専念させることができる。
(B)また、本発明の他の態様による頭部搭載型の画像表示装置は、前記拡大光学系を通して視認される拡大虚像の形成方向に実スクリーンを配置し、前記画像表示装置の装着者の外界像を前記実スクリーンとするものである。
本発明の他の態様による頭部搭載型の画像表示装置は、前記画像表示装置の装着者の外界像と前記光学系を通して視認される前記表示枠とを合成する合成光学手段を備えたものである。
本発明の他の態様による頭部搭載型の画像表示装置は、携帯型コンピュータ外装ケースの一部が前記実スクリーンとして利用される。
上述の構成からなる本発明によれば、頭部搭載型の画像表示装置の光学系に液晶表示画像と外界像を合成する光学系を設け、さらに液晶表示画像の虚像形成方向に実スクリーンを設ける、もしくは単眼タイプの頭部搭載型の画像液晶表示装置を使用し、その液晶表示画像の虚像形成方向に実スクリーンを設けることにより、携帯性、視認性が高く、かつ作業者の健康への悪影響が小さい画像表示装置を実現できる。また、携帯型コンピュータの外装ケースの一部を実スクリーンとする事により、携帯性、視認性が高く、かつ作業者の健康への悪影響が小さい携帯型コンピューターを実現できる。
【図面の簡単な説明】
図1は本発明の一実施例の頭部搭載型の画像表示装置を示す図である。
図2は図1の表示装置の詳細を示す構成図である。
図3は図1の実施例において作業者から見た光景を示す図である。
図4は図2の制御系の詳細を示すブロック図である。
図5は図4の制御系の動作を示すフローチャートである。
図6は図1の実施例における画像の指定方法を示すフローチャートである。
図7は図1の実施例における画像の移動方法を示すフローチャートである。
図8は本発明の他の実施例の頭部搭載型の画像表示装置を示す図である。
図9は図8の実施例において作業者から見た光景を示す図である。
図10は本発明の他の実施例の頭部搭載型の画像表示装置の詳細を示す構成図である。
図11は図10の実施例に適用されるスクリーンの説明図である。
図12は図10の実施例の使用例の説明図である。
図13は本発明の他の実施例の頭部搭載型の画像表示装置の使用例において側面からみた説明図である。
図14は図13の実施例の使用例の正面からみた説明図である。
図15は本発明の他の実施例の頭部搭載型の画像表示装置(入力情報と演算結果とを表示する)を装着して入力作業を行っている状態を示した説明図である。
図16は図15の画像表示装置の表示画面の説明図である。
図17は図15の実施例の演算装置の構成を示すブロック図である。
図18は図15の実施例の信号の流れを示すフローチャートである。
図19は図17の割り付け手段における処理過程を示すフローチャートである。
図20は図15の実施例の画像表示装置の構成を示す説明図である。
図21は本発明の一実施例の情報処理装置をパーソナルコンピュータに採用し、表示手段として頭部搭載型の画像表示装置の一例としてメガネ型ディスプレイを利用している場合を示す斜視図である。
図22は図21の情報処理装置の頭部搭載型の画像表示装置の詳細を示す側面図である。
図23は従来用いられている本体と表示部が分離可能な情報処理装置を示す斜視図である。
図24及び図25は液晶表示パネルの上下動と像の位置との関係を示した図である。
図26及び図27は液晶表示パネルの前後動と像の大きさとの関係を示した図である。
図28は液晶表示パネルの支持機構を示した斜視図である。
図29は図28の分解斜視図である。
図30は従来用いられている、本体と表示部が分離可能な情報処理装置を示す斜視図である。
図31は本発明の他の実施例の画像表示装置が接続可能な情報処理装置を示す斜視図である。
図32は本発明の他の実施例の情報処理装置を示す説明図である。
図33は図32の実施例の制御系のブロック図である。
図34は図32の実施例の制御系の動作を説明するフローチャートである。
図35は本発明の他の実施例の頭部搭載型の画像表示装置を示す図である。
図36及び図37は図35の実施例の光学系の正面図及び側面図である。
図38及び図39は本発明の頭部搭載型の画像表示装置を用いて静止画像の編集を行ったときの表示方法を示すものであり、図38は、第1の表示エリアと第2の表示エリアを左右に映像とその属性を2箇所に並べ表示した本発明の表示方法の模式図である。
図40は図35の実施例の処理過程を示すフローチャートである。
図41は図35の実施例の音声入力による手順を説明したフローチャート図である。
図42は本発明の頭部搭載型表示装置を用いて、動画像のシミュレーションを行ったときの表示方法で、第1の表示エリアと第2の表示エリアを左右に映像とその属性を2箇所に並べ表示した本発明の表示方法の実施例の模式図であり、
(a)はシュレーションした映像結果を示す図、
(b)は飛行機の軌跡を示す図、
(c)は飛行機のスピードを示す図、
(d)は各映像セグメントの階層的なセグメンテーションを示す図である。
図43は本発明の他の実施例の情報処理装置を表す模式図である。
図44は図43の情報処理装置の制御系を示すブロック図である。
図45は本発明の他の実施例の情報処理装置を表す模式図である。
図46は本発明の更に他の実施例の情報処理装置を表す模式図である。
図47は図46の情報処理装置の制御系を示すブロック図である。
発明を実施するための最良の形態
実施例1.
図1に示される実施例においては、作業者1が椅子8に座り、机7上で作業を行っている状態が図示されている。作業者1の頭部には、頭部搭載型の画像表示装置(以下表示装置という)2が装着されている。机7の下にはコンピュータ3が配置されており、コンピュータ3からの画面表示情報は接続コード(図2参照)により表示装置2に伝えられる。さらに、コンピュータ3には、トリガ入力手段であるフットスイッチ4が接続されている。
表示装置2は、図2に示されるように、眼鏡型のフレーム101を有し、その中には接続コード106の一端が接続された駆動回路105が収納されている。この駆動回路105はコンピュータ3と共に本発明の画像生成手段を構成している。また、フレーム101の前面には、左右一対の液晶表示装置である液晶パネル102と、この液晶パネル102を背面から照明するバックライト104とが装着されており、液晶パネル102と作業者の眼120との間のフレーム101の内面には拡大レンズ103が設けられている。そして、接続コード106を介してコンピュータ3から送られてきた画面表示情報は、駆動回路105によりデコードされ、液晶パネル102によって表示が行われる。
液晶パネル102は画面サイズが0.7インチから1.3インチ程度の超小型のフルカラー又はモノクロの液晶パネルであり、拡大レンズ103により視距離約0.5mから1mの位置において14インチ程度に拡大されて、作業者1に虚像として見えるようになっている。また、液晶パネル102、バックライト104及び拡大レンズ103は左右の眼球120用にそれぞれ1組ずつ組み込まれており、通常は同一画面を表示して両眼視により自然な1つの表示画面が見えるように配置されている。
表示画面は図2に矢印Aで示す正面やや上の方向を見たときに見えるように配置されており、矢印Bで示す下向きの方向を見たときは、フレーム101の前面の下部122を透過して手元が見えるように、下部122の光透過率は70%から95%程度に高くなっている。また、フレーム101の前面の上部123は、外側の光が入射しないように、光透過率は0%から10%程度に低くなっている。
さらに、フレーム101には角度センサー107が取り付けられており、角度センサー107は作業者1が頭を上下左右に動かしたときに動いた方向と角度を検出し、接続コード106を介して検出されたデータがコンピュータ3に伝えられる。また、拡大レンズ103の上部には赤外線LED108が取付けられ、下部にはフォトセンサー109が取り付けられており、眼120の視線方向及びまばたきが検出される。
ここで再び図1に戻って説明する。作業者1は、やや上の方向を見たときには液晶パネル102の表示画面を約0.5mから1m離れた仮想表示スクリーン6上の仮想画面5として見ることができ、やや下の方向を見たときには机7上で行っている作業を見ることができる。
図3には作業者1から見た光景が示されており、視界のやや上側には、液晶パネル102の最大表示範囲に相当する表示枠51で示した範囲内の仮想画面5bの全体と、仮想画面5cの下側が見える。また、視界のやや下側には、作業を行っている机7と作業者の手131が見える。ここで、作業者1が頭を右に回すと、表示装置2も右に動くので表示枠51も右に動くが、角度センサー107によって作業者1の頭の動いた方向と角度が検出され、この検出された角度等に対応して、コンピュータ3からの仮想画面5は左にスクロールし、表示枠51内の仮想画面が5c、5dというように変わっていく。また、上下方向についても同様である。ここで、あらかじめ角度センサー107の出力と仮想画面5のスクロールする距離とを調整しておけば、机7と仮想画面5の相対的な位置関係は常に一定にしておくことができ、作業者1は、頭を動かすことで、あたかも空間に固定された仮想表示スクリーン6に貼付けられた多数の仮想画面5の一部を見ることができる。
表示装置2の駆動回路105は、図4に示されるようにCPU132、記憶装置133及び画像メモリ134から構成されている。画像記憶装置133にはコンピュータ3からの画像データが格納されており、また、画像メモリ134には液晶パネル102の1画面分(表示枠51に相当)を表示するための画像データが格納される。なお、この画像記憶装置133(及びCPU132)はコンピュータ3に内蔵させるようにしてもよい。
図5のフローチャートは図4の制御系の動作を示すものであり、画像記憶装置133には定常的にコンピュータ3からの画像データが取り込まれ、例えば図3の仮想画面5a〜5eの画像データが格納されているものとする。一方、CPU132は角度センサー107の出力が変化したかどうかをチェックし、作業者1が頭を動かしその出力が変化した場合には、その角度変化に応じて表示枠51に表示するためのアドレスを演算し、画像記憶装置133に出力する。画像記憶装置133はそのアドレスに対応した画像データを切出して画像メモリ134に出力し、液晶パネル102はその画像データを表示する。以上のようにして作業者1が頭を動かすだけで多数の仮想画面5を見ることができる。
次に、仮想表示スクリーン6上の多数の仮想画面5の内の任意のものを移動する方法について説明する。
まず、図6のフローチャートに基づいて多数の仮想画面5の内の任意のものを指定する方法を説明する。
表示枠51の位置は上述のように角度センサー107の出力によって決められる。すなわち、仮想表示スクリーン6に対応した、画像メモリ134のアドレスが決まる。また、フォトセンサー109により表示枠51内のどこを見ているかが検出できる。従って、仮想表示スクリーン6のどこの部分を見ているか、すなわち画像メモリ134のどのアドレスに対応する部分を見ているかが特定できる。そこで、トリガ入力手段のフットスイッチ4を踏むと、上記にて特定されたアドレスが決定され、そのアドレスを含む仮想画面5が指定できるので、移動等の処理ができる。(これはウインドウズ(windows)の画面で、マウスを使って各ウィンドウが移動できるのと同じようなイメージである。視線を動かすのがマウスを動かすのに相当し、フットスイッチがマウスのクリックボタンに相当する。)従って、作業者1が移動したい任意の仮想画面5を見ながらフットスイッチ4を踏むと、仮想画面5の内の見ているものを指定することができる。
次に、図7のフローチャートに基づいて指定された仮想画面5の移動方法を説明する。
上記のようにして指定した仮想画面5について、フォトセンサー109と角度センサー107の最新の出力から移動方向と距離を求めて移動する。つまり、フォトセンサー109の出力により視線の方向を求めて表示枠51内の移動先を求め、角度センサー107の出力により頭の向きを検出して仮想スクリーン6上の移動先を求めて移動し、トリガ信号が入力されるまで、常に移動先を更新する。次に、フットスイッチ4を踏むと、指定した仮想画面5の移動を停止してそのときの注視点に指定した仮想画面5を固定する。このようにして、任意の仮想画面5を、仮想スクリーン6上の好みの位置に自由に動かすことができる。
ここで、実際に作業者1が机7上で電子回路の実験を行っている場合を想定して説明する。
実験に使用する部品の仕様書や、資料などはあらかじめコンピュータ3に登録しておき、仮想スクリーン6上に複数の仮想画面5として表示しておく。必要な資料があれば、頭を動かして表示枠51内に所望の仮想画面5を表示させて見ることができる。さらに、所望の仮想画面5を見ながらフットスイッチ4を踏むとその仮想画面5が指定され、頭と視線を動かすことで見やすい位置に移動させ、フットスイッチ4を再び踏めば、仮想スクリーン6上に固定させることができる。
さらに、仮想画面5の数が多くなって仮想スクリーン6上での表示が煩雑になる場合には、図6で説明した方法で仮想画面5を指定した後、フットスイッチ4を踏む回数や間隔の組合せなどによって、コンピュータ3に命令を送り、指定の仮想画面5をアイコン化して縮小し、表示をすっきりさせることができる。
また、さらに仮想画面5の表示が細かくて見にくい場合には、フットスイッチ4を踏む回数や間隔の組合せなどによって、コンピュータ3に命令を送り拡大表示させることができる。
以上説明したように、本実施例においては、周囲の場所を雑然とさせることなく多くの資料などを参照することができるため、作業効率が低下するのを避けることができる。また、頭と視線の動き、及び足の動きだけで操作することができるため、両手は常に作業に使うことができ、複雑な作業を行う場合にも作業対象品を落としたり傷付けたりするような不都合をさけることができる。さらには、必要な資料を最も見やすい位置に移動することができるため、作業対象品と資料の間の視線の動きを短くすることができ、作業者の疲労を低減させることができる。
また、多数の仮想画面を表示する場合でも、仮想スクリーン上に分散して貼付けておき、頭の動きでスクロールできるので、従来のように、画面上に多数のウインドウが重なって表示が煩雑になるのを避けることができる。
さらには、実験等で使用する計測器類をコンピュータ3にあらかじめ接続しておけば、測定結果を仮想画面5として作業している近くに表示することもできるので、作業の効率化をはかることができる。
実施例2.
図8に示された実施例においては、作業者1は機械装置22の修理を行っているところの状態が図示されている。頭部には表示装置2を装着し、胸部には角度センサー21、腰部には携帯型のコンピュータ13と、トリガ入力手段であるところのプッシュスイッチ14が装着されている。表示装置2は、上記の実施例1で説明したものと同じであるため、説明は省略する。表示装置2は、コンピュータ13と接続コードで接続されている。
作業者1は、やや上の方向を見たときには、液晶パネル102の表示画面を、約0.5mから1m離れた仮想表示スクリーン6上の仮想画面5として見ることができ、やや下の方向を見たときには修理を行っている機械装置22を見ることができる。
図9には作業者1から見た光景が示されており、視界のやや上側には、液晶パネル102の最大表示範囲に相当する表示枠51で示した範囲内の仮想画面5bの全体と、仮想画面5cの下側が見える。また、視界のやや下側には、修理を行っている機械装置22が見える。ここで、作業者1が頭を右に回すと、表示装置2も右に動くので表示枠51も右に動くが、表示装置2に設けられた角度センサー107が検出した角度に対応して、コンピュータ13からの仮想画面5を左にスクロールし、仮想画面が5c、5dというように変わっていく。また、上下方向についても同様である。ここでも、あらかじめ角度センサー107の出力と仮想画面5のスクロールする距離を調整しておけば、周囲の空間と仮想画面5の位置関係は常に一定にしておくことができ、作業者1は、あたかも空間に固定された仮想スクリーン6に貼付けられた多数の仮想画面5を見ることができる。
ここで、作業者1がかがみこんだり、機械装置22の他の部分を修理しようとして移動した場合には、作業者1の胸部に取り付けられた角度センサー21が作業者の動きを検出し、コンピュータ13に伝える。コンピュータ13では、角度センサー21の出力と、表示装置2に設けられた角度センサー107からの出力とを演算処理し、角度センサー21と107の出力が同等として伝えられた場合は、体全体の動きとして処理し、仮想スクリーン6上の表示は変化させない。つまり、作業者1の体と仮想スクリーン6の相対位置関係は常に一定として、体を動かした場合には、仮想スクリーン6も一緒に追従させることになる。このようにして、作業者1の周辺には常に仮想スクリーン6が備えられ、体がどのような姿勢であっても、必要な場合にはやや上部を向けば、仮想画面5を見ることができる。
さらに、任意の仮想画面5を見ながらプッシュスイッチ14を押せば、上記の実施例1で説明したのと同様に、フォトセンサー109で検出した視線方向と角度センサー107の出力とにより、見ている仮想画面5を指定することができ、次に指定した仮想画面5をフォトセンサー109と角度センサー107の出力に対応させて動かし、次に再度プッシュスイッチ14を押せば、その時の注視点に指定した仮想画面5を固定することができる。このようにして、任意の仮想画面5を、仮想スクリーン6上の好みの位置に移動することができる。
ここで、作業者1が据え付けられた機械装置22の修理を実際に行っている場合を想定して再度説明する。修理に必要なマニュアルや仕様書などはあらかじめコンピュータ13に登録しておき、仮想スクリーン6上に複数の仮想画面5として表示しておく。すなわち画像記憶装置133に格納しておく。必要なマニュアルがあれば、頭を動かして表示枠51内に所望の仮想画面5を表示させて見ることができる。さらに、所望の仮想画面5を見ながらプッシュスイッチ14を押し、見やすい位置に頭と視線を動かすことで移動させ、プッシュスイッチ14を再度押せば、仮想スクリーン6上に固定させることができる。また、同じ機械装置の他の部分を修理するために移動した場合でも、仮想スクリーン6は常に作業者1の周辺に、体に対して同じ位置に存在するため、どのような作業姿勢でも、必要なマニュアル等を参照することができる。
以上説明した実施例1及び実施例2ともに、トリガ手段としては他の方法として、例えば、速い2回連続のまばたきをしたときのフォトセンサー109の出力を使うことができる。このようにすれば、実施例2の場合でも常に両手で修理することができる。また、別のトリガ方法として、音声や呼気などを使うことができるのも明らかである。
実施例3.
図10の実施例の表示装置2は、透明素材でできている眼鏡型のフレーム101に、液晶パネル102、拡大レンズ103、バックライト104及びハーフミラー135が配置されている。作業者1は光路136を通して液晶パネル102の拡大表示画像を見ることができ、また、光路138を通して外界像(キーボード)を見ることができる。そして、それらはハーフミラー135により合成されて作業者1に視認される。従って、作業者1は、あたかも外界(キーボード近傍)に液晶表示画像が存在するように感じ、作業性が高まる。
ただしこれだけでは、使用上のいくつかの問題が残される。一つは、液晶表示画像と外界像がただ単にオーバーラップされるだけなので、表示画像内に外界像が重なり、それ故、表示画像の視認性が悪くなるという問題である。もう一つは、作業者から液晶表示画像の虚像までの距離とキーボードまでの距離を容易に一致させることができないため、合成画像中の液晶表示画像とキーボードとを見る際にいちいち眼球のピント調節を変化させなければならず、作業者がたいへん疲れるという問題である。
これに対しては、情報処理装置本体及びキーボードの外装ケースの一部をスクリーンとする事により対処できる。すなわち図11に示されるように、コンピュータ3のキーボード140を覆う蓋の裏面141をスクリーンにすることにより対処できる。このスクリーンは、白、黒、青など単色、不透明な素材からなり、このスクリーン像と液晶表示画像をオーバーラップさせたときに、表示画像の視認性を高める効果がある。この効果の度合いに応じて、スクリーンの色、反射率などが決められる。
図12に示される使用例のように、作業者1は、図10の方向139(光路136に沿う方向)に液晶パネル102を前後させることにより、図12における液晶表示画像の仮想画面5の形成位置を、作業者1に対して前後させることができる。そこで、この仮想画面5の形成位置をスクリーン141に一致させると、前述した問題を一挙に解決することができる。
すなわち、液晶表示画像とオーバーラップする外界像が、単色のスクリーンであるために、それが表示画像の視認性に与える外乱はきわめて小さい。すなわち、表示画像の視認性が高く、作業性が高まる。かつ、液晶表示画像の仮想画面5が、キーボード140のすぐそばにあるスクリーン141上に形成されているために、表示画像(仮想画面5)を見るときと、キーボード140を見るときとで眼球のピント調節をほとんど変える必要がなく、従って、作業者1の疲労が小さい。
従って、上述の実施例により、携帯性、視認性が高く、かつ作業者の健康に対する悪影響が無い携帯型コンピュータ、ワードプロッサ等が実現できるのである。
なお、スクリーンの特性は、本発明の目的に合致したものであれば、当実施例に限定されるものではない。例えば、スクリーンに偏光板を張り付けることにより、液晶表示画像の輝度は維持したまま、外界像の輝度を下げ、コントラストの高い表示を実現することも可能である。
実施例4.
図13及び図14の表示装置には単眼タイプのものが採用されている。なお、これらの図においては、図の簡略化のために、駆動回路及び本体との接続ケーブルは省略してある。
液晶パネル102に表示される画像は、拡大ミラー145により拡大され、作業者1の右目には、前方に大きな表示画像があるように見える。また、左目は透明な眼鏡型のフレーム101を通して外界を見ている。ここで、液晶パネル102と拡大ミラー145との距離を調整することにより、表示画像の仮想画面5をスクリーン141上に形成し、左目でスクリーン141を見ることにより、単眼タイプの表示装置の問題点(表示画像上に外界像が重なるため、表示画像の視認性が悪くなる。左右の目のピント調節が異なるため疲労が大きい)を解決することができる。すなわち、液晶表示画面の仮想画面(虚像)は単色一様なスクリーン141上に形成されるので、液晶表示画面の視認性は高まり、左右の目のピント調節が一致するので、通常のディスプレイを見ている場合と疲労度はほとんどかわり無くなる。
従って、上述の実施例によれば、携帯性、視認性が高く、かつ作業者の健康に対する悪影響が無い携帯型コンピュータ、ワードプロセッサ等が実現できる。
実施例5.
図15の実施例においては、入力装置150からの信号は接続コード151を介してコンピュータ(演算装置)3に入り、コンピュータ3から出力される画像表示情報は接続コード106を介して頭部に装着する表示装置2に伝えられる。頭部に装着された表示装置2はコンピュータ3から出力されるキーボード、データグローブ等の入力装置150の状態等の入力情報とコンピュータ3からの演算結果とを同時に見ることができ、現在どのキーが入力可能で、どのキーに触れているか等の入力状況が分かるようになっている。
頭部に装着される表示装置2の表示画面は縦長画面であり、たとえば、図16に示すように、仮想画面5内に演算結果を表示する演算結果表示画面152と、入力装置の状態を表示する仮想キーボード表示画面153とから構成されている。入力装置150に、たとえば、光ファイバー内の光の透過率を測定することにより指の屈折状況を検出し、磁気センサー等によって手の相対的位置を検出する手段を有するデータグローブ、或いは、抵抗膜方式のタブレット等のように位置検出手段を有するセンサー付きキーボード等を用いることにより、入力位置を検出し、コンピュータ3内のキー割り付け手段156及び画像合成手段159によりどのキーがタイプされたかを仮想キーボード表示画面7で確認しながら、演算結果を見ることができる。
次に、図17のブロック図に基づいて演算結果を演算結果表示画面152に出力し、入力装置150の状況を仮想キーボード表示画面153に表示する方法を説明する。入力装置150は手と指先の位置情報154及び指先がキーを押しているか、いないかのオン/オフ情報155を検出し、コンピュータ3に伝送する。コンピュータ3ではキー割り付け手段156によって予め入力装置150の入力範囲にアプリケーションごとのキー割り付けを行い、入力された位置情報154に対してどのキーが対応しているかを判断し、また、オン/オフ情報155によりそのキーのオン/オフを判断し、その結果を入力情報157として演算部158と画像合成手段159に送る。また、演算部158は入力情報157に基づいて演算を行い、演算結果160を画像合成手段159に送る。画像合成手段159は入力情報157に基づいて手がどのキーに触れているか、そのキーのオン/オフ等の入力装置150の状態を常時仮想キーボード表示画面153に、演算部158からの演算結果160を演算処理が行われる都度画像表示部152に一枚の画像として合成するように生成された信号を画像信号161として頭部に装着された表示装置2に出力する。入力装置150は位置情報154及びその位置でのオン/オフ情報155をコンピュータ3に伝送するだけなので、入力装置150のキーの数等に左右されず、キー割り付け手段156により、様々なキーの割り付けが行え、仮想キーボード表示部153に様々なインターフェースを表示することができる。
図18のフローチャートに基づいて図17の制御系の信号の流れを説明する。入力装置150において入力位置とオン/オフ情報を検出する(S10)。キー割り付け手段156により入力位置がどのキーに対応しているかを判断し、対応キーの内容を演算部158に伝達する(S11)。次に、キーが押されたか、押されていないかの判断をし、押された場合は演算部158にオンであることを伝達する(S12)。次に、画像合成手段159は入力位置とオン/オフ情報に基づいて仮想キーボード表示画面153の画像を生成する(S13)。演算部158は伝達された情報に基づいて演算を行い、演算結果表示画面152を生成する(S14)。画像合成手段159は仮想キーボード表示画面153と演算部11で生成された演算結果表示画面152の2つの画面を1つの画面に合成し、仮想画面5を生成する(S15)。
ところで、入力装置150は抵抗膜方式、小さなスイッチング素子の集合体からなるものなど各種のものがある。ここでは抵抗膜方式の入力装置によりキー入力及びポインティング入力する場合の割り付け手段156の処理過程を更に詳細に説明する。
まず、割り付け手段156は、入力装置150の入力方式を判断する(S20)。キー入力方式の場合には入力平面内を各キー領域に分割する(S21)。そして、その後、入力方式が切り換えられたかどうかを判断し(S22)、切換えられていない場合には入力信号(X,Y)を受け取る(S23)。そして、入力信号(X,Y)がどの領域にあるかを調べ(S24)、該当するキーのコードを出力する(S25)。
入力方式を判断した際(S20)に、ポインティング方式であると判断された場合には、次に、入力方式が切換えられたかどうかについて判断し(S26)、入力方式が切換えられていない場合には、入力信号を受取り、それをバッファ(X,Y)に格納する(S27)。そして、次の入力信号(X,Y)を受取り、先の入力信号、(X,Y)との差を求める(S28)。その差が例えば2cm以上であるか否について判断し(S29)、その差が2cm以上であった場合には、(X,Y)でクリックした信号として処理する(S30)。その差が2cm未満であった場合には移動量分だけ移動させる。以上のステップS26〜S31の処理をポインティングの移動とクリックとの違いを判断するために、0.01秒以下で行なう。
ところで、図15の表示装置2は図20に示されるように、表示装置2を頭部に装着するための眼鏡型フレーム101に接続コード106の一端が接続されており、これは、眼鏡型フレーム101の前面上部内に配置された駆動回路105及びバックライト104に画像信号と電力を供給している。駆動回路105に入った画像信号はデコードされ液晶パネル102によって表示される。表示された画像情報は液晶パネル102の背面に配置されたバックライト104によって照射され、眼鏡型フレーム101の前面、使用者の左右いずれか一方の眼前に配置された反射ミラー170及び拡大レンズ103を介して使用者の目に届く。或いは液晶パネル102と反射ミラー135との間にビームスプリッタを配置することにより画像を2方向に投射すると、使用者の左右両眼の前に配置された反射ミラー及び拡大レンズを介して使用者の両眼に届く。
液晶パネル102は画面サイズが縦長の1から2インチ程度の小型のフルカラーまたはモノクロのLCDであり、図20に示すように拡大レンズ103を介して使用者の眼から500mmから1000mmの位置に14インチ程度の仮想画面5が見えるようになっている。
上記実施例ではコンピュータと表示装置とが分離されているが、頭部に装着する表示装置内にコンピュータを組込んでもよく、その場合は入力装置の信号は直接頭部に装着された表示装置及びコンピュータに伝送される。なお、このコンピュータは表示装置用に設計された演算装置によって実現しても良い。
また、上記実施例における演算装置内のキー割り付け手段によって割り付けられるインターフェースはキーボードに限定されず、マウス、ジョイスティック、ペン等様々なインターフェースを提供できる。
さらに、入力装置に関しても上記実施例のタブレット、データグローブに限定されることなく、位置情報、オン/オフ情報等が検出可能であればよく、様々な入力装置を接続することが可能である。
また図16に示された実施例の他の実施例として、頭部に装着される表示装置の表示部に関し、演算結果表示画面と仮想キーボード表示画面とを別々に駆動表示することにより、コンピュータ(演算装置)内の画像合成手段を省略することも可能である。
実施例6.
図21〜図29の実施例には本発明の情報処理装置をパーソナルコンピュータに適用した場合の状態が示されている。図21は表示手段として上述の実施例の表示装置2を採用した場合の斜視図である。コンピュータ3から出力される画像表示情報の信号は、接続ケーブル106を介して表示装置2に伝達される。さらに、表示手段を後で述べる方法と切り替えて利用する目的のため、ケーブル106はコンピュータ3から簡単に取り外しが可能なように、コネクタ23を介して接続されている。
図21の表示装置2は図20に示されたものと基本的には同一の構成からなっているが、液晶パネル102がフレーム101から簡単に着脱可能な構造となっている。また、反射ミラー170は作業者の見やすい位置に調節できる上下、前後あるいは角度を動かせる構造になっている。さらに、フレーム101は、液晶パネル102に映し出された映像を見やすくするため、外界からの光を遮断する役目をもっている。しかしその一方、フレーム101を通して外界との視野を確保する必要が生じるので、このフレーム101の光透過率は70〜80%程度であることが望ましい。
また、図21の実施例においては、表示装置2を駆動するための電源と本体から出力された画像情報とは、コンピュータ3の本体側に設けられたコネクタ凹部60、表示装置2側に設けられたコネクタ凸部23、及びコンピュータ3の本体と表示装置2とを接続するための接続ケーブル106を介して表示装置2に伝達されている。
図22には表示手段としてスクリーンを利用している場合が示され、図23にはその断面図が示されている。
ソケット24には、表示装置2から取り外された液晶パネル102が組み込まれる。この液晶パネル102に映し出された映像は、バックライト25から出力される光を受けてレンズ26で拡大されスクリーン27に投射される。その結果、作業者は像28を視認することができる。なお、液晶パネル102をソケット24の内部で上下に又は前後に移動させることにより像28の上下位置又はその大きさを調節することができる。スクリーンとしては、必ずしも白いパネルを準備する必要はなく、壁などの模様がなく平らな面を利用してもよい。
図24及び図25は液晶パネルの上下方向の位置と像28の上下位置との相関関係を示した図である。同図により液晶パネル102を上下することにより像28の上下位置を調整することができることが分る。
図26及び図27は液晶パネルの前後方向の位置と像28の大きさとの相対関係を示した図である。同図により液晶パネル102を前後に動かすことにより像28の大きさを調整することができることが分る。ここで、液晶パネル102と拡大レンズ26との距離をSとし、拡大レンズ26とスクリーン27との距離をSとすると、式(1)が得られる。なお、fは焦点距離である。また、像の大きさをβとすると式(2)が得られる。
Figure 0003872100
ここで式(1)においてSが小さくなるとSが大きくなり、Sが大きくなるとSが小さくなる。その結果として、像の大きさβは、式(2)から分かるように、Sが小さくなると大きくなり、Sが大きくなると小さくなる。
図28にはソケット24の構造を示す斜視図が示されており、図29はその分解斜視図が示されている。
液晶パネル102はピン54によりその上下方向の位置が調整され、偏心ピン55によりその前後方向の位置が調整される。液晶パネル102は図29のAの向きに差し込まれる。ソケット41は液晶パネル102を固定する。そして、ピン54が穴42を介してねじ穴51に挿入され、ソケット41はソケット44に固定される。これによりピン54の回動によりソケット41が上下動し、それに伴って液晶パネル102も上下動することになる。ソケット44の片46,47はソケット41と係合し、両者は前後方向に固定された状態になる。偏心ピン55を長穴50内で回転させることにより前後の動作ができる。長穴48,49にピン52,53を通して左右のぶれを防いでいる。窓45,43は光源の光を通す。
ところで、上述の実施例では、液晶パネルは脱着可能な構造である場合の例を示したが、表示装置2の液晶パネルと、コンピュータ本体側の液晶パネルとは、必ずしも脱着可能である必要はなく、液晶パネルはそれぞれの装置に固定し、表示切り替えスイッチを設けて、コンピュータの表示手段を切り替えて利用してもよい。
また、前記各実施例ではパーソナルコンピュータを利用した例を示したが、この発明は上述実施例に限るものでなくワードプロセッサなど情報処理装置に適用してもよい。また、表示装置は頭部搭載型の片眼タイプのものを説明したが、両眼タイプの頭部搭載型のものに適用してもよい。さらに、前記各実施実施例では頭部搭載型の画像表示装置として眼鏡型のものを示したが、ゴーグル型、ヘルメット型等他の頭部搭載型の画像表示装置に適用してもよい。
以上の構成からなる情報処理装置を用いて、表示手段として頭部搭載型の画像表示装置を利用した場合には、表示内容を直接見ることができるのは作業者のみなので、秘密情報を他人の目を気にすることなく処理することができる。また、飛行機或るいは電車等の限られた空間の中でも無理な姿勢をすることなく情報処理装置を利用することができ、携帯性に優れたものになっている。また、表示装置を通して視認できる虚像とキーボード等の外界との間の視点の移動が簡単なので、情報処理装置の操作性を高めることができる。
また、複数の人が同時に情報処理装置から出力される画像表示情報を見たい場合には、情報処理装置本体の液晶パネルを用いて画像表示情報をスターン等に投写すればよく、この表示手段の切り替えは簡単に行うことができる。
実施例7.
図30に示されているコンピュータは従来利用されている本体と表示部とが分離可能なコンピュータの例である。コンピュータ本体3aはコネクタ凹部61とコネクタ凸部62aを介してディスプレイ63と係合されている。
図31の実施例においては図30のコンピュータ3に上述の実施例の表示装置2を取付けた場合の状態が図示されている。本実施例において、コンピュータ本体3aはコネクタ凹部61、コネクタ凸部62、接続ケーブル106を介して表示装置2に接続されている。
ここで、図30のディスプレイ63のコネクタ凸部62aと図31の接続ケーブル106のコネクタ凸部62の仕様を同一の規格にすれば、同一の本体に、従来利用されているディスプレイ63と本実施例の表示装置2とを接続することができる。すなわち従来型のディスプレイ63と本実施例の表示装置2とが簡単に交換可能な情報処理装置が実現できる。
なお、前記各実施例では情報処理装置としてコンピュータを利用した例を示したが、本発明は上述実施例に限るものでなくワードプロセッサなど情報処理装置に適用してもよい。また、画像表示装置として頭部装着型の片眼タイプのものを説明したが、両眼タイプのものに適用してもよい。さらに、前記各実施例では眼鏡型のものを利用した例を示したが、ゴーグル型、ヘルメット型など他の頭部搭載型のものにも適用することができる。
上述の説明から明らかなように、本実施例においては、情報処理装置本体に対する表示装置の取り外しが簡単にできるという利点がある。また、コネクタを共通仕様にすることにより従来のディスプレイと本実施例の表示装置とを交換して利用することができる。更に、従来の携帯型の情報処理装置に用いられるディスプレイに比べて、本実施例の表示装置のバックライトは消費電力が少なくて済む。その結果、バッテリーの寿命を延ばすことができるので、本実施例の情報処理装置は特に携帯性が優れたものになっている。
実施例8.
図32の画像表示システムにおいて、コンピュータ3からの出力結果はディスプレイ63と頭部に装着された表示装置2に表示される。使用者1はディスプレイ63に表示された画像と頭部に装着した表示装置2によって作り出される仮想画面5を僅かな視線の移動で見ながら処理を行うことができる。この仮想画面5は、液晶パネル102に映し出される映像を拡大反射ミラー部64を介して使用者の眼に入れることにより生成される。
図33の表示装置の制御系において、演算装置70からの出力画像は出力情報割り付け手段72によってそれぞれの画像出力装置に出力するように割振られた後、画像出力制御部71内のグラフィック用RAM73に書き込まれる。グラフィック用RAM73に書き込まれた情報はアドレスで管理され、演算装置70から出力される任意の情報が表示装置2及びディスプイ63に出力される。例えば同じ情報を表示装置2及びディプレイ63に表示したり、別々の情報を表示装置2及びディスプレイ63にそれぞれ出力し、且つそれぞれの画像情報を任意の画像表示装置に移すことが可能である。
図34のフローチャートには演算装置から出力される画像情報を複数の画像表示装置に出力する処理過程が示されている。演算装置に対して表示容量が非常に大きい画像表示装置が接続されたように見せかけ、演算装置からの出力情報を読み込む(S51)。読み込まれた情報は画像情報であるか、表示領域を制御する情報かが判断される(S52)。表示領域を制御する情報の場合にはそれに基づいて各表示装置を表示する為にグラフィック用RAM73内に確保されるメモリアドレス領域を決定する(S53)。画像情報の場合にはメモリアドレス領域に基づいて表示領域(アドレス)等のパラメータを決める処理がなされる(S54)。次に、画像情報はステップ(S54)で決定された表示領域(アドレス)内の情報であるかの判断を行い(S55)、表示領域外の画像情報は処理(S56)において無視され、表示領域内の情報のみがアドレス変換されて(S57)、グラフィック用RAMに書き込まれる(S58)。各画像表示装置は割振られたアドレス領域の情報を随時表示する。
使用者は視野の一部に仮想画面5を見て、その他の視野部分に他の画像表示装置を入れることで、僅かな視線の移動だけで複数の画像表示装置を見ることできる。
上記実施例ではポータブルコンピュータに2つの画像表示装置を接続したが、演算装置と画像表示装置の数は限定されず、複数の演算装置で大量の情報を処理するシステムにおいて、複数の画像表示装置にその結果を表示し、且つ常に監視していたい情報だけを頭部に装着した表示装置に表示させることもできる。
実施例9.
図35の表示装置においては、左目用の液晶パネル表示部172と、右目用の液晶パネル表示部173が、眼鏡型フレーム101に取り付けられている。この液晶パネル表示部172,173は図36及び図37に示すように、外光もしくは小型のバックライト104により液晶パネル102の後方から照射されることにより、各々の画像の強度に比例して人間の目の網膜上に凸レンズ103とミラー170を介して虚像を結像させる。これら液晶パネル102をコントロールするための駆動回路に関しては、眼鏡型フレームに一体、もしくは別体で構成し液晶パネルに画像を生成する。
マイク174は、眼鏡型フレーム101の装着者の耳の位置に固定された自在継ぎ手175により装着者の口元に自在に折り曲げ可能な継ぎ手により継合されている。位置検出手段であるトラッキングセンサ176は装着者の左右の耳の位置を結ぶ様に配置されたフレーム177内の中心部に設けられて、頭を回転する慣性モーメントを利用して左右の眼の視線位置を検出するように構成されている。また、本実施例の表示装置においてはマウス180及びキーボード181も装着されている。
図38及び図39は、図35に示した表示装置を用いて得られる静止画像の画像編集における実施例を示したものであり、第1の表示エリアと第2の表示エリアを左右に2箇所に表示したときの表示方法を示した表示画面図が図示されている。
第1の表示エリアは、通常、静止画像を映し出すエリアであり、これらの画像には、監視者の正面に像が形成されるようになっている。第2の表示エリアに関しては、監視者が右側を向くことにより、トラッキングセンサー176が、その動きを検出し、その動き量に合わせ右方向に表示をしており、第1の表示エリアで示された画像データの属性が表示されている。この場合においては、監視者は右側を向くことにより、トラッキングセンサー176が右の方向を見たことを検出し、2枚の液晶パネル102に図39に示したような映像を表現する。この実施例は静止画像合成のための実施例を示したものであり、映像のセグメント部分(木や家や車など形状モデル)を第2の表示エリア上で検索及びサイズの加工などの処理を施す。この場合、例えば車などは、キーボード181上から「car」と入力し、そのデザインファイルをサーチしながらこれはと思う素材を見つける。同様に家や、木などの画像素材に関してもサーチし、像のサイズに関しても第2の表示エリアで加工する。加工された画像素材は、第1の映像エリアに写し、第1の表示エリアに示された山などの背景に画像合成を行う。
次に、上述の編集処理の過程を図40のフローチャートに基いて説明する。まずトラッキングセンサ176の出力を入力して、その入力信号に基づいて作業者1の左右の眼の視線位置を検出し(S20)、それが左であると判断された場合には第1の表示エリアに背景画像を入力し(S21)、背景画像を選択する(S22)。次に、トラッキングセンサ176の出力に基づいて作業者1が右側を見たかどうかを判断し(S23)、右側を見ていなければ、次に背景画像の加工に移る(S24)。加工が終了するまで(S25)上記の背景画像の選択及び背景画像の加工についての処理が繰り返される(S22〜S24)。
背景画像の加工が終了すると(S25)、次にデータを加算するかどうかにつての判断がなされ(S26)、加算すると判断された場合には第1表示エリアに属性データを加算する(S27)。
次に音声入力によりレイアウトの詳細を編集する(S28)。なお、この音声入力による編集は後述する。編集が終了すると(S29)、一連の処理は終了する。
一方、作業者1の左右の眼の視線位置を検出した際に(S20)、それが右であると判断された場合には、第2の表示エリアに属性データを入力する(S30)。そして、基準座標位置を決定し(S31)、属性データをサーチする(S32)。サーチが終了すると(S33)、属性データを加工する(S34)。加工が終了すると次に編集をするかどうかについて判断され(S36)。編集する場合にはセグメント部分を選択する(S37)。次に、ここで作業者1が左側を見ているかどうかにつての判断がなされ、左側を見ていると判断された場合には基準座標を計算した(S39)後に、上記のステップS27の処理に移行する。また、左側を見ていないと判断された場合、すなわち右側を見たままであると判断された場合にはステップS34の処理に戻り、属性データの加工及びセグメント部分の選択についての処理を繰り返す。
音声による編集の処理過程を図41のフローチャートに基いて説明する。音声入力は、単なるコマンドの単語のみを判断するものでなく、不特定話者の「WordSpoting」と呼ばれている文節入力可能な音声入力手段を用いている。
つまり、あらかじめ、木、右側、移動、左、高さなどの名詞を登録しておき、その発生確率から文章全体をとらえることのできるニューロコンピュータの処理により文章の意味を理解する音声入力方式を用いている。
この場合、第1の表示エリア内に示された画像は、広角レンズを介して虚像を見ているためこれらの画像は、拡大されて表現されており、あたかもその場所に自分がいるように感ずることが可能であり、従って編集の際における映像の移動距離などは、あらかじめコンピュータ上にて第1の表示エリアのサイズを設定しておき視点から物体までの距離を計算しておき、編集の際は、監視者の思ったイメージを音声入力し、微妙な位置関係の編集を視点を変えることなく第1の表示エリア内の画像を見ながら行うことが可能である。
また、これらの画像を表示している視点位置を変化させ、あたかもカメラワークによる視点の移動などのデータも第2の表示エリア内に示すことが可能である。
図42には図35に示された表示装置を用いて動画像の映像データをシミュレーションの用途に用いた例が示されており、第1の表示エリアにおいては、シミュレーションした映像結果(a)を表示させ、第2の表示エリアには、その映像の属性を表示する。第2の属性の表示においては、時間とともに変化する空間的な領域データを表示するものであり、例えば、空を飛行している飛行機の軌跡(b)や、そのときのスピード(c)、更に各映像セグメントの階層的なセグメンテーション(d)などの時間的に変化する表示をグラフ化したものなどを表示する。
この実施例においては、飛行機の軌跡などは、時間的に変化する軌跡を第2の表示エリア上でプロット入力することで軌跡は得られる。更に、各々のプロットした軌跡における飛行機のスピードなどの設定も、時間とスピードのグラフにより入力することが可能となる。例えば、スピードを変化させる場合には、各ステップ毎の点をクリックし上下させることによりスピードの増減が可能となる。さらには、これらの映像データにある時間軸で出現する各々の映像セグメントを階層的に表現したグラフなどにより時間的に出現するセグメントの切り貼り編集なども実現可能となる。
また、このような映像データの属性の時間的に変化する映像加工においては、いわゆるポストプロダクションの工程の映像データのセグメンテーションの編集の際において、非常に効果的であり、さらには各々の映像素材の奥行き感を、頭部搭載型の画像表示装置の左右の眼に対応し映像に視差を設け、あたかも実際の映像の出現するごとく立体表示を行い、奥行きに合わせた階層的な表示を行うことにより、さらに編集が効率的となる。
実施例10.
図43の情報処理装置において、演算処理装置81は、従来のノートパソコンやブックパソコンのような携帯型の演算処理装置であるが、従来のようなオープンタイプのディスプレイはなく、演算処理部、メモリー部、キーパッド等からなる演算処理装置本体82と、保存時及び携帯時に上面のキーパッド等を保護するためのカバー83から構成される。カバー83は、従来のこれらの情報処理装置と同様にヒンジ状の接続部84を介して演算処理装置本体82と接続し、これによって開閉自在に保持される。カバー83の内面は、弾性体等で形成された緩衝構造を有し、その一部分に表示装置2を収納するための収納部86を有する。表示装置2は、眼鏡型のフレーム101内に上述のような光学系と駆動回路を収納し、使用者の顔前で頭部に保持される。フレーム101の両側端には、ヒンジ89を介して使用者の耳位置まで延伸するつる88が形成され、つる88は折り畳み収納することができる。また、つる88の一端より駆動回路からの通信ケーブル106が突出し、収納部86の一端を通って演算処理装置本体82と接続される。
この情報処理装置を使用するときは、頭部装着型の画像表示装置2をフレーム101によって頭部に固定し演算処理装置81を駆動すると、表示装置2内の駆動回路と光学系により、演算処理装置81の画面情報が使用者の顔前の有限距離に虚像拡大されて視認できる。また、保存時及び携帯時は、表示装置2の両側のつる88を折り畳み演算処理装置82の収納部86に収納するとともに、通信ケーブル106も折り畳んで収納部86に収納した上でカバー83を閉じると、従来の携帯型情報処理装置と同様に一体構造となる。したがって、機密文書の作成を可能にしたり、ディスプレイを完全に開けなければ使用不可能等の場所的制限を受けないという従来の効果を維持しつつ、情報処理装置の携帯性と取扱い易さを向上することができる。
次に、図44のブロック図を用いて上記実施例の動作を説明する。外部電源AC入力から供給された電流は演算処理装置81内の電源回路96で分岐され、一方は演算処理部97に供給される。また、他方と演算処理部97からの出力は、前述の通信ケーブル106を通じて表示装置2内の駆動回路105に供給され、液晶駆動用の信号に変換されて液晶パネル102を駆動する。なお、本ブロック図では、説明に不要な構成要素は省略し説明を割愛した。また、本実施例では表示装置2内に収納した駆動回路105を、ノイズの問題の発生しない範囲で分割し、演算処理装置81内に振り分けることによって、表示装置2の一層の小型軽量化も可能になっている。
実施例11.
図45の情報処理装置はその基本構成が前述の実施例と同様である。本実施例においては、演算処理装置本体82の内部に表示装置2を収納するための収納部90を形成し、収納部90内を介して通信ケーブル106が演算処理装置81の電源及び演算処理部と接続する構成になっている。このような構成にしたことにより、演算処理装置本体82の容積は若干増大するものの、大規模なカバーの必然性がなくなるため、総合的には小型軽量となり携帯性が向上するばかりか、オープンタイプのカバーが不要になるため、使用場所の制限が減少して使い勝手がより一層向上する。
実施例12.
図46及び図47の情報処理装置もやはり基本構成は前述の2実施例と同様であり、同様要素には同一番号を付して説明は省略する。
本実施例においては、演算処理装置81内に充電器を、表示装置2内に充電式のバッテリーを設けるとともに、演算処理部97と駆動回路105の間を無線化して、使用形態をよりスリム化している、演算処理装置81は内部に充電器98と送信回路99を有し、充電器98は電源96から電流を供給され、送信回路99は演算処理部97から信号を供給される。送信回路99に供給された信号は、送信回路99内で変調された後にアンテナ201,202を介して送受信され、受信回路203で復調された後に駆動回路105に入力される。また、表示装置2内には充電式のバッテリー204を内蔵し、駆動回路105に駆動電流を供給する。
収納部90の端面には充電器98と接続された電極接点205が露出し、また、例えば頭部装着型の画像表示装置2をアンテナ202側から収納部90に収納する場合には、フレーム101のアンテナ202側側端部であって、収納時における電極接点205との対応位置に電極接点206を設けてバッテリー204と接続する。このような構成にしたことにより頭部装着型の画像表示装置2の収納と同時に、充電器98の電極接点205とバッテリー204の電極接点206が接続し、表示装置2の収納中、すなわち表示装置2の未使用中にバッテリー204が充電される。
上記の構成によれば、演算処理装置81と表示装置2が完全に分離状態になるため、この情報処理装置81の使用時はもとより、表示装置2の収納部90への脱着作業も極めて簡便化される。また、表示装置2の収納形態を図43の実施例と同様にしても、上記各構成要素を付加することにより同様の効果を達成することができる。
なお、上記各実施例における表示装置は、必ずしも片眼のみに光学系を配置し片眼で映像を視認する単眼式である必要はなく、両眼に光学系を配置して両眼視する2眼式でもいい。その場合には、各眼がそれぞれの映像を視認する視線方向が映像視認距離(虚像を知覚する位置)で交差するように、それぞれの光学系の光軸を内向させると、人間の自然視に近づき望ましい。また、上記各構成要件も上記内容に限られるものではなく、本発明の趣旨を逸脱しない範囲で種々変更可能である。

Claims (6)

  1. 液晶表示パネルとと拡大光学系とがフレームに収納され、前記フレームの前面の視野に前記拡大光学系を通して前記液晶表示パネルに生成された画像の拡大虚像が視認される頭部搭載型の画像表示装置において、
    前記画像表示装置の装着者の頭部の向きを検出する第1の方向検出手段と、
    前記装着者の視線を検出する注視点検出手段と、
    複数の仮想画面を表示する1つの表示枠を前記フレーム前面の視野に形成するとともに、前記表示枠内の表示を前記第1の方向検出手段の出力に基づいてスクロールし、前記注視点検出手段の出力に基づいて前記表示枠内の複数の仮想画面から一つの仮想画面を選択し、選択された前記仮想画面を、前記注視点検出手段の出力に基づいて表示枠内で移動させ、又は前記第1の方向検出手段の出力に基づいて表示枠外に移動させる画像生成手段と、
    前記画像生成手段における前記一つの仮想画面の選択を確定し、又は前記選択された仮想画面の移動を停止させるトリガ入力手段と
    を備えたことを特徴とする頭部搭載型の画像表示装置。
  2. 前記画像生成手段は、前記トリガ手段の入力によって確定された選択仮想画面を拡大又は縮小する機能を更に備えたことを特徴とする請求項1記載の頭部搭載型の画像表示装置。
  3. 前記画像表示装置の装着者の上体の向きを検出する第2の方向検出手段を備え、前記第2の方向検出手段の出力に応じて前記表示枠内の表示のスクロールを禁止させることを特徴とする請求項1記載の頭部搭載型の画像表示装置。
  4. 前記拡大光学系を通して視認される拡大虚像の形成方向に実スクリーンを配置し、前記画像表示装置の装着者の外界像を前記実スクリーンとすることを特徴とする請求項1記載の頭部搭載型の画像表示装置。
  5. 前記画像表示装置の装着者の外界像と前記光学系を通して視認される前記表示枠とを合成する合成光学手段を備えたことを特徴とする請求項1記載の頭部搭載型の画像表示装置。
  6. 携帯型コンピュータ外装ケースの一部が前記実スクリーンであることを特徴とする請求項4記載の頭部搭載型の画像表示装置。
JP50685895A 1993-08-12 1994-08-12 頭部搭載型の画像表示装置 Expired - Lifetime JP3872100B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
JP20086393 1993-08-12
JP28845993 1993-11-17
JP29095393 1993-11-19
JP29095293 1993-11-19
JP29095593 1993-11-19
JP29847893 1993-11-29
JP32858693 1993-12-24
JP32859493 1993-12-24
PCT/JP1994/001340 WO1995005620A1 (fr) 1993-08-12 1994-08-12 Dispositif de visualisation du type lunettes et processeur de donnees d'images equipe d'un tel dispositif

Publications (1)

Publication Number Publication Date
JP3872100B2 true JP3872100B2 (ja) 2007-01-24

Family

ID=27573423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP50685895A Expired - Lifetime JP3872100B2 (ja) 1993-08-12 1994-08-12 頭部搭載型の画像表示装置

Country Status (5)

Country Link
US (3) US5977935A (ja)
EP (4) EP1326122B1 (ja)
JP (1) JP3872100B2 (ja)
DE (4) DE69435274D1 (ja)
WO (1) WO1995005620A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014505897A (ja) * 2010-11-18 2014-03-06 マイクロソフト コーポレーション 拡張現実表示のための自動合焦の改良
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US9678663B2 (en) 2011-11-28 2017-06-13 Seiko Epson Corporation Display system and operation input method
US9799144B2 (en) 2014-03-27 2017-10-24 Seiko Epson Corporation Head mounted display, and control method for head mounted display
CN112904560A (zh) * 2021-04-07 2021-06-04 深圳市悦尔声学有限公司 一种头戴显示设备

Families Citing this family (189)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4272711B2 (ja) * 1995-05-15 2009-06-03 キヤノン株式会社 画像生成方法及び装置
US7453451B1 (en) * 1999-03-16 2008-11-18 Maguire Francis J Jr Moveable headrest for viewing images from different directions
US7724278B2 (en) 1995-05-30 2010-05-25 Maguire Francis J Jr Apparatus with moveable headrest for viewing images from a changing direction-of-view
JP3752707B2 (ja) * 1995-08-31 2006-03-08 セイコーエプソン株式会社 頭部装着型表示装置
US6184847B1 (en) * 1998-09-22 2001-02-06 Vega Vista, Inc. Intuitive control of portable data displays
AU1935397A (en) * 1996-03-15 1997-10-10 Retinal Display Cayman Limited Method of and apparatus for viewing an image
JPH10240491A (ja) * 1997-02-26 1998-09-11 Olympus Optical Co Ltd 情報処理装置
TW362207B (en) 1997-05-08 1999-06-21 Shimadzu Corp Display system
EP0903661B1 (en) * 1997-08-27 2003-01-08 Canon Kabushiki Kaisha Apparatus and method to input data based on visual-axis detection
US6388657B1 (en) * 1997-12-31 2002-05-14 Anthony James Francis Natoli Virtual reality keyboard system and method
US6600480B2 (en) 1998-12-31 2003-07-29 Anthony James Francis Natoli Virtual reality keyboard system and method
US7248232B1 (en) 1998-02-25 2007-07-24 Semiconductor Energy Laboratory Co., Ltd. Information processing device
JPH11265248A (ja) * 1998-03-18 1999-09-28 Sony Corp 眼鏡型画像表示装置
WO2000016136A1 (en) 1998-09-14 2000-03-23 Digilens, Inc. Holographic illumination system and holographic projection system
WO2000023835A1 (en) 1998-10-16 2000-04-27 Digilens, Inc. Holographic technique for illumination of image displays using ambient illumination
US6421109B1 (en) 1998-10-16 2002-07-16 Digilens, Inc. Method and system for display resolution multiplication
US6678078B1 (en) 1999-01-07 2004-01-13 Digilens, Inc. Optical filter employing holographic optical elements and image generating system incorporating the optical filter
WO2000052536A1 (de) * 1999-03-02 2000-09-08 Siemens Aktiengesellschaft Bedien- und beobachtungssystem mit augmented reality-techniken
US9274596B2 (en) 1999-03-16 2016-03-01 Susan C. Maguire Moveable headrest for viewing images from different directions
US6504629B1 (en) 1999-03-23 2003-01-07 Digilens, Inc. Method and apparatus for illuminating a display
US6507419B1 (en) 1999-03-23 2003-01-14 Digilens, Inc. Illumination system using optical feedback
US6724354B1 (en) * 1999-06-21 2004-04-20 The Microoptical Corporation Illumination systems for eyeglass and facemask display systems
JP4168221B2 (ja) * 1999-09-06 2008-10-22 株式会社島津製作所 身体装着型表示システム
TWI252592B (en) 2000-01-17 2006-04-01 Semiconductor Energy Lab EL display device
FR2804768A1 (fr) * 2000-02-08 2001-08-10 Francois Mouly Procede d'affichage pour ordinateur et dispositif pour sa mise en oeuvre
US6611252B1 (en) * 2000-05-17 2003-08-26 Dufaux Douglas P. Virtual data input device
GB0012275D0 (en) * 2000-05-22 2000-07-12 Secr Defence Brit Three dimensional human computer interface
US6424437B1 (en) 2000-10-10 2002-07-23 Digilens, Inc. Projection display employing switchable holographic optical elements
US20040246234A1 (en) * 2001-03-01 2004-12-09 Luis Serra Display apparatus
JP2003046903A (ja) * 2001-07-31 2003-02-14 Sanyo Electric Co Ltd 表示装置
JP4786076B2 (ja) 2001-08-09 2011-10-05 パナソニック株式会社 運転支援表示装置
US7742013B2 (en) * 2002-09-26 2010-06-22 Hari Hara Kumar Venkatachalam Integrated spectacles and display unit for computers and video
JP2004213350A (ja) * 2002-12-27 2004-07-29 Seiko Epson Corp 力覚提示装置及び画像補正方法
ITTO20030426A1 (it) * 2003-06-06 2004-12-07 Galileo Avionica Spa Apparato di gestione missione e veicolo equipaggiato con tale apparato di gestione missione
ITTO20031055A1 (it) 2003-12-30 2005-06-30 Fiat Ricerche Sistema per l'assistenza remota di un operatore in una fase di lavoro.
US7355583B2 (en) * 2004-08-10 2008-04-08 Mitsubishi Electric Research Laboretories, Inc. Motion-based text input
KR100800859B1 (ko) * 2004-08-27 2008-02-04 삼성전자주식회사 Hmd 정보 단말기에서 키를 입력하는 장치 및 방법
US8585476B2 (en) 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
US20060224151A1 (en) * 2005-03-31 2006-10-05 Sherwood Services Ag System and method for projecting a virtual user interface for controlling electrosurgical generator
EP1889113B1 (de) 2005-05-30 2013-05-01 Durner, Andreas System mit elektronischer tag- und nachtsichtbrille
US7647175B2 (en) 2005-09-09 2010-01-12 Rembrandt Technologies, Lp Discrete inertial display navigation
US8564532B2 (en) * 2005-12-06 2013-10-22 Naturalpoint, Inc. System and methods for using a movable object to control a computer
US9958934B1 (en) * 2006-05-01 2018-05-01 Jeffrey D. Mullen Home and portable augmented reality and virtual reality video game consoles
US7928926B2 (en) * 2006-06-27 2011-04-19 Panasonic Corporation Display apparatus and method for hands free operation that selects a function when window is within field of view
US20100292999A1 (en) * 2006-08-15 2010-11-18 Dinesh Verma Ophthalmic diagnostic apparatus
US9217868B2 (en) 2007-01-12 2015-12-22 Kopin Corporation Monocular display device
CN101632033B (zh) 2007-01-12 2013-07-31 寇平公司 头戴式单眼显示装置
US20080204359A1 (en) * 2007-02-28 2008-08-28 Perception Digital Limited Electronic display device for displaying digital images
US8605008B1 (en) * 2007-05-04 2013-12-10 Apple Inc. Head-mounted display
US8832557B2 (en) * 2007-05-04 2014-09-09 Apple Inc. Adjusting media display in a personal display system based on perspective
US20080285227A1 (en) * 2007-05-14 2008-11-20 Kennard Lindsey E Modular small size computer system
US8207962B2 (en) * 2007-06-18 2012-06-26 Mediatek Inc. Stereo graphics system based on depth-based image rendering and processing method thereof
EP2167920B1 (en) * 2007-07-18 2013-09-18 Elbit Systems Ltd. Aircraft landing assistance
US20100259471A1 (en) * 2007-11-16 2010-10-14 Nikon Corporation Control device, head-mount display device, program, and control method
JP2009128565A (ja) * 2007-11-22 2009-06-11 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ
US9064196B1 (en) 2008-03-13 2015-06-23 Impinj, Inc. RFID tag dynamically adjusting clock frequency
US8193912B1 (en) * 2008-03-13 2012-06-05 Impinj, Inc. RFID tag dynamically adjusting clock frequency
US8416152B2 (en) * 2008-06-11 2013-04-09 Honeywell International Inc. Method and system for operating a near-to-eye display
KR101493748B1 (ko) * 2008-06-16 2015-03-02 삼성전자주식회사 물품 제공장치, 디스플레이 장치 및 이를 이용한 gui제공방법
US8957835B2 (en) 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
WO2010066481A2 (de) * 2008-12-10 2010-06-17 Siemens Aktiengesellschaft Verfahren zum übertragen eines bildes von einer ersten steuereinheit auf eine zweite steuereinheit und ausgabeeinheit
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
JP2010145861A (ja) * 2008-12-19 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
JP5293154B2 (ja) * 2008-12-19 2013-09-18 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5218354B2 (ja) * 2009-09-16 2013-06-26 ブラザー工業株式会社 ヘッドマウントディスプレイ
KR20110055337A (ko) * 2009-11-18 2011-05-25 삼성전자주식회사 디스플레이장치
JP5141672B2 (ja) * 2009-11-30 2013-02-13 ブラザー工業株式会社 ヘッドマウントディスプレイ装置、及びヘッドマウントディスプレイ装置を用いた画像共有システム
US8471814B2 (en) * 2010-02-26 2013-06-25 Microsoft Corporation User interface control using a keyboard
WO2011109903A1 (en) * 2010-03-09 2011-09-15 Imax Corporation System, method, and computer program product for performing actions based on received input in a theater environment
GB2478738A (en) * 2010-03-16 2011-09-21 Belron Hungary Kft Zug Branch Eye level display in communication with electronic device
US8619005B2 (en) * 2010-09-09 2013-12-31 Eastman Kodak Company Switchable head-mounted display transition
KR20120062170A (ko) * 2010-12-06 2012-06-14 삼성전자주식회사 가상 모니터 제어장치 및 그 제어방법
KR20120064557A (ko) * 2010-12-09 2012-06-19 한국전자통신연구원 증강형 3차원 입체 영상 제시를 위한 혼합현실 디스플레이 플랫폼 및 운영 방법
US20120327116A1 (en) * 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
US9024843B2 (en) * 2011-06-30 2015-05-05 Google Inc. Wearable computer with curved display and navigation tool
US8990682B1 (en) 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
US9081177B2 (en) 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US9547406B1 (en) 2011-10-31 2017-01-17 Google Inc. Velocity-based triggering
US20130117707A1 (en) * 2011-11-08 2013-05-09 Google Inc. Velocity-Based Triggering
US20130137076A1 (en) * 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
FR2985321B1 (fr) * 2011-12-30 2014-11-28 Thales Sa Masque de realite augmentee assurant une bonne reproductibilite et une bonne repetitivite de la visualisation des informations des capteurs par rapport a l'environnement reel
US9684374B2 (en) 2012-01-06 2017-06-20 Google Inc. Eye reflection image analysis
US8947322B1 (en) 2012-03-19 2015-02-03 Google Inc. Context detection and context-based user-interface population
JP5971466B2 (ja) * 2012-05-08 2016-08-17 日本電気株式会社 フライトパス表示システム、方法及びプログラム
KR101861380B1 (ko) * 2012-07-16 2018-05-28 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이를 이용한 컨텐츠 출력 방법 및 이를 위한 헤드 마운트 디스플레이
US20140101608A1 (en) * 2012-10-05 2014-04-10 Google Inc. User Interfaces for Head-Mountable Devices
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
JP6023568B2 (ja) * 2012-11-30 2016-11-09 オリンパス株式会社 頭部装着型装置
JP6333801B2 (ja) * 2013-02-19 2018-05-30 ミラマ サービス インク 表示制御装置、表示制御プログラム、および表示制御方法
US9829997B2 (en) * 2013-02-22 2017-11-28 Sony Corporation Head-mounted display system, head-mounted display, and head-mounted display control program
EP2967322A4 (en) * 2013-03-11 2017-02-08 Magic Leap, Inc. System and method for augmented and virtual reality
KR20230113418A (ko) 2013-03-15 2023-07-28 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
KR102138511B1 (ko) * 2013-08-28 2020-07-28 엘지전자 주식회사 헤드 마운티드 디스플레이의 화상통화를 지원하는 포터블 디바이스 및 그 제어 방법
US9785231B1 (en) * 2013-09-26 2017-10-10 Rockwell Collins, Inc. Head worn display integrity monitor system and methods
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9532714B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US9811152B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9523856B2 (en) 2014-01-21 2016-12-20 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
WO2015179877A2 (en) * 2014-05-19 2015-11-26 Osterhout Group, Inc. External user interface for head worn computing
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9298010B2 (en) * 2014-08-08 2016-03-29 Marissa J. Sundquist Wearable optical display with audio functionality
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
WO2016129549A1 (ja) * 2015-02-12 2016-08-18 株式会社コロプラ ヘッドマウント・ディスプレイを用いたコンテンツ視聴のための装置およびシステム
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US9965029B2 (en) * 2015-03-30 2018-05-08 Sony Corporation Information processing apparatus, information processing method, and program
US20160349791A1 (en) * 2015-05-27 2016-12-01 Google Inc. Virtual reality headset and device case
GB2543019A (en) * 2015-07-23 2017-04-12 Muzaffar Saj Virtual reality headset user input system
KR102105637B1 (ko) * 2015-08-04 2020-06-26 구글 엘엘씨 가상 현실에서 오브젝트와 손의 상황 감지형 충돌을 통한 입력
US9298283B1 (en) 2015-09-10 2016-03-29 Connectivity Labs Inc. Sedentary virtual reality method and systems
US20170092002A1 (en) * 2015-09-30 2017-03-30 Daqri, Llc User interface for augmented reality system
JP6134019B1 (ja) * 2016-01-29 2017-05-24 株式会社コロプラ 仮想現実空間提供方法および仮想現実空間提供プログラム
GB2548346B (en) * 2016-03-11 2020-11-18 Sony Interactive Entertainment Europe Ltd Image processing method and apparatus
US10685247B2 (en) * 2016-03-29 2020-06-16 Aptiv Technologies Limited Infrastructure-device status-verification system for automated vehicles
EP3469803A1 (en) * 2016-06-13 2019-04-17 Sony Interactive Entertainment LLC Method and system for directing user attention to a location based game play companion application
JP2018033111A (ja) * 2016-08-26 2018-03-01 オリンパス株式会社 画像観察装置
GB2553769A (en) * 2016-09-08 2018-03-21 Sony Interactive Entertainment Inc Input device and method
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
US10936872B2 (en) 2016-12-23 2021-03-02 Realwear, Inc. Hands-free contextually aware object interaction for wearable display
US10620910B2 (en) 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US11099716B2 (en) 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
US10393312B2 (en) 2016-12-23 2019-08-27 Realwear, Inc. Articulating components for a head-mounted display
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
US10437070B2 (en) 2016-12-23 2019-10-08 Realwear, Inc. Interchangeable optics for a head-mounted display
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
US10782793B2 (en) 2017-08-10 2020-09-22 Google Llc Context-sensitive hand interaction
JP2019101811A (ja) * 2017-12-04 2019-06-24 富士通株式会社 処理プログラム、処理方法及び処理装置、並びに表示プログラム、表示方法及び表示制御装置
JP7035510B2 (ja) 2017-12-22 2022-03-15 セイコーエプソン株式会社 表示システム、及び、表示システムの制御方法
CN109960039B (zh) 2017-12-22 2021-08-06 精工爱普生株式会社 显示系统、电子设备以及显示方法
US10997943B2 (en) * 2018-03-02 2021-05-04 Facebook Technologies, Llc Portable compute case for storing and wirelessly communicating with an eyewear device
US10665206B2 (en) * 2018-07-30 2020-05-26 Honeywell International Inc. Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance
US11055056B1 (en) * 2018-09-25 2021-07-06 Facebook Technologies, Llc Split system for artificial reality
WO2020084625A1 (en) * 2018-10-25 2020-04-30 Beyeonics Surgical Ltd. Ui for head mounted display system
JP7243269B2 (ja) * 2019-02-19 2023-03-22 株式会社Jvcケンウッド ヘッドマウントディスプレイ
JP7259390B2 (ja) * 2019-02-19 2023-04-18 株式会社Jvcケンウッド ヘッドマウントディスプレイ
EP3929651A4 (en) * 2019-02-19 2022-04-06 JVCKenwood Corporation HEAD MOUNT DISPLAY
US10852820B1 (en) * 2019-02-22 2020-12-01 Facebook Technologies, Llc Gaze-based virtual content control
TWI750818B (zh) * 2020-09-24 2021-12-21 宏達國際電子股份有限公司 動態調整使用者界面方法、電子裝置及電腦可讀儲存媒體
EP4288950A1 (en) * 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
EP4295314A1 (en) 2021-02-08 2023-12-27 Sightful Computers Ltd Content sharing in extended reality
EP4288856A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd Extended reality for productivity
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4757714A (en) * 1986-09-25 1988-07-19 Insight, Inc. Speed sensor and head-mounted data display
GB8701288D0 (en) * 1987-01-21 1987-02-25 Waldern J D Perception of computer-generated imagery
GB8715184D0 (en) * 1987-06-29 1987-10-21 Gec Avionics Stereoscopic presentation of data
US5003300A (en) * 1987-07-27 1991-03-26 Reflection Technology, Inc. Head mounted display for miniature video display system
US5015188A (en) * 1988-05-03 1991-05-14 The United States Of America As Represented By The Secretary Of The Air Force Three dimensional tactical element situation (3DTES) display
JP3129719B2 (ja) * 1989-04-21 2001-01-31 株式会社パルカ ビデオディスプレイ装置
EP0443025A1 (en) * 1989-09-14 1991-08-28 General Electric Company Helmet mounted display
JP2959000B2 (ja) * 1989-12-19 1999-10-06 ソニー株式会社 顔面装着型視覚装置
US5130794A (en) * 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
JPH03289615A (ja) * 1990-04-06 1991-12-19 Toshiba Corp 両眼視ディスプレイ装置
US5214466A (en) * 1990-04-11 1993-05-25 Canon Kabushiki Kaisha Camera having visual axis detecting apparatus
FR2662894B1 (fr) * 1990-06-01 1995-11-17 Thomson Csf Dispositif de visualisation d'images simulees pour casque.
CA2047412A1 (en) * 1990-08-24 1992-02-25 Albert F. Harvard Theme park attraction for multiple participants using real time simulation
EP0479605B1 (en) * 1990-10-05 1995-09-20 Texas Instruments Incorporated Method and apparatus for providing a portable visual display
IL96869A (en) * 1991-01-02 1994-04-12 Israel State Method and system for aiming a small caliber weapon
US5381158A (en) * 1991-07-12 1995-01-10 Kabushiki Kaisha Toshiba Information retrieval apparatus
JP3311025B2 (ja) 1991-07-12 2002-08-05 株式会社東芝 情報検索装置
US5450596A (en) * 1991-07-18 1995-09-12 Redwear Interactive Inc. CD-ROM data retrieval system using a hands-free command controller and headwear monitor
GB2259213A (en) * 1991-08-29 1993-03-03 British Aerospace Variable resolution view-tracking display
JP3111430B2 (ja) * 1991-10-11 2000-11-20 ソニー株式会社 メガネ型ディスプレイ
GB9121707D0 (en) * 1991-10-12 1991-11-27 British Aerospace Improvements in computer-generated imagery
WO1993014454A1 (en) * 1992-01-10 1993-07-22 Foster-Miller, Inc. A sensory integrated data interface
EP0554492B1 (en) * 1992-02-07 1995-08-09 International Business Machines Corporation Method and device for optical input of commands or data
JPH0678341A (ja) * 1992-08-24 1994-03-18 Kawai Musical Instr Mfg Co Ltd 画像装置
JP3188777B2 (ja) 1992-10-27 2001-07-16 大阪瓦斯株式会社 高炭素鋼熱処理用雰囲気ガスの生成方法
US5644324A (en) * 1993-03-03 1997-07-01 Maguire, Jr.; Francis J. Apparatus and method for presenting successive images
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US5969698A (en) * 1993-11-29 1999-10-19 Motorola, Inc. Manually controllable cursor and control panel in a virtual image

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US9588341B2 (en) 2010-11-08 2017-03-07 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
JP2014505897A (ja) * 2010-11-18 2014-03-06 マイクロソフト コーポレーション 拡張現実表示のための自動合焦の改良
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US10055889B2 (en) 2010-11-18 2018-08-21 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US9678663B2 (en) 2011-11-28 2017-06-13 Seiko Epson Corporation Display system and operation input method
US9799144B2 (en) 2014-03-27 2017-10-24 Seiko Epson Corporation Head mounted display, and control method for head mounted display
CN112904560A (zh) * 2021-04-07 2021-06-04 深圳市悦尔声学有限公司 一种头戴显示设备

Also Published As

Publication number Publication date
EP1326120A2 (en) 2003-07-09
EP0714043A4 (en) 1997-01-29
DE69434851D1 (de) 2006-10-26
US20020126066A1 (en) 2002-09-12
DE69435274D1 (de) 2010-04-08
US7113151B2 (en) 2006-09-26
US6320559B1 (en) 2001-11-20
EP0714043A1 (en) 1996-05-29
DE69432466T2 (de) 2004-01-15
US5977935A (en) 1999-11-02
EP1326122B1 (en) 2006-09-06
EP1326120B1 (en) 2010-02-24
EP0714043B1 (en) 2003-04-09
DE69434843D1 (de) 2006-10-19
EP1326120A3 (en) 2005-01-12
EP1326122A3 (en) 2003-07-23
DE69434843T2 (de) 2007-02-15
DE69432466D1 (de) 2003-05-15
WO1995005620A1 (fr) 1995-02-23
EP1326122A2 (en) 2003-07-09
EP1326121B1 (en) 2006-09-13
DE69434851T2 (de) 2007-04-19
EP1326121A3 (en) 2003-07-16
EP1326121A2 (en) 2003-07-09

Similar Documents

Publication Publication Date Title
JP3872100B2 (ja) 頭部搭載型の画像表示装置
US20210022599A1 (en) Augmented and extended reality glasses for use in surgery visualization and telesurgery
JP6573593B2 (ja) 入出力構造を有する着用可能な装置
US9804669B2 (en) High resolution perception of content in a wide field of view of a head-mounted display
US6124843A (en) Head mounting type image display system
KR102218210B1 (ko) 가상 오브젝트의 처리가 가능한 스마트 안경
KR102218207B1 (ko) 가상 오브젝트의 처리가 가능한 스마트 안경
US11720171B2 (en) Methods for navigating user interfaces
JPWO2014128752A1 (ja) 表示制御装置、表示制御プログラム、および表示制御方法
WO2021062375A1 (en) Augmented and extended reality glasses for use in surgery visualization and telesurgery
KR20180037909A (ko) 스마트 안경
JPH05100192A (ja) メガネ型デイスプレイ
US20240036699A1 (en) Devices, Methods, and Graphical User Interfaces for Processing Inputs to a Three-Dimensional Environment
CN110809148A (zh) 一种海域搜索系统及三维环境沉浸式体验vr智能眼镜
US20240103678A1 (en) Devices, methods, and graphical user interfaces for interacting with extended reality experiences
JP2019079469A (ja) 作業支援装置、作業支援方法、作業支援プログラム及び頭部搭載型表示装置
US20240126376A1 (en) Computing system with head wearable display
JP7080448B1 (ja) 端末装置
US20240103684A1 (en) Methods for displaying objects relative to virtual surfaces
US20240103712A1 (en) Devices, Methods, and Graphical User Interfaces For Interacting with Three-Dimensional Environments
US20240029377A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Inputs in Three-Dimensional Environments
WO2024064278A1 (en) Devices, methods, and graphical user interfaces for interacting with extended reality experiences
EP4034028A1 (en) Augmented and extended reality glasses for use in surgery visualization and telesurgery
WO2024064180A1 (en) User interfaces that include representations of the environment
WO2024064231A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061019

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101027

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101027

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111027

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121027

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121027

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131027

Year of fee payment: 7

EXPY Cancellation because of completion of term