JP4744536B2 - Information presentation device - Google Patents

Information presentation device Download PDF

Info

Publication number
JP4744536B2
JP4744536B2 JP2008020021A JP2008020021A JP4744536B2 JP 4744536 B2 JP4744536 B2 JP 4744536B2 JP 2008020021 A JP2008020021 A JP 2008020021A JP 2008020021 A JP2008020021 A JP 2008020021A JP 4744536 B2 JP4744536 B2 JP 4744536B2
Authority
JP
Japan
Prior art keywords
image
observer
screen
information
presentation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2008020021A
Other languages
Japanese (ja)
Other versions
JP2008198196A (en
Inventor
昌彦 稲見
直樹 川上
康幸 柳田
太郎 前田
▲すすむ▼ 舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Original Assignee
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University filed Critical Keio University
Priority to JP2008020021A priority Critical patent/JP4744536B2/en
Publication of JP2008198196A publication Critical patent/JP2008198196A/en
Application granted granted Critical
Publication of JP4744536B2 publication Critical patent/JP4744536B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は、バーチャルリアリティ(Virtual Reality : VR) 又はコンピュータビジュアライゼーション(Computer Visualization) の分野において用いられる情報提示方法及び装置に関し、特に、仮想物体を、実物体との遮蔽関係に齟齬を起こすことなく対話的に提示するために用いられる方法及び装置に関する。   The present invention relates to an information presentation method and apparatus used in the field of virtual reality (VR) or computer visualization (Computer Visualization), and in particular, a virtual object without causing any disturbance in the shielding relationship with a real object. The present invention relates to a method and apparatus used for interactive presentation.

近年の人工現実感の分野において、複合現実感に関する研究をはじめとして、物理空間と情報空間とを積極的に融合させることによりその工学的な応用をはかろうとする研究が活発化している。しかし、それらの研究の多くは、視覚提示装置として頭部搭載型ディスプレイ(HMD:Head Mounted Display)又は通常のプロジェクタを用いているため、実物体と仮想物体との遮蔽関係に齟齬が生じ、現実感を著しく損なう場合がある。   In the field of artificial reality in recent years, research on mixed engineering and other researches that seek to apply its engineering application by actively merging physical space and information space have become active. However, many of these studies use a head-mounted display (HMD) or a normal projector as a visual presentation device, which causes a flaw in the shielding relationship between a real object and a virtual object. The feeling may be significantly impaired.

さらに、視覚提示のみならず、例えば特願平6−102187号に示されるように、仮想物体とのインタラクションを含めた触覚提示をも同時に行おうとした場合には、触覚提示装置が視覚提示装置と視覚的及び物理的に干渉してしまう。これは視触覚を同時に提示するシステムを構築する際の大きな問題点である。
〔現実感融合〕人間が存在し生活している物理空間と、コンピュータ及び通信ネットワークによって構成される情報空間とがシームレスに融合されることより、社会が今後一層高度に情報化されてゆくと考えられる。その実現に向けて、"wearable-computing""ubiquitous-computing"といった概念が提唱されている。
Furthermore, in addition to visual presentation, for example, as shown in Japanese Patent Application No. 6-102187, when tactile presentation including interaction with a virtual object is to be performed simultaneously, the tactile presentation device is a visual presentation device. It interferes visually and physically. This is a major problem when building a system that presents visual and tactile sensations simultaneously.
[Fusion of reality] We believe that society will become more highly computerized in the future by seamlessly integrating the physical space in which people live and the information space composed of computers and communication networks. It is done. To realize this, concepts such as "wearable-computing" and "ubiquitous-computing" have been proposed.

ここで、シームレスに「融合」する意義を改めて検討する。心理学などの分野においては、両眼融合をはじめとし、複数の情報との間で相互に密な関係を持ち、何らかの現象や対象に対して単独では生まれ得ない新たな知覚表象を与えるような処理を「融合(fusion)」と呼称している。   Here, we examine the significance of seamless “fusion”. In fields such as psychology, binocular fusion and other things that have a close relationship with each other and give a new perceptual representation that cannot be born alone for some phenomenon or object The process is called “fusion”.

工学分野においても、複数のセンサから得られる情報を統一的に処理することによって、単一のセンサからは得られない新たなセンシング機能を得る、センサフュージョンという研究が行われている。   In the engineering field as well, research on sensor fusion has been conducted to obtain a new sensing function that cannot be obtained from a single sensor by uniformly processing information obtained from a plurality of sensors.

同様に、人間が存在している物理空間とコンピュータによる情報空間、又は視空間と触空間とを単純に混合するだけでなく、シームレスに融合することにより、それぞれ単独では生まれ得ない効果を得ることが期待できる。
〔物理空間と情報空間の融合〕情報通信インフラが整備されるにしたがって、従来のブロードキャスト型の情報配信ではなく、オン・デマンド型又は双方向型の通信も主流になると考えられる。そしてインタラクティブ性の高い用途になればなるほど、情報のパーソナライズが進み、パーソナルな情報のためのパーソナルな現実感融合が必須課題となると考えられる。
Similarly, not only simply mixing physical space where humans exist and computer information space, or visual space and tactile space, but also seamlessly merging them to obtain effects that cannot be born alone. Can be expected.
[Fusion of physical space and information space] As the information communication infrastructure is improved, it is considered that on-demand type or bidirectional type communication will become mainstream instead of the conventional broadcast type information distribution. And as the application becomes more interactive, personalization of information advances, and it is considered that personal reality fusion for personal information becomes an essential issue.

よって、パーソナルなインタフェースである以上、現実感融合を低コストでコンパクトに実現する必要がある。   Therefore, as long as it is a personal interface, it is necessary to realize reality fusion compactly at a low cost.

しかし、従来のディスプレイでは、デバイス自身が大きな重量と容積を占めてしまい、パーソナルな用途には不向きである。   However, in the conventional display, the device itself occupies a large weight and volume and is not suitable for personal use.

一方、近年の人工現実感の分野で用いられているHMDは、パーソナルな情報空間を生成することには適しているが、物理空間がディスプレイ自身によって遮蔽されてしまい、物理空間での作業が極めて困難である。当然、自分の身体映像を視認するのはCG(Computer Graphics)によるメタファーとして以外は不可能であり、現実感の重要なファクターとされる自己投射性が低い。   On the other hand, the HMD used in the field of artificial reality in recent years is suitable for generating a personal information space, but the physical space is shielded by the display itself, and the work in the physical space is extremely difficult. Have difficulty. Naturally, it is impossible to visually recognize one's body image except as a metaphor by CG (Computer Graphics), and the self-projection property, which is an important factor of reality, is low.

ハーフミラー又は頭部搭載カメラを用い、物理空間の映像に情報空間の映像を重畳提示することを試みたシースルー型のHMDも提案されている。これによると、映像(画像)の合成を観察者の目の近傍やコンピュータ内で行っているため、ワークスペース部分において、提示物体同士の遮蔽関係や焦点位置の不一致など、作業に著しく不利となる問題が原理的に起きてしまう。遮蔽関係の不一致に関する問題点は、近年多用されているCAVE(下記非特許文献1)、又はCABlN(下記非特許文献2)など、没入型の投影式ディスプレイにおいても全く同様である。
〔視触覚融合提示〕情報空間の物体を、視覚情報のみならず触覚情報をも含めて提示することにより、臨場感や作業性が向上することが報告されている。
There has also been proposed a see-through type HMD using a half mirror or a head-mounted camera and attempting to superimpose and present an information space image on a physical space image. According to this, since the video (image) is synthesized in the vicinity of the observer's eyes or in the computer, the work space part is extremely disadvantageous for the work such as the shielding relationship between the presented objects and the mismatch of the focal position. Problems arise in principle. The problem regarding the mismatch of the shielding relationship is exactly the same in the immersive projection display such as CAVE (Non-Patent Document 1 below) or CABlN (Non-Patent Document 2 below) that has been frequently used in recent years.
[Visual and tactile fusion presentation] It has been reported that the presence of not only visual information but also tactile information improves the sense of reality and workability.

しかし、触覚情報と視覚情報とを同時に提示しようとした場合に、視覚提示装置と触覚提示装置とが、光学的及び幾何的に干渉してしまう。これは、物理空間と情報空間の融合の部分と全く同様の問題であり、インタフェースの提示部分が物理空間に存在するからに他ならない。この間題に関して、現在までにWYSIWYFディスプレ(下記非特許文献3)、PDDM(下記非特許文献4)、及びハプティックスクリーン(下記非特許文献5) などの研究が行われているが、多くの場合には、遮蔽関係の問題は無視したままの実装か、又はハーフミラーによる光学的な重畳による実装となってしまっている。
Carolina Cruz-Neira et al. "Surround-Screen Projection-Based Virtual Reality: The Design and Inplementation of the CAVE" COMPUTER GRAPHICS Proceedings, Annual Conference Series, pp. 135-142, 1993 広瀬通孝 他 "没入型多面ディスプレイ( CABlN) の開発" 日本バーチャルリアリティ学会第2回大会論文集,pp,46-53, 1996 Y. Yokokohji et al. "What You canSee is What You canFeel -Development of a virtual/Haptic Interface to Virtual Environment"In Proc.,VRAIS '96, pp. 46-53, 1996 野間春生他 "小型ディスプレイを用いたオブジェクト操作のための力覚インタフェース" 第11回ヒューマン・インタフェース・シンポジウム論文集,pp. 491-496, 1995 岩田洋夫 他 "ハプティックスクリーン" 日本バーチャルリアリティ学会第1回大会論文集,pp. 7-10, 1996
However, when trying to present tactile information and visual information at the same time, the visual presentation device and the tactile presentation device interfere optically and geometrically. This is exactly the same problem as the fusion part of the physical space and the information space, and is nothing but the interface presentation part exists in the physical space. Research on WYSIWYF display (Non-Patent Document 3 below), PDDM (Non-Patent Document 4 below), and haptic screen (Non-Patent Document 5 below) has been conducted to date. In this case, mounting is performed while ignoring the problem of the shielding relation, or mounting by optical superposition using a half mirror.
Carolina Cruz-Neira et al. "Surround-Screen Projection-Based Virtual Reality: The Design and Inplementation of the CAVE" COMPUTER GRAPHICS Proceedings, Annual Conference Series, pp. 135-142, 1993 Michitaka Hirose et al. "Development of Immersive Multi-Display (CABlN)" Proceedings of the 2nd Annual Conference of the Virtual Reality Society of Japan, pp, 46-53, 1996 Y. Yokokohji et al. "What You canSee is What You canFeel -Development of a virtual / Haptic Interface to Virtual Environment" In Proc., VRAIS '96, pp. 46-53, 1996 Haruma Noma et al. “Haptic Interface for Object Manipulation Using a Small Display” Proceedings of the 11th Human Interface Symposium, pp. 491-496, 1995 Hiroo Iwata et al. "Haptic Screen" Proceedings of the 1st Annual Conference of the Virtual Reality Society of Japan, pp. 7-10, 1996

〔現実感融合構成論〕ここで、従来のシステムの問題点の多くが、物理空間及び情報空間の両物体をインタラクションさせたいポイント以外で、物理空間と情報空間との合成を行っていることに起因していると推定する。つまり、一つのディスプレイで近距離から遠距離までの現実感融合をすべてカバーすることは現状の技術では極めて困難であり、用途により様々な距離、様々な大きさのデバイスを使い分けるのが当面の問題解決策ではないかと考える。 [Realistic Fusion Configuration Theory] Here, many of the problems of the conventional system are that the physical space and the information space are synthesized at a point other than the point where both the physical space and the information space are to interact. Presumed to be due. In other words, it is extremely difficult for the current technology to cover all the fusion of reality from a short distance to a long distance with a single display, and it is an immediate problem to use devices of various distances and sizes depending on the application. Think of it as a solution.

本願の発明者は、この問題意識に立って、手元で仮想物体を観察し操作することに適したディスプレイとして、オブジェクト指向型ディスプレイに関する提案を先に行った(特願平10−172722号)。本願では、さらにその考えを拡張し、「近くの物体は近くのディスプレイ、遠くの物体(景色)は遠くのディスプレイ」であたかも舞台における書き割りのように提示することによって、より広い範囲でシームレスな現実感融合を図ろうとするものである。   The inventor of the present application made a proposal regarding an object-oriented display as a display suitable for observing and manipulating a virtual object at hand, in view of this problem (Japanese Patent Application No. 10-172722). In this application, the idea is further expanded to show that “near objects are near displays and distant objects (scenery) are distant displays” as if they were written on the stage. It aims to fuse reality.

この手法は、イメージ・ベースト・レンダリング(Image Based Rendering )の分野での書き割り法による3次元仮想空間生成手法(尾崎信之 他 "仮想視点によるテレイグジスタンス( 第三報)−景色平面を用いた仮想空間の構成の方法"第35回計測自動制御学会学術講演会予稿集,pp. 209-210, 1996 、広瀬通孝他"二次元実写画像を用いた三次元仮想空間の生成" 計測自動制御学会 HumanInterface N & R, Vol 11, No. 2,pp.209-214, 1997)の現実世界における実装と考えることもできる。   This method is based on a 3D virtual space generation method based on the writing method in the field of Image Based Rendering (Nobuyuki Ozaki et al. "Tele-Gigence by Virtual Viewpoint (Part 3)-Landscape Plane) Virtual Space Configuration Method "Proceedings of the 35th Annual Conference of the Society of Instrument and Control Engineers, pp. 209-210, 1996, Michitaka Hirose et al." Generation of a three-dimensional virtual space using two-dimensional real images "Society of Instrument and Control Engineers Human Interface N & R, Vol 11, No. 2, pp.209-214, 1997).

しかし、広い範囲で適切に現実感融合を行うためには、提示範囲に応じて広範囲な空間にディスプレイを遍在させる、いわば同時遍在ディスプレイ(ubiquitous display)を構成する必要がある。しかし、従来のディスプレイでは、空間的、金銭的コストが多大なものとなってしまい実用的ではない。   However, in order to appropriately combine reality in a wide range, it is necessary to construct a so-called ubiquitous display, in which a display is ubiquitous in a wide space according to a presentation range. However, the conventional display is not practical because the spatial and monetary costs become enormous.

従来のディスプレイは、多数の観察者を想定した空間に対して一方的で無指向性の情報を提示し続けるブロードキャスト型の情報提示には有効である。しかし、インタラクティブな用途におけるパーソナルな情報提示装置として利用しようとした場合、つまり特定の観察者に観察されるという目的に利用しようとした場合に、従来のディスプレイは無指向性であるがために、観察者のいない方向にも情報が放出され、それが無駄なものとなってしまう。また、対象外の人の目にも情報が入ることとなり、個人情報のプライバシーを守りにくいという問題点もある。   The conventional display is effective for broadcast-type information presentation that continues to present unidirectional and omnidirectional information to a space that assumes a large number of observers. However, when trying to use it as a personal information presentation device for interactive use, that is, when trying to use it for the purpose of being observed by a specific observer, the conventional display is omnidirectional. Information is also emitted in the direction where there is no observer, which becomes useless. In addition, there is a problem that it is difficult to protect the privacy of personal information because information enters even in the eyes of non-target people.

つまり、インタラクティブな映像情報提示装置としては、人に映像を見せる"ディスプレイ(display )"というより、人から観察されるもの、いわば"オブザービ(observee)"と呼ぶべきデバイスが必要なのである。   In other words, an interactive video information presentation device requires a device that can be observed by a person, that is, a device that should be called an “observee”, rather than a “display” that displays a video to a person.

"オブザービ"としては、観察者の視認可能な範囲にのみ映像を提示するシステムを構築すればよく、例えば物体により遮蔽されている部分や、背面など視野に入らない部分では映像を提示する必要がない。   As an “observer”, it is only necessary to construct a system that presents an image only in a range that can be seen by an observer. For example, it is necessary to present an image in a portion that is shielded by an object or that does not enter the field of view, such as the back. Absent.

この、観られる情報提示デバイス"オブザービ"の機能を実現するためには、人間の視認範囲であるビューイング・ボリューム(viewing volume)と一致するようにプロジェクション・ボリューム(projectionvolume )を形成させることが可能な映像提示システム(装置)が有力であると考えられる。   In order to realize the function of the observable information presentation device “observation”, it is possible to form a projection volume so as to coincide with the viewing volume that is the human viewing range. Such a video presentation system (device) is considered to be promising.

以上の機能を果たすシステムとしては、観察者の位置を測定し、観察者に追従するようにレンズなどの光学系を用いて提示映像を観察者にのみ提示するシステム、及び、光を入射した方向にそのまま反射する性質を持った再帰性反射スクリーンに対して観察者と共役な視点から映像を投影するシステムを挙げることができる。   As a system that performs the above functions, a system that measures the position of the observer and presents the presented video only to the observer using an optical system such as a lens so as to follow the observer, and the direction in which the light is incident A system for projecting an image from a viewpoint conjugate with an observer on a retroreflective screen having the property of reflecting directly.

しかし、前者の観察者追従型のシステムは、提示装置にコストがかかり、同時遍在的な用途への利用は困難である。これに対して、後者の投影型の映像提示システムは、映像提示のための空間的、金銭的コストをプロジェクタ側に集約させることにより、極めて容易に軽量の提示面を大量に生成することが可能という特長を持つ。また、観察者にとって真に必要な情報を必要なだけ提示することにより、限られた通信インフラの帯域の有効利用にもつながるという特長もある。さらに、観察者以外は映像を見ることができないため、観察者のプライバシーを守ることが可能である。   However, the former observer-following system requires a cost for the presentation device, and is difficult to be used for simultaneous ubiquitous applications. On the other hand, the latter projection-type video presentation system can easily generate a large amount of lightweight presentation planes by consolidating the spatial and monetary costs for video presentation on the projector side. It has the feature. In addition, by presenting as much information as is necessary for the observer as much as necessary, there is also a feature that leads to effective use of the limited bandwidth of the communication infrastructure. Furthermore, since only the observer can see the video, it is possible to protect the privacy of the observer.

また、一人に対して1つ以上のディスプレイが必要な状況においては、空間側ではなく人間側に情報生成機能を付加した方がコストパフォーマンスの良いシステム構成ともいえる。   Further, in a situation where one or more displays are required for one person, it can be said that a system configuration with better cost performance is obtained by adding an information generation function to the human side rather than the space side.

また、前者の観察者追従型のシステムは、スクリーン位置の変化による焦点深度の問題、及び光量の問題などが発生してしまう。通常、人に映像を見せる"ディスプレイ"は、より広い範囲に情報を提示することを目的としているため、広視野化が研究のポイントの一つとなっている。   In the former observer-following system, the problem of the depth of focus due to the change in the screen position, the problem of the amount of light, and the like occur. A “display” that shows images to people is usually aimed at presenting information in a wider range, so widening the field of view is one of the points of research.

従来のスクリーンもその例外ではなく、ガラスビーズなどを用いて入射した光を拡散させることが目的のデバイスであると換言できる。つまり、映画館に代表される"ディスプレイ"のために用いるスクリーンは、距離が離れれば離れるほど光量が2乗に反比例して減少するという性質を本質的に持っているわけである。   The conventional screen is no exception, and it can be said that the target device is to diffuse the incident light using glass beads or the like. In other words, a screen used for a “display” typified by a movie theater essentially has the property that as the distance increases, the amount of light decreases in inverse proportion to the square.

よって、"オブザービ"を実現するためのスクリーンとして必要な機能は、入射した光を拡散させることではなく、観察者の方向に再帰的に反射することであると考えられる。   Therefore, it is considered that a function necessary as a screen for realizing the “observation” is not to diffuse incident light but to recursively reflect in the direction of the observer.

また、"オブザービ"は、各々の人に対して、全く独自の映像情報を提示することが可能となるため、物理的には1つのデバイスであっても、それを観察する各人にそれぞれ全く独立の情報を提示することも可能となり、空間をさらに有効に利用することができる。   In addition, “observation” makes it possible to present completely unique video information to each person, so even if it is physically one device, it is completely different for each person who observes it. Independent information can be presented, and the space can be used more effectively.

さて、"オブザービ"を実現するための画像表示方法に関して、本発明者は特願平10−172722号として先に提案したのであるが、さらに、次のような問題がある。   The inventor previously proposed an image display method for realizing “observation” as Japanese Patent Application No. 10-172722, but has the following problems.

すなわち、仮想空間において、視覚情報以外の感覚情報、特に触覚情報を観察者に提示する場合に、触覚提示装置を観察者の前方などに設置する必要がある。また、3次元位置センサのような人体状態計測センサが観察者の目と提示される映像との間に存在することもある。   That is, in the virtual space, when presenting sensory information other than visual information, particularly tactile information, to the observer, it is necessary to install a tactile sense presenting device in front of the observer. In addition, a human body state measurement sensor such as a three-dimensional position sensor may exist between the observer's eyes and the presented image.

もし、仮想空間において本来は見えないはずのこれらの物体が観察者から見えてしまった場合には、仮想環境の現実感を損なってしまうことになる。特に、提示された映像の手前に見えないはずの物体が見えた場合には、その物体によって視覚上の遮蔽が発生し、提示された映像に死角ができて著しく現実感を損なってしまう。   If these objects that are not supposed to be visible in the virtual space are seen by the observer, the reality of the virtual environment will be impaired. In particular, when an object that should not be seen is seen in front of the presented video, visual obstruction is generated by the object, and a blind spot is formed in the presented video, so that the reality is significantly impaired.

この問題の致命的な例が、仮想物体と実物体の奥行き関係が映像上逆転してしまった場合であり、その場合には物体が透けて見える透明視解釈が発生し、現実感を著しく損なってしまう。   A fatal example of this problem is when the depth relationship between a virtual object and a real object is reversed in the image, in which case a transparent interpretation that allows the object to show through occurs and the realism is significantly impaired. End up.

例えば、図5(A)に示すように、本来は仮想のボールBL1が実世界の人間の手HDの手前に見えるはずであるのに、図5(B)に示すように、ボールBL1と手HDの前後関係が逆転した場合には、遮蔽関係に矛盾が生じ、極めて不自然な見え方となる。   For example, as shown in FIG. 5 (A), the virtual ball BL1 should be visible in front of the real human hand HD, but as shown in FIG. 5 (B), the ball BL1 and the hand When the HD context is reversed, the shielding relationship becomes inconsistent and the image looks very unnatural.

したがって、観察者と提示される映像との間に存在する実物体のうち、本来は見えないものは見えないよう、また見えるべきものは見えるようにし、実物体と仮想物体との遮蔽関係に齟齬が生じないようにする必要がある。   Therefore, among the real objects that exist between the viewer and the presented image, the objects that are not originally visible cannot be seen, and the objects that should be visible are visible. It is necessary to prevent this from occurring.

本発明は、上述の問題に鑑みてなされたもので、実物体と仮想物体との間に正しい遮蔽関係を保つことができ、現実感の高い仮想空間を提示することのできる情報提示方法及び装置を提供することを目的とする。   The present invention has been made in view of the above-described problems. An information presentation method and apparatus capable of maintaining a correct shielding relationship between a real object and a virtual object and presenting a virtual space with a high sense of reality. The purpose is to provide.

発明に係る装置では、現実に存在する物体である背景物体11Bと観察者BSとの間に置かれた実物体JTの全部又は一部を、前記背景物体の画像を用いて光学的に隠すことによって仮想空間の情報を提示する装置であって、画像を投影するために観察者BSの眼の位置に対して光学的に共役な位置に配置されたプロジェクタ14Bと、前記背景物体11Bの画像を取得するための撮影手段12と、前記撮影手段12により取得された画像の位置及び大きさを、前記観察者から見たときの実際の前記背景物体の像と一致するように調整し、かつ、このように調整された画像を、前記実物体JTの隠すべき部分に配置された再帰性反射材に投影するように、前記プロジェクタ14Bに出力する処理装置13Bとを有してなる。また、前記撮影手段は、前記観察者の視点と同じ位置、又は、前記観察者の視点と光学的に共役な位置から、前記背景物体の画像を取得する構成となっている。 In the apparatus according to the present invention, all or a part of the real object JT placed between the background object 11B, which is an actually existing object, and the observer BS is optically hidden using the image of the background object. Thus, an apparatus for presenting information in a virtual space, which is a projector 14B disposed at a position optically conjugate with the position of the eye of the observer BS to project an image, and an image of the background object 11B Photographing means 12 for obtaining the image, and the position and size of the image obtained by the photographing means 12 are adjusted so as to coincide with the actual image of the background object as viewed from the observer, and The image processing apparatus 13B outputs the image adjusted in this way to the projector 14B so as to project the image onto the retroreflecting material disposed on the portion to be hidden of the real object JT. Further, the photographing unit is configured to acquire the image of the background object from the same position as the observer's viewpoint or a position optically conjugate with the observer's viewpoint.

本発明によると、実物体と仮想物体との間に正しい遮蔽関係を保つことができ、現実感の高い仮想空間を提示することができる。   According to the present invention, a correct occlusion relationship can be maintained between a real object and a virtual object, and a virtual space with high realism can be presented.

また、請求項1の発明によると、背景が実物体である場合においても物体の透明化を実現することができる。

Further, according to the first aspect of the present invention, the object can be made transparent even when the background is an actual object.

図2は本発明に係る情報提示装置1Aの構成を配置的に示す図、図3は情報提示装置1Aの構成を機能的に示す図、図4はスクリーン11Aに用いられる再帰性反射材RUによる再帰性反射機能を説明するための図である。   FIG. 2 is a diagram showing the configuration of the information presentation apparatus 1A according to the present invention, FIG. 3 is a diagram functionally showing the configuration of the information presentation apparatus 1A, and FIG. 4 is based on the retroreflective material RU used for the screen 11A. It is a figure for demonstrating a retroreflection function.

図2及び図3において、情報提示装置1Aは、スクリーン11A、処理装置13A、プロジェクタ14L,14R、ハーフミラー15A、触覚提示装置16、頭部位置計測装置17A、及び背景スクリーン19を備える。プロジェクタ14L,14Rは、それぞれ左眼用、右眼用であり、小開口径の単眼のものであって、互いに同一の構造である。したがって、プロジェクタ14L,14Rのいずれか又は両方を指して「プロジェクタ14A」と記載することがある。   2 and 3, the information presentation device 1A includes a screen 11A, a processing device 13A, projectors 14L and 14R, a half mirror 15A, a tactile sense presentation device 16, a head position measurement device 17A, and a background screen 19. The projectors 14L and 14R are for the left eye and the right eye, respectively, are monoculars with a small aperture diameter, and have the same structure. Therefore, the projector 14L or 14R may be referred to as “projector 14A” in some cases.

スクリーン11Aは、プロジェクタ14Aによって投影される画像(映像)HGを映し出し、そこに画像HGの内容である対象物(仮想物体)を観察者BSに対して視覚的に提示するためのものである。スクリーン11Aの形状は、任意の形状とすることが可能であるが、画像HGによって提示される対象物と同じ形状又はそれに近似した形状とすることが好ましい。しかし、個々の対象物の形状に合わせたスクリーン11Aを製作することは非効率的であるので、それにこだわることなく、例えば平面、曲面、閉曲面など、対象物に対応した任意の形状とすることができる。閉曲面として、例えば、球状、卵形状、多面体、又はドーナツ型などとすることができる。   The screen 11A projects an image (video) HG projected by the projector 14A, and visually presents an object (virtual object) that is the content of the image HG to the observer BS. The shape of the screen 11A can be an arbitrary shape, but is preferably the same shape as the object presented by the image HG or a shape close thereto. However, since it is inefficient to manufacture the screen 11A according to the shape of each target object, it is not particular about it, and for example, it is assumed to have an arbitrary shape corresponding to the target object such as a flat surface, a curved surface, or a closed surface. Can do. The closed curved surface can be, for example, a spherical shape, an egg shape, a polyhedron, or a donut shape.

スクリーン11Aの本体に用いる材料として、例えば発抱スチロールのように、軽量で任意の形状に容易に加工できる材料が好ましい。スクリーン11Aの表面には、ガラスビーズなどを用いた再帰性反射材が塗布され、再帰性反射機能を有したスクリーン(再帰性反射スクリーン)となっている。   The material used for the main body of the screen 11A is preferably a material that is lightweight and can be easily processed into an arbitrary shape, such as polystyrene foam. A retroreflective material using glass beads or the like is applied to the surface of the screen 11A to form a screen having a retroreflective function (retroreflective screen).

図4(B)に示すように、通常の材料MUの表面では、反射光LRは、入射光LCの入射角度に余り依存することなくあらゆる方向に射出する。しかし、再帰性反射材RUを用いて再帰性反射スクリーンとした場合には、図4(A)に示すように、反射光LRは、そのほとんどが入射光LCの入射した方向に射出する。したがって、スクリーン11Aの表面に投影された映像は、観察者BSの視線方向に高い輝度を有する。つまり、観察者BSは、スクリーン11A上に投影された映像を、極めて高い輝度で観察することができる。   As shown in FIG. 4B, on the surface of the normal material MU, the reflected light LR is emitted in all directions without much depending on the incident angle of the incident light LC. However, when a retroreflective screen is formed using the retroreflecting material RU, most of the reflected light LR is emitted in the direction in which the incident light LC is incident, as shown in FIG. Therefore, the image projected on the surface of the screen 11 </ b> A has high luminance in the viewing direction of the observer BS. That is, the observer BS can observe the image projected on the screen 11A with extremely high luminance.

このように、再帰性反射材RUは、光源の方向に強い指向性を持って反射する材料であり、コーナーキューブアレイ又はガラスビーズなどを用いて実現される。   Thus, the retroreflecting material RU is a material that reflects with a strong directivity in the direction of the light source, and is realized using a corner cube array or glass beads.

処理装置13Aは、仮想環境映像生成部13aにおいて、左右のプロジェクタ14L,14Rに対して画像情報DL,DRを生成して送出する。例えばバレーボール大の卵形状のスクリーン11Aに対しては、全体として卵形状を呈した対象物の画像が生成される。例えば、猫、兎、リスなどの小動物の画像である。生成される画像は、三次元情報を持った三次元画像である。したがって、任意の視点からの二次元画像である画像情報DL,DRをそれぞれ出力することができる。   The processing device 13A generates and sends the image information DL and DR to the left and right projectors 14L and 14R in the virtual environment video generation unit 13a. For example, for a volleyball-sized egg-shaped screen 11A, an image of an object having an egg shape as a whole is generated. For example, it is an image of a small animal such as a cat, a frog or a squirrel. The generated image is a three-dimensional image having three-dimensional information. Therefore, it is possible to output image information DL and DR that are two-dimensional images from an arbitrary viewpoint.

つまり、処理装置13Aは、スクリーン11Aに対する観察者BSの視点に応じて、スクリーン11Aに適切な画像が表示されるように、修正した画像情報DL,DRを生成する。つまり、スクリーン11A及び観察者BSの位置の変化に追従して、プロジェクタ14L,14Rから投影される画像の内容、形状、及び位置などを変化させる。例えば、スクリーン11Aに、ある対象物を正面から見た画像が映っている場合に、観察者BSがスクリーン11Aを鉛直線を軸としてその場で90度回転させたとすると、スクリーン11Aにはその対象物を側面から見た画像が映るように、画像の内容を変化させる。   That is, the processing device 13A generates the corrected image information DL and DR so that an appropriate image is displayed on the screen 11A according to the viewpoint of the observer BS with respect to the screen 11A. That is, the content, shape, position, and the like of the images projected from the projectors 14L and 14R are changed following the changes in the positions of the screen 11A and the observer BS. For example, if an image of a certain object viewed from the front is shown on the screen 11A, and the observer BS rotates the screen 11A 90 degrees around the vertical line, the object on the screen 11A The content of the image is changed so that the image of the object seen from the side is reflected.

なお、スクリーン11Aに投影された画像を観察者BSが左右の眼で立体視できるよう、各プロジェクタ14L,14Rに出力される画像情報DL,DRは互いに視差を有している。   Note that the image information DL and DR output to the projectors 14L and 14R have parallax so that the image projected on the screen 11A can be stereoscopically viewed by the observer BS with the left and right eyes.

処理装置13Aは、反力演算部13bにおいて、触覚提示装置16の操作部161に与える反力を演算して制御装置160に指令を与える。   The processing device 13A calculates a reaction force applied to the operation unit 161 of the tactile sense presentation device 16 and gives a command to the control device 160 in the reaction force calculation unit 13b.

処理装置13Aとして、マイクロコンピュータ、パーソナルコンピュータ、又はワークステーションなどが用いられる。処理装置13Aにおいては、上述の画像情報DL,DRを生成するために、コンピュータグラフィックスのためのデータ及びプログラム、レンダリングソフトウエア、その他の制御プログラムなどが搭載されている。また、物体の形状モデルなどのデータベースを格納した仮想空間情報記憶装置DB1を参照する。仮想環境映像生成部13a及び反力演算部13bは、それぞれ、それらのプログラムの実行に基づく機能の1つとして実現される。   A microcomputer, personal computer, workstation, or the like is used as the processing device 13A. In the processing device 13A, in order to generate the above-described image information DL and DR, data and programs for computer graphics, rendering software, and other control programs are mounted. Further, the virtual space information storage device DB1 that stores a database such as an object shape model is referred to. Each of the virtual environment video generation unit 13a and the reaction force calculation unit 13b is realized as one of functions based on the execution of these programs.

プロジェクタ14Aは、焦点深度の深い画像を投影するために、開口径ができるだけ小さくなるように絞れること、例えば絞りの直径が5cm以下、又は2cm以下、さらには1mm以下であることが好ましい。開口径を絞り込むことによってピンホール光学系が形成され、焦点深度が深くなる。   In order for the projector 14A to project an image having a deep focal depth, it is preferable that the aperture diameter be as small as possible, for example, the diameter of the aperture is 5 cm or less, 2 cm or less, and further 1 mm or less. By narrowing down the aperture diameter, a pinhole optical system is formed and the depth of focus is increased.

プロジェクタ14Aは、観察者BSの左右の眼の位置に対して光学的に共役な位置に設けられる。その場合に、ハーフミラー15Aとともに観察者BSの頭部に一体的に装着することの可能な頭部搭載型とすることが好ましい。   The projector 14A is provided at a position optically conjugate with the positions of the left and right eyes of the observer BS. In that case, it is preferable to adopt a head-mounted type that can be integrally attached to the head of the observer BS together with the half mirror 15A.

なお、プロジェクタ14Aを頭部搭載型とするためには、例えば、観察者BSが頭部に被ることの可能なキャップ又はヘルメットに、プロジェクタ14A、ハーフミラー15A、及び頭部位置計測装置17Aを取り付けておけばよい。又は、ヘッドマウンテッドディスプレイのように、バンドなどによって頭部又は顔面に装着するように構成してもよい。   In order to make the projector 14A a head-mounted type, for example, the projector 14A, the half mirror 15A, and the head position measuring device 17A are attached to a cap or a helmet that the observer BS can wear on the head. Just keep it. Or you may comprise so that it may mount | wear on a head or a face with a band etc. like a head mounted display.

ハーフミラー15Aは、プロジェクタ14Aから投射される光を反射するが、スクリーン11Aに表示された映像の光を透過する。プロジェクタ14Aは、ハーフミラー15Aによって、観察者BSの左右の眼の位置に対して光学的に共役な位置に設けられる。これによって、観察者BSによるスクリーン11A上に提示される物体の観察が可能である。   The half mirror 15A reflects the light projected from the projector 14A, but transmits the light of the image displayed on the screen 11A. The projector 14A is provided at a position optically conjugate with the positions of the left and right eyes of the observer BS by the half mirror 15A. Thereby, the observer BS can observe the object presented on the screen 11A.

触覚提示装置16は、観察者BSの指BSFに対して触覚を提示するための装置である。つまり、触覚提示装置16には、指BSFを挿入して操作を行う操作部161が設けられ、アーム162〜164及びアクチュエータ165,166によって可動に支持されている。操作部161には、スクリーン11Aが取り付けられており、スクリーン11Aは操作部161とともに移動する。つまり、スクリーン11Aの位置及び姿勢は、操作部161の位置及び姿勢によって決まる。   The tactile sense presentation device 16 is a device for presenting a tactile sense to the finger BSF of the observer BS. That is, the tactile sense presentation device 16 is provided with an operation unit 161 that performs an operation by inserting the finger BSF, and is movably supported by the arms 162 to 164 and the actuators 165 and 166. A screen 11A is attached to the operation unit 161, and the screen 11A moves together with the operation unit 161. That is, the position and orientation of the screen 11 </ b> A are determined by the position and orientation of the operation unit 161.

アクチュエータ165,166は、操作部161を移動駆動し又は操作部161に反力を発生させるためのものである。各アクチュエータ165,166の位置に、アーム162〜164の角度を検知する角度センサSE1,SE2が設けられている。角度センサSE1,SE2の出力信号に基づいて、3次元空間においてスクリーン11Aの配置されている位置及び姿勢がリアルタイムで計測される。なお、本明細書においては、位置及び姿勢の両方を合わせて「位置」と記載することがある。制御部160は、角度センサSE1,SE2の出力信号及び処理装置13Aからの指令に基づいて、操作部161の全体を制御する。   The actuators 165 and 166 are used to move and drive the operation unit 161 or to generate a reaction force on the operation unit 161. Angle sensors SE1 and SE2 that detect the angles of the arms 162 to 164 are provided at the positions of the actuators 165 and 166, respectively. Based on the output signals of the angle sensors SE1, SE2, the position and orientation of the screen 11A in the three-dimensional space are measured in real time. In this specification, both the position and the posture may be collectively referred to as “position”. The control unit 160 controls the entire operation unit 161 based on the output signals of the angle sensors SE1 and SE2 and the command from the processing device 13A.

触覚提示装置16の操作部161は、通常、スクリーン11Aの前方にあり、したがって観察者BSから見えるのであるが、仮想空間の提示の際には本来は見えてはならない物体である。そのため、操作部161をプロジェクタ14Aによる投影から光学的に隠すために、操作部161に再帰性反射材18Aが塗布されている。また、触覚提示装置16の他の部分についても、観察者BSから見える可能性のある部分には、再帰性反射材18Aが塗布されている。   The operation unit 161 of the tactile sense presentation device 16 is usually an object in front of the screen 11A, and thus can be seen by the observer BS, but is an object that should not be seen when the virtual space is presented. Therefore, a retroreflecting material 18A is applied to the operation unit 161 in order to optically hide the operation unit 161 from projection by the projector 14A. In addition, as for other parts of the tactile sense presentation device 16, a retroreflecting material 18 </ b> A is applied to a part that may be seen from the observer BS.

なお、観察者BSに与える触覚として、例えば重量感覚を提示するには、対象物の仮想的な重量に相当する力でスクリーン11Aを下方向に引っ張ればよい。重量感覚以外の触覚の例として、何かを発射したときの反動の感覚、水その他の液体中のように粘性の高い媒体中で対象物を動かしたかのような粘性感覚、風により対象物が揺らがされる感覚、又は、仮想ボールを仮想の壁に投げつけたときに跳ね返ってくる力などがある。触覚提示装置16によって、観察者BSは、スクリーン11Aに投影された画像中の対象物の力覚を体感することが可能である。   For example, in order to present a sense of weight as the tactile sensation given to the observer BS, the screen 11A may be pulled downward with a force corresponding to the virtual weight of the object. Examples of tactile sensations other than weight sensation include a sense of recoil when something is fired, a viscosity sensation as if the object was moved in a viscous medium such as water or other liquids, and the object was shaken by the wind Sensation, or the force of bouncing back when a virtual ball is thrown on a virtual wall. The tactile sense presentation device 16 allows the observer BS to experience the sense of force of the object in the image projected on the screen 11A.

頭部位置計測装置17Aは、観察者BSの頭部に取り付けられ、頭部の位置つまり眼の位置及び視線の方向を計測する。頭部位置計測装置17Aによる計測信号は処理装置13Aにフィードバックされる。処理装置13Aにおいて、スクリーン11Aの位置と観察者の位置とから、これらの相対位置を演算し、対象物に対する観察者BSの視点を求める。   The head position measurement device 17A is attached to the head of the observer BS, and measures the position of the head, that is, the position of the eyes and the direction of the line of sight. A measurement signal from the head position measurement device 17A is fed back to the processing device 13A. In the processing device 13A, the relative position of these is calculated from the position of the screen 11A and the position of the observer, and the viewpoint of the observer BS with respect to the object is obtained.

背景スクリーン19は、再帰性反射スクリーンであり、スクリーン11Aの背後に設けられる。背景スクリーン19には、スクリーン11Aに投影する対象物についての背景を投影する。背景スクリーン19は、再帰性反射材が塗布された壁面又は床面それ自体であってもよく、又は再帰性反射機能を有するシートであってもよい。   The background screen 19 is a retroreflective screen and is provided behind the screen 11A. On the background screen 19, the background of the object to be projected on the screen 11A is projected. The background screen 19 may be a wall surface or a floor surface to which a retroreflective material is applied, or may be a sheet having a retroreflective function.

次に、情報提示装置1Aの動作について説明する。なお、ここでは、触覚提示装置16及び観察者BSの初期位置は、仮想空間との位置合わせが済んでいるものとする。   Next, the operation of the information presentation device 1A will be described. Here, it is assumed that the initial positions of the tactile sense presentation device 16 and the observer BS have already been aligned with the virtual space.

頭部位置計測装置17Aによって得られた視点位置及び視点情報と、仮想空間の情報とに基づいて、処理装置13Aによって観察者BSの視点及び視線での仮想空間の映像が生成される。生成された映像は、プロジェクタ14L,14Rによってスクリーン11Aに投影される。スクリーン11Aに投影された映像は、観察者BSによって観察される。観察者BSは、各プロジェクタ14L,14Rによって投影された映像を、それぞれ左右の眼で分離して観察することができる。観察者BSは、肉眼で、投影による仮想物体とそこに存在する実物体とを同時に見ることができる。このようにして、仮想空間が実空間とともに観察者BSに提示される。   Based on the viewpoint position and viewpoint information obtained by the head position measurement device 17A and the virtual space information, the processing device 13A generates an image of the virtual space at the viewpoint and line of sight of the observer BS. The generated video is projected on the screen 11A by the projectors 14L and 14R. The image projected on the screen 11A is observed by the observer BS. The observer BS can observe the images projected by the projectors 14L and 14R separately with the left and right eyes. The observer BS can simultaneously see the virtual object by projection and the real object existing there with the naked eye. In this way, the virtual space is presented to the observer BS along with the real space.

一方、触覚提示装置16の操作部161に接している指BSFの先端部の位置が、角度センサSE1,SE2からの出力信号に基づいて演算される。観察者BSの指BSFが仮想物体(映像)の内部に入らないよう、各アクチュエータ165,166を駆動制御して反力を発生させる。これによって、観察者BSには、あたかもそこに実物体があるかのような触感が提示される。   On the other hand, the position of the tip of the finger BSF that is in contact with the operation unit 161 of the tactile sense presentation device 16 is calculated based on the output signals from the angle sensors SE1 and SE2. The actuators 165 and 166 are driven and controlled to generate a reaction force so that the finger BSF of the observer BS does not enter the inside of the virtual object (video). As a result, the observer BS is presented with a tactile sensation as if there was a real object.

そして、触覚提示装置16にも再帰性反射材18Aが塗布されているため、プロジェクタ14Aから投影される映像は触覚提示装置16でも反射し、観察者BSの眼に入る。触覚提示装置16により反射した映像は、スクリーン11Aにより反射した映像と同じように観察者BSの眼に映るので、プロジェクタ14Aから投影される映像のみが観察者BSに提示される。再帰性反射材18Aの性質によって、観察者BSの視線方向の光線以外は眼に戻ってこないため、観察者BSから触覚提示装置16は見えない。すなわち、触覚提示装置16は、観察者BSに対しては視覚的に透明である。   Since the retroreflecting material 18A is also applied to the tactile presentation device 16, the image projected from the projector 14A is also reflected by the tactile presentation device 16 and enters the eyes of the observer BS. Since the image reflected by the tactile sense presentation device 16 is reflected in the eyes of the observer BS in the same manner as the image reflected by the screen 11A, only the image projected from the projector 14A is presented to the observer BS. Due to the nature of the retroreflecting material 18A, the rays other than the light rays in the line of sight of the observer BS do not return to the eye, so the tactile sense presentation device 16 cannot be seen from the observer BS. That is, the tactile sense presentation device 16 is visually transparent to the observer BS.

もし、仮に、触覚提示装置16が観察者BSから見えた場合には、触覚提示装置16によって視覚上の遮蔽が発生し、プロジェクタ14Aによって提示された映像に死角ができて著しく現実感を損なってしまう。   If the tactile presentation device 16 is visible from the observer BS, the tactile presentation device 16 causes visual shielding, and a blind spot is formed in the image presented by the projector 14A. End up.

例えば、図6(A)に示すように、触覚提示装置16Zの表面には再帰性反射材18Zが塗布されているので、触覚提示装置16Zは視覚的に透明化され、観察者BSからは見えない。仮想物体VT1は、手HDのみによって遮蔽される。もし、仮に、再帰性反射材が塗布されていない触覚提示装置16Xを用いた場合には、図6(B)に示すように、仮想物体VT1は、触覚提示装置16Xによって遮蔽されてしまい、現実感が著しく損なわれる。   For example, as shown in FIG. 6A, since the retroreflecting material 18Z is applied on the surface of the tactile presentation device 16Z, the tactile presentation device 16Z is visually transparent and visible to the observer BS. Absent. The virtual object VT1 is shielded only by the hand HD. If the tactile presentation device 16X to which the retroreflective material is not applied is used, the virtual object VT1 is shielded by the tactile presentation device 16X as shown in FIG. The feeling is significantly impaired.

特に、本実施形態のように、仮想空間において視覚以外の感覚として触覚を提示する場合では、触覚提示装置のようなデバイスをユーザの前面に設置する必要がある。従来のCAVE及びCABINなどのように、背面投影型のスクリーンを使った裸眼の又はステレオ視用のゴーグルを用いた仮想空間提示方法では、仮想環境の内部にデバイスが見え、仮想環境の現実感を著しく損なう。また、HMDなどを使用した仮想空間提示方法では、デバイスは見えないが、自分自身の手はHMDにCGとして描かれる場合が多く、これも現実感に欠ける。   In particular, when presenting a tactile sensation as a sense other than vision in a virtual space as in the present embodiment, a device such as a tactile sensation presentation apparatus needs to be installed in front of the user. In the virtual space presentation method using the naked eye or stereo vision goggles using a rear projection type screen, such as conventional CAVE and CABIN, the device can be seen inside the virtual environment, and the virtual environment can be sensed. Significantly damaged. Further, in the virtual space presentation method using HMD or the like, the device cannot be seen, but the hand of oneself is often drawn as CG on the HMD, which is also not realistic.

本実施形態のように、触覚提示装置16に再帰性反射材18Aを塗布し、観察者BSの眼の位置と共役な位置から映像を投影することによって、触覚提示装置16もスクリーンの一部として機能し、視覚的にはあたかも仮想空間から触覚提示装置16を消去したかのように見ることができる。しかも、触覚提示装置16による影の部分は観察者BSの視野の上でも死角となるので、影が生じない。   As in this embodiment, by applying the retroreflecting material 18A to the tactile presentation device 16 and projecting an image from a position conjugate with the eye position of the observer BS, the tactile presentation device 16 is also part of the screen. It functions and can be viewed visually as if the tactile presentation device 16 was erased from the virtual space. In addition, since the shadow portion by the tactile sense presentation device 16 becomes a blind spot even in the field of view of the observer BS, no shadow is generated.

そして、観察者BSの手などは、再帰性反射機能を有さないので、スクリーン11Aに投影された映像と比較して輝度が著しく低い。したがって、自分の手などに映り込みが生じることがなく、手は手として見ることができる。   And since the observer's BS hand etc. do not have a retroreflection function, the brightness | luminance is remarkably low compared with the image | video projected on the screen 11A. Therefore, no reflection occurs in one's hand or the like, and the hand can be viewed as a hand.

このように、実物体に対して選択的に再帰性反射材を使い分けることにより、不必要な実物体をカモフラージュして視覚的に「透明」な存在にすることができる。つまり、「光学迷彩(optical camouflage) 」が実現される。これによって、視覚と触覚との融合が図られ、実物体と仮想物体との間に正しい遮蔽関係が保たれ、現実感の高い仮想空間を提示することができる。   As described above, by selectively using the retroreflecting material selectively with respect to the real object, it is possible to camouflage the unnecessary real object to make it visually “transparent”. That is, an “optical camouflage” is realized. As a result, visual and tactile sensations are integrated, a correct shielding relationship is maintained between the real object and the virtual object, and a virtual space with a high sense of reality can be presented.

このように、本実施形態の情報提示装置1Aは、観られる情報提示デバイス"オブザービ"に必要とされる「見える物だけ見せる」という条件を満足している。   As described above, the information presentation apparatus 1A according to the present embodiment satisfies the condition of “show only visible objects” required for the information presentation device “observer” to be viewed.

なお、上にも述べたように、再帰性反射材は、触覚提示装置16などの実物体に直接に塗布してもよいし、又は紙や布などに塗布して再帰性反射機能を有した遮蔽スクリーンを製作し、これで隠したい実物体を覆ってもよい。また、触覚提示装置16だけでなく、その他の感覚提示装置、その他のデバイス、配線、又は家具など、あらゆる実物体を仮想空間から隠すことができる。   As described above, the retroreflective material may be applied directly to a real object such as the tactile sense presentation device 16 or may be applied to paper or cloth to have a retroreflective function. You may make a shielding screen and cover the real object you want to hide. Further, not only the tactile sense presentation device 16 but also any real object such as other sensory presentation devices, other devices, wiring, or furniture can be hidden from the virtual space.

本実施形態の情報提示装置1Aによる他の利点は次のとおりである。
(1)スクリーン11Aを再帰性反射スクリーンとしたことにより、屋内光の下で充分に観察可能な程度の高い輝度が得られる。また、再帰性反射材の塗布が可能な全ての物体をスクリーンとして利用できるので、非常に軽量で且つ自由な形状のディスプレイを実現することができる。
(2)観察者BSの眼と光学的に共役な位置から映像を投影するので、スクリーン11Aの形状に起困する像の歪みが生じない。
(3)プロジェクタ14Aの画像投影部の開口径を光量の許す限り絞り込むことにより、焦点深度が大きくなり、任意形状及び任意位置のスクリーン11Aに対し、広い範囲でピントずれを起こすことなく結像させることが可能である。
(4)スクリーン輝度の距離依存性が低減する。
(5)観察者BSにより観察される両眼像が空間的に分離されるので、裸眼立体視が可能となる。立体視を行うことにより、スクリーン11A、背景スクリーン19、及び触覚提示装置16の表面の汚れ、又はスクリーン間の継ぎ目などが目立たなくなる。
(6)プロジェクタ14Aをハーフミラー15Aなどの光学部材とともに一体化し、観察者BSの頭部に搭載可能なように構成することにより、観察者BSは、頭部を動かすことによる見回し動作、又は部屋内の自由な移動などが可能となる。
(7)構成が比較的単純であるので、低コストで実現可能である。
Other advantages of the information presentation device 1A according to the present embodiment are as follows.
(1) By using the retroreflective screen as the screen 11A, it is possible to obtain a brightness that is sufficiently observable under indoor light. Further, since all objects that can be coated with a retroreflecting material can be used as a screen, it is possible to realize a display that is very lightweight and has a free shape.
(2) Since the image is projected from a position optically conjugate with the eyes of the observer BS, the image distortion that causes trouble in the shape of the screen 11A does not occur.
(3) By narrowing the aperture diameter of the image projection unit of the projector 14A as much as the amount of light permits, the depth of focus increases, and an image is formed on the screen 11A having an arbitrary shape and position without causing a focus shift in a wide range. It is possible.
(4) Distance dependency of screen luminance is reduced.
(5) Since the binocular images observed by the observer BS are spatially separated, autostereoscopic viewing is possible. By performing the stereoscopic viewing, dirt on the surfaces of the screen 11A, the background screen 19, and the tactile sense presentation device 16, or a joint between the screens becomes inconspicuous.
(6) The projector 14A is integrated with an optical member such as the half mirror 15A so that the projector BS can be mounted on the head of the observer BS. It is possible to move freely within.
(7) Since the configuration is relatively simple, it can be realized at a low cost.

上述の実施形態の情報提示装置1Aにおいては、スクリーン11Aを配置した例について説明したが、このスクリーン11Aを省略してもよい。その場合に、背景スクリーン19に左眼用及び右眼用の視差のある映像を投影し、投影された左右の映像によって仮想物体の表面がスクリーン11Aの位置(距離)にあるように表示する。そして、その仮想物体の表面形状に合わせて、触覚提示装置16により反力を提示するように構成する。触覚提示装置16が背景スクリーン19の手前に配置されているが、スクリーン11Aがない場合でも、触覚提示装置16に再帰性反射材を塗布しておくことによって、観察者BSから触覚提示装置16が見えることはない。また、スクリーン11Aを省略するのではなく、背景スクリーン19を省略することも可能である。   In the information presentation apparatus 1A of the above-described embodiment, the example in which the screen 11A is arranged has been described, but the screen 11A may be omitted. In that case, images with parallax for the left eye and right eye are projected on the background screen 19, and the surface of the virtual object is displayed at the position (distance) of the screen 11A by the projected left and right images. And it is comprised so that reaction force may be shown by the tactile sense presentation apparatus 16 according to the surface shape of the virtual object. Although the tactile presentation device 16 is disposed in front of the background screen 19, even when the screen 11 </ b> A is not provided, the tactile presentation device 16 is applied from the observer BS by applying a retroreflecting material to the tactile presentation device 16. Never see. Further, the background screen 19 can be omitted instead of omitting the screen 11A.

ところで、上に述べた実施形態においては、透明化を実現する物体の背景は、投影された画像である。   By the way, in the embodiment described above, the background of the object that realizes transparency is a projected image.

つまり、図1に示す情報提示装置1において、実物体JTの背景は、プロジェクタ14からスクリーン11に投影された画像である。スクリーン11に投影された画像と矛盾しない画像又は一致する画像を実物体JTにも投影することによって、スクリーン11に投影された画像の中に実物体JTが埋没して透明化されている。   That is, in the information presentation apparatus 1 shown in FIG. 1, the background of the real object JT is an image projected from the projector 14 onto the screen 11. By projecting an image that does not contradict or matches the image projected on the screen 11 to the actual object JT, the actual object JT is buried in the image projected on the screen 11 to be transparent.

図2に示す情報提示装置1Aにおいても、実物体である触覚提示装置16の操作部161の背景は、スクリーン11Aに投影された画像である。また、触覚提示装置16のアーム162〜164及び制御部160などの一部分について見れば、その背景は、背景スクリーン19に投影された画像である。したがって、スクリーン11Aに投影された画像と一致する画像を操作部161にも投影し、また背景スクリーン19に投影された画像と一致する画像をアーム162〜164及び制御部160などの一部分にも投影することによって、それらが背景の画像の中に埋没して透明化されている。   Also in the information presentation apparatus 1A shown in FIG. 2, the background of the operation unit 161 of the tactile presentation apparatus 16 that is a real object is an image projected on the screen 11A. Further, when viewing a part of the arms 162 to 164 and the control unit 160 of the tactile sense presentation device 16, the background is an image projected on the background screen 19. Therefore, an image that matches the image projected on the screen 11A is also projected on the operation unit 161, and an image that matches the image projected on the background screen 19 is also projected on a part of the arms 162 to 164 and the control unit 160. By doing so, they are buried in the background image and made transparent.

しかし、次に説明する実施形態において、背景は、投影された画像ではなく、実物体である。つまり、背景が実物体である場合においても、次の実施形態のように構成することによって、物体の透明化を実現することができる。   However, in the embodiment described below, the background is not a projected image but a real object. That is, even when the background is an actual object, the object can be made transparent by configuring as in the following embodiment.

図7は本発明に係る他の実施形態の情報提示装置1Bの構成を示す図、図8は情報提示装置1Bにおける処理又は動作の流れを示すフローチャートである。   FIG. 7 is a diagram showing a configuration of an information presentation device 1B according to another embodiment of the present invention, and FIG. 8 is a flowchart showing a flow of processing or operation in the information presentation device 1B.

図7において、背景物体11Bは、実物体JTの背景として配置されている。背景物体11Bは、この実施形態においては煉瓦で造られた壁であるが、煉瓦以外の壁、窓、部屋、家屋、ビルディング、庭園、他の建築物、書籍、本棚、絵画、創作物、人物、動物、又は風景など、現実に存在する種々の物体を用いることができる。   In FIG. 7, the background object 11B is arranged as the background of the real object JT. In this embodiment, the background object 11B is a wall made of brick, but a wall other than a brick, window, room, house, building, garden, other building, book, bookshelf, painting, creation, person Various objects that actually exist, such as animals, landscapes, etc., can be used.

それらの物体を背景物体11Bとして用いる際に、カメラ12を用いて背景物体11Bを撮影し、背景物体11Bの画像を予め取得しておく。又は、仮想空間の提示と同時に背景物体11Bを撮影する。   When these objects are used as the background object 11B, the background object 11B is photographed using the camera 12, and an image of the background object 11B is acquired in advance. Alternatively, the background object 11B is photographed simultaneously with the presentation of the virtual space.

撮影によって得られた背景物体11Bの映像は、実物体JTを遮蔽するための再帰性反射材18Bに投影される。再帰性反射材18Bに投影される画像は、観察者BSから見て、そこに見えるはずの背景物体11Bの像と一致するように、処理装置13Bによって位置及び大きさの調整がなされる。したがって、観察者BSは、実物体JTに代えて、再帰性反射材18Bに投影された背景物体11Bの画像を見ることとなる。これによって実物体JTが透明化される。   The image of the background object 11B obtained by shooting is projected on the retroreflecting material 18B for shielding the real object JT. The position and size of the image projected on the retroreflecting material 18B are adjusted by the processing device 13B so as to match the image of the background object 11B that should be seen from the observer BS. Therefore, the observer BS sees the image of the background object 11B projected on the retroreflecting material 18B instead of the real object JT. As a result, the real object JT is made transparent.

カメラ12による背景物体11Bの撮影に当たっては、観察者BSの視点と同じ位置、又は観察者BSの視点と光学的に共役な位置から撮影を行う。そうすることによって、撮影により得られる画像に何らの前処理を施すことなく、実物の背景物体11Bとその映像とが一致するように重畳させることが可能である。   When the background object 11B is photographed by the camera 12, photographing is performed from the same position as the viewpoint of the observer BS or a position optically conjugate with the viewpoint of the observer BS. By doing so, it is possible to superimpose the actual background object 11B and its image so as to coincide with each other without performing any pre-processing on the image obtained by photographing.

しかし、そのような位置からの撮影が困難か又は不可能な場合がある。また、観察者BSが移動してその視点が動く場合がある。そのような場合には、撮影によって得られた画像に対し、公知のイメージ・ベースト・レンダリング的な手法を用いて修正又は変形を加える。例えば、背景物体11Bの3次元計測を行っておき、観察者BSの視点との相対位置関係に応じて画像を修正し又は変形する。イメージ・ベースト・レンダリングについては、上に述べた他、"二次元実写画像を用いた三次元仮想空間生成"(廣瀬,宮田,谷川著、信学技報,MVE96−18(1996))に記載された手法などが参照できる。   However, photographing from such a position may be difficult or impossible. In addition, the observer BS may move and its viewpoint may move. In such a case, an image obtained by photographing is corrected or deformed using a known image-based rendering method. For example, three-dimensional measurement of the background object 11B is performed, and the image is corrected or deformed according to the relative positional relationship with the viewpoint of the observer BS. Regarding image-based rendering, in addition to the above, it is described in "Generation of three-dimensional virtual space using two-dimensional live-action images" (Hirose, Miyata, Tanikawa, Shingaku Giho, MVE96-18 (1996)). Can be referred to.

図8のフローチャートにおいて、背景物体を撮影することによって背景画像を取り込む(#11)。カメラ12の撮影位置と観察者BSの視点とが光学的に共役である場合には(#12でイエス)、必要に応じて画像の拡大又は並進処理などを行い(#13)、処理された画像をプロジェクタ14Bから投影する(#14)。   In the flowchart of FIG. 8, a background image is captured by photographing a background object (# 11). If the shooting position of the camera 12 and the viewpoint of the observer BS are optically conjugate (Yes in # 12), the image is enlarged or translated as necessary (# 13) and processed. The image is projected from the projector 14B (# 14).

カメラ12の撮影位置と観察者BSの視点とが光学的に共役でない場合には(#12でノー)、カメラ12の撮影位置、観察者BSの視点位置、背景物体11Bの位置、及び背景物体11Bの形状のそれぞれのデータを取得する(#15)。それらのデータに基づいて、撮影した画像に対し、アフィン(affine) 変換などのイメージ・ベースト・レンダリング処理を行い、観察者BSの視点からの画像(背景映像)に変換し(#16)、変換した画像をプロジェクタ14Bから投影する(#14)。   When the shooting position of the camera 12 and the viewpoint of the observer BS are not optically conjugate (No in # 12), the shooting position of the camera 12, the viewpoint position of the observer BS, the position of the background object 11B, and the background object Each data of the shape of 11B is acquired (# 15). Based on these data, image-based rendering processing such as affine conversion is performed on the captured image to convert it into an image (background video) from the viewpoint of the observer BS (# 16) and conversion The projected image is projected from the projector 14B (# 14).

図9は情報提示装置1Bを用いて情報提示を行った例を示す図である。   FIG. 9 is a diagram illustrating an example in which information is presented using the information presentation device 1B.

図9において、背景物体として本棚11Baが用いられている。本棚11Baには、通常の用い方にしたがって多数の書籍が収納されており、その前方に、2冊の書籍BK1,BK2が正面を向いて置かれている。観察者BSは、本棚11Baの正面の手前(図9の紙面に垂直方向の手前側)におり、手HDには大きなルーペ風の物体JTaを持っている。   In FIG. 9, a bookshelf 11Ba is used as a background object. A large number of books are stored in the bookshelf 11Ba according to normal usage, and two books BK1 and BK2 are placed in front of the bookshelf 11Ba. The observer BS is in front of the front of the bookshelf 11Ba (front side in the direction perpendicular to the paper surface of FIG. 9), and the hand HD has a large loupe-like object JTa.

物体JTaは、その全体が不透明であり、物体JTaによって2冊の書籍BK1,BK2のそれぞれの一部分が隠れている。物体JTaには、そのレンズに対応する円形の部分に再帰性反射材18Baが塗布されている。本棚11Baは、カメラ12を用いてその画像が撮影されており、位置合わせなどの処理が行われた画像VF1が、物体JTaの再帰性反射材18Baに投影されている。投影された画像VF1は、再帰性反射材18Baの部分が透明であれば見えるはずであった書籍BK1,BK2を映し出している。   The object JTa is entirely opaque, and a part of each of the two books BK1 and BK2 is hidden by the object JTa. The object JTa is coated with a retroreflecting material 18Ba on a circular portion corresponding to the lens. An image of the bookshelf 11Ba is taken using the camera 12, and an image VF1 subjected to processing such as alignment is projected onto the retroreflecting material 18Ba of the object JTa. The projected image VF1 shows the books BK1 and BK2 that should have been visible if the part of the retroreflecting material 18Ba is transparent.

すなわち、図9において、実物体JTaの外側に見える部分は本棚11Baそれ自体であり、実物体JTaの内側の再帰性反射材18Ba上に見える部分はプロジェクタ14Bによって投影された画像VF1である。観察者BSが、その視点、又は手HDや実物体JTaの位置を変えると、それに応じた画像VF1が再帰性反射材18Baに投影される。   That is, in FIG. 9, the part visible on the outside of the real object JTa is the bookshelf 11Ba itself, and the part visible on the retroreflecting material 18Ba inside the real object JTa is the image VF1 projected by the projector 14B. When the observer BS changes the viewpoint or the position of the hand HD or the real object JTa, an image VF1 corresponding to the change is projected onto the retroreflecting material 18Ba.

図9においては、再帰性反射材18Baに投影された画像VF1は、背景である本棚11Baの書籍BK1,BK2の像に対して等倍であるが、画像の拡大処理などを行うことにより、画像VF1を実物体JTaの像よりも拡大することができる。また、その拡大率を、書籍BK1,BK2と実物体JTaとの距離などに応じて変化させることができる。これによって、実物体JTaがあたかも本物のルーペであるかのように感じられる。   In FIG. 9, the image VF1 projected on the retroreflective member 18Ba is the same size as the images of the books BK1 and BK2 on the bookshelf 11Ba as the background, but the image is enlarged by performing an image enlargement process or the like. VF1 can be enlarged more than the image of the real object JTa. Further, the enlargement ratio can be changed according to the distance between the books BK1 and BK2 and the real object JTa. This makes it feel as if the real object JTa is a real loupe.

すなわち、本棚11Baという実物体を背景として、実物体JTaのレンズ対応部分(再帰性反射材18Ba)の透明化が実現されているのである。   That is, the transparency of the lens-corresponding portion (recursive reflector 18Ba) of the real object JTa is realized with the real object of the bookshelf 11Ba as the background.

なお、図2に示す情報提示装置1Aにおいて、背景スクリーン19の代わりに背景物体11Bを用い、その画像を撮影してアーム162〜164及び制御部160などの部分に投影し、これによってアーム162〜164などを透明化することができる。   In the information presentation apparatus 1A shown in FIG. 2, the background object 11B is used instead of the background screen 19 and the image is taken and projected onto the parts such as the arms 162 to 164 and the control unit 160, thereby 164 and the like can be made transparent.

上に述べた実施形態において、処理装置13,13A,13B、プロジェクタ14,14L,14R,14B、触覚提示装置16,16Z、及び情報提示装置1,1A,1Bの全体又は各部の構成、形状、寸法、材質、処理の内容などは、本発明の趣旨に沿って適宜変更することができる。   In the above-described embodiment, the processing devices 13, 13A, 13B, the projectors 14, 14L, 14R, 14B, the tactile sense presentation devices 16, 16Z, and the information presentation devices 1, 1A, 1B, or the configuration, shape, and configuration of each part, Dimensions, materials, processing details, and the like can be changed as appropriate in accordance with the spirit of the present invention.

本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明に係る情報提示装置の構成を配置的に示す図である。It is a figure which shows arrangement | positioning of the structure of the information presentation apparatus which concerns on this invention. 情報提示装置の構成を機能的に示す図である。It is a figure which shows the structure of an information presentation apparatus functionally. スクリーンに用いられる再帰性反射材による再帰性反射機能を説明するための図である。It is a figure for demonstrating the retroreflection function by the retroreflection material used for a screen. 遮蔽関係の正誤の表れ方の例を示す図である。It is a figure which shows the example of how the correctness of a shielding relationship appears. 遮蔽関係の正誤の表れ方の例を示す図である。It is a figure which shows the example of how the correctness of a shielding relationship appears. 本発明に係る他の実施形態の情報提示装置の構成を示す図である。It is a figure which shows the structure of the information presentation apparatus of other embodiment which concerns on this invention. 図7に示す情報提示装置における動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement in the information presentation apparatus shown in FIG. 図7に示す情報提示装置を用いて情報提示を行った例を示す図である。It is a figure which shows the example which performed information presentation using the information presentation apparatus shown in FIG.

符号の説明Explanation of symbols

1,1A,1B 情報提示装置
11,11A スクリーン
11B,11Ba 背景物体
13 画像生成装置
13A,13B 処理装置(画像生成装置)
13a 仮想環境映像生成部(画像生成装置)
14,14A,14B プロジェクタ
15,15A,15B ハーフミラー(光学部材)
16,16Z 触覚提示装置(実物体)
18 遮蔽スクリーン(遮蔽材)
RU,18A,18B,18Ba,18Z 再帰性反射材(遮蔽材)
BS 観察者
JT,JTa 実物体
1, 1A, 1B Information presentation device 11, 11A Screen 11B, 11Ba Background object 13 Image generation device 13A, 13B Processing device (image generation device)
13a Virtual environment video generation unit (image generation device)
14, 14A, 14B Projector 15, 15A, 15B Half mirror (optical member)
16, 16Z Tactile presentation device (real object)
18 Shielding screen (shielding material)
RU, 18A, 18B, 18Ba, 18Z Retroreflective material (shielding material)
BS observer JT, JTa real object

Claims (1)

現実に存在する物体である背景物体と観察者との間に置かれた実物体の全部又は一部を、前記背景物体に一致する画像を用いて光学的に隠すことによって仮想空間の情報を提示する装置であって、
画像を投影するために観察者の眼の位置に対して光学的に共役な位置に配置されたプロジェクタと、
前記背景物体の画像を取得するための撮影手段と、
前記撮影手段により取得された画像の位置及び/又は大きさを、画像の拡大又は並進処理によって、前記観察者から見たときにそこに見えるはずの前記背景物体の像と一致させ、かつ、このように一致させられた画像を、前記実物体の隠すべき部分に配置された再帰性反射材に向けて投影するように、前記プロジェクタに出力する処理装置と、
を有しており、
前記撮影手段は、前記観察者の視点と同じ位置、又は、前記観察者の視点と光学的に共役な位置から、前記背景物体の画像を取得する構成となっており、
前記プロジェクタは、前記背景物体の像と一致させられた画像を前記再帰性反射材に投影することによって、前記背景物体と前記観察者との間に置かれた前記実物体の少なくとも一部を光学的に透明化するようになっている
ことを特徴とする情報提示装置。
Presents virtual space information by optically hiding all or part of the real object placed between the background object and the observer, which is an actual object , using an image that matches the background object. A device that performs
A projector disposed at a position optically conjugate with the position of the observer's eye to project an image;
Photographing means for obtaining an image of the background object;
The position and / or size of the image acquired by the photographing means is made to coincide with the image of the background object that should be seen when viewed from the observer by an enlargement or translation process of the image, and A processing device that outputs to the projector such that the matched images are projected toward a retroreflecting material disposed on a portion to be hidden of the real object;
Have
The photographing means is configured to acquire an image of the background object from the same position as the observer's viewpoint or a position optically conjugate with the observer's viewpoint ,
The projector projects at least a part of the real object placed between the background object and the observer by projecting an image matched with the image of the background object onto the retroreflecting material. An information presentation device characterized by being transparent .
JP2008020021A 1998-08-11 2008-01-31 Information presentation device Expired - Lifetime JP4744536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008020021A JP4744536B2 (en) 1998-08-11 2008-01-31 Information presentation device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP1998226677 1998-08-11
JP22667798 1998-08-11
JP2008020021A JP4744536B2 (en) 1998-08-11 2008-01-31 Information presentation device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP02062199A Division JP4100531B2 (en) 1998-08-11 1999-01-28 Information presentation method and apparatus

Publications (2)

Publication Number Publication Date
JP2008198196A JP2008198196A (en) 2008-08-28
JP4744536B2 true JP4744536B2 (en) 2011-08-10

Family

ID=39757025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008020021A Expired - Lifetime JP4744536B2 (en) 1998-08-11 2008-01-31 Information presentation device

Country Status (1)

Country Link
JP (1) JP4744536B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022639A (en) 2010-07-16 2012-02-02 Ntt Docomo Inc Display device, image display device, and image display method
JP6121097B2 (en) * 2012-02-22 2017-04-26 稲見 昌彦 Information presentation device
JP6227463B2 (en) * 2014-04-02 2017-11-08 株式会社オプトアランジェ Object transparency system and method
JP6449120B2 (en) * 2015-08-31 2019-01-09 日本電信電話株式会社 Aerial image display device and aerial image display method
US11158220B2 (en) 2018-12-10 2021-10-26 Universal City Studios Llc Interactive animated protection window with haptic feedback system
CN112954286B (en) * 2021-02-25 2023-06-13 当趣网络科技(杭州)有限公司 Photographing processing method and system based on projector, electronic equipment and medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0494268A (en) * 1990-08-09 1992-03-26 Nippon Telegr & Teleph Corp <Ntt> Image pickup device in common use for display device and picture communication system
JPH07319091A (en) * 1992-06-30 1995-12-08 Walt Disney Co:The Method and equipment for controlling distortion of projectedpicture

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0494268A (en) * 1990-08-09 1992-03-26 Nippon Telegr & Teleph Corp <Ntt> Image pickup device in common use for display device and picture communication system
JPH07319091A (en) * 1992-06-30 1995-12-08 Walt Disney Co:The Method and equipment for controlling distortion of projectedpicture

Also Published As

Publication number Publication date
JP2008198196A (en) 2008-08-28

Similar Documents

Publication Publication Date Title
JP4100531B2 (en) Information presentation method and apparatus
JP6165170B2 (en) 3D display system
Krum et al. Augmented reality using personal projection and retroreflection
US20040135744A1 (en) Virtual showcases
JP4744536B2 (en) Information presentation device
Hartmann et al. AAR: Augmenting a wearable augmented reality display with an actuated head-mounted projector
CN102566049A (en) Automatic variable virtual focus for augmented reality displays
JP2011501822A (en) Display device and display method thereof
Tatzgern et al. Exploring real world points of interest: Design and evaluation of object-centric exploration techniques for augmented reality
JP2000010194A (en) Picture display method and device
JP7242690B2 (en) display system
KR20070007059A (en) Multi-dimensional imaging apparatus, systems, and methods
Martinez Plasencia et al. Through the combining glass
EP4100797A1 (en) A free space &#34;pop-out&#34; &amp; &#34;sink-in&#34; hologram device to create, generate, display and share high definition free space &#34;pop-out&#34; &amp; &#34;sink-in&#34; holograms with pop-out &amp; sink-in holographic augmented reality (ar), virtual reality (vr) and mixed reality (mr)
Saggio et al. New trends in virtual reality visualization of 3D scenarios
Broll Augmented reality
Bolas et al. Augmented reality applications and user interfaces using head-coupled near-axis personal projectors with novel retroreflective props and surfaces
JP6121097B2 (en) Information presentation device
Tatzgern et al. Exploring Distant Objects with Augmented Reality.
US20220253975A1 (en) Panoramic presentation methods and apparatuses
Wartell Stereoscopic head-tracked displays: Analysis and development of display algorithms
WO2002015110A1 (en) Virtual showcases
Smithwick et al. LCD masks for spatial augmented reality
Ridel et al. EgoSAR: Towards a personalized spatial augmented reality experience in multi-user environments
Margolis et al. Low cost heads-up virtual reality (HUVR) with optical tracking and haptic feedback

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110404

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term