JP2000276613A - Device and method for processing information - Google Patents

Device and method for processing information

Info

Publication number
JP2000276613A
JP2000276613A JP8521899A JP8521899A JP2000276613A JP 2000276613 A JP2000276613 A JP 2000276613A JP 8521899 A JP8521899 A JP 8521899A JP 8521899 A JP8521899 A JP 8521899A JP 2000276613 A JP2000276613 A JP 2000276613A
Authority
JP
Japan
Prior art keywords
image
viewpoint
unit
information processing
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8521899A
Other languages
Japanese (ja)
Inventor
Hideto Takeuchi
英人 竹内
Teruyuki Ushiro
輝行 後
Takayuki Ashigahara
隆之 芦ヶ原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP8521899A priority Critical patent/JP2000276613A/en
Publication of JP2000276613A publication Critical patent/JP2000276613A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Studio Circuits (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image without the feeling of incompatibility that a real space and a virtual space are merged. SOLUTION: Relating to this information processor, the position in a three- dimensional space of an optical see-through type display part 1 is calculated in a three-dimensional position direction calculation part 3, the view point of a user is calculated in a view point position direction calculation part 5 and the coordinate of a virtual image is transformed on the basis of the position of the optical see-through type display part 1 and the view point of the user in a virtual object coordinate transformation part 8. Then, the virtual image after coordinate transformation is supplied to the optical see-through type display part 1 and displayed together with the image of the real space.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理装置およ
び情報処理方法に関し、特に、現実空間と仮想空間とを
融合した、違和感のない画像を提供することができるよ
うにする情報処理装置および情報処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and an information processing method, and more particularly, to an information processing apparatus and information capable of providing an image without a sense of incongruity by integrating a real space and a virtual space. Regarding the processing method.

【0002】[0002]

【従来の技術】現実空間と仮想空間との融合を行う技術
は、複合現実感(MR(Mixed Reality))と呼ばれ、
その中でも、現実空間に、仮想空間の情報を重畳して表
示する技術は、オーギュウメンテッドリアリティ(AR
(Augmented Reality))と呼ばれる。
2. Description of the Related Art A technology for integrating a real space and a virtual space is called a mixed reality (MR).
Among them, a technology for superimposing and displaying information of a virtual space on a real space is known as an Augmented Reality (AR).
(Augmented Reality)).

【0003】ARを実現する方法としては、例えば、透
過型のHMD(Head Mounted Display)を利用して、表
示越しに見える現実世界の風景に、仮想的な物体の画像
を重畳して表示する光学シースルーと呼ばれるものや、
ビデオカメラ等で撮像された実際の物体の画像と、仮想
的な物体の画像とを重畳して表示するビデオシースルー
と呼ばれるものがある。なお、これらについての詳細
は、例えば、「佐藤清秀他、”現実世界と仮想空間の位
置合わせ手法”、画像の認識・理解シンポジウム、平成
10年7月」等に記載されている。
As a method of realizing the AR, for example, a transmission type HMD (Head Mounted Display) is used to superimpose and display an image of a virtual object on a real world scene seen through the display. What is called see-through,
There is a so-called video see-through in which an image of a real object captured by a video camera or the like and an image of a virtual object are superimposed and displayed. The details of these are described, for example, in "Kyohide Sato et al.," Method of Positioning Real World and Virtual Space ", Image Recognition and Understanding Symposium, July 1998" and the like.

【0004】[0004]

【発明が解決しようとする課題】ところで、HMDを使
用してARを実現する場合においては、HMDは、ユー
ザの頭部に装着されることから、ユーザの動きに対し
て、虚像を提供するためのディスプレイとユーザの視点
との位置関係がほとんど変化しない。即ち、HMDにお
いては、ディスプレイとユーザの視点との位置関係はほ
ぼ固定であり、現実の物体の画像(実画像)と、仮想的
な物体の画像(仮想画像)とを重畳した違和感のない画
像を提供することができる。
By the way, when realizing AR using an HMD, since the HMD is mounted on the head of the user, it is necessary to provide a virtual image to the movement of the user. The positional relationship between the display and the user's viewpoint hardly changes. That is, in the HMD, the positional relationship between the display and the user's viewpoint is almost fixed, and an image without a sense of incongruity in which an image of a real object (real image) and an image of a virtual object (virtual image) are superimposed. Can be provided.

【0005】しかしながら、HMDは、頭部に装着して
使用することから、ユーザの頭部を拘束し、煩わしさを
感じさせる。そこで、本件出願人は、例えば、特開平1
0−51711号公報において、ユーザの頭部を拘束せ
ずに、現実空間と仮想空間とを融合した画像を提供する
装置として、ビデオシースルー型の携帯型ディスプレイ
を提案している。
[0005] However, since the HMD is used by being mounted on the head, the head of the user is restrained and the user feels troublesome. Accordingly, the applicant of the present application has disclosed, for example,
Japanese Patent Application Publication No. 0-51711 proposes a video see-through type portable display as an apparatus for providing an image in which a real space and a virtual space are integrated without restraining a user's head.

【0006】この携帯型ディスプレイは、平板形状のも
のであり、例えば、ユーザが手に持った状態で使用され
る。このため、携帯型ディスプレイに対するユーザの視
点の位置や方向は、ユーザの姿勢や使用状況等によって
変化する。
[0006] The portable display has a flat plate shape, and is used, for example, while being held by a user. For this reason, the position and direction of the user's viewpoint with respect to the portable display change depending on the user's posture, usage conditions, and the like.

【0007】一方、この携帯型ディスプレイにおいて
は、それに装着されているビデオカメラで撮像された実
画像が表示される。従って、ユーザが、ビデオカメラの
光軸線上(真後ろ)から、画面を見た場合には、ユーザ
の視点から現実世界を見た画像を見ることができるが、
それ以外の場合には、ユーザの視点とは無関係な画像を
見ることとなる。即ち、ユーザは、自身の視点から見え
る実画像と異なる実画像を見ることになり、違和感を感
じることになる。
On the other hand, in this portable display, an actual image picked up by a video camera mounted thereon is displayed. Therefore, when the user looks at the screen from the optical axis of the video camera (directly behind), the user can see the image of the real world from the user's viewpoint,
In other cases, the user sees an image unrelated to the user's viewpoint. That is, the user sees a real image different from the real image seen from his / her own viewpoint, and feels uncomfortable.

【0008】このように、ユーザの視点を考慮しないこ
とによる実画像の違和感は、例えば、携帯型ディスプレ
イを、ビデオシースルー型ではなく、光学シースルー型
とすることにより解消することができるが、その場合で
も、仮想画像について生じる違和感を解消することはで
きない。即ち、ユーザの視点を考慮しない場合には、仮
想画像は、携帯型ディスプレイに対して固定の位置に視
点を想定して表示される。その結果、ユーザの視点が、
想定した視点と異なる場合には、ユーザが見る仮想画像
は、違和感のあるものとなる。
[0008] As described above, the discomfort of the real image due to the fact that the viewpoint of the user is not considered can be solved by, for example, making the portable display an optical see-through type instead of a video see-through type. However, it is not possible to eliminate the discomfort caused by the virtual image. That is, when the viewpoint of the user is not considered, the virtual image is displayed assuming the viewpoint at a fixed position with respect to the portable display. As a result, the user's perspective
If the viewpoint is different from the assumed viewpoint, the virtual image viewed by the user has a strange feeling.

【0009】従って、ユーザの視点を考慮しない場合に
は、実画像と仮想画像とを重畳してた画像(合成画像)
も、違和感のあるものとなる。
Therefore, when the viewpoint of the user is not considered, an image in which the real image and the virtual image are superimposed (composite image)
Is also uncomfortable.

【0010】なお、本件出願人は、例えば、特開平10
−49290号公報において、任意の視点からの鳥瞰図
を作成して表示するものを提案しているが、これは、ユ
ーザの視点を考慮したものではなく、この方法により、
実画像と仮想画像とを重畳して、違和感のない合成画像
を提供することは困難である。
The applicant of the present application has disclosed, for example,
Japanese Patent Application Laid-Open No. 49290/49 proposes a method of creating and displaying a bird's-eye view from an arbitrary viewpoint. However, this method does not consider the viewpoint of the user, and uses this method.
It is difficult to superimpose a real image and a virtual image to provide a composite image without a sense of incongruity.

【0011】本発明は、このような状況に鑑みてなされ
たものであり、現実空間と仮想空間とを融合した、違和
感のない画像を提供することができるようにするもので
ある。
The present invention has been made in view of such a situation, and it is an object of the present invention to provide an image that combines a real space and a virtual space and has no uncomfortable feeling.

【0012】[0012]

【課題を解決するための手段】本発明の情報処理装置
は、表示手段の3次元空間における位置を算出する表示
位置算出手段と、ユーザの視点を算出する視点算出手段
と、表示手段の位置およびユーザの視点に基づいて、仮
想画像を変換する仮想画像変換手段とを含むことを特徴
とする。
An information processing apparatus according to the present invention comprises: a display position calculating means for calculating a position of a display means in a three-dimensional space; a viewpoint calculating means for calculating a viewpoint of a user; Virtual image conversion means for converting a virtual image based on a user's viewpoint.

【0013】本発明の情報処理方法は、表示手段の3次
元空間における位置を算出する表示位置算出ステップ
と、ユーザの視点を算出する視点算出ステップと、表示
手段の位置およびユーザの視点に基づいて、仮想画像を
変換する仮想画像変換ステップとを含むことを特徴とす
る。
The information processing method according to the present invention includes a display position calculating step of calculating a position of a display means in a three-dimensional space, a viewpoint calculating step of calculating a user's viewpoint, and a position of the display means and the user's viewpoint. And a virtual image conversion step of converting a virtual image.

【0014】上記構成の情報処理装置および情報処理方
法においては、表示手段の3次元空間における位置が算
出されるとともに、ユーザの視点が算出される。そし
て、表示手段の位置およびユーザの視点に基づいて、仮
想画像が変換される。
In the information processing apparatus and the information processing method having the above configurations, the position of the display means in the three-dimensional space is calculated, and the viewpoint of the user is calculated. Then, the virtual image is converted based on the position of the display means and the viewpoint of the user.

【0015】[0015]

【発明の実施の形態】図1は、本発明を適用した携帯型
表示装置の第1実施の形態の構成(機能的構成)を示し
ている。
FIG. 1 shows the structure (functional structure) of a first embodiment of a portable display device to which the present invention is applied.

【0016】光学シースルー型表示部1は、例えば、透
明なLCD(Liquid Crystal Display)などでなる光学
シースルー型のLCDで、レンダリング部9から供給さ
れる仮想画像を表示する他、その表示画面を介して、現
実空間が見えるようになっている。従って、光学シース
ルー型表示部1においては、その表示画面を介して見え
る実画像と、レンダリング部9からの仮想画像とを重畳
した合成画像が表示される。なお、光学シースルー型表
示部1は、いわゆるノート型パソコン(パーソナルコン
ピュータ)程度の大きさの平板形状の筐体に収められて
いる。また、後述する各ブロックも、その筐体に収めら
れており、これにより、携帯型表示装置は、携帯に便利
なようになっている。なお、この携帯型表示装置は、ユ
ーザが、片手または両手で持って、あるいは、スタンド
等により固定して使用される。
The optical see-through type display unit 1 is, for example, an optical see-through type LCD such as a transparent LCD (Liquid Crystal Display), which displays a virtual image supplied from the rendering unit 9 and via a display screen thereof. The real space can be seen. Accordingly, the optical see-through display unit 1 displays a composite image in which a real image viewed through the display screen and a virtual image from the rendering unit 9 are superimposed. Note that the optical see-through display unit 1 is housed in a flat-plate-shaped housing approximately the size of a so-called notebook personal computer (personal computer). In addition, each block described later is also housed in the housing, so that the portable display device is convenient to carry. The portable display device is used by the user holding it with one hand or both hands, or fixed by a stand or the like.

【0017】3次元位置方向センサ2は、光学シースル
ー型表示部1に固定されており、所定の基準面に対する
光学シースルー型表示部1の位置、および傾き等の姿勢
を算出するための出力を、3次元位置方向算出部3に供
給するようになされている。3次元位置方向算出部3
は、3次元位置方向センサ2の出力に基づいて、所定の
基準面に対する光学シースルー型表示部1の位置、およ
び傾き等の姿勢を算出し、仮想物体座標変換部8に供給
するようになされている。
The three-dimensional position / direction sensor 2 is fixed to the optical see-through type display unit 1 and outputs an output for calculating the position of the optical see-through type display unit 1 with respect to a predetermined reference plane and a posture such as an inclination. The information is supplied to the three-dimensional position / direction calculation unit 3. 3D position / direction calculator 3
Is configured to calculate the position of the optical see-through display unit 1 with respect to a predetermined reference plane and a posture such as an inclination with respect to a predetermined reference plane based on the output of the three-dimensional position and direction sensor 2 and supply the calculated posture to the virtual object coordinate conversion unit 8. I have.

【0018】ここで、光学シースルー型表示部1の位置
や姿勢を算出する方法としては、直交コイルでなるソー
スコイルおよび位置センサを用いて、磁界を検出するも
のがある。即ち、例えば、ソースコイルを基準面とする
位置(例えば、光学シースルー表示部1を介して見える
実際の物体の位置)に設置し、3次元位置方向センサ2
として位置センサを用いることにより、3次元位置方向
算出部3において、光学シースルー型表示部1の位置や
姿勢を算出することが可能となる。このようにして光学
シースルー型表示部1の位置や姿勢を算出する方法につ
いては、例えば、前述の特開平10−51711号公報
に、その詳細が開示されている。また、直交コイルを用
いて、物体の位置や姿勢を算出する装置としては、例え
ば、Polhemus社の3SPACE(商標)がある。
Here, as a method of calculating the position and orientation of the optical see-through display unit 1, there is a method of detecting a magnetic field by using a source coil composed of a quadrature coil and a position sensor. That is, for example, the three-dimensional position and direction sensor 2 is installed at a position using the source coil as a reference plane (for example, the position of an actual object viewed through the optical see-through display unit 1).
By using a position sensor as, the position and orientation of the optical see-through display unit 1 can be calculated in the three-dimensional position and direction calculation unit 3. The method of calculating the position and orientation of the optical see-through display unit 1 in this manner is disclosed in detail in, for example, the above-mentioned Japanese Patent Application Laid-Open No. 10-51711. As an apparatus for calculating the position and orientation of an object using a quadrature coil, for example, there is 3SPACE (trademark) of Polhemus.

【0019】なお、光学シースルー型表示部1の位置や
姿勢の算出は、その他、例えば、超音波を利用して行う
ことも可能である。超音波を利用して、物体の位置や姿
勢を算出する装置としては、例えば、Stereo Graphics
社のCrystal EYES(商標)がある。
The calculation of the position and orientation of the optical see-through display unit 1 can be performed by using, for example, ultrasonic waves. Devices that calculate the position and orientation of an object using ultrasonic waves include, for example, Stereo Graphics
There is Crystal EYES ™ of the company.

【0020】視点位置方向センサ4は、例えば、光学シ
ースルー型表示部1に固定されており、所定の基準面に
対するユーザの視点(視点の方向または3次元空間にお
ける位置(座標))を算出するための出力を、視点位置
方向算出部5に供給するようになされている。視点位置
方向算出部5は、視点位置方向センサ4の出力に基づい
て、所定の基準面に対するユーザの視点を算出し、仮想
物体座標変換部8に供給するようになされている。
The viewpoint position direction sensor 4 is fixed to, for example, the optical see-through type display unit 1 and calculates a user's viewpoint (direction of the viewpoint or position (coordinates) in a three-dimensional space) with respect to a predetermined reference plane. Is supplied to the viewpoint position / direction calculation unit 5. The viewpoint position / direction calculation unit 5 calculates the viewpoint of the user with respect to a predetermined reference plane based on the output of the viewpoint position / direction sensor 4, and supplies the viewpoint to the virtual object coordinate conversion unit 8.

【0021】ここで、ユーザの視点は、例えば、ユーザ
に、直交コイルであるソースコイル付きの眼鏡をかけて
もらい、視点位置方向センサ4として直交コイルである
位置センサを用いることにより、3次元位置方向算出部
3における場合と同様にして算出することができる。
Here, the user's viewpoint can be determined, for example, by asking the user to wear glasses with a source coil, which is an orthogonal coil, and using a position sensor, which is an orthogonal coil, as the viewpoint position direction sensor 4. It can be calculated in the same manner as in the case of the direction calculation unit 3.

【0022】また、ユーザの視点は、例えば、視点位置
方向センサ4として、CCD(Charge Coupled Devic
e)ビデオカメラを採用し、視点位置方向算出部5にお
いて、CCDビデオカメラが出力する画像を認識するこ
とによって算出することができる。具体的には、例え
ば、「八木 他、”画像情報処理のための共通プラット
フォームの構築”、情処研報Vol.98, No 26 ISSN0919-6
072 98-CVM-110-9, 1998.3.19」に記載されているよう
に、画像認識を行うことにより、撮像された画像からユ
ーザの顔の領域を切り出し、そこから目の位置をステレ
オ処理などによって抽出することで、視点を算出するこ
とができる。あるいは、ユーザの顔に、所定のマーカを
付してもらい、そのマーカーの位置を画像処理により求
めることで、視点を算出することもできる。
The user's viewpoint is, for example, a CCD (Charge Coupled Device) as the viewpoint position / direction sensor 4.
e) By using a video camera, the viewpoint position / direction calculation unit 5 can calculate the image by recognizing an image output by the CCD video camera. Specifically, for example, "Yagi et al.," Construction of a common platform for image information processing ", Jikkenkenho Vol.98, No 26 ISSN0919-6
072 98-CVM-110-9, 1998.3.19 '', by performing image recognition, cut out the area of the user's face from the captured image, and perform stereo processing on the eye position from there. Thus, the viewpoint can be calculated. Alternatively, the viewpoint can be calculated by having a predetermined marker attached to the user's face and obtaining the position of the marker by image processing.

【0023】仮想物体データ蓄積部6は、仮想物体の形
状およびテクスチャのデータを記憶している。仮想物体
生成部7は、仮想物体データ蓄積部6に記憶されている
データに基づいて、所定の3次元空間における仮想的な
物体(仮想物体)を生成し、仮想物体座標変換部8に供
給するようになされている。仮想物体座標変換部8は、
3次元位置方向算出部3からの光学シースルー型表示部
1の位置および姿勢、並びに視点位置方向算出部5から
のユーザの視点に基づいて、仮想物体の座標変換を、幾
何計算によって行い、その座標変換後の仮想物体を、レ
ンダリング部9に供給するようになされている。レンダ
リング部9は、仮想物体座標変換部8からの座標変換後
の仮想物体のデータに基づいてレンダリングを行い、そ
の仮想物体のレンダリング結果としての3次元CG(Co
mputer Graphics)(仮想画像)を、光学シースルー型
表示部1に供給するようになされている。
The virtual object data storage section 6 stores data on the shape and texture of the virtual object. The virtual object generation unit 7 generates a virtual object (virtual object) in a predetermined three-dimensional space based on the data stored in the virtual object data storage unit 6, and supplies the virtual object to a virtual object coordinate conversion unit 8. It has been made like that. The virtual object coordinate conversion unit 8
Based on the position and orientation of the optical see-through display unit 1 from the three-dimensional position and direction calculation unit 3 and the user's viewpoint from the viewpoint position and direction calculation unit 5, coordinate conversion of the virtual object is performed by geometric calculation, and the coordinates are calculated. The converted virtual object is supplied to the rendering unit 9. The rendering unit 9 performs rendering based on the data of the virtual object after the coordinate conversion from the virtual object coordinate conversion unit 8 and performs three-dimensional CG (Co) as a rendering result of the virtual object.
mputer Graphics (virtual image) is supplied to the optical see-through display unit 1.

【0024】ここで、仮想画像としての3次元CGのレ
ンダリングの手法としては、例えば、イメージベースド
レンダリング(image based rendering)や、ジオメト
リベースドレンダリング(geometry based rendering)
等を採用することができる。
Here, as a method of rendering a three-dimensional CG as a virtual image, for example, an image based rendering or a geometry based rendering is used.
Etc. can be adopted.

【0025】次に、図2は、図1の携帯型表示装置の電
気的構成例を示している。
Next, FIG. 2 shows an example of an electrical configuration of the portable display device of FIG.

【0026】基準カメラ11および検出カメラ12は、
例えば、CCDビデオカメラであり、図2の実施の形態
においては、視点位置方向センサ4を構成している。基
準カメラ11または検出カメラ12は、ユーザを、異な
る視点方向から撮像し、その結果得られるユーザの画像
を、A/D(Analog/Digital)変換器13または14に
それぞれ供給するようになされている。A/D変換器1
3または14は、基準カメラ11または検出カメラ12
からのアナログ信号の画像を、ディジタルの画像データ
に変換し、フレームメモリ15または16にそれぞれ供
給するようになされている。フレームメモリ15または
16は、A/D変換器13または14からの画像データ
をそれぞれ記憶するようになされている。
The reference camera 11 and the detection camera 12 are
For example, it is a CCD video camera, and constitutes the viewpoint position / direction sensor 4 in the embodiment of FIG. The reference camera 11 or the detection camera 12 captures a user from different viewpoint directions, and supplies the resulting user image to an A / D (Analog / Digital) converter 13 or 14, respectively. . A / D converter 1
3 or 14 is the reference camera 11 or the detection camera 12
Is converted into digital image data and supplied to the frame memory 15 or 16 respectively. The frame memory 15 or 16 stores the image data from the A / D converter 13 or 14, respectively.

【0027】CPU(Central Processing Unit)17
は、携帯型表示装置を構成する図2の各ブロックを制御
する他、図1に示した各ブロックが行う処理を行うよう
になされている。即ち、CPU17は、RS−232C
/RS−422コントローラ20を介して供給される3
次元位置方向センサ2の出力に基づいて、光学シースル
ー型表示部1の位置や姿勢を算出するようになされてい
る。また、CPU17は、上述したようにしてフレーム
メモリ15および16に記憶された画像に基づいて、ユ
ーザの視点の位置または方向を算出するようになされて
いる。さらに、CPU17は、図1の仮想物体生成部7
による仮想物体の生成や、仮想物体座標変換部8による
座標変換、レンダリング部9によるレンダリング等を行
うようになされている。
CPU (Central Processing Unit) 17
Controls the blocks of FIG. 2 that constitute the portable display device, and also performs the processes performed by the blocks illustrated in FIG. That is, the CPU 17 uses the RS-232C
/ RS-422 supplied via controller 422
The position and orientation of the optical see-through display unit 1 are calculated based on the output of the dimensional position / direction sensor 2. Further, the CPU 17 calculates the position or direction of the user's viewpoint based on the images stored in the frame memories 15 and 16 as described above. Further, the CPU 17 controls the virtual object generation unit 7 in FIG.
, A virtual object coordinate conversion unit 8 performs coordinate conversion, a rendering unit 9 performs rendering, and the like.

【0028】ROM(Read Only Memory)18は、IP
L(Initial Program Loading)のプログラムなどを記
憶している。RAM(Random Access Memory)19は、
CPU17が上述したような処理を行うためのプログラ
ムや、CPU17の動作上必要なデータを記憶するよう
になされている。RS−232C/RS−422コント
ローラ20は、3次元位置方向センサ2との間で、RS
−232CまたはRS−422の規格等に準拠したシリ
アル通信を行い、3次元位置方向センサ2の出力を、バ
スを介して、CPU17に供給するようになされてい
る。
A ROM (Read Only Memory) 18 is an IP
L (Initial Program Loading) programs are stored. RAM (Random Access Memory) 19
The CPU 17 stores a program for performing the above-described processing and data necessary for the operation of the CPU 17. The RS-232C / RS-422 controller 20 communicates with the three-dimensional position and orientation sensor 2
The serial communication conforms to the standards of -232C or RS-422, and the output of the three-dimensional position / direction sensor 2 is supplied to the CPU 17 via a bus.

【0029】LCDコントローラ21は、CPU17の
制御の下、VRAM(Video RAM)22を用いて、LC
Dである光学シースルー型表示部1の表示を制御するよ
うになされている。VRAM22は、光学シースルー型
表示部1が表示する画像データを一時記憶するようにな
されている。即ち、表示すべき画像データは、LCDコ
ントローラ21を介してVRAM22に書き込まれ、L
CDコントローラ21が、VRAM22に記憶された画
像データを光学シースルー型表示部1に供給することに
より、画像が表示されるようになされている。
The LCD controller 21 uses a VRAM (Video RAM) 22 under the control of the CPU 17 to
The display of the optical see-through type display unit 1 which is D is controlled. The VRAM 22 is configured to temporarily store image data displayed by the optical see-through display unit 1. That is, the image data to be displayed is written into the VRAM 22 via the LCD controller 21,
The CD controller 21 supplies image data stored in the VRAM 22 to the optical see-through display unit 1 so that an image is displayed.

【0030】ストレージコントローラ23は、例えば、
HD(Hard Disk)やFD(FloppyDisk)等の磁気ディ
スク24や、ミニディスク(商標)等の光磁気ディスク
25、CD−ROM(Compact Disc ROM)等の光ディス
ク26、ROMやフラッシュメモリ等の不揮発性メモリ
27に対するアクセスを制御するようになされている。
磁気ディスク24、光磁気ディスク25、光ディスク2
6、不揮発性メモリ27は、仮想物体の形状やテクスチ
ャのデータを記憶しており、これらのデータは、CPU
17によって、ストレージコントローラ23を介して読
み出されるようになされている。なお、磁気ディスク2
4等には、CPU17が上述したような処理を行うため
のプログラム等も記憶されている。
The storage controller 23 is, for example,
Magnetic disk 24 such as HD (Hard Disk) or FD (FloppyDisk), magneto-optical disk 25 such as mini disk (trademark), optical disk 26 such as CD-ROM (Compact Disc ROM), and nonvolatile such as ROM and flash memory The access to the memory 27 is controlled.
Magnetic disk 24, magneto-optical disk 25, optical disk 2
6. The non-volatile memory 27 stores the data of the shape and texture of the virtual object.
17, the data is read out via the storage controller 23. The magnetic disk 2
4 and the like also store programs for the CPU 17 to perform the above-described processing.

【0031】通信コントローラ28は、電波や赤外線等
による無線通信、およびイーサネット(商標)等による
有線の通信を制御するようになされている。例えば、仮
想物体の形状やテクスチャのデータ、CPU17が各種
の処理を行うためのプログラム等は、この通信コントロ
ーラ28を介して通信を行うことにより、外部の装置か
ら取得することも可能となっている。
The communication controller 28 controls wireless communication using radio waves or infrared rays and wired communication using Ethernet (trademark) or the like. For example, data of the shape and texture of the virtual object, programs for the CPU 17 to perform various processes, and the like can be obtained from an external device by performing communication via the communication controller 28. .

【0032】図2の実施の形態においては、視点位置方
向センサ4が、基準カメラ11および検出カメラ12の
2つのCCDビデオカメラで構成され、CPU17で
は、この2つの基準カメラ11および検出カメラ12の
画像を用いて、ステレオ処理を行うことで、ユーザの視
点の3次元空間における位置が算出されるようになされ
ている。
In the embodiment shown in FIG. 2, the viewpoint position direction sensor 4 is composed of two CCD video cameras, a reference camera 11 and a detection camera 12, and the CPU 17 controls the two reference video cameras 11 and the detection camera 12. By performing stereo processing using an image, the position of the user's viewpoint in a three-dimensional space is calculated.

【0033】ここで、ステレオ処理について説明する。Here, the stereo processing will be described.

【0034】ステレオ処理は、2つ以上の方向(異なる
視線方向)からカメラで同一対象物を撮影して得られる
複数の画像間の画素同士を対応付けることで、対応する
画素間の視差や、カメラから対象物までの距離、対象物
の形状を求めるものである。
The stereo processing associates pixels between a plurality of images obtained by photographing the same object with a camera from two or more directions (different line-of-sight directions), and thereby, the parallax between the corresponding pixels and the camera The distance from the object to the object and the shape of the object are determined.

【0035】即ち、基準カメラ11および検出カメラ1
2で物体を撮影すると、基準カメラ11からは物体の投
影像を含む画像(基準カメラ画像)が得られ、検出カメ
ラ12からも物体の投影像を含む画像(検出カメラ画
像)が得られる。いま、図3に示すように、物体上のあ
る点Pが、基準カメラ画像および検出カメラ画像の両方
に表示されているとすると、その点Pが表示されている
基準カメラ画像上の位置と、検出カメラ画像上の位置、
つまり対応点とから、基準カメラ11と検出カメラ12
との間の視差を求めることができ、さらに、三角測量の
原理を用いて、点Pの3次元空間における位置(3次元
位置)を求めることができる。
That is, the reference camera 11 and the detection camera 1
When the object is photographed in Step 2, an image including the projected image of the object (reference camera image) is obtained from the reference camera 11, and an image including the projected image of the object (detected camera image) is also obtained from the detection camera 12. Now, as shown in FIG. 3, if a certain point P on the object is displayed in both the reference camera image and the detected camera image, the position on the reference camera image where the point P is displayed is: Position on the detected camera image,
That is, from the corresponding point, the reference camera 11 and the detection camera 12
, And the position of the point P in the three-dimensional space (three-dimensional position) can be obtained using the principle of triangulation.

【0036】従って、ステレオ処理では、まず、対応点
を検出することが必要となるが、その検出方法として
は、例えば、エピポーラライン(Epipolar Line)を用
いたエリアベースマッチング法などがある。
Therefore, in the stereo processing, first, it is necessary to detect a corresponding point. As a detection method, for example, there is an area-based matching method using an epipolar line.

【0037】即ち、図3に示すように、基準カメラ11
においては、物体上の点Pは、その点Pと基準カメラ1
1の光学中心(レンズ中心)O1とを結ぶ直線L上の、
基準カメラ11の撮像面S1との交点naに投影され
る。
That is, as shown in FIG.
In, the point P on the object is the point P and the reference camera 1
1 on a straight line L connecting the optical center (lens center) O1
It is projected on the intersection na of the reference camera 11 with the imaging surface S1.

【0038】また、検出カメラ12においては、物体の
点Pは、その点Pと検出カメラ12の光学中心(レンズ
中心)O2とを結ぶ直線上の、検出カメラ12の撮像面
S2との交点nbに投影される。
In the detection camera 12, the point P of the object is defined by the intersection nb between the point P and the optical center (lens center) O 2 of the detection camera 12 at the intersection with the imaging surface S 2 of the detection camera 12. Projected to

【0039】この場合、直線Lは、光学中心O1および
O2、並びに点na(または点P)の3点を通る平面
と、検出カメラ画像が形成される撮像面S2との交線L
2として、撮像面S2上に投影される。点Pは、直線L
上の点であり、従って、撮像面S2において、点Pを投
影した点nbは、直線Lを投影した直線L2上に存在
し、この直線L2が、エピポーララインと呼ばれる。即
ち、点naの対応点nbが存在する可能性のあるのは、
エピポーララインL2上であり、従って、対応点nbの
探索は、エピポーララインL2上を対象に行えば良い。
In this case, the straight line L is an intersection line L between a plane passing through the optical centers O1 and O2 and the point na (or the point P) and the imaging surface S2 on which the detected camera image is formed.
2 is projected on the imaging surface S2. Point P is a straight line L
This is the upper point, and therefore, on the imaging surface S2, the point nb where the point P is projected exists on the straight line L2 where the straight line L is projected, and this straight line L2 is called an epipolar line. That is, there is a possibility that the corresponding point nb of the point na exists.
Since it is on the epipolar line L2, the search for the corresponding point nb may be performed on the epipolar line L2.

【0040】ここで、エピポーララインは、例えば、撮
像面S1に形成される基準カメラ画像を構成する画素ご
とに考えることができるが、基準カメラ11と検出カメ
ラ12の位置関係が既知であれば、その画素ごとに存在
するエピポーララインはあらかじめ求めておくことがで
きる。
Here, the epipolar line can be considered, for example, for each pixel constituting the reference camera image formed on the imaging surface S1, but if the positional relationship between the reference camera 11 and the detection camera 12 is known, The epipolar line existing for each pixel can be obtained in advance.

【0041】エピポーララインL2上の点からの対応点
nbの検出は、例えば、次のようなエリアベースマッチ
ングによって行うことができる。
The detection of the corresponding point nb from the point on the epipolar line L2 can be performed, for example, by the following area-based matching.

【0042】即ち、エリアベースマッチングでは、図4
(A)に示すように、基準カメラ画像上の点naを中心
(例えば、対角線の交点)とする、例えば長方形状の小
ブロック(例えば、横×縦が5画素×5画素のブロッ
ク)である基準ブロックが、基準カメラ画像から抜き出
されるとともに、図4(B)に示すように、検出カメラ
画像に投影されたエピポーララインL2上の、ある点を
中心とする、基準ブロックと同一の大きさの小ブロック
である検出ブロックが、検出カメラ画像から抜き出され
る。
That is, in the area-based matching, FIG.
As shown in (A), for example, it is a rectangular small block (for example, a block of 5 × 5 pixels in the horizontal and vertical directions) with a point na on the reference camera image (for example, an intersection of diagonal lines). The reference block is extracted from the reference camera image and, as shown in FIG. 4B, has the same size as the reference block centered on a certain point on the epipolar line L2 projected on the detected camera image. Are extracted from the detected camera image.

【0043】ここで、図4(B)の実施の形態において
は、エピポーララインL2上に、検出ブロックの中心と
する点として、点nb1乃至nb6の6点が設けられて
いる。この6点nb1乃至nb6は、図3に示した3次
元空間における直線Lの点であって、基準点からの距離
が、例えば1m,2m,3m,4m,5m,6mの点そ
れぞれを、検出カメラ12の撮像面S2に投影した点
で、従って、基準点からの距離が1m,2m,3m,4
m,5m,6mの点にそれぞれ対応している。
Here, in the embodiment of FIG. 4B, six points nb1 to nb6 are provided on the epipolar line L2 as the center of the detection block. The six points nb1 to nb6 are points of the straight line L in the three-dimensional space shown in FIG. 3, and the points whose distances from the reference point are, for example, 1 m, 2 m, 3 m, 4 m, 5 m, and 6 m are detected. The point projected on the imaging surface S2 of the camera 12, and therefore, the distance from the reference point is 1m, 2m, 3m, 4
m, 5 m, and 6 m, respectively.

【0044】エリアベースマッチングでは、検出カメラ
画像から、エピポーララインL2上に設けられている点
nb1乃至nb6それぞれを中心とする検出ブロックが
抜き出され、各検出ブロックと、基準ブロックとの相関
が、所定の評価関数を用いて演算される。そして、点n
aを中心とする基準ブロックとの相関が最も高い検出ブ
ロックの中心の点nbが、点naの対応点として求めら
れる。
In the area-based matching, detection blocks centered on points nb1 to nb6 provided on the epipolar line L2 are extracted from the detected camera image, and the correlation between each detection block and the reference block is calculated as follows. The calculation is performed using a predetermined evaluation function. And point n
The point nb at the center of the detection block having the highest correlation with the reference block around a is obtained as the corresponding point of the point na.

【0045】ここで、基準ブロックと検出ブロックとの
相関性を評価する評価関数としては、例えば、基準ブロ
ックを構成する画素と、それぞれの画素に対応する、検
出ブロックを構成する画素の画素値の差分の絶対値の総
和や、画素値の差分の自乗和、正規化された相互相関(n
ormalized cross correlation)などを用いることができ
る。
Here, as the evaluation function for evaluating the correlation between the reference block and the detection block, for example, the pixels constituting the reference block and the pixel values of the pixels constituting the detection block corresponding to the respective pixels are used. The sum of the absolute values of the differences, the sum of the squares of the pixel values, and the normalized cross-correlation (n
or normalized cross correlation).

【0046】いま、評価関数として、画素値の差分の絶
対値の総和を用いることとすると、基準カメラ画像上の
所定の点(x,y)(座標(x,y)の画素)について
の、検出カメラ画像上のある点(x’,y’)との間の
相関は、例えば、次式で表される評価値(エラー値)e
(x,y)によって評価される。
Now, assuming that the sum of the absolute values of the differences between the pixel values is used as the evaluation function, the following equation is obtained for a predetermined point (x, y) (pixel at coordinates (x, y)) on the reference camera image. The correlation between a certain point (x ′, y ′) on the detected camera image is, for example, an evaluation value (error value) e represented by the following equation.
It is evaluated by (x, y).

【0047】[0047]

【数1】 ・・・(1) 但し、式(1)において、e(x,y)は、基準カメラ
画像上の画素(x,y)、と、検出カメラ画像上の画素
(x’,y’)との間の相関を示す評価値(エラー値)
を表す。さらに、YA(x+i,y+j)は、基準カメ
ラ画像上の点(x+i,y+j)における画素の画素値
としての、例えば輝度を表し、YB(x’+i,y’+
j)は、検出カメラ画像上の点(x’+i,y’+j)
における画素の輝度を表す。また、Wは、基準ブロック
および検出ブロックを表し、i,j∈Wは、点(x+
i,y+j)または点(x’+i,y’+j)が、それ
ぞれ、基準ブロックまたは検出ブロック内の点(画素)
であることを表す。
(Equation 1) (1) where e (x, y) is a pixel (x, y) on the reference camera image and a pixel (x ′, y ′) on the detected camera image. Evaluation value (error value) indicating the correlation between
Represents Further, YA (x + i, y + j) represents, for example, luminance as a pixel value of a pixel at a point (x + i, y + j) on the reference camera image, and YB (x ′ + i, y ′ +
j) is a point (x ′ + i, y ′ + j) on the detected camera image
Represents the luminance of the pixel at. W represents a reference block and a detection block, and i, j∈W represents a point (x +
i, y + j) or a point (x ′ + i, y ′ + j) is a point (pixel) in the reference block or the detection block, respectively.
It represents that.

【0048】なお、式(1)で表される評価値e(x,
y)は、基準カメラ画像上の画素(x,y)と、検出カ
メラ画像上の画素(x’,y’)との間の相関が大きい
ほど小さくなり、従って、評価値e(x,y)を最も小
さくする検出カメラ画像上の画素(x’,y’)が、基
準カメラ画像上の画素(x,y)の対応点として求めら
れる。
It should be noted that the evaluation value e (x,
y) decreases as the correlation between the pixel (x, y) on the reference camera image and the pixel (x ′, y ′) on the detected camera image increases, and therefore, the evaluation value e (x, y) ) Is determined as the corresponding point of the pixel (x, y) on the reference camera image.

【0049】いま、式(1)に示したような、相関が高
いほど小さな値をとる評価値を用いた場合に、エピポー
ララインL2上の点nb1乃至nb6それぞれについ
て、例えば、図5に示すような評価値(評価関数の値)
が得られたとする。ここで、図5においては、点nb1
乃至nb6に対応する3次元空間上の点それぞれにあら
かじめ付された、基準点からの距離に対応する距離番号
を横軸として、各距離番号(に対応するエピポーラライ
ンL2上の点nb1乃至nb6)に対する評価値を、図
示してある。
When an evaluation value having a smaller value as the correlation is higher as shown in the equation (1) is used, each of the points nb1 to nb6 on the epipolar line L2 is, for example, as shown in FIG. Evaluation value (value of evaluation function)
Is obtained. Here, in FIG. 5, the point nb1
Each distance number (points nb1 to nb6 on the epipolar line L2 corresponding to a distance number corresponding to the distance from the reference point, which is previously assigned to each point in the three-dimensional space corresponding to nb6 to nb6) Are shown in the figure.

【0050】図5に示したような評価値でなる評価曲線
が得られた場合には、評価値が最も小さい(相関が最も
高い)距離番号3に対応するエピポーララインL2上の
点が、点naの対応点として検出される。なお、図5に
おいて、距離番号1乃至6に対応する点それぞれについ
て求められた評価値(図5において●印で示す)のうち
の最小値付近のものを用いて補間を行い、評価値がより
小さくなる点(図5において×印で示す3.3mに対応
する点)を求めて、その点を、最終的な対応点として検
出することも可能である。
When the evaluation curve having the evaluation values as shown in FIG. 5 is obtained, the point on the epipolar line L2 corresponding to the distance number 3 having the smallest evaluation value (highest correlation) is defined as a point. na is detected as a corresponding point. In FIG. 5, interpolation is performed using the evaluation value (indicated by a black circle in FIG. 5) near the minimum value among the evaluation values obtained for the points corresponding to the distance numbers 1 to 6, and the evaluation value becomes higher. It is also possible to obtain a point that becomes smaller (a point corresponding to 3.3 m indicated by a cross in FIG. 5) and detect that point as a final corresponding point.

【0051】なお、基準カメラ11の撮像面S1上の点
naと、その光学中心O1を結ぶ直線L上の点を、検出
カメラ12の撮像面S2に投影した点nb1乃至nb6
の設定は、例えば、基準カメラ11および検出カメラ1
2のキャリブレーション時に行うことができる(キャリ
ブレーションの方法は、特に限定されるものではな
い)。そして、このような設定を、基準カメラ11の撮
像面S1を構成する画素ごとに存在するエピポーラライ
ンごとに行い、エピポーラライン上に設定された点(以
下、適宜、設定点という)までの距離(基準点からの距
離)に対応する距離番号と、基準点からの距離とを対応
付ける距離番号/距離テーブルをあらかじめ作成してお
けば、対応点となる設定点を検出し、その設定点に対応
する距離番号を、距離番号/距離テーブルを参照して変
換することで、即座に、基準点からの距離(物体上の点
までの距離の推定値)を求めることができる。即ち、い
わば、対応点から、直接、距離を求めることができる。
但し、距離は、対応点を検出後、視差を求めて、その視
差から算出することも可能である。
The points nb1 to nb6 are obtained by projecting a point na on the imaging surface S1 of the reference camera 11 and a point on a straight line L connecting the optical center O1 onto the imaging surface S2 of the detection camera 12.
The setting of, for example, the reference camera 11 and the detection camera 1
2 can be performed at the time of calibration (the method of calibration is not particularly limited). Such setting is performed for each epipolar line existing for each pixel constituting the imaging surface S1 of the reference camera 11, and the distance (hereinafter, appropriately referred to as a set point) to a point set on the epipolar line (hereinafter, appropriately referred to as a set point). If a distance number / distance table for associating a distance number corresponding to a distance from the reference point with a distance from the reference point is created in advance, a set point serving as a corresponding point is detected, and the corresponding set point is detected. By converting the distance number with reference to the distance number / distance table, the distance from the reference point (estimated value of the distance to a point on the object) can be immediately obtained. That is, the distance can be obtained directly from the corresponding point.
However, the distance can also be calculated from the parallax after detecting the corresponding point and calculating the parallax.

【0052】なお、基準カメラ11および検出カメラ1
2で撮像する対象物が、例えば、人の顔である場合に
は、基準カメラ11と検出カメラ12とから見える顔の
向きが異なることがある。この場合、対応点どうしの基
準ブロックおよび検出ブロックを、そのまま用いて、両
者の相関を計算しても、その相関が大きくならないこと
があり、その結果、正しい対応点が求められないことが
ある。そこで、基準ブロックと検出ブロックとの相関
は、例えば、検出ブロックを、基準カメラ11から見た
ものとなるように射影変換した後に計算するのが望まし
い。
The reference camera 11 and the detection camera 1
If the object imaged in step 2 is, for example, a human face, the directions of the faces viewed from the reference camera 11 and the detection camera 12 may be different. In this case, even if the correlation between the reference block and the detection block between the corresponding points is calculated as they are, the correlation may not be large, and as a result, the correct corresponding point may not be obtained. Therefore, it is desirable to calculate the correlation between the reference block and the detection block, for example, after projecting the detection block so as to be viewed from the reference camera 11.

【0053】また、図2の実施の形態では、1台の基準
カメラ11と、1台の検出カメラ12とを用いることと
したが、検出カメラは、複数台用いることが可能であ
る。この場合、マルチベースラインステレオ(Multi Ba
seline Stereo)法による評価値を求めて、その評価値
に基づき、距離を求める、即ち、いわゆる多眼ステレオ
処理により距離画像を求めることとなる。
In the embodiment of FIG. 2, one reference camera 11 and one detection camera 12 are used, but a plurality of detection cameras can be used. In this case, the multi-baseline stereo (Multi Ba
An evaluation value is obtained by the seline stereo method, and a distance is obtained based on the evaluation value, that is, a distance image is obtained by so-called multi-view stereo processing.

【0054】ここで、マルチベースラインステレオ法
は、1の基準カメラ画像と、複数の検出カメラ画像とを
用い、その複数の検出カメラ画像それぞれについて、基
準カメラ画像との間の相関を表す評価値を求め、それぞ
れの評価値どうしを、同一の距離番号について加算し、
その加算値を、最終的な評価値として用いることにより
高精度に距離を求めるもので、その詳細については、例
えば、奥富正敏、金出武雄、「複数の基線長を利用した
ステレオマッチング」、電子情報通信学会論文誌D-II V
ol.J75-D-II No.8 pp.1317-1327 1992年8月に記載され
ている。マルチベースラインステレオ法は、例えば、基
準カメラ画像および検出カメラ画像が、繰り返しパター
ンを有する場合に、特に有効である。
Here, the multi-baseline stereo method uses one reference camera image and a plurality of detected camera images, and evaluates the correlation value between each of the plurality of detected camera images with the reference camera image. And add the respective evaluation values for the same distance number,
The added value is used as a final evaluation value to obtain a distance with high accuracy.For details, see Masatoshi Okutomi, Takeo Kanade, "Stereo Matching Using Multiple Baseline Lengths," IEICE Transactions D-II V
ol. J75-D-II No. 8 pp. 1317-1327 described in August 1992. The multi-baseline stereo method is particularly effective when, for example, the reference camera image and the detected camera image have a repeating pattern.

【0055】さらに、図2の実施の形態では、2台のC
CDビデオカメラである基準カメラ11と検出カメラ1
2によって、視点位置方向センサ4を構成するようにし
たが、視点位置方向センサ4は、1台のCCDビデオカ
メラで構成することも可能である。但し、複数台のCC
Dビデオカメラを用いる場合には、ステレオ処理によっ
て、ユーザの視点の3次元空間における位置を求めるこ
とができるが、1台のCCDビデオカメラを用いる場合
には、そのような3次元的な位置(距離)を求めること
は困難となる。即ち、1台のCCDビデオカメラを用い
る場合には、視点の方向(例えば、光学シースルー表示
部1を基準とする視点の方向)は求めることができる
が、3次元空間における位置を求めることは困難とな
る。
Further, in the embodiment shown in FIG.
Reference camera 11 and detection camera 1 which are CD video cameras
2, the viewpoint position / direction sensor 4 is configured. However, the viewpoint position / direction sensor 4 can be configured by one CCD video camera. However, multiple CCs
When a D video camera is used, the position of the user's viewpoint in a three-dimensional space can be obtained by stereo processing. However, when a single CCD video camera is used, such a three-dimensional position ( Distance) is difficult to determine. That is, when one CCD video camera is used, the direction of the viewpoint (for example, the direction of the viewpoint with reference to the optical see-through display unit 1) can be obtained, but it is difficult to obtain the position in the three-dimensional space. Becomes

【0056】次に、図6のフローチャートを参照して、
図1の携帯型表示装置の動作について説明する。
Next, referring to the flowchart of FIG.
The operation of the portable display device of FIG. 1 will be described.

【0057】まず最初に、ステップS1において、光学
シースルー型表示部1の位置と姿勢が算出されるととも
に、ユーザの視点が算出される。即ち、3次元位置方向
算出部3において、3次元位置方向センサ2の出力に基
づいて、光学シースルー型表示部1の位置と姿勢が算出
され、仮想物体座標変換部8に供給される。同時に、視
点位置方向算出部5において、視点位置方向センサ4の
出力に基づいて、ユーザの視点(の位置または方向)が
算出され、仮想物体座標変換部8に供給される。
First, in step S1, the position and orientation of the optical see-through display unit 1 are calculated, and the viewpoint of the user is calculated. That is, the position and orientation of the optical see-through display unit 1 are calculated by the three-dimensional position and direction calculation unit 3 based on the output of the three-dimensional position and direction sensor 2, and supplied to the virtual object coordinate conversion unit 8. At the same time, the viewpoint position / direction calculator 5 calculates (the position or direction of) the viewpoint of the user based on the output of the viewpoint position / direction sensor 4 and supplies the calculated viewpoint to the virtual object coordinate converter 8.

【0058】一方、仮想物体生成部7では、仮想物体デ
ータ蓄積部6に記憶されたデータに基づいて、所定の3
次元空間における仮想物体が生成され、仮想物体座標変
換部8に供給される。仮想物体座標変換部8では、ステ
ップS2において、光学シースルー型表示部1の位置と
姿勢、およびユーザの視点に基づいて、所定の3次元空
間における仮想物体の座標変換が行われ、その変換後の
仮想物体のデータが、レンダリング部9に供給される。
レンダリング部9では、ステップS3において、仮想物
体座標変換部8からのデータにしたがい、仮想物体のレ
ンダリングが行われ、光学シースルー型表示部1に供給
される。光学シースルー型表示部1では、ステップS4
において、レンダリング部9からの仮想物体の画像(仮
想画像)が表示される。そして、ステップS1に戻り、
以下、同様の処理が繰り返される。
On the other hand, the virtual object generation unit 7 performs a predetermined 3 based on the data stored in the virtual object data storage unit 6.
A virtual object in the three-dimensional space is generated and supplied to the virtual object coordinate conversion unit 8. In step S2, the virtual object coordinate conversion unit 8 performs coordinate conversion of the virtual object in a predetermined three-dimensional space based on the position and orientation of the optical see-through display unit 1 and the viewpoint of the user. The data of the virtual object is supplied to the rendering unit 9.
In step S3, the rendering unit 9 renders the virtual object in accordance with the data from the virtual object coordinate conversion unit 8, and supplies the rendering to the optical see-through display unit 1. In the optical see-through display unit 1, step S4
In, the image (virtual image) of the virtual object from the rendering unit 9 is displayed. Then, returning to step S1,
Hereinafter, the same processing is repeated.

【0059】これにより、光学シースルー型表示部1に
は、図6および図7に示すように、実画像と仮想画像と
を重畳した違和感のない画像が表示される。
As a result, as shown in FIGS. 6 and 7, the optical see-through type display section 1 displays a natural image in which the real image and the virtual image are superimposed without any discomfort.

【0060】即ち、例えば、いま、ユーザが、図7
(A)に示すように、光学シースルー型表示部1の表示
画面の真正面から、実在するテーブルを見ているとし、
このとき、レンダリング部9において、仮想物体の仮想
画像がレンダリングされ、これにより、光学シースルー
型表示部1において、図7(B)に示すように、実在す
るテーブルの上に、三角錐形状の仮想物体がのっている
画像が表示されたとする。
That is, for example, when the user
As shown in (A), it is assumed that an existing table is viewed from directly in front of the display screen of the optical see-through display unit 1.
At this time, the rendering unit 9 renders a virtual image of the virtual object, so that the optical see-through display unit 1 places a triangular pyramid-shaped virtual image on an existing table as shown in FIG. Assume that an image on which an object is placed is displayed.

【0061】この場合、図7(C)に示すように、ユー
ザが、光学シースルー型表示部1の表示画面の正面から
左に移動し、これにより、視点を左に移動すると、光学
シースルー型表示部1を介して見える実在するテーブル
は、その表示画面の左側に移動するが、これに伴い、光
学シースルー型表示部1において表示されていた仮想物
体も、左側に移動される。その結果、ユーザは、図7
(D)に示すように、視点が左に移動したことに伴い、
テーブルおよびそれにのっている仮想物体も左に移動し
た、違和感のない画像を見ることができる。
In this case, as shown in FIG. 7C, when the user moves from the front of the display screen of the optical see-through display unit 1 to the left and thereby shifts the viewpoint to the left, the optical see-through display is performed. The actual table viewed through the unit 1 moves to the left of the display screen, and accordingly, the virtual object displayed on the optical see-through display unit 1 also moves to the left. As a result, the user
As shown in (D), as the viewpoint moves to the left,
The table and the virtual object on it have also moved to the left, and the user can see a natural image.

【0062】さらに、図7(E)に示すように、ユーザ
が、光学シースルー型表示部1の表示画面の正面から右
に移動し、これにより、視点を右に移動すると、光学シ
ースルー型表示部1を介して見える実在するテーブル
は、その表示画面の右側に移動するが、これに伴い、光
学シースルー型表示部1において表示されていた仮想物
体も、右側に移動される。その結果、ユーザは、図7
(F)に示すように、視点が右に移動したことに伴い、
テーブルおよびそれにのっている仮想物体も右に移動し
た、違和感のない画像を見ることができる。
Further, as shown in FIG. 7 (E), when the user moves from the front of the display screen of the optical see-through type display unit 1 to the right, thereby moving the viewpoint to the right, the optical see-through type display unit 1 The actual table viewed through the display 1 moves to the right of the display screen, and accordingly, the virtual object displayed on the optical see-through display unit 1 also moves to the right. As a result, the user
As shown in (F), as the viewpoint moves to the right,
The table and the virtual object on it have also moved to the right, and you can see an image that does not feel uncomfortable.

【0063】また、図7(A)に示したように、ユーザ
が、光学シースルー型表示部1の表示画面の正面のある
位置から、実在するテーブルと仮想物体を見ている場合
において、図8(A)に示すように、光学シースルー型
表示部1から遠ざかり、これにより、視点の位置が遠方
に移動すると、光学シースルー型表示部1を介して見え
る実在するテーブルがその表示画面を占める面積は大き
くなるが、これに伴い、光学シースルー型表示部1にお
いて表示されていた仮想物体も、拡大される。その結
果、ユーザは、図8(B)に示すように、視点が遠方に
移動したことに伴い、テーブルおよびそれにのっている
仮想物体が、光学シースルー型表示部1の表示画面の中
で大きくなった、違和感のない画像を見ることができ
る。
As shown in FIG. 7A, when the user looks at a real table and a virtual object from a certain position in front of the display screen of the optical see-through display unit 1, FIG. As shown in (A), when the viewpoint moves away from the optical see-through type display unit 1 and the viewpoint moves to a distant position, the area occupied by the actual table viewed through the optical see-through type display unit 1 occupies the display screen. As a result, the virtual object displayed on the optical see-through display unit 1 is also enlarged. As a result, as shown in FIG. 8 (B), the user moves the table to a far distance, and the table and the virtual object on it become larger on the display screen of the optical see-through display unit 1 as shown in FIG. Now, you can see the image without any discomfort.

【0064】さらに、ユーザが、図8(C)に示すよう
に、光学シースルー型表示部1に近づき、これにより、
視点の位置も近づくと、光学シースルー型表示部1を介
して見える実在するテーブルがその表示画面を占める面
積は小さくなるが、これに伴い、光学シースルー型表示
部1において表示されていた仮想物体も、縮小される。
その結果、ユーザは、図8(D)に示すように、視点
が、光学シースルー型表示部1に近づいたことに伴い、
テーブルおよびそれにのっている仮想物体が、光学シー
スルー型表示部1の表示画面の中で小さくなった、違和
感のない画像を見ることができる。
Further, the user approaches the optical see-through type display unit 1 as shown in FIG.
As the position of the viewpoint approaches, the area occupied by the actual table visible through the optical see-through display unit 1 occupies a smaller display screen, but along with this, the virtual object displayed on the optical see-through display unit 1 also decreases. , Is reduced.
As a result, as shown in FIG. 8D, the user moves the viewpoint closer to the optical see-through display unit 1,
The table and the virtual object on it can be seen on the display screen of the optical see-through type display unit 1 so as to have a small and comfortable image.

【0065】なお、図7に示したように、視点の方向が
変わった場合に対処するだけであれば、視点位置方向算
出部5において、視点の方向を算出だけで、基本的には
十分であるが、図8に示したように、視点までの距離が
変わった場合にまで対処するには、視点位置方向算出部
5において、視点の3次元的な位置(3次元空間におけ
る、例えば、ユーザの左眼と右眼との中点の位置など)
を算出する必要がある。
As shown in FIG. 7, if it is only necessary to deal with a case where the direction of the viewpoint has changed, it is basically sufficient to calculate the direction of the viewpoint in the viewpoint position direction calculation unit 5. However, as shown in FIG. 8, in order to cope with a case where the distance to the viewpoint has changed, the viewpoint position direction calculation unit 5 uses a three-dimensional position of the viewpoint (for example, a user in a three-dimensional space). Position of the midpoint between the left and right eyes of
Needs to be calculated.

【0066】次に、図1の携帯型表示装置では、仮想物
体座標変換部8において、光学シースルー型表示部1の
位置と姿勢、およびユーザの視点に基づいて、仮想物体
の座標変換が行われ、その変換後の仮想物体が、光学シ
ースルー型表示部1に表示されることにより、ユーザか
ら見て違和感のない仮想画像が提供されるが、この仮想
物体座標変換部8における座標変換について説明する。
Next, in the portable display device of FIG. 1, the virtual object coordinate conversion unit 8 performs the coordinate conversion of the virtual object based on the position and orientation of the optical see-through display unit 1 and the viewpoint of the user. The virtual object after the conversion is displayed on the optical see-through display unit 1 to provide a virtual image that is not uncomfortable to the user. Coordinate conversion in the virtual object coordinate conversion unit 8 will be described. .

【0067】いま、3次元空間における座標を扱うロー
カル座標系として、例えば、図9に示すように、光学シ
ースルー型表示部1の表示画面の左上の点を原点とし、
表示画面の左から右方向をx軸と、表示画面の上から下
方向をy軸と、手前から奥方向をz軸と、それぞれする
(XL,YL,ZL)を定義する。さらに、光学シース
ルー型表示部1の表示画面に表示を行うための2次元平
面における座標を扱う表示画面座標系として、例えば、
その表示画面の左上の点を原点とし、表示画面の左から
右方向をx軸と、表示画面の上から下方向をy軸と、そ
れぞれする(u,v)を定義する。
Now, as a local coordinate system for handling coordinates in a three-dimensional space, for example, as shown in FIG. 9, the upper left point of the display screen of the optical see-through type display unit 1 is set as the origin,
(XL, YL, ZL), which defines the x-axis from the left to the right of the display screen, the y-axis from the top to the bottom of the display screen, and the z-axis from the front to the back, respectively. Further, as a display screen coordinate system that handles coordinates on a two-dimensional plane for displaying on the display screen of the optical see-through display unit 1, for example,
The origin is defined as the point at the upper left of the display screen, and the x-axis is defined from left to right of the display screen, and the y-axis is defined from top to bottom of the display screen as (u, v).

【0068】この場合において、ローカル座標系におけ
るユーザの視点の座標を、A(VXL,VYL,VZ
L)と表す。また、仮想物体のローカル座標系における
座標を、B(OXL,OYL,OZL)と表す。さら
に、仮想物体の所定の3次元座標系(仮想物体生成部7
で生成される仮想物体の3次元座標系)(以下、適宜、
基準座標系という)における座標を、(OX,OY,O
Z)と表す。
In this case, the coordinates of the user's viewpoint in the local coordinate system are represented by A (VXL, VYL, VZ).
L). The coordinates of the virtual object in the local coordinate system are represented by B (OXL, OYL, OZL). Further, a predetermined three-dimensional coordinate system of the virtual object (virtual object generation unit 7)
3D coordinate system of the virtual object generated by
The coordinates in the reference coordinate system) are expressed as (OX, OY, O
Z).

【0069】光学シースルー型表示部1が動くと、ロー
カル座標系であるXL軸、YL軸、ZL軸が動くことに
なるが、このローカル座標系と、基準座標系との関係
は、3次元位置方向算出部3において算出される光学シ
ースルー型表示部1の位置および姿勢に基づいて求める
ことができる。ローカル座標系と基準座標系との関係が
分かれば、基準座標系における点(OX,OY,OZ)
は、次式に示すアフィン変換によるスケーリング、回
転、平行移動によって、ローカル座標系の点B(OX
L,OYL,OZL)に変換することができる。
When the optical see-through type display unit 1 moves, the local axes XL, YL, and ZL move. The relation between the local coordinate system and the reference coordinate system is based on the three-dimensional position. It can be obtained based on the position and orientation of the optical see-through display unit 1 calculated by the direction calculation unit 3. If the relationship between the local coordinate system and the reference coordinate system is known, a point (OX, OY, OZ) in the reference coordinate system
Is a point B (OX in the local coordinate system) by scaling, rotation, and translation by the affine transformation shown in the following equation.
L, OYL, OZL).

【0070】[0070]

【数2】 ・・・(2) 但し、式(2)において、m11乃至m33は、スケー
リングおよび回転のファクタで、TX,TY,TZは平
行移動のファクタである。
(Equation 2) (2) In the equation (2), m11 to m33 are scaling and rotation factors, and TX, TY, and TZ are translation factors.

【0071】仮想物体のローカル座標系における座標B
(OXL,OYL,OZL)が求まれば、ユーザの視点
から見た点B、即ち、仮想物体の表示画面座標系におけ
る座標(u,v)は、図10に示すように求めることが
できる。
Coordinate B of the virtual object in the local coordinate system
When (OXL, OYL, OZL) is obtained, the point B viewed from the user's viewpoint, that is, the coordinates (u, v) of the virtual object in the display screen coordinate system can be obtained as shown in FIG.

【0072】ここで、図10は、図9をYL軸方向から
見た状態(YL軸方向を進行方向にして見た状態)を示
している。
FIG. 10 shows a state in which FIG. 9 is viewed from the YL axis direction (a state in which the YL axis direction is the traveling direction).

【0073】図10において、視点の位置AからZL軸
に垂らした垂線と、仮想物体の位置BからXL軸に垂ら
した垂線との交点をCとし、さらに、仮想物体の位置B
からXL軸に垂らした垂線と、XL軸との交点をDとす
る。さらに、直線ABと、XL軸との交点、即ち、ユー
ザの視点から仮想物体を見たときに、点Bが表示画像上
に撮影される点をEとする。
In FIG. 10, the intersection point of the perpendicular extending from the viewpoint position A to the ZL axis and the perpendicular extending from the position B of the virtual object to the XL axis is represented by C, and the position B of the virtual object is further represented by C.
Let D be the point of intersection of the perpendicular from the axis to the XL axis and the XL axis. Further, an intersection between the straight line AB and the XL axis, that is, a point at which the point B is photographed on the display image when the virtual object is viewed from the viewpoint of the user is defined as E.

【0074】この場合、点Eのローカル座標系における
z座標は0となるが、そのx座標とy座標が、仮想物体
の表示画面座標系におけるx座標とy座標になる。即
ち、仮想物体の表示画面座標系における座標(u,v)
は、点Eのローカル座標系におけるx座標とy座標に等
しいから、これを、ユーザの視点の位置A(VXL,V
YL,VZL)と、仮想物体の位置B(OXL,OY
L,OZL)から求めれば良い。
In this case, the z coordinate of the point E in the local coordinate system is 0, but its x coordinate and y coordinate are the x coordinate and y coordinate of the virtual object in the display screen coordinate system. That is, the coordinates (u, v) of the virtual object in the display screen coordinate system
Is equal to the x coordinate and the y coordinate of the point E in the local coordinate system.
YL, VZL) and the position B of the virtual object (OXL, OY)
L, OZL).

【0075】いま、図10において、三角形ABCとE
BDとは相似であるから、線分DEおよびCAの比と、
線分BDおよびBCの比とは等しく、従って、次式が成
り立つ。
Now, in FIG. 10, triangles ABC and E
Since BD is similar, the ratio of the line segments DE and CA,
The ratio of the line segments BD and BC is equal, and therefore the following equation holds.

【0076】 (u−OXL)/(VXL−OXL)=OZL/(OZL−VZL) ・・・(3) 式(3)を、uについて解くと、次式が得られる。(U−OXL) / (VXL−OXL) = OZL / (OZL−VZL) (3) By solving equation (3) for u, the following equation is obtained.

【0077】 u=OZL(VXL−OXL)/(OZL−VZL)+OXL ・・・(4) また、図9をXL軸方向から見ると、vについても、u
における場合と同様にして、次式が得られる。
U = OZL (VXL−OXL) / (OZL−VZL) + OXL (4) When FIG. 9 is viewed from the XL axis direction, v is also u.
The following equation is obtained as in the case of

【0078】 v=OZL(VYL−OYL)/(OZL−VZL)+OYL ・・・(5) 式(4)および(5)により、ユーザの視点から見た仮
想物体の表示画面座標系における座標(u,v)を求め
ることができる。
V = OZL (VYL−OYL) / (OZL−VZL) + OYL (5) According to equations (4) and (5), the coordinates (in the display screen coordinate system of the virtual object viewed from the user's viewpoint) u, v).

【0079】次に、図11は、本発明を適用した携帯型
表示装置の第2実施の形態の構成を示している。なお、
図中、図1における場合と対応する部分については、同
一の符号を付してあり、以下では、その説明は、省略す
る。即ち、図11の携帯型表示装置は、光学シースルー
型表示部1に替えて、ビデオシースルー型表示部31が
設けられ、さらに、画像入力部32および入力画像座標
変換部33が新たに設けられている他は、基本的に、図
1における場合と同様に構成されている。
Next, FIG. 11 shows the configuration of a second embodiment of a portable display device to which the present invention is applied. In addition,
In the figure, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted below. That is, the portable display device of FIG. 11 includes a video see-through display unit 31 instead of the optical see-through display unit 1, and further includes an image input unit 32 and an input image coordinate conversion unit 33. Other than that, the configuration is basically the same as in FIG.

【0080】ビデオシースルー型表示部31は、例え
ば、LCDで構成され、レンダリング部9から供給され
る、実画像と仮想画像とを重畳した合成画像を表示する
ようになっている。なお、ビデオシースルー型表示部3
1は、光学シースルー型表示部1と同様に、平板形状の
筐体に収められているが、その表示画面を介して、現実
空間が見えるようにはなっていない。
The video see-through type display section 31 is composed of, for example, an LCD, and displays a composite image supplied from the rendering section 9 in which a real image and a virtual image are superimposed. The video see-through display unit 3
1 is housed in a flat casing like the optical see-through display unit 1, but the real space is not visible through the display screen.

【0081】画像入力部32は、例えば、CCDビデオ
カメラなどで構成され、ビデオシースルー型表示部31
の裏面(表示画面とは反対側の面)に、その裏面と垂直
な方向(ビデオシースルー型表示部31の正面から見て
向側)が撮像方向となるように固定されている。そし
て、画像入力部32は、ビデオシースルー型表示部31
の裏面側の現実空間にある実際の物体を撮像し、その結
果得られる実画像を、入力画像座標変換部33に供給す
るようになされている。
The image input section 32 is composed of, for example, a CCD video camera or the like.
Is fixed on the rear surface (the surface opposite to the display screen) so that the direction perpendicular to the rear surface (the side facing the front of the video see-through display unit 31) is the imaging direction. The image input unit 32 is a video see-through display unit 31.
, An actual object in the real space on the back side of the camera is imaged, and a real image obtained as a result is supplied to the input image coordinate conversion unit 33.

【0082】入力画像座標変換部33には、上述したよ
うに、画像入力部32から実画像が供給される他、3次
元位置方向算出部3からビデオシースルー型表示部31
の位置および姿勢が供給されるとともに、視点位置方向
算出部5からユーザの視点が供給されるようになされて
いる。そして、入力画像座標変換部33は、画像入力部
32からの実画像の座標を、3次元位置方向算出部3か
らのビデオシースルー型表示部31の位置および姿勢、
並びに視点位置方向算出部5からのユーザの視点等に基
づいて、幾何計算により変換し、レンダリング部9に供
給するようになされている。
As described above, the input image coordinate conversion unit 33 is supplied with the actual image from the image input unit 32, and the three-dimensional position / direction calculation unit 3 transmits the video see-through type display unit 31.
Are supplied, and the viewpoint of the user is supplied from the viewpoint position / direction calculator 5. Then, the input image coordinate conversion unit 33 converts the coordinates of the real image from the image input unit 32 into the position and orientation of the video see-through display unit 31 from the three-dimensional position and direction calculation unit 3,
In addition, based on the user's viewpoint and the like from the viewpoint position / direction calculation unit 5, the data is converted by geometric calculation and supplied to the rendering unit 9.

【0083】従って、図1の携帯型表示装置では、光学
シースルー型表示部1を介して見える現実空間に、仮想
画像が重畳されて表示されるようになされていたが、図
11の携帯型表示装置では、画像入力部32で撮像され
た現実空間の実画像に、仮想画像が重畳されて表示され
るようになされている。
Therefore, in the portable display device shown in FIG. 1, the virtual image is superimposed and displayed on the real space seen through the optical see-through display unit 1, but the portable display device shown in FIG. In the apparatus, a virtual image is displayed so as to be superimposed on a real image in the real space captured by the image input unit 32.

【0084】なお、図11の携帯型表示装置の電気的構
成は、画像入力部32としてのCCDビデオカメラが追
加され、CPU17が、入力画像座標変換部33におけ
る処理をも行うこと等を除けば、図2に示した図1の携
帯型表示装置の電気的構成と同様なので、その説明は省
略する。
The electric configuration of the portable display device shown in FIG. 11 is the same as that of the portable display device except that a CCD video camera as an image input unit 32 is added and the CPU 17 also performs processing in the input image coordinate conversion unit 33. Since the electrical configuration of the portable display device of FIG. 1 shown in FIG. 2 is the same as that of FIG.

【0085】次に、図12のフローチャートを参照し
て、図11の携帯型表示装置の動作について説明する。
Next, the operation of the portable display device of FIG. 11 will be described with reference to the flowchart of FIG.

【0086】まず最初に、ステップS11において、ビ
デオシースルー型表示部31の位置と姿勢が算出される
とともに、ユーザの視点が算出される。即ち、3次元位
置方向算出部3において、3次元位置方向センサ2の出
力に基づいて、ビデオシースルー型表示部31の位置と
姿勢が算出され、仮想物体座標変換部8および入力画像
座標変換部33に供給される。同時に、視点位置方向算
出部5において、視点位置方向センサ4の出力に基づい
て、ユーザの視点(の位置または方向)が算出され、仮
想物体座標変換部8および入力画像座標変換部33に供
給される。
First, in step S11, the position and orientation of the video see-through display unit 31 are calculated, and the viewpoint of the user is calculated. That is, the position and orientation of the video see-through display unit 31 are calculated by the three-dimensional position and direction calculation unit 3 based on the output of the three-dimensional position and direction sensor 2, and the virtual object coordinate conversion unit 8 and the input image coordinate conversion unit 33 are calculated. Supplied to At the same time, the viewpoint position / direction calculator 5 calculates (the position or direction of) the user's viewpoint based on the output of the viewpoint position / direction sensor 4 and supplies the calculated viewpoint to the virtual object coordinate converter 8 and the input image coordinate converter 33. You.

【0087】一方、仮想物体生成部7では、仮想物体デ
ータ蓄積部6に記憶されたデータに基づいて、所定の3
次元空間における仮想物体が生成され、仮想物体座標変
換部8に供給される。同時に、画像入力部32では、ビ
デオシースルー型表示部31の裏面方向の現実空間が撮
像され、その結果得られる実画像が、入力画像座標変換
部33に供給される。
On the other hand, the virtual object generation unit 7 performs a predetermined 3 based on the data stored in the virtual object data storage unit 6.
A virtual object in the three-dimensional space is generated and supplied to the virtual object coordinate conversion unit 8. At the same time, the image input unit 32 captures an image of the real space in the direction of the back surface of the video see-through display unit 31, and the resulting real image is supplied to the input image coordinate conversion unit 33.

【0088】そして、ステップS12では、仮想物体座
標変換部8において、ビデオシースルー型表示部31の
位置と姿勢、およびユーザの視点に基づいて、所定の3
次元空間における仮想物体の座標変換が行われ、その変
換後の仮想物体のデータが、レンダリング部9に供給さ
れる。また、ステップS12では、入力画像座標変換部
33において、ビデオシースルー型表示部31の位置と
姿勢、およびユーザの視点、さらには、画像入力部32
の所定の基準面に対する位置と姿勢に基づいて、画像入
力部32からの実画像の座標変換が行われ、その変換後
の実画像のデータが、レンダリング部9に供給される。
Then, in step S12, the virtual object coordinate conversion unit 8 sets the predetermined three based on the position and orientation of the video see-through type display unit 31 and the viewpoint of the user.
The coordinate conversion of the virtual object in the dimensional space is performed, and the converted data of the virtual object is supplied to the rendering unit 9. In step S12, in the input image coordinate conversion unit 33, the position and orientation of the video see-through display unit 31, the viewpoint of the user, and the image input unit 32
The coordinate conversion of the real image from the image input unit 32 is performed based on the position and orientation with respect to the predetermined reference plane, and the converted real image data is supplied to the rendering unit 9.

【0089】即ち、ビデオシースルー型表示部31を用
いた携帯型表示装置では、光学シースルー型表示部1を
用いた携帯型表示装置のように、ビデオシースルー型表
示部31を介して現実空間を見ることはできないため、
画像入力部32で撮像された現実空間がビデオシースル
ー型表示部31に表示されるが、画像入力部32が出力
する実画像を、そのままビデオシースルー型表示部31
に表示したのでは、ビデオシースルー型表示部31に表
示される現実空間と、ユーザの視点から見える現実空間
とが異なる場合があり、違和感を感じることになる。そ
こで、入力画像座標変換部33においては、ビデオシー
スルー型表示部31の位置と姿勢、およびユーザの視点
だけでなく、画像入力部32の位置と姿勢にも基づい
て、画像入力部32からの実画像が、ユーザの視点から
見て違和感のないものに座標変換される。
That is, in the portable display device using the video see-through display unit 31, the real space is viewed through the video see-through display unit 31, like the portable display device using the optical see-through display unit 1. Because you ca n’t do that
The real space captured by the image input unit 32 is displayed on the video see-through display unit 31, and the real image output from the image input unit 32 is directly used as the video see-through display unit 31.
In this case, the real space displayed on the video see-through display unit 31 may be different from the real space viewed from the user's viewpoint, and the user may feel uncomfortable. Therefore, the input image coordinate conversion unit 33 determines the actual position of the video input unit 32 based on the position and orientation of the video see-through display unit 31 and the position and orientation of the image input unit 32 as well as the user's viewpoint. The image is coordinate-transformed into an image that does not cause a sense of discomfort from the viewpoint of the user.

【0090】レンダリング部9は、仮想物体座標変換部
8から仮想物体のデータを受信するとともに、入力画像
座標変換部33から実画像を受信すると、ステップS1
3において、仮想物体のレンダリングを行う(仮想画像
を描画する)。さらに、レンダリング部9は、その仮想
画像と、入力画像座標変換部33からの実画像とを合成
し、その結果得られる合成画像を、ビデオシースルー型
表示部31に供給する。ビデオシースルー型表示部31
では、ステップS14において、レンダリング部9から
の合成画像が表示され、ステップS1に戻り、以下、同
様の処理が繰り返される。
When the rendering section 9 receives the data of the virtual object from the virtual object coordinate conversion section 8 and receives the real image from the input image coordinate conversion section 33, the rendering section 9 executes step S1.
In 3, the virtual object is rendered (virtual image is drawn). Further, the rendering unit 9 combines the virtual image with the real image from the input image coordinate conversion unit 33, and supplies the resultant combined image to the video see-through display unit 31. Video see-through display unit 31
Then, in step S14, the composite image from the rendering unit 9 is displayed, the process returns to step S1, and the same processing is repeated thereafter.

【0091】以上のように、図11の携帯型表示装置で
は、仮想物体座標変換部8において、ビデオシースルー
型表示部31の位置と姿勢、およびユーザの視点に基づ
いて、仮想物体の座標変換が行われるとともに、入力画
像座標変換部33において、ビデオシースルー型表示部
31の位置と姿勢、ユーザの視点、および画像入力部3
2の位置と姿勢に基づいて、実画像の座標変換が行わ
れ、それらが合成される。そして、その合成画像が、ビ
デオシースルー型表示部31に表示される。従って、ユ
ーザから見て違和感のない合成画像を提供することがで
きる。
As described above, in the portable display device of FIG. 11, the virtual object coordinate conversion unit 8 performs coordinate conversion of the virtual object based on the position and orientation of the video see-through display unit 31 and the viewpoint of the user. At the same time, in the input image coordinate conversion unit 33, the position and orientation of the video see-through display unit 31, the viewpoint of the user, and the image input unit 3
Based on the position and orientation of No. 2, coordinate conversion of the real image is performed, and they are combined. Then, the composite image is displayed on the video see-through display unit 31. Therefore, it is possible to provide a composite image that does not cause any discomfort to the user.

【0092】なお、図11の実施の形態では、画像入力
部32は、上述したように、ビデオシースルー型表示部
31に固定されている。従って、画像入力部32の位置
と姿勢は、ビデオシースルー型表示部31の位置と姿勢
から求めることができ、入力画像座標変換部33は、そ
のようにして、画像入力部32の位置と姿勢を求めるよ
うになされている。
In the embodiment shown in FIG. 11, the image input section 32 is fixed to the video see-through display section 31 as described above. Therefore, the position and orientation of the image input unit 32 can be obtained from the position and orientation of the video see-through display unit 31, and the input image coordinate conversion unit 33 thus determines the position and orientation of the image input unit 32. It is made to ask.

【0093】ところで、画像入力部32が撮像する現実
空間の範囲が狭いと(画像入力部32の撮像範囲が、ビ
デオシースルー型表示部1に表示可能な範囲と同一であ
ると)、入力画像座標変換部33において座標変換が行
われることにより、ビデオシースルー型表示部31にお
いて、その表示画面全体に、実画像が表示されない場合
があり、この場合、ユーザに違和感を感じさせることに
なる。そこで、画像入力部32には、ある程度広範囲の
現実空間を撮像させ、これにより、ビデオシースルー型
表示部31が表示可能な範囲の実画像より広い範囲の実
画像を出力させるようにすることができる。この場合、
入力画像座標変換部33による座標変換によって、ビデ
オシースルー型表示部31の表示画面全体に、実画像が
表示されなくなることを防止することができる。
By the way, if the range of the real space imaged by the image input unit 32 is small (the image pickup range of the image input unit 32 is the same as the range that can be displayed on the video see-through display unit 1), the input image coordinates By performing the coordinate conversion in the conversion unit 33, the actual image may not be displayed on the entire display screen of the video see-through display unit 31, and in this case, the user may feel uncomfortable. Therefore, the image input unit 32 can image a wide range of the real space to a certain extent, thereby outputting a real image in a wider range than the real image that can be displayed by the video see-through display unit 31. . in this case,
By the coordinate conversion by the input image coordinate conversion unit 33, it is possible to prevent the real image from being displayed on the entire display screen of the video see-through display unit 31.

【0094】なお、広範囲の現実空間を撮像する方法と
しては、例えば、魚眼レンズ等を用いる方法がある。具
体的には、例えば、六角錐ミラーを用いた全方位画像セ
ンサを利用することにより、広範囲の現実空間の実画像
を得ることができる。なお、六角錐ミラーを用いた全包
囲画像センサを利用することによる、広範囲の画像の作
成方法については、例えば、「川西 他、”六角錘ミラ
ーを用いた全方位画像センサによる全周ステレオパノラ
マ動画像の作成、画像の認識・理解シンポジウム、平成
10年7月」などに、その詳細が記載されている。
As a method for imaging a wide range of the real space, for example, there is a method using a fisheye lens or the like. Specifically, for example, by using an omnidirectional image sensor using a hexagonal pyramid mirror, a real image in a wide range of real space can be obtained. A method for creating a wide range of images by using an omni-directional image sensor using a hexagonal pyramid mirror is described in, for example, “Kawanishi et al.” The details are described in "Image Creation, Image Recognition and Understanding Symposium, July 1998".

【0095】次に、図13を参照して、入力画像座標変
換部33において行われる実画像の座標変換について説
明する。
Next, the coordinate conversion of the real image performed by the input image coordinate conversion unit 33 will be described with reference to FIG.

【0096】いま、上述した図9および図10における
場合と同様に、ビデオシースルー型表示部31の表示画
面の左上の点を原点とするローカル座標系と表示画面座
標系とを考え、さらに、画像入力部31についてのカメ
ラ座標系として、その光学中心を原点とし、互いに直交
する3軸を、x軸、y軸、z軸とそれぞれする(XR,
YR,ZR)を定義する。
As in the case of FIGS. 9 and 10 described above, a local coordinate system and a display screen coordinate system having the origin at the upper left point of the display screen of the video see-through type display unit 31 are considered. As the camera coordinate system for the input unit 31, three axes orthogonal to each other are set as an x-axis, a y-axis, and a z-axis with the optical center as the origin (XR,
YR, ZR) are defined.

【0097】なお、ここでは、説明を簡単にするため、
ローカル座標系と、カメラ座標系とは、平行移動の関係
にあるものとする。即ち、ここでは、XR軸、YR軸、
ZR軸は、Xc軸、Yc軸、Zc軸とそれぞれ平行であ
るとする。
Here, in order to simplify the explanation,
It is assumed that the local coordinate system and the camera coordinate system have a parallel movement relationship. That is, here, the XR axis, the YR axis,
It is assumed that the ZR axis is parallel to the Xc axis, the Yc axis, and the Zc axis.

【0098】この場合において、現実空間にある物体の
点Fが、ローカル座標系において(Xd,Yd,Zd)
で表され、カメラ座標系において(Xc,Yc,Zc)
で表されるものとすると、両者の関係は、次式で表され
る。
In this case, the point F of the object in the real space is defined as (Xd, Yd, Zd) in the local coordinate system.
In the camera coordinate system, (Xc, Yc, Zc)
The relationship between the two is represented by the following equation.

【0099】[0099]

【数3】 ・・・(6) 但し、Tx,Ty,Tzは、ローカル座標系とカメラ座
標系との間の並進関係を表し、これは、画像入力部32
が、ビデオシースルー型表示部31に固定されているこ
とから、あらかじめ求めておくことができる。また、後
述するように、画像入力部32が固定されていなくて
も、Tx,Ty,Tzは、画像入力部32の位置・姿勢
を検出することにより、その位置・姿勢と、ビデオシー
スルー型表示部31の位置・姿勢とから求めることがで
きる。
(Equation 3) (6) where Tx, Ty, and Tz represent the translational relationship between the local coordinate system and the camera coordinate system.
Is fixed to the video see-through display unit 31, and can be obtained in advance. Further, as described later, even if the image input unit 32 is not fixed, Tx, Ty, and Tz can detect the position / posture of the image input unit 32 and display the position / posture and the video see-through display. It can be obtained from the position / posture of the unit 31.

【0100】一方、画像入力部32における撮像面につ
いて、その光軸との交点を原点とし、XR軸またはYR
軸と平行な軸それぞれをx軸またはy軸とするスクリー
ン座標系を考え、点Fが、スクリーン座標系における点
(Uc,Vc)に投影されるとする。この場合、カメラ
座標系における点F(Xc,Yc,Zc)と、スクリー
ン座標系における点(Uc,Vc)との関係は、次式で
表される。
On the other hand, with respect to the image pickup plane in the image input section 32, the intersection with the optical axis is set as the origin, and the XR axis
Consider a screen coordinate system in which an axis parallel to the axis is the x-axis or the y-axis, and suppose that point F is projected to a point (Uc, Vc) in the screen coordinate system. In this case, the relationship between the point F (Xc, Yc, Zc) in the camera coordinate system and the point (Uc, Vc) in the screen coordinate system is expressed by the following equation.

【0101】[0101]

【数4】 ・・・(7) 但し、fcは、画像入力部32の光学系の焦点距離を表
す。なお、画像入力部32が出力する実画像をそのまま
表示した場合には、式(7)で表される点(Uc,V
c)に、点Fが表示されることになる。
(Equation 4) (7) where fc represents the focal length of the optical system of the image input unit 32. When the actual image output from the image input unit 32 is displayed as it is, the point (Uc, V
The point F is displayed at c).

【0102】また、ローカル座標系におけるユーザの視
点を(Xe,Ye,Ze)とし、この視点(Xe,Y
e,Ze)から見た場合に、点Fが、表示画面座標系の
点(Ud,Vd)に投影されるとする。この場合、ロー
カル座標系における点F(Xd,Yd,Zd)と、表示
画面座標系における点(Ud,Vd)との関係は、次式
で表される。
Further, the viewpoint of the user in the local coordinate system is (Xe, Ye, Ze), and the viewpoint (Xe, Y
e, Ze), the point F is projected onto a point (Ud, Vd) in the display screen coordinate system. In this case, the relationship between the point F (Xd, Yd, Zd) in the local coordinate system and the point (Ud, Vd) in the display screen coordinate system is expressed by the following equation.

【0103】[0103]

【数5】 ・・・(8) 従って、式(6)乃至(8)より、入力画像座標変換部
33では、次式にしたがって、実画像の座標変換を行う
ことにより、ユーザの視点から点Fを見た場合の表示画
面座標系における点(Ud,Vd)を求めることができ
る。
(Equation 5) (8) Accordingly, from the expressions (6) to (8), the input image coordinate conversion unit 33 sees the point F from the viewpoint of the user by performing the coordinate conversion of the real image according to the following expression. In this case, the point (Ud, Vd) in the display screen coordinate system can be obtained.

【0104】[0104]

【数6】 ・・・(9) なお、ローカル座標系における物体の点Fの位置(X
d,Yd,Zd)は、あらかじめ分かっているものとす
る。但し、物体の点Fの位置(Xd,Yd,Zd)が分
からない場合は、その物体が平面状になっていると仮定
することで、実画像の座標変換を行うための変換式を求
めることができる。
(Equation 6) (9) The position of the point F of the object in the local coordinate system (X
d, Yd, Zd) are assumed to be known in advance. However, if the position (Xd, Yd, Zd) of the point F of the object is not known, it is assumed that the object is a plane, and a conversion formula for performing the coordinate conversion of the real image is obtained. Can be.

【0105】また、ここでは、ローカル座標系とカメラ
座標系とが、平行移動の関係にあるものとしたが、ロー
カル座標系とカメラ座標系との関係に、回転が加わって
いる場合は、式(6)を、式(2)に示したアフィン変
換の式とすることで、上述における場合と同様にして、
実画像の座標変換を行うための変換式を求めることがで
きる。
Also, here, the local coordinate system and the camera coordinate system are assumed to be in a parallel movement relationship. However, if the rotation is added to the relationship between the local coordinate system and the camera coordinate system, the expression By making (6) an affine transformation equation shown in equation (2), similar to the above case,
A conversion equation for performing coordinate conversion of the real image can be obtained.

【0106】次に、図14は、本発明を適用した携帯型
表示装置の第3実施の形態の構成を示している。なお、
図中、図11における場合と対応する部分については、
同一の符号を付してあり、以下では、その説明は、省略
する。即ち、図14の携帯型表示装置は、図11におけ
る場合に比較して、入力部位置方向算出部41が新たに
設けられ、その出力が入力画像座標変換部33に供給さ
れるようになっている。さらに、図14の携帯型表示装
置においては、画像入力部32が、ビデオシースルー型
表示部31に取り付けられているが、固定ではなく、可
動式になっている。
Next, FIG. 14 shows the configuration of a third embodiment of the portable display device to which the present invention is applied. In addition,
In the figure, the part corresponding to the case in FIG.
The same reference numerals are given, and the description thereof is omitted below. That is, in the portable display device of FIG. 14, an input unit position / direction calculation unit 41 is newly provided as compared with the case of FIG. 11, and the output thereof is supplied to the input image coordinate conversion unit 33. I have. Further, in the portable display device of FIG. 14, the image input section 32 is attached to the video see-through display section 31, but is not fixed but movable.

【0107】即ち、画像入力部32は、例えば、図15
に示すように、ビデオシースルー型表示部31の裏面の
所定の範囲を移動させることができるようになさてお
り、さらに、その撮像方向も変えられる(回転できる)
ようになっている。なお、図14の実施の形態では、画
像入力部32は、手動で動かすことができるようになさ
れている。
That is, for example, the image input unit 32
As shown in the figure, a predetermined range on the back surface of the video see-through display unit 31 can be moved, and the imaging direction can be changed (rotated).
It has become. In the embodiment shown in FIG. 14, the image input section 32 can be manually moved.

【0108】従って、図14の携帯型表示装置では、図
11における場合のように、画像入力部32が固定され
ていないから、画像入力部32の位置と姿勢は、ビデオ
シースルー型表示部31の位置と姿勢から求めることは
できない。
Therefore, in the portable display device shown in FIG. 14, since the image input section 32 is not fixed as in the case of FIG. 11, the position and orientation of the image input section 32 are different from those of the video see-through display section 31. It cannot be determined from the position and orientation.

【0109】そこで、図14の実施の形態においては、
画像入力部32に、入力位置方向算出部41が取り付け
られており、入力位置方向算出部41は、所定の基準面
に対する画像入力部32の3次元的な位置と姿勢を算出
し、入力画像座標変換部33に供給するようになされて
いる。
Thus, in the embodiment of FIG.
An input position direction calculation unit 41 is attached to the image input unit 32. The input position direction calculation unit 41 calculates a three-dimensional position and orientation of the image input unit 32 with respect to a predetermined reference plane, and calculates input image coordinates. The data is supplied to the conversion unit 33.

【0110】図11の実施の形態では、画像入力部32
が、ビデオシースルー型表示部31に固定されているこ
とから、ユーザの視点の方向が、画像入力部32の撮像
方向と極端に異なると、そのユーザの視点から見た場合
に違和感のない実画像を得ることが困難になる場合もあ
るが、画像入力部32が可動式の場合には、ユーザが、
画像入力部32を、その撮像方向がユーザの視点の方向
に合致するように動かすことによって、そのような問題
を解消することができる。
In the embodiment shown in FIG. 11, the image input unit 32
Is fixed to the video see-through display unit 31, and if the direction of the user's viewpoint is extremely different from the imaging direction of the image input unit 32, an actual image that does not cause any discomfort when viewed from the user's viewpoint May be difficult to obtain, but if the image input unit 32 is movable, the user
Such a problem can be solved by moving the image input unit 32 such that the imaging direction matches the direction of the user's viewpoint.

【0111】次に、図16は、本発明を適用した携帯型
表示装置の第4実施の形態の構成を示している。なお、
図中、図14における場合と対応する部分については、
同一の符号を付してあり、以下では、その説明は、省略
する。即ち、図16の携帯型表示装置は、可動式の画像
入力部32、およびそれに取り付けられた入力部位置方
向算出部41が、ビデオシースルー型表示部31に取り
付けられているのではなく、それから離れた位置に設置
されている。
Next, FIG. 16 shows the configuration of a fourth embodiment of the portable display device to which the present invention is applied. In addition,
In the figure, the parts corresponding to those in FIG.
The same reference numerals are given, and description thereof will be omitted below. That is, in the portable display device of FIG. 16, the movable image input unit 32 and the input unit position / direction calculation unit 41 attached thereto are not attached to the video see-through display unit 31 but are separated therefrom. It is installed in the position where it was.

【0112】以上のように構成される携帯型表示装置に
おいては、例えば、ビデオシースルー型表示部31と、
撮像しようとしている被写体との間に、何らかの障害物
がある場合には、その障害物を避けて、画像入力部32
を設置することにより、障害物がない状態の現実空間を
撮像することができる。具体的には、例えば、携帯型表
示装置がある部屋の隣の部屋に、画像入力部32を設置
することにより、携帯型表示装置において、その隣の部
屋を撮像した実画像と仮想画像との合成画像を提供する
ことが可能となる。なお、画像入力部32および入力部
位置方向算出部41の出力は、有線の他、無線によっ
て、入力画像座標変換部33に供給することが可能であ
る。
In the portable display device configured as described above, for example, the video see-through display unit 31
If there is any obstacle between the subject to be imaged and the obstacle, avoid the obstacle and use the image input unit 32.
Is installed, it is possible to image the real space without any obstacles. Specifically, for example, by installing the image input unit 32 in a room next to the room where the portable display device is located, the portable display device can display a real image and a virtual image of the room next to the room. It is possible to provide a composite image. The outputs of the image input unit 32 and the input unit position / direction calculation unit 41 can be supplied to the input image coordinate conversion unit 33 by wire or wirelessly.

【0113】次に、図17は、本発明を適用した携帯型
表示装置の第5実施の形態の構成を示している。なお、
図中、図14における場合と対応する部分については、
同一の符号を付してあり、以下では、その説明は、省略
する。即ち、図17の携帯型表示装置は、入力画像座標
変換部33および入力部位置方向算出部41が削除さ
れ、制御部51が新たに設けられている他は、図14に
おける場合と基本的に同様に構成されている。
Next, FIG. 17 shows the configuration of a fifth embodiment of a portable display device to which the present invention is applied. In addition,
In the figure, the parts corresponding to those in FIG.
The same reference numerals are given, and description thereof will be omitted below. That is, the portable display device of FIG. 17 is basically the same as that of FIG. 14 except that the input image coordinate conversion unit 33 and the input unit position / direction calculation unit 41 are deleted and the control unit 51 is newly provided. It is configured similarly.

【0114】従って、図17においても、画像入力部3
2は、可動式となっているが、画像入力部32は、手動
で動くのではなく、制御部51によって制御(姿勢制
御)されるようになされている。
Therefore, also in FIG.
Reference numeral 2 denotes a movable type, but the image input unit 32 is controlled (attitude control) by the control unit 51 instead of moving manually.

【0115】即ち、制御部51には、視点位置方向算出
部5が出力するユーザの視点が供給されるようになされ
ており、制御部51は、画像入力部32を、その撮像方
向が、ユーザの視点の方向に一致するように移動させる
ようになされている。従って、この場合、画像入力部3
2が出力する実画像は、ユーザの視点から現実空間を見
た場合のものと一致しているから、その座標変換を行う
必要はないため、入力画像座標変換部33を設けずに済
むようになる。
That is, the control unit 51 is supplied with the user's viewpoint output from the viewpoint position / direction calculation unit 5, and the control unit 51 controls the image input unit 32 to change the imaging direction of the user. Is moved so as to match the direction of the viewpoint. Therefore, in this case, the image input unit 3
2 does not need to be subjected to the coordinate transformation because the real image output from the user matches the one when the real space is viewed from the user's viewpoint, so that the input image coordinate transformation unit 33 is not required. Become.

【0116】次に、図18は、本発明を適用した携帯型
表示装置の第6実施の形態の構成を示している。なお、
図中、図11における場合と対応する部分については、
同一の符号を付してあり、以下では、その説明は、省略
する。即ち、図18の携帯型表示装置は、入力画像座標
変換部33が削除され、距離算出部61および入力画像
合成部62が新たに設けられているとともに、1つの画
像入力部32に替えて、複数であるN(Nは2以上)個
の画像入力部321乃至32Nが設けられている他は、
図11における場合と同様に構成されている。
FIG. 18 shows the configuration of a portable display device according to a sixth embodiment of the present invention. In addition,
In the figure, the part corresponding to the case in FIG.
The same reference numerals are given, and description thereof will be omitted below. That is, in the portable display device of FIG. 18, the input image coordinate conversion unit 33 is deleted, the distance calculation unit 61 and the input image synthesis unit 62 are newly provided, and instead of the single image input unit 32, Except that a plurality of N (N is 2 or more) image input units 321 to 32N are provided,
The configuration is the same as in FIG.

【0117】画像入力部321乃至32Nは、例えば、
図19に示すように、ビデオシースルー型表示部31の
裏面に、その裏面方向を、異なる視点位置から撮像する
ように(ステレオ処理をするのに最適なように)取り付
けられており、従って、そのような異なる視点位置から
撮像したビデオシースルー型表示部31の裏面の現実空
間の実画像を出力する。この複数の実画像は、距離算出
部61および入力画像合成部62に供給される。
The image input units 321 to 32N are, for example,
As shown in FIG. 19, the video see-through type display unit 31 is attached to the back surface so that the back surface direction is imaged from different viewpoint positions (optimally for stereo processing). An actual image of the real space on the back surface of the video see-through display unit 31 captured from such different viewpoint positions is output. The plurality of real images are supplied to the distance calculation unit 61 and the input image synthesis unit 62.

【0118】距離算出部61は、画像入力部321乃至
32NからのN枚の実画像から、上述したステレオ処理
を行うことで、現実空間の物体の3次元的な位置を求
め、レンダリング部9および入力画像合成部62に供給
する。この場合、レンダリング部9では、現実空間の物
体までの距離を考慮して、仮想画像のレンダリングが行
われる。従って、この場合、仮想物体と、実際の物体と
の前後関係を考慮した合成画像を得ることができる。
The distance calculation unit 61 obtains the three-dimensional position of the object in the real space by performing the above-mentioned stereo processing from the N real images from the image input units 321 to 32N, and obtains the rendering unit 9 and the It is supplied to the input image synthesizing unit 62. In this case, the rendering unit 9 renders the virtual image in consideration of the distance to the object in the real space. Therefore, in this case, it is possible to obtain a composite image in which the context of the virtual object and the actual object is considered.

【0119】一方、入力画像合成部62には、上述した
ように、画像入力部321乃至32NからN枚の実画像
が供給されるとともに、距離算出部61から現実空間の
物体の位置が供給される他、3次元位置方向算出部3か
らビデオシースルー型表示部31の位置および姿勢が供
給されるとともに、視点位置方向算出部5からユーザの
視点が供給される。
On the other hand, as described above, the input image synthesizing unit 62 is supplied with N actual images from the image input units 321 to 32N, and is supplied with the positions of the objects in the real space from the distance calculating unit 61. In addition, the position and orientation of the video see-through display unit 31 are supplied from the three-dimensional position / direction calculation unit 3, and the viewpoint of the user is supplied from the viewpoint position / direction calculation unit 5.

【0120】入力画像合成部62は、現実空間の物体の
位置、ビデオシースルー型表示部31の位置および姿
勢、並びにユーザの視点に基づいて、N枚の実画像(N
方向それぞれから物体を見たときの実画像)を合成(ブ
レンディング)し、これにより、ユーザの視点から現実
空間を見た場合に得られる実画像を生成して、レンダリ
ング部9に供給する。
The input image synthesizing section 62 generates N real images (N) based on the position of the object in the real space, the position and orientation of the video see-through type display section 31, and the viewpoint of the user.
A real image obtained when the object is viewed from each direction is synthesized (blended), whereby a real image obtained when the real space is viewed from the user's viewpoint is generated and supplied to the rendering unit 9.

【0121】従って、この場合、ユーザの視点から見て
違和感のない実画像を得ることができる。また、この場
合、N方向から見たN枚の実画像から、ユーザの視点か
ら物体を見た場合に得られる実画像が生成されるので、
図11の実施の形態における場合のように、1の方向か
ら見た1枚の実画像を用いて、ユーザの視点から物体を
見た場合に得られる実画像を生成する場合に比較して、
いわゆるオクルージョン(隠れ)の問題を解消すること
ができる。
Therefore, in this case, it is possible to obtain a real image that does not cause a sense of discomfort from the viewpoint of the user. Also, in this case, a real image obtained when the object is viewed from the user's viewpoint is generated from the N real images viewed from the N direction,
As in the case of the embodiment of FIG. 11, compared to a case where an actual image obtained when an object is viewed from the user's viewpoint is generated using one real image viewed from one direction,
The so-called occlusion problem can be solved.

【0122】なお、図18の実施の形態においては、N
枚の実画像を、N個の画像入力部321乃至32Nによ
って得るようにしたが、N枚の実画像は、1以上の画像
入力部を移動させることによって得るようにすることも
可能である。但し、その場合の画像入力部の移動位置お
よび姿勢は、あらかじめ設定しておくか、測定するよう
にする必要がある。
In the embodiment shown in FIG. 18, N
Although the real images are obtained by the N image input units 321 to 32N, it is also possible to obtain the N real images by moving one or more image input units. However, in this case, the moving position and the posture of the image input unit need to be set in advance or measured.

【0123】また、N枚の実画像を用いて、ユーザの視
点から現実空間を見た場合に得られる実画像を生成する
ことは、例えば、図13で説明したようにして行うこと
ができるが、この場合、スクリーン座標系がN個存在す
ることとなり、従って、図13において、物体の点F
は、そのN個のスクリーン座標系に投影されることにな
る。その結果、N個のスクリーン座標系上における、物
体の投影点が得られることとなるが、このような場合
は、そのN個の投影点をブレンディングして、表示画面
座標系における点(Ud,Vd)を算出するために用い
る、いわば最終的なスクリーン座標系上の投影点(U
c,Vc)を求めるようにすれば良い。
Further, generation of a real image obtained when the real space is viewed from the viewpoint of the user using the N real images can be performed, for example, as described with reference to FIG. In this case, there are N screen coordinate systems, and therefore, in FIG.
Will be projected onto the N screen coordinate systems. As a result, the projection points of the object on the N screen coordinate systems are obtained. In such a case, the N projection points are blended and the points (Ud, Vd), that is, the projected point (U) on the final screen coordinate system
c, Vc).

【0124】次に、図20は、本発明を適用した携帯型
表示装置の第7実施の形態の構成を示している。なお、
図中、図11における場合と対応する部分については、
同一の符号を付してあり、以下では、その説明は、省略
する。即ち、図20の携帯型表示装置は、距離算出部6
1および距離センサ71が新たに設けられている他は、
図11における場合と、基本的に同様に構成されてい
る。
Next, FIG. 20 shows the configuration of a portable display device according to a seventh embodiment of the present invention. In addition,
In the figure, the part corresponding to the case in FIG.
The same reference numerals are given, and description thereof will be omitted below. That is, the portable display device of FIG.
1 and a distance sensor 71 are newly provided,
The configuration is basically the same as that in FIG.

【0125】距離センサ71は、例えば、レンジファイ
ンダなどの、いわばアクティブなセンサであり、レーザ
光を照射して三角測量の原理により、物体までの距離を
計測するための信号を出力するようになされている。距
離センサ71の出力は、距離算出部61に供給され、距
離算出部61では、距離センサ71の出力に基づいて、
物体までの距離(物体の3次元的な位置)が算出され、
レンダリング部9および入力画像座標変換部33に供給
される。
The distance sensor 71 is, for example, an active sensor such as a range finder, and outputs a signal for measuring a distance to an object by irradiating a laser beam according to the principle of triangulation. ing. The output of the distance sensor 71 is supplied to the distance calculation unit 61, and the distance calculation unit 61
The distance to the object (the three-dimensional position of the object) is calculated,
It is supplied to the rendering unit 9 and the input image coordinate conversion unit 33.

【0126】入力画像変換部33では、距離算出部61
からの物体の3次元的な位置に基づいて、図13で説明
したように、画像入力部32からの実画像の座標変換が
行われる。一方、レンダリング部9では、現実空間の物
体までの距離を考慮して、仮想画像のレンダリングが行
われる。
In the input image conversion unit 33, the distance calculation unit 61
Based on the three-dimensional position of the object from, the coordinate transformation of the real image from the image input unit 32 is performed as described with reference to FIG. On the other hand, the rendering unit 9 renders the virtual image in consideration of the distance to the object in the real space.

【0127】従って、この場合においても、図18にお
ける場合と同様に、仮想物体と、実際の物体との前後関
係を考慮した合成画像を得ることができる。
Therefore, also in this case, as in the case of FIG. 18, it is possible to obtain a composite image in which the context of the virtual object and the actual object is taken into consideration.

【0128】以上のように、ユーザの視点を算出し、そ
のユーザの視点を考慮して、仮想画像を変換したり、実
画像を変換したりするようにしたので、ユーザに対し
て、現実空間と仮想空間とを融合した、違和感のない画
像を提供することが可能となる。その結果、携帯型表示
装置に、例えば、特開平10−51711号公報に開示
されているような、仮想物体を操作するための操作部を
設けた場合には、現実空間を基礎とした状態において、
仮想物体に対する作業を、違和感なく行うことが可能と
なる。
As described above, the viewpoint of the user is calculated, and the virtual image and the real image are converted in consideration of the viewpoint of the user. It is possible to provide an image that does not give a sense of incongruity by fusing an image with a virtual space. As a result, when the portable display device is provided with an operation unit for operating a virtual object, for example, as disclosed in Japanese Patent Application Laid-Open No. 10-51711, ,
Work on a virtual object can be performed without a sense of incongruity.

【0129】以上、本発明を、光学シースルー型表示部
1を用いた携帯型表示装置と、ビデオシースルー型表示
部31を用いた携帯型表示装置とに適用した場合につい
て説明したが、ビデオシースルー型表示部31を用いた
携帯型表示装置においては、撮像した実画像を処理する
必要があることから、その処理時間分のレイテンシーに
よって、実画像が撮像されてから、その実画像が表示さ
れるまでに、数フレーム程度の遅延が生じる。これに対
して、光学シースルー型表示部1を用いた携帯型表示装
置では、そのような遅延が生じることはない。
As described above, the case where the present invention is applied to the portable display device using the optical see-through display unit 1 and the portable display device using the video see-through display unit 31 has been described. In the portable display device using the display unit 31, since it is necessary to process the captured real image, it is necessary to process the real image with the latency corresponding to the processing time until the real image is displayed. , A delay of about several frames occurs. On the other hand, such a delay does not occur in the portable display device using the optical see-through display unit 1.

【0130】なお、本実施の形態では、表示装置を携帯
型としたが、本発明は、携帯型の表示装置の他、例え
ば、机等に設置して用いられるような据置型の表示装置
にも適用可能である。
In this embodiment mode, the display device is a portable type. However, the present invention is applicable not only to a portable type display device but also to a stationary type display device used by being installed on a desk or the like. Is also applicable.

【0131】また、仮想物体の仮想画像においては、例
えば、特開平10−51711号公報に開示されている
ように、仮想物体の影を付すことが可能である。
Further, in a virtual image of a virtual object, for example, as disclosed in Japanese Patent Application Laid-Open No. Hei 10-51711, a shadow of the virtual object can be added.

【0132】さらに、例えば、複数の携帯型表示装置を
用いる場合には、例えば、特開平10−51711号公
報に開示されているように、その複数の携帯型表示装置
に、共通の仮想物体を表示させるとともに、その仮想物
体に対する各携帯型表示装置における操作を、すべての
携帯型表示装置に反映させるようにすることが可能であ
る。
Further, for example, when a plurality of portable display devices are used, a common virtual object is assigned to the plurality of portable display devices as disclosed in Japanese Patent Application Laid-Open No. Hei 10-51711. In addition to displaying the virtual object, it is possible to reflect the operation of the portable display device on the virtual object on all portable display devices.

【0133】[0133]

【発明の効果】以上の如く、本発明の情報処理装置およ
び情報処理方法によれば、表示手段の3次元空間におけ
る位置が算出されるとともに、ユーザの視点が算出さ
れ、その表示手段の位置およびユーザの視点に基づい
て、仮想画像が変換される。従って、ユーザから見て、
違和感のない画像を提供することが可能となる。
As described above, according to the information processing apparatus and the information processing method of the present invention, the position of the display means in the three-dimensional space is calculated, and the viewpoint of the user is calculated. The virtual image is converted based on the user's viewpoint. Therefore, from the user's perspective,
It is possible to provide an image with no discomfort.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した携帯型表示装置の第1実施の
形態の構成例を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration example of a first embodiment of a portable display device to which the present invention has been applied.

【図2】図1の携帯型表示装置のハードウェア構成例を
示すブロック図である。
FIG. 2 is a block diagram illustrating an example of a hardware configuration of the portable display device of FIG.

【図3】エピポーララインを説明するための図である。FIG. 3 is a diagram for explaining an epipolar line.

【図4】基準カメラ画像および検出カメラ画像を示す図
である。
FIG. 4 is a diagram showing a reference camera image and a detected camera image.

【図5】評価値の推移を示す図である。FIG. 5 is a diagram showing a transition of an evaluation value.

【図6】図1の携帯型表示装置の動作を説明するための
フローチャートである。
FIG. 6 is a flowchart for explaining the operation of the portable display device of FIG. 1;

【図7】ユーザの視点の位置と、各位置において表示さ
れる画像との関係を示す図である。
FIG. 7 is a diagram illustrating a relationship between a position of a user's viewpoint and an image displayed at each position.

【図8】ユーザの視点の位置と、各位置において表示さ
れる画像との関係を示す図である。
FIG. 8 is a diagram illustrating a relationship between a position of a user's viewpoint and an image displayed at each position.

【図9】ローカル座標系と表示画面座標系とを説明する
ための図である。
FIG. 9 is a diagram for describing a local coordinate system and a display screen coordinate system.

【図10】図1の仮想物体座標変換部8による座標変換
を説明するための図である。
FIG. 10 is a diagram for explaining coordinate conversion by a virtual object coordinate conversion unit 8 in FIG. 1;

【図11】本発明を適用した携帯型表示装置の第2実施
の形態の構成例を示すブロック図である。
FIG. 11 is a block diagram illustrating a configuration example of a second embodiment of a portable display device to which the present invention has been applied.

【図12】図11の携帯型表示装置の動作を説明するた
めのフローチャートである。
FIG. 12 is a flowchart for explaining the operation of the portable display device of FIG. 11;

【図13】図11の入力画像座標変換部33による座標
変換を説明するための図である。
FIG. 13 is a diagram for explaining coordinate conversion by an input image coordinate conversion unit 33 of FIG. 11;

【図14】本発明を適用した携帯型表示装置の第3実施
の形態の構成例を示すブロック図である。
FIG. 14 is a block diagram illustrating a configuration example of a third embodiment of a portable display device to which the present invention has been applied.

【図15】画像入力部32が可動式であることを示す図
である。
FIG. 15 is a diagram showing that the image input unit 32 is movable.

【図16】本発明を適用した携帯型表示装置の第4実施
の形態の構成例を示すブロック図である。
FIG. 16 is a block diagram illustrating a configuration example of a fourth embodiment of a portable display device to which the present invention has been applied.

【図17】本発明を適用した携帯型表示装置の第5実施
の形態の構成例を示すブロック図である。
FIG. 17 is a block diagram illustrating a configuration example of a fifth embodiment of a portable display device to which the present invention has been applied.

【図18】本発明を適用した携帯型表示装置の第6実施
の形態の構成例を示すブロック図である。
FIG. 18 is a block diagram illustrating a configuration example of a sixth embodiment of a portable display device to which the present invention has been applied.

【図19】画像入力部321乃至32Nによって複数の
実画像が撮像される様子を示す図である。
FIG. 19 is a diagram illustrating a state in which a plurality of real images are captured by the image input units 321 to 32N.

【図20】本発明を適用した携帯型表示装置の第7実施
の形態の構成例を示すブロック図である。
FIG. 20 is a block diagram illustrating a configuration example of a seventh embodiment of a portable display device to which the present invention has been applied.

【符号の説明】[Explanation of symbols]

1 光学シースルー型表示部, 2 3次元位置方向セ
ンサ, 3 3次元位置方向算出部, 4 視点位置方
向センサ, 5 視点位置方向算出部, 6仮想物体デ
ータ蓄積部, 7 仮想物体生成部, 8 仮想物体座
標変換部,9 レンダリング部, 11 基準カメラ,
12 検出カメラ, 13,14A/D変換器, 1
5,16 フレームメモリ, 17 CPU, 18
ROM, 19 RAM, 20 RS−232C/R
S−422コントローラ,21 LCDコントローラ,
22 VRAM, 23 ストレージコントローラ,
24 磁気ディスク, 25 光磁気ディスク, 2
6 光ディスク,27 不揮発性メモリ, 28 通信
コントローラ, 31 ビデオシースルー型表示部,
32,321乃至32N 画像入力部, 33 入力画
像座標変換部, 41 入力部位置方向算出部, 51
制御部, 61 距離算出部,62 入力画像合成
部, 71 距離センサ
Reference Signs List 1 optical see-through display unit, 2 3D position / direction sensor, 3 3D position / direction calculation unit, 4 viewpoint position / direction sensor, 5 viewpoint position / direction calculation unit, 6 virtual object data storage unit, 7 virtual object generation unit, 8 virtual Object coordinate transformation unit, 9 rendering unit, 11 reference camera,
12 detection camera, 13, 14 A / D converter, 1
5, 16 frame memory, 17 CPU, 18
ROM, 19 RAM, 20 RS-232C / R
S-422 controller, 21 LCD controller,
22 VRAM, 23 storage controller,
24 magnetic disks, 25 magneto-optical disks, 2
6 optical disk, 27 non-volatile memory, 28 communication controller, 31 video see-through display unit,
32, 321 to 32N image input unit, 33 input image coordinate conversion unit, 41 input unit position / direction calculation unit, 51
Control unit, 61 distance calculation unit, 62 input image synthesis unit, 71 distance sensor

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 H04N 13/00 5C023 G09G 3/20 660 13/04 5C061 680 G06F 15/20 D 5C080 H04N 5/262 15/62 360 13/00 415 13/04 15/66 450 15/72 450A (72)発明者 芦ヶ原 隆之 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2F065 AA04 AA06 AA31 BB05 CC16 FF05 FF67 JJ03 JJ05 JJ26 PP01 QQ00 QQ03 QQ13 QQ23 QQ24 QQ25 QQ27 QQ28 QQ38 QQ41 QQ42 SS13 5B049 AA01 DD01 DD05 EE07 EE41 FF03 FF04 FF09 GG04 GG07 5B050 BA04 BA09 CA01 DA02 EA07 EA13 EA19 EA27 FA01 FA19 GA08 5B057 CA08 CA13 CA16 CB08 CB13 CB16 CC02 CD14 CE08 CH08 DA07 DB02 DB09 DC02 DC09 5B080 BA02 BA08 DA06 FA08 GA00 5C023 AA10 AA16 AA18 AA38 AA40 BA01 BA12 CA03 CA06 DA04 DA08 EA03 5C061 AA21 AA29 AB12 AB24 5C080 AA10 BB05 DD01 EE29 JJ01 JJ02 JJ05 JJ07 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 1/00 H04N 13/00 5C023 G09G 3/20 660 13/04 5C061 680 G06F 15/20 D 5C080 H04N 5 / 262 15/62 360 13/00 415 13/04 15/66 450 15/72 450A (72) Inventor Takayuki Ashigahara 6-35 Kitashinagawa, Shinagawa-ku, Tokyo F-term (Sony Corporation) (Reference) 2F065 AA04 AA06 AA31 BB05 CC16 FF05 FF67 JJ03 JJ05 JJ26 PP01 QQ00 QQ03 QQ13 QQ23 QQ24 QQ25 QQ27 QQ28 QQ38 QQ41 QQ42 SS13 5B049 AA01 DD01 DD05 EE07 EE41 FF03 BA01 EA03 EA04 CA08 CA13 CA16 CB08 CB13 CB16 CC02 CD14 CE08 CH08 DA07 DB02 DB09 DC02 DC09 5B080 BA02 BA08 DA06 FA08 GA00 5C023 AA10 AA16 AA18 A A38 AA40 BA01 BA12 CA03 CA06 DA04 DA08 EA03 5C061 AA21 AA29 AB12 AB24 5C080 AA10 BB05 DD01 EE29 JJ01 JJ02 JJ05 JJ07

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 実際の物体の画像である実画像と、仮想
的な物体の画像である仮想画像とを重畳して表示するた
めの情報処理を行う情報処理装置であって、 画像を表示する表示手段と、 前記表示手段の3次元空間における位置を算出する表示
位置算出手段と、 ユーザの視点を算出する視点算出手段と、 前記表示手段の位置およびユーザの視点に基づいて、前
記仮想画像を変換する仮想画像変換手段と、 変換後の前記仮想画像を、前記表示手段に表示させるた
めの描画を行う描画手段とを含むことを特徴とする情報
処理装置。
1. An information processing apparatus for performing information processing for superimposing and displaying a real image which is an image of an actual object and a virtual image which is an image of a virtual object, and displays the image. Display means; display position calculation means for calculating a position of the display means in a three-dimensional space; viewpoint calculation means for calculating a user's viewpoint; and displaying the virtual image based on the position of the display means and the user's viewpoint. An information processing apparatus comprising: virtual image conversion means for converting; and drawing means for performing drawing for displaying the converted virtual image on the display means.
【請求項2】 前記表示手段は、光学シースルー型の表
示装置であり、その表示装置を介して見える実画像と、
前記仮想画像とを重畳して表示することを特徴とする請
求項1に記載の情報処理装置。
2. The display means is an optical see-through type display device, and an actual image viewed through the display device;
The information processing apparatus according to claim 1, wherein the information processing apparatus displays the virtual image in a superimposed manner.
【請求項3】 前記実際の物体を撮像して、前記実画像
を出力する撮像手段をさらに含み、 前記表示手段は、前記撮像手段が出力する前記実画像
と、前記仮想画像とを重畳して表示することを特徴とす
る請求項1に記載の情報処理装置。
3. The image processing apparatus according to claim 1, further comprising an imaging unit configured to capture the actual object and output the real image, wherein the display unit superimposes the real image output by the imaging unit and the virtual image. The information processing apparatus according to claim 1, wherein the information is displayed.
【請求項4】 前記表示手段の位置およびユーザの視点
に基づいて、前記撮像手段が出力する前記実画像を変換
する実画像変換手段をさらに含み、 前記表示手段は、変換後の前記実画像と、変換後の前記
仮想画像とを重畳して表示することを特徴とする請求項
3に記載の情報処理装置。
4. An apparatus according to claim 1, further comprising: a real image conversion unit configured to convert the real image output by the imaging unit based on a position of the display unit and a viewpoint of a user. 4. The information processing apparatus according to claim 3, wherein the virtual image after the conversion is superimposed and displayed.
【請求項5】 前記撮像手段は、所定の位置に固定され
ていることを特徴とする請求項3に記載の情報処理装
置。
5. The information processing apparatus according to claim 3, wherein said imaging means is fixed at a predetermined position.
【請求項6】 前記撮像手段は、前記表示手段に固定さ
れていることを特徴とする請求項5に記載の情報処理装
置。
6. The information processing apparatus according to claim 5, wherein said imaging means is fixed to said display means.
【請求項7】 前記撮像手段は、前記表示手段から離れ
た位置に設置されていることを特徴とする請求項3に記
載の情報処理装置。
7. The information processing apparatus according to claim 3, wherein the imaging unit is installed at a position distant from the display unit.
【請求項8】 前記撮像手段は、前記表示手段が表示可
能な範囲の実画像より広い範囲の実画像を出力すること
を特徴とする請求項3に記載の情報処理装置。
8. The information processing apparatus according to claim 3, wherein the imaging unit outputs a real image in a range wider than the real image that can be displayed by the display unit.
【請求項9】 前記表示手段の位置、ユーザの視点、お
よび撮像手段の位置に基づいて、前記撮像手段が出力す
る前記実画像を変換することを特徴とする請求項3に記
載の情報処理装置。
9. The information processing apparatus according to claim 3, wherein the real image output by the imaging unit is converted based on a position of the display unit, a viewpoint of a user, and a position of the imaging unit. .
【請求項10】 前記撮像手段は、可動式になっている
ことを特徴とする請求項3に記載の情報処理装置。
10. The information processing apparatus according to claim 3, wherein said imaging means is movable.
【請求項11】 前記撮像手段の3次元空間における位
置を算出する撮像位置算出手段と、 前記表示手段の位置、ユーザの視点、および撮像手段の
位置に基づいて、前記撮像手段が出力する前記実画像を
変換する実画像変換手段とをさらに含むことを特徴とす
る請求項9に記載の情報処理装置。
11. An image capturing position calculating unit for calculating a position of the image capturing unit in a three-dimensional space, and the real position output by the image capturing unit based on a position of the display unit, a user's viewpoint, and a position of the image capturing unit. 10. The information processing apparatus according to claim 9, further comprising real image conversion means for converting an image.
【請求項12】 前記ユーザの視点に基づいて、前記撮
像手段を制御する制御手段をさらに含むことを特徴とす
る請求項3に記載の情報処理装置。
12. The information processing apparatus according to claim 3, further comprising control means for controlling the image pickup means based on the viewpoint of the user.
【請求項13】 複数の前記撮像手段を含み、 複数の前記撮像手段の出力から、前記表示手段に表示さ
せる前記実画像を生成する生成手段をさらに含むことを
特徴とする請求項3に記載の情報処理装置。
13. The apparatus according to claim 3, further comprising a plurality of said imaging units, and further comprising a generation unit for generating said real image to be displayed on said display unit from outputs of said plurality of said imaging units. Information processing device.
【請求項14】 前記実際の物体までの距離を算出する
距離算出手段をさらに含み、 前記仮想画像変換手段は、前記表示手段の位置、ユーザ
の視点、および実際の物体までの距離に基づいて、前記
仮想画像を変換することを特徴とする請求項3に記載の
情報処理装置。
14. A virtual image conversion unit, further comprising a distance calculation unit that calculates a distance to the real object, wherein the virtual image conversion unit calculates a distance to the real object based on a position of the display unit, a user's viewpoint, and a distance to the real object. The information processing apparatus according to claim 3, wherein the virtual image is converted.
【請求項15】 前記距離算出手段は、複数の前記実画
像に基づいて、前記実際の物体までの距離を算出するこ
とを特徴とする請求項14に記載の情報処理装置。
15. The information processing apparatus according to claim 14, wherein the distance calculation unit calculates a distance to the actual object based on the plurality of real images.
【請求項16】 前記視点算出手段は、前記ユーザを撮
像し、その結果得られる画像を認識することによって、
前記ユーザの視点を算出することを特徴とする請求項1
に記載の情報処理装置。
16. The viewpoint calculation means captures an image of the user and recognizes an image obtained as a result,
The viewpoint of the user is calculated.
An information processing apparatus according to claim 1.
【請求項17】 前記視点算出手段は、前記ユーザを撮
像し、その結果得られる画像を用いてステレオ処理を行
うことによって、前記ユーザの視点を算出することを特
徴とする請求項1に記載の情報処理装置。
17. The apparatus according to claim 1, wherein the viewpoint calculation unit calculates the viewpoint of the user by imaging the user and performing stereo processing using an image obtained as a result. Information processing device.
【請求項18】 前記視点算出手段は、ユーザの視点の
方向または視点の3次元空間における位置を算出するこ
とを特徴とする請求項1に記載の情報処理装置。
18. The information processing apparatus according to claim 1, wherein the viewpoint calculation unit calculates a direction of a user's viewpoint or a position of the viewpoint in a three-dimensional space.
【請求項19】 携帯型の装置であることを特徴とする
請求項1に記載の情報処理装置。
19. The information processing device according to claim 1, wherein the information processing device is a portable device.
【請求項20】 実際の物体の画像である実画像と、仮
想的な物体の画像である仮想画像とを重畳して表示する
ための情報処理を行う情報処理装置の情報処理方法であ
って、 前記情報処理装置は、画像を表示する表示手段を含み、 前記表示手段の3次元空間における位置を算出する表示
位置算出ステップと、ユーザの視点を算出する視点算出
ステップと、 前記表示手段の位置およびユーザの視点に基づいて、前
記仮想画像を変換する仮想画像変換ステップと、 変換後の前記仮想画像を、前記表示手段に表示させるた
めの描画を行う描画ステップとを含むことを特徴とする
情報処理方法。
20. An information processing method of an information processing apparatus for performing information processing for superimposing and displaying a real image as an image of an actual object and a virtual image as an image of a virtual object, The information processing apparatus includes a display unit that displays an image, a display position calculation step of calculating a position of the display unit in a three-dimensional space, a viewpoint calculation step of calculating a viewpoint of a user, and a position of the display unit. An information processing method comprising: a virtual image conversion step of converting the virtual image based on a user's viewpoint; and a drawing step of performing drawing for displaying the converted virtual image on the display unit. Method.
JP8521899A 1999-03-29 1999-03-29 Device and method for processing information Withdrawn JP2000276613A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8521899A JP2000276613A (en) 1999-03-29 1999-03-29 Device and method for processing information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8521899A JP2000276613A (en) 1999-03-29 1999-03-29 Device and method for processing information

Publications (1)

Publication Number Publication Date
JP2000276613A true JP2000276613A (en) 2000-10-06

Family

ID=13852444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8521899A Withdrawn JP2000276613A (en) 1999-03-29 1999-03-29 Device and method for processing information

Country Status (1)

Country Link
JP (1) JP2000276613A (en)

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157603A (en) * 2000-11-21 2002-05-31 Mixed Reality Systems Laboratory Inc Device and method for image processing, and storage medium
JP2002183714A (en) * 2000-12-14 2002-06-28 Nippon Telegr & Teleph Corp <Ntt> Method and device for acquiring/processing spatial geometry and recording medium recorded with spatial geometry acquiring/processing program
WO2002073955A1 (en) * 2001-03-13 2002-09-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, studio apparatus, storage medium, and program
WO2003083526A1 (en) * 2002-03-28 2003-10-09 Linus Ab A method and a device for co-ordinated displaying of a direct image and an electro-optical image
EP1511300A1 (en) * 2002-06-03 2005-03-02 Sony Corporation Image processing device and method, program, program recording medium, data structure, and data recording medium
US6956503B2 (en) 2002-09-13 2005-10-18 Canon Kabushiki Kaisha Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
JP2005323925A (en) * 2004-05-17 2005-11-24 Ge Medical Systems Global Technology Co Llc Ultrasonic imaging device
JP2007529960A (en) * 2004-03-18 2007-10-25 ソニー エレクトロニクス インク 3D information acquisition and display system for personal electronic devices
WO2009038149A1 (en) * 2007-09-20 2009-03-26 Nec Corporation Video image providing system and video image providing method
DE102008020771A1 (en) * 2008-04-21 2009-07-09 Carl Zeiss 3D Metrology Services Gmbh Deviation determining method, involves locating viewers at viewing position of device and screen, such that viewers view each position of exemplars corresponding to measured coordinates of actual condition
DE102008020772A1 (en) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Presentation of results of a measurement of workpieces
JP2010510572A (en) * 2006-11-20 2010-04-02 トムソン ライセンシング Method and system for light modeling
JP2010122879A (en) * 2008-11-19 2010-06-03 Sony Ericsson Mobile Communications Ab Terminal device, display control method, and display control program
JP2010541053A (en) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for rendering a virtual object in a real environment
JP2011508557A (en) * 2007-12-26 2011-03-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image processor for overlaying graphics objects
KR20110136012A (en) * 2010-06-14 2011-12-21 주식회사 비즈모델라인 Augmented reality device to track eyesight direction and position
JP2012003328A (en) * 2010-06-14 2012-01-05 Nintendo Co Ltd Three-dimensional image display program, three-dimensional image display apparatus, three-dimensional image display system, and three-dimensional image display method
JP2012013514A (en) * 2010-06-30 2012-01-19 Canon Inc Information processor, three dimensional position calculation method and program
JP2012033043A (en) * 2010-07-30 2012-02-16 Toshiba Corp Information display device and information display method
JP2012115414A (en) * 2010-11-30 2012-06-21 Nintendo Co Ltd Game device, method of providing game, game program, and game system
JP2012175324A (en) * 2011-02-21 2012-09-10 Tatsumi Denshi Kogyo Kk Automatic photograph creation system, automatic photograph creation apparatus, server device and terminal device
WO2012124250A1 (en) * 2011-03-15 2012-09-20 パナソニック株式会社 Object control device, object control method, object control program, and integrated circuit
JP2012190230A (en) * 2011-03-10 2012-10-04 Nec Casio Mobile Communications Ltd Display device, display method, and program
JP2013015796A (en) * 2011-07-06 2013-01-24 Sony Corp Display control apparatus, display control method, and computer program
KR101309176B1 (en) * 2006-01-18 2013-09-23 삼성전자주식회사 Apparatus and method for augmented reality
WO2013148222A1 (en) 2012-03-28 2013-10-03 Microsoft Corporation Augmented reality light guide display
WO2013145147A1 (en) * 2012-03-28 2013-10-03 パイオニア株式会社 Head mounted display and display method
JP2013542462A (en) * 2010-09-21 2013-11-21 マイクロソフト コーポレーション Opaque filter for transmissive head mounted display
WO2014037972A1 (en) * 2012-09-05 2014-03-13 Necカシオモバイルコミュニケーションズ株式会社 Display device, display method, and program
WO2014091824A1 (en) * 2012-12-10 2014-06-19 ソニー株式会社 Display control device, display control method and program
JP2014515130A (en) * 2011-03-10 2014-06-26 マイクロソフト コーポレーション Theme-based expansion of photorealistic views
CN104204994A (en) * 2012-04-26 2014-12-10 英特尔公司 Augmented reality computing device, apparatus and system
JP2015156131A (en) * 2014-02-20 2015-08-27 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus and information processing method
JP2015207219A (en) * 2014-04-22 2015-11-19 富士通株式会社 Display device, position specification program, and position specification method
JP5961892B1 (en) * 2015-04-03 2016-08-03 株式会社ハコスコ Display terminal and information recording medium
WO2017121361A1 (en) * 2016-01-14 2017-07-20 深圳前海达闼云端智能科技有限公司 Three-dimensional stereo display processing method and apparatus for curved two-dimensional screen
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
US9807381B2 (en) 2012-03-14 2017-10-31 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
KR20180068678A (en) * 2016-12-14 2018-06-22 삼성전자주식회사 Display apparatus and method for displaying
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
JP2020503599A (en) * 2016-12-14 2020-01-30 サムスン エレクトロニクス カンパニー リミテッド Display device and control method thereof
WO2020110283A1 (en) * 2018-11-30 2020-06-04 マクセル株式会社 Display device
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
CN113170075A (en) * 2018-11-09 2021-07-23 索尼集团公司 Information processing apparatus, information processing method, and program
CN113228117A (en) * 2019-01-11 2021-08-06 三菱电机株式会社 Authoring apparatus, authoring method, and authoring program
JP2022122876A (en) * 2018-03-08 2022-08-23 塁 佐藤 image display system

Cited By (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157603A (en) * 2000-11-21 2002-05-31 Mixed Reality Systems Laboratory Inc Device and method for image processing, and storage medium
JP2002183714A (en) * 2000-12-14 2002-06-28 Nippon Telegr & Teleph Corp <Ntt> Method and device for acquiring/processing spatial geometry and recording medium recorded with spatial geometry acquiring/processing program
WO2002073955A1 (en) * 2001-03-13 2002-09-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, studio apparatus, storage medium, and program
WO2003083526A1 (en) * 2002-03-28 2003-10-09 Linus Ab A method and a device for co-ordinated displaying of a direct image and an electro-optical image
EP1511300A4 (en) * 2002-06-03 2006-01-04 Sony Corp Image processing device and method, program, program recording medium, data structure, and data recording medium
EP1511300A1 (en) * 2002-06-03 2005-03-02 Sony Corporation Image processing device and method, program, program recording medium, data structure, and data recording medium
US7831086B2 (en) 2002-06-03 2010-11-09 Sony Corporation Image processing device and method, program, program recording medium, data structure, and data recording medium
CN1296680C (en) * 2002-09-13 2007-01-24 佳能株式会社 Image display and method, measuring device and method, recognition method
US7423553B2 (en) 2002-09-13 2008-09-09 Canon Kabushiki Kaisha Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
EP1398601A3 (en) * 2002-09-13 2014-05-07 Canon Kabushiki Kaisha Head up display for navigation purposes in a vehicle
US6956503B2 (en) 2002-09-13 2005-10-18 Canon Kabushiki Kaisha Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
JP2007529960A (en) * 2004-03-18 2007-10-25 ソニー エレクトロニクス インク 3D information acquisition and display system for personal electronic devices
JP2005323925A (en) * 2004-05-17 2005-11-24 Ge Medical Systems Global Technology Co Llc Ultrasonic imaging device
JP4615893B2 (en) * 2004-05-17 2011-01-19 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Ultrasonic imaging device
KR101309176B1 (en) * 2006-01-18 2013-09-23 삼성전자주식회사 Apparatus and method for augmented reality
JP2010510572A (en) * 2006-11-20 2010-04-02 トムソン ライセンシング Method and system for light modeling
US8466917B2 (en) 2006-11-20 2013-06-18 Thomson Licensing Method and system for modeling light
WO2009038149A1 (en) * 2007-09-20 2009-03-26 Nec Corporation Video image providing system and video image providing method
US8531514B2 (en) 2007-09-20 2013-09-10 Nec Corporation Image providing system and image providing method
JP5564946B2 (en) * 2007-09-20 2014-08-06 日本電気株式会社 Video providing system and video providing method
US9390560B2 (en) 2007-09-25 2016-07-12 Metaio Gmbh Method and device for illustrating a virtual object in a real environment
JP2010541053A (en) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for rendering a virtual object in a real environment
JP2011508557A (en) * 2007-12-26 2011-03-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image processor for overlaying graphics objects
DE102008020771A1 (en) * 2008-04-21 2009-07-09 Carl Zeiss 3D Metrology Services Gmbh Deviation determining method, involves locating viewers at viewing position of device and screen, such that viewers view each position of exemplars corresponding to measured coordinates of actual condition
DE102008020772A1 (en) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Presentation of results of a measurement of workpieces
US8638984B2 (en) 2008-04-21 2014-01-28 Carl Zeiss Industrielle Messtechnik Gmbh Display of results of a measurement of workpieces as a function of the detection of the gesture of a user
JP2010122879A (en) * 2008-11-19 2010-06-03 Sony Ericsson Mobile Communications Ab Terminal device, display control method, and display control program
KR101691564B1 (en) * 2010-06-14 2016-12-30 주식회사 비즈모델라인 Method for Providing Augmented Reality by using Tracking Eyesight
JP2012003328A (en) * 2010-06-14 2012-01-05 Nintendo Co Ltd Three-dimensional image display program, three-dimensional image display apparatus, three-dimensional image display system, and three-dimensional image display method
KR20110136012A (en) * 2010-06-14 2011-12-21 주식회사 비즈모델라인 Augmented reality device to track eyesight direction and position
JP2012013514A (en) * 2010-06-30 2012-01-19 Canon Inc Information processor, three dimensional position calculation method and program
JP2012033043A (en) * 2010-07-30 2012-02-16 Toshiba Corp Information display device and information display method
KR20130139878A (en) * 2010-09-21 2013-12-23 마이크로소프트 코포레이션 Opacity filter for see-through head mounted display
KR101895085B1 (en) * 2010-09-21 2018-10-04 텔레폰악티에볼라겟엘엠에릭슨(펍) Opacity filter for see-through head mounted display
JP2013542462A (en) * 2010-09-21 2013-11-21 マイクロソフト コーポレーション Opaque filter for transmissive head mounted display
US9286730B2 (en) 2010-09-21 2016-03-15 Microsoft Technology Licensing, Llc Opacity filter for display device
US9911236B2 (en) 2010-09-21 2018-03-06 Telefonaktiebolaget L M Ericsson (Publ) Opacity filter for display device
US10665033B2 (en) 2010-09-21 2020-05-26 Telefonaktiebolaget Lm Ericsson (Publ) Opacity filter for display device
US10388076B2 (en) 2010-09-21 2019-08-20 Telefonaktiebolaget Lm Ericsson (Publ) Opacity filter for display device
US10573086B2 (en) 2010-09-21 2020-02-25 Telefonaktiebolaget Lm Ericsson (Publ) Opacity filter for display device
JP2012115414A (en) * 2010-11-30 2012-06-21 Nintendo Co Ltd Game device, method of providing game, game program, and game system
JP2012175324A (en) * 2011-02-21 2012-09-10 Tatsumi Denshi Kogyo Kk Automatic photograph creation system, automatic photograph creation apparatus, server device and terminal device
JP2014515130A (en) * 2011-03-10 2014-06-26 マイクロソフト コーポレーション Theme-based expansion of photorealistic views
JP2012190230A (en) * 2011-03-10 2012-10-04 Nec Casio Mobile Communications Ltd Display device, display method, and program
US10972680B2 (en) 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
JPWO2012124250A1 (en) * 2011-03-15 2014-07-17 パナソニック株式会社 Object control apparatus, object control method, object control program, and integrated circuit
WO2012124250A1 (en) * 2011-03-15 2012-09-20 パナソニック株式会社 Object control device, object control method, object control program, and integrated circuit
JP2013015796A (en) * 2011-07-06 2013-01-24 Sony Corp Display control apparatus, display control method, and computer program
US10074346B2 (en) 2011-07-06 2018-09-11 Sony Corporation Display control apparatus and method to control a transparent display
US9807381B2 (en) 2012-03-14 2017-10-31 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US10388073B2 (en) 2012-03-28 2019-08-20 Microsoft Technology Licensing, Llc Augmented reality light guide display
JP2018081706A (en) * 2012-03-28 2018-05-24 マイクロソフト テクノロジー ライセンシング,エルエルシー Augmented reality light guide display
WO2013148222A1 (en) 2012-03-28 2013-10-03 Microsoft Corporation Augmented reality light guide display
WO2013145147A1 (en) * 2012-03-28 2013-10-03 パイオニア株式会社 Head mounted display and display method
CN104205193A (en) * 2012-03-28 2014-12-10 微软公司 Augmented reality light guide display
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US9558590B2 (en) 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
EP2831867A1 (en) * 2012-03-28 2015-02-04 Microsoft Corporation Augmented reality light guide display
EP2831867A4 (en) * 2012-03-28 2015-04-01 Microsoft Corp Augmented reality light guide display
JP2015523583A (en) * 2012-03-28 2015-08-13 マイクロソフト コーポレーション Augmented reality light guide display
US10478717B2 (en) 2012-04-05 2019-11-19 Microsoft Technology Licensing, Llc Augmented reality and physical games
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
CN104204994A (en) * 2012-04-26 2014-12-10 英特尔公司 Augmented reality computing device, apparatus and system
CN104204994B (en) * 2012-04-26 2018-06-05 英特尔公司 Augmented reality computing device, equipment and system
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
CN104603717A (en) * 2012-09-05 2015-05-06 Nec卡西欧移动通信株式会社 Display device, display method, and program
WO2014037972A1 (en) * 2012-09-05 2014-03-13 Necカシオモバイルコミュニケーションズ株式会社 Display device, display method, and program
JPWO2014091824A1 (en) * 2012-12-10 2017-01-05 ソニー株式会社 Display control apparatus, display control method, and program
US10181221B2 (en) 2012-12-10 2019-01-15 Sony Corporation Display control apparatus, display control method, and program
US12051161B2 (en) 2012-12-10 2024-07-30 Sony Corporation Display control apparatus, display control method, and program
US9613461B2 (en) 2012-12-10 2017-04-04 Sony Corporation Display control apparatus, display control method, and program
US11321921B2 (en) 2012-12-10 2022-05-03 Sony Corporation Display control apparatus, display control method, and program
WO2014091824A1 (en) * 2012-12-10 2014-06-19 ソニー株式会社 Display control device, display control method and program
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
WO2015125709A1 (en) * 2014-02-20 2015-08-27 株式会社ソニー・コンピュータエンタテインメント Information processing device and information processing method
US10192360B2 (en) 2014-02-20 2019-01-29 Sony Interactive Entertainment Inc. Information processing apparatus and information processing method
JP2015156131A (en) * 2014-02-20 2015-08-27 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus and information processing method
JP2015207219A (en) * 2014-04-22 2015-11-19 富士通株式会社 Display device, position specification program, and position specification method
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
WO2016157523A1 (en) * 2015-04-03 2016-10-06 株式会社SR laboratories Display terminal and information recording medium
JP5961892B1 (en) * 2015-04-03 2016-08-03 株式会社ハコスコ Display terminal and information recording medium
WO2017121361A1 (en) * 2016-01-14 2017-07-20 深圳前海达闼云端智能科技有限公司 Three-dimensional stereo display processing method and apparatus for curved two-dimensional screen
KR102538479B1 (en) * 2016-12-14 2023-06-01 삼성전자주식회사 Display apparatus and method for displaying
JP7050067B2 (en) 2016-12-14 2022-04-07 サムスン エレクトロニクス カンパニー リミテッド Display device and its control method
US10579206B2 (en) 2016-12-14 2020-03-03 Samsung Electronics Co., Ltd. Display apparatus and method for controlling the display apparatus
KR20180068678A (en) * 2016-12-14 2018-06-22 삼성전자주식회사 Display apparatus and method for displaying
JP2020503599A (en) * 2016-12-14 2020-01-30 サムスン エレクトロニクス カンパニー リミテッド Display device and control method thereof
JP7423683B2 (en) 2018-03-08 2024-01-29 塁 佐藤 image display system
JP2022122876A (en) * 2018-03-08 2022-08-23 塁 佐藤 image display system
US11750789B2 (en) 2018-03-08 2023-09-05 Virtualwindow Co., Ltd. Image display system
US12095965B2 (en) 2018-03-08 2024-09-17 Virtual Window Co., Ltd. Image display system
CN113170075A (en) * 2018-11-09 2021-07-23 索尼集团公司 Information processing apparatus, information processing method, and program
CN113170075B (en) * 2018-11-09 2024-04-19 索尼集团公司 Information processing device, information processing method, and program
JPWO2020110283A1 (en) * 2018-11-30 2021-10-14 マクセル株式会社 Display device
JP7146944B2 (en) 2018-11-30 2022-10-04 マクセル株式会社 Display device
US11483483B2 (en) 2018-11-30 2022-10-25 Maxell, Ltd. Display apparatus
US11831976B2 (en) 2018-11-30 2023-11-28 Maxell, Ltd. Display apparatus
WO2020110283A1 (en) * 2018-11-30 2020-06-04 マクセル株式会社 Display device
CN113228117A (en) * 2019-01-11 2021-08-06 三菱电机株式会社 Authoring apparatus, authoring method, and authoring program

Similar Documents

Publication Publication Date Title
JP2000276613A (en) Device and method for processing information
JP3944019B2 (en) Information processing apparatus and method
CA2888943C (en) Augmented reality system and method for positioning and mapping
US8937592B2 (en) Rendition of 3D content on a handheld device
JP4825980B2 (en) Calibration method for fisheye camera.
KR102126241B1 (en) Image processing device, image processing method, program for image processing device, storage medium, and image display device
US6031941A (en) Three-dimensional model data forming apparatus
JP2019536170A (en) Virtually extended visual simultaneous localization and mapping system and method
JP2018511098A (en) Mixed reality system
JP4825971B2 (en) Distance calculation device, distance calculation method, structure analysis device, and structure analysis method.
US20060018509A1 (en) Image generation device
JP2002259992A (en) Image processor and its method as well as program code and storage medium
CN111353930B (en) Data processing method and device, electronic equipment and storage medium
US7369142B2 (en) Image-displaying apparatus and method for obtaining pixel data therefor
JP2018155664A (en) Imaging system, imaging control method, image processing device, and image processing program
JPH11136575A (en) Image pickup device and photographed image synthesizing method
JP2000341721A (en) Depth image measuring instrument and method, parallax image measuring instrument, composite reality presentation system and method, and program storage medium
JP2003346185A (en) Information display system and personal digital assistant
US20230007227A1 (en) Augmented reality eyewear with x-ray effect
JP5739670B2 (en) Image display program, apparatus, system and method
CN111148970A (en) System and method for calibrating imaging and spatial orientation sensors
JP6812643B2 (en) Communication terminals, image communication systems, display methods, and programs
Yu et al. Projective Bisector Mirror (PBM): Concept and Rationale
JP5739673B2 (en) Image display program, apparatus, system and method
US11928775B2 (en) Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606