JP2003296758A - Information processing method and device - Google Patents

Information processing method and device

Info

Publication number
JP2003296758A
JP2003296758A JP2002095536A JP2002095536A JP2003296758A JP 2003296758 A JP2003296758 A JP 2003296758A JP 2002095536 A JP2002095536 A JP 2002095536A JP 2002095536 A JP2002095536 A JP 2002095536A JP 2003296758 A JP2003296758 A JP 2003296758A
Authority
JP
Japan
Prior art keywords
image
data
image data
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002095536A
Other languages
Japanese (ja)
Inventor
Mahoro Anabuki
まほろ 穴吹
Toshiichi Oshima
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002095536A priority Critical patent/JP2003296758A/en
Publication of JP2003296758A publication Critical patent/JP2003296758A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable both an experiencing person and spectators to share information by presenting a compound realistic image to the experiencing person without failure and simultaneously presenting more information about the compound realistic image that experiencing person obtains to the spectators other than the experiencing person. <P>SOLUTION: First image data for generating a first image and second image data showing a second image are stored, the positional attitude of the experiencing person is measured, the first image is generated from the first image data in accordance with the measured positional attitude, the second image corresponding to the second image data is displayed on a second image display part, and a real video including the display image displayed on the second image display part is composited with the generated first image to be presented to the experiencing person. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】複合現実感を提供するものに
関する。
FIELD OF THE INVENTION This invention relates to providing mixed reality.

【0002】[0002]

【従来の技術】近年、現実空間と仮想空間の繋ぎ目のな
い結合を目的とした複合現実感に関する研究が盛んにな
っている。
2. Description of the Related Art In recent years, research on mixed reality for the purpose of seamless connection between a physical space and a virtual space has become popular.

【0003】複合現実感は、従来、現実空間と切り離さ
れた状況でのみ体験可能であったバーチャルリアリティ
の世界と現実空間との共存を目的とし、バーチャルリア
リティを増強する技術として注目されている。
Mixed reality has been attracting attention as a technology for enhancing virtual reality for the purpose of coexistence of the world of virtual reality and the real space, which has been conventionally experienced only in a situation separated from the real space.

【0004】複合現実感の応用としては、患者の体内の
様子を透視しているように医師に提示する医療補助の用
途や、工場において製品の組み立て手順を実物に重ねて
表示する作業補助の用途など、今までのバーチャルリア
リティとは質的に全く異なった新たな分野が期待されて
いる。
Applications of mixed reality include medical assistance for presenting to a doctor as if the patient's inside of the body is seen through, and work assistance for displaying the assembly procedure of the product on the actual product in a factory. There are expectations for new fields that are qualitatively completely different from the virtual reality up to now.

【0005】この複合現実感を提示する方法一つに、頭
部装着型の画像表示装置を利用するものがある。この方
法では、現実空間をカメラなどでリアルタイムに撮影し
た現実空間画像、または、光学系を介して観察する現実
空間の風景と、計算機等で作成した画像とを合成した複
合現実感画像が、複合現実感を体験する人(以下、「体
験者」と称す)の頭部に装着された画像表示装置に表示
される。
One of the methods for presenting this mixed reality is to use a head-mounted image display device. In this method, a real space image obtained by capturing the real space in real time with a camera or the like, or a mixed reality image in which a landscape of the real space observed through an optical system and an image created by a computer are combined, It is displayed on an image display device mounted on the head of a person who experiences reality (hereinafter referred to as “experienced person”).

【0006】ところで、複合現実感の様子を、体験者だ
けでなく、体験者以外の人(以下、「観客」と称す)に
も提示することが有効な場面がある。例えば、複合現実
感を提示する映像合成装置が展示装置として使われるよ
うな状況では、体験者の周囲にいる観客に対しても複合
現実感画像を提示することで、より多くの人が複合現実
感の内容を把握することができるので、その展示効果が
高まることとなる。
By the way, there are situations where it is effective to present the mixed reality state not only to the experienced person but also to people other than the experienced person (hereinafter referred to as "spectators"). For example, in a situation in which an image synthesizer that presents mixed reality is used as an exhibition device, more people can see mixed reality by presenting the mixed reality image to spectators around the viewer. Since the content of the feeling can be grasped, the exhibition effect will be enhanced.

【0007】観客に対しても複合現実感を提示する方法
としては、例えば、体験者自身が見ている複合現実感画
像を観客向けのディスプレイに表示する方法や、体験者
視点以外の位置から観察される複合現実感画像を客観的
な視点からの複合現実感画像としてディスプレイに表示
する方法がある。しかしこれらの方法には、体験者に提
示される情報の位置と観客に提示される情報の位置とが
一致しないという不具合が含まれている。
As a method of presenting mixed reality to the spectators, for example, a method of displaying a mixed reality image that the viewer sees on a display for the spectator, or observing from a position other than the viewpoint of the viewer. There is a method for displaying the mixed reality image as a mixed reality image from an objective viewpoint on the display. However, these methods include a defect that the position of the information presented to the experience person does not match the position of the information presented to the audience.

【0008】また、公開特許公報の特開平5−2411
23に開示された「画像情報合成方法及び装置」を利用
すれば、体験者だけでなく観客にも複合現実感を提示す
ることができる。この方法および装置は、CG作成用コ
ンピュータから作成されるコンピュータ画像をテレビカ
メラで撮影される実画像に合成する技術であり、体験者
が装着する頭部装着型の画像表示装置と体験者の視線方
向に置かれるスクリーンとの、一方に前記実画像を、他
方に前記コンピュータ画像を表示させ、ハーフミラーを
利用して光学的に両者を合成することを特徴としてい
る。この技術を利用し、前記テレビカメラが体験者の視
線方向の現実空間を撮影し、一方の前記画像表示装置に
は前記テレビカメラが撮影した実画像を表示して、他方
の前記スクリーンにはコンピュータ画像を表示すれば、
観客はコンピュータ画像とテレビカメラが撮影している
現実空間の両方を観察することができるので、その両者
の合成画像によって提示される体験者が得る複合現実感
を把握することができる。ただしこの方法には、観客も
複合現実感を把握できる一方で、体験者に対しては、ハ
ーフミラーとテレビカメラを介して、体験者視線方向の
現実空間が二重に提示されるという不具合が含まれてい
る。
[0008] Further, Japanese Patent Laid-Open No. 5-2411 of Japanese Patent Laid-Open No.
By using the “image information synthesizing method and apparatus” disclosed in No. 23, it is possible to present mixed reality to not only the experienced person but also the spectator. This method and device is a technique for synthesizing a computer image created by a computer for CG creation into a real image taken by a TV camera, and a head-mounted image display device worn by the experience person and the sight line of the experience person. It is characterized in that the real image is displayed on one side and the computer image is displayed on the other side of the screen placed in the direction, and the two are optically combined using a half mirror. Using this technology, the television camera captures a real space in the direction of the viewer's line of sight, one of the image display devices displays a real image captured by the television camera, and the other screen displays a computer. If you display the image,
Since the spectator can observe both the computer image and the real space captured by the television camera, the viewer can grasp the mixed reality that is presented by the composite image of both. However, this method has the disadvantage that the audience can understand the mixed reality, while the experience person is presented with the dual real space in the direction of the observer's line of sight via the half mirror and the TV camera. include.

【0009】[0009]

【発明が解決しようとする課題】そこで本発明は、以上
のような事態に鑑みてなされたものであり、その目的
は、本発明の技術を利用する者に対して不具合なく複合
現実感を提示すると同時に、複合現実感体験者以外の観
客に対しても、体験者が得ている複合現実感に関するよ
り多くの情報を提示して、その情報を体験者と観客とが
共有することである。
SUMMARY OF THE INVENTION Therefore, the present invention has been made in view of the above situation, and its purpose is to present mixed reality without trouble to a person who uses the technique of the present invention. At the same time, it is to present more information about the mixed reality that the experience person has to the audience other than the mixed reality experience person, and share the information with the experience person and the audience.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、第1画像を生成するための第1画像デー
タおよび第2画像を示す第2画像データとを保持し、体
験者の位置姿勢を計測し、前記計測された位置姿勢に応
じて、前記第1画像データから第1画像を生成し、前記
第2画像データに応じた第2画像を第2画像表示部に表
示させ、前記第2画像表示部に表示された表示画像を含
む実映像と、前記生成された第1画像を合成して体験者
に提示することを有することを特徴とする。
In order to achieve the above-mentioned object, the present invention holds first image data for generating a first image and second image data showing a second image, and an experience person Of the first image data is generated from the first image data according to the measured position and orientation, and a second image corresponding to the second image data is displayed on the second image display unit. The present invention is characterized by comprising combining a real video including a display image displayed on the second image display unit and the generated first image and presenting the synthesized image to a user.

【0011】[0011]

【発明の実施の形態】以下、添付の図面を参照して本発
明の好適な実施形態について説明する。
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.

【0012】<第一の実施形態>第一の実施形態は、本
発明をビデオシースルー方式の映像合成方法を用いて複
合現実感を提示する映像合成装置に適用したものであ
る。図1は第一の実施形態による映像合成装置の概略構
成を示すブロック図である。
<First Embodiment> In the first embodiment, the present invention is applied to an image synthesizing apparatus for presenting mixed reality by using a video see-through type image synthesizing method. FIG. 1 is a block diagram showing a schematic configuration of a video composition device according to the first embodiment.

【0013】1は位置姿勢計測部であり、例えば磁気セ
ンサ(現実空間上に固定された磁気トランスミッタと計
測対象に取り付けられた磁気トラッカー)からなる。位
置姿勢計測部1は、現実空間における現実空間画像入力
部5の位置および姿勢を計測し、その位置データおよび
姿勢データを画像生成部4へ送出する。
A position / orientation measuring unit 1 is composed of, for example, a magnetic sensor (a magnetic transmitter fixed in the physical space and a magnetic tracker attached to a measurement target). The position / orientation measurement unit 1 measures the position and orientation of the physical space image input unit 5 in the physical space, and sends the position data and orientation data to the image generation unit 4.

【0014】2および2’はデータ部であり、例えばハ
ードディスクから構成され、それぞれ画像生成部4およ
び画像生成部4’に引き渡すデータを保持し、それぞれ
画像生成部4および画像生成部4’からの要求に応じ
て、適切なデータを画像生成部4および画像生成部4’
に送出する。データ部2およびデータ部2’に格納され
るデータは、例えば、テキストデータや三次元CG(コ
ンピュータグラフィックス)データ、二次元画像、実写
動画像である。
Reference numerals 2 and 2'are data sections, which are composed of, for example, hard disks, hold data to be passed to the image generating section 4 and the image generating section 4 ', respectively, and are supplied from the image generating section 4 and the image generating section 4', respectively. In response to the request, appropriate data is provided to the image generation unit 4 and the image generation unit 4 ′.
Send to. The data stored in the data part 2 and the data part 2'is, for example, text data, three-dimensional CG (computer graphics) data, a two-dimensional image, or a real moving image.

【0015】図1にはデータ部2およびデータ部2’を
異なるものとして示しているが、これらは一体化してい
ても良い。
Although the data section 2 and the data section 2'are shown as different in FIG. 1, they may be integrated.

【0016】なお、データ部2およびデータ部2’はハ
ードディスクに限らず、データを保持することができる
媒体であれば何でもよく、たとえばテープやメモリなど
で構成してもよい。
The data section 2 and the data section 2'are not limited to hard disks, and may be any medium capable of holding data, such as tape or memory.

【0017】3は対話操作入力部であり、例えば、キー
ボードやマウスや6自由度位置姿勢センサなどからな
る。対話操作入力部3は体験者によって操作され、その
操作情報を操作データとして獲得し、この操作データを
画像生成部4および画像生成部4’へ送出する。この対
話操作入力部3は、必須ではない。また、図1には対話
操作入力部を一つのものとして示しているが、複数あっ
ても良い。
Reference numeral 3 denotes an interactive operation input unit, which is composed of, for example, a keyboard, a mouse, a 6-DOF position / orientation sensor, and the like. The interactive operation input unit 3 is operated by a user, acquires the operation information as operation data, and sends this operation data to the image generation unit 4 and the image generation unit 4 ′. This interactive operation input unit 3 is not essential. Further, although FIG. 1 shows one dialogue operation input unit, a plurality of dialogue operation input units may be provided.

【0018】4および4’は画像生成部であり、例えば
計算機からなる。
Image generators 4 and 4'are, for example, computers.

【0019】画像生成部4は、位置姿勢計測部1から受
け取った現実空間画像入力部5の位置データおよび姿勢
データから、現実空間における現実空間画像入力部5の
撮影視点の位置データおよび姿勢データを算出する。ま
た、画像生成部4は、この位置データおよび姿勢データ
に応じて、データ部2に保持されたデータを基に画像デ
ータを生成する。その際、対話操作入力部3から操作デ
ータが送出される場合には、その操作データにも応じる
ように画像データを生成する。この画像データは、画像
合成部6へ送出される。以下では、この画像データを
「画像データA」と称し、これから生成される画像を
「画像A」と称する。
The image generation unit 4 obtains the position data and the posture data of the photographing viewpoint of the real space image input unit 5 in the real space from the position data and the posture data of the real space image input unit 5 received from the position and posture measurement unit 1. calculate. The image generation unit 4 also generates image data based on the data held in the data unit 2 according to the position data and the posture data. At that time, when the operation data is transmitted from the interactive operation input unit 3, the image data is generated so as to comply with the operation data. This image data is sent to the image synthesizing unit 6. Hereinafter, this image data will be referred to as “image data A”, and an image generated from this will be referred to as “image A”.

【0020】画像生成部4’は、データ部2’に保持さ
れたデータを基に画像データを生成する。その際、対話
操作入力部3から操作データが送出される場合には、そ
の操作データにも応じるように画像データを生成する。
この画像データは、画像投影部8へ送出される。以下で
は、この画像データを「画像データA’」と称し、これ
から生成される画像を「画像A’」と称する。
The image generating section 4'generates image data based on the data held in the data section 2 '. At that time, when the operation data is transmitted from the interactive operation input unit 3, the image data is generated so as to comply with the operation data.
This image data is sent to the image projection unit 8. Hereinafter, this image data will be referred to as “image data A ′”, and an image generated from this will be referred to as “image A ′”.

【0021】図1には、画像生成部4と画像生成部4’
を異なるものとして示しているが、図2に示すように、
これらは一体化していても良い。
In FIG. 1, an image generating section 4 and an image generating section 4 '.
Are shown as different, but as shown in FIG.
These may be integrated.

【0022】5は現実空間画像入力部であり、例えばカ
メラとビデオキャプチャカードからなる。現実空間画像
入力部5は、体験者視線方向の現実空間の画像を撮影す
る。また、現実空間画像入力部5は、この現実空間画像
を画像合成部6に適した形式に変換し、現実空間画像デ
ータとして画像合成部6に送出する。
Reference numeral 5 is a physical space image input section, which comprises, for example, a camera and a video capture card. The physical space image input unit 5 captures an image of the physical space in the viewer's line-of-sight direction. The physical space image input unit 5 also converts the physical space image into a format suitable for the image composition unit 6 and sends it to the image composition unit 6 as physical space image data.

【0023】6は画像合成部であり、例えば計算機から
なる。画像合成部6は、画像生成部4から送出される画
像データAと、現実空間画像入力部5から送出される現
実空間画像データを合成し、合成画像データを作成す
る。また、画像合成部6は、この合成画像データを、画
像表示部7に送出する。ここで、右目用画像と左眼用画
像を作成することにより画像を立体視させることができ
る。
Reference numeral 6 is an image synthesizing unit, which is composed of, for example, a computer. The image synthesizing unit 6 synthesizes the image data A sent from the image generating unit 4 and the physical space image data sent from the physical space image input unit 5 to create synthetic image data. The image composition unit 6 also sends the composite image data to the image display unit 7. Here, the image can be stereoscopically viewed by creating the image for the right eye and the image for the left eye.

【0024】7は画像表示部であり、例えば頭部装着型
の液晶ディスプレイからなる。画像表示部7は、画像合
成部6から送出される合成画像データを、画像として表
示する。合成画像の表示光は、観察者視点へ入射する。
An image display unit 7 is composed of, for example, a head-mounted liquid crystal display. The image display unit 7 displays the combined image data sent from the image combining unit 6 as an image. The display light of the composite image enters the observer's viewpoint.

【0025】8は画像投影部であり、例えば映像投影機
からなる。画像投影部8は、画像生成部4から送出され
る画像データA’を、画像投影面9に対して画像(画像
A’)として投影する。
Reference numeral 8 denotes an image projection unit, which is composed of, for example, a video projector. The image projection unit 8 projects the image data A ′ sent from the image generation unit 4 on the image projection surface 9 as an image (image A ′).

【0026】9は画像投影面であり、例えばスクリーン
や、表面が白色無地の現実物体からなる。画像投影面9
には、画像投影部8から画像A’の画像光が投影され
る。この画像投影面9は、現実空間画像入力部5が撮影
する現実空間に存在する。
Reference numeral 9 denotes an image projection plane, which is composed of, for example, a screen or a real object whose surface is white and plain. Image projection plane 9
The image light of the image A ′ is projected from the image projection unit 8. The image projection plane 9 exists in the physical space captured by the physical space image input unit 5.

【0027】本実施形態の特徴の1つは、体験者に提示
する画像を、頭部装着型の液晶ディスプレイである画像
表示部7に表示するものと、「目の前の現実空間」に存
在するスクリーン(画像投影面9)に表示されるものに
分ける点にある。
One of the features of this embodiment is that an image to be presented to the experience person is displayed on the image display section 7 which is a head-mounted liquid crystal display, and that it exists in the "real space in front of the eyes". It is divided into those displayed on the screen (image projection surface 9).

【0028】画像表示部に表示する画像と画像投影面に
表示される画像に分ける基準としては、体験者からの距
離が考えられる。体験者に近い周辺部分についてはより
精巧なシミュレーションを実現するために、3次元提示
すべく画像表示部に表示する。一方、体験者から遠い背
景のような画像は、体験者の視点移動による映像の変化
が大きくないので、2次元的に表示しても不具合は少な
い。よって、実写動画像などの2次元画像を用いる。
As a reference for dividing the image displayed on the image display unit and the image displayed on the image projection surface, the distance from the experience person can be considered. The peripheral part close to the experiencer is displayed on the image display unit for three-dimensional presentation in order to realize a more elaborate simulation. On the other hand, an image such as a background far from the experience person does not have a large change in the image due to movement of the viewpoint of the experience person, so that there are few problems even if it is displayed two-dimensionally. Therefore, a two-dimensional image such as a real moving image is used.

【0029】例えば、本実施形態をドライビングシミュ
レーターに適用した場合について説明する。例えば、車
窓からの風景を、画像投影面上に実写動画像を用いて提
示する。体験者以外の観客も、観客がどのような仮想空
間内でドライビングシミュレーションをしているかを知
ることができる。また、車の内装といった、体験者周辺
に関しては画像表示部を用いて3次元的に提示すること
により、体験者により高いシミュレーション効果を与え
ることができる。
For example, a case where the present embodiment is applied to a driving simulator will be described. For example, the scenery from the car window is presented on the image projection surface using a real moving image. Audiences other than the experienced person can also know what kind of virtual space the audience is doing in the driving simulation. In addition, by providing a three-dimensional presentation using the image display unit for the surroundings of the experience person, such as the interior of a car, a higher simulation effect can be given to the experience person.

【0030】また、画像の提示に立体視が必要であるか
どうかを基準としてもよい。例えば、ドライビングシミ
ュレーターでは、ハンドルやボタン、レバーなどは3次
元的に提示すべく画像表示部に表示し、スピードメータ
ーやカーナビ画面といった2次元的なものおよび背景は
2次元的に提示すべく画像投影面に表示する。
Further, whether or not stereoscopic viewing is required for presenting an image may be used as a reference. For example, in a driving simulator, the steering wheel, buttons, levers, etc. are displayed on the image display unit in order to present them three-dimensionally, and the two-dimensional objects such as speedometer and car navigation screen and the background are projected in two-dimensional form. Display on the surface.

【0031】このように、本実施形態では画像表示部に
表示する画像は3次元的に提示し、画像投影面において
は2次元的に提示するようにしている。
As described above, in the present embodiment, the image displayed on the image display unit is presented three-dimensionally and is presented two-dimensionally on the image projection plane.

【0032】本実施形態によれば、画像投影面9に画像
が表示されることにより、観客も画像をみることがで
き、体験者だけでなく観客もMR空間の様子を知ること
ができる。さらに、体験者は画像投影面9に表示された
画像と、3次元提示される精巧な立体視画像とを組み合
わせて体験することができる。
According to the present embodiment, since the image is displayed on the image projection surface 9, the spectator can see the image, and not only the experience person but also the spectator can know the state of the MR space. Further, the experience person can experience by combining the image displayed on the image projection surface 9 and the three-dimensionally presented elaborate stereoscopic image.

【0033】以上の様な構成を備えた本実施形態の制御
について、以下説明する。図3は第一の実施形態におけ
る処理の手順を説明するフローチャートである。
The control of this embodiment having the above configuration will be described below. FIG. 3 is a flowchart illustrating the procedure of processing according to the first embodiment.

【0034】ステップ0で、システムが起動する。In step 0, the system boots.

【0035】ステップS10では、位置姿勢計測部1
が、現実空間画像入力部5の位置および姿勢を計測し、
計測した位置データおよび姿勢データを画像生成部4へ
送出する。
In step S10, the position and orientation measuring unit 1
Measures the position and orientation of the physical space image input unit 5,
The measured position data and posture data are sent to the image generation unit 4.

【0036】ステップS20では、対話操作入力部3
が、対話操作入力の処理を行い、体験者による操作があ
った場合には、その操作データを画像生成部4および画
像生成部4’へ送出する。対話操作入力部3がない場合
には、このステップは行われない。
In step S20, the interactive operation input unit 3
However, the interactive operation input processing is performed, and when there is an operation by the experiencer, the operation data is sent to the image generating unit 4 and the image generating unit 4 ′. If the interactive operation input unit 3 does not exist, this step is not performed.

【0037】ステップS30では、画像生成部4が、位
置姿勢計測部1から現実空間画像入力部5の位置データ
および姿勢データを受け取り、そのデータから、現実空
間における現実空間画像入力部5の撮影視点の位置デー
タおよび姿勢データを算出する。
In step S30, the image generation unit 4 receives the position data and orientation data of the physical space image input unit 5 from the position and orientation measurement unit 1, and from the data, the photographing viewpoint of the physical space image input unit 5 in the physical space. Position data and attitude data of the.

【0038】ステップS31では、画像生成部4が、ス
テップS30で算出した現実空間画像入力部5の撮影視
点の位置データおよび姿勢データに応じて、データ部2
に保持されたデータを用いて、画像データAを生成す
る。また、画像生成部4は、対話操作入力部3から操作
データが送出される場合には、その操作データにも応じ
るように画像データAを生成する。例えば、画像データ
Aによって提示される3次元仮想物体の位置を、操作デ
ータに応じて変更する。
In step S31, the image generation section 4 determines the data section 2 according to the position data and orientation data of the photographing viewpoint of the physical space image input section 5 calculated in step S30.
The image data A is generated using the data held in. In addition, when the operation data is sent from the interactive operation input unit 3, the image generation unit 4 also generates the image data A so as to comply with the operation data. For example, the position of the three-dimensional virtual object presented by the image data A is changed according to the operation data.

【0039】また、ステップS31では、画像生成部
4’が、データ部2’に保持されたデータを用いて、画
像データA’を生成する。また、画像生成部4’は、対
話操作入力部3から操作データが送出される場合には、
その操作データにも応じるように画像データA’を生成
する。例えば、画像データA’によって提示される実写
動画像を、操作データに応じて再生したり巻き戻したり
する。
In step S31, the image generation unit 4'generates image data A'using the data held in the data unit 2 '. Further, when the operation data is transmitted from the interactive operation input unit 3, the image generation unit 4 ′,
The image data A ′ is generated so as to correspond to the operation data. For example, the actual moving image presented by the image data A ′ is reproduced or rewound according to the operation data.

【0040】ステップS32では、画像生成部4が画像
データAを画像合成部6へ送出し、画像生成部4’が画
像データA’を画像投影部8へ送出する。
In step S32, the image generator 4 sends the image data A to the image synthesizer 6, and the image generator 4'sends the image data A'to the image projector 8.

【0041】ステップS40では、画像投影部8が、画
像投影面9へ画像データA’を投影する。この結果、画
像投影面9には画像A’が表示される。この時点で画像
A’は、体験者の周りにいる観客に対して直接提示され
る。
In step S40, the image projection unit 8 projects the image data A'on the image projection plane 9. As a result, the image A ′ is displayed on the image projection surface 9. At this point, the image A'is presented directly to the spectators around the viewer.

【0042】ステップS50では、現実空間画像入力部
5が、体験者視線方向の現実空間を撮影し、得られた現
実空間画像から現実空間画像データを作成する。現実空
間画像入力部5が撮影する現実空間には画像投影面9が
存在するので、体験者が画像投影面9の位置する方向を
向き、現実空間画像入力部5の撮影範囲に画像投影面9
が入るような場合には、現実空間画像入力部5が撮影す
る現実空間画像内には、画像投影面9に投影された画像
A’が含まれることとなる。この現実空間画像データ
は、画像合成部6へ送出される。
In step S50, the physical space image input section 5 captures an image of the physical space in the viewer's line of sight and creates physical space image data from the obtained physical space image. Since the image projection plane 9 exists in the real space imaged by the real space image input unit 5, the person facing the image projection plane 9 faces the image projection plane 9 within the photographing range of the real space image input unit 5.
In the case where is included, the physical space image captured by the physical space image input unit 5 includes the image A ′ projected on the image projection surface 9. This physical space image data is sent to the image synthesis unit 6.

【0043】ステップS60では、画像合成部6が、画
像生成部4から受け取る画像データAと、現実空間画像
入力5から受け取る現実空間画像データを合成し、合成
画像データを生成する。この合成画像データは、画像表
示部7へ送出される。
In step S60, the image synthesizing unit 6 synthesizes the image data A received from the image generating unit 4 and the physical space image data received from the physical space image input 5 to generate synthetic image data. This composite image data is sent to the image display unit 7.

【0044】ステップS70では、画像表示部7が、画
像合成部6から受け取る合成画像データを、合成画像と
して表示する。この合成画像は体験者に提示される。こ
こで、合成画像データは画像データAと現実空間画像デ
ータを合成したものであるから、このステップS70に
おいて、体験者に対して、現実空間を撮影した現実空間
画像と画像Aとが合成された複合現実感が提示されるこ
ととなる。
In step S70, the image display section 7 displays the composite image data received from the image composition section 6 as a composite image. This composite image is presented to the experience person. Here, since the composite image data is the composite of the image data A and the physical space image data, the physical space image obtained by capturing the physical space and the image A are composited to the experience person in this step S70. Mixed reality will be presented.

【0045】ところで、すでに述べたように、体験者が
画像投影面9の位置する方向を向き、現実空間画像入力
部5の撮影範囲に画像投影面9が入るような場合には、
現実空間画像入力部5が撮影する現実空間画像には、画
像投影面9に投影された画像A’が含まれることとな
る。すると、そのような場合には、ステップS70にお
いて、画像A’も体験者に提示されることとなる。観客
に対しても、この画像A’は、ステップS40において
直接提示されているので、体験者と観客の間で、この画
像A’を共有することとなる。この画像A’は、体験者
に提示される複合現実感を構成する画像の一部であるか
ら、結局、体験者と観客は、体験者が得る複合現実感に
関する情報の一部を共有することとなる。しかも、両者
が認識する画像A’の表示位置は同じである。図4に、
体験者と観客が複合現実感に関する情報の一部を共有す
る仕組みを説明する図を示す。
By the way, as described above, when the experience person faces the direction in which the image projection plane 9 is located and the image projection plane 9 is within the photographing range of the real space image input unit 5,
The physical space image captured by the physical space image input unit 5 includes the image A ′ projected on the image projection surface 9. Then, in such a case, the image A ′ is also presented to the experience person in step S70. This image A'is also directly presented to the spectator in step S40, so that the image A'is shared between the spectator and the spectator. Since this image A'is a part of the image that constitutes the mixed reality presented to the experience person, the experience person and the spectator eventually share a part of the information about the mixed reality that the experience person obtains. Becomes Moreover, the display positions of the image A'recognized by both are the same. In Figure 4,
The figure explaining the mechanism where an experience person and an audience share a part of information about mixed reality.

【0046】ステップS80では、システムを終了する
かどうかがチェックされ、終了させる場合はS90でシ
ステムを終了させ、終了させない場合にはステップS1
0に戻り、上述の処理を繰り返す。
In step S80, it is checked whether or not the system is to be terminated. If the system is to be terminated, the system is terminated in step S90.
The process returns to 0 and the above process is repeated.

【0047】以上のように、第一の実施形態によれば、
体験者には、体験者視線方向の現実空間を撮影した現実
空間画像と画像Aが合成された複合現実感が提示され
る。そして、体験者が画像投影面9の位置する方向を向
き、現実空間画像入力部5の撮影範囲に画像投影面9が
入るような場合には、体験者視線方向の現実空間を撮影
した現実空間画像と画像Aと画像A’が合成された複合
現実感が、不具合なく提示される。そして同時に、観客
には、体験者周辺の現実空間の風景と画像A’が、体験
者が認識している位置と同じ位置に提示される。すなわ
ち、体験者に提示される画像の一部が観客にも提示さ
れ、体験者と観客が、体験者が得ている複合現実感に関
する情報の一部を、位置も含めて共有することが達成さ
れる。
As described above, according to the first embodiment,
The experience person is presented with mixed reality in which a real space image obtained by photographing a real space in the sight line direction of the experience person and the image A are combined. Then, when the experience person faces the direction in which the image projection plane 9 is located and the image projection plane 9 falls within the photographing range of the real space image input unit 5, the real space photographed in the real space in the sight line direction of the experience person. Mixed reality in which the image, the image A, and the image A ′ are combined is presented without any trouble. At the same time, the scenery and the image A ′ in the real space around the experiencer are presented to the audience at the same position as the position recognized by the experiencer. That is, a part of the image presented to the experience person is also presented to the audience, and the experience person and the audience can share part of the information about the mixed reality that the experience person has, including the position. To be done.

【0048】また、画像投影面に表示される画像と画像
表示部に表示される画像を連動させ、より高いシミュレ
ーション効果を与えることができるようにしても構わな
い。
Further, the image displayed on the image projection surface and the image displayed on the image display section may be interlocked with each other so that a higher simulation effect can be given.

【0049】例えば、タイムテーブルを用いて、所定の
タイミングで画像表示部に所定の画像が表示されるよう
にすることにより対応することができる。また、対話操
作入力部からの指示に応じて画像表示部に表示される画
像および画像投影面に表示される画像を変更させること
により実現することができる。
For example, by using a timetable, a predetermined image can be displayed on the image display section at a predetermined timing to deal with the problem. Further, it can be realized by changing the image displayed on the image display unit and the image displayed on the image projection surface according to an instruction from the interactive operation input unit.

【0050】<第二の実施形態>続いて、第二の実施形
態について説明する。第二の実施形態は、光学シースル
ー方式の画像合成方法を用いて複合現実感を提示する映
像合成装置に適用したものである。図5は第二の実施形
態による映像合成装置の概略構成を示すブロック図であ
る。第一実施形態による映像合成装置(図1)と同様の
構成には同一の参照番号を付して、その詳細な説明を省
略する。
<Second Embodiment> Next, a second embodiment will be described. The second embodiment is applied to a video synthesizing device that presents mixed reality using an image see-through type image synthesizing method. FIG. 5 is a block diagram showing a schematic configuration of a video composition device according to the second embodiment. The same components as those of the image synthesizer (FIG. 1) according to the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

【0051】1は位置姿勢計測部であり、例えば磁気セ
ンサ(現実空間上に固定された磁気トランスミッタと計
測対象に取り付けられた磁気トラッカー)からなる。位
置姿勢計測部1は、現実空間における体験者頭部の位置
および姿勢を計測し、その位置データおよび姿勢データ
を画像生成部4へ送出する。
A position / orientation measuring unit 1 is composed of, for example, a magnetic sensor (a magnetic transmitter fixed in the physical space and a magnetic tracker attached to a measurement target). The position / orientation measurement unit 1 measures the position and orientation of the head of the experience person in the physical space, and sends the position data and orientation data to the image generation unit 4.

【0052】2および2’はデータ部であり、例えばハ
ードディスクから構成され、それぞれ画像生成部4およ
び画像生成部4’に引き渡すデータを保持し、それぞれ
画像生成部4および画像生成部4’からの要求に応じ
て、適切なデータを画像生成部4および画像生成部4’
に送出する。データ部2およびデータ部2’に格納され
るデータは、例えば、テキストデータや三次元CG(コ
ンピュータグラフィックス)データ、二次元画像、実写
動画像である。
Reference numerals 2 and 2'denotes data sections, which are composed of, for example, hard disks, hold data to be passed to the image generating section 4 and the image generating section 4 ', respectively, and are supplied from the image generating section 4 and the image generating section 4', respectively. In response to the request, appropriate data is provided to the image generation unit 4 and the image generation unit 4 ′.
Send to. The data stored in the data part 2 and the data part 2'is, for example, text data, three-dimensional CG (computer graphics) data, a two-dimensional image, or a real moving image.

【0053】図5にはデータ部2およびデータ部2’を
異なるものとして示しているが、これらは一体化してい
ても良い。
Although the data part 2 and the data part 2'are shown as different in FIG. 5, they may be integrated.

【0054】3は対話操作入力部であり、例えば、キー
ボードやマウスや6自由度位置姿勢センサなどからな
る。対話操作入力部3は体験者によって操作され、その
操作情報を操作データとして獲得し、この操作データを
画像生成部4および画像生成部4’へ送出する。この対
話操作入力部3は、必須ではない。また、図5には対話
操作入力部を一つのものとして示しているが、複数あっ
ても良い。
Reference numeral 3 denotes an interactive operation input unit, which is composed of, for example, a keyboard, a mouse, a 6-DOF position / orientation sensor, and the like. The interactive operation input unit 3 is operated by a user, acquires the operation information as operation data, and sends this operation data to the image generation unit 4 and the image generation unit 4 ′. This interactive operation input unit 3 is not essential. Further, although FIG. 5 shows one dialogue operation input unit, a plurality of dialogue operation input units may be provided.

【0055】4および4’は画像生成部であり、例えば
計算機からなる。
Image generation units 4 and 4'are, for example, computers.

【0056】画像生成部4は、位置姿勢計測部1から受
け取った体験者頭部の位置データおよび姿勢データか
ら、現実空間における体験者視点の位置データおよび姿
勢データを算出する。また、画像生成部4は、この位置
データおよび姿勢データに応じて、データ部2に保持さ
れたデータを基に画像データを生成する。その際、対話
操作入力部3から操作データが送出される場合には、そ
の操作データにも応じるように画像データを生成する。
この画像データは、例えば、目の前の風景を解説する文
字データであったり、目の前の風景に仮想の建物が建っ
た光景をシミュレートするために利用する3次元CGデ
ータであったりする。この画像データは、画像表示部7
へ送出される。以下では、この画像データを「画像デー
タB」と称し、これから生成される画像を「画像B」と
称する。
The image generation unit 4 calculates the position data and posture data of the experience point of the user in the real space from the position data and posture data of the experience person's head received from the position and posture measurement unit 1. The image generation unit 4 also generates image data based on the data held in the data unit 2 according to the position data and the posture data. At that time, when the operation data is transmitted from the interactive operation input unit 3, the image data is generated so as to comply with the operation data.
The image data may be, for example, character data describing the scenery in front of the eyes, or three-dimensional CG data used to simulate a scene in which a virtual building is built in the scenery in front of the eyes. . This image data is displayed on the image display unit 7.
Sent to. Hereinafter, this image data will be referred to as “image data B”, and the image generated from this will be referred to as “image B”.

【0057】画像生成部4’は、データ部2’に保持さ
れたデータを基に画像データを生成する。その際、対話
操作入力部3から操作データが送出される場合には、そ
の操作データにも応じるように画像データを生成する。
この画像データは、例えば、複合現実空間の背景となる
実写動画像データであったり、実物体の表面をシミュレ
ートする画像データであったりする。この画像データ
は、画像投影部8へ送出される。以下では、この画像デ
ータを「画像データB’」と称し、これから生成される
画像を「画像B’」と称する。
The image generating section 4'generates image data based on the data held in the data section 2 '. At that time, when the operation data is transmitted from the interactive operation input unit 3, the image data is generated so as to comply with the operation data.
This image data may be, for example, real moving image data that is the background of the mixed reality space, or image data that simulates the surface of a real object. This image data is sent to the image projection unit 8. Hereinafter, this image data will be referred to as “image data B ′”, and an image generated from this will be referred to as “image B ′”.

【0058】図5には、画像生成部4と画像生成部4’
を異なるものとして示しているが、図6に示すように、
これらは一体化していても良い。
In FIG. 5, the image generator 4 and the image generator 4 '.
, Are shown as different, but as shown in FIG.
These may be integrated.

【0059】7は画像表示部であり、例えば頭部装着型
の液晶ディスプレイからなる。画像表示部7は、画像生
成部4から送出される画像データBを、画像(画像B)
として表示する。この画像の表示光は、光学式画像合成
部10へ入射する。
An image display unit 7 is composed of, for example, a head-mounted liquid crystal display. The image display unit 7 converts the image data B sent from the image generation unit 4 into an image (image B).
Display as. The display light of this image enters the optical image combining unit 10.

【0060】8は画像投影部であり、例えば映像投影機
からなる。画像投影部8は、画像生成部4から送出され
る画像データB’を、画像投影面9に対して画像(画像
B’)として投影する。
Reference numeral 8 denotes an image projection unit, which is composed of, for example, a video projector. The image projection unit 8 projects the image data B ′ sent from the image generation unit 4 on the image projection surface 9 as an image (image B ′).

【0061】9は画像投影面であり、例えばスクリーン
や、表面が白色無地の現実物体からなる。画像投影面9
には、画像投影部8から投影された画像B’の画像光が
投影される。この画像投影面9は、体験者から見える位
置に存在する。
Reference numeral 9 denotes an image projection plane, which is composed of, for example, a screen or a real object whose surface is white and plain. Image projection plane 9
The image light of the image B ′ projected from the image projection unit 8 is projected on the screen. This image projection plane 9 exists at a position that can be seen by the experience person.

【0062】10は光学式画像合成部であり、例えばハ
ーフミラーからなる。光学式画像合成部10は、画像表
示部7が表示する画像(画像B)の表示光と、体験者が
画像表示部7を装着した時の体験者の視線方向から入射
する現実空間の光を合成する。この合成光は、体験者の
視点へ入射する。
Reference numeral 10 denotes an optical image synthesizing section, which is composed of, for example, a half mirror. The optical image synthesizing unit 10 displays the display light of the image (image B) displayed by the image display unit 7 and the light in the real space incident from the direction of the line of sight of the experience person when the experience person wears the image display unit 7. To synthesize. This combined light enters the viewpoint of the experience person.

【0063】以上の様な構成を備えた本実施形態の制御
について、以下説明する。図7は実施形態における処理
の手順を説明するフローチャートである。第一実施形態
による映像合成装置(図3)と同様の制御には同一の参
照番号を付して、その詳細な説明を省略する。
The control of this embodiment having the above configuration will be described below. FIG. 7 is a flowchart illustrating a processing procedure in the embodiment. The same reference numerals are given to the same controls as those of the video synthesizing apparatus according to the first embodiment (FIG. 3), and detailed description thereof will be omitted.

【0064】ステップ0で、システムが起動する。In step 0, the system starts up.

【0065】ステップS10では、位置姿勢計測部1
が、体験者頭部の位置および姿勢を計測し、計測した位
置データおよび姿勢データを画像生成部4へ送出する。
In step S10, the position / orientation measuring unit 1
Measures the position and posture of the head of the experience person and sends the measured position data and posture data to the image generation unit 4.

【0066】ステップS20では、対話操作入力部3
が、対話操作入力の処理を行い、体験者による操作があ
った場合には、その操作データを画像生成部4および画
像生成部4’へ送出する。対話操作入力部3がない場合
には、このステップは行われない。
In step S20, the interactive operation input unit 3
However, the interactive operation input processing is performed, and when there is an operation by the experiencer, the operation data is sent to the image generating unit 4 and the image generating unit 4 ′. If the interactive operation input unit 3 does not exist, this step is not performed.

【0067】ステップS30では、画像生成部4が、位
置姿勢計測部1から体験者頭部の位置データおよび姿勢
データを受け取り、そのデータから、現実空間における
体験者視点の位置データおよび姿勢データを算出する。
In step S30, the image generation unit 4 receives the position data and posture data of the head of the experience person from the position and posture measurement unit 1, and calculates the position data and posture data of the experience point of the user in the real space from the data. To do.

【0068】ステップS31では、画像生成部4が、ス
テップS30で算出した体験者視点の位置データおよび
姿勢データに応じて、データ部2に保持されたデータを
用いて、画像データBを生成する。また、画像生成部4
は、対話操作入力部3から操作データが送出される場合
には、その操作データにも応じるように画像データBを
生成する。例えば、画像データBによって提示される3
次元仮想物体の位置を、操作データに応じて変更する。
In step S31, the image generation unit 4 generates the image data B using the data held in the data unit 2 according to the position data and posture data of the experience point of view calculated in step S30. In addition, the image generation unit 4
When the operation data is transmitted from the interactive operation input unit 3, generates the image data B so as to comply with the operation data. For example, 3 presented by image data B
The position of the dimensional virtual object is changed according to the operation data.

【0069】また、ステップS31では、画像生成部
4’が、データ部2’に保持されたデータを用いて、画
像データB’を生成する。また、画像生成部4’は、対
話操作入力部3から操作データが送出される場合には、
その操作データにも応じるように画像データB’を生成
する。例えば、画像データB’によって提示される実写
動画像を、操作データに応じて再生したり巻き戻したり
する。
In step S31, the image generation unit 4'uses the data held in the data unit 2'to generate image data B '. Further, when the operation data is transmitted from the interactive operation input unit 3, the image generation unit 4 ′,
The image data B ′ is generated so as to correspond to the operation data. For example, the actual moving image presented by the image data B ′ is reproduced or rewound according to the operation data.

【0070】ステップS32では、画像生成部4が画像
データBを画像表示部7へ送出し、画像生成部4’が画
像データB’を画像投影部8へ送出する。
In step S32, the image generation unit 4 sends the image data B to the image display unit 7, and the image generation unit 4 ′ sends the image data B ′ to the image projection unit 8.

【0071】ステップS40では、画像投影部8が、画
像投影面9へ画像データB’を投影する。この結果、画
像投影面9には画像B’が表示される。この時点で画像
B’は、体験者の周りにいる観客に対して直接提示され
る。
In step S40, the image projection unit 8 projects the image data B'on the image projection plane 9. As a result, the image B ′ is displayed on the image projection surface 9. At this point, the image B'is presented directly to the spectators around the viewer.

【0072】ステップS70では、画像表示部7が、画
像生成部4から受け取る画像データBを、画像として表
示する。画像Bの表示光は、光学式画像合成装置10へ
入射する。
In step S70, the image display unit 7 displays the image data B received from the image generation unit 4 as an image. The display light of the image B enters the optical image synthesizer 10.

【0073】ステップS71では、光学式画像合成装置
10が、画像表示部7が表示する画像の表示光と、体験
者の視線方向から入射する現実空間の光を合成する。こ
の合成した光は、体験者の視点へ入射する。画像表示部
7が表示する画像の表示光とは画像Bであり、現実空間
の光とは現実空間の風景である。ゆえに、このステップ
S71において、体験者に対して、画像Bと現実空間の
風景とが合成された複合現実感が提示されることとな
る。
In step S71, the optical image synthesizing device 10 synthesizes the display light of the image displayed by the image display unit 7 and the light of the physical space which is incident from the direction of the line of sight of the experience person. This synthesized light is incident on the viewpoint of the experience person. The display light of the image displayed by the image display unit 7 is the image B, and the light of the real space is the landscape of the real space. Therefore, in this step S71, the experienced person is presented with mixed reality in which the image B and the scenery in the real space are combined.

【0074】ところで、体験者が画像投影面9の位置す
る方向を向き、体験者の視野範囲内に画像投影面9が入
るような場合には、体験者が見る現実空間の風景内に
は、画像投影面9に投影された画像B’が含まれること
となる。すると、そのような場合には、ステップS71
において、画像B’も体験者に提示されることとなる。
観客に対しても、この画像B’は、ステップS40にお
いて直接提示されているので、体験者と観客の間で、こ
の画像B’を共有することとなる。この画像は、体験者
に提示される複合現実感を構成する画像の一部であるか
ら、結局、体験者と観客は、体験者が得る複合現実感に
関する情報の一部を共有することとなる。しかも、両者
が認識する画像B’の表示位置は同じである。
By the way, when the experience person faces the direction in which the image projection plane 9 is located and the image projection plane 9 is within the visual field range of the experience person, in the landscape of the real space seen by the experience person, The image B ′ projected on the image projection plane 9 is included. Then, in such a case, step S71
In, the image B ′ is also presented to the experience person.
This image B'is also directly presented to the spectator in step S40, so that the image B'is shared between the experience person and the spectator. Since this image is a part of the image that constitutes the mixed reality presented to the experience person, the experience person and the audience will eventually share a part of the information about the mixed reality that the experience person obtains. . Moreover, the display positions of the image B ′ recognized by both are the same.

【0075】ステップS80では、システムを終了する
かどうかがチェックされ、終了させる場合はS90でシ
ステムを終了させ、終了させない場合にはステップS1
0に戻り、上述の処理を繰り返す。
In step S80, it is checked whether or not the system is to be terminated. If it is to be terminated, the system is terminated in S90, and if it is not terminated, step S1
The process returns to 0 and the above process is repeated.

【0076】以上のように、第二の実施形態によれば、
体験者には、体験者視線方向の現実空間の風景と画像B
が合成された複合現実感が提示される。そして、体験者
が画像投影面9の位置する方向を向き、体験者の視野範
囲内に画像投影面9が入るような場合には、体験者視線
方向の現実空間の風景と、画像Bと画像B’からなる画
像が合成された複合現実感が、不具合なく提示される。
そして同時に、観客には、体験者周辺の現実空間の風景
と、画像B’が、体験者が認識している位置と同じ位置
に提示される。すなわち、体験者に提示される画像の一
部が観客にも提示され、体験者と観客が、体験者が得て
いる複合現実感に関する情報の一部を、位置も含めて共
有することが達成される。
As described above, according to the second embodiment,
For the experience person, the scenery and image B of the real space in the direction of the sight line of the experience person
Mixed reality that is composed is presented. Then, when the experience person faces the direction in which the image projection plane 9 is located and the image projection plane 9 falls within the visual field range of the experience person, the scenery of the real space in the direction of the sight line of the experience person, the image B and the image. Mixed reality in which an image composed of B ′ is combined is presented without any trouble.
At the same time, the viewer is presented with the scenery of the real space around the experiencer and the image B ′ at the same position as the position recognized by the experiencer. That is, a part of the image presented to the experience person is also presented to the audience, and the experience person and the audience can share part of the information about the mixed reality that the experience person has, including the position. To be done.

【0077】<他の実施形態>本発明の目的は、前述し
た実施形態の機能を実現するソフトウェアのプログラム
コードを記録した記憶媒体(または記録媒体)を、シス
テムあるいは装置に供給し、そのシステムあるいは装置
のコンピュータ(またはCPUやMPU)が記憶媒体に
格納されたプログラムコードを読み出し実行することに
よっても達成される。この場合、記憶媒体から読み出さ
れたプログラムコード自体が前述した実施形態の機能を
実現することになり、そのプログラムコードを記憶した
記憶媒体は本発明を構成することになる。また、コンピ
ュータが読み出したプログラムコードを実行することに
より、前述した実施形態の機能が実現されるだけでな
く、そのプログラムコードの指示に基づき、コンピュー
タ上で稼動しているオペレーティングシステム(OS)
などが実際の処理の一部または全部を行い、その処理に
よって前述した実施形態の機能が実現される場合も含ま
れることは言うまでもない。
<Other Embodiments> The object of the present invention is to supply a storage medium (or recording medium) recording a program code of software for realizing the functions of the above-described embodiments to a system or apparatus, and It is also achieved by the computer (or CPU or MPU) of the device reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instructions of the program code.
Needless to say, this also includes the case where the above-mentioned processes perform part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

【0078】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書き込まれた後、そのプログラムコードの指
示に基づき、その機能拡張カードや機能拡張ユニットに
備わるCPUなどが実際の処理の一部または全部を行
い、その処理によって前述した実施形態の機能が実現さ
れる場合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written in the memory provided in the function expansion card inserted in the computer or the function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that a case where the CPU included in the function expansion card or the function expansion unit performs a part or all of the actual processing and the processing realizes the functions of the above-described embodiments is also included.

【0079】[0079]

【発明の効果】以上説明したように、本発明によれば、
本発明の技術を利用する者に対して不具合なく複合現実
感を提示すると同時に、複合現実感体験者以外の観客に
対しても、体験者が得ている複合現実感に関するより多
くの情報を提示して、その情報を体験者と観客とが共有
することが可能である。さらに、この共有が視覚的な内
容だけの情報共有ではなく、複合現実感が提示される位
置も含めた情報を共有することが可能である。
As described above, according to the present invention,
Presents mixed reality to the person who uses the technique of the present invention without any trouble, and at the same time, presents more information about the mixed reality that the experience person has to the audience other than the mixed reality experience person. Then, the information can be shared between the experience person and the audience. Further, this sharing is not limited to information sharing only of visual contents, but it is possible to share information including a position where mixed reality is presented.

【図面の簡単な説明】[Brief description of drawings]

【図1】第一の実施形態による映像合成装置の概略構成
を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a video composition device according to a first embodiment.

【図2】第一の実施形態による映像合成装置の概略構成
を示す別のブロック図である。
FIG. 2 is another block diagram showing a schematic configuration of a video composition device according to the first embodiment.

【図3】第一の実施形態における処理の手順を説明する
フローチャートである。
FIG. 3 is a flowchart illustrating a procedure of processing according to the first embodiment.

【図4】体験者と観客が複合現実感に関する情報の一部
を共有する仕組みを説明する図である。
FIG. 4 is a diagram illustrating a mechanism in which an experience person and an audience share a part of information about mixed reality.

【図5】第二の実施形態による映像合成装置の概略構成
を示すブロック図である。
FIG. 5 is a block diagram showing a schematic configuration of a video composition device according to a second embodiment.

【図6】第二の実施形態による映像合成装置の概略構成
を示す別のブロック図である。
FIG. 6 is another block diagram showing a schematic configuration of a video composition device according to a second embodiment.

【図7】第二の実施形態における処理の手順を説明する
フローチャートである。
FIG. 7 is a flowchart illustrating a procedure of processing according to the second embodiment.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 第1画像を生成するための第1画像デー
タおよび第2画像を示す第2画像データとを保持し、 体験者の位置姿勢を計測し、 前記計測された位置姿勢に応じて、前記第1画像データ
から第1画像を生成し、 前記第2画像データに応じた第2画像を第2画像表示部
に表示させ、 前記第2画像表示部に表示された表示画像を含む実映像
と、前記生成された第1画像を合成して体験者に提示す
ることを有することを特徴とする情報処理方法。
1. Holding first image data for generating a first image and second image data showing a second image, measuring the position and orientation of an experience person, and depending on the measured position and orientation. A first image is generated from the first image data, a second image corresponding to the second image data is displayed on a second image display unit, and a real image including a display image displayed on the second image display unit is displayed. An information processing method comprising: combining a video and the generated first image and presenting the same to a user.
【請求項2】 前記第1画像データはコンピュータグラ
フィック画像を生成するためのデータであり、前記第1
画像は立体視される画像であることを特徴とする請求項
1記載の情報処理方法。
2. The first image data is data for generating a computer graphic image, and the first image data is
The information processing method according to claim 1, wherein the image is a stereoscopically viewed image.
【請求項3】 前記第2画像データは動画像データであ
ることを特徴とする請求項1または請求項2記載の情報
処理方法。
3. The information processing method according to claim 1, wherein the second image data is moving image data.
【請求項4】 前記第1画像は3次元提示される画像で
あり、前記第2画像は2次元提示される画像であること
を特徴とする請求項1記載の情報処理方法。
4. The information processing method according to claim 1, wherein the first image is a three-dimensionally presented image, and the second image is a two-dimensionally presented image.
【請求項5】 さらに、体験者からの操作を入力し、 前記操作に応じて、前記第1画像および前記第2画像を
生成することを特徴とする請求項1記載の情報処理方
法。
5. The information processing method according to claim 1, further comprising the step of inputting an operation from a user and generating the first image and the second image according to the operation.
【請求項6】 請求項1乃至請求項5のいずれかに記載
の情報処理方法を実現するためのプログラム。
6. A program for realizing the information processing method according to any one of claims 1 to 5.
【請求項7】 第1画像を生成するための第1画像デー
タおよび第2画像を示す第2画像データとを保持する保
持手段と、 体験者の位置姿勢を計測する計測手段と、 前記計測された位置姿勢に応じて、前記第1画像データ
から第1画像を生成する第1画像生成手段と、 前記第2画像データに応じた第2画像を表示する第2画
像表示手段と、 前記第2画像表示部に表示された表示画像を含む実映像
と、前記第1画像生成手段によって生成された第1画像
を合成して体験者に提示する合成画像表示手段とを有す
ることを特徴とする情報処理装置。
7. Holding means for holding the first image data for generating the first image and second image data showing the second image, measuring means for measuring the position and orientation of the experiencer, and the measured value. A first image generation unit that generates a first image from the first image data according to the position and orientation; a second image display unit that displays a second image corresponding to the second image data; Information comprising a real image including a display image displayed on the image display unit and a combined image display unit for combining the first image generated by the first image generation unit and presenting the combined image to the user. Processing equipment.
【請求項8】 前記合成画像表示手段は頭部装着型の画
像表示装置であることを特徴とする請求項7記載の情報
処理装置。
8. The information processing apparatus according to claim 7, wherein the composite image display means is a head-mounted image display apparatus.
【請求項9】 前記合成画像表示手段は、ビデオシース
ルー方式であることを特徴とする請求項7記載の情報処
理装置。
9. The information processing apparatus according to claim 7, wherein the composite image display means is a video see-through system.
【請求項10】 前記合成画像表示手段は、光学シース
ルー方式であることを特徴とする請求項7記載の情報処
理装置。
10. The information processing apparatus according to claim 7, wherein the composite image display means is an optical see-through system.
JP2002095536A 2002-03-29 2002-03-29 Information processing method and device Pending JP2003296758A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002095536A JP2003296758A (en) 2002-03-29 2002-03-29 Information processing method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002095536A JP2003296758A (en) 2002-03-29 2002-03-29 Information processing method and device

Publications (1)

Publication Number Publication Date
JP2003296758A true JP2003296758A (en) 2003-10-17

Family

ID=29387250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002095536A Pending JP2003296758A (en) 2002-03-29 2002-03-29 Information processing method and device

Country Status (1)

Country Link
JP (1) JP2003296758A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008253362A (en) * 2007-04-02 2008-10-23 Taito Corp Game image generation method in remote radio control type online match game system
WO2011004999A2 (en) * 2009-07-06 2011-01-13 대한민국(관리부서 : 산림청 국립산림과학원장) System and method for providing ubiquitous trail mashup service

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008253362A (en) * 2007-04-02 2008-10-23 Taito Corp Game image generation method in remote radio control type online match game system
WO2011004999A2 (en) * 2009-07-06 2011-01-13 대한민국(관리부서 : 산림청 국립산림과학원장) System and method for providing ubiquitous trail mashup service
WO2011004999A3 (en) * 2009-07-06 2011-04-14 대한민국(관리부서 : 산림청 국립산림과학원장) System and method for providing ubiquitous trail mashup service

Similar Documents

Publication Publication Date Title
JP7068562B2 (en) Techniques for recording augmented reality data
Schmalstieg et al. Augmented reality: principles and practice
Azuma A survey of augmented reality
JP4933164B2 (en) Information processing apparatus, information processing method, program, and storage medium
JP4262011B2 (en) Image presentation method and apparatus
US20020036649A1 (en) Apparatus and method for furnishing augmented-reality graphic using panoramic image with supporting multiuser
US20020075286A1 (en) Image generating system and method and storage medium
US20060132915A1 (en) Visual interfacing apparatus for providing mixed multiple stereo images
JP2009123018A (en) Image processor and image processing method
JP2006285609A (en) Image processing method, image processor
JP2010153983A (en) Projection type video image display apparatus, and method therein
Broll Augmented reality
JP2003296758A (en) Information processing method and device
JPH09311383A (en) Video display system
JP2004013309A (en) Information processing method and apparatus for presenting augmented reality
JPH09289656A (en) Video display system
US11656679B2 (en) Manipulator-based image reprojection
JP2004258287A (en) Video display system
JP2006252059A (en) Image processing method and image processor
JP2005165973A (en) Image processing method and image processing device
Hutchison The development of a hybrid virtual reality/video view-morphing display system for teleoperation and teleconferencing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070703

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080317

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080415