JP4235522B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP4235522B2
JP4235522B2 JP2003333628A JP2003333628A JP4235522B2 JP 4235522 B2 JP4235522 B2 JP 4235522B2 JP 2003333628 A JP2003333628 A JP 2003333628A JP 2003333628 A JP2003333628 A JP 2003333628A JP 4235522 B2 JP4235522 B2 JP 4235522B2
Authority
JP
Japan
Prior art keywords
image
mixed reality
space image
virtual
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003333628A
Other languages
Japanese (ja)
Other versions
JP2005100134A (en
Inventor
博紀 米澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003333628A priority Critical patent/JP4235522B2/en
Priority to US10/684,401 priority patent/US7427996B2/en
Publication of JP2005100134A publication Critical patent/JP2005100134A/en
Application granted granted Critical
Publication of JP4235522B2 publication Critical patent/JP4235522B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、遊園地、テーマパークなどの娯楽施設、博物館、水族館、植物園、動物園などの各種展示施設、博覧会、展示会などの各種展示会場において利用される展示装置および展示方法に関するものである。   The present invention relates to amusement facilities such as amusement parks and theme parks, various display facilities such as museums, aquariums, botanical gardens, and zoos, and display devices and display methods used in various exhibition venues such as expositions and exhibitions. .

技術的には、現実空間画像と仮想空間画像とを重畳した複合現実空間画像を生成する画像処理装置および画像処理方法に関するものである。   Technically, the present invention relates to an image processing apparatus and an image processing method for generating a mixed reality space image in which a real space image and a virtual space image are superimposed.

いわゆる「プリクラ」などの、静止画や動画が撮像可能なカメラなどの撮像装置を用いて撮像した現実空間の画像にコンピュータ内で生成された仮想物体の画像を合成して印刷するシステムが一般的なものとして広く存在している。このような「プリクラ」においては、現実画像に重畳される仮想物体は単純な二次元画像であり、また撮像時にシステムの体験者は仮想物体の存在を合成画面上でしか確認できない。つまり撮像時に、システムの体験者は仮想画像と自分自身の位置関係を合成画面上で確認しながら自分が仮想物体と相互交流しているように見えるような画像のための絵作りや演技を行っていた。   A system that synthesizes and prints a virtual object image generated in a computer with a real-space image captured using an imaging device such as a camera that can capture still images and moving images, such as a so-called “printer”. It exists widely as something. In such a “printer”, a virtual object superimposed on a real image is a simple two-dimensional image, and a system user can confirm the presence of the virtual object only on the composite screen during imaging. In other words, at the time of imaging, the system experience person makes a picture and acts for an image that seems to interact with the virtual object while checking the positional relationship between the virtual image and itself on the composite screen. It was.

従来から現実空間と仮想空間の座標系が共有されている空間(複合現実空間)を提供するシステムが存在する(公知文献1)。   Conventionally, there is a system that provides a space (a mixed reality space) in which a coordinate system of a real space and a virtual space is shared (publicly known document 1).

現実空間と仮想空間の座標系が共有されている空間(複合現実空間)において、撮影者の望む視点位置、視線方向における現実画像と仮想画像を合成して印刷するシステムが本出願人から提案されている。ここでは、仮想物体は二次元画像ではなく三次元コンピュータグラフィックス(3DCG)技術により現実空間中に実在する立体物であるかのごとく認識することが可能である。さらに現実空間と仮想空間の三次元座標軸が一致しており、体験者はこの現実空間と仮想空間の融合空間(複合現実空間)で、仮想物体が目前に実在しているかのように深い没入感を持って知覚することが可能である。このような環境において、仮想物体と相互交流している様子を画像として取得することで、システムの体験者が演技や絵作りを意識せずとも仮想物体と自然に相互交流することを促し、「絵」としてよりよい印刷を提供することを可能としている。   The applicant has proposed a system that prints by combining the real image and the virtual image in the viewpoint position and line-of-sight direction desired by the photographer in a space (mixed reality space) where the coordinate system of the real space and the virtual space is shared. ing. Here, the virtual object can be recognized as if it is a three-dimensional object that exists in the real space by using a three-dimensional computer graphics (3DCG) technique instead of a two-dimensional image. Furthermore, the three-dimensional coordinate axes of the real space and the virtual space are the same, and the experiencer has a deep sense of immersion as if the virtual object is actually present in this real space-virtual space (mixed reality space). It is possible to perceive with In such an environment, by capturing images of interaction with a virtual object as an image, the system experience is encouraged to interact with the virtual object naturally without being conscious of acting or painting. It is possible to provide better printing as a “picture”.

一方、テーマパークのアトラクションにおいては、利用客が体験して楽しんでいる様子を現実空間におけるイベントによって自動的に撮像し、体験を終了した利用客に撮像したものを印刷して提供する機器が使用されている。例えば、ジェットコースター型のアトラクションにおいて、搭乗した車両が急降下して体験者が驚きの表情をする地点に撮像装置を設置し、車両が急降下するタイミングで体験者と車両を撮影し、搭乗を終了した体験者が自分の驚いた表情の写った画像を印刷してもらい対価を支払うシステムなどが挙げられる。   On the other hand, at the theme park attraction, equipment that automatically captures the experience that the customer is experiencing and enjoys by an event in the real space and prints and provides the image captured to the user who has finished the experience is used Has been. For example, in a roller coaster type attraction, an image pickup device is installed at a point where the boarded vehicle suddenly descends and the experiencer is surprised, and the experiencer and the vehicle are photographed when the vehicle suddenly descends, and the boarding is finished. One example is a system in which the user pays a fee to print an image of his surprised expression.

このような複合現実感システムでは実時間性が要求されるため、従来技術においては仮想空間物体のモデルはデータ量や計算量の制限を受けざるを得ず、静止画としてより融合感の優れた複合現実空間画像を作成することが難しかった。また、複合現実空間内で仮想空間物体が移動しているときは、体験者はこれらの制限による融合感低下に注意が向かうことは少なかったが、静止画や紙媒体出力において融合感の低さや低画質といった問題点を感じさせることが多かった。
特開2002−271693号公報
In such a mixed reality system, real-time characteristics are required, so in the prior art, the model of the virtual space object has to be limited by the amount of data and the amount of calculation, and it has a better sense of fusion as a still image. It was difficult to create a mixed reality space image. In addition, when virtual space objects are moving in the mixed reality space, the experience is less likely to pay attention to a decrease in the sense of fusion due to these restrictions, but the low sense of fusion in still images and paper media output. I often felt the problem of low image quality.
JP 2002-271893 A

本発明は、体験者と仮想物体が自然に相互交流している画像をより高品質にし、被写体である体験者にとってその複合現実空間画像が一層面白みのあるものにすることを目的とする。   An object of the present invention is to improve the quality of an image in which an experienced person and a virtual object naturally interact with each other, and to make the mixed reality space image more interesting for the experienced person who is the subject.

本発明はさらに、複合現実空間を体験するシステムの運用を遮ることなく、紙媒体出力を提供することを目的とする。   It is another object of the present invention to provide a paper medium output without interrupting the operation of a system that experiences a mixed reality space.

また、複合現実空間画像の取得時に、不意に仮想空間物体が被写体である観察者の前を横切って観察者を覆い隠してしまうことを回避することを目的とする。   It is another object of the present invention to prevent the virtual space object from accidentally obscuring the observer across the front of the observer who is the subject when acquiring the mixed reality space image.

本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

本発明は、画像を印刷する印刷手段に接続されており、前記印刷手段に対して印刷する画像を出力可能な画像処理装置であって、撮像手段から現実空間画像を取得する取得手段と、前記撮像手段の位置および姿勢に基づき、仮想空間を表す仮想空間画像を生成する生成手段と、前記取得手段で取得された現実空間画像と、前記生成手段で生成された仮想空間画像とを合成し、複合現実空間画像を生成する合成手段と、前記複合現実画像を表示させる表示手段と、前記複合現実画像を前記印刷手段で印刷するために、前記複合現実空間画像を前記印刷手段に出力する出力手段とを備え、前記生成手段は、前記表示手段が前記複合現実画像を表示させる場合、第一の方法で前記仮想空間画像を生成し、前記出力手段が前記複合現実空間画像を出力する場合、前記第一の方法よりも光の反射による前記仮想空間中の仮想物体への影響を詳細に行う方法、前記第一の方法よりも仮想空間画像の生成の数値精度のビット数を増やして行う方法、前記仮想空間画像の縦横ピクセルサイズを前記印刷手段の解像度とプリントサイズとの積の範囲内にする方法のいずれかの方法で前記仮想空間画像を生成し、前記合成手段は、前記観察者と前記仮想物体それぞれに対して円柱形状の重畳判定領域を設定し、前記出力手段が前記複合現実空間画像を出力する場合であり、かつ前記撮像手段から撮像した場合に前記観察者に設定された重畳判定領域上に前記仮想物体に設定された重畳判定領域が重畳している場合、当該仮想物体を前記観察者に重畳しない位置に移動させ、前記複合現実空間画像を生成し、前記表示手段が前記複合現実空間画像を表示させる場合、前記仮想物体を移動させずに前記複合現実空間画像を生成することを特徴とする。 The present invention is an image processing apparatus that is connected to a printing unit that prints an image and that can output an image to be printed to the printing unit, the acquisition unit acquiring a real space image from an imaging unit, Based on the position and orientation of the imaging means, the generating means for generating a virtual space image representing the virtual space, the real space image acquired by the acquiring means, and the virtual space image generated by the generating means, Synthesis means for generating a mixed reality space image, display means for displaying the mixed reality image, and output means for outputting the mixed reality space image to the printing means for printing the mixed reality image by the printing means. with the door, said generating means, when said display means displays the MR image, and generating the virtual space image in the first method, the output means outputs the mixed reality space image A method of performing a detailed influence on the virtual object in the virtual space by reflection of light more than the first method, and increasing the number of bits of numerical accuracy for generating the virtual space image than the first method. The virtual space image is generated by any one of a method for setting a vertical and horizontal pixel size of the virtual space image to be within a product range of a resolution and a print size of the printing unit, and the combining unit includes: A cylindrical overlap determination area is set for each of the observer and the virtual object, and is set for the observer when the output means outputs the mixed reality space image and the image is taken from the imaging means. When the superimposition determination area set for the virtual object is superimposed on the superimposed determination area, the virtual object is moved to a position where it is not superimposed on the observer, and the mixed reality space image is generated. If the display means displays the mixed reality space image, and generating the mixed reality space image without moving the virtual object.

本発明においては、高品質な複合現実画像の紙媒体出力を提供することが可能になる。   In the present invention, it is possible to provide a high-quality mixed reality image paper medium output.

また本発明においては、紙媒体出力用の情報量の豊かな複合現実空間画像を出力時に別手段または別のデータを利用して作成することにより、従来の技術における問題を解決することが可能になる。   Also, in the present invention, it is possible to solve the problems in the prior art by creating a mixed reality space image with a large amount of information for paper media output by using another means or another data at the time of output. Become.

さらに本発明においては、複数の観察者が同時に複合現実感システムを体験している最中に一人の観察者が高品質の複合現実画像を印刷出力した場合であっても、複合現実感システムの動作品質を損なうことなく、同時に高画質な複合現実空間画像の印刷出力を得ることが可能になる。   Furthermore, in the present invention, even when a single observer prints out a high-quality mixed reality image while a plurality of observers are experiencing the mixed reality system at the same time, It is possible to obtain a print output of a mixed reality space image with high image quality at the same time without impairing the operation quality.

さらに本発明においては、観察者が複合現実空間を体験している様子を撮像した複合現実空間画像の紙媒体出力において、観察者が仮想物体で覆い隠されてしまうのを防ぐことが可能になる。   Furthermore, in the present invention, it is possible to prevent the observer from being obscured by a virtual object in the paper medium output of the mixed reality space image obtained by capturing an image of the observer experiencing the mixed reality space. .

以下、発明を実施するための最良の形態について詳細に説明する。   Hereinafter, the best mode for carrying out the invention will be described in detail.

図1は複数の観察者と、これら観察者それぞれの異なる視点に基づいた複合現実空間画像を取得可能にする本実施形態に係るシステムの構成を示す図である。   FIG. 1 is a diagram illustrating a configuration of a system according to the present embodiment that enables acquisition of a mixed reality space image based on a plurality of observers and different viewpoints of these observers.

(観察者用画像処理装置およびプログラム)
まず、本実施例における観察者用画像処理装置およびそれに適用されるプログラムについて説明する。
(Observer image processing apparatus and program)
First, an observer image processing apparatus and a program applied thereto in the present embodiment will be described.

図1において、100および101は複合現実空間画像を観察する観察者である。   In FIG. 1, reference numerals 100 and 101 denote observers who observe a mixed reality space image.

PC110、モニタ140、位置センサ系300、310、320および撮像装置付の頭部装着型表示装置(HMD:Head Mounted Display)400によって観察者一人分の複合現実空間画像を生成する観察者用画像処理装置を構成し、これは観察者100に対して設けられている。   Image processing for an observer that generates a mixed reality space image for one observer by a PC 110, a monitor 140, position sensor systems 300, 310, and 320, and a head mounted display (HMD) 400 with an imaging device. The apparatus is configured and provided for the observer 100.

また、観察者101に対しても同様に、PC111、モニタ141、位置センサ系301、311、321、および撮像装置付の頭部装着型表示装置(HMD)401が観察者用画像処理装置として設けられている。   Similarly, for the observer 101, a PC 111, a monitor 141, position sensor systems 301, 311, 321, and a head-mounted display device (HMD) 401 with an imaging device are provided as an image processing apparatus for the observer. It has been.

本実施例では観察者の数を100および101の2人としているが、これに限定されるものではなく任意の数の観察者用画像処理装置を接続することが可能であり、また2人以上の任意数の観察者が同時に複合現実空間を観察し共有することも可能である。   In this embodiment, the number of observers is two, 100 and 101. However, the number of observers is not limited to this, and an arbitrary number of observer image processing apparatuses can be connected, and two or more observers can be connected. Any number of observers can simultaneously observe and share the mixed reality space.

190はイーサネット(R)に代表されるようなネットワークであり、夫々の観察者に対して設けられた観察者用画像処理装置と後述する客観視点用画像処理装置と複合現実空間管理装置とはネットワーク190を介して接続されている。   Reference numeral 190 denotes a network represented by Ethernet (R). An observer image processing apparatus provided for each observer, an objective viewpoint image processing apparatus (to be described later), and a mixed reality space management apparatus are networks. 190 is connected.

次に、PC110で動作しているプログラムについて説明する。PC110では、複合現実空間画像生成プログラムと位置姿勢取得プログラムが動作している。   Next, a program running on the PC 110 will be described. In the PC 110, a mixed reality space image generation program and a position / orientation acquisition program are operating.

位置姿勢取得プログラムは、位置姿勢センサ系を構成する位置姿勢センサ本体300、位置姿勢センサ送信機310および位置姿勢センサ受信機320(図5参照)によって計測される観察者の視点位置姿勢を常時更新し、後述する座標軸200における位置姿勢値に変換後、複合現実空間管理装置で動作している複合現実空間管理プログラムに送信し続ける。   The position and orientation acquisition program constantly updates the viewpoint position and orientation of the observer measured by the position and orientation sensor main body 300, the position and orientation sensor transmitter 310, and the position and orientation sensor receiver 320 (see FIG. 5) that constitute the position and orientation sensor system. Then, after being converted into a position / orientation value on the coordinate axis 200 described later, it is continuously transmitted to the mixed reality space management program operating in the mixed reality space management device.

複合現実空間画像生成プログラムは、複合現実空間管理プログラムから送信されてくる複合現実空間管理情報(すなわち、全ての仮想空間物体の位置姿勢および状態、現実空間物体の位置姿勢および状態)に基づいて、その時点における仮想空間画像をメモリ上に描画すると共に、観察者100の頭部に装着されたHMD400に設けられた後述の撮像部で取得される現実空間画像をメモリ上に描画して、これらを合成する。その結果、メモリ上には複合現実空間画像が描画されることになる。   The mixed reality space image generation program is based on the mixed reality space management information transmitted from the mixed reality space management program (that is, the position and orientation of all virtual space objects and the position and orientation of real space objects). A virtual space image at that time is drawn on the memory, and a real space image acquired by an imaging unit (described later) provided on the HMD 400 attached to the head of the observer 100 is drawn on the memory. Synthesize. As a result, a mixed reality space image is drawn on the memory.

メモリ上で生成された複合現実空間画像は、モニタ140およびHMD400に設けられた後述の表示部に出力されて表示される。したがって、観察者100はHMD400の表示部に表示された複合現実空間画像を見ることで、複合現実空間画像を観察することができる。   The mixed reality space image generated on the memory is output and displayed on a display unit (to be described later) provided in the monitor 140 and the HMD 400. Therefore, the observer 100 can observe the mixed reality space image by looking at the mixed reality space image displayed on the display unit of the HMD 400.

なお、複合現実空間画像の更新頻度はPCの処理能力に依存するが、PCの処理能力が十分であって更新頻度10〜30Hzを実現できれば、連続して更新される複合現実空間画像は観察者にとって動画として認識できる。   Although the update frequency of the mixed reality space image depends on the processing capability of the PC, if the PC processing capability is sufficient and an update frequency of 10 to 30 Hz can be realized, the continuously updated mixed reality space image is an observer. Can be recognized as a video.

モニタ140とHMD400には同じ映像を出力する。これは、HMD400を装着している観察者がどのような画像を見ているのかを観察者以外の人(HMDを装着してない人、システムのオペレータなど)が知るためと、システムメッセージやシステムの設定画面などを表示して操作をする場合にHMD400では使い勝手が悪く不自由なのでモニタ140を見て操作を行う必要があるためである。   The same video is output to the monitor 140 and the HMD 400. This is because a person other than the observer (a person who does not wear the HMD, an operator of the system, etc.) knows what kind of image the observer wearing the HMD 400 is viewing, and a system message or system. This is because the HMD 400 is inconvenient and inconvenient when it is operated by displaying the setting screen or the like, and it is necessary to perform the operation while looking at the monitor 140.

以上の構成およびプログラムにより観察者100は自由に視点位置、姿勢を変えて、すなわち複合現実空間内を自由に動いて、その時々の視点位置姿勢に応じた複合現実空間画像を観察することが可能となる。   With the above configuration and program, the observer 100 can freely change the viewpoint position and orientation, that is, freely move in the mixed reality space, and observe the mixed reality space image according to the viewpoint position and orientation at that time. It becomes.

(複合現実空間管理装置およびプログラム)
次に、本実施例における複合現実空間管理装置およびそれに適用されるプログラムについて説明する。
(Mixed reality space management device and program)
Next, the mixed reality space management apparatus and the program applied to it in this embodiment will be described.

PC115およびモニタ145は複合現実空間管理装置を構成し、観察者の数に依存せず本複合現実感システムに1つだけ設置される。なお、PC115では、複合現実空間管理プログラムが実行されている。   The PC 115 and the monitor 145 constitute a mixed reality space management apparatus, and only one is installed in the mixed reality system regardless of the number of observers. In the PC 115, a mixed reality space management program is executed.

複合現実空間管理プログラムは、現実空間物体の状態および位置姿勢の取得し、また仮想空間物体の状態および位置姿勢の更新を行い、得られた情報を複合現実空間管理情報としてすべての複合現実空間画像生成プログラムに通知する。   The mixed reality space management program acquires the state and position / orientation of a real space object, updates the state and position / orientation of a virtual space object, and uses the obtained information as mixed reality space management information for all mixed reality space images. Notify the generator.

現実空間物体の状態および位置姿勢の取得は、全ての観察者用画像処理装置で動作している位置姿勢取得プログラムと通信を行うことで実現される。これによりすべての観察者および固定設置カメラの視点位置、姿勢は複合現実空間管理プログラムで一元的に管理され同期がとられる。   Acquisition of the state and position / orientation of a real space object is realized by communicating with a position / orientation acquisition program operating in all image processing apparatuses for observers. As a result, the viewpoint positions and orientations of all the observers and the fixed installation cameras are centrally managed and synchronized by the mixed reality space management program.

仮想空間物体の状態および位置姿勢の更新は、本プログラムに予め設定されているシナリオに従って仮想空間時間を単位時間進め、全ての仮想空間物体の状態および位置姿勢を更新することで実現される。このとき、仮想空間物体同士の位置姿勢関係や、仮想空間物体と現実空間物体(観察者および固定設置カメラ)の位置姿勢関係が、シナリオに設定されている特別の状態であった場合には、何らかのイベント(例えば仮想空間物体の爆発など)が発生する場合がある。   The update of the state, position, and orientation of the virtual space object is realized by updating the state, position, and orientation of all the virtual space objects by advancing the virtual space time according to a scenario preset in the program. At this time, if the position and orientation relationship between virtual space objects and the position and orientation relationship between the virtual space object and the real space object (observer and fixed installation camera) were in a special state set in the scenario, Some event (for example, an explosion of a virtual space object) may occur.

以上のように更新された複合現実空間管理情報は、すべての現実空間画像生成プログラムに通知される。   The mixed reality space management information updated as described above is notified to all the reality space image generation programs.

(客観視点用画像処理装置)
また、PC117、モニタ147およびビデオカメラ160は客観画像処理装置を構成している。なお、客観画像処理装置は、HMD400、位置姿勢センサ系300、310、320が接続されていないこと、撮像装置として固定設置されているビデオカメラ160を利用すること以外は、観察者用画像処理装置と同様の構成である。
(Objective viewpoint image processing device)
The PC 117, the monitor 147, and the video camera 160 constitute an objective image processing apparatus. Note that the objective image processing apparatus is an observer image processing apparatus except that the HMD 400 and the position / orientation sensor systems 300, 310, and 320 are not connected and the video camera 160 that is fixedly installed as an imaging apparatus is used. It is the same composition as.

ここでビデオカメラ160の設置位置および姿勢は、後述する複合現実空間画像生成可能領域ができる限り撮像範囲内に入るよう設定することが望ましい。なおPC117では、PC110と同様に、複合現実空間画像生成プログラムと位置姿勢取得プログラムが動作している。   Here, it is desirable to set the installation position and orientation of the video camera 160 so that the mixed reality space image generation possible area described later falls within the imaging range as much as possible. In the PC 117, as with the PC 110, a mixed reality space image generation program and a position / orientation acquisition program are operating.

複合現実空間画像生成プログラムは、PC117に接続されているビデオカメラ160から現実画像を取得し、複合現実空間管理プログラムから通知される情報に従って複合現実空間映像を生成している。位置姿勢取得プログラムは、ビデオカメラ160の位置および姿勢の設定値を複合現実空間管理プログラムに送信し続けている。なお、ビデオカメラ160の位置および姿勢は予め複合現実空間画像生成プログラムに初期設定されており、動的に位置姿勢を変更することはできない。   The mixed reality space image generation program acquires a real image from the video camera 160 connected to the PC 117, and generates a mixed reality space image according to information notified from the mixed reality space management program. The position and orientation acquisition program continues to transmit the set values of the position and orientation of the video camera 160 to the mixed reality space management program. Note that the position and orientation of the video camera 160 are initially set in advance in the mixed reality space image generation program, and the position and orientation cannot be changed dynamically.

(印刷装置)
印刷装置としてのプリンタ170は、複合現実空間画像を出力するための装置であり、シャッタスイッチ180は観察者107が複合現実空間画像の任意の出力タイミングを決定するために用いる例えば押しボタン式の装置である。本実施例において、プリンタ170およびシャッタスイッチ180は客観視点用画像処理装置のPC117に接続されているが、この構成に限定されるものではない。すなわち、プリンタ170などは観察者用画像処理装置として機能するPC110またはPC111に接続されていてもよく、また複数のPCに同時に接続されていてもよい。なお、複合現実空間画像生成プログラムが動作しているPCであれば、プリンタ170が接続して複合現実空間画像を出力することができる。
(Printer)
A printer 170 as a printing apparatus is an apparatus for outputting a mixed reality space image, and a shutter switch 180 is, for example, a push button type apparatus used by the observer 107 to determine an arbitrary output timing of the mixed reality space image. It is. In the present embodiment, the printer 170 and the shutter switch 180 are connected to the PC 117 of the objective viewpoint image processing apparatus, but are not limited to this configuration. That is, the printer 170 or the like may be connected to the PC 110 or PC 111 that functions as an image processing apparatus for an observer, or may be connected to a plurality of PCs at the same time. Note that if the PC is running a mixed reality space image generation program, the printer 170 can be connected to output a mixed reality space image.

客観視点用画像処理装置のPC117に接続されているモニタ147には、ビデオカメラ160から見た複合現実画像が表示されており、観察者107はこの複合現実画像を見ながらシャッタスイッチ180を使って任意のタイミングでプリンタ170から出力する複合現実画像を決定することが可能である。具体的には、シャッタスイッチ180が観察者107によって押されると、PC117で動作している複合現実空間管理プログラムがそれを検知し、メモリ上に描画された複合現実画像をプリンタ170に送信し、プリンタ170はそれを紙媒体に出力する。   A mixed reality image viewed from the video camera 160 is displayed on the monitor 147 connected to the PC 117 of the objective viewpoint image processing apparatus. The observer 107 uses the shutter switch 180 while viewing the mixed reality image. It is possible to determine a mixed reality image output from the printer 170 at an arbitrary timing. Specifically, when the shutter switch 180 is pressed by the observer 107, the mixed reality space management program operating on the PC 117 detects it, and transmits the mixed reality image drawn on the memory to the printer 170. The printer 170 outputs it to a paper medium.

ここで、プリンタ170の記録方式は特に限定されるものではなく、複合現実空間画像を紙媒体やOHPなどの記録媒体上に画像として印刷することができるものであればよい。   Here, the recording method of the printer 170 is not particularly limited as long as the mixed reality space image can be printed as an image on a recording medium such as a paper medium or OHP.

また、シャッタスイッチ180も本実施例のような機械式の手動シャッタスイッチでなくともよい。具体的には、出力処理を行う複合現実空間画像生成プログラムが、出力用の複合現実画像を生成するタイミングを指示できるものであれば十分であり、これをプログラムで実現していても構わない。例えば、複合現実空間管理プログラムがシャッタ信号を生成し、これを複合現実空間管理情報に含めて複合現実空間画像生成プログラムに送信する方法などが考えられる。   Further, the shutter switch 180 may not be a mechanical manual shutter switch as in this embodiment. Specifically, it is sufficient that the mixed reality space image generation program for performing the output process can instruct the timing for generating the mixed reality image for output, and this may be realized by the program. For example, a method may be considered in which a mixed reality space management program generates a shutter signal, which is included in mixed reality space management information and transmitted to the mixed reality space image generation program.

またこの場合、シャッタ信号を生成するタイミングも、複合現実空間画像生成プログラムが予め設定されている時間間隔で自動的に発生させてもよいし、自らが管理している複合現実空間で特定のイベントが起こったときに自動的に発生させるようにしてもよい。   In this case, the timing for generating the shutter signal may be automatically generated at a preset time interval by the mixed reality space image generation program, or a specific event in the mixed reality space managed by the shutter signal may be generated. It may be automatically generated when the error occurs.

(複合現実空間)
次に、複合現実空間について説明する。図1において、200は予め定義されており仮想物体を現実空間のどの位置に定位するのかを決めるために使用される座標軸であり、現実空間と仮想空間で共有される。なお、座標軸の設定方法に関しては本発明の趣旨から外れるのでここでは説明しない。
(Mixed reality space)
Next, the mixed reality space will be described. In FIG. 1, reference numeral 200 denotes a coordinate axis that is defined in advance and is used to determine a position in the real space where the virtual object is localized, and is shared between the real space and the virtual space. The method for setting the coordinate axes is not described here because it is out of the spirit of the present invention.

210は複合現実空間画像生成可能領域である。すなわち、この領域に存在する現実物体についてはその位置および形状が全ての動作している複合現実空間画像生成プログラムおよび複合現実空間管理プログラムによって管理されており、この領域では現実物体と仮想物体との位置の重なりが発生したことが検出可能となる。観察者は、この領域に入って複合現実空間を体験することになる。なお、この領域の位置およびサイズは複合現実空間画像生成プログラムおよび複合現実空間管理プログラムの動作するPCのメモリ上に記録されている。   Reference numeral 210 denotes a mixed reality space image generation possible area. In other words, the position and shape of a real object that exists in this area are managed by the mixed reality space image generation program and the mixed reality space management program in which all the objects are operating. It is possible to detect that position overlap has occurred. The observer enters this area and experiences the mixed reality space. Note that the position and size of this area are recorded on the memory of the PC on which the mixed reality space image generation program and the mixed reality space management program operate.

220、222は現実物体で、本実施例では石柱220と岩222を例として示している。また、250、252は仮想物体であり、コンピュータグラフィックス(CG)のオブジェクトとしてポリゴンおよびテクスチャなどのデータから構成される。本実施例では、亀250と魚252を例として示している。   Reference numerals 220 and 222 denote real objects, and in this embodiment, stone pillars 220 and rocks 222 are shown as examples. Reference numerals 250 and 252 denote virtual objects, which are composed of data such as polygons and textures as computer graphics (CG) objects. In this embodiment, a turtle 250 and a fish 252 are shown as examples.

本実施例では、海底をモチーフとした複合現実空間を生成するシステムを例示しているため、現実物体や仮想物体もその趣旨に沿ったものが提示されているが、当然ながら実際にはこれに限定されるものではない。なお、仮想物体250、252は、複合現実空間の概要を示すために図1においては明示しているが、実際には複合現実空間画像生成プログラムの動作するPCに接続されたモニタおよびHMDでしか見ることができない。   In this example, a system that generates a mixed reality space with the ocean floor as a motif is illustrated, so that real objects and virtual objects are also presented in line with that purpose. It is not limited. The virtual objects 250 and 252 are clearly shown in FIG. 1 to show the outline of the mixed reality space, but in reality, only the monitor and the HMD connected to the PC on which the mixed reality space image generation program operates are used. I can't see it.

以上、本実施例のシステム構成および動作についての概略を、ハードウェアおよびソフトウェアの両方から説明した。   The outline of the system configuration and operation of the present embodiment has been described above from both hardware and software.

(HMD)
次に、HMD400の構成について図2〜図4を用いて説明する。なお各図において構成要素の番号の後に「R」とつくものは観察者の右目用、「L」とつくものは左目用をそれぞれ表す。なお、特に左右を特定する必要のない場合、番号の後の「R」、「L」を省略して表記する。
(HMD)
Next, the configuration of the HMD 400 will be described with reference to FIGS. It should be noted that in each figure, a component with “R” after the component number represents an observer's right eye and a component with “L” represents a left eye. If it is not particularly necessary to specify the left and right, “R” and “L” after the number are omitted.

図2はHMDの基本構成を示す図であり、図3および図4はHMD400の外観図である。図において、320は位置方向センサ受信機で、観察者の視点位置近傍に設けられており、後述する位置姿勢センサ発信機310および本体300と共に動作し、位置センサ発信機310で定義されている座標軸における観察者の視点位置および姿勢を常時計測している。   FIG. 2 is a diagram showing a basic configuration of the HMD, and FIGS. 3 and 4 are external views of the HMD 400. FIG. In the figure, reference numeral 320 denotes a position / direction sensor receiver, which is provided in the vicinity of the observer's viewpoint position, operates with a position / orientation sensor transmitter 310 and a main body 300, which will be described later, and is a coordinate axis defined by the position sensor transmitter 310. The observer's viewpoint position and posture are constantly measured.

410、414および415はそれぞれ表示系を構成する要素であり、カラー液晶ディスプレイ414が表示する画像が光学プリズム415によって導かれ、表示部410に表示される。また、412、416および417は撮像系を構成する要素であり、入力部412を介してHMDの外部から入力された光が光学プリズム417によってHMD内部に導かれ、CCD416で受光される。   Reference numerals 410, 414, and 415 are elements constituting the display system, and an image displayed on the color liquid crystal display 414 is guided by the optical prism 415 and displayed on the display unit 410. Reference numerals 412, 416, and 417 are elements constituting the imaging system. Light input from the outside of the HMD via the input unit 412 is guided into the HMD by the optical prism 417 and received by the CCD 416.

光学プリズム415の出力光と光学プリズム417の入力光は観察者の瞳の光軸と一致しており、CCD416は、観察者の視点位置および姿勢の現実空間画像を撮像し、カラー液晶ディスプレイ414は、CCD416によって取得された現実空間画像と、位置姿勢センサ本体300で算出される観察者の視点位置および姿勢に応じて生成された仮想空間画像とを合成した複合現実空間画像を表示する。   The output light of the optical prism 415 and the input light of the optical prism 417 coincide with the optical axis of the observer's pupil, the CCD 416 captures a real space image of the observer's viewpoint position and orientation, and the color liquid crystal display 414 Then, a mixed reality space image obtained by combining the real space image acquired by the CCD 416 and the virtual space image generated according to the viewpoint position and orientation of the observer calculated by the position and orientation sensor main body 300 is displayed.

421〜425はHMD400を頭部に装着するための構成部材である。HMD400を頭部に装着するには、まず、アジャスタ422で長さ調整部423を緩めた状態で頭にかぶる。そして、額装着部425を額に密着させてから側頭装着部421と後頭装着部424をそれぞれ側頭部と後頭部に密着させるようにアジャスタ422で長さ調整部423を絞める。また、426はカラー液晶ディスプレイ414、CCD416および位置姿勢センサ受信機320のための電源および信号線をまとめたものである。   421 to 425 are constituent members for mounting the HMD 400 on the head. In order to mount the HMD 400 on the head, first, the length adjuster 423 is loosened by the adjuster 422 and is put on the head. Then, after the forehead mounting portion 425 is in close contact with the forehead, the length adjuster 423 is narrowed by the adjuster 422 so that the temporal mounting portion 421 and the occipital mounting portion 424 are in close contact with the temporal and occipital regions, respectively. Reference numeral 426 is a summary of power supplies and signal lines for the color liquid crystal display 414, the CCD 416, and the position / orientation sensor receiver 320.

(位置姿勢センサ)
次に、位置姿勢センサにおける観察者の視点位置、姿勢の計測原理について説明する。図5に示されているように、センサ系(位置姿勢取得装置)は位置姿勢センサ本体300、位置姿勢センサ発信機310および位置姿勢センサ受信機320により構成されている。
(Position and orientation sensor)
Next, the principle of measuring the viewpoint position and orientation of the observer in the position and orientation sensor will be described. As shown in FIG. 5, the sensor system (position and orientation acquisition apparatus) includes a position and orientation sensor main body 300, a position and orientation sensor transmitter 310, and a position and orientation sensor receiver 320.

位置姿勢センサ受信機320および位置姿勢センサ発信機310は位置姿勢センサ本体300に接続されている。位置姿勢センサ発信機310からは磁気信号が発信されており、位置姿勢センサ受信機320がこの磁気信号を受信する。位置姿勢センサ本体300は、位置姿勢センサ受信機320が受信した磁気信号の強度から位置姿勢センサ受信機320の位置および姿勢を公知の技術を用いて算出する。   The position and orientation sensor receiver 320 and the position and orientation sensor transmitter 310 are connected to the position and orientation sensor main body 300. A magnetic signal is transmitted from the position / orientation sensor transmitter 310, and the position / orientation sensor receiver 320 receives this magnetic signal. The position / orientation sensor body 300 calculates the position and orientation of the position / orientation sensor receiver 320 from the intensity of the magnetic signal received by the position / orientation sensor receiver 320 using a known technique.

ここで算出された位置姿勢は位置姿勢センサ発信機310の座標軸に対する値であるため、算出した結果は観察者用画像処理装置に送られ、ここで座標軸200における観察者100の視点位置および視線方向に変換される。変換についての詳細な手順は本発明の趣旨とは外れるためここでは説明しないが、変換のためのパラメータは予め測定され、位置姿勢取得プログラムが利用できるような形で観察者用画像処理装置に記録されているものとする。   Since the calculated position / orientation is a value with respect to the coordinate axis of the position / orientation sensor transmitter 310, the calculated result is sent to the image processing apparatus for the observer, where the viewpoint position and line-of-sight direction of the observer 100 on the coordinate axis 200 Is converted to The detailed procedure for the conversion is not described here because it is out of the spirit of the present invention, but the parameters for conversion are measured in advance and recorded in the observer image processing apparatus in such a way that the position and orientation acquisition program can be used. It is assumed that

なお、本実施形態では位置姿勢取得装置として米国Polhemus社製の「FASTRAK」や米国Ascension Technology社製の「Flock of Birds」などを利用することを想定しているが、これに限定されるものではなく、他の市販されている超音波式位置姿勢センサや光学式位置姿勢センサも利用することができる。   In this embodiment, it is assumed that the position / orientation acquisition device uses “FASTRAK” manufactured by Polhemus, Inc. or “Flock of Birds” manufactured by US Ascension Technology, but is not limited thereto. Other commercially available ultrasonic position and orientation sensors and optical position and orientation sensors can also be used.

位置センサ系300、310および320を利用することで、観察者100は視点位置および視線方向を自由に変更し、それに応じた複合現実空間画像をHMD400を介して観察することができる。   By using the position sensor systems 300, 310, and 320, the observer 100 can freely change the viewpoint position and the line-of-sight direction, and observe the mixed reality space image corresponding thereto via the HMD 400.

次に、観察者画像処理装置、客観画像処理装置および複合現実空間管理装置の構成について詳細に説明する。   Next, configurations of the observer image processing device, the objective image processing device, and the mixed reality space management device will be described in detail.

(観察者画像処理装置)
図5は、本実施例における観察者一人分の複合現実空間画像を生成する観察者画像処理装置システムおよびHMD400の基本構成を示すブロック図であり、同図の構成はPC110、HMD400、モニタ140、および位置センサ系300、310、320に大別できる。
(Observer image processing device)
FIG. 5 is a block diagram showing a basic configuration of an observer image processing apparatus system and an HMD 400 that generate a mixed reality space image for one observer in the present embodiment. The position sensor systems 300, 310, and 320 can be broadly classified.

PC110は、キャプチャカード132、グラフィックカード130、シリアルインターフェース126、HDD123、CPU121、メモリ122、キーボード124、マウス125、およびネットワークインターフェース127により構成されている。   The PC 110 includes a capture card 132, a graphic card 130, a serial interface 126, an HDD 123, a CPU 121, a memory 122, a keyboard 124, a mouse 125, and a network interface 127.

また、キャプチャカード132は、PC110とHMD400のCCD416とを接続するためのインターフェースとして機能し、CCD416により撮像された各フレームの現実空間の画像はキャプチャカード132を介してメモリ122に転送される。   Further, the capture card 132 functions as an interface for connecting the PC 110 and the CCD 416 of the HMD 400, and images of the real space of each frame captured by the CCD 416 are transferred to the memory 122 via the capture card 132.

さらに、グラフィックカード130は、PC110および動作するプログラムと連携して上記仮想物体の画像である3次元コンピュータグラフィックス(3DCG)を生成し、表示する機能を有している。   Further, the graphic card 130 has a function of generating and displaying three-dimensional computer graphics (3DCG) that is an image of the virtual object in cooperation with the PC 110 and an operating program.

また、HDD123は、PC110全体の制御を行うためのプログラム(複合現実空間画像生成プログラム、位置姿勢取得プログラムなど)やデータ(複合現実空間管理情報、複合現実空間の時間経過に従った状態を記述したシナリオ、仮想空間物体の形状データ、位置姿勢の変換パラメータなど)を保存しており、これらのプログラムやデータは必要に応じてCPU121によりメモリ122にロードされる。   Also, the HDD 123 describes a program (mixed reality space image generation program, position / orientation acquisition program, etc.) and data (mixed reality space management information, the state of the mixed reality space over time) for controlling the entire PC 110. Scenarios, virtual space object shape data, position and orientation conversion parameters, etc.), and these programs and data are loaded into the memory 122 by the CPU 121 as necessary.

さらに、CPU121は、メモリ122にロードされたプログラムを実行したりメモリ122にロードされたデータを参照することで、PC110の各部の制御を行う。また、CPU121は、複合現実空間画像を生成したり、PC110全体の制御を行うことができる。なお、メモリ122は読み書き可能なメモリであって、CPU121の実行対象であるHDD123からロードされたプログラムやその際に使用するデータを一時的に記憶するエリアを備えると共に、CPU121が各処理を行う際に用いるワークエリアも備えている。   Further, the CPU 121 controls each unit of the PC 110 by executing a program loaded in the memory 122 or referring to data loaded in the memory 122. Further, the CPU 121 can generate a mixed reality space image and control the entire PC 110. The memory 122 is a readable / writable memory and includes an area for temporarily storing a program loaded from the HDD 123 to be executed by the CPU 121 and data used at that time, and when the CPU 121 performs each process. It also has a work area used for

メモリ122は、仮想空間画像と現実空間画像とが重畳された画像である複合現実空間画像を描画するためのエリアも勿論備えている。また、キーボード124およびマウス125はCPU121に対して各指示を入力するためのポインティングデバイスとして用いられる。例えば、これらポインティングデバイスは仮想物体の配置位置、仮想空間の状態設定などを入力するために用いられる。   The memory 122 also includes an area for drawing a mixed reality space image that is an image in which a virtual space image and a real space image are superimposed. The keyboard 124 and the mouse 125 are used as pointing devices for inputting instructions to the CPU 121. For example, these pointing devices are used for inputting a virtual object arrangement position, a virtual space state setting, and the like.

上述したように、キャプチャカード132にはCCD416が接続されており、このCCD416は現実空間の動画像を撮像し、撮像した各フレームの画像をキャプチャカード132を介してメモリ122に出力する。   As described above, the CCD 416 is connected to the capture card 132, and the CCD 416 captures a moving image in the real space and outputs the captured image of each frame to the memory 122 via the capture card 132.

また、上述したようにグラフィックカード130にはカラーLCD414およびモニタ140が接続されており、グラフィックカード130により生成された3DCGを表示すると共に、それに重畳されたCCD416により撮像された現実空間の動画像も表示する。すなわち、これら表示手段は複合現実空間画像を表示するものである。さらに、カラーLCD414とモニタ140は、複合現実空間画像だけでなく、PC110を操作する際に必要な情報(システムメッセージ、システムの設定画面など)をも表示する。   Further, as described above, the color LCD 414 and the monitor 140 are connected to the graphic card 130, and the 3DCG generated by the graphic card 130 is displayed, and a moving image of the real space captured by the CCD 416 superimposed on the 3DCG is also displayed. indicate. That is, these display means display a mixed reality space image. Further, the color LCD 414 and the monitor 140 display not only the mixed reality space image but also information (system message, system setting screen, etc.) necessary for operating the PC 110.

シリアルインターフェース126には位置姿勢センサ本体300が接続されている。位置姿勢センサ本体300は、位置姿勢センサ送信機310と観察者が頭部に装着しているHMD400に内蔵されている位置姿勢センサ受信機320とにより得られる磁気信号の強度に基づいて求めた位置姿勢センサ受信機320の位置および姿勢を、シリアルインターフェース126を介してPC110に送る。   A position / orientation sensor main body 300 is connected to the serial interface 126. The position / orientation sensor main body 300 is a position obtained based on the strength of the magnetic signal obtained by the position / orientation sensor transmitter 310 and the position / orientation sensor receiver 320 incorporated in the HMD 400 attached to the head of the observer. The position and attitude of the attitude sensor receiver 320 are sent to the PC 110 via the serial interface 126.

PC110は送られた位置姿勢センサ受信機320の位置姿勢を、座標軸200における位置姿勢に変換して、その他後述するデータと共に所定のフォーマットで複合現実空間管理装置のPC115に送信する。   The PC 110 converts the sent position / orientation of the position / orientation sensor receiver 320 into a position / orientation on the coordinate axis 200 and transmits it to the PC 115 of the mixed reality space management apparatus in a predetermined format together with other data described later.

(客観画像処理装置)
次に、客観画像処理装置について説明する。図6は本実施例における客観画像処理装置システムの基本構成を示すとともに、客観画像処理装置システムから複合現実画像を紙媒体出力するための機器との関係を示すブロック図である。なお図6において、図5に示す構成要素と同じ要素については同じ番号を付けており、その説明を省略する。
(Objective image processing device)
Next, the objective image processing apparatus will be described. FIG. 6 is a block diagram showing a basic configuration of the objective image processing apparatus system according to the present embodiment and a relationship with a device for outputting a mixed reality image from the objective image processing apparatus system on a paper medium. In FIG. 6, the same components as those shown in FIG. 5 are denoted by the same reference numerals, and the description thereof is omitted.

図6のPC117の基本構成は図5に示すPC110とほぼ同じであるが、シリアルインターフェース126にはプリンタ170とシャッタスイッチ180が接続されている点が相違する。   The basic configuration of the PC 117 in FIG. 6 is almost the same as that of the PC 110 shown in FIG. 5 except that a printer 170 and a shutter switch 180 are connected to the serial interface 126.

プリンタ170は、シャッタスイッチ180が押されたタイミングで、PC117がメモリ122上に展開した複合現実空間画像データを紙媒体に印刷する。   The printer 170 prints the mixed reality space image data developed on the memory 122 by the PC 117 on a paper medium at the timing when the shutter switch 180 is pressed.

(複合現実空間管理装置)
次に、複合現実空間装置について説明する。図1に示すように、複合現実空間管理装置はネットワークインターフェースを有するPC145のみで構成されている。なお、PC145の内部構成はPC117とほぼ同じであるため、ここではその説明を省略する。
(Mixed reality space management device)
Next, the mixed reality space device will be described. As shown in FIG. 1, the mixed reality space management apparatus is configured only by a PC 145 having a network interface. Note that the internal configuration of the PC 145 is substantially the same as that of the PC 117, and therefore the description thereof is omitted here.

さらに、上記構成を備える客観画像処理装置、観察者画像処理装置、および複合現実空間管理装置で実行される位置姿勢取得プログラム、複合現実空間管理プログラム、および複合現実空間画像生成プログラムに基づいて行われる処理について図7〜図9のフローチャートを用いてそれぞれ詳細に説明する。なお、全てのプログラムは並列プログラミング技術の一つであるスレッドを応用して作成されており、メインプログラムとそれによって作成されるスレッドは同時に動作する。   Further, it is performed based on a position and orientation acquisition program, a mixed reality space management program, and a mixed reality space image generation program executed by the objective image processing device, the observer image processing device, and the mixed reality space management device having the above-described configuration. The processing will be described in detail with reference to the flowcharts of FIGS. All programs are created by applying threads, which is one of parallel programming techniques, and the main program and threads created thereby operate simultaneously.

また、すべての処理装置にはシステム全体における装置の通し番号(装置番号)が予め設定されている。さらに客観画像処理装置、観察者画像処理装置には、関連する現実物体(カメラ、観察者)を識別する通し番号(ID番号)、現実画像撮像用カメラ(HMD400、ビデオカメラ160など)の種別(種別番号)や光学的特性などの情報(カメラパラメータ)そして観察者の物理的形状情報(バウンダリーボックスなど)が予め設定されており、プログラムはこれらの値を参照することが可能になっている。   In addition, serial numbers (device numbers) of devices in the entire system are set in advance for all the processing devices. Further, the objective image processing device and the observer image processing device include a serial number (ID number) for identifying a related real object (camera, observer), and a type (type of type) of a real image capturing camera (HMD400, video camera 160, etc.). Information such as (number) and optical characteristics (camera parameters) and physical shape information of the observer (boundary box, etc.) are preset, and the program can refer to these values.

(位置姿勢取得プログラム)
まず、位置姿勢取得プログラムを実行することによって行われる処理について図7のフローチャートを用いて説明する。
(Position and orientation acquisition program)
First, processing performed by executing the position / orientation acquisition program will be described with reference to the flowchart of FIG.

観察者用画像処理装置におけるPC110で位置姿勢取得プログラムが開始されると、まず位置センサ計測値受信スレッドが作成される。位置センサ計測値受信スレッドは、シリアルインターフェースを経由して位置センサ系からの計測値の受信とメインプログラムへの送信を繰り返し行う(S750)。   When the position / orientation acquisition program is started on the PC 110 in the observer image processing apparatus, a position sensor measurement value reception thread is first created. The position sensor measurement value reception thread repeatedly receives the measurement value from the position sensor system and transmits it to the main program via the serial interface (S750).

メインプログラムはこの計測値を受信し(S700)、座標軸200(世界座標系)における視点位置および姿勢に変換し(S702)、ネットワーク190を介して複合現実空間管理プログラムに送信し(S704)、その後操作を終了させる処理を行う(S706)。   The main program receives this measurement value (S700), converts it into a viewpoint position and orientation on the coordinate axis 200 (world coordinate system) (S702), sends it to the mixed reality space management program via the network 190 (S704), and then Processing for terminating the operation is performed (S706).

さらに、客観画像処理装置におけるPC117で位置姿勢取得プログラムが開始されると、観察者用画像処理装置で開始したのと同様に位置センサ計測値受信スレッドが作成される。   Further, when the position / orientation acquisition program is started on the PC 117 in the objective image processing apparatus, a position sensor measurement value reception thread is created in the same manner as in the observer image processing apparatus.

位置センサ計測値受信スレッドは、シリアルインターフェースを経由して位置センサ系からの計測値の受信を行おうとするが、客観画像処理装置には位置センサ系が接続されていないので、予めプログラムに設定されているビデオカメラ160の位置姿勢(固定値)を定期的にメインプログラムへ送信することを繰り返し行う(S750)。   The position sensor measurement value reception thread tries to receive measurement values from the position sensor system via the serial interface, but since the position sensor system is not connected to the objective image processing apparatus, it is set in the program in advance. The transmission / reception of the video camera 160 (fixed value) is periodically transmitted to the main program (S750).

メインプログラムはこの計測値を受信し(S700)、座標軸200(世界座標系)における視点位置および姿勢に変換し(S702)、ネットワーク190を介して複合現実空間管理プログラムに送信し(S704)、その後操作を終了させる処理を行う(S706)。   The main program receives this measurement value (S700), converts it into a viewpoint position and orientation on the coordinate axis 200 (world coordinate system) (S702), sends it to the mixed reality space management program via the network 190 (S704), and then Processing for terminating the operation is performed (S706).

以上のようにして、全ての位置姿勢取得プログラムは観察者の視点位置姿勢もしくは固定設置カメラの視点位置姿勢を複合現実空間管理プログラムに送信する。   As described above, all the position / orientation acquisition programs transmit the observer's viewpoint position / orientation or the viewpoint position / orientation of the fixed installation camera to the mixed reality space management program.

(複合現実空間管理プログラム)
次に、複合現実空間管理プログラムを実行することで行われる処理について、図8のフローチャートを用いて説明する。
(Mixed reality space management program)
Next, processing performed by executing the mixed reality space management program will be described with reference to the flowchart of FIG.

複合現実空間管理装置におけるPC115で複合現実空間管理プログラムが開始されると、まず位置姿勢取得スレッドが作成される。位置姿勢取得スレッドは全ての位置姿勢取得プログラムから送信される観察者の視点位置姿勢もしくはビデオカメラの視点位置姿勢(現実空間状態情報)を受信して、メインプログラムへの送信を繰り返し行う(S850)。   When the mixed reality space management program is started on the PC 115 in the mixed reality space management apparatus, a position and orientation acquisition thread is first created. The position / orientation acquisition thread receives the observer's viewpoint position / orientation or the video camera's viewpoint position / orientation (real space state information) transmitted from all the position / orientation acquisition programs, and repeats transmission to the main program (S850). .

メインプログラムは視点位置姿勢値を受信し(S800)、予め定められた時間dtが経過するのを待った後(S802)、管理している仮想空間の時間をdtだけ進め(S804)、それとともに予めHDD123に記憶されたシナリオと経過された時間に従って、仮想空間物体の位置および姿勢と状態(仮想空間状態情報)を更新する(S805)。   The main program receives the viewpoint position / posture value (S800), waits for a predetermined time dt to elapse (S802), advances the time of the managed virtual space by dt (S804), and previously According to the scenario stored in the HDD 123 and the elapsed time, the position, posture and state (virtual space state information) of the virtual space object are updated (S805).

続いて、仮想空間物体と現実空間物体(観察者の視点位置および姿勢)がシナリオにおいて特別な関係となっているか判断し(S806)、もしそうなっていればシナリオに従って仮想空間物体の位置および姿勢と状態(仮想空間状態情報)をS805と同様に再度更新する(S808)。以上のように更新された複合現実空間状態情報(現実空間状態情報と仮想空間状態情報)を、ネットワーク190を介して全ての動作している複合現実空間画像生成プログラムに送信し(S810)、その後操作を終了させる処理を行う(S812)。   Subsequently, it is determined whether the virtual space object and the real space object (observer's viewpoint position and orientation) have a special relationship in the scenario (S806). If so, the position and orientation of the virtual space object are determined according to the scenario. And the state (virtual space state information) are updated again in the same manner as in S805 (S808). The mixed reality space state information (real space state information and virtual space state information) updated as described above is transmitted to all operating mixed reality space image generation programs via the network 190 (S810). Processing to end the operation is performed (S812).

以上のようにして、複合現実空間管理プログラムは複合現実空間情報を予め用意されたシナリオに従って統一的に管理更新して、全ての複合現実空間画像生成プログラムに送信する。   As described above, the mixed reality space management program uniformly manages and updates the mixed reality space information according to a scenario prepared in advance, and transmits it to all the mixed reality space image generation programs.

(複合現実空間画像生成プログラム)
次に、複合現実空間画像生成プログラムを実行することで行われる処理について、図9のフローチャートを用いて説明する。
(Mixed reality space image generation program)
Next, processing performed by executing the mixed reality space image generation program will be described with reference to the flowchart of FIG.

観察者画像処理装置におけるPC110で複合現実空間画像生成プログラムが開始されると、まず映像キャプチャスレッドと画像出力スレッドが作成される。   When the mixed reality space image generation program is started on the PC 110 in the observer image processing apparatus, first, a video capture thread and an image output thread are created.

映像キャプチャスレッドは、HMD400のCCD116によって撮像された現実空間画像を、ビデオキャプチャカード132を経由して、継続的に取得してメインプログラムに送信し続ける。   The video capture thread continuously acquires the real space image captured by the CCD 116 of the HMD 400 via the video capture card 132 and continues to transmit it to the main program.

画像出力スレッドは、シャッタスイッチ180の操作に応じて複合現実感画像をプリンタ170から出力するプログラムである。本実施例の観察者画像処理装置においてはプリンタ170およびシャッタスイッチ180が接続されていないため、画像出力スレッドは何も処理を行わない。   The image output thread is a program that outputs a mixed reality image from the printer 170 in accordance with the operation of the shutter switch 180. In the observer image processing apparatus according to the present embodiment, the printer 170 and the shutter switch 180 are not connected, and therefore the image output thread performs no processing.

仮想空間管理プログラムから通知された複合現実空間状態を受信すると(S902)、受信された仮想空間物体の位置姿勢そして状態と、HDD123からメモリ122にロードされた3DCGのデータを用いて仮想空間画像を生成してメモリ122上に描画する(S904)。これを第一の方法という。   When the mixed reality space state notified from the virtual space management program is received (S902), a virtual space image is generated using the received position and orientation and state of the virtual space object and 3DCG data loaded from the HDD 123 to the memory 122. Generate and draw on the memory 122 (S904). This is called the first method.

没入感のある複合現実空間映像を観察者に提示するため、生成される仮想空間画像が画像単体の静止画としては、実写と異なっていかにも3DCGであることが観察者にわかる程度の品質であったとしても、連続的に生成される一連の複合現実感画像が動画として観察者に認識され、仮想空間物体が現実空間物体であるかのごとく複合現実空間中を自律的に生き生きと動いているように感じさせることが重要である。したがって、ここでの仮想空間画像の生成処理では、静止画としては現実感が乏しくとも15〜40msec程度の短時間で処理が完了することが求められる。これが達成されるのであれば方法には特に制限はない。   In order to present an immersive mixed reality space image to the viewer, the generated virtual space image has a quality sufficient to allow the viewer to understand that the still image of the image alone is 3DCG, even if it is different from the actual image. Even so, a series of continuously generated mixed reality images are recognized by the observer as moving images, and autonomously moving lively in the mixed reality space as if the virtual space object is a real space object. It is important to make it feel like this. Therefore, in the virtual space image generation processing here, the processing is required to be completed in a short time of about 15 to 40 msec even if the still image is not realistic. There is no particular limitation on the method as long as this is achieved.

続いて、前述した映像キャプチャスレッドから送信されてくる現実空間画像をメモリ122上に描画した後(S906)、先に生成した仮想空間画像をこれに重畳して得られた複合現実空間画像を同じくメモリ122上に描画する。この複合現実空間画像は、グラフィックボード130を経由してHMD400とモニタ140に出力される(S908)。   Subsequently, after rendering the real space image transmitted from the above-described video capture thread on the memory 122 (S906), the mixed real space image obtained by superimposing the previously generated virtual space image is similarly used. Drawing on the memory 122. The mixed reality space image is output to the HMD 400 and the monitor 140 via the graphic board 130 (S908).

以上の処理を繰り返し行うことによって、連続した複合現実空間画像、すなわち複合現実空間映像を観察者に提示することが可能となる。   By repeating the above processing, a continuous mixed reality space image, that is, a mixed reality space image can be presented to the observer.

なお、S910以降の処理および画像出力スレッドの処理は、プリンタ170およびシャッタスイッチ180が接続されていない観察者画像処理装置においては実行されない。よって、これらについての詳細な説明は客観視点用画像処理装置における複合現実空間画像生成プログラムの説明で行うことにする。   Note that the processing after S910 and the processing of the image output thread are not executed in the observer image processing apparatus to which the printer 170 and the shutter switch 180 are not connected. Therefore, a detailed description thereof will be given in the description of the mixed reality space image generation program in the objective viewpoint image processing apparatus.

次に、客観画像処理装置システムにおけるPC112が複合現実空間画像生成プログラムを実行することによって行う処理について、同処理のフローチャートを示す図9を用いて説明する。   Next, processing performed by the PC 112 in the objective image processing apparatus system by executing the mixed reality space image generation program will be described with reference to FIG. 9 showing a flowchart of the processing.

客観視点用画像処理装置におけるPC117で複合現実空間画像生成プログラムが開始されると、まず映像キャプチャスレッドと画像出力スレッドが作成される。   When the mixed reality space image generation program is started on the PC 117 in the objective viewpoint image processing apparatus, first, a video capture thread and an image output thread are created.

映像キャプチャスレッドは、ビデオカメラ160によって撮像された現実空間画像を、ビデオキャプチャカード132を経由して継続的に取得してメインプログラムに送信し続ける(S970)。   The video capture thread continuously acquires the real space image captured by the video camera 160 via the video capture card 132 and continuously transmits it to the main program (S970).

画像出力スレッドは、シャッタスイッチ180の操作に応じて複合現実感画像をプリンタ170から出力するプログラムである。画像出力スレッドはメインプログラムからシャッタイベントが発生されるまで待ち続け、それが発生されると複合現実感画像をプリンタ170から出力する(S950)。   The image output thread is a program that outputs a mixed reality image from the printer 170 in accordance with the operation of the shutter switch 180. The image output thread continues to wait until a shutter event is generated from the main program, and when this occurs, a mixed reality image is output from the printer 170 (S950).

ステップS902〜S908およびS970の処理は、前述した観察者画像処理装置におけるPC110の複合現実空間画像生成プログラムと同様であり、これらの処理を繰り返し行うことによって、観察者に連続した複合現実空間画像、すなわち複合現実空間映像を提示することが可能となる。ただし、客観視点用画像処理装置におけるPC117にはプリンタ170およびシャッタスイッチ180が接続されており、以下の処理が実行される。   The processes in steps S902 to S908 and S970 are the same as the mixed reality space image generation program of the PC 110 in the observer image processing apparatus described above, and by repeating these processes, a mixed reality space image continuous to the observer, That is, a mixed reality space image can be presented. However, a printer 170 and a shutter switch 180 are connected to the PC 117 in the objective viewpoint image processing apparatus, and the following processing is executed.

複合現実空間画像を生成し、表示した後(S908)、シャッタスイッチ180の操作の有無を判定し(S910)、操作があった場合はシャッタイベントを発生し(S912)、その後操作を終了させる処理を行う(S914)。ここで、イベントとは本プログラム内で管理されるスレッドへの通信手段をいう。   After the mixed reality space image is generated and displayed (S908), it is determined whether or not the shutter switch 180 is operated (S910). If there is an operation, a shutter event is generated (S912), and then the operation is terminated. (S914). Here, an event means a means for communicating with a thread managed in this program.

シャッタイベントが発生すると、画像出力スレッド(S950)は動作を再開し(S952)、受信された仮想空間物体の位置姿勢と状態と、HDD123からメモリ122にロードされた3DCGのデータを用いてプリンタ170に出力するための仮想空間画像を生成してメモリ122上に描画する(S954)。これを第二の方法という。   When the shutter event occurs, the image output thread (S950) resumes operation (S952), and the printer 170 uses the received position and orientation of the virtual space object and 3DCG data loaded from the HDD 123 to the memory 122. A virtual space image to be output to is generated and rendered on the memory 122 (S954). This is called the second method.

ステップS904においては、静止画としては現実感が乏しくとも短時間で処理が完了するような方法で仮想空間画像の生成を行ったが、ここでは逆に、比較的時間がかかっても静止画として3DCGが実写と融合しており、現実感が豊かに感じられるような仮想空間画像を生成する(S904とは別の)方法で仮想物体画像の生成を行うことが必要となる。   In step S904, the virtual space image is generated in such a way that the processing can be completed in a short time even if the sense of reality is poor as a still image. It is necessary to generate a virtual object image by a method (different from S904) that generates a virtual space image in which 3DCG is fused with a live-action image and a sense of reality is abundant.

例えば、レイトレーシングやラジオシティに代表されるような光の反射による影響の計算を詳細に行う方法、数値精度のビット数を増やして計算を行う方法、仮想空間画像の縦横ピクセルサイズをプリンタ170の解像度とプリントサイズとの積の範囲内における任意の値で計算を行う方法などの様々な方法が考えられる。   For example, a method for calculating in detail the effect of light reflection such as ray tracing and radiosity, a method for calculating by increasing the number of bits of numerical accuracy, and a vertical and horizontal pixel size of the virtual space image are set to the printer 170 Various methods such as a method of performing calculation with an arbitrary value within the range of the product of the resolution and the print size are conceivable.

このようにして生成された仮想空間画像をS906で取得した現実空間画像と重畳する(S956)。ここで、前述した生成方法によって、仮想現実空間画像と現実空間画像との縦横ピクセルサイズが異なった場合には、既知の補間技術を用いてピクセルサイズの小さい画像を大きな画像のピクセルサイズになるように拡大してやればよい。そして最後に、生成された複合現実空間画像をプリンタ170に送信する(S958)。   The virtual space image generated in this way is superimposed on the real space image acquired in S906 (S956). Here, when the vertical and horizontal pixel sizes of the virtual reality space image and the real space image differ according to the generation method described above, an image with a small pixel size is changed to the pixel size of a large image using a known interpolation technique. You should expand to. Finally, the generated mixed reality space image is transmitted to the printer 170 (S958).

画像出力スレッドとメインプログラムは並列して動作するため、印刷出力用の複合現実空間画像の生成に時間がかかっても、ステップS902〜S914の処理は中断されること無く繰り返し実行され続け、モニタ147には複合現実空間画像の表示が行われ続ける。よって複合現実空間の体験を損ねることなく、高画質な複合現実空間画像の印刷出力を得ることが可能となる。   Since the image output thread and the main program operate in parallel, even if it takes time to generate a mixed reality space image for print output, the processing in steps S902 to S914 continues to be executed without interruption, and the monitor 147 The display of the mixed reality space image continues. Therefore, it is possible to obtain a high-quality mixed reality space image printout without impairing the mixed reality space experience.

(複合現実空間画像例)
次に、複合現実空間画像の例について説明する。図10および図11はそれぞれ、S908で合成されモニタやHMDに表示される複合現実空間画像の例、およびS956で合成されプリンタ170から出力される複合現実空間画像のイメージ例を示す。いずれも同時刻、同視点および視線方向における複合現実画像であるが、プリンタ170から出力される複合現実空間画像はより現実物体と融合感のある高品質な画像であることが分かる。
(Example of mixed reality space image)
Next, an example of a mixed reality space image will be described. 10 and 11 respectively show an example of a mixed reality space image synthesized in S908 and displayed on a monitor or HMD, and an example of a mixed reality space image synthesized in S956 and output from the printer 170. All are mixed reality images at the same time, the same viewpoint, and the line-of-sight direction, but it can be seen that the mixed reality space image output from the printer 170 is a high-quality image with a sense of fusion with a real object.

以上の説明により、本実施形態におけるシステムによって、観察者が複合現実空間を体験している様子を撮像した複合現実空間画像を、システムの性能に影響なく高品質で紙媒体やOHPなどの記録媒体に出力できることが理解される。   As described above, the mixed reality space image obtained by imaging the state in which the observer is experiencing the mixed reality space by the system according to the present embodiment is recorded in a high-quality recording medium such as a paper medium or an OHP without affecting the performance of the system. It is understood that it can be output to.

なお、本実施例では、表示用の仮想空間画像の生成、印刷出力用の仮想空間画像を生成のための生成方法を夫々別のものを使うことで印刷出力の高品質を実現したが、表示用と印刷出力用に夫々別のデータを使うことで印刷出力の高品質化を実現しても勿論よい。   In the present embodiment, high-quality print output is realized by using different generation methods for generating a virtual space image for display and a virtual space image for print output. Needless to say, the quality of the print output can be improved by using different data for print and print output.

具体的には、同じ仮想物体に対してポリゴン数の多いモデルデータやテクスチャデータがより詳細なデータをHDD123に予め格納しておき、それをS906とS954での処理において切り替えて利用することで同様の効果を得られるようにしてもよい。さらには、生成方法とデータの両方を併用して高品質化を行ってもよい。   Specifically, model data and texture data with a large number of polygons for the same virtual object are stored in advance in the HDD 123, and the same are obtained by switching them in the processing in S906 and S954. The effect of may be obtained. Further, the quality may be improved by using both the generation method and the data together.

本実施例では、撮像装置から見て仮想空間物体が観察者の上に重畳した場合に、その仮想空間物体を複合現実空間から除去して複合現実空間画像を生成する場合について説明する。   In the present embodiment, a case will be described in which when a virtual space object is superimposed on an observer as viewed from the imaging apparatus, the virtual space object is removed from the mixed reality space to generate a mixed reality space image.

(位置姿勢取得プログラム)
まず、位置姿勢取得プログラムを観察者用画像処理装置、客観画像処理装置で実行することで行われる処理について、図12のフローチャートを用いて説明する。
(Position and orientation acquisition program)
First, processing performed by executing the position / orientation acquisition program by the observer image processing apparatus and the objective image processing apparatus will be described with reference to the flowchart of FIG.

観察者用画像処理装置におけるPC110で位置姿勢取得プログラムが開始されると、まず位置センサ計測値受信スレッドが作成される。   When the position / orientation acquisition program is started on the PC 110 in the observer image processing apparatus, a position sensor measurement value reception thread is first created.

位置センサ計測値受信スレッドはシリアルインターフェースを経由して位置センサ系からの計測値の受信とメインプログラムへの送信を繰り返し行う(S1750)。メインプログラムはこの計測値を受信し(S1700)、それを座標軸200(世界座標系)における視点位置および姿勢に変換する(S1702)。変換値は、物体種別番号、装置番号、ID番号、種別番号、付加情報とともに、メモリ122に作成される複合現実物体テーブル(撮像装置情報)のひとつのエントリとして記憶される(S1706)。   The position sensor measurement value reception thread repeatedly receives the measurement value from the position sensor system and transmits it to the main program via the serial interface (S1750). The main program receives this measurement value (S1700), and converts it into a viewpoint position and orientation on the coordinate axis 200 (world coordinate system) (S1702). The converted value is stored as one entry of the mixed reality object table (imaging device information) created in the memory 122 together with the object type number, device number, ID number, type number, and additional information (S1706).

図20は複合現実物体テーブルを示す図である。複合現実物体テーブルは複数のエントリからなり、一つ一つのエントリは物体種別番号、装置番号、ID番号、種別番号、位置および姿勢、付加情報の6つのフィールドで構成される。   FIG. 20 shows a mixed reality object table. The mixed reality object table includes a plurality of entries, and each entry includes six fields of an object type number, a device number, an ID number, a type number, a position and orientation, and additional information.

ステップS1706で追加されるエントリの具体的な内容を図21に示す。物体種別番号は現実物体を現す「0」となる。装置番号、ID番号はPC110に予め設定されている値が読み出されて記憶される。種別番号は観察者用カメラを現す「0」となる。続いて、S1702で変換された観察者の右目における視点位置および視線方向が記憶される。そして最後に付加情報が続く。付加情報とは物体種別番号、種別番号に応じた特別の情報で、観察者用カメラの場合は現実画像撮像用カメラの撮像可能範囲を定義する視錐台を構成する値(カメラパラメータ)が記憶される。具体的には、図17におけるθ、far、near、w、hなどの値である。   Specific contents of the entry added in step S1706 are shown in FIG. The object type number is “0” representing a real object. As the device number and ID number, values preset in the PC 110 are read and stored. The type number is “0” representing the observer camera. Subsequently, the viewpoint position and line-of-sight direction in the right eye of the observer converted in S1702 are stored. Finally, additional information follows. The additional information is the object type number and special information corresponding to the type number, and in the case of an observer camera, a value (camera parameter) that configures a view frustum that defines the imaging range of the real image imaging camera is stored. Is done. Specifically, values such as θ, far, near, w, and h in FIG.

次に、種別番号が観察者用カメラであるか調べ(S1710)、観察者用カメラである場合は、先に計算された観察者の視点位置および視線方向から観察者の中心位置および姿勢を計算する(S1712)。ここで、観察者の中心位置とは任意に設定される位置である。例えば頭部の中心付近でもよいし、鳩尾付近でもよい。観察者の中心位置が求まったら、その他のデータと共に複合現実物体テーブルのひとつのエントリとして記憶される(S1714)。   Next, it is checked whether the type number is an observer camera (S1710). If the type number is an observer camera, the center position and orientation of the observer are calculated from the previously calculated viewpoint position and line-of-sight direction of the observer. (S1712). Here, the center position of the observer is a position set arbitrarily. For example, it may be near the center of the head or near the pigeon tail. When the center position of the observer is obtained, it is stored as one entry in the mixed reality object table together with other data (S1714).

ここで作成されるエントリの具体的な内容を図22に示す。物体種別番号は現実物体を現す「0」となる。装置番号、ID番号はPC110に予め設定されている値が読み出されて記憶される。種別番号は観察者自身を現す「2」となる。続いて、S1712で計算された観察者の中心位置および姿勢が記憶される。そして最後に付加情報が続く。観察者の場合は観察者形状情報となる。具体的には、図18にあるように観察者100自身がすっぽりと入る円柱の半径r、高さhが記憶される。この円柱の中心Pは前述した観察者の中心位置であり、これらの情報によって複合現実空間中で観察者が仮想物体に接触しているかどうかが判定される。   The specific contents of the entry created here are shown in FIG. The object type number is “0” representing a real object. As the device number and ID number, values preset in the PC 110 are read and stored. The type number is “2” representing the observer. Subsequently, the center position and posture of the observer calculated in S1712 are stored. Finally, additional information follows. In the case of an observer, this is observer shape information. Specifically, as shown in FIG. 18, the radius r and height h of the cylinder into which the observer 100 enters completely are stored. The center P of the cylinder is the above-described center position of the observer, and it is determined by this information whether or not the observer is in contact with the virtual object in the mixed reality space.

以上のようにして複合現実感テーブルが作成される。そしてこのようにして作成された複合現実物体テーブルを、ネットワーク190を介して複合現実空間管理プログラムに送信する(S1716)。以上の処理を繰り返し行い、その後操作を終了させる処理を行う(S1718)。   A mixed reality table is created as described above. The mixed reality object table created in this way is transmitted to the mixed reality space management program via the network 190 (S1716). The above process is repeated, and then a process for terminating the operation is performed (S1718).

また、客観画像処理装置におけるPC117で位置姿勢取得プログラムが開始されると、観察者用画像処理装置で開始したのと同様に位置センサ計測値受信スレッドが作成される。   When the position / orientation acquisition program is started on the PC 117 in the objective image processing apparatus, a position sensor measurement value reception thread is created in the same manner as in the observer image processing apparatus.

位置センサ計測値受信スレッドは、シリアルインターフェースを経由して位置センサ系からの計測値の受信を行おうとするが、客観画像処理装置には位置センサ系が接続されていないので、ビデオカメラ160の位置姿勢を定期的にメインプログラムへ送信することを繰り返し行う(S1750)。この値は予め処理装置で設定されている固定値である。   The position sensor measurement value reception thread tries to receive measurement values from the position sensor system via the serial interface. However, since the position sensor system is not connected to the objective image processing apparatus, the position of the video camera 160 is determined. The posture is periodically transmitted to the main program repeatedly (S1750). This value is a fixed value set in advance by the processing device.

以後、観察者用画像処理装置における位置姿勢取得プログラムの動作と同様の手順で図20に示される複合現実物体テーブルが作成される。   Thereafter, the mixed reality object table shown in FIG. 20 is created in the same procedure as the operation of the position / orientation acquisition program in the image processing apparatus for observers.

ここで作成されるエントリの具体的な内容を図23に示す。物体種別番号は現実物体を現す「0」となる。装置番号、ID番号はPC110に予め設定されている値が読み出されて記憶される。種別番号は客観用カメラを現す「1」となる。続いてS1702で変換されたビデオカメラ160における視点位置および視線方向が記憶される。そして最後に付加情報が続く。観察者用カメラの場合と同様に視錐台を構成する値が記憶される。   The concrete contents of the entry created here are shown in FIG. The object type number is “0” representing a real object. As the device number and ID number, values preset in the PC 110 are read and stored. The type number is “1” representing the objective camera. Subsequently, the viewpoint position and line-of-sight direction in the video camera 160 converted in S1702 are stored. Finally, additional information follows. As in the case of the observer camera, values constituting the viewing frustum are stored.

このようにして作成された複合現実物体テーブルを、ネットワーク190を介して複合現実空間管理プログラムに送信する(S1716)。以上の処理を繰り返し行う。なお、ステップS1712およびS1714の処理は種別番号が客観用カメラであるため、実行されない。   The mixed reality object table created in this way is transmitted to the mixed reality space management program via the network 190 (S1716). The above process is repeated. Note that the processing in steps S1712 and S1714 is not executed because the type number is an objective camera.

以上のようにして、全ての位置姿勢取得プログラムは、複合現実物体テーブルの形で、撮像装置情報を複合現実空間管理プログラムに送信する。   As described above, all the position / orientation acquisition programs transmit the imaging device information to the mixed reality space management program in the form of a mixed reality object table.

(複合現実空間管理プログラム)
次に、複合現実空間管理プログラムを実行することで行われる処理について、図13のフローチャートを用いて説明する。
(Mixed reality space management program)
Next, processing performed by executing the mixed reality space management program will be described with reference to the flowchart of FIG.

複合現実空間管理装置におけるPC115で複合現実空間管理プログラムが開始されると、まず撮像装置情報取得スレッドが作成される。   When the mixed reality space management program is started on the PC 115 in the mixed reality space management device, an imaging device information acquisition thread is first created.

撮像装置情報取得スレッドは全ての位置姿勢取得プログラムから送信される複合現実物体テーブル(撮像装置情報)を受信して、メインプログラムへの送信を繰り返し行う(S1850)。   The imaging device information acquisition thread receives the mixed reality object table (imaging device information) transmitted from all the position and orientation acquisition programs, and repeatedly transmits to the main program (S1850).

メインプログラムは複合現実物体テーブルを受信し(S1800)、予め定められた時間dtが経過するのを待った後(S1806)、本プログラムが保持している複合現実物体テーブルの現実物体エントリ(物体種別番号が0のエントリ)について、先に受信した複合現実物体テーブルで更新を行う(S1808)。   The main program receives the mixed reality object table (S1800), waits for a predetermined time dt to elapse (S1806), and then enters a real object entry (object type number) in the mixed reality object table held by the program. Is updated with the previously received mixed reality object table (S1808).

次に、管理している仮想空間の時間をdtだけ進め(S1810)、それとともに予めHDD123に記憶されたシナリオを経過時間にしたがって進行させるとともに、全ての仮想空間物体の位置および姿勢と状態を更新する。続いて、これらの更新された仮想空間物体情報で、本プログラムが保持している複合現実物体テーブル内の仮想物体エントリ(物体種別番号が1のエントリ)について更新を行う(S1812)。   Next, the time of the managed virtual space is advanced by dt (S1810), and the scenario stored in advance in the HDD 123 is advanced according to the elapsed time, and the positions, postures and states of all virtual space objects are updated. To do. Subsequently, the virtual object entry (entry whose object type number is 1) in the mixed reality object table held by the program is updated with the updated virtual space object information (S1812).

更新されるエントリの具体的な内容を図24に示す。物体種別番号は仮想物体を現す「1」となる。装置番号はPC115に予め設定されている値が読み出されて記憶される。ID番号は本プログラムが管理している仮想空間物体の通し番号である。種別番号は本プログラムが管理している仮想空間物体の種類を現す番号である。ここでは例としてサメを「0」、亀を「1」としている。位置および姿勢は、この仮想空間物体の中心位置および方向を現している。付加情報はこの仮想空間物体を表現するための情報が格納される。例えば仮想空間物体を表現するためのテクスチャデータ番号、仮想物体のステータスを表すデータであり、シナリオに応じて設定されているものとする。また、仮想物体が複合現実空間中で接触したかどうかを調べるための仮想物体自身がすっぽりと入る円柱の半径r’、高さh’もここに記憶される。前述した観察者と同様、円柱の中心は仮想物体の中心位置である。   The specific contents of the entry to be updated are shown in FIG. The object type number is “1” representing a virtual object. As the device number, a value preset in the PC 115 is read and stored. The ID number is a serial number of the virtual space object managed by this program. The type number is a number indicating the type of the virtual space object managed by this program. Here, as an example, shark is “0” and turtle is “1”. The position and orientation represent the center position and direction of the virtual space object. Additional information stores information for expressing the virtual space object. For example, it is assumed that the texture data number for representing the virtual space object and the data representing the status of the virtual object are set according to the scenario. Further, the radius r ′ and the height h ′ of the cylinder into which the virtual object itself for examining whether or not the virtual object has contacted in the mixed reality space are also stored. Similar to the observer described above, the center of the cylinder is the center position of the virtual object.

続いて、仮想空間物体と現実空間物体(観察者の視点位置および姿勢)がシナリオにおいて特別な関係となっているか判断し(S1814)、もしそうなっていればシナリオに従って仮想空間物体の位置および姿勢と状態(仮想空間状態情報)をS1812と同様に再度更新する(S1816)。この特別な状態とは例えば複合現実空間における仮想空間物体と現実物体(観察者)との衝突などをいう。   Subsequently, it is determined whether the virtual space object and the real space object (observer's viewpoint position and orientation) have a special relationship in the scenario (S1814). If so, the position and orientation of the virtual space object are determined according to the scenario. And the state (virtual space state information) are updated again in the same manner as in S1812 (S1816). This special state refers to, for example, a collision between a virtual space object and a real object (observer) in the mixed reality space.

以上のようにして複合現実空間の更新処理が実現される。   The mixed reality space update process is realized as described above.

続いて、撮像装置と観察者の間に仮想空間物体が存在する(重畳発生している)か否かを調べる処理が実行される。   Subsequently, a process for checking whether or not a virtual space object exists (overlaps) between the imaging device and the observer is executed.

重畳発生を示す情報として、本実施例では図25に示される物体関係テーブルを用いる。このテーブルにエントリが存在する場合、それは重畳が発生していることを表している。物体関係テーブルのエントリは図25に示されるように、客観カメラあるいは観察者カメラが接続されている装置の装置番号、客観カメラあるいは観察者カメラのID番号、観察者のID番号、仮想物体ID番号の4つのフィールドで構成されている。   In this embodiment, the object relation table shown in FIG. 25 is used as information indicating the occurrence of superposition. If an entry exists in this table, it indicates that superimposition has occurred. As shown in FIG. 25, the entry of the object relation table includes the device number of the device to which the objective camera or the observer camera is connected, the ID number of the objective camera or the observer camera, the ID number of the observer, and the virtual object ID number. It consists of four fields.

図26は具体的な物体関係テーブルのエントリの例を示している。図26における物体関係テーブルのエントリは、複合現実空間において、装置番号1でID番号1のカメラと、ID番号2の観察者との間にID番号6の仮想物体が存在していることを示している。   FIG. 26 shows an example of a specific object relation table entry. The entry in the object relation table in FIG. 26 indicates that a virtual object with ID number 6 exists between the camera with device number 1 and ID number 1 and the observer with ID number 2 in the mixed reality space. ing.

まず、本プログラムが保持している物体関係テーブルを消去して、重畳発生を調べる準備を行う(S1828)。   First, the object relation table held by this program is deleted, and preparation for examining occurrence of superimposition is made (S1828).

次に、撮像装置が撮影する画像中に観察者が写っているかどうかを検出する。具体的には、前処理によって作成された複合現実物体テーブルのエントリから撮像装置エントリ(物体種別番号「1」、種別番号「0」または「1」であるエントリ)と、観察者エントリ(物体種別番号「1」、種別番号「2」であるエントリ)の全ての組み合わせを抽出し(S1830、S1832)、複合現実空間における撮像装置の視錐台と観察者が交差していないかを調べる(S1834)。なお、観察者は前述したように観察者中心位置と観察者エントリの付加情報から決定される円柱であるものとみなして計算が行われる。   Next, it is detected whether an observer is included in an image captured by the imaging apparatus. Specifically, from the entry of the mixed reality object table created by the preprocessing, the imaging device entry (entry with object type number “1”, type number “0” or “1”) and the observer entry (object type) All combinations of the entries having the number “1” and the type number “2”) are extracted (S1830, S1832), and it is checked whether or not the view frustum of the imaging device in the mixed reality space and the observer intersect (S1834). ). Note that, as described above, calculation is performed by assuming that the observer is a cylinder determined from the observer center position and the additional information of the observer entry.

もし、撮像装置の視錐台と観察者が交差している場合、続いて複合現実空間中においてこの撮像装置とこの観察者の間に仮想物体が存在しないかを調べる(S1836)。具体的には、前処理によって作成された複合現実物体テーブルのエントリから仮想物体エントリ(物体種別番号「0」であるエントリ)を抽出し、抽出された全ての仮想物体について、図19で示されるようなABCDを底面とする錐体E−ABCDとが交差していないか調べる(S1838)。ここで、ABCDは撮像装置の位置Eと観察者中心Pを通る直線を垂線とし、円柱と(接点Qで)接する平面mに対して、観察者エントリの情報から作られる半径r、高さhの円柱を、撮像装置の位置から写像した図形である。   If the viewing frustum of the imaging device and the observer intersect, then it is checked whether or not a virtual object exists between the imaging device and this observer in the mixed reality space (S1836). Specifically, a virtual object entry (an entry with an object type number “0”) is extracted from the mixed reality object table entry created by the preprocessing, and all the extracted virtual objects are shown in FIG. It is examined whether or not the cone E-ABCD whose bottom surface is ABCD is crossed (S1838). Here, ABCD has a straight line passing through the position E of the imaging device and the observer center P as a perpendicular line, and a radius r and a height h created from information of the observer entry with respect to a plane m in contact with the cylinder (at the contact point Q). Is a figure obtained by mapping the cylinder from the position of the imaging device.

交差している仮想物体が存在した場合は、仮想物体中心と平面mとの距離と線分PNとを比較する。そして両者を比較し、PNのほうが小さい場合、撮像装置から見た観察者がこの仮想物体により覆い隠されている(重畳発生)と判断する。重畳発生と判断された場合、撮像装置エントリの装置番号、ID番号、観察者エントリのID番号、仮想物体エントリのID番号から物体関係エントリを作成し、物体関係テーブルに追加する(S1840)。なお、ステップS1836、S1832およびS1830における処理を繰り返し、全ての撮像装置について上述の処理を行う(S1842、S1844、S1846)。   When there is an intersecting virtual object, the distance between the virtual object center and the plane m and the line segment PN are compared. Then, the two are compared, and when the PN is smaller, it is determined that the observer viewed from the imaging device is covered with this virtual object (overlapping occurs). If it is determined that superimposition has occurred, an object relationship entry is created from the device number of the imaging device entry, the ID number, the ID number of the observer entry, and the ID number of the virtual object entry, and is added to the object relationship table (S1840). Note that the processing in steps S1836, S1832, and S1830 is repeated, and the above-described processing is performed for all imaging devices (S1842, S1844, S1846).

作成された物体関係テーブルは複合現実物体テーブルとともに複合現実空間情報として、ネットワーク190を介して複合現実空間管理プログラムに送信される(S1848)。以上の一連の処理を繰り返し行い、その後操作を終了させる処理を行う(S1849)。   The created object relation table is transmitted to the mixed reality space management program via the network 190 as mixed reality space information together with the mixed reality object table (S1848). The above-described series of processing is repeated, and then processing for ending the operation is performed (S1849).

このようにして、複合現実空間管理プログラムは複合現実空間情報を予め用意されたシナリオに従って統一的に管理更新して、全ての複合現実空間画像生成プログラムに送信する。   In this way, the mixed reality space management program uniformly manages and updates the mixed reality space information in accordance with a prepared scenario, and transmits it to all the mixed reality space image generation programs.

(複合現実空間画像生成プログラム)
次に、複合現実空間画像生成プログラムを実行することで行われる処理について、図14のフローチャートを用いて説明する。
(Mixed reality space image generation program)
Next, processing performed by executing the mixed reality space image generation program will be described with reference to the flowchart of FIG.

観察者画像処理装置におけるPC110で複合現実空間画像生成プログラムが開始されると、まず映像キャプチャスレッドと画像出力スレッドが作成される。   When the mixed reality space image generation program is started on the PC 110 in the observer image processing apparatus, first, a video capture thread and an image output thread are created.

映像キャプチャスレッドは、HMD400のCCD116によって撮像された現実空間画像を、ビデオキャプチャカード132を経由して、継続的に取得してメインプログラムに送信し続ける。   The video capture thread continuously acquires the real space image captured by the CCD 116 of the HMD 400 via the video capture card 132 and continues to transmit it to the main program.

画像出力スレッドは、シャッタスイッチ180の操作に応じて複合現実感画像をプリンタ170から出力するプログラムである。本実施例における観察者画像処理装置においては、プリンタ170およびシャッタスイッチ180が接続されていないため、画像出力スレッドは何も処理を行わない。   The image output thread is a program that outputs a mixed reality image from the printer 170 in accordance with the operation of the shutter switch 180. In the observer image processing apparatus according to the present embodiment, since the printer 170 and the shutter switch 180 are not connected, the image output thread performs no processing.

仮想空間管理プログラムから通知された複合現実空間状態を受信すると(S1902)、受信された複合現実物体テーブルから仮想空間物体の位置姿勢そして状態を抽出し、HDD123からメモリ122にロードされた3DCGのデータを用いて仮想空間画像を生成してメモリ122上に描画する(S1904)。   When the mixed reality space state notified from the virtual space management program is received (S1902), the position and orientation and the state of the virtual space object are extracted from the received mixed reality object table, and the 3DCG data loaded from the HDD 123 to the memory 122 Is used to generate a virtual space image and draw it on the memory 122 (S1904).

没入感のある複合現実空間映像を観察者に提示するため、生成される仮想空間画像が画像単体の静止画としては、実写と異なっていかにも3DCGであることが観察者にわかる程度の品質であったとしても、連続的に生成される一連の複合現実感画像が動画として観察者に認識され、仮想空間物体が現実空間物体であるかのごとく複合現実空間中を自律的に生き生きと動いているように感じさせることが重要である。したがって、ここでの仮想空間画像の生成処理では静止画としては現実感が乏しくとも15〜40msec程度の短時間で処理が完了することが求められる。これが達成されるのであれば、方法には特に制限はない。   In order to present an immersive mixed reality space image to the viewer, the generated virtual space image has a quality sufficient to allow the viewer to understand that the still image of the image alone is 3DCG, even if it is different from the actual image. Even so, a series of continuously generated mixed reality images are recognized by the observer as moving images, and autonomously moving lively in the mixed reality space as if the virtual space object is a real space object. It is important to make it feel like this. Therefore, in the virtual space image generation process here, it is required that the process be completed in a short time of about 15 to 40 msec even if the still image is not realistic. If this is achieved, the method is not particularly limited.

続いて、前述した映像キャプチャスレッドから送信されてくる現実空間画像(S1970)をメモリ122上に描画した後(S1906)、これに先に生成した仮想空間画像を重畳した複合現実空間画像を同じくメモリ122上に描画する。この複合現実空間画像はグラフィックボード130を経由してHMD400とモニタ140に出力される(S1908)。   Subsequently, after the real space image (S1970) transmitted from the video capture thread described above is rendered on the memory 122 (S1906), the mixed real space image on which the previously generated virtual space image is superimposed is also stored in the memory. Draw on 122. The mixed reality space image is output to the HMD 400 and the monitor 140 via the graphic board 130 (S1908).

以上の処理を繰り返し行うことによって、連続した複合現実空間画像、すなわち複合現実空間映像を観察者に提示することが可能となる。なおS1910以降の処理および画像出力スレッドの処理は、プリンタ170およびシャッタスイッチ180が接続されていない観察者画像処理装置においては実行されない。よって、それらの詳細な説明は客観視点用画像処理装置における複合現実空間画像生成プログラムの説明で行うことにする。   By repeating the above processing, a continuous mixed reality space image, that is, a mixed reality space image can be presented to the observer. Note that the processing after S1910 and the processing of the image output thread are not executed in the observer image processing apparatus to which the printer 170 and the shutter switch 180 are not connected. Therefore, the detailed description thereof will be made in the description of the mixed reality space image generation program in the objective viewpoint image processing apparatus.

次に、客観画像処理装置システムにおけるPC112が複合現実空間画像生成プログラムを実行することで行う処理について、同処理のフローチャートを示す図14を用いて説明する。   Next, processing performed by the PC 112 in the objective image processing apparatus system executing the mixed reality space image generation program will be described with reference to FIG. 14 showing a flowchart of the processing.

客観視点用画像処理装置におけるPC117で複合現実空間画像生成プログラムが開始されると、まず映像キャプチャスレッドと画像出力スレッドが作成される。   When the mixed reality space image generation program is started on the PC 117 in the objective viewpoint image processing apparatus, first, a video capture thread and an image output thread are created.

映像キャプチャスレッドは、ビデオカメラ160によって撮像された現実空間画像を、ビデオキャプチャカード132を経由して、継続的に取得してメインプログラムに送信し続ける。   The video capture thread continuously acquires the real space image captured by the video camera 160 via the video capture card 132 and continuously transmits it to the main program.

画像出力スレッドはシャッタスイッチ180の操作に応じて複合現実感画像をプリンタ170から出力するプログラムである。画像出力スレッドはメインプログラムからシャッタイベントが発生されるまで待ち続け、発生されると複合現実感画像をプリンタ170から出力する。   The image output thread is a program that outputs a mixed reality image from the printer 170 in accordance with the operation of the shutter switch 180. The image output thread continues to wait until a shutter event is generated from the main program, and when it is generated, a mixed reality image is output from the printer 170.

なお、ステップS1902、S1904、S1906、S1908およびS1970の処理は、前述した図9の観察者画像処理装置におけるPC110の複合現実空間画像生成プログラムにおけるステップS902、S904、S906、S908およびS970とそれぞれ同様であり、これらの処理を繰り返し行うことによって、観察者に連続した複合現実空間画像、すなわち複合現実空間映像を提示することが可能となる。ただし、客観視点用画像処理装置におけるPC117にはプリンタ170、シャッタスイッチ180が接続されており以下の処理が実行される。   Note that the processing in steps S1902, S1904, S1906, S1908, and S1970 is the same as steps S902, S904, S906, S908, and S970 in the mixed reality space image generation program of the PC 110 in the observer image processing apparatus in FIG. Yes, by repeating these processes, it is possible to present a continuous mixed reality space image, that is, a mixed reality space image, to the observer. However, a printer 170 and a shutter switch 180 are connected to the PC 117 in the objective viewpoint image processing apparatus, and the following processing is executed.

複合現実空間画像を生成し表示した後(S1908)、シャッタスイッチ180の操作の有無を判定し(S1910)、操作があった場合にはシャッタイベントを発生する(S1912)。ここで、イベントとは本プログラム内で管理されるスレッドへの通信手段をいう。   After the mixed reality space image is generated and displayed (S1908), it is determined whether or not the shutter switch 180 is operated (S1910). If there is an operation, a shutter event is generated (S1912). Here, an event means a means for communicating with a thread managed in this program.

シャッタイベントが発生すると、画像出力スレッド(S1950)は動作を再開し(S1952)、受信された物体関係テーブルの全てのエントリについて以下の処理を行う。   When a shutter event occurs, the image output thread (S1950) resumes operation (S1952), and the following processing is performed for all entries in the received object relationship table.

本プログラムが動作している処理装置の装置番号と、エントリの第1フィールドとを比較し、もし同じであった場合(すなわち本プログラムが動作している処理装置に接続されている撮像装置が撮影した画像中の観察者について、重畳が発生している場合)はこのエントリに記載されている仮想空間物体を仮想空間から除外する(S1954、S1956、S1958)。具体的には、受信した複合現実物体テーブルから同じID番号を持つ仮想空間物体エントリを削除する。   The device number of the processing device on which this program is operating is compared with the first field of the entry, and if they are the same (that is, the imaging device connected to the processing device on which this program is operating takes a picture) For the observer in the image, the virtual space object described in this entry is excluded from the virtual space (S1954, S1956, S1958). Specifically, the virtual space object entry having the same ID number is deleted from the received mixed reality object table.

以上のように処理した後、複合現実物体テーブルから仮想空間物体の位置姿勢そして状態を抽出し(S1959)、HDD123からメモリ122にロードされた3DCGのデータを用いてプリンタ170に出力するための仮想空間画像を生成してメモリ122上に描画する(S1960)。このようにして生成された仮想空間画像をS1906で取得した現実空間画像と重畳する(S1962)。ここで、前述した生成方法によって仮想現実空間画像と現実空間画像との縦横ピクセルサイズが異なることとなった場合は、既知の補間技術を用いてピクセルサイズの小さい画像を大きな画像のピクセルサイズになるように拡大してやればよい。そして、最終的に生成された複合現実空間画像をプリンタ170に送信する(S1964)。   After processing as described above, the position and orientation and state of the virtual space object are extracted from the mixed reality object table (S1959), and the virtual object for output to the printer 170 using the 3DCG data loaded from the HDD 123 to the memory 122 is extracted. A spatial image is generated and drawn on the memory 122 (S1960). The virtual space image generated in this way is superimposed on the real space image acquired in S1906 (S1962). Here, when the vertical and horizontal pixel sizes of the virtual reality space image and the real space image are different from each other by the generation method described above, an image having a small pixel size is converted into a pixel size of a large image by using a known interpolation technique. You just have to enlarge. Then, the finally generated mixed reality space image is transmitted to the printer 170 (S1964).

なお、複合現実空間画像を生成し表示した後(S1908)、シャッタスイッチ180の操作の有無を判定し(S1910)、操作があった場合にはシャッタイベントを発生し(S1912)、その後操作を終了させる処理を行う(S1914)。   After the mixed reality space image is generated and displayed (S1908), it is determined whether or not the shutter switch 180 is operated (S1910). If there is an operation, a shutter event is generated (S1912), and then the operation ends. (S1914).

(複合現実空間画像例)
次に、本実施例における複合現実空間の例について説明する。図15および図16は、S1908で合成されモニタやHMDに表示される複合現実空間画像の例と、S1964で合成されプリンタ170から出力される複合現実空間画像のイメージ例をそれぞれ示す図である。なお理解を容易にするため円柱を図示したが、これは実際の出力画像には表示されない。
(Example of mixed reality space image)
Next, an example of the mixed reality space in the present embodiment will be described. FIGS. 15 and 16 are diagrams illustrating an example of a mixed reality space image synthesized in S1908 and displayed on a monitor or an HMD, and an example of a mixed reality space image synthesized in S1964 and output from the printer 170, respectively. Although a cylinder is shown for ease of understanding, it is not displayed in an actual output image.

いずれも同時刻、同視点および視線方向における複合現実画像であるが、プリンタ170から出力される複合現実空間画像では観察者の前を覆ってしまう仮想物体が存在せず、観察者の顔がはっきりと確認できる画像となっている。   All are mixed reality images at the same time, the same viewpoint, and the line-of-sight direction. However, in the mixed reality space image output from the printer 170, there is no virtual object that covers the front of the viewer, and the viewer's face is clear. It is an image that can be confirmed.

以上の説明により、本実施形態におけるシステムによって、観察者が複合現実空間を体験している様子を写した複合現実空間画像において、不意に撮像装置前を横切った仮想物体で観察者が覆い隠されてしまうのを防げることが理解される。また、システムの性能に影響なく、高品質で紙媒体やOHPなどの記録媒体に出力できることが理解される。   As described above, in the mixed reality space image in which the observer is experiencing the mixed reality space, the viewer is unexpectedly obscured by the virtual object that has crossed in front of the imaging device. It is understood that it can be prevented. In addition, it is understood that the output can be performed on a recording medium such as a paper medium or an OHP with high quality without affecting the performance of the system.

なお本実施例では、観察者と仮想物体の接触判定に円柱という単純な立体を用いて計算を行ったが、処理装置の能力が高ければより複雑な形状を定義して接触判定してもよい。また観察者の中心位置や円柱の半径r、高さhを自由に設定することで、観察者の頭部(顔)だけ仮想物体で覆われないように運用してもよい。   In this embodiment, the contact determination between the observer and the virtual object is performed using a simple solid body called a cylinder. However, if the processing apparatus has high capability, it may be determined by defining a more complicated shape. . Moreover, you may operate | move so that only an observer's head (face) may not be covered with a virtual object by setting the observer's center position, the radius r, and height h of a cylinder freely.

なお、画像出力スレッドとメインプログラムは並列して動作するため、印刷出力用の複合現実空間画像の生成に時間がかかっても、ステップS1902〜S1914の処理は中断されること無く繰り返し実行され続け、モニタ147には複合現実空間画像の表示が行われ続ける。これによって、複合現実空間の体験を損ねることなく、高画質な複合現実空間画像の印刷出力を得ることが可能となる。   Since the image output thread and the main program operate in parallel, even if it takes time to generate a mixed reality space image for print output, the processes in steps S1902 to S1914 are repeatedly executed without interruption, The monitor 147 continues to display the mixed reality space image. This makes it possible to obtain a high-quality mixed reality space image printout without compromising the mixed reality space experience.

実施例3は、実施例2では撮像装置から見て仮想空間物体が観察者の上に重畳した場合に、その仮想空間物体を複合現実空間から除去して複合現実空間画像を生成するのに対し、重畳しない位置に仮想空間物体を移動して複合現実空間画像を生成する場合を示している。なお、基本構成は実施例2に準じ、処理の流れは複合現実空間管理プログラム、複合現実空間管理プログラムにおける一部の処理以外はほぼ実施例2と同一である。   In the second embodiment, in the second embodiment, when a virtual space object is superimposed on an observer as viewed from the imaging device, the virtual space object is removed from the mixed reality space to generate a mixed reality space image. The case where a virtual space object is moved to a position where it is not superimposed to generate a mixed reality space image is shown. The basic configuration is the same as that of the second embodiment, and the flow of processing is almost the same as that of the second embodiment except for some processes in the mixed reality space management program and the mixed reality space management program.

実施例3における複合現実空間管理プログラムの処理の流れを図27のフローチャートに示す。ここで、図27で示される「’」がついたステップ番号は、実施例2における同様のプログラム処理の流れを示す図13における同じステップ番号のステップの処理と同じ処理を行うステップである。なお、図27が図13と異なる点は、S1839の処理のみである。   The flow of processing of the mixed reality space management program in the third embodiment is shown in the flowchart of FIG. Here, the step number with “′” shown in FIG. 27 is a step for performing the same processing as the processing of the step with the same step number in FIG. 13 showing the flow of the same program processing in the second embodiment. Note that FIG. 27 differs from FIG. 13 only in the process of S1839.

ステップS1839は、撮像装置から見た観察者がこの仮想物体により覆い隠されている(重畳発生)と判断された場合に実行される処理を行う。重畳発生と判定する基準は実施例2同様に、撮像装置の視錐台と観察者が交差していて、図19で示されるようなABCDを底面とする錐体E−ABCDと仮想物体が交差しており、線分PNが仮想物体中心と平面mとの距離よりも小さかった場合となる。   In step S1839, processing that is executed when it is determined that the observer viewed from the imaging device is covered with the virtual object (overlap occurrence) is performed. As in the second embodiment, the criterion for determining the occurrence of superposition is that the viewing frustum of the imaging device and the observer intersect, and the cone E-ABCD whose bottom surface is ABCD and the virtual object as shown in FIG. 19 intersect. In this case, the line segment PN is smaller than the distance between the virtual object center and the plane m.

重畳発生と判断された場合、重畳が発生しない仮想物体の位置を計算し(S1839)、撮像装置エントリの装置番号、ID番号、観察者エントリのID番号、仮想物体エントリのID番号、計算された仮想物体位置から物体関係エントリを作成し、物体関係テーブルに追加する(S1840’)。なお物体関係テーブルは、図29で示されるように実施例2から、重畳が発生しない仮想物体位置を記録するフィールドが追加されている。   If it is determined that superimposition has occurred, the position of the virtual object at which superimposition does not occur is calculated (S1839), the device number of the imaging device entry, the ID number, the ID number of the observer entry, the ID number of the virtual object entry, and the calculated An object relation entry is created from the virtual object position and added to the object relation table (S1840 ′). In the object relation table, as shown in FIG. 29, a field for recording a virtual object position where superimposition does not occur is added from the second embodiment.

ステップS1839での計算について具体的に説明する。まず、重畳発生している仮想物体の中心P’を通り、錐体E−ABCDの4つの側面(△EAB、△EBC、△ECD、△EDA)が乗っている平面への垂線n1、n2、n3、n4と、これら垂線と各面との交点Q1、Q2、Q3、Q4を求める。そして4つの交点のうち仮想物体中心P’との距離が最小となるものを求め、この交点が存在する側面を面m’、垂線をn’とする。そして垂線n’上の点で、錐体の外側にあって面m’からの距離が   The calculation in step S1839 will be specifically described. First, perpendicular lines n1, n2, to a plane passing through the center P ′ of the virtual object that is superimposed and on which the four side surfaces (ΔEAB, ΔEBC, ΔECD, ΔEDA) of the cone E-ABCD are placed, n3 and n4 and intersections Q1, Q2, Q3, and Q4 of these perpendicular lines and the respective surfaces are obtained. Then, among the four intersections, the one having the smallest distance from the virtual object center P ′ is obtained, and the side surface on which the intersection exists is the surface m ′ and the perpendicular is n ′. And at a point on the normal n ', the distance from the surface m' outside the cone is

Figure 0004235522
Figure 0004235522

となる点P’’をこの仮想物体の中心とする。 The point P ″ that becomes is the center of this virtual object.

ここで実施例2と同様にh’は仮想物体を囲う円柱の高さ、r’は仮想物体を囲う円柱の底面半径で、複合現実物体テーブルにおけるこの仮想物体を示すエントリの付加情報に記録されている。θは垂線n’と、仮想物体を囲う円柱の高さ方向の線分が作る角である。なお角θの範囲は0〜180°である。この点P’’を新たに仮想物体の中心とすると、仮想物体は錐体の外側で面m’に接するように位置するようになる。   Here, as in the second embodiment, h ′ is the height of the cylinder surrounding the virtual object, r ′ is the bottom radius of the cylinder surrounding the virtual object, and is recorded in the additional information of the entry indicating this virtual object in the mixed reality object table. ing. θ is an angle formed by the perpendicular line n ′ and a line segment in the height direction of the cylinder surrounding the virtual object. The range of the angle θ is 0 to 180 °. When this point P ″ is newly set as the center of the virtual object, the virtual object comes to be in contact with the surface m ′ outside the cone.

以上のようにして、重畳が発生した場合、重畳が発生しないような仮想空間物体の位置を計算し、物体関係テーブルとして複合現実空間画像生成プログラムに送信する。   As described above, when superimposition occurs, the position of the virtual space object that does not cause superimposition is calculated and transmitted to the mixed reality space image generation program as an object relation table.

次に、実施例3において客観画像処理装置システムにおけるPC112が複合現実空間画像生成プログラムを実行することで行う処理の流れを図28のフローチャートに示す。ここで、図28で示される「’」がついたステップ番号は、実施例2における同様のプログラム処理の流れを示す図14における同じステップ番号のステップの処理と同じ処理を行うステップである。なお、図28が図14と異なる点は、S1957の処理のみである。   Next, the flowchart of FIG. 28 shows the flow of processing performed by the PC 112 in the objective image processing apparatus system according to the third embodiment by executing the mixed reality space image generation program. Here, the step number with “′” shown in FIG. 28 is a step for performing the same processing as the processing of the step with the same step number in FIG. 14 showing the flow of similar program processing in the second embodiment. Note that FIG. 28 differs from FIG. 14 only in the process of S1957.

複合現実空間画像の生成、表示後、シャッタイベントが発生すると、画像出力スレッドは、受信された物体関係テーブルの全てのエントリについて以下の処理を行う。   When a shutter event occurs after the generation and display of the mixed reality space image, the image output thread performs the following processing for all entries in the received object relation table.

本プログラムが動作している処理装置の装置番号と、物体関係テーブルエントリの第1フィールドとを比較し、もし同じであった場合(すなわち本プログラムが動作している処理装置に接続されている撮像装置が撮影した画像中の観察者について、重畳が発生している場合)はこの物体関係テーブルエントリに記載されている仮想空間物体を、複合現実物体テーブルから見つけ、その複合現実物体テーブルエントリに記憶されている仮想物体の位置を物体関係テーブルエントリの第5フィールドに記憶されている値で更新する(S1957)。   The device number of the processing device on which this program is operating is compared with the first field of the object relation table entry, and if they are the same (that is, the imaging connected to the processing device on which this program is operating) If superimposition has occurred for the observer in the image captured by the apparatus), the virtual space object described in the object relation table entry is found from the mixed reality object table and stored in the mixed reality object table entry. The position of the virtual object being updated is updated with the value stored in the fifth field of the object relation table entry (S1957).

以上のように処理した後、複合現実物体テーブルから仮想空間物体の位置姿勢そして状態を抽出し、HDD123からメモリ122にロードされた3DCGのデータを用いてプリンタ170に出力するための仮想空間画像を生成してメモリ122上に描画する(S1960’)。   After processing as described above, the position and orientation and the state of the virtual space object are extracted from the mixed reality object table, and the virtual space image to be output to the printer 170 using the 3DCG data loaded from the HDD 123 to the memory 122 is obtained. Generate and draw on the memory 122 (S1960 ′).

(複合現実空間画像例)
次に、複合現実空間画像の例について説明する。図30および図31は、S1908’で合成されモニタやHMDに表示される複合現実空間画像の例と、S1960’で合成されプリンタ170から出力される複合現実空間画像のイメージ例をそれぞれ示す図である。なお理解を容易にするため円柱を図示したが、これは実際の出力画像には表示されない。
(Example of mixed reality space image)
Next, an example of a mixed reality space image will be described. 30 and 31 are diagrams illustrating an example of a mixed reality space image synthesized in S1908 ′ and displayed on a monitor or HMD, and an example of a mixed reality space image synthesized in S1960 ′ and output from the printer 170, respectively. is there. Although a cylinder is shown for ease of understanding, it is not displayed in an actual output image.

いずれも同時刻、同視点および視線方向における複合現実画像であるが、プリンタ170から出力される複合現実空間画像では観察者の前を覆ってしまう仮想物体が別の位置に移動しており、観察者の顔がはっきりと確認できる画像となっていることが分かる。   All are mixed reality images at the same time, the same viewpoint, and the line-of-sight direction, but in the mixed reality space image output from the printer 170, the virtual object covering the front of the observer has moved to another position, It can be seen that the person's face is clearly visible.

以上の説明により、本実施例におけるシステムによって、観察者が複合現実空間を体験している様子を写した複合現実空間画像において、不意に撮像装置前を横切った仮想物体で観察者が覆い隠されてしまうことを防ぐことが可能となる。またシステムの性能に影響なく、高品質で紙媒体やOHPなどの記録媒体に出力することが可能となる。   As described above, in the mixed reality space image in which the observer is experiencing the mixed reality space, the viewer is unexpectedly obscured by the virtual object that has crossed the front of the imaging device. Can be prevented. Further, it is possible to output to a recording medium such as a paper medium or an OHP with high quality without affecting the performance of the system.

複合現実感装置の構成図である。It is a block diagram of a mixed reality apparatus. 表示装置(HMD)の構成図である。It is a block diagram of a display apparatus (HMD). 表示装置(HMD)の構成図である。It is a block diagram of a display apparatus (HMD). 表示装置(HMD)の構成図である。It is a block diagram of a display apparatus (HMD). 観察者複合現実空間画像処理装置の構成図である。It is a block diagram of an observer mixed reality space image processing apparatus. 客観複合現実空間画像処理装置の構成図である。It is a block diagram of an objective mixed reality space image processing apparatus. 位置姿勢取得プログラムのフローチャートである。It is a flowchart of a position and orientation acquisition program. 複合現実空間管理プログラムのフローチャートである。It is a flowchart of a mixed reality space management program. 複合現実空間画像生成プログラムのフローチャートである。It is a flowchart of a mixed reality space image generation program. 複合現実画像の表示画面におけるイメージの例を示す図である。It is a figure which shows the example of the image in the display screen of a mixed reality image. 複合現実画像の紙媒体出力におけるイメージの例を示す図である。It is a figure which shows the example of the image in the paper medium output of a mixed reality image. 実施例2における位置姿勢取得プログラムのフローチャートである。10 is a flowchart of a position / orientation acquisition program according to the second embodiment. 実施例2における複合現実空間管理プログラムのフローチャートである。10 is a flowchart of a mixed reality space management program in Embodiment 2. 実施例2における複合現実空間画像生成プログラムのフローチャートである。12 is a flowchart of a mixed reality space image generation program according to the second embodiment. 実施例2における複合現実画像の表示画面のイメージの例を示す図である。FIG. 10 is a diagram illustrating an example of a mixed reality image display screen according to the second embodiment. 実施例2における複合現実画像の紙媒体出力のイメージの例を示す図である。FIG. 10 is a diagram illustrating an example of a paper medium output image of a mixed reality image in the second embodiment. 視錐台の例を示す図である。It is a figure which shows the example of a view frustum. 複合現実空間における観察者形状の例を示す図である。It is a figure which shows the example of the observer shape in mixed reality space. 判定領域を示す図である。It is a figure which shows the determination area | region. 複合現実物体テーブルのフォーマット例を示す図である。It is a figure which shows the example of a format of a mixed reality object table. 複合現実物体テーブルのエントリ例1を示す図である。It is a figure which shows the example 1 of an entry of a mixed reality object table. 複合現実物体テーブルのエントリ例2を示す図である。It is a figure which shows the example 2 of an entry of a mixed reality object table. 複合現実物体テーブルのエントリ例3を示す図である。It is a figure which shows the example 3 of an entry of a mixed reality object table. 複合現実物体テーブルのエントリ例4を示す図である。It is a figure which shows the example 4 of an entry of a mixed reality object table. 実施例2における物体関係テーブルのフォーマット図である。FIG. 10 is a format diagram of an object relation table in Embodiment 2. 実施例2における物体関係テーブルのエントリ例を示す図である。It is a figure which shows the example of an entry of the object relationship table in Example 2. FIG. 実施例3における複合現実空間管理プログラムのフローチャートである。10 is a flowchart of a mixed reality space management program in Embodiment 3. 実施例3における複合現実空間画像生成プログラムのフローチャートである。12 is a flowchart of a mixed reality space image generation program according to a third embodiment. 実施例3における物体関係テーブルのフォーマット図である。It is a format figure of the object relation table in Example 3. 実施例3における複合現実画像の表示画面のイメージ例を示す図である。FIG. 10 is a diagram illustrating an image example of a mixed reality image display screen according to a third embodiment. 実施例3における複合現実画像の紙媒体出力のイメージ例を示す図である。FIG. 10 is a diagram illustrating an image example of a paper medium output of a mixed reality image according to a third embodiment.

Claims (4)

画像を印刷する印刷手段に接続されており、前記印刷手段に対して印刷する画像を出力可能な画像処理装置であって、
撮像手段から現実空間画像を取得する取得手段と、
前記撮像手段の位置および姿勢に基づき、仮想空間を表す仮想空間画像を生成する生成手段と、
前記取得手段で取得された現実空間画像と、前記生成手段で生成された仮想空間画像とを合成し、複合現実空間画像を生成する合成手段と、
前記複合現実画像を表示させる表示手段と、
前記複合現実画像を前記印刷手段で印刷するために、前記複合現実空間画像を前記印刷手段に出力する出力手段とを備え、
前記生成手段は、
前記表示手段が前記複合現実画像を表示させる場合、第一の方法で前記仮想空間画像を生成し、
前記出力手段が前記複合現実空間画像を出力する場合、前記第一の方法よりも光の反射による前記仮想空間中の仮想物体への影響を詳細に行う方法、前記第一の方法よりも仮想空間画像の生成の数値精度のビット数を増やして行う方法、前記仮想空間画像の縦横ピクセルサイズを前記印刷手段の解像度とプリントサイズとの積の範囲内にする方法のいずれかの方法で前記仮想空間画像を生成し、
前記合成手段は、
前記観察者と前記仮想物体それぞれに対して円柱形状の重畳判定領域を設定し、
前記出力手段が前記複合現実空間画像を出力する場合であり、かつ前記撮像手段から撮像した場合に前記観察者に設定された重畳判定領域上に前記仮想物体に設定された重畳判定領域が重畳している場合、当該仮想物体を前記観察者に重畳しない位置に移動させ、前記複合現実空間画像を生成し、
前記表示手段が前記複合現実空間画像を表示させる場合、前記仮想物体を移動させずに前記複合現実空間画像を生成することを特徴とする画像処理装置。
An image processing apparatus connected to a printing means for printing an image and capable of outputting an image to be printed to the printing means,
Obtaining means for obtaining a real space image from the imaging means;
Generating means for generating a virtual space image representing a virtual space based on the position and orientation of the imaging means;
A synthesis unit that synthesizes the real space image acquired by the acquisition unit and the virtual space image generated by the generation unit, and generates a mixed reality space image;
Display means for displaying the mixed reality image;
An output unit for outputting the mixed reality space image to the printing unit in order to print the mixed reality image by the printing unit;
The generating means includes
When the display means displays the mixed reality image, the virtual space image is generated by a first method,
When the output means outputs the mixed reality space image, a method of performing a detailed influence on a virtual object in the virtual space by reflection of light than the first method, a virtual space than the first method The virtual space may be any one of a method of increasing the number of bits of numerical accuracy for image generation and a method of setting the vertical and horizontal pixel size of the virtual space image within the range of the product of the resolution of the printing means and the print size. Generate an image,
The synthesis means includes
Set a cylindrical overlapping determination area for each of the observer and the virtual object,
When the output means outputs the mixed reality space image and the image is taken from the imaging means, the superimposition determination area set for the virtual object is superimposed on the superimposition determination area set for the observer. The virtual object is moved to a position not superimposed on the observer, and the mixed reality space image is generated,
An image processing apparatus , wherein when the display means displays the mixed reality space image, the mixed reality space image is generated without moving the virtual object .
取得手段が、撮像手段から現実空間画像を取得する取得工程と、
生成手段が、前記撮像手段の位置および姿勢に基づき、仮想空間を表す仮想空間画像を生成する生成工程と、
合成手段が、前記取得手段で取得された現実空間画像と、前記生成手段で生成された仮想空間画像とを合成し、複合現実空間画像を生成する合成工程と、
表示手段が、前記複合現実画像を表示させる表示工程と、
出力手段が、前記複合現実画像を印刷手段で印刷するために、前記複合現実空間画像を前記印刷手段に出力する出力工程とを備え、
前記生成工程では、
前記表示手段が前記複合現実画像を表示させる場合、第一の方法で前記仮想空間画像を生成し、
前記出力手段が前記複合現実空間画像を出力する場合、前記第一の方法よりも光の反射による前記仮想空間中の仮想物体への影響を詳細に行う方法、前記第一の方法よりも仮想空間画像の生成の数値精度のビット数を増やして行う方法、前記仮想空間画像の縦横ピクセルサイズを前記印刷手段の解像度とプリントサイズとの積の範囲内にする方法のいずれかの方法で前記仮想空間画像を生成し、
前記合成工程では、
前記観察者と前記仮想物体それぞれに対して円柱形状の重畳判定領域を設定し、
前記出力手段が前記複合現実空間画像を出力する場合であり、かつ前記撮像手段から撮像した場合に前記観察者に設定された重畳判定領域上に前記仮想物体に設定された重畳判定領域が重畳している場合、当該仮想物体を前記観察者に重畳しない位置に移動させ、前記複合現実空間画像を生成し、
前記表示手段が前記複合現実空間画像を表示させる場合、前記仮想物体を移動させずに前記複合現実空間画像を生成することを特徴とする画像処理方法。
An acquisition step in which the acquisition means acquires a real space image from the imaging means;
A generating step of generating a virtual space image representing a virtual space based on the position and orientation of the imaging unit;
A synthesis step of synthesizing the real space image acquired by the acquisition unit and the virtual space image generated by the generation unit to generate a mixed reality space image;
Display means for displaying the mixed reality image; and
An output unit that outputs the mixed reality space image to the printing unit in order to print the mixed reality image by the printing unit;
In the generating step,
When the display means displays the mixed reality image, the virtual space image is generated by a first method,
When the output means outputs the mixed reality space image, a method of performing a detailed influence on a virtual object in the virtual space by reflection of light than the first method, a virtual space than the first method The virtual space may be any one of a method of increasing the number of bits of numerical accuracy for image generation and a method of setting the vertical and horizontal pixel size of the virtual space image within the range of the product of the resolution of the printing means and the print size. Generate an image,
In the synthesis step,
Set a cylindrical overlapping determination area for each of the observer and the virtual object,
When the output means outputs the mixed reality space image, and when the image is picked up from the imaging means, the superimposition determination area set for the virtual object is superimposed on the superimposition determination area set for the observer. The virtual object is moved to a position not superimposed on the observer, and the mixed reality space image is generated,
When the display means displays the mixed reality space image, the mixed reality space image is generated without moving the virtual object.
コンピュータを、
撮像手段から現実空間画像を取得する取得手段と、
前記撮像手段の位置および姿勢に基づき、仮想空間を表す仮想空間画像を生成する生成手段と、
前記取得手段で取得された現実空間画像と、前記生成手段で生成された仮想空間画像とを合成し、複合現実空間画像を生成する合成手段と、
前記複合現実画像を表示させる表示手段と、
前記複合現実画像を印刷手段で印刷するために、前記複合現実空間画像を前記印刷手段に出力する出力手段とを備え、
前記生成手段は、
前記表示手段が前記複合現実画像を表示させる場合、第一の方法で前記仮想空間画像を生成し、
前記出力手段が前記複合現実空間画像を出力する場合、前記第一の方法よりも光の反射による前記仮想空間中の仮想物体への影響を詳細に行う方法、前記第一の方法よりも仮想空間画像の生成の数値精度のビット数を増やして行う方法、前記仮想空間画像の縦横ピクセルサイズを前記印刷手段の解像度とプリントサイズとの積の範囲内にする方法のいずれかの方法で前記仮想空間画像を生成し、
前記合成手段は、
前記観察者と前記仮想物体それぞれに対して円柱形状の重畳判定領域を設定し、
前記出力手段が前記複合現実空間画像を出力する場合であり、かつ前記撮像手段から撮像した場合に前記観察者に設定された重畳判定領域上に前記仮想物体に設定された重畳判定領域が重畳している場合、当該仮想物体を前記観察者に重畳しない位置に移動させ、前記複合現実空間画像を生成し、
前記表示手段が前記複合現実空間画像を表示させる場合、前記仮想物体を移動させずに前記複合現実空間画像を生成することを特徴とする画像処理装置として機能させるためのコンピュータプログラム。
Computer
Obtaining means for obtaining a real space image from the imaging means;
Generating means for generating a virtual space image representing a virtual space based on the position and orientation of the imaging means;
A synthesis unit that synthesizes the real space image acquired by the acquisition unit and the virtual space image generated by the generation unit, and generates a mixed reality space image;
Display means for displaying the mixed reality image;
An output unit that outputs the mixed reality space image to the printing unit in order to print the mixed reality image by a printing unit;
The generating means includes
When the display means displays the mixed reality image, the virtual space image is generated by a first method,
When the output means outputs the mixed reality space image, a method of performing a detailed influence on a virtual object in the virtual space by reflection of light than the first method, a virtual space than the first method The virtual space may be any one of a method of increasing the number of bits of numerical accuracy for image generation and a method of setting the vertical and horizontal pixel size of the virtual space image within the range of the product of the resolution of the printing means and the print size. Generate an image,
The synthesis means includes
Set a cylindrical overlapping determination area for each of the observer and the virtual object,
When the output means outputs the mixed reality space image, and when the image is picked up from the imaging means, the superimposition determination area set for the virtual object is superimposed on the superimposition determination area set for the observer. The virtual object is moved to a position not superimposed on the observer, and the mixed reality space image is generated,
When the said display means displays the said mixed reality space image, the computer program for functioning as an image processing apparatus characterized by producing | generating the said mixed reality space image, without moving the said virtual object.
コンピュータを、
撮像手段から現実空間画像を取得する取得手段と、
前記撮像手段の位置および姿勢に基づき、仮想空間を表す仮想空間画像を生成する生成手段と、
前記取得手段で取得された現実空間画像と、前記生成手段で生成された仮想空間画像とを合成し、複合現実空間画像を生成する合成手段と、
前記複合現実画像を表示させる表示手段と、
前記複合現実画像を印刷手段で印刷するために、前記複合現実空間画像を前記印刷手段に出力する出力手段とを備え、
前記生成手段は、
前記表示手段が前記複合現実画像を表示させる場合、第一の方法で前記仮想空間画像を生成し、
前記出力手段が前記複合現実空間画像を出力する場合、前記第一の方法よりも光の反射による前記仮想空間中の仮想物体への影響を詳細に行う方法、前記第一の方法よりも仮想空間画像の生成の数値精度のビット数を増やして行う方法、前記仮想空間画像の縦横ピクセルサイズを前記印刷手段の解像度とプリントサイズとの積の範囲内にする方法のいずれかの方法で前記仮想空間画像を生成し、
前記合成手段は、
前記観察者と前記仮想物体それぞれに対して円柱形状の重畳判定領域を設定し、
前記出力手段が前記複合現実空間画像を出力する場合であり、かつ前記撮像手段から撮像した場合に前記観察者に設定された重畳判定領域上に前記仮想物体に設定された重畳判定領域が重畳している場合、当該仮想物体を前記観察者に重畳しない位置に移動させ、前記複合現実空間画像を生成し、
前記表示手段が前記複合現実空間画像を表示させる場合、前記仮想物体を移動させずに前記複合現実空間画像を生成することを特徴とする画像処理装置として機能させるためのコンピュータプログラムが格納されたコンピュータ読み取り可能な記録媒体。
Computer
Obtaining means for obtaining a real space image from the imaging means;
Generating means for generating a virtual space image representing a virtual space based on the position and orientation of the imaging means;
A synthesis unit that synthesizes the real space image acquired by the acquisition unit and the virtual space image generated by the generation unit, and generates a mixed reality space image;
Display means for displaying the mixed reality image;
An output unit that outputs the mixed reality space image to the printing unit in order to print the mixed reality image by a printing unit;
The generating means includes
When the display means displays the mixed reality image, the virtual space image is generated by a first method,
When the output means outputs the mixed reality space image, a method of performing a detailed influence on a virtual object in the virtual space by reflection of light than the first method, a virtual space than the first method The virtual space may be any one of a method of increasing the number of bits of numerical accuracy for image generation and a method of setting the vertical and horizontal pixel size of the virtual space image within the range of the product of the resolution of the printing means and the print size. Generate an image,
The synthesis means includes
Set a cylindrical overlapping determination area for each of the observer and the virtual object,
When the output means outputs the mixed reality space image and the image is taken from the imaging means, the superimposition determination area set for the virtual object is superimposed on the superimposition determination area set for the observer. The virtual object is moved to a position not superimposed on the observer, and the mixed reality space image is generated,
When the display means displays the mixed reality space image, a computer storing a computer program for functioning as an image processing apparatus that generates the mixed reality space image without moving the virtual object A readable recording medium.
JP2003333628A 2002-10-16 2003-09-25 Image processing apparatus, image processing method, and program Expired - Fee Related JP4235522B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003333628A JP4235522B2 (en) 2003-09-25 2003-09-25 Image processing apparatus, image processing method, and program
US10/684,401 US7427996B2 (en) 2002-10-16 2003-10-15 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003333628A JP4235522B2 (en) 2003-09-25 2003-09-25 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2005100134A JP2005100134A (en) 2005-04-14
JP4235522B2 true JP4235522B2 (en) 2009-03-11

Family

ID=34461584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003333628A Expired - Fee Related JP4235522B2 (en) 2002-10-16 2003-09-25 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4235522B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4660357B2 (en) * 2005-11-18 2011-03-30 任天堂株式会社 Image processing program and image processing apparatus
JP2010249907A (en) * 2009-04-13 2010-11-04 National Institute Of Advanced Industrial Science & Technology Photographing device and imaging method
FR2984057B1 (en) 2011-12-13 2014-01-03 Solidanim VIDEO FILM TURNING SYSTEM
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
JP6314394B2 (en) 2013-09-13 2018-04-25 富士通株式会社 Information processing apparatus, setting method, setting program, system, and management apparatus
CN105488851B (en) * 2015-11-30 2017-07-07 腾讯科技(深圳)有限公司 In real-time virtual scene between collision body collision detection method and apparatus
JP7073702B2 (en) * 2017-12-11 2022-05-24 富士フイルムビジネスイノベーション株式会社 Information processing equipment and information processing programs
JP7077595B2 (en) * 2017-12-11 2022-05-31 富士フイルムビジネスイノベーション株式会社 Information processing equipment and information processing programs
JP7000828B2 (en) * 2017-12-11 2022-01-19 富士フイルムビジネスイノベーション株式会社 Information processing equipment and information processing programs
JP7364218B2 (en) * 2017-12-28 2023-10-18 株式会社コナミデジタルエンタテインメント Information processing device, program for information processing device, information processing system, and display method
JP7356697B2 (en) * 2019-06-11 2023-10-05 国立大学法人静岡大学 Image observation system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001096063A (en) * 1999-07-23 2001-04-10 Fuji Photo Film Co Ltd Apparatus and system for replay game scenes
JP3363861B2 (en) * 2000-01-13 2003-01-08 キヤノン株式会社 Mixed reality presentation device, mixed reality presentation method, and storage medium
JP2002157607A (en) * 2000-11-17 2002-05-31 Canon Inc System and method for image generation, and storage medium
JP4115117B2 (en) * 2001-10-31 2008-07-09 キヤノン株式会社 Information processing apparatus and method

Also Published As

Publication number Publication date
JP2005100134A (en) 2005-04-14

Similar Documents

Publication Publication Date Title
US7427996B2 (en) Image processing apparatus and image processing method
JP4553362B2 (en) System, image processing apparatus, and information processing method
JP5845211B2 (en) Image processing apparatus and image processing method
JP2022040219A (en) Techniques for recording augmented reality data
AU2018233733B2 (en) Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
JP4739002B2 (en) Image processing method and image processing apparatus
JP2009123018A (en) Image processor and image processing method
JP2006302034A (en) Image processing method and image processor
JP2005346468A (en) Image processing method and image processor
JP4235522B2 (en) Image processing apparatus, image processing method, and program
WO2010038693A1 (en) Information processing device, information processing method, program, and information storage medium
JP2007034628A (en) Method and system for image processing
JP2022058753A (en) Information processing apparatus, information processing method, and program
JP2015170232A (en) Information processing device, method of controlling the same, and program
WO2020185405A1 (en) Registration of local content between first and second augmented reality viewers
JP2017134803A (en) Information processing device, and information processing method
JP4689344B2 (en) Information processing method and information processing apparatus
JP2005251118A (en) Method and device for image processing
JP2006085375A (en) Image processing method and image processor
WO2017191703A1 (en) Image processing device
JP2008217119A (en) System, image processor and image processing method
JP4217661B2 (en) Image processing method and image processing apparatus
JP7465133B2 (en) Information processing device and information processing method
JP4125085B2 (en) Image processing apparatus and image processing method
JP2005050043A (en) Image processing method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080610

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080902

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20081110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081215

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131219

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees