JP4235522B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP4235522B2 JP4235522B2 JP2003333628A JP2003333628A JP4235522B2 JP 4235522 B2 JP4235522 B2 JP 4235522B2 JP 2003333628 A JP2003333628 A JP 2003333628A JP 2003333628 A JP2003333628 A JP 2003333628A JP 4235522 B2 JP4235522 B2 JP 4235522B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- mixed reality
- space image
- virtual
- observer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は、遊園地、テーマパークなどの娯楽施設、博物館、水族館、植物園、動物園などの各種展示施設、博覧会、展示会などの各種展示会場において利用される展示装置および展示方法に関するものである。 The present invention relates to amusement facilities such as amusement parks and theme parks, various display facilities such as museums, aquariums, botanical gardens, and zoos, and display devices and display methods used in various exhibition venues such as expositions and exhibitions. .
技術的には、現実空間画像と仮想空間画像とを重畳した複合現実空間画像を生成する画像処理装置および画像処理方法に関するものである。 Technically, the present invention relates to an image processing apparatus and an image processing method for generating a mixed reality space image in which a real space image and a virtual space image are superimposed.
いわゆる「プリクラ」などの、静止画や動画が撮像可能なカメラなどの撮像装置を用いて撮像した現実空間の画像にコンピュータ内で生成された仮想物体の画像を合成して印刷するシステムが一般的なものとして広く存在している。このような「プリクラ」においては、現実画像に重畳される仮想物体は単純な二次元画像であり、また撮像時にシステムの体験者は仮想物体の存在を合成画面上でしか確認できない。つまり撮像時に、システムの体験者は仮想画像と自分自身の位置関係を合成画面上で確認しながら自分が仮想物体と相互交流しているように見えるような画像のための絵作りや演技を行っていた。 A system that synthesizes and prints a virtual object image generated in a computer with a real-space image captured using an imaging device such as a camera that can capture still images and moving images, such as a so-called “printer”. It exists widely as something. In such a “printer”, a virtual object superimposed on a real image is a simple two-dimensional image, and a system user can confirm the presence of the virtual object only on the composite screen during imaging. In other words, at the time of imaging, the system experience person makes a picture and acts for an image that seems to interact with the virtual object while checking the positional relationship between the virtual image and itself on the composite screen. It was.
従来から現実空間と仮想空間の座標系が共有されている空間(複合現実空間)を提供するシステムが存在する(公知文献1)。 Conventionally, there is a system that provides a space (a mixed reality space) in which a coordinate system of a real space and a virtual space is shared (publicly known document 1).
現実空間と仮想空間の座標系が共有されている空間(複合現実空間)において、撮影者の望む視点位置、視線方向における現実画像と仮想画像を合成して印刷するシステムが本出願人から提案されている。ここでは、仮想物体は二次元画像ではなく三次元コンピュータグラフィックス(3DCG)技術により現実空間中に実在する立体物であるかのごとく認識することが可能である。さらに現実空間と仮想空間の三次元座標軸が一致しており、体験者はこの現実空間と仮想空間の融合空間(複合現実空間)で、仮想物体が目前に実在しているかのように深い没入感を持って知覚することが可能である。このような環境において、仮想物体と相互交流している様子を画像として取得することで、システムの体験者が演技や絵作りを意識せずとも仮想物体と自然に相互交流することを促し、「絵」としてよりよい印刷を提供することを可能としている。 The applicant has proposed a system that prints by combining the real image and the virtual image in the viewpoint position and line-of-sight direction desired by the photographer in a space (mixed reality space) where the coordinate system of the real space and the virtual space is shared. ing. Here, the virtual object can be recognized as if it is a three-dimensional object that exists in the real space by using a three-dimensional computer graphics (3DCG) technique instead of a two-dimensional image. Furthermore, the three-dimensional coordinate axes of the real space and the virtual space are the same, and the experiencer has a deep sense of immersion as if the virtual object is actually present in this real space-virtual space (mixed reality space). It is possible to perceive with In such an environment, by capturing images of interaction with a virtual object as an image, the system experience is encouraged to interact with the virtual object naturally without being conscious of acting or painting. It is possible to provide better printing as a “picture”.
一方、テーマパークのアトラクションにおいては、利用客が体験して楽しんでいる様子を現実空間におけるイベントによって自動的に撮像し、体験を終了した利用客に撮像したものを印刷して提供する機器が使用されている。例えば、ジェットコースター型のアトラクションにおいて、搭乗した車両が急降下して体験者が驚きの表情をする地点に撮像装置を設置し、車両が急降下するタイミングで体験者と車両を撮影し、搭乗を終了した体験者が自分の驚いた表情の写った画像を印刷してもらい対価を支払うシステムなどが挙げられる。 On the other hand, at the theme park attraction, equipment that automatically captures the experience that the customer is experiencing and enjoys by an event in the real space and prints and provides the image captured to the user who has finished the experience is used Has been. For example, in a roller coaster type attraction, an image pickup device is installed at a point where the boarded vehicle suddenly descends and the experiencer is surprised, and the experiencer and the vehicle are photographed when the vehicle suddenly descends, and the boarding is finished. One example is a system in which the user pays a fee to print an image of his surprised expression.
このような複合現実感システムでは実時間性が要求されるため、従来技術においては仮想空間物体のモデルはデータ量や計算量の制限を受けざるを得ず、静止画としてより融合感の優れた複合現実空間画像を作成することが難しかった。また、複合現実空間内で仮想空間物体が移動しているときは、体験者はこれらの制限による融合感低下に注意が向かうことは少なかったが、静止画や紙媒体出力において融合感の低さや低画質といった問題点を感じさせることが多かった。
本発明は、体験者と仮想物体が自然に相互交流している画像をより高品質にし、被写体である体験者にとってその複合現実空間画像が一層面白みのあるものにすることを目的とする。 An object of the present invention is to improve the quality of an image in which an experienced person and a virtual object naturally interact with each other, and to make the mixed reality space image more interesting for the experienced person who is the subject.
本発明はさらに、複合現実空間を体験するシステムの運用を遮ることなく、紙媒体出力を提供することを目的とする。 It is another object of the present invention to provide a paper medium output without interrupting the operation of a system that experiences a mixed reality space.
また、複合現実空間画像の取得時に、不意に仮想空間物体が被写体である観察者の前を横切って観察者を覆い隠してしまうことを回避することを目的とする。 It is another object of the present invention to prevent the virtual space object from accidentally obscuring the observer across the front of the observer who is the subject when acquiring the mixed reality space image.
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.
本発明は、画像を印刷する印刷手段に接続されており、前記印刷手段に対して印刷する画像を出力可能な画像処理装置であって、撮像手段から現実空間画像を取得する取得手段と、前記撮像手段の位置および姿勢に基づき、仮想空間を表す仮想空間画像を生成する生成手段と、前記取得手段で取得された現実空間画像と、前記生成手段で生成された仮想空間画像とを合成し、複合現実空間画像を生成する合成手段と、前記複合現実画像を表示させる表示手段と、前記複合現実画像を前記印刷手段で印刷するために、前記複合現実空間画像を前記印刷手段に出力する出力手段とを備え、前記生成手段は、前記表示手段が前記複合現実画像を表示させる場合、第一の方法で前記仮想空間画像を生成し、前記出力手段が前記複合現実空間画像を出力する場合、前記第一の方法よりも光の反射による前記仮想空間中の仮想物体への影響を詳細に行う方法、前記第一の方法よりも仮想空間画像の生成の数値精度のビット数を増やして行う方法、前記仮想空間画像の縦横ピクセルサイズを前記印刷手段の解像度とプリントサイズとの積の範囲内にする方法のいずれかの方法で前記仮想空間画像を生成し、前記合成手段は、前記観察者と前記仮想物体それぞれに対して円柱形状の重畳判定領域を設定し、前記出力手段が前記複合現実空間画像を出力する場合であり、かつ前記撮像手段から撮像した場合に前記観察者に設定された重畳判定領域上に前記仮想物体に設定された重畳判定領域が重畳している場合、当該仮想物体を前記観察者に重畳しない位置に移動させ、前記複合現実空間画像を生成し、前記表示手段が前記複合現実空間画像を表示させる場合、前記仮想物体を移動させずに前記複合現実空間画像を生成することを特徴とする。 The present invention is an image processing apparatus that is connected to a printing unit that prints an image and that can output an image to be printed to the printing unit, the acquisition unit acquiring a real space image from an imaging unit, Based on the position and orientation of the imaging means, the generating means for generating a virtual space image representing the virtual space, the real space image acquired by the acquiring means, and the virtual space image generated by the generating means, Synthesis means for generating a mixed reality space image, display means for displaying the mixed reality image, and output means for outputting the mixed reality space image to the printing means for printing the mixed reality image by the printing means. with the door, said generating means, when said display means displays the MR image, and generating the virtual space image in the first method, the output means outputs the mixed reality space image A method of performing a detailed influence on the virtual object in the virtual space by reflection of light more than the first method, and increasing the number of bits of numerical accuracy for generating the virtual space image than the first method. The virtual space image is generated by any one of a method for setting a vertical and horizontal pixel size of the virtual space image to be within a product range of a resolution and a print size of the printing unit, and the combining unit includes: A cylindrical overlap determination area is set for each of the observer and the virtual object, and is set for the observer when the output means outputs the mixed reality space image and the image is taken from the imaging means. When the superimposition determination area set for the virtual object is superimposed on the superimposed determination area, the virtual object is moved to a position where it is not superimposed on the observer, and the mixed reality space image is generated. If the display means displays the mixed reality space image, and generating the mixed reality space image without moving the virtual object.
本発明においては、高品質な複合現実画像の紙媒体出力を提供することが可能になる。 In the present invention, it is possible to provide a high-quality mixed reality image paper medium output.
また本発明においては、紙媒体出力用の情報量の豊かな複合現実空間画像を出力時に別手段または別のデータを利用して作成することにより、従来の技術における問題を解決することが可能になる。 Also, in the present invention, it is possible to solve the problems in the prior art by creating a mixed reality space image with a large amount of information for paper media output by using another means or another data at the time of output. Become.
さらに本発明においては、複数の観察者が同時に複合現実感システムを体験している最中に一人の観察者が高品質の複合現実画像を印刷出力した場合であっても、複合現実感システムの動作品質を損なうことなく、同時に高画質な複合現実空間画像の印刷出力を得ることが可能になる。 Furthermore, in the present invention, even when a single observer prints out a high-quality mixed reality image while a plurality of observers are experiencing the mixed reality system at the same time, It is possible to obtain a print output of a mixed reality space image with high image quality at the same time without impairing the operation quality.
さらに本発明においては、観察者が複合現実空間を体験している様子を撮像した複合現実空間画像の紙媒体出力において、観察者が仮想物体で覆い隠されてしまうのを防ぐことが可能になる。 Furthermore, in the present invention, it is possible to prevent the observer from being obscured by a virtual object in the paper medium output of the mixed reality space image obtained by capturing an image of the observer experiencing the mixed reality space. .
以下、発明を実施するための最良の形態について詳細に説明する。 Hereinafter, the best mode for carrying out the invention will be described in detail.
図1は複数の観察者と、これら観察者それぞれの異なる視点に基づいた複合現実空間画像を取得可能にする本実施形態に係るシステムの構成を示す図である。 FIG. 1 is a diagram illustrating a configuration of a system according to the present embodiment that enables acquisition of a mixed reality space image based on a plurality of observers and different viewpoints of these observers.
(観察者用画像処理装置およびプログラム)
まず、本実施例における観察者用画像処理装置およびそれに適用されるプログラムについて説明する。
(Observer image processing apparatus and program)
First, an observer image processing apparatus and a program applied thereto in the present embodiment will be described.
図1において、100および101は複合現実空間画像を観察する観察者である。
In FIG. 1,
PC110、モニタ140、位置センサ系300、310、320および撮像装置付の頭部装着型表示装置(HMD:Head Mounted Display)400によって観察者一人分の複合現実空間画像を生成する観察者用画像処理装置を構成し、これは観察者100に対して設けられている。
Image processing for an observer that generates a mixed reality space image for one observer by a
また、観察者101に対しても同様に、PC111、モニタ141、位置センサ系301、311、321、および撮像装置付の頭部装着型表示装置(HMD)401が観察者用画像処理装置として設けられている。
Similarly, for the
本実施例では観察者の数を100および101の2人としているが、これに限定されるものではなく任意の数の観察者用画像処理装置を接続することが可能であり、また2人以上の任意数の観察者が同時に複合現実空間を観察し共有することも可能である。 In this embodiment, the number of observers is two, 100 and 101. However, the number of observers is not limited to this, and an arbitrary number of observer image processing apparatuses can be connected, and two or more observers can be connected. Any number of observers can simultaneously observe and share the mixed reality space.
190はイーサネット(R)に代表されるようなネットワークであり、夫々の観察者に対して設けられた観察者用画像処理装置と後述する客観視点用画像処理装置と複合現実空間管理装置とはネットワーク190を介して接続されている。
次に、PC110で動作しているプログラムについて説明する。PC110では、複合現実空間画像生成プログラムと位置姿勢取得プログラムが動作している。 Next, a program running on the PC 110 will be described. In the PC 110, a mixed reality space image generation program and a position / orientation acquisition program are operating.
位置姿勢取得プログラムは、位置姿勢センサ系を構成する位置姿勢センサ本体300、位置姿勢センサ送信機310および位置姿勢センサ受信機320(図5参照)によって計測される観察者の視点位置姿勢を常時更新し、後述する座標軸200における位置姿勢値に変換後、複合現実空間管理装置で動作している複合現実空間管理プログラムに送信し続ける。
The position and orientation acquisition program constantly updates the viewpoint position and orientation of the observer measured by the position and orientation sensor
複合現実空間画像生成プログラムは、複合現実空間管理プログラムから送信されてくる複合現実空間管理情報(すなわち、全ての仮想空間物体の位置姿勢および状態、現実空間物体の位置姿勢および状態)に基づいて、その時点における仮想空間画像をメモリ上に描画すると共に、観察者100の頭部に装着されたHMD400に設けられた後述の撮像部で取得される現実空間画像をメモリ上に描画して、これらを合成する。その結果、メモリ上には複合現実空間画像が描画されることになる。
The mixed reality space image generation program is based on the mixed reality space management information transmitted from the mixed reality space management program (that is, the position and orientation of all virtual space objects and the position and orientation of real space objects). A virtual space image at that time is drawn on the memory, and a real space image acquired by an imaging unit (described later) provided on the
メモリ上で生成された複合現実空間画像は、モニタ140およびHMD400に設けられた後述の表示部に出力されて表示される。したがって、観察者100はHMD400の表示部に表示された複合現実空間画像を見ることで、複合現実空間画像を観察することができる。
The mixed reality space image generated on the memory is output and displayed on a display unit (to be described later) provided in the
なお、複合現実空間画像の更新頻度はPCの処理能力に依存するが、PCの処理能力が十分であって更新頻度10〜30Hzを実現できれば、連続して更新される複合現実空間画像は観察者にとって動画として認識できる。 Although the update frequency of the mixed reality space image depends on the processing capability of the PC, if the PC processing capability is sufficient and an update frequency of 10 to 30 Hz can be realized, the continuously updated mixed reality space image is an observer. Can be recognized as a video.
モニタ140とHMD400には同じ映像を出力する。これは、HMD400を装着している観察者がどのような画像を見ているのかを観察者以外の人(HMDを装着してない人、システムのオペレータなど)が知るためと、システムメッセージやシステムの設定画面などを表示して操作をする場合にHMD400では使い勝手が悪く不自由なのでモニタ140を見て操作を行う必要があるためである。
The same video is output to the
以上の構成およびプログラムにより観察者100は自由に視点位置、姿勢を変えて、すなわち複合現実空間内を自由に動いて、その時々の視点位置姿勢に応じた複合現実空間画像を観察することが可能となる。
With the above configuration and program, the
(複合現実空間管理装置およびプログラム)
次に、本実施例における複合現実空間管理装置およびそれに適用されるプログラムについて説明する。
(Mixed reality space management device and program)
Next, the mixed reality space management apparatus and the program applied to it in this embodiment will be described.
PC115およびモニタ145は複合現実空間管理装置を構成し、観察者の数に依存せず本複合現実感システムに1つだけ設置される。なお、PC115では、複合現実空間管理プログラムが実行されている。
The PC 115 and the
複合現実空間管理プログラムは、現実空間物体の状態および位置姿勢の取得し、また仮想空間物体の状態および位置姿勢の更新を行い、得られた情報を複合現実空間管理情報としてすべての複合現実空間画像生成プログラムに通知する。 The mixed reality space management program acquires the state and position / orientation of a real space object, updates the state and position / orientation of a virtual space object, and uses the obtained information as mixed reality space management information for all mixed reality space images. Notify the generator.
現実空間物体の状態および位置姿勢の取得は、全ての観察者用画像処理装置で動作している位置姿勢取得プログラムと通信を行うことで実現される。これによりすべての観察者および固定設置カメラの視点位置、姿勢は複合現実空間管理プログラムで一元的に管理され同期がとられる。 Acquisition of the state and position / orientation of a real space object is realized by communicating with a position / orientation acquisition program operating in all image processing apparatuses for observers. As a result, the viewpoint positions and orientations of all the observers and the fixed installation cameras are centrally managed and synchronized by the mixed reality space management program.
仮想空間物体の状態および位置姿勢の更新は、本プログラムに予め設定されているシナリオに従って仮想空間時間を単位時間進め、全ての仮想空間物体の状態および位置姿勢を更新することで実現される。このとき、仮想空間物体同士の位置姿勢関係や、仮想空間物体と現実空間物体(観察者および固定設置カメラ)の位置姿勢関係が、シナリオに設定されている特別の状態であった場合には、何らかのイベント(例えば仮想空間物体の爆発など)が発生する場合がある。 The update of the state, position, and orientation of the virtual space object is realized by updating the state, position, and orientation of all the virtual space objects by advancing the virtual space time according to a scenario preset in the program. At this time, if the position and orientation relationship between virtual space objects and the position and orientation relationship between the virtual space object and the real space object (observer and fixed installation camera) were in a special state set in the scenario, Some event (for example, an explosion of a virtual space object) may occur.
以上のように更新された複合現実空間管理情報は、すべての現実空間画像生成プログラムに通知される。 The mixed reality space management information updated as described above is notified to all the reality space image generation programs.
(客観視点用画像処理装置)
また、PC117、モニタ147およびビデオカメラ160は客観画像処理装置を構成している。なお、客観画像処理装置は、HMD400、位置姿勢センサ系300、310、320が接続されていないこと、撮像装置として固定設置されているビデオカメラ160を利用すること以外は、観察者用画像処理装置と同様の構成である。
(Objective viewpoint image processing device)
The
ここでビデオカメラ160の設置位置および姿勢は、後述する複合現実空間画像生成可能領域ができる限り撮像範囲内に入るよう設定することが望ましい。なおPC117では、PC110と同様に、複合現実空間画像生成プログラムと位置姿勢取得プログラムが動作している。
Here, it is desirable to set the installation position and orientation of the
複合現実空間画像生成プログラムは、PC117に接続されているビデオカメラ160から現実画像を取得し、複合現実空間管理プログラムから通知される情報に従って複合現実空間映像を生成している。位置姿勢取得プログラムは、ビデオカメラ160の位置および姿勢の設定値を複合現実空間管理プログラムに送信し続けている。なお、ビデオカメラ160の位置および姿勢は予め複合現実空間画像生成プログラムに初期設定されており、動的に位置姿勢を変更することはできない。
The mixed reality space image generation program acquires a real image from the
(印刷装置)
印刷装置としてのプリンタ170は、複合現実空間画像を出力するための装置であり、シャッタスイッチ180は観察者107が複合現実空間画像の任意の出力タイミングを決定するために用いる例えば押しボタン式の装置である。本実施例において、プリンタ170およびシャッタスイッチ180は客観視点用画像処理装置のPC117に接続されているが、この構成に限定されるものではない。すなわち、プリンタ170などは観察者用画像処理装置として機能するPC110またはPC111に接続されていてもよく、また複数のPCに同時に接続されていてもよい。なお、複合現実空間画像生成プログラムが動作しているPCであれば、プリンタ170が接続して複合現実空間画像を出力することができる。
(Printer)
A
客観視点用画像処理装置のPC117に接続されているモニタ147には、ビデオカメラ160から見た複合現実画像が表示されており、観察者107はこの複合現実画像を見ながらシャッタスイッチ180を使って任意のタイミングでプリンタ170から出力する複合現実画像を決定することが可能である。具体的には、シャッタスイッチ180が観察者107によって押されると、PC117で動作している複合現実空間管理プログラムがそれを検知し、メモリ上に描画された複合現実画像をプリンタ170に送信し、プリンタ170はそれを紙媒体に出力する。
A mixed reality image viewed from the
ここで、プリンタ170の記録方式は特に限定されるものではなく、複合現実空間画像を紙媒体やOHPなどの記録媒体上に画像として印刷することができるものであればよい。
Here, the recording method of the
また、シャッタスイッチ180も本実施例のような機械式の手動シャッタスイッチでなくともよい。具体的には、出力処理を行う複合現実空間画像生成プログラムが、出力用の複合現実画像を生成するタイミングを指示できるものであれば十分であり、これをプログラムで実現していても構わない。例えば、複合現実空間管理プログラムがシャッタ信号を生成し、これを複合現実空間管理情報に含めて複合現実空間画像生成プログラムに送信する方法などが考えられる。
Further, the
またこの場合、シャッタ信号を生成するタイミングも、複合現実空間画像生成プログラムが予め設定されている時間間隔で自動的に発生させてもよいし、自らが管理している複合現実空間で特定のイベントが起こったときに自動的に発生させるようにしてもよい。 In this case, the timing for generating the shutter signal may be automatically generated at a preset time interval by the mixed reality space image generation program, or a specific event in the mixed reality space managed by the shutter signal may be generated. It may be automatically generated when the error occurs.
(複合現実空間)
次に、複合現実空間について説明する。図1において、200は予め定義されており仮想物体を現実空間のどの位置に定位するのかを決めるために使用される座標軸であり、現実空間と仮想空間で共有される。なお、座標軸の設定方法に関しては本発明の趣旨から外れるのでここでは説明しない。
(Mixed reality space)
Next, the mixed reality space will be described. In FIG. 1, reference numeral 200 denotes a coordinate axis that is defined in advance and is used to determine a position in the real space where the virtual object is localized, and is shared between the real space and the virtual space. The method for setting the coordinate axes is not described here because it is out of the spirit of the present invention.
210は複合現実空間画像生成可能領域である。すなわち、この領域に存在する現実物体についてはその位置および形状が全ての動作している複合現実空間画像生成プログラムおよび複合現実空間管理プログラムによって管理されており、この領域では現実物体と仮想物体との位置の重なりが発生したことが検出可能となる。観察者は、この領域に入って複合現実空間を体験することになる。なお、この領域の位置およびサイズは複合現実空間画像生成プログラムおよび複合現実空間管理プログラムの動作するPCのメモリ上に記録されている。
220、222は現実物体で、本実施例では石柱220と岩222を例として示している。また、250、252は仮想物体であり、コンピュータグラフィックス(CG)のオブジェクトとしてポリゴンおよびテクスチャなどのデータから構成される。本実施例では、亀250と魚252を例として示している。
本実施例では、海底をモチーフとした複合現実空間を生成するシステムを例示しているため、現実物体や仮想物体もその趣旨に沿ったものが提示されているが、当然ながら実際にはこれに限定されるものではない。なお、仮想物体250、252は、複合現実空間の概要を示すために図1においては明示しているが、実際には複合現実空間画像生成プログラムの動作するPCに接続されたモニタおよびHMDでしか見ることができない。
In this example, a system that generates a mixed reality space with the ocean floor as a motif is illustrated, so that real objects and virtual objects are also presented in line with that purpose. It is not limited. The
以上、本実施例のシステム構成および動作についての概略を、ハードウェアおよびソフトウェアの両方から説明した。 The outline of the system configuration and operation of the present embodiment has been described above from both hardware and software.
(HMD)
次に、HMD400の構成について図2〜図4を用いて説明する。なお各図において構成要素の番号の後に「R」とつくものは観察者の右目用、「L」とつくものは左目用をそれぞれ表す。なお、特に左右を特定する必要のない場合、番号の後の「R」、「L」を省略して表記する。
(HMD)
Next, the configuration of the
図2はHMDの基本構成を示す図であり、図3および図4はHMD400の外観図である。図において、320は位置方向センサ受信機で、観察者の視点位置近傍に設けられており、後述する位置姿勢センサ発信機310および本体300と共に動作し、位置センサ発信機310で定義されている座標軸における観察者の視点位置および姿勢を常時計測している。
FIG. 2 is a diagram showing a basic configuration of the HMD, and FIGS. 3 and 4 are external views of the
410、414および415はそれぞれ表示系を構成する要素であり、カラー液晶ディスプレイ414が表示する画像が光学プリズム415によって導かれ、表示部410に表示される。また、412、416および417は撮像系を構成する要素であり、入力部412を介してHMDの外部から入力された光が光学プリズム417によってHMD内部に導かれ、CCD416で受光される。 Reference numerals 410, 414, and 415 are elements constituting the display system, and an image displayed on the color liquid crystal display 414 is guided by the optical prism 415 and displayed on the display unit 410. Reference numerals 412, 416, and 417 are elements constituting the imaging system. Light input from the outside of the HMD via the input unit 412 is guided into the HMD by the optical prism 417 and received by the CCD 416.
光学プリズム415の出力光と光学プリズム417の入力光は観察者の瞳の光軸と一致しており、CCD416は、観察者の視点位置および姿勢の現実空間画像を撮像し、カラー液晶ディスプレイ414は、CCD416によって取得された現実空間画像と、位置姿勢センサ本体300で算出される観察者の視点位置および姿勢に応じて生成された仮想空間画像とを合成した複合現実空間画像を表示する。
The output light of the optical prism 415 and the input light of the optical prism 417 coincide with the optical axis of the observer's pupil, the CCD 416 captures a real space image of the observer's viewpoint position and orientation, and the color liquid crystal display 414 Then, a mixed reality space image obtained by combining the real space image acquired by the CCD 416 and the virtual space image generated according to the viewpoint position and orientation of the observer calculated by the position and orientation sensor
421〜425はHMD400を頭部に装着するための構成部材である。HMD400を頭部に装着するには、まず、アジャスタ422で長さ調整部423を緩めた状態で頭にかぶる。そして、額装着部425を額に密着させてから側頭装着部421と後頭装着部424をそれぞれ側頭部と後頭部に密着させるようにアジャスタ422で長さ調整部423を絞める。また、426はカラー液晶ディスプレイ414、CCD416および位置姿勢センサ受信機320のための電源および信号線をまとめたものである。
421 to 425 are constituent members for mounting the
(位置姿勢センサ)
次に、位置姿勢センサにおける観察者の視点位置、姿勢の計測原理について説明する。図5に示されているように、センサ系(位置姿勢取得装置)は位置姿勢センサ本体300、位置姿勢センサ発信機310および位置姿勢センサ受信機320により構成されている。
(Position and orientation sensor)
Next, the principle of measuring the viewpoint position and orientation of the observer in the position and orientation sensor will be described. As shown in FIG. 5, the sensor system (position and orientation acquisition apparatus) includes a position and orientation sensor
位置姿勢センサ受信機320および位置姿勢センサ発信機310は位置姿勢センサ本体300に接続されている。位置姿勢センサ発信機310からは磁気信号が発信されており、位置姿勢センサ受信機320がこの磁気信号を受信する。位置姿勢センサ本体300は、位置姿勢センサ受信機320が受信した磁気信号の強度から位置姿勢センサ受信機320の位置および姿勢を公知の技術を用いて算出する。
The position and
ここで算出された位置姿勢は位置姿勢センサ発信機310の座標軸に対する値であるため、算出した結果は観察者用画像処理装置に送られ、ここで座標軸200における観察者100の視点位置および視線方向に変換される。変換についての詳細な手順は本発明の趣旨とは外れるためここでは説明しないが、変換のためのパラメータは予め測定され、位置姿勢取得プログラムが利用できるような形で観察者用画像処理装置に記録されているものとする。
Since the calculated position / orientation is a value with respect to the coordinate axis of the position /
なお、本実施形態では位置姿勢取得装置として米国Polhemus社製の「FASTRAK」や米国Ascension Technology社製の「Flock of Birds」などを利用することを想定しているが、これに限定されるものではなく、他の市販されている超音波式位置姿勢センサや光学式位置姿勢センサも利用することができる。 In this embodiment, it is assumed that the position / orientation acquisition device uses “FASTRAK” manufactured by Polhemus, Inc. or “Flock of Birds” manufactured by US Ascension Technology, but is not limited thereto. Other commercially available ultrasonic position and orientation sensors and optical position and orientation sensors can also be used.
位置センサ系300、310および320を利用することで、観察者100は視点位置および視線方向を自由に変更し、それに応じた複合現実空間画像をHMD400を介して観察することができる。
By using the
次に、観察者画像処理装置、客観画像処理装置および複合現実空間管理装置の構成について詳細に説明する。 Next, configurations of the observer image processing device, the objective image processing device, and the mixed reality space management device will be described in detail.
(観察者画像処理装置)
図5は、本実施例における観察者一人分の複合現実空間画像を生成する観察者画像処理装置システムおよびHMD400の基本構成を示すブロック図であり、同図の構成はPC110、HMD400、モニタ140、および位置センサ系300、310、320に大別できる。
(Observer image processing device)
FIG. 5 is a block diagram showing a basic configuration of an observer image processing apparatus system and an
PC110は、キャプチャカード132、グラフィックカード130、シリアルインターフェース126、HDD123、CPU121、メモリ122、キーボード124、マウス125、およびネットワークインターフェース127により構成されている。
The
また、キャプチャカード132は、PC110とHMD400のCCD416とを接続するためのインターフェースとして機能し、CCD416により撮像された各フレームの現実空間の画像はキャプチャカード132を介してメモリ122に転送される。
Further, the
さらに、グラフィックカード130は、PC110および動作するプログラムと連携して上記仮想物体の画像である3次元コンピュータグラフィックス(3DCG)を生成し、表示する機能を有している。
Further, the
また、HDD123は、PC110全体の制御を行うためのプログラム(複合現実空間画像生成プログラム、位置姿勢取得プログラムなど)やデータ(複合現実空間管理情報、複合現実空間の時間経過に従った状態を記述したシナリオ、仮想空間物体の形状データ、位置姿勢の変換パラメータなど)を保存しており、これらのプログラムやデータは必要に応じてCPU121によりメモリ122にロードされる。
Also, the
さらに、CPU121は、メモリ122にロードされたプログラムを実行したりメモリ122にロードされたデータを参照することで、PC110の各部の制御を行う。また、CPU121は、複合現実空間画像を生成したり、PC110全体の制御を行うことができる。なお、メモリ122は読み書き可能なメモリであって、CPU121の実行対象であるHDD123からロードされたプログラムやその際に使用するデータを一時的に記憶するエリアを備えると共に、CPU121が各処理を行う際に用いるワークエリアも備えている。
Further, the CPU 121 controls each unit of the
メモリ122は、仮想空間画像と現実空間画像とが重畳された画像である複合現実空間画像を描画するためのエリアも勿論備えている。また、キーボード124およびマウス125はCPU121に対して各指示を入力するためのポインティングデバイスとして用いられる。例えば、これらポインティングデバイスは仮想物体の配置位置、仮想空間の状態設定などを入力するために用いられる。
The memory 122 also includes an area for drawing a mixed reality space image that is an image in which a virtual space image and a real space image are superimposed. The keyboard 124 and the
上述したように、キャプチャカード132にはCCD416が接続されており、このCCD416は現実空間の動画像を撮像し、撮像した各フレームの画像をキャプチャカード132を介してメモリ122に出力する。
As described above, the CCD 416 is connected to the
また、上述したようにグラフィックカード130にはカラーLCD414およびモニタ140が接続されており、グラフィックカード130により生成された3DCGを表示すると共に、それに重畳されたCCD416により撮像された現実空間の動画像も表示する。すなわち、これら表示手段は複合現実空間画像を表示するものである。さらに、カラーLCD414とモニタ140は、複合現実空間画像だけでなく、PC110を操作する際に必要な情報(システムメッセージ、システムの設定画面など)をも表示する。
Further, as described above, the color LCD 414 and the
シリアルインターフェース126には位置姿勢センサ本体300が接続されている。位置姿勢センサ本体300は、位置姿勢センサ送信機310と観察者が頭部に装着しているHMD400に内蔵されている位置姿勢センサ受信機320とにより得られる磁気信号の強度に基づいて求めた位置姿勢センサ受信機320の位置および姿勢を、シリアルインターフェース126を介してPC110に送る。
A position / orientation sensor
PC110は送られた位置姿勢センサ受信機320の位置姿勢を、座標軸200における位置姿勢に変換して、その他後述するデータと共に所定のフォーマットで複合現実空間管理装置のPC115に送信する。
The
(客観画像処理装置)
次に、客観画像処理装置について説明する。図6は本実施例における客観画像処理装置システムの基本構成を示すとともに、客観画像処理装置システムから複合現実画像を紙媒体出力するための機器との関係を示すブロック図である。なお図6において、図5に示す構成要素と同じ要素については同じ番号を付けており、その説明を省略する。
(Objective image processing device)
Next, the objective image processing apparatus will be described. FIG. 6 is a block diagram showing a basic configuration of the objective image processing apparatus system according to the present embodiment and a relationship with a device for outputting a mixed reality image from the objective image processing apparatus system on a paper medium. In FIG. 6, the same components as those shown in FIG. 5 are denoted by the same reference numerals, and the description thereof is omitted.
図6のPC117の基本構成は図5に示すPC110とほぼ同じであるが、シリアルインターフェース126にはプリンタ170とシャッタスイッチ180が接続されている点が相違する。
The basic configuration of the
プリンタ170は、シャッタスイッチ180が押されたタイミングで、PC117がメモリ122上に展開した複合現実空間画像データを紙媒体に印刷する。
The
(複合現実空間管理装置)
次に、複合現実空間装置について説明する。図1に示すように、複合現実空間管理装置はネットワークインターフェースを有するPC145のみで構成されている。なお、PC145の内部構成はPC117とほぼ同じであるため、ここではその説明を省略する。
(Mixed reality space management device)
Next, the mixed reality space device will be described. As shown in FIG. 1, the mixed reality space management apparatus is configured only by a
さらに、上記構成を備える客観画像処理装置、観察者画像処理装置、および複合現実空間管理装置で実行される位置姿勢取得プログラム、複合現実空間管理プログラム、および複合現実空間画像生成プログラムに基づいて行われる処理について図7〜図9のフローチャートを用いてそれぞれ詳細に説明する。なお、全てのプログラムは並列プログラミング技術の一つであるスレッドを応用して作成されており、メインプログラムとそれによって作成されるスレッドは同時に動作する。 Further, it is performed based on a position and orientation acquisition program, a mixed reality space management program, and a mixed reality space image generation program executed by the objective image processing device, the observer image processing device, and the mixed reality space management device having the above-described configuration. The processing will be described in detail with reference to the flowcharts of FIGS. All programs are created by applying threads, which is one of parallel programming techniques, and the main program and threads created thereby operate simultaneously.
また、すべての処理装置にはシステム全体における装置の通し番号(装置番号)が予め設定されている。さらに客観画像処理装置、観察者画像処理装置には、関連する現実物体(カメラ、観察者)を識別する通し番号(ID番号)、現実画像撮像用カメラ(HMD400、ビデオカメラ160など)の種別(種別番号)や光学的特性などの情報(カメラパラメータ)そして観察者の物理的形状情報(バウンダリーボックスなど)が予め設定されており、プログラムはこれらの値を参照することが可能になっている。
In addition, serial numbers (device numbers) of devices in the entire system are set in advance for all the processing devices. Further, the objective image processing device and the observer image processing device include a serial number (ID number) for identifying a related real object (camera, observer), and a type (type of type) of a real image capturing camera (HMD400,
(位置姿勢取得プログラム)
まず、位置姿勢取得プログラムを実行することによって行われる処理について図7のフローチャートを用いて説明する。
(Position and orientation acquisition program)
First, processing performed by executing the position / orientation acquisition program will be described with reference to the flowchart of FIG.
観察者用画像処理装置におけるPC110で位置姿勢取得プログラムが開始されると、まず位置センサ計測値受信スレッドが作成される。位置センサ計測値受信スレッドは、シリアルインターフェースを経由して位置センサ系からの計測値の受信とメインプログラムへの送信を繰り返し行う(S750)。
When the position / orientation acquisition program is started on the
メインプログラムはこの計測値を受信し(S700)、座標軸200(世界座標系)における視点位置および姿勢に変換し(S702)、ネットワーク190を介して複合現実空間管理プログラムに送信し(S704)、その後操作を終了させる処理を行う(S706)。 The main program receives this measurement value (S700), converts it into a viewpoint position and orientation on the coordinate axis 200 (world coordinate system) (S702), sends it to the mixed reality space management program via the network 190 (S704), and then Processing for terminating the operation is performed (S706).
さらに、客観画像処理装置におけるPC117で位置姿勢取得プログラムが開始されると、観察者用画像処理装置で開始したのと同様に位置センサ計測値受信スレッドが作成される。
Further, when the position / orientation acquisition program is started on the
位置センサ計測値受信スレッドは、シリアルインターフェースを経由して位置センサ系からの計測値の受信を行おうとするが、客観画像処理装置には位置センサ系が接続されていないので、予めプログラムに設定されているビデオカメラ160の位置姿勢(固定値)を定期的にメインプログラムへ送信することを繰り返し行う(S750)。 The position sensor measurement value reception thread tries to receive measurement values from the position sensor system via the serial interface, but since the position sensor system is not connected to the objective image processing apparatus, it is set in the program in advance. The transmission / reception of the video camera 160 (fixed value) is periodically transmitted to the main program (S750).
メインプログラムはこの計測値を受信し(S700)、座標軸200(世界座標系)における視点位置および姿勢に変換し(S702)、ネットワーク190を介して複合現実空間管理プログラムに送信し(S704)、その後操作を終了させる処理を行う(S706)。 The main program receives this measurement value (S700), converts it into a viewpoint position and orientation on the coordinate axis 200 (world coordinate system) (S702), sends it to the mixed reality space management program via the network 190 (S704), and then Processing for terminating the operation is performed (S706).
以上のようにして、全ての位置姿勢取得プログラムは観察者の視点位置姿勢もしくは固定設置カメラの視点位置姿勢を複合現実空間管理プログラムに送信する。 As described above, all the position / orientation acquisition programs transmit the observer's viewpoint position / orientation or the viewpoint position / orientation of the fixed installation camera to the mixed reality space management program.
(複合現実空間管理プログラム)
次に、複合現実空間管理プログラムを実行することで行われる処理について、図8のフローチャートを用いて説明する。
(Mixed reality space management program)
Next, processing performed by executing the mixed reality space management program will be described with reference to the flowchart of FIG.
複合現実空間管理装置におけるPC115で複合現実空間管理プログラムが開始されると、まず位置姿勢取得スレッドが作成される。位置姿勢取得スレッドは全ての位置姿勢取得プログラムから送信される観察者の視点位置姿勢もしくはビデオカメラの視点位置姿勢(現実空間状態情報)を受信して、メインプログラムへの送信を繰り返し行う(S850)。 When the mixed reality space management program is started on the PC 115 in the mixed reality space management apparatus, a position and orientation acquisition thread is first created. The position / orientation acquisition thread receives the observer's viewpoint position / orientation or the video camera's viewpoint position / orientation (real space state information) transmitted from all the position / orientation acquisition programs, and repeats transmission to the main program (S850). .
メインプログラムは視点位置姿勢値を受信し(S800)、予め定められた時間dtが経過するのを待った後(S802)、管理している仮想空間の時間をdtだけ進め(S804)、それとともに予めHDD123に記憶されたシナリオと経過された時間に従って、仮想空間物体の位置および姿勢と状態(仮想空間状態情報)を更新する(S805)。
The main program receives the viewpoint position / posture value (S800), waits for a predetermined time dt to elapse (S802), advances the time of the managed virtual space by dt (S804), and previously According to the scenario stored in the
続いて、仮想空間物体と現実空間物体(観察者の視点位置および姿勢)がシナリオにおいて特別な関係となっているか判断し(S806)、もしそうなっていればシナリオに従って仮想空間物体の位置および姿勢と状態(仮想空間状態情報)をS805と同様に再度更新する(S808)。以上のように更新された複合現実空間状態情報(現実空間状態情報と仮想空間状態情報)を、ネットワーク190を介して全ての動作している複合現実空間画像生成プログラムに送信し(S810)、その後操作を終了させる処理を行う(S812)。 Subsequently, it is determined whether the virtual space object and the real space object (observer's viewpoint position and orientation) have a special relationship in the scenario (S806). If so, the position and orientation of the virtual space object are determined according to the scenario. And the state (virtual space state information) are updated again in the same manner as in S805 (S808). The mixed reality space state information (real space state information and virtual space state information) updated as described above is transmitted to all operating mixed reality space image generation programs via the network 190 (S810). Processing to end the operation is performed (S812).
以上のようにして、複合現実空間管理プログラムは複合現実空間情報を予め用意されたシナリオに従って統一的に管理更新して、全ての複合現実空間画像生成プログラムに送信する。 As described above, the mixed reality space management program uniformly manages and updates the mixed reality space information according to a scenario prepared in advance, and transmits it to all the mixed reality space image generation programs.
(複合現実空間画像生成プログラム)
次に、複合現実空間画像生成プログラムを実行することで行われる処理について、図9のフローチャートを用いて説明する。
(Mixed reality space image generation program)
Next, processing performed by executing the mixed reality space image generation program will be described with reference to the flowchart of FIG.
観察者画像処理装置におけるPC110で複合現実空間画像生成プログラムが開始されると、まず映像キャプチャスレッドと画像出力スレッドが作成される。
When the mixed reality space image generation program is started on the
映像キャプチャスレッドは、HMD400のCCD116によって撮像された現実空間画像を、ビデオキャプチャカード132を経由して、継続的に取得してメインプログラムに送信し続ける。
The video capture thread continuously acquires the real space image captured by the CCD 116 of the
画像出力スレッドは、シャッタスイッチ180の操作に応じて複合現実感画像をプリンタ170から出力するプログラムである。本実施例の観察者画像処理装置においてはプリンタ170およびシャッタスイッチ180が接続されていないため、画像出力スレッドは何も処理を行わない。
The image output thread is a program that outputs a mixed reality image from the
仮想空間管理プログラムから通知された複合現実空間状態を受信すると(S902)、受信された仮想空間物体の位置姿勢そして状態と、HDD123からメモリ122にロードされた3DCGのデータを用いて仮想空間画像を生成してメモリ122上に描画する(S904)。これを第一の方法という。
When the mixed reality space state notified from the virtual space management program is received (S902), a virtual space image is generated using the received position and orientation and state of the virtual space object and 3DCG data loaded from the
没入感のある複合現実空間映像を観察者に提示するため、生成される仮想空間画像が画像単体の静止画としては、実写と異なっていかにも3DCGであることが観察者にわかる程度の品質であったとしても、連続的に生成される一連の複合現実感画像が動画として観察者に認識され、仮想空間物体が現実空間物体であるかのごとく複合現実空間中を自律的に生き生きと動いているように感じさせることが重要である。したがって、ここでの仮想空間画像の生成処理では、静止画としては現実感が乏しくとも15〜40msec程度の短時間で処理が完了することが求められる。これが達成されるのであれば方法には特に制限はない。 In order to present an immersive mixed reality space image to the viewer, the generated virtual space image has a quality sufficient to allow the viewer to understand that the still image of the image alone is 3DCG, even if it is different from the actual image. Even so, a series of continuously generated mixed reality images are recognized by the observer as moving images, and autonomously moving lively in the mixed reality space as if the virtual space object is a real space object. It is important to make it feel like this. Therefore, in the virtual space image generation processing here, the processing is required to be completed in a short time of about 15 to 40 msec even if the still image is not realistic. There is no particular limitation on the method as long as this is achieved.
続いて、前述した映像キャプチャスレッドから送信されてくる現実空間画像をメモリ122上に描画した後(S906)、先に生成した仮想空間画像をこれに重畳して得られた複合現実空間画像を同じくメモリ122上に描画する。この複合現実空間画像は、グラフィックボード130を経由してHMD400とモニタ140に出力される(S908)。
Subsequently, after rendering the real space image transmitted from the above-described video capture thread on the memory 122 (S906), the mixed real space image obtained by superimposing the previously generated virtual space image is similarly used. Drawing on the memory 122. The mixed reality space image is output to the
以上の処理を繰り返し行うことによって、連続した複合現実空間画像、すなわち複合現実空間映像を観察者に提示することが可能となる。 By repeating the above processing, a continuous mixed reality space image, that is, a mixed reality space image can be presented to the observer.
なお、S910以降の処理および画像出力スレッドの処理は、プリンタ170およびシャッタスイッチ180が接続されていない観察者画像処理装置においては実行されない。よって、これらについての詳細な説明は客観視点用画像処理装置における複合現実空間画像生成プログラムの説明で行うことにする。
Note that the processing after S910 and the processing of the image output thread are not executed in the observer image processing apparatus to which the
次に、客観画像処理装置システムにおけるPC112が複合現実空間画像生成プログラムを実行することによって行う処理について、同処理のフローチャートを示す図9を用いて説明する。 Next, processing performed by the PC 112 in the objective image processing apparatus system by executing the mixed reality space image generation program will be described with reference to FIG. 9 showing a flowchart of the processing.
客観視点用画像処理装置におけるPC117で複合現実空間画像生成プログラムが開始されると、まず映像キャプチャスレッドと画像出力スレッドが作成される。
When the mixed reality space image generation program is started on the
映像キャプチャスレッドは、ビデオカメラ160によって撮像された現実空間画像を、ビデオキャプチャカード132を経由して継続的に取得してメインプログラムに送信し続ける(S970)。
The video capture thread continuously acquires the real space image captured by the
画像出力スレッドは、シャッタスイッチ180の操作に応じて複合現実感画像をプリンタ170から出力するプログラムである。画像出力スレッドはメインプログラムからシャッタイベントが発生されるまで待ち続け、それが発生されると複合現実感画像をプリンタ170から出力する(S950)。
The image output thread is a program that outputs a mixed reality image from the
ステップS902〜S908およびS970の処理は、前述した観察者画像処理装置におけるPC110の複合現実空間画像生成プログラムと同様であり、これらの処理を繰り返し行うことによって、観察者に連続した複合現実空間画像、すなわち複合現実空間映像を提示することが可能となる。ただし、客観視点用画像処理装置におけるPC117にはプリンタ170およびシャッタスイッチ180が接続されており、以下の処理が実行される。
The processes in steps S902 to S908 and S970 are the same as the mixed reality space image generation program of the
複合現実空間画像を生成し、表示した後(S908)、シャッタスイッチ180の操作の有無を判定し(S910)、操作があった場合はシャッタイベントを発生し(S912)、その後操作を終了させる処理を行う(S914)。ここで、イベントとは本プログラム内で管理されるスレッドへの通信手段をいう。
After the mixed reality space image is generated and displayed (S908), it is determined whether or not the
シャッタイベントが発生すると、画像出力スレッド(S950)は動作を再開し(S952)、受信された仮想空間物体の位置姿勢と状態と、HDD123からメモリ122にロードされた3DCGのデータを用いてプリンタ170に出力するための仮想空間画像を生成してメモリ122上に描画する(S954)。これを第二の方法という。
When the shutter event occurs, the image output thread (S950) resumes operation (S952), and the
ステップS904においては、静止画としては現実感が乏しくとも短時間で処理が完了するような方法で仮想空間画像の生成を行ったが、ここでは逆に、比較的時間がかかっても静止画として3DCGが実写と融合しており、現実感が豊かに感じられるような仮想空間画像を生成する(S904とは別の)方法で仮想物体画像の生成を行うことが必要となる。 In step S904, the virtual space image is generated in such a way that the processing can be completed in a short time even if the sense of reality is poor as a still image. It is necessary to generate a virtual object image by a method (different from S904) that generates a virtual space image in which 3DCG is fused with a live-action image and a sense of reality is abundant.
例えば、レイトレーシングやラジオシティに代表されるような光の反射による影響の計算を詳細に行う方法、数値精度のビット数を増やして計算を行う方法、仮想空間画像の縦横ピクセルサイズをプリンタ170の解像度とプリントサイズとの積の範囲内における任意の値で計算を行う方法などの様々な方法が考えられる。
For example, a method for calculating in detail the effect of light reflection such as ray tracing and radiosity, a method for calculating by increasing the number of bits of numerical accuracy, and a vertical and horizontal pixel size of the virtual space image are set to the
このようにして生成された仮想空間画像をS906で取得した現実空間画像と重畳する(S956)。ここで、前述した生成方法によって、仮想現実空間画像と現実空間画像との縦横ピクセルサイズが異なった場合には、既知の補間技術を用いてピクセルサイズの小さい画像を大きな画像のピクセルサイズになるように拡大してやればよい。そして最後に、生成された複合現実空間画像をプリンタ170に送信する(S958)。 The virtual space image generated in this way is superimposed on the real space image acquired in S906 (S956). Here, when the vertical and horizontal pixel sizes of the virtual reality space image and the real space image differ according to the generation method described above, an image with a small pixel size is changed to the pixel size of a large image using a known interpolation technique. You should expand to. Finally, the generated mixed reality space image is transmitted to the printer 170 (S958).
画像出力スレッドとメインプログラムは並列して動作するため、印刷出力用の複合現実空間画像の生成に時間がかかっても、ステップS902〜S914の処理は中断されること無く繰り返し実行され続け、モニタ147には複合現実空間画像の表示が行われ続ける。よって複合現実空間の体験を損ねることなく、高画質な複合現実空間画像の印刷出力を得ることが可能となる。
Since the image output thread and the main program operate in parallel, even if it takes time to generate a mixed reality space image for print output, the processing in steps S902 to S914 continues to be executed without interruption, and the
(複合現実空間画像例)
次に、複合現実空間画像の例について説明する。図10および図11はそれぞれ、S908で合成されモニタやHMDに表示される複合現実空間画像の例、およびS956で合成されプリンタ170から出力される複合現実空間画像のイメージ例を示す。いずれも同時刻、同視点および視線方向における複合現実画像であるが、プリンタ170から出力される複合現実空間画像はより現実物体と融合感のある高品質な画像であることが分かる。
(Example of mixed reality space image)
Next, an example of a mixed reality space image will be described. 10 and 11 respectively show an example of a mixed reality space image synthesized in S908 and displayed on a monitor or HMD, and an example of a mixed reality space image synthesized in S956 and output from the
以上の説明により、本実施形態におけるシステムによって、観察者が複合現実空間を体験している様子を撮像した複合現実空間画像を、システムの性能に影響なく高品質で紙媒体やOHPなどの記録媒体に出力できることが理解される。 As described above, the mixed reality space image obtained by imaging the state in which the observer is experiencing the mixed reality space by the system according to the present embodiment is recorded in a high-quality recording medium such as a paper medium or an OHP without affecting the performance of the system. It is understood that it can be output to.
なお、本実施例では、表示用の仮想空間画像の生成、印刷出力用の仮想空間画像を生成のための生成方法を夫々別のものを使うことで印刷出力の高品質を実現したが、表示用と印刷出力用に夫々別のデータを使うことで印刷出力の高品質化を実現しても勿論よい。 In the present embodiment, high-quality print output is realized by using different generation methods for generating a virtual space image for display and a virtual space image for print output. Needless to say, the quality of the print output can be improved by using different data for print and print output.
具体的には、同じ仮想物体に対してポリゴン数の多いモデルデータやテクスチャデータがより詳細なデータをHDD123に予め格納しておき、それをS906とS954での処理において切り替えて利用することで同様の効果を得られるようにしてもよい。さらには、生成方法とデータの両方を併用して高品質化を行ってもよい。
Specifically, model data and texture data with a large number of polygons for the same virtual object are stored in advance in the
本実施例では、撮像装置から見て仮想空間物体が観察者の上に重畳した場合に、その仮想空間物体を複合現実空間から除去して複合現実空間画像を生成する場合について説明する。 In the present embodiment, a case will be described in which when a virtual space object is superimposed on an observer as viewed from the imaging apparatus, the virtual space object is removed from the mixed reality space to generate a mixed reality space image.
(位置姿勢取得プログラム)
まず、位置姿勢取得プログラムを観察者用画像処理装置、客観画像処理装置で実行することで行われる処理について、図12のフローチャートを用いて説明する。
(Position and orientation acquisition program)
First, processing performed by executing the position / orientation acquisition program by the observer image processing apparatus and the objective image processing apparatus will be described with reference to the flowchart of FIG.
観察者用画像処理装置におけるPC110で位置姿勢取得プログラムが開始されると、まず位置センサ計測値受信スレッドが作成される。
When the position / orientation acquisition program is started on the
位置センサ計測値受信スレッドはシリアルインターフェースを経由して位置センサ系からの計測値の受信とメインプログラムへの送信を繰り返し行う(S1750)。メインプログラムはこの計測値を受信し(S1700)、それを座標軸200(世界座標系)における視点位置および姿勢に変換する(S1702)。変換値は、物体種別番号、装置番号、ID番号、種別番号、付加情報とともに、メモリ122に作成される複合現実物体テーブル(撮像装置情報)のひとつのエントリとして記憶される(S1706)。 The position sensor measurement value reception thread repeatedly receives the measurement value from the position sensor system and transmits it to the main program via the serial interface (S1750). The main program receives this measurement value (S1700), and converts it into a viewpoint position and orientation on the coordinate axis 200 (world coordinate system) (S1702). The converted value is stored as one entry of the mixed reality object table (imaging device information) created in the memory 122 together with the object type number, device number, ID number, type number, and additional information (S1706).
図20は複合現実物体テーブルを示す図である。複合現実物体テーブルは複数のエントリからなり、一つ一つのエントリは物体種別番号、装置番号、ID番号、種別番号、位置および姿勢、付加情報の6つのフィールドで構成される。 FIG. 20 shows a mixed reality object table. The mixed reality object table includes a plurality of entries, and each entry includes six fields of an object type number, a device number, an ID number, a type number, a position and orientation, and additional information.
ステップS1706で追加されるエントリの具体的な内容を図21に示す。物体種別番号は現実物体を現す「0」となる。装置番号、ID番号はPC110に予め設定されている値が読み出されて記憶される。種別番号は観察者用カメラを現す「0」となる。続いて、S1702で変換された観察者の右目における視点位置および視線方向が記憶される。そして最後に付加情報が続く。付加情報とは物体種別番号、種別番号に応じた特別の情報で、観察者用カメラの場合は現実画像撮像用カメラの撮像可能範囲を定義する視錐台を構成する値(カメラパラメータ)が記憶される。具体的には、図17におけるθ、far、near、w、hなどの値である。
Specific contents of the entry added in step S1706 are shown in FIG. The object type number is “0” representing a real object. As the device number and ID number, values preset in the
次に、種別番号が観察者用カメラであるか調べ(S1710)、観察者用カメラである場合は、先に計算された観察者の視点位置および視線方向から観察者の中心位置および姿勢を計算する(S1712)。ここで、観察者の中心位置とは任意に設定される位置である。例えば頭部の中心付近でもよいし、鳩尾付近でもよい。観察者の中心位置が求まったら、その他のデータと共に複合現実物体テーブルのひとつのエントリとして記憶される(S1714)。 Next, it is checked whether the type number is an observer camera (S1710). If the type number is an observer camera, the center position and orientation of the observer are calculated from the previously calculated viewpoint position and line-of-sight direction of the observer. (S1712). Here, the center position of the observer is a position set arbitrarily. For example, it may be near the center of the head or near the pigeon tail. When the center position of the observer is obtained, it is stored as one entry in the mixed reality object table together with other data (S1714).
ここで作成されるエントリの具体的な内容を図22に示す。物体種別番号は現実物体を現す「0」となる。装置番号、ID番号はPC110に予め設定されている値が読み出されて記憶される。種別番号は観察者自身を現す「2」となる。続いて、S1712で計算された観察者の中心位置および姿勢が記憶される。そして最後に付加情報が続く。観察者の場合は観察者形状情報となる。具体的には、図18にあるように観察者100自身がすっぽりと入る円柱の半径r、高さhが記憶される。この円柱の中心Pは前述した観察者の中心位置であり、これらの情報によって複合現実空間中で観察者が仮想物体に接触しているかどうかが判定される。
The specific contents of the entry created here are shown in FIG. The object type number is “0” representing a real object. As the device number and ID number, values preset in the
以上のようにして複合現実感テーブルが作成される。そしてこのようにして作成された複合現実物体テーブルを、ネットワーク190を介して複合現実空間管理プログラムに送信する(S1716)。以上の処理を繰り返し行い、その後操作を終了させる処理を行う(S1718)。 A mixed reality table is created as described above. The mixed reality object table created in this way is transmitted to the mixed reality space management program via the network 190 (S1716). The above process is repeated, and then a process for terminating the operation is performed (S1718).
また、客観画像処理装置におけるPC117で位置姿勢取得プログラムが開始されると、観察者用画像処理装置で開始したのと同様に位置センサ計測値受信スレッドが作成される。
When the position / orientation acquisition program is started on the
位置センサ計測値受信スレッドは、シリアルインターフェースを経由して位置センサ系からの計測値の受信を行おうとするが、客観画像処理装置には位置センサ系が接続されていないので、ビデオカメラ160の位置姿勢を定期的にメインプログラムへ送信することを繰り返し行う(S1750)。この値は予め処理装置で設定されている固定値である。
The position sensor measurement value reception thread tries to receive measurement values from the position sensor system via the serial interface. However, since the position sensor system is not connected to the objective image processing apparatus, the position of the
以後、観察者用画像処理装置における位置姿勢取得プログラムの動作と同様の手順で図20に示される複合現実物体テーブルが作成される。 Thereafter, the mixed reality object table shown in FIG. 20 is created in the same procedure as the operation of the position / orientation acquisition program in the image processing apparatus for observers.
ここで作成されるエントリの具体的な内容を図23に示す。物体種別番号は現実物体を現す「0」となる。装置番号、ID番号はPC110に予め設定されている値が読み出されて記憶される。種別番号は客観用カメラを現す「1」となる。続いてS1702で変換されたビデオカメラ160における視点位置および視線方向が記憶される。そして最後に付加情報が続く。観察者用カメラの場合と同様に視錐台を構成する値が記憶される。
The concrete contents of the entry created here are shown in FIG. The object type number is “0” representing a real object. As the device number and ID number, values preset in the
このようにして作成された複合現実物体テーブルを、ネットワーク190を介して複合現実空間管理プログラムに送信する(S1716)。以上の処理を繰り返し行う。なお、ステップS1712およびS1714の処理は種別番号が客観用カメラであるため、実行されない。 The mixed reality object table created in this way is transmitted to the mixed reality space management program via the network 190 (S1716). The above process is repeated. Note that the processing in steps S1712 and S1714 is not executed because the type number is an objective camera.
以上のようにして、全ての位置姿勢取得プログラムは、複合現実物体テーブルの形で、撮像装置情報を複合現実空間管理プログラムに送信する。 As described above, all the position / orientation acquisition programs transmit the imaging device information to the mixed reality space management program in the form of a mixed reality object table.
(複合現実空間管理プログラム)
次に、複合現実空間管理プログラムを実行することで行われる処理について、図13のフローチャートを用いて説明する。
(Mixed reality space management program)
Next, processing performed by executing the mixed reality space management program will be described with reference to the flowchart of FIG.
複合現実空間管理装置におけるPC115で複合現実空間管理プログラムが開始されると、まず撮像装置情報取得スレッドが作成される。 When the mixed reality space management program is started on the PC 115 in the mixed reality space management device, an imaging device information acquisition thread is first created.
撮像装置情報取得スレッドは全ての位置姿勢取得プログラムから送信される複合現実物体テーブル(撮像装置情報)を受信して、メインプログラムへの送信を繰り返し行う(S1850)。 The imaging device information acquisition thread receives the mixed reality object table (imaging device information) transmitted from all the position and orientation acquisition programs, and repeatedly transmits to the main program (S1850).
メインプログラムは複合現実物体テーブルを受信し(S1800)、予め定められた時間dtが経過するのを待った後(S1806)、本プログラムが保持している複合現実物体テーブルの現実物体エントリ(物体種別番号が0のエントリ)について、先に受信した複合現実物体テーブルで更新を行う(S1808)。 The main program receives the mixed reality object table (S1800), waits for a predetermined time dt to elapse (S1806), and then enters a real object entry (object type number) in the mixed reality object table held by the program. Is updated with the previously received mixed reality object table (S1808).
次に、管理している仮想空間の時間をdtだけ進め(S1810)、それとともに予めHDD123に記憶されたシナリオを経過時間にしたがって進行させるとともに、全ての仮想空間物体の位置および姿勢と状態を更新する。続いて、これらの更新された仮想空間物体情報で、本プログラムが保持している複合現実物体テーブル内の仮想物体エントリ(物体種別番号が1のエントリ)について更新を行う(S1812)。
Next, the time of the managed virtual space is advanced by dt (S1810), and the scenario stored in advance in the
更新されるエントリの具体的な内容を図24に示す。物体種別番号は仮想物体を現す「1」となる。装置番号はPC115に予め設定されている値が読み出されて記憶される。ID番号は本プログラムが管理している仮想空間物体の通し番号である。種別番号は本プログラムが管理している仮想空間物体の種類を現す番号である。ここでは例としてサメを「0」、亀を「1」としている。位置および姿勢は、この仮想空間物体の中心位置および方向を現している。付加情報はこの仮想空間物体を表現するための情報が格納される。例えば仮想空間物体を表現するためのテクスチャデータ番号、仮想物体のステータスを表すデータであり、シナリオに応じて設定されているものとする。また、仮想物体が複合現実空間中で接触したかどうかを調べるための仮想物体自身がすっぽりと入る円柱の半径r’、高さh’もここに記憶される。前述した観察者と同様、円柱の中心は仮想物体の中心位置である。 The specific contents of the entry to be updated are shown in FIG. The object type number is “1” representing a virtual object. As the device number, a value preset in the PC 115 is read and stored. The ID number is a serial number of the virtual space object managed by this program. The type number is a number indicating the type of the virtual space object managed by this program. Here, as an example, shark is “0” and turtle is “1”. The position and orientation represent the center position and direction of the virtual space object. Additional information stores information for expressing the virtual space object. For example, it is assumed that the texture data number for representing the virtual space object and the data representing the status of the virtual object are set according to the scenario. Further, the radius r ′ and the height h ′ of the cylinder into which the virtual object itself for examining whether or not the virtual object has contacted in the mixed reality space are also stored. Similar to the observer described above, the center of the cylinder is the center position of the virtual object.
続いて、仮想空間物体と現実空間物体(観察者の視点位置および姿勢)がシナリオにおいて特別な関係となっているか判断し(S1814)、もしそうなっていればシナリオに従って仮想空間物体の位置および姿勢と状態(仮想空間状態情報)をS1812と同様に再度更新する(S1816)。この特別な状態とは例えば複合現実空間における仮想空間物体と現実物体(観察者)との衝突などをいう。 Subsequently, it is determined whether the virtual space object and the real space object (observer's viewpoint position and orientation) have a special relationship in the scenario (S1814). If so, the position and orientation of the virtual space object are determined according to the scenario. And the state (virtual space state information) are updated again in the same manner as in S1812 (S1816). This special state refers to, for example, a collision between a virtual space object and a real object (observer) in the mixed reality space.
以上のようにして複合現実空間の更新処理が実現される。 The mixed reality space update process is realized as described above.
続いて、撮像装置と観察者の間に仮想空間物体が存在する(重畳発生している)か否かを調べる処理が実行される。 Subsequently, a process for checking whether or not a virtual space object exists (overlaps) between the imaging device and the observer is executed.
重畳発生を示す情報として、本実施例では図25に示される物体関係テーブルを用いる。このテーブルにエントリが存在する場合、それは重畳が発生していることを表している。物体関係テーブルのエントリは図25に示されるように、客観カメラあるいは観察者カメラが接続されている装置の装置番号、客観カメラあるいは観察者カメラのID番号、観察者のID番号、仮想物体ID番号の4つのフィールドで構成されている。 In this embodiment, the object relation table shown in FIG. 25 is used as information indicating the occurrence of superposition. If an entry exists in this table, it indicates that superimposition has occurred. As shown in FIG. 25, the entry of the object relation table includes the device number of the device to which the objective camera or the observer camera is connected, the ID number of the objective camera or the observer camera, the ID number of the observer, and the virtual object ID number. It consists of four fields.
図26は具体的な物体関係テーブルのエントリの例を示している。図26における物体関係テーブルのエントリは、複合現実空間において、装置番号1でID番号1のカメラと、ID番号2の観察者との間にID番号6の仮想物体が存在していることを示している。
FIG. 26 shows an example of a specific object relation table entry. The entry in the object relation table in FIG. 26 indicates that a virtual object with ID number 6 exists between the camera with
まず、本プログラムが保持している物体関係テーブルを消去して、重畳発生を調べる準備を行う(S1828)。 First, the object relation table held by this program is deleted, and preparation for examining occurrence of superimposition is made (S1828).
次に、撮像装置が撮影する画像中に観察者が写っているかどうかを検出する。具体的には、前処理によって作成された複合現実物体テーブルのエントリから撮像装置エントリ(物体種別番号「1」、種別番号「0」または「1」であるエントリ)と、観察者エントリ(物体種別番号「1」、種別番号「2」であるエントリ)の全ての組み合わせを抽出し(S1830、S1832)、複合現実空間における撮像装置の視錐台と観察者が交差していないかを調べる(S1834)。なお、観察者は前述したように観察者中心位置と観察者エントリの付加情報から決定される円柱であるものとみなして計算が行われる。 Next, it is detected whether an observer is included in an image captured by the imaging apparatus. Specifically, from the entry of the mixed reality object table created by the preprocessing, the imaging device entry (entry with object type number “1”, type number “0” or “1”) and the observer entry (object type) All combinations of the entries having the number “1” and the type number “2”) are extracted (S1830, S1832), and it is checked whether or not the view frustum of the imaging device in the mixed reality space and the observer intersect (S1834). ). Note that, as described above, calculation is performed by assuming that the observer is a cylinder determined from the observer center position and the additional information of the observer entry.
もし、撮像装置の視錐台と観察者が交差している場合、続いて複合現実空間中においてこの撮像装置とこの観察者の間に仮想物体が存在しないかを調べる(S1836)。具体的には、前処理によって作成された複合現実物体テーブルのエントリから仮想物体エントリ(物体種別番号「0」であるエントリ)を抽出し、抽出された全ての仮想物体について、図19で示されるようなABCDを底面とする錐体E−ABCDとが交差していないか調べる(S1838)。ここで、ABCDは撮像装置の位置Eと観察者中心Pを通る直線を垂線とし、円柱と(接点Qで)接する平面mに対して、観察者エントリの情報から作られる半径r、高さhの円柱を、撮像装置の位置から写像した図形である。 If the viewing frustum of the imaging device and the observer intersect, then it is checked whether or not a virtual object exists between the imaging device and this observer in the mixed reality space (S1836). Specifically, a virtual object entry (an entry with an object type number “0”) is extracted from the mixed reality object table entry created by the preprocessing, and all the extracted virtual objects are shown in FIG. It is examined whether or not the cone E-ABCD whose bottom surface is ABCD is crossed (S1838). Here, ABCD has a straight line passing through the position E of the imaging device and the observer center P as a perpendicular line, and a radius r and a height h created from information of the observer entry with respect to a plane m in contact with the cylinder (at the contact point Q). Is a figure obtained by mapping the cylinder from the position of the imaging device.
交差している仮想物体が存在した場合は、仮想物体中心と平面mとの距離と線分PNとを比較する。そして両者を比較し、PNのほうが小さい場合、撮像装置から見た観察者がこの仮想物体により覆い隠されている(重畳発生)と判断する。重畳発生と判断された場合、撮像装置エントリの装置番号、ID番号、観察者エントリのID番号、仮想物体エントリのID番号から物体関係エントリを作成し、物体関係テーブルに追加する(S1840)。なお、ステップS1836、S1832およびS1830における処理を繰り返し、全ての撮像装置について上述の処理を行う(S1842、S1844、S1846)。 When there is an intersecting virtual object, the distance between the virtual object center and the plane m and the line segment PN are compared. Then, the two are compared, and when the PN is smaller, it is determined that the observer viewed from the imaging device is covered with this virtual object (overlapping occurs). If it is determined that superimposition has occurred, an object relationship entry is created from the device number of the imaging device entry, the ID number, the ID number of the observer entry, and the ID number of the virtual object entry, and is added to the object relationship table (S1840). Note that the processing in steps S1836, S1832, and S1830 is repeated, and the above-described processing is performed for all imaging devices (S1842, S1844, S1846).
作成された物体関係テーブルは複合現実物体テーブルとともに複合現実空間情報として、ネットワーク190を介して複合現実空間管理プログラムに送信される(S1848)。以上の一連の処理を繰り返し行い、その後操作を終了させる処理を行う(S1849)。
The created object relation table is transmitted to the mixed reality space management program via the
このようにして、複合現実空間管理プログラムは複合現実空間情報を予め用意されたシナリオに従って統一的に管理更新して、全ての複合現実空間画像生成プログラムに送信する。 In this way, the mixed reality space management program uniformly manages and updates the mixed reality space information in accordance with a prepared scenario, and transmits it to all the mixed reality space image generation programs.
(複合現実空間画像生成プログラム)
次に、複合現実空間画像生成プログラムを実行することで行われる処理について、図14のフローチャートを用いて説明する。
(Mixed reality space image generation program)
Next, processing performed by executing the mixed reality space image generation program will be described with reference to the flowchart of FIG.
観察者画像処理装置におけるPC110で複合現実空間画像生成プログラムが開始されると、まず映像キャプチャスレッドと画像出力スレッドが作成される。
When the mixed reality space image generation program is started on the
映像キャプチャスレッドは、HMD400のCCD116によって撮像された現実空間画像を、ビデオキャプチャカード132を経由して、継続的に取得してメインプログラムに送信し続ける。
The video capture thread continuously acquires the real space image captured by the CCD 116 of the
画像出力スレッドは、シャッタスイッチ180の操作に応じて複合現実感画像をプリンタ170から出力するプログラムである。本実施例における観察者画像処理装置においては、プリンタ170およびシャッタスイッチ180が接続されていないため、画像出力スレッドは何も処理を行わない。
The image output thread is a program that outputs a mixed reality image from the
仮想空間管理プログラムから通知された複合現実空間状態を受信すると(S1902)、受信された複合現実物体テーブルから仮想空間物体の位置姿勢そして状態を抽出し、HDD123からメモリ122にロードされた3DCGのデータを用いて仮想空間画像を生成してメモリ122上に描画する(S1904)。
When the mixed reality space state notified from the virtual space management program is received (S1902), the position and orientation and the state of the virtual space object are extracted from the received mixed reality object table, and the 3DCG data loaded from the
没入感のある複合現実空間映像を観察者に提示するため、生成される仮想空間画像が画像単体の静止画としては、実写と異なっていかにも3DCGであることが観察者にわかる程度の品質であったとしても、連続的に生成される一連の複合現実感画像が動画として観察者に認識され、仮想空間物体が現実空間物体であるかのごとく複合現実空間中を自律的に生き生きと動いているように感じさせることが重要である。したがって、ここでの仮想空間画像の生成処理では静止画としては現実感が乏しくとも15〜40msec程度の短時間で処理が完了することが求められる。これが達成されるのであれば、方法には特に制限はない。 In order to present an immersive mixed reality space image to the viewer, the generated virtual space image has a quality sufficient to allow the viewer to understand that the still image of the image alone is 3DCG, even if it is different from the actual image. Even so, a series of continuously generated mixed reality images are recognized by the observer as moving images, and autonomously moving lively in the mixed reality space as if the virtual space object is a real space object. It is important to make it feel like this. Therefore, in the virtual space image generation process here, it is required that the process be completed in a short time of about 15 to 40 msec even if the still image is not realistic. If this is achieved, the method is not particularly limited.
続いて、前述した映像キャプチャスレッドから送信されてくる現実空間画像(S1970)をメモリ122上に描画した後(S1906)、これに先に生成した仮想空間画像を重畳した複合現実空間画像を同じくメモリ122上に描画する。この複合現実空間画像はグラフィックボード130を経由してHMD400とモニタ140に出力される(S1908)。
Subsequently, after the real space image (S1970) transmitted from the video capture thread described above is rendered on the memory 122 (S1906), the mixed real space image on which the previously generated virtual space image is superimposed is also stored in the memory. Draw on 122. The mixed reality space image is output to the
以上の処理を繰り返し行うことによって、連続した複合現実空間画像、すなわち複合現実空間映像を観察者に提示することが可能となる。なおS1910以降の処理および画像出力スレッドの処理は、プリンタ170およびシャッタスイッチ180が接続されていない観察者画像処理装置においては実行されない。よって、それらの詳細な説明は客観視点用画像処理装置における複合現実空間画像生成プログラムの説明で行うことにする。
By repeating the above processing, a continuous mixed reality space image, that is, a mixed reality space image can be presented to the observer. Note that the processing after S1910 and the processing of the image output thread are not executed in the observer image processing apparatus to which the
次に、客観画像処理装置システムにおけるPC112が複合現実空間画像生成プログラムを実行することで行う処理について、同処理のフローチャートを示す図14を用いて説明する。 Next, processing performed by the PC 112 in the objective image processing apparatus system executing the mixed reality space image generation program will be described with reference to FIG. 14 showing a flowchart of the processing.
客観視点用画像処理装置におけるPC117で複合現実空間画像生成プログラムが開始されると、まず映像キャプチャスレッドと画像出力スレッドが作成される。
When the mixed reality space image generation program is started on the
映像キャプチャスレッドは、ビデオカメラ160によって撮像された現実空間画像を、ビデオキャプチャカード132を経由して、継続的に取得してメインプログラムに送信し続ける。
The video capture thread continuously acquires the real space image captured by the
画像出力スレッドはシャッタスイッチ180の操作に応じて複合現実感画像をプリンタ170から出力するプログラムである。画像出力スレッドはメインプログラムからシャッタイベントが発生されるまで待ち続け、発生されると複合現実感画像をプリンタ170から出力する。
The image output thread is a program that outputs a mixed reality image from the
なお、ステップS1902、S1904、S1906、S1908およびS1970の処理は、前述した図9の観察者画像処理装置におけるPC110の複合現実空間画像生成プログラムにおけるステップS902、S904、S906、S908およびS970とそれぞれ同様であり、これらの処理を繰り返し行うことによって、観察者に連続した複合現実空間画像、すなわち複合現実空間映像を提示することが可能となる。ただし、客観視点用画像処理装置におけるPC117にはプリンタ170、シャッタスイッチ180が接続されており以下の処理が実行される。
Note that the processing in steps S1902, S1904, S1906, S1908, and S1970 is the same as steps S902, S904, S906, S908, and S970 in the mixed reality space image generation program of the
複合現実空間画像を生成し表示した後(S1908)、シャッタスイッチ180の操作の有無を判定し(S1910)、操作があった場合にはシャッタイベントを発生する(S1912)。ここで、イベントとは本プログラム内で管理されるスレッドへの通信手段をいう。
After the mixed reality space image is generated and displayed (S1908), it is determined whether or not the
シャッタイベントが発生すると、画像出力スレッド(S1950)は動作を再開し(S1952)、受信された物体関係テーブルの全てのエントリについて以下の処理を行う。 When a shutter event occurs, the image output thread (S1950) resumes operation (S1952), and the following processing is performed for all entries in the received object relationship table.
本プログラムが動作している処理装置の装置番号と、エントリの第1フィールドとを比較し、もし同じであった場合(すなわち本プログラムが動作している処理装置に接続されている撮像装置が撮影した画像中の観察者について、重畳が発生している場合)はこのエントリに記載されている仮想空間物体を仮想空間から除外する(S1954、S1956、S1958)。具体的には、受信した複合現実物体テーブルから同じID番号を持つ仮想空間物体エントリを削除する。 The device number of the processing device on which this program is operating is compared with the first field of the entry, and if they are the same (that is, the imaging device connected to the processing device on which this program is operating takes a picture) For the observer in the image, the virtual space object described in this entry is excluded from the virtual space (S1954, S1956, S1958). Specifically, the virtual space object entry having the same ID number is deleted from the received mixed reality object table.
以上のように処理した後、複合現実物体テーブルから仮想空間物体の位置姿勢そして状態を抽出し(S1959)、HDD123からメモリ122にロードされた3DCGのデータを用いてプリンタ170に出力するための仮想空間画像を生成してメモリ122上に描画する(S1960)。このようにして生成された仮想空間画像をS1906で取得した現実空間画像と重畳する(S1962)。ここで、前述した生成方法によって仮想現実空間画像と現実空間画像との縦横ピクセルサイズが異なることとなった場合は、既知の補間技術を用いてピクセルサイズの小さい画像を大きな画像のピクセルサイズになるように拡大してやればよい。そして、最終的に生成された複合現実空間画像をプリンタ170に送信する(S1964)。
After processing as described above, the position and orientation and state of the virtual space object are extracted from the mixed reality object table (S1959), and the virtual object for output to the
なお、複合現実空間画像を生成し表示した後(S1908)、シャッタスイッチ180の操作の有無を判定し(S1910)、操作があった場合にはシャッタイベントを発生し(S1912)、その後操作を終了させる処理を行う(S1914)。
After the mixed reality space image is generated and displayed (S1908), it is determined whether or not the
(複合現実空間画像例)
次に、本実施例における複合現実空間の例について説明する。図15および図16は、S1908で合成されモニタやHMDに表示される複合現実空間画像の例と、S1964で合成されプリンタ170から出力される複合現実空間画像のイメージ例をそれぞれ示す図である。なお理解を容易にするため円柱を図示したが、これは実際の出力画像には表示されない。
(Example of mixed reality space image)
Next, an example of the mixed reality space in the present embodiment will be described. FIGS. 15 and 16 are diagrams illustrating an example of a mixed reality space image synthesized in S1908 and displayed on a monitor or an HMD, and an example of a mixed reality space image synthesized in S1964 and output from the
いずれも同時刻、同視点および視線方向における複合現実画像であるが、プリンタ170から出力される複合現実空間画像では観察者の前を覆ってしまう仮想物体が存在せず、観察者の顔がはっきりと確認できる画像となっている。
All are mixed reality images at the same time, the same viewpoint, and the line-of-sight direction. However, in the mixed reality space image output from the
以上の説明により、本実施形態におけるシステムによって、観察者が複合現実空間を体験している様子を写した複合現実空間画像において、不意に撮像装置前を横切った仮想物体で観察者が覆い隠されてしまうのを防げることが理解される。また、システムの性能に影響なく、高品質で紙媒体やOHPなどの記録媒体に出力できることが理解される。 As described above, in the mixed reality space image in which the observer is experiencing the mixed reality space, the viewer is unexpectedly obscured by the virtual object that has crossed in front of the imaging device. It is understood that it can be prevented. In addition, it is understood that the output can be performed on a recording medium such as a paper medium or an OHP with high quality without affecting the performance of the system.
なお本実施例では、観察者と仮想物体の接触判定に円柱という単純な立体を用いて計算を行ったが、処理装置の能力が高ければより複雑な形状を定義して接触判定してもよい。また観察者の中心位置や円柱の半径r、高さhを自由に設定することで、観察者の頭部(顔)だけ仮想物体で覆われないように運用してもよい。 In this embodiment, the contact determination between the observer and the virtual object is performed using a simple solid body called a cylinder. However, if the processing apparatus has high capability, it may be determined by defining a more complicated shape. . Moreover, you may operate | move so that only an observer's head (face) may not be covered with a virtual object by setting the observer's center position, the radius r, and height h of a cylinder freely.
なお、画像出力スレッドとメインプログラムは並列して動作するため、印刷出力用の複合現実空間画像の生成に時間がかかっても、ステップS1902〜S1914の処理は中断されること無く繰り返し実行され続け、モニタ147には複合現実空間画像の表示が行われ続ける。これによって、複合現実空間の体験を損ねることなく、高画質な複合現実空間画像の印刷出力を得ることが可能となる。
Since the image output thread and the main program operate in parallel, even if it takes time to generate a mixed reality space image for print output, the processes in steps S1902 to S1914 are repeatedly executed without interruption, The
実施例3は、実施例2では撮像装置から見て仮想空間物体が観察者の上に重畳した場合に、その仮想空間物体を複合現実空間から除去して複合現実空間画像を生成するのに対し、重畳しない位置に仮想空間物体を移動して複合現実空間画像を生成する場合を示している。なお、基本構成は実施例2に準じ、処理の流れは複合現実空間管理プログラム、複合現実空間管理プログラムにおける一部の処理以外はほぼ実施例2と同一である。 In the second embodiment, in the second embodiment, when a virtual space object is superimposed on an observer as viewed from the imaging device, the virtual space object is removed from the mixed reality space to generate a mixed reality space image. The case where a virtual space object is moved to a position where it is not superimposed to generate a mixed reality space image is shown. The basic configuration is the same as that of the second embodiment, and the flow of processing is almost the same as that of the second embodiment except for some processes in the mixed reality space management program and the mixed reality space management program.
実施例3における複合現実空間管理プログラムの処理の流れを図27のフローチャートに示す。ここで、図27で示される「’」がついたステップ番号は、実施例2における同様のプログラム処理の流れを示す図13における同じステップ番号のステップの処理と同じ処理を行うステップである。なお、図27が図13と異なる点は、S1839の処理のみである。 The flow of processing of the mixed reality space management program in the third embodiment is shown in the flowchart of FIG. Here, the step number with “′” shown in FIG. 27 is a step for performing the same processing as the processing of the step with the same step number in FIG. 13 showing the flow of the same program processing in the second embodiment. Note that FIG. 27 differs from FIG. 13 only in the process of S1839.
ステップS1839は、撮像装置から見た観察者がこの仮想物体により覆い隠されている(重畳発生)と判断された場合に実行される処理を行う。重畳発生と判定する基準は実施例2同様に、撮像装置の視錐台と観察者が交差していて、図19で示されるようなABCDを底面とする錐体E−ABCDと仮想物体が交差しており、線分PNが仮想物体中心と平面mとの距離よりも小さかった場合となる。 In step S1839, processing that is executed when it is determined that the observer viewed from the imaging device is covered with the virtual object (overlap occurrence) is performed. As in the second embodiment, the criterion for determining the occurrence of superposition is that the viewing frustum of the imaging device and the observer intersect, and the cone E-ABCD whose bottom surface is ABCD and the virtual object as shown in FIG. 19 intersect. In this case, the line segment PN is smaller than the distance between the virtual object center and the plane m.
重畳発生と判断された場合、重畳が発生しない仮想物体の位置を計算し(S1839)、撮像装置エントリの装置番号、ID番号、観察者エントリのID番号、仮想物体エントリのID番号、計算された仮想物体位置から物体関係エントリを作成し、物体関係テーブルに追加する(S1840’)。なお物体関係テーブルは、図29で示されるように実施例2から、重畳が発生しない仮想物体位置を記録するフィールドが追加されている。 If it is determined that superimposition has occurred, the position of the virtual object at which superimposition does not occur is calculated (S1839), the device number of the imaging device entry, the ID number, the ID number of the observer entry, the ID number of the virtual object entry, and the calculated An object relation entry is created from the virtual object position and added to the object relation table (S1840 ′). In the object relation table, as shown in FIG. 29, a field for recording a virtual object position where superimposition does not occur is added from the second embodiment.
ステップS1839での計算について具体的に説明する。まず、重畳発生している仮想物体の中心P’を通り、錐体E−ABCDの4つの側面(△EAB、△EBC、△ECD、△EDA)が乗っている平面への垂線n1、n2、n3、n4と、これら垂線と各面との交点Q1、Q2、Q3、Q4を求める。そして4つの交点のうち仮想物体中心P’との距離が最小となるものを求め、この交点が存在する側面を面m’、垂線をn’とする。そして垂線n’上の点で、錐体の外側にあって面m’からの距離が The calculation in step S1839 will be specifically described. First, perpendicular lines n1, n2, to a plane passing through the center P ′ of the virtual object that is superimposed and on which the four side surfaces (ΔEAB, ΔEBC, ΔECD, ΔEDA) of the cone E-ABCD are placed, n3 and n4 and intersections Q1, Q2, Q3, and Q4 of these perpendicular lines and the respective surfaces are obtained. Then, among the four intersections, the one having the smallest distance from the virtual object center P ′ is obtained, and the side surface on which the intersection exists is the surface m ′ and the perpendicular is n ′. And at a point on the normal n ', the distance from the surface m' outside the cone is
となる点P’’をこの仮想物体の中心とする。 The point P ″ that becomes is the center of this virtual object.
ここで実施例2と同様にh’は仮想物体を囲う円柱の高さ、r’は仮想物体を囲う円柱の底面半径で、複合現実物体テーブルにおけるこの仮想物体を示すエントリの付加情報に記録されている。θは垂線n’と、仮想物体を囲う円柱の高さ方向の線分が作る角である。なお角θの範囲は0〜180°である。この点P’’を新たに仮想物体の中心とすると、仮想物体は錐体の外側で面m’に接するように位置するようになる。 Here, as in the second embodiment, h ′ is the height of the cylinder surrounding the virtual object, r ′ is the bottom radius of the cylinder surrounding the virtual object, and is recorded in the additional information of the entry indicating this virtual object in the mixed reality object table. ing. θ is an angle formed by the perpendicular line n ′ and a line segment in the height direction of the cylinder surrounding the virtual object. The range of the angle θ is 0 to 180 °. When this point P ″ is newly set as the center of the virtual object, the virtual object comes to be in contact with the surface m ′ outside the cone.
以上のようにして、重畳が発生した場合、重畳が発生しないような仮想空間物体の位置を計算し、物体関係テーブルとして複合現実空間画像生成プログラムに送信する。 As described above, when superimposition occurs, the position of the virtual space object that does not cause superimposition is calculated and transmitted to the mixed reality space image generation program as an object relation table.
次に、実施例3において客観画像処理装置システムにおけるPC112が複合現実空間画像生成プログラムを実行することで行う処理の流れを図28のフローチャートに示す。ここで、図28で示される「’」がついたステップ番号は、実施例2における同様のプログラム処理の流れを示す図14における同じステップ番号のステップの処理と同じ処理を行うステップである。なお、図28が図14と異なる点は、S1957の処理のみである。 Next, the flowchart of FIG. 28 shows the flow of processing performed by the PC 112 in the objective image processing apparatus system according to the third embodiment by executing the mixed reality space image generation program. Here, the step number with “′” shown in FIG. 28 is a step for performing the same processing as the processing of the step with the same step number in FIG. 14 showing the flow of similar program processing in the second embodiment. Note that FIG. 28 differs from FIG. 14 only in the process of S1957.
複合現実空間画像の生成、表示後、シャッタイベントが発生すると、画像出力スレッドは、受信された物体関係テーブルの全てのエントリについて以下の処理を行う。 When a shutter event occurs after the generation and display of the mixed reality space image, the image output thread performs the following processing for all entries in the received object relation table.
本プログラムが動作している処理装置の装置番号と、物体関係テーブルエントリの第1フィールドとを比較し、もし同じであった場合(すなわち本プログラムが動作している処理装置に接続されている撮像装置が撮影した画像中の観察者について、重畳が発生している場合)はこの物体関係テーブルエントリに記載されている仮想空間物体を、複合現実物体テーブルから見つけ、その複合現実物体テーブルエントリに記憶されている仮想物体の位置を物体関係テーブルエントリの第5フィールドに記憶されている値で更新する(S1957)。 The device number of the processing device on which this program is operating is compared with the first field of the object relation table entry, and if they are the same (that is, the imaging connected to the processing device on which this program is operating) If superimposition has occurred for the observer in the image captured by the apparatus), the virtual space object described in the object relation table entry is found from the mixed reality object table and stored in the mixed reality object table entry. The position of the virtual object being updated is updated with the value stored in the fifth field of the object relation table entry (S1957).
以上のように処理した後、複合現実物体テーブルから仮想空間物体の位置姿勢そして状態を抽出し、HDD123からメモリ122にロードされた3DCGのデータを用いてプリンタ170に出力するための仮想空間画像を生成してメモリ122上に描画する(S1960’)。
After processing as described above, the position and orientation and the state of the virtual space object are extracted from the mixed reality object table, and the virtual space image to be output to the
(複合現実空間画像例)
次に、複合現実空間画像の例について説明する。図30および図31は、S1908’で合成されモニタやHMDに表示される複合現実空間画像の例と、S1960’で合成されプリンタ170から出力される複合現実空間画像のイメージ例をそれぞれ示す図である。なお理解を容易にするため円柱を図示したが、これは実際の出力画像には表示されない。
(Example of mixed reality space image)
Next, an example of a mixed reality space image will be described. 30 and 31 are diagrams illustrating an example of a mixed reality space image synthesized in S1908 ′ and displayed on a monitor or HMD, and an example of a mixed reality space image synthesized in S1960 ′ and output from the
いずれも同時刻、同視点および視線方向における複合現実画像であるが、プリンタ170から出力される複合現実空間画像では観察者の前を覆ってしまう仮想物体が別の位置に移動しており、観察者の顔がはっきりと確認できる画像となっていることが分かる。
All are mixed reality images at the same time, the same viewpoint, and the line-of-sight direction, but in the mixed reality space image output from the
以上の説明により、本実施例におけるシステムによって、観察者が複合現実空間を体験している様子を写した複合現実空間画像において、不意に撮像装置前を横切った仮想物体で観察者が覆い隠されてしまうことを防ぐことが可能となる。またシステムの性能に影響なく、高品質で紙媒体やOHPなどの記録媒体に出力することが可能となる。 As described above, in the mixed reality space image in which the observer is experiencing the mixed reality space, the viewer is unexpectedly obscured by the virtual object that has crossed the front of the imaging device. Can be prevented. Further, it is possible to output to a recording medium such as a paper medium or an OHP with high quality without affecting the performance of the system.
Claims (4)
撮像手段から現実空間画像を取得する取得手段と、
前記撮像手段の位置および姿勢に基づき、仮想空間を表す仮想空間画像を生成する生成手段と、
前記取得手段で取得された現実空間画像と、前記生成手段で生成された仮想空間画像とを合成し、複合現実空間画像を生成する合成手段と、
前記複合現実画像を表示させる表示手段と、
前記複合現実画像を前記印刷手段で印刷するために、前記複合現実空間画像を前記印刷手段に出力する出力手段とを備え、
前記生成手段は、
前記表示手段が前記複合現実画像を表示させる場合、第一の方法で前記仮想空間画像を生成し、
前記出力手段が前記複合現実空間画像を出力する場合、前記第一の方法よりも光の反射による前記仮想空間中の仮想物体への影響を詳細に行う方法、前記第一の方法よりも仮想空間画像の生成の数値精度のビット数を増やして行う方法、前記仮想空間画像の縦横ピクセルサイズを前記印刷手段の解像度とプリントサイズとの積の範囲内にする方法のいずれかの方法で前記仮想空間画像を生成し、
前記合成手段は、
前記観察者と前記仮想物体それぞれに対して円柱形状の重畳判定領域を設定し、
前記出力手段が前記複合現実空間画像を出力する場合であり、かつ前記撮像手段から撮像した場合に前記観察者に設定された重畳判定領域上に前記仮想物体に設定された重畳判定領域が重畳している場合、当該仮想物体を前記観察者に重畳しない位置に移動させ、前記複合現実空間画像を生成し、
前記表示手段が前記複合現実空間画像を表示させる場合、前記仮想物体を移動させずに前記複合現実空間画像を生成することを特徴とする画像処理装置。 An image processing apparatus connected to a printing means for printing an image and capable of outputting an image to be printed to the printing means,
Obtaining means for obtaining a real space image from the imaging means;
Generating means for generating a virtual space image representing a virtual space based on the position and orientation of the imaging means;
A synthesis unit that synthesizes the real space image acquired by the acquisition unit and the virtual space image generated by the generation unit, and generates a mixed reality space image;
Display means for displaying the mixed reality image;
An output unit for outputting the mixed reality space image to the printing unit in order to print the mixed reality image by the printing unit;
The generating means includes
When the display means displays the mixed reality image, the virtual space image is generated by a first method,
When the output means outputs the mixed reality space image, a method of performing a detailed influence on a virtual object in the virtual space by reflection of light than the first method, a virtual space than the first method The virtual space may be any one of a method of increasing the number of bits of numerical accuracy for image generation and a method of setting the vertical and horizontal pixel size of the virtual space image within the range of the product of the resolution of the printing means and the print size. Generate an image,
The synthesis means includes
Set a cylindrical overlapping determination area for each of the observer and the virtual object,
When the output means outputs the mixed reality space image and the image is taken from the imaging means, the superimposition determination area set for the virtual object is superimposed on the superimposition determination area set for the observer. The virtual object is moved to a position not superimposed on the observer, and the mixed reality space image is generated,
An image processing apparatus , wherein when the display means displays the mixed reality space image, the mixed reality space image is generated without moving the virtual object .
生成手段が、前記撮像手段の位置および姿勢に基づき、仮想空間を表す仮想空間画像を生成する生成工程と、
合成手段が、前記取得手段で取得された現実空間画像と、前記生成手段で生成された仮想空間画像とを合成し、複合現実空間画像を生成する合成工程と、
表示手段が、前記複合現実画像を表示させる表示工程と、
出力手段が、前記複合現実画像を印刷手段で印刷するために、前記複合現実空間画像を前記印刷手段に出力する出力工程とを備え、
前記生成工程では、
前記表示手段が前記複合現実画像を表示させる場合、第一の方法で前記仮想空間画像を生成し、
前記出力手段が前記複合現実空間画像を出力する場合、前記第一の方法よりも光の反射による前記仮想空間中の仮想物体への影響を詳細に行う方法、前記第一の方法よりも仮想空間画像の生成の数値精度のビット数を増やして行う方法、前記仮想空間画像の縦横ピクセルサイズを前記印刷手段の解像度とプリントサイズとの積の範囲内にする方法のいずれかの方法で前記仮想空間画像を生成し、
前記合成工程では、
前記観察者と前記仮想物体それぞれに対して円柱形状の重畳判定領域を設定し、
前記出力手段が前記複合現実空間画像を出力する場合であり、かつ前記撮像手段から撮像した場合に前記観察者に設定された重畳判定領域上に前記仮想物体に設定された重畳判定領域が重畳している場合、当該仮想物体を前記観察者に重畳しない位置に移動させ、前記複合現実空間画像を生成し、
前記表示手段が前記複合現実空間画像を表示させる場合、前記仮想物体を移動させずに前記複合現実空間画像を生成することを特徴とする画像処理方法。 An acquisition step in which the acquisition means acquires a real space image from the imaging means;
A generating step of generating a virtual space image representing a virtual space based on the position and orientation of the imaging unit;
A synthesis step of synthesizing the real space image acquired by the acquisition unit and the virtual space image generated by the generation unit to generate a mixed reality space image;
Display means for displaying the mixed reality image; and
An output unit that outputs the mixed reality space image to the printing unit in order to print the mixed reality image by the printing unit;
In the generating step,
When the display means displays the mixed reality image, the virtual space image is generated by a first method,
When the output means outputs the mixed reality space image, a method of performing a detailed influence on a virtual object in the virtual space by reflection of light than the first method, a virtual space than the first method The virtual space may be any one of a method of increasing the number of bits of numerical accuracy for image generation and a method of setting the vertical and horizontal pixel size of the virtual space image within the range of the product of the resolution of the printing means and the print size. Generate an image,
In the synthesis step,
Set a cylindrical overlapping determination area for each of the observer and the virtual object,
When the output means outputs the mixed reality space image, and when the image is picked up from the imaging means, the superimposition determination area set for the virtual object is superimposed on the superimposition determination area set for the observer. The virtual object is moved to a position not superimposed on the observer, and the mixed reality space image is generated,
When the display means displays the mixed reality space image, the mixed reality space image is generated without moving the virtual object.
撮像手段から現実空間画像を取得する取得手段と、
前記撮像手段の位置および姿勢に基づき、仮想空間を表す仮想空間画像を生成する生成手段と、
前記取得手段で取得された現実空間画像と、前記生成手段で生成された仮想空間画像とを合成し、複合現実空間画像を生成する合成手段と、
前記複合現実画像を表示させる表示手段と、
前記複合現実画像を印刷手段で印刷するために、前記複合現実空間画像を前記印刷手段に出力する出力手段とを備え、
前記生成手段は、
前記表示手段が前記複合現実画像を表示させる場合、第一の方法で前記仮想空間画像を生成し、
前記出力手段が前記複合現実空間画像を出力する場合、前記第一の方法よりも光の反射による前記仮想空間中の仮想物体への影響を詳細に行う方法、前記第一の方法よりも仮想空間画像の生成の数値精度のビット数を増やして行う方法、前記仮想空間画像の縦横ピクセルサイズを前記印刷手段の解像度とプリントサイズとの積の範囲内にする方法のいずれかの方法で前記仮想空間画像を生成し、
前記合成手段は、
前記観察者と前記仮想物体それぞれに対して円柱形状の重畳判定領域を設定し、
前記出力手段が前記複合現実空間画像を出力する場合であり、かつ前記撮像手段から撮像した場合に前記観察者に設定された重畳判定領域上に前記仮想物体に設定された重畳判定領域が重畳している場合、当該仮想物体を前記観察者に重畳しない位置に移動させ、前記複合現実空間画像を生成し、
前記表示手段が前記複合現実空間画像を表示させる場合、前記仮想物体を移動させずに前記複合現実空間画像を生成することを特徴とする画像処理装置として機能させるためのコンピュータプログラム。 Computer
Obtaining means for obtaining a real space image from the imaging means;
Generating means for generating a virtual space image representing a virtual space based on the position and orientation of the imaging means;
A synthesis unit that synthesizes the real space image acquired by the acquisition unit and the virtual space image generated by the generation unit, and generates a mixed reality space image;
Display means for displaying the mixed reality image;
An output unit that outputs the mixed reality space image to the printing unit in order to print the mixed reality image by a printing unit;
The generating means includes
When the display means displays the mixed reality image, the virtual space image is generated by a first method,
When the output means outputs the mixed reality space image, a method of performing a detailed influence on a virtual object in the virtual space by reflection of light than the first method, a virtual space than the first method The virtual space may be any one of a method of increasing the number of bits of numerical accuracy for image generation and a method of setting the vertical and horizontal pixel size of the virtual space image within the range of the product of the resolution of the printing means and the print size. Generate an image,
The synthesis means includes
Set a cylindrical overlapping determination area for each of the observer and the virtual object,
When the output means outputs the mixed reality space image, and when the image is picked up from the imaging means, the superimposition determination area set for the virtual object is superimposed on the superimposition determination area set for the observer. The virtual object is moved to a position not superimposed on the observer, and the mixed reality space image is generated,
When the said display means displays the said mixed reality space image, the computer program for functioning as an image processing apparatus characterized by producing | generating the said mixed reality space image, without moving the said virtual object.
撮像手段から現実空間画像を取得する取得手段と、
前記撮像手段の位置および姿勢に基づき、仮想空間を表す仮想空間画像を生成する生成手段と、
前記取得手段で取得された現実空間画像と、前記生成手段で生成された仮想空間画像とを合成し、複合現実空間画像を生成する合成手段と、
前記複合現実画像を表示させる表示手段と、
前記複合現実画像を印刷手段で印刷するために、前記複合現実空間画像を前記印刷手段に出力する出力手段とを備え、
前記生成手段は、
前記表示手段が前記複合現実画像を表示させる場合、第一の方法で前記仮想空間画像を生成し、
前記出力手段が前記複合現実空間画像を出力する場合、前記第一の方法よりも光の反射による前記仮想空間中の仮想物体への影響を詳細に行う方法、前記第一の方法よりも仮想空間画像の生成の数値精度のビット数を増やして行う方法、前記仮想空間画像の縦横ピクセルサイズを前記印刷手段の解像度とプリントサイズとの積の範囲内にする方法のいずれかの方法で前記仮想空間画像を生成し、
前記合成手段は、
前記観察者と前記仮想物体それぞれに対して円柱形状の重畳判定領域を設定し、
前記出力手段が前記複合現実空間画像を出力する場合であり、かつ前記撮像手段から撮像した場合に前記観察者に設定された重畳判定領域上に前記仮想物体に設定された重畳判定領域が重畳している場合、当該仮想物体を前記観察者に重畳しない位置に移動させ、前記複合現実空間画像を生成し、
前記表示手段が前記複合現実空間画像を表示させる場合、前記仮想物体を移動させずに前記複合現実空間画像を生成することを特徴とする画像処理装置として機能させるためのコンピュータプログラムが格納されたコンピュータ読み取り可能な記録媒体。 Computer
Obtaining means for obtaining a real space image from the imaging means;
Generating means for generating a virtual space image representing a virtual space based on the position and orientation of the imaging means;
A synthesis unit that synthesizes the real space image acquired by the acquisition unit and the virtual space image generated by the generation unit, and generates a mixed reality space image;
Display means for displaying the mixed reality image;
An output unit that outputs the mixed reality space image to the printing unit in order to print the mixed reality image by a printing unit;
The generating means includes
When the display means displays the mixed reality image, the virtual space image is generated by a first method,
When the output means outputs the mixed reality space image, a method of performing a detailed influence on a virtual object in the virtual space by reflection of light than the first method, a virtual space than the first method The virtual space may be any one of a method of increasing the number of bits of numerical accuracy for image generation and a method of setting the vertical and horizontal pixel size of the virtual space image within the range of the product of the resolution of the printing means and the print size. Generate an image,
The synthesis means includes
Set a cylindrical overlapping determination area for each of the observer and the virtual object,
When the output means outputs the mixed reality space image and the image is taken from the imaging means, the superimposition determination area set for the virtual object is superimposed on the superimposition determination area set for the observer. The virtual object is moved to a position not superimposed on the observer, and the mixed reality space image is generated,
When the display means displays the mixed reality space image, a computer storing a computer program for functioning as an image processing apparatus that generates the mixed reality space image without moving the virtual object A readable recording medium.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003333628A JP4235522B2 (en) | 2003-09-25 | 2003-09-25 | Image processing apparatus, image processing method, and program |
US10/684,401 US7427996B2 (en) | 2002-10-16 | 2003-10-15 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003333628A JP4235522B2 (en) | 2003-09-25 | 2003-09-25 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005100134A JP2005100134A (en) | 2005-04-14 |
JP4235522B2 true JP4235522B2 (en) | 2009-03-11 |
Family
ID=34461584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003333628A Expired - Fee Related JP4235522B2 (en) | 2002-10-16 | 2003-09-25 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4235522B2 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4660357B2 (en) * | 2005-11-18 | 2011-03-30 | 任天堂株式会社 | Image processing program and image processing apparatus |
JP2010249907A (en) * | 2009-04-13 | 2010-11-04 | National Institute Of Advanced Industrial Science & Technology | Photographing device and imaging method |
FR2984057B1 (en) | 2011-12-13 | 2014-01-03 | Solidanim | VIDEO FILM TURNING SYSTEM |
GB201208088D0 (en) * | 2012-05-09 | 2012-06-20 | Ncam Sollutions Ltd | Ncam |
JP6314394B2 (en) | 2013-09-13 | 2018-04-25 | 富士通株式会社 | Information processing apparatus, setting method, setting program, system, and management apparatus |
CN105488851B (en) * | 2015-11-30 | 2017-07-07 | 腾讯科技(深圳)有限公司 | In real-time virtual scene between collision body collision detection method and apparatus |
JP7073702B2 (en) * | 2017-12-11 | 2022-05-24 | 富士フイルムビジネスイノベーション株式会社 | Information processing equipment and information processing programs |
JP7077595B2 (en) * | 2017-12-11 | 2022-05-31 | 富士フイルムビジネスイノベーション株式会社 | Information processing equipment and information processing programs |
JP7000828B2 (en) * | 2017-12-11 | 2022-01-19 | 富士フイルムビジネスイノベーション株式会社 | Information processing equipment and information processing programs |
JP7364218B2 (en) * | 2017-12-28 | 2023-10-18 | 株式会社コナミデジタルエンタテインメント | Information processing device, program for information processing device, information processing system, and display method |
JP7356697B2 (en) * | 2019-06-11 | 2023-10-05 | 国立大学法人静岡大学 | Image observation system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001096063A (en) * | 1999-07-23 | 2001-04-10 | Fuji Photo Film Co Ltd | Apparatus and system for replay game scenes |
JP3363861B2 (en) * | 2000-01-13 | 2003-01-08 | キヤノン株式会社 | Mixed reality presentation device, mixed reality presentation method, and storage medium |
JP2002157607A (en) * | 2000-11-17 | 2002-05-31 | Canon Inc | System and method for image generation, and storage medium |
JP4115117B2 (en) * | 2001-10-31 | 2008-07-09 | キヤノン株式会社 | Information processing apparatus and method |
-
2003
- 2003-09-25 JP JP2003333628A patent/JP4235522B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005100134A (en) | 2005-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7427996B2 (en) | Image processing apparatus and image processing method | |
JP4553362B2 (en) | System, image processing apparatus, and information processing method | |
JP5845211B2 (en) | Image processing apparatus and image processing method | |
JP2022040219A (en) | Techniques for recording augmented reality data | |
AU2018233733B2 (en) | Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same | |
JP4739002B2 (en) | Image processing method and image processing apparatus | |
JP2009123018A (en) | Image processor and image processing method | |
JP2006302034A (en) | Image processing method and image processor | |
JP2005346468A (en) | Image processing method and image processor | |
JP4235522B2 (en) | Image processing apparatus, image processing method, and program | |
WO2010038693A1 (en) | Information processing device, information processing method, program, and information storage medium | |
JP2007034628A (en) | Method and system for image processing | |
JP2022058753A (en) | Information processing apparatus, information processing method, and program | |
JP2015170232A (en) | Information processing device, method of controlling the same, and program | |
WO2020185405A1 (en) | Registration of local content between first and second augmented reality viewers | |
JP2017134803A (en) | Information processing device, and information processing method | |
JP4689344B2 (en) | Information processing method and information processing apparatus | |
JP2005251118A (en) | Method and device for image processing | |
JP2006085375A (en) | Image processing method and image processor | |
WO2017191703A1 (en) | Image processing device | |
JP2008217119A (en) | System, image processor and image processing method | |
JP4217661B2 (en) | Image processing method and image processing apparatus | |
JP7465133B2 (en) | Information processing device and information processing method | |
JP4125085B2 (en) | Image processing apparatus and image processing method | |
JP2005050043A (en) | Image processing method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080610 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080808 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080902 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081104 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20081110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081202 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081215 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111219 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121219 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131219 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |