JP4630647B2 - Image presentation method and information processing apparatus - Google Patents
Image presentation method and information processing apparatus Download PDFInfo
- Publication number
- JP4630647B2 JP4630647B2 JP2004336220A JP2004336220A JP4630647B2 JP 4630647 B2 JP4630647 B2 JP 4630647B2 JP 2004336220 A JP2004336220 A JP 2004336220A JP 2004336220 A JP2004336220 A JP 2004336220A JP 4630647 B2 JP4630647 B2 JP 4630647B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- virtual object
- condition
- operation device
- instruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は複合現実感システムにおける仮想物体の提示制御に関する。 The present invention relates to virtual object presentation control in a mixed reality system.
複合現実感システムとは、現実空間映像と、ユーザの視点位置及び視線方向等に応じて生成される仮想空間映像とを合成することにより得られる合成映像をユーザに提供するものである。複合現実感システムでは、現実空間中に仮想物体が実在しているかのような感覚を観察者に提示することが可能であり、従来の仮想現実感システム(VRシステム)に比べてよりリアルに、実寸感覚を伴った観察が可能である。 The mixed reality system provides a user with a synthesized video obtained by synthesizing a real space video and a virtual space video generated according to the user's viewpoint position, line-of-sight direction, and the like. In the mixed reality system, it is possible to present to the observer a feeling as if a virtual object actually exists in the real space, and more realistically than the conventional virtual reality system (VR system), Observation with an actual sense is possible.
複合現実空間内のCG(コンピュータグラフィックス)物体を操作する方法として、現実空間内での位置及び姿勢の6自由度を計測あるいは推定するシステム(ここでは6自由度センサと呼ぶ)を用いて、計測或いは推定された6自由度をCG物体座標系に対応付ける方法がある。このような、計測を実現する6自由度センサとしては、例えばPolhemus社のFastrakシステムを用いることができる。Fastrakシステムは、数センチ角ほどの大きさのレシーバの位置及び姿勢の6自由度を計測できる。この計測値をCG物体の物体座標系に対応付けることにより、当該レシーバの移動や回転につれてCG物体が移動、回転することになる。 As a method of operating a CG (computer graphics) object in the mixed reality space, a system that measures or estimates six degrees of freedom of the position and orientation in the real space (herein called a six degree of freedom sensor) is used. There is a method of associating the measured or estimated six degrees of freedom with the CG object coordinate system. As such a six-degree-of-freedom sensor that realizes measurement, for example, the Fastrak system of Polhemus can be used. The Fastrak system can measure 6 degrees of freedom in the position and orientation of a receiver with a size of several centimeters. By associating this measurement value with the object coordinate system of the CG object, the CG object moves and rotates as the receiver moves and rotates.
このレシーバを操作デバイスに取り付けることにより、操作デバイスによってCG物体を移動する等の操作が可能になる。例えば、指示棒のような操作デバイスにCG物体を関連付けることにより、CG物体を移動させることができる。
しかしながら、従来はCG物体と操作デバイスを関連付ける際には、CG物体の姿勢は関連付けが行なわれた時点の状態が維持される。このため、例えば、CG物体をトレイ状の操作デバイスに載せて移動させようとした場合、当該トレイの上でも関連付けした時点のCG物体の姿勢が保たれることになる。従って、例えば、ペンたてに入れてあったペンをトレイに載せても、トレイの上でペンが起立したままとなってしまう。このため、CG物体を現実の物体のように操作、観察することが困難であった。 However, conventionally, when associating the CG object with the operation device, the posture of the CG object is maintained at the time when the association is performed. For this reason, for example, when an attempt is made to move a CG object on a tray-like operation device, the posture of the CG object at the time of association is maintained even on the tray. Therefore, for example, even if the pen that has been put in the pen is placed on the tray, the pen remains standing on the tray. For this reason, it is difficult to manipulate and observe a CG object like a real object.
本発明は上記の課題に鑑みてなされたものであり、操作デバイスと仮想物体とを関連付けた際に、両者の位置姿勢の関係が適切になるように仮想物体を配置可能とし、より自然な仮想物体の操作を実現することを目的とする。 The present invention has been made in view of the above-described problems. When an operation device and a virtual object are associated with each other, the virtual object can be arranged so that the relationship between the positions and orientations thereof is appropriate, and a more natural virtual The object is to realize manipulation of objects.
上記の目的を達成するための本発明による画像提示方法は、
観察者が観察する現実空間に仮想物体を描画する情報処理装置における画像提示方法であって、
検出手段が、現実空間に実在する操作用デバイスの位置姿勢を検出する検出工程と、
判定手段が、仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係であるか否かに基づいて、該仮想物体と該操作用デバイスとを関連付けるか否かを判定する判定工程と、
変更手段が、前記判定工程で関連付けると判定された場合に、前記仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係となるように、該仮想物体の位置姿勢を変更する変更工程と、
描画手段が、前記変更工程で変更された位置姿勢でもって前記仮想物体を描画する描画工程とを備える。
In order to achieve the above object, an image presentation method according to the present invention includes:
An image presentation method in an information processing apparatus for drawing a virtual object in a real space observed by an observer,
A detecting step in which the detecting means detects the position and orientation of the operating device that actually exists in the real space; and
Whether the determination unit associates the virtual object with the operation device based on whether the relationship between the position and orientation of the virtual object and the position and orientation of the operation device is a preset relationship. A determination step for determining;
The position and orientation of the virtual object so that the relationship between the position and orientation of the virtual object and the position and orientation of the operating device is a preset relationship when it is determined that the changing unit associates in the determination step. and a change step of changing,
The drawing means includes a drawing step of drawing the virtual object with the position and orientation changed in the changing step.
また、上記の目的を達成するための本発明による情報処理装置は以下の構成を備える。即ち、
観察者が観察する現実空間に仮想物体を描画する情報処理装置であって、
現実空間に実在する操作用デバイスの位置姿勢を検出する検出手段と、
仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係であるか否かに基づいて、該仮想物体と該操作用デバイスとを関連付けるか否かを判定する判定手段と、
前記判定手段で関連付けると判定された場合に、前記仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係となるように、該仮想物体の位置姿勢を変更する変更手段と、
前記変更手段で変更された位置姿勢でもって前記仮想物体を描画する描画手段とを備える。
In order to achieve the above object, an information processing apparatus according to the present invention comprises the following arrangement. That is,
An information processing apparatus for drawing a virtual object in a real space observed by an observer,
Detection means for detecting the position and orientation of the operating device that actually exists in the real space;
Determination means for determining whether or not to associate the virtual object with the operation device based on whether or not the relationship between the position and orientation of the virtual object and the position and orientation of the operation device is a preset relationship When,
Change that changes the position and orientation of the virtual object so that the relationship between the position and orientation of the virtual object and the position and orientation of the operating device is a preset relationship when it is determined by the determination means Means,
Drawing means for drawing the virtual object with the position and orientation changed by the changing means.
本発明によれば、操作デバイスと仮想物体とを関連付けた際に、両者の位置姿勢の関係が適切になるように仮想物体が配置されるので、より自然な仮想物体の操作を実現することを目的とする。 According to the present invention, when the operation device and the virtual object are associated with each other, the virtual object is arranged so that the relationship between the positions and orientations thereof is appropriate. Objective.
以下の実施形態では、下敷き状の操作デバイスに6自由度センサを取り付けることにより、CG物体をあたかも下敷きの上に載せているかのように操作、観察することを可能にする例を説明する。またねじ回し状の操作デバイスに6自由度センサを取り付けることにより、CGのねじを操作することを可能とする例を説明する。 In the following embodiment, an example will be described in which a 6-degree-of-freedom sensor is attached to an underlay-like operation device, so that a CG object can be operated and observed as if it is placed on the underlay. An example will be described in which a CG screw can be operated by attaching a 6-degree-of-freedom sensor to a screwdriver-like operation device.
なお、操作デバイスそのものが下敷き状であったり、ねじ回し状である必要は、必ずしもない。例えば単なるレシーバをそのまま操作デバイスとして用い、下敷き状のものはCGで表示すれば、操作者は下敷き状の操作デバイスとして使用できる。またねじ回しのグリップの部分だけの操作デバイスに軸の部分をCGで表示させれば、操作者にとってはねじ回し状の操作デバイスとして使用できる(図5(a)により後述する)。以下、操作者が操作していると考えているもの−下敷き状の操作デバイスやねじ回し状の操作デバイス−を操作アイテムと呼ぶ。すなわち、操作アイテムは実体としての操作デバイスと視覚的に不足している部分を補うCGとからなるように構成してもよい。 Note that the operation device itself is not necessarily in the form of an underlay or a screwdriver. For example, if a simple receiver is used as an operation device as it is and an underlay-like device is displayed in CG, the operator can use it as an underlay-like operation device. Further, if the shaft portion is displayed in CG on the operation device having only the grip portion of the screwdriver, the operator can use it as a screwdriver-like operation device (described later with reference to FIG. 5A). Hereinafter, what the operator thinks is operating—an underlay-like operation device or a screwdriver-like operation device—is referred to as an operation item. That is, the operation item may be configured to include an operation device as an entity and a CG that supplements a visually lacking portion.
また、以下の実施形態では、所望のタイミングでCG物体を操作アイテムに関連付けたり、その関連を解いたりすることを可能とし、さらに現実味を帯びた体験を実現可能にしている。例えば、棚に入れてあるりんごのCGを下敷き状の操作アイテムに関連付けることにより、りんごを下敷きの上に載せているかのように移動させることができ、さらに机の上でりんごのCGと下敷き状の操作アイテムとの関連を解くことにより、机の上にりんごを置く−すなわち、下敷きを用いてりんごを棚から机まで移動する−ことが実現できる。また部品トレイに載っているねじのCGをねじ回し状の操作アイテムに関連付けることにより、ねじをねじ穴まで移動させることができ、さらにそこで関連を解くことにより、部品トレイに載っているねじをねじ穴に入れる(ねじ締め)という動作を実現できる。 Further, in the following embodiments, it is possible to associate a CG object with an operation item at a desired timing, or to solve the association, and further, it is possible to realize a realistic experience. For example, by associating an apple CG on a shelf with an underlay-like operation item, the apple can be moved as if it is on the underlay, and the apple CG and underlay on the desk. By solving the relationship with the operation item, it is possible to place the apple on the desk-that is, to move the apple from the shelf to the desk using the underlay. Also, by associating the CG of the screw on the component tray with the screwdriver-like operation item, the screw can be moved to the screw hole, and further, the screw on the component tray is The operation of inserting into the hole (screw tightening) can be realized.
以下、添付の図面を参照して本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
図1は本実施形態による仮想現実感提示システムの構成例を示す図である。100は、頭部装着型映像入出力装置(頭部装着型ディスプレイ、HMD:Head Mounted Displayなどと呼ばれるものであり、以下、HMDと記載する)である。観察者はHMD100を頭部に装着することにより、現実空間と仮想空間を合成した映像を観察することができる。磁気トランスミッタ200は磁場を発生させ、磁気レシーバ201、202は磁気トランスミッタ200が発生させた磁場の変化を計測する。位置・姿勢計測装置205は、磁気トランスミッタ200を制御するとともに、磁気レシーバ201、202からの計測結果に基づいて各磁気レシーバの位置・姿勢を計測する。HMD100には、磁気レシーバ201が取り付けられており、観察者の視点位置、視線方向を算出する。
FIG. 1 is a diagram illustrating a configuration example of a virtual reality presentation system according to the present embodiment.
操作デバイス300は観察者が操作可能な操作アイテムを形成するために用いられるものであり、磁気レシーバ202が組み込まれている。磁気レシーバ202の計測結果に基づいて、位置・姿勢計測装置205は、操作デバイス300の位置・姿勢、すなわち操作アイテムの位置・姿勢を算出することができる。ここでは操作デバイス300には下敷き状の部分が設けられており、CGによる補充を行なうことなく操作アイテムが形成されているものとする。HMD100には、映像表示装置101、映像入力装置102が、それぞれ右目、左目用に1セットづつ、計2セット組み込まれている。
The
情報処理装置400は、位置・姿勢計測装置205により算出された位置・姿勢情報に基づいてCG映像を生成し、これをHMD100の映像入力装置102より入力した映像に重畳して合成映像を生成し、得られた合成映像を映像表示装置101に向けて出力する。
The information processing apparatus 400 generates a CG image based on the position / orientation information calculated by the position /
なお、本実施形態において、6自由度センサとは磁気レシーバ201、202を指し、6自由度センサシステムとは、磁気トランスミッタ200、磁気レシーバ201、202、位置・姿勢計測装置205、および情報処理装置400内部で動作し磁気レシーバ201及び202の位置及び姿勢を得るための不図示のソフトウェア一式を指す。また6自由度センサを区別するため、磁気レシーバ201を視点検出用6自由度センサ、磁気レシーバ202を物体操作用6自由度センサと呼ぶことにする。
In the present embodiment, the six-degree-of-freedom sensor refers to the
次に、本実施形態のHMD100の具体的な構成について図2を参照して説明する。図1にも示されている映像表示装置101は、0.5〜数インチ程度の小型の液晶表示デバイス等で構成されるものである。自由曲面プリズム103は、映像表示装置101の映像を拡大するレンズの役目を果たす。これらの構成により、映像表示装置101に表示された映像は、観察者にとってはたとえば2m先の90インチ相当の映像として提示されることになる。
Next, a specific configuration of the
図1にも示されている映像入力装置102は、CCDカメラ、CMOSカメラなどの撮像デバイスで構成されるものである。撮像系プリズム104は現実空間の光を映像入力装置102に収束させるためのレンズの役目を果たす。この撮像系プリズム104を自由曲面プリズム103の外側に、光軸を一致させるように配置することで、映像入力装置102で入力した映像と、映像表示装置101に表示した映像の視差をなくし、現実空間の映像を違和感なく再現することが可能となる。
The
次に、図1における情報処理装置400の具体的な構成について、図3を参照して説明する。なお、情報処理装置400は一般的なパーソナルコンピュータやワークステーションにより実現可能であり、図3に示される各部の機能は不図示のCPUが所定の制御プログラムを実行することにより実現されるものである。 Next, a specific configuration of the information processing apparatus 400 in FIG. 1 will be described with reference to FIG. The information processing apparatus 400 can be realized by a general personal computer or workstation, and the functions of each unit shown in FIG. 3 are realized by a CPU (not shown) executing a predetermined control program. .
映像キャプチャ部401R,Lは、映像入力装置102より入力した映像データを処理装置内にデジタル信号として取り込む。位置・姿勢情報入力部404は位置・姿勢計測装置205より送られるHMD100と物体操作デバイス300の位置・姿勢のデータを情報処理装置400内に取り込む。位置・姿勢算出部405は位置・姿勢入力部404からのデータをもとに、HMD100と物体操作デバイス300の位置を算出する。この算出結果は3DCGデータ406に反映される。なお、3DCGデータ406は例えば情報処理装置400が有するハードディスク或いはRAM等に格納される。3DCGデータ406には、物体操作デバイス300によって直接操作される操作アイテムの3DCGデータ、及び当該操作アイテムによって操作を行おうとするCG物体の3DCGデータが含まれる。更に3DCGデータ406は、操作アイテムの世界座標系での位置・姿勢、HMD100の位置・姿勢等のCG描画に必要なデータも含んでいる。CGレンダリング部407は、3DCGデータ406に基づいて、CGデータを描画すべき位置、大きさ、角度(パース)などを計算し、CG物体等の3DCGデータをレンダリングする。
The
映像合成部402R,Lは、映像キャプチャ部401R,Lからの映像データと、CGレンダリング部407でレンダリングされたCGを合成し、右目用、左目用の合成画像を生成する。映像生成部403R,Lは、映像合成部402R,Lで生成された右目用、左目用の合成画像を映像信号として映像表示装置101へ送る。
The
配置ルール408は、CG物体の操作アイテムに対する固定・解放を、「どのタイミングで」「どのように」実行するのかを定めた情報である。配置ルール408は例えば情報処理装置400内のハードディスクやRAM等に格納される。配置判断部409は、配置ルール408に従って、CG物体の配置の判断を行う。配置判断部409による判断結果は座標変換部413に渡される。座標変換部413は、配置判断部409の判断結果、即ち配置ルール408に基づいて3DCGデータ406に対して変更を行う。
The
配置ルールの条件には、様々な条件が記述される。配置条件算出部412はそれらの条件を満足するか否かを計算する。配置条件算出部412は、条件に応じてシステムに1つ以上存在する。配置条件算出部412の結果が配置判断部409に渡される。配置条件算出部412の入力としては、CG物体の特徴を用いる場合とそれ以外の場合とがある。CG物体の特徴を用いる場合は、CG配置特徴抽出部410を用い、それ以外の場合は配置特徴抽出部411を用いる。
Various conditions are described in the conditions of the placement rule. The arrangement
CG配置特徴抽出部410は3DCGデータから特定の特徴を抽出する。なお、複雑な特徴の場合は他のCG配置特徴抽出部410の出力も入力として用いることがある。例えば、所定形状の部品を扱う場合に、当該部品のサイズが必要な場合がある。そこで、「当該部品のサイズ」を算出するCG配置特徴抽出部が必要となる。その部品のサイズがプロパティになっていればそれを読み出すだけで済むが、そうではない場合、面情報からサイズを取得する必要があり、その処理の全て或いはいくつかのステップをまとめて、CG配置特徴抽出部とすることになる。CG配置特徴抽出部410は配置ルール408で宣言されている特徴(例えば、CG物体に対して設定された複数の面の各々の位置姿勢)によりシステムに1つ以上存在する。本実施形態では、CG配置特徴抽出部410は、CG物体のバウンディングボックスの各面の位置、姿勢を算出するとともに、操作デバイス300の下敷き状の面の位置、姿勢も算出する。もちろん、操作アイテムの下敷き状の面はCGで補充されていてもよく、その場合は3DCGデータと操作デバイス300の位置姿勢情報から面の位置姿勢が算出されることになる。配置特徴抽出部411は例えば押しボタンが押されたかどうかといった外部デバイスからの入力や、映像キャプチャ部401で取得した映像に対して画像処理を施した結果といったような情報処理装置400の内部状態を入力とするような場合に用いる。配置特徴抽出部411は配置ルール408の条件により、システムに存在しない場合、1つ存在する場合、あるいは複数存在する場合がある。なお、映像キャプチャ部401で取得した映像に対して画像処理を施した結果といったような情報処理装置400の内部状態を入力とするような場合とは、例えば、以下のような場合である。ZIFソケット(Zero Insertion Force Socket;ICソケットの一種で、ROMライター等の抜き差しが多い機器、最近の多ピンCPU/MPU等の抜き差しに力のかかるもの、力に弱く破損してしまうものを扱う場合に使われる)にICを抜き差しするような場合、レバーがリリース状態でなければICの抜き差しはできまない。従って、ICをCG、ZIFソケットを実物体とする場合、ZIFソケットのレバーがリリース状態なのかロック状態なのかを画像処理によって求め、この結果を用いてCGのICの抜き差しの可否を決定する。
The CG arrangement
上記構成によるシステムの処理の流れを、図4を使って説明する。磁気トランスミッタ200と磁気レシーバ202のデータを使って、位置・姿勢計測装置205は物体操作デバイス300の現実空間中における位置・姿勢を計測する(ステップS2010)。同様に、磁気トランスミッタ200と磁気レシーバ201のデータを使って、位置・姿勢計測装置205は観察者が装着しているHMD100の現実空間中における位置・姿勢を計測する(S2020)。計測により得られたデータは、位置・姿勢情報入力部404を通して情報処理装置400に取り込まれる。そして、位置・姿勢算出部405において各CGオブジェクトがどのような位置および姿勢で描画されるかが計算され、その結果が3DCGデータ406に反映される(S2030)。
The process flow of the system configured as described above will be described with reference to FIG. Using the data of the
これらの処理と並行して、配置ルールに応じた処理を行い、3DCGデータに反映させる。ここでは例として、下敷き状の操作アイテム(操作デバイス300)を用いて、これをCG物体に近づけた状態で当該操作デバイス300に設けられた押しボタン(不図示)を押すことにより、該CG物体が下敷きの面にぴったりと載るようにすることを考える。まず、以下で説明する処理に使用される面を説明する。
・下敷き面1:下敷き状操作アイテムの表の面
・下敷き面2:下敷き状操作アイテムの裏の面
・物体面1〜6:CG物体の物体座標系における6面体のバウンディングボックスを構成する各面。
In parallel with these processes, a process according to the arrangement rule is performed and reflected in the 3DCG data. Here, as an example, by using an underlay-like operation item (operation device 300) and pressing this button close to the CG object, a push button (not shown) provided on the
・ Under surface 1: Front surface of underlay operation item ・ Under surface 2: Back surface of underlay operation item ・ Object surfaces 1 to 6: Each surface constituting a hexahedral bounding box in the object coordinate system of a CG object .
本実施形態では、配置ルール408が例えば以下のように設定されているとする(∧は論理積を、¬は否定を表す)。
条件1:押しボタンが押された。
条件2:CG物体の物体座標系が世界座標系内に静止している。
条件3:下敷き面1と物体面1の同一度が他の組み合わせの同一度より高い。
条件4:下敷き面1と物体面2の同一度が他の組み合わせの同一度より高い。
条件5:下敷き面1と物体面3の同一度が他の組み合わせの同一度より高い。
条件6:下敷き面1と物体面4の同一度が他の組み合わせの同一度より高い。
条件7:下敷き面1と物体面5の同一度が他の組み合わせの同一度より高い。
条件8:下敷き面1と物体面6の同一度が他の組み合わせの同一度より高い。
条件9:下敷き面2と物体面1の同一度が他の組み合わせの同一度より高い。
条件10:下敷き面2と物体面2の同一度が他の組み合わせの同一度より高い。
条件11:下敷き面2と物体面3の同一度が他の組み合わせの同一度より高い。
条件12:下敷き面2と物体面4の同一度が他の組み合わせの同一度より高い。
条件13:下敷き面2と物体面5の同一度が他の組み合わせの同一度より高い。
条件14:下敷き面2と物体面6の同一度が他の組み合わせの同一度より高い。
指示1:CG物体の物体座標系を操作アイテムの物体座標系内に静止。
指示2:CG物体の物体座標系を世界座標系内に静止。
指示3:物体面1を下敷き面1上に移動・回転。
指示4:物体面2を下敷き面1上に移動・回転。
指示5:物体面3を下敷き面1上に移動・回転。
指示6:物体面4を下敷き面1上に移動・回転。
指示7:物体面5を下敷き面1上に移動・回転。
指示8:物体面6を下敷き面1上に移動・回転。
指示9:物体面1を下敷き面2上に移動・回転。
指示10:物体面2を下敷き面2上に移動・回転。
指示11:物体面3を下敷き面2上に移動・回転。
指示12:物体面4を下敷き面2上に移動・回転。
指示13:物体面5を下敷き面2上に移動・回転。
指示14:物体面6を下敷き面2上に移動・回転。
(条件1)∧(条件2)∧(条件3)⇒(指示1)∧(指示3)。
(条件1)∧(条件2)∧(条件4)⇒(指示1)∧(指示4)。
(条件1)∧(条件2)∧(条件5)⇒(指示1)∧(指示5)。
(条件1)∧(条件2)∧(条件6)⇒(指示1)∧(指示6)。
(条件1)∧(条件2)∧(条件7)⇒(指示1)∧(指示7)。
(条件1)∧(条件2)∧(条件8)⇒(指示1)∧(指示8)。
(条件1)∧(条件2)∧(条件9)⇒(指示1)∧(指示9)。
(条件1)∧(条件2)∧(条件10)⇒(指示1)∧(指示10)。
(条件1)∧(条件2)∧(条件11)⇒(指示1)∧(指示11)。
(条件1)∧(条件2)∧(条件12)⇒(指示1)∧(指示12)。
(条件1)∧(条件2)∧(条件13)⇒(指示1)∧(指示13)。
(条件1)∧(条件2)∧(条件14)⇒(指示1)∧(指示14)。
(条件1)∧¬(条件2)∧(条件3)⇒(指示2)∧(指示3)。
(条件1)∧¬(条件2)∧(条件4)⇒(指示2)∧(指示4)。
(条件1)∧¬(条件2)∧(条件5)⇒(指示2)∧(指示5)。
(条件1)∧¬(条件2)∧(条件6)⇒(指示2)∧(指示6)。
(条件1)∧¬(条件2)∧(条件7)⇒(指示2)∧(指示7)。
(条件1)∧¬(条件2)∧(条件8)⇒(指示2)∧(指示8)。
(条件1)∧¬(条件2)∧(条件9)⇒(指示2)∧(指示9)。
(条件1)∧¬(条件2)∧(条件10)⇒(指示2)∧(指示10)。
(条件1)∧¬(条件2)∧(条件11)⇒(指示2)∧(指示11)。
(条件1)∧¬(条件2)∧(条件12)⇒(指示2)∧(指示12)。
(条件1)∧¬(条件2)∧(条件13)⇒(指示2)∧(指示13)。
(条件1)∧¬(条件2)∧(条件14)⇒(指示2)∧(指示14)。
In the present embodiment, it is assumed that the
Condition 1: The push button was pressed.
Condition 2: The object coordinate system of the CG object is stationary in the world coordinate system.
Condition 3: The degree of identity of the underlying surface 1 and the object surface 1 is higher than the degree of identity of other combinations.
Condition 4: The degree of identity of the underlying surface 1 and the object surface 2 is higher than the degree of identity of other combinations.
Condition 5: The degree of identity of the underlying surface 1 and the object surface 3 is higher than the degree of identity of other combinations.
Condition 6: The degree of identity of the underlying surface 1 and the object surface 4 is higher than the degree of identity of other combinations.
Condition 7: The degree of identity of the underlying surface 1 and the object surface 5 is higher than the degree of identity of other combinations.
Condition 8: The degree of identity of the underlying surface 1 and the object surface 6 is higher than the degree of identity of other combinations.
Condition 9: The degree of identity of the underlying surface 2 and the object surface 1 is higher than the degree of identity of the other combinations.
Condition 10: The degree of identity of the underlying surface 2 and the object surface 2 is higher than the degree of identity of other combinations.
Condition 11: The degree of identity of the underlying surface 2 and the object surface 3 is higher than the degree of identity of other combinations.
Condition 12: The degree of identity of the underlying surface 2 and the object surface 4 is higher than the degree of identity of other combinations.
Condition 13: The degree of identity of the underlay surface 2 and the object surface 5 is higher than the degree of identity of other combinations.
Condition 14: The degree of identity of the underlying surface 2 and the object surface 6 is higher than the degree of identity of other combinations.
Instruction 1: The object coordinate system of the CG object is stationary within the object coordinate system of the operation item.
Instruction 2: The object coordinate system of the CG object is stationary in the world coordinate system.
Instruction 3: Move / rotate the object surface 1 on the underlying surface 1.
Instruction 4: Move / rotate the object surface 2 on the underlying surface 1.
Instruction 5: Move / rotate the object surface 3 on the underlying surface 1.
Instruction 6: Move / rotate the object surface 4 onto the underlay surface 1.
Instruction 7: Move / rotate the object surface 5 on the underlying surface 1.
Instruction 8: Move / rotate the object surface 6 on the underlying surface 1.
Instruction 9: Move / rotate the object surface 1 on the underlying surface 2.
Instruction 10: Move / rotate the object surface 2 onto the underlay surface 2.
Instruction 11: Move / rotate the object surface 3 on the underlying surface 2.
Instruction 12: Move / rotate the object surface 4 onto the underlay surface 2.
Instruction 13: Move / rotate the object surface 5 on the underlying surface 2.
Instruction 14: Move / rotate the object surface 6 onto the underlying surface 2.
(Condition 1) ∧ (Condition 2) ∧ (Condition 3) ⇒ (Instruction 1) ∧ (Instruction 3).
(Condition 1) ∧ (Condition 2) ∧ (Condition 4) ⇒ (Instruction 1) ∧ (Instruction 4).
(Condition 1) ∧ (Condition 2) ∧ (Condition 5) ⇒ (Instruction 1) ∧ (Instruction 5).
(Condition 1) ∧ (Condition 2) ∧ (Condition 6) ⇒ (Instruction 1) ∧ (Instruction 6).
(Condition 1) ∧ (Condition 2) ∧ (Condition 7) ⇒ (Instruction 1) ∧ (Instruction 7).
(Condition 1) ∧ (Condition 2) ∧ (Condition 8) ⇒ (Instruction 1) ∧ (Instruction 8).
(Condition 1) ∧ (Condition 2) ∧ (Condition 9) ⇒ (Instruction 1) ∧ (Instruction 9).
(Condition 1) ∧ (Condition 2) ∧ (Condition 10) ⇒ (Instruction 1) ∧ (Instruction 10).
(Condition 1) ∧ (Condition 2) ∧ (Condition 11) ⇒ (Instruction 1) ∧ (Instruction 11).
(Condition 1) ∧ (Condition 2) ∧ (Condition 12) ⇒ (Instruction 1) ∧ (Instruction 12).
(Condition 1) ∧ (Condition 2) ∧ (Condition 13) ⇒ (Instruction 1) ∧ (Instruction 13).
(Condition 1) ∧ (Condition 2) ∧ (Condition 14) ⇒ (Instruction 1) ∧ (Instruction 14).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 3) ⇒ (Instruction 2) ∧ (Instruction 3).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 4) ⇒ (Instruction 2) ∧ (Instruction 4).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 5) ⇒ (Instruction 2) ∧ (Instruction 5).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 6) ⇒ (Instruction 2) ∧ (Instruction 6).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 7) ⇒ (Instruction 2) ∧ (Instruction 7).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 8) ⇒ (Instruction 2) ∧ (Instruction 8).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 9) ⇒ (Instruction 2) ∧ (Instruction 9).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 10) ⇒ (Instruction 2) ∧ (Instruction 10).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 11) ⇒ (Instruction 2) ∧ (Instruction 11).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 12) ⇒ (Instruction 2) ∧ (Instruction 12).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 13) ⇒ (Instruction 2) ∧ (Instruction 13).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 14) ⇒ (Instruction 2) ∧ (Instruction 14).
ここで面Aと面Bの同一度は、本実施形態ではたとえば以下のように定義される。
・面Aの法線ベクトルと面Bの法線ベクトルの内積≧0の場合⇒同一度を0とする、
・上記以外の場合⇒面Aと面Bの距離の逆数を同一度する。
なお、面Aと面Bの距離とは、例えば面Aと面Bの重心間の距離を用いればよい。
Here, the degree of identity between the surface A and the surface B is defined as follows in the present embodiment, for example.
-If the inner product of the normal vector of surface A and the normal vector of surface B ≥ 0 ⇒ the degree of identity is 0
・ Other than above ⇒ Make the reciprocal of the distance between surface A and surface B equal.
As the distance between the surface A and the surface B, for example, the distance between the centers of gravity of the surface A and the surface B may be used.
以下、前提条件として条件2が成立している、すなわちCG物体の物体座標系が世界座標系内に静止している場合を例にとって説明する。 In the following, a case will be described as an example where Condition 2 is satisfied as a precondition, that is, the object coordinate system of the CG object is stationary in the world coordinate system.
CG配置特徴抽出部では3DCGデータ406からCG配置特徴の抽出を行う(S3010)。具体的にはCG物体の物体座標系と世界座標系との関係、下敷き面1、下敷き面2、物体面1、物体面2、物体面3、物体面4、物体面5、物体面6の抽出である。また配置特徴抽出部411では操作アイテムの押しボタンがされたか否かという配置特徴の抽出を行う(S3020)。CG配置特徴抽出部410、配置特徴抽出部411で抽出された特徴は配置条件算出部412によって、条件1の成否、条件2の成否、…、条件14の成否というように配置条件の値(成否を表す)が算出される(S3030)。これら配置条件の値を元に配置判断部409では配置判断を行う(S3040)。その結果、例えば(条件1)∧(条件2)∧(条件3)が成立した場合は、上記のように(指示1)∧(指示3)という指示が配置判断部409から座標変換部413に送られる。そして、3DCGデータ406に対して、指示1、指示3が実行される(S3050)。こうして、CG物体に設定された物体面1と操作アイテムに設定された下敷き面1とを近づけた状態で押しボタンが押されると、座標変換部413は、物体面1と下敷き面1の位置及びそれらの法線方向が一致するように(より厳密には、それらの法線が正反対の向き(法線ベクトルの内積が−1)となるように)CG物体を移動、回転し、その状態で当該CG物体の物体座標系を操作アイテムの物体座標系に内に静止させることにより、両者の関連付けを行なう。
The CG arrangement feature extraction unit extracts CG arrangement features from the 3DCG data 406 (S3010). Specifically, the relationship between the object coordinate system of the CG object and the world coordinate system, the underlying surface 1, the underlying surface 2, the object surface 1, the object surface 2, the object surface 3, the object surface 4, the object surface 5, and the object surface 6 Extraction. In addition, the arrangement
さらに上記の動作と並行して、HMD100の映像入力装置101より現実空間の映像が映像キャプチャ部401を通して情報処理装置400に取り込まれる(S4010)。CGレンダリング部407では3DCGデータ406を使ってCGを描画し、ビデオバッファなどのメモリに展開する(S2040)。この結果、CG物体の物体面1と操作アイテムの下敷き面1(表面)とが一致するようにCG物体が描画される。一方S4010で取り込んだ現実空間の映像データもビデオバッファなどのメモリに展開し(S4020)、映像合成部402において上記S2040で生成したCG映像を重畳する(S5010)。合成された映像は、映像生成部403を経由して、HMD100の映像表示装置101に表示される(S5020)。
Further, in parallel with the above operation, an image in the real space is taken into the information processing apparatus 400 through the video capture unit 401 from the
上記S2010、S2020、S2030、S2040、S4010、S4020、S5010、S5020の処理を映像表示装置101における映像更新間隔あるいはCG描画2040における更新間隔で繰り返し行うことで、リアルタイムに情報提示を行う。
Information is presented in real time by repeatedly performing the processes of S2010, S2020, S2030, S2040, S4010, S4020, S5010, and S5020 at the video update interval in the
なお、上記配置ルールの変更により、例えばトレイの面とCGオブジェクトのバウンディングボックスの上面とがいくら近づいても関連付けが実行されないようにしたりするなど、所望の設定を行なうことができる。また、配置ルールとして記述可能としたことにより、そのような設定、変更を容易に行なうことができる。また、6面体で構成されるバウンディングボックスを用いたが、6面体に限らず、任意の多面体を用いることが可能である。なお、上記では、操作アイテムの面とCG物体の面との関連付けにおいて、選択された面と面を一致させることにより両者の姿勢の関係が決定される点を説明した。ここで、操作アイテムの面上のどの位置にCG物体を配置するかは、配置ルールによって決定される。上記実施形態(下敷きの上にCG物体を載せる)において、下敷き面1側にCG物体が配置される場合は、例えば(a)CG物体の重心から下敷き面1に下ろした垂線の足が、下敷き面1の中心点と一致するようにする、(b)CG物体の重心から下敷き面1に下ろした垂線の足の位置は配置後も変化しない、といったような方法が考えられる。また、以下に説明するねじ回しとねじのような場合は、配置位置は1箇所が指定されている。 By changing the arrangement rule, for example, it is possible to make a desired setting such that the association is not executed no matter how close the surface of the tray and the upper surface of the bounding box of the CG object are. In addition, since it is possible to describe as an arrangement rule, such setting and changing can be easily performed. Moreover, although the bounding box comprised by a hexahedron was used, it is possible to use not only a hexahedron but arbitrary polyhedrons. In the above description, in the association between the surface of the operation item and the surface of the CG object, the relationship between the postures of the two is determined by matching the selected surface with the surface. Here, at which position on the surface of the operation item the CG object is arranged is determined by the arrangement rule. In the above-described embodiment (when a CG object is placed on the underlay), when the CG object is arranged on the underlay surface 1 side, for example, (a) the perpendicular foot that is lowered from the center of gravity of the CG object to the underlay surface 1 A method is conceivable in which the position of the leg of the perpendicular line that is lowered from the center of gravity of the CG object to the underlay surface 1 does not change even after the arrangement, so as to coincide with the center point of the surface 1. In addition, in the case of a screwdriver and screw described below, one location is designated.
次に、操作アイテムとしてねじ回し状のものと、CG物体としてねじ状のCGとを用いて、ねじ締めの仮想体験を可能とするMRの提示を説明する。なお、以下では、ねじのCGが3つあり、そのうちの1つを使ってねじ締めを行う仮想体験の場合を例に挙げて説明する。 Next, presentation of MR that enables a virtual experience of screw tightening by using a screwdriver as an operation item and a screw-like CG as a CG object will be described. In the following, there will be described a case of a virtual experience in which there are three screw CGs, and one of them is used for screw tightening.
図5の(a)において、物体操作デバイス501はねじ回しの「にぎり」の部分のみであり、内部に磁気センサ202が内蔵されている。また、物体操作デバイス501には押しボタン502が装備されている。観察者から見るとこの物体操作デバイス501に「軸503」がCGで表示され、ねじ回しの操作アイテムとして扱える。
In FIG. 5A, the
まず本例における用語の定義を行う。図5の(b)に示されるように、「ねじ」のCGは3つあるものとし、「ねじ1」「ねじ2」「ねじ3」としてそれらを区別する。「ねじ回しの軸」とは操作アイテムのCGの「軸503」、「ねじ回しの先」とはねじ回しの軸503の先端504、「ねじ頭」とはねじのCG510の頭511のことであり、「ねじ回しとねじの距離」とはねじ回しの先とねじ頭の間の距離523である。さらに「ねじ回しの向き」とはねじ回しの軸503に沿って操作デバイス側からねじ回しの先の方に向かう向き521、「ねじの向き」とはねじのCGの軸に沿ってねじ頭から反対側へ向かう向き522である。
First, terms in this example are defined. As shown in FIG. 5B, it is assumed that there are three CGs of “screws”, and these are distinguished as “screw 1”, “screw 2”, and “screw 3”. “Screwdriver shaft” is the CG “
本例の配置ルールは例えば以下のように設定されているとする。
条件1:押しボタンが押されている。
条件2:ねじ1の物体座標系は世界座標系内に静止している。、
条件3:ねじ2の物体座標系は世界座標系内に静止している。
条件4:ねじ3の物体座標系は世界座標系内に静止している。
条件5:(条件2)∧(条件3)∧(条件4)。
条件6:ねじ回しとねじ1の距離<一定値。
条件7:ねじ回しとねじ2の距離<一定値。
条件8:ねじ回しとねじ3の距離<一定値。
条件9:ねじ回しとねじ1の距離<ねじ回しとねじ2の距離。
条件10:ねじ回しとねじ2の距離<ねじ回しとねじ3の距離。
条件11:ねじ回しとねじ3の距離<ねじ回しとねじ1の距離。
条件12:(条件6)∧(条件9)∧¬(条件11)。
条件13:(条件7)∧¬(条件9)∧(条件10)。
条件14:(条件8)∧¬(条件10)∧(条件11)。
指示1:ねじ1の物体座標系を操作アイテムの物体座標系内に静止。
指示2:ねじ1の物体座標系を世界座標系内に静止。
指示3:ねじ2の物体座標系を操作アイテムの物体座標系内に静止。
指示4:ねじ2の物体座標系を世界座標系内に静止。
指示5:ねじ3の物体座標系を操作アイテムの物体座標系内に静止。
指示6:ねじ3の物体座標系を世界座標系内に静止。
指示7:ねじ1の向きをねじ回しの向きと一致するように回転。
指示8:ねじ2の向きをねじ回しの向きと一致するように回転。
指示9:ねじ3の向きをねじ回しの向きと一致するように回転。
指示10:ねじ1のねじ頭をねじ回しの先に一致するように移動。
指示11:ねじ2のねじ頭をねじ回しの先に一致するように移動。
指示12:ねじ3のねじ頭をねじ回しの先に一致するように移動。
(条件1)∧(条件5)∧(条件12)⇒(指示1)∧(指示7)∧(指示10)。
(条件1)∧(条件5)∧(条件13)⇒(指示3)∧(指示8)∧(指示11)。
(条件1)∧(条件5)∧(条件14)⇒(指示5)∧(指示9)∧(指示12)。
¬(条件1)⇒(指示2)∧(指示4)∧(指示6)。
Assume that the arrangement rules of this example are set as follows, for example.
Condition 1: The push button is pressed.
Condition 2: The object coordinate system of the screw 1 is stationary in the world coordinate system. ,
Condition 3: The object coordinate system of the screw 2 is stationary in the world coordinate system.
Condition 4: The object coordinate system of the screw 3 is stationary in the world coordinate system.
Condition 5: (Condition 2) ∧ (Condition 3) ∧ (Condition 4).
Condition 6: Distance between screwdriver and screw 1 <constant value.
Condition 7: Distance between screwdriver and screw 2 <constant value.
Condition 8: Distance between screwdriver and screw 3 <constant value.
Condition 9: Distance between screwdriver and screw 1 <distance between screwdriver and screw 2
Condition 10: Distance between screwdriver and screw 2 <distance between screwdriver and screw 3
Condition 11: Distance between screwdriver and screw 3 <distance between screwdriver and screw 1
Condition 12: (Condition 6) ∧ (Condition 9) ∧¬ (Condition 11).
Condition 13: (Condition 7) ∧¬ (Condition 9) ∧ (Condition 10).
Condition 14: (Condition 8) ∧¬ (Condition 10) ∧ (Condition 11).
Instruction 1: The object coordinate system of the screw 1 is stationary within the object coordinate system of the operation item.
Instruction 2: The object coordinate system of screw 1 is stationary in the world coordinate system.
Instruction 3: The object coordinate system of the screw 2 is stationary in the object coordinate system of the operation item.
Instruction 4: The object coordinate system of the screw 2 is stationary in the world coordinate system.
Instruction 5: The object coordinate system of the screw 3 is stationary within the object coordinate system of the operation item.
Instruction 6: The object coordinate system of the screw 3 is stationary in the world coordinate system.
Instruction 7: Rotate the direction of the screw 1 to coincide with the direction of the screwdriver.
Instruction 8: Rotate the direction of the screw 2 to coincide with the direction of the screwdriver.
Instruction 9: Rotate the direction of the screw 3 to coincide with the direction of the screwdriver.
Instruction 10: The screw head of the screw 1 is moved to coincide with the tip of the screwdriver.
Instruction 11: Move the screw head of the screw 2 so as to coincide with the tip of the screwdriver.
Instruction 12: Move the screw head of the screw 3 so as to coincide with the tip of the screwdriver.
(Condition 1) ∧ (Condition 5) ∧ (Condition 12) ⇒ (Instruction 1) ∧ (Instruction 7) ∧ (Instruction 10).
(Condition 1) ∧ (Condition 5) ∧ (Condition 13) ⇒ (Instruction 3) ∧ (Instruction 8) ∧ (Instruction 11).
(Condition 1) ∧ (Condition 5) ∧ (Condition 14) ⇒ (Instruction 5) ∧ (Instruction 9) ∧ (Instruction 12).
¬ (Condition 1) ⇒ (Instruction 2) ∧ (Instruction 4) ∧ (Instruction 6).
上記のような配置ルールを用いると、図6(a)に示すように、操作者はねじ回しの先端504をねじの近くに持っていき、押しボタン502を押すと、図6(b)に示すように、先端504にねじ頭511が最も近い位置にあるねじが、指示10〜12の実行によりねじ回しの先端504にくっつく。このとき、指示7〜9のいずれかの実行により、くっついたねじの向き522がねじ回しの向き521と一致するようにCGが回転する。その後、押しボタン502を押したまま、ねじを締める場所に持っていき、押しボタンを離すことで一連のねじ締め作業の仮想体験ができる(図6の(c)、(d))。
When the arrangement rule as described above is used, as shown in FIG. 6A, the operator brings the
以上のように、上記実施形態によれば、CG物体を下敷き状の操作アイテム上にあたかも現実物体が載っているかのように置いたり、ねじ回し状の操作アイテムにあたかも本物のねじのようにねじのCGを配置したりすることができるという効果があり、現実世界であれば起こりうることを事前に体験すること(仮想体験)が可能となる。 As described above, according to the above embodiment, a CG object is placed on an underlay-like operation item as if a real object is placed, or a screwdriver-like operation item is screwed like a real screw. CG can be arranged, and in the real world, it is possible to experience in advance what can happen (virtual experience).
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although the embodiments have been described in detail above, the present invention can take an embodiment as, for example, a system, an apparatus, a method, a program, or a storage medium, and specifically includes a plurality of devices. The present invention may be applied to a system that is configured, or may be applied to an apparatus that includes a single device.
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。 In the present invention, a software program (in the embodiment, a program corresponding to the flowchart shown in the figure) that realizes the functions of the above-described embodiment is directly or remotely supplied to the system or apparatus, and the computer of the system or apparatus Is also achieved by reading and executing the supplied program code.
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。 In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。 As a recording medium for supplying the program, for example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card ROM, DVD (DVD-ROM, DVD-R) and the like.
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 As another program supply method, a client computer browser is used to connect to an Internet homepage, and the computer program of the present invention itself or a compressed file including an automatic installation function is downloaded from the homepage to a recording medium such as a hard disk. Can also be supplied. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to execute the encrypted program by using the key information and install the program on a computer.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。 In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on the instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。 Furthermore, after the program read from the recording medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
Claims (11)
検出手段が、現実空間に実在する操作用デバイスの位置姿勢を検出する検出工程と、
判定手段が、仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係であるか否かに基づいて、該仮想物体と該操作用デバイスとを関連付けるか否かを判定する判定工程と、
変更手段が、前記判定工程で関連付けると判定された場合に、前記仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係となるように、該仮想物体の位置姿勢を変更する変更工程と、
描画手段が、前記変更工程で変更された位置姿勢でもって前記仮想物体を描画する描画工程とを備えることを特徴とする画像提示方法。 An image presentation method in an information processing apparatus for drawing a virtual object in a real space observed by an observer,
A detecting step in which the detecting means detects the position and orientation of the operating device that actually exists in the real space; and
Whether the determination unit associates the virtual object with the operation device based on whether the relationship between the position and orientation of the virtual object and the position and orientation of the operation device is a preset relationship. A determination step for determining;
The position and orientation of the virtual object so that the relationship between the position and orientation of the virtual object and the position and orientation of the operating device is a preset relationship when it is determined that the changing unit associates in the determination step. Change process to change,
An image presentation method, comprising: a drawing unit that draws the virtual object with the position and orientation changed in the changing step.
前記変更工程では、前記変更手段が、前記仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が前記記憶手段に記憶されたルールの記述によって規定された関係となるように、該仮想物体の位置姿勢を変更することを特徴とする請求項1に記載の画像提示方法。 A storage unit for storing a description of a rule that defines a relationship between a position and orientation when the virtual object and the operation device are associated;
In the changing step, the changing means causes the virtual object so that the relationship between the position and orientation of the virtual object and the position and orientation of the operating device is defined by a rule description stored in the storage means. The image presentation method according to claim 1, wherein the position and orientation of the object is changed.
現実空間に実在する操作用デバイスの位置姿勢を検出する検出手段と、
仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係であるか否かに基づいて、該仮想物体と該操作用デバイスとを関連付けるか否かを判定する判定手段と、
前記判定手段で関連付けると判定された場合に、前記仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係となるように、該仮想物体の位置姿勢を変更する変更手段と、
前記変更手段で変更された位置姿勢でもって前記仮想物体を描画する描画手段とを備えることを特徴とする情報処理装置。 An information processing apparatus for drawing a virtual object in a real space observed by an observer,
Detection means for detecting the position and orientation of the operating device that actually exists in the real space;
Determination means for determining whether or not to associate the virtual object with the operation device based on whether or not the relationship between the position and orientation of the virtual object and the position and orientation of the operation device is a preset relationship When,
Change that changes the position and orientation of the virtual object so that the relationship between the position and orientation of the virtual object and the position and orientation of the operating device is a preset relationship when it is determined by the determination means Means,
An information processing apparatus comprising: a drawing unit that draws the virtual object with the position and orientation changed by the changing unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004336220A JP4630647B2 (en) | 2004-11-19 | 2004-11-19 | Image presentation method and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004336220A JP4630647B2 (en) | 2004-11-19 | 2004-11-19 | Image presentation method and information processing apparatus |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2006146584A JP2006146584A (en) | 2006-06-08 |
JP2006146584A5 JP2006146584A5 (en) | 2008-01-10 |
JP4630647B2 true JP4630647B2 (en) | 2011-02-09 |
Family
ID=36626196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004336220A Expired - Fee Related JP4630647B2 (en) | 2004-11-19 | 2004-11-19 | Image presentation method and information processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4630647B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4883774B2 (en) * | 2006-08-07 | 2012-02-22 | キヤノン株式会社 | Information processing apparatus, control method therefor, and program |
CN112651288B (en) * | 2014-06-14 | 2022-09-20 | 奇跃公司 | Method and system for generating virtual and augmented reality |
JP6948363B2 (en) * | 2014-11-21 | 2021-10-13 | キヤノン株式会社 | Information processing equipment, information processing methods, and programs |
CN113784822B (en) * | 2018-10-10 | 2023-09-26 | 株式会社日立制作所 | Mechanical fastening part management method based on augmented reality |
-
2004
- 2004-11-19 JP JP2004336220A patent/JP4630647B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006146584A (en) | 2006-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7542051B2 (en) | Calibration method and apparatus | |
US8055061B2 (en) | Method and apparatus for generating three-dimensional model information | |
KR102517876B1 (en) | Technique for recording augmented reality data | |
JP5376874B2 (en) | Image processing program and image processing apparatus | |
JP3631151B2 (en) | Information processing apparatus, mixed reality presentation apparatus and method, and storage medium | |
JP4739002B2 (en) | Image processing method and image processing apparatus | |
JP6340017B2 (en) | An imaging system that synthesizes a subject and a three-dimensional virtual space in real time | |
JP5025496B2 (en) | Image processing apparatus and image processing method | |
JP4757115B2 (en) | Image processing apparatus and image processing method | |
US20030062675A1 (en) | Image experiencing system and information processing method | |
EP2818977A1 (en) | Image processing apparatus, image processing method, program, and storage medium | |
US8994729B2 (en) | Method for simulating operation of object and apparatus for the same | |
JP2006048639A (en) | Method and apparatus for processing information | |
JP2006302034A (en) | Image processing method and image processor | |
JP2002157606A (en) | Image display controller, composite reality presentation system, image display control method, and medium providing processing program | |
JP5812665B2 (en) | Information processing system, information processing apparatus, information processing method, and information processing program | |
US20030184602A1 (en) | Information processing method and apparatus | |
JP4785662B2 (en) | Information processing apparatus and information processing method | |
JP2006318095A (en) | Image processing method and image processor | |
JP2013050883A (en) | Information processing program, information processing system, information processor, and information processing method | |
CN109844600A (en) | Information processing equipment, information processing method and program | |
JP2009087161A (en) | Image processor and image processing method | |
JP6295296B2 (en) | Complex system and target marker | |
JP4630647B2 (en) | Image presentation method and information processing apparatus | |
JP2009048237A (en) | Image processor, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071119 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20071119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100222 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100521 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100820 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101105 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101115 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131119 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4630647 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |