JP4630647B2 - Image presentation method and information processing apparatus - Google Patents

Image presentation method and information processing apparatus Download PDF

Info

Publication number
JP4630647B2
JP4630647B2 JP2004336220A JP2004336220A JP4630647B2 JP 4630647 B2 JP4630647 B2 JP 4630647B2 JP 2004336220 A JP2004336220 A JP 2004336220A JP 2004336220 A JP2004336220 A JP 2004336220A JP 4630647 B2 JP4630647 B2 JP 4630647B2
Authority
JP
Japan
Prior art keywords
orientation
virtual object
condition
operation device
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004336220A
Other languages
Japanese (ja)
Other versions
JP2006146584A (en
JP2006146584A5 (en
Inventor
英生 野呂
剛 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004336220A priority Critical patent/JP4630647B2/en
Publication of JP2006146584A publication Critical patent/JP2006146584A/en
Publication of JP2006146584A5 publication Critical patent/JP2006146584A5/ja
Application granted granted Critical
Publication of JP4630647B2 publication Critical patent/JP4630647B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は複合現実感システムにおける仮想物体の提示制御に関する。   The present invention relates to virtual object presentation control in a mixed reality system.

複合現実感システムとは、現実空間映像と、ユーザの視点位置及び視線方向等に応じて生成される仮想空間映像とを合成することにより得られる合成映像をユーザに提供するものである。複合現実感システムでは、現実空間中に仮想物体が実在しているかのような感覚を観察者に提示することが可能であり、従来の仮想現実感システム(VRシステム)に比べてよりリアルに、実寸感覚を伴った観察が可能である。   The mixed reality system provides a user with a synthesized video obtained by synthesizing a real space video and a virtual space video generated according to the user's viewpoint position, line-of-sight direction, and the like. In the mixed reality system, it is possible to present to the observer a feeling as if a virtual object actually exists in the real space, and more realistically than the conventional virtual reality system (VR system), Observation with an actual sense is possible.

複合現実空間内のCG(コンピュータグラフィックス)物体を操作する方法として、現実空間内での位置及び姿勢の6自由度を計測あるいは推定するシステム(ここでは6自由度センサと呼ぶ)を用いて、計測或いは推定された6自由度をCG物体座標系に対応付ける方法がある。このような、計測を実現する6自由度センサとしては、例えばPolhemus社のFastrakシステムを用いることができる。Fastrakシステムは、数センチ角ほどの大きさのレシーバの位置及び姿勢の6自由度を計測できる。この計測値をCG物体の物体座標系に対応付けることにより、当該レシーバの移動や回転につれてCG物体が移動、回転することになる。   As a method of operating a CG (computer graphics) object in the mixed reality space, a system that measures or estimates six degrees of freedom of the position and orientation in the real space (herein called a six degree of freedom sensor) is used. There is a method of associating the measured or estimated six degrees of freedom with the CG object coordinate system. As such a six-degree-of-freedom sensor that realizes measurement, for example, the Fastrak system of Polhemus can be used. The Fastrak system can measure 6 degrees of freedom in the position and orientation of a receiver with a size of several centimeters. By associating this measurement value with the object coordinate system of the CG object, the CG object moves and rotates as the receiver moves and rotates.

このレシーバを操作デバイスに取り付けることにより、操作デバイスによってCG物体を移動する等の操作が可能になる。例えば、指示棒のような操作デバイスにCG物体を関連付けることにより、CG物体を移動させることができる。
特開2004−62758号公報
By attaching the receiver to the operation device, an operation such as moving a CG object by the operation device becomes possible. For example, the CG object can be moved by associating the CG object with an operation device such as a pointer.
JP 2004-62758 A

しかしながら、従来はCG物体と操作デバイスを関連付ける際には、CG物体の姿勢は関連付けが行なわれた時点の状態が維持される。このため、例えば、CG物体をトレイ状の操作デバイスに載せて移動させようとした場合、当該トレイの上でも関連付けした時点のCG物体の姿勢が保たれることになる。従って、例えば、ペンたてに入れてあったペンをトレイに載せても、トレイの上でペンが起立したままとなってしまう。このため、CG物体を現実の物体のように操作、観察することが困難であった。   However, conventionally, when associating the CG object with the operation device, the posture of the CG object is maintained at the time when the association is performed. For this reason, for example, when an attempt is made to move a CG object on a tray-like operation device, the posture of the CG object at the time of association is maintained even on the tray. Therefore, for example, even if the pen that has been put in the pen is placed on the tray, the pen remains standing on the tray. For this reason, it is difficult to manipulate and observe a CG object like a real object.

本発明は上記の課題に鑑みてなされたものであり、操作デバイスと仮想物体とを関連付けた際に、両者の位置姿勢の関係が適切になるように仮想物体を配置可能とし、より自然な仮想物体の操作を実現することを目的とする。   The present invention has been made in view of the above-described problems. When an operation device and a virtual object are associated with each other, the virtual object can be arranged so that the relationship between the positions and orientations thereof is appropriate, and a more natural virtual The object is to realize manipulation of objects.

上記の目的を達成するための本発明による画像提示方法は、
観察者が観察する現実空間に仮想物体を描画する情報処理装置における画像提示方法であって、
検出手段が、現実空間に実在する操作用デバイスの位置姿勢を検出する検出工程と、
判定手段が、仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係であるか否かに基づいて、該仮想物体と該操作用デバイスとを関連付けるか否かを判定する判定工程と、
変更手段が、前記判定工程で関連付けると判定された場合に、前記仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係となるように、該仮想物体の位置姿勢を変更する変更工程と、
描画手段が、前記変更工程で変更された位置姿勢でもって前記仮想物体を描画する描画工程とを備える。
In order to achieve the above object, an image presentation method according to the present invention includes:
An image presentation method in an information processing apparatus for drawing a virtual object in a real space observed by an observer,
A detecting step in which the detecting means detects the position and orientation of the operating device that actually exists in the real space; and
Whether the determination unit associates the virtual object with the operation device based on whether the relationship between the position and orientation of the virtual object and the position and orientation of the operation device is a preset relationship. A determination step for determining;
The position and orientation of the virtual object so that the relationship between the position and orientation of the virtual object and the position and orientation of the operating device is a preset relationship when it is determined that the changing unit associates in the determination step. and a change step of changing,
The drawing means includes a drawing step of drawing the virtual object with the position and orientation changed in the changing step.

また、上記の目的を達成するための本発明による情報処理装置は以下の構成を備える。即ち、
観察者が観察する現実空間に仮想物体を描画する情報処理装置であって、
現実空間に実在する操作用デバイスの位置姿勢を検出する検出手段と、
仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係であるか否かに基づいて、該仮想物体と該操作用デバイスとを関連付けるか否かを判定する判定手段と、
前記判定手段で関連付けると判定された場合に、前記仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係となるように、該仮想物体の位置姿勢を変更する変更手段と、
前記変更手段で変更された位置姿勢でもって前記仮想物体を描画する描画手段とを備える。
In order to achieve the above object, an information processing apparatus according to the present invention comprises the following arrangement. That is,
An information processing apparatus for drawing a virtual object in a real space observed by an observer,
Detection means for detecting the position and orientation of the operating device that actually exists in the real space;
Determination means for determining whether or not to associate the virtual object with the operation device based on whether or not the relationship between the position and orientation of the virtual object and the position and orientation of the operation device is a preset relationship When,
Change that changes the position and orientation of the virtual object so that the relationship between the position and orientation of the virtual object and the position and orientation of the operating device is a preset relationship when it is determined by the determination means Means,
Drawing means for drawing the virtual object with the position and orientation changed by the changing means.

本発明によれば、操作デバイスと仮想物体とを関連付けた際に、両者の位置姿勢の関係が適切になるように仮想物体が配置されるので、より自然な仮想物体の操作を実現することを目的とする。   According to the present invention, when the operation device and the virtual object are associated with each other, the virtual object is arranged so that the relationship between the positions and orientations thereof is appropriate. Objective.

以下の実施形態では、下敷き状の操作デバイスに6自由度センサを取り付けることにより、CG物体をあたかも下敷きの上に載せているかのように操作、観察することを可能にする例を説明する。またねじ回し状の操作デバイスに6自由度センサを取り付けることにより、CGのねじを操作することを可能とする例を説明する。   In the following embodiment, an example will be described in which a 6-degree-of-freedom sensor is attached to an underlay-like operation device, so that a CG object can be operated and observed as if it is placed on the underlay. An example will be described in which a CG screw can be operated by attaching a 6-degree-of-freedom sensor to a screwdriver-like operation device.

なお、操作デバイスそのものが下敷き状であったり、ねじ回し状である必要は、必ずしもない。例えば単なるレシーバをそのまま操作デバイスとして用い、下敷き状のものはCGで表示すれば、操作者は下敷き状の操作デバイスとして使用できる。またねじ回しのグリップの部分だけの操作デバイスに軸の部分をCGで表示させれば、操作者にとってはねじ回し状の操作デバイスとして使用できる(図5(a)により後述する)。以下、操作者が操作していると考えているもの−下敷き状の操作デバイスやねじ回し状の操作デバイス−を操作アイテムと呼ぶ。すなわち、操作アイテムは実体としての操作デバイスと視覚的に不足している部分を補うCGとからなるように構成してもよい。   Note that the operation device itself is not necessarily in the form of an underlay or a screwdriver. For example, if a simple receiver is used as an operation device as it is and an underlay-like device is displayed in CG, the operator can use it as an underlay-like operation device. Further, if the shaft portion is displayed in CG on the operation device having only the grip portion of the screwdriver, the operator can use it as a screwdriver-like operation device (described later with reference to FIG. 5A). Hereinafter, what the operator thinks is operating—an underlay-like operation device or a screwdriver-like operation device—is referred to as an operation item. That is, the operation item may be configured to include an operation device as an entity and a CG that supplements a visually lacking portion.

また、以下の実施形態では、所望のタイミングでCG物体を操作アイテムに関連付けたり、その関連を解いたりすることを可能とし、さらに現実味を帯びた体験を実現可能にしている。例えば、棚に入れてあるりんごのCGを下敷き状の操作アイテムに関連付けることにより、りんごを下敷きの上に載せているかのように移動させることができ、さらに机の上でりんごのCGと下敷き状の操作アイテムとの関連を解くことにより、机の上にりんごを置く−すなわち、下敷きを用いてりんごを棚から机まで移動する−ことが実現できる。また部品トレイに載っているねじのCGをねじ回し状の操作アイテムに関連付けることにより、ねじをねじ穴まで移動させることができ、さらにそこで関連を解くことにより、部品トレイに載っているねじをねじ穴に入れる(ねじ締め)という動作を実現できる。   Further, in the following embodiments, it is possible to associate a CG object with an operation item at a desired timing, or to solve the association, and further, it is possible to realize a realistic experience. For example, by associating an apple CG on a shelf with an underlay-like operation item, the apple can be moved as if it is on the underlay, and the apple CG and underlay on the desk. By solving the relationship with the operation item, it is possible to place the apple on the desk-that is, to move the apple from the shelf to the desk using the underlay. Also, by associating the CG of the screw on the component tray with the screwdriver-like operation item, the screw can be moved to the screw hole, and further, the screw on the component tray is The operation of inserting into the hole (screw tightening) can be realized.

以下、添付の図面を参照して本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は本実施形態による仮想現実感提示システムの構成例を示す図である。100は、頭部装着型映像入出力装置(頭部装着型ディスプレイ、HMD:Head Mounted Displayなどと呼ばれるものであり、以下、HMDと記載する)である。観察者はHMD100を頭部に装着することにより、現実空間と仮想空間を合成した映像を観察することができる。磁気トランスミッタ200は磁場を発生させ、磁気レシーバ201、202は磁気トランスミッタ200が発生させた磁場の変化を計測する。位置・姿勢計測装置205は、磁気トランスミッタ200を制御するとともに、磁気レシーバ201、202からの計測結果に基づいて各磁気レシーバの位置・姿勢を計測する。HMD100には、磁気レシーバ201が取り付けられており、観察者の視点位置、視線方向を算出する。   FIG. 1 is a diagram illustrating a configuration example of a virtual reality presentation system according to the present embodiment. Reference numeral 100 denotes a head-mounted video input / output device (called a head-mounted display, HMD: Head Mounted Display, etc., hereinafter referred to as HMD). An observer can observe an image obtained by combining the real space and the virtual space by wearing the HMD 100 on the head. The magnetic transmitter 200 generates a magnetic field, and the magnetic receivers 201 and 202 measure changes in the magnetic field generated by the magnetic transmitter 200. The position / orientation measuring apparatus 205 controls the magnetic transmitter 200 and measures the position / orientation of each magnetic receiver based on the measurement results from the magnetic receivers 201 and 202. A magnetic receiver 201 is attached to the HMD 100, and the viewpoint position and line-of-sight direction of the observer are calculated.

操作デバイス300は観察者が操作可能な操作アイテムを形成するために用いられるものであり、磁気レシーバ202が組み込まれている。磁気レシーバ202の計測結果に基づいて、位置・姿勢計測装置205は、操作デバイス300の位置・姿勢、すなわち操作アイテムの位置・姿勢を算出することができる。ここでは操作デバイス300には下敷き状の部分が設けられており、CGによる補充を行なうことなく操作アイテムが形成されているものとする。HMD100には、映像表示装置101、映像入力装置102が、それぞれ右目、左目用に1セットづつ、計2セット組み込まれている。   The operation device 300 is used to form an operation item that can be operated by an observer, and a magnetic receiver 202 is incorporated therein. Based on the measurement result of the magnetic receiver 202, the position / posture measurement apparatus 205 can calculate the position / posture of the operation device 300, that is, the position / posture of the operation item. Here, it is assumed that the operation device 300 is provided with an underlay-like portion, and an operation item is formed without replenishment with CG. The HMD 100 incorporates two sets of video display devices 101 and video input devices 102, one set for each of the right eye and the left eye.

情報処理装置400は、位置・姿勢計測装置205により算出された位置・姿勢情報に基づいてCG映像を生成し、これをHMD100の映像入力装置102より入力した映像に重畳して合成映像を生成し、得られた合成映像を映像表示装置101に向けて出力する。   The information processing apparatus 400 generates a CG image based on the position / orientation information calculated by the position / orientation measurement apparatus 205 and superimposes the CG image on the image input from the image input apparatus 102 of the HMD 100 to generate a composite image. The obtained synthesized video is output to the video display device 101.

なお、本実施形態において、6自由度センサとは磁気レシーバ201、202を指し、6自由度センサシステムとは、磁気トランスミッタ200、磁気レシーバ201、202、位置・姿勢計測装置205、および情報処理装置400内部で動作し磁気レシーバ201及び202の位置及び姿勢を得るための不図示のソフトウェア一式を指す。また6自由度センサを区別するため、磁気レシーバ201を視点検出用6自由度センサ、磁気レシーバ202を物体操作用6自由度センサと呼ぶことにする。   In the present embodiment, the six-degree-of-freedom sensor refers to the magnetic receivers 201 and 202, and the six-degree-of-freedom sensor system refers to the magnetic transmitter 200, the magnetic receivers 201 and 202, the position / posture measuring device 205, and the information processing device. It refers to a set of software (not shown) that operates within the 400 and obtains the position and orientation of the magnetic receivers 201 and 202. In order to distinguish the six-degree-of-freedom sensors, the magnetic receiver 201 is called a viewpoint detection six-degree-of-freedom sensor, and the magnetic receiver 202 is called an object manipulation six-degree-of-freedom sensor.

次に、本実施形態のHMD100の具体的な構成について図2を参照して説明する。図1にも示されている映像表示装置101は、0.5〜数インチ程度の小型の液晶表示デバイス等で構成されるものである。自由曲面プリズム103は、映像表示装置101の映像を拡大するレンズの役目を果たす。これらの構成により、映像表示装置101に表示された映像は、観察者にとってはたとえば2m先の90インチ相当の映像として提示されることになる。   Next, a specific configuration of the HMD 100 of the present embodiment will be described with reference to FIG. The video display device 101 also shown in FIG. 1 is configured by a small liquid crystal display device of about 0.5 to several inches. The free-form surface prism 103 serves as a lens for enlarging the image of the image display device 101. With these configurations, the image displayed on the image display device 101 is presented to the observer as an image equivalent to 90 inches, for example, 2 meters ahead.

図1にも示されている映像入力装置102は、CCDカメラ、CMOSカメラなどの撮像デバイスで構成されるものである。撮像系プリズム104は現実空間の光を映像入力装置102に収束させるためのレンズの役目を果たす。この撮像系プリズム104を自由曲面プリズム103の外側に、光軸を一致させるように配置することで、映像入力装置102で入力した映像と、映像表示装置101に表示した映像の視差をなくし、現実空間の映像を違和感なく再現することが可能となる。   The video input device 102 also shown in FIG. 1 is configured by an imaging device such as a CCD camera or a CMOS camera. The imaging system prism 104 serves as a lens for converging light in the real space to the video input device 102. By disposing the imaging system prism 104 outside the free-form surface prism 103 so that the optical axes coincide with each other, the parallax between the video input by the video input device 102 and the video displayed on the video display device 101 is eliminated. It is possible to reproduce the image of the space without a sense of incongruity.

次に、図1における情報処理装置400の具体的な構成について、図3を参照して説明する。なお、情報処理装置400は一般的なパーソナルコンピュータやワークステーションにより実現可能であり、図3に示される各部の機能は不図示のCPUが所定の制御プログラムを実行することにより実現されるものである。   Next, a specific configuration of the information processing apparatus 400 in FIG. 1 will be described with reference to FIG. The information processing apparatus 400 can be realized by a general personal computer or workstation, and the functions of each unit shown in FIG. 3 are realized by a CPU (not shown) executing a predetermined control program. .

映像キャプチャ部401R,Lは、映像入力装置102より入力した映像データを処理装置内にデジタル信号として取り込む。位置・姿勢情報入力部404は位置・姿勢計測装置205より送られるHMD100と物体操作デバイス300の位置・姿勢のデータを情報処理装置400内に取り込む。位置・姿勢算出部405は位置・姿勢入力部404からのデータをもとに、HMD100と物体操作デバイス300の位置を算出する。この算出結果は3DCGデータ406に反映される。なお、3DCGデータ406は例えば情報処理装置400が有するハードディスク或いはRAM等に格納される。3DCGデータ406には、物体操作デバイス300によって直接操作される操作アイテムの3DCGデータ、及び当該操作アイテムによって操作を行おうとするCG物体の3DCGデータが含まれる。更に3DCGデータ406は、操作アイテムの世界座標系での位置・姿勢、HMD100の位置・姿勢等のCG描画に必要なデータも含んでいる。CGレンダリング部407は、3DCGデータ406に基づいて、CGデータを描画すべき位置、大きさ、角度(パース)などを計算し、CG物体等の3DCGデータをレンダリングする。   The video capture units 401R and 401L capture video data input from the video input device 102 as digital signals in the processing device. The position / posture information input unit 404 captures the position / posture data of the HMD 100 and the object operation device 300 sent from the position / posture measurement apparatus 205 into the information processing apparatus 400. The position / posture calculation unit 405 calculates the positions of the HMD 100 and the object operation device 300 based on the data from the position / posture input unit 404. This calculation result is reflected in the 3DCG data 406. Note that the 3DCG data 406 is stored in, for example, a hard disk or a RAM included in the information processing apparatus 400. The 3DCG data 406 includes 3DCG data of an operation item directly operated by the object operation device 300 and 3DCG data of a CG object to be operated by the operation item. Further, the 3DCG data 406 includes data necessary for CG drawing, such as the position / posture of the operation item in the world coordinate system and the position / posture of the HMD 100. Based on the 3DCG data 406, the CG rendering unit 407 calculates the position, size, angle (perspective), and the like at which CG data should be drawn, and renders 3DCG data such as a CG object.

映像合成部402R,Lは、映像キャプチャ部401R,Lからの映像データと、CGレンダリング部407でレンダリングされたCGを合成し、右目用、左目用の合成画像を生成する。映像生成部403R,Lは、映像合成部402R,Lで生成された右目用、左目用の合成画像を映像信号として映像表示装置101へ送る。   The video synthesizing units 402R, L synthesize the video data from the video capturing units 401R, 401 and the CG rendered by the CG rendering unit 407, and generate a composite image for the right eye and the left eye. The video generation units 403R and L send the right-eye and left-eye composite images generated by the video synthesis units 402R and L to the video display device 101 as video signals.

配置ルール408は、CG物体の操作アイテムに対する固定・解放を、「どのタイミングで」「どのように」実行するのかを定めた情報である。配置ルール408は例えば情報処理装置400内のハードディスクやRAM等に格納される。配置判断部409は、配置ルール408に従って、CG物体の配置の判断を行う。配置判断部409による判断結果は座標変換部413に渡される。座標変換部413は、配置判断部409の判断結果、即ち配置ルール408に基づいて3DCGデータ406に対して変更を行う。   The arrangement rule 408 is information that defines “at what timing” and “how” to execute the fixation / release of the operation item of the CG object. The arrangement rule 408 is stored in, for example, a hard disk or RAM in the information processing apparatus 400. The arrangement determination unit 409 determines the arrangement of the CG object according to the arrangement rule 408. The determination result by the arrangement determination unit 409 is passed to the coordinate conversion unit 413. The coordinate conversion unit 413 changes the 3DCG data 406 based on the determination result of the arrangement determination unit 409, that is, the arrangement rule 408.

配置ルールの条件には、様々な条件が記述される。配置条件算出部412はそれらの条件を満足するか否かを計算する。配置条件算出部412は、条件に応じてシステムに1つ以上存在する。配置条件算出部412の結果が配置判断部409に渡される。配置条件算出部412の入力としては、CG物体の特徴を用いる場合とそれ以外の場合とがある。CG物体の特徴を用いる場合は、CG配置特徴抽出部410を用い、それ以外の場合は配置特徴抽出部411を用いる。   Various conditions are described in the conditions of the placement rule. The arrangement condition calculation unit 412 calculates whether or not these conditions are satisfied. One or more arrangement condition calculation units 412 exist in the system according to the conditions. The result of the arrangement condition calculation unit 412 is passed to the arrangement determination unit 409. The input of the arrangement condition calculation unit 412 includes a case where the feature of the CG object is used and a case other than that. When the features of the CG object are used, the CG arrangement feature extraction unit 410 is used. In other cases, the arrangement feature extraction unit 411 is used.

CG配置特徴抽出部410は3DCGデータから特定の特徴を抽出する。なお、複雑な特徴の場合は他のCG配置特徴抽出部410の出力も入力として用いることがある。例えば、所定形状の部品を扱う場合に、当該部品のサイズが必要な場合がある。そこで、「当該部品のサイズ」を算出するCG配置特徴抽出部が必要となる。その部品のサイズがプロパティになっていればそれを読み出すだけで済むが、そうではない場合、面情報からサイズを取得する必要があり、その処理の全て或いはいくつかのステップをまとめて、CG配置特徴抽出部とすることになる。CG配置特徴抽出部410は配置ルール408で宣言されている特徴(例えば、CG物体に対して設定された複数の面の各々の位置姿勢)によりシステムに1つ以上存在する。本実施形態では、CG配置特徴抽出部410は、CG物体のバウンディングボックスの各面の位置、姿勢を算出するとともに、操作デバイス300の下敷き状の面の位置、姿勢も算出する。もちろん、操作アイテムの下敷き状の面はCGで補充されていてもよく、その場合は3DCGデータと操作デバイス300の位置姿勢情報から面の位置姿勢が算出されることになる。配置特徴抽出部411は例えば押しボタンが押されたかどうかといった外部デバイスからの入力や、映像キャプチャ部401で取得した映像に対して画像処理を施した結果といったような情報処理装置400の内部状態を入力とするような場合に用いる。配置特徴抽出部411は配置ルール408の条件により、システムに存在しない場合、1つ存在する場合、あるいは複数存在する場合がある。なお、映像キャプチャ部401で取得した映像に対して画像処理を施した結果といったような情報処理装置400の内部状態を入力とするような場合とは、例えば、以下のような場合である。ZIFソケット(Zero Insertion Force Socket;ICソケットの一種で、ROMライター等の抜き差しが多い機器、最近の多ピンCPU/MPU等の抜き差しに力のかかるもの、力に弱く破損してしまうものを扱う場合に使われる)にICを抜き差しするような場合、レバーがリリース状態でなければICの抜き差しはできまない。従って、ICをCG、ZIFソケットを実物体とする場合、ZIFソケットのレバーがリリース状態なのかロック状態なのかを画像処理によって求め、この結果を用いてCGのICの抜き差しの可否を決定する。   The CG arrangement feature extraction unit 410 extracts specific features from the 3DCG data. In the case of a complicated feature, the output of another CG arrangement feature extraction unit 410 may be used as an input. For example, when handling a part having a predetermined shape, the size of the part may be required. Therefore, a CG arrangement feature extraction unit for calculating “the size of the part” is required. If the size of the part is a property, it is only necessary to read it, but if it is not, it is necessary to obtain the size from the surface information. The feature extraction unit will be used. One or more CG placement feature extraction units 410 exist in the system depending on the features declared in the placement rules 408 (for example, the positions and orientations of a plurality of surfaces set for the CG object). In the present embodiment, the CG arrangement feature extraction unit 410 calculates the position and orientation of each surface of the bounding box of the CG object, and also calculates the position and orientation of the underlying surface of the operation device 300. Of course, the underlying surface of the operation item may be supplemented with CG. In this case, the position and orientation of the surface are calculated from the 3DCG data and the position and orientation information of the operation device 300. The arrangement feature extraction unit 411 indicates an internal state of the information processing apparatus 400 such as an input from an external device such as whether or not a push button has been pressed, and a result of image processing performed on a video acquired by the video capture unit 401. Used for input. Depending on the conditions of the placement rule 408, the placement feature extraction unit 411 may exist in the system, may exist, or may exist. Note that the case where the internal state of the information processing apparatus 400 such as the result of performing image processing on the video acquired by the video capture unit 401 is input is, for example, the following case. ZIF socket (Zero Insertion Force Socket; a type of IC socket that handles devices that are frequently inserted and removed, such as ROM writers, and those that require a lot of force to insert and remove the latest multi-pin CPU / MPU, etc. If the lever is in the released state, the IC cannot be inserted or removed. Therefore, when the IC is a CG and the ZIF socket is a real object, whether the lever of the ZIF socket is in the released state or the locked state is obtained by image processing, and whether or not the CG IC can be inserted and removed is determined using this result.

上記構成によるシステムの処理の流れを、図4を使って説明する。磁気トランスミッタ200と磁気レシーバ202のデータを使って、位置・姿勢計測装置205は物体操作デバイス300の現実空間中における位置・姿勢を計測する(ステップS2010)。同様に、磁気トランスミッタ200と磁気レシーバ201のデータを使って、位置・姿勢計測装置205は観察者が装着しているHMD100の現実空間中における位置・姿勢を計測する(S2020)。計測により得られたデータは、位置・姿勢情報入力部404を通して情報処理装置400に取り込まれる。そして、位置・姿勢算出部405において各CGオブジェクトがどのような位置および姿勢で描画されるかが計算され、その結果が3DCGデータ406に反映される(S2030)。   The process flow of the system configured as described above will be described with reference to FIG. Using the data of the magnetic transmitter 200 and the magnetic receiver 202, the position / orientation measuring apparatus 205 measures the position / orientation of the object operating device 300 in the real space (step S2010). Similarly, using the data of the magnetic transmitter 200 and the magnetic receiver 201, the position / posture measuring apparatus 205 measures the position / posture in the real space of the HMD 100 worn by the observer (S2020). Data obtained by the measurement is taken into the information processing apparatus 400 through the position / posture information input unit 404. The position / orientation calculation unit 405 calculates the position and orientation at which each CG object is drawn, and the result is reflected in the 3DCG data 406 (S2030).

これらの処理と並行して、配置ルールに応じた処理を行い、3DCGデータに反映させる。ここでは例として、下敷き状の操作アイテム(操作デバイス300)を用いて、これをCG物体に近づけた状態で当該操作デバイス300に設けられた押しボタン(不図示)を押すことにより、該CG物体が下敷きの面にぴったりと載るようにすることを考える。まず、以下で説明する処理に使用される面を説明する。
・下敷き面1:下敷き状操作アイテムの表の面
・下敷き面2:下敷き状操作アイテムの裏の面
・物体面1〜6:CG物体の物体座標系における6面体のバウンディングボックスを構成する各面。
In parallel with these processes, a process according to the arrangement rule is performed and reflected in the 3DCG data. Here, as an example, by using an underlay-like operation item (operation device 300) and pressing this button close to the CG object, a push button (not shown) provided on the operation device 300 is pressed, thereby the CG object Think of making it fit exactly on the surface of the underlay. First, the surface used for the process demonstrated below is demonstrated.
・ Under surface 1: Front surface of underlay operation item ・ Under surface 2: Back surface of underlay operation item ・ Object surfaces 1 to 6: Each surface constituting a hexahedral bounding box in the object coordinate system of a CG object .

本実施形態では、配置ルール408が例えば以下のように設定されているとする(∧は論理積を、¬は否定を表す)。
条件1:押しボタンが押された。
条件2:CG物体の物体座標系が世界座標系内に静止している。
条件3:下敷き面1と物体面1の同一度が他の組み合わせの同一度より高い。
条件4:下敷き面1と物体面2の同一度が他の組み合わせの同一度より高い。
条件5:下敷き面1と物体面3の同一度が他の組み合わせの同一度より高い。
条件6:下敷き面1と物体面4の同一度が他の組み合わせの同一度より高い。
条件7:下敷き面1と物体面5の同一度が他の組み合わせの同一度より高い。
条件8:下敷き面1と物体面6の同一度が他の組み合わせの同一度より高い。
条件9:下敷き面2と物体面1の同一度が他の組み合わせの同一度より高い。
条件10:下敷き面2と物体面2の同一度が他の組み合わせの同一度より高い。
条件11:下敷き面2と物体面3の同一度が他の組み合わせの同一度より高い。
条件12:下敷き面2と物体面4の同一度が他の組み合わせの同一度より高い。
条件13:下敷き面2と物体面5の同一度が他の組み合わせの同一度より高い。
条件14:下敷き面2と物体面6の同一度が他の組み合わせの同一度より高い。
指示1:CG物体の物体座標系を操作アイテムの物体座標系内に静止。
指示2:CG物体の物体座標系を世界座標系内に静止。
指示3:物体面1を下敷き面1上に移動・回転。
指示4:物体面2を下敷き面1上に移動・回転。
指示5:物体面3を下敷き面1上に移動・回転。
指示6:物体面4を下敷き面1上に移動・回転。
指示7:物体面5を下敷き面1上に移動・回転。
指示8:物体面6を下敷き面1上に移動・回転。
指示9:物体面1を下敷き面2上に移動・回転。
指示10:物体面2を下敷き面2上に移動・回転。
指示11:物体面3を下敷き面2上に移動・回転。
指示12:物体面4を下敷き面2上に移動・回転。
指示13:物体面5を下敷き面2上に移動・回転。
指示14:物体面6を下敷き面2上に移動・回転。
(条件1)∧(条件2)∧(条件3)⇒(指示1)∧(指示3)。
(条件1)∧(条件2)∧(条件4)⇒(指示1)∧(指示4)。
(条件1)∧(条件2)∧(条件5)⇒(指示1)∧(指示5)。
(条件1)∧(条件2)∧(条件6)⇒(指示1)∧(指示6)。
(条件1)∧(条件2)∧(条件7)⇒(指示1)∧(指示7)。
(条件1)∧(条件2)∧(条件8)⇒(指示1)∧(指示8)。
(条件1)∧(条件2)∧(条件9)⇒(指示1)∧(指示9)。
(条件1)∧(条件2)∧(条件10)⇒(指示1)∧(指示10)。
(条件1)∧(条件2)∧(条件11)⇒(指示1)∧(指示11)。
(条件1)∧(条件2)∧(条件12)⇒(指示1)∧(指示12)。
(条件1)∧(条件2)∧(条件13)⇒(指示1)∧(指示13)。
(条件1)∧(条件2)∧(条件14)⇒(指示1)∧(指示14)。
(条件1)∧¬(条件2)∧(条件3)⇒(指示2)∧(指示3)。
(条件1)∧¬(条件2)∧(条件4)⇒(指示2)∧(指示4)。
(条件1)∧¬(条件2)∧(条件5)⇒(指示2)∧(指示5)。
(条件1)∧¬(条件2)∧(条件6)⇒(指示2)∧(指示6)。
(条件1)∧¬(条件2)∧(条件7)⇒(指示2)∧(指示7)。
(条件1)∧¬(条件2)∧(条件8)⇒(指示2)∧(指示8)。
(条件1)∧¬(条件2)∧(条件9)⇒(指示2)∧(指示9)。
(条件1)∧¬(条件2)∧(条件10)⇒(指示2)∧(指示10)。
(条件1)∧¬(条件2)∧(条件11)⇒(指示2)∧(指示11)。
(条件1)∧¬(条件2)∧(条件12)⇒(指示2)∧(指示12)。
(条件1)∧¬(条件2)∧(条件13)⇒(指示2)∧(指示13)。
(条件1)∧¬(条件2)∧(条件14)⇒(指示2)∧(指示14)。
In the present embodiment, it is assumed that the arrangement rule 408 is set as follows, for example (∧ represents a logical product, and ¬ represents negative).
Condition 1: The push button was pressed.
Condition 2: The object coordinate system of the CG object is stationary in the world coordinate system.
Condition 3: The degree of identity of the underlying surface 1 and the object surface 1 is higher than the degree of identity of other combinations.
Condition 4: The degree of identity of the underlying surface 1 and the object surface 2 is higher than the degree of identity of other combinations.
Condition 5: The degree of identity of the underlying surface 1 and the object surface 3 is higher than the degree of identity of other combinations.
Condition 6: The degree of identity of the underlying surface 1 and the object surface 4 is higher than the degree of identity of other combinations.
Condition 7: The degree of identity of the underlying surface 1 and the object surface 5 is higher than the degree of identity of other combinations.
Condition 8: The degree of identity of the underlying surface 1 and the object surface 6 is higher than the degree of identity of other combinations.
Condition 9: The degree of identity of the underlying surface 2 and the object surface 1 is higher than the degree of identity of the other combinations.
Condition 10: The degree of identity of the underlying surface 2 and the object surface 2 is higher than the degree of identity of other combinations.
Condition 11: The degree of identity of the underlying surface 2 and the object surface 3 is higher than the degree of identity of other combinations.
Condition 12: The degree of identity of the underlying surface 2 and the object surface 4 is higher than the degree of identity of other combinations.
Condition 13: The degree of identity of the underlay surface 2 and the object surface 5 is higher than the degree of identity of other combinations.
Condition 14: The degree of identity of the underlying surface 2 and the object surface 6 is higher than the degree of identity of other combinations.
Instruction 1: The object coordinate system of the CG object is stationary within the object coordinate system of the operation item.
Instruction 2: The object coordinate system of the CG object is stationary in the world coordinate system.
Instruction 3: Move / rotate the object surface 1 on the underlying surface 1.
Instruction 4: Move / rotate the object surface 2 on the underlying surface 1.
Instruction 5: Move / rotate the object surface 3 on the underlying surface 1.
Instruction 6: Move / rotate the object surface 4 onto the underlay surface 1.
Instruction 7: Move / rotate the object surface 5 on the underlying surface 1.
Instruction 8: Move / rotate the object surface 6 on the underlying surface 1.
Instruction 9: Move / rotate the object surface 1 on the underlying surface 2.
Instruction 10: Move / rotate the object surface 2 onto the underlay surface 2.
Instruction 11: Move / rotate the object surface 3 on the underlying surface 2.
Instruction 12: Move / rotate the object surface 4 onto the underlay surface 2.
Instruction 13: Move / rotate the object surface 5 on the underlying surface 2.
Instruction 14: Move / rotate the object surface 6 onto the underlying surface 2.
(Condition 1) ∧ (Condition 2) ∧ (Condition 3) ⇒ (Instruction 1) ∧ (Instruction 3).
(Condition 1) ∧ (Condition 2) ∧ (Condition 4) ⇒ (Instruction 1) ∧ (Instruction 4).
(Condition 1) ∧ (Condition 2) ∧ (Condition 5) ⇒ (Instruction 1) ∧ (Instruction 5).
(Condition 1) ∧ (Condition 2) ∧ (Condition 6) ⇒ (Instruction 1) ∧ (Instruction 6).
(Condition 1) ∧ (Condition 2) ∧ (Condition 7) ⇒ (Instruction 1) ∧ (Instruction 7).
(Condition 1) ∧ (Condition 2) ∧ (Condition 8) ⇒ (Instruction 1) ∧ (Instruction 8).
(Condition 1) ∧ (Condition 2) ∧ (Condition 9) ⇒ (Instruction 1) ∧ (Instruction 9).
(Condition 1) ∧ (Condition 2) ∧ (Condition 10) ⇒ (Instruction 1) ∧ (Instruction 10).
(Condition 1) ∧ (Condition 2) ∧ (Condition 11) ⇒ (Instruction 1) ∧ (Instruction 11).
(Condition 1) ∧ (Condition 2) ∧ (Condition 12) ⇒ (Instruction 1) ∧ (Instruction 12).
(Condition 1) ∧ (Condition 2) ∧ (Condition 13) ⇒ (Instruction 1) ∧ (Instruction 13).
(Condition 1) ∧ (Condition 2) ∧ (Condition 14) ⇒ (Instruction 1) ∧ (Instruction 14).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 3) ⇒ (Instruction 2) ∧ (Instruction 3).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 4) ⇒ (Instruction 2) ∧ (Instruction 4).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 5) ⇒ (Instruction 2) ∧ (Instruction 5).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 6) ⇒ (Instruction 2) ∧ (Instruction 6).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 7) ⇒ (Instruction 2) ∧ (Instruction 7).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 8) ⇒ (Instruction 2) ∧ (Instruction 8).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 9) ⇒ (Instruction 2) ∧ (Instruction 9).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 10) ⇒ (Instruction 2) ∧ (Instruction 10).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 11) ⇒ (Instruction 2) ∧ (Instruction 11).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 12) ⇒ (Instruction 2) ∧ (Instruction 12).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 13) ⇒ (Instruction 2) ∧ (Instruction 13).
(Condition 1) ∧¬ (Condition 2) ∧ (Condition 14) ⇒ (Instruction 2) ∧ (Instruction 14).

ここで面Aと面Bの同一度は、本実施形態ではたとえば以下のように定義される。
・面Aの法線ベクトルと面Bの法線ベクトルの内積≧0の場合⇒同一度を0とする、
・上記以外の場合⇒面Aと面Bの距離の逆数を同一度する。
なお、面Aと面Bの距離とは、例えば面Aと面Bの重心間の距離を用いればよい。
Here, the degree of identity between the surface A and the surface B is defined as follows in the present embodiment, for example.
-If the inner product of the normal vector of surface A and the normal vector of surface B ≥ 0 ⇒ the degree of identity is 0
・ Other than above ⇒ Make the reciprocal of the distance between surface A and surface B equal.
As the distance between the surface A and the surface B, for example, the distance between the centers of gravity of the surface A and the surface B may be used.

以下、前提条件として条件2が成立している、すなわちCG物体の物体座標系が世界座標系内に静止している場合を例にとって説明する。   In the following, a case will be described as an example where Condition 2 is satisfied as a precondition, that is, the object coordinate system of the CG object is stationary in the world coordinate system.

CG配置特徴抽出部では3DCGデータ406からCG配置特徴の抽出を行う(S3010)。具体的にはCG物体の物体座標系と世界座標系との関係、下敷き面1、下敷き面2、物体面1、物体面2、物体面3、物体面4、物体面5、物体面6の抽出である。また配置特徴抽出部411では操作アイテムの押しボタンがされたか否かという配置特徴の抽出を行う(S3020)。CG配置特徴抽出部410、配置特徴抽出部411で抽出された特徴は配置条件算出部412によって、条件1の成否、条件2の成否、…、条件14の成否というように配置条件の値(成否を表す)が算出される(S3030)。これら配置条件の値を元に配置判断部409では配置判断を行う(S3040)。その結果、例えば(条件1)∧(条件2)∧(条件3)が成立した場合は、上記のように(指示1)∧(指示3)という指示が配置判断部409から座標変換部413に送られる。そして、3DCGデータ406に対して、指示1、指示3が実行される(S3050)。こうして、CG物体に設定された物体面1と操作アイテムに設定された下敷き面1とを近づけた状態で押しボタンが押されると、座標変換部413は、物体面1と下敷き面1の位置及びそれらの法線方向が一致するように(より厳密には、それらの法線が正反対の向き(法線ベクトルの内積が−1)となるように)CG物体を移動、回転し、その状態で当該CG物体の物体座標系を操作アイテムの物体座標系に内に静止させることにより、両者の関連付けを行なう。   The CG arrangement feature extraction unit extracts CG arrangement features from the 3DCG data 406 (S3010). Specifically, the relationship between the object coordinate system of the CG object and the world coordinate system, the underlying surface 1, the underlying surface 2, the object surface 1, the object surface 2, the object surface 3, the object surface 4, the object surface 5, and the object surface 6 Extraction. In addition, the arrangement feature extraction unit 411 extracts arrangement characteristics indicating whether or not the operation item push button has been pressed (S3020). The features extracted by the CG placement feature extraction unit 410 and the placement feature extraction unit 411 are arranged by the placement condition calculation unit 412 with values of placement conditions (success / failure) such as success / failure of condition 1, success / failure of condition 2,. Is expressed (S3030). Based on the values of these arrangement conditions, the arrangement determination unit 409 makes an arrangement determination (S3040). As a result, for example, when (Condition 1) ∧ (Condition 2) 成立 (Condition 3) is satisfied, the instruction (Instruction 1) ∧ (Instruction 3) is sent from the arrangement determination unit 409 to the coordinate conversion unit 413 as described above. Sent. Then, instructions 1 and 3 are executed for the 3DCG data 406 (S3050). Thus, when the push button is pressed in a state where the object surface 1 set as the CG object and the underlay surface 1 set as the operation item are brought close to each other, the coordinate conversion unit 413 causes the positions of the object surface 1 and the underlay surface 1 and Move and rotate the CG object so that their normal directions match (more precisely, their normals are in opposite directions (inner product of normal vectors is -1)) By associating the object coordinate system of the CG object within the object coordinate system of the operation item, the two are associated with each other.

さらに上記の動作と並行して、HMD100の映像入力装置101より現実空間の映像が映像キャプチャ部401を通して情報処理装置400に取り込まれる(S4010)。CGレンダリング部407では3DCGデータ406を使ってCGを描画し、ビデオバッファなどのメモリに展開する(S2040)。この結果、CG物体の物体面1と操作アイテムの下敷き面1(表面)とが一致するようにCG物体が描画される。一方S4010で取り込んだ現実空間の映像データもビデオバッファなどのメモリに展開し(S4020)、映像合成部402において上記S2040で生成したCG映像を重畳する(S5010)。合成された映像は、映像生成部403を経由して、HMD100の映像表示装置101に表示される(S5020)。   Further, in parallel with the above operation, an image in the real space is taken into the information processing apparatus 400 through the video capture unit 401 from the video input device 101 of the HMD 100 (S4010). The CG rendering unit 407 renders a CG using the 3DCG data 406 and develops it in a memory such as a video buffer (S2040). As a result, the CG object is drawn so that the object surface 1 of the CG object and the underlay surface 1 (surface) of the operation item coincide. On the other hand, the real space video data captured in S4010 is also developed in a memory such as a video buffer (S4020), and the video synthesis unit 402 superimposes the CG video generated in S2040 (S5010). The synthesized video is displayed on the video display device 101 of the HMD 100 via the video generation unit 403 (S5020).

上記S2010、S2020、S2030、S2040、S4010、S4020、S5010、S5020の処理を映像表示装置101における映像更新間隔あるいはCG描画2040における更新間隔で繰り返し行うことで、リアルタイムに情報提示を行う。   Information is presented in real time by repeatedly performing the processes of S2010, S2020, S2030, S2040, S4010, S4020, S5010, and S5020 at the video update interval in the video display device 101 or the update interval in the CG rendering 2040.

なお、上記配置ルールの変更により、例えばトレイの面とCGオブジェクトのバウンディングボックスの上面とがいくら近づいても関連付けが実行されないようにしたりするなど、所望の設定を行なうことができる。また、配置ルールとして記述可能としたことにより、そのような設定、変更を容易に行なうことができる。また、6面体で構成されるバウンディングボックスを用いたが、6面体に限らず、任意の多面体を用いることが可能である。なお、上記では、操作アイテムの面とCG物体の面との関連付けにおいて、選択された面と面を一致させることにより両者の姿勢の関係が決定される点を説明した。ここで、操作アイテムの面上のどの位置にCG物体を配置するかは、配置ルールによって決定される。上記実施形態(下敷きの上にCG物体を載せる)において、下敷き面1側にCG物体が配置される場合は、例えば(a)CG物体の重心から下敷き面1に下ろした垂線の足が、下敷き面1の中心点と一致するようにする、(b)CG物体の重心から下敷き面1に下ろした垂線の足の位置は配置後も変化しない、といったような方法が考えられる。また、以下に説明するねじ回しとねじのような場合は、配置位置は1箇所が指定されている。   By changing the arrangement rule, for example, it is possible to make a desired setting such that the association is not executed no matter how close the surface of the tray and the upper surface of the bounding box of the CG object are. In addition, since it is possible to describe as an arrangement rule, such setting and changing can be easily performed. Moreover, although the bounding box comprised by a hexahedron was used, it is possible to use not only a hexahedron but arbitrary polyhedrons. In the above description, in the association between the surface of the operation item and the surface of the CG object, the relationship between the postures of the two is determined by matching the selected surface with the surface. Here, at which position on the surface of the operation item the CG object is arranged is determined by the arrangement rule. In the above-described embodiment (when a CG object is placed on the underlay), when the CG object is arranged on the underlay surface 1 side, for example, (a) the perpendicular foot that is lowered from the center of gravity of the CG object to the underlay surface 1 A method is conceivable in which the position of the leg of the perpendicular line that is lowered from the center of gravity of the CG object to the underlay surface 1 does not change even after the arrangement, so as to coincide with the center point of the surface 1. In addition, in the case of a screwdriver and screw described below, one location is designated.

次に、操作アイテムとしてねじ回し状のものと、CG物体としてねじ状のCGとを用いて、ねじ締めの仮想体験を可能とするMRの提示を説明する。なお、以下では、ねじのCGが3つあり、そのうちの1つを使ってねじ締めを行う仮想体験の場合を例に挙げて説明する。   Next, presentation of MR that enables a virtual experience of screw tightening by using a screwdriver as an operation item and a screw-like CG as a CG object will be described. In the following, there will be described a case of a virtual experience in which there are three screw CGs, and one of them is used for screw tightening.

図5の(a)において、物体操作デバイス501はねじ回しの「にぎり」の部分のみであり、内部に磁気センサ202が内蔵されている。また、物体操作デバイス501には押しボタン502が装備されている。観察者から見るとこの物体操作デバイス501に「軸503」がCGで表示され、ねじ回しの操作アイテムとして扱える。   In FIG. 5A, the object operating device 501 is only the “nigiri” portion of the screwdriver, and the magnetic sensor 202 is incorporated inside. The object operation device 501 is equipped with a push button 502. When viewed from an observer, “axis 503” is displayed in CG on the object operation device 501 and can be handled as an operation item for screwdriver.

まず本例における用語の定義を行う。図5の(b)に示されるように、「ねじ」のCGは3つあるものとし、「ねじ1」「ねじ2」「ねじ3」としてそれらを区別する。「ねじ回しの軸」とは操作アイテムのCGの「軸503」、「ねじ回しの先」とはねじ回しの軸503の先端504、「ねじ頭」とはねじのCG510の頭511のことであり、「ねじ回しとねじの距離」とはねじ回しの先とねじ頭の間の距離523である。さらに「ねじ回しの向き」とはねじ回しの軸503に沿って操作デバイス側からねじ回しの先の方に向かう向き521、「ねじの向き」とはねじのCGの軸に沿ってねじ頭から反対側へ向かう向き522である。   First, terms in this example are defined. As shown in FIG. 5B, it is assumed that there are three CGs of “screws”, and these are distinguished as “screw 1”, “screw 2”, and “screw 3”. “Screwdriver shaft” is the CG “axis 503” of the operation item, “Screwdriver tip” is the tip 504 of the screwdriver shaft 503, and “Screw head” is the head 511 of the screw CG 510. “The distance between the screwdriver and the screw” is a distance 523 between the tip of the screwdriver and the screw head. Furthermore, “the direction of the screwdriver” means the direction 521 from the operation device side toward the tip of the screwdriver along the screwdriver axis 503, and “the direction of the screw” means that from the screw head along the axis of the CG of the screw. The direction 522 is toward the opposite side.

本例の配置ルールは例えば以下のように設定されているとする。
条件1:押しボタンが押されている。
条件2:ねじ1の物体座標系は世界座標系内に静止している。、
条件3:ねじ2の物体座標系は世界座標系内に静止している。
条件4:ねじ3の物体座標系は世界座標系内に静止している。
条件5:(条件2)∧(条件3)∧(条件4)。
条件6:ねじ回しとねじ1の距離<一定値。
条件7:ねじ回しとねじ2の距離<一定値。
条件8:ねじ回しとねじ3の距離<一定値。
条件9:ねじ回しとねじ1の距離<ねじ回しとねじ2の距離。
条件10:ねじ回しとねじ2の距離<ねじ回しとねじ3の距離。
条件11:ねじ回しとねじ3の距離<ねじ回しとねじ1の距離。
条件12:(条件6)∧(条件9)∧¬(条件11)。
条件13:(条件7)∧¬(条件9)∧(条件10)。
条件14:(条件8)∧¬(条件10)∧(条件11)。
指示1:ねじ1の物体座標系を操作アイテムの物体座標系内に静止。
指示2:ねじ1の物体座標系を世界座標系内に静止。
指示3:ねじ2の物体座標系を操作アイテムの物体座標系内に静止。
指示4:ねじ2の物体座標系を世界座標系内に静止。
指示5:ねじ3の物体座標系を操作アイテムの物体座標系内に静止。
指示6:ねじ3の物体座標系を世界座標系内に静止。
指示7:ねじ1の向きをねじ回しの向きと一致するように回転。
指示8:ねじ2の向きをねじ回しの向きと一致するように回転。
指示9:ねじ3の向きをねじ回しの向きと一致するように回転。
指示10:ねじ1のねじ頭をねじ回しの先に一致するように移動。
指示11:ねじ2のねじ頭をねじ回しの先に一致するように移動。
指示12:ねじ3のねじ頭をねじ回しの先に一致するように移動。
(条件1)∧(条件5)∧(条件12)⇒(指示1)∧(指示7)∧(指示10)。
(条件1)∧(条件5)∧(条件13)⇒(指示3)∧(指示8)∧(指示11)。
(条件1)∧(条件5)∧(条件14)⇒(指示5)∧(指示9)∧(指示12)。
¬(条件1)⇒(指示2)∧(指示4)∧(指示6)。
Assume that the arrangement rules of this example are set as follows, for example.
Condition 1: The push button is pressed.
Condition 2: The object coordinate system of the screw 1 is stationary in the world coordinate system. ,
Condition 3: The object coordinate system of the screw 2 is stationary in the world coordinate system.
Condition 4: The object coordinate system of the screw 3 is stationary in the world coordinate system.
Condition 5: (Condition 2) ∧ (Condition 3) ∧ (Condition 4).
Condition 6: Distance between screwdriver and screw 1 <constant value.
Condition 7: Distance between screwdriver and screw 2 <constant value.
Condition 8: Distance between screwdriver and screw 3 <constant value.
Condition 9: Distance between screwdriver and screw 1 <distance between screwdriver and screw 2
Condition 10: Distance between screwdriver and screw 2 <distance between screwdriver and screw 3
Condition 11: Distance between screwdriver and screw 3 <distance between screwdriver and screw 1
Condition 12: (Condition 6) ∧ (Condition 9) ∧¬ (Condition 11).
Condition 13: (Condition 7) ∧¬ (Condition 9) ∧ (Condition 10).
Condition 14: (Condition 8) ∧¬ (Condition 10) ∧ (Condition 11).
Instruction 1: The object coordinate system of the screw 1 is stationary within the object coordinate system of the operation item.
Instruction 2: The object coordinate system of screw 1 is stationary in the world coordinate system.
Instruction 3: The object coordinate system of the screw 2 is stationary in the object coordinate system of the operation item.
Instruction 4: The object coordinate system of the screw 2 is stationary in the world coordinate system.
Instruction 5: The object coordinate system of the screw 3 is stationary within the object coordinate system of the operation item.
Instruction 6: The object coordinate system of the screw 3 is stationary in the world coordinate system.
Instruction 7: Rotate the direction of the screw 1 to coincide with the direction of the screwdriver.
Instruction 8: Rotate the direction of the screw 2 to coincide with the direction of the screwdriver.
Instruction 9: Rotate the direction of the screw 3 to coincide with the direction of the screwdriver.
Instruction 10: The screw head of the screw 1 is moved to coincide with the tip of the screwdriver.
Instruction 11: Move the screw head of the screw 2 so as to coincide with the tip of the screwdriver.
Instruction 12: Move the screw head of the screw 3 so as to coincide with the tip of the screwdriver.
(Condition 1) ∧ (Condition 5) ∧ (Condition 12) ⇒ (Instruction 1) ∧ (Instruction 7) ∧ (Instruction 10).
(Condition 1) ∧ (Condition 5) ∧ (Condition 13) ⇒ (Instruction 3) ∧ (Instruction 8) ∧ (Instruction 11).
(Condition 1) ∧ (Condition 5) ∧ (Condition 14) ⇒ (Instruction 5) ∧ (Instruction 9) ∧ (Instruction 12).
¬ (Condition 1) ⇒ (Instruction 2) ∧ (Instruction 4) ∧ (Instruction 6).

上記のような配置ルールを用いると、図6(a)に示すように、操作者はねじ回しの先端504をねじの近くに持っていき、押しボタン502を押すと、図6(b)に示すように、先端504にねじ頭511が最も近い位置にあるねじが、指示10〜12の実行によりねじ回しの先端504にくっつく。このとき、指示7〜9のいずれかの実行により、くっついたねじの向き522がねじ回しの向き521と一致するようにCGが回転する。その後、押しボタン502を押したまま、ねじを締める場所に持っていき、押しボタンを離すことで一連のねじ締め作業の仮想体験ができる(図6の(c)、(d))。   When the arrangement rule as described above is used, as shown in FIG. 6A, the operator brings the tip 504 of the screwdriver close to the screw and presses the push button 502, so that FIG. As shown, the screw with the screw head 511 closest to the tip 504 sticks to the screwdriver tip 504 upon execution of instructions 10-12. At this time, the execution of any of the instructions 7 to 9 causes the CG to rotate so that the direction 522 of the screw that is attached matches the direction 521 of the screwdriver. After that, while holding down the push button 502, bring the screw to a place to be tightened, and release the push button, and a virtual experience of a series of screw tightening operations can be performed ((c) and (d) in FIG. 6).

以上のように、上記実施形態によれば、CG物体を下敷き状の操作アイテム上にあたかも現実物体が載っているかのように置いたり、ねじ回し状の操作アイテムにあたかも本物のねじのようにねじのCGを配置したりすることができるという効果があり、現実世界であれば起こりうることを事前に体験すること(仮想体験)が可能となる。   As described above, according to the above embodiment, a CG object is placed on an underlay-like operation item as if a real object is placed, or a screwdriver-like operation item is screwed like a real screw. CG can be arranged, and in the real world, it is possible to experience in advance what can happen (virtual experience).

以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。   Although the embodiments have been described in detail above, the present invention can take an embodiment as, for example, a system, an apparatus, a method, a program, or a storage medium, and specifically includes a plurality of devices. The present invention may be applied to a system that is configured, or may be applied to an apparatus that includes a single device.

尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   In the present invention, a software program (in the embodiment, a program corresponding to the flowchart shown in the figure) that realizes the functions of the above-described embodiment is directly or remotely supplied to the system or apparatus, and the computer of the system or apparatus Is also achieved by reading and executing the supplied program code.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。   As a recording medium for supplying the program, for example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As another program supply method, a client computer browser is used to connect to an Internet homepage, and the computer program of the present invention itself or a compressed file including an automatic installation function is downloaded from the homepage to a recording medium such as a hard disk. Can also be supplied. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。   In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on the instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。   Furthermore, after the program read from the recording medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

実施形態によるシステムの構成例を示す図である。It is a figure which shows the structural example of the system by embodiment. 頭部装着型映像入出力装置の具体的構成を示す図である。It is a figure which shows the specific structure of a head mounting | wearing type | mold video input / output device. 実施形態による情報処理装置の具体的構成を示す図である。It is a figure which shows the specific structure of the information processing apparatus by embodiment. 実施形態による画像提示処理の流れを示す図である。It is a figure which shows the flow of the image presentation process by embodiment. 実施形態による操作アイテム及び操作対象に関わる用語を説明する図である。It is a figure explaining the term regarding the operation item and operation object by embodiment. 実施形態による仮想体験を説明する図である。It is a figure explaining the virtual experience by embodiment.

Claims (11)

観察者が観察する現実空間に仮想物体を描画する情報処理装置における画像提示方法であって、
検出手段が、現実空間に実在する操作用デバイスの位置姿勢を検出する検出工程と、
判定手段が、仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係であるか否かに基づいて、該仮想物体と該操作用デバイスとを関連付けるか否かを判定する判定工程と、
変更手段が、前記判定工程で関連付けると判定された場合に、前記仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係となるように、該仮想物体の位置姿勢を変更する変更工程と、
描画手段が、前記変更工程で変更された位置姿勢でもって前記仮想物体を描画する描画工程とを備えることを特徴とする画像提示方法。
An image presentation method in an information processing apparatus for drawing a virtual object in a real space observed by an observer,
A detecting step in which the detecting means detects the position and orientation of the operating device that actually exists in the real space; and
Whether the determination unit associates the virtual object with the operation device based on whether the relationship between the position and orientation of the virtual object and the position and orientation of the operation device is a preset relationship. A determination step for determining;
The position and orientation of the virtual object so that the relationship between the position and orientation of the virtual object and the position and orientation of the operating device is a preset relationship when it is determined that the changing unit associates in the determination step. Change process to change,
An image presentation method, comprising: a drawing unit that draws the virtual object with the position and orientation changed in the changing step.
前記変更工程では、前記変更手段が、前記仮想物体に関して設定された面を、前記操作用デバイスに関して設定された面と一致させるように該仮想物体の位置姿勢を変更することを特徴とする請求項1に記載の画像提示方法。   2. The changing step according to claim 1, wherein the changing unit changes the position and orientation of the virtual object so that a plane set for the virtual object matches a plane set for the operation device. 2. The image presentation method according to 1. 前記変更工程では、前記変更手段が、前記仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係に基づいて、該仮想物体に設定された複数の面と、該操作用デバイスに設定された複数の面のいずれを一致させるかを決定することを特徴とする請求項2に記載の画像提示方法。   In the changing step, the changing means is set in the operation device and a plurality of surfaces set in the virtual object based on the relationship between the position and orientation of the virtual object and the position and orientation of the operation device. 3. The image presentation method according to claim 2, wherein which of the plurality of faces is determined to be coincident. 前記判定工程では、前記判定手段が、前記仮想物体に設定された複数の面の位置姿勢と前記操作用デバイスに設定された複数の面の位置姿勢との関係が予め設定された関係であるか否かに基づいて該仮想物体と該操作用デバイスとを関連付けるか否かを判定することを特徴とする請求項1に記載の画像提示方法。   In the determination step, whether the determination unit has a preset relationship between the position and orientation of the plurality of surfaces set in the virtual object and the position and orientation of the plurality of surfaces set in the operation device. The image presentation method according to claim 1, wherein it is determined whether to associate the virtual object with the operation device based on whether or not the virtual object is associated. 前記変更工程では、前記変更手段が、前記仮想物体に関して設定された軸の方向を、前記操作用デバイスに関して設定された軸の方向と一致させるように該仮想物体の位置姿勢を変更することを特徴とする請求項1に記載の画像提示方法。   In the changing step, the changing means changes the position and orientation of the virtual object so that the direction of the axis set for the virtual object matches the direction of the axis set for the operating device. The image presentation method according to claim 1. 前記変更工程では、前記変更手段が、前記仮想物体の所定の部位と前記操作用デバイスの所定の部位とが一致するように該仮想物体の位置姿勢を変更することを特徴とする請求項5に記載の画像提示方法。   6. The changing step according to claim 5, wherein the changing unit changes the position and orientation of the virtual object so that a predetermined part of the virtual object and a predetermined part of the operation device coincide with each other. The image presentation method described. 前記操作用デバイスは、一部が現実物体で構成され、残りの部分がCGによって構成されていることを特徴とする請求項1乃至6のいずれか1項に記載の画像提示方法。   7. The image presentation method according to claim 1, wherein a part of the operation device is configured by a real object and the remaining part is configured by CG. 前記仮想物体と前記操作用デバイスを関連付ける際の両者の位置姿勢の関係を規定するルールの記述を記憶する記憶手段を用意し、
前記変更工程では、前記変更手段が、前記仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が前記記憶手段に記憶されたルールの記述によって規定された関係となるように、該仮想物体の位置姿勢を変更することを特徴とする請求項1に記載の画像提示方法。
A storage unit for storing a description of a rule that defines a relationship between a position and orientation when the virtual object and the operation device are associated;
In the changing step, the changing means causes the virtual object so that the relationship between the position and orientation of the virtual object and the position and orientation of the operating device is defined by a rule description stored in the storage means. The image presentation method according to claim 1, wherein the position and orientation of the object is changed.
観察者が観察する現実空間に仮想物体を描画する情報処理装置であって、
現実空間に実在する操作用デバイスの位置姿勢を検出する検出手段と、
仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係であるか否かに基づいて、該仮想物体と該操作用デバイスとを関連付けるか否かを判定する判定手段と、
前記判定手段で関連付けると判定された場合に、前記仮想物体の位置姿勢と前記操作用デバイスの位置姿勢との関係が予め設定された関係となるように、該仮想物体の位置姿勢を変更する変更手段と、
前記変更手段で変更された位置姿勢でもって前記仮想物体を描画する描画手段とを備えることを特徴とする情報処理装置。
An information processing apparatus for drawing a virtual object in a real space observed by an observer,
Detection means for detecting the position and orientation of the operating device that actually exists in the real space;
Determination means for determining whether or not to associate the virtual object with the operation device based on whether or not the relationship between the position and orientation of the virtual object and the position and orientation of the operation device is a preset relationship When,
Change that changes the position and orientation of the virtual object so that the relationship between the position and orientation of the virtual object and the position and orientation of the operating device is a preset relationship when it is determined by the determination means Means,
An information processing apparatus comprising: a drawing unit that draws the virtual object with the position and orientation changed by the changing unit.
請求項1乃至8のいずれか1項に記載の画像提示方法の各工程をコンピュータに実行させるための制御プログラム。   The control program for making a computer perform each process of the image presentation method of any one of Claims 1 thru | or 8. 請求項1乃至8のいずれか1項に記載の画像提示方法の各工程をコンピュータに実行させるための制御プログラムを格納したコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing a control program for causing a computer to execute each step of the image presentation method according to claim 1.
JP2004336220A 2004-11-19 2004-11-19 Image presentation method and information processing apparatus Expired - Fee Related JP4630647B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004336220A JP4630647B2 (en) 2004-11-19 2004-11-19 Image presentation method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004336220A JP4630647B2 (en) 2004-11-19 2004-11-19 Image presentation method and information processing apparatus

Publications (3)

Publication Number Publication Date
JP2006146584A JP2006146584A (en) 2006-06-08
JP2006146584A5 JP2006146584A5 (en) 2008-01-10
JP4630647B2 true JP4630647B2 (en) 2011-02-09

Family

ID=36626196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004336220A Expired - Fee Related JP4630647B2 (en) 2004-11-19 2004-11-19 Image presentation method and information processing apparatus

Country Status (1)

Country Link
JP (1) JP4630647B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4883774B2 (en) * 2006-08-07 2012-02-22 キヤノン株式会社 Information processing apparatus, control method therefor, and program
CN112651288B (en) * 2014-06-14 2022-09-20 奇跃公司 Method and system for generating virtual and augmented reality
JP6948363B2 (en) * 2014-11-21 2021-10-13 キヤノン株式会社 Information processing equipment, information processing methods, and programs
CN113784822B (en) * 2018-10-10 2023-09-26 株式会社日立制作所 Mechanical fastening part management method based on augmented reality

Also Published As

Publication number Publication date
JP2006146584A (en) 2006-06-08

Similar Documents

Publication Publication Date Title
US7542051B2 (en) Calibration method and apparatus
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
KR102517876B1 (en) Technique for recording augmented reality data
JP5376874B2 (en) Image processing program and image processing apparatus
JP3631151B2 (en) Information processing apparatus, mixed reality presentation apparatus and method, and storage medium
JP4739002B2 (en) Image processing method and image processing apparatus
JP6340017B2 (en) An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
JP5025496B2 (en) Image processing apparatus and image processing method
JP4757115B2 (en) Image processing apparatus and image processing method
US20030062675A1 (en) Image experiencing system and information processing method
EP2818977A1 (en) Image processing apparatus, image processing method, program, and storage medium
US8994729B2 (en) Method for simulating operation of object and apparatus for the same
JP2006048639A (en) Method and apparatus for processing information
JP2006302034A (en) Image processing method and image processor
JP2002157606A (en) Image display controller, composite reality presentation system, image display control method, and medium providing processing program
JP5812665B2 (en) Information processing system, information processing apparatus, information processing method, and information processing program
US20030184602A1 (en) Information processing method and apparatus
JP4785662B2 (en) Information processing apparatus and information processing method
JP2006318095A (en) Image processing method and image processor
JP2013050883A (en) Information processing program, information processing system, information processor, and information processing method
CN109844600A (en) Information processing equipment, information processing method and program
JP2009087161A (en) Image processor and image processing method
JP6295296B2 (en) Complex system and target marker
JP4630647B2 (en) Image presentation method and information processing apparatus
JP2009048237A (en) Image processor, and image processing method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071119

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20071119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4630647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees