JP2005071285A - Collision detection method that change detail degree according to interaction in space and virtual space formation device using its method - Google Patents

Collision detection method that change detail degree according to interaction in space and virtual space formation device using its method Download PDF

Info

Publication number
JP2005071285A
JP2005071285A JP2003303785A JP2003303785A JP2005071285A JP 2005071285 A JP2005071285 A JP 2005071285A JP 2003303785 A JP2003303785 A JP 2003303785A JP 2003303785 A JP2003303785 A JP 2003303785A JP 2005071285 A JP2005071285 A JP 2005071285A
Authority
JP
Japan
Prior art keywords
collision detection
user
level
detail
collision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003303785A
Other languages
Japanese (ja)
Inventor
Yoshifumi Kitamura
喜文 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
New Industry Research Organization NIRO
Original Assignee
New Industry Research Organization NIRO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by New Industry Research Organization NIRO filed Critical New Industry Research Organization NIRO
Priority to JP2003303785A priority Critical patent/JP2005071285A/en
Publication of JP2005071285A publication Critical patent/JP2005071285A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve the collision detection accuracy and detection speed and to make effective use of calculation resources in order to detect the collision of objects in detail, for a collision detection method that changes details degree according to the interaction in space and a virtual space generation device using its method. <P>SOLUTION: A user 2 is involved interactively in a three-dimensional virtual space 1 generated by a computer. The condition of objects including collision is presented to the user 2, and the user 2 virtually realizes and recognizes the presentation. As for objects or partial space in which the user 2 pays attention to with high interest degree like partial space 3 or an object 5 and 6, collision is detected more precisely and result is presented not to have contradiction. The details degree of collision detection is dynamically changed and collision is detected based on a collision detection evaluation function for every item the user 2 takes interest in. A partial space 4 does not have high interest degree, so detailed calculation is skipped. Calculation resources are allocated especially at points necessary, and the accuracy and speed of collision detection against objects drawing attention can be improved. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、仮想空間における物体の衝突現象について、その衝突検出方法及びその方法を用いた仮想空間生成装置に関する。   The present invention relates to a collision detection method for a collision phenomenon of an object in a virtual space and a virtual space generation apparatus using the method.

従来から、コンピュータにより生成された仮想的な3次元空間(仮想空間)をインタラクティブに利用する試みが、幅広い分野で行われている。3次元空間をインタラクティブ(相互作用的)に利用するとは、自分がその中に入り込んでいる感覚(自己投射性)をもって、等身大空間に入り込み、3次元空間を相互作用的に扱うことである。3次元空間を相互作用的に扱うとは、そこに入り込んだ人(関与者、ユーザ)が、その空間内の環境と実時間の相互作用をしながら、すなわち、環境を構成する環境物体とのなんらかの相互関連性をもって行動することであり、その空間にある物体(環境物体)を触ったり、別の場所に動かしたり、あるいは単に観測することが含まれる。   Conventionally, attempts to interactively use a virtual three-dimensional space (virtual space) generated by a computer have been made in a wide range of fields. To use a three-dimensional space interactively (interactively) is to enter a life-size space with a sense of self (projection) and handle the three-dimensional space interactively. Interacting with a three-dimensional space means that people (participants, users) who enter the space interact with the environment in the space in real time, that is, with the environmental objects that make up the environment. Acting with some kind of interrelationship includes touching an object (environmental object) in the space, moving it to another location, or simply observing it.

このような物体の移動の他、流れ、接近、接触、変形などがある場合、物体相互の衝突・干渉の発生が起こり得るので、仮想空間において衝突・干渉を検出する技術が必須の技術となる。衝突・干渉検出技術の応用分野として、例えば、図17に示すようなものがある。可視化11,人工現実(仮想現実)12、娯楽13、設計14,ロボット工学15,コンピュータ・グラフィックス16などのような技術分野においては、衝突・干渉の発生する仮想物体の移動、又はインタラクティブに行われる物体操作や移動が扱われる。ユーザが五感を通して獲得した情報により、現前しない非物体を現前する物体として認識し、体験、訓練、学習、検討、実際の作業、気分転換などをすることができる。   If there is a flow, approach, contact, deformation, etc. in addition to the movement of such an object, collision / interference between the objects may occur, so a technology for detecting the collision / interference in the virtual space becomes an essential technology. . As an application field of the collision / interference detection technique, there is, for example, the one shown in FIG. In technical fields such as visualization 11, artificial reality (virtual reality) 12, entertainment 13, design 14, robot engineering 15, computer graphics 16, etc., virtual objects that collide and interfere are moved or interactively performed. Object handling and movement are handled. Based on information acquired by the user through the five senses, it is possible to recognize non-objects that are not present as actual objects, and to experience, train, learn, study, perform actual work, and change moods.

衝突・干渉検出の必要性についてさらに説明する。図18(a)(b)は、仮想空間における衝突現象を示す。人とのインタラクションが発生する仮想空間について、その空間の自律性(無矛盾性)を確保するためには、その中の構成物を自律的に振る舞わせる計算(シミュレーション)が必要となり、その計算には地球上の現実の世界を支配している物理的な法則、例えば物体同士の非透過性、重力、摩擦などの法則を考慮する必要がある。例えば、図18(a)に示す仮想空間20において、仮想物体、例えばラグビーボール22とユーザの手25が存在し、それぞれが運動することにより、図18(b)に示すある時間経過後の仮想空間30において、ラグビーボール22と手25が衝突したとする。現実の世界では、ラグビーボール22が衝突して手25に当たるとボールの弾力により、互いに反発するが、仮想空間において、その衝突が検出されず、その後の空間表示が不適切であると、矢印26に示すようにラグビーボール22の中に手25がくい込み、さらにはラグビーボール22をすり抜けるように認識され、その仮想空間は自律性の損なわれたものになってしまう。このように、物理法則に基づく物体操作シミュレーションにとって、物体相互の衝突・干渉検出は必須の技術である。   The necessity of collision / interference detection will be further described. 18A and 18B show the collision phenomenon in the virtual space. In order to ensure the autonomy (consistency) of a virtual space where human interaction occurs, a calculation (simulation) that makes the components in the space autonomously is necessary. It is necessary to consider the physical laws that govern the real world on the earth, such as the non-permeability between objects, gravity, and friction. For example, in the virtual space 20 shown in FIG. 18A, a virtual object, for example, a rugby ball 22 and a user's hand 25 exist, and each moves, so that the virtual after a certain time shown in FIG. Assume that the rugby ball 22 and the hand 25 collide in the space 30. In the real world, when the rugby ball 22 collides and hits the hand 25, they repel each other due to the elasticity of the ball. However, if the collision is not detected in the virtual space and the subsequent space display is inappropriate, the arrow 26 As shown in FIG. 4, the hand 25 is inserted into the rugby ball 22 and further recognized as slipping through the rugby ball 22, and the virtual space becomes impaired in autonomy. As described above, the collision / interference detection between objects is an indispensable technique for the object manipulation simulation based on the physical laws.

ユーザ・インタラクションのある実時間仮想空間システムにおける一般的な衝突検出の処理フローを説明する。図19はその処理フローを示す。まずシステムが起動されると、環境設定のためのデータ読み込みや初期表示などの初期設定が行われる(S300)。ユーザがコンピュータにより生成された仮想空間内で移動したり、仮想空間内の物体を操作したりすることで、ユーザと空間・物体とのインタラクションが発生する(S301)。次の衝突検出ステップで、各物体同士が衝突したかしていないかが調べられ、さらに、衝突が発生していると判定された場合には、どこでどのように発生したかが調べられる(S302)。次に、衝突検出結果に応じたレスポンス計算が行われる(S303)。このレスポンス計算では、物理法則に基づいて、衝突部位における反射、弾性、反力、音、破壊などの物性や発生現象が考慮される。このようにして得られたレスポンス計算結果が、所定の提示機能によってユーザに提示される(S304)。ユーザは提示されたレスポンスに反応(リアクション)して、新たな移動や操作を行う(S305)。インタラクションのある実時間仮想空間システムにおいて、このような一連の処理がリアルタイムに連続して行われる。   A general collision detection process flow in a real-time virtual space system with user interaction will be described. FIG. 19 shows the processing flow. First, when the system is activated, initial settings such as data reading and initial display for environment setting are performed (S300). When the user moves in the virtual space generated by the computer or operates an object in the virtual space, an interaction between the user and the space / object occurs (S301). In the next collision detection step, it is checked whether or not each object has collided, and if it is determined that a collision has occurred, it is checked where and how the collision has occurred (S302). . Next, response calculation according to the collision detection result is performed (S303). In this response calculation, physical properties and occurrence phenomena such as reflection, elasticity, reaction force, sound, and destruction at the collision site are considered based on the physical law. The response calculation result obtained in this way is presented to the user by a predetermined presentation function (S304). The user reacts (reacts) to the presented response and performs a new movement or operation (S305). In a real-time virtual space system with interaction, such a series of processes is continuously performed in real time.

上述のように、インタラクションのある実時間仮想空間システムにおける物体操作シミュレーションのためには、物理法則を考慮し、衝突が起きた物体上の場所などをより詳細に特定する必要がある。その特定のための計算量は計算精度と共に増加する。さらに、インタラクティブな状況下では時間的な変化に対する無矛盾性も求められるため、現象の実時間性(リアルタイム性)を確保できる衝突検出速度(計算速度)が求められる。このようにインタラクションのある実時間仮想空間システムにおいては、衝突検出精度と衝突検出速度の両方が要求され、これらはトレードオフの関係にある。また、物体や空間が複雑になるにつれて計算量が増加する。   As described above, in order to perform an object manipulation simulation in a real-time virtual space system with interaction, it is necessary to specify the location on the object where the collision has occurred in more detail in consideration of physical laws. The calculation amount for the identification increases with the calculation accuracy. Furthermore, since an inconsistency with respect to a temporal change is also required under an interactive situation, a collision detection speed (calculation speed) that can ensure the real-time property of the phenomenon (real-time property) is required. Thus, in a real-time virtual space system with interaction, both collision detection accuracy and collision detection speed are required, and these are in a trade-off relationship. In addition, the amount of calculation increases as the object and space become more complex.

従来の、物体形状の階層的な表現により物体間の衝突を検出する方法について説明する。図20(a)は物体の存在する3次元空間を示し、図20(b)はその空間を8分割した状態を示す。また、図21(a)(b)は、階層的に衝突を調べる8分木(オクトリー、Octree)の方法を示す。効率的に衝突を検出する方法として、外接直方体や外接球などを用いた空間分割に基づく物体の階層的表現方法が知られている。また、物体そのものの位置や状態により物体を階層的に表現するLOD(レベル・オブ・ディテール)の方法などが知られている。ここで説明するのは、前者の8分木による空間分割に基づく方法である。   A conventional method for detecting a collision between objects using a hierarchical representation of the object shape will be described. FIG. 20A shows a three-dimensional space where an object exists, and FIG. 20B shows a state where the space is divided into eight. FIGS. 21 (a) and 21 (b) show an octree method for examining collision hierarchically. As a method for efficiently detecting a collision, a hierarchical expression method of an object based on space division using a circumscribed cuboid or a circumscribed sphere is known. In addition, an LOD (level of detail) method that hierarchically represents an object according to the position and state of the object itself is known. What is described here is a method based on space division by the former octree.

図20(a)において、3次元空間R内で、例えば物体B、Dが衝突している。その衝突部位を特定するため、物体を含んだ状態で3次元空間Rを8分割する作業が繰り返えされる。図20(b)は第1階層j=1における8分割状態を示す(物体図示は省略)。第2階層j=2では、この8つの部分空間のそれぞれが、必要に応じてさらに8分割される。このように空間の8分割をくり返して特定の部分空間を検出する方法として8分木の方法を用いることができる。   In FIG. 20A, for example, the objects B and D collide in the three-dimensional space R. In order to specify the collision site, the work of dividing the three-dimensional space R into eight parts including the object is repeated. FIG. 20B shows an eight-division state in the first hierarchy j = 1 (the object illustration is omitted). In the second hierarchy j = 2, each of the eight partial spaces is further divided into eight as necessary. As described above, an octree method can be used as a method of detecting a specific subspace by repeating the division into eight spaces.

ある空間R1における物体F、Gの衝突検出に8分木の方法を適用して説明する。両物体F、Gはそれぞれ図21(a)、図21(b)に示される8分木で表わされる。それぞれの階層における各部分空間は、物体外の空間(図中白丸)、物体内の空間(図中黒丸)、物体の一部を含む空間(図中ハッチング付き四角)に分けて表現される。また、各階層における8個の部分空間が引数iで識別される。   An explanation will be given by applying the octree method to the collision detection of the objects F and G in a certain space R1. Both objects F and G are represented by octrees shown in FIGS. 21 (a) and 21 (b), respectively. Each partial space in each layer is expressed by being divided into a space outside the object (white circle in the figure), a space inside the object (black circle in the figure), and a space including a part of the object (square with hatching in the figure). In addition, eight subspaces in each hierarchy are identified by an argument i.

物体F、Gの8分木を比べてみると、(j,i)=(1,5)、(2,3)、(3,6)、(4,3)の部分空間は両物体が一部ずつ存在する共存状態であり、階層j=1〜4までは、これらの部分空間以外には両物体の共存する部分空間はないことが分かる。階層j=5では、(j,i)=(5,5)において両物体が共存しており、さらに、(j,i)=(5,7)では、両物体F、Gがその空間を完全に満たしている。このことより、少なくとも(j,i)=(5,7)で示される部分空間において、物体F、Gの衝突が検出されることになる。8分木による衝突検出における計算量は、実際にたどった8分木の分岐点の数(ノードの数)と物体の数に比例するのみであり、多面体表現された物体の面同士の衝突を調べる場合よりも少ない計算量で衝突の検出ができる。   Comparing the octrees of the objects F and G, the subspace of (j, i) = (1, 5), (2, 3), (3, 6), (4, 3) It can be seen that there is a partial coexistence state where there is no partial space where both objects coexist in addition to these partial spaces in layers j = 1 to 4. In the hierarchy j = 5, both objects coexist in (j, i) = (5, 5). Further, in (j, i) = (5, 7), both objects F and G pass through the space. Satisfies completely. Thus, the collision of the objects F and G is detected at least in the partial space represented by (j, i) = (5, 7). The amount of computation in collision detection using an octree is only proportional to the number of branch points (number of nodes) actually followed and the number of objects. Collisions can be detected with a smaller amount of computation than when checking.

また、上述の8分木の概念を用いて面間の衝突を正確に調べる衝突検出方法として、第1のステップで3次元物体の包含直方体を用いて大まかに干渉している物体を検出し、第2のステップで包含直方体の重なり領域と交差する面を抽出し、抽出された面の衝突可能性を第3のステップでそれぞれの面八分木による空間分割により大まかに調べ、第4のステップで面八分木が干渉している面の組合せごとに面間の衝突を調べる方法が知られている(例えば、特許文献1参照)。
特開平9−81776号公報
In addition, as a collision detection method for accurately examining a collision between planes using the above-described octree concept, an object that is roughly interfering is detected using a rectangular parallelepiped of a three-dimensional object in the first step, In the second step, a plane intersecting the overlapping area of the containing rectangular parallelepiped is extracted, and in the third step, the possibility of collision of the extracted plane is roughly checked by space division by each plane octree, and the fourth step There is known a method for examining a collision between surfaces for each combination of surfaces on which a surface octree interferes (see, for example, Patent Document 1).
JP-A-9-81776

しかしながら、上述した図20や図21に示されるような空間8分割や8分木を用いた衝突検出方法は、計算量が物体の複雑度に依存しないので、複雑な物体については特に効率的であるが、多面体表現以外の付加的な形状データ構造を併用すると、変形物体への対応が困難になり、また、計算量が増大するという問題がある。   However, the above-described collision detection method using space division or octree as shown in FIG. 20 or FIG. 21 is particularly efficient for a complicated object because the calculation amount does not depend on the complexity of the object. However, when an additional shape data structure other than polyhedral representation is used together, there is a problem that it becomes difficult to cope with a deformed object and the amount of calculation increases.

また、上述した特許文献1に示されるような衝突検出方法においては、衝突検出の効率が対象物体の形状に大きく依存する問題がある。例えば、突出部の多い形状の物体を直方体で包含すると、物体包含直方体と被包含物体との間に物体のない空間部が多くなり、2つの物体包含直方体間で重なりがあってもその重なり空間には物体がないということが頻繁に発生することになり、干渉物体を検出する効率が悪くなる。   Moreover, in the collision detection method as shown in Patent Document 1 described above, there is a problem that the efficiency of collision detection greatly depends on the shape of the target object. For example, when an object with many protrusions is included in a rectangular parallelepiped, there are many space parts without an object between the object-containing rectangular parallelepiped and the included object, and even if there is an overlap between two object-containing rectangular parallelepipeds, the overlapping space There are frequent occurrences of no object, and the efficiency of detecting an interfering object deteriorates.

本発明は、上記課題を解消するものであって、仮想的な3次元空間におけるユーザのインタラクティブな活動状況のもとで、空間内の物体の衝突を詳細に検出するための計算資源を有効利用でき、その衝突検出精度と衝突検出速度の両方を向上して、ユーザのインタラクティブな活動を支援することができる、空間内のインタラクションに応じて詳細度を変更する衝突検出方法及びその方法を用いた仮想空間生成装置を提供することを目的とする。   The present invention solves the above-mentioned problems, and effectively uses computational resources for detecting in detail a collision of an object in a space under a user's interactive activity status in a virtual three-dimensional space. Using the collision detection method and the method for changing the degree of detail according to the interaction in the space, which can improve the collision detection accuracy and collision detection speed, and support the user's interactive activities An object is to provide a virtual space generation device.

上記課題を達成するために、請求項1の発明は、コンピュータにより生成されユーザがインタラクティブに関与できる仮想空間における移動する物体と他の物体との衝突を仮想空間のユーザに提示するために検出する衝突検出方法であって、仮想空間の部分空間及び/又は仮想空間内の物体に対するユーザの関心度情報を取得する関心度取得ステップと、前記ステップで取得したユーザの関心度情報に応じて物体の詳細度と衝突検出の詳細度とを動的に変更して決定する詳細度決定ステップと、を備えている衝突検出方法である。   In order to achieve the above object, the invention of claim 1 detects a collision between a moving object and another object in a virtual space, which is generated by a computer and can be interactively engaged with the user, in order to present it to the user in the virtual space. A collision detection method, an interest level acquisition step of acquiring a user's interest level information with respect to a partial space of a virtual space and / or an object in the virtual space, and an object's interest level according to the user's interest level information acquired in the step It is a collision detection method provided with the detail level determination step which changes and determines the detail level and the detail level of collision detection dynamically.

請求項2の発明は、請求項1に記載の衝突検出方法において、関心度情報と衝突検出の詳細度を階層的に関連づけるための衝突検出評価関数を空間座標の関数として生成する評価関数生成ステップと、前記詳細度決定ステップで決定された詳細度に基づいて衝突の検出を行う衝突検出ステップと、をさらに備え、前記詳細度決定ステップにおいて前記生成された衝突検出評価関数を用いて各部分空間における物体の詳細度と衝突検出の詳細度を動的に変更して決定し、前記衝突検出ステップにおいて前記詳細度を超える精度の検出作業は打ち切ってそれ以上の検出を行わない衝突検出方法である。   According to a second aspect of the present invention, in the collision detection method according to the first aspect, an evaluation function generation step of generating a collision detection evaluation function as a function of spatial coordinates for hierarchically associating the interest level information and the level of detail of collision detection. And a collision detection step of detecting a collision based on the level of detail determined in the level of detail determination step, and each subspace using the collision detection evaluation function generated in the level of detail determination step Is a collision detection method in which the detail level of an object and the detail level of collision detection are dynamically changed and determined, and the detection operation with an accuracy exceeding the detail level is discontinued in the collision detection step and no further detection is performed. .

請求項3の発明は、請求項2に記載の衝突検出方法において、前記仮想空間中の各物体は、詳細度が異なる複数の表現形式を有し、前記詳細度決定ステップにおいて前記衝突検出評価関数に基づいて各部分空間における物体の表現形式が動的に選択され、前記衝突検出ステップにおいて前記選択された表現形式を用いて衝突検出が行われるものである。   According to a third aspect of the present invention, in the collision detection method according to the second aspect, each object in the virtual space has a plurality of expression formats having different levels of detail, and the collision detection evaluation function is used in the level of detail determination step. The object representation format in each subspace is dynamically selected based on the above, and the collision detection is performed using the selected representation format in the collision detection step.

請求項4の発明は、請求項2又は請求項3に記載の衝突検出方法における、前記評価関数生成ステップにおいて、ユーザの指差しや、ポインタの位置からの距離、又はユーザの視点からの距離、又はユーザや空間中の重要な物体からの距離、又はユーザの視野中心(視線方向)からの角度、又はユーザの指差しや指示方向からの角度、又はユーザの作業領域や視野を横切る物体の移動速度に応じて衝突検出評価関数値を増減させて衝突検出評価関数を生成するものである。   The invention according to claim 4 is the collision detection method according to claim 2 or claim 3, wherein in the evaluation function generation step, the user's pointing, the distance from the pointer position, or the distance from the user's viewpoint, Or the distance from the user or an important object in the space, the angle from the user's visual field center (gaze direction), the angle from the user's pointing or pointing direction, or the movement of the object across the user's work area or visual field A collision detection evaluation function value is generated by increasing or decreasing the collision detection evaluation function value according to the speed.

請求項5の発明は、請求項1乃至請求項4のいずれかに記載の衝突検出方法を用いる仮想空間生成装置である。   A fifth aspect of the present invention is a virtual space generation device using the collision detection method according to any one of the first to fourth aspects.

請求項1に記載の発明によれば、関心度取得ステップで空間又は物体に対するユーザの関心度情報を取得し、詳細度決定ステップで関心度情報に応じて物体の詳細度と衝突検出の詳細度とを動的に変更して決定するので、詳細な衝突検出のための計算資源を必要な箇所に重点的に割り当てることができ、注目する物体に対する衝突検出精度と衝突検出速度の両方を向上できる。   According to the first aspect of the invention, the interest level information of the user with respect to the space or the object is acquired in the interest level acquisition step, and the detail level of the object and the detail level of the collision detection according to the interest level information in the detail level determination step. Since it is determined by dynamically changing and the calculation resources for detailed collision detection can be concentrated on the necessary places, both the collision detection accuracy and the collision detection speed for the object of interest can be improved. .

請求項2に記載の発明によれば、評価関数生成ステップでユーザの関心度情報と衝突検出の詳細度を階層的に関連づけるための衝突検出評価関数を空間座標の関数として生成し、詳細度決定ステップで衝突検出評価関数を用いて各部分空間における物体の詳細度と衝突検出の詳細度を動的に変更して決定し、衝突検出ステップで衝突を検出し、関心度に基づかない詳細度を超える精度の検出作業は打ち切ってそれ以上の検出を行わないので、詳細な衝突検出のための計算資源を必要な箇所にさらに重点的に割り当てることができ、注目する物体に対する衝突検出精度と衝突検出速度の両方を向上できる。   According to the second aspect of the invention, in the evaluation function generation step, the collision detection evaluation function for hierarchically associating the user interest level information and the collision detection detail level is generated as a function of spatial coordinates, and the detail level determination is performed. In step, collision detection evaluation function is used to dynamically change the object detail and collision detection detail in each subspace, detect the collision in the collision detection step, and the degree of detail not based on interest level Since the detection work with the accuracy exceeding the limit is discontinued and no further detection is performed, calculation resources for detailed collision detection can be assigned more focused to the necessary locations, and the collision detection accuracy and collision detection for the object of interest Both speeds can be improved.

このように、ユーザの示す関心度(インタラクション)に応じて衝突検出の詳細度を動的に変更して衝突検出を行うことにより、以下のような効果が得られる。比較的広い3次元空間を利用して作業をする場合、たとえ複数のユーザで空間を共有している場合でも、ユーザ(関与者)の注意が全空間に対して均等に注がれるということはなく、作業の焦点となっている空間と、そうではない空間が生じる。この場合、作業の焦点となっている部分空間の物体に関しては、正確なシミュレーションが求められるため、衝突が起きた物体上の場所や物体の面の向きなどを詳細に特定する必要があるが、それ以外の空間にある物体に対しては、それほど精度の高いシミュレーションが求められることはなく、詳細に衝突を検出する必要はない。   Thus, the following effects are acquired by performing collision detection by dynamically changing the level of detail of collision detection according to the degree of interest (interaction) indicated by the user. When working using a relatively large 3D space, even when multiple users share the space, the attention of the user (participant) is evenly applied to the entire space. Instead, there is a space that is the focus of work and a space that is not. In this case, since accurate simulation is required for the object in the subspace that is the focus of the work, it is necessary to specify the location on the object where the collision occurred and the orientation of the surface of the object in detail, For objects in other spaces, a highly accurate simulation is not required, and it is not necessary to detect a collision in detail.

また、作業の焦点となる部分空間やユーザの関心が高い部分空間は、作業の進行状況やさまざまなインタラクションに応じて変化する。そこで、3次元空間内でのユーザのさまざまなインタラクションの結果生じるユーザの各部分空間に対する関心の高低や、作業内容と関連して変化する空間各部分の重要度の高低に応じて、動的に衝突検出の詳細度を変更することによって、衝突検出精度と衝突検出速度の両方を向上できるようになる。従って、このような衝突検出方法によると、仮想空間の自律性(無矛盾性)と、仮想空間における現象の実時間性(リアルタイム性)の両方を確保でき、仮想空間において自己投射性と実時間の相互作用性を実現でき、従って仮想空間におけるユーザのインタラクティブな活動を支援することができるという効果がある。   In addition, the partial space that is the focus of the work and the partial space that the user is highly interested in vary depending on the progress of the work and various interactions. Therefore, depending on the user's interest in each subspace resulting from various user interactions in the three-dimensional space and the importance of each space changing in relation to the work contents, By changing the level of detail of collision detection, both the collision detection accuracy and the collision detection speed can be improved. Therefore, according to such a collision detection method, it is possible to secure both the autonomy (consistency) of the virtual space and the real time property (real time property) of the phenomenon in the virtual space. There is an effect that it is possible to realize interactivity, and thus to support user's interactive activities in the virtual space.

請求項3に記載の発明によれば、仮想空間中の各物体が詳細度が異なる複数の表現形式を有するので、各表現形式のいずれかを用いて衝突検出を行えばよく、また、衝突検出評価関数に基づいてその表現形式が動的に選択されるので、仮想空間における物体の衝突検出や、ユーザへの物体及び物体の衝突状態の提示(ディスプレイ)をより高速に、また、よりリアルに行うことができる。   According to the third aspect of the present invention, each object in the virtual space has a plurality of expression formats having different degrees of detail. Therefore, the collision detection may be performed using any one of the expression formats. Since the expression format is dynamically selected based on the evaluation function, the object collision detection in the virtual space and the display of the object and object collision state to the user (display) are made faster and more realistic. It can be carried out.

このような詳細度が異なる複数の表現形式は、予めオフラインで作成しておいても、実行時にリアルタイムで作成してもよい。各物体の詳細度が異なる表現として、例えば、Octreeなどの物体形状の階層的な表現を用いることができる。また、通常描画の負荷を軽減するために利用されるレベル・オブ・ディテール(LOD)の方法を併用することもできる。   A plurality of expression formats having different degrees of detail may be created in advance offline or in real time at the time of execution. For example, a hierarchical expression of an object shape such as Octree can be used as an expression with different levels of detail for each object. In addition, a level of detail (LOD) method that is used to reduce the load of normal drawing can be used in combination.

請求項4に記載の発明によれば、作業の対象に対してユーザの関心が高いほど、その対象物に焦点が当てられ、またその逆も成り立つという通常の関係に基づき、ユーザの指差し位置、ポインタの位置、ユーザの視点、ユーザや空間中の重要な物体位置などからの距離、ユーザの視野中心(視線方向)、指差し、指示方向などからの角度、作業領域や視野を横切る物体の移動速度に応じて増減させて衝突検出評価関数を生成するので、衝突検出の詳細度をユーザの関心度に応じて動的に変更することができる。   According to the fourth aspect of the present invention, the user's pointing position is based on the normal relationship that the higher the user's interest in the work target, the more focused the object is, and vice versa. , The position of the pointer, the user's viewpoint, the distance from the user or important object position in the space, the center of the user's visual field (gaze direction), the pointing, the direction from the pointing direction, the object crossing the work area or the visual field Since the collision detection evaluation function is generated by increasing / decreasing according to the moving speed, the level of detail of collision detection can be dynamically changed according to the degree of interest of the user.

すなわち、ユーザの意識する対象物が近くにあればあるほど、その対象物への関心が高まり、ユーザの視野から外れるに従って対象物への関心がうすれ、また、視野中心にくるほど対象物への関心が高まり、また、ユーザが意識する前方における物体のうち、静止したものよりも移動する物体、さらにその移動速度を変化させる物体に対して、より関心が高まるという通常の関係に合致して、関心度情報を衝突検出評価関数に組み込むことができる。その結果、関心度の高いものほど詳細に衝突検出ができ、前述のように衝突検出精度と衝突検出速度の両方を向上できる。   In other words, the closer to the object the user is aware of, the more interested the object is, and the more the user is away from the user's field of view, the more the object is interested. Consistent with the usual relationship of increased interest and increased interest in objects that move forward than objects that are stationary, among objects in front of which the user is conscious, Interest level information can be incorporated into the collision detection evaluation function. As a result, the higher the degree of interest, the more detailed collision detection can be performed, and both the collision detection accuracy and the collision detection speed can be improved as described above.

請求項5に記載の発明によれば、コンピュータにより生成された仮想空間において、その部分空間又は空間内の物体に対するユーザの関心度に応じて生成した衝突検出評価関数に基づいて衝突検出の詳細度を動的に変更して衝突を検出し、詳細な衝突検出のための計算資源を必要な箇所に重点的に割り当て、注目する空間における、又は物体に対する衝突検出精度と衝突検出速度の両方を向上した装置が実現できる。その結果、ユーザは、このような仮想空間生成装置により生成された、仮想空間の自律性(無矛盾性)と、仮想空間における現象の実時間性を両立する仮想空間において、自己投射性と実時間の相互作用性を実現した状態で仮想空間をインタラクティブに利用できる。   According to the invention described in claim 5, in the virtual space generated by the computer, the level of detail of collision detection based on the collision detection evaluation function generated according to the degree of interest of the user with respect to the subspace or the object in the space. To detect collisions and assign detailed computational resources for detailed collision detection where necessary, improving both collision detection accuracy and collision detection speed in the space of interest or for the object Can be realized. As a result, the user can create self-projection and real-time in a virtual space that is generated by such a virtual space generation device and is compatible with the autonomy (consistency) of the virtual space and the real-time nature of the phenomenon in the virtual space. The virtual space can be used interactively in a state where the interactivity is realized.

以下、本発明の一実施形態に係る空間内のインタラクションに応じて詳細度を変更する衝突検出方法及びその方法を用いた仮想空間生成装置について、図面を参照して説明する。図1は、仮想3次元空間内における関心度と衝突検出の詳細度との関係概念を示す。3次元の仮想空間1は、コンピュータを用いたインタラクションのある実時間仮想空間システムにより生成され、また、その空間内の(仮想)物体5〜8はユーザ2によって認識されるものである。さらに、ユーザ2は、それらの物体5〜8の少なくともいずれか1つをインタラクティブに操作(作業)するか、又はいずれかの運動や存在状態に影響を与えることができる。さらには、ユーザ2が物体5〜8のいずれかに関心を示しているということが、入力I/F部(後述)によって、仮想空間1を生成している仮想空間システムに分かるようになっている。このような、ユーザ2が関与できる仮想空間1において、物体の運動や状態の変化がユーザ2に提示され、ユーザ2はその提示を現実のものとして仮想的に認識・知覚する。その認識・知覚をよりリアルにするために、移動する物体と他の物体との衝突がより詳細に検出され、その結果がユーザ2に提示される。   Hereinafter, a collision detection method for changing the level of detail according to an interaction in a space according to an embodiment of the present invention and a virtual space generation apparatus using the method will be described with reference to the drawings. FIG. 1 shows the concept of the relationship between the degree of interest and the level of detail of collision detection in a virtual three-dimensional space. The three-dimensional virtual space 1 is generated by an interactive real-time virtual space system using a computer, and (virtual) objects 5 to 8 in the space are recognized by the user 2. Further, the user 2 can interactively operate (work) at least one of the objects 5 to 8, or can influence any motion or presence state. Furthermore, the virtual space system generating the virtual space 1 can be understood by the input I / F unit (described later) that the user 2 is interested in any of the objects 5 to 8. Yes. In such a virtual space 1 in which the user 2 can be involved, the movement of the object and the change of the state are presented to the user 2, and the user 2 virtually recognizes and perceives the presentation as a real thing. In order to make the recognition / perception more realistic, a collision between a moving object and another object is detected in more detail, and the result is presented to the user 2.

また、仮想空間1において発生する現象に対するユーザ2による認識・知覚の効果を高めるために、仮想空間1の、例えば部分空間3や特定の物体5、6のように、ユーザが注目していて関心が高い部分空間や物体に対して重点的に、より詳細に衝突が検出される。このように、ユーザ2の関心の向く項目について、予め又は衝突検出の都度、階層的に、各項目毎に衝突検出評価関数を決めておき(後述)、この衝突検出評価関数に基づいて、衝突検出の詳細度を動的に変更して衝突が検出される。   Further, in order to enhance the recognition / perception effect by the user 2 on the phenomenon occurring in the virtual space 1, the user is paying attention and interested in the virtual space 1, such as the partial space 3 and the specific objects 5 and 6, for example. Collisions are detected in more detail with emphasis on subspaces and objects that are high. In this way, for the item that the user 2 is interested in, a collision detection evaluation function is determined for each item in advance or hierarchically for each collision detection (described later), and based on this collision detection evaluation function, a collision is determined. Collisions are detected by dynamically changing the level of detail of detection.

その結果、ユーザ2の背後や下方の部分空間4は、ユーザの関心度が高くないと判断され、部分空間4における、例えば物体7、8について、詳細な状態変化追跡は省略される。そこで、詳細な衝突検出のための計算資源を必要な箇所、例えば部分空間3、における現象に重点的に割り当てることができるようになり、注目する物体に対する衝突検出精度と衝突検出速度の両方を向上できる。従って、このような衝突検出方法によると、仮想空間1の自律性(無矛盾性)と、仮想空間1における現象の実時間性(リアルタイム性)の両方を確保でき、仮想空間1において自己投射性と実時間の相互作用性を実現でき、仮想空間1において、ユーザ2がよりインタラクティブに活動できるようになる。   As a result, it is determined that the user's interest is not high in the subspace 4 behind or below the user 2, and detailed state change tracking is omitted for the objects 7 and 8 in the subspace 4, for example. Therefore, calculation resources for detailed collision detection can be assigned to a phenomenon in a necessary place, for example, the partial space 3, and both the collision detection accuracy and the collision detection speed for the object of interest are improved. it can. Therefore, according to such a collision detection method, it is possible to secure both the autonomy (consistency) of the virtual space 1 and the real-time property of the phenomenon in the virtual space 1 (real-time property). Real-time interactivity can be realized, and the user 2 can be more interactive in the virtual space 1.

次に、上述の計算資源の割り当てについて説明する。図2は、関心度と衝突検出詳細度により定まる仮想3次元空間の部分空間の区分化を示す。図2(a)〜(d)に示す関心度NC、衝突検出詳細度ND、全空間VRは、説明の便利のため、全て最小値0から最大値1の値をとるように規格化したものである。ここに示す例では、関心度NCは階層化数値c1,c2,c3によって、また衝突検出詳細度NDは階層化数値d1,d2,d3によってそれぞれ4段階に階層化され、従って、全空間VRが、同様に階層化数値r1,r2,r3によって4つの部分空間に階層化される。   Next, the above-described calculation resource allocation will be described. FIG. 2 shows segmentation of a subspace of a virtual three-dimensional space determined by the degree of interest and the level of detail of collision detection. The interest level NC, the collision detection detail level ND, and the entire space VR shown in FIGS. 2A to 2D are all standardized to take a value from the minimum value 0 to the maximum value 1 for convenience of explanation. It is. In the example shown here, the degree of interest NC is hierarchized into four levels by the hierarchized numerical values c1, c2, and c3, and the collision detection detail ND is hierarchized by the hierarchized numerical values d1, d2, and d3, respectively. Similarly, the data is hierarchized into four partial spaces by the hierarchized numerical values r1, r2, and r3.

図2に示す各グラフにおける領域aは最も関心度が高く、最も詳細に衝突を検出するように決定された領域であり、領域b,c,dの順に関心度が減少する。全空間VRに占める領域aの部分空間の割合r1が小さいほど、システム全体において投入する計算資源が少なくて済む。また、実際の衝突検出計算においては、図2(d)に示すように、例えば、c1<ND≦c2の関心度NDに対して、衝突検出詳細度NDの値として、例えば、対応する階層の上限値である値d2が選ばれ、値d2で定まる環境物体のモデルを用いて衝突検出の計算が行われる。   The area a in each graph shown in FIG. 2 has the highest degree of interest and is the area determined to detect the collision in detail, and the degree of interest decreases in the order of the areas b, c, and d. The smaller the ratio r1 of the partial space of the area a occupying the entire space VR, the fewer calculation resources are input in the entire system. Further, in the actual collision detection calculation, as shown in FIG. 2D, for example, as the value of the collision detection detail level ND with respect to the degree of interest ND of c1 <ND ≦ c2, for example, in the corresponding hierarchy The upper limit value d2 is selected, and collision detection calculation is performed using an environmental object model determined by the value d2.

次に、空間内のインタラクションに応じて詳細度を変更する衝突検出方法の処理の概要を説明する。図3は、関心度情報と衝突検出の詳細度を結びつける関数関係を示す。ユーザの関心度情報は、例えば、ユーザの指差し位置、ユーザの視点、ユーザの視野中心(視線方向)などの空間を特定する情報である(#1)。このような、空間に対する関心度情報が取得されると、その情報を反映した衝突検出評価関数I(x,y,z)が空間座標の関数として決定される(#2)。例えば、後述の式(1)(2)参照。衝突検出評価関数は、後述するように、関心度情報としての空間情報によって規定された空間の点又は点集合に最大値を有し、そこから離れるに従い減衰する空間座標の関数(母型関数)によって定義される(#3)。これは、特定の空間に対し、関心度の重み付けをしたことになる。   Next, an outline of the process of the collision detection method for changing the level of detail according to the interaction in space will be described. FIG. 3 shows a functional relationship that links interest level information and detail level of collision detection. The user's interest level information is information that identifies a space such as the user's pointing position, the user's viewpoint, and the user's visual field center (gaze direction) (# 1). When such interest level information about the space is acquired, the collision detection evaluation function I (x, y, z) reflecting the information is determined as a function of the spatial coordinates (# 2). For example, see formulas (1) and (2) below. As will be described later, the collision detection evaluation function has a maximum value at a point or a set of points defined by spatial information as interest level information, and decays with distance from the point (a matrix function). (# 3). This means that the degree of interest is weighted for a specific space.

衝突検出は、物体同士で行われるため、物体に対して関心度情報を割り当てる必要がある。ユーザの関心度情報が、空間に対するものとして得られ、衝突検出評価関数I(x,y,z)が得られた場合、物体mの占有空間情報(#4)と衝突検出評価関数とを用いて物体mに対する関心度O(m)が算出される。これは、後述する式(3)に示すように、物体mの占める空間に関して衝突評価関数を積分して求められる(#5、#6)。このようにして求めた物体mに対する関心度O(m)をもとに、物体の詳細度決定及びその物体に関する衝突検出の詳細度決定がなされる。   Since collision detection is performed between objects, it is necessary to assign interest level information to the objects. When the user's interest level information is obtained for the space and the collision detection evaluation function I (x, y, z) is obtained, the occupied space information (# 4) of the object m and the collision detection evaluation function are used. Thus, the degree of interest O (m) for the object m is calculated. This is obtained by integrating the collision evaluation function with respect to the space occupied by the object m (# 5, # 6), as shown in equation (3) described later. Based on the degree of interest O (m) for the object m thus obtained, the detail level of the object and the detail level of collision detection related to the object are determined.

ユーザの関心が、空間に対してではなく物体そのものに向かっており、関心度情報として物体mに対する関心度O(m)が得られる場合、その関心度O(m)が用いられる(#7)。これらのいずれかの方法により求められた物体mの関心度O(m)は、空間位置によって、Omin〜Omaxのいずれかの値をとる。   When the user's interest is toward the object itself, not to the space, and the interest level O (m) for the object m is obtained as the interest level information, the interest level O (m) is used (# 7). . The degree of interest O (m) of the object m obtained by any one of these methods takes any value from Omin to Omax depending on the spatial position.

物体mは、事前に又は動的にその表現形式が定められ、その表現形式に基づいて階層的に、例えばn段階の詳細度L(0)〜L(n−1)が決められている(#8)。物体mに対して、その物体mに対する現在の関心度O(m)を用いて、その物体mに対する現在の詳細度L(j)が決定される(#9、#10)。詳細度L(j)は階層化されているので、その値は、通常整数値として与えられる。関心度の高い物体に対しては、詳細度L(j)の高い表現形式の物体表現が選ばれ、従って、衝突計算も詳細なものとなる(#11)。また、8分木法における衝突検出の詳細度の動的変更に対しては、衝突検出評価関数の出力として、衝突検出打切りの8分木分割レベルの深さを示す値が出力される。   The object m has its expression format determined in advance or dynamically, and hierarchical levels L (0) to L (n−1), for example, are determined hierarchically based on the expression format ( # 8). For the object m, the current level of detail L (j) for the object m is determined using the current interest level O (m) for the object m (# 9, # 10). Since the level of detail L (j) is hierarchized, its value is usually given as an integer value. For an object with a high degree of interest, an object representation having a high level of detail L (j) is selected, and therefore the collision calculation is also detailed (# 11). In addition, for a dynamic change in the level of detail of collision detection in the octree method, a value indicating the depth of the octree division level for collision detection truncation is output as the output of the collision detection evaluation function.

次に、上述したインタラクションに応じて衝突検出の詳細度(検出深さ)を動的に変更して衝突を検出する実時間仮想空間システムにおける処理フローを説明する。図4はその処理フローを示す。この処理フローは、前出の図19に示した従来から一般に行われている処理フローにおける衝突検出S302の処理が、改善されたものである。従来技術における衝突検出S302において、ユーザの関心度が考慮され、ユーザインタラクションを解析して衝突を検出するように、新たに関心度取得S3、衝突評価関数生成及び更新S4、詳細度決定S5、衝突検出S6となっている。   Next, a processing flow in a real-time virtual space system that detects a collision by dynamically changing the level of detail (detection depth) of collision detection according to the above-described interaction will be described. FIG. 4 shows the processing flow. This process flow is an improvement of the process of the collision detection S302 in the process flow generally performed conventionally shown in FIG. In the collision detection S302 in the prior art, the interest level of the user is taken into consideration, and the interest level acquisition S3, the collision evaluation function generation and update S4, the detail level determination S5, the collision level are newly calculated so as to detect the collision by analyzing the user interaction. Detection is S6.

図4に示すフローにおいて、まず初期設定が行われる(S1)。初期設定は、システムを稼働させるための条件設定、環境設定などである。システムが稼働して、ユーザが実時間仮想空間システムにおいて生成された仮想空間で移動したり、仮想空間内の物体を操作したりすることで、ユーザと空間/物体とのインタラクションが発生する(S2)。   In the flow shown in FIG. 4, first, initial setting is performed (S1). The initial settings include condition settings for operating the system and environment settings. When the system is operated and the user moves in the virtual space generated in the real-time virtual space system or manipulates an object in the virtual space, interaction between the user and the space / object occurs (S2). ).

この後の一連の処理で、ユーザの関心度を考慮したユーザインタラクションの解析が行われて衝突が検出される。まず、関心度取得ステップで、全空間位置、及び全物体におけるユーザの関心度情報が、関心度の評価項目毎に計測して調べられる(S3)。続いて、評価関数生成ステップで衝突検出評価関数が空間座標の関数として生成され(S4)、詳細度決定ステップで衝突検出評価関数を用いて各部分空間における物体の詳細度と衝突検出の詳細度が決定される(S5)。衝突検出ステップで前記決定された詳細度に基づいて衝突の検出が行われる(S6)。   In a series of subsequent processes, the user interaction is analyzed in consideration of the user's interest level, and a collision is detected. First, in the interest level acquisition step, the user's interest level information in all spatial positions and all objects is measured and examined for each evaluation item of interest level (S3). Subsequently, in the evaluation function generation step, a collision detection evaluation function is generated as a function of spatial coordinates (S4), and in the detail level determination step, using the collision detection evaluation function, the detail level of the object and the detail level of collision detection in each partial space Is determined (S5). A collision is detected based on the level of detail determined in the collision detection step (S6).

この後は、前出の図19に示した従来の処理フローと同様に処理が行われる。すなわち、衝突検出結果に応じたレスポンス計算が行われる(S7)。このレスポンス計算では、物理法則に基づいて、衝突部位における反射、弾性、反力、音、破壊などの物性や発生現象が考慮される。このようにして得られたレスポンス計算結果が、所定の提示機能によってユーザに提示される(S8)。ユーザは提示されたレスポンスに反応して、新たな移動や操作を行う(S9)。ユーザ・インタラクションのある実時間仮想空間システムにおいて、このような一連の処理が、例えば1秒に10回の頻度で動的かつリアルタイムに連続して、システムが停止(S10でY)されるまで行われる。   Thereafter, processing is performed in the same manner as the conventional processing flow shown in FIG. That is, a response calculation corresponding to the collision detection result is performed (S7). In this response calculation, physical properties and occurrence phenomena such as reflection, elasticity, reaction force, sound, and destruction at the collision site are considered based on the physical law. The response calculation result obtained in this way is presented to the user by a predetermined presentation function (S8). In response to the presented response, the user performs a new movement or operation (S9). In a real-time virtual space system with user interaction, such a series of processes is continuously performed dynamically and in real time, for example, at a frequency of 10 times per second until the system is stopped (Y in S10). Is called.

次に、上述のインタラクション解析処理(S3〜S6)についてさらに説明する。図5はその解析処理フロー部分を抜き出して示している。元来、衝突検出は、コンピュータにより生成されユーザがインタラクティブに関与できる実時間仮想空間システムにおける移動する物体と他の物体との衝突を、仮想空間を利用するユーザに提示するために行われる。そこで、システムが稼働して初期設定が行われた後、まず、ユーザの空間又は物体に対する関心度情報取得が、関心度取得ステップにおいて行われる(S103)。   Next, the above-described interaction analysis process (S3 to S6) will be further described. FIG. 5 shows the analysis processing flow part. Originally, collision detection is performed to present to a user using a virtual space a collision between a moving object and another object in a real-time virtual space system that is generated by a computer and can be interactively engaged by the user. Therefore, after the system is activated and the initial setting is performed, first, interest level information acquisition for the user's space or object is performed in the interest level acquisition step (S103).

この関心度取得ステップ(S103)において取得される関心度情報は、基本的には、ユーザが仮想3次元空間のどの部分に関心を示しているかという情報であり、空間の点又は空間の方向を特定する情報である。例えば、ユーザの指差し位置、ポインタの位置、ユーザの視点、ユーザや空間中の重要な物体位置などからの距離、ユーザの視野中心(視線方向)、指差し、指示方向などからの角度、作業領域や視野を横切る物体の移動速度などが関心度情報として取得される。このようなユーザの関心の中心となる点又は方向は、ユーザの活動と共に時々刻々変化する。指差しの方向は、位置と方位角を計測するセンサ(例えば、ポヒマス社のFastrackという製品)を指に装着して指座標原点位置と指差軸の方向を計測して求められる。また、このようなセンサを頭部に装着すれば、頭や顔の位置と方向を計測することができる。また、視線の方向は、例えば、ポヒマス社のVisiontrackというセンサで検出することができる。これらと同様のセンサは他社からも入手可能である。   The interest level information acquired in this interest level acquisition step (S103) is basically information indicating which part of the virtual three-dimensional space the user is interested in. Information to identify. For example, the pointing position of the user, the position of the pointer, the viewpoint of the user, the distance from the user or an important object position in space, the center of the user's visual field (gaze direction), the angle from the pointing, pointing direction, etc. The moving speed of the object that crosses the region or the field of view is acquired as the interest level information. The point or direction that becomes the center of interest of the user changes from time to time with the user's activities. The pointing direction is obtained by mounting a sensor for measuring the position and azimuth angle (for example, a product called Fasttrack manufactured by Pohimas Co., Ltd.) on the finger and measuring the finger coordinate origin position and the direction of the pointing axis. If such a sensor is attached to the head, the position and direction of the head and face can be measured. The direction of the line of sight can be detected by, for example, a sensor called Visiontrack from Pohimas. Similar sensors are also available from other companies.

また、関心度の強弱を表す情報として、ユーザの心拍数、発汗量、呼吸数などを含む身体状態を表す状態量が必要に応じて計測される。これらの状態量の計測値そのもの、又はその変動等を解析した結果が関心度情報として取得される。心拍数、発汗量、呼吸数などは、一般に広く用いられている通常の医療計測機器により計測することができる。この身体的状態量に基づく、いわば情的な関心度情報は、上述の空間の点などに顕わに示された直接的・空間的な関心度情報を補強及び補完する、相補的な情報である。すなわち、(関心度情報)=(顕示された空間的な関心情報+情的な関心度情報)のように構成される。   In addition, as information representing the level of interest, a state quantity representing a physical state including a user's heart rate, sweating rate, respiratory rate, and the like is measured as necessary. The measurement values themselves of these state quantities themselves or the results of analyzing the fluctuations thereof are acquired as interest level information. The heart rate, the amount of sweat, the respiration rate, and the like can be measured by a general medical measurement device that is generally widely used. The so-called emotional interest level information based on this physical state quantity is complementary information that reinforces and complements the direct and spatial interest level information that is clearly shown in the above-mentioned spatial points. is there. That is, (interesting degree information) = (explicit spatial interest information + emotional interest degree information).

続いて、評価関数生成ステップ(S104)において、上記のように取得されたユーザの関心度情報に応じて、その関心度情報と衝突検出の詳細度を階層的に関連づけるための衝突検出評価関数が、空間座標の関数として生成される。   Subsequently, in the evaluation function generation step (S104), a collision detection evaluation function for hierarchically associating the interest level information and the detail level of the collision detection according to the user interest level information acquired as described above is provided. , Generated as a function of spatial coordinates.

衝突検出評価関数は、例えば、ユーザの指差し位置からの距離、ユーザの視点からの距離、ユーザの視野中心(視線方向)からの角度、ユーザの作業領域や視野を横切る物体の移動速度などに応じてその関数値が増減する関数である。   The collision detection evaluation function is, for example, the distance from the user's pointing position, the distance from the user's viewpoint, the angle from the user's visual field center (gaze direction), the user's work area or the moving speed of the object across the visual field, etc. The function value increases or decreases accordingly.

続いて、詳細度決定ステップ(S105)において、衝突検出評価関数を用いて各部分空間における物体の詳細度と衝突検出の詳細度が動的に、すなわち実時間的に状況変化に対応して変更され決定される。このとき、衝突検出の対象となる物体について、その表現形式が決定される。すなわち、仮想空間中の各物体は、予めオフラインで、又は実行時にリアルタイムで作成された詳細度が異なる複数の表現形式を有しており(後述)、この詳細度決定ステップにおいて衝突検出評価関数の関数値(評価関数値)に基づいて衝突検出のための各物体の表現形式が動的に選択される。   Subsequently, in the level of detail determination step (S105), the level of detail of the object and the level of detail of collision detection in each subspace are dynamically changed using the collision detection evaluation function, that is, in real time, corresponding to the situation change. To be determined. At this time, the expression format of the object that is the target of collision detection is determined. That is, each object in the virtual space has a plurality of expression formats with different levels of detail created in advance offline or in real time at the time of execution (described later). A representation format of each object for collision detection is dynamically selected based on the function value (evaluation function value).

続いて、衝突検出ステップ(S106)において、部分空間及び物体毎の衝突検出の詳細度に基づいて選択された表現形式を有する物体を用いて、物体間の衝突検出が行われる。その衝突検出に用いられる各物体の表現形式として、詳細な(高精度な)衝突検出には詳細な表現形式のものが、また詳細でない(粗い)衝突検出には衝突検出が簡単な表現のものが用いられる。例えば、凹凸の少ない物体の方が凹凸の多い物体よりも、また構成ポリゴン数の少ない方が多いものよりも、表現形式が簡単であり、通常、衝突検出が容易である。   Subsequently, in a collision detection step (S106), collision detection between objects is performed using an object having an expression format selected based on the subspace and the level of detail of collision detection for each object. The representation format of each object used for collision detection is a detailed representation format for detailed (high-precision) collision detection, and a simple representation for collision detection for non-detailed (coarse) collision detection. Is used. For example, an object with less unevenness has a simpler expression format than an object with more unevenness, and has a larger number of constituent polygons, and collision detection is usually easier.

このように関心度に応じて決めた衝突検出評価関数に基づいて物体の表現形式を決定し、その表現形式の物体を用いて衝突検出を行うようにすると、たとえ、その衝突物体同士の衝突検出の計算を完全に行ったとしても、たかだかその物体の表現形式の詳細度の衝突検出である。従って、その物体の関心度に基づかない詳細度を超える精度の検出作業は、自動的に打ち切られることになる。このような表現形式で定まる計算を完全に行うときの詳細度と、その表現形式における衝突検出の計算ステップ数に制限をさらに加えたときの詳細度のいずれかによって衝突検出の詳細度としてもよい。   In this way, if the object representation format is determined based on the collision detection evaluation function determined according to the degree of interest, and collision detection is performed using the object in the representation format, collision detection between the collision objects is performed. Even if the calculation of is completely performed, it is the collision detection of the degree of detail of the expression form of the object at most. Therefore, the detection operation with the accuracy exceeding the level of detail that is not based on the level of interest of the object is automatically canceled. The level of detail of collision detection may be determined by either the level of detail when the calculation determined in such an expression format is completely performed or the level of detail when a limit is further added to the number of calculation steps for collision detection in the expression format. .

次に、上述した仮想空間における物体の表現について説明する。図6(a)〜(c)は詳細度の異なる物体の表現形式の例を示す。図6(a)(b)に示す物体は、物体表現に用いるポリゴン数によって詳細度を階層的に、すなわち連続的でなく段階的に変化させたものであり、図6(c)に示す物体は、物体を球体の集まりで表現したものであり、物体表現に用いる球体数によって詳細度が階層的に変化している。これらの例のように、空間中の全ての物体は、それぞれ、詳細度が階層的に異なる複数の表現形式で表現されている。これらは、予めオフラインで作成しておいても、実行時にリアルタイムで作成してもよい。   Next, the expression of the object in the virtual space described above will be described. FIGS. 6A to 6C show examples of representation formats of objects having different degrees of detail. The objects shown in FIGS. 6 (a) and 6 (b) are obtained by changing the level of detail hierarchically, that is, stepwise, not continuously, depending on the number of polygons used for object representation. The objects shown in FIG. 6 (c) Represents an object as a collection of spheres, and the level of detail changes hierarchically depending on the number of spheres used for object representation. As in these examples, all objects in the space are expressed in a plurality of expression formats with different levels of detail. These may be created in advance offline or in real time during execution.

物体の詳細度が異なる表現として、Octreeなどの階層的な形状表現や、描画の負荷を軽減するために利用されるLODを併用してもよい。LOD(レベル・オブ・ディーティル)及びLODを数値で表現したLOD値という考え方は、もともとコンピュータグラフィックスの分野で広く利用されているものであり、視点位置から遠い物体のポリゴン数を少なくする、すなわち詳細度のレベルを下げるなどして、リアルな絵を高速かつ効率的に描画をする技術である。図6(a)〜(c)の図は、LOD値がLOD=0のとき最も詳細な物体表現になっており、LOD値が大きくなるほど詳細度が減少して、粗な物体表現となっている。   As expressions with different levels of detail of objects, hierarchical shape expressions such as Octree and LOD used to reduce the drawing load may be used in combination. The idea of LOD (level of detail) and LOD values that express LOD numerically is originally widely used in the field of computer graphics, and reduces the number of polygons of objects far from the viewpoint position. In other words, it is a technique for drawing a realistic picture quickly and efficiently by reducing the level of detail. 6A to 6C show the most detailed object representation when the LOD value is LOD = 0, and the detail level decreases as the LOD value increases, resulting in a rough object representation. Yes.

次に、前述の詳細度決定ステップにおける衝突検出の詳細度の変更と決定について説明する。どこまで詳細に衝突を調べるか、すなわち、どの段階で詳細な衝突検出を打ち切るかは、前述のように衝突検出評価関数に基づいた衝突検出の詳細度による。図7(a)は仮想空間におけるユーザの作業(インタラクション)の様子を示し、図7(b)はその作業におけるユーザの関心度情報の例を示す。ユーザのインタラクティブな作業の実行時に、空間内で物体間の衝突が生じる場合、例えば、その時点までのインタラクションの結果生じる衝突検出評価関数の値を総合してその結果に基づいて、該当する物体の表現形式、及び衝突検出の詳細度を決定し、これを用いて衝突が検出(計算)される。図7(b)において、点P(X,Y,Z)は視野中心線(視線)上の点であり、視野離角θは視線方向からの角度である。この場合、視野離角θが小さいほど関心度、従って、衝突検出評価値が高いとされる。なお、衝突検出評価関数は、各物体毎に複数の種類の関心度種別について生成され、それらの複数の結果を重み付けなどの統計処理するなどして複合的に用いられる。   Next, the change and determination of the detail level of collision detection in the above-described detail level determination step will be described. To what extent the collision is examined in detail, that is, at which stage the detailed collision detection is terminated depends on the level of detail of collision detection based on the collision detection evaluation function as described above. FIG. 7A shows the state of the user's work (interaction) in the virtual space, and FIG. 7B shows an example of the user's interest level information in the work. When collisions between objects occur in space during the user's interactive work, for example, the value of the collision detection evaluation function generated as a result of the interaction up to that point is integrated, and the corresponding object's The expression format and the level of detail of collision detection are determined, and this is used to detect (calculate) a collision. In FIG. 7B, a point P (X, Y, Z) is a point on the visual field center line (line of sight), and the visual field separation angle θ is an angle from the visual line direction. In this case, the smaller the visual field separation angle θ, the higher the degree of interest and thus the collision detection evaluation value. The collision detection evaluation function is generated for a plurality of types of interest levels for each object, and is used in a composite manner by performing statistical processing such as weighting on the plurality of results.

階層的な物体の形状表現と8分木の方法を用いる衝突検出について説明する。図8は8分木階層と衝突検出詳細度との関係を示す。ユーザの関心度が高い場合には、8分木の階層jが深められ、より微細に衝突現象が調べられる。すなわち、より詳細な衝突計算とレスポンス計算が行われる。衝突検出のための階層の深さ、及び物体表現は、前述の衝突検出評価値に基づいて決定される。   The collision detection using the hierarchical object shape representation and the octree method will be described. FIG. 8 shows the relationship between the octree hierarchy and the collision detection detail level. When the user's degree of interest is high, the hierarchy j of the octree is deepened and the collision phenomenon is examined more finely. That is, more detailed collision calculation and response calculation are performed. The depth of the hierarchy for collision detection and the object representation are determined based on the above-described collision detection evaluation value.

次に、LODの概念を衝突検出に用いる場合について説明する。図9(a)は仮想3次元空間における衝突検出に用いられる物体表現を示し、図9(b)はユーザに提示されている物体表現を示す。図9(a)は、衝突検出評価値に基づき関心度及び衝突検出の詳細度に応じて選択されたLOD値の物体表現が衝突検出に用いられることを示している。図9(b)に示すように、詳細度の高いLOD=0の表現形式の物体a0、b0、c0が、3次元空間を浮遊し、衝突すれば運動ベクトルと衝突面の法線ベクトルに基づいて反転運動する様子のイメージがユーザに提示されている。   Next, a case where the concept of LOD is used for collision detection will be described. FIG. 9A shows an object expression used for collision detection in a virtual three-dimensional space, and FIG. 9B shows an object expression presented to the user. FIG. 9A shows that the object representation of the LOD value selected according to the interest level and the detail level of collision detection based on the collision detection evaluation value is used for collision detection. As shown in FIG. 9B, if the objects a0, b0, c0 in the expression format of LOD = 0 with a high degree of detail float in the three-dimensional space and collide, based on the motion vector and the normal vector of the collision surface. The user is presented with an image of the reverse motion.

そして、衝突検出に際して、ユーザと空間とのインタラクションの結果、衝突検出評価値が高いとされる部分空間(図中半径r0の円内)では、最も詳細度の高いLOD=0の物体a0,b0,c0を用いて衝突検出がなされ、その外の半径r1の円と半径r0の円の間のリング状部分空間では、LOD=1の物体a1,b1,c1を用いて衝突検出がなされる。残りの空間においても同様に、LOD値と関連させて衝突検出がなされる。この例では、円の中心から遠ざかるにつれて、衝突検出評価値が下がり、大まかな形状の物体を用いて衝突検出がなされる。なお、物体提示の負担を減らしたい場合は、図9(b)に示される物体表現に替えて、図9(a)に示される物体表現をユーザへの提示としてもよい。   In the collision detection, in the partial space (inside the circle of radius r0 in the figure) where the collision detection evaluation value is high as a result of the interaction between the user and the space, the objects a0 and b0 having the highest level of detail are LOD = 0. , C0, and collision detection is performed using the objects a1, b1, c1 with LOD = 1 in the ring-shaped subspace between the circle with the radius r1 and the circle with the radius r0. Similarly, in the remaining space, collision detection is performed in association with the LOD value. In this example, the collision detection evaluation value decreases as the distance from the center of the circle increases, and collision detection is performed using a roughly shaped object. When it is desired to reduce the burden of object presentation, the object representation shown in FIG. 9A may be presented to the user instead of the object representation shown in FIG. 9B.

次に、衝突検出評価関数について、より具体的に説明する。図10は衝突検出評価関数の例を示す。衝突検出評価関数は、前述したようにユーザの関心度情報に応じてその関心度情報と物体の詳細度、従って衝突検出の詳細度を階層的に関連づけるための空間座標の関数であり、また、関心度情報は、基本的には、ユーザが仮想3次元空間のどの部分に関心を示しているかという情報であり空間の点や方向を特定する情報である。衝突検出評価関数は、空間に分布する関心度の強弱を示すものである。   Next, the collision detection evaluation function will be described more specifically. FIG. 10 shows an example of the collision detection evaluation function. The collision detection evaluation function is a function of spatial coordinates for hierarchically associating the interest level information and the detail level of the object, and thus the detail level of the collision detection, according to the interest level information of the user as described above. The interest level information is basically information indicating which part of the virtual three-dimensional space the user is interested in, and is information for specifying a point or direction in the space. The collision detection evaluation function indicates the level of interest distributed in the space.

ユーザの関心の種別を区別して衝突検出評価関数I(x、y、z)を特徴づける場合、衝突検出評価関数をI(x、y、z;α)と表す。ここに、x、y、zは空間点の座標であり、αは衝突検出評価関数を特徴づけるユーザの関心度情報を与える関心度種別である。関心度種別αとしては、前述のようにユーザの指差し位置や視点(視野中心)、及びその方向などである。衝突検出評価関数I(x、y、z、;α)は、関心度を計測して評価するため、関心度種別αに対するユーザの関心度を数値的に表現して、その関心度を空間分布として表した関数である。この関数によって、注目する部分空間がどの程度ユーザによる作業(関心度)の焦点となっているか、つまり関心度がどの程度の値であるかが数値的に表される。   When the collision detection evaluation function I (x, y, z) is characterized by distinguishing the type of user's interest, the collision detection evaluation function is expressed as I (x, y, z; α). Here, x, y, and z are the coordinates of a spatial point, and α is an interest type that gives interest level information of the user that characterizes the collision detection evaluation function. As described above, the interest degree type α includes the user's pointing position, viewpoint (view center), and direction thereof. Since the collision detection evaluation function I (x, y, z, α) measures and evaluates the degree of interest, the degree of interest of the user with respect to the degree of interest type α is expressed numerically, and the degree of interest is spatially distributed. As a function. This function numerically represents how much the focused subspace is the focus of the user's work (interest level), that is, what value the interest level is.

最も単純な衝突検出評価関数I(x、y、z:α)として、図10(a)に示されるように、空間のある点P1を中心として、その点P1からの距離Δrの増大とともに減少する関数値を有する衝突検出評価関数I(x、y、z;Δr)が上げられる。この衝突検出評価関数I(x、y、z;Δr)は、点P1の回りに球対称である。点P1は、ユーザ2の指差し、又はユーザ2の視点位置として、前述の関心度取得ステップにおいて説明した計測手段等によって特定される。その関数形として、例えば、下記の式(1)のようなものを用いることができる。   As the simplest collision detection evaluation function I (x, y, z: α), as shown in FIG. 10 (a), a point P1 in the space is the center and decreases as the distance Δr from the point P1 increases. The collision detection evaluation function I (x, y, z; Δr) having the function value to be increased is raised. The collision detection evaluation function I (x, y, z; Δr) is spherically symmetric around the point P1. The point P1 is specified by the measuring means described in the above-described interest level acquisition step as the pointing of the user 2 or the viewpoint position of the user 2. As the function form, for example, the following equation (1) can be used.

Figure 2005071285
Figure 2005071285

ここで、r0はユーザ2から点P1に向かう位置ベクトル、rはユーザ2から点P2に向かう位置ベクトル、Δrは両ベクトルの差の絶対値、dはI(x、y、z;Δr)を有限値とするためのパラメータ、kは関数値調整パラメータである。なお、これらのパラメータは距離Δr依存性を持つこともある。式(1)で示される衝突検出評価関数I(x、y、z;Δr)は、図10(b)に示されるように、距離r0の位置に極大(最大関心度)を有する、曲線w1〜w3などとなる。式(1)の関数は、Δrの増加と共に急激に減少する関数とするために、分母のΔrが二乗されている。   Here, r0 is a position vector from the user 2 to the point P1, r is a position vector from the user 2 to the point P2, Δr is an absolute value of the difference between the two vectors, and d is I (x, y, z; Δr). A parameter for setting a finite value, k is a function value adjustment parameter. Note that these parameters may have a distance Δr dependency. The collision detection evaluation function I (x, y, z; Δr) represented by the equation (1) has a maximum (maximum interest level) at the position of the distance r0 as shown in FIG. ~ W3 etc. The function of equation (1) is squared with the denominator Δr to make it a function that rapidly decreases as Δr increases.

上述の衝突検出評価関数I(x、y、z;Δr)の曲線w1〜w3の違いについて説明する。衝突検出評価関数は、一般に時間の関数であり、状況の変化によって、ユーザ2の関心度も変化することを反映している。例えば、曲線w1の状態を通常の状態として、ユーザ2が注目している点P1の近傍において、ある物体の移動速度が突然変化した場合、ユーザ2がその変化に注視することにより関心度が通常の場合よりも上昇することになり、曲線w2で表される衝突検出評価関数I(x、y、z;Δr)となる。また、曲線w3では、例えば、点P1の周辺から全ての物体が離散していく状態の場合などが考えられ、このときユーザ2の関心度はより低いものとなる。また、ユーザ2の身体状態量から得られる情的な関心度情報を反映するように、衝突検出評価関数の強弱を変化させることができる。これらの情的な関心度情報は、前述したように、関心度取得ステップにおいて、ユーザの心拍数、発汗量、呼吸数などを含む身体状態を表す状態量を計測して取得することができる。   Differences between the curves w1 to w3 of the above-described collision detection evaluation function I (x, y, z; Δr) will be described. The collision detection evaluation function is generally a function of time, and reflects that the degree of interest of the user 2 changes as the situation changes. For example, assuming that the state of the curve w1 is a normal state and the moving speed of a certain object suddenly changes in the vicinity of the point P1 that the user 2 is paying attention to, the user 2 is paying attention to the change, so that the degree of interest is normal. The collision detection evaluation function I (x, y, z; Δr) represented by the curve w2 is obtained. In the curve w3, for example, a case where all the objects are dispersed from the periphery of the point P1 can be considered, and at this time, the degree of interest of the user 2 is lower. In addition, the strength of the collision detection evaluation function can be changed so as to reflect the emotional interest level information obtained from the physical state quantity of the user 2. As described above, these emotional interest level information can be acquired by measuring state quantities representing the body state including the user's heart rate, sweating rate, respiratory rate, and the like in the interest level acquisition step.

次に、他の関心度種別による衝突検出評価関数について説明する。図11は角度依存の衝突検出評価関数I(x、y、z;θ)の例を示す。ユーザ2が空間のある方向に注視している場合、視線ベクトルnから角度が離れるほど、その離れた空間へのユーザ2の関心度が減少する。そこで、視線離角θの増大とともに関数値が減少する関数として、衝突検出評価関数I(x、y、z;θ)が定義される。この衝突検出評価関数I(x、y、z;θ)は、視線ベクトルnの回りに軸対称である。視線方向は、通常行われている視線測定器で特定される。衝突検出評価関数I(x、y、z;θ)の関数形として、例えば、下記の式(2)のようなものを用いることができる。   Next, a collision detection evaluation function according to another interest level will be described. FIG. 11 shows an example of an angle-dependent collision detection evaluation function I (x, y, z; θ). When the user 2 is gazing in a certain direction of the space, the degree of interest of the user 2 in the separated space decreases as the angle is away from the line-of-sight vector n. Therefore, the collision detection evaluation function I (x, y, z; θ) is defined as a function whose function value decreases as the line-of-sight separation angle θ increases. The collision detection evaluation function I (x, y, z; θ) is axisymmetric about the line-of-sight vector n. The line-of-sight direction is specified by a normal line-of-sight measuring device. As a function form of the collision detection evaluation function I (x, y, z; θ), for example, the following equation (2) can be used.

Figure 2005071285
Figure 2005071285

ここで、前記同様に、gはI(x、y、z;θ)を有限値とするためのパラメータ、mは関数値調整パラメータである。なお、これらのパラメータは視線離角θ依存性を持つこともある。式(2)で示される衝突検出評価関数I(x、y、z;θ)は、前出の式(1)で示されるものと同様に、視線離角θとともに単調減少する関数である。   Here, as described above, g is a parameter for setting I (x, y, z; θ) to a finite value, and m is a function value adjustment parameter. Note that these parameters may have a gaze separation angle θ dependency. The collision detection evaluation function I (x, y, z; θ) represented by the equation (2) is a function that monotonously decreases with the line-of-sight separation angle θ, similarly to the equation (1) described above.

図12は、視線離角θ依存性を有する衝突検出評価関数I(x、y、z;θ、ψ)を示す。ユーザの関心度は、曲線w5、w6のように、通常、前方に集中しており、視線離角θがある角度ψを超えると急激に減衰する。このような関数として、例えば、I(x,y,z;θ、ψ)=a/{exp[b(θ−ψ)+1]}、a>0、b>0のような関数を用いることができる。これらの曲線w5,w6の大小は、前述の場合と同様に、例えば、ユーザ2の関心度の時間変化などを反映したものである。   FIG. 12 shows a collision detection evaluation function I (x, y, z; θ, ψ) having a dependency on the line-of-sight separation angle θ. As shown by the curves w5 and w6, the user's interest level is usually concentrated in the front, and when the visual line separation angle θ exceeds a certain angle ψ, the user's interest level is rapidly attenuated. As such a function, for example, a function such as I (x, y, z; θ, ψ) = a / {exp [b (θ−ψ) +1]}, a> 0, b> 0 is used. Can do. The magnitudes of these curves w5 and w6 reflect, for example, the temporal change in the interest level of the user 2 as in the case described above.

次に、関心度種別の異なる衝突検出評価関数の組合せについて述べる。前述のように指差しによって定まる衝突検出評価関数は、例えば、指差方向からの角度φが増大するにしたがって減衰するような関数I(x、y、z;φ)で表現することが考えられ、また、指位置からの距離sによって減衰するようなI(x、y、z;s)で表現することも考えられる。また、両者を組み合わせることも考えられる。例えば、定数aを用いて、I(x、y、z;φ、s)=a/(φ・φ・s・s)、とすることができる。   Next, combinations of collision detection evaluation functions having different interest types will be described. The collision detection evaluation function determined by pointing as described above may be expressed by, for example, a function I (x, y, z; φ) that attenuates as the angle φ from the finger pointing direction increases. In addition, it may be expressed by I (x, y, z; s) that attenuates depending on the distance s from the finger position. It is also possible to combine the two. For example, using the constant a, I (x, y, z; φ, s) = a / (φ · φ · s · s).

さらに、指差しによって定まる衝突検出評価関数If=I(x、y、z;f)に、頭又は顔の向きによって定まる衝突検出評価関数Ih=I(x、y、z;h)や、視線によって定まる衝突検出評価関数Ie=I(x、y、z;e)などを組み合わせることも考えられる。例えば、これらのように略対等な関係にあるとみなせる衝突検出評価関数If、Ih、Ieについては、3種類の衝突検出評価関数の和によって、I(x、y、z;f、h、e)=If+Ih+Ieで決まる衝突検出評価関数を用いることができる。   Furthermore, the collision detection evaluation function If = I (x, y, z; f) determined by pointing, the collision detection evaluation function Ih = I (x, y, z; h) determined by the head or face orientation, It is also conceivable to combine a collision detection evaluation function Ie = I (x, y, z; e) determined by For example, for the collision detection evaluation functions If, Ih, and Ie that can be regarded as having a substantially equal relationship as described above, I (x, y, z; f, h, e) is obtained by the sum of three types of collision detection evaluation functions. ) = If + Ih + Ie A collision detection evaluation function can be used.

次に、空間に存在する仮想物体mに対する関心度(物体関心度)O(m)について説明する。この「物体関心度」は、ユーザの関心度情報と衝突検出の詳細度を階層的に関連づけるため物体に対して定義される。物体が移動するという意味で、「物体の関心度」は空間座標の関数である。また、衝突検出評価関数は、仮想3次元空間における特定の部分空間に対して関心度を設定したものである。物体に対する関心度(物体関心度)は、物体が本来移動するものなので、関心度の高い空間に物体が現れたときに、その空間の関心度の影響を受けてその物体の関心度が高まる場合と、物体の存在する空間の位置にかかわらず、物体そのものがユーザにとって関心の高いものである場合とがある。   Next, the interest level (object interest level) O (m) for the virtual object m existing in the space will be described. The “object interest level” is defined for an object in order to hierarchically relate the user interest level information and the detail level of collision detection. In the sense that an object moves, “object interest” is a function of spatial coordinates. The collision detection evaluation function is a function in which an interest level is set for a specific partial space in the virtual three-dimensional space. The degree of interest in an object (object interest level) is that the object originally moves, so when an object appears in a space with a high degree of interest, the interest level of the object increases due to the influence of the degree of interest in that space In some cases, the object itself is of great interest to the user regardless of the position of the space where the object exists.

上述の前者の場合、つまり物体が空間の関心度の影響を受けつぐ場合の物体の関心度は、例えば、その物体の空間内の位置と向きに応じて、その物体が占有する空間における関心度の総合計で定義することができる。すなわち、前述の空間に関する衝突検出評価関数I(x、y、z;α)を、物体の占める空間領域で積分することによって計算することができる。そこで、物体mの関心度O(m)は、下記の式(3)によって求められる。   In the above-mentioned case, that is, when the object is affected by the interest level of the space, the interest level of the object is, for example, the interest level in the space occupied by the object according to the position and orientation of the object in the space. Can be defined as the grand total. That is, the above-described collision detection evaluation function I (x, y, z; α) relating to the space can be calculated by integrating in the space region occupied by the object. Therefore, the degree of interest O (m) of the object m is obtained by the following equation (3).

Figure 2005071285
Figure 2005071285

また、上述の後者の場合、つまり物体の存在する空間の位置にかかわらず、物体そのものがユーザにとって関心の高いものである場合、その物体m1の関心度O(m1)は、次のようないくつかの方法によって決められる。1つは、システムの稼働開始時にユーザが物体の関心度O(m1)を設定することによって決められる。2つは、システム稼働中にユーザの関心度情報を関心度取得ステップにおいて取得し、その情報により物体m1の関心度O(m1)が決められる。最後に、両者の場合に対して、ユーザの関心度の時間変化を取り入れて、変動した物体γの関心度O(m1)が決められる。いずれにせよ、このようにして決められた物体m1の関心度O(m1)を用いて、物体表現の詳細度、及び衝突検出の詳細度が決定される。   In the latter case described above, that is, when the object itself is of high interest to the user regardless of the position of the space in which the object exists, the degree of interest O (m1) of the object m1 is as follows: It is decided by the method. One is determined by the user setting the interest level O (m1) of the object at the start of operation of the system. Second, during the system operation, the interest level information of the user is acquired in the interest level acquisition step, and the interest level O (m1) of the object m1 is determined based on the information. Finally, in both cases, the interest level O (m1) of the changed object γ is determined by taking into account the temporal change in the interest level of the user. In any case, using the degree of interest O (m1) of the object m1 determined in this way, the detail level of the object expression and the detail level of collision detection are determined.

次に、上述の物体mや物体m1の関心度O(m),O(m1)を用いて、物体の詳細度を決定し、さらに衝突検出の詳細度を決定することについて説明する。物体mで物体を代表して説明する。物体mの関心度O(m)は、通常、連続な値をとり、その上下限をOmax、Ominとすると、Omin≦O(m)≦Omaxである。また、物体mは、詳細度が異なる複数の表現形式を有しており、その詳細度は離散的な、かつ有限個の値をとる。物体mの各異なる表現形式に対して、詳細度L(j)、j=0〜(n−1)でラベル付けする。L(0)が最も詳細であり、L(n−1)が最も粗い詳細度である。以上の記号を用いて、ある関心度Ojに対する物体mの詳細度L(j)を与える引数jを、以下の式(4)によって決定する。ただし、式(4)の右辺において数式を挟む記号[]は、記号[]に挟まれた数式の値の四捨五入値を表す。   Next, it will be described how to determine the detail level of the object using the interest levels O (m) and O (m1) of the object m and the object m1 and further to determine the detail level of collision detection. The object m will be described as a representative of the object. The interest level O (m) of the object m usually takes a continuous value, and Omin ≦ O (m) ≦ Omax, where the upper and lower limits are Omax and Omin. Further, the object m has a plurality of expression formats with different levels of detail, and the levels of detail take discrete and finite values. Each different representation format of the object m is labeled with a level of detail L (j), j = 0 to (n−1). L (0) is the most detailed, and L (n-1) is the coarsest detail. Using the above symbols, an argument j that gives the level of detail L (j) of the object m for a certain degree of interest Oj is determined by the following equation (4). However, the symbol [] sandwiching the formula on the right side of the formula (4) represents the rounded value of the formula value sandwiched between the symbols [].

Figure 2005071285
Figure 2005071285

上式(4)の説明を、図13に示す。数値範囲0〜(n−1)を、(Omax−Oj)/(Omax−Omin)によって比例配分した値を整数化して、詳細度L(j)を与える引数jが求められている。   An explanation of the above equation (4) is shown in FIG. An argument j that obtains a degree of detail L (j) is obtained by converting a numerical value range 0 to (n−1) into an integer from a value that is proportionally distributed by (Omax−Oj) / (Omax−Omin).

なお、上式(4)では、関心度の上限下限と、物体の詳細度の上限下限を対応させているが、オフセットを設けて、他の時点及び他の物体における関心度との強弱変動の要素を反映してもよい。例えば、他の物体と比べて全体的に低い関心度(物体の関心度)を示す物体については、最大詳細度の表現形式を除いた詳細度L(1)〜L(n−1)について上式(4)を適用する。   In the above equation (4), the upper and lower limits of the degree of interest correspond to the upper and lower limits of the detail level of the object. However, by providing an offset, the fluctuation in strength between the interest level at other time points and other objects is changed. Elements may be reflected. For example, with respect to an object that exhibits a lower overall interest level (object interest level) than other objects, the detail levels L (1) to L (n−1) excluding the expression format of the maximum detail level are the above. Equation (4) is applied.

次に、上述した空間の衝突検出評価関数I(x、y、z、;α)、物体mの関心度O(m)、さらに物体mの関心度Ojに対する詳細度L(j)等を用いて、実時間仮想空間システムにおける衝突を検出する一連の処理(前述の図4又は図5のインタラクション解析処理)を説明する。まず、システムが稼働して、ユーザと空間/物体とのインタラクションが発生する。そこで、ユーザの関心度情報が関心度の評価項目毎に調べられ、衝突検出評価関数I(X,Y,Z;α)の生成、又は前回生成した衝突検出評価関数I(X,Y,Z;α)の更新が行われる。   Next, the above-described space collision detection evaluation function I (x, y, z, α), the degree of interest O (m) of the object m, and the level of detail L (j) for the degree of interest Oj of the object m are used. A series of processing for detecting a collision in the real-time virtual space system (the above-described interaction analysis processing in FIG. 4 or FIG. 5) will be described. First, the system is activated and interaction between the user and space / object occurs. Therefore, the interest level information of the user is checked for each evaluation item of the interest level, and the collision detection evaluation function I (X, Y, Z; α) is generated or the previously generated collision detection evaluation function I (X, Y, Z). ; Α) is updated.

続いて、空間の衝突検出評価関数I(X,Y,Z;α)に基づき、各物体m1,m2、・・について、物体の関心度O(m1)、O(m2)、・・の計算が行われた後、衝突検出に用いられる物体の詳細度(表現形式)、したがって、衝突検出の詳細度が決定される。次に、物体の詳細度(表現形式)によって決まった各物体の衝突検出用形状モデルを用いて、各物体同士が衝突したかしていないかが調べられ、さらに、衝突が発生していると判定された場合には、どこでどのように発生したかが調べられる。   Subsequently, based on the collision detection evaluation function I (X, Y, Z; α) in space, the object interest levels O (m1), O (m2),... Are calculated for each object m1, m2,. Is performed, the level of detail (expression form) of the object used for collision detection, and therefore the level of detail of collision detection, is determined. Next, using the shape model for collision detection of each object determined by the level of detail (expression format) of the object, it is checked whether each object has collided with each other, and it is further determined that a collision has occurred. If so, it is examined where and how it occurred.

上述のインタラクション解析処理で行われる衝突検出のステップは、詳細度を超える精度の検出作業は打ち切ってそれ以上の検出を行わないことに特徴がある。図14はこのような詳細度を制限した衝突検出の例を8分木で示す。物体M1,M2の衝突を調べるとき、一番粗いモデルから2番目に粗い詳細度L(n−2)のレベルまで衝突の検出は行うが、それ以上は検出を打ち切って行わないことを示している。   The collision detection step performed in the above-described interaction analysis process is characterized in that the detection operation with accuracy exceeding the detail level is discontinued and no further detection is performed. FIG. 14 shows an example of collision detection with such a limited degree of detail as an octree. When investigating the collision of the objects M1 and M2, the collision detection is performed from the coarsest model to the second coarsest level of detail L (n-2), but the detection is not interrupted after that. Yes.

また、図15は、ポリゴンで表現した物体k1,k2について、それぞれ詳細度がLOD(k1,j1)、LOD(k2,j2)と決定された場合の衝突検出を示す。このようなポリゴン同士の衝突検出は、両物体を構成するポリゴンの相互間で衝突検出の計算が行われる。例えば、それぞれのポリゴン数をP(k1)、P(k2)とすると、P(k1)×P(k2)回のポリゴン間計算が行われる。このような、ポリゴン間の計算量は、それぞれの物体の詳細度、従ってポリゴン数を関心度に基づいて制限されたものとなっている。   FIG. 15 shows collision detection when the detail levels of the objects k1 and k2 represented by polygons are determined as LOD (k1, j1) and LOD (k2, j2), respectively. In such collision detection between polygons, calculation of collision detection is performed between polygons constituting both objects. For example, if the number of polygons is P (k1) and P (k2), P (k1) × P (k2) inter-polygon calculations are performed. Such a calculation amount between polygons is such that the degree of detail of each object, and hence the number of polygons, is limited based on the degree of interest.

次に、上述したいずれかの衝突検出方法を用いる仮想空間生成装置について説明する。図16は仮想空間生成装置のブロック構成を示す。仮想空間生成装置10は、ユーザ2とのインタラクションを行うためのインターフェイス部40と、データ処理及び機器の制御を行うコンピュータ50を備えている。ユーザ2とインターフェイス部40は互いに双方向のインタラクションで、またインターフェイス部40とコンピュータ50は双方向データ通信で結合されている。以下で、各部の構成を説明する。   Next, a virtual space generation device that uses any of the collision detection methods described above will be described. FIG. 16 shows a block configuration of the virtual space generation apparatus. The virtual space generation device 10 includes an interface unit 40 for performing interaction with the user 2 and a computer 50 for performing data processing and device control. The user 2 and the interface unit 40 are coupled to each other by bidirectional interaction, and the interface unit 40 and the computer 50 are coupled by bidirectional data communication. Below, the structure of each part is demonstrated.

まず、インターフェイス部40は、入力I/F部41と出力I/F部42とを有している。入力I/F部41は、ユーザ2からの入力を受け取り、コンピュータ50へとデータを転送する。また、出力I/F部42は、コンピュータ50からの出力を受け取り、ユーザ2が認識できる態様でその出力を画像や音声等によりユーザに提示する。   First, the interface unit 40 includes an input I / F unit 41 and an output I / F unit 42. The input I / F unit 41 receives an input from the user 2 and transfers data to the computer 50. Further, the output I / F unit 42 receives the output from the computer 50 and presents the output to the user by an image, sound, or the like in a manner that the user 2 can recognize.

入力I/F部41は、ユーザが自発的に操作してインタラクションを発生させる機器からデータを入力する操作機器入力部411を有している。その操作機器としては、ポインタ、操作レバー、ハンドルなどを用いることができる。また、ユーザと仮想空間生成装置10とのインタラクションの結果、ユーザ2に発生する状態変化を検知する機器からデータを入力する計測機器入力部412を有している。計測機器として、瞳の動きを捉える視線方向計測機や、姿勢、体温、発汗、脳波などを計測する一般的な計測機器を用いることができる。   The input I / F unit 41 includes an operation device input unit 411 that inputs data from a device that is operated spontaneously by a user to generate an interaction. As the operation device, a pointer, an operation lever, a handle, or the like can be used. Moreover, it has the measuring device input part 412 which inputs data from the apparatus which detects the state change which generate | occur | produces in the user 2 as a result of interaction with a user and the virtual space generation apparatus 10. FIG. As the measuring device, a gaze direction measuring device that captures the movement of the pupil, and a general measuring device that measures posture, body temperature, sweating, brain waves, and the like can be used.

出力I/F部42は、コンピュータ50が生成した仮想空間、及びその中の物体や事象をユーザ2に認知させるために、感覚に訴えるようにデータの提示を行う。例えば、画像出力部421による2次元や3次元の物体表示、音声出力部422による衝突音の提示、体感出力部423によるユーザ2への圧力提示などが行われる。   The output I / F unit 42 presents data so as to appeal to the sense in order for the user 2 to recognize the virtual space generated by the computer 50 and the objects and events therein. For example, two-dimensional or three-dimensional object display by the image output unit 421, collision sound presentation by the voice output unit 422, pressure presentation to the user 2 by the sensation output unit 423, and the like are performed.

次に、コンピュータ50は、入力部51、物体姿勢計算部52、衝突計算部53、出力部54、時間管理部55を有している。入力部51は、インターフェイス部40からのデータ処理し、ユーザの関心度を評価する衝突検出評価関数作成部511を有しており、ここで前述の衝突検出評価関数I(X,Y,Z;α)が生成又は更新される。物体姿勢計算部52は、物理法則を衝突現象や物体の状態変化に反映させるためのデータを記憶している物理条件記憶部521を有しており、これらのデータと、過去の出力結果、及び現在の入力情報により、空間中の物体の位置や姿勢が計算される。   Next, the computer 50 includes an input unit 51, an object posture calculation unit 52, a collision calculation unit 53, an output unit 54, and a time management unit 55. The input unit 51 includes a collision detection evaluation function creation unit 511 that processes the data from the interface unit 40 and evaluates the degree of interest of the user. Here, the collision detection evaluation function I (X, Y, Z; α) is generated or updated. The object posture calculation unit 52 includes a physical condition storage unit 521 that stores data for reflecting a physical law in a collision phenomenon or a change in the state of an object. These data, past output results, and Based on the current input information, the position and orientation of the object in the space are calculated.

衝突計算部53は、物体表現記憶部531、詳細度記憶部532、及び衝突検出部533を有しており、ユーザ・インタラクションに応じて詳細度を変更して衝突の検出を行う。物体表現記憶部531は、衝突検出に用いる異なる詳細度で表現した物体形状モデルを記憶している。また、詳細度記憶部532は、衝突検出評価関数I(X,Y,Z;α)を統合して、各物体ごとに物体の関心度H(m)を生成し、詳細度を決定して衝突検出に用いる物体形状モデルを決定する。また、衝突検出部533は、各物体形状モデルの表面位置や法線方向をもとにどこで、どのように衝突が発生しているか、又は発生していないかを検出する。   The collision calculation unit 53 includes an object expression storage unit 531, a detail level storage unit 532, and a collision detection unit 533, and detects a collision by changing the detail level according to user interaction. The object expression storage unit 531 stores object shape models expressed with different degrees of detail used for collision detection. Further, the detail level storage unit 532 integrates the collision detection evaluation function I (X, Y, Z; α), generates an object interest level H (m) for each object, and determines the detail level. An object shape model used for collision detection is determined. The collision detection unit 533 detects where and how a collision has occurred or has not occurred based on the surface position and normal direction of each object shape model.

出力部54は、上述の衝突計算部532が検出し、各物体がどこでどのように衝突したかということについて出力されたデータをもとに、ユーザ2に提示するための衝突結果のデータを作成する。この衝突結果データは、インターフェイス部40に渡され、出力I/F部42によりユーザに提示される。衝突結果データは、ユーザに提示される形態に従い、視覚部541、聴覚部542、運動感覚部543、皮膚感覚部544により、上下限について正規化したデータとされる。   The output unit 54 creates collision result data to be presented to the user 2 based on the data detected by the collision calculation unit 532 and output about where and how each object collided. To do. This collision result data is passed to the interface unit 40 and presented to the user by the output I / F unit 42. The collision result data is data obtained by normalizing the upper and lower limits by the visual unit 541, the auditory unit 542, the kinesthetic unit 543, and the skin sensor unit 544 according to the form presented to the user.

時間管理部55は、仮想空間において発生する事象を物理法則にそって発生させ、また空間におけるリアルタイム性を確保するように繰り返しサイクルの時間管理などを行う。   The time management unit 55 generates an event that occurs in the virtual space in accordance with a physical law, and performs time management of repeated cycles so as to ensure real-time properties in the space.

上述した仮想空間生成装置10構成により、コンピュータ50が仮想空間を生成し、その部分空間又は空間内の物体に対するユーザ2の関心度に応じて階層的に決めた衝突検出評価関数に基づいて衝突検出の詳細度が動的に変更され、衝突が検出される。詳細な衝突検出のための計算資源を必要な箇所に重点的に割り当て、注目する物体に対する衝突検出精度と衝突検出速度の両方を向上した装置が実現できる。その結果、ユーザ2のインタラクティブな活動がより効果的に支援されるようになる。ユーザ2は、このような仮想空間生成装置により自律性(無矛盾性)と実時間性を両立して生成された仮想空間において、自己投射性を実現した状態で仮想空間をインタラクティブに利用することができる。   With the configuration of the virtual space generation device 10 described above, the computer 50 generates a virtual space, and collision detection is performed based on a collision detection evaluation function that is hierarchically determined according to the degree of interest of the user 2 with respect to the partial space or an object in the space. The level of detail is dynamically changed and a collision is detected. It is possible to realize a device in which calculation resources for detailed collision detection are concentrated on necessary places, and both the collision detection accuracy and the collision detection speed for an object of interest are improved. As a result, the interactive activities of the user 2 are supported more effectively. The user 2 can interactively use the virtual space in a state in which self-projection is realized in the virtual space generated by such a virtual space generation device while achieving both autonomy (consistency) and real-time property. it can.

なお、本発明は、上記構成に限られることなく種々の変形が可能である。例えば、物体形状表現方法としてボクセルや他の表現を用いることができる。また、特に注目する物体については、その物体がユーザの視野内に存在しない場合であっても、衝突検出評価関数値を高いものに保つようにしてもよい。本発明は、広い3次元空間や大画面没入的ディスプレイなどで効果的に適用される。また、本発明は外科手術のような顕微鏡下の作業訓練、機械製品組立・分解の習熟訓練、宇宙空間における宇宙船ドッキング訓練などの、物体の離合・集散現象のように広い意味の衝突を含む作業分野において効果的に適用される。   The present invention is not limited to the above-described configuration, and various modifications can be made. For example, voxels or other expressions can be used as the object shape expression method. In addition, for an object of particular interest, the collision detection evaluation function value may be kept high even when the object does not exist in the user's field of view. The present invention is effectively applied in a wide three-dimensional space or a large screen immersive display. In addition, the present invention includes collisions in a broad sense such as separation and convergence of objects, such as operation training under a microscope such as surgery, proficiency training for assembly and disassembly of mechanical products, and spacecraft docking training in outer space. Effectively applied in the work field.

本発明の一実施形態に係る仮想3次元空間における関心度と衝突検出の詳細度との関係概念図。The conceptual diagram of the relationship between the interest level in the virtual three-dimensional space which concerns on one Embodiment of this invention, and the detail level of collision detection. (a)は本発明の一実施形態に係る仮想3次元空間における関心度と衝突検出詳細度のから定まる仮想3次元空間の部分領域の大小を説明する3次元グラフ、(b)〜(c)は(a)の3次元グラフの2次元投影グラフ。(A) is a three-dimensional graph for explaining the size of a partial region of a virtual three-dimensional space determined from the degree of interest and the level of detail of collision detection in the virtual three-dimensional space according to an embodiment of the present invention, (b) to (c). Is a two-dimensional projection graph of the three-dimensional graph of (a). 本発明の一実施形態に係る衝突検出評価関数の概念説明図。The conceptual explanatory view of the collision detection evaluation function concerning one embodiment of the present invention. 本発明の一実施形態に係るインタラクションに応じて詳細度を変更して衝突検出をする実時間仮想空間システムの処理フロー図。The processing flowchart of the real-time virtual space system which changes a detail level according to the interaction which concerns on one Embodiment of this invention, and detects a collision. 本発明の一実施形態に係る仮想3次元空間におけるインタラクション解析処理を示すフロー図。The flowchart which shows the interaction analysis process in the virtual three-dimensional space which concerns on one Embodiment of this invention. (a)(b)(c)は本発明の一実施形態に係る詳細度の異なる物体の形状表現の図。(A) (b) (c) is a figure of the shape expression of the object from which the detail differs based on one Embodiment of this invention. (a)(b)は本発明の一実施形態に係る関心度の計測方法を示す図。(A) and (b) are the figures which show the measuring method of the interest level which concerns on one Embodiment of this invention. 本発明の一実施形態に係る8分木の階層と衝突検出詳細度との関係図。FIG. 5 is a relationship diagram between the octree hierarchy and the collision detection detail according to an embodiment of the present invention. (a)は本発明の一実施形態に係る仮想3次元空間における衝突検出時の関心度、衝突検出の詳細度、及び物体表現の詳細度を適用した関係図、(b)は(a)の状態でユーザに提示される物体の図。(A) is the relationship figure which applied the interest level at the time of the collision detection in the virtual three-dimensional space which concerns on one Embodiment of this invention, the detail level of collision detection, and the detail level of object expression, (b) is (a). The figure of the object shown to a user in a state. (a)は本発明の一実施形態に係る仮想3次元空間における衝突検出評価関数の構成を示す斜視図、(b)は(a)の衝突検出評価関数のグラフ。(A) is a perspective view which shows the structure of the collision detection evaluation function in the virtual three-dimensional space which concerns on one Embodiment of this invention, (b) is a graph of the collision detection evaluation function of (a). 本発明の一実施形態に係る仮想3次元空間における他の衝突検出評価関数の構成を示す斜視図。The perspective view which shows the structure of the other collision detection evaluation function in the virtual three-dimensional space which concerns on one Embodiment of this invention. 本発明の一実施形態に係る仮想3次元空間における他の衝突検出評価関数のグラフ。The graph of the other collision detection evaluation function in the virtual three-dimensional space which concerns on one Embodiment of this invention. 本発明の一実施形態に係る関心度と詳細度の関係説明。Description of the relationship between the degree of interest and the degree of detail according to an embodiment of the present invention. 本発明の一実施形態に係る衝突検出の例を示す8分木の図。The figure of the octree showing the example of the collision detection which concerns on one Embodiment of this invention. 本発明の一実施形態に係る衝突検出の例を説明する図。The figure explaining the example of the collision detection which concerns on one Embodiment of this invention. 本発明の一実施形態に係る仮想空間生成装置のブロック図。1 is a block diagram of a virtual space generation device according to an embodiment of the present invention. 衝突・干渉検出の応用分野を説明する分野マップ図。The field map figure explaining the application field of collision and interference detection. (a)(b)は仮想空間における物体衝突の説明図。(A) (b) is explanatory drawing of the object collision in virtual space. ユーザ・インタラクションのある仮想空間における従来の実時間システムの処理フロー図。The processing flow figure of the conventional real-time system in the virtual space with a user interaction. (a)は仮想空間における物体表示と物体衝突を示す斜視図、(b)は仮想空間を8分割した斜視図。(A) is a perspective view showing object display and object collision in a virtual space, (b) is a perspective view of the virtual space divided into eight. (a)(b)は8分木による物体衝突検出を説明する8分木の図。(A) and (b) are diagrams of an octree that explains object collision detection by an octree.

符号の説明Explanation of symbols

1 仮想空間
2 ユーザ
5、6、7、8 物体
10 仮想空間生成装置
50 コンピュータ
I 衝突検出評価関数
O 物体の関心度
DESCRIPTION OF SYMBOLS 1 Virtual space 2 User 5, 6, 7, 8 Object 10 Virtual space production | generation apparatus 50 Computer I Collision detection evaluation function O Interest degree of object

Claims (5)

コンピュータにより生成されユーザがインタラクティブに関与できる仮想空間における移動する物体と他の物体との衝突を仮想空間のユーザに提示するために検出する衝突検出方法であって、
仮想空間の部分空間及び/又は仮想空間内の物体に対するユーザの関心度情報を取得する関心度取得ステップと、
前記ステップで取得したユーザの関心度情報に応じて物体の詳細度と衝突検出の詳細度とを動的に変更して決定する詳細度決定ステップと、を備えていることを特徴とする衝突検出方法。
A collision detection method for detecting a collision between a moving object and another object in a virtual space generated by a computer and interactively involved by a user in order to present the user to the virtual space,
An interest level acquisition step of acquiring user interest level information for a subspace of the virtual space and / or an object in the virtual space;
A level of detail determination step for dynamically changing and determining the level of detail of the object and the level of detail of collision detection according to the user's level of interest information acquired in the step, Method.
前記関心度情報と衝突検出の詳細度を階層的に関連づけるための衝突検出評価関数を空間座標の関数として生成する評価関数生成ステップと、
前記詳細度決定ステップで決定された詳細度に基づいて衝突の検出を行う衝突検出ステップと、をさらに備え、
前記詳細度決定ステップにおいて前記生成された衝突検出評価関数を用いて各部分空間における物体の詳細度と衝突検出の詳細度を動的に変更して決定し、
前記衝突検出ステップにおいて前記詳細度を超える精度の検出作業は打ち切ってそれ以上の検出を行わないことを特徴とする請求項1に記載の衝突検出方法。
An evaluation function generation step for generating a collision detection evaluation function as a function of spatial coordinates for hierarchically associating the interest level information and the level of detail of collision detection;
A collision detection step of detecting a collision based on the level of detail determined in the level of detail determination step,
In the detail level determination step, using the generated collision detection evaluation function, the detail level of the object in each subspace and the detail level of collision detection are dynamically changed and determined,
2. The collision detection method according to claim 1, wherein in the collision detection step, the detection operation with an accuracy exceeding the level of detail is stopped and no further detection is performed.
前記仮想空間中の各物体は、詳細度が異なる複数の表現形式を有し、前記詳細度決定ステップにおいて前記衝突検出評価関数に基づいて各部分空間における物体の表現形式が動的に選択され、前記衝突検出ステップにおいて前記選択された表現形式を用いて衝突検出が行われる請求項2に記載の衝突検出方法。   Each object in the virtual space has a plurality of representation formats having different degrees of detail, and the representation format of the object in each subspace is dynamically selected based on the collision detection evaluation function in the detail level determination step, The collision detection method according to claim 2, wherein collision detection is performed using the selected expression format in the collision detection step. 前記評価関数生成ステップにおいて、ユーザの指差しや、ポインタの位置からの距離、又はユーザの視点からの距離、又はユーザや空間中の重要な物体からの距離、又はユーザの視野中心(視線方向)からの角度、又はユーザの指差しや指示方向からの角度、又はユーザの作業領域や視野を横切る物体の移動速度に応じて衝突検出評価関数値を増減させて衝突検出評価関数を生成する請求項2又は請求項3に記載の衝突検出方法。   In the evaluation function generation step, the user's pointing, the distance from the pointer position, the distance from the user's viewpoint, the distance from the user or an important object in space, or the user's visual field center (gaze direction) A collision detection evaluation function is generated by increasing / decreasing a collision detection evaluation function value according to an angle from a user, an angle from a user's pointing or pointing direction, or a moving speed of an object crossing a user's work area or field of view. The collision detection method according to claim 2 or claim 3. 請求項1乃至請求項4のいずれかに記載の衝突検出方法を用いることを特徴とする仮想空間生成装置。
A virtual space generation apparatus using the collision detection method according to claim 1.
JP2003303785A 2003-08-28 2003-08-28 Collision detection method that change detail degree according to interaction in space and virtual space formation device using its method Withdrawn JP2005071285A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003303785A JP2005071285A (en) 2003-08-28 2003-08-28 Collision detection method that change detail degree according to interaction in space and virtual space formation device using its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003303785A JP2005071285A (en) 2003-08-28 2003-08-28 Collision detection method that change detail degree according to interaction in space and virtual space formation device using its method

Publications (1)

Publication Number Publication Date
JP2005071285A true JP2005071285A (en) 2005-03-17

Family

ID=34407651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003303785A Withdrawn JP2005071285A (en) 2003-08-28 2003-08-28 Collision detection method that change detail degree according to interaction in space and virtual space formation device using its method

Country Status (1)

Country Link
JP (1) JP2005071285A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008090498A (en) * 2006-09-29 2008-04-17 Canon Inc Image processing method and image processor
JP2008152749A (en) * 2006-12-14 2008-07-03 Shijin Kogyo Sakushinkai Device, method, application program, and computer readable medium for previously storing information required for generating self shadow of 3d image
US8130220B2 (en) 2007-02-02 2012-03-06 Samsung Electronics Co., Ltd. Method, medium and apparatus detecting model collisions
JP2013030125A (en) * 2011-07-29 2013-02-07 Namco Bandai Games Inc Program, information storage medium, and game system
JP2014021773A (en) * 2012-07-19 2014-02-03 Fujitsu Ltd Attention-needed object detection program, detection device and detection method
KR101705988B1 (en) * 2015-08-31 2017-02-23 윤승훈 Virtual reality apparatus
JP2017130020A (en) * 2016-01-20 2017-07-27 株式会社東芝 Three-dimensional data processing device and method
WO2018016192A1 (en) * 2016-07-19 2018-01-25 株式会社デンソー Virtual sensory evaluation assistance system
JP6298561B1 (en) * 2017-05-26 2018-03-20 株式会社コロプラ Program executed by computer capable of communicating with head mounted device, information processing apparatus for executing the program, and method executed by computer capable of communicating with head mounted device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008090498A (en) * 2006-09-29 2008-04-17 Canon Inc Image processing method and image processor
US8576248B2 (en) 2006-09-29 2013-11-05 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP2008152749A (en) * 2006-12-14 2008-07-03 Shijin Kogyo Sakushinkai Device, method, application program, and computer readable medium for previously storing information required for generating self shadow of 3d image
JP4658993B2 (en) * 2006-12-14 2011-03-23 財團法人資訊工業策進會 Apparatus, method, application program, and computer-readable medium for storing in advance information necessary for generating a self-shadow of a 3D image
US8130220B2 (en) 2007-02-02 2012-03-06 Samsung Electronics Co., Ltd. Method, medium and apparatus detecting model collisions
JP2013030125A (en) * 2011-07-29 2013-02-07 Namco Bandai Games Inc Program, information storage medium, and game system
JP2014021773A (en) * 2012-07-19 2014-02-03 Fujitsu Ltd Attention-needed object detection program, detection device and detection method
KR101705988B1 (en) * 2015-08-31 2017-02-23 윤승훈 Virtual reality apparatus
JP2017130020A (en) * 2016-01-20 2017-07-27 株式会社東芝 Three-dimensional data processing device and method
WO2018016192A1 (en) * 2016-07-19 2018-01-25 株式会社デンソー Virtual sensory evaluation assistance system
JP6298561B1 (en) * 2017-05-26 2018-03-20 株式会社コロプラ Program executed by computer capable of communicating with head mounted device, information processing apparatus for executing the program, and method executed by computer capable of communicating with head mounted device
JP2018200566A (en) * 2017-05-26 2018-12-20 株式会社コロプラ Program executed by computer capable of communicating with head mounted device, information processing apparatus for executing that program, and method implemented by computer capable of communicating with head mounted device

Similar Documents

Publication Publication Date Title
US11360570B2 (en) System for hand pose detection
CN106687886B (en) Three-dimensional hybrid reality viewport
US8395620B2 (en) Method and system for tracking of a subject
Yamamoto et al. Augmented reality and haptic interfaces for robot‐assisted surgery
Delingette et al. Craniofacial surgery simulation testbed
Ryken et al. Applying virtual reality techniques to the interactive stress analysis of a tractor lift arm
Garbaya et al. The affect of contact force sensations on user performance in virtual assembly tasks
CN101426446A (en) Apparatus and method for haptic rendering
JP2005071285A (en) Collision detection method that change detail degree according to interaction in space and virtual space formation device using its method
Huang et al. Conceptual three-dimensional modeling using intuitive gesture-based midair three-dimensional sketching technique
Wang et al. Real-virtual interaction in AR assembly simulation based on component contact handling strategy
Bhardwaj et al. Tangibledata: Interactive data visualization with mid-air haptics
Hernoux et al. A seamless solution for 3D real-time interaction: design and evaluation
De Marsico et al. Figi: floating interface for gesture-based interaction
CN112486319B (en) VR (virtual reality) interaction method, device, equipment and medium based on touch rendering equipment
JP2008059375A (en) Information processing method, and information processor
CN113176822A (en) Virtual user detection
Sen A vision modeling framework for DHM using geometrically estimated FoV
Abdullah et al. A virtual environment with haptic feedback for better distance estimation
Piumsomboon Natural hand interaction for augmented reality.
Omarali Exploring Robot Teleoperation in Virtual Reality
Hutton Pospick et al. Creating and manipulating 3D paths with mixed reality spatial interfaces
Thompson Integration of visual and haptic feedback for teleoperation
Kozlov et al. Covariance visualisations for simultaneous localisation and mapping
Huang Evaluation of Haptic Virtual Fixtures with Real-Time Sensors

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107