JP2004253009A - Virtual space display apparatus - Google Patents

Virtual space display apparatus Download PDF

Info

Publication number
JP2004253009A
JP2004253009A JP2004168145A JP2004168145A JP2004253009A JP 2004253009 A JP2004253009 A JP 2004253009A JP 2004168145 A JP2004168145 A JP 2004168145A JP 2004168145 A JP2004168145 A JP 2004168145A JP 2004253009 A JP2004253009 A JP 2004253009A
Authority
JP
Japan
Prior art keywords
display
virtual space
movement
screen
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004168145A
Other languages
Japanese (ja)
Inventor
Naoko Umeki
直子 梅木
Miwako Doi
美和子 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004168145A priority Critical patent/JP2004253009A/en
Publication of JP2004253009A publication Critical patent/JP2004253009A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To achieve high-speed plotting and a low-cost system capable of giving a feeling of movement similar to that in actual space, by solving a problem that, in conventional walkthrough in virtual space, it is impossible to walk while watching surrounding objects because a moving direction is the same as a view direction. <P>SOLUTION: Displaying a moving human model permits a user to recognize the scale of the virtual space. Further, the determination of a screen display position referring to the viewpoint of the walking human model causes the screen to slightly shift to improve a feeling of attendance according to the movement by walking. As a result, a low-cost system, which can give a sense of moving distance similar to that in the actual space, can be achieved without use of a special device. Furthermore, setting objects to be gazed and displaying them at all times allows movement by walking while watching something in the virtual space, leading to a natural representation more similar to the motion in the actual space. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

本発明は、コンピュータグラフィックスにより生成される3次元仮想空間内の移動における仮想空間表示方法に関する。   The present invention relates to a virtual space display method for movement in a three-dimensional virtual space generated by computer graphics.

従来、コンピュータグラフィックスにより生成される3次元仮想空間内の移動は、指示した目的物まであるいは指示方向に向かって、直線補間によるに滑らかな移動が行われていた。   Conventionally, movement in a three-dimensional virtual space generated by computer graphics has been performed smoothly by linear interpolation to a designated target or in a designated direction.

また、その表示はユーザの視野に相当する視点位置の画面が表示されていた(図17)。
さらに、移動中は移動方向と視野の方向は一致している、あるいは視線方向はそのままで左右に平行移動するといった画面表示が行われていた。しかし、直線的で滑らかな移動では、歩行による移動の臨場感が乏しい。また、ユーザの視野としての表示では、見慣れない空間、あまり物の無い空間においては、空間の大きさを認知することが非常に難しい。従って、目標物までの移動距離を把握することが困難であるという問題があった。
In addition, a screen at a viewpoint position corresponding to the user's field of view was displayed (FIG. 17).
Further, during the movement, a screen display has been performed in which the moving direction and the direction of the visual field coincide with each other, or the screen moves parallel to the left and right while keeping the line of sight. However, in the case of linear and smooth movement, the sense of presence of movement by walking is poor. In addition, in the display as the user's visual field, it is very difficult to recognize the size of the space in a space that is unfamiliar or in a space with few objects. Therefore, there is a problem that it is difficult to grasp the moving distance to the target.

また、移動方向と視野の方向を一致させる、あるいは左右の平行移動といった方法では、ユーザは何かを注視しながら移動することができないという問題があった。
一方、岩田洋夫他:“ウォークスルー・シミュレータにおける動歩行の現実と解析”,ヒューマン・インタフェースN&R、Vol.8, No.2, pp.199−204 (1993)や、廣瀬通孝他:“移動距離感覚の合成に関する研究”,ヒューマン・インタフェースN&R、Vol.8,No.2,pp.277−282(1995)にあるように、特別な装置を用いて歩行運動を入力し、移動距離感覚を与える方法が取られてきた。
In addition, the method of matching the moving direction with the direction of the field of view or the parallel movement of the left and right has a problem in that the user cannot move while gazing at something.
On the other hand, Hiroo Iwata et al .: "The Reality and Analysis of Dynamic Walking in a Walkthrough Simulator", Human Interface N & R, Vol. 8, No. 2, pp. 199-204 (1993), Michitaka Hirose et al .: "Study on Synthesis of Moving Distance Sense", Human Interface N & R, Vol. 8, No. 2, pp. As described in 277-282 (1995), a method has been adopted in which a walking motion is input using a special device to give a sense of moving distance.

しかし、そのような特別な装置を用いることは、空間的にも、価格的にもコストが高くなるという問題があった。さらに、歩行する人物を常に表示する方法では、描画速度が遅くなるという問題があった。   However, the use of such a special device has a problem that the cost is high both spatially and costly. Further, the method of always displaying a walking person has a problem that the drawing speed is slow.

また、最近ではwebspaceのようなWorld Wide Webのための3D Viewer があり、各サイトがVRML(Virtual Reality Modeling Language)によって構築した3次元空間を、ウォークスルーすることが出来る。しかし、そのウォークスルーのためのインタフェースは、ハンドル等のコントロール用オブジェクトを操作するといったものであり、空間の中をユーザが歩いて回っているという感覚とは程遠いものであった(図18)。   Recently, there is a 3D viewer for the World Wide Web such as webspace, and each site can walk through a three-dimensional space constructed by VRML (Virtual Reality Modeling Language). However, the interface for the walk-through is such as operating a control object such as a steering wheel, which is far from the feeling that a user is walking around in a space (FIG. 18).

本発明は、この様な問題に対して考案されたものである。コンピュータグラフィックスにより生成された3次元仮想空間内を単に移動するだけでは、充分な距離感が生成されないという問題があった。   The present invention has been devised for such a problem. There is a problem that simply moving in the three-dimensional virtual space generated by computer graphics does not generate a sufficient sense of distance.

従来のウォークスルーでは、移動方向と視点方向が一致しているため、周囲のものを見ながら歩くということができなかった。描画を高速化し、実際の空間に近い移動感覚を与えることのできる低コストなシステムの実現を目的としている。   In the conventional walk-through, since the moving direction and the viewpoint direction match, it was not possible to walk while looking at surrounding objects. It aims at realizing a low-cost system that can speed up drawing and give a feeling of movement close to the real space.

上記の課題を解決するために、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示装置において、動作部位のデータを格納したキーフレームデータの動作から移動物体の基準位置の変化を求め、この基準位置の変化をもとに、前記移動物体のあらかじめ設定された位置を算出する揺れ算出部と、前記揺れ算出部で算出した位置をもとに、前記移動物体の移動を表示するディスプレイとを具備したことを特徴とする。   In order to solve the above-mentioned problem, in a virtual space display device for displaying the movement of an object in a three-dimensional virtual space generated by computer graphics, a moving object And a swing calculation unit that calculates a preset position of the moving object based on the change in the reference position, and the movement based on the position calculated by the shake calculation unit. A display for displaying the movement of the object.

また、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、動作部位のデータを格納したキーフレームデータの動作から移動物体の基準位置の変化を求め、この基準位置の変化をもとに、前記移動物体のあらかじめ設定された位置を算出する揺れ算出部と、前記揺れ算出部で算出した位置をもとに、画面に表示される前記移動物体の表示位置を設定する画面表示位置設定部と、前記画面表示設定部で設定された表示位置で前記物体の移動を表示するディスプレイとを具備したことを特徴とする。   In a virtual space display method for displaying a movement of an object in a three-dimensional virtual space generated by computer graphics, a change in a reference position of the moving object is obtained from an operation of key frame data storing data of an operation part. A swing calculating unit that calculates a preset position of the moving object based on the change in the reference position, and a position of the moving object displayed on a screen based on the position calculated by the swing calculating unit. A screen display position setting unit for setting a display position, and a display for displaying the movement of the object at the display position set by the screen display setting unit are provided.

さらに、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示装置において、動作部位のデータを格納したキーフレームデータの動作から移動物体の基準位置の変化を求め、この基準位置の変化をもとに、前記移動物体のあらかじめ設定された位置を算出する揺れ算出部と、前記揺れ算出部で算出した位置をもとに、画面表示位置を設定する画面表示位置設定部と、前記画面表示設定部で設定された画面表示位置から前記移動物体の移動を表示するディスプレイとを具備したことを特徴とする。   Further, in a virtual space display device for displaying the movement of an object in a three-dimensional virtual space generated by computer graphics, a change in a reference position of the moving object is obtained from the operation of the key frame data storing the data of the operation part. A swing calculation unit that calculates a preset position of the moving object based on the change in the reference position, and a screen display position that sets a screen display position based on the position calculated by the shake calculation unit. And a display for displaying the movement of the moving object from the screen display position set by the screen display setting unit.

その結果、本発明の仮想空間表示方式は、移動する人体の表示により空間の大きさの把握が容易になる。また、歩いて移動する人体の視点を参照して画面表示位置を決定するため、画面がわずかに揺れて、歩行による移動の臨場感が高まる。その結果、特別なデバイスを用いないで、実際の空間に近い移動距離感覚を与えることができる低コストなシステムを実現できる。   As a result, according to the virtual space display method of the present invention, it is easy to grasp the size of the space by displaying the moving human body. In addition, since the screen display position is determined with reference to the viewpoint of the human body that moves while walking, the screen slightly shakes, and the sense of presence of the movement by walking increases. As a result, it is possible to realize a low-cost system that can provide a sense of moving distance close to an actual space without using a special device.

さらに、注視物体を設定し、それを常に表示することにより、仮想空間中の何かを見ながら歩いて移動することが可能になり、より実際の空間における動作に近い、自然な表示を実現できる。   Furthermore, by setting a gaze object and displaying it constantly, it is possible to move while walking while seeing something in the virtual space, realizing a natural display that is closer to operation in a real space. .

以上のように、本発明によれば、ユーザは仮想空間をウォークスルーする際に、人体大きさと背景により、空間の大きさの把握が容易になり、かつ歩いて移動している臨場感を持つことができる。そして、その結果、特別なデバイスを用いないで、実際の空間における移動距離感覚に近いものをえることができる低コストなシステムを実現できる。   As described above, according to the present invention, when a user walks through a virtual space, the user can easily grasp the size of the space due to the human body size and the background, and has a sense of realism while walking and moving. be able to. As a result, it is possible to realize a low-cost system that can obtain an object close to the sense of moving distance in an actual space without using a special device.

このような仮想空間表示方式は、実際の空間を模して作成した仮想空間で、パトロール訓練や道案内を行うような場合に有効となる。
さらに、本発明によれば、ユーザは仮想空間中を任意の物体を注視しながらウォークスルーすることができ、より実際の空間での移動に近い臨場感を与えられる。このような仮想空間表示方式は、バーチャルモールをウィンドウショッピングして歩くような場合に有効となる。
Such a virtual space display method is effective when performing patrol training and route guidance in a virtual space created by imitating an actual space.
Further, according to the present invention, the user can walk through the virtual space while gazing at an arbitrary object, thereby giving a sense of realism closer to movement in an actual space. Such a virtual space display method is effective in a case where a user walks through a virtual mall by window shopping.

以下、本発明の実施例を図面に基づいて詳細に説明する。
(第1実施例の構成)
図1は、本発明の第1実施例の全体構成図である。
図1は、本発明の第1実施例が、入力部10,形状記憶部11,位置記憶部12,キーフレーム記憶部13,揺れ算出部14,画面表示位置設定部15,表示制御部16,ディスプレイ17とから構成されることを示す。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Configuration of First Embodiment)
FIG. 1 is an overall configuration diagram of a first embodiment of the present invention.
FIG. 1 shows an input unit 10, a shape storage unit 11, a position storage unit 12, a key frame storage unit 13, a swing calculation unit 14, a screen display position setting unit 15, a display control unit 16, And the display 17.

本発明の第1実施例を構成する各部を簡単に説明する。
入力部10は、ユーザが移動の開始、終了命令を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。
しかし、その他の入力デバイス(ジョイスティック、データグローブ、キーボード)を使った方法でも本発明を実施することができる。形状記憶部11は、各物体の形状に関するデータを格納している部分である。
Each part constituting the first embodiment of the present invention will be briefly described.
The input unit 10 is a part where the user inputs a movement start and end command. In this embodiment, a mouse is used as an input device.
However, the present invention can be implemented by a method using other input devices (joystick, data glove, keyboard). The shape storage unit 11 is a part that stores data on the shape of each object.

図2は形状記憶部11における物体の形状に関するデータの記憶例である。各物体ごとの名称と、id番号、中心座標と、3次元形状に外接する直方体(バウンディング・ボックス)の6つの頂点座標、および実際の3次元形状データが格納されている場所を示すポインタが記憶されている。位置記憶部12は、各物体の位置に関するデータを格納している部分である。     FIG. 2 is an example of storing data on the shape of an object in the shape storage unit 11. A name for each object, an id number, center coordinates, six vertex coordinates of a cuboid (bounding box) circumscribing the three-dimensional shape, and a pointer indicating a location where actual three-dimensional shape data is stored are stored. Have been. The position storage unit 12 is a part that stores data relating to the position of each object.

図3は、位置記憶部12における物体の位置に関するデータの記憶例である。3次元空間における物体のid番号と、形状データのID番号と、位置座標値と回転角の情報が格納されている。キーフレーム記憶部13は、歩行における人体の各部位の角度のデータを格納している部分である。   FIG. 3 is a storage example of data relating to the position of the object in the position storage unit 12. The id number of the object in the three-dimensional space, the ID number of the shape data, and information on the position coordinate value and the rotation angle are stored. The key frame storage unit 13 is a part that stores data on angles of various parts of the human body during walking.

図4は、キーフレーム記憶部13におけるキーフレームデータの記憶例である。歩く、座るといった動作の種類と、1回の動作の開始から終了までのサンプルデータセット数と、個々のデータセットが格納されている。揺れ算出部14は、入力部10からの入力を受けて、人体が移動する際の位置を算出し、重心の移動により生ずる身体の揺れを模擬するための、視点位置を算出する部分である。画面表示位置設定部15は、揺れ算出部14により算出された人体の視点位置を参照し、画面の表示位置を設定する部分である。表示制御部16は、画面表示位置設定部15により設定された表示位置で、3次元仮想環境の画像と人体を生成し、ディスプレイ17 に表示する。   FIG. 4 is an example of storage of key frame data in the key frame storage unit 13. The types of motions such as walking and sitting, the number of sample data sets from the start to the end of one motion, and individual data sets are stored. The shaking calculation unit 14 is a part that receives an input from the input unit 10, calculates a position when the human body moves, and calculates a viewpoint position for simulating the shaking of the body caused by the movement of the center of gravity. The screen display position setting unit 15 is a unit that sets the display position of the screen with reference to the viewpoint position of the human body calculated by the shaking calculation unit 14. The display control unit 16 generates an image of the three-dimensional virtual environment and a human body at the display position set by the screen display position setting unit 15 and displays the image on the display 17.

図5は、表示画面例である。ディスプレイは、CRT以外にもヘッドマウントディスプレイや大型スクリーンなどほかのデバイスを利用することが可能である。
(第1実施例の作用)
上記のような構成を有する第1実施例は、次のような作用を有する(図8、図6、図1)。
すなわち構成図2の入力部10で、ユーザは移動の命令を入力する(20)。入力を受け、目的地点方向にそって人体を歩行させるために、現在の基準点、目的地点と予め設定された一歩幅に基づき、次の人体の基準点、目的地点を設定する(21,図1−14)。
FIG. 5 is an example of a display screen. As the display, other devices such as a head-mounted display and a large screen can be used in addition to the CRT.
(Operation of the First Embodiment)
The first embodiment having the above configuration has the following operation (FIGS. 8, 6, and 1).
That is, the user inputs a movement command through the input unit 10 of the configuration diagram 2 (20). In response to the input, the reference point and the destination point of the next human body are set based on the current reference point, the destination point and a preset step length so that the human body walks in the direction of the destination point (21, FIG. 1-14).

図7は基準点設定の例を示す流れ図である。例えば、予め設定された、歩行動作のキーフレームデータ(図1−13、図4)を元に設定する。歩行の時の重心が右足にある時には、キーフレームデータに設定された右足の各部位の角度データから、基準位置である腰の位置を算出する。キーフレームデータは人間の動きを一定時間隔でサンプリングしたものである。 FIG. 7 is a flowchart showing an example of setting a reference point. For example, it is set based on preset key frame data of the walking motion (FIGS. 1-13 and 4). When the center of gravity during walking is on the right foot, the waist position as a reference position is calculated from the angle data of each part of the right foot set in the key frame data. The key frame data is obtained by sampling the movement of a human at regular time intervals.

従って、その人体の基準となる点を座標を時間軸上に並べると、緩やかな波形を描く。この過程で設定される基準点、目的地点は、図8におけるPとAである。
次に、人体の視点は、この基準点からD(mm)高い位置として算出する。(22,図1−14)。また、人体の参照点は前記の目的地点からD(mm)高い地点として算出する。この過程で設定される人体の視点、参照点は、図8におけるEとR、視点と中心点の差はDである。
Therefore, when the coordinates of the reference point of the human body are arranged on the time axis, a gentle waveform is drawn. The reference points and destination points set in this process are P and A in FIG.
Next, the viewpoint of the human body is calculated as a position higher by D (mm) from this reference point. (22, FIGS. 1-14). The reference point of the human body is calculated as a point higher by D (mm) from the destination point. The viewpoint and reference point of the human body set in this process are E and R in FIG. 8, and the difference between the viewpoint and the center point is D.

次に、揺れ算出22の結果の人体の視点を参照し、人体の視点よりも、予め設定されたB(mm)後ろで、H(mm)高い位置に、画面の表示位置を設定する(23,図1−15)。   Next, the display position of the screen is set at a position H (mm) higher than the viewpoint of the human body by a predetermined B (mm) and higher by H (mm) than the viewpoint of the human body as a result of the shake calculation 22 (23). , Figures 1-15).

画面の参照点は、人体の参照点の値を設定する。例えば、B=2000(mm),H=300(mm)であれば、人物の2(m) 後ろで、人物の目の高さより30(cm)高い位置から、人物を追いかけるような画面表示位置になる(図5)。   The reference point on the screen sets the value of the reference point of the human body. For example, if B = 2000 (mm) and H = 300 (mm), a screen display position that follows a person from a position 2 (m) behind the person and 30 (cm) higher than the height of the eyes of the person (FIG. 5).

また、B=0(mm),H=0(mm)であれば、画面は人物の視点と一致する。この過程で設定される画面の表示位置、画面の参照点は、図8におけるVとR、視点と表示位置の距離はB、高さの差はHである。このように設定された画面の表示位置からの仮想空間と人体の画像を表示する(24,図1−16, 17)。入力部10で停止の命令が来ないかぎり繰り返す。   If B = 0 (mm) and H = 0 (mm), the screen matches the viewpoint of the person. The display position of the screen and the reference point of the screen set in this process are V and R in FIG. 8, the distance between the viewpoint and the display position is B, and the difference in height is H. The virtual space and the image of the human body from the display position of the screen set in this way are displayed (24, FIGS. 1-16, 17). This operation is repeated unless a stop command is input from the input unit 10.

表示に関しては、1:人間モデルを揺らす、2:表示画面を揺らす、3:人間モデルおよび表示画面を揺らすことが考えられる。本願発明においてどのケースに関しても、臨場感ある表示画面を生成することができるが、3次元空間内に人間モデルを表示する場合は、人間モデルを揺らすことで、外部から観察する際には見やすい画像が作れ、人間モデルを表示せずに人間モデルの視点を表示する場合は、表示画面を揺らすことで、より臨場感のある画面が表示できる。     Regarding the display, it is conceivable that 1: the human model is shaken, 2: the display screen is shaken, 3: the human model and the display screen are shaken. In any case in the present invention, a realistic display screen can be generated. However, when a human model is displayed in a three-dimensional space, the human model is shaken so that an image which is easy to see when viewed from outside is displayed. When the viewpoint of the human model is displayed without displaying the human model, a more realistic screen can be displayed by shaking the display screen.

(第1実施例の効果)
上記のような方法によれば、表示画面の微小な揺れを表現でき、ユーザは歩行による移動の臨場感を得ることができる。また、人体の背後に画面の表示位置を取ることにより、人体が表示され、仮想空間の大きさを把握しやすくなる。これらの結果、ユーザの仮想空間中の移動距離感を、実際の空間における移動距離感に近付けることができる。
(Effect of the first embodiment)
According to the method as described above, a slight shaking of the display screen can be expressed, and the user can obtain a sense of realism of movement by walking. Further, by taking the display position of the screen behind the human body, the human body is displayed, and the size of the virtual space can be easily grasped. As a result, the user's feeling of moving distance in the virtual space can be made closer to the feeling of moving distance in the actual space.

(変形例)
1;前記の実施例では、歩行する人体の描画を行っていたが、これを省略し、人体の描画を行わないことも出来る。それにより、描画速度を高速に保つことができ、かつ歩行による臨場感を高めることができる。
(Modification)
1: In the above-described embodiment, the drawing of the walking human body is performed. However, this may be omitted and the drawing of the human body may not be performed. Thereby, the drawing speed can be kept high, and the sense of presence due to walking can be enhanced.

2;また、上半身のみなど簡略化した人物像を描画することもできる。これにより、描画速度を高速に保ちつつ、ユーザの仮想空間の大きさ把握も助けることができる。 2: It is also possible to draw a simplified human image such as only the upper body. This can help the user to grasp the size of the virtual space while keeping the drawing speed high.

3;本発明の構成を図9のように変形し、位置算出部43と揺れ算出部44をわけ、位置算出部43で移動方向、位置を設定し、揺れ算出部44で表示画面の揺れを算出することもできる。揺れの算出は、波形の関数によって模擬することもできる。 3: The configuration of the present invention is modified as shown in FIG. 9, the position calculating unit 43 and the shaking calculating unit 44 are divided, the moving direction and the position are set by the position calculating unit 43, and the shaking of the display screen is set by the shaking calculating unit 44. It can also be calculated. The calculation of the swing can be simulated by a function of the waveform.

例えば、y=a・cos(2π・t/T)+h,(a:振幅幅 t:時間 T:一歩にかかる時間)といった式で、上下の揺れを模擬することが出来る。
4;構成図2のキーフレーム記憶部13は、複数のサンプルデータを用意しておけば、様々な歩き方、身長に対応した表示ができる。
(第2実施例の構成)
図10は、本発明の第2実施例の全体構成図である。
図10は、本発明の第2実施例が、入力部100、形状記憶部101、位置記憶部102、位置算出部103、注視物体記憶部104、注視物体選択部105、注視物体表示設定部106、画面表示位置設定部107、表示制御部108、ディスプレイ109とから構成されることを示す。
For example, a vertical swing can be simulated by an expression such as y = a · cos (2π · t / T) + h, (a: amplitude width t: time T: time required for one step).
4: If the key frame storage unit 13 of FIG. 2 prepares a plurality of sample data, a display corresponding to various walking styles and heights can be performed.
(Configuration of Second Embodiment)
FIG. 10 is an overall configuration diagram of the second embodiment of the present invention.
FIG. 10 shows that the input unit 100, the shape storage unit 101, the position storage unit 102, the position calculation unit 103, the gazing object storage unit 104, the gazing object selection unit 105, and the gazing object display setting unit 106 correspond to the second embodiment of the present invention. , A screen display position setting unit 107, a display control unit 108, and a display 109.

本発明の第2実施例を構成する各部を簡単に説明する。
入力部100は、ユーザが移動方向および移動の開始、終了命令を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。形状記憶部101は、各物体の形状に関するデータを格納している部分である。
Each part constituting the second embodiment of the present invention will be briefly described.
The input unit 100 is a part where the user inputs a moving direction and a start and end command of the movement. In this embodiment, a mouse is used as an input device. The shape storage unit 101 is a part that stores data on the shape of each object.

位置記憶部102は、各物体の位置に関するデータを格納している部分である。位置算出部103は、入力部10からの入力を受けて仮想空間における現在位置を算出する部分である。注視物体記憶部104は、位置記憶部102にある物体のうち、ユーザが注視することが出来る物体をリストアップしたデータであり、位置に関するデータのID番号が格納されている。   The position storage unit 102 is a part that stores data on the position of each object. The position calculation unit 103 is a unit that receives an input from the input unit 10 and calculates the current position in the virtual space. The gazing object storage unit 104 is data that lists objects that the user can gaze out of the objects in the position storage unit 102, and stores an ID number of data relating to the position.

注視物体選択部105は、注視物体記憶部104の中で、現在地点から最も近い物体で、かつ進行方向とその物体の位置関係が設定範囲を越えないかをチェックして、選択する部分である。注視物体表示設定部106は、注視物体選択部105で選択された物体の位置データを位置記憶部102から得て、表示画面の参照点として設定する部分である。画面表示位置設定部107は、位置算出部103により設定された現在位置を参照し、画面の表示位置を設定する部分である。表示制御部108は、画面表示位置設定部107により設定された表示位置で、3次元仮想環境の画像を生成し、ディスプレイ109に表示する。   The gazing object selection unit 105 is a unit for checking and selecting whether the gazing object storage unit 104 is an object closest to the current position, and whether the traveling direction and the positional relationship of the object do not exceed a set range. . The gazing object display setting unit 106 is a part that obtains the position data of the object selected by the gazing object selection unit 105 from the position storage unit 102 and sets it as a reference point on the display screen. The screen display position setting unit 107 is a unit that sets the display position of the screen with reference to the current position set by the position calculation unit 103. The display control unit 108 generates an image of the three-dimensional virtual environment at the display position set by the screen display position setting unit 107, and displays the image on the display 109.

(第2実施例の作用)
上記のような構成を有する第2実施例は、次のような作用を有する(図11、図10)。すなわち構成図である図10の入力部100でユーザは移動の命令を入力する(120)。入力部100の入力を受けて、現在位置の3次元座標を算出する(121,図10−103)。
(Operation of the Second Embodiment)
The second embodiment having the above configuration has the following operation (FIGS. 11 and 10). That is, the user inputs a movement command using the input unit 100 of FIG. 10 which is a configuration diagram (120). In response to the input from the input unit 100, three-dimensional coordinates of the current position are calculated (121, FIGS. 10-103).

図12は、現在位置の算出過程をあらわした流れ図である。次に、図10の注視物体記憶部104の中から、現在の位置から最も近い物体を選択する(123,図10−105)。   FIG. 12 is a flowchart showing the process of calculating the current position. Next, the object closest to the current position is selected from the watched object storage unit 104 in FIG. 10 (123, FIGS. 10-105).

そして、選択した物体と進行方向との角度θが、予め設定された範囲αを越えていないかをチェックする(125,図10−105)。θ<αならば、その物体を注視物体として選択し、その座標を表示画面の参照点として設定する(126,図10−注視物体表示設定部106)。θ>αならば、121における結果から、127を行う。図13は、注視物体の選択の過程を図示したものである。   Then, it is checked whether the angle θ between the selected object and the traveling direction does not exceed a preset range α (125, FIGS. 10-105). If θ <α, the object is selected as a gazing object, and its coordinates are set as reference points on the display screen (126, FIG. 10-gazing object display setting unit 106). If θ> α, 127 is performed from the result at 121. FIG. 13 illustrates a process of selecting a gazing object.

t0の時点では、物体1,2,3までの距離がd1t0<d2t0<d3t0であり、かつ物体1は進行方向に対しての角度θ1t0 が設定された範囲αより小さいので、物体1が選択される。一方、t1の時点では、d2t1<d1t1<d3t1、角度はθ2t1 <αであるので、物体2が選択される。   At time t0, the distance to the objects 1, 2, 3 is d1t0 <d2t0 <d3t0, and the object 1 is selected because the angle θ1t0 with respect to the traveling direction is smaller than the set range α. You. On the other hand, at time t1, d2t1 <d1t1 <d3t1 and the angle θ2t1 <α, so that the object 2 is selected.

次に、画面参照点設定126と121の結果から、画面の表示位置を設定する
(127、図10−107)。
このように設定された表示位置からの画像を表示する(128、図10−108、109)。入力部100で停止の命令が来ないかぎり繰り返す。
(第2実施例の効果)
上記のような方法によれば、ユーザは任意の物体を注視しながら移動することが可能になる。したがって、より実際の空間における移動感覚に近付けることができる。
Next, the display position of the screen is set from the results of the screen reference point settings 126 and 121 (127, FIGS. 10-107).
The image from the display position thus set is displayed (128, FIGS. 10-108, 109). This operation is repeated unless a stop command is input from the input unit 100.
(Effect of Second Embodiment)
According to the above method, the user can move while gazing at an arbitrary object. Therefore, the movement sensation in the actual space can be more approximated.

(変形例)
上記の第2実施例では、注視物体記憶部104(図10)を使用し、注視物体を選択しているが、これを使用せず、表示画面中で最も大きく描画されている物体を選択し、その物体を注視物体として設定することもできる。例えば、視野中にある物体の現在位置からの距離算出を行う。また、その物体のバウンディング・ボックス・データ(図2)から、どの物体の大きさを求める。
(Modification)
In the above-described second embodiment, the gazing object storage unit 104 (FIG. 10) is used to select the gazing object. However, without using the gazing object, the object drawn the largest in the display screen is selected. , The object can be set as a gaze object. For example, the distance from the current position of the object in the field of view is calculated. Further, the size of any object is determined from the bounding box data of the object (FIG. 2).

そして、距離と大きさとの比をとり、その比がもっとも大きいものを注視物体とする。
このような方法によれば、ユーザは予め注視物体のリストアップデータを作成することなく、任意の物体を注視しながら移動することが可能になる。したがって、データ入力の作業時間が短縮でき、実際の空間における移動感覚に近いウォークスルーが可能となる。
Then, the ratio between the distance and the size is determined, and the object having the largest ratio is determined as the gazing object.
According to such a method, the user can move while gazing at an arbitrary object without creating list-up data of the gazing object in advance. Therefore, the work time for data input can be shortened, and a walk-through that is close to a sense of movement in an actual space can be performed.

また、本願発明の第1実施例と第2実施例を組み合わせた構成を有することにより、人間モデルの動きによる揺れと人間モデルの視点の移動を忠実に再現することができる。   Further, by having a configuration in which the first embodiment and the second embodiment of the present invention are combined, it is possible to faithfully reproduce the shaking caused by the movement of the human model and the movement of the viewpoint of the human model.

(第3実施例の構成)
図14は、本発明の第3実施例の全体構成図である。図14は、本発明の第3実施例が、入力部50、空間構成記憶部51、人体形状記憶部52、人体位置算出部53、頭部回転角算出部54、画面表示位置設定部55、表示制御部56、ディスプレイ57とから構成されることを示す。
(Configuration of Third Embodiment)
FIG. 14 is an overall configuration diagram of the third embodiment of the present invention. FIG. 14 shows a third embodiment of the present invention in which an input unit 50, a spatial configuration storage unit 51, a human body shape storage unit 52, a human body position calculation unit 53, a head rotation angle calculation unit 54, a screen display position setting unit 55, This shows that the display control unit 56 and the display 57 are configured.

本発明の第3実施例を構成する各部を簡単に説明する。入力部50は、ユーザが視点の移動を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。空間構成記憶部51は、仮想空間を構成する各物体の形状および位置に関するデータを格納している部分である。人体形状記憶部52は、人体の形状データを格納している部分である。   Each part constituting the third embodiment of the present invention will be briefly described. The input unit 50 is a part where the user inputs the movement of the viewpoint. In this embodiment, a mouse is used as an input device. The space configuration storage unit 51 is a part that stores data relating to the shape and position of each object constituting the virtual space. The human body shape storage unit 52 is a part that stores human body shape data.

人体位置算出部53は、人体形状記憶部52のデータと入力部50の視点の移動の入力とから、人体の位置を算出し設定する部分である。頭部回転角算出部54は、人体形状記憶部52のデータと入力部50の視点の移動の入力とから、人体の頭部の回転角度を設定する部分である。   The human body position calculation unit 53 is a part that calculates and sets the position of the human body from the data of the human body shape storage unit 52 and the input of the movement of the viewpoint of the input unit 50. The head rotation angle calculation unit 54 is a part that sets the rotation angle of the head of the human body based on the data of the human body shape storage unit 52 and the input of the movement of the viewpoint of the input unit 50.

画面表示位置設定部55は、入力部50から入力された視点変更の入力値を参照し、画面の表示位置を設定する部分である。表示制御部56は、画面表示位置設定部55により設定された表示位置で、空間構成記憶部51と人体形状記憶部52と画面表示位置設定部55を参照して3次元仮想環境の画像と人体を生成し、ディスプレイ57に表示する。ディスプレイは、CRT以外にも大型スクリーンなどほかのデバイスを利用することが可能である。図16は、表示画面例である。   The screen display position setting unit 55 is a part that sets the display position of the screen with reference to the input value of the viewpoint change input from the input unit 50. The display control unit 56 refers to the space configuration storage unit 51, the human body shape storage unit 52, and the screen display position setting unit 55 at the display position set by the screen display position setting unit 55, and displays the image of the three-dimensional virtual environment and the human body. Is generated and displayed on the display 57. The display can use other devices such as a large screen other than the CRT. FIG. 16 is an example of a display screen.

(第3実施例の作用)
上記のような構成を有する第3実施例は、次のような作用を有する(図14,図15)。図15はマウスのボタンを押すことにより移動開始命令を、またマウスのx軸方向の移動によって左右の回転を行う場合の流れ図である。構成図である図14の入力部50で、ユーザは移動命令と視線方向の入力を行なう。例えば、マウスのボタンを押す事によって移動開始命令を入力し(150)、画面中心を(x,y)=(0,0)として、マウスのx,y座標値を視線方向の変更値とする(153)。
(Operation of Third Embodiment)
The third embodiment having the above configuration has the following operation (FIGS. 14 and 15). FIG. 15 is a flowchart in the case where a movement start command is issued by pressing a mouse button, and the mouse is rotated left and right by moving in the x-axis direction. The user inputs a movement command and a line-of-sight direction using the input unit 50 shown in FIG. For example, a movement start command is input by pressing a mouse button (150), the center of the screen is set to (x, y) = (0, 0), and the x, y coordinate values of the mouse are set as the line-of-sight direction change values. (153).

移動開始命令が入力された時、人体の向き(vec)を算出し確保する(151)。移動開始命令が来ないかぎり、人体の向き(vec)は変わらない。次に人体の位置(pos) を画面の視点位置より予め設定した値分だけ人体の向いている方向(vec)でかつ下に設定する(152)。   When a movement start command is input, the orientation (vec) of the human body is calculated and secured (151). Unless a movement start command is received, the direction (vec) of the human body does not change. Next, the position (pos) of the human body is set in the direction (vec) in which the human body is facing and below by a preset value from the viewpoint position on the screen (152).

また、入力されたx,y座標値から、目的方向への人体頭部の回転角度を算出する(図14−54,図15−154)。図15の154では、回転角度(yow)の最大、最小値を予め設定しておき、その範囲でマウスのx軸方向の動きに対応したyowを設定する。   Further, the rotation angle of the human head in the target direction is calculated from the input x, y coordinate values (FIGS. 14-54, 15-154). In 154 of FIG. 15, the maximum and minimum values of the rotation angle (you) are set in advance, and within that range, youw corresponding to the movement of the mouse in the x-axis direction is set.

次に、図14の55で、画面の表示位置を設定する。図15の155では、人体方向算出部151で設定した人体の向き(vec)の方向に、予め設定した移動量だけ更新して新たな視点(view)を設定する。また、頭部回転角度設定部154で設定した回転角度(yow)により、新たな参照点(ref)の算出を行なっている。   Next, the display position of the screen is set at 55 in FIG. In 155 of FIG. 15, a new viewpoint (view) is set by updating the movement amount set in advance in the direction of the human body direction (vec) set by the human body direction calculation unit 151. Further, a new reference point (ref) is calculated based on the rotation angle (you) set by the head rotation angle setting unit 154.

このように設定された画面の表示位置と、人体の位置と向き、人体頭部の角度、および空間構成記憶部51、人体形状記憶部52のデータにより、仮想空間と人体の画像を表示する(図6−24,図1−16,17)。空間構成記憶部51は、例えばVRMLのようなオブジェト化されたデータベースである。   The virtual space and the image of the human body are displayed based on the display position of the screen set in this way, the position and orientation of the human body, the angle of the human head, and the data of the space configuration storage unit 51 and the human body shape storage unit 52 ( 6-24, 1-16, 17). The space configuration storage unit 51 is an objectized database such as VRML, for example.

(第3実施例の効果)
上記のような方法によれば、ユーザはVRMLのようなオブジェクト化されたデータベースによって構築された3次元空間を、ウォークスルーするような場合に、人体を表示することによって仮想の空間を歩いて回っている臨場感をえることが出来る。また、空間を見回す操作を人体の頭部をまわす動作に対応させたことによって、ユーザは操作結果を直観的に分かりやすくなる。また、カメラのパンにあたる視点の回転と、カメラの移動にあたる視点の移動とを、人体の頭部と胴体に別個に割り振っているので、操作が容易にできる。また、第1、第2、第3の実施例において、人体の表示を透明にすることにより、見易い画面表示を提供することができる。
(Effect of Third Embodiment)
According to the method as described above, a user walks around a virtual space by displaying a human body when walking through a three-dimensional space constructed by an objectized database such as VRML. You can get a sense of presence. In addition, by making the operation of looking around the space correspond to the operation of turning the head of the human body, the user can intuitively understand the operation result. Further, since the rotation of the viewpoint corresponding to the panning of the camera and the movement of the viewpoint corresponding to the movement of the camera are separately allocated to the head and the body of the human body, the operation can be easily performed. In the first, second, and third embodiments, by making the display of the human body transparent, it is possible to provide a screen display that is easy to see.

本願発明の第1実施例の全体構成図である。FIG. 1 is an overall configuration diagram of a first embodiment of the present invention. 本願発明の物体の形状に関するデータの記憶形式の一例を示した図である。FIG. 4 is a diagram showing an example of a storage format of data relating to a shape of an object according to the present invention. 本願発明の物体の位置に関するデータの記憶形式の一例を示した図である。FIG. 3 is a diagram showing an example of a storage format of data relating to the position of an object according to the present invention. 本願発明のキーフレームデータの記憶例を示した図である。FIG. 4 is a diagram illustrating a storage example of key frame data according to the present invention. 本願発明の人体を描画した表示画面を示した図である。It is the figure which showed the display screen which drawn the human body of this invention. 本願発明の第1実施例の全体の流れ図である。1 is an overall flowchart of a first embodiment of the present invention. 本願発明の基準位置設定の流れ図である。5 is a flowchart of setting a reference position according to the present invention. 本願発明の歩行による揺れ算出の概念図である。It is a conceptual diagram of calculation of shaking by walking of the present invention. 本願発明の第1実施例の変形例の全体構成図である。FIG. 4 is an overall configuration diagram of a modification of the first embodiment of the present invention. 本願発明の第2実施例の全体構成図である。FIG. 6 is an overall configuration diagram of a second embodiment of the present invention. 本願発明の第2実施例の全体の流れ図である。5 is an overall flowchart of a second embodiment of the present invention. 本願発明の第2実施例の現在位置算出の流れ図である。9 is a flowchart of a current position calculation according to a second embodiment of the present invention. 本願発明の注視物体選択の概念図である。It is a conceptual diagram of the gaze object selection of this invention. 本願発明の第3実施例の全体構成図である。FIG. 11 is an overall configuration diagram of a third embodiment of the present invention. 本願発明の第3実施例の全体の流れ図である。13 is an overall flowchart of a third embodiment of the present invention. 本願発明の第3実施例の人体を描画した表示画面を示した図である。It is a figure showing a display screen which drawn a human body of a 3rd example of the present invention. 従来例の画面表示例を示した図である。FIG. 11 is a diagram showing a screen display example of a conventional example. 従来例の画面表示例を示した図である。FIG. 11 is a diagram showing a screen display example of a conventional example.

符号の説明Explanation of reference numerals

10,40,100 入力部
11,41,101 形状記憶部
12,42,102 位置記憶部
13 キーフレーム記憶部
14,44 揺れ算出部
15,45,107 画面表示位置設定部
16,46,108 表示制御部
17,47,109 ディスプレイ
43,103 位置算出部
104 注視物体記憶部
105 注視物体選択部
106 注視物体表示設定部
10, 40, 100 Input unit 11, 41, 101 Shape storage unit 12, 42, 102 Position storage unit 13 Key frame storage unit 14, 44 Shake calculation unit 15, 45, 107 Screen display position setting unit 16, 46, 108 Display Control units 17, 47, 109 Displays 43, 103 Position calculation unit 104 Gaze object storage unit 105 Gaze object selection unit 106 Gaze object display setting unit

Claims (5)

コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示装置において、
動作部位のデータを格納したキーフレームデータの動作から移動物体の基準位置の変化を求め、この基準位置の変化をもとに、前記移動物体のあらかじめ設定された位置を算出する揺れ算出部と、
前記揺れ算出部で算出した位置をもとに、前記移動物体の移動を表示するディスプレイとを具備したことを特徴とする仮想空間表示装置。
In a virtual space display device for displaying the movement of an object in a three-dimensional virtual space generated by computer graphics,
A swing calculation unit that calculates a change in the reference position of the moving object from the operation of the key frame data storing the data of the operation part, and calculates a preset position of the moving object based on the change in the reference position,
A display for displaying the movement of the moving object based on the position calculated by the shaking calculation unit.
コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、
動作部位のデータを格納したキーフレームデータの動作から移動物体の基準位置の変化を求め、この基準位置の変化をもとに、前記移動物体のあらかじめ設定された位置を算出する揺れ算出部と、
前記揺れ算出部で算出した位置をもとに、画面に表示される前記移動物体の表示位置を設定する画面表示位置設定部と、
前記画面表示設定部で設定された表示位置で前記物体の移動を表示するディスプレイとを具備したことを特徴とする仮想空間表示装置。
In a virtual space display method for displaying a movement of an object in a three-dimensional virtual space generated by computer graphics,
A swing calculation unit that calculates a change in the reference position of the moving object from the operation of the key frame data storing the data of the operation part, and calculates a preset position of the moving object based on the change in the reference position,
A screen display position setting unit that sets a display position of the moving object displayed on a screen based on the position calculated by the shaking calculation unit,
A display for displaying the movement of the object at a display position set by the screen display setting unit.
コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示装置において、
動作部位のデータを格納したキーフレームデータの動作から移動物体の基準位置の変化を求め、この基準位置の変化をもとに、前記移動物体のあらかじめ設定された位置を算出する揺れ算出部と、
前記揺れ算出部で算出した位置をもとに、画面表示位置を設定する画面表示位置設定部と、
前記画面表示設定部で設定された画面表示位置から前記移動物体の移動を表示するディスプレイとを具備したことを特徴とする仮想空間表示装置。
In a virtual space display device for displaying the movement of an object in a three-dimensional virtual space generated by computer graphics,
A swing calculation unit that calculates a change in the reference position of the moving object from the operation of the key frame data storing the data of the operation part, and calculates a preset position of the moving object based on the change in the reference position,
A screen display position setting unit that sets a screen display position based on the position calculated by the shake calculation unit,
A display for displaying movement of the moving object from a screen display position set by the screen display setting unit.
前記移動物体は人体モデルであることを特徴とする請求項1乃至請求項3記載の仮想空間表示装置。   4. The virtual space display device according to claim 1, wherein the moving object is a human body model. 前記予め設定された位置が人体モデルの視点位置であることを特徴とする請求項4記載の仮想空間表示装置。   The virtual space display apparatus according to claim 4, wherein the preset position is a viewpoint position of a human body model.
JP2004168145A 1995-09-28 2004-06-07 Virtual space display apparatus Pending JP2004253009A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004168145A JP2004253009A (en) 1995-09-28 2004-06-07 Virtual space display apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP25040395 1995-09-28
JP2004168145A JP2004253009A (en) 1995-09-28 2004-06-07 Virtual space display apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP8054301A Division JPH09153146A (en) 1995-09-28 1996-03-12 Virtual space display method

Publications (1)

Publication Number Publication Date
JP2004253009A true JP2004253009A (en) 2004-09-09

Family

ID=33031602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004168145A Pending JP2004253009A (en) 1995-09-28 2004-06-07 Virtual space display apparatus

Country Status (1)

Country Link
JP (1) JP2004253009A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009069278A1 (en) * 2007-11-30 2009-06-04 Kabushiki Kaisha Square Enix (Also Trading As Square Enix Co. Ltd.) Image generation device, image generation program, image generation program recording medium, and image generation method
JP2019015814A (en) * 2017-07-05 2019-01-31 日本電信電話株式会社 Walk-through display device, walk-through display method, and walk-through display program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009069278A1 (en) * 2007-11-30 2009-06-04 Kabushiki Kaisha Square Enix (Also Trading As Square Enix Co. Ltd.) Image generation device, image generation program, image generation program recording medium, and image generation method
JP2009131436A (en) * 2007-11-30 2009-06-18 Square Enix Co Ltd Image generation device, image generation program, image generation program recording medium, and image generation method
JP4662495B2 (en) * 2007-11-30 2011-03-30 株式会社スクウェア・エニックス Image generation apparatus, image generation program, image generation program recording medium, and image generation method
US8194073B2 (en) 2007-11-30 2012-06-05 Square Enix Co., Ltd. Image generation apparatus, image generation program, medium that records the program, and image generation method
JP2019015814A (en) * 2017-07-05 2019-01-31 日本電信電話株式会社 Walk-through display device, walk-through display method, and walk-through display program

Similar Documents

Publication Publication Date Title
JPH09153146A (en) Virtual space display method
US10928974B1 (en) System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface
Anthes et al. State of the art of virtual reality technology
US20230090043A1 (en) Virtual reality system and method
CN113096252B (en) Multi-movement mechanism fusion method in hybrid enhanced teaching scene
US10521028B2 (en) System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors
JP3503982B2 (en) Viewpoint setting device
JPH09152954A (en) Method and device for presenting information
JPH10261090A (en) Motion capture system
JP2006301654A (en) Image presentation apparatus
Webel et al. Immersive experience of current and ancient reconstructed cultural attractions
Chen et al. Urbanrama: Navigating cities in virtual reality
US6384820B2 (en) Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3D visualization
Chong et al. Challenges in virtual reality system: A review
JP3830923B2 (en) Virtual space display method and virtual space display device
JP2004253009A (en) Virtual space display apparatus
JP2000090285A (en) Video display device
JP3830922B2 (en) Virtual space display method and virtual space display device
Lacolina et al. Natural exploration of 3D models
Beimler et al. Smurvebox: A smart multi-user real-time virtual environment for generating character animations
JP3939444B2 (en) Video display device
Beimler et al. Immersive guided tours for virtual tourism through 3D city models
Wu et al. Quantifiable fine-grain occlusion removal assistance for efficient vr exploration
GB2605302A (en) Virtual reality system and method
Bauer Virtual reality: A general overview

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040607

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070227