JP4249154B2 - Object processing device - Google Patents

Object processing device Download PDF

Info

Publication number
JP4249154B2
JP4249154B2 JP2005141157A JP2005141157A JP4249154B2 JP 4249154 B2 JP4249154 B2 JP 4249154B2 JP 2005141157 A JP2005141157 A JP 2005141157A JP 2005141157 A JP2005141157 A JP 2005141157A JP 4249154 B2 JP4249154 B2 JP 4249154B2
Authority
JP
Japan
Prior art keywords
virtual
dimensional space
unit
dimensional
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005141157A
Other languages
Japanese (ja)
Other versions
JP2006318269A (en
Inventor
英樹 神谷
慎一郎 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2005141157A priority Critical patent/JP4249154B2/en
Publication of JP2006318269A publication Critical patent/JP2006318269A/en
Application granted granted Critical
Publication of JP4249154B2 publication Critical patent/JP4249154B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Description

この発明はオブジェクト処理装置に関し、特に操作入力に基づいて行う仮想n次元空間におけるオブジェクトに対する処理に関するものである。   The present invention relates to an object processing apparatus, and more particularly to processing for an object in a virtual n-dimensional space performed based on an operation input.

コンピュータ内に仮想3次元空間を形成し、当該仮想3次元空間にオブジェクトを配置することにより、立体物をシミュレーションしたり、立体的なゲームを実現したりすることができる。   By forming a virtual three-dimensional space in the computer and arranging objects in the virtual three-dimensional space, a three-dimensional object can be simulated or a three-dimensional game can be realized.

このような仮想3次元空間を表示する際には、一般にディスプレイが用いられている。ディスプレイは、2次元平面を表示するものであるため、前記仮想3次元空間を2次元平面に投影した上で表示する。操作者は、ディスプレイの2次元平面を眺めながら、マウスなどによって仮想3次元空間にオブジェクトを生成したり操作したりする。   In displaying such a virtual three-dimensional space, a display is generally used. Since the display displays a two-dimensional plane, the virtual three-dimensional space is projected onto the two-dimensional plane and displayed. The operator creates or manipulates an object in the virtual three-dimensional space with a mouse or the like while looking at the two-dimensional plane of the display.

2次元平面を眺めながら、仮想3次元空間のオブジェクトを編集することは容易ではない。そこで、特許文献1のように、平面上にオブジェクトを生成し、これを立体化して、仮想3次元空間内における立体オブジェクトを生成するシステムが提案されている。   It is not easy to edit an object in a virtual three-dimensional space while looking at a two-dimensional plane. Thus, as in Patent Document 1, a system has been proposed in which an object is generated on a plane, and the object is three-dimensionalized to generate a three-dimensional object in a virtual three-dimensional space.

特開平4−323776JP-A-4-323766

上記のように特許文献1によれば、いきなり立体オブジェクトを生成するのではなく、平面オブジェクトを生成して立体オブジェクトに変換しているので、操作者の操作を容易にすることができる。また、平面オブジェクトの生成を行っているので、直接的に立体オブジェクトを生成する場合に比べて、コンピュータの処理負担が少ない。   As described above, according to Patent Document 1, since a solid object is not generated suddenly, but a plane object is generated and converted into a solid object, the operation of the operator can be facilitated. In addition, since the plane object is generated, the processing load on the computer is less than that in the case of directly generating the three-dimensional object.

しかしながら、特許文献1では、既に存在する仮想3次元空間の他のオブジェクトとの関係において、オブジェクトを生成したり、移動したりするなどの処理は、仮想3次元空間にて行わねばならず、コンピュータの処理負担は大きかった。   However, in Patent Document 1, processing such as generating and moving an object in relation to other objects in the existing virtual three-dimensional space must be performed in the virtual three-dimensional space. The processing burden of was large.

そこでこの発明は、オブジェクト編集処理の処理負担を少なくした、仮想多次元空間におけるオブジェクト処理技術を提供することを目的とする。   Therefore, an object of the present invention is to provide an object processing technique in a virtual multidimensional space in which the processing load of object editing processing is reduced.

(1)(2)(3)この発明に係るオブジェクト処理装置またはプログラムは、操作入力を受ける入力部と、仮想三次元空間における第1および第2のオブジェクトの位置を記録するための第1の記録部と、仮想二次元空間における前記第1および第2のオブジェクトの位置を記録するための第2の記録部と、第1の記録部に記録された前記第1および第2のオブジェクトを含む仮想三次元空間を仮想二次元空間に変換して第2の記録部に記録する二次元データ生成手段と、第2の記録部に記録された仮想二次元空間を表示部に表示する表示手段と、入力部からの操作入力に基づいて線を描画し、仮想二次元空間において第1のオブジェクトと第2のオブジェクトを、当該線によって関連づけるオブジェクト編集手段と、前記オブジェクト編集手段によって、前記第1のオブジェクトと前記第2のオブジェクトが関連づけられると、前記仮想三次元空間において、当該第1のオブジェクトと当該第2のオブジェクトとの間に第3のオブジェクトを生成し、前記第1のオブジェクトを前記第2のオブジェクトに近接するように移動させる表示を表示部にて行う編集結果反映手段とを備えている。(1) (2) (3) An object processing apparatus or program according to the present invention includes an input unit that receives an operation input, and a first for recording the positions of the first and second objects in the virtual three-dimensional space. A recording unit; a second recording unit for recording the positions of the first and second objects in the virtual two-dimensional space; and the first and second objects recorded in the first recording unit Two-dimensional data generating means for converting the virtual three-dimensional space into a virtual two-dimensional space and recording it in the second recording section; and display means for displaying the virtual two-dimensional space recorded in the second recording section on the display section; An object editing unit that draws a line based on an operation input from the input unit and associates the first object and the second object in the virtual two-dimensional space by the line; and the object editing unit. When the first object and the second object are associated with each other, a third object is generated between the first object and the second object in the virtual three-dimensional space, and the first object Editing result reflecting means for performing display on the display unit for moving the object so as to be close to the second object.

(4)この発明に係るオブジェクト処理プログラムは、第3のオブジェクトが、前記第2のオブジェクトが前記第1のオブジェクトを引き寄せる手段を表すオブジェクトであることを特徴としている。(4) The object processing program according to the present invention is characterized in that the third object is an object representing means for the second object to draw the first object.

(5)この発明に係るオブジェクト処理プログラムは、前記第1のオブジェクトが、主人公オブジェクトであることを特徴としている。(5) The object processing program according to the present invention is characterized in that the first object is a main character object.

(6)この発明に係るオブジェクト処理プログラムは、表示手段が、第4のオブジェクトを前記表示部に表示させ、オブジェクト編集手段が、操作入力に基づき、前記第4のオブジェクトを移動させることにより、前記第1のオブジェクトと前記第2のオブジェクトを関連づけることを特徴としている。(6) In the object processing program according to the present invention, the display unit displays the fourth object on the display unit, and the object editing unit moves the fourth object based on the operation input, thereby The first object is associated with the second object.

(7)この発明に係るオブジェクト処理プログラムは、二次元データ生成手段が、仮想三次元空間に設定されたカメラ位置から撮像方向に見た仮想二次元空間を生成するものであり、当該カメラ位置および撮像方向は、操作入力に基づいて変更されることを特徴としている。(7) In the object processing program according to the present invention, the two-dimensional data generation means generates a virtual two-dimensional space viewed in the imaging direction from a camera position set in the virtual three-dimensional space. The imaging direction is characterized by being changed based on an operation input.

(8)この発明に係るオブジェクト処理プログラムは、オブジェクト編集手段が、前記第1のオブジェクトと前記第2のオブジェクトを関連づける操作をユーザから受け付けるための特殊モードを選択する操作を受け、二次元データ生成手段が、前記特殊モードを選択する操作があったときには、前記特殊モードを解除する操作があるまで前記仮想二次元空間のデータ更新を停止し、表示手段が、前記仮想二次元空間のデータ更新があるまで、更新前の前記仮想二次元空間を表示部に表示させることを特徴としている。(8) In the object processing program according to the present invention, object editing means receives an operation of selecting a special mode for accepting an operation of associating the first object and the second object from a user, and generates two-dimensional data When there is an operation for selecting the special mode, the means stops updating the data in the virtual two-dimensional space until there is an operation for canceling the special mode, and the display means updates the data in the virtual two-dimensional space. Until then, the virtual two-dimensional space before update is displayed on the display unit.

(9)この発明に係るオブジェクト処理プログラムは、第1のオブジェクトおよび第2のオブジェクトには、それぞれ対応する第1および第2の透明オブジェクトが設定されており、前記編集結果反映手段は、仮想二次元空間において、前記第1の透明オブジェクトと前記第2の透明オブジェクトを関連づけるように操作がなされたか否かを判断することを特徴としている。(9) In the object processing program according to the present invention, corresponding first and second transparent objects are set for the first object and the second object, respectively. In the dimensional space, it is determined whether or not an operation is performed so as to associate the first transparent object with the second transparent object.

(10)この発明に係るオブジェクト編集方法は、コンピュータによりオブジェクトの処理を行う方法であって、入力部により操作入力を受け付け、仮想三次元空間における第1および第2のオブジェクトの位置を第1の記録部に記録し、仮想二次元空間における前記第1および第2のオブジェクトの位置を第2の記録部に記録し、二次元データ生成手段により、第1の記録部に記録された前記第1および第2のオブジェクトを含む仮想三次元空間を仮想二次元空間に変換して第2の記録部に記録し、表示手段により、第2の記録部に記録された仮想二次元空間を表示部に表示し、オブジェクト編集手段により、入力部からの操作入力に基づて線を描画し、、仮想二次元空間において第1のオブジェクトと第2のオブジェクトを、当該線によって関連づけ、(10) An object editing method according to the present invention is a method of processing an object by a computer, wherein an operation input is received by an input unit, and the positions of the first and second objects in the virtual three-dimensional space are set to the first The first and second objects recorded in the recording unit, the positions of the first and second objects in the virtual two-dimensional space are recorded in the second recording unit, and recorded in the first recording unit by the two-dimensional data generation unit. The virtual three-dimensional space including the second object is converted into a virtual two-dimensional space and recorded in the second recording unit, and the virtual two-dimensional space recorded in the second recording unit is displayed on the display unit by the display unit. And the object editing means draws a line based on the operation input from the input unit, and the first object and the second object are related by the line in the virtual two-dimensional space. Linking,
編集結果反映手段により、前記第1のオブジェクトと前記第2のオブジェクトを関連づけられたと判断した場合には、前記仮想三次元空間において、当該第1のオブジェクトと当該第2のオブジェクトとの間に第3のオブジェクトを生成し、前記第1のオブジェクトを前記第2のオブジェクトに近接するように移動させる表示を前記表示部にて行うことを特徴としている。When the editing result reflecting means determines that the first object and the second object are associated with each other, in the virtual three-dimensional space, the second object is placed between the first object and the second object. 3 is generated, and the display unit performs display for moving the first object so as to be close to the second object.

この発明において、「入力部」とは、少なくともユーザからの操作を受け付けるものをいい、ディジタル方式、アナログ方式を問わない。キーボード、ジョイスティック、マウスなどを含む概念である。実施形態では、ゲームコントローラ2がこれに該当する。   In the present invention, the “input unit” means a unit that accepts at least an operation from a user, regardless of a digital method or an analog method. The concept includes a keyboard, joystick, mouse, and the like. In the embodiment, the game controller 2 corresponds to this.

「第1の記録部」とは、一時的・恒久的であるとに拘わらずデータを記録する機能を有するものをいい、ハードディスク、RAM、ROM、CD−ROM、フレキシブルディスクなどを含む概念である。実施形態では、CD−ROM40がこれに該当する。   The “first recording unit” means a unit that has a function of recording data regardless of whether it is temporary or permanent, and is a concept including a hard disk, a RAM, a ROM, a CD-ROM, a flexible disk, and the like. . In the embodiment, the CD-ROM 40 corresponds to this.

「第2の記録部」とは、一時的・恒久的であるとに拘わらずデータを記録する機能を有するものをいい、ハードディスク、RAM、ROM、CD−ROM、フレキシブルディスクなどを含む概念である。実施形態では、メモリ32がこれに該当する。   The “second recording unit” means a unit that has a function of recording data regardless of whether it is temporary or permanent, and is a concept including a hard disk, a RAM, a ROM, a CD-ROM, a flexible disk, and the like. . In the embodiment, the memory 32 corresponds to this.

「低次元データ生成手段」は、実施形態においては、ステップS4がこれに対応する。   In the embodiment, “low-dimensional data generation means” corresponds to step S4.

「オブジェクト編集手段」は、実施形態においては、ステップS15がこれに対応する。   In the embodiment, “object editing means” corresponds to step S15.

「判断手段」は、実施形態においては、ステップS25がこれに対応する。   In the embodiment, “determination means” corresponds to step S25.

「編集結果反映手段」は、実施形態においては、ステップS18がこれに対応する。   In the embodiment, “editing result reflecting means” corresponds to step S18.

「アクセス手段」とは、記録部にアクセスするためのプログラムの機能をいう。実施形態では、ステップS21、S23、S24、S25などにおいて、判定条件テーブルを読むためにCD−ROM40にアクセスする機能がこれに対応する。   “Access means” refers to the function of a program for accessing the recording unit. In the embodiment, the function of accessing the CD-ROM 40 to read the determination condition table corresponds to this in steps S21, S23, S24, S25 and the like.

「プログラム」とは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。   The “program” is a concept that includes not only a program that can be directly executed by the CPU, but also a source format program, a compressed program, an encrypted program, and the like.

発明を実施するための形態BEST MODE FOR CARRYING OUT THE INVENTION

図1に、この発明の一実施形態によるオブジェクト編集装置の機能ブロック図を示す。第1の記録部8には、仮想n次元空間における各オブジェクトの位置および形状が記録されている。低次元データ生成手段10は、第1の記録部8に記録されている各オブジェクトを、n次元よりも低い次元である仮想低次元空間におけるオブジェクトに変換し、第2の記録部6に記録する。   FIG. 1 shows a functional block diagram of an object editing apparatus according to an embodiment of the present invention. The first recording unit 8 records the position and shape of each object in the virtual n-dimensional space. The low-dimensional data generation means 10 converts each object recorded in the first recording unit 8 into an object in a virtual low-dimensional space that is a dimension lower than n dimensions, and records it in the second recording unit 6. .

入力部2は、ユーザによる操作入力を受ける。オブジェクト編集手段4は、ユーザからの操作入力を受けて、第2の記録部6に記録された仮想低次元空間におけるオブジェクトの編集を行う。   The input unit 2 receives an operation input by a user. The object editing unit 4 receives an operation input from the user and edits the object in the virtual low-dimensional space recorded in the second recording unit 6.

編集結果反映手段20は、第2の記録部6においてなされたオブジェクトに対する編集結果を、第1の記録部8の仮想n次元空間のオブジェクトに反映させる。判断手段26は、第2の記録部6におけるオブジェクトの編集が所定の条件を満たしているかどうかを判断する。所定条件を満たしていれば、編集結果反映手段20は、第1の記録部8のオブジェクトに対して所定の効果を発生させる。   The editing result reflecting means 20 reflects the editing result for the object made in the second recording unit 6 on the object in the virtual n-dimensional space of the first recording unit 8. The determination unit 26 determines whether the editing of the object in the second recording unit 6 satisfies a predetermined condition. If the predetermined condition is satisfied, the editing result reflecting means 20 generates a predetermined effect on the object of the first recording unit 8.

図1のオブジェクト処理装置を、CPU34を用いて構成した場合のハードウエア構成例を図2に示す。CPU34には、フレームメモリ30、31、ディスプレイ24、メモリ32、コントローラ2、ROM36、CD−ROMドライブ38が接続されている。ROM36には、オペレーティングシステムが記録されている。CD−ROM40には、ゲームプログラムが記録されている。CPU34は、オペレーティングシステムおよびゲームプログラムにしたがって、ゲームの制御を行う。ゲームプログラムは、オペレーティングシステムと協働してその機能を発揮する。   FIG. 2 shows an example of a hardware configuration when the object processing apparatus of FIG. The CPU 34 is connected to frame memories 30 and 31, a display 24, a memory 32, a controller 2, a ROM 36, and a CD-ROM drive 38. An operating system is recorded in the ROM 36. A game program is recorded on the CD-ROM 40. The CPU 34 controls the game according to the operating system and the game program. The game program performs its function in cooperation with the operating system.

図3に、コントローラ2の外観を示す。左右に配置された一対のアナログスティック42、Rボタン44、Lボタン46、上ボタン48、下ボタン50、左ボタン52、右ボタン54などを備えている。アナログスティック42は、ユーザがこれを上下左右方向に押圧することにより、その押圧力と方向に対応する信号を出力する(いわゆるジョイスティックと同様の機能を有する)。各ボタンは、押下されるとON信号を出力し、押下されていないときにはOFF信号を出力する。各ボタンおよびアナログスティック42を操作することによって生じた信号は、ケーブル56を介して、CPU34に与えられる。   FIG. 3 shows the external appearance of the controller 2. A pair of analog sticks 42 arranged on the left and right, an R button 44, an L button 46, an upper button 48, a lower button 50, a left button 52, a right button 54 and the like are provided. The analog stick 42 outputs a signal corresponding to the pressing force and direction when the user presses the analog stick 42 in the vertical and horizontal directions (having a function similar to a so-called joystick). Each button outputs an ON signal when pressed, and outputs an OFF signal when not pressed. A signal generated by operating each button and the analog stick 42 is given to the CPU 34 via the cable 56.

CD−ROM40をCD−ROMドライブ38に挿入すると、ゲームが開始される。CD−ROM40には、図8に示すように、オブジェクトとその3次元空間(3次元ゲーム空間)における位置が、直交するX軸、Y軸、Z軸座標の値として記録されている。各オブジェクトに対応して、オブジェクトの画像データもCD−ROM40に記録されている。たとえば、オブジェクト「枯れ木」の画像データは、図9に示すように記録されている。ポリゴンの集合によって3次元画像が構成されている。具体的には、各ポリゴンの位置、方向、テクスチャなどがデータとして記録されている。   When the CD-ROM 40 is inserted into the CD-ROM drive 38, the game is started. As shown in FIG. 8, the CD-ROM 40 records the object and its position in the three-dimensional space (three-dimensional game space) as orthogonal X-axis, Y-axis, and Z-axis coordinate values. Corresponding to each object, image data of the object is also recorded on the CD-ROM 40. For example, the image data of the object “dead tree” is recorded as shown in FIG. A three-dimensional image is composed of a set of polygons. Specifically, the position, direction, texture, etc. of each polygon are recorded as data.

さらに、枯れ木の根本部分においては、木の幹の太さにほぼ等しい透明な球が配置されている。具体的には、球の中心位置と半径がデータとして記録されている。また、上部の枝の部分には、大きな透明の球が配置されている。後に述べるように、これらの球は透明であるため画面上には表示されず、条件判定のために用いられる。   Furthermore, a transparent sphere substantially equal to the thickness of the trunk of the tree is arranged at the root part of the dead tree. Specifically, the center position and radius of the sphere are recorded as data. In addition, a large transparent sphere is arranged in the upper branch portion. As will be described later, since these spheres are transparent, they are not displayed on the screen and are used for condition determination.

なお、枯れ木のオブジェクトには、代表点Cが定められている。図8のテーブルの3次元位置は、この代表点Cの3次元ゲーム空間における位置を示している。つまり、このテーブルに示される位置に、各オブジェクトを配置することによって、3次元ゲーム空間が構築される。   A representative point C is defined for the dead tree object. The three-dimensional position in the table of FIG. 8 indicates the position of the representative point C in the three-dimensional game space. That is, a three-dimensional game space is constructed by arranging each object at the position shown in this table.

なお、主人公オブジェクトおよびゲームオブジェクトは原則として、上記のように、その形状とほぼ同じように配置された透明の球を併せて有している。   Note that, as a general rule, the main character object and the game object also have transparent spheres arranged in substantially the same shape as described above.

図10に、3次元ゲーム空間を模式的に示す。図8のテーブルに記述されたX1、Y1、Z1の位置に、枯れ木のオブジェクトが配置されている(その他のオブジェクトは省略している)。また、主人公オブジェクト60も同様に、X0、Y0、Z0の位置に配置されている。ただし、主人公オブジェクト60は、図8のテーブルに位置が記述されておらず、ユーザの操作によって移動する。主人公オブジェクト60の3次元位置は、メモリ32に記憶され、CPU34が、コントローラ2の操作に応じてその値を再計算する。   FIG. 10 schematically shows a three-dimensional game space. Dead tree objects are arranged at positions X1, Y1, and Z1 described in the table of FIG. 8 (other objects are omitted). Similarly, the main character object 60 is arranged at the positions of X0, Y0, and Z0. However, the position of the hero object 60 is not described in the table of FIG. 8, and moves by a user operation. The three-dimensional position of the main character object 60 is stored in the memory 32, and the CPU 34 recalculates the value according to the operation of the controller 2.

主人公オブジェクト60の後ろ側には、主人公オブジェクト60から所定の距離離れた位置に、カメラ位置VPが設けられる。このカメラ位置VPから撮像方向ANGに向かって3次元ゲーム空間を撮像したかのように、ディスプレイ24への表示を行う(後述)。なお、カメラ位置VPは、主人公オブジェクト60の移動に伴って移動する。また、主人公オブジェクト60が方向を変えると、同じように撮像方向ANGも方向を変える。なお、カメラ位置VPおよび撮像方向ANGもメモリ32に記憶されている。   On the back side of the main character object 60, a camera position VP is provided at a position away from the main character object 60 by a predetermined distance. Display on the display 24 is performed as if the three-dimensional game space was imaged from the camera position VP in the imaging direction ANG (described later). Note that the camera position VP moves as the main character object 60 moves. Further, when the main character object 60 changes the direction, the imaging direction ANG also changes the direction. The camera position VP and the imaging direction ANG are also stored in the memory 32.

図4〜図7に、CD−ROM40に記録されたゲームプログラムのフローチャートを示す。CPU34は、このゲームプログラムに従い、ユーザの操作入力に応じてゲームを進行させる。   4 to 7 show flowcharts of the game program recorded on the CD-ROM 40. FIG. The CPU 34 advances the game according to the user's operation input according to the game program.

ステップS1において、CPU34は、ゲームコントローラ2が操作されたかどうかを判断する。アナログスティック42が操作された場合には、主人公オブジェクト60の3次元位置を移動する(ステップS2)。つまり、メモリ32に記憶されている主人公オブジェクト60の3次元位置を、アナログスティック42の操作量と操作方向に応じて再計算する。さらに、CPU34は、主人公オブジェクト60の移動に従って、カメラ位置VPおよび撮像方向ANGを変更する(ステップS3)。つまり、メモリ32に記憶されているカメラ位置VPおよび撮像方向ANGを再計算する。   In step S1, the CPU 34 determines whether or not the game controller 2 has been operated. When the analog stick 42 is operated, the three-dimensional position of the main character object 60 is moved (step S2). That is, the three-dimensional position of the main character object 60 stored in the memory 32 is recalculated according to the operation amount and operation direction of the analog stick 42. Further, the CPU 34 changes the camera position VP and the imaging direction ANG according to the movement of the main character object 60 (step S3). That is, the camera position VP and the imaging direction ANG stored in the memory 32 are recalculated.

次に、CPU34は、3次元ゲーム空間においてカメラ位置VPから撮像方向ANGに見た2次元画像(2次元ゲーム空間)を演算する。撮像方向の視野の中にあるゲームオブジェクトを、その距離(カメラ位置VPからの距離)と角度(撮像方向との角度)に応じて2次元画像に変換する(ステップS4)。 Next, the CPU 34 calculates a two-dimensional image (two-dimensional game space) viewed in the imaging direction ANG from the camera position VP in the three-dimensional game space. The game object in the field of view in the imaging direction is converted into a two-dimensional image according to the distance (distance from the camera position VP) and the angle (angle with the imaging direction) (step S4).

図9に示すような3次元オブジェクトを、図15Bに示すような2次元オブジェクトに変換する。図15Bに示す「枯れ木」の2次元オブジェクトは、x軸(撮像方向ANGに垂直)、y軸(撮像方向ANGおよびx軸に垂直)における点の集合として構成される。また、3次元オブジェクトにおける透明な球は、透明な円に変換される。代表点Cは、代表点C’に変換される。CPU34は、このように撮像方向に現れた全ての3次元オブジェクトを、2次元オブジェクトに変換してメモリ32に記憶する。   A three-dimensional object as shown in FIG. 9 is converted into a two-dimensional object as shown in FIG. 15B. The two-dimensional “dead tree” object illustrated in FIG. 15B is configured as a set of points on the x axis (perpendicular to the imaging direction ANG) and the y axis (perpendicular to the imaging direction ANG and the x axis). A transparent sphere in the three-dimensional object is converted into a transparent circle. The representative point C is converted into a representative point C ′. The CPU 34 converts all three-dimensional objects appearing in the imaging direction in this way into two-dimensional objects and stores them in the memory 32.

続いて、CPU34は、各2次元オブジェクトの2次元ゲーム空間(上記x軸、y軸により定義される)における座標位置を算出し、図15Aに示すようなテーブルとして、メモリ32に記憶する。   Subsequently, the CPU 34 calculates the coordinate position of each two-dimensional object in the two-dimensional game space (defined by the x-axis and the y-axis) and stores it in the memory 32 as a table as shown in FIG. 15A.

CPU34は、メモリ32に記憶した図15A、図15Bのデータに基づいて、フレームメモリ30に、各オブジェクトの画像を書き込む。この際、Zバッファなどの手法を用いて、カメラ位置VPよりも遠くにあるオブジェクトから先に、フレームメモリ30に書き込み、次々と、オブジェクトを上書きしていく(ステップS5)。   The CPU 34 writes the image of each object in the frame memory 30 based on the data of FIGS. 15A and 15B stored in the memory 32. At this time, using a technique such as a Z buffer, the object farther than the camera position VP is written to the frame memory 30 first, and the object is overwritten one after another (step S5).

これにより、ディスプレイ24には、3次元ゲーム空間を2次元画像に変換した画像が表示される。たとえば、図11に示すような画面表示がなされる。次に、CPU34は、ステップS1に戻って次の操作入力を待つ。   As a result, an image obtained by converting the three-dimensional game space into a two-dimensional image is displayed on the display 24. For example, a screen display as shown in FIG. 11 is made. Next, the CPU 34 returns to step S1 and waits for the next operation input.

ステップS1において、Rボタン44が押されると、特殊処理が実行される(ステップS10)。また、その他の操作入力に応じてゲーム進行がなされるが、図4においては省略している。   When the R button 44 is pressed in step S1, special processing is executed (step S10). Further, although the game progresses according to other operation inputs, it is omitted in FIG.

以下では、Rボタン44が押された場合の特殊処理について説明する。特殊処理の詳細フローチャートを図5に示す。まず、CPU34は、Rボタン44が押された時の表示画面を固定する(ステップS11)。つまり、フレームメモリ30の記憶内容を固定する。この実施形態では、この際の画面を白黒表示にすることにより、特殊処理であることをユーザが認識しやすいようにしている。   Hereinafter, special processing when the R button 44 is pressed will be described. A detailed flowchart of the special processing is shown in FIG. First, the CPU 34 fixes the display screen when the R button 44 is pressed (step S11). That is, the stored contents of the frame memory 30 are fixed. In this embodiment, the screen at this time is displayed in black and white so that the user can easily recognize the special processing.

次に、CPU34は、CD−ROM40から「筆」オブジェクトの2次元画像を読み出して、フレームメモリ31の所定の位置に書き込む(ステップS12)。ディスプレイ24は、フレームメモリ30の画像の上に、フレームメモリ31の画像を重ねて表示する。したがって、図12に示すように、ディスプレイ24の画面上の所定の位置に筆80が表示される。   Next, the CPU 34 reads a two-dimensional image of the “brush” object from the CD-ROM 40 and writes it in a predetermined position in the frame memory 31 (step S12). The display 24 displays the image of the frame memory 31 on top of the image of the frame memory 30. Accordingly, as shown in FIG. 12, the brush 80 is displayed at a predetermined position on the screen of the display 24.

次に、CPU34は、Rボタン44が離されたか否かを判断する(ステップS13)。Rボタン44が離されると、特殊処理の終了に関する処理を行う。Rボタン44が押されたままであれば、CPU34は特殊処理が継続していると判断し、Lボタン46が押下されつつ、アナログスティック42が操作されたかどうかを判断する(ステップS14)。   Next, the CPU 34 determines whether or not the R button 44 has been released (step S13). When the R button 44 is released, a process related to the end of the special process is performed. If the R button 44 remains pressed, the CPU 34 determines that the special processing is continuing, and determines whether the analog stick 42 is operated while the L button 46 is pressed (step S14).

Lボタン46が押下されアナログスティック42が操作されると、CPU34は、アナログスティック42の操作方向、操作量に応じて、フレームメモリ31における「筆」オブジェクト80の位置を移動させる(ステップS15)。さらに、「筆」オブジェクト80の先端部82の軌跡に線のオブジェクト(描画オブジェクト)を生成し、フレームメモリ31に書き込む(ステップS16)。したって、ディスプレイ24には、図13に示すように、線84が描画オブジェクトとして描画される。この際、CPU34は、線の軌跡のx座標、y座標を刻々(1フレーごとに)メモリ32に記憶する。この際、軌跡の発生順も併せて記録する。なお、線に幅があるので線の中心点の座標を記憶する。   When the L button 46 is pressed and the analog stick 42 is operated, the CPU 34 moves the position of the “brush” object 80 in the frame memory 31 according to the operation direction and operation amount of the analog stick 42 (step S15). Further, a line object (drawing object) is generated on the locus of the tip 82 of the “brush” object 80 and written in the frame memory 31 (step S16). Therefore, as shown in FIG. 13, the line 84 is drawn on the display 24 as a drawing object. At this time, the CPU 34 stores the x-coordinate and y-coordinate of the line trajectory in the memory 32 every moment (every frame). At this time, the order of occurrence of the locus is also recorded. Since the line has a width, the coordinates of the center point of the line are stored.

なお、Lボタン46を押下せずにアナログスティック42を操作すると、CPU34は、線を描画せずに「筆」オブジェクト80の位置を移動する。   If the analog stick 42 is operated without pressing the L button 46, the CPU 34 moves the position of the “brush” object 80 without drawing a line.

Rボタン44が離されると、CPU34は、画面の固定を止め、画面をカラーに戻して、通常の操作を受け付けるようにする(ステップS17)。続いて、CPU34は、判定および効果発生処理を実行する(ステップS18)。   When the R button 44 is released, the CPU 34 stops fixing the screen, returns the screen to the color, and accepts a normal operation (step S17). Subsequently, the CPU 34 executes determination and effect generation processing (step S18).

判定および効果発生処理の詳細を、図6、図7に示す。CPU34は、まず、メモリ32に記憶した「筆」オブジェクト80の軌跡を読み出し、当該軌跡が所定の形状に当たるかどうかを判断する(ステップS21)。この判断のための判定テーブルは、CD−ROM40に記録されている。図16a、図16bに、判定テーブルの例を示す。   Details of the determination and the effect generation processing are shown in FIGS. The CPU 34 first reads the locus of the “brush” object 80 stored in the memory 32, and determines whether or not the locus corresponds to a predetermined shape (step S21). A determination table for this determination is recorded on the CD-ROM 40. An example of the determination table is shown in FIGS. 16a and 16b.

CPU34は、ユーザが筆によって描いた描画オブジェクトが、この判定テーブルの何れの図形に合致するかを判断する。たとえば、「丸」という図形は、図17および図18に示すように、i)描画オブジェクトの開始点と終了点の接線の角度の変化が270度以上あること、ii)線が交わっていること(点γ参照)の2つの条件を満たした場合に成立する。描画オブジェクトの形状判断のアルゴリズム例を、図18に示す。いずれの図形にも合致しない場合、CPU34は、自由曲線または塗りつぶしであると判断する(ステップS22)。   The CPU 34 determines which figure in the determination table matches the drawing object drawn by the user with a brush. For example, as shown in FIG. 17 and FIG. 18, the graphic “circle” has i) a change in the angle of the tangent line between the start point and the end point of the drawing object is 270 degrees or more, and ii) the lines intersect. This holds when the two conditions (see point γ) are satisfied. An example of the algorithm for determining the shape of the drawing object is shown in FIG. If it does not match any figure, the CPU 34 determines that it is a free curve or a fill (step S22).

ここでは、図13に示すような描画オブジェクトが描かれたものとする。したがって、「丸」であると判断がされる。   Here, it is assumed that a drawing object as shown in FIG. 13 is drawn. Therefore, it is determined that it is a “circle”.

次に、CPU34は、図16a、図16bの判定テーブルにより、描画オブジェクトの図形に対応した対象物(ゲームオブジェクト)の条件を読み出す。たとえば、図形「水平線」であれば、木、草、岩、柵、敵キャラクタ・・・などのゲームオブジェクトが2次元ゲーム空間内に存在することが必要とされている。また、特別な記号とされる図形に対しては、対象物の存在は必要でないとされている。ここでは、「丸」について、空、水面、枯れ木、地面、夜空のいずれかのゲームオブジェクトの存在が必要であることがわかる。   Next, the CPU 34 reads the condition of the object (game object) corresponding to the figure of the drawing object using the determination tables of FIGS. 16a and 16b. For example, in the case of a graphic “horizon”, game objects such as trees, grass, rocks, fences, enemy characters, etc. need to exist in the two-dimensional game space. In addition, it is said that the presence of an object is not necessary for a graphic that is a special symbol. Here, it is understood that the presence of any one of the game objects of the sky, the water surface, the dead tree, the ground, and the night sky is necessary for the “circle”.

対象物オブジェクトの存在が必要でなければ、ステップS26に進む(ステップS23)。対象物オブジェクトの存在が必要であれば、CPU34は、当該対象物がメモリ32に記憶した2次元ゲーム空間内(図15参照)にあるかどうかを判断する(ステップS24)。つまり、ディスプレイ24の画面内に対象物オブジェクトがあるかどうかを判断する。ここでは、2次元ゲーム空間に「枯れ木」のゲームオブジェクトがあるので、条件を満足する。   If the presence of the target object is not necessary, the process proceeds to step S26 (step S23). If the presence of the target object is necessary, the CPU 34 determines whether or not the target object is in the two-dimensional game space (see FIG. 15) stored in the memory 32 (step S24). That is, it is determined whether or not there is a target object in the screen of the display 24. Here, the condition is satisfied because there is a “dead tree” game object in the two-dimensional game space.

必要とされる対象物オブジェクトが画面内に存在しなければ、CPU34は何も効果を発生させず、特殊処理を終了する。対象物が画面内に存在すると、CPU34は、当該対象物オブジェクトに対応する位置条件を図16a、図16bの判定テーブルから読み出し判断する(ステップS25)。   If the required object does not exist in the screen, the CPU 34 does not produce any effect and ends the special process. If the target object exists in the screen, the CPU 34 reads out the position condition corresponding to the target object from the determination table of FIGS. 16a and 16b and determines (step S25).

ここでは、「枯れ木」に対応する位置条件として「対象物オブジェクトの最上部の透明円を囲むように」という条件を読み出す。たとえば、図19に示すように、透明円90をすっぽりと囲むように描画オブジェクト80が描画されていれば、上記条件を満足することになる。   Here, the condition “so as to surround the uppermost transparent circle of the target object” is read as the position condition corresponding to “dead tree”. For example, as shown in FIG. 19, if the drawing object 80 is drawn so as to completely surround the transparent circle 90, the above condition is satisfied.

条件を満足しなければ、CPU34はゲーム効果を発生させず、特殊処理を終了する。条件を満足すれば、CPU34は、判定テーブルに記載された対応する効果を発生させる(ステップS26)。上記の例、「対象オブジェクトを花の咲いた木のオブジェクトに置き換える」を実行することになる。これにより、3次元ゲーム空間における「枯れ木」オブジェクトが、「花の咲いた木」オブジェクトに置き換えられる。つまり、図8の「枯れ木」オブジェクトが、「花の咲いた木」オブジェクトに書き換えられる。よって、ディスプレイ24の画面表示は、図14のように変化する。ユーザは、枯れ木に花が咲いたという効果として認識することになる。   If the condition is not satisfied, the CPU 34 does not generate a game effect and ends the special process. If the condition is satisfied, the CPU 34 generates a corresponding effect described in the determination table (step S26). In the above example, “replace target object with flowered tree object” is executed. As a result, the “dead tree” object in the three-dimensional game space is replaced with the “flower blooming tree” object. In other words, the “dead tree” object in FIG. 8 is rewritten to a “flower blooming tree” object. Therefore, the screen display of the display 24 changes as shown in FIG. The user will recognize this as an effect that the dead tree has bloomed.

ゲームの進行上、所定数の「花の咲いた木」を生成すると、得点が与えられるなどの処理がなされる。   When a predetermined number of “flowered trees” is generated as the game progresses, a process such as giving a score is performed.

次に、CPU34は、2次的効果発生の有無を判断する。まず、ステップS27において、判定テーブルを参照して、上記発生させた効果に対応する2次対象オブジェクトが定義されているかどうかを判断する。2次対象オブジェクトが定義されていなければ、2次的効果を発生させず、特殊処理を終了する。上記の例では、2次対象オブジェクトが定義されていないので、CPU34による特殊処理は終了する。   Next, the CPU 34 determines whether or not a secondary effect has occurred. First, in step S27, it is determined whether a secondary target object corresponding to the generated effect is defined with reference to the determination table. If the secondary target object is not defined, the secondary effect is not generated and the special processing is terminated. In the above example, since the secondary target object is not defined, the special processing by the CPU 34 ends.

2次対象オブジェクトが定義されていれば、CPU34は、当該2次対象オブジェクトが、2次元ゲーム空間に存在するかどうかを判断する(ステップS28)。存在すれば、3次元ゲーム空間において、判定テーブルに記載された効果を発生させる(ステップS29)。   If the secondary target object is defined, the CPU 34 determines whether the secondary target object exists in the two-dimensional game space (step S28). If it exists, the effect described in the determination table is generated in the three-dimensional game space (step S29).

たとえば、「空」のオブジェクト上に丸を描くと、3次元ゲーム空間の時間が、夜から昼に変わる効果が発生する。さらに、2次的効果として、2次元ゲーム空間内に海面オブジェクトがあれば、海面が下がるという2次的効果が発生する。上記のように2次的効果を発生させた後、CPU34は特殊処理を終了する。   For example, when a circle is drawn on the “sky” object, an effect of changing the time of the three-dimensional game space from night to noon occurs. Furthermore, as a secondary effect, if there is a sea level object in the two-dimensional game space, a secondary effect occurs in which the sea level is lowered. After generating the secondary effect as described above, the CPU 34 ends the special process.

特殊処理におけるゲーム効果としては、図16a、図16bの判定テーブルに示すように多くの種類が設けられている。たとえば、図20のような画面において、図21に示すように、主人公オブジェクト60とつぼみオブジェクト85との間を結ぶように線を描画したとする。3次元ゲーム空間の主人公オブジェクト80を構成する透明球と、つぼみオブジェクト85を構成する透明球は、2次元ゲーム空間における主人公オブジェクト60の透明円、つぼみオブジェクト85の透明円に変換される。位置条件の判断においては、主人公オブジェクト60の透明円と、つぼみオブジェクト85の透明円をつなぐように線が描画されているかどうかを判断する。条件を満たせば、図22に示すようにツタ87が出現し、図23に示すように、主人公オブジェクト60を、つぼみオブジェクト85の位置まで移動させることができる。 There are many types of game effects in special processing as shown in the determination tables of FIGS. 16a and 16b. For example, on the screen as shown in FIG. 20, it is assumed that a line is drawn so as to connect the main character object 60 and the bud object 85 as shown in FIG. The transparent sphere constituting the main character object 80 in the three-dimensional game space and the transparent sphere constituting the bud object 85 are converted into a transparent circle of the main character object 60 and a transparent circle of the bud object 85 in the two-dimensional game space. In determining the position condition, it is determined whether or not a line is drawn so as to connect the transparent circle of the main character object 60 and the transparent circle of the bud object 85. If the condition is satisfied, ivy 87 appears as shown in FIG. 22, and the main character object 60 can be moved to the position of the bud object 85 as shown in FIG. 23.

なお、ゲームオブジェクトとしては、木、つぼみ、主人公キャラクタ、敵キャラクタなどのように、条件判定のために透明球が設けられているものの他、橋、水車、物干し竿などのように、条件判定のために当該オブジェクトと近似した透明体が設けられているものがある。特殊効果を発生させるにあたり特定オブジェクトへの塗りつぶし描画を要求するような場合(後述)、透明球を用いて当該特定オブジェクトの形状を近似することは、条件判定のために好ましくないからである。   In addition to game objects such as trees, buds, hero characters, enemy characters, etc. that have transparent spheres for condition determination, game objects include condition determinations such as bridges, waterwheels, clothes racks, etc. For this reason, there is a case where a transparent body approximate to the object is provided. This is because it is not preferable for condition determination to approximate the shape of the specific object using a transparent sphere when a specific object is required to be painted and drawn (described later).

水面や地面などのオブジェクトは、透明球や透明体を用いずに、当該オブジェクトそのものによって判断を行っている。   An object such as the water surface or the ground is determined by the object itself without using a transparent sphere or a transparent body.

また、オブジェクトが何も存在しない領域は、「空」であるとして定義されている。   An area where no object exists is defined as “empty”.

図24に他の例を示す。3次元ゲーム空間において、橋があるべき部分に透明な平面オブジェクトが設けられている。透明であるから、画面においても表示されない。ユーザが、図25に示すように、橋のあるべき部分を描画によって塗りつぶしたとする。CPU34は、2次元ゲーム空間において、上記平面オブジェクトの所定割合以上が塗りつぶされたかどうかを判断する。所定割合以上が塗りつぶされていれば、CPU34は、3次元ゲーム空間における平面オブジェクトを、橋オブジェクトに置き換える。したがって、図26、図27に示すように、橋が出現する。これにより、主人公オブジェクト60は、この橋を渡って移動することが可能となる。 FIG. 24 shows another example. In the three-dimensional game space, a transparent plane object is provided in a portion where a bridge should be. Since it is transparent, it is not displayed on the screen. Assume that the user has painted the portion that should be a bridge by drawing as shown in FIG. The CPU 34 determines whether or not a predetermined percentage or more of the planar objects are filled in the two-dimensional game space. If a predetermined ratio or more is filled, the CPU 34 replaces the planar object in the three-dimensional game space with a bridge object. Therefore, as shown in FIGS. 26 and 27, a bridge appears. Thus, the main character object 60 can move across the bridge.

上記実施形態では、判定テーブルの位置条件の判断を、2次元ゲーム空間において行っている。しかし、3次元ゲーム空間において、位置条件の判断をするようにしてもよい。この場合、ユーザによる描画は、画面の奥行き方向に伸びる線の移動として扱うことができる。したがって、ユーザは、面を描画することとなる。この描画された面と、対象オブジェクトとの位置関係に基づいて条件を判断すればよい。   In the above embodiment, the determination of the position condition of the determination table is performed in the two-dimensional game space. However, the position condition may be determined in the three-dimensional game space. In this case, the drawing by the user can be handled as movement of a line extending in the depth direction of the screen. Therefore, the user draws a surface. The condition may be determined based on the positional relationship between the drawn surface and the target object.

上記実施形態で示したゲーム効果の他、ゲームの進行をスローにする早くする(つまり、3次元ゲーム空間における時間の進行スピードを変える)等の効果を発生させてもよい。また、3次元ゲーム空間内の環境だけでなく、ユーザがゲームを行っている外部環境(音楽など)を変えるようにしてもよい。   In addition to the game effects shown in the above embodiment, effects such as making the game progress slow (that is, changing the speed of time progression in the three-dimensional game space) may be generated. In addition to the environment in the three-dimensional game space, the external environment (music or the like) in which the user is playing the game may be changed.

また、上記実施形態では、描画オブジェクトの形状によって発生させる効果を異ならせているが、描画オブジェクトの色、長さ、太さなどの属性によって効果を異ならせるようにしてもよい。   In the above embodiment, the effect to be generated varies depending on the shape of the drawing object. However, the effect may be varied depending on attributes such as the color, length, and thickness of the drawing object.

また、上記実施形態では、効果発生の条件として時間を考慮していないが、これを考慮するようにしてもよい。たとえば、予め定められた制限時間内に、所定の図形を描くことにより、効果が発生するようにしてもよい。この場合、制限時間経過時点で、所定の図形が描けていなければ効果は発生させない。   Further, in the above embodiment, time is not considered as a condition for generating an effect, but this may be taken into consideration. For example, the effect may be generated by drawing a predetermined figure within a predetermined time limit. In this case, the effect is not generated unless a predetermined figure is drawn when the time limit has elapsed.

主人公オブジェクトを取り囲むように描画することにより、相手キャラクタなどからの攻撃を防ぐことができるバリアを出現させてもよい。   By drawing so as to surround the main character object, a barrier that can prevent an attack from the opponent character or the like may appear.

上記実施形態では、ユーザがアナログスティックの操作によって描画しているが、予め用意されたスタンプによって描画するようにしてもよい。   In the above embodiment, the user draws by operating the analog stick, but it may be drawn by a stamp prepared in advance.

上記実施形態では、1つの描画オブジェクトについて効果発生を判断しているが、2以上の描画オブジェクトについて効果発生を判断し、効果を発生させてもよい。   In the above embodiment, the effect occurrence is determined for one drawing object, but the effect occurrence may be determined for two or more drawing objects to generate the effect.

上記では、線による描画オブジェクトを例として示したが、消しゴムのように、ゲームオブジェクトの表示を消すような描画オブジェクトを用いてもよい。効果としては、当該オブジェクトの所定割合以上が消しゴムによって消された場合、当該オブジェクトを3次元ゲーム空間から消滅させる。   In the above description, the drawing object using lines is shown as an example, but a drawing object that erases the display of the game object, such as an eraser, may be used. As an effect, when a predetermined ratio or more of the object is erased by the eraser, the object is eliminated from the three-dimensional game space.

上記実施形態では、3次元ゲーム空間のオブジェクトを2次元ゲーム空間に投影し、当該2次元ゲーム空間において描画を行って効果発生の条件を判断するようにしている。しかし、2次元ゲーム空間のオブジェクトを1次元ゲーム空間に投影し、当該1次元ゲーム空間において描画を行って効果発生の条件を判断するようにしてもよい。同様に、n次元ゲーム空間のオブジェクトをn−1次元ゲーム空間(n−1次元以下の次元のゲーム空間でもよい)に投影し、当該n−1次元ゲーム空間において描画を行って効果発生の条件を判断するようにしてもよい。   In the embodiment described above, an object in the three-dimensional game space is projected onto the two-dimensional game space, and drawing is performed in the two-dimensional game space to determine the condition for generating the effect. However, an object in the two-dimensional game space may be projected onto the one-dimensional game space, and drawing may be performed in the one-dimensional game space to determine the effect generation condition. Similarly, an object in an n-dimensional game space is projected onto an n-1 dimensional game space (or a game space having a dimension less than or equal to n-1 dimensional), and drawing is performed in the n-1 dimensional game space. May be determined.

なお、図28に示すように、インターネット104等で接続されたサーバ装置102と端末装置100によってゲームシステムを構築するようにしてもよい。この場合のサーバ装置102の機能ブロック図を、図29に示す。受信部106は、端末装置100からユーザの操作を受ける通信回路などである。表示手段22は、端末装置100において2次元ゲーム空間を表示するための表示データを送信する。その他の部分は、図1と同様である。   As shown in FIG. 28, a game system may be constructed by the server device 102 and the terminal device 100 connected via the Internet 104 or the like. A functional block diagram of the server apparatus 102 in this case is shown in FIG. The receiving unit 106 is a communication circuit that receives a user operation from the terminal device 100. The display unit 22 transmits display data for displaying the two-dimensional game space in the terminal device 100. Other parts are the same as those in FIG.

なお、上記各実施形態では、CD−ROM40を第1の記録部8としている。しかし、ハードディスクやメモリ32を第1の記録部8としてもよい。   In each of the above embodiments, the CD-ROM 40 is used as the first recording unit 8. However, the hard disk or the memory 32 may be used as the first recording unit 8.

また、上記各実施形態では、ゲームを一例としてオブジェクト処理を説明したが、CAD、3Dグラフィックスなどにおいても適用することができる。たとえば、第1のオブジェクトと第2のオブジェクトを結ぶ線オブジェクトを生成させる場合に有効である。つまり、仮想2次元空間において第1のオブジェクトと第2のオブジェクトを結ぶ線オブジェクトを生成し、仮想3次元空間において第1のオブジェクトと第2のオブジェクトを結ぶ線オブジェクトとして反映させればよい。   Further, in each of the above embodiments, the object processing has been described by taking a game as an example, but it can also be applied to CAD, 3D graphics, and the like. For example, it is effective when generating a line object connecting a first object and a second object. That is, a line object connecting the first object and the second object in the virtual two-dimensional space may be generated and reflected as a line object connecting the first object and the second object in the virtual three-dimensional space.

この発明の一実施形態によるオブジェクト編集装置の機能ブロック図である。It is a functional block diagram of the object editing apparatus by one Embodiment of this invention. 図1のオブジェクト編集装置のハードウエア構成を示す図である。It is a figure which shows the hardware constitutions of the object editing apparatus of FIG. ゲームコントローラ2の外観を示す図である。FIG. 3 is a diagram illustrating an appearance of a game controller 2. CD−ROM40に記録されたゲームプログラムのフローチャートである。4 is a flowchart of a game program recorded on a CD-ROM 40. CD−ROM40に記録されたゲームプログラムのフローチャートである。4 is a flowchart of a game program recorded on a CD-ROM 40. CD−ROM40に記録されたゲームプログラムのフローチャートである。4 is a flowchart of a game program recorded on a CD-ROM 40. CD−ROM40に記録されたゲームプログラムのフローチャートである。4 is a flowchart of a game program recorded on a CD-ROM 40. 3次元ゲーム空間におけるゲームオブジェクトの配置データを示す図である。It is a figure which shows the arrangement | positioning data of the game object in a three-dimensional game space. ゲームオブジェクトを模式的に示す図である。It is a figure which shows a game object typically. 3次元ゲーム空間を模式的に示す図である。It is a figure which shows a three-dimensional game space typically. 画面表示の例である。It is an example of a screen display. 筆が現れた画面を示す図である。It is a figure which shows the screen where the brush appeared. 筆によって描画された画面を示す図である。It is a figure which shows the screen drawn with the brush. ゲーム効果が生じた画面を示す図である。It is a figure which shows the screen in which the game effect produced. メモリ32に記録された2次元ゲーム空間のデータ例である。3 is a data example of a two-dimensional game space recorded in a memory 32. CD−ROM40に記録されている判定テーブルを示す図である。5 is a diagram showing a determination table recorded on a CD-ROM 40. FIG. CD−ROM40に記録されている判定テーブルを示す図である。5 is a diagram showing a determination table recorded on a CD-ROM 40. FIG. 「丸」図形の判断アルゴリズムを説明するための図である。It is a figure for demonstrating the judgment algorithm of a "circle" figure. 各図形の判断アルゴリズムを示す図である。It is a figure which shows the judgment algorithm of each figure. 枯れ木オブジェクトに描かれた描画オブジェクトの状態を示す図である。It is a figure which shows the state of the drawing object drawn by the dead tree object. 画面表示例である。It is an example of a screen display. 筆による描画状態を示す図である。It is a figure which shows the drawing state by a brush. ゲーム効果が生じた状態を示す図である。It is a figure which shows the state which the game effect produced. ゲーム効果が生じた状態を示す図である。It is a figure which shows the state which the game effect produced. 画面表示例である。It is an example of a screen display. 筆による描画状態を示す図である。It is a figure which shows the drawing state by a brush. ゲーム効果が生じた状態を示す図である。It is a figure which shows the state which the game effect produced. ゲーム効果が生じた状態を示す図である。It is a figure which shows the state which the game effect produced. インターネットを用いてゲームシステムを構築した例である。This is an example of building a game system using the Internet. サーバ装置102の機能ブロック図である。3 is a functional block diagram of a server apparatus 102. FIG.

符号の説明Explanation of symbols

2・・・入力部
4・・・オブジェクト編集手段
6・・・第2の記録部
8・・・第1の記録部
10・・・低次元データ生成手段
20・・・編集結果反映手段
26・・・判断手段
DESCRIPTION OF SYMBOLS 2 ... Input part 4 ... Object editing means 6 ... 2nd recording part 8 ... 1st recording part 10 ... Low-dimensional data generation means 20 ... Editing result reflection means 26- ..Judgment means

Claims (10)

操作入力を受ける入力部と、
仮想三次元空間における第1および第2のオブジェクトの位置を記録するための第1の記録部と、
仮想二次元空間における前記第1および第2のオブジェクトの位置を記録するための第2の記録部と、
第1の記録部に記録された前記第1および第2のオブジェクトを含む仮想三次元空間を仮想二次元空間に変換して第2の記録部に記録する二次元データ生成手段と、
第2の記録部に記録された仮想二次元空間を表示部に表示する表示手段と、
入力部からの操作入力に基づいて線を描画し、仮想二次元空間において第1のオブジェクトと第2のオブジェクトを、当該線によって関連づけるオブジェクト編集手段と、
前記オブジェクト編集手段によって、前記第1のオブジェクトと前記第2のオブジェクトが関連づけられると、前記仮想三次元空間において、当該第1のオブジェクトと当該第2のオブジェクトとの間に第3のオブジェクトを生成し、前記第1のオブジェクトを前記第2のオブジェクトに近接するように移動させる表示を表示部にて行う編集結果反映手段と、
を備えたオブジェクト処理装置。
An input unit for receiving operation inputs;
A first recording unit for recording the positions of the first and second objects in the virtual three-dimensional space ;
A second recording unit for recording the positions of the first and second objects in a virtual two-dimensional space ;
Two-dimensional data generation means for converting a virtual three-dimensional space including the first and second objects recorded in the first recording unit into a virtual two-dimensional space and recording the virtual two-dimensional space in the second recording unit;
Display means for displaying the virtual two-dimensional space recorded in the second recording unit on the display unit;
Object editing means for drawing a line based on an operation input from the input unit , and associating the first object and the second object in the virtual two-dimensional space by the line;
When the first object and the second object are associated with each other by the object editing unit, a third object is generated between the first object and the second object in the virtual three-dimensional space. Editing result reflecting means for performing display on the display unit for moving the first object so as to be close to the second object ;
An object processing apparatus comprising:
操作入力を受ける入力部と、仮想三次元空間における第1および第2のオブジェクトの位置を記録する第1の記録部と、仮想二次元空間における前記第1および第2のオブジェクトの位置を記録する第2の記録部とを備えたコンピュータを、
第1の記録部に記録された前記第1および第2のオブジェクトを含む仮想三次元空間を仮想二次元空間に変換して第2の記録部に記録する二次元データ生成手段と、
第2の記録部に記録された仮想二次元空間を表示部に表示する表示手段と、
入力部からの操作入力に基づいて線を描画し、仮想二次元空間において第1のオブジェクトと第2のオブジェクトを、当該線によって関連づけるオブジェクト編集手段と、
前記オブジェクト編集手段によって、前記第1のオブジェクトと前記第2のオブジェクトが関連づけられると、前記仮想三次元空間において、当該第1のオブジェクトと当該第2のオブジェクトとの間に第3のオブジェクトを生成し、前記第1のオブジェクトを前記第2のオブジェクトに近接するように移動させる表示を表示部にて行う編集結果反映手段と、
して機能させるためのオブジェクト処理プログラム。
An input unit that receives an operation input, a first recording unit that records positions of the first and second objects in the virtual three-dimensional space, and a position of the first and second objects in the virtual two-dimensional space. A computer including a second recording unit ;
Two-dimensional data generation means for converting a virtual three-dimensional space including the first and second objects recorded in the first recording unit into a virtual two-dimensional space and recording the virtual two-dimensional space in the second recording unit;
Display means for displaying the virtual two-dimensional space recorded in the second recording unit on the display unit;
Object editing means for drawing a line based on an operation input from the input unit , and associating the first object and the second object in the virtual two-dimensional space by the line;
When the first object and the second object are associated by the object editing unit, a third object is generated between the first object and the second object in the virtual three-dimensional space. Editing result reflecting means for performing display on the display unit for moving the first object so as to be close to the second object ;
Object processing program to make it function .
端末装置からの操作入力を受信する受信部と、
仮想三次元空間における第1および第2のオブジェクトの位置を記録するための第1の記録部と、
仮想二次元空間における前記第1および第2のオブジェクトの位置を記録するための第2の記録部と、
第1の記録部に記録された前記第1および第2のオブジェクトを含む仮想三次元空間を仮想二次元空間に変換して第2の記録部に記録する二次元データ生成手段と、
第2の記録部に記録された仮想二次元空間を端末装置の表示部に表示するための表示データを前記端末装置に送信する表示手段と、
前記仮想二次元空間における線の描画を行うための端末装置における操作入力を受信部から受けて、仮想二次元空間において第1のオブジェクトと第2のオブジェクトを、当該線によって関連づけるオブジェクト編集手段と、
前記オブジェクト編集手段によって、前記第1のオブジェクトと前記第2のオブジェクトが関連づけられると、前記仮想三次元空間において、当該第1のオブジェクトと当該第2のオブジェクトとの間に第3のオブジェクトを生成し、前記第1のオブジェクトを前記第2のオブジェクトに近接するように移動させる表示を前記表示部において行わせるための編集結果反映手段と、
を備えたオブジェクト処理サーバ装置。
A receiving unit for receiving an operation input from the terminal device;
A first recording unit for recording the positions of the first and second objects in the virtual three-dimensional space ;
A second recording unit for recording the positions of the first and second objects in a virtual two-dimensional space ;
Two-dimensional data generation means for converting a virtual three-dimensional space including the first and second objects recorded in the first recording unit into a virtual two-dimensional space and recording the virtual two-dimensional space in the second recording unit;
Display means for transmitting to the terminal device display data for displaying the virtual two-dimensional space recorded in the second recording unit on the display unit of the terminal device;
Object editing means for receiving an operation input in a terminal device for drawing a line in the virtual two-dimensional space from the receiving unit, and associating the first object and the second object in the virtual two-dimensional space by the line;
When the first object and the second object are associated by the object editing unit, a third object is generated between the first object and the second object in the virtual three-dimensional space. And an editing result reflecting means for causing the display unit to perform display for moving the first object so as to be close to the second object ;
An object processing server device.
請求項2のプログラムにおいて、  In the program of Claim 2,
前記第3のオブジェクトは、前記第2のオブジェクトが前記第1のオブジェクトを引き寄せる手段を表すオブジェクトであることを特徴とするプログラム。  The program according to claim 3, wherein the third object is an object that represents means for the second object to attract the first object.
請求項2または4のいずれかのプログラムにおいて、  In the program according to claim 2 or 4,
前記第1のオブジェクトは、主人公オブジェクトであることを特徴とするプログラム。  The first object is a protagonist object.
請求項2、4、5のいずれかのプログラムにおいて、  The program according to any one of claims 2, 4, and 5,
前記表示手段は、第4のオブジェクトを前記表示部に表示させ、  The display means displays a fourth object on the display unit,
前記オブジェクト編集手段は、操作入力に基づき、前記第4のオブジェクトを移動させることにより、前記第1のオブジェクトと前記第2のオブジェクトを関連づけることを特徴とするプログラム。  The object editing means associates the first object and the second object by moving the fourth object based on an operation input.
請求項2、4〜6のいずれかのプログラムにおいて、  In the program according to any one of claims 2, 4 to 6,
前記二次元データ生成手段は、仮想三次元空間に設定されたカメラ位置から撮像方向に見た仮想二次元空間を生成するものであり、当該カメラ位置および撮像方向は、操作入力に基づいて変更されることを特徴とするプログラム。  The two-dimensional data generation means generates a virtual two-dimensional space viewed in the imaging direction from a camera position set in the virtual three-dimensional space, and the camera position and the imaging direction are changed based on an operation input. A program characterized by that.
請求項2、4〜7のいずれかのプログラムにおいて、  In the program according to any one of claims 2, 4 to 7,
前記オブジェクト編集手段は、前記第1のオブジェクトと前記第2のオブジェクトを関連づける操作をユーザから受け付けるための特殊モードを選択する操作を受け、  The object editing means receives an operation of selecting a special mode for receiving an operation of associating the first object and the second object from a user,
前記二次元データ生成手段は、前記特殊モードを選択する操作があったときには、前記特殊モードを解除する操作があるまで前記仮想二次元空間のデータ更新を停止し、  When there is an operation for selecting the special mode, the two-dimensional data generation means stops updating the data in the virtual two-dimensional space until there is an operation for canceling the special mode,
前記表示手段は、前記仮想二次元空間のデータ更新があるまで、更新前の前記仮想二次元空間を表示部に表示させることを特徴とするプログラム。  The display unit displays the virtual two-dimensional space before the update on a display unit until the data of the virtual two-dimensional space is updated.
請求項2、4〜8のいずれかのプログラムにおいて、  In the program according to any one of claims 2, 4 to 8,
前記第1のオブジェクトおよび第2のオブジェクトには、それぞれ対応する第1および第2の透明オブジェクトが設定されており、前記編集結果反映手段は、仮想二次元空間において、前記第1の透明オブジェクトと前記第2の透明オブジェクトを関連づけるように操作がなされたか否かを判断することを特徴とするプログラム。  Corresponding first and second transparent objects are set in the first object and the second object, respectively, and the editing result reflecting means is connected to the first transparent object in the virtual two-dimensional space. A program for determining whether or not an operation has been performed so as to associate the second transparent object.
コンピュータによりオブジェクトの処理を行う方法であって、
入力部により操作入力を受け付け、
仮想三次元空間における第1および第2のオブジェクトの位置を第1の記録部に記録し
仮想二次元空間における前記第1および第2のオブジェクトの位置を第2の記録部に記録し
二次元データ生成手段により、第1の記録部に記録された前記第1および第2のオブジェクトを含む仮想三次元空間を仮想二次元空間に変換して第2の記録部に記録し、
表示手段により、第2の記録部に記録された仮想二次元空間を表示部に表示し、
オブジェクト編集手段により、入力部からの操作入力に基づいて線を描画し、仮想二次元空間において第1のオブジェクトと第2のオブジェクトを、当該線によって関連づけ、
編集結果反映手段により、前記第1のオブジェクトと前記第2のオブジェクトを関連づけられたと判断した場合には、前記仮想三次元空間において、当該第1のオブジェクトと当該第2のオブジェクトとの間に第3のオブジェクトを生成し、前記第1のオブジェクトを前記第2のオブジェクトに近接するように移動させる表示を前記表示部にて行うこと
を特徴とするオブジェクト処理方法。
A method of processing an object by a computer,
Accept operation input by the input unit,
Recording the positions of the first and second objects in the virtual three-dimensional space in the first recording unit ;
Recording the positions of the first and second objects in the virtual two-dimensional space in a second recording unit ;
By the two-dimensional data generation means, the virtual three-dimensional space including the first and second objects recorded in the first recording unit is converted into a virtual two-dimensional space and recorded in the second recording unit,
The display means displays the virtual two-dimensional space recorded in the second recording unit on the display unit,
The object editing means draws a line based on an operation input from the input unit , and associates the first object and the second object with the line in the virtual two-dimensional space,
When the editing result reflecting means determines that the first object and the second object are associated with each other, in the virtual three-dimensional space, the second object is placed between the first object and the second object. 3. An object processing method comprising: generating a third object, and performing display on the display unit to move the first object so as to be close to the second object .
JP2005141157A 2005-05-13 2005-05-13 Object processing device Active JP4249154B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005141157A JP4249154B2 (en) 2005-05-13 2005-05-13 Object processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005141157A JP4249154B2 (en) 2005-05-13 2005-05-13 Object processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008321524A Division JP2009104629A (en) 2008-12-17 2008-12-17 Object processing apparatus

Publications (2)

Publication Number Publication Date
JP2006318269A JP2006318269A (en) 2006-11-24
JP4249154B2 true JP4249154B2 (en) 2009-04-02

Family

ID=37538885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005141157A Active JP4249154B2 (en) 2005-05-13 2005-05-13 Object processing device

Country Status (1)

Country Link
JP (1) JP4249154B2 (en)

Also Published As

Publication number Publication date
JP2006318269A (en) 2006-11-24

Similar Documents

Publication Publication Date Title
US7495665B2 (en) Storage medium having game program stored thereon and game apparatus
EP2105905A2 (en) Image generation apparatus
US7868889B2 (en) Method of causing object to take motion using motion data
US20040110561A1 (en) Game apparatus storing game sound control program and game sound control thereof
US7695367B2 (en) Storage medium having game program stored thereon and game apparatus
JP2006068138A (en) Game apparatus and image processing program
JP5960409B2 (en) GAME PROCESSING SYSTEM, GAME PROCESSING METHOD, GAME PROCESSING DEVICE, AND GAME PROCESSING PROGRAM
US6762746B2 (en) Entertainment apparatus, storage medium and operation method of manipulating object
JP2009233237A (en) Program, information storage medium and terminal
JP2020080007A (en) Information processor, information processing program, information processing system, and information processing method
JP3617839B2 (en) GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE
JP2006346507A (en) Game apparatus and image processing program
KR101146660B1 (en) Image processing device, image processing method, and information recording medium
US20010024201A1 (en) Image drawing method, image drawing apparatus, recording medium, and program
JP3602835B2 (en) VIDEO GAME DEVICE, ITS CONTROL METHOD, AND GAME PROGRAM
US6483520B1 (en) Image creating method and apparatus, recording medium for recording image creating program, and video game machine
JP5007633B2 (en) Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
EP1288866B1 (en) Image generation method
JP4249154B2 (en) Object processing device
JP3583995B2 (en) Entertainment device, storage medium, and object display method
JP4071779B2 (en) Game device
JP4695919B2 (en) GAME PROGRAM AND GAME DEVICE
JP2009104629A (en) Object processing apparatus
JP3583994B2 (en) Entertainment device, storage medium, and object display method
JP2012155731A (en) Retrieval system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070816

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070925

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070926

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4249154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150123

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250