JP5073520B2 - Program and computer - Google Patents

Program and computer Download PDF

Info

Publication number
JP5073520B2
JP5073520B2 JP2008024619A JP2008024619A JP5073520B2 JP 5073520 B2 JP5073520 B2 JP 5073520B2 JP 2008024619 A JP2008024619 A JP 2008024619A JP 2008024619 A JP2008024619 A JP 2008024619A JP 5073520 B2 JP5073520 B2 JP 5073520B2
Authority
JP
Japan
Prior art keywords
unit
program
character
game
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008024619A
Other languages
Japanese (ja)
Other versions
JP2009187148A (en
Inventor
敬二 稲船
大佐 本橋
利昭 塩飽
壮紀 木本
実 池原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2008024619A priority Critical patent/JP5073520B2/en
Publication of JP2009187148A publication Critical patent/JP2009187148A/en
Application granted granted Critical
Publication of JP5073520B2 publication Critical patent/JP5073520B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、三次元画像処理を行う画像処理装置又はゲーム装置としてコンピュータを機能させるプログラム、及びこのプログラムを実行可能なコンピュータに関する。   The present invention relates to a program that causes a computer to function as an image processing device or a game device that performs three-dimensional image processing, and a computer that can execute the program.

近年、コンピュータ・グラフィックス技術の発展により、ビデオゲームの分野では、三次元仮想空間内に建物やキャラクタ等のオブジェクトを配置し、その中で、キャラクタに移動や動作を行わせる、いわゆる3Dゲームが主流となっている。このような3Dゲームでは、常時、各オブジェクトの3次元座標を2次元座標に変換する座標変換等の各種画像処理が行われる。そして、画像処理の結果、設定された視点(仮想カメラ)から見た三次元仮想空間内の映像が表示画面に表示される。   In recent years, with the development of computer graphics technology, in the field of video games, so-called 3D games, in which objects such as buildings and characters are placed in a three-dimensional virtual space and characters are moved and operated in the objects, are being developed. It has become mainstream. In such a 3D game, various types of image processing such as coordinate conversion for converting the three-dimensional coordinates of each object into two-dimensional coordinates are always performed. As a result of the image processing, the video in the three-dimensional virtual space viewed from the set viewpoint (virtual camera) is displayed on the display screen.

ところで、3Dゲームにおいて、通常、オブジェクトは立体的に形成され、それを構成するポリゴンの頂点の数は必然的に増えるため、上記の画像処理は、ゲーム装置を構成するコンピュータにとって大きな負荷となっている。また、より現実感を高めるため、近年、オブジェクトのポリゴンの頂点の数は増加傾向にあるため、益々、コンピュータの負荷は大きなものとなる。   By the way, in a 3D game, an object is usually formed three-dimensionally, and the number of vertices of polygons constituting the object inevitably increases. Therefore, the image processing described above is a heavy load on the computer constituting the game device. Yes. In addition, in order to enhance the sense of reality, the number of polygon vertices of an object has been increasing in recent years, and thus the load on the computer is increasing.

また、近年、複数個の端末装置とサーバ装置とをインターネットを介して接続した状態で、各端末装置において同時に同一のゲーム進行が行われるオンラインゲームが盛んとなっている。オンラインゲームでは、共通の三次元仮想空間に、各端末装置のプレイヤーのキャラクタが存在するため、各端末装置において画像処理の高速化がよりいっそう求められる。   In recent years, online games in which a plurality of terminal devices and server devices are connected via the Internet and the same game progress is simultaneously performed in each terminal device have become popular. In an online game, since the player character of each terminal device exists in a common three-dimensional virtual space, the speed of image processing is further required in each terminal device.

このような負荷の軽減を図るべく、例えば、オブジェクトとして、面状のオブジェクトを用いることが提案されている(例えば、特許文献1及び非特許文献1参照)。この面状のオブジェクトは、厚みの無いポリゴンの集合体によって形成されており、そのポリゴンの頂点の数は、立体的なオブジェクトに比べて少なくなっている(つまり、データ量は小さくなっている)。このため、これを用いることで、コンピュータにおける負荷が小さくなり、画像処理の高速化が図られる。
特開2000−2000361号公報 伊藤ガビン編著、「パラッパラッパー公式ガイドブック」、株式会社双葉社、1998年7月30日、p.4−13、p.36−47、
In order to reduce such a load, for example, it has been proposed to use a planar object as an object (see, for example, Patent Document 1 and Non-Patent Document 1). This planar object is formed by a collection of polygons with no thickness, and the number of vertices of the polygon is smaller than that of a three-dimensional object (that is, the data amount is small). . Therefore, by using this, the load on the computer is reduced, and the speed of image processing can be increased.
JP 2000-2000361 A Edited by Ito Gavin, “Parappa Rapper Official Guide Book”, Futabasha, July 30, 1998, p. 4-13, p. 36-47,

しかしながら、面状のオブジェクトを三次元仮想空間内に配置した場合は、仮想カメラと面状のオブジェクトとの位置関係によっては、観察者がオブジェクトを視認し難くなる事態が発生してしまう。特に、三次元仮想空間を上から見た時に、仮想カメラの視点からオブジェクトまでを結ぶ軸と面状のオブジェクトの法線とが直交する場合は、面状のオブジェクトに厚みが理論上存在しないため、当該オブジェクトが画面から消失してしまうことがある。   However, when a planar object is arranged in the three-dimensional virtual space, depending on the positional relationship between the virtual camera and the planar object, a situation may occur in which it is difficult for an observer to visually recognize the object. In particular, when viewing the 3D virtual space from above, if the axis connecting the viewpoint of the virtual camera to the object is perpendicular to the normal of the planar object, there is no theoretical thickness in the planar object. The object may disappear from the screen.

本発明の目的は、上記問題を解消し、画像処理における処理負荷の増大の抑制を図りつつ、仮想三次元空間内のオブジェクトが視認され難くなる事態の発生を抑制し得る、プログラム及びコンピュータを提供することにある。   An object of the present invention is to provide a program and a computer that can solve the above-described problems and suppress the occurrence of a situation in which an object in a virtual three-dimensional space is difficult to be visually recognized while suppressing an increase in processing load in image processing. There is to do.

上記目的を達成するために本発明におけるプログラムは、仮想カメラを通して得られた三次元仮想空間内の映像を二次元画面に表示するための画像処理装置を、コンピュータによって、実現するためのプログラムであって、
前記コンピュータを、前記画像処理装置の、面状のオブジェクトを形成するオブジェクト形成部、前記三次元仮想空間内に前記オブジェクトを配置するレイアウト部、前記オブジェクトと前記仮想カメラとが、設定された位置関係にあるかどうかを判定する位置判定部、及び前記位置判定部が設定された位置関係にあると判定したときに、前記オブジェクトの向きを補正する補正部、として機能させることを特徴とする。
In order to achieve the above object, a program according to the present invention is a program for realizing, by a computer, an image processing apparatus for displaying an image in a three-dimensional virtual space obtained through a virtual camera on a two-dimensional screen. And
The computer includes an object forming unit that forms a planar object, a layout unit that arranges the object in the three-dimensional virtual space, and a positional relationship in which the object and the virtual camera are set. And a position determination unit that determines whether the object is in a position, and a correction unit that corrects the orientation of the object when it is determined that the position determination unit has a set positional relationship.

上記特徴によれば、仮想カメラと面状のオブジェクトとの位置関係が観察者によるオブジェクトの視認を困難にする場合は、オブジェクトの向きが補正され、位置関係の是正が図られる。本発明によれば、面状のオブジェクトの使用によって画像処理の処理負荷の軽減を図りつつ、当該オブジェクトが視認され難くなる事態の発生が抑制される。   According to the above feature, when the positional relationship between the virtual camera and the planar object makes it difficult for the observer to visually recognize the object, the orientation of the object is corrected, and the positional relationship is corrected. According to the present invention, the use of a planar object reduces the processing load of image processing, and the occurrence of a situation in which the object becomes difficult to be visually recognized is suppressed.

また、本発明では、オブジェクトの形状が面状であるため、これらのオブジェクトによって人型のキャラクタを構成した場合は、当該キャラクタに着用させる衣服も面状となる。よって、この衣服を構成するテクスチャ画像の作成や設定等は、立体的なキャラクタに着用させる衣服の場合に比べて容易なものとなる。   In the present invention, since the shape of the object is a plane, when a humanoid character is constituted by these objects, the clothes worn by the character are also a plane. Therefore, the creation and setting of the texture image constituting the clothing is easier than the case of clothing worn by a three-dimensional character.

また、上記本発明におけるプログラムは、前記オブジェクト形成部が、面状のポリゴンの集合体の一方の面にテクスチャ画像を貼り付けて、前記オブジェクトを形成し、前記位置判定部が、前記三次元仮想空間を上方から見たときにおける、前記仮想カメラの視点から前記オブジェクトまでを結ぶ軸と、前記ポリゴンの集合体の一方の面の法線とのなす角度を特定し、前記角度が、設定された範囲内にあるときに、設定された位置関係にあると判定する、態様(第1の態様)としても良い。   Further, in the program according to the present invention, the object forming unit forms the object by pasting a texture image on one surface of an assembly of planar polygons, and the position determining unit When the space is viewed from above, an angle formed between an axis connecting the viewpoint of the virtual camera to the object and a normal line of one surface of the polygon aggregate is specified, and the angle is set. It is good also as a mode (1st mode) which judges with it being in a set position relation when it is in a range.

上記第1の態様では、更に、前記補正部が、前記三次元仮想空間を上方から見たときにおける前記法線の角度の変化量が、設定された値となるように、前記オブジェクトの向きを変更するのが良い。この場合は、観察者による仮想三次元空間内のオブジェクトの視認を確実にし、且つ、キャラクタの動きが不自然とならないようにすることができる。   In the first aspect, the correction unit further changes the orientation of the object so that the amount of change in the normal angle when the three-dimensional virtual space is viewed from above becomes a set value. It is good to change. In this case, it is possible to ensure visual recognition of the object in the virtual three-dimensional space by the observer and to prevent the movement of the character from becoming unnatural.

更に、上記本発明におけるプログラムは、前記オブジェクト形成部が、前記オブジェクトの外形と同一の外形を有する第2のオブジェクトを形成し、前記レイアウト部が、前記オブジェクトと前記第2のオブジェクトとを、設定された距離を置いて、両者が面方向において互いに平行となるようにして配置する態様(第2の態様)としても良い。上記第2の態様によれば、二つの面状のオブジェクトで一つのキャラクタを形成でき、更に、このキャラクタに立体感を付与することができる。また、立体感の付与は、立体的なオブジェクトを使うことなく行われており、処理負荷が増大することもない。   Furthermore, in the program according to the present invention, the object forming unit forms a second object having the same outer shape as the object, and the layout unit sets the object and the second object. It is good also as an aspect (2nd aspect) arrange | positioned so that both may be placed and it may become mutually parallel in a surface direction. According to the second aspect, one character can be formed by two planar objects, and a stereoscopic effect can be imparted to the character. Also, the stereoscopic effect is given without using a three-dimensional object, and the processing load does not increase.

上記第2の態様では、前記オブジェクト形成部が、面状のポリゴンの集合体の一方の面にテクスチャ画像を貼り付けることによって前記オブジェクト及び前記第2のオブジェクトを形成し、更に、複数個の関節を有するスケルトンモデルを設定し、前記オブジェクト及び前記第2のオブジェクトそれぞれのポリゴンの頂点座標は、予め、前記スケルトンモデルの動作に応じて前記オブジェクト及び前記第2のオブジェクトが同時に動作するように、前記スケルトンモデルの対応する関節に関連付けられており、前記レイアウト部は、前記オブジェクト及び前記第2のオブジェクトが一体となって前記三次元仮想空間内を移動するように、これらの位置関係を設定しているのが好ましい。この場合は、最初に述べたオブジェクトと第2のオブジェクトとは、同時に同様の動きをしたり、同時に一体的に移動したりする。このため、観察者においては、あたかも一つのキャラクタが三次元仮想空間内で移動したり、動作したりしているように見える。   In the second aspect, the object forming unit forms the object and the second object by pasting a texture image on one surface of an assembly of planar polygons, and further includes a plurality of joints. A polygonal vertex coordinate of each of the object and the second object is set in advance so that the object and the second object operate simultaneously according to the operation of the skeleton model. Associated with the corresponding joint of the skeleton model, and the layout unit sets the positional relationship so that the object and the second object move together in the three-dimensional virtual space. It is preferable. In this case, the first object and the second object move at the same time or move together at the same time. For this reason, to the observer, it looks as if one character is moving or moving in the three-dimensional virtual space.

上記第2の態様では、前記第2のオブジェクトから前記オブジェクトに向かう方向を第1の方向としたときに、前記オブジェクト形成部は、前記第2のオブジェクトの第1の方向側の面の輝度が、前記オブジェクトの第1の方向側の面の輝度よりも低くなるように、前記オブジェクトと前記第2のオブジェクトとを形成するのが好ましい。この場合は、最初に述べたオブジェクトが第2のオブジェクトよりも表示画面の手前側に表示されるようにすることで、立体感をより強調でき立体感を更に高めることができる。   In the second aspect, when the direction from the second object toward the object is the first direction, the object forming unit has a luminance of a surface on the first direction side of the second object. Preferably, the object and the second object are formed so as to be lower than the luminance of the surface on the first direction side of the object. In this case, the stereoscopic effect can be further enhanced and the stereoscopic effect can be further enhanced by displaying the first described object on the front side of the display screen rather than the second object.

また、第2のオブジェクトが形成される場合、本発明におけるプログラムでは、前記第2のオブジェクトから前記オブジェクトに向かう方向を第1の方向としたときに、前記オブジェクト形成部は、更に、外形が前記オブジェクトの外形と同一であり、且つ、前記オブジェクトの第1の方向側の面よりも輝度が低く設定された面を第1の方向側に有する第3のオブジェクトを形成し、前記レイアウト部は、前記第3のオブジェクトを、面方向において前記オブジェクトに平行した状態で、前記オブジェクトと前記第2のオブジェクトとの間に、前記オブジェクトからの距離が設定された値となるようにして配置しても良い。この場合は、第3のオブジェクトの存在により、最初に述べたオブジェクトが第2のオブジェクトよりも表示画面の手前側に表示されたときに、立体感がより強調される。   When the second object is formed, in the program according to the present invention, when the direction from the second object toward the object is the first direction, the object forming unit further has an outer shape of the object. Forming a third object having a surface on the first direction side that has the same outer shape as the object and having a lower luminance than the surface on the first direction side of the object; The third object may be arranged between the object and the second object so that the distance from the object becomes a set value in a state parallel to the object in the plane direction. good. In this case, due to the presence of the third object, the stereoscopic effect is more emphasized when the first described object is displayed on the near side of the display screen than the second object.

また、第3のオブジェクトが形成される場合、本発明におけるプログラムでは、前記第1の方向の反対方向を第2の方向としたときに、前記オブジェクト形成部は、更に、外形が前記オブジェクトの外形と同一であり、且つ、前記第2のオブジェクトの第2の方向側の面よりも輝度が低く設定された面を第2の方向側に有する第4のオブジェクトを形成し、前記レイアウト部は、前記第4のオブジェクトを、面方向において前記第2のオブジェクトに平行にした状態で、前記オブジェクトと前記第3のオブジェクトとの間に、前記第2のオブジェクトからの距離が設定された値となるようにして配置しても良い。この場合は、第4のオブジェクトの存在により、第2のオブジェクトが、最初に述べたオブジェクトよりも表示画面の手前側に表示されたときであっても、立体感がより強調される。   When the third object is formed, in the program according to the present invention, when the direction opposite to the first direction is the second direction, the object forming unit further includes an outer shape of the object. And a fourth object having a surface on the second direction side that has a lower brightness than a surface on the second direction side of the second object, and the layout unit includes: With the fourth object parallel to the second object in the plane direction, the distance from the second object is set between the object and the third object. You may arrange in this way. In this case, due to the presence of the fourth object, the stereoscopic effect is more emphasized even when the second object is displayed closer to the display screen than the first described object.

更に、4つのオブジェクトが形成される場合は、前記オブジェクト形成部が、面状のポリゴンの集合体の一方の面にテクスチャ画像を貼り付けることによって前記オブジェクト、前記第2のオブジェクト、前記第3のオブジェクト及び前記第4のオブジェクトを形成し、更に、複数個の関節を有するスケルトンモデルを設定し、前記オブジェクト、前記第2のオブジェクト、前記第3のオブジェクト及び前記第4のオブジェクトそれぞれのポリゴンの頂点座標は、予め、前記スケルトンモデルの動作に応じて前記オブジェクト、前記第2のオブジェクト、前記第3のオブジェクト及び前記第4のオブジェクトが同時に動作するように、前記スケルトンモデルの対応する関節に関連付けられており、前記レイアウト部は、前記オブジェクト、前記第2のオブジェクト、前記第3のオブジェクト及び前記第4のオブジェクトが一体となって前記三次元仮想空間内を移動するように、これらの位置関係を設定しているのが好ましい。このようにすることにより、4つのオブジェクトは、同時に同様の動きをしたり、同時に一体的に移動したりする。このため、観察者においては、あたかも一つのキャラクタが三次元仮想空間内で移動したり、動作したりしているように見える。   Further, when four objects are formed, the object forming unit pastes the texture image on one surface of the planar polygon aggregate to thereby form the object, the second object, and the third object. Forming an object and the fourth object, and further setting a skeleton model having a plurality of joints, and vertices of polygons of the object, the second object, the third object, and the fourth object, respectively Coordinates are associated in advance with the corresponding joints of the skeleton model so that the object, the second object, the third object, and the fourth object move simultaneously according to the movement of the skeleton model. The layout portion includes the object, the front Second object such that said third object and the fourth object moves within the three-dimensional virtual space together, preferably has set these positional relationships. By doing so, the four objects move at the same time at the same time or move together as a unit. For this reason, to the observer, it looks as if one character is moving or moving in the three-dimensional virtual space.

また、上記目的を達成するため、本発明におけるコンピュータは、上記本発明のプログラムを記憶した記憶部と、前記記憶部から前記プログラムを読み出して実行する制御部と、
を備えていることを特徴とする。上記特徴により、上記本発明におけるコンピュータを用いて画像処理装置やゲーム装置を構築すれば、これら装置における画像処理速度が向上され、同時に、仮想三次元空間内のオブジェクトが視認され難くなる事態の発生が抑制される。
In order to achieve the above object, a computer according to the present invention includes a storage unit that stores the program of the present invention, a control unit that reads and executes the program from the storage unit,
Characterized in that it comprises a. Due to the above characteristics, if an image processing device or a game device is constructed using the computer according to the present invention, the image processing speed in these devices is improved, and at the same time, the occurrence of a situation in which an object in the virtual three-dimensional space becomes difficult to visually recognize occurs. Is suppressed.

上記目的を達成するため本発明における画像処理装置は、仮想カメラを通して得られた三次元仮想空間内の映像を二次元画面に表示するための画像処理装置であって、面状のオブジェクトを形成するオブジェクト形成部と、前記三次元仮想空間内に前記オブジェクトを配置するレイアウト部と、前記オブジェクトと前記仮想カメラとの位置関係が、設定された位置関係にあるかどうかを判定する位置判定部と、前記位置判定部が設定された位置関係にあると判定したときに、前記オブジェクトの向きを補正する補正部とを備えることを特徴とするプログラム。   To achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus for displaying an image in a three-dimensional virtual space obtained through a virtual camera on a two-dimensional screen, and forms a planar object. An object formation unit, a layout unit that arranges the object in the three-dimensional virtual space, a position determination unit that determines whether the positional relationship between the object and the virtual camera is a set positional relationship, A program comprising: a correction unit that corrects the orientation of the object when the position determination unit determines that the positional relationship is set.

また、上記目的を達成するため本発明における画像処理方法は、仮想カメラを通して得られた三次元仮想空間内の映像を二次元画面に表示するための画像処理方法であって、(a)面状のオブジェクトを形成する工程と、(b)前記三次元仮想空間内に前記オブジェクトを配置する工程と、(c)前記オブジェクトと前記仮想カメラとの位置関係が、設定された位置関係にあるかどうかを判定する工程と、(d)前記(c)の工程で、設定された位置関係にあると判定されたときに、前記オブジェクトの向きを補正する工程とを有することを特徴とする。   In order to achieve the above object, an image processing method according to the present invention is an image processing method for displaying a video in a three-dimensional virtual space obtained through a virtual camera on a two-dimensional screen. (B) the step of arranging the object in the three-dimensional virtual space, and (c) whether the positional relationship between the object and the virtual camera is a set positional relationship. And (d) correcting the orientation of the object when it is determined in the step (c) that it is in the set positional relationship.

更に、上記目的を達成するため本発明におけるコンピュータが読み取り可能な記録媒体は、仮想カメラを通して得られた三次元仮想空間内の映像を二次元画面に表示するための画像処理装置を、コンピュータによって、実現するためのプログラムを記録した記録媒体であって、前記プログラムは、前記コンピュータに、(a)面状のオブジェクトを形成するステップと、(b)前記三次元仮想空間内に前記オブジェクトを配置するステップと、(c)前記オブジェクトと前記仮想カメラとの位置関係が、設定された位置関係にあるかどうかを判定するステップと、(d)前記(c)のステップで、設定された位置関係にあると判定されたときに、前記オブジェクトの向きを補正するステップとを実行させることを特徴とする。   Furthermore, in order to achieve the above object, a computer-readable recording medium according to the present invention provides an image processing apparatus for displaying an image in a three-dimensional virtual space obtained through a virtual camera on a two-dimensional screen by a computer. A recording medium storing a program for realizing the program, wherein the program (a) forms a planar object in the computer, and (b) places the object in the three-dimensional virtual space. (C) determining whether the positional relationship between the object and the virtual camera is a set positional relationship; and (d) determining whether the positional relationship set in step (c) is A step of correcting the direction of the object when it is determined that the object is present.

以上のように本発明におけるプログラム及びコンピュータによれば、画像処理における処理負荷の増大の抑制を図りつつ、仮想三次元空間内のオブジェクトが視認され難くなる事態の発生を抑制することが可能となる。   As described above, according to the program and the computer of the present invention, it is possible to suppress the occurrence of a situation where it is difficult to visually recognize an object in the virtual three-dimensional space while suppressing an increase in processing load in image processing. .

(実施の形態)
以下、本発明の実施の形態におけるプログラム及びコンピュータについて、図1〜図16を参照しながら説明する。本実施の形態におけるプログラムは、コンピュータを、三次元画像処理を行う画像処理装置として機能させることが可能なプログラムである。また、本実施の形態におけるコンピュータは、このプログラムを実行可能なコンピュータである。そこで、先ず、図1を用いて、本実施の形態における画像処理装置の構成について説明する。なお、この画像処理装置は、ゲーム装置の一部を構成している。本実施の形態におけるプログラムは、コンピュータをゲーム装置としても機能させる。
(Embodiment)
Hereinafter, a program and a computer according to an embodiment of the present invention will be described with reference to FIGS. The program in the present embodiment is a program that allows a computer to function as an image processing apparatus that performs three-dimensional image processing. The computer in this embodiment is a computer that can execute this program. First, the configuration of the image processing apparatus according to the present embodiment will be described with reference to FIG. This image processing device constitutes a part of the game device. The program in this embodiment causes a computer to function as a game device.

図1は、本発明の実施の形態における画像処理装置及びゲーム装置の構成を示すブロック図である。図1に示す画像処理装置2は、仮想カメラ23(図6参照)を通して得られた三次元仮想空間(図6参照)内の映像を二次元画面に表示する機能を備えている。また、本実施の形態においては、画像処理装置2は、ゲーム装置1に備えられ、ゲーム映像の表示に用いられる。   FIG. 1 is a block diagram showing a configuration of an image processing device and a game device according to an embodiment of the present invention. The image processing apparatus 2 shown in FIG. 1 has a function of displaying an image in a three-dimensional virtual space (see FIG. 6) obtained through the virtual camera 23 (see FIG. 6) on a two-dimensional screen. In the present embodiment, the image processing apparatus 2 is provided in the game apparatus 1 and is used for displaying a game video.

図1に示すように、ゲーム装置1は、画像処理装置2のほかに、入力インターフェイス(I/F)3、制御部4、記憶部5、及び読取装置6を備えている。入力インターフェイス3は、入力機器(コントローラ)13に接続され、プレイヤーの操作に応じて入力機器13が出力した信号の入力を受け付ける。具体的には、入力インターフェイス3は、入力機器13が出力したアナログ信号をデジタル信号に変換し、得られたデジタル信号を制御部4へと出力する。   As shown in FIG. 1, the game apparatus 1 includes an input interface (I / F) 3, a control unit 4, a storage unit 5, and a reading device 6 in addition to the image processing device 2. The input interface 3 is connected to an input device (controller) 13 and receives an input of a signal output from the input device 13 in accordance with a player's operation. Specifically, the input interface 3 converts an analog signal output from the input device 13 into a digital signal, and outputs the obtained digital signal to the control unit 4.

記憶部5は、メモリやハードディスク等であり、本実施の形態におけるプログラムを格納している。本実施の形態では、プログラムは、CDディスクやDVDディスクといった記録媒体12に記録された状態で提供されている。制御部4は、読取装置6を動作させて、記録媒体12からプログラムを読み出した後、これを記憶部5に格納させる。なお、プログラムは、ネットワークを介して、記憶部5に格納されても良い。   The storage unit 5 is a memory, a hard disk, or the like, and stores the program in the present embodiment. In the present embodiment, the program is provided in a state where it is recorded on a recording medium 12 such as a CD disk or a DVD disk. The control unit 4 operates the reading device 6 to read a program from the recording medium 12 and then stores it in the storage unit 5. Note that the program may be stored in the storage unit 5 via a network.

制御部4は、記憶部5に記憶されているプログラムを読み出し、プログラムの指示に応じてゲームを進行させる。また、制御部4は、入力インターフェイス3からのデジタル信号に基づいて、三次元仮想空間内でのオブジェクトの移動や動作のための座標を演算する。このような座標としては、三次元仮想空間内におけるオブジェクトの座標(位置情報)や、移動方向を示す座標(ベクトル情報)等が挙げられる。   The control unit 4 reads the program stored in the storage unit 5 and advances the game in accordance with the program instruction. Further, the control unit 4 calculates coordinates for movement and movement of the object in the three-dimensional virtual space based on the digital signal from the input interface 3. Examples of such coordinates include object coordinates (position information) in the three-dimensional virtual space, coordinates (vector information) indicating the moving direction, and the like.

更に、オブジェクトがスケルトンモデル(図7参照)を備えたキャラクタを構成している場合は、制御部4は、プログラムに予め定義されているモーション情報の読出も実行する。モーション情報には、三次元仮想空間内での、スケルトンモデルを構成する各関節の移動手順が規定されており、制御部4はモーション情報に基づいて各関節の座標も計算する。更に、制御部4は、各オブジェクトの座標から、オブジェクト間の接触を判定する。   Further, when the object constitutes a character having a skeleton model (see FIG. 7), the control unit 4 also reads out motion information defined in advance in the program. In the motion information, the movement procedure of each joint constituting the skeleton model in the three-dimensional virtual space is defined, and the control unit 4 also calculates the coordinates of each joint based on the motion information. Furthermore, the control part 4 determines the contact between objects from the coordinate of each object.

各種処理を行った後、制御部4は、画像処理装置2による画像処理に必要な情報、例えば、オブジェクトの画像データ、位置情報、ベクトル情報を、画像処理装置2へと出力する。なお、本実施の形態は、ゲーム装置1が記憶部5を備えておらず、代わりに、制御部4が、外部のコンピュータの記憶部に格納されているプログラムを読み出す態様であっても良い。   After performing various processes, the control unit 4 outputs information necessary for image processing by the image processing apparatus 2, for example, image data, position information, and vector information of the object to the image processing apparatus 2. In the present embodiment, the game apparatus 1 may not include the storage unit 5, and instead, the control unit 4 may read a program stored in a storage unit of an external computer.

画像処理装置2は、オブジェクト形成部7、レイアウト部8、位置判定部9、補正部10、及び演算部11を備えている。オブジェクト形成部7は、各種キャラクタ、建物、アイテム等を構成するオブジェクトを形成する。このとき、オブジェクト形成部7は、各種キャラクタ、建物、アイテム等を立体的なオブジェクトではなく、面状のオブジェクトによって形成することができる。本実施の形態では、擬人化されたキャラクタ(例えば、プレイヤーの分身となるキャラクタや、オンラインで接続された他のゲーム装置のプレイヤーの分身となるキャラクタ)が、面状のオブジェクトによって形成される。   The image processing apparatus 2 includes an object forming unit 7, a layout unit 8, a position determination unit 9, a correction unit 10, and a calculation unit 11. The object forming unit 7 forms objects constituting various characters, buildings, items and the like. At this time, the object forming unit 7 can form various characters, buildings, items, and the like with planar objects instead of three-dimensional objects. In the present embodiment, anthropomorphized characters (for example, a character that becomes a player or a character that becomes a player of another game device connected online) are formed by planar objects.

オブジェクト形成部7によるオブジェクトの形成は、記憶部5に格納されているプログラムに含まれるデータに基づいて、又は、このデータを加工することによって行われる。レイアウト部8は、オブジェクト形成部7が形成した各オブジェクトを、ゲームで使用される三次元仮想空間(ゲーム空間:図6参照)内の、制御部4によって指示された座標に配置する。オブジェクト形成部7及びレイアウト部8における具体的な処理については、図3〜図6を用いて後述する。   Object formation by the object forming unit 7 is performed based on data included in a program stored in the storage unit 5 or by processing this data. The layout unit 8 arranges each object formed by the object forming unit 7 at coordinates designated by the control unit 4 in a three-dimensional virtual space (game space: see FIG. 6) used in the game. Specific processing in the object forming unit 7 and the layout unit 8 will be described later with reference to FIGS.

位置判定部9は、オブジェクト形成部7が形成したオブジェクトと、ゲーム空間内に設定された仮想カメラとが、設定された位置関係にあるかどうかを判定する。本実施の形態では、判定の対象となる位置関係は、プレイヤーを含む観察者においてオブジェクトが見え難くなるときの位置関係に設定されている。   The position determination unit 9 determines whether the object formed by the object formation unit 7 and the virtual camera set in the game space are in the set positional relationship. In the present embodiment, the positional relationship that is the object of determination is set to a positional relationship that makes it difficult for an observer including the player to see the object.

また、位置関係の規定は、例えば、三次元仮想空間を上方から見たときの、仮想カメラの視点からオブジェクトまでを結ぶ軸とオブジェクトの法線とのなす角度に基づいて行うことができる。その他、位置関係の規定は、オブジェクトを構成するテクスチャ画像の画素数と、二次元画面に映し出されているテクスチャ画像の画素数との比に基づいて行うこともできる。位置判定部9における具体的な処理は、図3、図7、図8を用いて後述する。なお、本実施の形態において、位置関係の規定方法は、特に限定されるものではない。   The positional relationship can be defined based on, for example, an angle formed between an axis connecting the viewpoint from the virtual camera to the object and the normal of the object when the three-dimensional virtual space is viewed from above. In addition, the positional relationship can be defined based on the ratio between the number of pixels of the texture image constituting the object and the number of pixels of the texture image displayed on the two-dimensional screen. Specific processing in the position determination unit 9 will be described later with reference to FIGS. 3, 7, and 8. In the present embodiment, the positional relationship defining method is not particularly limited.

補正部10は、位置判定部9が設定された位置関係にあると判定したときに、判定対象となっているオブジェクトの向きを補正する。本実施の形態では、このときの補正量は、上述の仮想カメラの視点からオブジェクトまでを結ぶ軸とオブジェクトの法線とのなす角度や、上述のテクスチャ画像の画素数の比によって規定される。補正部10における具体的な処理は、図3、図9、図10を用いて後述する。   When the correction unit 10 determines that the position determination unit 9 has the set positional relationship, the correction unit 10 corrects the orientation of the object to be determined. In the present embodiment, the correction amount at this time is defined by the angle between the axis connecting the viewpoint of the virtual camera to the object and the normal of the object, and the ratio of the number of pixels of the texture image. Specific processing in the correction unit 10 will be described later with reference to FIGS. 3, 9, and 10.

演算部11は、各オブジェクトの3次元座標を2次元座標に変換する座標変換、クリッピング、及び隠面消去等を含むレンダリング処理を実行する。演算部11によるレンダリング処理の結果、仮想カメラを通して得られた(設定された視点から見た)ゲーム空間の映像(ゲーム映像)が得られる。演算部11が、ゲーム映像の画像データを外部の表示装置11に出力すると、表示装置11は、ゲーム映像を表示画面に表示する。   The calculation unit 11 performs rendering processing including coordinate conversion for converting the three-dimensional coordinates of each object into two-dimensional coordinates, clipping, hidden surface removal, and the like. As a result of the rendering process by the computing unit 11, a video (game video) of the game space obtained through the virtual camera (viewed from the set viewpoint) is obtained. When the arithmetic unit 11 outputs the image data of the game video to the external display device 11, the display device 11 displays the game video on the display screen.

次に、図2を用いて、ゲーム装置1で行われる処理について説明する。図2は、本発明の実施の形態におけるゲーム装置で行われる処理を示すフロー図である。なお、以下の説明においては、適宜図1も参酌される。   Next, processing performed in the game apparatus 1 will be described with reference to FIG. FIG. 2 is a flowchart showing processing performed in the game device according to the embodiment of the present invention. In the following description, FIG. 1 is also taken into consideration as appropriate.

図2に示すように、最初に、制御部4は、ゲーム装置1のプレイヤーからゲームの開始が指示されると、記憶部5に格納されているゲームプログラムを読み込み、ゲーム空間を設定する(ステップS1)。続いて、制御部4は、ゲーム空間に配置される各オブジェクトの座標を設定する(ステップS2)。なお、ゲーム開始当初のオブジェクトの座標としては、例えば、前回のゲーム終了時点の座標や、プログラムに設定されている初期座標等が挙げられる。   As shown in FIG. 2, when the start of the game is instructed from the player of the game apparatus 1, the control unit 4 first reads a game program stored in the storage unit 5 and sets a game space (step). S1). Subsequently, the control unit 4 sets the coordinates of each object arranged in the game space (step S2). Examples of the coordinates of the object at the beginning of the game include the coordinates at the end of the previous game, the initial coordinates set in the program, and the like.

次に、制御部4は、移動や動作が可能なオブジェクトについて、移動や動作が指示されているかどうか判定する(ステップS3)。例えば、プレイヤーの分身となるキャラクタのオブジェクトについては、制御部4は、入力機器13から移動や動作が指示されているかどうか判定する。   Next, the control unit 4 determines whether movement or movement is instructed for an object that can move or move (step S3). For example, the control unit 4 determines whether movement or movement is instructed from the input device 13 for the character object that is the player's alternation.

ステップS3の判定の結果、指示が行われていない場合は、制御部4は、ステップS5を実行する。一方、ステップS3の判定の結果、指示が行われている場合は、制御部4は、指示に合わせてオブジェクトの座標を計算し(ステップS4)、その後、ステップS5を実行する。   As a result of the determination in step S3, if no instruction is given, the control unit 4 executes step S5. On the other hand, if an instruction is given as a result of the determination in step S3, the control unit 4 calculates the coordinates of the object in accordance with the instruction (step S4), and then executes step S5.

ステップS5においては、制御部4は、ゲーム進行に関係する各種の処理(ゲーム進行処理)を行う。ゲーム進行処理としては、例えば、キャラクタのオブジェクトと建物や置物のオブジェクトとの接触の判定、キャラクタのオブジェクトとアイテムのオブジェクトとの重なりの判定等が挙げられる。その後、制御部4は、各オブジェクトの画像データ、位置情報(座標)等を画像処理装置2へと出力する。   In step S5, the control unit 4 performs various processes related to the game progress (game progress process). Examples of the game progress process include determination of contact between a character object and a building or figurine object, determination of overlap between a character object and an item object, and the like. Thereafter, the control unit 4 outputs image data, position information (coordinates), and the like of each object to the image processing apparatus 2.

制御部4から各種の情報が出力されると、画像処理装置2は、それに基づいて画像処理を実行し(ステップS6)、ゲーム映像の画像データを生成する。続いて、画像処理装置2は、ステップS6で生成した画像データを表示装置11に出力する(ステップS7)。なお、ステップS6における画像処理については、図3〜図10を用いて後述する。   When various types of information are output from the control unit 4, the image processing apparatus 2 performs image processing based on the information (step S6), and generates image data of the game video. Subsequently, the image processing device 2 outputs the image data generated in step S6 to the display device 11 (step S7). The image processing in step S6 will be described later with reference to FIGS.

その後、制御部4は、入力機器13を介してプレイヤーがゲームの終了を指示しているかどうか判定する(ステップS8)。そして、制御部3は、ゲームの終了が指示されている場合は、ゲームを終了し、指示されていない場合は、再度、ステップS3以降を実行する。   Thereafter, the control unit 4 determines whether or not the player gives an instruction to end the game via the input device 13 (step S8). And the control part 3 will complete | finish a game, when the completion | finish of a game is instruct | indicated, and when step S3 is not instruct | indicated, it will perform step S3 and after again.

ここで、図3〜図10を用いて画像処理装置2で行われる処理(図2に示すステップS6)について説明する。図3は、本発明の実施の形態における画像処理で行われる処理を示すフロー図であり、図2に示したステップS6の処理を具体的に示している。図4は、本発明の実施の形態で用いられるオブジェクトの一例を示す図であり、図4(a)はキャラクタの正面に相当するオブジェクトを示し、図4(b)はキャラクタの背面に相当するオブジェクトを示している。図5は、図4に示したオブジェクトを動かすためのスケルトンモデルを示す図である。   Here, the process (step S6 shown in FIG. 2) performed by the image processing apparatus 2 will be described with reference to FIGS. FIG. 3 is a flowchart showing the processing performed in the image processing according to the embodiment of the present invention, and specifically shows the processing in step S6 shown in FIG. 4A and 4B are diagrams showing an example of an object used in the embodiment of the present invention. FIG. 4A shows an object corresponding to the front of the character, and FIG. 4B corresponds to the back of the character. Indicates an object. FIG. 5 is a diagram showing a skeleton model for moving the object shown in FIG.

図6は、図4に示したオブジェクトを三次元仮想空間内に配置した状態を示す図である。図7は、設定された位置関係にあるオブジェクト及び仮想カメラを上方から見た図である。図8は、図7に示すオブジェクトを仮想カメラから見た図である。図9は、図7に示すオブジェクトの向きを補正した状態を上方から見た図である。図10は、図9に示すオブジェクトを仮想カメラから見た図である。   FIG. 6 is a diagram illustrating a state in which the object illustrated in FIG. 4 is arranged in the three-dimensional virtual space. FIG. 7 is a view of an object and a virtual camera having a set positional relationship as viewed from above. FIG. 8 is a view of the object shown in FIG. 7 as seen from the virtual camera. FIG. 9 is a view of the state of the object shown in FIG. 7 corrected from above. FIG. 10 is a view of the object shown in FIG. 9 as seen from the virtual camera.

図3に示すように、先ず、制御部4から情報が入力されると、オブジェクト形成部7によるオブジェクトの形成が行われる(ステップS11)。このとき、本実施の形態では、オブジェクト形成部7は、擬人化されたキャラクタ(図6参照)をつくるため、面状のオブジェクトを形成する。具体的には、オブジェクト形成部7は、図4に示すように、キャラクタの正面に相当するオブジェクト(正面オブジェクト)15と、キャラクタの背面に相当するオブジェクト(背面オブジェクト)16とを形成する。   As shown in FIG. 3, first, when information is input from the control unit 4, the object forming unit 7 forms an object (step S11). At this time, in the present embodiment, the object forming unit 7 forms a planar object in order to create a personified character (see FIG. 6). Specifically, as illustrated in FIG. 4, the object forming unit 7 forms an object (front object) 15 corresponding to the front of the character and an object (back object) 16 corresponding to the back of the character.

正面オブジェクト15及び背面オブジェクト16の形成は、厚みの無いポリゴン15a(16a)の集合体(ポリゴンモデル)を形成し、このポリゴンモデルの一方の面にテクスチャ画像15b(16b)を貼り付けることによって行われている。図4において、テクスチャ画像15b(16b)にはハッチングが施されている。テクスチャ画像が貼り付けられていない部分は、実際には透明である。   The front object 15 and the back object 16 are formed by forming an aggregate (polygon model) of polygons 15a (16a) having no thickness and pasting the texture image 15b (16b) on one surface of the polygon model. It has been broken. In FIG. 4, the texture image 15b (16b) is hatched. The part where the texture image is not pasted is actually transparent.

また、ポリゴン15a及び16aの集合体(ポリゴンモデル)や、テクスチャ画像15b及び16bのデータは、ゲームのプログラムに含まれており、記憶部5から読み出される。更に、テクスチャ画像15bの外形とテクスチャ画像16bの外形とは同一に設定されている。なお、本明細書において「外形が同一」とは、貼り付けられたテクスチャ画像の外縁の形状が互いに同一であることをいう。同一は、完全に同一である場合のみに限られず、ゲームの観察者が同一であると認識する範囲であれば良い。   In addition, an aggregate of polygons 15a and 16a (polygon model) and data of texture images 15b and 16b are included in the game program and read from the storage unit 5. Furthermore, the outer shape of the texture image 15b and the outer shape of the texture image 16b are set to be the same. In this specification, “the same outer shape” means that the shapes of the outer edges of the pasted texture images are the same. The same is not limited to the case where they are completely the same, but may be a range in which the game observer recognizes that they are the same.

更に、本実施の形態では、ステップS11において、オブジェクト形成部7は、図5に示すように、正面オブジェクト15及び背面オブジェクト16の二つのオブジェクトに対して、一つのスケルトンモデル17を設定する。スケルトンモデル17は、関節19と、関節19間をつなぐ複数本のボーン18とで構成されている。スケルトンモデル17の形成も、ゲームのプログラムに含まれているデータを、オブジェクト形成部7が記憶部5から読み出すことによって行われている。   Further, in the present embodiment, in step S11, the object forming unit 7 sets one skeleton model 17 for the two objects of the front object 15 and the back object 16, as shown in FIG. The skeleton model 17 includes a joint 19 and a plurality of bones 18 that connect the joints 19. The skeleton model 17 is also formed by the object forming unit 7 reading data included in the game program from the storage unit 5.

また、各オブジェクトのポリゴンの頂点座標は、予め、スケルトンモデル17の対応する関節19に関連付けられている。このため、オブジェクト形成部7は、上述したように制御部4がモーション情報に基づいて算出した各関節の座標に合わせて、オブジェクト15及び16の形状を変形させる。更に、関連付けられている各ポリゴンの頂点座標には、予め、対応する関節19毎に重み付けもなされているため、オブジェクト形成部7は、この重み付けを考慮して上記変形を行う。   In addition, the vertex coordinates of the polygon of each object are associated in advance with the corresponding joint 19 of the skeleton model 17. Therefore, the object forming unit 7 deforms the shapes of the objects 15 and 16 in accordance with the coordinates of each joint calculated by the control unit 4 based on the motion information as described above. Further, since the vertex coordinates of the associated polygons are weighted in advance for each corresponding joint 19, the object forming unit 7 performs the above deformation in consideration of this weighting.

このような処理の結果、オブジェクト15及び16の各ポリゴン(図4参照)の位置が変化し、オブジェクト15及び16が同時に動作(変形)するため、観察者においては、これらによって構成されたキャラクタが動作しているように見える。また、本実施の形態では、オブジェクト形成部7は、制御部4からの指示に応じて、正面オブジェクト15及び背面オブジェクト16以外のオブジェクトの形成も実行する。   As a result of such processing, the positions of the polygons (see FIG. 4) of the objects 15 and 16 change, and the objects 15 and 16 move (deform) at the same time. Looks like it works. In the present embodiment, the object forming unit 7 also forms objects other than the front object 15 and the back object 16 in response to an instruction from the control unit 4.

次に、レイアウト部8は、制御部4によって指示された位置に、正面オブジェクト15及び背面オブジェクト16を配置する(ステップS12)。このとき、レイアウト部8は、両者のテクスチャ画像が貼り付けられている面が互いに反対方向となり、且つ、両者がそれぞれの面方向において互いに平行となるようにして、配置を実行する。   Next, the layout part 8 arrange | positions the front object 15 and the back object 16 in the position instruct | indicated by the control part 4 (step S12). At this time, the layout unit 8 performs the arrangement so that the surfaces on which the texture images are pasted are in opposite directions and are parallel to each other in the respective surface directions.

また、レイアウト部8は、両者間の距離を可能な限りゼロに近い値に設定する。正面オブジェクト15及び背面オブジェクト16について移動が行われた場合は、両者は同時に一体となって移動する。ここで、「平行となるように配置する」とは、2つのオブジェクト15及び16の面状のポリゴンの法線方向が、互いに平行となり、更に、両者がこの法線方向において重なった状態となるように、配置することをいう。なお、両者の配置は、これらによって構成されるキャラクタに違和感が生じない程度であれば良い。よって、両者の法線方向が完全に平行でない場合や、一方のオブジェクトの投影面が他方のオブジェクトに完全に一致していない場合も、違和感が生じない範囲で許容される。   The layout unit 8 sets the distance between the two as close to zero as possible. When the front object 15 and the back object 16 are moved, the two move together at the same time. Here, “arrange so as to be parallel” means that the normal directions of the planar polygons of the two objects 15 and 16 are parallel to each other, and further, both are overlapped in this normal direction. As such, it is arranged. It should be noted that the arrangement of the two may be such that the character constituted by these does not cause a sense of incongruity. Therefore, even when the normal directions of the two are not completely parallel, or when the projection plane of one object does not completely coincide with the other object, it is allowed as long as a sense of incongruity does not occur.

ステップS11及びS12の処理により、図6に示すように、正面オブジェクト15及び背面オブジェクト16によって構成されたキャラクタ21が、ゲーム空間20内に配置される。また、正面オブジェクト15及び背面オブジェクト16は、ゲーム空間内において、一体的に移動及び動作を行うため、観察者は、一つのキャラクタ21が存在していると認識する。   Through the processing in steps S11 and S12, as shown in FIG. 6, the character 21 constituted by the front object 15 and the back object 16 is arranged in the game space 20. Further, since the front object 15 and the back object 16 move and move together in the game space, the observer recognizes that one character 21 exists.

図6において、23は仮想カメラを示し、24は仮想カメラの視軸を示している。22は、ゲーム空間20内に設定されたセルである。ゲーム空間20においては、キャラクタ21の移動はセル22単位で行われるように設定されており、また、キャラクタ21は、方向A〜方向Hの8方向に移動可能となっている。なお、「視軸」は、ゲーム空間20内に設定されている注視点と、注視点から一定の距離をおいた位置に設定された仮想カメラ23の視点とを結ぶ軸である。図6に示すゲームでは、一般的に注視点は、プレイヤーの分身となるキャラクタ上又はその周辺領域(仮想カメラから見てキャラクタの奥側)に設定される。   In FIG. 6, reference numeral 23 denotes a virtual camera, and reference numeral 24 denotes a visual axis of the virtual camera. Reference numeral 22 denotes a cell set in the game space 20. In the game space 20, the character 21 is set to move in units of cells 22, and the character 21 can move in eight directions A to H. The “visual axis” is an axis that connects the gazing point set in the game space 20 and the viewpoint of the virtual camera 23 set at a certain distance from the gazing point. In the game shown in FIG. 6, the gazing point is generally set on the character serving as the player's alternation or in the peripheral area (the back side of the character as viewed from the virtual camera).

次に、ステップS11及びS12が終了すると、位置判定部9は、正面オブジェクト15及び背面オブジェクト16と、仮想カメラ23とが、設定された位置関係にあるかどうかを判定する(ステップS13)。本実施の形態では、位置判定部9は、先ず、ゲーム空間20を上方から見たときの、仮想カメラ23の視点からオブジェクトに設定された制御点までを結ぶ軸と、正面オブジェクト15及び背面オブジェクト16の法線25とのなす角θを検出する(図7参照)。   Next, when Steps S11 and S12 are completed, the position determination unit 9 determines whether or not the front object 15 and the back object 16 and the virtual camera 23 are in the set positional relationship (Step S13). In the present embodiment, the position determination unit 9 first, when viewing the game space 20 from above, the axis connecting the viewpoint of the virtual camera 23 to the control point set for the object, the front object 15 and the back object An angle θ formed by 16 normal lines 25 is detected (see FIG. 7).

そして、図7に示すように、視軸24と法線25とが直交し、角θが90度である場合(進行方向が方向B又は方向Fである場合)に、位置判定部9は、設定された位置関係にあると判定する。これは、図8に示すように、視軸24と法線25とが直交すると、面状の正面オブジェクト15及び背面オブジェクト16によって構成されたキャラクタ21の大部分が、観察者側から見えなくなってしまうからである。   As shown in FIG. 7, when the visual axis 24 and the normal 25 are orthogonal and the angle θ is 90 degrees (when the traveling direction is the direction B or the direction F), the position determination unit 9 It is determined that there is a set positional relationship. As shown in FIG. 8, when the visual axis 24 and the normal line 25 are orthogonal, most of the character 21 constituted by the planar front object 15 and the back object 16 cannot be seen from the observer side. Because it ends up.

また、本実施の形態では、位置判定部9は、角θが90度以外の場合においても、設定された位置関係にあると判断することができる。これは、角θが90度前後の場合であっても、観察者にとってキャラクタ21が見え難い状態となるからである。   Further, in the present embodiment, the position determination unit 9 can determine that the set positional relationship exists even when the angle θ is other than 90 degrees. This is because even if the angle θ is around 90 degrees, it is difficult for the observer to see the character 21.

また、本実施の形態では、キャラクタ21が動作するため、実際には、正面オブジェクト15及び背面オブジェクト16の法線としては、方向の異なる複数の種類が存在する。このため、位置判定部9は、キャラクタが動作していない状態、即ち、オブジェクト15及び16を構成するポリゴン15a(16a)の集合体が平面となっている状態(図4参照)を想定し、このときの法線を法線25として判定を行うことができる。   In the present embodiment, since the character 21 moves, there are actually a plurality of types having different directions as normals of the front object 15 and the back object 16. For this reason, the position determination unit 9 assumes a state where the character is not moving, that is, a state where the aggregate of the polygons 15a (16a) constituting the objects 15 and 16 is a plane (see FIG. 4). The normal at this time can be determined as the normal 25.

位置判定部9は、オブジェクト15及び16の動作が行われていない部分を特定し、この部分のポリゴンの法線を法線25として判定を行うこともできる。図7及び図8においては、法線25は、キャラクタの胴体部分における法線と一致している。位置判定部9による法線の特定は、例えば、オブジェクト15及び16に付与されているベクトル情報に基づいて行うことができる。   The position determination unit 9 can also specify a part where the movements of the objects 15 and 16 are not performed, and determine the normal line of the polygon of this part as the normal line 25. 7 and 8, the normal line 25 matches the normal line in the character's body. The specification of the normal line by the position determination unit 9 can be performed based on vector information given to the objects 15 and 16, for example.

また、位置判定部9は、二次元画面に投影されているオブジェクト15及び16のテクスチャ画像15b(16b)の面積aから角θを特定することもできる。この場合は、位置判定部9は、更に、オブジェクト15及び16が視軸に対して正対した(θ=0度)ときのテクスチャ画像15b(16b)の面積Aを求め、三角法により、これらの比(a/A)から各θを算出する。   The position determination unit 9 can also specify the angle θ from the area a of the texture images 15b (16b) of the objects 15 and 16 projected on the two-dimensional screen. In this case, the position determination unit 9 further obtains the area A of the texture image 15b (16b) when the objects 15 and 16 are directly opposed to the visual axis (θ = 0 degrees), and these are obtained by trigonometry. Each θ is calculated from the ratio (a / A).

その他、位置判定部9は、角θの代わりに、二次元画面に投影されているオブジェクト15及び16のテクスチャ画像の画素数pと、オブジェクト15及び16が視軸に対して正対した(θ=0度)ときのテクスチャ画像の画素数Pとを求めても良い。この場合は、位置判定部9は、両者の比(p/P)が、設定値となっているか、又は設定範囲内にあるかどうか判定する。   In addition, the position determination unit 9 has the number of pixels p of the texture images of the objects 15 and 16 projected on the two-dimensional screen instead of the angle θ and the objects 15 and 16 face the visual axis (θ = 0 degree), the number of pixels P of the texture image may be obtained. In this case, the position determination unit 9 determines whether the ratio (p / P) between the two is a set value or within a set range.

ステップS13の判定の結果、位置判定部9が、設定された位置関係にないと判定した場合は、ステップS15が実行される。一方、位置判定部9が、設定された位置関係にあると判定した場合は、ステップS14が実行される。   As a result of the determination in step S13, if the position determination unit 9 determines that there is no set positional relationship, step S15 is executed. On the other hand, when the position determination unit 9 determines that the set positional relationship exists, step S14 is executed.

ステップS14においては、図9に示すように、補正部10が、正面オブジェクト15及び背面オブジェクト16の向きを補正する。具体的には、補正部10は、ゲーム空間20の高さ方向に沿って延びる任意の軸(図9の紙面に垂直な軸)を回転軸として、正面オブジェクト15及び背面オブジェクト16を回転させる。補正の結果、法線25の方向と、キャラクタ21の進行方向とは一致しない状態となるが、図10に示す状態となり、キャラクタ21の消失していた部分(図8参照)が表示される。   In step S14, as shown in FIG. 9, the correction unit 10 corrects the orientations of the front object 15 and the back object 16. Specifically, the correction unit 10 rotates the front object 15 and the back object 16 with an arbitrary axis extending along the height direction of the game space 20 (an axis perpendicular to the paper surface of FIG. 9) as a rotation axis. As a result of the correction, the direction of the normal 25 and the traveling direction of the character 21 do not coincide with each other, but the state shown in FIG. 10 is obtained, and the disappeared portion of the character 21 (see FIG. 8) is displayed.

図9の例では、補正のための回転は、仮想カメラ23側(正面側)から見て角θが90度より小さくなるように行われているが、これに限定されるものではない。角θが90度より大きくなるように補正が行われていても良い。   In the example of FIG. 9, the rotation for correction is performed such that the angle θ is smaller than 90 degrees when viewed from the virtual camera 23 side (front side), but is not limited to this. The correction may be performed so that the angle θ is larger than 90 degrees.

また、補正部10による補正量は、観察者によるキャラクタ21の視認を確実にし、且つ、キャラクタの動きが不自然とならないように設定されていれば良く、特に限定されるものではない。例えば、ゲーム空間20を上方から見たときにおける法線25の角度の変化量をαとするならば、αは上述の点を考慮して設定される。   The correction amount by the correction unit 10 is not particularly limited as long as it is set so that the observer can visually recognize the character 21 and the movement of the character does not become unnatural. For example, if α is the amount of change in the angle of the normal 25 when the game space 20 is viewed from above, α is set in consideration of the above points.

その後、演算部9はレンダリング処理を実行する(ステップS15)。この結果、2次元化されたゲーム映像が得られ、画像処理装置2は、その画像データを表示装置11に出力し、処理を終了する。   Thereafter, the calculation unit 9 performs a rendering process (step S15). As a result, a two-dimensional game image is obtained, and the image processing device 2 outputs the image data to the display device 11 and ends the processing.

このように、図3に示したステップS11〜S15が実行されると、ゲーム画面において、図6に示すゲーム空間20が仮想カメラ23の視点で映し出される。そして、図7及び図8に示す状況が回避されるので、キャラクタ21(正面オブジェクト15及び背面オブジェクト16)が観察者によって視認され難くなる事態の発生は抑制される。また、オブジェクト15及び16は、演算部9に大きな負担を掛ける立体的なオブジェクトではないため、コンピュータの処理速度の向上が図られる。本実施の形態によれば、画像処理における処理負荷の増大の抑制を図りつつ、不自然な映像の発生が抑制される。   As described above, when steps S11 to S15 shown in FIG. 3 are executed, the game space 20 shown in FIG. 6 is projected from the viewpoint of the virtual camera 23 on the game screen. And the situation shown in FIG.7 and FIG.8 is avoided, and generation | occurrence | production of the situation where the character 21 (front object 15 and back object 16) becomes difficult to visually recognize by an observer is suppressed. Further, since the objects 15 and 16 are not three-dimensional objects that place a heavy burden on the arithmetic unit 9, the processing speed of the computer can be improved. According to the present embodiment, the occurrence of unnatural video is suppressed while suppressing an increase in processing load in image processing.

本実施の形態では、ステップS13における位置判定処理や、ステップS14におけるオブジェクト方向補正処理は、ゲーム装置1のプレイヤーの分身となるキャラクタ以外のキャラクタに対して、実行しても良い。このようなキャラクタとしては、例えば、オンラインゲームにおける他のプレイヤーのキャラクタや、コンピュータによって操作されるキャラクタ等が挙げられる。   In the present embodiment, the position determination process in step S13 and the object direction correction process in step S14 may be performed on characters other than the character that is the substitute for the player of the game apparatus 1. Examples of such a character include a character of another player in an online game and a character operated by a computer.

上記の例においては、仮想カメラの視点から注視点を結ぶ視軸24(図7参照)を用いてステップS13の処理における判定が行われているが、本実施形態は特にこの例に限定されるものではない。本実施の形態では、ステップS13の判定は、仮想カメラの視点とキャラクタとを結ぶ軸を用いて行えば良い。例えば仮想カメラの視点からキャラクタの三次元仮想空間内における座標(位置情報)までを結ぶ軸を用いても良い。また、視点と、キャラクタの中心や重心に本制御を行うために設定された代表点とを結ぶ軸を用いても良い。   In the above example, the determination in the process of step S13 is performed using the visual axis 24 (see FIG. 7) connecting the gazing point from the viewpoint of the virtual camera, but this embodiment is particularly limited to this example. It is not a thing. In the present embodiment, the determination in step S13 may be performed using an axis connecting the viewpoint of the virtual camera and the character. For example, an axis connecting from the viewpoint of the virtual camera to the coordinates (position information) of the character in the three-dimensional virtual space may be used. In addition, an axis connecting the viewpoint and a representative point set to perform the main control at the center or the center of gravity of the character may be used.

また、プレイヤーの分身となるキャラクタ以外のキャラクタに対してステップS13を実行する場合においても、判定に用いられる軸としては、上述した軸を用いることができる。なお、注視点は通常、キャラクタ上または仮想カメラから見てキャラクタの奥側に設定されているので、視軸24は視点とキャラクタとを結ぶ軸となる。   In addition, when the step S13 is executed for a character other than the player's character, the axis described above can be used as the axis used for the determination. Note that since the gazing point is normally set on the character or on the deep side of the character when viewed from the virtual camera, the visual axis 24 is an axis connecting the viewpoint and the character.

また、本実施の形態では、2つのオブジェクト15及び16によってキャラクタ21を構成しているが、例えば、キャラクタの背面側からの撮影が行われないゲームであるならば、キャラクタは、正面オブジェクト15のみによって形成されていても良い。更に、本実施の形態では、キャラクタは3つ以上のオブジェクトによって構成されていても良い。この点について、図11〜図14を用いて説明する。   Further, in the present embodiment, the character 21 is constituted by the two objects 15 and 16, but for example, if the game is a case where shooting from the back side of the character is not performed, the character is only the front object 15. It may be formed by. Furthermore, in this embodiment, the character may be composed of three or more objects. This point will be described with reference to FIGS.

図11は、4つのオブジェクトで形成されるキャラクタの構成を正面側から示す斜視図である。図12は、4つのオブジェクトで形成されるキャラクタの構成を背面側から示す斜視図である。図13は、図11及び図12に示したオブジェクトで構成されたキャラクタを示す側面図である。図14は、図11及び図12に示したオブジェクトで構成されたキャラクタを示す斜視図であり、図14(a)はキャラクタを正面側から見たときを示し、図14(b)はキャラクタを背面側から見たときを示している。   FIG. 11 is a perspective view showing the structure of a character formed by four objects from the front side. FIG. 12 is a perspective view showing the structure of a character formed by four objects from the back side. FIG. 13 is a side view showing a character composed of the objects shown in FIGS. 11 and 12. FIG. 14 is a perspective view showing a character composed of the objects shown in FIGS. 11 and 12, FIG. 14 (a) shows the character when viewed from the front side, and FIG. 14 (b) shows the character. Shown when viewed from the back.

図11及び図12に示すように、オブジェクト形成部7は、ステップS11において、正面オブジェクト15及び背面オブジェクト16に加えて、正面オブジェクト15の外形と同一の外形を有するオブジェクト26及び24を形成することもできる。オブジェクト26は、正面オブジェクト15(図4(a)参照)の場合と同様のポリゴンの集合体に、これと同様のテクスチャ画像を貼り付けることによって形成されている。オブジェクト27は、背面オブジェクト16(図4(b)参照)の場合と同様のポリゴンの集合体に、これと同様のテクスチャ画像を貼り付けることによって形成されている。   As shown in FIGS. 11 and 12, the object forming unit 7 forms objects 26 and 24 having the same outer shape as the front object 15 in addition to the front object 15 and the back object 16 in step S11. You can also. The object 26 is formed by pasting a texture image similar to this to an aggregate of polygons similar to the case of the front object 15 (see FIG. 4A). The object 27 is formed by pasting a texture image similar to this to an aggregate of polygons similar to the case of the back object 16 (see FIG. 4B).

但し、オブジェクト26のテクスチャ画像の輝度は、正面オブジェクト15のテクスチャ画像15bの輝度より低く設定されている。オブジェクト26は、背面オブジェクト16から正面オブジェクト15に向かう方向(正面方向)側に、正面オブジェクト15の正面方向側の面よりも輝度が低い面を有している。このため、後述するように、オブジェクト26は、正面オブジェクト15の影となることができる(以下、オブジェクト26は「正面影オブジェクト26」とする。)。   However, the brightness of the texture image of the object 26 is set lower than the brightness of the texture image 15b of the front object 15. The object 26 has a surface with lower brightness than the surface of the front object 15 on the front direction side on the direction (front direction) from the back object 16 toward the front object 15. Therefore, as will be described later, the object 26 can be a shadow of the front object 15 (hereinafter, the object 26 is referred to as a “front shadow object 26”).

同様に、オブジェクト27のテクスチャ画像の輝度は、背面オブジェクト16のテクスチャ画像16bの輝度より低く設定されている。オブジェクト27は、正面方向の反対方向(背面方向)側に、背面オブジェクト16の背面方向側の面よりも輝度が低い面を有している。このため、オブジェクト27は、背面オブジェクト16の影となることができる(以下、オブジェクト27は「背面影オブジェクト27」とする。)。   Similarly, the brightness of the texture image of the object 27 is set lower than the brightness of the texture image 16 b of the back object 16. The object 27 has a surface whose luminance is lower than the surface of the back object 16 on the back direction side on the side opposite to the front direction (back direction). Therefore, the object 27 can be a shadow of the back object 16 (hereinafter, the object 27 is referred to as a “back shadow object 27”).

なお、後述するように、正面オブジェクト15及び正面影オブジェクト26においてテクスチャ画像が貼り付けられている側と、背面オブジェクト16及び背面影オブジェクト27においてテクスチャ画像が貼り付けられている側とは、正反対となる。このため、図11の状態では、実際には、観察者は、背面オブジェクト16と背面影オブジェクト27とを視認することができず、これらについては破線で表示されている。同様に、図12においては、実際には、観察者は、正面オブジェクト15と正面影オブジェクト26とを視認することができず、これらについては破線で表示されている。   As will be described later, the side where the texture image is pasted in the front object 15 and the front shadow object 26 and the side where the texture image is pasted in the back object 16 and the back shadow object 27 are opposite to each other. Become. For this reason, in the state of FIG. 11, the observer cannot actually visually recognize the back object 16 and the back shadow object 27, and these are displayed by broken lines. Similarly, in FIG. 12, actually, the observer cannot visually recognize the front object 15 and the front shadow object 26, and these are displayed by broken lines.

また、正面影オブジェクト26及び背面影オブジェクト27の頂点座標も、予め、スケルトンモデル17(図5及び図13参照)の対応する関節26に関連付けられている。よって、スケルトンモデル17の関節を動作すると、オブジェクト15及び16に加えて、オブジェクト26及び27も同時に動作(変形)する。   The vertex coordinates of the front shadow object 26 and the back shadow object 27 are also associated with the corresponding joints 26 of the skeleton model 17 (see FIGS. 5 and 13) in advance. Therefore, when the joint of the skeleton model 17 is moved, in addition to the objects 15 and 16, the objects 26 and 27 are simultaneously moved (deformed).

また、オブジェクト26及び27が形成されるときは、レイアウト部8は、ステップS12において、オブジェクト26及び27の配置も実行する。このとき、レイアウト部8は、更に、正面影オブジェクト26を、正面オブジェクト15と背面オブジェクト16との間に、正面影オブジェクト26が面方向において正面オブジェクトに平行となるようにして、配置する(図5及び図6参照)。また、レイアウト部8は、背面影オブジェクト27を、正面オブジェクト15と正面影オブジェクト26との間に、背面影オブジェクト27が面方向において背面オブジェクト16に平行となるようにして、配置する(図11及び図12参照)。   When the objects 26 and 27 are formed, the layout unit 8 also executes the arrangement of the objects 26 and 27 in step S12. At this time, the layout unit 8 further arranges the front shadow object 26 between the front object 15 and the back object 16 so that the front shadow object 26 is parallel to the front object in the plane direction (see FIG. 5 and FIG. 6). Further, the layout unit 8 arranges the back shadow object 27 between the front object 15 and the front shadow object 26 so that the back shadow object 27 is parallel to the back object 16 in the plane direction (FIG. 11). And FIG. 12).

更に、レイアウト部8は、正面影オブジェクト26のテクスチャ画像が貼り付けられた面が正面オブジェクト15を向き、又、背面影オブジェクト27のテクスチャ画像が貼り付けられた面が正面影オブジェクト26を向くように、正面影オブジェクト26と背面影オブジェクト27との配置を実行する。   Further, the layout unit 8 causes the surface on which the texture image of the front shadow object 26 is pasted to face the front object 15, and the surface on which the texture image of the back shadow object 27 is pasted faces the front shadow object 26. In addition, the arrangement of the front shadow object 26 and the back shadow object 27 is executed.

また、図8に示すように、レイアウト部8は、正面オブジェクト15と正面影オブジェクト26との距離L1や、背面オブジェクト16と背面影オブジェクト27との距離L2の値を設定された値とする。距離L1及びL2の設定は、制御部4によって行われていても良いし、レイアウト部8が仮想カメラとこれらオブジェクトとの位置関係に応じて適宜行っても良い。本実施の形態では、距離L1及び距離L2は、これらのオブジェクトによって形成されるキャラクタに立体感がでるように、設定されていれば良い。   As shown in FIG. 8, the layout unit 8 sets the values of the distance L1 between the front object 15 and the front shadow object 26 and the distance L2 between the back object 16 and the back shadow object 27 as set values. The settings of the distances L1 and L2 may be performed by the control unit 4, or the layout unit 8 may appropriately perform according to the positional relationship between the virtual camera and these objects. In the present embodiment, the distance L1 and the distance L2 only need to be set so that the character formed by these objects has a three-dimensional effect.

また、正面オブジェクト15と背面影オブジェクト27との距離L3(図8参照)や、背面オブジェクト16と正面影オブジェクト26との距離L4は、可能な限りゼロに近い値に設定されているのが好ましい。これは、これらオブジェクトで形成されたキャラクタのゲーム空間内での移動に合わせて、仮想カメラとこれらオブジェクトとの位置関係が変化する場合において、キャラクタの立体感に不自然さが生じにくいようにするためである。なお、図13に示すように、スケルトンモデル17は、正面影モデル23と背面影モデル24との間に配置される。   Further, the distance L3 (see FIG. 8) between the front object 15 and the back shadow object 27 and the distance L4 between the back object 16 and the front shadow object 26 are preferably set to values as close to zero as possible. . This makes it difficult for unnaturalness to occur in the stereoscopic effect of the character when the positional relationship between the virtual camera and these objects changes in accordance with the movement of the character formed by these objects in the game space. Because. As shown in FIG. 13, the skeleton model 17 is arranged between the front shadow model 23 and the back shadow model 24.

このような4つのオブジェクトの形成及び配置が実行されると、図14に示すキャラクタがゲーム空間内に構築される。図14に示すキャラクタは、厚みの無い面状のオブジェクトのみによって構成されているにも拘わらず、ゲーム装置のプレイヤーを含む観察者には、厚みを持った立体的なキャラクタに見える。また、オブジェクト15、16、26及び27は、演算部9に大きな負担を掛ける立体的なオブジェクトではないため、コンピュータの処理負担を大きくするものではない。   When such formation and arrangement of the four objects are executed, the character shown in FIG. 14 is constructed in the game space. The character shown in FIG. 14 appears to be a three-dimensional character having a thickness for an observer including a player of the game apparatus, even though the character is composed only of a planar object having no thickness. Further, the objects 15, 16, 26, and 27 are not three-dimensional objects that place a heavy burden on the arithmetic unit 9, and therefore do not increase the processing load on the computer.

なお、擬人化されたキャラクタについてのみ、複数個の面状のオブジェクトによる形成が行われているが、本実施の形態は、これに限定されるものではない。例えば、画像処理装置2は、ゲーム中に表示される各種のアイテム、建物、乗物等を、複数個の面状のオブジェクトによって形成することもできる。   Note that only anthropomorphic characters are formed by a plurality of planar objects, but this embodiment is not limited to this. For example, the image processing apparatus 2 can also form various items, buildings, vehicles, and the like displayed during the game with a plurality of planar objects.

また、例えば、キャラクタの背面からの撮影が行われないゲームであるならば、キャラクタは、正面オブジェクト15と正面影オブジェクト26との二つのオブジェクトのみによって形成されていても良い。更に、キャラクタの背面からの撮影が短時間しか行われないのであれば、キャラクタは、正面オブジェクト15、正面影オブジェクト26、及び背面オブジェクト16の三つのオブジェクトによって形成されていても良い。   Further, for example, if the game does not involve shooting from the back of the character, the character may be formed by only two objects, the front object 15 and the front shadow object 26. Furthermore, if the shooting from the back of the character is performed only for a short time, the character may be formed by three objects: the front object 15, the front shadow object 26, and the back object 16.

次に、本実施の形態におけるプログラム及びコンピュータについて、図15を用いて具体的に説明する。図15は、本発明の実施の形態におけるコンピュータの一例を示すブロック図である。   Next, a program and a computer in this embodiment will be specifically described with reference to FIG. FIG. 15 is a block diagram illustrating an example of a computer according to an embodiment of the present invention.

図15に示すように、本実施の形態におけるコンピュータ30は、CPU(central processing unit)31、RAM(random access memory)32、ROM(read only memory)33、グラフィックボード34、ハードディスク(HDD)35、インターフェイス回路(I/F回路)36、及び光ディスクドライブ37を備えている。   As shown in FIG. 15, a computer 30 in this embodiment includes a central processing unit (CPU) 31, a random access memory (RAM) 32, a read only memory (ROM) 33, a graphic board 34, a hard disk (HDD) 35, An interface circuit (I / F circuit) 36 and an optical disk drive 37 are provided.

本実施の形態におけるプログラムは、図2に示したステップS1〜S8、及び図3に示したステップS11〜S15をコンピュータ30に具現化させるゲームプログラムである。このプログラムは、記録媒体(光ディスク)12に格納された状態で提供され、光ディスクドライブ37を介してコンピュータ30にインストールされる。なお、本実施の形態におけるプログラムは、図3に示したステップS11〜S15のみをコンピュータ30に具現化させる画像処理プログラムであっても良い。   The program in the present embodiment is a game program that causes the computer 30 to implement steps S1 to S8 shown in FIG. 2 and steps S11 to S15 shown in FIG. This program is provided in a state stored in the recording medium (optical disk) 12 and is installed in the computer 30 via the optical disk drive 37. The program in the present embodiment may be an image processing program that causes the computer 30 to implement only steps S11 to S15 shown in FIG.

本実施の形態におけるプログラムがコンピュータ30によって実行されると、CPU31は、制御部4、オブジェクト形成部7、レイアウト部8、位置判定部9、補正部10及び演算部11として機能し、ステップS1〜S8の処理を実行する。また、グラフィックボード34が、画像処理用のCPUを備えている場合であれば、グラフィックボード34のCPUが、オブジェクト形成部7、レイアウト部8、位置判定部9、補正部10及び演算部11として機能し、ステップS6(ステップS11〜S15)及びS7の処理を実行する。   When the program in the present embodiment is executed by the computer 30, the CPU 31 functions as the control unit 4, the object formation unit 7, the layout unit 8, the position determination unit 9, the correction unit 10, and the calculation unit 11, and steps S1 to S1. The process of S8 is executed. Further, if the graphic board 34 includes a CPU for image processing, the CPU of the graphic board 34 serves as the object forming unit 7, the layout unit 8, the position determination unit 9, the correction unit 10, and the calculation unit 11. Functions, and executes the processes of steps S6 (steps S11 to S15) and S7.

更に、本実施の形態では、コンピュータ30のRAM32、ROM33及びハードディスク35が、ゲーム装置1の記憶部5(図1参照)として機能し、光ディスクドライブ37が読み取り装置6(図1参照)として機能する。このように、本実施の形態におけるプログラムをコンピュータ30にインストールし、これを実行することによって、本実施の形態におけるゲーム装置1及び画像処理装置2が実現される。   Furthermore, in this embodiment, the RAM 32, ROM 33, and hard disk 35 of the computer 30 function as the storage unit 5 (see FIG. 1) of the game apparatus 1, and the optical disc drive 37 functions as the reading device 6 (see FIG. 1). . As described above, the game apparatus 1 and the image processing apparatus 2 in the present embodiment are realized by installing the program in the present embodiment on the computer 30 and executing the program.

また、本実施の形態におけるゲーム装置1及び画像処理装置2は、オンラインゲームにおいて有効である。この点について、図16を用いて説明する。図16は、本発明の実施の形態におけるゲーム装置を用いたオンラインゲームシステムを示す図である。   Further, the game apparatus 1 and the image processing apparatus 2 in the present embodiment are effective in an online game. This point will be described with reference to FIG. FIG. 16 is a diagram showing an online game system using the game device according to the embodiment of the present invention.

図16に示すように、複数個のゲーム装置1は、インターネット38を介して、サーバ装置39に接続されている。図16においては、図中左側のゲーム装置1のプレイヤーAはキャラクタ40の操作を行い、図中右側のゲーム装置1のプレイヤーBはキャラクタ41の操作を行っている。   As shown in FIG. 16, the plurality of game devices 1 are connected to a server device 39 via the Internet 38. In FIG. 16, the player A of the game apparatus 1 on the left side in the figure operates the character 40, and the player B of the game apparatus 1 on the right side in the figure operates the character 41.

各ゲーム装置1は、自己のキャラクタのID、ゲーム空間における位置情報、ベクトル情報等をサーバ装置39に送信する。サーバ装置39は、受け取った情報を、それを必要とするゲーム装置1に送信する。例えば、ゲーム空間内に複数のエリアが設定されている場合は、サーバ装置39は同一のエリア内に存在しているキャラクタを特定する。そして、サーバ装置39は、特定された各キャラクタのゲーム装置1間で情報が共有されるようにするため、各ゲーム装置1に、他のゲーム装置1のキャラクタの情報を送信する。   Each game device 1 transmits its own character ID, position information in the game space, vector information, and the like to the server device 39. The server device 39 transmits the received information to the game device 1 that needs it. For example, when a plurality of areas are set in the game space, the server device 39 identifies characters existing in the same area. Then, the server device 39 transmits information on the characters of the other game devices 1 to each game device 1 so that the information is shared between the game devices 1 of the identified characters.

このようなサーバ装置39による情報の送信により、各ゲーム装置1では、共通のゲーム空間内で同時に同一のゲーム進行が行われる。また、このとき、各ゲーム装置1は、送信されてきた情報に基づき、自己の仮想カメラからみた映像に写っているキャラクタを全て表示させる必要がある。   Due to the transmission of information by the server device 39, the same game progress is simultaneously performed in each game device 1 in the common game space. At this time, each game apparatus 1 needs to display all the characters shown in the video viewed from its own virtual camera based on the transmitted information.

よって、オンラインゲームシステムにおいては、各プレイヤーのキャラクタが、データ量の大きい立体的なオブジェクトによって形成されていると、各ゲーム装置1が処理すべきデータ量は大きく増加する。この結果、ゲーム装置1における処理負荷が増大し、ゲーム装置1がサーバ装置39から情報を受け取ってから表示するまでの間に大きなズレが生じたり、ゲーム装置1がサーバ装置39に情報を送信するのが遅れたりしてしまう。また、このような問題が生じると、プレイヤーにおいては、ゲームがつまらないものとなってしまう。   Therefore, in the online game system, if each player's character is formed by a three-dimensional object having a large amount of data, the amount of data to be processed by each game apparatus 1 is greatly increased. As a result, the processing load on the game apparatus 1 increases, and a large shift occurs between the time when the game apparatus 1 receives information from the server apparatus 39 and the time when the information is displayed, or the game apparatus 1 transmits information to the server apparatus 39. Will be delayed. If such a problem occurs, the game will be boring for the player.

しかし、本実施の形態では、上述したように、各キャラクタは厚みの無いオブジェクトで形成されており、ゲーム装置1における負荷は小さくなっている。本実施の形態によれば、処理速度の低下によって、ゲームがつまらなくなる事態が回避される。   However, in this embodiment, as described above, each character is formed of an object having no thickness, and the load on the game apparatus 1 is reduced. According to the present embodiment, a situation where the game becomes boring due to a decrease in processing speed is avoided.

また、本実施の形態におけるゲーム装置1を用いているため、プレイヤーのキャラクタや、他のゲーム装置1のプレイヤーのキャラクタが、各ゲーム装置1の画面から消失したり、見え難くなったりする事態も回避される。   In addition, since the game device 1 according to the present embodiment is used, the player character and the player character of the other game device 1 may disappear from the screen of each game device 1 or become difficult to see. Avoided.

以上のように本発明によれば、画像処理における処理負荷の増大の抑制を図りつつ、観察者において、仮想三次元空間内のオブジェクトが視認され難くなる事態の発生を抑制し得ることから、本発明のプログラム及びコンピュータは、産業上の利用可能性を有するものである。   As described above, according to the present invention, it is possible to suppress the occurrence of a situation in which it is difficult for an observer to visually recognize an object in a virtual three-dimensional space while suppressing an increase in processing load in image processing. The program and computer of the invention have industrial applicability.

図1は、本発明の実施の形態における画像処理装置及びゲーム装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an image processing device and a game device according to an embodiment of the present invention. 図2は、本発明の実施の形態におけるゲーム装置で行われる処理を示すフロー図である。FIG. 2 is a flowchart showing processing performed in the game device according to the embodiment of the present invention. 図3は、本発明の実施の形態における画像処理で行われる処理を示すフロー図であり、図2に示したステップS6の処理を具体的に示している。FIG. 3 is a flowchart showing the processing performed in the image processing according to the embodiment of the present invention, and specifically shows the processing in step S6 shown in FIG. 図4は、本発明の実施の形態で用いられるオブジェクトの一例を示す図であり、図4(a)はキャラクタの正面に相当するオブジェクトを示し、図4(b)はキャラクタの背面に相当するオブジェクトを示している。4A and 4B are diagrams showing an example of an object used in the embodiment of the present invention. FIG. 4A shows an object corresponding to the front of the character, and FIG. 4B corresponds to the back of the character. Indicates an object. 図5は、図4に示したオブジェクトを動かすためのスケルトンモデルを示す図である。FIG. 5 is a diagram showing a skeleton model for moving the object shown in FIG. 図6は、図4に示したオブジェクトを三次元仮想空間内に配置した状態を示す図である。FIG. 6 is a diagram illustrating a state in which the object illustrated in FIG. 4 is arranged in the three-dimensional virtual space. 図7は、設定された位置関係にあるオブジェクト及び仮想カメラを上方から見た図である。FIG. 7 is a view of an object and a virtual camera having a set positional relationship as viewed from above. 図8は、図7に示すオブジェクトを仮想カメラから見た図である。FIG. 8 is a view of the object shown in FIG. 7 as seen from the virtual camera. 図9は、図7に示すオブジェクトの向きを補正した状態を上方から見た図である。FIG. 9 is a view of the state of the object shown in FIG. 7 corrected from above. 図10は、図9に示すオブジェクトを仮想カメラから見た図である。FIG. 10 is a view of the object shown in FIG. 9 as seen from the virtual camera. 図11は、4つのオブジェクトで形成されるキャラクタの構成を正面側から示す斜視図である。FIG. 11 is a perspective view showing the structure of a character formed by four objects from the front side. 図12は、4つのオブジェクトで形成されるキャラクタの構成を背面側から示す斜視図である。FIG. 12 is a perspective view showing the structure of a character formed by four objects from the back side. 図13は、図11及び図12に示したオブジェクトで構成されたキャラクタを示す側面図である。FIG. 13 is a side view showing a character composed of the objects shown in FIGS. 11 and 12. 図14は、図11及び図12に示したオブジェクトで構成されたキャラクタを示す斜視図であり、図14(a)はキャラクタを正面側から見たときを示し、図14(b)はキャラクタを背面側から見たときを示している。FIG. 14 is a perspective view showing a character composed of the objects shown in FIGS. 11 and 12, FIG. 14 (a) shows the character when viewed from the front side, and FIG. 14 (b) shows the character. Shown when viewed from the back. 図15は、本発明の実施の形態におけるコンピュータの一例を示すブロック図である。FIG. 15 is a block diagram illustrating an example of a computer according to an embodiment of the present invention. 図16は、本発明の実施の形態におけるゲーム装置を用いたオンラインゲームシステムを示す図である。FIG. 16 is a diagram showing an online game system using the game device according to the embodiment of the present invention.

符号の説明Explanation of symbols

1 ゲーム装置
2 画像処理装置
3 入力インターフェイス
4 制御部
5 記憶部
6 読取装置
7 オブジェクト形成部
8 レイアウト部
9 演算部
10 入力機器
11 表示装置
12 光ディスク
15 正面オブジェクト
15a ポリゴン
15b テクスチャ画像
16 背面オブジェクト
16a ポリゴン
16b テクスチャ画像
17 スケルトンモデル
18 ボーン
19 関節
20 ゲーム空間
21 キャラクタ
22 セル
23 仮想カメラ
24 視軸
25 法線
26 正面影オブジェクト
27 背面影オブジェクト
30 コンピュータ
31 CPU
32 RAM
33 ROM
34 グラフィックボード
35 ハードディスク
36 インターフェイス回路
37 光ディスクドライブ
38 インターネット
39 サーバ装置
40、41 キャラクタ
DESCRIPTION OF SYMBOLS 1 Game device 2 Image processing device 3 Input interface 4 Control part 5 Memory | storage part 6 Reading apparatus 7 Object formation part 8 Layout part 9 Arithmetic part 10 Input apparatus 11 Display apparatus 12 Optical disk 15 Front object 15a Polygon 15b Texture image 16 Back surface object 16a Polygon 16b Texture image 17 Skeleton model 18 Bone 19 Joint 20 Game space 21 Character 22 Cell 23 Virtual camera 24 Visual axis 25 Normal 26 Front shadow object 27 Back shadow object 30 Computer 31 CPU
32 RAM
33 ROM
34 Graphic board 35 Hard disk 36 Interface circuit 37 Optical disk drive 38 Internet 39 Server device 40, 41 Character

Claims (9)

仮想カメラを通して得られた三次元仮想空間内の映像を二次元画面に表示するための画像処理装置を、コンピュータによって、実現するためのプログラムであって、
前記コンピュータを、前記画像処理装置の、
面状のポリゴンの集合体の一方の面にテクスチャ画像を貼り付けて、面状のオブジェクトを形成するオブジェクト形成部、
前記三次元仮想空間内に前記オブジェクトを配置するレイアウト部、
前記三次元仮想空間を上方から見たときにおける、前記仮想カメラの視点から前記オブジェクトまでを結ぶ軸と、前記ポリゴンの集合体の一方の面の法線とのなす角度を特定し、前記角度が、設定された範囲内にあるときに、前記オブジェクトと前記仮想カメラとが、設定された位置関係にある、と判定する位置判定部、及び
前記位置判定部が設定された位置関係にあると判定したときに、前記オブジェクトの向きを補正する補正部、
として機能させることを特徴とするプログラム。
A program for realizing, by a computer, an image processing device for displaying a video in a three-dimensional virtual space obtained through a virtual camera on a two-dimensional screen,
The computer is connected to the image processing apparatus.
An object forming unit that forms a planar object by pasting a texture image on one surface of a collection of planar polygons ;
A layout unit for arranging the object in the three-dimensional virtual space;
When the three-dimensional virtual space is viewed from above, an angle formed between an axis connecting from the viewpoint of the virtual camera to the object and a normal of one surface of the polygon aggregate is determined, and the angle is A position determination unit that determines that the object and the virtual camera are in a set positional relationship when within the set range , and a determination that the position determination unit is in a set positional relationship A correction unit for correcting the orientation of the object,
A program characterized by functioning as
前記補正部が、前記三次元仮想空間を上方から見たときにおける前記法線の角度の変化量が、設定された値となるように、前記オブジェクトの向きを変更する請求項に記載のプログラム。 The program according to claim 1 , wherein the correction unit changes the direction of the object such that a change amount of the normal angle when the three-dimensional virtual space is viewed from above becomes a set value. . 前記オブジェクト形成部が、前記オブジェクトの外形と同一の外形を有する第2のオブジェクトを形成し、
前記レイアウト部が、前記オブジェクトと前記第2のオブジェクトとを、設定された距離を置いて、両者が面方向において互いに平行となるようにして配置する、請求項1または2に記載のプログラム。
The object forming unit forms a second object having the same outer shape as the object;
The program according to claim 1 or 2 , wherein the layout unit arranges the object and the second object at a set distance so that they are parallel to each other in the plane direction.
前記オブジェクト形成部が、面状のポリゴンの集合体の一方の面にテクスチャ画像を貼り付けることによって前記オブジェクト及び前記第2のオブジェクトを形成し、更に、複数個の関節を有するスケルトンモデルを設定し、
前記オブジェクト及び前記第2のオブジェクトそれぞれのポリゴンの頂点座標は、予め、前記スケルトンモデルの動作に応じて前記オブジェクト及び前記第2のオブジェクトが同時に動作するように、前記スケルトンモデルの対応する関節に関連付けられており、
前記レイアウト部は、前記オブジェクト及び前記第2のオブジェクトが一体となって前記三次元仮想空間内を移動するように、これらの位置関係を設定している、
請求項に記載のプログラム。
The object forming unit forms the object and the second object by pasting a texture image on one surface of a collection of planar polygons, and further sets a skeleton model having a plurality of joints. ,
The vertex coordinates of the polygons of the object and the second object are previously associated with the corresponding joints of the skeleton model so that the object and the second object operate simultaneously according to the operation of the skeleton model. And
The layout unit sets the positional relationship so that the object and the second object move together in the three-dimensional virtual space.
The program according to claim 3 .
前記第2のオブジェクトから前記オブジェクトに向かう方向を第1の方向としたときに、
前記オブジェクト形成部は、
前記第2のオブジェクトの第1の方向側の面の輝度が、前記オブジェクトの第1の方向側の面の輝度よりも低くなるように、前記オブジェクトと前記第2のオブジェクトとを形成する、請求項に記載のプログラム。
When the direction from the second object toward the object is the first direction,
The object forming unit
The object and the second object are formed such that the luminance of the surface on the first direction side of the second object is lower than the luminance of the surface on the first direction side of the object. Item 4. The program according to item 3 .
前記第2のオブジェクトから前記オブジェクトに向かう方向を第1の方向としたときに、
前記オブジェクト形成部は、更に、外形が前記オブジェクトの外形と同一であり、且つ、前記オブジェクトの第1の方向側の面よりも輝度が低く設定された面を第1の方向側に有する第3のオブジェクトを形成し、
前記レイアウト部は、前記第3のオブジェクトを、面方向において前記オブジェクトに平行した状態で、前記オブジェクトと前記第2のオブジェクトとの間に、前記オブジェクトからの距離が設定された値となるようにして配置する、請求項に記載のプログラム。
When the direction from the second object toward the object is the first direction,
The object forming unit further includes a third surface on the first direction side whose outer shape is the same as the outer shape of the object and whose luminance is set lower than a surface of the object on the first direction side. Form an object of
The layout unit sets the third object to a value in which a distance from the object is set between the object and the second object in a state parallel to the object in the plane direction. The program according to claim 3 , wherein the program is arranged.
前記第1の方向の反対方向を第2の方向としたときに、
前記オブジェクト形成部は、更に、外形が前記オブジェクトの外形と同一であり、且つ、前記第2のオブジェクトの第2の方向側の面よりも輝度が低く設定された面を第2の方向側に有する第4のオブジェクトを形成し、
前記レイアウト部は、前記第4のオブジェクトを、面方向において前記第2のオブジェクトに平行にした状態で、前記オブジェクトと前記第3のオブジェクトとの間に、前記第2のオブジェクトからの距離が設定された値となるようにして配置する、請求項に記載のプログラム。
When the direction opposite to the first direction is the second direction,
The object forming unit further has a surface whose outer shape is the same as the outer shape of the object and whose luminance is set lower than a surface of the second object on the second direction side in the second direction side. Forming a fourth object having,
The layout unit sets a distance from the second object between the object and the third object in a state where the fourth object is parallel to the second object in the plane direction. The program according to claim 6 , wherein the program is arranged so as to have a set value.
前記オブジェクト形成部が、面状のポリゴンの集合体の一方の面にテクスチャ画像を貼り付けることによって前記オブジェクト、前記第2のオブジェクト、前記第3のオブジェクト及び前記第4のオブジェクトを形成し、更に、複数個の関節を有するスケルトンモデルを設定し、
前記オブジェクト、前記第2のオブジェクト、前記第3のオブジェクト及び前記第4のオブジェクトそれぞれのポリゴンの頂点座標は、予め、前記スケルトンモデルの動作に応じて前記オブジェクト、前記第2のオブジェクト、前記第3のオブジェクト及び前記第4のオブジェクトが同時に動作するように、前記スケルトンモデルの対応する関節に関連付けられており、
前記レイアウト部は、前記オブジェクト、前記第2のオブジェクト、前記第3のオブジェクト及び前記第4のオブジェクトが一体となって前記三次元仮想空間内を移動するように、これらの位置関係を設定している、
請求項に記載のプログラム。
The object forming unit forms the object, the second object, the third object, and the fourth object by pasting a texture image on one surface of a collection of planar polygons, and Set a skeleton model with multiple joints,
The vertex coordinates of the polygons of the object, the second object, the third object, and the fourth object are determined in advance in accordance with the operation of the skeleton model, the object, the second object, and the third object, respectively. Associated with the corresponding joint of the skeleton model such that the object and the fourth object operate simultaneously,
The layout unit sets the positional relationship so that the object, the second object, the third object, and the fourth object move together in the three-dimensional virtual space. Yes,
The program according to claim 7 .
上記請求項1から上記請求項のいずれかに記載のプログラムを記憶した記憶部と、
前記記憶部から前記プログラムを読み出して実行する制御部と、
を備えていることを特徴とするコンピュータ。
A storage unit storing the program according to any one of claims 1 to 8 ;
A control unit that reads and executes the program from the storage unit;
Computer, characterized in that it comprises a.
JP2008024619A 2008-02-04 2008-02-04 Program and computer Active JP5073520B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008024619A JP5073520B2 (en) 2008-02-04 2008-02-04 Program and computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008024619A JP5073520B2 (en) 2008-02-04 2008-02-04 Program and computer

Publications (2)

Publication Number Publication Date
JP2009187148A JP2009187148A (en) 2009-08-20
JP5073520B2 true JP5073520B2 (en) 2012-11-14

Family

ID=41070342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008024619A Active JP5073520B2 (en) 2008-02-04 2008-02-04 Program and computer

Country Status (1)

Country Link
JP (1) JP5073520B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3269814B2 (en) * 1999-12-03 2002-04-02 株式会社ナムコ Image generation system and information storage medium

Also Published As

Publication number Publication date
JP2009187148A (en) 2009-08-20

Similar Documents

Publication Publication Date Title
JP4651435B2 (en) Program, information storage medium, and image generation system
JP4948218B2 (en) Image processing apparatus and control method thereof
US8602888B2 (en) Video game device and image processing program
JP4180065B2 (en) Image generation method, image generation apparatus, and image generation program
JP5822655B2 (en) GAME PROCESSING SYSTEM, GAME PROCESSING METHOD, GAME PROCESSING DEVICE, AND GAME PROCESSING PROGRAM
JP5887160B2 (en) Image processing system, game system, image processing method, image processing apparatus, and computer program
JP5960409B2 (en) GAME PROCESSING SYSTEM, GAME PROCESSING METHOD, GAME PROCESSING DEVICE, AND GAME PROCESSING PROGRAM
JP4717622B2 (en) Program, information recording medium, and image generation system
JP4082937B2 (en) GAME SYSTEM AND GAME PROGRAM
KR100589812B1 (en) Image display method and image display device
JP3748451B1 (en) Program, information storage medium, and image generation system
EP2065853A1 (en) Image processing device, control method for image processing device and information recording medium
JP2009070340A (en) Skeleton operation control system, program, and information storage medium
JP4334961B2 (en) Image generation information, information storage medium, and image generation apparatus
JP4560711B2 (en) Image processing
JP5073520B2 (en) Program and computer
JP5088972B2 (en) Image processing apparatus, image processing method, computer program, recording medium, and semiconductor device
JP2009187147A (en) Program and computer
JP2009169471A (en) Program, information storage medium, and image generation system
JP4443716B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
JP5063022B2 (en) Program, information storage medium, and image generation system
JP4229316B2 (en) Image generation system, program, and information storage medium
US7173618B2 (en) Image creation program and method of creating image
JP4662260B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120229

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120426

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120808

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120822

R150 Certificate of patent or registration of utility model

Ref document number: 5073520

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250