JP2011039828A - System and method for processing image - Google Patents

System and method for processing image Download PDF

Info

Publication number
JP2011039828A
JP2011039828A JP2009187296A JP2009187296A JP2011039828A JP 2011039828 A JP2011039828 A JP 2011039828A JP 2009187296 A JP2009187296 A JP 2009187296A JP 2009187296 A JP2009187296 A JP 2009187296A JP 2011039828 A JP2011039828 A JP 2011039828A
Authority
JP
Japan
Prior art keywords
model
viewpoint
interpolation
image
viewpoint direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009187296A
Other languages
Japanese (ja)
Other versions
JP4918577B2 (en
Inventor
Tahei Katagai
太平 片貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2009187296A priority Critical patent/JP4918577B2/en
Priority to PCT/JP2009/070408 priority patent/WO2011018860A1/en
Publication of JP2011039828A publication Critical patent/JP2011039828A/en
Application granted granted Critical
Publication of JP4918577B2 publication Critical patent/JP4918577B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing system allowing higher-level two-dimensional display by use of a three-dimensional model. <P>SOLUTION: When a viewpoint position VP4 to a character A is present in an interpolation viewpoint direction VDi2, two model viewpoint directions VDm1, VDm2 constituting an interpolation range INr including a viewpoint direction VDi are specified. By interpolating each vertex forming a front model M1 corresponding to one model viewpoint direction VDm1 and each vertex forming a 45° model M2 corresponding to the other model viewpoint direction VDm2, an interpolation image Ima-i2 when viewing the character A from the viewpoint position VP4 is displayed on a monitor 3. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、3次元モデルに基づいて画像を表示する画像処理システム及び画像処理方法に関する。   The present invention relates to an image processing system and an image processing method for displaying an image based on a three-dimensional model.

モデリング時に3次元モデルを1つ生成しておき、レンダリング時に生成された3次元モデル及び視点方向に基づいて、モニタに表示すべき画像を決定する画像処理システムは周知である。しかし、3次元モデルに基づいて2次元媒体であるマンガやアニメ-ションで知られるキャラクタの画像を表示する場合、視点位置から見た3次元モデルを忠実に表示するだけでは、2次元で表現されていたキャラクタの表示上の特徴を損ねる場合がある。この問題に対しては、基準方向から見た所望の基準画像を予め生成しておき、視点方向と基準方向とのずれに応じて、基準画像に配置されたキャラクタのオブジェクトをずらす方法が提案されている(例えば特許文献1参照)。   An image processing system that generates one three-dimensional model during modeling and determines an image to be displayed on a monitor based on the three-dimensional model generated during rendering and the viewpoint direction is well known. However, when displaying an image of a character known in manga or animation, which is a two-dimensional medium, based on the three-dimensional model, it is expressed in two dimensions only by faithfully displaying the three-dimensional model viewed from the viewpoint position. In some cases, the display characteristics of the character that has been lost may be impaired. To solve this problem, a method is proposed in which a desired reference image viewed from the reference direction is generated in advance, and the character object arranged in the reference image is shifted according to the deviation between the viewpoint direction and the reference direction. (For example, refer to Patent Document 1).

特開2007−1567773号公報JP 2007-1567773 A

しかし、上記の処理方法では、基準方向に関する基準画像に設けられたオブジェクトの形状をずらすだけであるため、例えば、視点方向の変化に伴って形状が全く異なるように変化する場合や、細やかな形状の変化を表現することができない。   However, the above processing method only shifts the shape of the object provided in the reference image with respect to the reference direction. For example, when the shape changes completely with the change of the viewpoint direction, I can't express changes.

そこで、本発明は、3次元モデルを使用してより高度な2次元的表示を可能にする画像処理システム及び画像処理方法を提供することを目的とする。   Therefore, an object of the present invention is to provide an image processing system and an image processing method that enable a more advanced two-dimensional display using a three-dimensional model.

本発明は、以下の手段により上述した課題を解決する。なお、本発明の理解を容易にするために添付図面の参照符号を括弧書きにて付記するが、それにより本発明が図示の形態に限定されるものではない。   The present invention solves the above-described problems by the following means. In order to facilitate understanding of the present invention, reference numerals in the accompanying drawings are appended in parentheses, but the present invention is not limited to the illustrated embodiment.

本発明の第1の画像処理システム(1)は、仮想3次元空間(GS)に配置された表示対象体(A)の3次元モデル(M)に基づいて、前記表示対象体に対する視点位置(VP)の方向である視点方向(VD)に応じて前記表示対象体の画像を表示部(3)に表示する画像処理システム(1)であって、前記表示対象体に対して視点位置が第1の視点方向(VDm1)にある場合に、前記表示対象体の3次元モデルとして使用される第1のモデル(M1)を形成するための第1のモデルデータ(MD1)と、前記表示対象体に対して視点位置が、前記表示対象体を中心に前記第1の視点方向が所定の周方向に移動した第2の視点方向(VDm2)にある場合に、前記表示対象体の3次元モデルとして使用される第2のモデル(M2)を形成するための第2のモデルデータ(MD2)を記憶するモデルデータ記憶手段(4)と、前記周方向に関して前記第1の視点方向から前記第2の視点方向までの間に存在する補間視点方向(VDi)に対応する前記表示対象体の2次元画像である補間画像(INima)を、前記第1のモデルデータから得られる前記第1のモデルの各頂点座標と、前記第2のモデルデータから得られる前記第2のモデルの各頂点座標とに基づいて補間処理を行うことにより生成し、前記補間画像を所定の描画領域に描画する補間画像生成手段(5a)と、前記描画領域に描画された前記補間画像を、前記表示対象体に対して視点位置が前記補間視点方向にある場合に、前記視点位置から見た前記表示対象体として、前記表示部に表示する補間画像表示手段(5b)とを有する、ことにより、上記の課題を解決する。   The first image processing system (1) according to the present invention is based on a three-dimensional model (M) of a display target object (A) arranged in a virtual three-dimensional space (GS). The image processing system (1) displays an image of the display object on the display unit (3) according to a viewpoint direction (VD) that is a direction of VP), and the viewpoint position is the first with respect to the display object. First model data (MD1) for forming a first model (M1) to be used as a three-dimensional model of the display object when it is in one viewing direction (VDm1), and the display object As a three-dimensional model of the display object when the viewpoint position is in the second viewpoint direction (VDm2) in which the first viewpoint direction is moved in a predetermined circumferential direction around the display object. Form the second model (M2) used Model data storage means (4) for storing the second model data (MD2) for interpolation, and an interpolation viewpoint direction (VDi) existing between the first viewpoint direction and the second viewpoint direction with respect to the circumferential direction ), An interpolated image (INima), which is a two-dimensional image of the display object, is obtained from each vertex coordinate of the first model obtained from the first model data and from the second model data. Interpolated image generation means (5a) for generating an interpolation image based on each vertex coordinate of the second model and drawing the interpolation image in a predetermined drawing area, and the drawing drawn in the drawing area Interpolated image display means (5b) for displaying an interpolated image on the display unit as the display object viewed from the viewpoint position when the viewpoint position is in the interpolation viewpoint direction with respect to the display object. With the door, by, to solve the foregoing problems.

本発明の第1の画像処理システムによれば、表示対象体を第1の視点方向から見た時に表現されるべき態様が得られるように、第1のモデルを設定し、第2の視点方向から見た時に表現されるべき態様が得られるように、第2のモデルを設定しておけば、当該第1及び第2の視点方向に関して、表示対象体を表現されるべき態様で表現することができる。一方、表示対象体に対する視点位置が、第1の視点方向と第2の視点方向との間の補間視点方向にある時は、第1のモデルを形成するための第1のモデルデータ及び第2のモデルを形成するための第2のモデルデータに基づいて補間処理を行ことにより、表示対象体を当該補間視点方向から見た時の補間画像を生成することができる。これにより、3次元モデルを使用して、2次元的な表現を可能にしつつ、態様の切り替わりを自然に表現することができ、より高度な2次元的表現を可能にする画像処理システムを提供することができる。   According to the first image processing system of the present invention, the first model is set and the second viewpoint direction is set so as to obtain an aspect to be expressed when the display object is viewed from the first viewpoint direction. If the second model is set so that the aspect to be expressed when viewed from the viewpoint is obtained, the display object is expressed in the aspect to be expressed with respect to the first and second viewpoint directions. Can do. On the other hand, when the viewpoint position with respect to the display object is in the interpolation viewpoint direction between the first viewpoint direction and the second viewpoint direction, the first model data and the second model data for forming the first model By performing the interpolation process based on the second model data for forming the model, it is possible to generate an interpolation image when the display object is viewed from the interpolation viewpoint direction. Accordingly, it is possible to provide a two-dimensional expression using a three-dimensional model, and to naturally represent a mode change, and to provide an image processing system that enables a more advanced two-dimensional expression. be able to.

第1のモデルデータ及び第2のモデルデータは、対応するモデルを形成するための頂点座標の集合体である場合と、基準の形状から対応するモデルの頂点座標を得るための関数である場合とを含む。表示対象体は、例えば、ゲームやアニメーションに登場するキャラクタのように顔がある場合と、顔のない無機的な立体形状である場合とを含む。補間画像生成手段では、第1のモデルデータ及び第2のモデルデータのそれぞれから2次元画像を取得して、各2次元画像における座標を補間して、補間画像の座標を得る場合と、第1のモデルデータ及び第2のモデルデータの各頂点座標を補間して、3次元モデルを生成し、生成された3次元モデルから2次元画像を得る場合とを含む。   The first model data and the second model data are a set of vertex coordinates for forming the corresponding model, and a function for obtaining the vertex coordinates of the corresponding model from the reference shape. including. The display object includes, for example, a case where there is a face like a character appearing in a game or animation, and a case where the display target has an inorganic three-dimensional shape without a face. In the interpolated image generating means, a two-dimensional image is obtained from each of the first model data and the second model data, and the coordinates in each two-dimensional image are interpolated to obtain the coordinates of the interpolated image. And interpolating the vertex coordinates of the model data and the second model data to generate a three-dimensional model and obtaining a two-dimensional image from the generated three-dimensional model.

前記第1及び第2のモデルデータのそれぞれには、前記第1のモデルを形成する各頂点と、前記第2のモデルを形成する各頂点とを互いに対応付ける対応付け情報(30)が含まれ、前記補間画像生成手段は、前記各頂点の対応関係を保ちつつ補間処理を行うことにより、前記補間画像を生成してもよい。これにより、補間処理が容易となる。   Each of the first and second model data includes association information (30) that associates each vertex forming the first model with each vertex forming the second model, The interpolation image generation means may generate the interpolation image by performing an interpolation process while maintaining the correspondence between the vertices. This facilitates interpolation processing.

前記第1及び第2のモデルデータのそれぞれにおいて、前記複数のポリゴンの各頂点に対して、前記各頂点がグループを形成するように、対応するグループを識別するグループ識別情報が対応付けられ、前記各グループ毎に前記補間画像生成手段において使用される補間方法が対応付けられて記憶されたグループ補間情報記憶手段(4)が更に設けられ、前記補間画像生成手段は、前記各グループに対応付けられた補間方法によって、そのグループに対応する各頂点座標に基づいた前記補間処理を行うことにより、前記補間画像を生成してもよい。これにより、例えば、表示対象体がキャラクタである場合、キャラクタの髪、鼻、口、目等のパーツをグループとして設定すれば、各パーツはパーツに応じた補間方法によって補間され、パーツによって変化の態様が異なる補間画像を得ることができる。   In each of the first and second model data, group identification information for identifying a corresponding group is associated with each vertex of the plurality of polygons so that each vertex forms a group, A group interpolation information storage unit (4) that stores an interpolation method used in the interpolation image generation unit in association with each group is further provided, and the interpolation image generation unit is associated with each group. The interpolation image may be generated by performing the interpolation processing based on each vertex coordinate corresponding to the group by the interpolation method. Thus, for example, when the display target is a character, if the parts of the character's hair, nose, mouth, eyes, etc. are set as a group, each part is interpolated by an interpolation method according to the part, and changes depending on the part. Interpolated images having different aspects can be obtained.

前記第1の視点方向と前記第2の視点方向との間の補間範囲において設定された前記補間視点方向と、前記第1の視点方向及び前記第2の視点方向のそれぞれとの相対的な位置関係に応じて、前記第1のモデルデータ及び前記第2のモデルデータのそれぞれが、前記補間画像生成手段における補間に与える影響の大きさを示す第1の影響度及び第2の影響度を特定する影響度特定手段(4)を更に有し、前記補間画像生成手段は、前記影響度特定手段により、特定された前記第1の影響度及び前記第2の影響度に基づいて、前記第1のモデルデータから得られる各頂点座標と前記第2のモデルデータから得られる各頂点座標とに基づいた前記補間処理を行ってもよい。   Relative positions of the interpolation viewpoint direction set in the interpolation range between the first viewpoint direction and the second viewpoint direction, and each of the first viewpoint direction and the second viewpoint direction According to the relationship, the first model data and the second model data specify the first and second influence levels indicating the magnitude of the influence on the interpolation in the interpolated image generating means. The interpolated image generating means further includes the first influence degree and the second influence degree specified by the influence degree specifying means based on the first influence degree and the second influence degree. The interpolation processing based on each vertex coordinate obtained from the model data and each vertex coordinate obtained from the second model data may be performed.

これにより、第1のモデルから第2のモデルに変化する態様において、第1のモデル又は第2のモデルの影響を大きくなるように設定したり、どちらか一方の影響を大きくなるように設定することができる。なお、第1及び第2の影響度を特定する方法としては、例えば、第1の視点方向及び第2の視点方向のそれぞれに対する補間視点方向の相対的な位置関係と、影響度とを対応付けて影響度テーブルとして記憶しておき、当該影響度テーブルを参照することにより特定する方法と、第1及び第2の視点方向のそれぞれに対する補間視点方向の相対的な位置関係から各影響度が得られる関数を設定しておき、当該関数から特定する方法とがある。   Thereby, in the aspect which changes from the first model to the second model, the influence of the first model or the second model is set to be large, or the influence of either one is set to be large. be able to. As a method for specifying the first and second influence degrees, for example, the relative positional relationship of the interpolation viewpoint direction with respect to each of the first viewpoint direction and the second viewpoint direction is associated with the influence degree. The degree of influence is obtained from the method of specifying by referring to the degree of influence table and the relative positional relationship of the interpolation viewpoint direction with respect to each of the first and second viewpoint directions. There is a method of specifying a function to be specified and specifying from the function.

前記ユーザの入力操作を受け付ける操作入力手段(2)を更に備え、前記第1のモデルを前記表示部に表示させ、前記ユーザの操作に応じて、前記表示部に表示された第1のモデルの特定部分を切り出す切り出し手段(5c)と、切り出された前記特定部分に対して、前記ユーザによる修正操作を受け付ける修正手段(5d)と、前記特定部分が前記修正手段によって修正された前記第1のモデルを、前記第2のモデルとして設定する第2のモデル設定手段(5e)とを有してもよい。   Operation input means (2) for receiving an input operation of the user is further provided, the first model is displayed on the display unit, and the first model displayed on the display unit is displayed according to the user operation. Cutout means (5c) for cutting out the specific part, correction means (5d) for accepting a correction operation by the user for the cut out specific part, and the first part in which the specific part has been corrected by the correction means You may have a 2nd model setting means (5e) which sets a model as said 2nd model.

本発明の第1の画像処理システムにおいては、複数の3次元モデルを用意する必要があるが、上記発明によれば、1つの3次元モデルを生成しておけば、その生成した3次元モデルに基づいて他の3次元モデルを容易に生成することができる。   In the first image processing system of the present invention, it is necessary to prepare a plurality of three-dimensional models. However, according to the above invention, if one three-dimensional model is generated, the generated three-dimensional model is included in the generated three-dimensional model. Based on this, other three-dimensional models can be easily generated.

前記表示対象体を通り、所定方向に伸びる基準軸(CA)が設定され、前記モデルデータ記憶手段において、第2の視点方向は、前記基準軸を中心に前記第1の視点方向が所定の周方向に移動した方向であり、前記補間画像生成手段には、前記基準軸に対する視点位置の方向を、前記表示対象体に対する視点方向として特定する視点方向特定手段が設けられ、前記特定された視点方向が前記第1の視点方向から前記第2の視点方向までの間に存在する場合に、前記視点方向を前記補間視点方向として前記補間画像を生成してもよい。これにより、表示対象体に対する視点位置の方向を、表示対象体を通る基準軸に対する視点位置の方向として特定することができ、仮想3次元空間における任意の視点位置の視点方向の特定が用意となる。   A reference axis (CA) passing through the display object and extending in a predetermined direction is set, and in the model data storage unit, the second viewpoint direction is centered on the reference axis and the first viewpoint direction is a predetermined circumference. And the interpolation image generating means is provided with a viewpoint direction specifying means for specifying the direction of the viewpoint position with respect to the reference axis as the viewpoint direction with respect to the display object, and the specified viewpoint direction May exist between the first viewpoint direction and the second viewpoint direction, the interpolation image may be generated with the viewpoint direction as the interpolation viewpoint direction. Thereby, the direction of the viewpoint position with respect to the display object can be specified as the direction of the viewpoint position with respect to the reference axis passing through the display object, and the specification of the viewpoint direction of an arbitrary viewpoint position in the virtual three-dimensional space is prepared. .

前記モデルデータ記憶手段は、前記基準軸を中心にした周方向上に設定された複数のモデル視点方向に関して、前記各モデル視点方向に対応する前記表示対象体の3次元モデルを形成するためのモデルデータ(MD)を記憶し、前記補間画像生成手段は、前記視点方向特定手段によって特定された視点方向が、前記補間視点方向である場合に、前記周方向に関して挟まれる2つのモデル視点方向を特定し、一方のモデル視点方向を前記第1の視点方向とし、他方のモデル視点方向を前記第2の視点方向として設定するモデル視点方向設定手段を、更に備え、前記補間画像生成手段は、前記モデル視点方向設定手段によって設定された前記第1の視点方向と前記第2の視点方向に基づいて、前記特定された視点方向に対応する前記補間画像を生成してもよい。これにより、仮想3次元空間における任意の補間視点方向に対応する補間画像を生成することができる。   The model data storage means is a model for forming a three-dimensional model of the display object corresponding to each model viewpoint direction with respect to a plurality of model viewpoint directions set on a circumferential direction around the reference axis. Data (MD) is stored, and the interpolation image generation means specifies two model viewpoint directions sandwiched with respect to the circumferential direction when the viewpoint direction specified by the viewpoint direction specification means is the interpolation viewpoint direction. And further comprising model viewpoint direction setting means for setting one model viewpoint direction as the first viewpoint direction and the other model viewpoint direction as the second viewpoint direction, wherein the interpolated image generating means includes the model Based on the first viewpoint direction and the second viewpoint direction set by the viewpoint direction setting means, the interpolated image corresponding to the specified viewpoint direction is generated. It may be. Thereby, an interpolation image corresponding to an arbitrary interpolation viewpoint direction in the virtual three-dimensional space can be generated.

前記周方向に関して隣接する2つの前記モデル視点方向によって構成される補間範囲毎に、対応する2つのモデルの補間に関する情報が設定された範囲情報(RI)が記憶される補間情報記憶手段(4)を更に備え、前記モデル視点方向特定手段は、前記補間情報記憶手段を参照して、前記特定された視点方向が含まれる補間範囲の範囲情報を特定することにより、前記2つのモデル視点方向を特定し、前記補間画像生成手段は、前記補間に関する情報に基づいて、前記2つのモデルに対応するモデルデータの補間を行ってもよい。これにより、補間範囲に応じて異なる補間方法を設定することができ、表示対象体を見る角度に応じて、より適切な変化の態様を表現することができる。   Interpolation information storage means (4) for storing range information (RI) in which information relating to interpolation of two corresponding models is set for each interpolation range constituted by two model viewpoint directions adjacent to each other in the circumferential direction The model viewpoint direction specifying means specifies the two model viewpoint directions by specifying the range information of the interpolation range including the specified viewpoint direction with reference to the interpolation information storage means. Then, the interpolated image generating means may interpolate model data corresponding to the two models based on the information related to the interpolation. Thereby, a different interpolation method can be set according to the interpolation range, and a more appropriate mode of change can be expressed according to the angle at which the display object is viewed.

前記補間画像生成手段は、前記第1のモデルデータから得られる各頂点座標及び前記第2のモデルデータから得られる各頂点座標を補間することにより、3次元補間モデルを生成する補間モデル生成手段を更に備え、前3次元補間モデルを前記表示対象体の3次元モデルとして前記所定位置に配置し、前記視点位置から所定の注視点を見た時の前記3次元補間モデルから得られる画像を、前記表示対象体の前記補間画像として生成してもよい。   The interpolation image generation means includes an interpolation model generation means for generating a three-dimensional interpolation model by interpolating each vertex coordinate obtained from the first model data and each vertex coordinate obtained from the second model data. Further, the previous three-dimensional interpolation model is arranged at the predetermined position as a three-dimensional model of the display object, and an image obtained from the three-dimensional interpolation model when the predetermined gazing point is viewed from the viewpoint position, You may produce | generate as the said interpolation image of a display target object.

これにより、任意の視点位置から任意の注視点を見た時に表現されるべき表示対象体の補間画像を得ることができる。なお、視点位置から注視点を見た時に得られる画像とは、視点位置を含み、視点位置と注視点とを結ぶ注視ベクトルに垂直な平面に3次元モデルを投影させた画像である。   Thereby, it is possible to obtain an interpolated image of the display object to be expressed when an arbitrary gazing point is viewed from an arbitrary viewpoint position. Note that the image obtained when viewing the gazing point from the viewpoint position is an image obtained by projecting the three-dimensional model onto a plane that includes the viewpoint position and is perpendicular to the gaze vector that connects the viewpoint position and the gazing point.

前記補間画像生成手段は、前記視点位置と前記基準軸からの距離が同じで、前記設定された第1の視点方向にある点を第1の仮視点位置として設定し、前記設定された第1の視点方向に対応する第1のモデルを、前記表示対象体の3次元モデルとして前記所定位置に配置し、前記第1の仮視点位置から所定の注視点を見た時に、前記第1のモデルから得られる第1仮画像を取得する第1の仮画像取得手段と、前記視点位置と前記基準軸からの距離が同じで、前記設定された第2の視点方向にある点を第2の仮視点位置として設定し、前記設定された第2の視点方向に対応する第2のモデルを前記表示対象体の3次元モデルとして前記所定位置に配置し、前記第2の仮視点位置から前記注視点を見た時に、前記第2のモデルから得られる第2仮画像を取得する第2の仮画像取得手段とを更に備え、前記特定された視点方向に応じて、前記第1の仮画像の各頂点座標と前記第2の仮画像の各頂点座標を補間することにより得られる画像を、前記表示対象体に対して前記特定された視点方向にある視点位置から前記注視点を見た時の前記表示体の補間画像として生成してもよい。   The interpolated image generation means sets a point that has the same distance from the viewpoint position and the reference axis and is in the set first viewpoint direction as a first temporary viewpoint position, and sets the set first viewpoint When the first model corresponding to the viewing direction is arranged at the predetermined position as a three-dimensional model of the display object and the predetermined gazing point is viewed from the first temporary viewpoint position, the first model The first temporary image acquisition means for acquiring the first temporary image obtained from the first temporary image acquisition means, and a point in the second viewpoint direction that has the same distance from the viewpoint position and the reference axis and in the set second viewpoint direction. A second position corresponding to the set second viewpoint direction is arranged at the predetermined position as a three-dimensional model of the display object, and the gazing point is determined from the second temporary viewpoint position. The second temporary obtained from the second model Second provisional image obtaining means for obtaining an image, and interpolating each vertex coordinate of the first provisional image and each vertex coordinate of the second provisional image according to the specified viewpoint direction. The image obtained by this may be generated as an interpolated image of the display body when the gazing point is viewed from a viewpoint position in the specified viewpoint direction with respect to the display object.

これにより、2次元画像の座標を補間することにより、補間画像を生成することができる。なお、仮視点位置から注視点を見た時に得られる3次元モデルの画像は、仮視点位置を含み、仮視点位置から注視点を結ぶ注視ベクトルに垂直な平面に3次元モデルが投影された像である。   Thereby, an interpolation image can be generated by interpolating the coordinates of the two-dimensional image. Note that the image of the three-dimensional model obtained when the gazing point is viewed from the temporary viewpoint position includes the temporary viewpoint position and is an image obtained by projecting the three-dimensional model onto a plane perpendicular to the gaze vector connecting the temporary viewpoint position and the gazing point. It is.

前記表示対象体における所定の中心点(CP)を中心にした球状態の仮想領域(G)において、緯線方向(VM)及び経線方向(VL)に分割された複数の領域(VA)が設定され、前記第1のモデルデータは、前記第1の視点方向を含む第1の領域(VAm1)のいずれかの視点方向に視点位置がある場合に、前記表示対象体の3次元モデルとしての前記第1のモデルを形成するためのデータであり、前記第2のモデルデータは、前記中心点を中心に前記第1の領域を周方向に位置する第2の領域(VAm2)のいずれかの視点方向に視点位置がある場合に、前記表示対象体の3次元モデルとしての前記第2のモデルを形成するためのデータであり、前記補間画像生成手段は、前記周方向に関して前記第1の領域から前記第2の領域までの間に存在する補間領域に含まれる前記補間視点方向に視点位置がある場合、前記補間視点方向に対応する補間画像を、前記第1のモデルデータに基づいて得られる各頂点座標と、前記第2のモデルデータに基づいて得られる各頂点座標を補間することにより生成して、所定の描画領域に描画してもよい。   A plurality of regions (VA) divided into a latitude direction (VM) and a meridian direction (VL) are set in a spherical virtual region (G) centered on a predetermined center point (CP) in the display object. The first model data includes the first model data as the three-dimensional model of the display object when the viewpoint position is in any viewpoint direction of the first region (VAm1) including the first viewpoint direction. The second model data is data for forming one model, and the second model data is a viewpoint direction of any one of the second regions (VAm2) positioned in the circumferential direction around the center point. Is the data for forming the second model as a three-dimensional model of the display object, and the interpolated image generation means is configured to output the first region from the first region with respect to the circumferential direction. Up to the second area When there is a viewpoint position in the interpolation viewpoint direction included in the interpolation region existing in the interpolation area, each of the vertex coordinates obtained based on the first model data, an interpolation image corresponding to the interpolation viewpoint direction, and the second Each vertex coordinate obtained based on the model data may be generated by interpolation and drawn in a predetermined drawing area.

これにより、表示対象の全方位に関して、特徴的な態様を有する表示対象体を表示する場合であっても、効率的に補間画像を生成することができる。   Thereby, even when a display object having a characteristic aspect is displayed with respect to all directions of the display object, an interpolation image can be efficiently generated.

本発明の第1の画像処理方法は、コンピュータに、仮想3次元空間(GS)に配置された表示対象体(A)の3次元モデル(M)に基づいて、前記表示対象体に対する視点位置(VP)の方向である視点方向(VD)に応じて前記表示対象体の画像を表示部(3)に表示させる画像処理方法であって、前記表示対象体に対して視点位置が第1の視点方向にある場合に、前記表示対象体の3次元モデルとして使用される第1のモデルを形成するための第1のモデルデータと、前記表示対象体に対して視点位置が、前記表示対象体を中心に前記第1の視点方向が所定の周方向に移動した第2の視点方向にある場合に、前記表示対象体の3次元モデルとして使用される第2のモデルを形成するための第2のモデルデータを記憶するステップと、前記周方向に関して前記第1の視点方向から前記第2の視点方向までの間に存在する補間視点方向に対応する前記表示対象体の2次元画像である補間画像を、前記第1のモデルデータから得られる前記第1のモデルデータの各頂点座標と前記第2のモデルデータから得られる前記第2のモデルの各頂点座標とに基づいて補間処理を行うことにより生成して所定の描画領域に描画するステップと、前記描画領域に描画された前記補間画像を、前記補間視点方向に対応する前記表示対象体として、前記表示部に表示するステップとを備えることにより、上記の課題を解決する。本発明の第1の画像処理方法は、本発明の第1の画像処理システムとして実現される。   According to a first image processing method of the present invention, a viewpoint position (with respect to the display target object) is determined based on a three-dimensional model (M) of the display target object (A) arranged in a virtual three-dimensional space (GS). An image processing method for causing the display unit (3) to display an image of the display object according to a viewpoint direction (VD) that is a direction of VP), wherein the viewpoint position is a first viewpoint with respect to the display object. A first model data for forming a first model used as a three-dimensional model of the display target object, and a viewpoint position with respect to the display target object. A second model for forming a second model used as a three-dimensional model of the display object when the first viewpoint direction is a second viewpoint direction moved in a predetermined circumferential direction at the center; Storing model data; and An interpolation image, which is a two-dimensional image of the display object corresponding to the interpolation viewpoint direction existing between the first viewpoint direction and the second viewpoint direction with respect to the direction, is obtained from the first model data. A step of performing interpolation processing based on each vertex coordinate of the first model data and each vertex coordinate of the second model obtained from the second model data, and drawing it in a predetermined drawing area And displaying the interpolation image drawn in the drawing area on the display unit as the display object corresponding to the interpolation viewpoint direction. The first image processing method of the present invention is realized as the first image processing system of the present invention.

本発明の第2の画像処理システム(100)は、仮想3次元空間の所定位置に配置された表示対象体(A)の3次元モデル(M)に基づいて、前記表示対象体に対する視点位置(VP)の方向である視点方向(VD)に応じて前記表示対象体の画像を表示部(3)に表示する画像処理システムであって、前記表示対象体に対する視点位置が所定の基準方向にある場合に、前記表示対象体の3次元モデルとして使用される基準モデルを形成するための基準モデルデータを記憶するモデルデータ記憶部(104)と、前記表示対象体に対する視点位置が、前記基準方向を前記表示対象体を中心に周方向に移動させた移動視点方向にある場合に、前記移動視点方向に対応する前記表示対象体の3次元モデルとして使用される移動モデルを構成する複数のポリゴンの各頂点を、前記基準モデルを構成する複数のポリゴンの各頂点座標と、前記移動視点方向の前記基準方向からの移動量とに基づいて得られるように設定されたモデル形成関数(F)を、前記移動視点方向に応じて記憶する関数記憶部(104)と、前記表示対象体を見る視点位置が、前記関数記憶部に記憶されたいずれの移動視点方向にあるかを特定し、特定された前記移動視点方向に対応する前記モデル形成関数を選択し、前記移動量及び前記基準モデルの各頂点座標に基づいて、前記選択されたモデル形成関数により、前記所定位置に前記移動モデルを生成する移動モデル生成手段(105a)と、前記視点位置から前記生成された移動モデルを見た移動モデル画像を、所定の描画領域に描画する描画手段(105b)と、前記描画領域に描画された移動モデル画像を、前記視点位置から前記表示対象体を見た時の前記表示対象体の画像として、前記表示部に表示する描画表示手段(105c)とを有することにとにより、上述の課題を解決する。   The second image processing system (100) of the present invention is based on a three-dimensional model (M) of the display object (A) arranged at a predetermined position in the virtual three-dimensional space, An image processing system for displaying an image of the display object on the display unit (3) according to a viewpoint direction (VD) that is a direction of VP), wherein a viewpoint position with respect to the display object is in a predetermined reference direction In this case, a model data storage unit (104) that stores reference model data for forming a reference model used as a three-dimensional model of the display object, and a viewpoint position with respect to the display object indicates the reference direction. When the moving object is in the moving viewpoint direction moved in the circumferential direction around the display object, a moving model used as a three-dimensional model of the display object corresponding to the moving viewpoint direction is configured. Model forming function (F) set such that each vertex of the polygon is obtained based on each vertex coordinate of the plurality of polygons constituting the reference model and the movement amount of the moving viewpoint direction from the reference direction. ) Is stored according to the moving viewpoint direction, and the moving viewpoint direction stored in the function storage section is the viewpoint position at which the viewing object is viewed, The model forming function corresponding to the specified moving viewpoint direction is selected, and the moving model is placed at the predetermined position by the selected model forming function based on the moving amount and each vertex coordinate of the reference model. A moving model generating means (105a) for generating, and a drawing means (105b) for drawing a moving model image obtained by viewing the generated moving model from the viewpoint position in a predetermined drawing area; A drawing display means (105c) for displaying the moving model image drawn in the drawing area as an image of the display object when the display object is viewed from the viewpoint position; This solves the above-mentioned problem.

第2の画像処理システムによれば、表示対象体を表示部に表示するために使用される3次元モデルを形成するためのモデルデータとして、視点方向が基準方向にある時に使用される基準モデルに関するモデルデータのみがモデルデータ記憶部に記憶され、任意の移動視点方向から表示対象体を見た時に使用される移動モデルは、モデル形成関数によって生成され、生成された移動モデルを移動視点位置から見た表示対象体の画像が、描画領域に描画される。各移動視点方向に対して、所望の表示態様が得られるようにモデル形成関数を設定しておくことにより、1つの3次元モデルに基づいて、所望の表示態様のモデル画像を得ることができる。これにより、3次元モデルを使用して、2次元的な表現を可能にしつつ、態様の変化を自然に表現することができ、より高度な2次元的表現を可能にする画像処理システムを提供することができる。   According to the second image processing system, as model data for forming a three-dimensional model used for displaying a display object on a display unit, a reference model used when a viewpoint direction is in a reference direction. Only the model data is stored in the model data storage unit, and the moving model used when viewing the display object from an arbitrary moving viewpoint direction is generated by the model formation function, and the generated moving model is viewed from the moving viewpoint position. The image of the displayed object is drawn in the drawing area. By setting a model forming function so that a desired display mode can be obtained for each moving viewpoint direction, a model image having a desired display mode can be obtained based on one three-dimensional model. Accordingly, it is possible to provide a two-dimensional expression using a three-dimensional model, and to naturally express a change in an aspect, and to provide an image processing system that enables a more advanced two-dimensional expression. be able to.

基準モデルデータは、対応するモデルを形成する複数のポリゴンの頂点座標で構成される。各頂点座標は、相対的に設定されている場合と、絶対値が設定されている場合とを含む。表示対象体は、例えば、ゲームやアニメーションに登場するキャラクタのように顔がある場合と、顔のない無機的な立体形状である場合とを含む。   The reference model data is composed of vertex coordinates of a plurality of polygons that form a corresponding model. Each vertex coordinate includes a case where a relative value is set and a case where an absolute value is set. The display object includes, for example, a case where there is a face like a character appearing in a game or animation, and a case where the display target has an inorganic three-dimensional shape without a face.

前記関数記憶部において、前記表示対象体の前記周方向に設けられた複数の関数区間のそれぞれに対して、前記移動視点方向の移動量と前記基準モデルの各頂点座標とに基づいて、前記移動モデルの各頂点座標が得られるように設定された前記モデル形成関数が対応付けられ、前記移動モデル生成手段は、前記基準モデータの各頂点座標と前記移動量に基づいて、前記選択されたモデル形成関数により、前記移動モデルを生成してもよい。これにより、同じ関数区間に含まれる移動視点方向には、同じ関数を対応付けることができる。   In the function storage unit, for each of a plurality of function sections provided in the circumferential direction of the display object, the movement based on the movement amount in the movement viewpoint direction and each vertex coordinate of the reference model The model formation function set so as to obtain each vertex coordinate of the model is associated, and the movement model generation means is configured to generate the selected model based on each vertex coordinate of the reference model and the movement amount. The movement model may be generated by a function. Thereby, the same function can be associated with the moving viewpoint directions included in the same function section.

前記基準モデルデータでは、前記基準モデルを構成する複数のポリゴンの頂点座標が、複数のグループにグループ化されて設定され、前記関数記憶部において、、前記各グループ毎に、そのグループに対応する前記基準モデルの各頂点座標から、前記移動モデルの各頂点座標が得られるモデル形成関数が設定されていてもよい。これにより、表示対象体の周方向の表示態様が、表示対象体のパーツによって異なる場合、同じように変化するパーツに含まれる頂点座標を同じグループに設定し、各グループ毎にそのグループの表示態様を表現できるように設定された関数を対応付ければ、パーツによって異なる表示態様を表現することができる。   In the reference model data, vertex coordinates of a plurality of polygons constituting the reference model are set to be grouped into a plurality of groups. In the function storage unit, for each of the groups, the group corresponding to the group is set. A model forming function for obtaining each vertex coordinate of the movement model from each vertex coordinate of the reference model may be set. Thereby, when the display mode of the display object in the circumferential direction varies depending on the parts of the display target, the vertex coordinates included in the parts that change in the same way are set in the same group, and the display mode of the group for each group If the functions set so that can be expressed are associated, different display modes can be expressed depending on the parts.

前記表示対象体を通り、所定方向に伸びる基準軸(CA)が設定され、前記周方向は前記基準軸を中心にした方向であり、前記移動モデル生成手段は、前記基準軸に対する視点位置の方向を、前記表示対象体に対する視点方向として特定する視点方向特定手段(105d)を有し、前記視点方向特定手段にて特定された視点方向を、前記移動視点方向として特定し、前記移動モデルを生成してもよい。これにより、例えば、所定のアプリケーションにて任意に決定される視点位置の移動視点方向を、基準軸に対する方向として特定できる。   A reference axis (CA) extending through the display object and extending in a predetermined direction is set, the circumferential direction is a direction centered on the reference axis, and the movement model generation means is a direction of a viewpoint position with respect to the reference axis A viewpoint direction specifying means (105d) for specifying as a viewpoint direction for the display object, specifying the viewpoint direction specified by the viewpoint direction specifying means as the moving viewpoint direction, and generating the movement model May be. Thereby, for example, the moving viewpoint direction of the viewpoint position arbitrarily determined by a predetermined application can be specified as the direction with respect to the reference axis.

本発明の第2の画像処理方法は、表示対象体(A)に対する視点位置(VP)が所定の基準方向(VDc)にある場合に、前記表示対象体の3次元モデル(M)として使用される基準モデル(Mc)を形成するための基準モデルデータ(MD’)を記憶するモデルデータ記憶部(104)と、前記表示対象体に対する視点位置が、前記基準方向を前記表示対象体を中心に周方向に移動させた移動視点方向(MVD)にある場合に、前記移動視点方向に対応する前記表示対象体の3次元モデルとして使用される移動モデルを構成する複数のポリゴンの各頂点を、前記基準モデルを構成する複数のポリゴンの各頂点座標と、前記移動視点方向の前記基準方向からの移動量とに基づいて得られるように設定されたモデル形成関数(F)を、前記移動視点方向に応じて記憶する関数記憶部(104)と、を有するコンピュータに、仮想3次元空間(GS)の所定位置に配置された前記表示対象体の3次元モデルに基づいて、前記表示対象体に対する視点位置の方向である視点方向に応じて前記表示対象体の画像を表示部(3)に表示させる画像処理方法であって、前記コンピュータに、前記表示対象体を見る視点位置が、前記関数記憶部に記憶されたいずれの移動視点方向にあるかを特定し、特定された移動視点方向に対応する前記モデル形成関数を選択し、前記移動量及び前記基準モデルの各頂点座標に基づいて、前記選択されたモデル形成関数により、前記所定位置に前記移動モデルを生成させるステップと、前記視点位置から前記生成された移動モデルを見た移動モデル画像を、所定の描画領域に描画させるステップと、前記描画領域に描画された移動モデル画像を、前記視点位置から前記表示対象体を見た時の前記表示対象体の画像として、前記表示部に表示させるステップとを実行させることにより、上記の課題を解決する。本発明の第2の画像処理方法は、コンピュータに実行させることにより、第2の画像処理システムとして具現化する。   The second image processing method of the present invention is used as a three-dimensional model (M) of the display object when the viewpoint position (VP) with respect to the display object (A) is in a predetermined reference direction (VDc). A model data storage unit (104) for storing reference model data (MD ′) for forming a reference model (Mc), and a viewpoint position with respect to the display target object, the reference direction being centered on the display target object When there is a moving viewpoint direction (MVD) moved in the circumferential direction, each vertex of a plurality of polygons constituting a moving model used as a three-dimensional model of the display object corresponding to the moving viewpoint direction is A model forming function (F) set so as to be obtained based on each vertex coordinate of a plurality of polygons constituting the reference model and a movement amount of the moving viewpoint direction from the reference direction The display object based on a three-dimensional model of the display object arranged at a predetermined position in a virtual three-dimensional space (GS) in a computer having a function storage unit (104) for storing according to a point direction An image processing method for causing the display unit (3) to display an image of the display object according to a viewpoint direction that is a direction of a viewpoint position with respect to the image, wherein the viewpoint position at which the computer views the display object is the function Identify which moving viewpoint direction is stored in the storage unit, select the model forming function corresponding to the specified moving viewpoint direction, based on the movement amount and each vertex coordinate of the reference model, A step of generating the movement model at the predetermined position by the selected model forming function; and a movement model image obtained by viewing the generated movement model from the viewpoint position. Drawing in the drawing area; and causing the display unit to display the movement model image drawn in the drawing area as an image of the display object when the display object is viewed from the viewpoint position. By executing this, the above-mentioned problem is solved. The second image processing method of the present invention is embodied as a second image processing system by causing a computer to execute the second image processing method.

上述したように、本発明によれば、第1の視点方向から表示対象体を見た時の表示対象体を表示する際に使用される第1のモデルを形成するための第1のモデルデータと、第1の視点方向を表示対象体を中心に周方向に移動させた第2の視点方向から見た時の表示対象体を表現する際に使用される第2のモデルを形成するための第2のモデルデータを用意し、第1の視点方向から第2の視点方向までの間に存在する補間視点方向に対応する補間画像を、補間処理によって得ることにより、3次元モデルを使用してより高度な2次元的表示を可能にする画像処理システム及び画像処理方法を提供することができる。また、所定の基準方向から表示対象体を見た時の表示対象体を表示する際に使用される基準モデルを形成するための基準モデルデータに基づいて、移動視点方向から見た時の表示対象体を表示する際に使用される移動モデルを生成し、移動モデルを移動視点方向から見た時の画像を得るように構成することにより、3次元モデルを使用してより高度な2次元的表示を可能にする画像処理システム及び画像処理方法を提供することができる。   As described above, according to the present invention, the first model data for forming the first model used when displaying the display object when the display object is viewed from the first viewpoint direction. And forming a second model used when expressing the display object when viewed from the second viewpoint direction in which the first viewpoint direction is moved in the circumferential direction around the display object. Using the three-dimensional model by preparing second model data and obtaining an interpolation image corresponding to the interpolation viewpoint direction existing between the first viewpoint direction and the second viewpoint direction by interpolation processing It is possible to provide an image processing system and an image processing method that enable more advanced two-dimensional display. Also, the display target when viewed from the moving viewpoint direction based on the reference model data for forming the reference model used to display the display target when the display target is viewed from the predetermined reference direction Generate a moving model used to display the body, and configure the moving model to obtain an image when viewed from the moving viewpoint direction. An image processing system and an image processing method can be provided.

第1の形態において画像生成空間に配置されたキャラクタの俯瞰図。The bird's-eye view of the character arrange | positioned in the image generation space in a 1st form. キャラクタを正面から見た正面キャラクタ画像を示す図。The figure which shows the front character image which looked at the character from the front. キャラクタを右45度から見た45度キャラクタ画像を示す図。。The figure which shows the 45 degree character image which looked at the character from 45 degree | times on the right. . キャラクタを左90度から見た90度キャラクタ画像を示す図。The figure which shows the 90 degree character image which looked at the character from 90 degree | times on the left. 補間視点方向及び補間範囲の例を示す図。The figure which shows the example of an interpolation viewpoint direction and an interpolation range. 1つの補間範囲に複数の補間視点方向が設定されたようすを示す図。FIG. 6 is a diagram showing a state where a plurality of interpolation viewpoint directions are set in one interpolation range. 2つの影響度テーブルの例を示す図。The figure which shows the example of two influence degree tables. モデル視点方向に関してキャラクタの2次元画像を生成する手順を示す図。The figure which shows the procedure which produces | generates the two-dimensional image of a character regarding a model viewpoint direction. 第1の形態における第1の画像生成方法に基づいて、キャラクタの補間画像を生成する手順を示す図。The figure which shows the procedure which produces | generates the interpolation image of a character based on the 1st image generation method in a 1st form. 第1の形態における第2の画像生成方法に基づいて、キャラクタの補間画像を生成する手順を示す図。The figure which shows the procedure which produces | generates the interpolation image of a character based on the 2nd image generation method in a 1st form. 第1の形態における画像処理システムのハードウェア構造の一例を示す図。The figure which shows an example of the hardware structure of the image processing system in a 1st form. 第1の形態におけるモデルデータのデータ構造を示す図。The figure which shows the data structure of the model data in a 1st form. 補間情報のデータ構造を示す図。The figure which shows the data structure of interpolation information. モデリング処理における処理の流れを示すフローチャート。The flowchart which shows the flow of the process in a modeling process. 第1の形態におけるレンダリング処理における処理の流れを示すフローチャート。The flowchart which shows the flow of the process in the rendering process in a 1st form. 第1の形態におけるレンダリング処理において、第1の画像生成方法に基づいてキャラクタ画像が生成されるようす示す図。The figure which shows so that a character image may be produced | generated based on the 1st image production | generation method in the rendering process in a 1st form. 第1の形態におけるレンダリング処理において、第2の画像生成方法に基づいてキャラクタ画像が生成されるようす示す図。The figure which shows so that a character image may be produced | generated based on the 2nd image production | generation method in the rendering process in a 1st form. 第1の形態における基準軸の設定に関して、他の形態を示す図。The figure which shows another form regarding the setting of the reference axis in a 1st form. 仮想領域に対して3次元モデルが設定される形態において、仮想領域と方向ベクトルとの関係を示す図。The figure which shows the relationship between a virtual area and a direction vector in the form by which a three-dimensional model is set with respect to a virtual area. 第2の形態において画像生成空間に配置されたキャラクタの俯瞰図。The bird's-eye view of the character arrange | positioned in the image generation space in a 2nd form. 4つの関数区間が設けられたようすを示す図。The figure which shows that four function areas are provided. 任意の視点位置からキャラクタを見た時のキャラクタの画像を生成する手順を示す図。The figure which shows the procedure which produces | generates the image of a character when seeing a character from arbitrary viewpoint positions. 第2の形態における画像処理システムのハードウェア構成を示す図。The figure which shows the hardware constitutions of the image processing system in a 2nd form. 第2の形態におけるモデルデータのデータ構造を示す図。The figure which shows the data structure of the model data in a 2nd form. 関数区間情報のデータ構造を示す図。The figure which shows the data structure of function area information. 第2の形態におけるレンダリング処理における処理の流れを示すフローチャート。The flowchart which shows the flow of the process in the rendering process in a 2nd form. 関数区間に加えて基準区間が設けられたようすを示す図。The figure which shows that the reference | standard area is provided in addition to the function area. 第2の形態における基準軸の設定に関して、他の形態を示す図。The figure which shows another form regarding the setting of the reference axis in a 2nd form. 第2の形態において仮想領域に対して3次元モデルが設定される形態において、仮想領域と方向ベクトルとの関係を示す図。The figure which shows the relationship between a virtual area and a direction vector in the form by which a three-dimensional model is set with respect to a virtual area in a 2nd form.

(1)第1の形態(第1の画像処理システム)
まず、本発明の第1の画像処理システムの概要について、図1〜図10を用いて説明する。図1は、中心点CPを中心とするキャラクタAの頭部(以下、単に「キャラクタA」という。)が、その上下方向がZ軸方向に一致するように仮想3次元空間である画像生成空間GSに配置されたようすを示す俯瞰図である。なお、俯瞰図における鼻部分Anは、キャラクタAの正面方向を便宜的に示すものであり、キャラクタAの実際の鼻部分とは限らない。キャラクタA内には、Z軸方向に平行でキャラクタAの中心点CPを通る基準軸CAが設定されている。中心点CPとは、キャラクタAにおける上下方向及び左右方向の中点である。キャラクタAに対する視点位置VPの方向を視点方向VDといい、本形態では基準軸CAに対する視点位置VPの方向である。即ち、本形態の視点方向VDは、視点位置VPから基準軸CAに垂直に下ろした方向ベクトルVdが示す方向である。視点方向VDは、基準軸CAを中心に回転するように移動するので、視点方向VDは、基準軸CAに垂直な平面(XY平面)上に仮想円Cirを描くように移動する。
(1) First mode (first image processing system)
First, an outline of the first image processing system of the present invention will be described with reference to FIGS. FIG. 1 shows an image generation space that is a virtual three-dimensional space in which the head of character A (hereinafter simply referred to as “character A”) centered on a center point CP is aligned with the Z-axis direction. It is an overhead view which shows the appearance arrange | positioned in GS. The nose portion An in the overhead view shows the front direction of the character A for convenience, and is not necessarily the actual nose portion of the character A. In the character A, a reference axis CA that is parallel to the Z-axis direction and passes through the center point CP of the character A is set. The center point CP is the midpoint of the character A in the vertical direction and the horizontal direction. The direction of the viewpoint position VP with respect to the character A is referred to as a viewpoint direction VD, and in this embodiment is the direction of the viewpoint position VP with respect to the reference axis CA. That is, the viewpoint direction VD of the present embodiment is a direction indicated by the direction vector Vd that is lowered from the viewpoint position VP perpendicularly to the reference axis CA. Since the viewpoint direction VD moves so as to rotate about the reference axis CA, the viewpoint direction VD moves so as to draw a virtual circle Cir on a plane (XY plane) perpendicular to the reference axis CA.

図1において、視点方向VD1は、キャラクタAを正面から見る視点方向VDであり、本形態では、キャラクタAに対する視点方向VDを特定するための基準方向として使用される。視点方向VD2は、視点方向VD1を基準にして周方向CDに関して45度移動した方向であり、視点方向VD3は、視点方向VD1を基準にして周方向CDに関して90度移動した方向である。例えば、視点方向VD1を示す方向ベクトルVd1上にある視点位置VP1の視点方向VDは視点方向VD1である。同様に、視点位置VP2の視点方向VDは視点方向VD2であり、視点位置VP3の視点方向VDは視点方向VD3である。   In FIG. 1, a viewpoint direction VD1 is a viewpoint direction VD when the character A is viewed from the front. In this embodiment, the viewpoint direction VD1 is used as a reference direction for specifying the viewpoint direction VD for the character A. The viewpoint direction VD2 is a direction moved 45 degrees with respect to the circumferential direction CD with respect to the viewpoint direction VD1, and the viewpoint direction VD3 is a direction moved 90 degrees with respect to the circumferential direction CD with respect to the viewpoint direction VD1. For example, the viewpoint direction VD of the viewpoint position VP1 on the direction vector Vd1 indicating the viewpoint direction VD1 is the viewpoint direction VD1. Similarly, the viewpoint direction VD of the viewpoint position VP2 is the viewpoint direction VD2, and the viewpoint direction VD of the viewpoint position VP3 is the viewpoint direction VD3.

以下、視点方向VD間の相対的な距離を周方向CDに関して回転する角度で示す。なお、図1において、視点位置VP1〜VP3は基準軸CAからの距離は等しいが、各視点位置VPから基準軸CAへの距離は問わない。また、仮想円Cirは基準軸CAを中心に水平方向に形成される概念的な円であり、半径の長さは問わない。   Hereinafter, a relative distance between the viewpoint directions VD is indicated by an angle rotated with respect to the circumferential direction CD. In FIG. 1, the viewpoint positions VP1 to VP3 have the same distance from the reference axis CA, but the distance from each viewpoint position VP to the reference axis CA does not matter. The virtual circle Cir is a conceptual circle formed in the horizontal direction around the reference axis CA, and the length of the radius is not limited.

図2〜図4は、視点位置VP1、VP2、VP3のZ軸値がキャラクタAの中心点CPのZ軸値と同じ場合に、各視点位置VP1、VP2、VP3から中心点CPを見た時に、表現されるべきキャラクタAの画像である。正面キャラクタ画像A1は、視点位置VP1から中心点CPを見た時に表現されるべきキャラクタAの画像であり、45度キャラクタ画像A2は、視点位置VP2から中心点CPを見た時に表現されるべきキャラクタAの画像であり、90度キャラクタ画像A3は視点位置VP3から中心点CPを見た時に表現されるべきキャラクタAの画像である。   2 to 4 show the case where the center point CP is viewed from each viewpoint position VP1, VP2, VP3 when the Z-axis values of the viewpoint positions VP1, VP2, VP3 are the same as the Z-axis value of the center point CP of the character A. This is an image of the character A to be expressed. The front character image A1 is an image of the character A to be expressed when the center point CP is viewed from the viewpoint position VP1, and the 45-degree character image A2 is to be expressed when the center point CP is viewed from the viewpoint position VP2. The 90-degree character image A3 is an image of the character A and should be expressed when the center point CP is viewed from the viewpoint position VP3.

図2〜図4に示すように、キャラクタAの髪型の状態及び口の状態は、45度キャラクタ画像A2において既に90度キャラクタ画像A3における状態と同じように表示されるのに対して、45度キャラクタ画像A2における目は、正面キャラクタ画像A1における目をそのまま左に少し寄せただけの状態である。このように、キャラクタAは、視点方向VDの移動量に応じた態様ではなく、特定の視点方向VDに対して2次元的表現が切り替わるような特徴を有している。このようなキャラクタAの画像は、従来の画像処理システムのように、キャラクタAに対応する3次元モデルを1つ生成し、生成された3次元モデルに対して視点位置VPを移動させてモニタに表示する方法では、表現することができない。   As shown in FIGS. 2 to 4, the hairstyle and mouth state of the character A are already displayed in the 45 degree character image A2 in the same manner as the state in the 90 degree character image A3. The eyes in the character image A2 are in a state where the eyes in the front character image A1 are just moved slightly to the left. As described above, the character A is not an aspect corresponding to the movement amount of the viewpoint direction VD, but has a feature that the two-dimensional expression is switched with respect to the specific viewpoint direction VD. For such an image of the character A, as in a conventional image processing system, one 3D model corresponding to the character A is generated, and the viewpoint position VP is moved relative to the generated 3D model to be used as a monitor. It cannot be expressed by the display method.

本発明の第1の画像処理システムにおいては、見る角度に応じて、2次元的な変化を表現したい場合、当該変化を表現したい方向(例えば、正面方向、45度方向、90度方向)に対応する視点方向VD1、VD2、VD3のそれぞれに対応する3次元モデルM1、M2、M3をそれぞれ作成しておき、各視点方向VD1、VD2、VD3にある視点位置VPから見たキャラクタAを表現する時は、対応する3次元モデルMを使用する。以下、対応する3次元モデルMが用意された特定の視点方向VDを、「モデル視点方向VDm」という時がある。   In the first image processing system of the present invention, when it is desired to express a two-dimensional change according to the viewing angle, it corresponds to the direction in which the change is desired to be expressed (for example, the front direction, 45 degree direction, 90 degree direction). When three-dimensional models M1, M2, and M3 corresponding to the respective viewpoint directions VD1, VD2, and VD3 are created, and the character A viewed from the viewpoint position VP in each viewpoint direction VD1, VD2, and VD3 is expressed. Uses the corresponding three-dimensional model M. Hereinafter, the specific viewpoint direction VD in which the corresponding three-dimensional model M is prepared is sometimes referred to as “model viewpoint direction VDm”.

一方、対応する3次元モデルMが用意されていない視点方向VD、例えば、図5に示すように、モデル視点方向VDm1とモデル視点方向VDm2との間にある補間視点方向VDiに対応するキャラクタAの画像は、モデル視点方向VDm1に対応する正面モデルM1及びモデル視点方向VDm2に対応する45度モデルM2を用いて、各3次元モデルMの頂点が、所定の補間方法により補間されることにより生成される。以下、補間視点方向VDiに対応する画像、即ち、2つの3次元モデルMを用いて補間されることにより生成される2次元画像を、「補間画像INima」という。   On the other hand, the viewpoint direction VD for which the corresponding three-dimensional model M is not prepared, for example, as shown in FIG. 5, the character A corresponding to the interpolation viewpoint direction VDi between the model viewpoint direction VDm1 and the model viewpoint direction VDm2. The image is generated by interpolating the vertices of each three-dimensional model M by a predetermined interpolation method using the front model M1 corresponding to the model viewpoint direction VDm1 and the 45 degree model M2 corresponding to the model viewpoint direction VDm2. The Hereinafter, an image corresponding to the interpolation viewpoint direction VDi, that is, a two-dimensional image generated by interpolation using the two three-dimensional models M is referred to as an “interpolated image INima”.

周方向CDに関して1つのモデル視点方向VDmから次のモデル視点方向VDmまでの範囲、即ち補間視点方向VDiが存在する範囲を、以下、「補間範囲INr」という。本形態では、モデル視点方向VDm1からモデル視点方向VDm2までの範囲は補間範囲INr−1であり、モデル視点方向VDm2からモデル視点方向VDm3までの範囲は補間範囲INr−2である。なお、本形態においては、2つの3次元モデルMに基づいて補間処理が行われる際に、補間視点方向VDiと各モデル視点方向VDmとの距離に応じて各モデル視点方向VDmの影響の大きさを示すパラメータとして、影響度を設定することができる。   A range from one model viewpoint direction VDm to the next model viewpoint direction VDm with respect to the circumferential direction CD, that is, a range where the interpolation viewpoint direction VDi exists is hereinafter referred to as “interpolation range INr”. In this embodiment, the range from the model viewpoint direction VDm1 to the model viewpoint direction VDm2 is the interpolation range INr-1, and the range from the model viewpoint direction VDm2 to the model viewpoint direction VDm3 is the interpolation range INr-2. In the present embodiment, when the interpolation process is performed based on the two three-dimensional models M, the influence of each model viewpoint direction VDm depends on the distance between the interpolation viewpoint direction VDi and each model viewpoint direction VDm. The influence degree can be set as a parameter indicating.

影響度について、図6及び図7を用いて説明する。影響度は、例えば、補間視点方向VDiと各モデル視点方向VDmとの距離に応じて、所定の関数によって得られるように設定される。また、補間範囲INr内の特定の補間視点方向VDiに対して所望の影響度を設定してもよい。本形態では、図6に示すように、補間範囲INr−1に、影響度が設定される補間視点方向VDiとして、4つの補間視点方向VDi1、VDi2、VDi3、VDi4が設定されている。補間視点方向VDi1〜VDi4は、モデル視点方向VDm1から周方向CDに関して9度ずつ移動した方向である。本形態の影響度は、補間処理に与える影響度の合計を100%とした場合において、各3次元モデルM1、M2が与える割合である。   The influence degree will be described with reference to FIGS. 6 and 7. The influence degree is set so as to be obtained by a predetermined function according to the distance between the interpolation viewpoint direction VDi and each model viewpoint direction VDm, for example. Further, a desired influence degree may be set for a specific interpolation viewpoint direction VDi within the interpolation range INr. In this embodiment, as shown in FIG. 6, four interpolation viewpoint directions VDi1, VDi2, VDi3, and VDi4 are set in the interpolation range INr-1 as the interpolation viewpoint directions VDi for which the degree of influence is set. Interpolated viewpoint directions VDi1 to VDi4 are directions shifted by 9 degrees with respect to the circumferential direction CD from the model viewpoint direction VDm1. The degree of influence in this embodiment is a ratio given by each of the three-dimensional models M1 and M2 when the total degree of influence on the interpolation processing is 100%.

例えば、正面モデルM1から45度モデルM2まで、キャラクタAの状態を、視点方向VDに応じて一様に変化させたい場合、各3次元モデルM1、M2の影響度は、図7の影響度テーブルT1のように設定される。影響度テーブルT1のように、各3次元モデルM1、M2の影響度の増加量及び減少量が、一定になるように設定すれば、キャラクタAの状態を一様に変化させることができる。一方、正面モデルM1及び45度モデルM2のうち、いずれか一方の影響を大きくして変化させたい場合は、図7の影響度テーブルT2のように各3次元モデルのM1、M2の影響度を設定すればよい。   For example, when it is desired to change the state of the character A uniformly from the front model M1 to the 45 degree model M2 according to the viewpoint direction VD, the influence degree of each of the three-dimensional models M1 and M2 is the influence degree table of FIG. It is set like T1. If the increase amount and decrease amount of the influence degree of each of the three-dimensional models M1 and M2 are set to be constant as in the influence degree table T1, the state of the character A can be changed uniformly. On the other hand, when the influence of either one of the front model M1 and the 45 degree model M2 is to be increased and changed, the influence degree of each of the three-dimensional models M1 and M2 is changed as shown in the influence degree table T2 of FIG. You only have to set it.

影響度テーブルT2においては、補間視点方向VDi3はモデル視点方向VDm1よりもモデル視点方向VDm2に近いが、補間視点方向VDi3において、モデル視点方向VDm1に対応する正面モデルM1の影響度の方がモデル視点方向VDm2に対応する45度モデルM2の影響度より高く設定されている。これにより、補間範囲INr―1において、正面モデルM1の影響を高めて補間画像INimaを生成することができる。   In the influence degree table T2, the interpolation viewpoint direction VDi3 is closer to the model viewpoint direction VDm2 than the model viewpoint direction VDm1, but in the interpolation viewpoint direction VDi3, the influence degree of the front model M1 corresponding to the model viewpoint direction VDm1 is greater than the model viewpoint. It is set higher than the influence degree of the 45 degree model M2 corresponding to the direction VDm2. Thereby, in the interpolation range INr-1, it is possible to increase the influence of the front model M1 and generate the interpolated image INima.

影響度テーブルTに設定されていない、補間視点方向VDixの影響度は、補間視点方向VDixを挟む2つの補間視点方向VDiのそれぞれと補間視点方向VDixとの距離関係に応じて適宜設定すればよい。例えば、図6に示す補間視点方向VDixの場合、補間視点方向VDi1及び補間視点方向VDi2のそれぞれに対して設定されている影響度を、補間視点方向VDi1と補間視点方向VDixとの距離、及び補間視点方向VDi2と補間視点方向VDixとの距離の相対的な関係に応じて設定すればよい。   The influence degree of the interpolation viewpoint direction VDix that is not set in the influence degree table T may be set as appropriate according to the distance relationship between each of the two interpolation viewpoint directions VDi that sandwich the interpolation viewpoint direction VDix and the interpolation viewpoint direction VDix. . For example, in the case of the interpolation viewpoint direction VDix illustrated in FIG. 6, the degree of influence set for each of the interpolation viewpoint direction VDi1 and the interpolation viewpoint direction VDi2, the distance between the interpolation viewpoint direction VDi1 and the interpolation viewpoint direction VDix, and the interpolation What is necessary is just to set according to the relative relationship of the distance of viewpoint direction VDi2 and interpolation viewpoint direction VDix.

所定の視点位置VPから所定の注視点GPを見た場合に、3次元モデルM1、M2、M3に基づいたキャラクタ画像を得る具体的な手順について説明する。以下の説明にて、キャラクタAの3次元モデルMが画像生成空間GSに配置される時は、いずれの3次元モデルMも、上述したように、3次元モデルMの正面方向は基準方向VD1と一致し、3次元モデルMの上下方向はZ軸方向に一致するように配置される。   A specific procedure for obtaining a character image based on the three-dimensional models M1, M2, and M3 when the predetermined gazing point GP is viewed from the predetermined viewpoint position VP will be described. In the following description, when the three-dimensional model M of the character A is arranged in the image generation space GS, as described above, the front direction of the three-dimensional model M is the reference direction VD1. The three-dimensional model M is arranged so that the vertical direction coincides with the Z-axis direction.

まず、図8Aに示すように、視点位置VPの視点方向VDがモデル視点方向VDm1である場合は、正面モデルM1がキャラクタAの3次元モデルMとして画像生成空間GSに配置される。そして、視点位置VPを含み、視点位置VPから注視点GPへ向かう注視ベクトルVgが直交する平面P1上に、正面モデルM1を投影させ、その投影像Ima―1がキャラクタ画像として、所定の描画領域に生成される。図8Bに示すように、視点位置VPの視点方向VDがモデル視点方向VDm2である場合は、45度モデルM2がキャラクタAの3次元モデルMとして画像生成空間GSに配置される。そして、視点位置VPを含み、注視ベクトルVgに直交する平面P2上に、45度モデルM2を投影させ、その投影像Ima―2がキャラクタ画像として、所定の描画領域に生成される。   First, as shown in FIG. 8A, when the viewpoint direction VD of the viewpoint position VP is the model viewpoint direction VDm1, the front model M1 is arranged in the image generation space GS as the three-dimensional model M of the character A. Then, the front model M1 is projected onto a plane P1 that includes the viewpoint position VP, and the gaze vector Vg from the viewpoint position VP toward the gazing point GP is orthogonal, and the projection image Ima-1 is used as a character image as a predetermined drawing area. Is generated. As shown in FIG. 8B, when the viewpoint direction VD of the viewpoint position VP is the model viewpoint direction VDm2, the 45-degree model M2 is arranged in the image generation space GS as the three-dimensional model M of the character A. Then, the 45 degree model M2 is projected onto the plane P2 including the viewpoint position VP and orthogonal to the gaze vector Vg, and the projection image Ima-2 is generated as a character image in a predetermined drawing area.

更に、図8Cに示すように、方向ベクトルVdに対応する視点方向VDがモデル視点方向VDm3である場合は、90度モデルM3がキャラクタAの3次元モデルとして画像生成空間GSに配置される。そして、視点位置VPを含み、注視ベクトルVgに直交する平面P3上に、90度モデルM3を投影させ、その投影像Ima―3がキャラクタ画像として、所定の描画領域に生成される。なお、3次元モデルMを平面P1、P2、P3に投影するとは、3次元モデルMを所定の平面上にいわゆるレンダリングすることをいう。   Further, as shown in FIG. 8C, when the viewpoint direction VD corresponding to the direction vector Vd is the model viewpoint direction VDm3, the 90-degree model M3 is arranged as a three-dimensional model of the character A in the image generation space GS. Then, the 90-degree model M3 is projected on a plane P3 including the viewpoint position VP and orthogonal to the gaze vector Vg, and the projection image Ima-3 is generated as a character image in a predetermined drawing area. Projecting the three-dimensional model M onto the planes P1, P2, and P3 means so-called rendering of the three-dimensional model M on a predetermined plane.

次に、2つの3次元モデルMに基づいて得られる補間画像INimaの生成方法について説明する。補間画像INimaの生成方法には、2つの3次元モデルMから得られる2次元画像を補間処理することにより補間画像INimaを生成する第1の画像生成方法と、2つの3次元モデルMから補間処理により3次元補間モデルMiを得て補間画像INimaを生成する第2の画像生成方法がある。説明の便のため、図5における視点位置VP1及び視点位置VP2と同じ仮想円Cir上にある視点位置VP4から、基準軸CA上にある注視点GPを見た場合の補間画像INima−i2について説明する。   Next, a method for generating the interpolated image INima obtained based on the two three-dimensional models M will be described. The interpolation image INima generation method includes a first image generation method for generating an interpolation image INima by interpolating two-dimensional images obtained from two three-dimensional models M, and an interpolation process from two three-dimensional models M. There is a second image generation method for obtaining a three-dimensional interpolation model Mi and generating an interpolated image INima. For convenience of explanation, the interpolation image INima-i2 when the gazing point GP on the reference axis CA is viewed from the viewpoint position VP4 on the same virtual circle Cir as the viewpoint position VP1 and the viewpoint position VP2 in FIG. To do.

視点位置VP4の方向ベクトルVd4は補間視点方向VDi2と一致し、即ち、視点位置VP4の視点方向VDは補間視点方向VDi2であるため、補間画像INima―i2を生成するために使用される2つの3次元モデルMは、補間視点方向VDi2を挟んで隣接するモデル視点方向VDm1、VDm2に対応する正面モデルM1と45度モデルM2である。   Since the direction vector Vd4 of the viewpoint position VP4 coincides with the interpolation viewpoint direction VDi2, that is, the viewpoint direction VD of the viewpoint position VP4 is the interpolation viewpoint direction VDi2, the two three used to generate the interpolation image INima-i2 The dimension model M is a front model M1 and a 45-degree model M2 corresponding to the model viewpoint directions VDm1 and VDm2 adjacent to each other with the interpolation viewpoint direction VDi2 interposed therebetween.

第1の画像生成方法によって補間画像INima−i2が生成される手順について、図9を用いて説明する。まず、正面モデルM1を画像生成空間GSに配置して、正面モデルM1から仮投影像Ima−6を得る。仮投影像Ima−6は、モデル視点方向VDm1にあり、視点位置VP4を通る仮想円Cir上にある視点位置VP1から、注視点GPへ向かう注視ベクトルVg1に垂直であって、視点位置VP1を含む平面P6上に、正面モデルM1を投影することにより得られる。   A procedure for generating the interpolated image INima-i2 by the first image generation method will be described with reference to FIG. First, the front model M1 is arranged in the image generation space GS, and a provisional projection image Ima-6 is obtained from the front model M1. The temporary projection image Ima-6 is in the model viewpoint direction VDm1, and is perpendicular to the gaze vector Vg1 from the viewpoint position VP1 on the virtual circle Cir passing through the viewpoint position VP4 to the gazing point GP, and includes the viewpoint position VP1. It is obtained by projecting the front model M1 onto the plane P6.

次に、45度モデルM2を画像生成空間GSに配置して、45度モデルM2から仮投影像Ima−7を得る。仮投影像Ima−7は、モデル視点方向VDm2にあり、視点位置VP4を通る仮想円Cir上にある視点位置VP2から、注視点GPへ向かう注視ベクトルVg2に垂直であって、視点位置VP2を含む平面P7上に、45度モデルM2を投影することにより得られる。   Next, the 45 degree model M2 is arranged in the image generation space GS, and a provisional projection image Ima-7 is obtained from the 45 degree model M2. The temporary projection image Ima-7 is in the model viewpoint direction VDm2, and is perpendicular to the gaze vector Vg2 from the viewpoint position VP2 on the virtual circle Cir passing through the viewpoint position VP4 to the gazing point GP, and includes the viewpoint position VP2. It is obtained by projecting a 45 degree model M2 on the plane P7.

仮投影像Ima−6と仮投影像Ima―7とにおいて、一致しない部分については、その一致しない部分に対応する各仮投影像Ima−6、Ima―7の座標を用いて、所定の補間方法により、視点位置VP4に対応する補間画像INima―i2の座標を補間する。使用される補間方法は、ベジエ補間、リニア補間等の周知の補間方法を適宜採用すればよい。   In the provisional projection image Ima-6 and the provisional projection image Ima-7, for a non-matching part, a predetermined interpolation method is used by using the coordinates of the provisional projection images Ima-6 and Ima-7 corresponding to the non-matching part. Thus, the coordinates of the interpolated image INima-i2 corresponding to the viewpoint position VP4 are interpolated. As an interpolation method to be used, a known interpolation method such as Bezier interpolation or linear interpolation may be appropriately employed.

補間処理により得られた座標を、「一致しない部分」に対応する補間画像INima−i2の部分の座標として設定する。「一致する部分」の座標は、そのまま「一致する部分」に対応する部分の補間画像INima―i2の座標として設定する。なお、補間処理の際には、各3次元モデルM1、M2の影響度が設定された影響度テーブルTを参照し、設定された影響度に応じて各座標に重みをつけて処理を行う。以上の方法により、視点位置VP4から注視点GPを見た時の補間画像INima―i2を得ることができる。   The coordinates obtained by the interpolation processing are set as the coordinates of the portion of the interpolated image INima-i2 corresponding to the “non-matching portion”. The coordinates of the “matching part” are set directly as the coordinates of the interpolated image INima-i2 of the part corresponding to the “matching part”. In the interpolation processing, the influence degree table T in which the influence degree of each of the three-dimensional models M1 and M2 is set is referred to, and the process is performed with weighting each coordinate according to the set influence degree. By the above method, the interpolated image INima-i2 when the gazing point GP is viewed from the viewpoint position VP4 can be obtained.

続いて、第2の画像生成方法によって補間画像INima―i2が生成される手順について、図10を用いて説明する。第2の画像生成方法においては、まず、正面モデルM1及び45度モデルM2の各頂点を所定の補間方法によって補間することにより、視点方向VDi2に対応する3次元補間モデルMiを生成する。生成した3次元補間モデルMiを画像生成空間GSに配置し、視点位置VP4から注視点GPへ向かう注視ベクトルVg4に垂直で、視点位置VP4を含む平面Pi2に3次元補間モデルMiを投影させる。その投影像が補間画像INima―i2として、所定の描画領域に生成される。なお、後述するように、本形態の3次元モデルMの頂点には法線が設定されている。第1の画像生成方法及び第2の画像生成方法では、各頂点の法線に関しても、座標の場合と同様に従来の補間方法によって補間処理が行われる。   Next, a procedure for generating the interpolated image INima-i2 by the second image generation method will be described with reference to FIG. In the second image generation method, first, the three-dimensional interpolation model Mi corresponding to the viewpoint direction VDi2 is generated by interpolating the vertices of the front model M1 and the 45-degree model M2 by a predetermined interpolation method. The generated three-dimensional interpolation model Mi is arranged in the image generation space GS, and the three-dimensional interpolation model Mi is projected onto a plane Pi2 that is perpendicular to the gaze vector Vg4 from the viewpoint position VP4 to the gazing point GP and includes the viewpoint position VP4. The projection image is generated in a predetermined drawing area as an interpolation image INima-i2. As will be described later, normals are set at the vertices of the three-dimensional model M of the present embodiment. In the first image generation method and the second image generation method, interpolation processing is performed on the normals of the respective vertices by a conventional interpolation method as in the case of coordinates.

以下、上記構成を実現する本発明の画像処理システム1について説明する。図11は、本発明の画像処理システム1の構成の一例を示す図である。画像処理システム1は、ユーザの操作を受け付ける操作入力部2と、所定の画像をユーザに提示する表示部3と、本発明を実現するためのコンピュータプログラム及び各種データを記憶する記憶部4と、画像処理システム1の動作を制御する制御部5とで構成される。操作入力部2には、例えば、キーボード、マウス、タッチパネル等が含まれる。表示部3には、例えば、モニタやプロジェクタ等が含まれる。   Hereinafter, the image processing system 1 of the present invention that realizes the above configuration will be described. FIG. 11 is a diagram showing an example of the configuration of the image processing system 1 of the present invention. The image processing system 1 includes an operation input unit 2 that receives a user operation, a display unit 3 that presents a predetermined image to the user, a storage unit 4 that stores a computer program and various data for realizing the present invention, It is comprised with the control part 5 which controls operation | movement of the image processing system 1. FIG. The operation input unit 2 includes, for example, a keyboard, a mouse, a touch panel, and the like. The display unit 3 includes, for example, a monitor and a projector.

制御部5は、CPU及びその動作に必要なRAM、ROM、描画領域としての描画メモリ等の各種記憶域で構成され、記憶部4に記憶されたコンピュータプログラムを実行することにより、主に、補間画像生成手段5a、補間画像表示手段5b、切り出し手段5c、修正手段5d、第2のモデル設定手段5e、及び視点方向特定手段5gとして機能する。記憶部4には、コンピュータプログラムの他、3次元モデルMに関する情報であるモデルデータMDや補間画像INimaに関する情報である補間情報INinfが記憶される。これにより、記憶部4はモデルデータ記憶手段及び補間情報記憶手段として機能する。   The control unit 5 is composed of various storage areas such as a CPU, RAM and ROM necessary for its operation, and a drawing memory as a drawing area. The control unit 5 mainly executes interpolation by executing a computer program stored in the storage unit 4. It functions as an image generation means 5a, an interpolation image display means 5b, a cutout means 5c, a correction means 5d, a second model setting means 5e, and a viewpoint direction specifying means 5g. In addition to the computer program, the storage unit 4 stores model data MD, which is information related to the three-dimensional model M, and interpolation information INinf, which is information related to the interpolated image INima. Thereby, the storage unit 4 functions as a model data storage unit and an interpolation information storage unit.

モデルデータMDは、キャラクタAに関して、各モデル視点方向VDmに対応する3次元モデルMに関する情報である。モデルデータMDは、図12に示すように、対応する視点方向10と、複数のパーツ情報PI1、PI2・・・で構成される。以下、パーツ情報PI1、PI2・・・を区別する必要がない時は、「パーツ情報PI」という。モデルデータMDにおける「パーツ」とは、3次元モデルMにおける部分であり、視点方向VDの移動による変化の態様が同じように変化する頂点のグループである。具体的な「パーツ」としては、例えば、髪、鼻、口、目等がある。但し、本形態における「パーツ」は、視点方向VDの移動による変化の態様が同じように変化する部分であれば、離れた複数の部分であっても、1つの「パーツ」として設定されてもよい。   The model data MD is information regarding the three-dimensional model M corresponding to each model viewpoint direction VDm with respect to the character A. As shown in FIG. 12, the model data MD includes a corresponding viewpoint direction 10 and a plurality of parts information PI1, PI2,. Hereinafter, when it is not necessary to distinguish the parts information PI1, PI2,..., They are referred to as “part information PI”. The “parts” in the model data MD is a part in the three-dimensional model M, and is a group of vertices in which the manner of change due to movement of the viewpoint direction VD changes in the same way. Specific “parts” include, for example, hair, nose, mouth, and eyes. However, the “parts” in the present embodiment may be a plurality of distant parts or set as one “part” as long as the aspect of change due to movement in the viewpoint direction VD changes in the same way. Good.

パーツ情報PIは、パーツを識別するパーツ識別情報31に頂点情報30が対応付けられて構成されている。頂点情報30は、パーツ識別情報31に対応するパーツを構成する複数のポリゴンの各頂点に関する情報であり、各頂点の座標の座標情報と法線情報とが含まれる。座標情報は、所定の点に対する相対的な座標であってもよいし、画像生成空間GSにおける座標値であってもよい。キャラクタAに対して用意される各3次元モデルMの頂点の数、及び各ポリゴンの対応関係は同じであり、各3次元モデル間の頂点の対応関係を示す情報も、頂点情報30に含まれる。   The part information PI is configured by associating vertex information 30 with part identification information 31 for identifying a part. The vertex information 30 is information regarding each vertex of a plurality of polygons constituting the part corresponding to the part identification information 31, and includes coordinate information and normal information of the coordinates of each vertex. The coordinate information may be a relative coordinate with respect to a predetermined point, or may be a coordinate value in the image generation space GS. The number of vertices of each three-dimensional model M prepared for the character A and the correspondence between the polygons are the same, and information indicating the correspondence between the vertices between the three-dimensional models is also included in the vertex information 30. .

補間情報INinfは、図13に示すように、複数の範囲情報RI1、RI2・・・で構成される。以下、範囲情報RI1、RI2・・・を区別する必要のない時は「範囲情報RI」という。範囲情報RIは、補間範囲INrに関する情報が設定され、補間範囲50、使用モデル60、補間方法70及び影響度80が含まれる。補間範囲50には、対応する補間範囲INrを特定する情報が設定される。例えば、補間範囲INr−2の場合は、補間範囲INr―2を構成するモデル視点方向VDm2とモデル視点方向VDm3が設定されればよい。   As shown in FIG. 13, the interpolation information INinf is composed of a plurality of range information RI1, RI2,. Hereinafter, the range information RI1, RI2,... Are referred to as “range information RI” when it is not necessary to distinguish them. In the range information RI, information related to the interpolation range INr is set, and includes an interpolation range 50, a use model 60, an interpolation method 70, and an influence degree 80. In the interpolation range 50, information for specifying the corresponding interpolation range INr is set. For example, in the case of the interpolation range INr-2, the model viewpoint direction VDm2 and the model viewpoint direction VDm3 that constitute the interpolation range INr-2 may be set.

使用モデル60には、対応する補間範囲INrを構成する2つのモデル視点方向VDmのそれぞれに対応する3次元モデルMが設定される。補間方法70には、対応する補間範囲INrに適用される補間方法が設定される。影響度80には、使用モデル60にて設定された各3次元モデルMの影響度が示された影響度テーブルTが設定される。また、補間範囲RIに対して、特定のパーツに対する補間方法及び影響度が設定されたパーツ補間情報90も含まれる。パーツ補間情報は、対応するパーツ識別情報が対応付けられている。図13においては、範囲情報RI1に、パーツ1に対する補間方法が設定されたパーツ1補間情報90aが含まれ、範囲情報RI2に、パーツ2に対する補間方法が設定されたパーツ2補間情報90bが含まれている。これにより、記憶部4はグループ補間情報記憶手段として機能する。   In the usage model 60, a three-dimensional model M corresponding to each of the two model viewpoint directions VDm constituting the corresponding interpolation range INr is set. In the interpolation method 70, an interpolation method applied to the corresponding interpolation range INr is set. In the influence degree 80, an influence degree table T indicating the influence degree of each three-dimensional model M set in the use model 60 is set. Further, part interpolation information 90 in which an interpolation method and an influence degree for a specific part are set with respect to the interpolation range RI is also included. Corresponding part identification information is associated with the part interpolation information. In FIG. 13, the range information RI1 includes part 1 interpolation information 90a in which an interpolation method for part 1 is set, and the range information RI2 includes part 2 interpolation information 90b in which an interpolation method for part 2 is set. ing. Thereby, the memory | storage part 4 functions as a group interpolation information storage means.

キャラクタAに関するモデルデータMD及び補間情報INinfを生成するモデリング処理について、図14のフロ−チャートに従って説明する。本形態では、主に、モデル視点方向VDm1からモデル視点方向VDm2までの補間範囲INr―1に関して説明する。モデリング処理は、制御部5によって制御される。まず、ステップS100にて、補間範囲を特定する情報が補間範囲50に設定される。本形態では、補間範囲INr―1を特定する情報が設定される。本形態では、モデル視点方向VDm1からモデル視点方向VDm2までの範囲を特定する情報が設定される。当該設定は、例えば、ユーザの入力操作によって設定される。   A modeling process for generating the model data MD and the interpolation information INinf regarding the character A will be described with reference to the flowchart of FIG. In this embodiment, an interpolation range INr-1 from the model viewpoint direction VDm1 to the model viewpoint direction VDm2 will be mainly described. The modeling process is controlled by the control unit 5. First, information for specifying an interpolation range is set in the interpolation range 50 in step S100. In this embodiment, information specifying the interpolation range INr-1 is set. In this embodiment, information for specifying a range from the model viewpoint direction VDm1 to the model viewpoint direction VDm2 is set. The setting is set by a user input operation, for example.

次に、ステップS105にて、第1の3次元モデルとしての3次元モデルMが設定される。モデリング処理の開始時のように、設定すべき3次元モデルMがまだ生成されていない場合は、周知の3次元モデル生成方法により生成される。例えば、第1の3次元モデルMが正面モデルM1の場合、正面モデルM1が生成されることにより、正面モデルM1のモデルデータMD1が生成される。なお、パーツ情報PIと頂点情報30の対応付けは、例えば、マウスのドラッグ操作により、生成された正面モデルM1の一部を指定し、その指定された部分に対して、パーツを識別するパーツ識別情報31を設定すればよい。   Next, in step S105, a three-dimensional model M as a first three-dimensional model is set. When the 3D model M to be set has not yet been generated as at the start of the modeling process, it is generated by a known 3D model generation method. For example, when the first three-dimensional model M is the front model M1, by generating the front model M1, model data MD1 of the front model M1 is generated. The part information PI and the vertex information 30 are associated with each other by, for example, specifying a part of the generated front model M1 by dragging the mouse and identifying the part with respect to the specified part. Information 31 may be set.

次に、ステップS110にて、ステップS100で設定された3次元モデルMに基づいて、第2の3次元モデルとして、ステップS100にて設定された補間範囲INr−1を構成するモデル視点位置VDmに対応する3次元モデルM(本形態では45度モデルM2)を生成する。本形態の場合、第1の3次元モデルとしての正面モデルM1をモニタ3に表示させ、正面モデルM1をモデル視点方向VDm2から見た状態に回転させる。当該状態の正面モデルM1において、45度モデルM2と状態が異なる領域を切り出して、その切り出した領域を45度モデルM2の状態に変形し、変形された領域を、モニタ3に表示されている正面モデルM1に戻す。   Next, in step S110, based on the three-dimensional model M set in step S100, the model viewpoint position VDm constituting the interpolation range INr-1 set in step S100 is set as the second three-dimensional model. A corresponding three-dimensional model M (45 degree model M2 in this embodiment) is generated. In the case of this embodiment, the front model M1 as the first three-dimensional model is displayed on the monitor 3, and the front model M1 is rotated in a state viewed from the model viewpoint direction VDm2. In the front model M1 in this state, an area having a state different from that of the 45 degree model M2 is cut out, the cut out area is transformed into the state of the 45 degree model M2, and the deformed area is displayed on the front surface displayed on the monitor 3. Return to model M1.

正面モデルM1において、45度モデルM2と状態が異なる全ての領域について、このように処理することにより、最終的にモデル視点方向VDm2に対応する45度モデルM2が生成される。即ち、45度モデルM2のモデルデータMD2が生成される。ステップS110の処理により、制御部5は切り出し手段5c、修正手段5d、及び第2のモデル設定手段5eとして機能する。なお、切り出した領域が変形される際に、当該領域を構成する複数のポリゴンの対応関係は変形の前後において変化しない。従って、正面モデルM1を構成するポリゴンの各頂点は、45度モデルM2を構成するポリゴンの各頂点に対応する。モデルデータMD1の頂点情報30及びモデルデータMD2の頂点情報30のそれぞれには、互いに対応する頂点が識別されるように、例えば、各頂点に対して対応頂点が設定される。   In the front model M1, the 45 ° model M2 corresponding to the model viewpoint direction VDm2 is finally generated by performing the above processing on all regions having a state different from that of the 45 ° model M2. That is, the model data MD2 of the 45 degree model M2 is generated. By the processing in step S110, the control unit 5 functions as a cutout unit 5c, a correction unit 5d, and a second model setting unit 5e. Note that when the cut-out area is deformed, the correspondence between a plurality of polygons constituting the area does not change before and after the deformation. Therefore, each vertex of the polygon constituting the front model M1 corresponds to each vertex of the polygon constituting the 45 degree model M2. In each of the vertex information 30 of the model data MD1 and the vertex information 30 of the model data MD2, for example, a corresponding vertex is set for each vertex so that the corresponding vertex is identified.

次に、ステップS120に進み、補間範囲INr―1に対応する範囲情報RIが、初期設定されることにより生成される。本形態では、範囲情報RIは次のように初期設定される。補間範囲50には、ステップS100にて設定された補間範囲が設定され、補間方法70及び影響度80のそれぞれには、予め所定の補間方法及び所定の影響度テーブルTが設定される。また、使用モデル60には、モデルデータMDを参照して、補間範囲INr−1を構成するモデル視点方向VDm1、VDm2に対応するモデルデータMD1、MD2が設定される。   Next, proceeding to step S120, range information RI corresponding to the interpolation range INr-1 is generated by initial setting. In this embodiment, the range information RI is initialized as follows. The interpolation range set in step S100 is set in the interpolation range 50, and a predetermined interpolation method and a predetermined influence degree table T are set in advance for each of the interpolation method 70 and the influence degree 80. In the usage model 60, model data MD1 and MD2 corresponding to the model viewpoint directions VDm1 and VDm2 constituting the interpolation range INr-1 are set with reference to the model data MD.

初期設定の範囲情報RIが生成されると、ステップS125へ進み、表示処理が行われる。表示処理では、画像生成空間GSにおいて範囲情報RIに対応する視点位置VPを決定すると、中心点CPを注視点GPとした場合の、即ち、視点位置VPから中心点CPを見た場合のキャラクタAの画像が、上述したように生成され、描画メモリに描画されることにより、モニタ3に表示される。本形態では、モデル視点方向VDm1とモデル視点方向VDm2の間の補間視点方向VDiに対応する補間画像INimaは、正面モデルM1のモデルデータMD1と45度モデルM2のモデルデータMD2に基づいて、上述した補間処理(第1の画像生成方法又は第2の画像生成方法)が行われることにより得られる。なお、補間視点方向VDiは、視点位置VPの基準軸CAに対する方向として特定される。これにより、制御部5は、補間画像生成手段5a、補間画像表示手段5b及び補間視点方向特定手段5gとして機能する。   When the initial setting range information RI is generated, the process proceeds to step S125, and display processing is performed. In the display process, when the viewpoint position VP corresponding to the range information RI is determined in the image generation space GS, the character A when the center point CP is the gazing point GP, that is, when the center point CP is viewed from the viewpoint position VP. These images are generated as described above and displayed on the monitor 3 by being drawn in the drawing memory. In the present embodiment, the interpolated image INima corresponding to the interpolated viewpoint direction VDi between the model viewpoint direction VDm1 and the model viewpoint direction VDm2 is described above based on the model data MD1 of the front model M1 and the model data MD2 of the 45 degree model M2. It is obtained by performing an interpolation process (first image generation method or second image generation method). The interpolation viewpoint direction VDi is specified as the direction of the viewpoint position VP with respect to the reference axis CA. Thereby, the control part 5 functions as the interpolation image generation means 5a, the interpolation image display means 5b, and the interpolation viewpoint direction specification means 5g.

そして、キャラクタAの一連の画像がモニタ3に表示された後、ステップS130にて範囲情報RIの修正がされるか否かが判断される。ユーザによる所定の修正操作があると、ステップS135に進み、範囲情報RIの修正を受け付ける状態となる。例えば、補間画像INimaの生成に関して、正面モデルM1の影響を相対的に大きくしたい場合は、影響度テーブルT2のように、正面モデルM1の影響度が45度モデルM2の影響度よりも大きい補間視点方向VDiの範囲が広くなるように設定すればよい。また、より適した補間方法がある場合は、そのより適した補間方法に変更できるように構成してもよい。   Then, after a series of images of the character A is displayed on the monitor 3, it is determined whether or not the range information RI is corrected in step S130. If there is a predetermined correction operation by the user, the process proceeds to step S135 to enter a state for accepting correction of the range information RI. For example, when it is desired to relatively increase the influence of the front model M1 regarding the generation of the interpolated image INima, the interpolation viewpoint in which the influence degree of the front model M1 is larger than the influence degree of the 45 degree model M2 as in the influence degree table T2. What is necessary is just to set so that the range of direction VDi may become wide. If there is a more suitable interpolation method, the interpolation method may be changed to a more suitable interpolation method.

また、パーツ毎に補間方法や影響度が設定できるように構成してもよい。その場合は、パーツがユーザに指定されることにより、指定されたパーツに関して、処理中の範囲情報RIにおけるパーツ補間情報90が設定される。以上のように、所望のキャラクタAの画像を得るべく、範囲情報RIの修正処理が行われた後、ステップS125へ戻って表示処理が行われる。これにより、修正後の状態を確認することができる。パーツ補間情報90が設定された場合は、対応するパーツに関しては、パーツ補間情報90に設定された補間方法及び影響度に基づいて補間処理が行われる。   Moreover, you may comprise so that the interpolation method and influence degree can be set for every part. In that case, when the part is designated by the user, the part interpolation information 90 in the range information RI being processed is set for the designated part. As described above, in order to obtain an image of the desired character A, after the range information RI is corrected, the process returns to step S125 and the display process is performed. Thereby, the state after correction can be confirmed. When the part interpolation information 90 is set, an interpolation process is performed on the corresponding part based on the interpolation method and the degree of influence set in the part interpolation information 90.

ステップS130にて修正操作がない時は、範囲情報RIは生成されたとして、ステップS140へ進む。ステップS140では、ユーザにより終了操作又は継続操作がされたか否かが判断される。継続操作がされた場合は、ステップS100へ戻る。これにより、次の補間範囲INrに対応する範囲情報RIを生成することができる。例えば、モデル視点方向VDm2からモデル視点方向VDm3までの補間範囲INr―2に対応する範囲情報RIを生成する場合、ステップS100では、当該補間範囲が設定される。以下、補間範囲INr―1に関する処理と同様の処理が行われ、各補間範囲に関する範囲情報RIが生成される。   When there is no correction operation in step S130, it is determined that the range information RI has been generated and the process proceeds to step S140. In step S140, it is determined whether the user has performed an end operation or a continuation operation. If the continuation operation has been performed, the process returns to step S100. Thereby, the range information RI corresponding to the next interpolation range INr can be generated. For example, when generating the range information RI corresponding to the interpolation range INr-2 from the model viewpoint direction VDm2 to the model viewpoint direction VDm3, the interpolation range is set in step S100. Thereafter, processing similar to the processing related to the interpolation range INr-1 is performed, and range information RI related to each interpolation range is generated.

なお、ステップS105にて設定される第1の3次元モデルは、生成する範囲情報RIの補間にて使用される3次元モデルMである必要はなく、ステップS110にて生成される第2の3次元モデルMの生成が容易になるように、3次元モデルMを適宜設定すればよい。例えば、正面モデルM1が第1の3次元モデルMとして常に設定されてもよい。   Note that the first three-dimensional model set in step S105 does not have to be the three-dimensional model M used in the interpolation of the range information RI to be generated, but the second three-dimensional model generated in step S110. What is necessary is just to set the three-dimensional model M suitably so that the production | generation of the three-dimensional model M becomes easy. For example, the front model M1 may always be set as the first three-dimensional model M.

ステップS140にて、ユーザにより終了操作がされたと判断された場合は、ステップS145にて記憶処理を行ない、その後、モデリング処理を終了する。記憶処理では、モデリング処理にて生成された全ての範囲情報RIがキャラクタAの基準軸CAに関する補間情報INinfとして、記憶部4に記憶される。   If it is determined in step S140 that the user has performed an end operation, the storage process is performed in step S145, and then the modeling process is terminated. In the storage process, all range information RI generated in the modeling process is stored in the storage unit 4 as interpolation information INinf regarding the reference axis CA of the character A.

次に、所定のアプリケーションの実行中に、当該アプリケーションのキャラクタAをモニタ3に表示するためのレンダリング処理について説明する。まず、第2の画像生成方法に基づいてレンダリング処理が行われる場合について、図15に示すフローチャートに従って説明する。レンダリング処理は、制御部5によって制御される。本形態では、キャラクタAがモニタ3に表示されるアプリケーションが、ゲームである場合について説明する。この場合、制御部5に所定のゲームの実行を制御するゲーム制御部が備えられることにより、画像処理システム1はゲームシステムとして機能し、ゲーム中のゲーム画面においてキャラクタAが表示される。   Next, a rendering process for displaying the character A of the application on the monitor 3 during execution of the predetermined application will be described. First, the case where rendering processing is performed based on the second image generation method will be described with reference to the flowchart shown in FIG. The rendering process is controlled by the control unit 5. In this embodiment, a case where the application in which the character A is displayed on the monitor 3 is a game will be described. In this case, by providing the control unit 5 with a game control unit that controls execution of a predetermined game, the image processing system 1 functions as a game system, and the character A is displayed on the game screen during the game.

まず、ステップS200にて、キャラクタAが配置される画像生成空間GSにおいて、視点位置VPが特定される。キャラクタAが配置される位置は、例えば中心点CPによって特定される。キャラクタAが配置される位置及び視点位置VPは、ユーザの操作内容、ゲーム内容、スコア等に応じて決定されればよい。以下のレンダリング処理において、図16に示すように、特定された視点位置VP9から注視点GPを見た場合に、モニタ3に表示される画像を生成する場合について説明する。ステップS205にて、視点位置VP9の視点方向VDを特定する。これにより、制御部5は、視点方向特定手段5gとして機能する。視点位置VP9の方向ベクトルVd9により、視点位置VP9の視点方向VDが決定される。本形態では、方向ベクトルVd9が補間視点方向Di2を示す。即ち、視点位置VP9の視点方向VDは補間視点方向VDi2である。   First, in step S200, the viewpoint position VP is specified in the image generation space GS in which the character A is arranged. The position where the character A is arranged is specified by the center point CP, for example. The position where the character A is arranged and the viewpoint position VP may be determined according to the user's operation content, game content, score, and the like. In the following rendering processing, as shown in FIG. 16, a case where an image displayed on the monitor 3 is generated when the gazing point GP is viewed from the specified viewpoint position VP9 will be described. In step S205, the viewpoint direction VD of the viewpoint position VP9 is specified. Thereby, the control part 5 functions as the viewpoint direction specifying means 5g. The viewpoint direction VD of the viewpoint position VP9 is determined by the direction vector Vd9 of the viewpoint position VP9. In this embodiment, the direction vector Vd9 indicates the interpolation viewpoint direction Di2. That is, the viewpoint direction VD of the viewpoint position VP9 is the interpolation viewpoint direction VDi2.

視点方向VDの決定後、ステップS210にて、補間情報INinfを参照して、補間視点方向VDi2に対応する範囲情報RIが選択される。補間情報INinfにおける各範囲情報RIの補間範囲50を参照して、補間視点方向VDi2が含まれる補間範囲50を特定し、特定された補間範囲50に対応する範囲情報RIを、補間視点方向VDi2に対応する範囲情報RIとして選択する。例えば、基準方向V1からの距離に基づいて、補間視点方区VDi2が含まれる補間範囲50を特定すればよい。本形態では、補間視点方向VDi2が含まれるモデル視点方向VDm1からモデル視点方向VDm2までの補間範囲INr−1が、補間範囲50に設定された範囲情報RIが選択される。これにより、補間視点方向VDi2に対する2つのモデル視点方向VDm1、VDm2が決定され、制御部5はモデル視点方向設定手段として機能する。   After the determination of the viewpoint direction VD, in step S210, the range information RI corresponding to the interpolation viewpoint direction VDi2 is selected with reference to the interpolation information INinf. With reference to the interpolation range 50 of each range information RI in the interpolation information INinf, the interpolation range 50 including the interpolation viewpoint direction VDi2 is specified, and the range information RI corresponding to the specified interpolation range 50 is set in the interpolation viewpoint direction VDi2. The corresponding range information RI is selected. For example, the interpolation range 50 including the interpolation viewpoint section VDi2 may be specified based on the distance from the reference direction V1. In this embodiment, the range information RI in which the interpolation range INr-1 from the model viewpoint direction VDm1 to the model viewpoint direction VDm2 including the interpolation viewpoint direction VDi2 is set as the interpolation range 50 is selected. Thereby, two model viewpoint directions VDm1 and VDm2 with respect to the interpolation viewpoint direction VDi2 are determined, and the control unit 5 functions as a model viewpoint direction setting unit.

続いて、ステップS220に進み、選択された範囲情報RIにおける使用モデル60を参照して、補間処理に使用される2つの3次元モデルMを特定する。本形態では、正面モデルM1と45度モデルM2が特定される。次に、ステップS230にて、特定された正面モデルM1及び45度モデルM2を画像生成空間GSに配置し、上述した補間処理を行うことにより3次元補間モデルMiを生成する。これにより、制御部5は、補間モデル生成手段として機能する。補間処理は、選択された範囲情報RIを参照し、補間方法70、影響度80、及びパーツ補間方法90に基づいて補間処理が行われる。なお、影響度は、影響度80に設定された影響度テーブルTを参照することにより特定する。補間視点方向VDixが影響度テーブルTに設定されていない場合は、影響度テーブルTに設定され、補間視点方向VDixを挟む2つの補間視点方向VDiを特定し、各補間視点方向VDiとの周方向CDに関する距離に応じて、補間視点方向VDixに対する各3次元モデルMの影響度を特定すればよい。これにより、制御部5は影響度特定手段として機能する。   Subsequently, the process proceeds to step S220, and the two three-dimensional models M used for the interpolation process are specified with reference to the use model 60 in the selected range information RI. In this embodiment, the front model M1 and the 45 degree model M2 are specified. Next, in step S230, the identified front model M1 and 45 degree model M2 are placed in the image generation space GS, and the above-described interpolation processing is performed to generate the three-dimensional interpolation model Mi. Thereby, the control part 5 functions as an interpolation model production | generation means. The interpolation processing is performed based on the interpolation method 70, the influence degree 80, and the part interpolation method 90 with reference to the selected range information RI. The influence degree is specified by referring to the influence degree table T set to the influence degree 80. When the interpolation viewpoint direction VDix is not set in the influence degree table T, it is set in the influence degree table T, two interpolation viewpoint directions VDi sandwiching the interpolation viewpoint direction VDix are specified, and the circumferential direction with each interpolation viewpoint direction VDi What is necessary is just to specify the influence degree of each three-dimensional model M with respect to the interpolation viewpoint direction VDix according to the distance regarding CD. Thereby, the control part 5 functions as an influence degree specifying means.

次に、ステップS240にて、生成した3次元補間モデルMiを画像生成空間GSに配置し、視点位置VPを含み視点位置VP9から注視点GPへ向かう注視ベクトルVg9に直交する平面P9に、3次元補間モデルMiを投影させる。これにより、平面P9上に補間画像INima―i2を得る。ステップS250にて、補間画像INima―i2が、描画メモリに描画されることにより、キャラクタAの補間画像INima―i2がモニタ3に表示される。以上で、レンダリング処理を終了する。   Next, in step S240, the generated three-dimensional interpolation model Mi is arranged in the image generation space GS and is three-dimensionally displayed on a plane P9 that includes the viewpoint position VP and is orthogonal to the gaze vector Vg9 from the viewpoint position VP9 toward the gazing point GP. The interpolation model Mi is projected. Thereby, the interpolation image INima-i2 is obtained on the plane P9. In step S250, the interpolated image INima-i2 is drawn in the drawing memory, so that the interpolated image INima-i2 of the character A is displayed on the monitor 3. This completes the rendering process.

なお、第1の画像生成方法がレンダリング処理に適用される場合は、ステップS230にて、モデル視点方向VDm1、VDm2に対応する仮投影画像Ima―10、Ima―11を生成し、ステップS240にて、2つの仮投影画像Ima―10、Ima―11の補間処理を行うことにより、平面P9上に補間画像INima―i2を生成し、ステップS250にて、生成された補間画像INima―i2が描画メモリに描画されることにより、補間画像INima−i2がモニタ3に表示される。ステップS200からステップS220までの処理は、第2の画像生成方法の場合の処理と同様である。   If the first image generation method is applied to the rendering process, provisional projection images Ima-10 and Ima-11 corresponding to the model viewpoint directions VDm1 and VDm2 are generated in step S230, and in step S240. An interpolation image INima-i2 is generated on the plane P9 by performing interpolation processing of the two provisional projection images Ima-10 and Ima-11, and the generated interpolation image INima-i2 is drawn in step S250. As a result, the interpolated image INima-i2 is displayed on the monitor 3. The processing from step S200 to step S220 is the same as the processing in the case of the second image generation method.

第1の画像生成方法が適用される場合の具体的な手順について、図17を用いて説明する。ステップS230にて、仮投影画像Ima―10、Ima―11を得るために、次のような処理が行われる。まず、モデル視点方向VDm1にあり、視点位置VP9を通る仮想円Cir上にある仮視点位置VP10を特定し、モデル視点方向Dm2にあり、視点位置VPを通る仮想円Cir上にある仮視点位置VP11を特定する。仮視点位置VP10から注視点GPを見た注視ベクトルVg10に直交し、仮視点位置VP10を含む平面P10に、画像生成空間GSに配置した正面モデルM1を投影させて、第1仮画像としての仮投影画像Ima―10を生成する。これにより、制御部5は第1の仮画像取得手段として機能する。   A specific procedure when the first image generation method is applied will be described with reference to FIG. In step S230, the following processing is performed to obtain provisional projection images Ima-10 and Ima-11. First, a temporary viewpoint position VP10 that is in the model viewpoint direction VDm1 and is on the virtual circle Cir that passes through the viewpoint position VP9 is specified, and a temporary viewpoint position VP11 that is in the model viewpoint direction Dm2 and is on the virtual circle Cir that passes through the viewpoint position VP. Is identified. The front model M1 arranged in the image generation space GS is projected onto a plane P10 that is orthogonal to the gaze vector Vg10 viewed from the temporary viewpoint position VP10 and viewed from the temporary viewpoint position VP10 and includes the temporary viewpoint position VP10. A projection image Ima-10 is generated. Thereby, the control unit 5 functions as a first temporary image acquisition unit.

また、仮視点位置VP11から注視点GPへ向かう注視ベクトルVg11に直交し、仮視点位置VP11を含む平面P11に画像生成空間GSに配置した45度モデルM2を投影させて、第2仮画像としての仮投影画像Ima―11を生成する。これにより、制御部5は第2の仮画像取得手段として機能する。次に、ステップS240にて、仮投影画像Ima―10及び仮投影画像Ima−11に基づいて、上述した補間処理を行うことにより、補間画像INima―i2を、注視ベクトルVg9に直交し、視点位置VP9を含む平面P9上に生成する。   Further, the 45-degree model M2 that is orthogonal to the gaze vector Vg11 from the temporary viewpoint position VP11 to the gazing point GP and that is disposed in the image generation space GS is projected onto the plane P11 that includes the temporary viewpoint position VP11. A temporary projection image Ima-11 is generated. Thereby, the control part 5 functions as a 2nd temporary image acquisition means. Next, in step S240, by performing the above-described interpolation processing based on the temporary projection image Ima-10 and the temporary projection image Ima-11, the interpolation image INima-i2 is orthogonal to the gaze vector Vg9, and the viewpoint position It produces | generates on the plane P9 containing VP9.

本発明は上述の形態に限らず種々の形態にて実施されてよい。例えば、仮想円Cir上に設定されるモデル視点方向VDmの位置及び数は、キャラクタAの表示すべき特徴に併せて適宜設定すればよい。補間範囲INrに関係なく補間方法及び影響度が一定の場合は、各補間範囲INrに関する範囲情報RIを設定する必要はない。視点方向VDを特定するための基準方向は正面方向に限らず、いずれの視点方向VDを基準方向としてもよい。モデル視点方向VDmに対応する3次元モデルMの各頂点座標は、1つの基本の3次元モデルの各頂点に基づいた関数によって得られるようにしてもよい。この場合は、モデルデータMDの頂点情報30には、頂点座標を得るための関数が設定される。   The present invention is not limited to the above-described embodiment, and may be implemented in various forms. For example, the position and number of the model viewpoint direction VDm set on the virtual circle Cir may be set as appropriate in accordance with the characteristics to be displayed by the character A. When the interpolation method and the influence degree are constant regardless of the interpolation range INr, it is not necessary to set the range information RI regarding each interpolation range INr. The reference direction for specifying the viewpoint direction VD is not limited to the front direction, and any viewpoint direction VD may be used as the reference direction. Each vertex coordinate of the three-dimensional model M corresponding to the model viewpoint direction VDm may be obtained by a function based on each vertex of one basic three-dimensional model. In this case, a function for obtaining vertex coordinates is set in the vertex information 30 of the model data MD.

画像処理システム1は、ゲームシステムとしてのみ機能する場合、制御部5は、切り出し手段5a、修正手段5d、及び第2のモデル設定手段等のモデリング処理を行うための機能を備えていなくてもよい。キャラクタAの頭部だけでなく体部分を含む3次元モデルMについても同様に処理すればよい。また、3次元モデルMに基づいてモニタに表示される対象は、キャラクタに限らず、生物、植物、無機物を問わない。   When the image processing system 1 functions only as a game system, the control unit 5 may not have a function for performing modeling processing such as the cutout unit 5a, the correction unit 5d, and the second model setting unit. . The same processing may be applied to the three-dimensional model M including not only the head of the character A but also the body part. The target displayed on the monitor based on the three-dimensional model M is not limited to a character, and may be a living thing, a plant, or an inorganic substance.

更に、基準軸CAはキャラクタA内を通る軸であればよく、キャラクタAの特徴に応じて適宜設定すればよい。この場合、視点方向VDによって形成される仮想円Cirは、基準軸CAを中心にして、基準軸CAに垂直な平面上に形成される。   Further, the reference axis CA may be an axis that passes through the character A, and may be set as appropriate according to the characteristics of the character A. In this case, the virtual circle Cir formed by the viewpoint direction VD is formed on a plane perpendicular to the reference axis CA with the reference axis CA at the center.

例えば、図18に示すように、YZ平面に垂直なX軸方向に平行な基準軸CAaを設定してもよい。上下方向に関して2次元的に変化するキャラクタAに対応することができる。この場合、基準軸CAaを上記形態のZ軸とし、基準軸CAaに垂直なYZ平面上に形成される仮想円Ciraを、上記形態における仮想円Cirとし、特徴的な態様を示す視点方向VDを、例えば、モデル視点方向VDm10、VDm11、VDm12として設定して、上記形態と同様の処理を行えばよい。また、X軸、Y軸及びZ軸のいずれにも平行でない基準軸CAbを設定してもよい。この場合は、基準軸CAbを上記形態のZ軸とし、基準軸CAbに垂直な平面上に形成される仮想円Cirbを上記形態の仮想円Cirとして上述の形態と同様の処理を行えばよい。   For example, as shown in FIG. 18, a reference axis CAa parallel to the X-axis direction perpendicular to the YZ plane may be set. A character A that changes two-dimensionally in the vertical direction can be handled. In this case, the reference axis CAa is the Z axis of the above form, the virtual circle Cira formed on the YZ plane perpendicular to the reference axis CAa is the virtual circle Cir in the above form, and the viewpoint direction VD indicating the characteristic aspect is For example, the model viewpoint directions VDm10, VDm11, and VDm12 may be set, and the same processing as in the above embodiment may be performed. Further, a reference axis CAb that is not parallel to any of the X axis, the Y axis, and the Z axis may be set. In this case, the same processing as in the above-described embodiment may be performed with the reference axis CAb as the Z-axis in the above form and the virtual circle Cirb formed on the plane perpendicular to the reference axis CAb as the virtual circle Cir in the above form.

また、複数の視点方向VDを含む仮想領域VAを単位にして、本願発明を実現してもよい。その場合は、図19に示すように、キャラクタAの中心点CPを中心にした仮想球Gを画像生成空間GSに配置させる。そして、水平方向の仮想緯線VL及び鉛直方向の仮想経線VMによって複数の仮想領域VAを形成し、仮想領域VAのうち特定のモデル領域VAm1、VAm2を、中心点CPを中心に円を描く方向に設け、各モデル領域VAmに対応する3次元モデルMを対応付ける。   Further, the present invention may be realized in units of a virtual area VA including a plurality of viewpoint directions VD. In this case, as shown in FIG. 19, a virtual sphere G centered on the center point CP of the character A is arranged in the image generation space GS. Then, a plurality of virtual areas VA are formed by the horizontal virtual latitude VL and the vertical virtual meridian VM, and specific model areas VAm1 and VAm2 of the virtual area VA are drawn in a direction of drawing a circle around the center point CP. And a three-dimensional model M corresponding to each model region VAm is associated.

この場合、視点位置VPに対してキャラクタAの方向を決定する方向ベクトルVdは、視点位置VPからキャラクタAの中心点CPへ向かうベクトルである。方向ベクトルVd100のようにキャラクタ領域VAmを通る場合は、方向ベクトルVdが通るモデル領域VAmに対応する3次元モデルMを、画像生成区間GSに配置して視点位置VPに対応する画像を生成する。方向ベクトルVd110のように、モデル領域VAmではない補間領域VAiを通る場合は、例えば、補間領域VAiを挟む2つのモデル領域VAm1、VAm2を特定し、特定されたモデル領域VAm1、Rm2に対応する3次元モデルMを用いて、上述したような補間処理することにより、補間領域VAiに対応する補間画像INimaを生成すればよい。   In this case, the direction vector Vd for determining the direction of the character A with respect to the viewpoint position VP is a vector from the viewpoint position VP toward the center point CP of the character A. When passing through the character area VAm like the direction vector Vd100, the three-dimensional model M corresponding to the model area VAm through which the direction vector Vd passes is arranged in the image generation section GS to generate an image corresponding to the viewpoint position VP. When passing through the interpolation area VAi that is not the model area VAm as in the direction vector Vd110, for example, two model areas VAm1 and VAm2 sandwiching the interpolation area VAi are specified, and 3 corresponding to the specified model areas VAm1 and Rm2 are specified. The interpolation image INima corresponding to the interpolation area VAi may be generated by performing the interpolation processing as described above using the dimension model M.

特定の補間領域VAiに関する補間処理に使用されるモデル領域VAmは、例えば、各補間領域VAiに対して予め設定しておけばよい。なお、仮想球Gに設定される複数の仮想領域VAは、中心点CPを中心にして周方向に配置されればよく、その形状や大きさは問わない。   The model area VAm used for the interpolation processing related to the specific interpolation area VAi may be set in advance for each interpolation area VAi, for example. The plurality of virtual areas VA set in the virtual sphere G may be arranged in the circumferential direction with the center point CP as the center, and the shape and size are not limited.

(2)第2の形態(第2の画像処理システム)
本発明の第2の画像処理システムの概要について、図20〜図21を用いて説明する。第2の画像処理システムは、第1の画像処理システムと同様に、1つの3次元モデルを任意の視点位置から見ることにより、キャラクタを表現する従来の方法では表現することができない、キャラクタの2次元的な表現を可能とする。以下、主に第1の画像処理システムと異なる点について説明する。中心点CP、基準軸CA、各視点位置VP1〜VP3、各方向ベクトルVd1〜Vd3、及び各視点方向VD1〜VD3の概念は、第1の形態と同様である。なお、本形態では、視点方向VD20は、視点方向VD1から135度移動した視点方向VDであり、視点位置VP20は、視点方向VD20上にある視点位置VPであり、方向ベクトルVd20は、視点位置VP20から基準軸CAに対して垂直に交わるベクトルである。
(2) Second form (second image processing system)
The outline of the second image processing system of the present invention will be described with reference to FIGS. Similar to the first image processing system, the second image processing system cannot represent a character by using a conventional method of representing a character by viewing one three-dimensional model from an arbitrary viewpoint position. Dimensional expression is possible. Hereinafter, differences from the first image processing system will be mainly described. The concepts of the center point CP, the reference axis CA, the viewpoint positions VP1 to VP3, the direction vectors Vd1 to Vd3, and the viewpoint directions VD1 to VD3 are the same as in the first embodiment. In this embodiment, the viewpoint direction VD20 is the viewpoint direction VD moved 135 degrees from the viewpoint direction VD1, the viewpoint position VP20 is the viewpoint position VP on the viewpoint direction VD20, and the direction vector Vd20 is the viewpoint position VP20. To the vector perpendicular to the reference axis CA.

以下、本形態では視点方向VD1を基準方向VDcといい、その他の視点方向VD、即ち、基準方向VDcから周方向CDに移動した視点方向VDを移動視点方向MVDという。例えば、視点方向VD2、VD3、VD20のそれぞれも、基準方向VDcから45度、90度、135度にそれぞれ移動した移動視点方向MVD2、MVD3、MVD20のそれぞれである。本形態では、基準方向VDcからキャラクタAを見た時に使用される3次元モデルMが基準モデルMcとして用意され、移動視点方向MVDからキャラクタAを見た時に使用される3次元モデルMは、移動視点方向MVDに対応する関数Fによって生成する。以下、移動視点方向MVDからキャラクタAを見た時に使用される3次元モデルMを「移動モデルMm」という。   Hereinafter, in this embodiment, the viewpoint direction VD1 is referred to as a reference direction VDc, and the other viewpoint directions VD, that is, the viewpoint direction VD moved from the reference direction VDc to the circumferential direction CD is referred to as a moving viewpoint direction MVD. For example, the viewpoint directions VD2, VD3, and VD20 are also moving viewpoint directions MVD2, MVD3, and MVD20 that have moved 45 degrees, 90 degrees, and 135 degrees from the reference direction VDc, respectively. In this embodiment, a three-dimensional model M used when the character A is viewed from the reference direction VDc is prepared as the reference model Mc, and the three-dimensional model M used when the character A is viewed from the moving viewpoint direction MVD is It is generated by the function F corresponding to the viewpoint direction MVD. Hereinafter, the three-dimensional model M used when the character A is viewed from the moving viewpoint direction MVD is referred to as “moving model Mm”.

本形態では、中心点CPを中心とした周方向CDに関して、複数の関数区間FRが設けられ、各関数区間FRには、関数区間FRに含まれる移動視点方向MVDに対して使用される関数Fが対応付けられている。図21の例では、キャラクタAに関して、基準方向VDc〜移動視点方向MVD2の関数区間FR1と、移動視点方向MVD2〜移動視点方向MVD3の関数区間FR2と、移動視点方向MVD3〜移動視点方向MVD20の関数区間FR3と、移動視点方向MVD20〜基準方向VDcの関数区間FR4とが設けられている。本形態では、関数区間FR1〜FR4のそれぞれには、例えば関数F1〜F4のそれぞれ対応付けられる。   In the present embodiment, a plurality of function sections FR are provided for the circumferential direction CD centered on the center point CP, and each function section FR has a function F used for the moving viewpoint direction MVD included in the function section FR. Are associated. In the example of FIG. 21, for the character A, a function section FR1 of the reference direction VDc to the moving viewpoint direction MVD2, a function section FR2 of the moving viewpoint direction MVD2 to the moving viewpoint direction MVD3, and a function of the moving viewpoint direction MVD3 to the moving viewpoint direction MVD20. A section FR3 and a function section FR4 from the moving viewpoint direction MVD20 to the reference direction VDc are provided. In the present embodiment, each of the function sections FR1 to FR4 is associated with, for example, each of the functions F1 to F4.

関数F1は、関数区間FR1内の移動視点方向MVDfr1に対応するキャラクタAの3次元モデルMである移動モデルMm1を生成するため関数である。具体的には、関数F1は、基準モデルMcの各頂点座標と、基準方向VDcから移動視点方向MVDfr1までの移動量Mq1とを設定することにより、移動モデルMm1の各頂点座標が得られるように設定されている。   The function F1 is a function for generating a movement model Mm1 that is a three-dimensional model M of the character A corresponding to the movement viewpoint direction MVDfr1 in the function section FR1. Specifically, the function F1 sets each vertex coordinate of the reference model Mc and a movement amount Mq1 from the reference direction VDc to the movement viewpoint direction MVDfr1, so that each vertex coordinate of the movement model Mm1 is obtained. Is set.

また、関数F2は、関数区間FR2内の移動視点方向MVDfr2に対応するキャラクタAの3次元モデルMである移動モデルMm2を生成するための関数である。具体的には、関数F2は、基準モデルMcの各頂点座標と、基準方向VDcから移動視点方向MVDfr2までの移動量Mq2とを設定することにより、移動モデルMm2の各頂点座標が得られるように設定されている。   The function F2 is a function for generating a movement model Mm2 that is a three-dimensional model M of the character A corresponding to the movement viewpoint direction MVDfr2 in the function section FR2. Specifically, the function F2 sets each vertex coordinate of the reference model Mc and a movement amount Mq2 from the reference direction VDc to the movement viewpoint direction MVDfr2, so that each vertex coordinate of the movement model Mm2 is obtained. Is set.

そして、関数F3は、関数区間FR3内の移動視点方向MVDfr3に対応するキャラクタAの3次元モデルMである移動モデルMm3を生成するための関数である。具体的には、関数F3は、基準モデルMcの各頂点座標と、基準方向VDcから移動視点方向MVDfr3までの移動量Mq3とを設定することにより、移動モデルMm3の各頂点座標が得られるように設定されている。   The function F3 is a function for generating a movement model Mm3 that is a three-dimensional model M of the character A corresponding to the movement viewpoint direction MVDfr3 in the function section FR3. Specifically, the function F3 sets each vertex coordinate of the reference model Mc and a movement amount Mq3 from the reference direction VDc to the movement viewpoint direction MVDfr3 so that each vertex coordinate of the movement model Mm3 can be obtained. Is set.

最後に、関数F4は、関数区間FR4内の移動視点方向MVDfr4に対応するキャラクタAの3次元モデルMである移動モデルMm4を生成するための関数である。具体的には、関数F4は、基準モデルMcの各頂点座標と、基準方向VDcから移動視点方向MVDfr4までの移動量Mq4とを設定することにより、移動モデルMm4の各頂点座標が得られるように設定されている。なお、キャラクタAのパーツによって変化する態様が異なる場合は、各関数区間FRには各パーツに対応する関数Fが対応付けられる。   Finally, the function F4 is a function for generating a movement model Mm4 that is a three-dimensional model M of the character A corresponding to the movement viewpoint direction MVDfr4 in the function section FR4. Specifically, the function F4 sets each vertex coordinate of the reference model Mc and a movement amount Mq4 from the reference direction VDc to the moving viewpoint direction MVDfr4 so that each vertex coordinate of the movement model Mm4 can be obtained. Is set. In addition, when the aspect which changes with parts of the character A differs, each function section FR is matched with the function F corresponding to each part.

次に、図22に示すように、キャラクタAが登場するアプリケーション(例えば、ゲーム)の実行中に、キャラクタAに対して移動視点方向MVDa上にある視点位置VPaから注視点GPを見た状態をモニタに表示する場合において、キャラクタAを表現する手順について説明する。移動視点方向MVDaは、図22に示すように、関数区間FR2に含まれるので、関数区間FR2に対応付けられた関数F2が、移動モデルMm生成のために使用される関数Fとして決定される。   Next, as illustrated in FIG. 22, a state in which the gazing point GP is viewed from the viewpoint position VPa on the moving viewpoint direction MVDa with respect to the character A during execution of an application (for example, a game) in which the character A appears. The procedure for expressing the character A when displaying on the monitor will be described. As shown in FIG. 22, the moving viewpoint direction MVDa is included in the function section FR2, and therefore the function F2 associated with the function section FR2 is determined as the function F used for generating the moving model Mm.

移動視点方向MVDaの移動量Mqaと、基準モデルMcの各頂点座標を関数F2に設定することにより、移動モデルMmの各頂点座標を得る。これにより、中心点CPを中心とする位置に、移動視点位置MVDaに対応する3次元モデルMである移動モデルMmが生成される。続いて、視点位置VPaから注視点GPへ向かう視線ベクトルVgaに直交する平面Paに、移動モデルMmを投影した投影像を描画する。当該投影像が、所定の描画領域に描画されることにより、視点位置VPaから注視点GPを見た時のキャラクタAの画像としてモニタに表示される。   Each vertex coordinate of the movement model Mm is obtained by setting the movement amount Mqa in the movement viewpoint direction MVDa and each vertex coordinate of the reference model Mc to the function F2. As a result, a movement model Mm, which is a three-dimensional model M corresponding to the movement viewpoint position MVDa, is generated at a position centered on the center point CP. Subsequently, a projection image obtained by projecting the movement model Mm is drawn on a plane Pa orthogonal to the line-of-sight vector Vga from the viewpoint position VPa toward the gazing point GP. The projected image is drawn on a predetermined drawing area, and is displayed on the monitor as an image of the character A when the gazing point GP is viewed from the viewpoint position VPa.

上述の画像表示を実現する第2の画像処理システム100の具体的な構成について説明する。まず、画像処理システム100のハードウェア構造は、図23に示す。第2の画像処理ステム100は、操作入力部2、表示部3、記憶部104及び制御部105で構成される。制御部105は、CPU及びその動作に必要なRAM、ROM等の各種記憶域を備える。記憶部104のコンピュータプログラムが実行されることにより、主に、移動モデル生成手段105a、描画手段105b、描画表示手段105c、及び視点方向特定手段105dとして、機能する。各手段の機能については後述する。   A specific configuration of the second image processing system 100 that realizes the above-described image display will be described. First, the hardware structure of the image processing system 100 is shown in FIG. The second image processing system 100 includes an operation input unit 2, a display unit 3, a storage unit 104, and a control unit 105. The control unit 105 includes a CPU and various storage areas such as RAM and ROM necessary for its operation. By executing the computer program in the storage unit 104, it mainly functions as the movement model generation unit 105a, the drawing unit 105b, the drawing display unit 105c, and the viewpoint direction specifying unit 105d. The function of each means will be described later.

記憶部104には、本発明を実現するためのコンピュータプログラムの他、基準モデルMcを画像生成空間GSに生成するための基準モデルデータとしてのモデルデータMD’、及び関数区間情報FRIが記憶されている。本形態のモデルデータMD’のデータ構造を図24に示す。モデルデータMD’は、第1の形態のモデルデータMDのデータ構造と同様に、パーツ識別情報31と頂点情報30とで構成される。頂点情報30には、各パーツに含まれる複数のポリゴンの頂点座標と法線情報とが含まれる。頂点座標は所定の点に関して相対的な座標であってもよいし、画像生成空間GSにおける座標値であってもよい。なお、第2の形態においては、モデルデータMD’は基準方向VDcからキャラクタAを見た時に使用される3次元モデルMだけであるため、モデルデータMD’に視点方向VDを対応付ける必要はない。記憶部104は、モデルデータMD’を記憶することにより、モデルデータ記憶部として機能する。   In addition to the computer program for realizing the present invention, the storage unit 104 stores model data MD ′ as reference model data for generating the reference model Mc in the image generation space GS, and function interval information FRI. Yes. The data structure of the model data MD ′ in this embodiment is shown in FIG. The model data MD ′ is composed of part identification information 31 and vertex information 30 as in the data structure of the model data MD of the first form. The vertex information 30 includes vertex coordinates and normal information of a plurality of polygons included in each part. The vertex coordinates may be relative coordinates with respect to a predetermined point, or may be coordinate values in the image generation space GS. In the second embodiment, the model data MD ′ is only the three-dimensional model M used when the character A is viewed from the reference direction VDc. Therefore, it is not necessary to associate the viewpoint direction VD with the model data MD ′. The storage unit 104 functions as a model data storage unit by storing the model data MD ′.

次に、関数区間情報FRIのデータ構造について図25を用いて説明する。関数区間情報FRIは、関数区間FRと、パーツ情報120と、関数情報130とで構成される。パーツ情報120には、基準モデルMcにおける少なくとも1つのパーツを示すパーツ識別情報が設定され、関数情報130には、対応する関数区間FRに関して、対応するパーツに対して使用されるモデル形成関数としての関数F及び関数Fに関する条件が設定されている。関数Fは、対応する関数区間FR内の移動視点方向MVDの移動量Mqと、基準モデルMcの各パーツの各頂点座標に基づいて、移動視点方向MVDに対応する移動モデルMcの各パーツの頂点座標が得られるように設定されている。これにより、任意の角度から見たキャラクタAを見た場合に、所望のキャラクタAを表現することができる。記憶部104は、関数Fを記憶することにより関数記憶部として機能する。   Next, the data structure of the function section information FRI will be described with reference to FIG. The function section information FRI includes a function section FR, part information 120, and function information 130. In the part information 120, part identification information indicating at least one part in the reference model Mc is set, and in the function information 130, as a model forming function used for the corresponding part with respect to the corresponding function section FR. A function F and a condition related to the function F are set. The function F is a vertex of each part of the movement model Mc corresponding to the movement viewpoint direction MVD based on the movement amount Mq of the movement viewpoint direction MVD in the corresponding function section FR and each vertex coordinate of each part of the reference model Mc. It is set so that coordinates can be obtained. Thereby, when the character A viewed from an arbitrary angle is viewed, the desired character A can be expressed. The storage unit 104 functions as a function storage unit by storing the function F.

各関数区間FRに対応付けられる関数情報130の数は関数区間FRに応じて異なる。図25の例では、4つの関数区間FR1〜FR4のうち、関数区間FR1に関しては、3つの関数情報130a〜130cが対応付けられ、各関数情報130a〜130cには、その関数が使用されるパーツが設定されたパーツ情報120a〜120cが対応付けられている。また、関数区間FR3に関しては、1つの関数情報130gが対応付けられ、その関数情報130gには、全てのパーツが設定されたパーツ情報120gが対応付けられている。これにより、関数情報130gに設定された関数Fは、全てのパーツに対して適用される。   The number of function information 130 associated with each function section FR varies depending on the function section FR. In the example of FIG. 25, among the four function sections FR1 to FR4, the function section FR1 is associated with three function information 130a to 130c, and each function information 130a to 130c is a part in which the function is used. Is associated with the part information 120a to 120c set. In addition, regarding the function section FR3, one function information 130g is associated, and the function information 130g is associated with part information 120g in which all parts are set. Thereby, the function F set in the function information 130g is applied to all parts.

画像生成空間GSにおける任意の視点位置VPaから注視点GPを見た場合において、キャラクタAの画像をモニタに表示するためのレンダリング処理について、図26のフローチャートに従って説明する。レンダリング処理によって、例えば、キャラクタAがゲームに登場する場合、ゲームの実行中に視点位置VPaから見たキャラクタAがモニタに表示される。まず最初に、ステップS500にて画像生成空間GSにおけるキャラクタAの位置を決定する。例えば、キャラクタAの中心点CPの位置によって決定すればよい。これにより、キャラクタAの基準モデルMcの座標値が決定する。キャラクタAの位置は、実行されているゲームの状況やプレイヤの操作によって決定される。続いて、ステップS505にて視点位置VPaを決定する。視点位置VPaは、実行されているゲームの状況やプレイヤの操作によって決定される。   A rendering process for displaying the image of the character A on the monitor when the gazing point GP is viewed from an arbitrary viewpoint position VPa in the image generation space GS will be described with reference to the flowchart of FIG. For example, when the character A appears in the game by the rendering process, the character A viewed from the viewpoint position VPa is displayed on the monitor during the execution of the game. First, in step S500, the position of the character A in the image generation space GS is determined. For example, it may be determined by the position of the center point CP of the character A. Thereby, the coordinate value of the reference model Mc of the character A is determined. The position of the character A is determined by the situation of the game being executed and the operation of the player. Subsequently, the viewpoint position VPa is determined in step S505. The viewpoint position VPa is determined by the situation of the game being executed and the operation of the player.

次に、ステップS510にて、視点位置VPaに関する移動視点方向MVDa、即ち、視点位置VPaに対するキャラクタAの方向である視点方向VDを決定する。これにより、制御部105は視点方向特定手段105dとして機能する。移動視点方向MVDは、視点位置VPaからキャラクタAの基準軸CAに垂直に直交する方向ベクトルVdaが示す方向として決定される。次に、ステップS520にて、移動量Mqaを決定する。移動量Mqaは、基準方向VDcが移動視点方向MVDに移動する角度である。移動量Mqaの決定後、ステップS530にて、少なくとも1つの関数Fが決定される。移動視点方向MVDが含まれる関数区間FRを決定し、決定された関数区間FRに関する関数区間情報FRIを決定すればよい。   Next, in step S510, the moving viewpoint direction MVDa related to the viewpoint position VPa, that is, the viewpoint direction VD that is the direction of the character A with respect to the viewpoint position VPa is determined. Thereby, the control unit 105 functions as the viewpoint direction specifying unit 105d. The moving viewpoint direction MVD is determined as the direction indicated by the direction vector Vda perpendicular to the reference axis CA of the character A from the viewpoint position VPa. Next, in step S520, the movement amount Mqa is determined. The movement amount Mqa is an angle at which the reference direction VDc moves in the movement viewpoint direction MVD. After determining the movement amount Mqa, at least one function F is determined in step S530. The function section FR including the moving viewpoint direction MVD may be determined, and the function section information FRI related to the determined function section FR may be determined.

使用される関数Fの決定後、ステップS540に進み、移動モデルMmを生成する。移動モデルMmは、ステップS530にて決定された関数区間情報FRIに基づいて生成する。例えば、ステップS530にて、図25の関数区間情報FRIを参照することにより、関数区間FR1の関数区間情報FRIが決定されると、基準モデルMcの頂点座標及び移動量Mqaを、各関数情報130a、130b、130cの関数Fに設定することによって、対応する各パーツ情報120a、120b、120cのパーツの頂点座標を得る。これにより、移動モデルMmの各頂点が得られ、移動モデルMmがステップS500にて決定された位置に生成される。   After determining the function F to be used, the process proceeds to step S540 to generate a movement model Mm. The movement model Mm is generated based on the function section information FRI determined in step S530. For example, in step S530, when the function section information FRI of the function section FR1 is determined by referring to the function section information FRI in FIG. 25, the vertex coordinates and the movement amount Mqa of the reference model Mc are obtained from the function information 130a. , 130b, 130c, the vertex coordinates of the parts of the corresponding parts information 120a, 120b, 120c are obtained. Thereby, each vertex of the movement model Mm is obtained, and the movement model Mm is generated at the position determined in step S500.

移動モデルMmの生成後、ステップS550に進む。ステップS550では、視点位置VPから注視点GPへ向かう視線ベクトルVgaに垂直に交わる平面Paに、生成された移動モデルMmを投射させ、その投射像を所定の描画領域に描画する。続いて、ステップS560にて、描画領域に描画された投射像を、キャラクタAの画像としてモニタに表示する。   After the generation of the movement model Mm, the process proceeds to step S550. In step S550, the generated movement model Mm is projected onto a plane Pa that intersects perpendicularly to the line-of-sight vector Vga from the viewpoint position VP to the gazing point GP, and the projection image is drawn in a predetermined drawing area. Subsequently, in step S560, the projected image drawn in the drawing area is displayed on the monitor as an image of the character A.

ステップS510〜ステップS540により、制御部105は移動モデル生成手段105aとして機能する。特に、ステップS510により、制御部105は視点方向特定手段105dとして機能する。また、ステップS550により、制御部105は描画手段105bとして機能し、ステップS560により、制御部105は描画表示手段105cとして機能する。   Through steps S510 to S540, the control unit 105 functions as the movement model generation unit 105a. In particular, in step S510, the control unit 105 functions as the viewpoint direction specifying unit 105d. Further, in step S550, the control unit 105 functions as the drawing unit 105b, and in step S560, the control unit 105 functions as the drawing display unit 105c.

本発明は上述の形態に限らず、種々の形態にて実行されてもよい。例えば、表示すべきキャラクタに対して設定される関数区間FRの数は、表示態様に応じて設定すればよい。また、特定の移動視点方向MVDにのみ使用される関数Fが設定されてもよい。その場合は、関数区間情報FRIの関数区間には、当該特定の移動視点方向を設定すればよい。キャラクタAのモデルデータMD’は、各ポリゴンの頂点座標が求められる関数が設定されていてもよい。キャラクタAの頭部だけでなく体部分を含む3次元モデルMについても同様に処理すればよい。また、3次元モデルMに基づいてモニタに表示される対象は、キャラクタに限らず、生物、植物、無機物を問わない。   The present invention is not limited to the above-described form and may be executed in various forms. For example, the number of function sections FR set for the character to be displayed may be set according to the display mode. Further, a function F that is used only in a specific moving viewpoint direction MVD may be set. In that case, the specific moving viewpoint direction may be set in the function section of the function section information FRI. The model data MD ′ of the character A may be set with a function for obtaining the vertex coordinates of each polygon. The same processing may be applied to the three-dimensional model M including not only the head of the character A but also the body part. The target displayed on the monitor based on the three-dimensional model M is not limited to a character, and may be a living thing, a plant, or an inorganic substance.

関数Fによって生成される3次元モデルMが使用される関数区間FRだけでなく、基準モデルMcが使用される基準区間CRが設けられてもよい。2つの基準区間CR1、CR2が設けられた例を図27に示す。更に、基準軸CAは、図28に示すように、YZ平面に垂直なX軸方向に平行な基準軸CAaとして設定してもよい。これにより、上下方向に関して2次元的に変化するキャラクタAに対応することができる。この場合、基準軸CAaを上記形態のZ軸とし、基準軸CAaに垂直なYZ平面上に形成される仮想円Ciraを、上記形態における仮想円Cirとし、基準方向VDc100の時に使用されるキャラクタAの3次元モデルMを基準モデルMcとし、仮想円Ciraに関して関数区間FRを設定し、上記形態と同様の処理をすればよい。また、X軸、Y軸及びZ軸のいずれにも平行でない基準軸CAbを設定してもよい。この場合は、基準軸CAbを上記形態のZ軸とし、基準軸CAbに垂直な平面上に形成される仮想円Cirbを上記形態の仮想円Cirとして上述の形態と同様の処理を行えばよい。   In addition to the function section FR in which the three-dimensional model M generated by the function F is used, a reference section CR in which the reference model Mc is used may be provided. An example in which two reference intervals CR1 and CR2 are provided is shown in FIG. Furthermore, the reference axis CA may be set as a reference axis CAa parallel to the X-axis direction perpendicular to the YZ plane, as shown in FIG. Thereby, it is possible to deal with the character A that changes two-dimensionally in the vertical direction. In this case, the reference axis CAa is the Z axis in the above form, and the virtual circle Cira formed on the YZ plane perpendicular to the reference axis CAa is the virtual circle Cir in the above form, and the character A used in the reference direction VDc100. The three-dimensional model M is set as the reference model Mc, the function section FR is set for the virtual circle Cira, and the same processing as in the above embodiment may be performed. Further, a reference axis CAb that is not parallel to any of the X axis, the Y axis, and the Z axis may be set. In this case, the same processing as in the above-described embodiment may be performed with the reference axis CAb as the Z-axis in the above form and the virtual circle Cirb formed on the plane perpendicular to the reference axis CAb as the virtual circle Cir in the above form.

また、複数の視点方向VDを含む仮想領域VAを単位にして、本願発明を実現してもよい。その場合は、図29に示すように、キャラクタAの中心点CPを中心にした仮想球Gを画像生成空間GSに配置させる。そして、水平方向の仮想緯線VL及び鉛直方向の仮想経線VMによって複数の仮想領域VAを形成する。この場合、方向ベクトルVdは、視点位置VPからキャラクタAの中心点CPへ向かうベクトルである。方向ベクトルVd100のように、仮想領域VAのうち基準領域VAc内を通る方向ベクトルVdに対応する移動視点方向MVDに関しては、基準モデルMcが使用される。   Further, the present invention may be realized in units of a virtual area VA including a plurality of viewpoint directions VD. In this case, as shown in FIG. 29, a virtual sphere G centered on the center point CP of the character A is arranged in the image generation space GS. A plurality of virtual areas VA are formed by the horizontal virtual latitude VL and the vertical virtual meridian VM. In this case, the direction vector Vd is a vector from the viewpoint position VP toward the center point CP of the character A. Like the direction vector Vd100, the reference model Mc is used for the moving viewpoint direction MVD corresponding to the direction vector Vd passing through the reference area VAc in the virtual area VA.

一方、1つ以上の仮想領域VAによって、複数の関数区間領域FRAが形成され、各関数区間領域FRAに対して、基準モデルMcからキャラクタAの移動モデルMmを生成する関数Fが設定されている。図29には、8つの仮想領域VAによって、関数区間領域FRAが設定されている状態が示されている。この場合、関数区間領域Fに対応付けられている関数Fは、方向ベクトルVd110のように、関数区間領域FRA内を通る方向ベクトルVdに対応する移動視点方向MVDに関して、使用される関数Fである。   On the other hand, a plurality of function section areas FRA are formed by one or more virtual areas VA, and a function F for generating the movement model Mm of the character A from the reference model Mc is set for each function section area FRA. . FIG. 29 shows a state in which the function section area FRA is set by eight virtual areas VA. In this case, the function F associated with the function section area F is a function F used for the moving viewpoint direction MVD corresponding to the direction vector Vd passing through the function section area FRA, like the direction vector Vd110. .

基準領域Acを通る基準方向Vcと移動視点方向MVDとの移動量と、基準モデルMcの頂点座標が関数Fに設定されることにより、移動モデルMmが生成される。なお、仮想球Gに設定される複数の仮想領域VAは、中心点CPを中心にして周方向に配置されればよく、その形状や大きさは問わない。   The movement model Mm is generated by setting the movement amount between the reference direction Vc and the movement viewpoint direction MVD passing through the reference area Ac and the vertex coordinates of the reference model Mc to the function F. The plurality of virtual areas VA set in the virtual sphere G may be arranged in the circumferential direction with the center point CP as the center, and the shape and size are not limited.

A キャラクタ
1 第1の画像処理システム
100 第2の画像処理システム
2 操作入力部
3 表示部
4、104 記憶部
5、105 制御部
5a 補間画像生成手段
5b 補間画像表示手段
CA 基準軸
CP 中心点
Vd 方向ベクトル
VD 視点方向
VDc 基準方向
VDi 補間視点方向
VDm モデル視点方向
MVD 移動視点方向
Mq 移動量
VP 視点位置
A character 1 first image processing system 100 second image processing system 2 operation input unit 3 display unit 4, 104 storage unit 5, 105 control unit 5a interpolation image generation unit 5b interpolation image display unit CA reference axis CP center point Vd Direction vector VD View direction VDc Reference direction VDi Interpolated view direction VDm Model view direction MVD Moving view direction Mq Movement amount VP View position

Claims (18)

仮想3次元空間の所定位置に配置された表示対象体の3次元モデルに基づいて、前記表示対象体に対する視点位置の方向である視点方向に応じて前記表示対象体の画像を表示部に表示する画像処理システムであって、
前記表示対象体に対して視点位置が第1の視点方向にある場合に、前記表示対象体の3次元モデルとして使用される第1のモデルを形成するための第1のモデルデータと、前記表示対象体に対して視点位置が、前記表示対象体を中心に前記第1の視点方向が所定の周方向に移動した第2の視点方向にある場合に、前記表示対象体の3次元モデルとして使用される第2のモデルを形成するための第2のモデルデータを記憶するモデルデータ記憶手段と、
前記周方向に関して前記第1の視点方向から前記第2の視点方向までの間に存在する補間視点方向に対応する前記表示対象体の2次元画像である補間画像を、前記第1のモデルデータから得られる前記第1のモデルの各頂点座標と、前記第2のモデルデータから得られる前記第2のモデルの各頂点座標とに基づいて補間処理を行うことにより生成し、前記補間画像を所定の描画領域に描画する補間画像生成手段と、
前記描画領域に描画された前記補間画像を、前記表示対象体に対して視点位置が前記補間視点方向にある場合に、前記視点位置から見た前記表示対象体として、前記表示部に表示する補間画像表示手段とを有する、ことを特徴とする画像処理システム。
Based on the three-dimensional model of the display object placed at a predetermined position in the virtual three-dimensional space, the image of the display object is displayed on the display unit according to the viewpoint direction that is the direction of the viewpoint position with respect to the display object. An image processing system,
First model data for forming a first model used as a three-dimensional model of the display object when the viewpoint position is in the first viewpoint direction with respect to the display object, and the display Used as a three-dimensional model of the display object when the viewpoint position with respect to the object is in the second viewpoint direction in which the first viewpoint direction is moved in a predetermined circumferential direction around the display object Model data storage means for storing second model data for forming a second model to be generated;
An interpolation image that is a two-dimensional image of the display object corresponding to an interpolation viewpoint direction existing between the first viewpoint direction and the second viewpoint direction with respect to the circumferential direction is obtained from the first model data. Generated by performing an interpolation process based on each vertex coordinate of the obtained first model and each vertex coordinate of the second model obtained from the second model data, Interpolated image generating means for drawing in the drawing area;
Interpolation for displaying the interpolated image drawn in the drawing area on the display unit as the display object viewed from the viewpoint position when the viewpoint position is in the interpolation viewpoint direction with respect to the display object And an image display means.
前記第1及び第2のモデルデータのそれぞれには、前記第1のモデルを形成する各頂点と、前記第2のモデルを形成する各頂点とを互いに対応付ける対応付け情報が含まれ、
前記補間画像生成手段は、前記各頂点の対応関係を保ちつつ補間処理を行うことにより、前記補間画像を生成する、ことを特徴とする請求項1に記載の画像処理システム。
Each of the first and second model data includes association information that associates each vertex forming the first model with each vertex forming the second model,
The image processing system according to claim 1, wherein the interpolation image generation unit generates the interpolation image by performing an interpolation process while maintaining a correspondence relationship between the vertices.
前記第1及び第2のモデルデータのそれぞれにおいて、前記複数のポリゴンの各頂点に対して、前記各頂点がグループを形成するように、対応するグループを識別するグループ識別情報が対応付けられ、
前記各グループ毎に前記補間画像生成手段において使用される補間方法が対応付けられて記憶されたグループ補間情報記憶手段が更に設けられ、
前記補間画像生成手段は、前記各グループに対応付けられた補間方法によって、そのグループに対応する各頂点座標に基づいた前記補間処理を行うことにより、前記補間画像を生成する、ことを特徴とする請求項2に記載の画像処理システム。
In each of the first and second model data, group identification information for identifying a corresponding group is associated with each vertex of the plurality of polygons so that each vertex forms a group,
A group interpolation information storage unit that stores an interpolation method used in the interpolation image generation unit in association with each group is further provided.
The interpolation image generation means generates the interpolation image by performing the interpolation processing based on each vertex coordinate corresponding to the group by an interpolation method associated with the group. The image processing system according to claim 2.
前記第1の視点方向と前記第2の視点方向との間の補間範囲において設定された前記補間視点方向と、前記第1の視点方向及び前記第2の視点方向のそれぞれとの相対的な位置関係に応じて、前記第1のモデルデータ及び前記第2のモデルデータのそれぞれが、前記補間画像生成手段における補間に与える影響の大きさを示す第1の影響度及び第2の影響度を特定する影響度特定手段を更に有し、
前記補間画像生成手段は、
前記影響度特定手段により、特定された前記第1の影響度及び前記第2の影響度に基づいて、前記第1のモデルデータから得られる各頂点座標と前記第2のモデルデータから得られる各頂点座標とに基づいた補間処理を行う、ことを特徴とする請求項1に記載の画像処理システム。
Relative positions of the interpolation viewpoint direction set in the interpolation range between the first viewpoint direction and the second viewpoint direction, and each of the first viewpoint direction and the second viewpoint direction According to the relationship, the first model data and the second model data specify the first and second influence levels indicating the magnitude of the influence on the interpolation in the interpolated image generating means. Further having an influence degree specifying means for
The interpolation image generation means includes
Each of the vertex coordinates obtained from the first model data and each of the second model data obtained from the first model data on the basis of the first influence degree and the second influence degree specified by the influence degree specifying means. The image processing system according to claim 1, wherein interpolation processing based on vertex coordinates is performed.
前記ユーザの入力操作を受け付ける操作入力手段を更に備え、
前記第1のモデルを前記表示部に表示させ、前記ユーザの操作に応じて、前記表示部に表示された第1のモデルの特定部分を切り出す切り出し手段と、
切り出された前記特定部分に対して、前記ユーザによる修正操作を受け付ける修正手段と、
前記特定部分が前記修正手段によって修正された前記第1のモデルを、前記第2のモデルとして設定する第2のモデル設定手段とを有する、ことを特徴とする請求項1に記載の画像処理システム。
Further comprising an operation input means for receiving the user's input operation;
Cutout means for displaying the first model on the display unit, and cutting out a specific part of the first model displayed on the display unit in accordance with the operation of the user;
Correction means for accepting a correction operation by the user with respect to the cut out specific part;
2. The image processing system according to claim 1, further comprising: a second model setting unit that sets the first model in which the specific portion is corrected by the correcting unit as the second model. .
前記表示対象体を通り、所定方向に伸びる基準軸が設定され、
前記モデルデータ記憶手段において、第2の視点方向は、前記基準軸を中心に前記第1の視点方向が所定の周方向に移動した方向であり、
前記補間画像生成手段には、
前記基準軸に対する視点位置の方向を、前記表示対象体に対する視点方向として特定する視点方向特定手段が設けられ、
前記特定された視点方向が前記第1の視点方向から前記第2の視点方向までの間に存在する場合に、前記視点方向を前記補間視点方向として前記補間画像を生成する、ことを特徴とする、請求項1に記載の画像処理システム。
A reference axis extending in a predetermined direction through the display object is set,
In the model data storage unit, the second viewpoint direction is a direction in which the first viewpoint direction moves in a predetermined circumferential direction around the reference axis,
The interpolation image generation means includes
Viewpoint direction specifying means for specifying the direction of the viewpoint position with respect to the reference axis as the viewpoint direction with respect to the display object is provided;
When the specified viewpoint direction exists between the first viewpoint direction and the second viewpoint direction, the interpolation image is generated with the viewpoint direction as the interpolation viewpoint direction. The image processing system according to claim 1.
前記モデルデータ記憶手段は、前記基準軸を中心にした周方向上に設定された複数のモデル視点方向に関して、前記各モデル視点方向に対応する前記表示対象体の3次元モデルを形成するためのモデルデータを記憶し、
前記補間画像生成手段は、
前記視点方向特定手段によって特定された視点方向が、前記補間視点方向である場合に、前記周方向に関して挟まれる2つのモデル視点方向を特定し、一方のモデル視点方向を前記第1の視点方向とし、他方のモデル視点方向を前記第2の視点方向として設定するモデル視点方向設定手段を、更に備え、
前記補間画像生成手段は、前記モデル視点方向設定手段によって設定された前記第1の視点方向と前記第2の視点方向に基づいて、前記特定された視点方向に対応する前記補間画像を生成する、ことを特徴とする請求項6記載の画像処理システム。
The model data storage means is a model for forming a three-dimensional model of the display object corresponding to each model viewpoint direction with respect to a plurality of model viewpoint directions set on a circumferential direction around the reference axis. Remember the data,
The interpolation image generation means includes
When the viewpoint direction specified by the viewpoint direction specifying unit is the interpolation viewpoint direction, two model viewpoint directions sandwiched with respect to the circumferential direction are specified, and one model viewpoint direction is set as the first viewpoint direction. And a model viewpoint direction setting means for setting the other model viewpoint direction as the second viewpoint direction,
The interpolated image generating means generates the interpolated image corresponding to the specified viewpoint direction based on the first viewpoint direction and the second viewpoint direction set by the model viewpoint direction setting means. The image processing system according to claim 6.
前記周方向に関して隣接する2つの前記モデル視点方向によって構成される補間範囲毎に、対応する2つのモデルの補間に関する情報が設定された範囲情報が記憶される補間情報記憶手段を更に備え、
前記モデル視点方向特定手段は、前記補間情報記憶手段を参照して、前記特定された視点方向が含まれる補間範囲の範囲情報を特定することにより、前記2つのモデル視点方向を特定し、
前記補間画像生成手段は、前記補間に関する情報に基づいて、前記2つのモデルに対応するモデルデータの補間を行う、ことを特徴とする請求項7に記載の画像処理システム。
Interpolation information storage means for storing range information in which information related to interpolation of two corresponding models is stored for each interpolation range constituted by the two model viewpoint directions adjacent to each other in the circumferential direction,
The model viewpoint direction specifying means specifies the two model viewpoint directions by specifying range information of an interpolation range including the specified viewpoint direction with reference to the interpolation information storage means,
The image processing system according to claim 7, wherein the interpolation image generation unit performs interpolation of model data corresponding to the two models based on information related to the interpolation.
前記補間画像生成手段は、
前記第1のモデルデータから得られる各頂点座標及び前記第2のモデルデータから得られる各頂点座標を補間することにより、3次元補間モデルを生成する補間モデル生成手段を更に備え、
前3次元補間モデルを前記表示対象体の3次元モデルとして前記所定位置に配置し、前記視点位置から所定の注視点を見た時の前記3次元補間モデルから得られる画像を、前記表示対象体の前記補間画像として生成する、ことを特徴とする請求項7に記載の画像処理システム。
The interpolation image generation means includes
An interpolation model generating means for generating a three-dimensional interpolation model by interpolating each vertex coordinate obtained from the first model data and each vertex coordinate obtained from the second model data;
An image obtained from the three-dimensional interpolation model when the predetermined three-dimensional interpolation model is arranged at the predetermined position as the three-dimensional model of the display target object and a predetermined gaze point is viewed from the viewpoint position is displayed on the display target object The image processing system according to claim 7, wherein the image processing system is generated as the interpolated image.
前記補間画像生成手段は、
前記視点位置と前記基準軸からの距離が同じで、前記設定された第1の視点方向にある点を第1の仮視点位置として設定し、前記設定された第1の視点方向に対応する第1のモデルを、前記表示対象体の3次元モデルとして前記所定位置に配置し、前記第1の仮視点位置から所定の注視点を見た時に、前記第1のモデルから得られる第1仮画像を取得する第1の仮画像取得手段と、
前記視点位置と前記基準軸からの距離が同じで、前記設定された第2の視点方向にある点を第2の仮視点位置として設定し、前記設定された第2の視点方向に対応する第2のモデルを前記表示対象体の3次元モデルとして前記所定位置に配置し、前記第2の仮視点位置から前記注視点を見た時に、前記第2のモデルから得られる第2仮画像を取得する第2の仮画像取得手段とを更に備え、
前記特定された視点方向に応じて、前記第1の仮画像の各頂点座標と前記第2の仮画像の各頂点座標を補間することにより得られる画像を、前記表示対象体に対して前記特定された視点方向にある視点位置から前記注視点を見た時の前記表示体の補間画像として生成する、ことを特徴とする請求項7に記載の画像処理システム。
The interpolation image generation means includes
A point having the same distance from the viewpoint position and the reference axis and in the set first viewpoint direction is set as a first temporary viewpoint position, and the first corresponding to the set first viewpoint direction is set. A first temporary image obtained from the first model when a predetermined model is placed at the predetermined position as a three-dimensional model of the display object and the predetermined gazing point is viewed from the first temporary viewpoint position. First provisional image acquisition means for acquiring
A point having the same distance from the viewpoint position and the reference axis and in the set second viewpoint direction is set as a second temporary viewpoint position, and the second corresponding to the set second viewpoint direction is set. When the second model is placed at the predetermined position as a three-dimensional model of the display object and the gazing point is viewed from the second temporary viewpoint position, a second temporary image obtained from the second model is acquired. Second provisional image acquisition means for
According to the specified viewpoint direction, an image obtained by interpolating each vertex coordinate of the first temporary image and each vertex coordinate of the second temporary image is specified with respect to the display object. The image processing system according to claim 7, wherein the image processing system is generated as an interpolated image of the display body when the gazing point is viewed from a viewpoint position in a specified viewpoint direction.
前記表示対象体における所定の中心点を中心にした球状態の仮想領域において、緯線方向及び経線方向に分割された複数の領域が設定され、前記第1のモデルデータは、前記第1の視点方向を含む第1の領域のいずれかの視点方向に視点位置がある場合に、前記表示対象体の3次元モデルとしての前記第1のモデルを形成するためのデータであり、前記第2のモデルデータは、前記中心点を中心に前記第1の領域を周方向に位置する第2の領域のいずれかの視点方向に視点位置がある場合に、前記表示対象体の3次元モデルとしての前記第2のモデルを形成するためのデータであり、
前記補間画像生成手段は、前記周方向に関して前記第1の領域から前記第2の領域までの間に存在する補間領域に含まれる前記補間視点方向に視点位置がある場合、前記補間視点方向に対応する補間画像を、前記第1のモデルデータに基づいて得られる各頂点座標と、前記第2のモデルデータに基づいて得られる各頂点座標を補間することにより生成して、所定の描画領域に描画する、
ことを特徴とする請求項1に記載の画像処理システム。
A plurality of regions divided in a latitude direction and a meridian direction are set in a spherical virtual region centered on a predetermined center point in the display object, and the first model data is the first viewpoint direction. Data for forming the first model as a three-dimensional model of the display object when the viewpoint position is in any one of the viewpoint directions of the first region including the second model data The second as the three-dimensional model of the display object when the viewpoint position is in the viewpoint direction of any one of the second areas located in the circumferential direction around the center point. Data to form a model of
The interpolation image generation means corresponds to the interpolation viewpoint direction when the viewpoint position is in the interpolation viewpoint direction included in the interpolation area existing between the first area and the second area with respect to the circumferential direction. An interpolated image is generated by interpolating each vertex coordinate obtained based on the first model data and each vertex coordinate obtained based on the second model data, and rendered in a predetermined rendering area To
The image processing system according to claim 1.
前記表示対象体は所定のゲームに登場するゲームキャラクタである、ことを特徴とする請求項1〜11のいずれか1項に記載の画像処理システム。   The image processing system according to claim 1, wherein the display object is a game character appearing in a predetermined game. コンピュータに、仮想3次元空間に配置された表示対象体の3次元モデルに基づいて、前記表示対象体に対する視点位置の方向である視点方向に応じて前記表示対象体の画像を表示部に表示させる画像処理方法であって、
前記コンピュータに
前記表示対象体に対して視点位置が第1の視点方向にある場合に、前記表示対象体の3次元モデルとして使用される第1のモデルを形成するための第1のモデルデータと、前記表示対象体に対して視点位置が、前記表示対象体を中心に前記第1の視点方向が所定の周方向に移動した第2の視点方向にある場合に、前記表示対象体の3次元モデルとして使用される第2のモデルを形成するための第2のモデルデータを記憶するステップと、
前記周方向に関して前記第1の視点方向から前記第2の視点方向までの間に存在する補間視点方向に対応する前記表示対象体の2次元画像である補間画像を、前記第1のモデルデータから得られる前記第1のモデルデータの各頂点座標と前記第2のモデルデータから得られる前記第2のモデルの各頂点座標とに基づいて補間処理を行うことにより生成して所定の描画領域に描画するステップと、
前記描画領域に描画された前記補間画像を、前記補間視点方向に対応する前記表示対象体として、前記表示部に表示するステップとを実行させる、ことを特徴とする画像処理方法。
Based on a three-dimensional model of the display target object arranged in the virtual three-dimensional space, the computer displays an image of the display target object on the display unit according to the viewpoint direction that is the direction of the viewpoint position with respect to the display target object. An image processing method comprising:
First model data for forming a first model used as a three-dimensional model of the display object when the viewpoint position is in a first viewpoint direction with respect to the display object on the computer; When the viewpoint position with respect to the display object is in a second viewpoint direction in which the first viewpoint direction moves in a predetermined circumferential direction around the display object, the three-dimensional of the display object Storing second model data to form a second model to be used as a model;
An interpolation image that is a two-dimensional image of the display object corresponding to an interpolation viewpoint direction existing between the first viewpoint direction and the second viewpoint direction with respect to the circumferential direction is obtained from the first model data. Generated by performing an interpolation process based on each vertex coordinate of the obtained first model data and each vertex coordinate of the second model obtained from the second model data, and drawn in a predetermined drawing area And steps to
Displaying the interpolated image drawn in the drawing area on the display unit as the display object corresponding to the interpolated viewpoint direction.
仮想3次元空間の所定位置に配置された表示対象体の3次元モデルに基づいて、前記表示対象体に対する視点位置の方向である視点方向に応じて前記表示対象体の画像を表示部に表示する画像処理システムであって、
前記表示対象体に対する視点位置が所定の基準方向にある場合に、前記表示対象体の3次元モデルとして使用される基準モデルを形成するための基準モデルデータを記憶するモデルデータ記憶部と、
前記表示対象体に対する視点位置が、前記基準方向を前記表示対象体を中心に周方向に移動させた移動視点方向にある場合に、前記移動視点方向に対応する前記表示対象体の3次元モデルとして使用される移動モデルを構成する複数のポリゴンの各頂点座標を、前記基準モデルを構成する複数のポリゴンの各頂点座標と、前記移動視点方向の前記基準方向からの移動量とに基づいて得られるように設定されたモデル形成関数を、前記移動視点方向に応じて記憶する関数記憶部と、
前記表示対象体を見る視点位置が、前記関数記憶部に記憶されたいずれの移動視点方向にあるかを特定し、特定された前記移動視点方向に対応する前記モデル形成関数を選択し、前記移動量及び前記基準モデルの各頂点座標に基づいて、前記選択されたモデル形成関数により、前記所定位置に前記移動モデルを生成する移動モデル生成手段と、
前記視点位置から前記生成された移動モデルを見た移動モデル画像を、所定の描画領域に描画する描画手段と、
前記描画領域に描画された移動モデル画像を、前記視点位置から前記表示対象体を見た時の前記表示対象体の画像として、前記表示部に表示する描画表示手段と
を有する、ことを特徴とする画像処理システム。
Based on the three-dimensional model of the display object placed at a predetermined position in the virtual three-dimensional space, the image of the display object is displayed on the display unit according to the viewpoint direction that is the direction of the viewpoint position with respect to the display object. An image processing system,
A model data storage unit that stores reference model data for forming a reference model used as a three-dimensional model of the display object when a viewpoint position with respect to the display object is in a predetermined reference direction;
As a three-dimensional model of the display object corresponding to the moving viewpoint direction when the viewpoint position with respect to the display object is in a moving viewpoint direction in which the reference direction is moved in the circumferential direction around the display object The vertex coordinates of a plurality of polygons constituting the movement model used are obtained based on the vertex coordinates of the plurality of polygons constituting the reference model and the movement amount of the moving viewpoint direction from the reference direction. A function storage unit that stores the model formation function set in accordance with the moving viewpoint direction;
Specify which moving viewpoint direction stored in the function storage unit the viewpoint position for viewing the display object is, select the model forming function corresponding to the specified moving viewpoint direction, and move the movement A movement model generating means for generating the movement model at the predetermined position by the selected model forming function based on the quantity and each vertex coordinate of the reference model;
Drawing means for drawing a movement model image obtained by viewing the generated movement model from the viewpoint position in a predetermined drawing area;
Drawing display means for displaying the movement model image drawn in the drawing area as an image of the display target object when the display target object is viewed from the viewpoint position, on the display unit; Image processing system.
前記関数記憶部において、前記表示対象体の前記周方向に設けられた複数の関数区間のそれぞれに対して、前記移動視点方向の移動量と前記基準モデルの各頂点座標とに基づいて、前記移動モデルの各頂点座標が得られるように設定された前記モデル形成関数が対応付けられ、
前記移動モデル生成手段は、前記基準モデルデータの各頂点座標と前記移動量に基づいて、前記選択されたモデル形成関数により、前記移動モデルを生成する、ことを特徴とする請求項14に記載の画像処理システム。
In the function storage unit, for each of a plurality of function sections provided in the circumferential direction of the display object, the movement based on the movement amount in the movement viewpoint direction and each vertex coordinate of the reference model The model forming function set to obtain each vertex coordinate of the model is associated,
15. The movement model generation unit generates the movement model by the selected model formation function based on each vertex coordinate of the reference model data and the movement amount. Image processing system.
前記基準モデルデータでは、前記基準モデルを構成する複数のポリゴンの頂点座標が、複数のグループにグループ化されて設定され、
前記関数記憶部において、前記各グループ毎に、そのグループに対応する前記基準モデルの各頂点座標から、前記移動モデルの各頂点座標が得られるモデル形成関数が設定されている、ことを特徴とする請求項14又は15に記載の画像処理システム。
In the reference model data, vertex coordinates of a plurality of polygons constituting the reference model are set by being grouped into a plurality of groups,
In the function storage unit, for each group, a model forming function for obtaining each vertex coordinate of the movement model from each vertex coordinate of the reference model corresponding to the group is set. The image processing system according to claim 14 or 15.
前記表示対象体を通り、所定方向に伸びる基準軸が設定され、
前記周方向は前記基準軸を中心にした方向であり、
前記移動モデル生成手段は、前記基準軸に対する視点位置の方向を、前記表示対象体に対する視点方向として特定する視点方向特定手段を有し、前記視点方向特定手段にて特定された視点方向を、前記移動視点方向として特定し、前記移動モデルを生成する、ことを特徴とする請求項14〜16のいずれか1項に記載の画像処理システム。
A reference axis extending in a predetermined direction through the display object is set,
The circumferential direction is a direction around the reference axis,
The movement model generation unit includes a viewpoint direction specifying unit that specifies a direction of a viewpoint position with respect to the reference axis as a viewpoint direction with respect to the display object, and the viewpoint direction specified by the viewpoint direction specifying unit is The image processing system according to claim 14, wherein the movement model is generated by specifying the movement viewpoint direction.
表示対象体に対する視点位置が所定の基準方向にある場合に、前記表示対象体の3次元モデルとして使用される基準モデルを形成するための基準モデルデータを記憶するモデルデータ記憶部と、前記表示対象体に対する視点位置が、前記基準方向を前記表示対象体を中心に周方向に移動させた移動視点方向にある場合に、前記移動視点方向に対応する前記表示対象体の3次元モデルとして使用される移動モデルを構成する複数のポリゴンの各頂点座標を、前記基準モデルを構成する複数のポリゴンの各頂点座標と、前記移動視点方向の前記基準方向からの移動量とに基づいて得られるように設定されたモデル形成関数を、前記移動視点方向に応じて記憶する関数記憶部と、を有するコンピュータに、仮想3次元空間の所定位置に配置された前記表示対象体の3次元モデルに基づいて、前記表示対象体に対する視点位置の方向である視点方向に応じて前記表示対象体の画像を表示部に表示させる画像処理方法であって、
前記コンピュータに、
前記表示対象体を見る視点位置が、前記関数記憶部に記憶されたいずれの移動視点方向にあるかを特定し、特定された移動視点方向に対応する前記モデル形成関数を選択し、前記移動量及び前記基準モデルの各頂点座標に基づいて、前記選択されたモデル形成関数により、前記所定位置に前記移動モデルを生成させるステップと、
前記視点位置から前記生成された移動モデルを見た移動モデル画像を、所定の描画領域に描画させるステップと、
前記描画領域に描画された移動モデル画像を、前記視点位置から前記表示対象体を見た時の前記表示対象体の画像として、前記表示部に表示させるステップとを実行させる、ことを特徴とする画像処理方法。
A model data storage unit for storing reference model data for forming a reference model used as a three-dimensional model of the display object when the viewpoint position with respect to the display object is in a predetermined reference direction; and the display object Used as a three-dimensional model of the display object corresponding to the moving viewpoint direction when the viewpoint position with respect to the body is in a moving viewpoint direction in which the reference direction is moved in the circumferential direction around the display object The vertex coordinates of a plurality of polygons constituting the movement model are set so as to be obtained based on the vertex coordinates of the plurality of polygons constituting the reference model and the movement amount of the moving viewpoint direction from the reference direction. A function storage unit that stores the model forming function stored in accordance with the moving viewpoint direction, before being placed at a predetermined position in the virtual three-dimensional space. Based on the three-dimensional model of the display object, an image processing method for displaying on a display unit an image of the display object in accordance with the viewpoint direction is the direction of the viewpoint position with respect to the display object,
In the computer,
It is specified in which moving viewpoint direction stored in the function storage unit the viewpoint position for viewing the display object, the model forming function corresponding to the specified moving viewpoint direction is selected, and the movement amount And generating the movement model at the predetermined position by the selected model forming function based on each vertex coordinate of the reference model;
Drawing a movement model image obtained by viewing the generated movement model from the viewpoint position in a predetermined drawing area;
Displaying the movement model image drawn in the drawing area on the display unit as an image of the display target object when the display target object is viewed from the viewpoint position. Image processing method.
JP2009187296A 2009-08-12 2009-08-12 Image processing system and image processing method Active JP4918577B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009187296A JP4918577B2 (en) 2009-08-12 2009-08-12 Image processing system and image processing method
PCT/JP2009/070408 WO2011018860A1 (en) 2009-08-12 2009-12-04 Image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009187296A JP4918577B2 (en) 2009-08-12 2009-08-12 Image processing system and image processing method

Publications (2)

Publication Number Publication Date
JP2011039828A true JP2011039828A (en) 2011-02-24
JP4918577B2 JP4918577B2 (en) 2012-04-18

Family

ID=43586046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009187296A Active JP4918577B2 (en) 2009-08-12 2009-08-12 Image processing system and image processing method

Country Status (2)

Country Link
JP (1) JP4918577B2 (en)
WO (1) WO2011018860A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014153893A (en) * 2013-02-07 2014-08-25 Sony Computer Entertainment Inc Drawing processing device and drawing processing method
JP5665068B1 (en) * 2014-09-05 2015-02-04 株式会社Live2D Program, information processing apparatus, control method, and recording medium
US10748328B2 (en) 2016-04-28 2020-08-18 Live2D Inc. Recording medium, information processing apparatus, influence degree deriving method, and image generation method
JP7353418B1 (en) 2022-05-06 2023-09-29 株式会社Cygames Program, method, image generation device, and game system for generating images

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084402A (en) * 1999-09-09 2001-03-30 Namco Ltd Picture generation system and information storage medium
JP2007156773A (en) * 2005-12-05 2007-06-21 Konami Digital Entertainment:Kk Image generation device, image generation method, and program
JP2009104570A (en) * 2007-10-23 2009-05-14 Cybernoids Co Ltd Data structure for image formation and method of forming image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084402A (en) * 1999-09-09 2001-03-30 Namco Ltd Picture generation system and information storage medium
JP2007156773A (en) * 2005-12-05 2007-06-21 Konami Digital Entertainment:Kk Image generation device, image generation method, and program
JP2009104570A (en) * 2007-10-23 2009-05-14 Cybernoids Co Ltd Data structure for image formation and method of forming image

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014153893A (en) * 2013-02-07 2014-08-25 Sony Computer Entertainment Inc Drawing processing device and drawing processing method
US9652886B2 (en) 2013-02-07 2017-05-16 Sony Corporation Rendering processing device and rendering processing method using interpolation rendering result
JP5665068B1 (en) * 2014-09-05 2015-02-04 株式会社Live2D Program, information processing apparatus, control method, and recording medium
WO2016035724A1 (en) * 2014-09-05 2016-03-10 株式会社Live2D Program, information processing device, control method and recording medium
JP2016057691A (en) * 2014-09-05 2016-04-21 株式会社Live2D Program, information processor and recording medium
KR101874760B1 (en) * 2014-09-05 2018-07-04 라이브2디 인크. Information processing device, control method and recording medium
US10417811B2 (en) 2014-09-05 2019-09-17 Live2D Inc. Recording medium, information processing apparatus, and control method
US10748328B2 (en) 2016-04-28 2020-08-18 Live2D Inc. Recording medium, information processing apparatus, influence degree deriving method, and image generation method
JP7353418B1 (en) 2022-05-06 2023-09-29 株式会社Cygames Program, method, image generation device, and game system for generating images
JP2023165541A (en) * 2022-05-06 2023-11-16 株式会社Cygames Program for generating image, method, image generation device, and game system

Also Published As

Publication number Publication date
JP4918577B2 (en) 2012-04-18
WO2011018860A1 (en) 2011-02-17

Similar Documents

Publication Publication Date Title
US8154544B1 (en) User specified contact deformations for computer graphics
JP2021061041A (en) Foveated geometry tessellation
JP5562075B2 (en) Method and apparatus for creating surface processing data
US5774124A (en) Finite element modeling method and computer system for converting a triangular mesh surface to a quadrilateral mesh surface
JP5866177B2 (en) Image processing apparatus and image processing method
US20140085312A1 (en) Seamless fracture in a production pipeline
KR102443697B1 (en) Method and apparatus for performing a path stroke
JP4918577B2 (en) Image processing system and image processing method
JP6700480B2 (en) Polygon model generation device, polygon model generation method and program
US9811944B2 (en) Method for visualizing freeform surfaces by means of ray tracing
JP2010277115A (en) Harness verification device and harness verification program
JP5642804B2 (en) Display processing method and apparatus
CN110176058A (en) A kind of immersion fast modeling method based on sketch and Convolution Surface
JP5850380B2 (en) Shape data generation method and apparatus
US10297036B2 (en) Recording medium, information processing apparatus, and depth definition method
JP5458440B2 (en) Curved surface generation device and curved surface generation program
WO2018137454A1 (en) Method of adjusting object shape, and adjustment device
US10636210B2 (en) Dynamic contour volume deformation
JPH08123835A (en) Shape design support device
JP2012098951A (en) Graphic drawing processing apparatus, graphic drawing processing method and computer program
WO2006003856A1 (en) Image drawing device, vertex selecting method, vertex selecting program, and integrated circuit
JP5565671B2 (en) Image deformation method, image processing apparatus, and computer program
CN110728738B (en) Image stream animation rendering method and system based on local self-adaption
CN102646281B (en) Method and system for rasterizing elliptic arc
CN106600677B (en) To the processing method of conventional model in VR system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120130

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4918577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150203

Year of fee payment: 3

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250