JP2009064086A - Image-processing program, computer-readable recording medium recording the program, image processor and image processing method - Google Patents

Image-processing program, computer-readable recording medium recording the program, image processor and image processing method Download PDF

Info

Publication number
JP2009064086A
JP2009064086A JP2007229154A JP2007229154A JP2009064086A JP 2009064086 A JP2009064086 A JP 2009064086A JP 2007229154 A JP2007229154 A JP 2007229154A JP 2007229154 A JP2007229154 A JP 2007229154A JP 2009064086 A JP2009064086 A JP 2009064086A
Authority
JP
Japan
Prior art keywords
image data
contour
transparency
generating
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007229154A
Other languages
Japanese (ja)
Inventor
Mitsugi Hara
貢 原
Kazuhiro Matsuda
一裕 松田
Haku Sugiura
舶 杉浦
Daisuke Tabayashi
大輔 田林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP2007229154A priority Critical patent/JP2009064086A/en
Publication of JP2009064086A publication Critical patent/JP2009064086A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide image processing technology allowing further heightening expressive power of an outline. <P>SOLUTION: This image processor (a) perspectively projects a virtual three-dimensional space disposed with an object, and generates basic image data (S11), (b) performs outline extraction by use of the basic image data to generate first outline image data (S12), (c) reads a transparency parameter set associatively to at least a part of the object from a storage means (S13), (d) generates transparency map data representing transparency based on the transparency parameter (S14), (e) mixes the first outline image data and the transparency map data to generate second outline image data (S15), and (f) composes the second outline image data and the basic image data to generate two-dimensional image data (S16). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、仮想三次元空間に設定される事象を透視投影変換して二次元画像を生成する技術に関する。   The present invention relates to a technique for generating a two-dimensional image by perspective-projecting an event set in a virtual three-dimensional space.

近年のコンピュータ技術の発展に伴い、ビデオゲーム装置、シミュレータ(擬似体験装置)などに関する画像処理技術が広く一般に普及するようになっている。このようなシステムにおいては、表示される画像をより表現力豊かにすることが商品価値を高めるうえで重要となっている。このような背景の中、現実に近い表現(写実的な表現)とは一線を画し、水彩画風あるいはデッサン調などの手書き風の画像表現が検討されている。手書き風の画像表現において必要な要素の1つとして、各オブジェクト(例えば、人物等のキャラクタ)の輪郭を自然に表現することが挙げられる。このような輪郭表現に関する従来技術は、例えば特開2007−26111号公報(特許文献1)に開示されている。   With the development of computer technology in recent years, image processing technology relating to video game devices, simulators (pseudo-experience devices), etc. has become widely popular. In such a system, it is important to make the displayed image richer in expressiveness in order to increase the product value. In such a background, expressions that are close to reality (realistic expressions) are distinct, and hand-drawn image expressions such as watercolor styles or drawing styles are being studied. One of the elements necessary for handwritten image expression is to naturally express the outline of each object (for example, a character such as a person). The prior art regarding such contour expression is disclosed in, for example, Japanese Patent Application Laid-Open No. 2007-26111 (Patent Document 1).

しかし、従来の技術では、例えば人物を表すオブジェクトの画像における頭髪部分の表現において不都合を生じる場合がある。具体的には、頭髪部分は、頭頂部など頭髪の付け根に近いほど髪の密度が濃く、そこから離れるにつれて髪の密度が薄くなる。この頭髪の密度が薄く表現された髪の部分に輪郭を描画すると輪郭が目立ち過ぎてしまい、視覚的に違和感のある画像となる。このような技術的課題は、頭髪の画像表現に限らず、他の画像表現(例えば、セル画風の画像表現)において共通するものである。   However, the conventional technique may cause inconvenience in the expression of a hair portion in an image of an object representing a person, for example. More specifically, the hair density of the hair portion is closer to the base of the hair, such as the top of the head, and the hair density decreases as the distance from the hair portion increases. If a contour is drawn on the hair portion expressed with a light hair density, the contour becomes too conspicuous, resulting in a visually uncomfortable image. Such a technical problem is not limited to the image representation of hair, but is common to other image representations (for example, cell-like image representation).

特開2007−26111号公報JP 2007-26111 A

そこで、本発明は、輪郭の表現力をより高めることが可能な画像処理技術を提供することを1つの目的とする。   Accordingly, an object of the present invention is to provide an image processing technique capable of further enhancing the expressiveness of the contour.

本発明に係るプログラムは、記憶手段と演算手段を備えた画像処理装置によって実行され、オブジェクトが配置された仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成するプログラムであって、前記演算手段に、(a)前記オブジェクトが配置された前記仮想三次元空間を前記視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、(b)前記基礎画像データを用いて輪郭抽出を行うことにより第1の輪郭画像データを生成し、当該第1の輪郭画像データを前記記憶手段に格納するステップと、(c)前記オブジェクトの少なくとも一部に対応付けて設定された透明度パラメータを前記記憶手段から読み出すステップと、(d)前記透明度パラメータに基づいて、透明度を表す透明度マップデータを生成し、当該透明度マップデータを前記記憶手段に格納するステップと、(e)前記第1の輪郭画像データと前記透明度マップデータとを混合することによって第2の輪郭画像データを生成するステップと、(f)前記第2の輪郭画像データと前記基礎画像データとを合成することによって前記二次元画像データを生成するステップと、を実行させることを特徴とするものである。   A program according to the present invention is executed by an image processing apparatus including a storage unit and a calculation unit, and obtains two-dimensional image data obtained by perspective projection of a virtual three-dimensional space in which an object is arranged on a predetermined perspective projection plane. A program to be generated, wherein the arithmetic means (a) perspectively projects the virtual three-dimensional space in which the objects are arranged on the perspective projection plane set corresponding to the viewpoint, and obtains basic image data. Generating and storing the basic image data in the storage means; and (b) generating first contour image data by performing contour extraction using the basic image data, and generating the first contour image data. Storing in the storage means, and (c) a step of reading from the storage means a transparency parameter set in association with at least a part of the object. (D) generating transparency map data representing transparency based on the transparency parameter, and storing the transparency map data in the storage means; (e) the first contour image data and the transparency Generating second contour image data by mixing the map data; and (f) generating the two-dimensional image data by combining the second contour image data and the basic image data. Are executed.

上記した「オブジェクトの少なくとも一部」とは、例えば、人物キャラクタの頭髪の毛先である。また、上記した(a)は、前記オブジェクトの前記少なくとも一部に対して、毛髪を表す画像を含むテクスチャをマッピングする処理を含んでもよい。   The above “at least part of the object” is, for example, a hair end of a human character. Further, (a) described above may include a process of mapping a texture including an image representing hair to the at least part of the object.

上記の本発明に係るプログラムを実行することにより、第1の輪郭画像データと透明度マップデータとを混合することにより、濃淡を有する輪郭が表された第2の輪郭画像データが得られる。この第2の輪郭画像データを基礎画像データと合成することにより、輪郭の濃淡が自在に表現された二次元画像データを得ることができる。例えば、上記した頭髪を例にすると、毛先に近づくほど輪郭が薄く表すなど、輪郭の濃淡を所望の状態にすることができる。このように本発明によれば、輪郭の表現力をより高めることが可能となる。   By executing the program according to the present invention, the first contour image data and the transparency map data are mixed to obtain second contour image data in which a contour having light and shade is represented. By synthesizing the second contour image data with the basic image data, two-dimensional image data in which the density of the contour is freely expressed can be obtained. For example, taking the above-described hair as an example, the contour density can be set to a desired state, for example, the contour becomes thinner as it approaches the hair tip. As described above, according to the present invention, it is possible to further enhance the expressiveness of the contour.

前記第2の輪郭画像データは、例えば、前記透明度マップデータによって表される前記透明度の低い箇所に対応する輪郭が相対的に濃くなり、前記透明度の高い箇所に対応する輪郭が相対的に薄くなるように設定することができる。   In the second contour image data, for example, the contour corresponding to the portion with low transparency represented by the transparency map data is relatively dark and the contour corresponding to the portion with high transparency is relatively thin. Can be set as follows.

本発明に係るコンピュータ読み取り可能な記録媒体は、上記の本発明に係るプログラムを記録した記録媒体である。また、本発明は、以下のように、画像処理装置、画像処理方法のそれぞれとしても表現することができる。その場合の作用効果については上述と同様である。   The computer-readable recording medium according to the present invention is a recording medium on which the program according to the present invention is recorded. The present invention can also be expressed as an image processing apparatus and an image processing method as follows. The effects in that case are the same as described above.

本発明に係る画像処理装置は、記憶手段と演算手段を備え、オブジェクトが配置された仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理装置であって、前記演算手段が、(a)前記オブジェクトが配置された前記仮想三次元空間を前記視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納する手段、(b)前記基礎画像データを用いて輪郭抽出を行うことにより第1の輪郭画像データを生成し、当該第1の輪郭画像データを前記記憶手段に格納する手段、(c)前記オブジェクトの少なくとも一部に対応付けて設定された透明度パラメータを前記記憶手段から読み出す手段、(d)前記透明度パラメータに基づいて、透明度を表す透明度マップデータを生成し、当該透明度マップデータを前記記憶手段に格納する手段、(e)前記第1の輪郭画像データと前記透明度マップデータとを混合することによって第2の輪郭画像データを生成する手段、(f)前記第2の輪郭画像データと前記基礎画像データとを合成することによって前記二次元画像データを生成する手段、の各々として機能することを特徴とする。   An image processing apparatus according to the present invention includes a storage unit and a calculation unit, and generates two-dimensional image data obtained by perspective projection of a virtual three-dimensional space in which an object is arranged on a predetermined perspective projection plane. The arithmetic means (a) perspectively projects the virtual three-dimensional space in which the object is arranged on the perspective projection plane set corresponding to the viewpoint to generate basic image data, Means for storing the basic image data in the storage means; (b) generating first contour image data by performing contour extraction using the basic image data; and storing the first contour image data in the storage means. (C) means for reading a transparency parameter set in association with at least a part of the object from the storage means; and (d) based on the transparency parameter. Means for generating transparency map data representing transparency and storing the transparency map data in the storage means; (e) second contour image data by mixing the first contour image data and the transparency map data; And (f) means for generating the two-dimensional image data by synthesizing the second contour image data and the basic image data.

本発明に係る画像処理方法は、記憶手段と演算手段を備えた画像処理装置において、オブジェクトが配置された仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理方法であって、前記演算手段が、(a)前記オブジェクトが配置された前記仮想三次元空間を前記視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、(b)前記基礎画像データを用いて輪郭抽出を行うことにより第1の輪郭画像データを生成し、当該第1の輪郭画像データを前記記憶手段に格納するステップと、(c)前記オブジェクトの少なくとも一部に対応付けて設定された透明度パラメータを前記記憶手段から読み出すステップと、(d)前記透明度パラメータに基づいて、透明度を表す透明度マップデータを生成し、当該透明度マップデータを前記記憶手段に格納するステップと、(e)前記第1の輪郭画像データと前記透明度マップデータとを混合することによって第2の輪郭画像データを生成するステップと、(f)前記第2の輪郭画像データと前記基礎画像データとを合成することによって前記二次元画像データを生成するステップと、の各々を実行することを特徴とする。   In an image processing method according to the present invention, two-dimensional image data obtained by perspective projection of a virtual three-dimensional space in which an object is arranged on a predetermined perspective projection plane in an image processing apparatus including a storage unit and a calculation unit. In the image processing method to be generated, the calculation means (a) performs a perspective projection on the perspective projection plane set corresponding to the viewpoint, and (a) a basic image in which the virtual three-dimensional space in which the object is arranged is projected. Generating data and storing the basic image data in the storage means; and (b) generating first contour image data by performing contour extraction using the basic image data, and generating the first contour Storing image data in the storage means; and (c) reading from the storage means transparency parameters set in association with at least a part of the object. (D) generating transparency map data representing transparency based on the transparency parameter, and storing the transparency map data in the storage means; (e) the first contour image data and the transparency map data; And (f) generating the two-dimensional image data by synthesizing the second contour image data and the basic image data; and Each of the above is executed.

以下、本発明の実施の形態について説明する。以下では、画像処理装置の一例としてゲーム装置を採り上げる。   Embodiments of the present invention will be described below. In the following, a game device is taken as an example of an image processing device.

図1は、一実施形態のゲーム装置の構成を示すブロック図である。図1に示す本実施形態のゲーム装置1は、CPU(Central Processing Unit)10、システムメモリ11、記憶媒体12、ブートロム(BOOT ROM)13、バスアービタ14、GPU(Graphics Processing Unit)16、グラフィックメモリ17、オーディオプロセッサ18、オーディオメモリ19、通信インタフェース(I/F)20、ペリフェラルインターフェース21、を含んで構成されている。すなわち、本実施形態のゲーム装置1は、演算手段(演算部)としてのCPU10及びGPU16、記憶手段(記憶部)としてのシステムメモリ11、記憶媒体12、グラフィックメモリ17及びオーディオメモリ19等を含んで構成される。すなわち、このゲーム装置1は、CPU10を中心として構成されたコンピュータ(コンピュータシステム)を備え、当該コンピュータに所定のプログラムを実行させることによってゲーム装置として機能するものである。具体的には、ゲーム装置1は、ゲーム演出を行うために、仮想三次元空間(ゲーム空間)内を所与の視点(仮想カメラ)から見た二次元画像(静止画または動画)を順次生成するとともに、効果音などの音声を生成する。   FIG. 1 is a block diagram illustrating a configuration of a game device according to an embodiment. 1 includes a CPU (Central Processing Unit) 10, a system memory 11, a storage medium 12, a boot ROM (BOOT ROM) 13, a bus arbiter 14, a GPU (Graphics Processing Unit) 16, and a graphic memory 17. , An audio processor 18, an audio memory 19, a communication interface (I / F) 20, and a peripheral interface 21. That is, the game apparatus 1 of this embodiment includes a CPU 10 and a GPU 16 as calculation means (calculation unit), a system memory 11 as a storage means (storage unit), a storage medium 12, a graphic memory 17, an audio memory 19, and the like. Composed. In other words, the game apparatus 1 includes a computer (computer system) mainly configured by the CPU 10 and functions as a game apparatus by causing the computer to execute a predetermined program. Specifically, the game device 1 sequentially generates two-dimensional images (still images or moving images) as seen in a virtual three-dimensional space (game space) from a given viewpoint (virtual camera) in order to perform a game effect. In addition, sound such as sound effects is generated.

CPU(Central Processing Unit)10は、所定のプログラムを実行することによりゲーム装置1全体を制御する。   A CPU (Central Processing Unit) 10 controls the entire game apparatus 1 by executing a predetermined program.

システムメモリ11は、CPU10が使用するプログラムやデータを格納する。このシステムメモリ11は、例えばDRAM(dynamic random access memory)、SRAM(static random access memory)等の半導体メモリを用いて構成される。   The system memory 11 stores programs and data used by the CPU 10. The system memory 11 is configured using a semiconductor memory such as a DRAM (dynamic random access memory) and an SRAM (static random access memory).

記憶媒体12は、ゲームプログラムや出力する画像や音声などのデータが記録されている。このプログラムデータ用ROMとしての記憶媒体12は、マスクロムやフラッシュロムなどの電気的にデータを読み出せるICメモリや、CD−ROM、DVD−ROMなどの光学的にデータを読み出せる装置と光ディスクまたは磁気ディスク等であっても良い。   The storage medium 12 stores data such as game programs and output images and sounds. The storage medium 12 as the program data ROM includes an IC memory that can electrically read data such as mask chrome and flash ROM, a device that can read data optically such as a CD-ROM and a DVD-ROM, and an optical disk or magnetic disk. It may be a disc or the like.

ブートロム13は、ゲーム装置1を起動させた際に各ブロックを初期化するためのプログラムを格納する。   The boot ROM 13 stores a program for initializing each block when the game apparatus 1 is activated.

バスアービタ14は、各ブロック間でプログラムやデータのやり取りを行うバスを制御する。   The bus arbiter 14 controls a bus for exchanging programs and data between the blocks.

GPU16は、ディスプレイに表示するオブジェクトの仮想三次元空間(ゲーム空間)での位置座標や向きの演算(ジオメトリ演算)と、このオブジェクトの向きや位置座標等に基づいてディスプレイに出力する画像を生成する処理(レンダリング処理)を行う。   The GPU 16 generates an image to be output to the display based on the calculation of the position coordinates and orientation (geometry calculation) of the object displayed on the display in the virtual three-dimensional space (game space) and the orientation and position coordinates of the object. Perform processing (rendering processing).

グラフィックメモリ17は、GPU16に接続されており、画像を生成するためのデータやコマンドなど格納する。このグラフィックメモリ17は、例えばDRAM(dynamic random access memory)、SRAM(static random access memory)等の半導体メモリを用いて構成される。グラフィックメモリ17は、フレームバッファ、テクスチャバッファ等、画像生成時に使用される各種バッファとしての機能を果たす。   The graphic memory 17 is connected to the GPU 16 and stores data and commands for generating an image. The graphic memory 17 is configured using a semiconductor memory such as a DRAM (dynamic random access memory) or an SRAM (static random access memory). The graphic memory 17 functions as various buffers used during image generation, such as a frame buffer and a texture buffer.

オーディオプロセッサ18は、スピーカから音声出力を行うためのデータを生成する。このオーディオプロセッサ18によって生成された音声データが図示しないデジタル/アナログ変換器によってアナログ信号に変換され、スピーカに入力されることにより、スピーカから音声出力がなされる。   The audio processor 18 generates data for outputting sound from the speaker. The audio data generated by the audio processor 18 is converted into an analog signal by a digital / analog converter (not shown) and input to the speaker, so that the speaker outputs audio.

オーディオメモリ19は、オーディオプロセッサ18に構成されており、音声を生成するためのデータやコマンドなど格納する。このオーディオメモリ19は、例えばDRAM(dynamic random access memory)、SRAM(static random access memory)等の半導体メモリを用いて構成される。   The audio memory 19 is configured in the audio processor 18 and stores data and commands for generating sound. The audio memory 19 is configured using a semiconductor memory such as a DRAM (dynamic random access memory) or an SRAM (static random access memory).

通信インタフェース(I/F)20は、ゲーム装置1が他のゲーム装置やサーバ装置等との間でデータ通信の必要がある場合における通信処理を行う。   The communication interface (I / F) 20 performs communication processing when the game apparatus 1 needs to perform data communication with other game apparatuses, server apparatuses, and the like.

ペリフェラルインターフェース(I/F)21は、外部からのデータ入出力を行うインターフェースが組み込まれており、ここに周辺装置としてのペリフェラルが接続される。ここで、ペリフェラルには、マウス(ポインティングデバイス)やキーボード、ゲーム用コントローラ等のキー操作のためのスイッチ、及びタッチペンの他、プログラムの途中経過や生成したデータを保存するバックアップメモリ、表示装置、撮影装置等、画像処理装置本体あるいは他のペリフェラルに接続可能なものが含まれる。   The peripheral interface (I / F) 21 incorporates an interface for inputting and outputting data from the outside, and a peripheral as a peripheral device is connected thereto. Here, peripherals include a mouse (pointing device), a keyboard, switches for key operations such as a game controller, and a touch pen, as well as a backup memory for storing program progress and generated data, a display device, and shooting. And devices that can be connected to the image processing apparatus main body or other peripherals.

なお、システムメモリ11、グラフィックメモリ17、サウンドメモリ19は、1つの
メモリをバスアービタ14に接続して各機能で共通に使用するようにしてもよい。また各
機能ブロックも機能として存在すればよく、機能ブロック同士が統合されていても、また、機能ブロック内部の各構成要素が他のブロックとして分離されていても良い。
The system memory 11, the graphic memory 17, and the sound memory 19 may be connected to the bus arbiter 14 and used in common for each function. Moreover, each functional block should just exist as a function, and functional blocks may be integrated, and each component inside a functional block may be isolate | separated as another block.

本実施形態に係るゲーム装置は以上のような構成を備えており、次に本実施形態の画像生成処理の内容について説明する。   The game device according to the present embodiment has the above-described configuration. Next, the contents of the image generation processing of the present embodiment will be described.

図2は、仮想三次元空間に配置されたオブジェクト(仮想物体)、光源、視点のそれぞれについて示した概念図である。オブジェクト300は、1または複数のポリゴンを組み合わせて形作られた仮想的な物体である。このオブジェクト300は、例えば人間や動物などの生物、あるいは建物、車、その他の無生物など、仮想三次元空間に配置可能なあらゆる仮想的な物をいう。仮想三次元空間は、相互に直交する3つの軸(XYZ)で規定されたワールド座標系によって表現される。また、オブジェクト300は、例えばワールド座標系とは別個のオブジェクト座標系によって表現される。光源302は、仮想三次元空間内の任意位置に配置される。この光源302は、例えば無限遠光源である。光源302の位置、方向、強さはライトベクトルLで表現される。本実施形態では、ライトベクトルLの長さ(換言すれば光強度)は1に正規化されている。視点304は、視点の位置(ワールド座標系における座標)と視線方向で定義される。例えば、図示の矢印Cの方向が視線方向である。この視点304は、カメラ、仮想カメラ等と呼ばれる場合もある。   FIG. 2 is a conceptual diagram showing each of an object (virtual object), a light source, and a viewpoint arranged in a virtual three-dimensional space. The object 300 is a virtual object formed by combining one or a plurality of polygons. The object 300 refers to any virtual object that can be placed in a virtual three-dimensional space, such as a living thing such as a human being or an animal, or a building, a car, or another inanimate object. The virtual three-dimensional space is expressed by a world coordinate system defined by three axes (XYZ) orthogonal to each other. The object 300 is represented by an object coordinate system that is different from the world coordinate system, for example. The light source 302 is disposed at an arbitrary position in the virtual three-dimensional space. This light source 302 is, for example, an infinite light source. The position, direction, and intensity of the light source 302 are expressed by a light vector L. In the present embodiment, the length of the light vector L (in other words, the light intensity) is normalized to 1. The viewpoint 304 is defined by the viewpoint position (coordinates in the world coordinate system) and the line-of-sight direction. For example, the direction of the arrow C shown in the figure is the line-of-sight direction. This viewpoint 304 may be called a camera, a virtual camera, or the like.

図3は、本実施形態の画像処理方法によって生成される二次元画像の一例を模式的に示した図である。具体的には、図3に示す二次元画像は、人物の顔から肩にかけての部分を表す画像が含まれている。この二次元画像は、上述したように仮想三次元空間内を視点304から見た様子を表している(図2参照)。本実施形態の画像処理方法は、例えばこのような二次元画像における髪の毛先部分の表現力を向上させるために用いられる。以下、その詳細についてフローチャートに沿って説明する。   FIG. 3 is a diagram schematically illustrating an example of a two-dimensional image generated by the image processing method of the present embodiment. Specifically, the two-dimensional image shown in FIG. 3 includes an image representing a portion from a person's face to a shoulder. As described above, the two-dimensional image represents a state in which the virtual three-dimensional space is viewed from the viewpoint 304 (see FIG. 2). The image processing method of this embodiment is used, for example, to improve the expressiveness of the hair tip portion in such a two-dimensional image. The details will be described below with reference to flowcharts.

図4は、本実施形態のゲーム装置(画像処理装置)によって実行される画像処理の流れを示すフローチャートである。本実施形態の画像処理の全体の流れとしては、オブジェクト300、視点304、光源302を配置したうえで(図2参照)、レンダリング処理(座標変換、クリッピング、透視投影変換、陰面消去、シェーディング、シャドウイング、テクスチャマッピング等)が行われ、更に髪の毛先部分に関する処理が行われる。なお、以下に説明する処理は、その結果に矛盾を生じない限りにおいて、処理順序を入れ替えることや、各処理を並行して行うことが可能である。   FIG. 4 is a flowchart showing a flow of image processing executed by the game device (image processing device) of the present embodiment. The overall image processing flow of the present embodiment includes an object 300, a viewpoint 304, and a light source 302 (see FIG. 2), and rendering processing (coordinate conversion, clipping, perspective projection conversion, hidden surface removal, shading, shadowing). Ing, texture mapping, etc.), and further processing on the tip of the hair is performed. Note that the processing described below can change the processing order or perform each processing in parallel as long as the results do not contradict each other.

CPU10は、システムメモリ11から読み出したデータに基づいて、複数のポリゴンを組み合わせて構成されるオブジェクト(ポリゴンモデル)を仮想三次元空間内に配置する(ステップS10)。   Based on the data read from the system memory 11, the CPU 10 arranges an object (polygon model) configured by combining a plurality of polygons in the virtual three-dimensional space (step S10).

また、CPU10により光源の設定、視点が設定され、これに対応してGPU16により基礎画像データが生成される(ステップS11)。視点の位置は、例えばプレイヤが操作するオブジェクトの後方、一定距離の位置に設定される。光源の位置は、例えば所定位置に固定されていたり、あるいは時間経過と共に移動したりする。GPU16は、光源、視点の各設定に対応し、座標変換、クリッピング、透視投影変換、陰面消去等の各処理(レンダリング処理)を行う。これにより、オブジェクトが配置された仮想三次元空間を透視投影面上に透視投影した画像が得られる。本実施形態では、この画像のデータを「基礎画像データ」と呼ぶ。この基礎画像データは、グラフィックメモリ17内に設定されるフレームバッファに格納される。基礎画像データの内容は、上記した図3に示す二次元画像データから輪郭を示す線を取り除いたものとなる(図示省略)。   The CPU 10 sets the light source and the viewpoint, and the basic image data is generated by the GPU 16 correspondingly (step S11). The position of the viewpoint is set, for example, at a certain distance behind the object operated by the player. The position of the light source is fixed at a predetermined position, for example, or moves with time. The GPU 16 performs each process (rendering process) such as coordinate conversion, clipping, perspective projection conversion, hidden surface removal, etc., corresponding to each setting of the light source and the viewpoint. Thereby, an image obtained by perspective projection of the virtual three-dimensional space in which the object is arranged on the perspective projection plane is obtained. In the present embodiment, this image data is referred to as “basic image data”. The basic image data is stored in a frame buffer set in the graphic memory 17. The content of the basic image data is obtained by removing the line indicating the outline from the two-dimensional image data shown in FIG. 3 (not shown).

次に、GPU16は、上記の基礎画像データを用いて輪郭抽出を行うことにより、第1の輪郭画像データを生成する(ステップS12)。輪郭抽出の具体的手法は、周知の技術を適宜用いればよい。例えば、基礎画像データに含まれる色情報を利用して、大きく色が変化している部分を検出することにより輪郭を抽出することができる。このほか、奥行き方向の深さ(深度マップ)を利用した輪郭抽出法(深度エッジ抽出)や、法線マップを利用した輪郭抽出法(法線エッジ抽出)などの手法を利用してもよい。このようにして本ステップで得られる第1の輪郭画像データの一例を図5に示す。図5に示す第1の輪郭画像データは、上記図3に示した基礎画像データに基づいて生成されたものであり、人物キャラクタの髪の毛の輪郭、顔や首の輪郭、肩の輪郭が含まれている。この第1の輪郭画像データは、グラフィックメモリ17に格納される。   Next, the GPU 16 generates first contour image data by performing contour extraction using the basic image data (step S12). As a specific method of contour extraction, a known technique may be appropriately used. For example, the contour can be extracted by detecting a portion where the color is greatly changed using color information included in the basic image data. In addition, a method such as a contour extraction method (depth edge extraction) using depth in the depth direction (depth map) or a contour extraction method (normal edge extraction) using a normal map may be used. An example of the first contour image data obtained in this step in this way is shown in FIG. The first outline image data shown in FIG. 5 is generated based on the basic image data shown in FIG. 3 and includes the hair outline, face and neck outline, and shoulder outline of the human character. ing. The first contour image data is stored in the graphic memory 17.

次に、GPU16は、オブジェクト300の少なくとも一部に対応付けて設定された透明度パラメータを記憶媒体12から読み出す(ステップS13)。「オブジェクト300の少なくとも一部」とは、輪郭の濃さを段階的に表現したい部分として設定された部分であり、本実施形態においては人物キャラクタの髪の毛先部分に相当する。この髪の毛先部分に対応付けて透明度パラメータ(透明度コントロール値)が予め用意され、記憶媒体12に格納されている。一例として、この透明度パラメータはテクスチャデータとして格納される。具体的には、テクスチャデータには色成分(R,G,B)とアルファ値(A)とが含まれるが、このうち、アルファ値として透明度パラメータを用意しておくことができる。なお、テクスチャデータの形式を利用せず、他の形式で透明度パラメータを用意してもよい。   Next, the GPU 16 reads the transparency parameter set in association with at least a part of the object 300 from the storage medium 12 (step S13). “At least a part of the object 300” is a portion set as a portion where the density of the contour is desired to be expressed step by step, and corresponds to the hair tip portion of the human character in the present embodiment. A transparency parameter (transparency control value) is prepared in advance in association with the tip of the hair and stored in the storage medium 12. As an example, this transparency parameter is stored as texture data. Specifically, the texture data includes color components (R, G, B) and an alpha value (A), and among these, a transparency parameter can be prepared as an alpha value. Note that the transparency parameter may be prepared in another format without using the texture data format.

次に、GPU16は、上記ステップS13において記憶媒体12から読み出した透明度パラメータに基づいて、透明度を表す透明度マップデータを生成する(ステップS14)。この透明度マップデータとは、輪郭の濃さを制御したい部分に対応した濃淡を有するグレースケールの画像データであり、上記の基礎画像データと同サイズである。本ステップにおいて生成された透明度マップデータはグラフィックメモリ17に格納される。   Next, the GPU 16 generates transparency map data representing transparency based on the transparency parameter read from the storage medium 12 in step S13 (step S14). The transparency map data is grayscale image data having a shade corresponding to a portion whose contour is desired to be controlled, and has the same size as the basic image data. The transparency map data generated in this step is stored in the graphic memory 17.

図6は、本ステップにおいて生成される透明度マップデータを模式的に視覚化して表した図である。また、図6において点線で囲んだ一部を更に拡大して示したのが図7である。各図においては、濃淡がグレースケールで表されている。輪郭を濃くしたい箇所ほど黒色に近づき、反対に、輪郭を薄くしたい箇所ほど白色に近づくように表現されている。すなわち、透明度の低い箇所が輪郭を濃く表したい箇所に対応し、透明度の高い箇所が輪郭を薄く表したい(あるいは輪郭を非表示としたい)箇所に対応している。   FIG. 6 is a diagram schematically showing the transparency map data generated in this step. FIG. 7 is a further enlarged view of a part surrounded by a dotted line in FIG. In each figure, the shading is expressed in gray scale. The part where the contour is to be darkened is closer to black, and the part where the contour is to be thinner is closer to white. That is, a location with low transparency corresponds to a location where the contour is desired to be expressed deeply, and a location with high transparency corresponds to a location where the contour is desired to be expressed lightly (or the contour is desired to be hidden).

次に、GPU16は、上記した第1の輪郭画像データ(図5参照)と透明度マップデータ(図6、図7参照)とを混合することによって、第2の輪郭画像データを生成し、グラフィックメモリ17に格納する(ステップS15)。具体的には、第1の輪郭画像データと透明度マップデータとが各ピクセルごとに乗算される。それにより、各ピクセルごとの透明度に応じて第1の輪郭画像データの各ピクセルの輝度が変化する。この様子を模式的に示したのが図8である。図8に示すように、透明度マップデータの濃淡に応じて輪郭の濃さが段階的に変化する。図8では図示の都合上、輪郭の濃さを4段階に変化させているが、実際には実質的に連続的な変化となる。また、図8に示す例では、毛先の先端に相当する部分については輪郭が表示されない。そのことを表現するために、毛先の先端に相当する部分の輪郭が点線で表示されている。   Next, the GPU 16 generates the second contour image data by mixing the first contour image data (see FIG. 5) and the transparency map data (see FIGS. 6 and 7), and generates a graphic memory. 17 (step S15). Specifically, the first contour image data and the transparency map data are multiplied for each pixel. Thereby, the brightness of each pixel of the first contour image data changes according to the transparency of each pixel. FIG. 8 schematically shows this state. As shown in FIG. 8, the contour density changes stepwise according to the density of the transparency map data. In FIG. 8, for the convenience of illustration, the contour density is changed in four stages, but in practice, it is a substantially continuous change. In the example shown in FIG. 8, no outline is displayed for the portion corresponding to the tip of the hair tip. In order to express this, the outline of the portion corresponding to the tip of the hair tip is displayed with a dotted line.

次に、GPU16は、第2の輪郭画像データと上記の基礎画像データとを合成することによって二次元画像データを生成し、グラフィックメモリ17に格納する(ステップS16)。第2の輪郭画像データ(すなわち濃淡表現された輪郭を含む画像データ)と基礎画像データとを合成して得られる二次元画像データ(図3参照)のうち、髪の毛先部分のみを拡大して模式的に示したのが図9である。髪の毛先の先端へ向かうにつれて輪郭が徐々に薄く表現されている。これにより、髪を表現するテクスチャと輪郭との馴染みがよくなる。   Next, the GPU 16 generates two-dimensional image data by combining the second contour image data and the basic image data, and stores the two-dimensional image data in the graphic memory 17 (step S16). Of the two-dimensional image data (see FIG. 3) obtained by synthesizing the second contour image data (that is, image data including the contour expressed in shading) and the basic image data, only the hair tip portion is enlarged and modeled. This is shown in FIG. The outline is gradually thinned toward the tip of the hair tip. As a result, the familiarity between the texture representing the hair and the contour is improved.

なお、図9に示した二次元画像データの例では、髪の毛先自体を表す部分についても段階的に濃度が低くなり、毛先の先端に近づくほど徐々に透明化されているが、これについては上記のステップS11において、例えば以下のような処理がなされている。図10に示すように、髪の毛先部分が複数のポリゴンを組み合わせてモデル化される。このとき、各ポリゴンのアルファ値として、髪のテクスチャの透明度が設定される。概略的に示すと、より髪の根本に近い方のポリゴンについてはアルファ値がα=1.0又はこれに近い値とされる(例えば、図示のポリゴンpg1)。これは、不透明状態に対応する。そして、毛先に近づくにつれ、アルファ値がより低い値にされる。例えば、毛先に近いポリゴンpgのアルファ値がΑ=0.5又はこれに近い値とされる(例えば、図示のポリゴンpg2)。これは、半透明状態に対応する。毛先またはそれに近いポリゴンについてはアルファ値がα=0.0又はこれに近い値とされる(例えば、図示のポリゴンpg3)。これは、透明状態に対応する。このような各ポリゴンに対して、図11に例示するような髪のテクスチャをマッピングする。それにより、各ポリゴンのアルファ値に応じた割合でテクスチャがマッピングされ、上記図9に示したように、透明度が連続的に変化する髪の画像を生成することができる。   In the example of the two-dimensional image data shown in FIG. 9, the density of the portion representing the hair tip itself is gradually decreased and gradually becomes transparent as it approaches the tip of the hair tip. In step S11 described above, for example, the following processing is performed. As shown in FIG. 10, the tip of the hair is modeled by combining a plurality of polygons. At this time, the transparency of the hair texture is set as the alpha value of each polygon. Schematically, the alpha value of the polygon closer to the root of the hair is set to α = 1.0 or a value close thereto (for example, the polygon pg1 shown in the figure). This corresponds to the opaque state. And as it approaches the hair end, the alpha value is set to a lower value. For example, the alpha value of the polygon pg close to the hair tip is set to Α = 0.5 or a value close thereto (for example, the illustrated polygon pg2). This corresponds to the translucent state. The alpha value is set to α = 0.0 or a value close to this for the hair tip or a polygon close thereto (for example, the polygon pg3 shown in the figure). This corresponds to the transparent state. A hair texture as illustrated in FIG. 11 is mapped to each polygon. As a result, the texture is mapped at a rate corresponding to the alpha value of each polygon, and as shown in FIG. 9, it is possible to generate an image of the hair whose transparency changes continuously.

以上のように本実施形態によれば、第1の輪郭画像データと透明度マップデータとを混合することにより、濃淡を有する輪郭が表された第2の輪郭画像データが得られる。この第2の輪郭画像データを基礎画像データと合成することにより、輪郭の濃淡が自在に表現された二次元画像データを得ることができる。それにより、頭髪の例では、毛先に近づくほど輪郭が薄く表すなど輪郭の濃淡を所望の状態にすることができる。このように本実施形態によれば、輪郭の表現力をより高めることが可能となる。   As described above, according to the present embodiment, by mixing the first contour image data and the transparency map data, second contour image data in which a contour having light and shade is expressed is obtained. By synthesizing the second contour image data with the basic image data, two-dimensional image data in which the density of the contour is freely expressed can be obtained. Thereby, in the example of head hair, the outline of a contour can be made into a desired state, for example, a contour is thinly expressed as it approaches a hair tip. As described above, according to the present embodiment, it is possible to further increase the expressiveness of the contour.

なお、本発明は上述した各実施形態の内容に限定されるものではなく、本発明の要旨の範囲内において種々の変形実施が可能である。例えば、上記した実施形態では、本発明に係る画像処理技術が適用される典型例として人物キャラクタの髪の毛先部分における輪郭の表現が示されていたが、本発明の適用範囲はこれに限定されるものではない。   In addition, this invention is not limited to the content of each embodiment mentioned above, A various deformation | transformation implementation is possible within the scope of the summary of this invention. For example, in the above-described embodiment, the expression of the contour in the hair tip portion of a human character is shown as a typical example to which the image processing technique according to the present invention is applied, but the scope of application of the present invention is limited to this. It is not a thing.

また、上述した実施形態では、CPU等のハードウェアを含むコンピュータに所定のプログラムを実行させることによってゲーム装置が実現されていたが、ゲーム装置に備わっていた各機能ブロックはそれぞれ専用のハードウェア等を用いて実現されていてもよい。   In the above-described embodiment, the game device is realized by causing a computer including hardware such as a CPU to execute a predetermined program. However, each functional block provided in the game device is dedicated hardware or the like. It may be realized using.

また、上記では、一例としてゲーム装置を採り上げて、本発明に係る画像処理装置、画像処理方法および画像処理プログラムの実施の形態を説明していたが、本発明の適用範囲はこれに限定されない。例えば、現実世界の各種体験(例えば、運転操作等)を擬似的に再現するシミュレータ装置等に対しても本発明を適用することが可能である。   In the above description, the game apparatus is taken as an example, and the embodiments of the image processing apparatus, the image processing method, and the image processing program according to the present invention have been described. However, the scope of the present invention is not limited to this. For example, the present invention can also be applied to a simulator device or the like that reproduces various real world experiences (for example, driving operations) in a pseudo manner.

一実施形態のゲーム装置の構成を示すブロック図である。It is a block diagram which shows the structure of the game device of one Embodiment. 仮想三次元空間に配置されたオブジェクト(仮想物体)、光源、視点のそれぞれについて示した概念図である。It is the conceptual diagram shown about each of the object (virtual object) arrange | positioned in virtual three-dimensional space, a light source, and a viewpoint. 本実施形態の画像処理方法によって生成される二次元画像の一例を模式的に示した図である。It is the figure which showed typically an example of the two-dimensional image produced | generated by the image processing method of this embodiment. 本実施形態のゲーム装置(画像処理装置)によって実行される画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing performed by the game device (image processing device) of this embodiment. 第1の輪郭画像データの一例を示す図である。It is a figure which shows an example of 1st outline image data. 透明度マップデータを模式的に視覚化して表した図である。It is the figure which visualized and expressed transparency map data typically. 図6において点線で囲んだ一部を更に拡大して示した図である。It is the figure which expanded and showed a part enclosed with the dotted line in FIG. 透明度マップデータの濃淡に応じて輪郭の濃さが段階的に変化する様子を模式的に示した図である。It is the figure which showed typically a mode that the density of an outline changed in steps according to the lightness and darkness of transparency map data. 第2の輪郭画像データと基礎画像データとを合成して得られる二次元画像データのうち、髪の毛先部分のみを拡大して模式的に示した図である。It is the figure which expanded and showed typically only the hair tip part among the two-dimensional image data obtained by synthesize | combining 2nd outline image data and basic image data. 髪の毛先部分が複数のポリゴンを組み合わせてモデル化された様子を模式的に示した図である。It is the figure which showed typically a mode that the hair tip part was modeled combining the some polygon. 髪のテクスチャを例示した図である。It is the figure which illustrated the texture of hair.

符号の説明Explanation of symbols

10…CPU
11…システムメモリ
12…記憶媒体
13…ブートロム
14…バスアービタ
16…GPU
17…グラフィックメモリ
18…オーディオプロセッサ
19…オーディオメモリ
20…通信インタフェース(I/F)
21…ペリフェラルインターフェース
10 ... CPU
11 ... System memory 12 ... Storage medium 13 ... Bootrom 14 ... Bus arbiter 16 ... GPU
17 ... Graphic memory 18 ... Audio processor 19 ... Audio memory 20 ... Communication interface (I / F)
21 ... Peripheral interface

Claims (13)

記憶手段と演算手段を備えた画像処理装置によって実行され、オブジェクトが配置された仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成するプログラムであって、
前記演算手段に、
(a)前記オブジェクトが配置された前記仮想三次元空間を前記視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、
(b)前記基礎画像データを用いて輪郭抽出を行うことにより第1の輪郭画像データを生成し、当該第1の輪郭画像データを前記記憶手段に格納するステップと、
(c)前記オブジェクトの少なくとも一部に対応付けて設定された透明度パラメータを前記記憶手段から読み出すステップと、
(d)前記透明度パラメータに基づいて、透明度を表す透明度マップデータを生成し、当該透明度マップデータを前記記憶手段に格納するステップと、
(e)前記第1の輪郭画像データと前記透明度マップデータとを混合することによって第2の輪郭画像データを生成するステップと、
(f)前記第2の輪郭画像データと前記基礎画像データとを合成することによって前記二次元画像データを生成するステップと、
を実行させる、プログラム。
A program that is executed by an image processing apparatus including a storage unit and a calculation unit and generates two-dimensional image data obtained by perspective projection of a virtual three-dimensional space in which an object is arranged on a predetermined perspective projection plane,
In the calculation means,
(A) The virtual three-dimensional space in which the object is arranged is perspective projected onto the perspective projection plane set corresponding to the viewpoint to generate basic image data, and the basic image data is stored in the storage unit Storing, and
(B) generating first contour image data by performing contour extraction using the basic image data, and storing the first contour image data in the storage unit;
(C) reading from the storage means a transparency parameter set in association with at least a part of the object;
(D) generating transparency map data representing transparency based on the transparency parameter, and storing the transparency map data in the storage means;
(E) generating second contour image data by mixing the first contour image data and the transparency map data;
(F) generating the two-dimensional image data by combining the second contour image data and the basic image data;
A program that executes
前記第2の輪郭画像データは、前記透明度マップデータによって表される前記透明度の低い箇所に対応する輪郭が相対的に濃くなり、前記透明度の高い箇所に対応する輪郭が相対的に薄くなる、
請求項1に記載のプログラム。
In the second contour image data, the contour corresponding to the portion with low transparency represented by the transparency map data is relatively dark, and the contour corresponding to the portion with high transparency is relatively thin.
The program according to claim 1.
前記オブジェクトの前記少なくとも一部は、人物キャラクタの頭髪の毛先である、
請求項1又は2に記載のプログラム。
The at least part of the object is a hair end of a human character;
The program according to claim 1 or 2.
前記(a)は、前記オブジェクトの前記少なくとも一部に対して、毛髪を表す画像を含むテクスチャをマッピングする処理を含む、
請求項3に記載のプログラム。
(A) includes a process of mapping a texture including an image representing hair to the at least part of the object;
The program according to claim 3.
請求項1乃至4のいずれかに記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which recorded the program in any one of Claims 1 thru | or 4. 記憶手段と演算手段を備え、オブジェクトが配置された仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理装置であって、
前記演算手段が、
(a)前記オブジェクトが配置された前記仮想三次元空間を前記視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納する手段、
(b)前記基礎画像データを用いて輪郭抽出を行うことにより第1の輪郭画像データを生成し、当該第1の輪郭画像データを前記記憶手段に格納する手段、
(c)前記オブジェクトの少なくとも一部に対応付けて設定された透明度パラメータを前記記憶手段から読み出す手段、
(d)前記透明度パラメータに基づいて、透明度を表す透明度マップデータを生成し、当該透明度マップデータを前記記憶手段に格納する手段、
(e)前記第1の輪郭画像データと前記透明度マップデータとを混合することによって第2の輪郭画像データを生成する手段、
(f)前記第2の輪郭画像データと前記基礎画像データとを合成することによって前記二次元画像データを生成する手段、
の各々として機能する、画像処理装置。
An image processing apparatus that includes storage means and calculation means, and generates two-dimensional image data obtained by perspective projection of a virtual three-dimensional space in which an object is arranged on a predetermined perspective projection plane,
The computing means is
(A) The virtual three-dimensional space in which the object is arranged is perspective projected onto the perspective projection plane set corresponding to the viewpoint to generate basic image data, and the basic image data is stored in the storage unit Means for storing,
(B) means for generating first contour image data by performing contour extraction using the basic image data, and storing the first contour image data in the storage means;
(C) means for reading a transparency parameter set in association with at least a part of the object from the storage means;
(D) means for generating transparency map data representing transparency based on the transparency parameter, and storing the transparency map data in the storage means;
(E) means for generating second contour image data by mixing the first contour image data and the transparency map data;
(F) means for generating the two-dimensional image data by combining the second contour image data and the basic image data;
An image processing apparatus that functions as each of the above.
前記第2の輪郭画像データは、前記透明度マップデータによって表される前記透明度の低い箇所に対応する輪郭が相対的に薄くなり、前記透明度の高い箇所に対応する輪郭が相対的に濃くなる、
請求項6に記載の画像処理装置。
In the second contour image data, the contour corresponding to the portion with low transparency represented by the transparency map data is relatively thin, and the contour corresponding to the portion with high transparency is relatively dark.
The image processing apparatus according to claim 6.
前記オブジェクトの前記少なくとも一部は、人物キャラクタの頭髪の毛先である、
請求項6又は7に記載の画像処理装置。
The at least part of the object is a hair end of a human character;
The image processing apparatus according to claim 6 or 7.
前記(a)の手段は、前記オブジェクトの前記少なくとも一部に対して、毛髪を表す画像を含むテクスチャをマッピングする処理を含む、
請求項8に記載の画像処理装置。
The means (a) includes a process of mapping a texture including an image representing hair to the at least part of the object.
The image processing apparatus according to claim 8.
記憶手段と演算手段を備えた画像処理装置において、オブジェクトが配置された仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理方法であって、
前記演算手段が、
(a)前記オブジェクトが配置された前記仮想三次元空間を前記視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、
(b)前記基礎画像データを用いて輪郭抽出を行うことにより第1の輪郭画像データを生成し、当該第1の輪郭画像データを前記記憶手段に格納するステップと、
(c)前記オブジェクトの少なくとも一部に対応付けて設定された透明度パラメータを前記記憶手段から読み出すステップと、
(d)前記透明度パラメータに基づいて、透明度を表す透明度マップデータを生成し、当該透明度マップデータを前記記憶手段に格納するステップと、
(e)前記第1の輪郭画像データと前記透明度マップデータとを混合することによって第2の輪郭画像データを生成するステップと、
(f)前記第2の輪郭画像データと前記基礎画像データとを合成することによって前記二次元画像データを生成するステップと、
の各々を実行する、画像処理方法。
In an image processing apparatus including a storage unit and a calculation unit, an image processing method for generating two-dimensional image data obtained by perspective projection of a virtual three-dimensional space in which an object is arranged on a predetermined perspective projection plane,
The computing means is
(A) The virtual three-dimensional space in which the object is arranged is perspective projected onto the perspective projection plane set corresponding to the viewpoint to generate basic image data, and the basic image data is stored in the storage unit Storing, and
(B) generating first contour image data by performing contour extraction using the basic image data, and storing the first contour image data in the storage unit;
(C) reading from the storage means a transparency parameter set in association with at least a part of the object;
(D) generating transparency map data representing transparency based on the transparency parameter, and storing the transparency map data in the storage means;
(E) generating second contour image data by mixing the first contour image data and the transparency map data;
(F) generating the two-dimensional image data by combining the second contour image data and the basic image data;
An image processing method for executing each of the above.
前記第2の輪郭画像データは、前記透明度マップデータによって表される前記透明度の低い箇所に対応する輪郭が相対的に薄くなり、前記透明度の高い箇所に対応する輪郭が相対的に濃くなる、
請求項10に記載の画像処理方法。
In the second contour image data, the contour corresponding to the portion with low transparency represented by the transparency map data is relatively thin, and the contour corresponding to the portion with high transparency is relatively dark.
The image processing method according to claim 10.
前記オブジェクトの前記少なくとも一部は、人物キャラクタの頭髪の毛先である、
請求項10又は11に記載の画像処理方法。
The at least part of the object is a hair end of a human character;
The image processing method according to claim 10 or 11.
前記(a)は、前記オブジェクトの前記少なくとも一部に対して、毛髪を表す画像を含むテクスチャをマッピングする処理を含む、
請求項12に記載の画像処理方法。
(A) includes a process of mapping a texture including an image representing hair to the at least part of the object;
The image processing method according to claim 12.
JP2007229154A 2007-09-04 2007-09-04 Image-processing program, computer-readable recording medium recording the program, image processor and image processing method Pending JP2009064086A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007229154A JP2009064086A (en) 2007-09-04 2007-09-04 Image-processing program, computer-readable recording medium recording the program, image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007229154A JP2009064086A (en) 2007-09-04 2007-09-04 Image-processing program, computer-readable recording medium recording the program, image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2009064086A true JP2009064086A (en) 2009-03-26

Family

ID=40558644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007229154A Pending JP2009064086A (en) 2007-09-04 2007-09-04 Image-processing program, computer-readable recording medium recording the program, image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2009064086A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9066010B2 (en) 2013-10-03 2015-06-23 Olympus Corporation Photographing apparatus, photographing method and medium recording photographing control program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0363086A (en) * 1989-07-31 1991-03-19 Takara Co Ltd Rotary decoration
JP2000155836A (en) * 1998-11-19 2000-06-06 Design Network:Kk Portrait picture formation system and its method
JP2005032140A (en) * 2003-07-10 2005-02-03 Namco Ltd Image generation system, program, and information storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0363086A (en) * 1989-07-31 1991-03-19 Takara Co Ltd Rotary decoration
JP2000155836A (en) * 1998-11-19 2000-06-06 Design Network:Kk Portrait picture formation system and its method
JP2005032140A (en) * 2003-07-10 2005-02-03 Namco Ltd Image generation system, program, and information storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9066010B2 (en) 2013-10-03 2015-06-23 Olympus Corporation Photographing apparatus, photographing method and medium recording photographing control program

Similar Documents

Publication Publication Date Title
JP3725524B2 (en) Method for generating computer display image and computer processing system and graphics processor for generating image data
JP4698893B2 (en) Method, graphics system, and program for providing improved fog effects
CN106575445B (en) Fur avatar animation
JP3877077B2 (en) Game device and image processing program
JP4851504B2 (en) How to generate assets for interactive entertainment using digital image capture
TW479206B (en) Method and apparatus for providing non-photorealistic cartoon outlining within a 3D videographics system
CN101281656A (en) Method and apparatus for mapping texture onto 3-dimensional object model
JP2002042165A (en) Image forming device, its method, and recording medium
US6914612B2 (en) Image drawing method, image drawing apparatus, recording medium, and program
US9697642B2 (en) Image processing device and image processing method
US6717575B2 (en) Image drawing method, image drawing apparatus, recording medium, and program
US20090080803A1 (en) Image processing program, computer-readable recording medium recording the program, image processing apparatus and image processing method
JP2008140385A (en) Real-time representation method and device of skin wrinkle at character animation time
JP2006346507A (en) Game apparatus and image processing program
JP4267646B2 (en) Image generating apparatus, image generating method, and program
JP5007633B2 (en) Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
JP2001275199A (en) Three-dimensional sound reproduction system
JP4349733B2 (en) Method and apparatus for providing non-realistic cartoon outline in 3D video graphics system
JP2006323512A (en) Image generation system, program, and information storage medium
JP2007328458A (en) Image forming program, computer-readable storage medium recording the program, image processor and image processing method
JP2007328460A (en) Image creating program
JP2009064086A (en) Image-processing program, computer-readable recording medium recording the program, image processor and image processing method
JP4161613B2 (en) Image processing method
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
JP3635037B2 (en) Image drawing method and program used therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100818

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120528