WO2004107270A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2004107270A1
WO2004107270A1 PCT/JP2003/016997 JP0316997W WO2004107270A1 WO 2004107270 A1 WO2004107270 A1 WO 2004107270A1 JP 0316997 W JP0316997 W JP 0316997W WO 2004107270 A1 WO2004107270 A1 WO 2004107270A1
Authority
WO
WIPO (PCT)
Prior art keywords
texture image
display priority
storage means
image
hair
Prior art date
Application number
PCT/JP2003/016997
Other languages
English (en)
French (fr)
Inventor
Tadaaki Tsunashima
Kazuki Araki
Naoya Hatsumi
Toru Nagai
Original Assignee
Konami Corporation
Konami Computer Entertainment Tokyo, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Corporation, Konami Computer Entertainment Tokyo, Inc. filed Critical Konami Corporation
Priority to EP03768353A priority Critical patent/EP1630746B1/en
Priority to AU2003292708A priority patent/AU2003292708A1/en
Priority to CN200380110326XA priority patent/CN1781124B/zh
Priority to DE60335148T priority patent/DE60335148D1/de
Publication of WO2004107270A1 publication Critical patent/WO2004107270A1/ja

Links

Classifications

    • A63F13/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/603D [Three Dimensional] animation of natural phenomena, e.g. rain, snow, water or plants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics

Definitions

  • the present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus, an image processing method, and a program capable of changing all or part of a display image by simple image processing.
  • Image processing devices such as game devices that place character objects and viewpoints in a virtual three-dimensional space and display the state of the space viewed from the same viewpoint on a monitor are known. According to such a device, virtual reality can be realized.
  • a character object placed in a virtual three-dimensional space can be easily expressed by the user settings or over time, the virtual reality can be further improved. Be expected. Similarly, if it is possible to easily express how an object gets wet by liquid such as water and how liquid such as water exudes from an object, it is expected to contribute to the improvement of virtual reality.
  • the present invention has been made in view of the above problems, and a first object is to provide an image processing apparatus and an image processing method capable of displaying the appearance of hair growth such as game character hair in a simple image processing. Is to provide.
  • the second object is to provide an image processing apparatus and an image processing method capable of changing all or part of a display image by simple image processing.
  • an image processing apparatus is an image processing apparatus that displays an image of a character, and a hair texture image storage unit that stores a hair texture image representing the hair of the character.
  • a background texture image storage unit that stores a background texture image representing the background of the character
  • a display priority storage unit that stores a display priority of each pixel constituting the hair texture image
  • a threshold of the display priority Threshold storage means for storing, a background texture image drawing means for drawing the background texture image stored in the background texture image storage means for the polygon representing the character, and the background texture image drawing means by the background texture image drawing means.
  • the display priority storage means stores the polygon on which the texture image is drawn.
  • the image processing method is an image processing method for displaying an image of a character, and a hair texture image storage step for storing a hair texture image representing the character's hair in a hair texture image storage means.
  • a background texture image storage step for storing a background texture image representing the background of the character in the background texture image storage means, and a display priority storage means for display priority of each pixel constituting the hair texture image.
  • the background texture image drawing step for drawing the background texture image stored in the background texture image storage unit and the background texture image drawing unit
  • the drawn polygon is stored in the hair texture image storage unit according to a comparison result between the display priority stored in the display priority storage unit and the threshold stored in the threshold storage unit.
  • a hair texture image drawing step for drawing a hair texture image is stored in the hair texture image storage unit according to a comparison result between the display priority stored in the display priority storage unit and the threshold stored in the threshold storage unit.
  • the computer-readable information storage medium includes a personal computer, a home game machine, an arcade game machine, a portable game machine, a portable information terminal, a mobile phone as an image processing device that displays an image of a character.
  • a hair texture image storage means for storing a hair texture image representing the character's hair, a program for causing a computer such as a telephone and a home server to function, and Regarding a texture image storage means, a display priority storage means for storing the display priority of each pixel constituting the hair texture image, a threshold storage means for storing the display priority threshold, and a polygon representing the character,
  • the background texture image stored in the background texture image storage means With respect to the background texture image drawing means to be drawn and the polygon on which the background texture image is drawn by the background texture image drawing means, the display priority stored in the display priority storage means and the threshold storage means are stored. In accordance with the comparison result with the threshold value, the combination as the hair texture image drawing means for drawing the hair texture image stored in the hair texture image storage means.
  • a background texture image representing a state in which hair is not grown or the like is drawn with respect to a polygon representing a dark evening.
  • the display priority of each pixel constituting the hair texture image is stored, and the hair texture image is further drawn according to the comparison result between the display priority and the threshold value.
  • the hair texture image represents, for example, how the hair is stretched. According to the present invention, it is possible to suitably display the appearance of hair (head hair, wrinkles, etc.) by relatively simple image processing.
  • the hair texture image drawing means includes the display priority of each pixel stored in the display priority storage means and the threshold value with respect to the polygon on which the background texture image is drawn by the background texture image drawing means.
  • the pixel may be drawn according to the comparison result with the threshold value stored in the storage means.
  • the display priority storage unit may store the display priority of each pixel as an alpha value of the hair texture image.
  • the image processing apparatus includes a first texture image storage unit that stores a first texture image, a second texture image storage unit that stores a second texture image, and the first texture image.
  • the display priority storage means for storing the display priority of each pixel, the threshold storage means for storing the display priority threshold, and the polygon associated with the first and second texture images, the second A second texture image drawing means for drawing the second texture image stored in the texture image storage means; and the polygon on which the second texture image is drawn by the second texture image drawing means.
  • the first texture image storage means stores the first texture image according to the comparison result between the display priority stored in the display priority storage means and the threshold stored in the threshold storage means.
  • a first texture image drawing means for drawing a texture image.
  • the image processing method also includes a first texture image storage step for storing the first texture image in the first texture image storage means, and a second texture image storage means for storing the second texture image in the second texture image storage means.
  • 2 texture image storing step a display priority storing step for storing the display priority of each pixel constituting the second texture image in the display priority storing means, and a threshold value for storing the display priority in the threshold storing means.
  • the display priority is given to the polygon on which the second texture image is drawn by the second texture image drawing means.
  • the first texture image stored in the first texture image storage unit is drawn according to a comparison result between the display priority stored in the degree storage unit and the threshold stored in the threshold storage unit.
  • a first texture image drawing step is provided according to a comparison result between the display priority stored in the degree storage unit and the threshold stored
  • the computer-readable information storage medium includes a first texture image storage means for storing a first texture image, a second texture image storage means for storing a second texture image, and the first texture image.
  • Display priority storage means for storing the display priority of each pixel constituting the pixel
  • threshold storage means for storing a threshold of the display priority
  • the second texture image drawing means for drawing the second texture image stored in the second texture image storage means, and the polygon on which the second texture image is drawn by the second texture image drawing means.
  • the first texture stored in the first texture image storage means according to a comparison result between the display priority stored in the display priority storage means and the threshold stored in the threshold storage means.
  • the second texture image is drawn.
  • the display priority of each pixel constituting the first texture image is stored, and the second texture image is further drawn according to the comparison result between the display priority and the threshold value.
  • all or part of the second texture image is replaced with the first texture image according to the storage content of the display priority storage means by relatively simple image processing, and all or part of the image changes. The situation can be expressed.
  • the first texture image is an image showing the object ⁇ after a predetermined change appears in the object ⁇ ⁇ related to the polygon
  • the second texture image is related to the polygon.
  • the display priority storage unit stores the display priority so as to follow the direction of the predetermined change. For example, when expressing how an object gets wet with liquid, or when expressing how liquid leaks out of an object, the first texture image, for example, an image representing an object after getting wet with liquid or liquid Use the image that represents the object after For example, an image representing an object before wetting the liquid or an image representing an object before the liquid oozes may be used as the texture image.
  • the display priority storage means may store the display priority so as to follow the direction in which the liquid first gets wet.
  • the display priority storage means may store the display priority so as to follow the direction in which the grass grows.
  • FIG. 1 is a diagram illustrating a hardware configuration example of a game device (image processing device) according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing the head of a game character object composed of polygons.
  • Figure 3 shows the head of a game character object with a hair texture attached.
  • (A) shows a state in which the hair is completely grown, and
  • (b) shows a state in which the hem portion is not yet grown. .
  • FIG. 4 is a diagram showing an example of the hair texture (a), the display priority map (b), and the background texture (c).
  • FIG. 5 is a flowchart showing game screen generation processing.
  • FIG. 6 is a flowchart showing the rendering process.
  • FIG. 7 is a diagram illustrating an example of the first texture image (a), the display priority map (b), the second texture image (c), and the display image (d).
  • FIG. 1 is a diagram showing a configuration of a game device according to an embodiment of the present invention.
  • the game device (image processing device) 10 shown in the figure is a DVD-ROM 2 serving as an information storage medium in a home game machine (computer game system) 1 1 connected to a monitor 18 and a speaker 22. It is configured by attaching 5.
  • the game program is stored in the DVD-ROM 25, read out, and supplied to the home game machine 1 1, but any other information storage medium such as a CD-ROM or ROM card is used. It can be used similarly.
  • a game program or a game device may be supplied to the consumer game machine 11 from a remote location via a communication network.
  • the home game machine 1 1 includes a microprocessor 14, an image processing unit 16, a main memory 26 and an input / output processing unit 30 connected to each other via a bus 12 2 so that mutual data communication is possible. Connected to the controller 3 2, the sound processing unit 20, and the DVD-ROM playback unit 24. Each component of the consumer game machine 1 1 other than the controller 3 2 is housed in a housing. For example, a household television receiver is used for the monitor 18, and its built-in speaker power is used for the speaker power 22, for example.
  • the microprocessor 14 is based on an operating system (not shown) stored in a ROM and a game program read from DVD-ROM 25 (computer-readable information storage medium). Game machine 1 Controls each part of 1
  • the bus 12 is used for exchanging addresses and data between each part of the home game machine 11.
  • the main memory 26 is composed of RAM, D VD—The game program and game data read from the ROM 25 are written as needed or used for the work of the microprocessor 14.
  • the image processing unit 16 includes a VRAM, receives image data sent from the micro-processor 14 and draws a game screen on the VR AM, converts the content into a video signal, and converts it to a predetermined timing. To monitor 1 8
  • the image processing unit 16 receives the vertex coordinates (X, ⁇ , Z), vertex color information (R, G, B), texture coordinates (VX, VY) of each polygon in the viewpoint coordinate system from the microprocessor 14. Also receives alpha value. Then, using such information, color information, Z value (depth information), alpha ( ⁇ ) value, etc. of each pixel constituting the display image are drawn in VRAM. This display image is output to the monitor 18 at a predetermined timing.
  • pixel test When drawing pixels (color information, Z value, alpha value) in VRAM, pixel test can be executed arbitrarily.
  • pixel test ⁇ ⁇ ⁇ ⁇ an alpha test, a destination alpha test, and a depth test are prepared, and an arbitrary pixel test is performed in response to an instruction from the microprocessor 14.
  • the alpha test compares the alpha value of the pixel to be drawn with a given reference alpha value, and if the specified condition is not satisfied, the drawing of that pixel is restricted.
  • the alpha value (destination alpha value) of the destination pixel is compared with the specified value (0 x 8 0).
  • drawing of the pixel is restricted.
  • the Z value of the drawing pixel and (V Compared with the Z value in the Z buffer (provided in RAM) if the specified condition is not satisfied, drawing of the pixel is restricted.
  • masking can be performed, and writing to the color information, Z value, and alpha value of each pixel can be arbitrarily prohibited.
  • the input / output processing unit 30 is an interface for relaying data communication between each of the controller 3 2, the audio processing unit 20, and the DV D-ROM playback unit 24 and the microprocessor 14.
  • Controller 3 2 is an input means for the player to operate the game.
  • the input / output processing unit 30 scans the operation state of the various buttons of the controller 3 2 at a constant cycle (for example, every 1 Z 60 seconds) and sends an operation signal representing the scan result to the microprocessor via the bus 12. 1 Pass to 4.
  • the microprocessor 14 determines the player's game operation based on the operation signal.
  • the audio processing unit 20 includes a sound buffer, and reproduces data such as music and game sound effects read out from the DVD-ROM 25 and stored in the sound buffer. Output from.
  • the DVD-ROM OM playback unit 24 reads the game program and game data recorded in the DVD-ROM 25 according to the instruction from the microphone processor 14.
  • hair wrinkles for example, hair, wrinkles, etc.
  • FIG. 2 shows an object representing a game character whose appearance is displayed on the monitor 18 in the game apparatus 10.
  • This game character object 50 is composed of polygons, and is a virtual three-dimensional space (game space) constructed on the main memory 26 of the game device 10. Placed in.
  • a texture image representing the appearance of the game character is attached (mapped) to each polygon constituting the game character object 50.
  • FIG. 3 shows a game character object 50 to which a texture image is attached.
  • a texture image representing the background of the game character is affixed to the polygon that constitutes the head (scalp) 52 in particular, and then a hair texture image representing a state in which the hair is completely grown. Are stuck on top of each other.
  • the background texture image is overwritten only for those pixels that satisfy the predetermined condition among the pixels constituting the hair texture image, and the color information of the background texture image is left otherwise. It is. Note that the polygon (data) constituting the object, the background texture image (data) attached to the polygon, and the hair texture image (data) are associated with each other in the game device 10. Thus, while using the same background texture image and hair texture image, the game character object 50 is displayed with different hair lengths, as shown in (a) and (b) of FIG.
  • Fig. 4 (a) shows an example of a hair texture image
  • Fig. 4 (b) shows an example of a display priority map corresponding to the hair texture image
  • Fig. 4 (c) shows the hair texture image. It is a figure which shows an example of the background texture image corresponding to a hair texture image. These consist of information for the same pixel group.
  • the hair texture image 5 2 a shown in FIG. 5A shows a state where the hair of the game character evening has completely grown, and color information representing the color of the hair is associated with all pixels.
  • the numerical value indicating the display priority decreases from one side of the hair texture image 52a to the other side.
  • an alpha channel can be set in the hair texture image 52a, and the display priority map 52b is configured by the alpha channel.
  • the display priority of each pixel is stored as the alpha value of that pixel.
  • the background texture image 52c shown in (c) of the figure shows the background of the game character, and color information representing the color of the background is associated with each pixel.
  • the background texture image 5 2 c is mapped to the polygon that forms the head 52 of the game character object 50, the display image is drawn in the VRAM, and then the background texture image 5 2 c is further displayed. While referring to the corresponding display priority map 5 2 b, for pixels whose display priority is equal to or higher than the hair volume parameter (predetermined threshold), the data of the hair texture image 5 2 a corresponding to the background texture image 5 2 c is used. Overwrites the recorded color information of the pixel (rewrites the color information of the pixel).
  • the hair amount parameter may be set according to an operation input by the controller 32 on a setting screen (not shown) and stored in a storage means such as a main memory 26 or a memory card (not shown). Further, the hair amount parameter may be set or updated based on a timer or calendar output (not shown).
  • FIG. 5 is a flowchart showing the game screen generation process executed by the game apparatus 10.
  • FIG. This process is performed on the game device 10 on the DVD—
  • the microprocessor 14 first performs game environment processing based on the game program and game data read from the DVD-ROM 25 (S 1 0 1), In environmental processing, the positions and orientations of all static and dynamic objects in the virtual 3D space are calculated. Static objects, such as building objects, do not change position as the game progresses. On the other hand, the dynamic object changes its position and posture as the game progresses, such as the game character object 50 and the vehicle object ⁇ . The position and orientation of the dynamic object change according to the operation signal input from the game program or the controller 32. The game environment processing also calculates the viewpoint and field of view. Objects that are far from the visual field range are excluded from the subsequent game processing.
  • the microprocessor 14 performs geometry processing (S 1 0 2).
  • geometry processing coordinate conversion from the world coordinate system to the viewpoint coordinate system is performed.
  • the color information of the vertices of each polygon composing the object is corrected based on the light source information (light source color and position).
  • a clipping process is also performed.
  • the microprocessor 14 reads the hair amount parameter that has already been set from the storage means such as the main memory 26 (S 1 0 3).
  • the hair volume parameter may be set for each game character object, may be set in common for all the characters appearing in the game, or may be set for each hair texture image. In S 1 0 3, It is only necessary to read out only the hair volume parameters necessary for the treatment.
  • the microprocessor 14 performs the rendering process (S 1 0 4).
  • the microprocessor 14 sends the vertex coordinates, vertex color information, texture coordinates, and alpha values of each polygon belonging to the field of view range to the image processing unit 16, and the image processing unit 16 stores these information in the information.
  • a display image is formed on the VR AM.
  • the hair amount parameter read in S 1 0 3 is changed.
  • the drawing process is performed.
  • the game image formed on the V RAM of the image processing unit 16 is read at a predetermined timing and displayed on the monitor 18.
  • FIG. 6 is a flowchart showing in detail the rendering process (S 1 0 4) in the game screen generation process shown in FIG.
  • the rendering process first, it is determined whether or not the current drawing target is a polygon to which the hair texture image is to be mapped (S 2 0 1). If it is not such a polygon, the texture image (specified by the texture coordinates) corresponding to the polygon is mapped and drawn in the VRAM (forms a display image) as usual (S 2 0 2). If there is an unprocessed polygon (S 2 0 3), the processing target is transferred to the next polygon (S 2 0 4), and the process returns to the determination of S 2 0 1 again.
  • the background texture image is read based on the texture coordinates and is drawn in the V RAM (S 2 0 5). While performing an alpha test using the hair volume parameters read in S 1 0 3, depending on the test results, The corresponding hair texture image is overwritten on the drawing portion of the background texture image. Specifically, the display priority corresponding to each pixel of the hair texture image is read out, and the display priority is compared with the hair amount parameter. If the display priority is equal to or higher than the hair amount parameter, the color information of the pixel recorded in the hair texture image is written in the VRAM in place of the color information of the corresponding pixel in the background texture image.
  • the processing target is moved to the next polygon (S 2 0 4), and the process returns to the determination of S 2 0 1 again. If there is no unprocessed polygon, the rendering process ends.
  • the hair amount parameter is changed according to the operation by the controller 32 or with the passage of time, and the amount corresponding to the value is changed. Can be displayed on the head 52 of the game character object 50.
  • this invention is not limited to the above embodiment.
  • the present invention is not limited to image processing related to a game, and can be applied to any three-dimensional image processing.
  • the present invention can be applied to a 3D CG animation, a fly simulator, a drive simulator, and the like.
  • the present invention can be applied to various changes in various objects. That is, a first texture image representing the appearance before the change of the object, a second texture image representing the appearance after the change of the object, and a display priority map set according to the direction of the change of the object. If prepared in advance, changes in the object can be expressed easily.
  • FIG. 7 (a) shows an example of the first texture image.
  • FIG. 5 is a diagram showing an example of a display priority map corresponding to the first texture image
  • FIG. 5C is a diagram showing an example of a second texture image corresponding to the first texture image.
  • FIG. 4D shows an example of a display image using these images and maps.
  • the first and second texture images and the display priority map are both composed of information for the same pixel group.
  • a first texture image 60 a shown in FIG. 5A is an image that is pasted on, for example, a floor polygon, and is an image that shows the entire floor being wet.
  • the display priority map 6 Ob shown in FIG. 7 (b) represents the priority (display priority) when displaying the color information of each pixel of the first texture image 60a (drawing in VRAM).
  • the display priority is stored in association with each pixel.
  • the display priority map 60b shows the direction of change that occurs in the objects related to the first and second texture images, and is created so that the value changes according to the direction of change.
  • the numerical value indicating the display priority decreases from the center of the first texture image 60 a toward the peripheral portion. That is, the display priority map 6 Ob is divided into areas 6 2 — 1 to 6 2 1 4, and the display priority corresponding to pixels located in each area decreases in that order. ing.
  • the display priority is changed in units of regions, but of course, the display priority may be changed in units of pixels.
  • an alpha channel can be set for the first texture image 60 a, and the display priority map 60 b is configured by the alpha channel.
  • the display priority of each pixel is stored as the alpha value of that pixel.
  • the second texture image 60 c shown in FIG. It is an image showing the state.
  • the first texture image 60a, the second texture image 60c, and the display priority map 60b for example, the display image shown in FIG.
  • the first texture image 60a is actually drawn for the pixels located in the regions 62-1 and 62-2, and the other images are the second texture. This is displayed when the threshold value is set so that the color information of the checker image 60 c remains in the VRAM. By doing so, various changes of various objects can be suitably displayed.
  • the present invention can be applied to a computer such as a game machine, and each pixel constituting the hair texture image representing the character's hair, the background texture image representing the character's background, and the hair texture image.
  • the display priority and the display priority threshold are stored, and a background texture image is drawn for the polygon representing the character, and the display priority and the threshold value are compared for the polygon. Since the hair texture image is further drawn, it is possible to display how the hair grows by changing the threshold value by simple image processing.
  • the first texture image, the second texture image, the display priority of each pixel constituting the first texture image, and the display priority threshold are stored, and
  • the second texture image is drawn for the polygons associated with the first and second texture images, and the first texture image is further drawn for the polygons according to the comparison result between the display priority and the threshold value.
  • the display image can be changed by changing the threshold value using simple image processing. A state in which all or a part of the image changes can be displayed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

表示画像の全部又は一部が変化する様子を簡易な画像処理にて表示することができる画像処理装置を提供する。第1テクスチャ画像と、第2テクスチャ画像と、第1テクスチャ画像を構成する各画素の表示優先度と、表示優先度の閾値と、を記憶しておき、所定ポリゴンに関して第2テクスチャ画像を描画するとともに(S205)、前記表示優先度と前記閾値との比較結果に応じて、第1テクスチャ画像をさらに描画する(S206)。

Description

明 細 書 画像処理装置及び画像処理方法 技術分野
本発明は画像処理装置及び画像処理方法に関し、特に表示画像の 全部又は一部を簡易な画像処理にて変化させることができる画像 処理装置、 画像処理方法及びプログラムに関する。 背景技術
仮想 3次元空間にキャラクタオブジェク ト及び視点を配置し、同 視点から見た空間の様子をモニタに表示するゲーム装置等の画像 処理装置が知られている。 こうした装置によれば、 仮想現実感を実 現することができる。
仮想 3次元空間に配置するキヤラクタオブジェク トについて、ュ 一ザの設定により又は時間経過により、頭髪が伸びる様子を簡易に 表現することができれば、仮想現実感を更に向上させることができ るものと期待される。同様に、水等の液体により物体が濡れる様子、 水等の液体が物体から染み出す様子を簡易に表現することができ れば、 仮想現実感の向上に寄与するものと期待される。
本発明は上記課題に鑑みてなされたものであって、第 1の目的は ゲームキャラク夕の頭髪等、毛髪が生える様子を簡易な画像処理に て表示することができる画像処理装置及び画像処理方法を提供す ることにある。
また、 第 2の目的は、 表示画像の全部又は一部を簡易な画像処理 にて変化させることができる画像処理装置及び画像処理方法を提 3 016997
供することにある。 発明の開示
上記課題を解決するために、 本発明に係る画像処理装置は、 キヤ ラクタの画像を表示する画像処理装置であって、前記キャラクタの 毛髪を表す毛髪テクスチャ画像を記憶する毛髪テクスチャ画像記 憶手段と、前記キャラクタの地肌を表す地肌テクスチャ画像を記憶 する地肌テクスチャ画像記憶手段と、前記毛髪テクスチャ画像を構 成する各画素の表示優先度を記憶する表示優先度記憶手段と、前記 表示優先度の閾値を記憶する閾値記憶手段と、前記キャラクタを表 すポリゴンに関して、前記地肌テクスチャ画像記憶手段に記憶され る前記地肌テクスチャ画像を描画する地肌テクスチャ画像描画手 段と、前記地肌テクスチャ画像描画手段により前記地肌テクスチャ 画像が描画された前記ポリゴンに関して、前記表示優先度記憶手段 に記憶される表示優先度と前記閾値記憶手段に記憶される前記闘 値との比較結果に応じて、前記毛髪テクスチャ画像記憶手段に記憶 される前記毛髪テクスチャ画像を描画する毛髪テクスチャ画像描 画手段と、 を含むことを特徴とする。
また、 本発明に係る画像処理方法は、 キャラクタの画像を表示す る画像処理方法であって、前記キャラクタの毛髪を表す毛髪テクス チヤ画像を毛髪テクスチャ画像記憶手段に記憶させる毛髪テクス チヤ画像記憶ステップと、前記キャラクタの地肌を表す地肌テクス チヤ画像を地肌テクスチャ画像記憶手段に記憶させる地肌テクス チヤ画像記憶ステップと、前記毛髪テクスチャ画像を構成する各画 素の表示優先度を表示優先度記憶手段に記憶させる表示優先度記 憶ステツプと、前記表示優先度の閾値を閾値記憶手段に記憶させる 閾値記憶ステップと、 前記キャラクタを表すポリゴンに関して、 前 記地肌テクスチャ画像記憶手段に記憶される前記地肌テクスチャ 画像を描画する地肌テクスチャ画像描画ステップと、前記地肌テク スチヤ画像描画手段により前記地肌テクスチャ画像が描画された 前記ポリゴンに関して、前記表示優先度記憶手段に記憶される表示 優先度と前記閾値記憶手段に記憶される前記閾値との比較結果に 応じて、前記毛髪テクスチャ画像記憶手段に記憶される前記毛髪テ クスチヤ画像を描画する毛髪テクスチャ画像描画ステップと、を含 むことを特徴とする。
また、 本発明に係るコンピュータ読取可能な情報記憶媒体は、 キ ャラクタの画像を表示する画像処理装置としてパーソナルコンビ ユータ、 家庭用ゲーム機、 業務用ゲーム機、 携帯ゲーム機、 携帯情 報端末、 携帯電話機、 ホームサーバ等のコンピュータを機能させる ためのプログラムであって、前記キャラクタの毛髪を表す毛髪テク スチヤ画像を記憶する毛髪テクスチャ画像記憶手段、前記キャラク 夕の地肌を表す地肌テクスチャ画像を記憶する地肌テクスチャ画 像記憶手段、前記毛髪テクスチャ画像を構成する各画素の表示優先 度を記憶する表示優先度記憶手段、前記表示優先度の閾値を記憶す る閾値記憶手段、 前記キャラクタを表すポリゴンに関して、 前記地 肌テクスチャ画像記憶手段に記憶される前記地肌テクスチャ画像 を描画する地肌テクスチャ画像描画手段、及び前記地肌テクスチャ 画像描画手段により前記地肌テクスチャ画像が描画された前記ポ リゴンに関して、前記表示優先度記憶手段に記憶される表示優先度 と前記閾値記憶手段に記憶される前記閾値との比較結果に応じて、 前記毛髪テクスチャ画像記憶手段に記憶される前記毛髪テクスチ ャ画像を描画する毛髪テクスチャ画像描画手段として前記コンビ ユー夕を機能させるための命令を含むプログラムを記憶したもの である。
本発明では、例えば毛髪が生えていない様子等を表す地肌テクス チヤ画像がキヤラク夕を表すポリゴンに関して描画される。そして. 本発明では、毛髪テクスチャ画像を構成する各画素の表示優先度が 記憶されており、 この表示優先度と閾値との比較結果に応じて、 毛 髪テクスチャ画像がさらに描画される。 毛髪テクスチャ画像は、 例 えば毛髪が伸びきつた様子等を表す。 本発明によれば、 比較的簡易 な画像処理によって、 毛髪 (頭髪や髭等) が生える様子を好適に表 示することができるようになる。
なお、 前記毛髪テクスチャ画像描画手段は、 前記地肌テクスチャ 画像描画手段により前記地肌テクスチャ画像が描画された前記ポ リゴンに関して、前記表示優先度記憶手段に記憶ざれる各画素の表 示優先度と前記閾値記憶手段に記憶される前記閾値との比較結果 に応じて、 当該画素の描画を行ってもよい。 また、 前記表示優先度 記憶手段は、各画素の表示優先度を前記毛髪テクスチャ画像のアル ファ値として記憶してもよい。
また、 本発明に係る画像処理装置は、 第 1テクスチャ画像を記憶 する第 1テクスチャ画像記憶手段と、第 2テクスチャ画像を記憶す る第 2テクスチャ画像記憶手段と、前記第 1テクスチャ画像を構成 する各画素の表示優先度を記憶する表示優先度記憶手段と、前記表 示優先度の閾値を記憶する閾値記憶手段と、前記第 1及び第 2テク スチヤ画像に関連づけられたポリゴンに関して、前記第 2テクスチ ャ画像記憶手段に記憶される前記第 2テクスチャ画像を描画する 第 2テクスチャ画像描画手段と、前記第 2テクスチャ画像描画手段 により前記第 2テクスチャ画像が描画された前記ポリゴンに関し て、前記表示優先度記憶手段に記憶される表示優先度と前記閾値記 憶手段に記憶される前記閾値との比較結果に応じて、前記第 1テク スチヤ画像記憶手段に記憶される前記第 1テクスチャ画像を描画 する第 1テクスチャ画像描画手段と、 を含むことを特徴とする。
また、 本発明に係る画像処理方法は、 第 1テクスチャ画像を第 1 テクスチャ画像記憶手段に記憶させる第 1テクスチャ画像記憶ス テツプと、第 2テクスチャ画像を第 2テクスチャ画像記憶手段に記 憶させる第 2テクスチャ画像記憶ステップと、前記第 2テクスチャ 画像を構成する各画素の表示優先度を表示優先度記憶手段に記憶 させる表示優先度記憶ステップと、前記表示優先度の閾値を閾値記 憶手段に記憶させる閾値記憶ステツプと、前記第 1及び第 2テクス チヤ画像に関連づけられたポリゴンに関して、前記第 2テクスチャ 画像記憶手段に記憶される前記第 2テクスチャ画像を描画する第 2テクスチャ画像描画ステップと、前記第 2テクスチャ画像描画手 段により前記第 2テクスチャ画像が描画された前記ポリゴンに関 して、前記表示優先度記憶手段に記憶される表示優先度と前記閾値 記憶手段に記憶される前記閾値との比較結果に応じて、前記第 1テ クスチヤ画像記憶手段に記憶される前記第 1テクスチャ画像を描 画する第 1テクスチャ画像描画ステップと、を含むことを特徴とす る。
さらに、 本発明に係るコンピュ一夕読取可能な情報記憶媒体は、 第 1テクスチャ画像を記憶する第 1テクスチャ画像記憶手段、第 2 テクスチャ画像を記憶する第 2テクスチャ画像記憶手段、前記第 1 テクスチャ画像を構成する各画素の表示優先度を記憶する表示優 先度記憶手段、 前記表示優先度の閾値を記憶する閾値記憶手段、 前 記第 1及び第 2テクスチャ画像に関連づけられたポリ ゴンに関し て、前記第 2テクスチャ画像記憶手段に記憶される前記第 2テクス チヤ画像を描画する第 2テクスチャ画像描画手段、及び前記第 2テ クスチヤ画像描画手段により前記第 2テクスチャ画像が描画され た前記ポリゴンに関して、前記表示優先度記憶手段に記憶される表 示優先度と前記閾値記憶手段に記憶される前記閾値との比較結果 に応じて、前記第 1テクスチャ画像記憶手段に記憶される前記第 1 テクスチャ画像を描画する第 1テクスチャ画像描画手段として、パ 一ソナルコンピュータ、 家庭用ゲーム機、 業務用ゲーム機、 携帯ゲ ーム機、 携帯情報端末、 携帯電話機、 ホームサーバ等のコンピュー 夕を機能させるためのプログラムを記憶したものである。
本発明では、 第 2テクスチャ画像が描画される。 第 1テクスチャ 画像を構成する各画素の表示優先度が記憶されており、この表示優 先度と閾値との比較結果に応じて、第 2テクスチャ画像がさらに描 画される。 本発明によれば、 比較的簡易な画像処理によって、 第 2 テクスチャ画像の全部又は一部を前記表示優先度記憶手段の記憶 内容に従って第 1テクスチャ画像に差し替え、画像の全部又は一部 が変化する様子を表現することができる。
本発明の一態様では、 前記第 1テクスチャ画像は、 前記ポリゴン に関連するォブジェク 卜に所定変化が現れた後の該ォブジェク 卜 を示す画像であり、 前記第 2テクスチャ画像は、 前記ポリゴンに関 連するオブジェク 卜に前記所定変化が現れる前の該ォブジェク 卜 を示す画像であり、 前記表示優先度記憶手段は、 前記所定変化の方 向に従うよう表示優先度を記憶する。 例えば、 物体が液体に濡れる 様子を表現する場合や、物体から液体が染み出す様子を表現する場 合には、 第 1テクスチャ画像として、 例えば液体に濡れた後の物体 を表す画像や液体が染み出した後の物体を表す画像を用い、第 2テ クスチヤ画像として、例えば液体に濡れる前の物体を表す画像や液 体が染み出す前の物体を表す画像を用いればよい。 この場合、 表示 優先度記憶手段には、液体により最初に濡れる方向に従うよう表示 優先度を記憶させておけばよい。 また、 芝が生える様子を表現する 場合には、 第 1テクスチャ画像として、 例えば芝が生えた後の地面 を表す画像を用い、 第 2テクスチャ画像として、 例えば芝が生える 前の地面を表す画像を用いればよい。 この場合、 表示優先度記憶手 段には、芝が生える方向に従うよう表示優先度を記憶させておけば よい。 図面の簡単な説明
図 1は、 本発明の実施形態に係るゲーム装置 (画像処理装置) の ハードウェア構成例を示す図である。
図 2は、ポリゴンにより構成されたゲームキャラクタオブジェク 卜の頭部を示す図である。
図 3は、毛髪テクスチャが貼付されたゲームキャラクタオブジェ ク トの頭部を示す図であり、 ( a )は毛髪が完全に生えた状態、 ( b ) は裾部分が未だ生えていない状態を示す。
図 4は、 毛髪テクスチャ ( a )、 表示優先度マップ ( b ) 及び地 肌テクスチャ ( c ) の一例を示す図である。
図 5は、 ゲーム画面生成処理を示すフロー図である。
図 6は、 レンダリング処理を示すフロー図である。
図 7は、 第 1テクスチャ画像 ( a )、 表示優先度マップ (b )、 第 2テクスチャ画像( c )及び表示画像( d )の一例を示す図である。 発明を実施するための最良の形態
以下、 本発明の実施形態について図面に基づき詳細に説明する。 図 1は、本発明の一実施形態に係るゲーム装置の構成を示す図で ある。 同図に示すゲーム装置 (画像処理装置) 1 0は、 モニタ 1 8 及びスピーカ 2 2に接続された家庭用ゲーム機(コンピュータゲ一 ムシステム) 1 1 に、 情報記憶媒体たる D V D— R OM 2 5が装着 されることにより構成される。 ここでは、 ゲームプログラムゃゲ一 ムデータを DVD— R OM 2 5に格納し、それを読み出して家庭用 ゲーム機 1 1 に供給するが、 C D— R O Mや R O Mカード等、 他の あらゆる情報記憶媒体を同様にして用いることができる。 また、 通 信ネッ トワークを介して遠隔地からゲームプログラムやゲームデ 一夕を家庭用ゲーム機 1 1 に供給してもよい。
家庭用ゲーム機 1 1は、 マイクロプロセッサ 1 4、 画像処理部 1 6、主記憶 2 6及び入出力処理部 3 0がバス 1 2により相互データ 通信可能に接続され、 さらに入出力処理部 3 0には、 コントローラ 3 2、音声処理部 2 0及び D VD— R OM再生部 2 4が接続されて いる。コントローラ 3 2以外の家庭用ゲーム機 1 1 の各構成要素は 筐体内に収容されている。モニタ 1 8には例えば家庭用のテレビ受 像機が用いられ、スピー力 2 2には例えばその内蔵スピー力が用い られる。
マイクロプロセッサ 1 4は、図示しない R OMに格納されるオペ レ一ティ ングシステムや、 D VD - R OM 2 5 (コンピュータ読み 取り可能な情報記憶媒体)から読み出されるゲームプログラムに基 づいて、 家庭用ゲーム機 1 1の各部を制御する。 バス 1 2はァドレ ス及びデータを家庭用ゲーム機 1 1 の各部でやり取りするための ものである。 また、 主記憶 2 6は RAMを含んで構成されており、 D VD— R OM 2 5から読み取られたゲームプログラム及びゲー ムデータが必要に応じて書き込まれたり、マイクロプロセッサ 1 4 の作業用として用いられたりするものである。
画像処理部 1 6は VRAMを含んで構成されており、マイクロプ 口セッサ 1 4から送られる画像データを受け取って V R AM上に ゲーム画面を描画するとともに、その内容をビデオ信号に変換して 所定タイミングでモニタ 1 8に出力する。
すなわち画像処理部 1 6は、マイクロプロセッサ 1 4から視点座 標系での各ポリゴンの頂点座標 (X, Υ, Z )、 頂点色情報 (R, G, B)、 テクスチャ座標 (VX, V Y) 及びアルファ値等を受け 取る。 そして、 それら情報を用いて表示画像を構成する各ピクセル (画素) の色情報、 Z値 (奥行き情報) 及びアルファ ( α) 値等を VRAMに描画する。この表示画像は所定タイミングでモニタ 1 8 に出力される。
VRAMにピクセル (色情報、 Z値、 アルファ値) を描画する際 にはピクセルテストを任意に実行することができる。ピクセルテス 卜には、 アルファテス ト、 デスティネーショ ンアルファテス ト及び デプステス トが用意されており、マイクロプロセッサ 1 4からの指 示に応じて任意のピクセルテス トが実施される。 このうち、 アルフ アテストでは、描画ピクセルのアルファ値と所与の基準アルファ値 とを比較して、指定条件を満足しない場合にはそのピクセルの描画 が制限される。 デスティネーショ ンアルファテス トでは、 描画先の ピクセル(VRAMの描画先アドレスに既に描画されているピクセ ル) のアルファ値 (デスティネーショ ンアルファ値) と所定値 ( 0 x 8 0 ) を比較して、 指定条件を満足しない場合にはそのピクセル の描画が制限される。デプステス トでは、描画ピクセルの Z値と(V RAMに用意される) Zバッファの Z値とを比較し、 指定条件を満 足しない場合にはそのピクセルの描画が制限される。 また、 VRA Mにピクセルを描画する場合にはマスキングをすることができる ようになつており、 各ピクセルの色情報、 Z値及びアルファ値に対 する書き込みを任意に禁止できるようになつている。
入出力処理部 3 0はコントローラ 3 2、音声処理部 2 0及び D V D— R OM再生部 2 4の各々とマイクロプロセッサ 1 4との間の データ通信を中継するためのィンターフェースである。コントロー ラ 3 2はプレイヤーがゲーム操作をするための入力手段である。入 出力処理部 3 0は一定周期 (例えば 1 Z 6 0秒毎) にコントローラ 3 2の各種ボタンの操作状態をスキヤンし、そのスキヤン結果を表 す操作信号を、 バス 1 2を介してマイクロプロセッサ 1 4に渡す。 マイクロプロセッサ 1 4は、その操作信号に基づいてプレイヤーの ゲーム操作を判定する。音声処理部 2 0はサゥンドバッファを含ん で構成されており、 D VD— R OM 2 5から読み出されてサウンド バッファに記憶された音楽やゲーム効果音等のデータを再生して スピーカ 2 2から出力する。 D VD— R OM再生部 2 4は、 マイク 口プロセッサ 1 4からの指示に従って D VD— R OM 2 5 に記録 されたゲームプログラム及びゲームデータを読み取る。
以下、かかるハードウェア構成を有するゲーム装置 1 0を用いて 仮想 3次元空間に配置されたゲームキャラクタオブジェク トの毛 髮 (例えば頭髪や髭等) を好適に表現する技術について説明する。
図 2は、ゲーム装置 1 0でその姿がモニタ 1 8に表示されるゲー ムキャラクタを表すオブジェク トを示している。このゲームキャラ クタオブジェク ト 5 0はポリゴンにより構成されており、ゲーム装 置 1 0の主記憶 2 6上に構築される仮想 3次元空間 (ゲーム空間) に配置される。 また、 このゲームキャラクタオブジェク ト 5 0を構 成する各ポリゴンには、ゲームキャラクタの容姿を表すテクスチャ 画像が貼付 (マッピング) されるようになつている。 図 3には、 テ クスチヤ画像が貼付されたゲームキャラクタオブジェク ト 5 0が 示されている。 このうち、 特に頭部 (頭皮部) 5 2を構成するポリ ゴンには、ゲームキャラクタの地肌を表す地肌テクスチャ画像が貼 付され、 その後さらに、 毛髪が完全に生えた状態を表す毛髪テクス チヤ画像が重ねて貼付されるようになっている。 そして、 毛髪テク スチヤ画像を貼付する場合には、それを構成する画素のうち所定条 件を満足するものについてのみ地肌テクスチャ画像に上書きされ、 それ以外は地肌テクスチヤ画像の色情報が残されるようになって いる。 なお、 オブジェク トを構成するポリゴン (データ) と、 該ポ リゴンに貼付される地肌テクスチャ画像 (データ) 及び毛髪テクス チヤ画像 (データ) とは、 ゲーム装置 1 0において互いに関連づけ られている。 こうして、 同じ地肌テクスチャ画像及び毛髪テクスチ ャ画像を用いつつも、 同図 ( a ) 及び (b ) のように、 異なる髪の 長さでゲームキャラクタオブジェク ト 5 0 を表示させるようにし ている。
図 4 ( a )は毛髪テクスチャ画像の一例を示す図であり、同図(b ) は該毛髪テクスチャ画像に対応する表示優先度マップの一例を示 す図であり、 同図 ( c ) は該毛髪テクスチャ画像に対応する地肌テ クスチヤ画像の一例を示す図である。 これらは、 いずれも同一の画 素群に対する情報から構成されている。 同図 ( a ) に示す毛髪テク スチヤ画像 5 2 aは、ゲームキャラク夕の頭髪が完全に生えた状態 を示しており、全画素に髪の毛の色を表す色情報が対応づけられて いる。 また、 同図 ( b ) に示す表示優先度マップ 5 2 bは、 毛髪テ クスチヤ画像 5 2 aの各画素の色情報を表示 (V R A Mに描画) す るときの優先度 (表示優先度) を表すものであり、 各画素に対応づ けて表示優先度を記憶してなるものである。 ここでは、 毛髪テクス チヤ画像 5 2 aの一方から他方に向けて表示優先度を表す数値が 減少するようになっている。 また、 本実施形態では、 毛髪テクスチ ャ画像 5 2 aにアルファチャンネルが設定可能であり、表示優先度 マップ 5 2 bを該アルファチャンネルにより構成する。 この場合、 各画素の表示優先度をその画素のアルファ値として記憶しておく ことになる。一方、同図( c )に示す地肌テクスチャ画像 5 2 cは、 ゲームキャラクタの地肌を示しており、各画素に地肌の色を表す色 情報が対応づけられている。
本実施形態では、ゲームキャラクタオブジェク ト 5 0の頭部 5 2 を構成するポリゴンに地肌テクスチャ画像 5 2 c をマッピングし て V R A Mに表示画像を描画し、 その後さらに、 地肌テクスチャ画 像 5 2 c に対応する表示優先度マップ 5 2 bを参照しながら、表示 優先度が毛髪量パラメータ(所定閾値)以上である画素については、 地肌テクスチャ画像 5 2 c に対応する毛髪テクスチャ画像 5 2 a のデータに記録されている、 該画素の色情報を上書きする (画素の 色情報を書き換える)。 前記毛髪量パラメータは、 図示しない設定 画面においてコントローラ 3 2による操作入力に応じて設定し、主 記憶 2 6やメモリカード (図示せず) 等の記憶手段に記憶しておく ようにすればよい。 また、 図示しないタイマやカレンダーの出力に 基づいて前記毛髪量パラメータを設定したり更新したりするよう にしてもよい。
ここで、ゲーム装置 1 0のゲーム画面生成処理について説明する 図 5は、ゲーム装置 1 0で実行されるゲーム画面生成処理を示すフ ロー図である。 この処理はゲーム装置 1 0において、 D V D—
M 2 5に格納されたプログラムに基づいて所定時間(例えば 1 / 6
0秒) おきに実行されるものである。
まず、 図 5に示すように、 ゲーム装置 1 0ではマイクロプロセッ サ 1 4が D V D— R O M 2 5から読み出されるゲームプログラム 及びゲームデータに基づき、まずゲーム環境処理を行う(S 1 0 1 ) , ゲーム環境処理では、仮想 3次元空間のすべての静的オブジェク ト 及び動的オブジェク 卜の位置及び姿勢が演算される。静的オブジェ ク トは建物ォブジェク ト等のようにゲームが進行しても位置を変 えないものである。これに対して動的オブジェク トはゲームキャラ クタオブジェク ト 5 0や乗物ォブジェク 卜等のようにゲームが進 行するにつれて位置や姿勢を変えるものである。動的オブジェク ト の位置及び姿勢は、ゲームプログラムやコントローラ 3 2から入力 される操作信号に従って変化する。 また、 ゲーム環境処理では視点 や視野範囲も計算される。 そして、 視野範囲から離れたオブジェク トについては以降のゲーム処理の対象から除外される。
次に、 マイクロプロセッサ 1 4はジオメ トリ処理を行う ( S 1 0 2 )。 ジオメ トリ処理ではワールド座標系から視点座標系への座標 変換を行う。 また、 オブジェク トを構成する各ポリゴンの頂点の色 情報が光源情報 (光源の色及び位置) に基づいて修正される。 さら に、 クリ ッピング処理も行われる。
その後、マイクロプロセッサ 1 4は主記憶 2 6等の記憶手段から 既に設定された毛髪量パラメータを読み出す ( S 1 0 3 )。 毛髪量 パラメ一夕は、ゲームキャラクタオブジェク ト毎に設定されてもよ いし、ゲームに登場する全てに対して共通して設定されてもよいし 毛髪テクスチャ画像毎に設定されてもよい。 S 1 0 3では、 以降の 処理で必要となる毛髪量パラメータのみ読み出すようにすればよ い。
次に、 マイクロプロセッサ 1 4はレンダリング処理を行う ( S 1 0 4)。 この処理では、 マイクロプロセッサ 1 4は視野範囲に属す る各ポリゴンの頂点座標、 頂点色情報、 テクスチャ座標及びアルフ ァ値を画像処理部 1 6 に送出し、画像処理部 1 6ではそれらの情報 に基づいて V R AM上に表示画像を形成する。 このとき、 ゲームキ ャラクタ 5 0の頭部 5 2を構成するポリゴンに対して、毛髪テクス チヤ画像 5 2 aをマッピングする場合には、 S 1 0 3で読み出され た毛髪量パラメ一夕に応じた描画処理を行うようにしている。画像 処理部 1 6の V R AMに形成されたゲーム画像は所定タイミング で読み出されて、 モニタ 1 8により表示される。
図 6は、図 5に示されたゲーム画面生成処理のうちレンダリング 処理( S 1 0 4)を詳細に示すフロー図である。同図に示すように、 レンダリ ング処理では、 まず、 現在の描画対象が毛髪テクスチャ画 像をマッピングすべきポリゴンであるか否かを判断する ( S 2 0 1 )。 そして、 そのようなポリゴンでなければ、 通常通り、 そのポ リゴンに対応するテクスチャ画像(テクスチャ座標により特定され る) をマツビングして VRAMに描画 (表示画像を形成) し ( S 2 0 2 )、 未処理のポリゴンがあれば ( S 2 0 3 )、 次のポリゴンに処 理対象を移して ( S 2 0 4)、 再び S 2 0 1の判断に戻る。
一方、現在の描画対象が毛髪テクスチャ画像をマツビングすべき ポリゴンであると判断すると、次にテクスチャ座標を基にして地肌 テクスチャ画像を読み出し、それを V RAMに描画する(S 2 0 5 ), さらに、 S 1 0 3で読み出した毛髪量パラメ一夕を用いたアルファ テストを実施しつつ、 テスト結果に応じて、 地肌テクスチャ画像に 対応する毛髪テクスチャ画像を、該地肌テクスチャ画像の描画部分 に上書きする。 具体的には、 毛髪テクスチャ画像の各画素に対応す る表示優先度を読み出して、該表示優先度と毛髪量パラメ一夕を比 較する。 そして、 表示優先度が毛髪量パラメータ以上であれば、 毛 髪テクスチャ画像に記録された当該画素の色情報を、地肌テクスチ ャ画像における対応画素の色情報に代えて、 V R A Mに書き込む。 その後、 未処理のポリゴンがあれば ( S 2 0 3 )、 次のポリゴン に処理対象を移して (S 2 0 4 )、 再び S 2 0 1の判断に戻る。 ま た、 未処理のポリゴンがなければ、 レンダリ ング処理を終了する。 以上説明したゲーム装置 1 0によれば、多数の毛髪画像を用意し なくても、 コントローラ 3 2による操作に応じて、 或いは時間経過 に応じて毛髪量パラメータを変化させ、その値に応じた量の毛髪を ゲームキャラクタオブジェク ト 5 0の頭部 5 2 に表示させること ができる。
なお、 本発明は以上の実施の形態に限定されるものではない。 例 えば、 本発明はゲームに関わる画像処理に限らず、 あらゆる 3次元 画像処理に適用可能である。 例えば、 3次元 C Gアニメ一ショ ン、 フライ トシミュレ一夕、 ドライブシミュレータ等にも本発明を適用 可能である。
また、 以上の説明では、 毛髪の変化に本発明を適用する例を取り 上げたが、 各種物体の各種変化に本発明は適用可能である。 すなわ ち、 物体の変化前の外観を表す第 1テクスチャ画像と、 物体の変化 後の外観を表す第 2テクスチャ画像と、当該物体における当該変化 の方向に従って設定された表示優先度マップと、を予め用意してお けば、 簡易に物体の変化を表現できる。
図 7 ( a )は第 1テクスチャ画像の一例を示す図であり、同図( b ) は該第 1テクスチャ画像に対応する表示優先度マップの一例を示 す図であり、 同図 ( c ) は第 1テクスチャ画像に対応する第 2テク スチヤ画像の一例を示す図である。 また、 同図 ( d ) は、 これらの 画像及びマップを用いた表示画像の一例を示す図である。
第 1及び第 2テクスチャ画像、 並びに表示優先度マップは、 いず れも同一の画素群に対する情報から構成されている。 同図 ( a ) に 示す第 1テクスチャ画像 6 0 aは、例えば床ポリゴンに貼付される 画像であって、 床全体が濡れた様子を示す画像等である。 また、 同 図 (b ) に示す表示優先度マップ 6 O bは、 第 1テクスチャ画像 6 0 aの各画素の色情報を表示 (V R A Mに描画) するときの優先度 (表示優先度) を表すものであり、 各画素に対応づけて表示優先度 を記憶してなるものである。 そして、 表示優先度マップ 6 0 bは第 1及び第 2テクスチャ画像に関連するオブジェク トに生じる変化 の方向を示すものであり、該変化の方向に従って値が変化するよう に作成されている。 ここでは、 第 1テクスチャ画像 6 0 aの中心か ら周縁部に向けて表示優先度を表す数値が減少するようになつて いる。 すなわち、 表示優先度マップ 6 O bは、 領域 6 2 — 1〜 6 2 一 4に区分されており、 その順で、 各領域内に位置する画素に対応 する表示優先度が減少するようになっている。 ここでは、 領域単位 に表示優先度を変化させるようにしたが、もちろん画素単位で表示 優先度を変化させるようにしてもよい。
また、 本実施形態では、 第 1テクスチャ画像 6 0 aにアルファチ ャンネルが設定可能であり、表示優先度マツプ 6 0 bを該アルファ チャンネルにより構成する。 この場合、 各画素の表示優先度をその 画素のアルファ値として記憶しておく ことになる。一方、 同図( c ) に示す第 2テクスチャ画像 6 0 cは、例えば床が全く濡れていない 様子を示す画像等である。 第 1テクスチャ画像 6 0 a、 第 2テクス チャ画像 6 0 c、 表示優先度マツプ 6 0 bを用いると、 例えば同図 ( d ) に示す表示画像が得られる。 同図 ( d ) に示される表示画像 は、領域 6 2 — 1及ぴ 6 2— 2の内部に位置する画素については第 1テクスチャ画像 6 0 aが実際に描画され、それ以外は第 2テクス チヤ画像 6 0 cの色情報が V R A Mに残るよう、閾値が設定された 場合に表示されるものである。 以上のようにすれば、 各種物体の各 種変化を好適に表示させることができる。 産業上の利用可能性
以上説明したように、本発明はゲーム機等のコンピュータに適用 することができ、 キャラクタの毛髪を表す毛髪テクスチャ画像と、 キャラクタの地肌を表す地肌テクスチャ画像と、毛髪テクスチャ画 像を構成する各画素の表示優先度と、 表示優先度の閾値と、 を記憶 しておき、キャラクタを表すポリゴンに関して地肌テクスチャ画像 を描画するとともに、該ポリゴンに関して前記表示優先度と前記閾 値との比較結果に応じて、前記毛髪テクスチャ画像をさらに描画す るようにしたので、 簡易な画像処理により、 閾値を変更させること で毛髪が生える様子を表示することができる。
また、 本発明によれば、 第 1テクスチャ画像と、 第 2テクスチャ 画像と、 第 1テクスチャ画像を構成する各画素の表示優先度と、 表 示優先度の閾値と、 を記憶しておき、 第 1及び第 2テクスチャ画像 に関連づけられたポリゴンに関して第 2テクスチャ画像を描画す るとともに、該ポリゴンに関して前記表示優先度と前記閾値との比 較結果に応じて、前記第 1テクスチャ画像をさらに描画するように したので、 簡易な画像処理により、 閾値を変更させることで表示画 像の全部又は一部が変化する様子を表示することができる。

Claims

請 求 の 範 囲
1 . キャラクタの画像を表示する画像処理装置であって、 前記キャラクタの毛髪を表す毛髪テクスチャ画像を記憶する毛 髪テクスチャ画像記憶手段と、
前記キャラクタの地肌を表す地肌テクスチャ画像を記憶する地 肌テクスチャ画像記憶手段と、
前記毛髪テクスチャ画像を構成する各画素の表示優先度を記憶 する表示優先度記憶手段と、
前記表示優先度の閾値を記憶する閾値記憶手段と、
前記キャラクタを表すポリゴンに関して、前記地肌テクスチャ画 像記憶手段に記憶される前記地肌テクスチャ画像を描画する地肌 テクスチャ画像描画手段と、
前記地肌テクスチャ画像描画手段により前記地肌テクスチャ画 像が描画された前記ポリゴンに関して、前記表示優先度記憶手段に 記憶される表示優先度と前記閾値記憶手段に記憶される前記閾値 との比較結果に応じて、前記毛髪テクスチャ画像記憶手段に記憶さ れる前記毛髪テクスチャ画像を描画する毛髪テクスチャ画像描画 手段と、
を含むことを特徴とする画像処理装置。
2 . 請求の範囲第 1項に記載の画像処理装置において、 前記毛髪テクスチャ画像描画手段は、前記地肌テクスチャ画像描 画手段により前記地肌テクスチャ画像が描画された前記ポリゴン に関して、前記表示優先度記憶手段に記憶される各画素の表示優先 度と前記閾値記憶手段に記憶される前記閾値との比較結果に応じ て、 当該画素の描画を行う
ことを特徴とする画像処理装置。
3 . 請求の範囲第 2項に記載の画像処理装置において、
前記表示優先度記憶手段は、各画素の表示優先度を前記毛髪テク スチヤ画像のアルファ値として記憶する
ことを特徴とする画像処理装置。
4 . キャラクタの画像を表示する画像処理方法であって、 前記キャラクタの毛髪を表す毛髪テクスチャ画像を毛髪テクス チヤ画像記憶手段に記憶させる毛髪テクスチャ画像記憶ステップ と、
前記キャラクタの地肌を表す地肌テクスチャ画像を地肌テクス チヤ画像記憶手段に記憶させる地肌テクスチャ画像記憶ステツプ と、
前記毛髪テクスチャ画像を構成する各画素の表示優先度を表示 優先度記憶手段に記憶させる表示優先度記憶ステップと、
前記表示優先度の閾値を閾値記憶手段に記憶させる閾値記憶ス テツプと、
前記キャラクタを表すポリゴンに関して、前記地肌テクスチャ画 像記憶手段に記憶される前記地肌テクスチャ画像を描画する地肌 テクスチャ画像描画ステツプと、
前記地肌テクスチャ画像描画手段により前記地肌テクスチャ画 像が描画された前記ポリゴンに関して、前記表示優先度記憶手段に 記憶される表示優先度と前記閾値記憶手段に記憶される前記閾値 との比較結果に応じて、前記毛髪テクスチャ画像記憶手段に記憶さ れる前記毛髪テクスチャ画像を描画する毛髪テクスチャ画像描画 ステップと、
を含むことを特徴とする画像処理方法。
5 . キャラクタの画像を表示する画像処理装置としてコンピュー 夕を機能させるためのプログラムを記憶したコンピュータ読取可 能な情報記憶媒体であって、
前記キャラクタの毛髪を表す毛髪テクスチャ画像を記憶する毛 髪テクスチャ画像記憶手段、
前記キャラクタの地肌を表す地肌テクスチャ画像を記憶する地 肌テクスチャ画像記憶手段、
前記毛髪テクスチャ画像を構成する各画素の表示優先度を記憶 する表示優先度記憶手段、
前記表示優先度の閾値を記憶する閾値記憶手段、
前記キャラクタを表すポリゴンに関して、前記地肌テクスチャ画 像記憶手段に記憶される前記地肌テクスチャ画像を描画する地肌 テクスチャ画像描画手段、 及び
前記地肌テクスチャ画像描画手段により前記地肌テクスチャ画 像が描画された前記ポリゴンに関して、前記表示優先度記憶手段に 記憶される表示優先度と前記閾値記憶手段に記憶される前記閾値 との比較結果に応じて、前記毛髪テクスチャ画像記憶手段に記憶さ れる前記毛髪テクスチャ画像を描画する毛髪テクスチャ画像描画 手段
として前記コンピュータを機能させるための命令を含むプログ ラムを記憶したコンピュータ読取可能な情報記憶媒体。
6 . 第 1テクスチャ画像を記憶する第 1テクスチャ画像記憶手段 と、
第 2テクスチャ画像を記憶する第 2テクスチャ画像記憶手段と、 前記第 1 テクスチャ画像を構成する各画素の表示優先度を記憶 する表示優先度記憶手段と、
前記表示優先度の閾値を記憶する閾値記憶手段と、
前記第 1及び第 2テクスチャ画像に関連づけられたポリゴンに 関して、前記第 2テクスチャ画像記憶手段に記憶される前記第 2テ クスチヤ画像を描画する第 2テクスチャ画像描画手段と、
前記第 2テクスチャ画像描画手段により前記第 2テクスチャ画 像が描画された前記ポリゴンに関して、前記表示優先度記憶手段に 記憶される表示優先度と前記閾値記憶手段に記憶される前記閾値 との比較結果に応じて、前記第 1テクスチャ画像記憶手段に記憶さ れる前記第 1テクスチャ画像を描画する第 1テクスチャ画像描画 手段と、
を含むことを特徴とする画像処理装置。
7 . 請求の範囲第 6項に記載の画像処理装置において、
前記第 1テクスチャ画像は、前記ポリゴンに関連するォブジェク トに所定変化が現れた後の該ォブジェク トを示す画像であり、 前記第 2テクスチャ画像は、前記ポリゴンに関連するォブジェク トに前記所定変化が現れる前の該ォブジェク 卜を示す画像であり、 前記表示優先度記憶手段は、前記所定変化の方向に従うよう表示 優先度を記憶する、
ことを特徴とする画像処理装置。
8 . 第 1テクスチャ画像を第 1テクスチャ画像記憶手段に記憶さ せる第 1テクスチャ画像記憶ステップと、
第 2テクスチャ画像を第 2テクスチャ画像記憶手段に記憶させ る第 2テクスチャ画像記憶ステツプと、
前記第 2テクスチャ画像を構成する各画素の表示優先度を表示 優先度記憶手段に記憶させる表示優先度記憶ステツプと、
前記表示優先度の閾値を閾値記憶手段に記憶させる閾値記憶ス テツプと、
前記第 1及び第 2テクスチャ画像に関連づけられたポリゴンに 関して、前記第 2テクスチャ画像記憶手段に記憶される前記第 2テ クスチヤ画像を描画する第 2テクスチャ画像描画ステップと、 前記第 2テクスチャ画像描画手段により前記第 2テクスチャ画 像が描画された前記ポリゴンに関して、前記表示優先度記憶手段に 記憶される表示優先度と前記閾値記憶手段に記憶される前記閾値 との比較結果に応じて、前記第 1テクスチャ画像記憶手段に記憶さ れる前記第 1テクスチャ画像を描画する第 1テクスチャ画像描画 ステップと、
を含むことを特徴とする画像処理方法。
9 . 第 1テクスチャ画像を記憶する第 1テクスチャ画像記憶手段- 第 2テクスチャ画像を記憶する第 2テクスチャ画像記憶手段、 前記第 1 テクスチャ画像を構成する各画素の表示優先度を記憶 する表示優先度記憶手段、
前記表示優先度の閾値を記憶する閾値記憶手段、
前記第 1及び第 2テクスチャ画像に関連づけられたポリゴンに 関して、前記第 2テクスチャ画像記憶手段に記憶される前記第 2テ クスチヤ画像を描画する第 2テクスチャ画像描画手段、 及び
前記第 2テクスチャ画像描画手段により前記第 2テクスチャ画 像が描画された前記ポリゴンに関して、前記表示優先度記憶手段に 記憶される表示優先度と前記閾値記憶手段に記憶される前記閾値 との比較結果に応じて、前記第 1テクスチャ画像記憶手段に記憶さ れる前記第 1テクスチャ画像を描画する第 1テクスチャ画像描画 手段 ,
としてコンピュータを機能させるためのプログラムを記憶した コンピュータ読取可能な情報記憶媒体。
PCT/JP2003/016997 2003-05-30 2003-12-26 画像処理装置及び画像処理方法 WO2004107270A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP03768353A EP1630746B1 (en) 2003-05-30 2003-12-26 Image processor and image processing method
AU2003292708A AU2003292708A1 (en) 2003-05-30 2003-12-26 Image processor and image processing method
CN200380110326XA CN1781124B (zh) 2003-05-30 2003-12-26 图像处理装置以及图像处理方法
DE60335148T DE60335148D1 (de) 2003-05-30 2003-12-26 Bildprozessor und bildverarbeitungsverfahren

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003-154926 2003-05-30
JP2003154926 2003-05-30
JP2003188427A JP2005049913A (ja) 2003-05-30 2003-06-30 画像処理装置、画像処理方法及びプログラム
JP2003-188427 2003-06-30

Publications (1)

Publication Number Publication Date
WO2004107270A1 true WO2004107270A1 (ja) 2004-12-09

Family

ID=33455584

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/016997 WO2004107270A1 (ja) 2003-05-30 2003-12-26 画像処理装置及び画像処理方法

Country Status (9)

Country Link
US (1) US7199801B2 (ja)
EP (1) EP1630746B1 (ja)
JP (1) JP2005049913A (ja)
KR (1) KR100729984B1 (ja)
CN (1) CN1781124B (ja)
AU (1) AU2003292708A1 (ja)
DE (1) DE60335148D1 (ja)
TW (1) TWI278786B (ja)
WO (1) WO2004107270A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8439733B2 (en) 2007-06-14 2013-05-14 Harmonix Music Systems, Inc. Systems and methods for reinstating a player within a rhythm-action game
US8444464B2 (en) 2010-06-11 2013-05-21 Harmonix Music Systems, Inc. Prompting a player of a dance game
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US8550908B2 (en) 2010-03-16 2013-10-08 Harmonix Music Systems, Inc. Simulating musical instruments
US8663013B2 (en) 2008-07-08 2014-03-04 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
US8686269B2 (en) 2006-03-29 2014-04-01 Harmonix Music Systems, Inc. Providing realistic interaction to a player of a music-based video game
US8702485B2 (en) 2010-06-11 2014-04-22 Harmonix Music Systems, Inc. Dance game and tutorial
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100773507B1 (ko) * 2005-10-21 2007-11-06 엘지전자 주식회사 이동 통신 단말기를 이용한 자동 광고 시스템 및 그 방법
JP4627724B2 (ja) * 2005-12-27 2011-02-09 株式会社三共 遊技機
JP4627726B2 (ja) * 2005-12-28 2011-02-09 株式会社三共 遊技機
EP2044575B1 (en) * 2006-07-24 2017-01-11 Sony Corporation A hair motion compositor system and optimization techniques for use in a hair/fur graphics pipeline
JP2008257456A (ja) * 2007-04-04 2008-10-23 Matsushita Electric Ind Co Ltd アンチエイリアス描画装置及びアンチエイリアス描画方法
US8493404B2 (en) 2010-08-24 2013-07-23 Qualcomm Incorporated Pixel rendering on display
US20130265303A1 (en) * 2010-12-16 2013-10-10 Pitmedia Marketings Incorporated Mosaic image processing apparatus using three-dimensional information, and program
US9087409B2 (en) * 2012-03-01 2015-07-21 Qualcomm Incorporated Techniques for reducing memory access bandwidth in a graphics processing system based on destination alpha values
JP2013188341A (ja) * 2012-03-14 2013-09-26 Sony Corp 画像処理装置と画像処理方法およびプログラム
US9786094B2 (en) * 2012-03-19 2017-10-10 Electronics For Imaging, Inc. Method and apparatus for creating a dimensional layer for an image file
US9314692B2 (en) * 2012-09-21 2016-04-19 Luxand, Inc. Method of creating avatar from user submitted image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084390A (ja) * 1999-09-09 2001-03-30 Namco Ltd 画像生成システム及び情報記憶媒体
JP2001229403A (ja) * 2000-02-17 2001-08-24 Namco Ltd ゲームシステム及び情報記憶媒体
EP1139292A2 (en) * 2000-03-24 2001-10-04 Konami Computer Entertainment Japan Inc. Game system, image drawing method for game system, and computer-readable storage medium storing game program
JP2002319033A (ja) * 2001-04-19 2002-10-31 Taito Corp コンピュータグラフィックスにおける陰影付け方式

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01142992A (ja) 1987-11-30 1989-06-05 Matsushita Electric Ind Co Ltd 画像処理装置
CA2109681C (en) 1993-03-10 1998-08-25 Donald Edgar Blahut Method and apparatus for the coding and display of overlapping windows with transparency
US5758046A (en) * 1995-12-01 1998-05-26 Lucas Digital, Ltd. Method and apparatus for creating lifelike digital representations of hair and other fine-grained images
JP3079073B2 (ja) * 1997-09-17 2000-08-21 コナミ株式会社 画像表示装置、画像表示方法および可読記録媒体
JP4042188B2 (ja) * 1997-11-21 2008-02-06 株式会社セガ 画像処理装置
JP3059956B2 (ja) * 1998-03-19 2000-07-04 コナミ株式会社 画像作成装置、画像作成方法及び画像作成プログラムが記録された可読記録媒体
JPH11296157A (ja) 1998-04-13 1999-10-29 Hitachi Ltd グラフィックス表示制御方式
JP2000003455A (ja) 1998-06-12 2000-01-07 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000039239A (ja) * 1998-07-21 2000-02-08 Shinko Plant Kensetsu Kk オゾン氷の製造システムと樹脂製容器に収容されたオゾン氷
JP3639475B2 (ja) * 1999-10-04 2005-04-20 シャープ株式会社 3次元モデル生成装置および3次元モデル生成方法ならびに3次元モデル生成プログラムを記録した記録媒体
JP3639476B2 (ja) * 1999-10-06 2005-04-20 シャープ株式会社 画像処理装置および画像処理方法ならびに画像処理プログラムを記録した記録媒体
JP4271796B2 (ja) * 1999-10-28 2009-06-03 ヤマハ発動機株式会社 ろ過装置
US6940508B2 (en) * 2000-06-22 2005-09-06 Microsoft Corp. Method and apparatus for modeling and real-time rendering of surface detail

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084390A (ja) * 1999-09-09 2001-03-30 Namco Ltd 画像生成システム及び情報記憶媒体
JP2001229403A (ja) * 2000-02-17 2001-08-24 Namco Ltd ゲームシステム及び情報記憶媒体
EP1139292A2 (en) * 2000-03-24 2001-10-04 Konami Computer Entertainment Japan Inc. Game system, image drawing method for game system, and computer-readable storage medium storing game program
JP2002319033A (ja) * 2001-04-19 2002-10-31 Taito Corp コンピュータグラフィックスにおける陰影付け方式

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1630746A4 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8686269B2 (en) 2006-03-29 2014-04-01 Harmonix Music Systems, Inc. Providing realistic interaction to a player of a music-based video game
US8444486B2 (en) 2007-06-14 2013-05-21 Harmonix Music Systems, Inc. Systems and methods for indicating input actions in a rhythm-action game
US8439733B2 (en) 2007-06-14 2013-05-14 Harmonix Music Systems, Inc. Systems and methods for reinstating a player within a rhythm-action game
US8690670B2 (en) 2007-06-14 2014-04-08 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
US8678895B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for online band matching in a rhythm action game
US8663013B2 (en) 2008-07-08 2014-03-04 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US10421013B2 (en) 2009-10-27 2019-09-24 Harmonix Music Systems, Inc. Gesture-based user interface
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
US8550908B2 (en) 2010-03-16 2013-10-08 Harmonix Music Systems, Inc. Simulating musical instruments
US8636572B2 (en) 2010-03-16 2014-01-28 Harmonix Music Systems, Inc. Simulating musical instruments
US8874243B2 (en) 2010-03-16 2014-10-28 Harmonix Music Systems, Inc. Simulating musical instruments
US9278286B2 (en) 2010-03-16 2016-03-08 Harmonix Music Systems, Inc. Simulating musical instruments
US8568234B2 (en) 2010-03-16 2013-10-29 Harmonix Music Systems, Inc. Simulating musical instruments
US8702485B2 (en) 2010-06-11 2014-04-22 Harmonix Music Systems, Inc. Dance game and tutorial
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
US8444464B2 (en) 2010-06-11 2013-05-21 Harmonix Music Systems, Inc. Prompting a player of a dance game
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation

Also Published As

Publication number Publication date
KR20060018863A (ko) 2006-03-02
AU2003292708A8 (en) 2005-01-21
US7199801B2 (en) 2007-04-03
CN1781124A (zh) 2006-05-31
DE60335148D1 (de) 2011-01-05
TW200426706A (en) 2004-12-01
US20040239678A1 (en) 2004-12-02
TWI278786B (en) 2007-04-11
JP2005049913A (ja) 2005-02-24
KR100729984B1 (ko) 2007-06-19
AU2003292708A1 (en) 2005-01-21
EP1630746A1 (en) 2006-03-01
EP1630746B1 (en) 2010-11-24
EP1630746A4 (en) 2006-06-28
CN1781124B (zh) 2010-05-05

Similar Documents

Publication Publication Date Title
WO2004107270A1 (ja) 画像処理装置及び画像処理方法
KR100987625B1 (ko) 게임 장치, 게임 장치의 제어 방법 및 정보 기억 매체
JP2003290550A (ja) ゲーム装置およびゲームプログラム
KR100987624B1 (ko) 게임 장치, 게임 장치의 제어 방법 및 정보 기억 매체
JP4079378B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
KR100972771B1 (ko) 게임 장치, 게임 장치의 제어 방법 및 정보 기억 매체
JP3881363B1 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4031509B1 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP3880603B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP3366894B2 (ja) 3次元画像合成装置及び方法、情報記憶媒体、プログラム配信装置及び方法
JP5229921B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP4764381B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2005050070A (ja) 画像処理装置、画像処理方法及びプログラム
JP3686928B2 (ja) ゲーム装置、プログラム及び画像表示方法
JP3908710B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2002251626A (ja) 画像の生成方法及びそれに用いるプログラム
JP4447417B2 (ja) ゲーム装置、プログラム及びコンピュータの制御方法
JP3646988B2 (ja) ゲーム装置、ゲーム画面表示方法及びプログラム
JP4838221B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2005322085A (ja) 画像処理装置、画像処理方法及びプログラム
JP2002052241A (ja) ゲーム装置、ゲーム機の制御方法、情報記憶媒体、プログラム配信装置及び方法
JP2005100181A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003768353

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 20038B0326X

Country of ref document: CN

Ref document number: 1020057022815

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2003768353

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057022815

Country of ref document: KR