WO2009119264A1 - 画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体 - Google Patents

画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体 Download PDF

Info

Publication number
WO2009119264A1
WO2009119264A1 PCT/JP2009/054023 JP2009054023W WO2009119264A1 WO 2009119264 A1 WO2009119264 A1 WO 2009119264A1 JP 2009054023 W JP2009054023 W JP 2009054023W WO 2009119264 A1 WO2009119264 A1 WO 2009119264A1
Authority
WO
WIPO (PCT)
Prior art keywords
texture image
image
auxiliary lines
auxiliary
image processing
Prior art date
Application number
PCT/JP2009/054023
Other languages
English (en)
French (fr)
Inventor
敬一郎 荒張
竜馬 八須
義彦 佐藤
Original Assignee
株式会社コナミデジタルエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コナミデジタルエンタテインメント filed Critical 株式会社コナミデジタルエンタテインメント
Priority to KR1020107006310A priority Critical patent/KR101135908B1/ko
Priority to US12/933,771 priority patent/US20110018875A1/en
Publication of WO2009119264A1 publication Critical patent/WO2009119264A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6692Methods for processing data by generating or executing the game program for rendering three dimensional images using special effects, generally involving post-processing, e.g. blooming
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8011Ball

Definitions

  • the present invention relates to an image processing apparatus, a control method for the image processing apparatus, a program, and an information storage medium.
  • an image processing apparatus that displays an image representing a state in which an object arranged in a virtual three-dimensional space is viewed from a given viewpoint.
  • a game device image processing device
  • a game screen representing a state in which a virtual three-dimensional space in which player objects representing soccer players and the like are arranged is viewed from a viewpoint is displayed.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus, a control method for the image processing apparatus, a program, and a program that enable the user to easily grasp the unevenness of the object.
  • An object is to provide an information storage medium.
  • an image processing apparatus is an image processing apparatus that displays an image representing a state in which an object placed in a virtual three-dimensional space is viewed from a given viewpoint.
  • An original texture image storage means for storing a texture image; and a plurality of auxiliary lines representing meshes or a plurality of auxiliary lines parallel to each other mapped on the original texture image.
  • Display control means for displaying on the display means an image representing a state seen from the viewpoint.
  • the image processing apparatus control method is an image display apparatus control method for displaying an image representing a state in which an object placed in a virtual three-dimensional space is viewed from a given viewpoint.
  • the program according to the present invention is a program for causing a computer to function as an image display device that displays an image representing a state in which an object placed in a virtual three-dimensional space is viewed from a given viewpoint.
  • a texture image storage means for storing the original texture image, and a texture image with auxiliary lines in which a plurality of auxiliary lines representing meshes or a plurality of auxiliary lines parallel to each other are represented on the original texture image are mapped
  • the information storage medium according to the present invention is a computer-readable information storage medium recording the above program.
  • a program distribution apparatus according to the present invention is a program distribution apparatus that includes an information storage medium that records the program, reads the program from the information storage medium, and distributes the program.
  • the program distribution method according to the present invention is a program distribution method for reading and distributing the program from an information storage medium storing the program.
  • the present invention relates to an image processing apparatus that displays an image representing a state in which an object arranged in a virtual three-dimensional space is viewed from a given viewpoint.
  • the original texture image of the object is stored.
  • an image representing a state in which an object to which a texture image with auxiliary lines in which a plurality of auxiliary lines representing a mesh or a plurality of auxiliary lines parallel to each other are represented on the original texture image is mapped is viewed from a viewpoint is obtained. Displayed on the display means. According to the present invention, it becomes possible for the user to easily grasp the unevenness of the object.
  • the display control unit includes a texture image acquisition unit with an auxiliary line for acquiring the texture image with an auxiliary line, and the texture with an auxiliary line acquired by the texture image acquisition unit with an auxiliary line. You may make it display on the said display means the image showing a mode that the said object by which the image was mapped was seen from the said viewpoint.
  • the texture image acquisition unit with auxiliary lines may generate the texture image with auxiliary lines based on the original texture image.
  • the auxiliary line-attached texture image acquisition unit may draw the auxiliary lines by drawing a plurality of auxiliary lines representing the mesh or the plurality of auxiliary lines parallel to each other on the original texture image.
  • An attached texture image may be generated.
  • the texture image acquisition unit with auxiliary lines includes at least a plurality of first auxiliary lines parallel to each other and a plurality of lines parallel to each other and intersecting the plurality of first auxiliary lines.
  • the texture image with an auxiliary line may be generated by drawing the second auxiliary line on the original texture image.
  • the display control means includes means for controlling the fineness of the mesh or the interval between the plurality of auxiliary lines for each of the plurality of areas set in the texture image with auxiliary lines. It may be included.
  • the display control means may include means for controlling the fineness of the mesh or the interval between the plurality of auxiliary lines based on the position of the viewpoint.
  • the image processing apparatus may include means for controlling the colors of the plurality of auxiliary lines representing the mesh or the plurality of auxiliary lines parallel to each other based on the original texture image.
  • the game device according to the embodiment of the present invention is realized by, for example, a home game machine (stationary game machine), a portable game machine, a mobile phone, a personal digital assistant (PDA), a personal computer, or the like.
  • a case where the game device according to the embodiment of the present invention is realized by a consumer game machine will be described.
  • the present invention can also be applied to other image processing apparatuses (for example, personal computers).
  • FIG. 1 shows the overall configuration of a game device according to an embodiment of the present invention.
  • a game apparatus 10 shown in FIG. 1 includes a consumer game machine 11, a monitor 32, a speaker 34, and an optical disk 36 (information storage medium).
  • the monitor 32 and the speaker 34 are connected to the consumer game machine 11.
  • the monitor 32 for example, a home television receiver is used
  • the speaker 34 for example, a speaker built in the home television receiver is used.
  • the home game machine 11 is a known computer game system.
  • the home game machine 11 includes a bus 12, a microprocessor 14, a main memory 16, an image processing unit 18, an input / output processing unit 20, an audio processing unit 22, an optical disc reading unit 24, a hard disk 26, a communication interface 28, and a controller 30. . Components other than the controller 30 are accommodated in the housing of the consumer game machine 11.
  • the microprocessor 14 controls each part of the consumer game machine 11 based on an operating system stored in a ROM (not shown), a program read from the optical disk 36 or the hard disk 26.
  • the main memory 16 includes a RAM, for example. Programs and data read from the optical disk 36 or the hard disk 26 are written in the main memory 16 as necessary.
  • the main memory 16 is also used as a working memory for the microprocessor 14.
  • the bus 12 is for exchanging addresses and data among the units of the consumer game machine 11.
  • the microprocessor 14, the main memory 16, the image processing unit 18, and the input / output processing unit 20 are connected by the bus 12 so that mutual data communication is possible.
  • the image processing unit 18 includes a VRAM, and draws a game screen on the VRAM based on image data sent from the microprocessor 14.
  • the image processing unit 18 converts the game screen drawn on the VRAM into a video signal and outputs the video signal to the monitor 32 at a predetermined timing.
  • the input / output processing unit 20 is an interface for the microprocessor 14 to access the audio processing unit 22, the optical disk reading unit 24, the hard disk 26, the communication interface 28, and the controller 30.
  • the sound processing unit 22 includes a sound buffer, and reproduces various sound data such as game music, game sound effects, and messages read out from the optical disk 36 or the hard disk 26 to the sound buffer and outputs them from the speaker 34.
  • the communication interface 28 is an interface for connecting the consumer game machine 11 to a communication network such as the Internet by wire or wireless.
  • the optical disk reading unit 24 reads programs and data recorded on the optical disk 36.
  • the optical disc 36 is used to supply the program and data to the consumer game machine 11, but other information storage media such as a memory card may be used. Further, for example, a program or data may be supplied to the consumer game machine 11 from a remote place via a communication network such as the Internet.
  • the hard disk 26 is a general hard disk device (auxiliary storage device). Note that the game apparatus 10 may be provided with a memory card slot for reading data from the memory card and writing data to the memory card.
  • the controller 30 is a general-purpose operation input means for the user to input various game operations.
  • a plurality of controllers 30 can be connected to the consumer game machine 11.
  • the input / output processing unit 20 scans the state of the controller 30 at regular intervals (for example, every 1/60 seconds), and passes an operation signal representing the scan result to the microprocessor 14 via the bus 12.
  • the microprocessor 14 determines the player's game operation based on the operation signal.
  • the controller 30 may be connected to the consumer game machine 11 by wire or wirelessly.
  • a soccer game is executed.
  • This soccer game is realized by executing a program read from the optical disc 36.
  • FIG. 2 shows an example of a virtual three-dimensional space.
  • a field object 42 representing a soccer field is arranged in the virtual three-dimensional space 40.
  • a goal object 44 representing a goal
  • a player object 46 representing a soccer player
  • a ball object 48 representing a soccer ball
  • 22 player objects 46 are arranged on the field object 42.
  • each object is simplified.
  • the object such as the player object 46 includes a plurality of polygons.
  • a texture image is mapped to an object such as the player object 46.
  • An object point (such as a vertex of a polygon) is associated with a point (pixel) on the texture image, and the color of each point of the object is based on the color of the point on the texture image associated with the point. Controlled.
  • FIG. 3 is a diagram showing an example of the appearance of the head 47 of the player object 46.
  • 4 is a diagram showing a wire frame of the head 47 (face 50) of the player object 46.
  • FIG. 4 is a diagram illustrating an example of polygons that form the head 47 (face 50) of the player object 46.
  • irregularities such as eyes 52, nose 54, mouth 56, jaw 58, cheek 59 are formed by a plurality of polygons.
  • a texture image (hereinafter referred to as a “face texture image”) representing a soccer player's face (eyes, nose, mouth, skin, etc.) is mapped to the polygon of the face 50.
  • FIG. 5 shows an example of a face texture image.
  • the face texture image 60 shown in FIG. 5 for example, eyes 62, a nose 64, a mouth 66, and the like are drawn. Although omitted in FIG. 5, the face texture image 60 also depicts, for example, the ears of a soccer player.
  • the eye 62 portion of the face texture image 60 is associated with the eye 52 polygon of the player object 46 and mapped to the eye 52 polygon of the player object 46.
  • a virtual camera 49 (viewpoint) is also set in the virtual three-dimensional space 40.
  • the virtual camera 49 moves in the virtual three-dimensional space 40 based on the movement of the ball object 48, for example.
  • a game screen (hereinafter referred to as “main game screen”) showing the virtual three-dimensional space 40 viewed from the virtual camera 49 is displayed on the monitor 32. The user operates the player object 46 while viewing the main game screen, and aims to generate a scoring event for his team.
  • the soccer game according to the present embodiment has a face deformation function for the user to change the face 50 of the player object 46 to his / her preference.
  • FIG. 6 shows an example of a face deformation screen.
  • the face deformation screen 70 shown in FIG. 6 includes a deformation parameter field 72 and a deformation result field 74.
  • the deformation parameter column 72 is a column for the user to set parameters relating to the deformation of the face 50 of the player object 46 (hereinafter referred to as “deformation parameters”).
  • deformation parameters include “eye”, “nose”, “mouth”, “chin”, and “cheek” parameters.
  • the “eye”, “nose”, “mouth”, and “cheek” parameters are parameters for controlling the size and shape of the eyes 52, nose 54, mouth 56, and cheek 59 of the player object 46, respectively.
  • the “jaw” parameter is a parameter for controlling the length and the like of the jaw 58 of the player object 46.
  • the “eye” parameter will be mainly described in detail.
  • the “nose”, “mouth”, “chin”, and “cheek” parameters are the same as the “eye” parameters.
  • the “eye” parameter is a numerical value indicating how much larger or smaller the size of the eye 52 of the player object 46 is from the initial state.
  • the “eye” parameter takes an integer value of, for example, ⁇ 3 to +3.
  • the position of the vertex of the polygon of the eye 52 of the player object 46 is set. More specifically, the position of the vertex of the polygon of the eye 52 corresponding to each integer value of ⁇ 3 to +3 is determined in advance.
  • the position of the vertex of the polygon of the eye 52 is set so that the size of the eye 52 is in the initial state.
  • the position of the vertex of the polygon of the eye 52 is set so that the size of the eye 52 is larger than the initial state. In this case, the position of the vertex of the polygon of the eye 52 is set so that the size of the eye 52 increases as the value of the “eye” parameter increases.
  • the value of the “eye” parameter is a negative value
  • the position of the vertex of the polygon of the eye 52 is set so that the size of the eye 52 is smaller than the initial state. In this case, the position of the vertex of the polygon of the eye 52 is set so that the size of the eye 52 becomes smaller as the value of the “eye” parameter becomes smaller.
  • the user selects a deformation parameter to be changed by performing an operation for instructing an upward or downward direction.
  • the deformation parameters selected as the change target are displayed in a distinguished manner. In the example shown in FIG. 6, the “mouth” parameter is displayed separately.
  • the user increases or decreases the value of the modification parameter to be changed by performing an operation for instructing the right or left direction.
  • the deformation result column 74 displays an image of the head 47 (face 50) of the player object 46 corresponding to the change result of each deformation parameter.
  • the deformation result column 74 displays an image showing the shape of the head 47 of the player object 46 when the value of each deformation parameter is set to the value displayed in the deformation parameter column 72.
  • the image of the head 47 of the player object 46 displayed in the deformation result column 74 is updated. Further, the user can arbitrarily enlarge or reduce the head 47 of the player object 46 displayed in the deformation result column 74 by performing an operation for instructing enlargement or reduction.
  • the user can confirm the change result of the face 50 of the player object 46 by referring to the deformation result column 74.
  • an auxiliary line 76 that assists the user to easily grasp the unevenness is displayed on the face 50 of the player object 46.
  • a line corresponding to the vertical direction of the face 50 of the player object 46 and a line corresponding to the horizontal direction of the face 50 of the player object 46 are displayed as auxiliary lines 76.
  • These auxiliary lines 76 represent a mesh on the face 50 of the player object 46.
  • the user can easily grasp the unevenness of the face 50 of the player object 46 by referring to the state of the mesh (auxiliary line 76). For example, the user can grasp at a glance the change in the unevenness of the face 50 when the deformation parameter is changed by referring to the change in the mesh shape.
  • the deformation parameter data is data indicating the setting result of the deformation parameter, and is data indicating the value displayed in the deformation parameter column 72 when the determination button is pressed.
  • the deformed shape data is data indicating the shape of the head 47 (face 50) of the player object 46 after being deformed by the user, and the position coordinates of the vertexes of the polygons of the head 47 of the player object 46 after being deformed by the user. It is the data shown. For example, when displaying the main game screen, post-deformation shape data (or deformation parameter data) is read.
  • the shape of the head 47 (face 50) of the player object 46 arranged in the virtual three-dimensional space 40 is controlled based on the post-deformation shape data (or deformation parameter data).
  • a player object 46 having a face 50 deformed by the user is displayed on the main game screen.
  • FIG. 7 is a functional block diagram mainly showing functional blocks related to the face deformation function among the functional blocks realized by the game apparatus 10.
  • the game apparatus 10 includes a game data storage unit 80 and a display control unit 84. These functional blocks are realized by the microprocessor 14 executing a program.
  • the game data storage unit 80 is realized by, for example, the main memory 16, the hard disk 26, or the optical disk 36.
  • the game data storage unit 80 stores various data for executing the soccer game. For example, data indicating each object placed in the virtual three-dimensional space 40 and the state (position, posture, etc.) of the virtual camera 49 is stored in the game data storage unit 80. Further, for example, data indicating the shape of each object is stored in the game data storage unit 80.
  • the game data storage unit 80 includes an original texture image storage unit 82.
  • the original texture image storage unit 82 stores the texture image of the object.
  • the face texture image 60 (see FIG. 5) of the player object 46 is stored in the original texture image storage unit 82.
  • the face texture image 60 and the like stored in the original texture image storage unit 82 are hereinafter referred to as “original texture image”.
  • the display control unit 84 is realized mainly by the microprocessor 14 and the image processing unit 18.
  • the display control unit 84 displays various screens on the monitor 32 based on various data stored in the game data storage unit 80.
  • the display control unit 84 includes a first display control unit 86.
  • the first display control unit 86 displays on the monitor 32 an image representing a state in which an object in which the original texture image is mapped as it is viewed from a given viewpoint.
  • the first display control unit 86 displays on the monitor 32 a main game screen representing a state in which the virtual three-dimensional space 40 is viewed from the virtual camera 49.
  • a player object 46 on which the face texture image 60 is mapped as it is is displayed on the main game screen.
  • the display control unit 84 includes a second display control unit 88.
  • the second display control unit 88 displays on the monitor 32 an image representing a state in which the object to which the texture image with auxiliary lines is mapped is viewed from a given viewpoint.
  • the texture image with auxiliary lines is a texture image in which auxiliary lines 76 for assisting the user to easily grasp the unevenness of the object are represented on the original texture image. Details will be described later.
  • the second display control unit 88 displays the face deformation screen 70 on the monitor 32.
  • a player object 46 to which a face texture image with auxiliary lines is mapped is displayed on the face deformation screen 70 (deformation result column 74).
  • the face texture image with an auxiliary line is a texture image in which an auxiliary line 76 for assisting the user to easily grasp the unevenness of the face 50 of the player object 46 is displayed on the face texture image 60.
  • FIG. 8 is a diagram showing an example of a face texture image with auxiliary lines.
  • a face texture image 90 with auxiliary lines shown in FIG. 8 is a texture image in which a plurality of auxiliary lines 76 a and 76 b representing meshes are displayed on the face texture image 60.
  • the auxiliary line 76a is a straight line parallel to the vertical direction (Y direction shown in FIG. 5) of the face texture image 60, and is a straight line from the upper end to the lower end of the face texture image 60.
  • the auxiliary line 76b is a straight line parallel to the horizontal direction (X direction shown in FIG. 5) of the face texture image 60, and is a straight line from the left end to the right end of the face texture image 60.
  • the auxiliary lines 76a are drawn at equal intervals, and the auxiliary lines 76b are also drawn at equal intervals.
  • the auxiliary line 76a and the auxiliary line 76b are orthogonal to each other, and as a result, a rectangular mesh is represented on the face texture image 90 with the auxiliary line.
  • the interval between the auxiliary lines 76a and the interval between the auxiliary lines 76b may be different. Further, the interval between the auxiliary lines 76a and 76b may not be constant.
  • auxiliary lines 76 instead of the auxiliary lines 76 a and 76 b, a right-down diagonal line or a right-up diagonal line may be represented as the auxiliary line 76.
  • the auxiliary textured face texture image 90 includes a plurality of straight lines parallel to a straight line connecting the upper left vertex 60a and the lower right vertex 60d of the face texture image 60, a lower left vertex 60c and an upper right vertex 60b of the face texture image 60.
  • a plurality of straight lines parallel to the straight line connecting the two lines may be represented as auxiliary lines 76.
  • auxiliary lines 76 may be represented in the face texture image 90 with auxiliary lines.
  • the auxiliary textured face texture image 90 includes a plurality of straight lines parallel to a straight line connecting the upper left vertex 60a and the lower right vertex 60d of the face texture image 60, a lower left vertex 60c and an upper right vertex 60b of the face texture image 60.
  • a plurality of straight lines parallel to the horizontal direction (X direction shown in FIG. 5) of the face texture image 60 may be represented as auxiliary lines 76.
  • the second display control unit 88 includes a texture image acquisition unit 89 with auxiliary lines.
  • the texture image acquisition unit 89 with auxiliary lines acquires a texture image with auxiliary lines.
  • the texture image acquisition unit with auxiliary line 89 generates a texture image with auxiliary line based on the original texture image. More specifically, the texture image acquisition unit 89 with auxiliary lines generates a texture image with auxiliary lines by drawing a plurality of auxiliary lines 76 indicating meshes on the original texture image.
  • the auxiliary textured face texture image 90 shown in FIG. 8 is generated as follows. First, the texture image acquisition unit 89 with auxiliary lines reads the face texture image 60 from the original texture image storage unit 82.
  • the texture image acquisition unit 89 with auxiliary lines displays a plurality of auxiliary lines 76a parallel to each other and a plurality of auxiliary lines 76b that are parallel to each other and intersect the auxiliary lines 76a on the face texture image 60.
  • a face texture image 90 with auxiliary lines is generated.
  • FIG. 9 is a diagram illustrating an example of a virtual three-dimensional space for the face deformation screen 70.
  • a head 47a of the player object 46 and a virtual camera 49a are arranged in the virtual three-dimensional space 40a for the face deformation screen 70.
  • the shape of the head 47a of the player object 46 is a shape based on post-deformation shape data (or deformation parameter data).
  • a face texture image 90 with auxiliary lines is mapped to the head 47a of the player object 46.
  • the second display control unit 88 displays an image representing the state of the head 47 a of the player object 46 as viewed from the virtual camera 49 a in the deformation result column 74.
  • the second display control unit 88 changes the position of the virtual camera 49a by a user operation.
  • the distance between the head 47a of the player object 46 and the virtual camera 49a changes according to the user's operation.
  • the position of the head 47a of the player object 46 is fixed, and the virtual camera 49a moves away from the head 47a or approaches the head 47a according to the user's operation.
  • the distance between 47a and virtual camera 49a changes.
  • the head 47a (face 50) of the player object 46 is enlarged and displayed in the deformation result column 74 as a result of the distance between the head 47a and the virtual camera 49a being shortened. Is done.
  • the head 47a (face 50) of the player object 46 is reduced in the deformation result column 74 as a result of an increase in the distance between the head 47a and the virtual camera 49a. Is displayed.
  • the texture image acquisition unit 89 with auxiliary lines may control the interval (mesh fineness) of the auxiliary lines 76 represented in the texture image with auxiliary lines based on the position of the virtual camera 49a.
  • the configuration for controlling the interval (mesh fineness) of the auxiliary lines 76 based on the position of the virtual camera 49a is as follows.
  • the auxiliary line-attached texture image acquisition unit 89 stores interval control data for determining the interval of the auxiliary line 76 based on the position of the virtual camera 49a.
  • the interval control data is data in which the position of the virtual camera 49a and the interval of the auxiliary line 76 are associated with each other.
  • the interval control data is data in which a condition relating to the position of the virtual camera 49a is associated with the interval of the auxiliary line 76.
  • the “condition regarding the position of the virtual camera 49a” is a condition regarding the distance between the player object 46 and the virtual camera 49a, for example.
  • the “condition regarding the position of the virtual camera 49a” when the position of the head 47a of the player object 46 is fixed as in the present embodiment is, for example, a plurality of areas set in the virtual three-dimensional space 40a. It may be a condition that the virtual camera 49a is included in any of the regions.
  • the interval control data indicates that when the distance between the head 47a of the player object 46 and the virtual camera 49a is relatively long, the interval between the auxiliary lines 76 is relatively wide (the mesh is relatively coarse), and When the distance is relatively short, the interval between the auxiliary lines 76 is set to be relatively narrow (the mesh is relatively fine).
  • the interval control data may be table format data or arithmetic expression format data.
  • the interval control data may be stored as part of the program.
  • FIG. 10 shows an example of interval control data.
  • the interval control data shown in FIG. 10 is data in which the distance between the head 47a of the player object 46 and the virtual camera 49a is associated with the interval of the auxiliary line 76.
  • D1 to D5 in FIG. 10 have a relationship of D1 ⁇ D2 ⁇ D3 ⁇ D4 ⁇ D5.
  • the auxiliary lines 76a and 76b represented in the face texture image 90 with auxiliary lines are increased.
  • the distance between the auxiliary lines 76a and 76b becomes narrow (ie, the mesh becomes fine).
  • the auxiliary line-attached texture image acquisition unit 89 acquires an interval corresponding to the current position of the virtual camera 49a based on the interval control data. And the texture image acquisition part 89 with an auxiliary line produces
  • FIG. 11 is a flowchart showing a process executed by the game apparatus 10 to display the face deformation screen 70.
  • the microprocessor 14 executes the process shown in FIG. 11 according to the program stored in the optical disk 36.
  • the microprocessor 14 (texture image acquisition unit 89 with auxiliary lines) reads the face texture image 60 from the optical disk 36 onto the VRAM (S101). Further, the microprocessor 14 (texture image acquisition unit 89 with auxiliary lines) determines the interval between the auxiliary lines 76a and 76b based on the current position of the virtual camera 49a (S102). For example, interval control data (see FIG. 10) is read from the optical disc 36, and an interval corresponding to the current position of the virtual camera 49a is acquired based on the interval control data based on the interval control data. That is, an interval corresponding to the distance between the head 47a of the player object 46 and the virtual camera 49a is acquired from the interval control data.
  • the microprocessor 14 draws the auxiliary lines 76a and 76b on the face texture image 60 read on the VRAM ( S103). That is, a plurality of auxiliary lines 76a parallel to the vertical direction (Y direction shown in FIG. 5) of the face texture image 60 are drawn at the intervals determined in S102. Further, a plurality of auxiliary lines 76b parallel to the horizontal direction (X direction shown in FIG. 5) of the face texture image 60 are drawn at the intervals determined in S102.
  • a face texture image 90 with auxiliary lines is generated on the VRAM.
  • the microprocessor 14 and the image processing unit 18 display the face deformation screen 70 on the monitor 32 (S104). For example, first, a portion other than the deformation result column 74 of the face deformation screen 70 is drawn on the VRAM. Thereafter, an image representing a state in which the virtual three-dimensional space 40a for the face deformation screen 70 is viewed from the virtual camera 49a is generated, and the image is drawn in the deformation result column 74 of the face deformation screen 70 drawn on the VRAM.
  • the deformed shape data is stored in the hard disk 26, the shape of the head 47a of the player object 46 arranged in the virtual three-dimensional space 40a is set to the shape indicated by the deformed shape data.
  • the shape of the head 47a of the player object 46 is set to the basic shape (initial state). Further, the face texture image 90 with an auxiliary line generated by the processing of S101 to S103 is mapped to the head 47a of the player object 46.
  • the face deformation screen 70 generated on the VRAM as described above is displayed on the monitor 32.
  • the microprocessor 14 determines whether or not a deformation parameter selection operation has been performed (S105). In the case of the present embodiment, it is determined whether or not an operation for instructing an upward or downward direction has been performed. If it is determined that a deformation parameter selection operation has been performed, the microprocessor 14 updates the face deformation screen 70 (S104). In this case, the deformation parameter to be changed is switched to another deformation parameter in accordance with an instruction from the user, and the new deformation parameter to be changed is distinguished and displayed in the deformation parameter column 72.
  • the microprocessor 14 determines whether or not the deformation parameter value increase / decrease operation has been performed (S106). In the case of the present embodiment, it is determined whether or not an operation for instructing the right or left direction has been performed. If it is determined that the deformation parameter value increase / decrease operation has been performed, the microprocessor 14 updates the face deformation screen 70 (S104). In this case, the value of the modification parameter to be changed is increased or decreased in accordance with an instruction to the user, and the value displayed in the modification parameter column 72 of the modification parameter to be changed is updated.
  • the shape of the head 47a of the player object 46 is updated based on the value of each deformation parameter displayed in the deformation parameter column 72. Then, an image representing a state in which the virtual three-dimensional space 40 a is viewed from the virtual camera 49 a is regenerated, and the image is displayed in the deformation result column 74. In this case, the head texture 47a of the player object 46 is mapped with the auxiliary line-attached face texture image 90 generated by the processing of S101 to S103 and held in the VRAM.
  • the microprocessor 14 determines whether or not the movement operation of the virtual camera 49a has been performed (S107). When it is determined that the moving operation of the virtual camera 49a has been performed, the position of the virtual camera 49a is updated according to a user instruction. Thereafter, the microprocessor 14 re-executes from the processing of S101, and regenerates the face texture image 90 with auxiliary lines. That is, the face texture image 60 is read again from the optical disk 36 onto the VRAM (S101). Further, the interval between the auxiliary lines 76a and 76b is determined again based on the updated position of the virtual camera 49a (S102).
  • auxiliary lines 76a and 76b are drawn on the face texture image 60 at the re-determined interval (S103), and a face texture image 90 with auxiliary lines is generated on the VRAM. Thereafter, the face deformation screen 70 is updated based on the updated position of the virtual camera 49a and the face texture image 90 with auxiliary lines regenerated on the VRAM (S104).
  • the microprocessor 14 determines whether or not an enter button or a cancel button is instructed (S108). When it is determined that the determination button or the cancel button is not instructed, the microprocessor 14 re-executes the process of S105. On the other hand, if it is determined that the enter button or the cancel button is instructed, the microprocessor 14 stores the deformation parameter data and the deformed shape data in the hard disk 26 (S109). These data are referred to when the main game screen is generated.
  • the user can change the face 50 of the player object 46 to his / her preference by the face deformation function (face deformation screen 70).
  • face deformation screen 70 the face deformation function
  • the user can grasp the unevenness of the face 50 of the player object 46 relatively easily using the mesh (auxiliary lines 76 a and 76 b). . That is, the technical problem on the user interface that it is difficult to grasp the unevenness of the face 50 of the player object 46 is attempted.
  • a mesh that is simply a line is represented on the face 50 of the player object 46 so that the user can more easily understand the unevenness of the face 50 of the player object 46.
  • an image of the head 47 of the player object 46 is displayed in the deformation result column 74.
  • a method of displaying the wire frame of the head 47 on the image is also conceivable.
  • the use of this method has the following disadvantages. That is, when the player object 46 includes a large number of polygons, the processing load for displaying the wire frame is relatively large, and thus the processing load may increase. When the user changes the value of the deformation parameter, the wire frame of the head 47 needs to be displayed again.
  • the lines representing the wire frame may be dense, which may make it difficult for the user to grasp the unevenness of the face 50 of the player object 46. There is.
  • the game apparatus 10 it is possible to prevent the above-described inconvenience from occurring.
  • a relatively simple process of mapping the auxiliary line-added face texture image 90 in which the auxiliary lines 76 a and 76 b are drawn on the original face texture image 60 to the player object 46 is executed. Even when the user changes the value of the deformation parameter, it is not necessary to regenerate the face texture image 90 with the auxiliary line (see S106 in FIG. 11). That is, according to the game apparatus 10, it is possible to reduce the processing load.
  • the game creator even when the player object 46 is configured to include a large number of polygons, the game creator appropriately sets the interval between the auxiliary lines 76a and 76b, for example, so that the auxiliary lines 76a and 76b are set. Can be made not to be too close.
  • the game apparatus 10 by adopting a method of mapping the face texture image 90 with the auxiliary line to the player object 46, the shadow caused by the light source is caused by the auxiliary line 76a, like the eyes 52 and the nose 54 of the player object 46. , 76b. As a result, it becomes easier for the user to grasp the unevenness of the face 50 of the player object 46.
  • the interval between the auxiliary lines 76a and 76b is adjusted based on the position of the virtual camera 49a.
  • the interval becomes too wide.
  • the distance between the auxiliary lines 76a and 76b displayed in the deformation result column 74 may become too small.
  • the user may have difficulty grasping the unevenness of the face 50 of the player object 46.
  • the face texture image 90 with auxiliary lines is generated based on the original face texture image 60, for example, it is not necessary to store the face texture image 90 with auxiliary lines in advance. For example, even when the interval between the auxiliary lines 76a and 76b is changed based on the position of the virtual camera 49a, a plurality of face texture images 90 with auxiliary lines having different intervals between the auxiliary lines 76a and 76b are stored in advance. There is no need. Thus, according to the game device 10, it becomes possible to reduce the amount of data.
  • the line represented as the auxiliary line 76 in the texture image with the auxiliary line may be a line other than a straight line.
  • a curve, a wavy line, or a broken line may be represented as the auxiliary line 76 as long as it is possible to assist the user to easily grasp the unevenness of the object.
  • the mesh represented in the texture image with auxiliary lines may have a shape other than a rectangle. The mesh may have any shape as long as it can assist the user to easily grasp the unevenness of the object.
  • the shape of the mesh represented in the texture image with auxiliary lines may not be uniform. That is, the shape may be different for each mesh.
  • the second display control unit 88 may change the color of the auxiliary line 76 based on the original texture image.
  • a configuration for changing the color of the auxiliary line 76 based on the original texture image will be described.
  • the auxiliary line-attached texture image acquisition unit 89 stores color control data for determining the color of the auxiliary line 76 based on the original texture image.
  • the color control data is data that associates the condition relating to the original texture image with the color information relating to the color of the auxiliary line 76.
  • the “condition regarding the original texture image” may be a condition regarding the identification information of the original texture image or a condition regarding the color of the original texture image, for example.
  • the “condition regarding the color of the original texture image” is, for example, a condition regarding a statistical value (for example, an average value) of color values of each pixel of the original texture image.
  • the color control data is referred to, and color information corresponding to a condition that the original texture image satisfies is acquired. Then, a plurality of auxiliary lines 76 are drawn on the original texture image with a color based on the color information, thereby generating a texture image with auxiliary lines. In this way, the color of the auxiliary line 76 can be set in consideration of the original texture image. As a result, it becomes possible for the user to make it easier to see the auxiliary line 76.
  • the user may be able to specify the reference color of the original texture image.
  • the user may be able to specify the skin color (reference color) of the player object 46 on the face deformation screen 70.
  • the skin color reference color
  • a plurality of face texture images 60 having different skin colors may be stored in advance, and the face texture image 60 corresponding to the color designated by the user may be used.
  • the color (skin color) of the face texture image 60 may be updated based on the color designated by the user, and the updated face texture image 60 may be used.
  • the color of the auxiliary line 76 may be changed based on the color designated by the user.
  • color control data in which the face texture image 60 is associated with the color information regarding the color of the auxiliary line 76 may be stored.
  • color control data in which a color that can be designated as a skin color by the user and color information related to the color of the auxiliary line 76 are associated with each other may be stored.
  • the color information corresponding to the face texture image 60 corresponding to the color designated by the user or the color information corresponding to the color designated by the user is acquired, and the auxiliary lines 76a and 76b are represented by the color based on the color information.
  • the image 60 may be drawn. In this way, even when the user can specify the skin color of the player object 46 (that is, when the user can specify the reference color of the original texture image), the auxiliary line 76 is difficult to see. It becomes possible to prevent it from happening.
  • the texture image acquisition unit 89 with auxiliary lines changes the interval (mesh fineness) of the auxiliary lines 76 for each of a plurality of regions set in the original texture image (texture image with auxiliary lines). May be.
  • the interval between the auxiliary lines 76a and / or the auxiliary lines 76b may be changed for each of a plurality of regions set in the face texture image 60 (face texture image 90 with auxiliary lines).
  • face texture image 90 with auxiliary lines a configuration for changing the interval between the auxiliary lines (mesh fineness) for each region will be described.
  • the game creator sets important areas and non-important areas in the face texture image 60 in advance.
  • the “important area” is an area that the game creator thinks that the unevenness should be clarified in the face 50 of the player object 46.
  • an area whose shape can be changed in the face 50 of the player object 46 is set as an important area.
  • an area related to each deformation parameter is set as an important area.
  • a region related to the “eye” parameter (region near the eye 62), a region related to the “nose” parameter (region near the nose 64), and the like are set as important regions.
  • the user may be able to specify an important area.
  • Information for specifying the important area is stored in the optical disk 36 or the hard disk 26.
  • FIG. 12 shows an example of a face texture image 90 with an auxiliary line when a region related to the “mouth” parameter, that is, a region near the mouth 66 is set as the important region 92.
  • the interval between the auxiliary lines 76 (auxiliary lines 76a to 76d) is narrower and the mesh is finer than other regions (non-important regions).
  • This auxiliary line-added face texture image 90 is generated as follows, for example. That is, first, the auxiliary lines 76 a and 76 b are drawn at equal intervals over the entire area of the face texture image 60.
  • an auxiliary line 76c is further added between the auxiliary lines 76a in the important area 92
  • an auxiliary line 76d is further added between the auxiliary lines 76b in the important area 92.
  • the auxiliary line 76c is a straight line parallel to the auxiliary line 76a
  • the auxiliary line 76d is a straight line parallel to the auxiliary line 76b.
  • the auxiliary lines 76c and 76d drawn only in the important area 92 may be drawn first, and then the auxiliary lines 76a and 76b drawn in the entire area of the face texture image 60 may be drawn.
  • lines other than lines parallel to the auxiliary lines 76 a and 76 b may be added to the important area 92.
  • the important region 92 may have a shape other than a rectangle. According to the auxiliary textured face texture image 90 shown in FIG. 12, the user can more easily grasp the unevenness in the area near the mouth 66.
  • the interval (mesh fineness) of the auxiliary lines 76 in each region may be changed based on the position of the virtual camera 49a.
  • auxiliary line 76 (mesh) on the original texture image
  • an auxiliary line texture image in which only the auxiliary line 76 is drawn may be stored in advance.
  • the second display control unit 88 may display on the monitor 32 an image representing a state in which an object in which the original texture image and the auxiliary line texture image are mapped in an overlapping manner is viewed from the viewpoint.
  • the monitor 32 may display an image representing a state in which an object mapped with a texture image with an auxiliary line formed by combining the original texture image and the auxiliary line texture image is viewed from the viewpoint. .
  • the auxiliary line-attached texture image acquisition unit 89 translucently combines the auxiliary line texture image in which only the auxiliary lines 76a and 76b (or auxiliary lines 76a to 76d) are drawn and the face texture image 60. By doing so, you may make it produce
  • a texture image with auxiliary lines may be stored in advance in the game data storage unit 80. Then, the texture image with auxiliary line acquisition unit 89 may acquire the texture image with auxiliary line by reading it from the game data storage unit 80.
  • the interval between the auxiliary lines 76 may be changed based on the position of the viewpoint (virtual camera 49a).
  • a plurality of auxiliary line texture images (or texture images with auxiliary lines) having different intervals (mesh fineness) of the auxiliary lines 76 may be stored in advance.
  • a condition relating to the position of the viewpoint may be stored in association with each auxiliary line texture image (or texture image with auxiliary lines). Then, an auxiliary line texture image (or a texture image with auxiliary lines) associated with a condition that satisfies the current position of the viewpoint may be used.
  • the color of the auxiliary line 76 may be changed based on the original texture image.
  • a plurality of auxiliary line texture images (or texture images with auxiliary lines) having different auxiliary line 76 (mesh) colors are stored in advance.
  • Each auxiliary line texture image (or texture image with auxiliary line) is associated with a condition related to the original texture image.
  • an auxiliary line texture image (or a texture image with an auxiliary line) associated with a condition that the original texture image satisfies is used.
  • the color of the auxiliary line 76 (mesh) may be changed based on the skin color designated by the user.
  • the face texture image 60 is associated with each auxiliary line texture image (or texture image with auxiliary lines). Then, an auxiliary line texture image (or a texture image with auxiliary lines) associated with the face texture image 60 corresponding to the color designated by the user is used.
  • each auxiliary line texture image (or texture image with auxiliary lines) is associated with a color that the user can specify as the skin color. And the auxiliary line texture image (or texture image with an auxiliary line) matched with the color designated by the user is used.
  • the texture image with auxiliary lines may be an image in which a plurality of auxiliary lines 76 parallel to each other are represented on the original texture image.
  • auxiliary lines 76a and 76b may be omitted. Even in this way, it is possible to make it easier for the user to grasp the unevenness of the face 50 of the player object 46.
  • the present invention can be applied to games other than soccer games.
  • the present invention can be applied to a golf game.
  • the present invention can also be applied to image processing apparatuses other than the game apparatus 10.
  • the present invention can be applied to a case where it is necessary for the user to easily grasp the unevenness of the object.
  • the present invention can be applied to a modeling device (modeling software) for modeling an object.
  • FIG. 13 is a diagram showing an overall configuration of a program distribution system using a communication network.
  • the program distribution system 100 includes a game apparatus 10, a communication network 106, and a program distribution apparatus 108.
  • the communication network 106 includes, for example, the Internet and a cable television network.
  • the program distribution device 108 includes a database 102 and a server 104. In this system, a database (information storage medium) 102 stores a program similar to the program stored on the optical disc 36.
  • the server 104 reads the program from the database 102 in response to the game distribution request and transmits it to the game apparatus 10.
  • the game is distributed in response to the game distribution request, but the server 104 may transmit the game unilaterally. Further, it is not always necessary to distribute (collectively distribute) all programs necessary for realizing the game at a time, and a necessary portion may be distributed (divided distribution) according to the situation of the game. If the game is distributed via the communication network 106 in this way, the consumer can easily obtain the program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

 ユーザがオブジェクトの凹凸を把握し易くなるように図ることが可能になる画像処理装置を提供する。原テクスチャ画像記憶部(82)はオブジェクトの原テクスチャ画像を記憶する。第2表示制御部(88)は、網目を表す複数の補助線又は互いに平行する複数の補助線が原テクスチャ画像上に表されてなる補助線付きテクスチャ画像がマッピングされたオブジェクトを視点から見た様子を表す画像を表示手段に表示する。

Description

画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体
 本発明は画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体に関する。
 仮想3次元空間に配置されたオブジェクトを所与の視点から見た様子を表す画像を表示する画像処理装置が知られている。例えば、サッカーゲームを実行するゲーム装置(画像処理装置)では、サッカー選手を表す選手オブジェクト等が配置された仮想3次元空間を視点から見た様子を表すゲーム画面が表示される。
特開2006-110218号公報
 上記のような画像処理装置では、オブジェクトの凹凸をユーザが把握し易くなるよう図る必要が生じる場合がある。例えば、上記のようなサッカーゲームを実行するゲーム装置としては、ユーザが選手オブジェクトの顔等の形状を変更できる変形機能を備えるものが知られている。選手オブジェクトの形状を変更する場合、ユーザは選手オブジェクトの凹凸の変化を確認しながら、選手オブジェクトの形状を変更したいと考えるのが一般的である。このため、上記のような変形機能を実現する場合には、選手オブジェクトの凹凸の変化をユーザが把握し易くなるように図る必要がある。
 本発明は上記課題に鑑みてなされたものであって、その目的は、ユーザがオブジェクトの凹凸を把握し易くなるように図ることが可能になる画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体を提供することにある。
 上記課題を解決するために、本発明に係る画像処理装置は、仮想3次元空間に配置されたオブジェクトを所与の視点から見た様子を表す画像を表示する画像処理装置において、前記オブジェクトの原テクスチャ画像を記憶する原テクスチャ画像記憶手段と、網目を表す複数の補助線又は互いに平行する複数の補助線が前記原テクスチャ画像上に表されてなる補助線付きテクスチャ画像がマッピングされた前記オブジェクトを前記視点から見た様子を表す画像を表示手段に表示する表示制御手段と、を含むことを特徴とする。
 また、本発明に係る画像処理装置の制御方法は、仮想3次元空間に配置されたオブジェクトを所与の視点から見た様子を表す画像を表示する画像表示装置の制御方法において、前記オブジェクトの原テクスチャ画像を記憶してなる原テクスチャ画像記憶手段の記憶内容を読み出すステップと、網目を表す複数の補助線又は互いに平行する複数の補助線が前記原テクスチャ画像上に表されてなる補助線付きテクスチャ画像がマッピングされた前記オブジェクトを前記視点から見た様子を表す画像を表示手段に表示する表示制御ステップと、を含むことを特徴とする。
 また、本発明に係るプログラムは、仮想3次元空間に配置されたオブジェクトを所与の視点から見た様子を表す画像を表示する画像表示装置としてコンピュータを機能させるためのプログラムであって、前記オブジェクトの原テクスチャ画像を記憶する原テクスチャ画像記憶手段、及び、網目を表す複数の補助線又は互いに平行する複数の補助線が前記原テクスチャ画像上に表されてなる補助線付きテクスチャ画像がマッピングされた前記オブジェクトを前記視点から見た様子を表す画像を表示手段に表示する表示制御手段、として前記コンピュータを機能させるためのプログラムである。
 また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。また、本発明に係るプログラム配信装置は、上記プログラムを記録した情報記憶媒体を備え、該情報記憶媒体から上記プログラムを読み出し、配信するプログラム配信装置である。また、本発明に係るプログラム配信方法は、上記プログラムを記録した情報記憶媒体から上記プログラムを読み出し、配信するプログラム配信方法である。
 本発明は、仮想3次元空間に配置されたオブジェクトを所与の視点から見た様子を表す画像を表示する画像処理装置に関する。本発明では、オブジェクトの原テクスチャ画像が記憶される。また本発明では、網目を表す複数の補助線又は互いに平行する複数の補助線が原テクスチャ画像上に表されてなる補助線付きテクスチャ画像がマッピングされたオブジェクトを視点から見た様子を表す画像が表示手段に表示される。本発明によれば、ユーザがオブジェクトの凹凸を把握し易くなるように図ることが可能になる。
 また本発明の一態様では、前記表示制御手段は、前記補助線付きテクスチャ画像を取得する補助線付きテクスチャ画像取得手段を含み、前記補助線付きテクスチャ画像取得手段によって取得された前記補助線付きテクスチャ画像がマッピングされた前記オブジェクトを前記視点から見た様子を表す画像を前記表示手段に表示するようにしてもよい。
 また本発明の一態様では、前記補助線付きテクスチャ画像取得手段は、前記補助線付きテクスチャ画像を前記原テクスチャ画像に基づいて生成するようにしてもよい。
 また本発明の一態様では、前記補助線付きテクスチャ画像取得手段は、前記網目を表す複数の補助線又は前記互いに平行する複数の補助線を前記原テクスチャ画像上に描画することによって、前記補助線付きテクスチャ画像を生成するようにしてもよい。
 また本発明の一態様では、前記補助線付きテクスチャ画像取得手段は、少なくとも、互いに平行する複数の第1補助線と、互いに平行する複数の線であって前記複数の第1補助線と交わる複数の第2補助線と、を前記原テクスチャ画像上に描画することによって、前記補助線付きテクスチャ画像を生成するようにしてもよい。
 また本発明の一態様では、前記表示制御手段は、前記補助線付きテクスチャ画像に設定される複数の領域の各々ごとに、前記網目の細かさ又は前記複数の補助線の間隔を制御する手段を含むようにしてもよい。
 また本発明の一態様では、前記表示制御手段は、前記網目の細かさ又は前記複数の補助線の間隔を前記視点の位置に基づいて制御する手段を含むようにしてもよい。
 また本発明の一態様では、前記網目を表す複数の補助線又は前記互いに平行する複数の補助線の色を前記原テクスチャ画像に基づいて制御する手段を含むようにしてもよい。
本実施の形態に係るゲーム装置のハードウェア構成を示す図である。 仮想3次元空間の一例を示す図である。 選手オブジェクトの頭部の外観の一例を示す図である。 選手オブジェクトの頭部のワイヤーフレームを示す図である。 顔テクスチャ画像の一例を示す図である。 顔変形画面の一例を示す図である。 本実施の形態に係るゲーム装置の機能ブロック図である。 補助線付き顔テクスチャ画像の一例を示す図である。 仮想3次元空間の他の一例を示す図である。 間隔制御データの一例を示す図である。 ゲーム装置が実行する処理を示すフロー図である。 補助線付き顔テクスチャ画像の他の一例を示す図である。 本発明の他の実施形態に係るプログラム配信システムの全体構成を示す図である。
 以下、本発明の実施形態の一例について図面に基づき詳細に説明する。ここでは、画像処理装置の一態様であるゲーム装置に本発明を適用した場合について説明する。本発明の実施形態に係るゲーム装置は、例えば家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、携帯電話機、携帯情報端末(PDA)又はパーソナルコンピュータ等によって実現される。ここでは、本発明の実施形態に係るゲーム装置を家庭用ゲーム機によって実現する場合について説明する。なお、本発明は他の画像処理装置(例えばパーソナルコンピュータ)にも適用することができる。
 図1は、本発明の実施形態に係るゲーム装置の全体構成を示す。図1に示すゲーム装置10は、家庭用ゲーム機11と、モニタ32と、スピーカ34と、光ディスク36(情報記憶媒体)と、を含む。モニタ32及びスピーカ34は家庭用ゲーム機11に接続される。モニタ32としては例えば家庭用テレビ受像機が用いられ、スピーカ34としては例えば家庭用テレビ受像機に内蔵されたスピーカが用いられる。
 家庭用ゲーム機11は公知のコンピュータゲームシステムである。家庭用ゲーム機11は、バス12、マイクロプロセッサ14、主記憶16、画像処理部18、入出力処理部20、音声処理部22、光ディスク読み取り部24、ハードディスク26、通信インタフェース28及びコントローラ30を含む。コントローラ30以外の構成要素は家庭用ゲーム機11の筐体内に収容される。
 マイクロプロセッサ14は図示しないROMに格納されるオペレーティングシステム、光ディスク36又はハードディスク26から読み出されるプログラムに基づいて、家庭用ゲーム機11の各部を制御する。主記憶16は例えばRAMを含む。主記憶16には光ディスク36又はハードディスク26から読み出されたプログラム及びデータが必要に応じて書き込まれる。主記憶16はマイクロプロセッサ14の作業用メモリとしても用いられる。バス12はアドレス及びデータを家庭用ゲーム機11の各部でやり取りするためのものである。マイクロプロセッサ14、主記憶16、画像処理部18及び入出力処理部20は、バス12によって相互データ通信可能に接続される。
 画像処理部18はVRAMを含み、マイクロプロセッサ14から送られる画像データに基づいてVRAM上にゲーム画面を描画する。そして、画像処理部18はVRAM上に描画されたゲーム画面をビデオ信号に変換して所定のタイミングでモニタ32に出力する。
 入出力処理部20はマイクロプロセッサ14が音声処理部22、光ディスク読み取り部24、ハードディスク26、通信インタフェース28及びコントローラ30にアクセスするためのインタフェースである。音声処理部22はサウンドバッファを含み、光ディスク36又はハードディスク26からサウンドバッファに読み出されたゲーム音楽、ゲーム効果音、メッセージ等の各種音声データを再生してスピーカ34から出力する。通信インタフェース28はインターネット等の通信ネットワークに家庭用ゲーム機11を有線又は無線接続するためのインタフェースである。
 光ディスク読み取り部24は光ディスク36に記録されたプログラムやデータを読み取る。なお、ここではプログラムやデータを家庭用ゲーム機11に供給するために光ディスク36を用いるが、メモリカード等、他の情報記憶媒体を用いるようにしてもよい。また、例えばインターネット等の通信ネットワークを介して遠隔地からプログラムやデータを家庭用ゲーム機11に供給するようにしてもよい。ハードディスク26は一般的なハードディスク装置(補助記憶装置)である。なお、メモリカードからデータを読み出したり、メモリカードにデータを書き込んだりするためのメモリカードスロットがゲーム装置10に備えられるようにしてもよい。
 コントローラ30はユーザが各種ゲーム操作を入力するための汎用操作入力手段である。家庭用ゲーム機11には複数のコントローラ30を接続することが可能である。入出力処理部20は一定周期毎(例えば1/60秒ごと)にコントローラ30の状態をスキャンし、そのスキャン結果を表す操作信号をバス12を介してマイクロプロセッサ14に渡す。マイクロプロセッサ14はその操作信号に基づいてプレイヤのゲーム操作を判定する。なお、コントローラ30は家庭用ゲーム機11に有線接続されてもよいし、無線接続されてもよい。
 ゲーム装置10では例えばサッカーゲームが実行される。このサッカーゲームは光ディスク36から読み出されたプログラムが実行されることによって実現される。
 主記憶16には仮想3次元空間が構築される。図2は仮想3次元空間の一例を示す。図2に示すように、仮想3次元空間40には、サッカーのフィールドを表すフィールドオブジェクト42が配置される。フィールドオブジェクト42上には、ゴールを表すゴールオブジェクト44と、サッカー選手を表す選手オブジェクト46と、サッカーボールを表すボールオブジェクト48と、が配置される。図2では省略されているが、22体の選手オブジェクト46がフィールドオブジェクト42上に配置される。また図2では各オブジェクトが簡略化されている。
 選手オブジェクト46等のオブジェクトは複数のポリゴンを含んで構成される。また、選手オブジェクト46等のオブジェクトにはテクスチャ画像がマッピングされる。オブジェクトの点(ポリゴンの頂点等)と、テクスチャ画像上の点(画素)と、は対応づけられ、オブジェクトの各点の色は、該点に対応づけられたテクスチャ画像上の点の色に基づいて制御される。
 図3は選手オブジェクト46の頭部47の外観の一例を示す図である。図4は選手オブジェクト46の頭部47(顔50)のワイヤーフレームを示す図である。すなわち、図4は選手オブジェクト46の頭部47(顔50)を構成するポリゴンの一例を示す図である。図4に示すように、複数のポリゴンによって目52、鼻54、口56、顎58、頬59等の凹凸が形成されている。顔50のポリゴンには、サッカー選手の顔(目、鼻、口や肌等)を表すテクスチャ画像(以下、「顔テクスチャ画像」と呼ぶ。)がマッピングされる。図5は顔テクスチャ画像の一例を示す。図5に示す顔テクスチャ画像60には例えば目62、鼻64、口66等が描かれている。なお図5では省略されているが、顔テクスチャ画像60には例えばサッカー選手の耳等も描かれる。例えば、顔テクスチャ画像60の目62の部分は、選手オブジェクト46の目52のポリゴンに関連付けられ、選手オブジェクト46の目52のポリゴンにマッピングされる。
 なお、仮想3次元空間40には仮想カメラ49(視点)も設定される。仮想カメラ49は例えばボールオブジェクト48の移動に基づいて仮想3次元空間40内を移動する。この仮想カメラ49から仮想3次元空間40を見た様子を表すゲーム画面(以下、「メインゲーム画面」と呼ぶ。)がモニタ32に表示される。ユーザはメインゲーム画面を見ながら選手オブジェクト46を操作し、自分のチームの得点イベントを発生させることを目指す。
 本実施の形態に係るサッカーゲームは、ユーザが選手オブジェクト46の顔50を自分好みに変えるための顔変形機能を備えている。図6は顔変形画面の一例を示す。図6に示す顔変形画面70は変形パラメータ欄72と変形結果欄74とを含む。
 変形パラメータ欄72は、選手オブジェクト46の顔50の変形に関するパラメータ(以下、「変形パラメータ」と呼ぶ。)をユーザが設定するための欄である。図6に示す顔変形画面70では、「目」、「鼻」、「口」、「顎」、「頬」パラメータの5種類の変形パラメータを設定することが可能である。「目」、「鼻」、「口」、「頬」パラメータは、それぞれ、選手オブジェクト46の目52、鼻54、口56、頬59の大きさや形状等を制御するためのパラメータであり、「顎」パラメータは、選手オブジェクト46の顎58の長さ等を制御するためのパラメータである。以下では、主に「目」パラメータについて詳しく説明する。「鼻」、「口」、「顎」、「頬」パラメータも「目」パラメータと同様である。
 例えば、「目」パラメータは、選手オブジェクト46の目52の大きさを初期状態よりもどの程度大きく又は小さくするかを示す数値である。「目」パラメータは例えば-3~+3の整数値をとる。「目」パラメータの値に基づいて、選手オブジェクト46の目52のポリゴンの頂点の位置が設定される。より具体的には、-3~+3の各整数値に対応する目52のポリゴンの頂点の位置があらかじめ定められている。「目」パラメータの値が0である場合、目52の大きさが初期状態になるように、目52のポリゴンの頂点の位置は設定される。「目」パラメータの値が正の値である場合、目52の大きさが初期状態より大きくなるように、目52のポリゴンの頂点の位置は設定される。この場合、「目」パラメータの値が大きくなるほど、目52の大きさは大きくなるように、目52のポリゴンの頂点の位置は設定される。一方、「目」パラメータの値が負の値である場合、目52の大きさが初期状態より小さくなるように、目52のポリゴンの頂点の位置が設定される。この場合、「目」パラメータの値が小さくなるほど、目52の大きさは小さくなるように、目52のポリゴンの頂点の位置は設定される。
 顔変形画面70において、まず、ユーザは上又は下方向を指示する操作を行うことによって、変更したい変形パラメータを選択する。変更対象として選択されている変形パラメータは区別表示される。図6に示す例では「口」パラメータが区別表示されている。変更対象の変形パラメータを選択した後、ユーザは右又は左方向を指示する操作を行うことによって、変更対象の変形パラメータの値を増減する。
 変形結果欄74には、各変形パラメータの変更結果に対応する選手オブジェクト46の頭部47(顔50)の画像が表示される。すなわち変形結果欄74には、各変形パラメータの値が、変形パラメータ欄72に表示される値に設定された場合の選手オブジェクト46の頭部47の形状を示す画像が表示される。ユーザが変形パラメータの値を増減した場合、変形結果欄74に表示される選手オブジェクト46の頭部47の画像は更新される。また、拡大又は縮小を指示する操作をユーザは行うことによって、変形結果欄74に表示される選手オブジェクト46の頭部47を任意に拡大又は縮小することができる。
 ユーザは変形結果欄74を参照することによって、選手オブジェクト46の顔50の変更結果を確認することができる。特に変形結果欄74では、ユーザが凹凸を把握し易くなるように補助する補助線76が選手オブジェクト46の顔50に表示される。図6に示す例では、選手オブジェクト46の顔50の縦方向に対応する線と、選手オブジェクト46の顔50の横方向に対応する線と、が補助線76として表示されている。これらの補助線76によって、選手オブジェクト46の顔50には網目が表されている。ユーザが変形パラメータの値を変更することによって選手オブジェクト46の顔50の凹凸が変化した場合、その変化に従って網目の形状(補助線76の曲がり具合等)も変化する。このため、ユーザは網目(補助線76)の状態を参照することによって、選手オブジェクト46の顔50の凹凸を把握し易くなる。例えば、ユーザは網目の形状の変化を参照することによって、変形パラメータを変化させた場合の顔50の凹凸の変化を一見して把握することができる。
 顔変形画面70における変形作業が完了した場合、ユーザは決定ボタンを押す。決定ボタンが押された場合、変形パラメータデータ及び変形後形状データがハードディスク26(又はメモリカード)に保存される。変形パラメータデータは、変形パラメータの設定結果を示すデータであり、決定ボタンが押された時点で変形パラメータ欄72に表示されていた値を示すデータである。変形後形状データは、ユーザによる変形後の選手オブジェクト46の頭部47(顔50)の形状を示すデータであり、ユーザによる変形後の選手オブジェクト46の頭部47のポリゴンの頂点の位置座標を示すデータである。例えば、メインゲーム画面を表示する場合には、変形後形状データ(又は変形パラメータデータ)が読み出される。そして、仮想3次元空間40に配置される選手オブジェクト46の頭部47(顔50)の形状が、その変形後形状データ(又は変形パラメータデータ)に基づいて制御される。その結果として、メインゲーム画面には、ユーザによって変形された顔50を有する選手オブジェクト46が表示される。
 以下、上記の顔変形機能を実現するための構成について説明する。図7は、ゲーム装置10で実現される機能ブロックのうち、顔変形機能に関連する機能ブロックを主として示す機能ブロック図である。図7に示すように、ゲーム装置10はゲームデータ記憶部80と表示制御部84とを含む。これらの機能ブロックはマイクロプロセッサ14がプログラムを実行することによって実現される。
 ゲームデータ記憶部80は例えば主記憶16、ハードディスク26や光ディスク36によって実現される。ゲームデータ記憶部80はサッカーゲームを実行するための各種データを記憶する。例えば、仮想3次元空間40に配置される各オブジェクトや仮想カメラ49の状態(位置や姿勢等)を示すデータがゲームデータ記憶部80に記憶される。また例えば、各オブジェクトの形状を示すデータがゲームデータ記憶部80に記憶される。
 ゲームデータ記憶部80は原テクスチャ画像記憶部82を含む。原テクスチャ画像記憶部82は、オブジェクトのテクスチャ画像を記憶する。例えば、選手オブジェクト46の顔テクスチャ画像60(図5参照)が原テクスチャ画像記憶部82に記憶される。なお、後述の「補助線付きテクスチャ画像」と区別する趣旨で、以下では、原テクスチャ画像記憶部82に記憶される顔テクスチャ画像60等のことを「原テクスチャ画像」と呼ぶ。
 表示制御部84はマイクロプロセッサ14及び画像処理部18を主として実現される。表示制御部84はゲームデータ記憶部80に記憶される各種データに基づいて各種画面をモニタ32に表示する。
 表示制御部84は第1表示制御部86を含む。第1表示制御部86は、原テクスチャ画像がそのままマッピングされたオブジェクトを所与の視点から見た様子を表す画像をモニタ32に表示する。本実施の形態の場合、第1表示制御部86は、仮想3次元空間40を仮想カメラ49から見た様子を表すメインゲーム画面をモニタ32に表示する。メインゲーム画面には、顔テクスチャ画像60がそのままマッピングされた選手オブジェクト46が表示される。
 また、表示制御部84は第2表示制御部88を含む。第2表示制御部88は、補助線付きテクスチャ画像がマッピングされたオブジェクトを所与の視点から見た様子を表す画像をモニタ32に表示する。補助線付きテクスチャ画像とは、オブジェクトの凹凸をユーザが把握し易くなるように補助するための補助線76が原テクスチャ画像上に表されてなるテクスチャ画像である。詳細については後述する。
 本実施の形態の場合、第2表示制御部88は顔変形画面70をモニタ32に表示する。顔変形画面70(変形結果欄74)には、補助線付き顔テクスチャ画像がマッピングされた選手オブジェクト46が表示される。補助線付き顔テクスチャ画像は、選手オブジェクト46の顔50の凹凸をユーザが把握し易くなるように補助するための補助線76が顔テクスチャ画像60上に表されてなるテクスチャ画像である。
 図8は補助線付き顔テクスチャ画像の一例を示す図である。図8に示す補助線付き顔テクスチャ画像90は、網目を表す複数の補助線76a,76bが顔テクスチャ画像60上に表されてなるテクスチャ画像である。補助線76aは、顔テクスチャ画像60の縦方向(図5に示すY方向)に平行な直線であって、顔テクスチャ画像60の上端から下端までの直線である。一方、補助線76bは、顔テクスチャ画像60の横方向(図5に示すX方向)に平行な直線であって、顔テクスチャ画像60の左端から右端までの直線である。また、補助線76aは等間隔で描画されており、補助線76bも等間隔で描画されている。補助線76aと補助線76bとは直交しており、その結果として、補助線付き顔テクスチャ画像90上には矩形の網目が表されている。なお、補助線76aの間隔と、補助線76bの間隔と、は異なっていてもよい。また、補助線76a,76bの間隔は一定でなくてもよい。
 なお例えば、補助線付き顔テクスチャ画像90には、補助線76a,76bの代わりに、右下がりの斜線や右上がりの斜線が補助線76として表されるようにしてもよい。例えば、補助線付き顔テクスチャ画像90には、顔テクスチャ画像60の左上頂点60aと右下頂点60dとを結ぶ直線に平行な複数の直線と、顔テクスチャ画像60の左下頂点60cと右上頂点60bとを結ぶ直線に平行な複数の直線と、が補助線76として表されるようにしてもよい。
 また例えば、補助線付き顔テクスチャ画像90には3種類以上の補助線76が表されるようにしてもよい。例えば、補助線付き顔テクスチャ画像90には、顔テクスチャ画像60の左上頂点60aと右下頂点60dとを結ぶ直線に平行な複数の直線と、顔テクスチャ画像60の左下頂点60cと右上頂点60bとを結ぶ直線に平行な複数の直線と、顔テクスチャ画像60の横方向(図5に示すX方向)に平行な複数の直線と、が補助線76として表されるようにしてもよい。
 本実施の形態の場合、第2表示制御部88は補助線付きテクスチャ画像取得部89を含む。補助線付きテクスチャ画像取得部89は補助線付きテクスチャ画像を取得する。
 例えば、補助線付きテクスチャ画像取得部89は補助線付きテクスチャ画像を原テクスチャ画像に基づいて生成する。より具体的には、補助線付きテクスチャ画像取得部89は、網目を示す複数の補助線76を原テクスチャ画像上に描画することによって、補助線付きテクスチャ画像を生成する。例えば、図8に示す補助線付き顔テクスチャ画像90は下記のようにして生成される。まず、補助線付きテクスチャ画像取得部89は顔テクスチャ画像60を原テクスチャ画像記憶部82から読み出す。その後、補助線付きテクスチャ画像取得部89は、互いに平行な複数の補助線76aと、互いに平行な複数の線であって補助線76aと交わる複数の補助線76bと、を顔テクスチャ画像60上に描画することによって、補助線付き顔テクスチャ画像90を生成する。
 顔変形画面70(変形結果欄74)を表示するために、メインゲーム画面用の仮想3次元空間40(図2参照)とは異なる仮想3次元空間が主記憶16に構築される。図9は顔変形画面70用の仮想3次元空間の一例を示す図である。図9に示すように、顔変形画面70用の仮想3次元空間40aには、選手オブジェクト46の頭部47aと、仮想カメラ49aと、が配置される。この場合、選手オブジェクト46の頭部47aの形状は変形後形状データ(又は変形パラメータデータ)に基づく形状になっている。また、選手オブジェクト46の頭部47aには補助線付き顔テクスチャ画像90がマッピングされる。第2表示制御部88は、選手オブジェクト46の頭部47aを仮想カメラ49aから見た様子を表す画像を変形結果欄74に表示する。
 第2表示制御部88は、仮想カメラ49aの位置をユーザの操作によって変化させる。例えば、選手オブジェクト46の頭部47aと仮想カメラ49aとの間の距離がユーザの操作によって変化する。本実施の形態の場合、選手オブジェクト46の頭部47aの位置は固定されており、ユーザの操作に従って、仮想カメラ49aが頭部47aから遠ざかったり、頭部47aに近づいたりすることによって、頭部47aと仮想カメラ49aとの間の距離が変化する。例えば、拡大を指示する操作をユーザが行った場合、頭部47aと仮想カメラ49aと間の距離が短くなる結果として、変形結果欄74では選手オブジェクト46の頭部47a(顔50)が拡大表示される。また例えば、縮小を指示する操作をユーザが行った場合、頭部47aと仮想カメラ49aと間の距離が長くなる結果として、変形結果欄74では選手オブジェクト46の頭部47a(顔50)が縮小表示される。
 また、補助線付きテクスチャ画像取得部89は、補助線付きテクスチャ画像に表される補助線76の間隔(網目の細かさ)を仮想カメラ49aの位置に基づいて制御するようにしてもよい。補助線76の間隔(網目の細かさ)を仮想カメラ49aの位置に基づいて制御するための構成は下記のとおりである。
 まず、補助線付きテクスチャ画像取得部89は、仮想カメラ49aの位置に基づいて補助線76の間隔を決定するための間隔制御データを記憶する。間隔制御データは、仮想カメラ49aの位置と、補助線76の間隔と、を関連づけたデータである。例えば、間隔制御データは、仮想カメラ49aの位置に関する条件と、補助線76の間隔と、を対応づけたデータである。「仮想カメラ49aの位置に関する条件」とは、例えば、選手オブジェクト46と仮想カメラ49aとの間の距離に関する条件である。なお、本実施の形態のように選手オブジェクト46の頭部47aの位置が固定されている場合の「仮想カメラ49aの位置に関する条件」は、例えば、仮想3次元空間40aに設定される複数の領域のいずれの領域内に仮想カメラ49aが含まれるかの条件としてもよい。例えば、間隔制御データは、選手オブジェクト46の頭部47aと仮想カメラ49aとの間の距離が比較的長い場合に補助線76の間隔が比較的広くなり(網目が比較的粗くなり)、かつ、上記距離が比較的短い場合に補助線76の間隔が比較的狭くなる(網目が比較的細かくなる)ように設定される。間隔制御データはテーブル形式のデータであってもよいし、演算式形式のデータであってもよい。間隔制御データはプログラムの一部として記憶されてもよい。
 図10は間隔制御データの一例を示す。図10に示す間隔制御データは、選手オブジェクト46の頭部47aと仮想カメラ49aとの間の距離と、補助線76の間隔と、を対応づけたデータである。図10におけるD1~D5はD1<D2<D3<D4<D5の関係を有する。図10に示す間隔制御データによれば、例えば、頭部47aと仮想カメラ49aとの間の距離が長くなるのに伴って、補助線付き顔テクスチャ画像90に表される補助線76a,76bの間隔が広くなり(すなわち網目が粗くなり)、かつ、上記距離が短くなるのに伴って、補助線76a,76bの間隔が狭くなる(すなわち網目が細かくなる)。
 補助線付きテクスチャ画像取得部89は、間隔制御データに基づいて、仮想カメラ49aの現在位置に対応する間隔を取得する。そして、補助線付きテクスチャ画像取得部89は、その間隔に基づいて補助線76を原テクスチャ画像に描画することによって、補助線付きテクスチャ画像を生成する。
 次に、ゲーム装置10が実行する処理について説明する。図11は、顔変形画面70を表示するためにゲーム装置10が実行する処理を示すフロー図である。マイクロプロセッサ14は光ディスク36に記憶されるプログラムに従って、図11に示す処理を実行する。
 図11に示すように、マイクロプロセッサ14(補助線付きテクスチャ画像取得部89)は顔テクスチャ画像60を光ディスク36からVRAM上に読み出す(S101)。また、マイクロプロセッサ14(補助線付きテクスチャ画像取得部89)は補助線76a,76bの間隔を仮想カメラ49aの現在位置に基づいて決定する(S102)。例えば、間隔制御データ(図10参照)が光ディスク36から読み出され、その間隔制御データに基づいて、仮想カメラ49aの現在位置に対応する間隔が間隔制御データに基づいて取得される。すなわち、選手オブジェクト46の頭部47aと仮想カメラ49aとの間の距離に対応する間隔が間隔制御データから取得される。
 補助線76a,76bの間隔が決定された後、マイクロプロセッサ14(補助線付きテクスチャ画像取得部89)は、VRAM上に読み出された顔テクスチャ画像60上に補助線76a,76bを描画する(S103)。すなわち、顔テクスチャ画像60の縦方向(図5に示すY方向)に平行な複数の補助線76aが、S102で決定された間隔で描画される。また、顔テクスチャ画像60の横方向(図5に示すX方向)に平行な複数の補助線76bが、S102で決定された間隔で描画される。S101~S103の処理が実行されることによって、補助線付き顔テクスチャ画像90がVRAM上に生成される。
 その後、マイクロプロセッサ14及び画像処理部18(第2表示制御部88)は顔変形画面70をモニタ32に表示する(S104)。例えば、まず、顔変形画面70の変形結果欄74以外の部分がVRAM上に描画される。その後、顔変形画面70用の仮想3次元空間40aを仮想カメラ49aから見た様子を表す画像が生成され、該画像が、VRAM上に描画された顔変形画面70の変形結果欄74に描画される。なお、ハードディスク26に変形後形状データが保存されている場合、仮想3次元空間40aに配置される選手オブジェクト46の頭部47aの形状はその変形後形状データが示す形状に設定され、ハードディスク26に変形後形状データが保存されていない場合、選手オブジェクト46の頭部47aの形状は基本形状(初期状態)に設定される。また、選手オブジェクト46の頭部47aには、S101~S103の処理によって生成された補助線付き顔テクスチャ画像90がマッピングされる。上記のようにしてVRAM上に生成された顔変形画面70がモニタ32に表示される。
 顔変形画面70が表示されている場合、変形パラメータの選択操作が行われたか否かをマイクロプロセッサ14は判定する(S105)。本実施の形態の場合、上又は下方向を指示する操作が行われたか否かが判定される。変形パラメータの選択操作が行われたと判定された場合、マイクロプロセッサ14は顔変形画面70を更新する(S104)。この場合、変更対象の変形パラメータがユーザに指示に従って他の変形パラメータに切り替えられるとともに、新たに変更対象になった変形パラメータが変形パラメータ欄72において区別表示される。
 一方、変形パラメータの選択操作が行われていないと判定された場合、変形パラメータ値の増減操作が行われたか否かをマイクロプロセッサ14は判定する(S106)。本実施の形態の場合、右又は左方向を指示する操作が行われたか否かが判定される。変形パラメータ値の増減操作が行われたと判定された場合、マイクロプロセッサ14は顔変形画面70を更新する(S104)。この場合、変更対象の変形パラメータの値がユーザに指示に従って増減されるとともに、変更対象の変形パラメータの変形パラメータ欄72に表示される値が更新される。また、この場合、変形パラメータ欄72に表示される各変形パラメータの値に基づいて、選手オブジェクト46の頭部47aの形状が更新される。そして、仮想3次元空間40aを仮想カメラ49aから見た様子を表す画像が再生成され、該画像が変形結果欄74に表示される。この場合、選手オブジェクト46の頭部47aには、S101~S103の処理によって生成され、かつ、VRAMに保持されていた補助線付き顔テクスチャ画像90がマッピングされる。
 一方、変形パラメータ値の増減操作が行われていないと判定された場合、マイクロプロセッサ14は、仮想カメラ49aの移動操作が行われたか否かを判定する(S107)。仮想カメラ49aの移動操作が行われたと判定された場合、仮想カメラ49aの位置がユーザの指示に従って更新される。その後、マイクロプロセッサ14はS101の処理から再実行し、補助線付き顔テクスチャ画像90を再生成する。すなわち、顔テクスチャ画像60が光ディスク36からVRAM上に再度読み出される(S101)。また、更新後の仮想カメラ49aの位置に基づいて、補助線76a,76bの間隔が再決定される(S102)。そして、再決定された間隔で補助線76a,76bが顔テクスチャ画像60上に描画され(S103)、補助線付き顔テクスチャ画像90がVRAM上に生成される。その後、更新後の仮想カメラ49aの位置と、VRAM上に再生成された補助線付き顔テクスチャ画像90と、に基づいて、顔変形画面70が更新される(S104)。
 仮想カメラ49aの移動操作が行われていないと判定された場合、マイクロプロセッサ14は決定ボタン又はキャンセルボタンが指示されたか否かを判定する(S108)。決定ボタン又はキャンセルボタンが指示されていないと判定された場合、マイクロプロセッサ14はS105の処理を再実行する。一方、決定ボタン又はキャンセルボタンが指示されたと判定された場合、マイクロプロセッサ14は変形パラメータデータや変形後形状データをハードディスク26に保存する(S109)。これらのデータはメインゲーム画面を生成する際に参照される。
 以上に説明したゲーム装置10では、顔変形機能(顔変形画面70)によって、ユーザは選手オブジェクト46の顔50を自分好みに変えることができる。特にゲーム装置10では、選手オブジェクト46の顔50を変形する場合にユーザは網目(補助線76a,76b)を頼りに選手オブジェクト46の顔50の凹凸を比較的容易に把握できるようになっている。すなわち、選手オブジェクト46の顔50の凹凸を把握し難いというユーザインタフェース上の技術的課題の解決が図られている。なおゲーム装置10では、単なる線ではく網目を選手オブジェクト46の顔50に表すことによって、選手オブジェクト46の顔50の凹凸をユーザがより把握し易くなるように図られている。
 ところで、選手オブジェクト46の顔50の凹凸をユーザが把握し易くなるように図るための方法としては、顔テクスチャ画像60がそのままマッピングされた選手オブジェクト46の頭部47の画像を変形結果欄74に表示するとともに、該画像上に、頭部47のワイヤーフレームを重ねて表示する方法も考えられる。しかしながら、この方法を採用した場合には下記のような不都合がある。すなわち、選手オブジェクト46が多数のポリゴンを含んで構成される場合には、ワイヤーフレームを表示するための処理の処理負荷が比較的大きいため、処理負荷が増大してしまうおそれがある。また、ユーザが変形パラメータの値を変更した場合には頭部47のワイヤーフレームも表示し直す必要がある。また、選手オブジェクト46が多数のポリゴンを含んで構成される場合には、ワイヤーフレームを表す線が密集してしまうことによって、選手オブジェクト46の顔50の凹凸をユーザが把握し難くなってしまうおそれがある。
 この点、ゲーム装置10によれば上記のような不都合が発生しないように図ることが可能になる。ゲーム装置10では、補助線76a,76bが元々の顔テクスチャ画像60に描画されてなる補助線付き顔テクスチャ画像90を選手オブジェクト46にマッピングするという比較的簡易な処理が実行される。また、ユーザが変形パラメータの値を変更した場合にも、補助線付き顔テクスチャ画像90を生成し直す必要はない(図11のS106参照)。すなわち、ゲーム装置10によれば処理負荷の軽減を図ることが可能になる。また、ゲーム装置10では、選手オブジェクト46が多数のポリゴンを含んで構成される場合であっても、補助線76a,76bの間隔を例えばゲーム制作者が適切に設定することによって補助線76a,76bが密接しすぎないように図ることが可能になる。
 またゲーム装置10では、補助線付き顔テクスチャ画像90を選手オブジェクト46にマッピングする方法を採用することによって、選手オブジェクト46の目52や鼻54等と同様に、光源に起因する陰影が補助線76a,76bにも生じる。その結果、選手オブジェクト46の顔50の凹凸をユーザがより把握し易くなる。
 またゲーム装置10では補助線76a,76bの間隔が仮想カメラ49aの位置に基づいて調整される。補助線76a,76bの間隔が仮想カメラ49aの位置に関係なく一定である場合、仮想カメラ49aが選手オブジェクト46の頭部47aに近づくにつれて、変形結果欄74に表示される補助線76a,76bの間隔が広くなりすぎてしまうおそれがある。また、仮想カメラ49aが選手オブジェクト46の頭部47aから離れるにつれて、変形結果欄74に表示される補助線76a,76bの間隔が狭くなりすぎてしまうおそれがある。その結果、選手オブジェクト46の顔50の凹凸をユーザが把握し難くなってしまうおそれがある。この点、ゲーム装置10によれば、上記のような不都合が発生しないように図ることが可能になる。
 またゲーム装置10では、補助線付き顔テクスチャ画像90が元々の顔テクスチャ画像60に基づいて生成されるため、例えば補助線付き顔テクスチャ画像90をあらかじめ記憶しておく必要がない。例えば、補助線76a,76bの間隔を仮想カメラ49aの位置に基づいて変化させる場合であっても、補助線76a,76bの間隔が異なる複数の補助線付き顔テクスチャ画像90をあらかじめ記憶しておく必要がない。このように、ゲーム装置10によればデータ量の軽減を図ることが可能になる。
 なお、本発明は以上に説明した実施の形態に限定されるものではない。
 例えば、補助線付きテクスチャ画像に補助線76として表される線は直線以外の線であってもよい。オブジェクトの凹凸をユーザが把握し易くなるように補助することが可能であれば、例えば曲線、波線又は折れ線が補助線76として表されるようにしてもよい。また例えば、補助線付きテクスチャ画像に表される網目は矩形以外の形状であってもよい。オブジェクトの凹凸をユーザが把握し易くなるように補助することが可能であれば、網目はどのような形状であってもよい。また、補助線付きテクスチャ画像に表される網目の形状は均一でなくてもよい。すなわち、網目ごとに形状が異なっていてもよい。
 また例えば、第2表示制御部88は補助線76の色を原テクスチャ画像に基づいて変えるようにしてもよい。以下、補助線76の色を原テクスチャ画像に基づいて変えるための構成について説明する。
 例えば、補助線付きテクスチャ画像取得部89は、原テクスチャ画像に基づいて補助線76の色を決定するための色制御データを記憶する。色制御データは、原テクスチャ画像に関する条件と、補助線76の色に関する色情報と、を関連づけたデータである。「原テクスチャ画像に関する条件」とは、例えば、原テクスチャ画像の識別情報に関する条件であってもよいし、原テクスチャ画像の色に関する条件であってもよい。「原テクスチャ画像の色に関する条件」とは、例えば、原テクスチャ画像の各画素の色値の統計値(例えば平均値)に関する条件である。この場合、上記の色制御データが参照され、原テクスチャ画像が満足する条件に対応する色情報が取得される。そして、その色情報に基づく色で複数の補助線76が原テクスチャ画像上に描画されることによって、補助線付きテクスチャ画像が生成される。このようにすれば、原テクスチャ画像を考慮して補助線76の色を設定できるようになる。その結果、ユーザが補助線76を見易くなるように図ることが可能になる。
 また例えば、原テクスチャ画像の基準色をユーザが指定できるようにしてもよい。具体的には、顔変形画面70においてユーザが選手オブジェクト46の肌の色(基準色)を指定できるようにしてもよい。この場合、互いに肌の色の異なる複数の顔テクスチャ画像60をあらかじめ記憶しておき、ユーザが指定した色に対応する顔テクスチャ画像60を用いるようにしてもよい。または、顔テクスチャ画像60の色(肌の色)をユーザが指定した色に基づいて更新し、この更新後の顔テクスチャ画像60を用いるようにしてもよい。
 この態様では、ユーザが指定した色に基づいて補助線76の色が変化するようにしてもよい。この場合、顔テクスチャ画像60と、補助線76の色に関する色情報と、を対応づけた色制御データを記憶しておくようにすればよい。または、ユーザが肌の色として指定可能な色と、補助線76の色に関する色情報と、を対応づけた色制御データを記憶しておくようにすればよい。そして、ユーザが指定した色に対応する顔テクスチャ画像60に対応する色情報、又はユーザが指定した色に対応する色情報を取得し、その色情報に基づく色で補助線76a,76bを顔テクスチャ画像60に描画するようにすればよい。このようにすれば、ユーザが選手オブジェクト46の肌の色を指定できるようにした場合(すなわち、ユーザが原テクスチャ画像の基準色を指定できるようにした場合)においても、補助線76が見難くならないように図ることが可能になる。
 また例えば、補助線付きテクスチャ画像取得部89は、原テクスチャ画像(補助線付きテクスチャ画像)に設定される複数の領域の各々ごとに、補助線76の間隔(網目の細かさ)を変えるようにしてもよい。例えば、顔テクスチャ画像60(補助線付き顔テクスチャ画像90)に設定される複数の領域の各々ごとに、補助線76a又は/及び補助線76bの間隔が変わるようにしてもよい。以下、補助線の間隔(網目の細かさ)を領域ごとに変えるための構成について説明する。
 例えば、ゲーム制作者は顔テクスチャ画像60に重要領域と非重要領域とをあらかじめ設定する。「重要領域」とは、選手オブジェクト46の顔50の中で特に凹凸を明確にすべきであるとゲーム制作者が考えた領域である。例えば、選手オブジェクト46の顔50の中で形状を変更可能な領域が重要領域として設定される。より具体的には、各変形パラメータに関連する領域が重要領域として設定される。例えば、「目」パラメータに関連する領域(目62付近の領域)や、「鼻」パラメータに関連する領域(鼻64付近の領域)等が重要領域として設定される。なお、変更対象として選択されている変形パラメータ(区別表示されている変形パラメータ)に対応する領域のみが重要領域として設定されるようにしてもよい。また、ユーザが重要領域を指定できるようにしてもよい。重要領域を特定するための情報は光ディスク36やハードディスク26に記憶される。
 重要領域における補助線76の間隔は非重要領域における補助線76の間隔よりも狭く設定される。図12は、「口」パラメータに関連する領域、すなわち口66付近の領域が重要領域92として設定されている場合の補助線付き顔テクスチャ画像90の一例を示す。図12に示すように、重要領域92については、他の領域(非重要領域)に比べて、補助線76(補助線76a~76d)の間隔が狭くなり、網目が細かくなっている。この補助線付き顔テクスチャ画像90は例えば下記のようにして生成される。すなわち、まず、補助線76a,76bが顔テクスチャ画像60の全域にそれぞれ等間隔で描画される。その後、重要領域92内の補助線76aの間に補助線76cがさらに追加され、重要領域92内の補助線76bの間に補助線76dがさらに追加される。補助線76cは補助線76aに平行な直線であり、補助線76dは補助線76bに平行な直線である。なお、重要領域92のみに描画される補助線76c,76dを先に描画した後で、顔テクスチャ画像60の全域に描画される補助線76a,76bを描画するようにしてもよい。また、補助線76a,76bに平行な線以外の線(例えば斜線)を重要領域92に追加するようにしてもよい。また、重要領域92の形状は矩形以外の形状であってもよい。図12に示す補助線付き顔テクスチャ画像90によれば、口66付近の領域の凹凸をユーザはより把握し易くなる。
 上記のようにすれば、例えば、比較的重要な領域の凹凸をユーザがより把握し易くなるように図ることが可能になる。なお、この態様においても、各領域における補助線76の間隔(網目の細かさ)が仮想カメラ49aの位置に基づいて変わるようにしてもよい。
 また例えば、原テクスチャ画像上に補助線76(網目)を描画する方法以外の方法を採用するようにしてもよい。
 例えば、補助線76のみが描かれた補助線テクスチャ画像があらかじめ記憶されるようにしてもよい。そして、第2表示制御部88は、原テクスチャ画像と、補助線テクスチャ画像と、が重ねてマッピングされたオブジェクトを視点から見た様子を表す画像をモニタ32に表示するようにしてもよい。言い換えれば、原テクスチャ画像と、補助線テクスチャ画像と、が合成されてなる補助線付きテクスチャ画像がマッピングされたオブジェクトを視点から見た様子を表す画像がモニタ32に表示されるようにしてもよい。このように、例えば、補助線付きテクスチャ画像取得部89は、補助線76a,76b(又は補助線76a~76d)のみが描かれた補助線テクスチャ画像と、顔テクスチャ画像60と、を半透明合成することによって、補助線付き顔テクスチャ画像90を生成するようにしてもよい。
 また例えば、補助線付きテクスチャ画像がゲームデータ記憶部80にあらかじめ記憶されるようにしてもよい。そして、補助線付きテクスチャ画像取得部89は補助線付きテクスチャ画像をゲームデータ記憶部80から読み出すことによって取得するようにしてもよい。
 例えば、これらの態様でも、補助線76の間隔(網目の細かさ)が視点(仮想カメラ49a)の位置に基づいて変わるようにしてもよい。この場合、補助線76の間隔(網目の細かさ)が異なる複数の補助線テクスチャ画像(又は補助線付きテクスチャ画像)をあらかじめ記憶しておくようにすればよい。また、各補助線テクスチャ画像(又は補助線付きテクスチャ画像)に対応づけて、視点の位置に関する条件を記憶しておくようにすればよい。そして、視点の現在位置が満足する条件に対応づけられた補助線テクスチャ画像(又は補助線付きテクスチャ画像)を用いるようにすればよい。
 また例えば、これらの態様でも、補助線76(網目)の色が原テクスチャ画像に基づいて変わるようにしてもよい。この場合、補助線76(網目)の色が異なる複数の補助線テクスチャ画像(又は補助線付きテクスチャ画像)があらかじめ記憶される。各補助線テクスチャ画像(又は補助線付きテクスチャ画像)には、原テクスチャ画像に関する条件が対応づけられる。そして、原テクスチャ画像が満足する条件に対応づけられた補助線テクスチャ画像(又は補助線付きテクスチャ画像)が用いられる。なお、これらの態様でも、補助線76(網目)の色がユーザの指定した肌の色に基づいて変わるようにしてもよい。この場合、例えば、各補助線テクスチャ画像(又は補助線付きテクスチャ画像)には、顔テクスチャ画像60が対応づけられる。そして、ユーザが指定した色に対応する顔テクスチャ画像60に対応づけられた補助線テクスチャ画像(又は補助線付きテクスチャ画像)が用いられる。または、各補助線テクスチャ画像(又は補助線付きテクスチャ画像)には、ユーザが肌の色として指定可能な色が対応づけられる。そして、ユーザが指定した色に対応づけられた補助線テクスチャ画像(又は補助線付きテクスチャ画像)が用いられる。
 また例えば、補助線付きテクスチャ画像は、互いに平行な複数の補助線76が原テクスチャ画像上に表された画像であってもよい。例えば、図8に示す補助線付き顔テクスチャ画像90では、補助線76a,76bの一方が省略されるようにしてもよい。このようにしても、選手オブジェクト46の顔50の凹凸をユーザが把握し易くなるように図ることが可能でなる。
 また例えば、本発明はサッカーゲーム以外のゲームにも適用することができる。例えば、本発明はゴルフゲームにも適用することができる。本発明によれば、例えば、ゴルフのグリーンの凹凸をユーザが把握しやすくなるように図ることも可能になる。また本発明はゲーム装置10以外の画像処理装置にも適用することができる。本発明は、ユーザがオブジェクトの凹凸を把握し易くなるように図る必要がある場合に適用することができる。例えば、オブジェクトのモデリングを行うためのモデリング装置(モデリングソフト)にも本発明は適用することができる。
 また例えば、以上の説明では、プログラムを情報記憶媒体たる光ディスク36を介してゲーム装置10に供給するようにしたが、通信ネットワークを介してプログラムをゲーム装置10に配信するようにしてもよい。図13は、通信ネットワークを用いたプログラム配信システムの全体構成を示す図である。図13に基づいて本発明に係るプログラム配信方法を説明する。図13に示すように、このプログラム配信システム100はゲーム装置10、通信ネットワーク106、プログラム配信装置108を含む。通信ネットワーク106は、例えばインターネットやケーブルテレビネットワークを含む。プログラム配信装置108はデータベース102、サーバ104を含む。このシステムでは、データベース(情報記憶媒体)102に、光ディスク36に記憶されたプログラムと同様のプログラムが記憶される。そして、ゲーム装置10を用いて需要者がゲーム配信要求をすることにより、それが通信ネットワーク106を介してサーバ104に伝えられる。そして、サーバ104はゲーム配信要求に応じてデータベース102からプログラムを読み出し、それをゲーム装置10に送信する。ここではゲーム配信要求に応じてゲーム配信するようにしたが、サーバ104から一方的に送信するようにしてもよい。また、必ずしも一度にゲームの実現に必要な全てのプログラムを配信(一括配信)する必要はなく、ゲームの局面に応じて必要な部分を配信(分割配信)するようにしてもよい。このように通信ネットワーク106を介してゲーム配信するようにすれば、プログラムを需要者は容易に入手することができるようになる。

Claims (11)

  1.  仮想3次元空間に配置されたオブジェクトを所与の視点から見た様子を表す画像を表示する画像処理装置において、
     前記オブジェクトの原テクスチャ画像を記憶する原テクスチャ画像記憶手段と、
     網目を表す複数の補助線又は互いに平行する複数の補助線が前記原テクスチャ画像上に表されてなる補助線付きテクスチャ画像がマッピングされた前記オブジェクトを前記視点から見た様子を表す画像を表示手段に表示する表示制御手段と、
     を含むことを特徴とする画像処理装置。
  2.  請求の範囲第1項に記載の画像処理装置において、
     前記表示制御手段は、
     前記補助線付きテクスチャ画像を取得する補助線付きテクスチャ画像取得手段を含み、
     前記補助線付きテクスチャ画像取得手段によって取得された前記補助線付きテクスチャ画像がマッピングされた前記オブジェクトを前記視点から見た様子を表す画像を前記表示手段に表示する、
     ことを特徴とする画像処理装置。
  3.  請求の範囲第2項に記載の画像処理装置において、
     前記補助線付きテクスチャ画像取得手段は、前記補助線付きテクスチャ画像を前記原テクスチャ画像に基づいて生成することを特徴とする画像処理装置。
  4.  請求の範囲第3項に記載の画像処理装置において、
     前記補助線付きテクスチャ画像取得手段は、前記網目を表す複数の補助線又は前記互いに平行する複数の補助線を前記原テクスチャ画像上に描画することによって、前記補助線付きテクスチャ画像を生成することを特徴とする画像処理装置。
  5.  請求の範囲第4項に記載の画像処理装置において、
     前記補助線付きテクスチャ画像取得手段は、少なくとも、互いに平行する複数の第1補助線と、互いに平行する複数の線であって前記複数の第1補助線と交わる複数の第2補助線と、を前記原テクスチャ画像上に描画することによって、前記補助線付きテクスチャ画像を生成することを特徴とする画像処理装置。
  6.  請求の範囲第1項に記載の画像処理装置において、
     前記表示制御手段は、前記補助線付きテクスチャ画像に設定される複数の領域の各々ごとに、前記網目の細かさ又は前記複数の補助線の間隔を制御する手段を含むことを特徴とする画像処理装置。
  7.  請求の範囲第1項に記載の画像処理装置において、
     前記表示制御手段は、前記網目の細かさ又は前記複数の補助線の間隔を前記視点の位置に基づいて制御する手段を含むことを特徴とする画像処理装置。
  8.  請求の範囲第1項に記載の画像処理装置において、
     前記表示制御手段は、前記網目を表す複数の補助線又は前記互いに平行する複数の補助線の色を前記原テクスチャ画像に基づいて制御する手段を含むことを特徴とする画像処理装置。
  9.  仮想3次元空間に配置されたオブジェクトを所与の視点から見た様子を表す画像を表示する画像表示装置の制御方法において、
     前記オブジェクトの原テクスチャ画像を記憶してなる原テクスチャ画像記憶手段の記憶内容を読み出すステップと、
     網目を表す複数の補助線又は互いに平行する複数の補助線が前記原テクスチャ画像上に表されてなる補助線付きテクスチャ画像がマッピングされた前記オブジェクトを前記視点から見た様子を表す画像を表示手段に表示する表示制御ステップと、
     を含むことを特徴とする画像処理装置の制御方法。
  10.  仮想3次元空間に配置されたオブジェクトを所与の視点から見た様子を表す画像を表示する画像表示装置としてコンピュータを機能させるためのプログラムであって、
     前記オブジェクトの原テクスチャ画像を記憶する原テクスチャ画像記憶手段、及び、
     網目を表す複数の補助線又は互いに平行する複数の補助線が前記原テクスチャ画像上に表されてなる補助線付きテクスチャ画像がマッピングされた前記オブジェクトを前記視点から見た様子を表す画像を表示手段に表示する表示制御手段、
     として前記コンピュータを機能させるためのプログラム。
  11.  仮想3次元空間に配置されたオブジェクトを所与の視点から見た様子を表す画像を表示する画像表示装置としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な情報記憶媒体であって、
     前記オブジェクトの原テクスチャ画像を記憶する原テクスチャ画像記憶手段、及び、
     網目を表す複数の補助線又は互いに平行する複数の補助線が前記原テクスチャ画像上に表されてなる補助線付きテクスチャ画像がマッピングされた前記オブジェクトを前記視点から見た様子を表す画像を表示手段に表示する表示制御手段、
     として前記コンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2009/054023 2008-03-24 2009-03-04 画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体 WO2009119264A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020107006310A KR101135908B1 (ko) 2008-03-24 2009-03-04 화상 처리 장치, 화상 처리 장치의 제어 방법, 및 정보 기억 매체
US12/933,771 US20110018875A1 (en) 2008-03-24 2009-03-04 Image processing device, image processing device control method, program, and information storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008076348A JP5089453B2 (ja) 2008-03-24 2008-03-24 画像処理装置、画像処理装置の制御方法及びプログラム
JP2008-076348 2008-03-24

Publications (1)

Publication Number Publication Date
WO2009119264A1 true WO2009119264A1 (ja) 2009-10-01

Family

ID=41113469

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/054023 WO2009119264A1 (ja) 2008-03-24 2009-03-04 画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体

Country Status (5)

Country Link
US (1) US20110018875A1 (ja)
JP (1) JP5089453B2 (ja)
KR (1) KR101135908B1 (ja)
TW (1) TW201002399A (ja)
WO (1) WO2009119264A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358649A (zh) * 2017-06-07 2017-11-17 腾讯科技(深圳)有限公司 地形文件的处理方法和装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176170A (ja) * 2009-01-27 2010-08-12 Sony Ericsson Mobilecommunications Japan Inc 表示装置、表示制御方法および表示制御プログラム
JP5463866B2 (ja) * 2009-11-16 2014-04-09 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8982157B2 (en) * 2010-07-27 2015-03-17 Dreamworks Animation Llc Collision free construction of animated feathers
JP5258857B2 (ja) * 2010-09-09 2013-08-07 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法、及びプログラム
JP5145391B2 (ja) * 2010-09-14 2013-02-13 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法、及びプログラム
US20120200667A1 (en) * 2011-02-08 2012-08-09 Gay Michael F Systems and methods to facilitate interactions with virtual content
JP2013050883A (ja) * 2011-08-31 2013-03-14 Nintendo Co Ltd 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
US10586570B2 (en) * 2014-02-05 2020-03-10 Snap Inc. Real time video processing for changing proportions of an object in the video
US10116901B2 (en) 2015-03-18 2018-10-30 Avatar Merger Sub II, LLC Background modification in video conferencing
US9918128B2 (en) * 2016-04-08 2018-03-13 Orange Content categorization using facial expression recognition, with improved detection of moments of interest

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0636013A (ja) * 1992-07-14 1994-02-10 Hitachi Ltd 地形データの作成方法および装置
JP2004178589A (ja) * 2002-11-22 2004-06-24 Thales 3次元相互視認画像の合成方法
JP2005038298A (ja) * 2003-07-17 2005-02-10 Nintendo Co Ltd 画像処理装置および画像処理プログラム
JP2005332395A (ja) * 2004-05-14 2005-12-02 Microsoft Corp ネストされた正規グリッドを使用した地形レンダリング
JP2006059176A (ja) * 2004-08-20 2006-03-02 Shima Seiki Mfg Ltd マッピング装置とマッピング方法及びそのプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2763481B2 (ja) * 1992-08-26 1998-06-11 株式会社ナムコ 画像合成装置及び画像合成方法
JPH07271999A (ja) * 1994-03-31 1995-10-20 Oki Electric Ind Co Ltd 3次元地形出力方法
JPH1125281A (ja) * 1997-06-30 1999-01-29 Seiren Syst Service:Kk テクスチャマッピング方法
US7606392B2 (en) * 2005-08-26 2009-10-20 Sony Corporation Capturing and processing facial motion data
US8059917B2 (en) * 2007-04-30 2011-11-15 Texas Instruments Incorporated 3-D modeling

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0636013A (ja) * 1992-07-14 1994-02-10 Hitachi Ltd 地形データの作成方法および装置
JP2004178589A (ja) * 2002-11-22 2004-06-24 Thales 3次元相互視認画像の合成方法
JP2005038298A (ja) * 2003-07-17 2005-02-10 Nintendo Co Ltd 画像処理装置および画像処理プログラム
JP2005332395A (ja) * 2004-05-14 2005-12-02 Microsoft Corp ネストされた正規グリッドを使用した地形レンダリング
JP2006059176A (ja) * 2004-08-20 2006-03-02 Shima Seiki Mfg Ltd マッピング装置とマッピング方法及びそのプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358649A (zh) * 2017-06-07 2017-11-17 腾讯科技(深圳)有限公司 地形文件的处理方法和装置

Also Published As

Publication number Publication date
KR101135908B1 (ko) 2012-04-13
JP2009230543A (ja) 2009-10-08
KR20100055509A (ko) 2010-05-26
TW201002399A (en) 2010-01-16
TWI378812B (ja) 2012-12-11
JP5089453B2 (ja) 2012-12-05
US20110018875A1 (en) 2011-01-27

Similar Documents

Publication Publication Date Title
JP5089453B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP4833674B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
KR100987624B1 (ko) 게임 장치, 게임 장치의 제어 방법 및 정보 기억 매체
JP4079378B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP3979540B2 (ja) ゲーム装置、ゲーム装置の制御方法、ゲームシステム、ゲームシステムの制御方法及びプログラム
JP5149547B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4031509B1 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2008228839A (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP5639526B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP4567027B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4964057B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4764381B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP3712065B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4847594B2 (ja) 画像生成装置、画像生成方法及びプログラム
WO2009119399A1 (ja) 画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体
JP3887002B1 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4252490B2 (ja) 3次元画像生成装置および3次元画像生成プログラム
JP4838230B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP4838221B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09725194

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20107006310

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 12933771

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09725194

Country of ref document: EP

Kind code of ref document: A1