WO2011070946A1 - 画像処理方法及びコンピュータ読み取り可能な記録媒体 - Google Patents

画像処理方法及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2011070946A1
WO2011070946A1 PCT/JP2010/071374 JP2010071374W WO2011070946A1 WO 2011070946 A1 WO2011070946 A1 WO 2011070946A1 JP 2010071374 W JP2010071374 W JP 2010071374W WO 2011070946 A1 WO2011070946 A1 WO 2011070946A1
Authority
WO
WIPO (PCT)
Prior art keywords
point
gaze
virtual space
advertisement
viewpoint
Prior art date
Application number
PCT/JP2010/071374
Other languages
English (en)
French (fr)
Inventor
保 前野
Original Assignee
株式会社セガ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社セガ filed Critical 株式会社セガ
Priority to EP10835868.0A priority Critical patent/EP2492872B1/en
Publication of WO2011070946A1 publication Critical patent/WO2011070946A1/ja
Priority to US13/498,393 priority patent/US8727876B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/61Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5506Details of game data or player data management using advertisements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6684Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dynamically adapting its position to keep a game object in its viewing frustrum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8011Ball

Definitions

  • the present invention relates to a display image generation technique in a video game, a CG (Computer Graphics) video, or the like.
  • an advertisement is inserted in an unnatural manner by displaying an image of a predetermined billboard in a landscape image of a townscape.
  • the advertisement fee depends on the number of advertisements presented to the viewer and the mode of advertisement presented.
  • the advertisement management program module automatically assigns a predetermined advertisement image to a blank advertisement signboard or the like provided in advance in the game, and according to the area ratio on the display screen such as the advertisement signboard or the display duration time It is determined whether the advertisement display is valid or not, a charging point is generated, and charging point information is transmitted to the center side via the network.
  • the advertisement management program module also acquires the latest advertisement image from the center side via the network.
  • An object of the present invention is to provide an image processing method and a computer-readable recording medium capable of effectively displaying advertisements in a natural manner. It is to provide.
  • a computer-readable recording medium has an arrangement in which at least a first object, a second object, and a gaze object are arranged in a virtual space as a computer.
  • the first object and the second object Means for determining a center point of the event based on at least one coordinate; when the event occurs, the target point defined in the gaze object is set as a gaze point, and the event
  • An image processing program for functioning as a setting means for setting the viewpoint is recorded on a half line passing through the center point.
  • advertisements can be effectively displayed in a natural manner.
  • FIG. 1 It is a figure which shows the structural example of the image processing apparatus concerning one Embodiment of this invention. It is a figure which shows the example of data used for the image processing method performed within the image processing apparatus of this embodiment. It is a flowchart for demonstrating the example of the image processing method performed within the image processing apparatus of this embodiment. It is a figure which shows the example of view space. It is a figure which shows the example of projection space. It is a figure which shows the example of the display screen displayed in the process of adventure mode. It is a figure which shows the example of a display screen displayed in the process of conversation mode. It is a flowchart for demonstrating the example of a camera setting process. It is a flowchart for demonstrating the example of a camera setting process.
  • FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus 1 according to an embodiment of the present invention.
  • an image processing apparatus 1 such as a video game apparatus includes a CPU (Central Processing Unit) 101 that performs a main control operation, and a RAM (Random Access) that holds a program and data being executed.
  • System memory 102 such as Memory, ROM (Read Only Memory) that holds control programs and various data, HDD (Hard Disk) Drive), flash memory, CD (Compact Disk) drive, storage device 103 such as a DVD (Digital Versatile Disk) drive, boot ROM 104 that holds a startup program, and peripheral devices such as buttons, handles, accelerator pedals, brake pedals, etc.
  • a peripheral interface 105 for performing the above interface.
  • the CPU 101, the system memory 102, the storage device 103, the boot ROM 104, and the peripheral interface 105 are connected to a bus arbiter 106 that arbitrates the system bus.
  • the CPU 101 constitutes a control unit of the image processing apparatus 1 of the present embodiment.
  • the peripheral interface 105 constitutes an input unit of the image processing apparatus 1 of the present embodiment.
  • the bus arbiter 106 is connected to a GPU (Graphics Processing Unit) 107 that performs rendering processing of 3D graphics using polygons using the graphic memory 108, and a display monitor 109 is connected to the GPU 107. Yes.
  • the bus arbiter 106 is connected to an audio processor 110 that outputs audio using the audio memory 111, and an audio output speaker 112 is connected to the audio processor 110.
  • a communication interface 113 is connected to the bus arbiter 106, and the other end of the communication interface 113 is connected to a network, and is connected to another video game device or a management server.
  • the monitor 109 constitutes a display unit of the image processing apparatus 1 of the present embodiment.
  • the GPU 107 may be configured as a control unit of the image processing apparatus 1 of the present embodiment.
  • FIG. 2 is a diagram showing an example of data used in the image processing method executed in the image processing apparatus 1.
  • the data includes in-game advertisement data for each stage, model-related data, and temporary data.
  • the in-game advertisement data for each stage includes stage # 1 in-game advertisement data, stage # 2 in-game advertisement data,... Corresponding to each stage transitioned as the game progresses.
  • stage # 1 in-game advertisement data stage # 2 in-game advertisement data,...
  • the number of in-game advertisements, in-game advertisement number for each in-game advertisement, four corner vertex coordinates, normal vector, and contents The maximum distance that can be confirmed, advertisement images, etc. are included.
  • the vertex coordinates of the four corners are three-dimensional coordinates that specify the outline of a rectangular advertisement.
  • a normal vector is a three-dimensional vector that represents the orientation of a rectangular advertising surface.
  • the maximum content checkable distance is the maximum distance (the distance between the virtual camera serving as the viewpoint and the advertising surface) that allows the content to be determined according to the display content of the advertisement.
  • the model-related data includes player character data, enemy character data, and a stage model for line-of-sight transmission determination.
  • the player character data is data of a character whose movement is controlled mainly by an input operation of the player, and includes face reference coordinates in addition to general 3D data.
  • the face reference coordinates are, for example, three-dimensional coordinates slightly above the neck.
  • the enemy character data is data of a character that opposes the player character, and includes an action script and face reference coordinates in addition to general 3D data.
  • the action script describes the action start condition and action contents of the enemy character. For example, when it is detected that the player character is within the tracking start distance of the enemy character, the enemy character starts tracking the player character. Further, when it is detected that the player character is within the contact distance of the enemy character, the enemy character starts a conversation with the player character.
  • the stage model for determining the line of sight transmission is model data for simplifying the outline of a structure or the like and determining whether the line of sight is transmitted.
  • Temporary data includes: conversation center point coordinate talk_center, current maximum on-screen advertisement area near_size, current camera setting near_camera, in-game ad number a, ad center point coordinate disp_center, vector talk_to_disp from conversation center point to ad center point, advertisement Tilt disp_rot, camera gaze tilt up_rot, ad bottom midpoint coordinate disp_low, ad target point coordinate disp_target, intercharacter distance character_distance, vector disp_to_talk from ad center point to conversation center point, temporary camera coordinate camera_pos, temporary camera camera camera, on-screen advertisement
  • the area size is included. The meaning of each will be described later.
  • FIG. 3 is a flowchart showing a processing example of the above embodiment.
  • the generation of the display image is not particularly shown.
  • model data of an object to be displayed according to the game logic is arranged in a virtual three-dimensional space, and processing of a vertex shader and a pixel shader executed by the GPU 107
  • the image of each object is generated by being converted into a two-dimensional image viewed from the viewpoint (virtual camera).
  • the viewpoint and the gazing point may be controlled to move so as to include the image of the object on the display screen in accordance with the movement of the object moved by the player's input operation, or the player's input operation (cross key, LR button, etc. May be moved according to the operation).
  • vertex shader conversion of the vertex of the polygon to the view space and projection space, rasterization, etc. are performed.
  • pixel shader texturing on the surface of the polygon is performed.
  • FIG. 4A shows an example of the view space.
  • the view space is a coordinate space based on the viewpoint VP, and the horizontal axis is the x axis, the vertical axis is the y axis, and the depth is the z axis with respect to the viewing direction from the viewpoint VP.
  • a near clip plane CP1 is set on the side closer to the viewpoint VP and a far clip plane CP2 is set on the far side within a range that is swung by the angle of view in the x axis direction and the y axis direction with respect to the viewing direction of the viewpoint VP. Is done.
  • FIG. 4B shows an example of the projection space, in which the view space shown in FIG. 4A is converted into ranges of ⁇ 1 ⁇ x ⁇ 1, ⁇ 1 ⁇ y ⁇ 1, and 0 ⁇ z ⁇ 1.
  • step S102 an adventure mode process in which the player character moves in the three-dimensional virtual space according to the input operation of the player is performed.
  • step S102 when any enemy character detects a player character that falls within the tracking start distance (Yes in step S103), tracking of the player character is started (step S104).
  • FIG. 5 shows an example of a display screen that is displayed when tracking is started when the player character C1 enters the tracking start distance of the enemy character C2 in the adventure mode.
  • A1 and A2 are advertisements (advertisement signs).
  • FIG. 6 shows an example of a display screen that is displayed when a conversation is started when the player character C1 catches up with the enemy character C2 and enters the contact distance of the enemy character C2 in the adventure mode.
  • the camera setting process (step S107) is first performed, and thereafter the normal conversation mode process is performed.
  • the most effective advertisement in terms of arrangement is selected from a plurality of advertisements that can be displayed in the scene, and the most effective camera setting (viewpoint and gazing point) is determined. Note that the movement control of the viewpoint and the gazing point set by the camera setting process is stopped for a certain period of time or a predetermined period until the input operation of the player is detected, prompting the player to pay attention to the advertisement image.
  • step S108 it is determined whether or not the game is over after the conversation mode. If the game is not over (No in step S108), the process returns to the adventure mode processing (step S102), and the game is over (step S108). Yes) ends the processing (step S109).
  • FIG. 7 to 9 are flowcharts showing an example of the camera setting process (step S107 in FIG. 3).
  • the camera setting process is assumed to be executed by the CPU 101 in FIG. 1, but may be executed by the GPU 107.
  • FIG. 10 schematically shows the arrangement of the player character C1 and the enemy character C2, and the midpoint coordinate of the line segment connecting the face reference coordinate P1 of the player character C1 and the face reference coordinate P2 of the enemy character C2 is the conversation center point.
  • the coordinates are talk_center.
  • “0” is set to the current maximum screen advertisement area near_size
  • a normal conversation camera is set to the current camera setting near_camera
  • “0” is set to the in-game advertisement number a (step S203).
  • step S204 it is determined whether or not the in-game advertisement number a is equal to or greater than the number of in-game advertisements in the stage (step S204). If the in-game advertisement number a is equal to or greater than the number of in-game advertisements in the stage (step S204). Yes), the current camera setting near_camera is set to the camera of the game (step S224 in FIG. 9), and the process ends (step S225 in FIG. 9).
  • the midpoint coordinates of the four corner vertices of the a-th advertisement screen in the stage are calculated, and the advertisement center point coordinates Set to disp_center (step S205).
  • the center point coordinates of the advertisement A1 surrounded by the vertices V1 to V4 in the upper part of FIG. 10 are the advertisement center point coordinates disp_center.
  • FIG. 10 shows a vector talk_to_disp from the conversation center point to the advertisement center point from the conversation center point coordinate talk_center to the advertisement center point coordinate disp_center.
  • the inclination of the a-th advertisement with respect to the vector talk_to_disp from the conversation center point to the advertisement center point is calculated from the normal line, and set to the advertisement inclination disp_rot (step S207).
  • FIG. 10 shows an advertisement inclination disp_rot as an angle formed by the vector talk_to_disp from the conversation center point to the advertisement center point and the normal N of the advertisement A1.
  • step S208 it is determined whether or not the vector talk_to_disp from the conversation center point to the advertisement center point is smaller than a predetermined value (for example, 67.5 °) (step S208).
  • a predetermined value for example, 67.5 °
  • FIG. 10 shows a camera line-of-sight inclination up_rot that is an inclination of the vector talk_to_disp from the conversation center point to the advertisement center point with respect to the xz plane.
  • step S210 it is determined whether or not the camera line-of-sight tilt up_rot is smaller than a predetermined value. If the camera line-of-sight tilt up_rot is not smaller than the predetermined value (if larger) (No in Step S210), it is determined that the camera is facing upwards to visually recognize the advertisement, and it becomes unnatural. After the increment (step S223 in FIG. 9), the process returns to the comparison with the number of advertisements in the game (step S204).
  • step S210 If the camera line-of-sight tilt up_rot is smaller than the predetermined value (Yes in step S210), the midpoint coordinates of the vertices of the lower two corners of the a-th advertisement screen in the stage are calculated and set to the advertisement bottom midpoint coordinates disp_low ( Step S211).
  • FIG. 10 shows the advertisement bottom midpoint coordinates disp_low as the midpoint coordinates of the vertices V3 and V4 of the advertisement A1.
  • FIG. 10 shows the advertisement target point coordinates disp_target set between the advertisement center point coordinates disp_center and the advertisement bottom midpoint coordinates disp_low. In an environment where the advertisement is posted below the line of sight, correction is performed between the advertisement center point coordinates and the advertisement upper end middle point coordinates in the opposite direction.
  • a vector from the conversation center point coordinate talk_center to the advertisement target point coordinate disp_target is calculated, and the vector talk_to_disp from the conversation center point to the advertisement center point is updated (step S213).
  • a vector talk_to_disp from the new conversation center point to the advertisement center point which is a vector from the conversation center point coordinate talk_center to the advertisement target point coordinate disp_target. Indicates.
  • step S214 it is determined whether or not the vector talk_to_disp from the conversation center point to the advertisement center point intersects the stage model for determining the line-of-sight transmission. That is, it is determined whether there is an obstructing object between the conversation center point coordinate talk_center and the advertisement target point coordinate disp_target.
  • step S214 If the vector talk_to_disp from the conversation center point to the advertisement center point and the stage model for determining the line of sight transmission intersect (No in step S214), it is difficult for the player to visually recognize the advertisement. After incrementing the number a (step S223 in FIG. 9), the process returns to the comparison with the number of advertisements in the game (step S204).
  • FIG. 11 shows an inter-character distance character_distance which is a distance between the face reference coordinate P1 of the player character C1 and the face reference coordinate P2 of the enemy character C2.
  • a vector from the advertisement target point coordinate disp_target to the conversation center point coordinate talk_center is calculated, and set to the vector disp_to_talk from the advertisement center point to the conversation center point (step S216).
  • the vector disp_to_talk from the advertisement center point to the conversation center point is obtained by inverting the direction of the vector talk_to_disp from the conversation center point to the advertisement center point.
  • step S217 While maintaining the direction of the vector disp_to_talk from the advertisement center point to the conversation center point, calculate a coordinate obtained by adding a vector whose length is adjusted to twice the character distance character_distance to the conversation center point coordinate talk_center, and a temporary camera.
  • the coordinate camera_pos is set (step S217). Note that the length of 2 is an example determined based on experience, and can be changed as appropriate. In FIG.
  • the side opposite to the advertisement A1 Shows the temporary camera coordinates camera_pos set at a location separated by a distance twice as long as the character distance character_distance.
  • the camera is created with the temporary camera coordinates camera_pos as the camera position and the advertisement target point coordinates disp_target as the point the camera sees (a point existing in the viewing direction), and set to the temporary camera camera (step S218).
  • step S219 field conversion and perspective conversion are performed on the four corner points of the a-th advertisement using a temporary camera camera, and the area on the screen is obtained from the four points converted on the 2D screen, and the advertisement on the screen is obtained.
  • the area size is set (step S219).
  • step S220 it is determined whether or not the on-screen advertisement area size is equal to or larger than a predetermined reference value (for example, 2% of the screen area) (step S220).
  • a predetermined reference value for example, 2% of the screen area
  • step S220 If the on-screen advertisement area size is not equal to or larger than the predetermined reference value (No in step S220), it is difficult for the player to view the advertisement in terms of area, so that the game is passed through the in-game advertisement number a increment (step S223). Returning to the comparison with the number of internal advertisements (step S204 in FIG. 7).
  • step S220 If the on-screen advertisement area size is equal to or larger than the predetermined reference value (Yes in step S220), it is determined whether or not the on-screen advertisement area size is larger than the current maximum on-screen advertisement area near_size (step S221).
  • step S223 If the on-screen advertisement area size is not larger than the current maximum on-screen advertisement area near_size (No in step S221), it is determined that there is an advertisement that is more advantageous in area than the advertisement, and the in-game advertisement number a is incremented (step Through S223), the process returns to the comparison with the number of advertisements in the game (step S204 in FIG. 7).
  • the on-screen advertising area size is set to the current maximum on-screen advertising area near_size, and the temporary camera camera is set to the current camera setting near_camera. (Step S222).
  • step S223 the in-game advertisement number a is incremented (step S223), and the process returns to the comparison with the in-game advertisement number (step S204 in FIG. 7).
  • FIG. 12 shows an example of the display screen by the camera set by the above processing, and the advertisement A1 is naturally displayed behind the conversation scene of the player character C1 and the enemy character C2 with a large area and an easy-to-see angle. . Further, after setting the camera by the above processing, the movement of the viewpoint and the gazing point is temporarily stopped, so that the player can easily see the advertisement A1. Note that the movement of the viewpoint and the gazing point can be stopped until the player performs the input operation a predetermined number of times.
  • FIG. 13 shows an example of a display screen when the above camera setting process is not performed.
  • the line of sight of the player character C1 and the enemy character C2 is shown.
  • the display screen is from the height, and the advertisement (A1) behind is not displayed.
  • the point of interest of the normal conversation camera is set to the conversation center point coordinate talk_center.
  • the viewpoint position of the normal conversation camera is set based on the viewpoint immediately before the player character is within the contact distance with the enemy character.
  • a conversation mode (first object) is started in response to an event that the player character (first object) moves within the virtual space and falls within the contact distance of the enemy character (second object)
  • the present invention can be similarly applied to a game or the like in which the camera control initiative shifts to the system side due to the occurrence of some event.
  • the image processing method of this embodiment can be applied to a baseball game.
  • a fielder player character first object
  • a ball second object
  • replay playback of this catch scene Event
  • the above-mentioned conversation center point coordinate talk_center is, for example, an arbitrary point on the ball trajectory (for example, an intermediate point between the highest reaching point and the falling point).
  • the temporary camera coordinates camera_pos set on the half line passing from the advertisement target point coordinates disp_target to the conversation center point coordinates talk_center are, for example, at a distance from the advertisement target point coordinates disp_target to the conversation center point coordinates talk_center, the player character face reference coordinates P1. And a reference coordinate P2 on the ball trajectory plus two times the distance.
  • the image processing method of the present embodiment can be applied to a soccer game.
  • a soccer game when a player character (first object) fouls a foul, an event in which a yellow card or the like is issued by a referee character (second object) (movement control of the viewpoint and gazing point by the player) Becomes impossible).
  • the above-mentioned conversation center point coordinate talk_center is, for example, a center point around the face of the player character and the referee character or a point at a predetermined height of the foul position.
  • the processing is the same as the processing in the adventure mode described above.
  • replay playback is performed when the player character shoots or the like to score a goal. Note that, similarly to the above-described baseball game, the movement control of the viewpoint and the gazing point by the input operation of the player becomes impossible during the replay.
  • the above-described conversation center point coordinate talk_center is, for example, the center point between the face reference coordinate P1 of the player character (first object) who has determined the goal and the reference coordinate P2 of the goal (second object).
  • the temporary camera coordinates camera_pos set on the half line passing the conversation center point coordinate talk_center from the advertisement target point coordinate disp_target is, for example, at the distance from the advertisement target point coordinate disp_target to the conversation center point coordinate talk_center, the player character face reference coordinate P1. And twice the distance of the goal reference coordinate P2.
  • the advertisement, the player character, and the goal image are included in the display screen.
  • the image processing method of the present embodiment can be applied to a racing game. If the host vehicle (first object) pulls out an enemy vehicle (second object) that is running first, during the race game, replay playback (event) is performed after the end of the race.
  • the above-mentioned conversation center point coordinate talk_center is set to the center point of the reference coordinate P1 of the own vehicle and the reference coordinate P2 of the enemy vehicle or the center point of the path set on the road.
  • the temporary camera coordinates camera_pos set on the half line passing from the advertisement target point coordinate disp_target to the conversation center point coordinate talk_center is, for example, at a distance from the advertisement target point coordinate disp_target to the conversation center point coordinate talk_center and the vehicle's reference coordinate P1.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Geometry (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Graphics (AREA)
  • Game Theory and Decision Science (AREA)
  • Computing Systems (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 コンピュータを、仮想空間内のオブジェクトとして、少なくとも第1のオブジェクト、第2のオブジェクト及び注視オブジェクトを仮想空間内に配置する配置手段、仮想空間内に設定される視点及び注視点に基き前記オブジェクトを座標変換して画面に表示する手段、プレイヤからの操作に応じて仮想空間内で第1のオブジェクトを移動させる手段、プレイヤからの操作に応じて仮想空間内で視点及び注視点を移動制御する手段、仮想空間内を移動する第2のオブジェクトと第1のオブジェクトとの関係に基きイベントを発生させる手段、イベントが発生した場合に、第1のオブジェクト及び第2のオブジェクトの座標に基き前記イベントの中心点を決定する手段、イベントが発生した場合に、注視オブジェクトに定められた対象点を注視点に設定し、当該注視点を始点として、前記イベントの中心点を通過する半直線上に前記視点を設定する設定手段として機能させる。

Description

画像処理方法及びコンピュータ読み取り可能な記録媒体
 本発明は、ビデオゲームやCG(Computer Graphics)ビデオ等における表示画像の生成技術に関する。
 広告ビジネスの発展により、ビデオゲームやCGビデオ等の表示画像の中に広告を挿入するケースが増えてきている(例えば、特許文献1参照。)。例えば、町並みの風景画像の中に所定の広告看板の画像を表示する等により、不自然さのない形で広告の挿入が行われている。
特開2003-58912号公報
 ビデオゲームやCGビデオ等の表示画像の中に広告を挿入する場合、広告料は、視聴者に広告が提示される回数や提示される広告の態様に応じたものとなる。
 昨今では、ビデオゲーム等の中にブラックボックス化された広告管理プログラムモジュールを埋め込み、広告画像の割り当てと広告提供状態の測定とを自動に行うシステムも導入されつつある。この場合、広告管理プログラムモジュールは、予めゲーム内に設けられたブランクの広告看板等に所定の広告画像を自動に割り当てるとともに、広告看板等の表示画面上の面積割合や表示継続時間等に応じて有効な広告表示であるか否かを判断して課金ポイントを発生させ、ネットワーク経由でセンタ側に課金ポイント情報を送信する。また、広告管理プログラムモジュールは、ネットワーク経由で最新の広告画像もセンタ側から取得する。
 ネットワーク利用によるセンタ管理であるか否かにかかわらず、広告料収入を増やすためには、効果的な広告を行うことが不可欠である。しかし、単に大きな面積割合で長時間にわたって広告画像を表示すればよいというものではなく、自然な広告提示となることが肝要である。あまりに強引な広告提示は視聴者の反感を招き、広告効果を却って低下させてしまい、ひいてはビデオゲームやCGビデオ等の主たるコンテンツ自体の価値を低下させてしまいかねない。
 本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、自然な形で効果的に広告を表示させることのできる画像処理方法及びコンピュータ読み取り可能な記録媒体を提供することにある。
 上記の課題を解決するため、本発明のコンピュータ読み取り可能な記録媒体は、コンピュータを、仮想空間内のオブジェクトとして、少なくとも第1のオブジェクト、第2のオブジェクト及び注視オブジェクトを仮想空間内に配置する配置手段、仮想空間内に設定される視点及び注視点に基づいて、前記オブジェクトを座標変換して画面に表示する手段、プレイヤからの操作に基づいて仮想空間内で前記第1のオブジェクトを移動させる手段、プレイヤからの操作に基づいて仮想空間内で前記視点及び注視点を移動制御する手段、仮想空間内を移動する前記第2のオブジェクトと、前記第1のオブジェクトとの関係に基づくイベントを発生させる手段、前記イベントが発生した場合に、前記第1のオブジェクト及び前記第2のオブジェクトの少なくとも一方の座標に基いて前記イベントの中心点を決定する手段、前記イベントが発生した場合に、前記注視オブジェクトに定められた対象点を注視点に設定し、当該注視点を始点として、前記イベントの中心点を通過する半直線上に、前記視点を設定する設定手段として機能させるための画像処理プログラムを記録したことを特徴とする。
 本発明の画像処理方法及びコンピュータ読み取り可能な記録媒体によれば、自然な形で効果的に広告を表示させることができる。
本発明の一実施形態にかかる画像処理装置の構成例を示す図である。 本実施形態の画像処理装置内で実行される画像処理方法に用いられるデータ例を示す図である。 本実施形態の画像処理装置内で実行される画像処理方法の例を説明するためのフローチャートである。 ビュー空間の例を示す図である。 射影空間の例を示す図である。 アドベンチャーモードの処理において表示される表示画面の例を示す図である。 会話モードの処理において表示される表示画面例を示す図である。 カメラ設定処理の例を説明するためのフローチャートである。 カメラ設定処理の例を説明するためのフローチャートである。 カメラ設定処理の例を説明するためのフローチャートである。 カメラ設定処理における各種計算対象を説明するための図である。 カメラ設定処理における各種計算対象を説明するための図である。 カメラ設定処理により設定されるカメラによる表示画面の例を示す図である。 カメラ設定処理を行わなかった場合の表示画面の例を示す図である。
 以下、本発明の好適な実施形態につき説明する。なお、以下では画像処理装置としてビデオゲーム装置に適用した場合について説明する。
 図1は本発明の一実施形態にかかる画像処理装置1の構成例を示す図である。
 図1において、ビデオゲーム装置等の画像処理装置1は、主たる制御動作を行うCPU(Central Processing Unit)101と、実行中のプログラム及びデータを保持するRAM(Random Access
Memory)等のシステムメモリ102と、制御プログラム及び各種データを保持するROM(Read Only Memory)、HDD(Hard Disk
Drive)、フラッシュメモリ、CD(Compact Disk)ドライブ、DVD(Digital Versatile Disk)ドライブ等の記憶装置103と、起動プログラムを保持するブートROM104と、ボタン、ハンドル、アクセルペダル、ブレーキペダル等のペリフェラルデバイスとのインタフェースを行うペリフェラルインターフェイス105とを備える。CPU101と、システムメモリ102と、記憶装置103と、ブートROM104と、ペリフェラルインターフェイス105は、システムバスの調停を行うバスアービタ106に接続されている。CPU101は、本実施形態の画像処理装置1の制御部を構成する。ペリフェラルインターフェイス105は、本実施形態の画像処理装置1の入力部を構成する。
 また、バスアービタ106には、グラフィックメモリ108を用いてポリゴンを使用した3次元グラフィックスの描画処理を行うGPU(Graphics Processing Unit)107が接続され、このGPU107には表示用のモニタ109が接続されている。また、バスアービタ106には、オーディオメモリ111を用いて音声出力を行うオーディオプロセッサ110が接続され、このオーディオプロセッサ110には音声出力用のスピーカ112が接続されている。更に、バスアービタ106には通信インターフェイス113が接続され、通信インターフェイス113の他端はネットワークに接続され、他のビデオゲーム装置や管理用サーバに接続される。モニタ109は、本実施形態の画像処理装置1の表示部を構成する。また、GPU107は、本実施形態の画像処理装置1の制御部として構成してもよい。
 図2は画像処理装置1内で実行される画像処理方法に用いられるデータ例を示す図である。データには、ステージ毎ゲーム内広告データとモデル関連データと一時的データとが含まれる。
 ステージ毎ゲーム内広告データには、ゲームの進行により遷移する各ステージに対応したステージ#1ゲーム内広告データ、ステージ#2ゲーム内広告データ、・・が含まれる。ステージ#1ゲーム内広告データ、ステージ#2ゲーム内広告データ、・・のそれぞれには、ゲーム内広告個数と、ゲーム内広告毎のゲーム内広告番号、4隅の頂点座標、法線ベクトル、内容確認可能最大距離、広告画像等が含まれる。4隅の頂点座標とは、矩形状の広告の輪郭を特定する3次元座標である。法線ベクトルとは、矩形状の広告面の向きを表す3次元ベクトルである。内容確認可能最大距離とは、広告の表示内容に応じ、内容が判別可能な最大の距離(視点となる仮想カメラと広告面との距離)である。
 モデル関連データには、プレイヤキャラクタデータと敵キャラクタデータと視線透過判定用ステージモデルとが含まれている。
 プレイヤキャラクタデータは、主としてプレイヤの入力操作によって移動制御されるキャラクタのデータであり、一般的な3Dデータ等の他に顔基準座標を含んでいる。顔基準座標は、例えば、首のやや上の3次元座標である。
 敵キャラクタデータは、プレイヤキャラクタと敵対するキャラクタのデータであり、一般的な3Dデータ等の他に行動スクリプトと顔基準座標を含んでいる。行動スクリプトは、敵キャラクタの行動開始条件と行動内容とを記述したものである。例えば、プレイヤキャラクタが敵キャラクタの追尾開始距離以内に入ったことを検知すると、その敵キャラクタはプレイヤキャラクタの追尾を開始する。また、プレイヤキャラクタが敵キャラクタの接触距離以内に入ったことを検知すると、その敵キャラクタはプレイヤキャラクタとの会話を開始する。
 視線透過判定用ステージモデルは、構造物等の輪郭を簡略化し、視線が透過するか否かを判定するためのモデルデータである。
 一時的データには、会話中心点座標talk_center、現時点最大画面上広告面積near_size、現時点カメラ設定near_camera、ゲーム内広告番号a、広告中心点座標disp_center、会話中心点から広告中心点へのベクトルtalk_to_disp、広告傾きdisp_rot、カメラ視線傾きup_rot、広告下端中点座標disp_low、広告対象点座標disp_target、キャラクタ間距離charactor_distance、広告中心点から会話中心点へのベクトルdisp_to_talk、仮カメラ座標camera_pos、仮カメラcamera、画面上広告面積sizeが含まれる。それぞれの意味については後述する。
 図3は上記の実施形態の処理例を示すフローチャートである。
 なお、図3ではゲームの流れを主に示してあるため、表示画像の生成については特に示していない。表示画像の生成に関しては、CPU101(図1)の制御のもと、ゲームロジックに従って表示すべきオブジェクトのモデルデータが仮想3次元空間内に配置され、GPU107で実行されるバーテックスシェーダ及びピクセルシェーダの処理により、各オブジェクトの画像が視点(仮想カメラ)から見た2次元画像に変換されて生成される。視点と注視点は、プレイヤの入力操作により移動するオブジェクトの移動に伴って、そのオブジェクトの画像を表示画面に含むように移動制御されてもよいし、プレイヤの入力操作(十字キーやLRボタン等の操作)に応じて移動してもよい。
 バーテックスシェーダによる処理として、ポリゴンの頂点のビュー空間及び射影空間への変換、ラスタライズ等が行われる。ピクセルシェーダによる処理として、ポリゴンの面へのテクスチャリング等が行われる。
 図4Aはビュー空間の例を示している。ビュー空間は視点VPを基準とした座標空間であり、視点VPから視方向に対して横軸がx軸、縦軸がy軸、奥行きがz軸となる。視点VPの視方向に対してx軸方向及びy軸方向にそれぞれ画角だけ振った範囲の、視点VPに近い側には近クリップ平面CP1が設定され、遠い側には遠クリップ平面CP2が設定される。近クリップ平面CP1と遠クリップ平面CP2と画角を示す面で囲われる6面体の内部に配置されるモデル(オブジェクト)が描画対象となる。前記6面体の位置は、ビデオゲームの場合、プレイヤが入力手段により入力操作するプレイヤキャラクタの画像を含むように決定される。図4Bは射影空間の例を示しており、図4Aに示したビュー空間を、-1≦x≦1、-1≦y≦1、0≦z≦1の範囲に変換したものである。
 図3に戻り、処理を開始すると(ステップS101)、プレイヤの入力操作に応じて3次元仮想空間内をプレイヤキャラクタが移動するアドベンチャーモードの処理(ステップS102)を行う。
 アドベンチャーモードの処理(ステップS102)においては、いずれかの敵キャラクタがその追尾開始距離内に入ったプレイヤキャラクタを検知すると(ステップS103のYes)、プレイヤキャラクタの追尾を開始する(ステップS104)。図5は、アドベンチャーモードにおいて、プレイヤキャラクタC1が敵キャラクタC2の追尾開始距離内に入ったことにより追尾が開始される時点で表示される表示画面の例を示す。なお、A1、A2は広告(広告看板)である。
 図3に戻り、更に、その敵キャラクタの接触距離内に入ったプレイヤキャラクタを検知すると(ステップS105のYes)、会話モードの処理(ステップS106)に移行する。図6は、アドベンチャーモードにおいて、プレイヤキャラクタC1が敵キャラクタC2に追いつかれて敵キャラクタC2の接触距離内に入ったことにより会話が開始される時点で表示される表示画面の例を示す。
 図3に戻り、会話モードの処理(ステップS106)に入ると、初めにカメラ設定処理(ステップS107)を行い、その後は通常の会話モードの処理を行う。カメラ設定処理の詳細は後述するが、そのシーンで表示可能な複数の広告の中から配置的に最も効果的な広告を選択し、最も効果的なカメラ設定(視点及び注視点)を決定する。なお、カメラ設定処理により設定された視点及び注視点は、一定時間又はプレイヤの入力操作を検出するまでの所定の期間中、その移動制御が停止され、広告画像をプレイヤに注視させることを促す。
 そして、会話モードの後にゲーム終了であるか否か判断し(ステップS108)、ゲーム終了でない場合(ステップS108のNo)はアドベンチャーモードの処理(ステップS102)に戻り、ゲーム終了である場合(ステップS108のYes)は処理を終了する(ステップS109)。
 図7~図9はカメラ設定処理(図3のステップS107)の例を示すフローチャートである。なお、カメラ設定処理は図1のCPU101が実行する処理を想定しているが、GPU107が実行する処理としてもよい。
 図7において、カメラ設定処理を開始すると(ステップS201)、プレイヤキャラクタの顔と敵キャラクタの顔との中点座標を算出し、会話中心点座標talk_centerに設定する(ステップS202)。図10はプレイヤキャラクタC1と敵キャラクタC2の配置を概略的に示しており、プレイヤキャラクタC1の顔基準座標P1と敵キャラクタC2の顔基準座標P2を結んだ線分の中点座標が会話中心点座標talk_centerとなる。
 図7に戻り、現時点最大画面上広告面積near_sizeに「0」を設定し、現時点カメラ設定near_cameraに通常の会話カメラを設定し、ゲーム内広告番号aに「0」を設定する(ステップS203)。
 次いで、ゲーム内広告番号aが当該ステージ内のゲーム内広告個数以上であるか否か判断し(ステップS204)、ゲーム内広告番号aが当該ステージ内のゲーム内広告個数以上である場合(ステップS204のYes)、現時点カメラ設定near_cameraをゲームのカメラに設定し(図9のステップS224)、処理を終了する(図9のステップS225)。
 ゲーム内広告番号aが当該ステージ内のゲーム内広告個数以上でない場合(ステップS204のNo)、当該ステージ内のa番目の広告画面の4隅の頂点の中点座標を算出し、広告中心点座標disp_centerに設定する(ステップS205)。図10の上方に頂点V1~V4で囲まれる広告A1の中心点座標が広告中心点座標disp_centerとなる。
 図7に戻り、会話中心点座標talk_centerから広告中心点座標disp_centerへ向くベクトルを算出し、会話中心点から広告中心点へのベクトルtalk_to_dispに設定する(ステップS206)。図10に、会話中心点座標talk_centerから広告中心点座標disp_centerへ向く、会話中心点から広告中心点へのベクトルtalk_to_dispを示す。
 図7に戻り、会話中心点から広告中心点へのベクトルtalk_to_dispに対するa番目の広告の傾きを法線から算出し、広告傾きdisp_rotに設定する(ステップS207)。図10に、会話中心点から広告中心点へのベクトルtalk_to_dispと広告A1の法線Nのなす角としての広告傾きdisp_rotを示す。
 図7に戻り、会話中心点から広告中心点へのベクトルtalk_to_dispが所定値(例えば67.5°)より小さいか否か判断する(ステップS208)。会話中心点から広告中心点へのベクトルtalk_to_dispが所定値より小さくない場合(大きい場合)(ステップS208のNo)、その広告の視認は角度的に困難であると判断し、ゲーム内広告番号aのインクリメント(図9のステップS223)を経てゲーム内広告個数との比較(ステップS204)に戻る。
 会話中心点から広告中心点へのベクトルtalk_to_dispが所定値より小さい場合(ステップS208のYes)、会話中心点から広告中心点へのベクトルtalk_to_dispのxz平面に対する傾きを算出し、カメラ視線傾きup_rotに設定する(ステップS209)。図10に、xz平面に対する会話中心点から広告中心点へのベクトルtalk_to_dispの傾きであるカメラ視線傾きup_rotを示す。
 次に、図8において、カメラ視線傾きup_rotが所定値より小さいか否か判断する(ステップS210)。カメラ視線傾きup_rotが所定値より小さくない場合(大きい場合)(ステップS210のNo)、その広告を視認するには上を向きすぎることとなって不自然になると判断し、ゲーム内広告番号aのインクリメント(図9のステップS223)を経てゲーム内広告個数との比較(ステップS204)に戻る。
 カメラ視線傾きup_rotが所定値より小さい場合(ステップS210のYes)、当該ステージ内のa番目の広告画面の下2隅の頂点の中点座標を算出し、広告下端中点座標disp_lowに設定する(ステップS211)。図10に、広告A1の頂点V3、V4の中点座標としての広告下端中点座標disp_lowを示す。
 図8に戻り、カメラ視線傾きup_rotに応じて、傾きが少なければ広告中心点座標disp_center、傾きが大きければ広告下端中点座標disp_lowに近づく点を算出し、広告対象点座標disp_targetに設定する(ステップS212)。すなわち、カメラの視線が上方を向くと不自然さが強くなるため、カメラの視線の傾きを下げる補正を行う。図10に、広告中心点座標disp_centerと広告下端中点座標disp_lowの間に設定された広告対象点座標disp_targetを示す。なお、広告が目線よりも下に掲示される環境にあっては、上記とは逆方向に、広告中心点座標と広告上端中点座標の間で補正を行う。
 図8に戻り、会話中心点座標talk_centerから広告対象点座標disp_targetへのベクトルを算出し、会話中心点から広告中心点へのベクトルtalk_to_dispを更新する(ステップS213)。図11に、前回の会話中心点から広告中心点へのベクトルtalk_to_dispに代えて、会話中心点座標talk_centerから広告対象点座標disp_targetへのベクトルである、新しい会話中心点から広告中心点へのベクトルtalk_to_dispを示す。
 図8に戻り、会話中心点から広告中心点へのベクトルtalk_to_dispと視線透過判定用ステージモデルとが交差していないか否か判断する(ステップS214)。すなわち、会話中心点座標talk_centerと広告対象点座標disp_targetの間に遮る物体が存在しないかどうか判断する。
 会話中心点から広告中心点へのベクトルtalk_to_dispと視線透過判定用ステージモデルとが交差している場合(ステップS214のNo)、プレイヤにとって、その広告を視認することは困難であるため、ゲーム内広告番号aのインクリメント(図9のステップS223)を経てゲーム内広告個数との比較(ステップS204)に戻る。
 会話中心点から広告中心点へのベクトルtalk_to_dispと視線透過判定用ステージモデルとが交差していない場合(ステップS214のYes)、プレイヤキャラクタの顔と敵キャラクタの顔間の距離を算出し、キャラクタ間距離charactor_distanceに設定する(ステップS215)。図11に、プレイヤキャラクタC1の顔基準座標P1と敵キャラクタC2の顔基準座標P2間の距離であるキャラクタ間距離charactor_distanceを示す。
 図8に戻り、広告対象点座標disp_targetから会話中心点座標talk_centerへのベクトルを算出し、広告中心点から会話中心点へのベクトルdisp_to_talkに設定する(ステップS216)。広告中心点から会話中心点へのベクトルdisp_to_talkは会話中心点から広告中心点へのベクトルtalk_to_dispの方向を反転させたものである。
 次いで、広告中心点から会話中心点へのベクトルdisp_to_talkの方向は維持しつつ、長さをキャラクタ間距離charactor_distanceの2倍に調整したベクトルを会話中心点座標talk_centerに足した座標を算出し、仮カメラ座標camera_posに設定する(ステップS217)。なお、2倍という長さは経験上決定された一例であり、適宜変更することができる。図11に、会話中心点座標talk_centerから、広告中心点から会話中心点へのベクトルdisp_to_talkの方向(会話中心点から広告中心点へのベクトルtalk_to_dispの逆方向)に沿って、広告A1とは反対側にキャラクタ間距離charactor_distanceの2倍の距離だけ離れた場所に設定した仮カメラ座標camera_posを示す。
 次に、図9において、仮カメラ座標camera_posをカメラ位置、広告対象点座標disp_targetをカメラが見る点(視方向に存在する点)として、カメラを作成し、仮カメラcameraに設定する(ステップS218)。
 次いで、a番目の広告の4隅の点に対して、仮カメラcameraを使って視野変換及び透視変換を行い、2D画面上に変換された4点から画面上での面積を求め、画面上広告面積sizeに設定する(ステップS219)。
 次いで、画面上広告面積sizeが所定の基準値(例えば、画面の面積の2%)以上であるか否か判断する(ステップS220)。
 画面上広告面積sizeが所定の基準値以上でない場合(ステップS220のNo)、プレイヤにとって、その広告の視認は面積的に困難であるため、ゲーム内広告番号aのインクリメント(ステップS223)を経てゲーム内広告個数との比較(図7のステップS204)に戻る。
 画面上広告面積sizeが所定の基準値以上である場合(ステップS220のYes)、画面上広告面積sizeが現時点最大画面上広告面積near_sizeより大きいか否か判断する(ステップS221)。
 画面上広告面積sizeが現時点最大画面上広告面積near_sizeより大きくない場合(ステップS221のNo)、その広告よりも面積的に有利な広告が既に存在すると判断し、ゲーム内広告番号aのインクリメント(ステップS223)を経てゲーム内広告個数との比較(図7のステップS204)に戻る。
 画面上広告面積sizeが現時点最大画面上広告面積near_sizeより大きい場合(ステップS221のYes)、画面上広告面積sizeを現時点最大画面上広告面積near_sizeに設定し、仮カメラcameraを現時点カメラ設定near_cameraに設定する(ステップS222)。
 次いで、ゲーム内広告番号aをインクリメントし(ステップS223)、ゲーム内広告個数との比較(図7のステップS204)に戻る。
 図12は上記の処理により設定されたカメラによる表示画面の例を示しており、プレイヤキャラクタC1と敵キャラクタC2の会話のシーンの背後に広告A1が大きな面積かつ見やすい角度で自然に表示されている。また、上記の処理によりカメラを設定した後、視点及び注視点の移動を一時中止させることにより、プレイヤに広告A1を視認させやすくする。なお、プレイヤの入力操作が所定回数なされるまで、視点及び注視点の移動を中止することもできる。
 また、図13は比較のために上記のようなカメラ設定処理を行わなかった場合の表示画面の例を示しており、通常の会話カメラの視点に基づき、プレイヤキャラクタC1と敵キャラクタC2の目線の高さからの表示画面となり、背後の広告(A1)が表示されていない。ここで、通常の会話カメラの注視点位置は、会話中心点座標talk_centerに設定されている。また、通常の会話カメラの視点位置は、プレイヤキャラクタが敵キャラクタと接触距離以内になる直前の視点に基づいて設定されている。
 上述した例では、アドベンチャーモードにおいてプレイヤキャラクタ(第1のオブジェクト)が仮想空間内を移動し、敵キャラクタ(第2のオブジェクト)の接触距離以内に入ったというイベントを契機に開始される会話モード(進行が主にシステム側に依存)のカメラ設定として、効果的な広告の視聴を促す視点及び注視点を自然に与えている。従って、何らかのイベントの発生によりカメラ制御の主導権がシステム側に移行するタイプのゲーム等であれば、同様に適用することが可能である。
 例えば、本実施形態の画像処理方法を野球ゲームに適用することが可能である。野球ゲームの実行中において、野手のプレイヤキャラクタ(第1のオブジェクト)がボール(第2のオブジェクト)に飛びついてキャッチをし、制御プログラムによってファインプレーであると判断された場合、このキャッチ場面のリプレイ再生(イベント)を行う。なお、リプレイ中はプレイヤの入力操作による視点及び注視点の移動制御が不可になる。
 この際、上述の会話中心点座標talk_centerは、例えばボール軌道上の任意点(例えば最高到達点と落下点の中間点)とする。そして、広告対象点座標disp_targetから会話中心点座標talk_centerを通る半直線上に設定する仮カメラ座標camera_posは、例えば広告対象点座標disp_targetから会話中心点座標talk_centerの距離に、プレイヤキャラクタの顔基準座標P1とボール軌道上の基準座標P2との距離の2倍を足した座標とする。これにより、広告、プレイヤキャラクタ、及びボールの弾道が表示画面に含まれるようになる。
 例えば、本実施形態の画像処理方法をサッカーゲームに適用することも可能である。サッカーゲームの実行中において、プレイヤキャラクタ(第1のオブジェクト)によって悪質なファウルがされると、審判キャラクタ(第2のオブジェクト)によってイエローカード等が出されるイベント(プレイヤによる視点及び注視点の移動制御が不可になる)が発生する。
 この際、上述の会話中心点座標talk_centerは、例えばプレイヤキャラクタと審判キャラクタとの顔の辺りの中心点又はファウル位置の所定高さの点とする。この後は、上述のアドベンチャーモードの処理と同様である。
 また、プレイヤキャラクタがシュート等をしてゴールを決めた場合に、リプレイ再生(イベント)を行う。なお、上述の野球ゲームと同様、リプレイ中はプレイヤの入力操作による視点及び注視点の移動制御が不可になる。
 この際、上述の会話中心点座標talk_centerは、例えばゴールを決めたプレイヤキャラクタ(第1のオブジェクト)の顔基準座標P1とゴール(第2のオブジェクト)の基準座標P2との中心点とする。そして、広告対象点座標disp_targetから会話中心点座標talk_centerを通る半直線上に設定する仮カメラ座標camera_posは、例えば広告対象点座標disp_targetから会話中心点座標talk_centerの距離に、プレイヤキャラクタの顔基準座標P1とゴールの基準座標P2の距離の2倍を足した座標とする。これにより、広告、プレイヤキャラクタ、及びゴールの画像が表示画面に含まれるようになる。
 例えば、本実施形態の画像処理方法をレースゲームに適用することも可能である。レースゲームの実行中において、自車(第1のオブジェクト)が1位走行中等の敵車(第2のオブジェクト)を抜いた場合、レース終了後にリプレイ再生(イベント)を行う。
 この際、上述の会話中心点座標talk_centerは、抜いた時の自車の基準座標P1と敵車の基準座標P2の中心点又は道路に設定されたパスの中心点とする。そして、広告対象点座標disp_targetから会話中心点座標talk_centerを通る半直線上に設定する仮カメラ座標camera_posは、例えば広告対象点座標disp_targetから会話中心点座標talk_centerの距離に、自車の基準座標P1と敵車の基準座標P2の距離の2倍を足した座標とする。これにより、広告、自車、及び敵車の画像が表示画面に含まれるようになる。
 以上説明したように、本実施形態によれば、自然な形で効果的に広告画像を表示させることができ、広告料収入の増大に寄与することができる。
 以上、本発明の好ましい実施形態について記述したが、本発明はかかる特定の実施形態に限定されるものではなく、特許請求の範囲内に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
 本国際出願は2009年12月10日に出願された日本国特許出願第2009-280915号に基づく優先権を主張するものであり、日本国特許出願第2009-280915号の全内容を本国際出願に援用する。

Claims (6)

  1.  コンピュータを、
     仮想空間内のオブジェクトとして、少なくとも第1のオブジェクト、第2のオブジェクト及び注視オブジェクトを仮想空間内に配置する配置手段、
     仮想空間内に設定される視点及び注視点に基づいて、前記オブジェクトを座標変換して画面に表示する手段、
     プレイヤからの操作に基づいて仮想空間内で前記第1のオブジェクトを移動させる手段、
     プレイヤからの操作に基づいて仮想空間内で前記視点及び注視点を移動制御する手段、
     仮想空間内を移動する前記第2のオブジェクトと、前記第1のオブジェクトとの関係に基づくイベントを発生させる手段、
     前記イベントが発生した場合に、前記第1のオブジェクト及び前記第2のオブジェクトの少なくとも一方の座標に基いて前記イベントの中心点を決定する手段、
     前記イベントが発生した場合に、前記注視オブジェクトに定められた対象点を注視点に設定し、当該注視点を始点として、前記イベントの中心点を通過する半直線上に、前記視点を設定する設定手段、
     として機能させるための画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
  2.  請求項1に記載の記録媒体において、
     前記設定手段により前記視点及び前記注視点を設定した後、前記視点及び前記注視点の前記移動制御を一時停止することを特徴とする記録媒体。
  3.  請求項1に記載の記録媒体において、
     前記配置手段は、前記仮想空間内に複数の注視オブジェクトを配置し、
     前記設定手段は、前記イベントの中心点から前記注視オブジェクトへのベクトル、及び前記注視オブジェクトの法線ベクトルに基づいて算出される傾きが、所定角度以上の前記注視オブジェクトと、前記仮視点と前記注視オブジェクトの間に他のオブジェクトが存在する前記注視オブジェクトとを除外し、前記表示画面に最も大きく表示される注視オブジェクトを選択し、選択した前記注視オブジェクトの前記対象点を注視点に設定することを特徴とする記録媒体。
  4.  請求項1に記載の記録媒体において、
     前記視点から前記注視点までの上下角度を算出し、当該上下角度が所定角度以上である場合に、前記注視オブジェクトの対象点を前記注視オブジェクトの下部に定めることを特徴とする記録媒体。
  5.  請求項1に記載の記録媒体において、
     前記半直線上に設定される前記視点の座標は、前記第1のオブジェクトと前記第2のオブジェクト間の距離に基づいて設定されることを特徴とする記録媒体。
  6.  少なくとも入力部、表示部及び制御部を備える画像処理装置において前記制御部が実行する画像処理方法であって、
     仮想空間内の複数のオブジェクトとして、少なくとも第1のオブジェクト、第2のオブジェクト及び注視オブジェクトを仮想空間内に配置する配置手順と、
     仮想空間内に設定される視点及び注視点に基づき、前記複数のオブジェクトの座標を座標変換して、前記表示部の画面上における座標変換後の各座標に各オブジェクトの画像を表示する手順と、
     前記入力部を介して取得される操作者の第1の入力操作に応じて仮想空間内で前記第1のオブジェクトを移動させる手順と、
     前記入力部を介して取得される操作者の第2の入力操作に応じて仮想空間内で前記視点及び前記注視点を移動制御する手順と、
     仮想空間内を移動する前記第2のオブジェクトと、前記第1のオブジェクトとの間の距離に基づいてイベントを発生させる手順と、
     前記イベントが発生した場合に、前記第1のオブジェクト及び前記第2のオブジェクトの少なくとも一方の座標に基いて前記イベントの中心点の座標を決定する手順と、
     前記イベントが発生した場合に、前記注視オブジェクトに定められた対象点を注視点に設定し、当該注視点を始点として、前記イベントの中心点を通過する半直線上に、前記視点を設定する設定手順と、
     を有することを特徴とする画像処理方法。
PCT/JP2010/071374 2009-12-10 2010-11-30 画像処理方法及びコンピュータ読み取り可能な記録媒体 WO2011070946A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP10835868.0A EP2492872B1 (en) 2009-12-10 2010-11-30 Image processing method and computer-readable recording medium
US13/498,393 US8727876B2 (en) 2009-12-10 2012-03-27 Method of image processing and computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-280915 2009-12-10
JP2009280915A JP5293582B2 (ja) 2009-12-10 2009-12-10 画像処理プログラムおよびコンピュータ読み取り可能な記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/498,393 Continuation US8727876B2 (en) 2009-12-10 2012-03-27 Method of image processing and computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2011070946A1 true WO2011070946A1 (ja) 2011-06-16

Family

ID=44145491

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/071374 WO2011070946A1 (ja) 2009-12-10 2010-11-30 画像処理方法及びコンピュータ読み取り可能な記録媒体

Country Status (4)

Country Link
US (1) US8727876B2 (ja)
EP (1) EP2492872B1 (ja)
JP (1) JP5293582B2 (ja)
WO (1) WO2011070946A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9538164B2 (en) * 2013-01-10 2017-01-03 Qualcomm Incorporated Stereoscopic conversion with viewing orientation for shader based graphics content
US9727316B2 (en) * 2013-02-14 2017-08-08 Google Inc. Systems and methods for skinning an application with interactive content
JP6598522B2 (ja) * 2015-06-12 2019-10-30 任天堂株式会社 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
US10668382B2 (en) 2017-09-29 2020-06-02 Sony Interactive Entertainment America Llc Augmenting virtual reality video games with friend avatars

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11235466A (ja) * 1997-12-18 1999-08-31 Sega Enterp Ltd コンピュータゲーム装置
JP2001269482A (ja) * 2000-03-24 2001-10-02 Konami Computer Entertainment Japan Inc ゲームシステム、ゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体及び画像表示方法
JP2003058912A (ja) 2001-05-18 2003-02-28 Sony Computer Entertainment Inc 表示装置及び画像処理方法
JP2004065839A (ja) * 2002-08-09 2004-03-04 Konami Co Ltd ビデオゲーム装置、ビデオゲーム方法、コンピュータプログラム及び記録媒体
JP2005027948A (ja) * 2003-07-08 2005-02-03 Nintendo Co Ltd 画像生成プログラム及びゲーム装置
JP2006277352A (ja) * 2005-03-29 2006-10-12 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
JP2009280915A (ja) 2009-07-10 2009-12-03 Ulvac Japan Ltd 触媒cvd装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09153146A (ja) * 1995-09-28 1997-06-10 Toshiba Corp 仮想空間表示方法
US6424353B2 (en) 1997-09-11 2002-07-23 Sega Enterprises, Ltd. Computer game apparatus
JP2000084244A (ja) * 1998-09-14 2000-03-28 Taito Corp ビデオゲーム装置
JP2001149654A (ja) * 1999-11-30 2001-06-05 Namco Ltd ゲーム装置、広告通知方法および情報記憶媒体
US8751310B2 (en) * 2005-09-30 2014-06-10 Sony Computer Entertainment America Llc Monitoring advertisement impressions
JP4647137B2 (ja) * 2001-06-06 2011-03-09 シャープ株式会社 広告データ処理方法、販売管理方法、広告データ処理装置、アプリケーション端末装置、広告データ処理システム、広告データ処理プログラム
JP3732168B2 (ja) * 2001-12-18 2006-01-05 株式会社ソニー・コンピュータエンタテインメント 仮想世界におけるオブジェクトの表示装置、表示システム及び表示方法、ならびにそれらを利用可能な仮想世界における地価及び広告料の設定方法
US7386799B1 (en) * 2002-11-21 2008-06-10 Forterra Systems, Inc. Cinematic techniques in avatar-centric communication during a multi-user online simulation
JP4474640B2 (ja) * 2004-05-11 2010-06-09 株式会社セガ 画像処理プログラム、ゲーム処理プログラムおよびゲーム情報処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11235466A (ja) * 1997-12-18 1999-08-31 Sega Enterp Ltd コンピュータゲーム装置
JP2001269482A (ja) * 2000-03-24 2001-10-02 Konami Computer Entertainment Japan Inc ゲームシステム、ゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体及び画像表示方法
JP2003058912A (ja) 2001-05-18 2003-02-28 Sony Computer Entertainment Inc 表示装置及び画像処理方法
JP2004065839A (ja) * 2002-08-09 2004-03-04 Konami Co Ltd ビデオゲーム装置、ビデオゲーム方法、コンピュータプログラム及び記録媒体
JP2005027948A (ja) * 2003-07-08 2005-02-03 Nintendo Co Ltd 画像生成プログラム及びゲーム装置
JP2006277352A (ja) * 2005-03-29 2006-10-12 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
JP2009280915A (ja) 2009-07-10 2009-12-03 Ulvac Japan Ltd 触媒cvd装置

Also Published As

Publication number Publication date
US8727876B2 (en) 2014-05-20
JP5293582B2 (ja) 2013-09-18
EP2492872A1 (en) 2012-08-29
US20120190447A1 (en) 2012-07-26
EP2492872A4 (en) 2014-01-29
EP2492872B1 (en) 2019-05-15
JP2011123673A (ja) 2011-06-23

Similar Documents

Publication Publication Date Title
US10372209B2 (en) Eye tracking enabling 3D viewing
JP5706241B2 (ja) 画像生成プログラム、画像生成装置、画像生成システム及び画像生成方法
JP5908535B2 (ja) モバイルデバイスに表示される補足ビデオコンテンツ
US9832441B2 (en) Supplemental content on a mobile device
US20130344966A1 (en) Method and system for providing video game content
US8602888B2 (en) Video game device and image processing program
JP4177381B2 (ja) 画像生成方法、画像生成装置、および画像生成プログラム
US20040204238A1 (en) Game device, game machine control method and information storage medium
US20130311307A1 (en) Context-aware 2d advertisement system for games
CN103460234A (zh) 用于在便携式计算装置的视频游戏内产生动态广告的方法和系统
CN102113003A (zh) 用于交互式环境的辅助内容资产的基于提示的流式传输
US20070257914A1 (en) Image Processing Device, Image Processing Method, And Information Storage Medium
JP5516800B2 (ja) 画像処理プログラムおよびコンピュータ読み取り可能な記録媒体
CN110506247B (zh) 用于虚拟现实环境内的交互式单元的系统和方法
US7348978B2 (en) Image processing
JP5293582B2 (ja) 画像処理プログラムおよびコンピュータ読み取り可能な記録媒体
JP4303395B2 (ja) ゲーム装置および情報記憶媒体
JP3951246B2 (ja) ゲーム装置
JP4802254B2 (ja) ゲーム装置及び情報記憶媒体
JP2012173784A (ja) プログラム、情報記憶媒体及び画像生成装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10835868

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010835868

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE