WO1998035734A1 - Dispositif et procede pour le traitement des images - Google Patents

Dispositif et procede pour le traitement des images Download PDF

Info

Publication number
WO1998035734A1
WO1998035734A1 PCT/JP1998/000677 JP9800677W WO9835734A1 WO 1998035734 A1 WO1998035734 A1 WO 1998035734A1 JP 9800677 W JP9800677 W JP 9800677W WO 9835734 A1 WO9835734 A1 WO 9835734A1
Authority
WO
WIPO (PCT)
Prior art keywords
game
image processing
polygon
virtual
character
Prior art date
Application number
PCT/JP1998/000677
Other languages
English (en)
French (fr)
Inventor
Norio Haga
Tadanobu Numata
Satoshi Mifune
Makoto Yamamoto
Kaori Yamamoto
Masaki Yamashita
Original Assignee
Sega Enterprises, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP9034163A external-priority patent/JP2955989B2/ja
Application filed by Sega Enterprises, Ltd. filed Critical Sega Enterprises, Ltd.
Priority to KR1019980708368A priority Critical patent/KR100300832B1/ko
Priority to DE69833482T priority patent/DE69833482T2/de
Priority to EP98904377A priority patent/EP0901803B1/en
Priority to US09/171,236 priority patent/US6989829B2/en
Publication of WO1998035734A1 publication Critical patent/WO1998035734A1/ja
Priority to US12/329,648 priority patent/US7737968B2/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6623Methods for processing data by generating or executing the game program for rendering three dimensional images for animating a group of characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/663Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating liquid objects, e.g. water, gas, fog, snow, clouds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6653Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6684Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dynamically adapting its position to keep a game object in its viewing frustrum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8011Ball

Definitions

  • the present invention relates to an image processing technology applicable to an image processing device such as a TV game machine that executes a soccer game or the like by arranging a character (an object in a broader sense) in a virtual space.
  • image processing that makes the game more realistic and realistic by executing the processes of character gaze control, spectator behavior control, and fog control for screen color adjustment About technology.
  • the present invention provides an image processing for appropriately controlling the direction of an object arranged in a game field and the angle of a virtual camera for relaying the progress of a game so as to provide an image that is easier for a player to view.
  • Background art
  • a video game machine its components include peripherals including operating devices such as pads and joysticks and display monitors, and image processing, sound processing, and peripherals. It has a processing unit equipped with a CPU that executes communication and the like, so that the game can be interactively developed with the operation device.
  • a game device that can play a soccer game.
  • a football stadium with fields and spectator seats (stands) is constructed in a three-dimensional virtual space, and two teams of characters (display objects, youngsters) are set up on the fields.
  • An object is a virtual soccer game.
  • motion calculation, ball processing, collision (hit) processing, robot processing, field processing, etc. are sequentially executed in accordance with operation information from the player.
  • the game development reflecting the operation of the player is displayed on the screen.
  • the method of controlling the audience's behavior is as follows: 1) In the same way as animation (video), a large number of moving audience image data are prepared for each frame in advance, and the images are prepared according to the competition scene. 2) Polygon data representing the spectators are prepared and the polygon is moved according to the competition scene.
  • the conventional device dries the character with the face turned in the running direction. Just bull.
  • the dribbling player measures the timing to kick out and looks for the zone or team to kick out Therefore, it performs the operation of looking at (looking over) the same or different direction as the traveling direction. In other words, it is hard to say that the actual behavior of a soccer player is actually simulated only by controlling the motion of running while dribbling. But it is monotonous and unnatural.
  • the audience when the audience is represented by polygons, the number of spectators that can be represented by polygons is significantly limited in view of the control burden. If the computational load for control is neglected, it is possible to represent each individual audience with polygons and control the movement of each audience individually, but in practice, for many audiences, It is difficult. So, by all means, only the specific (selected) audience that will be the main audience will be represented by polygons. In practice, the audience makes different moves, but sometimes they do the same in a group. For this reason, even if only a specific audience is moved to the main audience, there is no power and lack of presence.
  • the virtual camera that relays the game makes it easier to play the game depending on the viewing direction of the camera that looks at the character (or object). Are different. Also, the ease of playing the game varies depending on the position of the virtual camera. Ma It is also desirable that the three-dimensional expression of the object be emphasized according to the development area of the game.
  • the player when trying to display a game in a virtual three-dimensional space on the screen, the player can move the viewpoint away from the virtual camera to make the game field easier to play the game. It is desirable to display it on the screen as wide as possible.
  • the width of the line marker indicating the coating range of the sports game is smaller than that of the entire virtual space, and may be lost due to the relationship with the screen resolution.
  • the present invention has been made in view of the above-described problems, and can perform processing that further enhances the realism and realism of a game in image processing such as a soccer game. It is an object of the present invention to provide an image processing apparatus and a method thereof that can sufficiently meet the demands of today's needs.
  • the present invention provides a more accurate simulation of the movement of a character so as to approach the movement of an actual player in the image processing of a game related to a soccer game or the like, thereby realizing a realistic feeling of the game.
  • the purpose is to improve.
  • the present invention relates to image processing of a game related to a soccer game or the like, wherein the environment around the time period when the player actually operates the game device is set.
  • the purpose of the present invention is to provide a screen in which the color display is adjusted according to the light source conditions, and to enhance the sense of reality of the game.
  • the present invention provides a new means for suggesting a game situation to a player by using accurately simulated character movements, and a new means for adjusting the difficulty level of a game.
  • the purpose is to provide.
  • an object of the present invention is to provide an easy-to-read game screen in which a display of an object necessary for a player is secured.
  • the present invention controls the position of the virtual camera and the line of sight of the camera in accordance with the area of the game field and the relative positional relationship between the character and the virtual camera. It is an object of the present invention to provide an image processing device that forms a screen having a more preferable appearance in an area. Disclosure of the invention
  • an image processing device of the present invention is a device for displaying an image of a behavior of a character imitating an athlete in a virtual three-dimensional space, and a target object (virtual object) having a relationship with the character through a game. And a determination means for determining whether the mutual positional relationship (such as distance) between the characters and the relationship regarding the game content are in a predetermined state that meets predetermined conditions, and the determination means determines whether the predetermined state is satisfied.
  • a line-of-sight control means for directing the line of sight of the character to the target body when the judgment is made (the virtual point is set as a gazing point); Instead of this target point, any virtual point in the virtual space may be used.
  • the game is a soccer game
  • the target is a ball of the soccer game
  • the line-of-sight control means may include means for controlling rotation of the torso and waist of the character following rotation of the head of the character.
  • the determining means may include a means for calculating an angle from the character to the target based on the coordinate values of the character and the target in the virtual three-dimensional space.
  • the above-mentioned judging means includes a judging means for judging to which of the above-mentioned plurality of target objects the gaze should be directed in accordance with the situation of the game. It is a thing.
  • the image processing method is a method for displaying an image of a character's behavior simulating a player in a virtual three-dimensional space, wherein a target object having an interest in the character through a game and the character is displayed. It is determined whether the mutual relationship or the relationship related to the game content is in a predetermined state that satisfies a predetermined condition. When the predetermined state is determined, the gaze of the character is directed to the target object.
  • the image processing method determines whether or not a predetermined condition is satisfied while the character is performing the first behavior.
  • the behavior is executed, thereby informing (or suggesting) information on the progress of the game to the player.
  • the image processing device of the present invention is a device for displaying an image of the behavior of a spectator of a stand facing a stadium in a virtual three-dimensional space, and a plurality of polygons to which textures imitating a plurality of spectators are individually attached.
  • the plurality of polygons are virtually superimposed in a state in which the plurality of polygons forming each of the plurality of objects are moved in the order of the objects in the evening.
  • the polygon oscillating means synchronizes and moves the plurality of objects for each object periodically.
  • the moving direction is preferably the vertical direction or the horizontal direction of the polygon.
  • the image processing method of the present invention is a method for displaying an image of the behavior of a spectator in a stand facing a stadium in a virtual three-dimensional space, and includes a plurality of polygons to which textures imitating a plurality of spectators are individually attached. Are superimposed virtually, and the polygons are moved in a direction intersecting the overlapping direction.
  • the image processing device of the present invention is a device that simulates a game in a virtual three-dimensional space and displays an image, and a detection unit that detects a time at which a player plays the game, and a detection unit that detects a time at which the player plays the game.
  • the adjusting means stores information of a predetermined screen color state in at least two reference time zones that exhibit brightness most suitable for the game in a day as a reference value.
  • the display screen of the game starts from the one corresponding to the reference value.
  • the image processing method of the present invention provides a method for simulating a game in a virtual three-dimensional space.
  • the player detects the actual time of the day in which the player executes the game, and adjusts the screen color of the image according to the actual time.
  • the image processing device of the present invention arranges an object in a virtual space formed in a convenience system, develops a game while controlling the movement of the object in accordance with an input operation and a predetermined rule,
  • an image processing apparatus for displaying a state in the virtual space as a screen viewed from a virtual camera, a polygon disposed on a reference plane serving as a reference in the virtual space, the polygon and the virtual Discriminating means for discriminating the positional relationship between the cameras, and polygon inclining means for inclining the polygon so that the area of the polygon seen from the virtual camera increases in accordance with the discrimination result.
  • the reference plane is ground
  • the polygon is a polygon forming a line arranged on the ground.
  • the polygon is defined by a plurality of sides, and the polygon inclining means changes a coordinate value of a vertex belonging to one of the opposing sides of the polygon.
  • the image processing apparatus of the present invention arranges an object in a virtual space formed in the viewing system and develops a game while controlling the movement of the object according to an input operation and a predetermined rule. And determining whether the object exists in a specific area in the virtual space in an image processing apparatus that displays a state in the virtual space as a screen viewed from the virtual camera. Determining means; and camera angle adjusting means for adjusting the angle of the virtual camera based on the determination result.
  • the camera angle adjusting means adjusts the angle of the virtual camera based on the determination result and the moving direction of the object.
  • the camera angle adjusting means adjusts the angle of the virtual camera in at least one of the horizontal direction and the vertical direction in the virtual space.
  • the image processing apparatus of the present invention arranges an object in a virtual space formed in a computer system and develops a game while controlling the movement of the object according to an input operation and a predetermined rule.
  • an image processing apparatus for displaying a state in the virtual space as a screen viewed from a virtual camera a determination is made to determine whether the object exists in a specific area in the virtual space.
  • the image processing apparatus of the present invention generates a two-dimensional image of a virtual space formed by a three-dimensional shape model including a plurality of polygons as viewed from a virtual camera at an arbitrary position, and displays the generated two-dimensional image on a display device.
  • a line-of-sight vector indicating a direction of the virtual camera (a line-of-sight direction of the camera) and a surface direction of a predetermined polygon arranged in the virtual space are indicated.
  • the image processing apparatus of the present invention generates and displays a two-dimensional image of a virtual space composed of a three-dimensional shape model composed of a plurality of polygons as viewed from an arbitrary viewpoint (or virtual force camera).
  • the polygon includes a loss prevention polygon having an attribute of loss prevention, including data for operating the polygon loss prevention program
  • the loss prevention program includes: Position determining means for determining the mutual positional relationship between the disappearing prevention polygon and the viewpoint; and coordinate value changing means for changing a coordinate value of a vertex of the loss preventing polygon according to a result of the determination by the position determining means.
  • a erasure prevention executing means for executing the erasure prevention program when the polygon drawn on the display device is the erasure prevention polygon.
  • an information recording medium records a program that causes a computer system to function as any one of the above-described image processing apparatuses.
  • FIG. 1 is a block diagram showing a functional configuration of a game device according to one embodiment of the present invention.
  • Fig. 2 is a rough flowchart showing the outline of the processing of the CPU.
  • FIG. 3 is a diagram illustrating angle calculation in gaze control.
  • FIG. 4 is a diagram illustrating angle calculation in gaze control.
  • FIG. 5 is a diagram illustrating a state of gaze control of a character.
  • FIG. 6 is a schematic flowchart showing an example of gaze control.
  • FIG. 7 is a schematic flowchart showing an example of gaze control together with FIG.
  • FIG. 8 is a diagram for explaining the data structure of an audience spectator using polygons.
  • FIG. 9 is a schematic flowchart showing an example of the process of controlling the behavior of the audience.
  • FIG. 1 is a block diagram showing a functional configuration of a game device according to one embodiment of the present invention.
  • FIG. 2 is a rough flowchart showing the outline of the processing of the CPU.
  • FIG. 3 is
  • FIG. 10 is an explanatory diagram showing one example of spectator behavior control.
  • FIG. 11 is an explanatory diagram showing another example of an example of spectator behavior control.
  • Figure 12 shows another example of spectator behavior control. It is explanatory drawing which shows one frame.
  • FIG. 13 is an explanatory diagram showing another frame of an example of spectator behavior control.
  • FIG. 14 is an explanatory diagram showing another example of spectator behavior control.
  • FIG. 15 is an explanatory diagram showing another example of the audience behavior control.
  • FIG. 16 is an explanatory diagram showing another frame of an example of spectator movement control.
  • FIG. 17 is an explanatory diagram showing another example of spectator behavior control.
  • FIG. 18 is a schematic flowchart according to an example of fog control.
  • FIG. 19 is a diagram for explaining time zone division for fog control.
  • FIG. 19 is a diagram for explaining time zone division for fog control.
  • FIG. 19 is a diagram for explaining time zone division for fog control.
  • FIG. 19 is a diagram for explaining time zone division for fog
  • FIG. 20 is a diagram showing an example of a display screen by fog control.
  • FIG. 21 is a diagram showing another example of a display screen by fog control.
  • FIG. 22 is a schematic diagram of an image displayed on the screen as a result of the gaze control of the character.
  • FIG. 23 is an explanatory diagram showing an example of the overall configuration of the game device.
  • FIG. 24 is a block diagram illustrating a circuit configuration of the game device.
  • FIG. 25 is an explanatory diagram illustrating a virtual game space formed in the game device.
  • FIG. 26 is an explanatory diagram for explaining the camera position and the appearance of the line drawn on the ground.
  • FIG. 27 is an explanatory diagram for explaining a process of raising the vertex of the back edge of the line 'polygon so that the line can be seen.
  • FIG. 28 is a flowchart illustrating the line loss prevention processing.
  • FIG. 29 is an explanatory diagram for explaining a positional relationship between a vertex of a line 'polygon and a camera.
  • FIG. 30 is an explanatory diagram for explaining a positional relationship between a vertex of a line polygon and a camera.
  • FIG. 31 is an explanatory diagram for explaining an example of data of a vertex of a line polygon.
  • FIG. 32 (a) is an explanatory diagram for explaining the movement of the player in the back and front directions.
  • FIG. 3B is an explanatory diagram for explaining the direction of the line of sight vector of the camera at that time.
  • Fig. 33 Fig.
  • FIG. 3 (a) is an explanatory diagram for explaining the movement of the player to the left. is there.
  • FIG. 7B is an explanatory diagram for explaining the direction of the line of sight vector of the camera at that time.
  • FIG. 34 is an explanatory diagram for explaining the rightward movement of the player.
  • FIG. 7B is an explanatory diagram for explaining the direction of the line of sight vector of the camera at that time.
  • FIG. 35 is a flowchart for explaining the angle adjustment processing of the camera in the left-right direction.
  • FIG. 36 is a continuation of the flowchart for explaining the camera left / right angle adjustment processing.
  • FIG. 37 is an explanatory diagram for explaining a case where the gazing point of the camera is at the player.
  • FIG. 38 is an explanatory diagram explaining an example of camera angle adjustment when the fixation point is within 8 m from the penalty area.
  • FIG. 39 is an explanatory diagram for explaining a case where the traveling direction of the player is the forward direction.
  • FIG. 40 is an explanatory diagram for explaining a case where the traveling direction of the player is the depth direction.
  • FIG. 41 is a diagram for explaining an example of the direction of the line-of-sight vector of the camera when the traveling direction of the player is the back / front direction.
  • FIG. 42 is an explanatory diagram for explaining an example in which the player moves to the left.
  • FIG. 43 is an explanatory diagram for explaining the camera angle adjustment when the player moves to the left.
  • FIG. 43 is an explanatory diagram for explaining an example where the player moves to the right. .
  • FIG. 39 is an explanatory diagram for explaining a case where the traveling direction of the player is the forward direction.
  • FIG. 40 is an explanatory diagram for explaining a case where the traveling direction of the
  • FIG. 45 is an explanatory diagram for explaining camera angle adjustment when the player moves rightward.
  • FIG. 46 is an explanatory diagram for explaining an example when the gazing point of the camera is at the ball.
  • FIG. 47 is an explanatory diagram illustrating an example of a camera adjustment angle when the ball and the player are separated from each other by 15 m or more.
  • FIG. 48 is an explanatory diagram explaining another example of the adjustment angle of the camera when the ball and the player are separated by 15 m or more.
  • Fig. 49 is an explanatory diagram explaining the case where the point of regard of the camera is within 8 m of the penalty area.
  • Figure 50 shows the camera angle adjustment when the camera's gaze point is within 8 m of the penalty area.
  • FIG. 51 is an explanatory diagram explaining a case where the point of regard is not within 8 m of the penalty area.
  • Fig. 52 is an explanatory diagram explaining the camera angle adjustment when the point of gaze is not within 8 m from the penalty area.
  • FIG. 53 is a flowchart illustrating the adjustment of the vertical angle of the camera.
  • FIG. 54 is an explanatory diagram for explaining the adjustment of the vertical angle of the camera.
  • Fig. 55 is a flowchart explaining the zoom adjustment of the camera.
  • FIG. 56 is an explanatory diagram illustrating an area where a player on the screen exists.
  • Fig. 57 is a flowchart explaining another example of object extinction prevention.
  • FIG. 58 is an explanatory diagram illustrating prevention of object disappearance.
  • FIG. 59 is another example of a texture containing an audience
  • Figure 60 is yet another example.
  • FIG. 61 shows the texture display mode when the polygons with the respective textures are superimposed and displayed
  • FIG. 62 shows one mode of moving each polygon surface.
  • FIG. 63 shows still another embodiment.
  • FIGS. 1 to 22 for the first embodiment, FIGS. 23 to 31 for the second embodiment, and FIGS. 32 to 5 for the third embodiment will be described. This will be described with reference to FIG. These embodiments relate to a game device in which the image processing device of the present invention is integrated.
  • the application software here is an example of software for a game of ska, it can be similarly applied to other game software such as a baseball game, a softball, and a basketball.
  • FIG. 1 shows an outline of a block configuration of the game device according to the first embodiment.
  • This game device has a CPU (Central Processing Unit) 1.
  • R ⁇ M 2, work RAM 3, input device 4, and video display processor (VDP) 5 are connected to CPU 1 via bus BUS.
  • the CPU 1 sequentially executes game programs stored in the ROM 2 in advance.
  • Various processes according to the present invention are realized while the VDP 5 executes a program stored in the ROM 2 at a constant cycle.
  • the processes relating to the present invention include three processes of character line-of-sight control, spectator behavior control, and fog control as color adjustment of the display screen.
  • ROM 2 stores character polygon data, as well as programs processed by the CPU 1 and VDP 5, and programs and fixed data necessary for the three processes (polygon departure for the audience, fog data). Is stored in advance.
  • the work RAM 3 temporarily stores various data during game execution.
  • the input device 4 includes an operation device operated by the player, such as a joystick, and is used to input data necessary for the progress of the game, for example, when controlling movement of a character or motion.
  • the VDP 5 is connected to a video RAM (VRAM) 6, a drawing device 7, and a working RAM 8.
  • VRAM 6 stores the polygons from ROM 2 overnight.
  • Each of the polygon data includes coordinate data for the number of vertices to be displayed and color data given as a color palette of those vertices.
  • VDP 5 has a digital signal processor (DSP).
  • DSP digital signal processor
  • the VDP 5 also starts and executes a program dedicated to image processing stored in the ROM 2 in advance in response to a timing signal of a fixed cycle such as frame switching timing.
  • the drawing device 7 is connected to a texture memory R 0M 9 and a frame buffer memory 10.
  • the drawing device 7 pastes the texture on the polygon transformed overnight, and writes it in the frame buffer memory 10 as the pixel data for one frame (screen).
  • the frame buffer memory 10 is connected to an image display device 12 such as a CRT via a D / A converter 11.
  • the D / A converter 11 functions as a video signal generating circuit, and reads out pixel data from the frame buffer memory 10 and converts it into an analog signal.
  • the converted data is sequentially sent to the display device 12 as a video signal, and an image is displayed.
  • the game device includes a fog circuit 13 and a real-time clock 14 connected to the bus BUS.
  • the real-time clock 14 has a clock and a calendar function, and gives the actual actual time data to the CPU 1.
  • the fog circuit 13 sets the color of the display screen separately according to the time at which the game device is operated (that is, the actual time of day when the player plays the game), which is called a fog day. It performs a so-called “fog function” by masking with adjusted color data, and generates a fog image under the instruction of CPU 1 and sends it to VDP 5.
  • FIG. 2 shows an example of the processing for each frame executed by the CPU 1.
  • the CPU 1 receives a character's motion command (running, changing the running direction, kicking a ball, etc.) corresponding to the operation information of the player from the input device 4, and the motion of the character in the three-dimensional virtual space is received. Perform the calculation (S1).
  • a character's motion command running, changing the running direction, kicking a ball, etc.
  • CPU 1 advances the position of the soccer ball, The processing of the ball in the original virtual space is performed (S2), and the processing of the collision in the three-dimensional virtual space is performed (S3).
  • this collision processing various collision judgments and processing between the character and the ground, between the characters, between the character and the ball, and the like are executed.
  • the CPU 1 performs a behavior process of a character (robot) operated by the player in a virtual three-dimensional space corresponding to operation information from the player (S4).
  • the CPU 1 performs a process of controlling the gaze of the character (S5).
  • This gaze control is one of the features of the present invention, and aims to diversify the movement of the character during a game and increase the real feeling of a soccer game. Details of this processing will be described later.
  • the CPU 1 After the processing of the line-of-sight control, the CPU 1 processes the field of the soccer field (S6).
  • the processing of this field refers to the position of each character existing in the field of the virtual three-dimensional space, and determines which character is in the off-side line, which character is in the goal area, and so on. Judgment is performed, and necessary processing relating to tactics in proceeding with the game is commanded.
  • the CPU 1 performs processing for controlling the behavior of the spectator (S7), and further issues a command for fog control (S8).
  • S7 processing for controlling the behavior of the spectator
  • S8 processing for fog control
  • the process of controlling the behavior of the spectator is to express the spectator's behavior in a variety of ways while suppressing the computational load, and to improve the sense of realism and presence. The details will be described later.
  • the fog control process uses the fog function described above, in which the player is actually playing a game. The goal is to enhance the sense of realism and reality by controlling Details will be described later.
  • S9 other necessary processing is executed (S9). Note that only the point of gaze of the character is determined by the viewpoint control in step S5, and the motion of actually turning the character may be performed in the next processing time S1. Step S 4 may be similarly performed. In other words, a time lag of up to about 1/60 second can be provided from the acquisition of the night, the determination of the point of gaze, and the actual movement in the relevant direction.
  • CPU 1 repeats the above processing for each frame. Therefore, as the game progresses, CPU 1 sends a command such as a motion corresponding to the player's operation to VDP 5. Under the control of CPU 1, VDP 5 is also supplied with the required polygonite from R • M 2. Therefore, VDP 5 temporarily stores the polygon data in VRAM 6 and converts the polygon data from virtual three-dimensional space to perspective two-dimensional space according to the command, and converts the converted coordinates into a rendering device. Pass to 7. The drawing device 7 pastes a texture on the polygon after the coordinate conversion, and writes the texture into the frame buffer memory 10. As a result, an image in which the voxel data is updated for each frame is displayed on the display device 12.
  • This process is a process executed in step S5 of FIG. 2 described above.
  • the coordinates of the character C is a three-dimensional virtual space (X p, y p, z p) located, also the coordinates of the soccer ball B same as the object space (X t, y t, z t) in the It shall be located.
  • the angle 6 y and the distance L on the X-z plane between the character C and the ball B can be calculated.
  • the horizontal axis is the distance L between the character C and the ball B
  • the vertical axis is the y axis
  • the geometry can be assumed as shown in FIG. That is, the coordinates (y p, L p) of the calibration La Kuta C and the coordinates of the ball B (y t, L t) can be set. in this case,
  • the angle y at which the character C looks at the ball B on the y-L plane can be calculated.
  • L determined by the parameters Isseki of ⁇ x.
  • the target object is not only a ball but also an opponent player, a ball, or a referee. That is, the coordinates of the own character, the coordinates of a predetermined point of the opponent player or the referee, and the coordinates of the goal, for example, the center position, may be given.
  • the gaze direction is determined in this way.
  • the head HD, the torso BD, and the waist HP of the character C are designated as the parts to which the body is turned (rotated) during the gaze control.
  • the rotation timing of the head ⁇ torso ⁇ waist may be shifted so as to express the rotation of the torso BD when the rotation angle of the head HD reaches a certain value.
  • FIGS. An example of the gaze control process determined in this way is shown in FIGS. This process is performed by the CPU 1.
  • the gaze control method of the character can take various forms. What is shown here is merely an example, and the present invention is not limited to the examples.
  • This gaze control process may be performed for all players (characters) on the field, or only for characters that are within the display field of view from the viewpoint of reducing the computational load. You may. Furthermore, even if the character is within the display field of view, it is particularly important to pay attention to the character (for example, when performing a motion related to a ball). This may be performed only for a specific character such as a character that is operated by a player (a character operated by a player).
  • YES running
  • N0 not running
  • Y E S it is further determined whether or not the opposing team has the ball (S22). If this judgment is YES (the opponent team has it), it is further judged whether or not the opponent team's character is dribbling (S23). If the determination is YES (dribbling), it is further determined from the distance calculation value whether or not the dribbling character is within 3 meters (S24).
  • the character being controlled now looks at the ball (S 25).
  • the mode of 1) is, for example, suitable for turning the line of sight to the ball while running.
  • step S 24 the character that is currently being controlled turns its gaze to the other party who is dripping (S 26 ).
  • the rotation control at this time may take any of the modes described with reference to FIG. 5, and may be selected according to the angle relationship with the partner at that time.
  • step S27 If N 0 (not dribble) in step S 23 and N ⁇ (the opposing team does not have the ball) in step S 22, the current ball behavior is “ It is determined whether or not it is a "high ball” (S27). "High ball” here refers to the state where the ball is higher than the character's head. This judgment is YES (highball) In this case, the character to be controlled is instructed to look at the ball (S28). On the other hand, when the answer is NO (not highball), the gaze control is not performed, and the gaze depending on the motion is maintained (S29). For example, since this character is running at least, keep his gaze in the direction of travel.
  • step S21 If it is determined in step S21 that the vehicle is not traveling, that is, if the vehicle is in a dribble state (S30 in FIG. 7) or if it is in the sunset ring area. (S31) are sequentially determined. If the answer is YES in step S31, it means that the player is in the dribble and in the ringing area, and naturally the goal is the natural flow. Therefore, in this case, the gaze of the character is directed to the goal (S32).
  • step S30 When the player is not in the ring area in step S31, for example, the player turns his / her gaze to the top athlete once every four seconds (S33). Aim to look at the goal at a fixed rate (S3 4).
  • N 0 not dribble
  • step S 30 it is determined whether or not setup is being performed (S 35). If this judgment is YES (during set play), it is further determined whether or not the opponent of the pass is determined and the kick is being made (S37), and if the judgment is YES, the opponent of the pass is judged.
  • the gaze is directed (S37), and when NO, special gaze control is not performed, and the gaze depending on the motion is secured (S38) o
  • FIG. 22 schematically shows a screen displayed as a result of the gaze control of the character.
  • player A is a passing phase. Look in the direction of the player (foot).
  • Player B looks in the direction of the ball being passed.
  • the gaze control of the character is performed in this manner, a simulation that is very close to the behavior performed by the competitor in the actual soccer game can be performed.
  • the line of sight does not suddenly kick the ball in another direction, for example, while facing the running direction.
  • the character kicks in advance or turns his or her gaze in the direction you want to kick out, so that the character's behavior can be expressed more realistically, the sense of presence is enhanced, and the game has high game characteristics.
  • when controlling the gaze not only the head is rotated, but also the torso and waist as required, or simultaneously, so that the behavior of the gaze control can be more realistic. .
  • the gaze direction of the character implies (hints) the hint that the player (player) will perform the next operation. For example, if a character in a dribble starts to look backwards frequently, the opponent's character may be approaching from behind, so the player (player) must avoid this pursuit. You will come to think. Therefore, the behavior of the character can convey (implicit) the situation of the game to the player (player).
  • image data representing an audience according to the present invention
  • the audience is sitting in the m (> 2) row of stands where the seats are higher as you move backward, and cut out the n (> 2) rows of this m row of audience.
  • the audience of “m 'columns X n rows” for m, columns (> 0) is expressed by pasting textures for multiple audiences on one rectangular polygon.
  • a to D, A 'to D, and A "to D" indicate 12 rectangular polygons, and each polygon advances in the depth direction of the stand.
  • the second polygon B which is virtually located behind the first polygon A (in the depth direction), is, for example, an initial state in which it is raised by one row
  • the third polygon C is, for example, The initial state is a state in which one row is up
  • the initial state of the fourth polygon D is, for example, one row up.
  • a group of A to D, A 'to D,, and A “to D” polygons occupy a stand, for example, an audience of “14 columns x 4 rows”.
  • the first four polygons A to D are related to the spectator's pattern.
  • the next four polygons A ' ⁇ D' are graphically interconnected with the audience, and the last four polygons A " ⁇ D" are graphically interconnected with the audience
  • 12 polygons A ⁇ D, A ' ⁇ D,, A " ⁇ D” The first, fifth and ninth three polygons A, A 'and A "constitute the same object 0B1 that is moved in the same way.
  • the second, sixth and tenth polygons Three polygons B, B ', and B "constitute the same object 0B2 that is moved in the same manner.
  • the three polygons C, C ', and C "of the first, third, seventh, and first pieces of the same object 0 B3 are replaced with the third polygons D, D, and D of the fourth, eighth, and second sheets.
  • D "make up the same object ⁇ B4.
  • the spectacle of the audience per object need not be relevant. That is, the audience data of the present invention has one feature in that a plurality of (pieces) polygons are separated from each other in a virtual space, but form the same object. In addition, the design of the audience for each object may not be related.
  • CPU 1 determines a group of polygons that control the behavior of the polygons of the entire audience (S41).
  • a group of spectator polygons set up on the side of the team they support for example, 12 polygons A to 10 in FIG. 10.
  • D, A 'to D,, A "to D,) are selected.
  • a plurality of polygon groups may be selected.
  • the CPU 1 selects a behavior pattern for moving the determined (selected) polygon group (S42).
  • This behavior pattern here, a pattern of moving one or more groups of polygons vertically (vertically) or horizontally (horizontally) is prepared.
  • the CPU 1 performs a process of moving each of one or more groups of polygons along the selected behavior pattern (S43a, ..., S4). 3 n) 0 Examples of how to move the polygon are shown in Figs.
  • the polygon group in these figures exemplifies one group, and has the same data configuration as in FIG. Assuming that the state before moving the polygon is the state shown in Fig. 10, from this state, for example, every time a frame is updated, Fig.
  • the first, fifth, and ninth three polygons A, A ', ⁇ "before the formation of the first object OB1 are virtualized.
  • the three polygons A, A ', and A "of object OB1 are further raised (up).
  • the three polygons B, B,,: B "forming the second, sixth and tenth objects forming the second object OB2 are raised (up).
  • the polygons A, A ', A "of the object ⁇ B1 are lowered downward in the virtual space (do wn), and the port of the second object 0B2 is updated.
  • the CPU 1 Each time the CPU 1 moves one or more groups of polygons (for example, from the state of FIG. 10 to the state of FIG. 11), the CPU 1 converts the audience data that can be seen from the virtual camera into the VDP 5 (S44). Thereafter, the process returns to step S41 again, and the above-described behavior pattern control process is repeated each time a frame is updated. It should be noted that the processing for controlling the behavior of the audience is performed for each of a plurality of display frames, and such processing can be thinned out to simplify the processing. The processing of controlling the behavior of the audience may be performed in a specific mode (for example, at the time of a goal).
  • the display object in the three-dimensional virtual space is displayed by being transparently transformed from a predetermined virtual camera viewpoint (which can be moved by a player) in the virtual space to the display screen.
  • a predetermined virtual camera viewpoint which can be moved by a player
  • the viewpoint corresponding to the position of the virtual camera, the viewpoint corresponding to the projected image, and the viewpoint for controlling the gaze of the character are different objects just in case.
  • a plurality of polygons are associated as one object, and each polygon of such a plurality of objects is grouped in a transverse manner, and all of the polygons are moved one after another to be associated. Since the patterns are given in texture for each group, simply moving each polygon on an object-by-object basis makes it possible to express the various movements of the constantly moving audience more realistically. Since the operation is performed on an object-by-object basis, the design of the software program can be simplified, for example, by reducing the number of commands. In addition, the behavior control itself is simplified, and the calculation load for the control is reduced. P98 / 00 77
  • the amount of data to be handled can be significantly reduced while expressing the real behavior that is comparable to displaying individual audiences with polygons. Therefore, the amount of memory for storing the audience data is small. As a matter of course, the number of events can be reduced and the expression can be made more realistic and realistic than when displaying the behavior of the audience in a moving image.
  • the fog control is a process of superimposing a kind of mask data having a color value on image data. By doing so, it is intended to obtain a more realistic screen display that cannot be obtained by simply reflecting the change in brightness due to the change in the daylight on the screen using only the conventional brightness data.
  • This process is executed by the CPU 1 as shown in FIG. 18, for example.
  • the processing of FIG. 18 may be executed by the VDP 5.
  • the CPU 1 reads the current time, that is, the standard time at which the player (player) is operating the game device, from the real-time clock 13 (S51). Next, it is determined whether or not the time deviates from a predetermined reference time zone of day, evening, and night (S52).
  • the reference time zones for day, evening, and night are set, for example, as shown in Figure 19.
  • the reference time zone in the daytime is relatively long at 6: 0 to 16:30
  • the reference time zone in the evening is 17: 0 to 18:30
  • the reference time zone is at night.
  • the reference time zone is set to 19:30 to 5:30.
  • the reason why the reference time zone in the daytime is set longer is that a difference in the game result between a player who plays near the morning and a player who plays near the evening is affected by the brightness of the screen. This is to prevent them from coming out.
  • step S52 If the judgment in step S52 is YES, the day, evening, and night standards
  • the parameter value of the fog data set in advance for each time zone is read from the ROM 2 (S53). There are three parameters: red, blue, and green fog color codes, offset values (indicating fog density), and density (how fog is applied to depth). For the reference time zone, the parameters are determined in advance so that the values of the parameters will be appropriate.
  • CPU 1 calculates the fog time and outputs the fog time to VDP 5 as a mask time (S54, S55).
  • the difference between the current time and the reference time zone is calculated (S56). For example, if the time is 5:45 in the morning, there is a 15-minute difference between the base time at night and that at noon.
  • the CPU 1 calculates the parameter values (the color codes, offset values, and densities of R, G, and B) of the fog time in the two reference time zones that exist with the time difference between them. Read it out (S57). Assuming that the time is 5:45, for example, the parameter values in the nighttime and daytime reference time zones are read out.
  • the interpolation calculation of the parameter value with respect to the offset value and the density is performed (S58). For example, if the time is, for example, 5:45, the offset value and density are just the average of the offset value and the density of the offset value and density in the reference time zone at night and day. If the time is closer to one of the reference time zones, the weight of the closer part is weighted and averaged (interpolated).
  • the brightness of the light source is more realistic. It can express changes in pod spectrum.
  • the subtle brightness between the reference time zones such as when a sunrise or a sunset appears, for example, can be processed from the interpolation parameters using the two reference time zones of daytime, evening, and nighttime.
  • a color state corresponding to the color state that is most suitable for the day, evening, and night game is created in advance, and the color that matches the game playing time is changed to day / evening, evening / night, and color.
  • the color state is interpolated between the night / day reference values (specifically, color mixing processing; interpolated luminance values may be added between the two reference values). Decide. For this reason, unlike the case where the adjustment is performed only with the luminance value alone, the screen does not become dark and the operation becomes difficult.
  • the start point (one reference value) and the end point (the other reference value) of the color adjustment are predetermined, and the state suitable for the game is set, so that you can play at any time.
  • FIG. 23 is an external view of a video game machine using an image processing device according to another embodiment of the present invention.
  • a video game machine main body 50 has a substantially box shape, and a game processing board and the like are provided inside thereof.
  • two connectors 60a are provided on the front of the video game console 50, and a PAD 60b for game operation is provided with a cable 60c on these connectors 60a. Connected via If two players enjoy the game, two PAD6Ob are used.
  • a cartridge I / F 50a for connecting the R0M cartridge and a CD-R0M drive 50b for reading CD-ROM Is provided at the top of the video game console 50.
  • a video output terminal and an audio output terminal are provided on the back of the video game machine main body 50. This video output terminal is connected to the video input terminal of the TV receiver 80 via the cable 70a, and the audio output terminal is connected to the audio receiver of the TV receiver 80 via the cable 70Ob. Connected to the input terminal.
  • the user operates the PAD 6 Ob to control the TV receiver 8 You can play the game while watching the screen projected on the screen.
  • FIG. 24 is a block diagram illustrating an outline of a TV game machine according to the present embodiment.
  • This image processing device has a CPU block 51 that controls the entire device, a video block 52 that controls the display of game screens, a sound block 53 that produces sound effects, and a CD— It is composed of subsystems 54 for reading ROM.
  • CPU block 51 is SCU (System Control Unit) 100, main CPU 101, RAM 102, ROM 103, cartridge I / F 50a N sub CPU 104, CPU bus 103, etc.
  • the main CPU 101 controls the entire apparatus.
  • the main CPU 101 has an arithmetic function similar to a DSP (Digital Signal Processor) inside, and can execute application software at high speed.
  • the RAM 102 is used as a memory of the main CPU 101.
  • the ROM 103 stores an initial program for initialization processing and the like.
  • the SCU 100 controls the buses 105, 106, and 107 to control the main CPU 101, VDP 120, 130, DSP 140, and CPU. Data is smoothly input and output between 1 and 4 etc.
  • the SCU 100 has a DMA controller inside, and can transfer the split data during the game to the VRAM in the video block 52. This makes it possible to execute application software such as games at high speed.
  • the cartridge I / F 50a is for inputting application software supplied in the form of a ROM cartridge.
  • the sub CPU 104 is called SMPC (System Manager & Peripheral Control) and responds to requests from the main CPU 101. In addition, it has a function of collecting peripheral data from the pad 60 Ob via the connector 60a.
  • the main CPU 101 performs processing based on the peripheral data received from the sub CPU 104.
  • An arbitrary peripheral such as a PAD, a joystick, and a keyboard can be connected to the connector 60a.
  • the sub CPU 104 automatically recognizes the type of the peripheral connected to the connector 60a (terminal on the main unit), and executes the peripheral operation according to the communication method according to the type of the peripheral. It has a function to collect information.
  • the video block 52 is a video display processor (VDP) 120 that draws characters and the like consisting of polygons in a video game.
  • the background screen is drawn.
  • VDP130 for performing clipping processing and the like.
  • VDP 122 is connected to VRAM 122 and frame buffers 122, 123.
  • the drawing data of the polygon representing the character of the video game machine is sent from the main CPU 101 to the VDP 120 via the SCU 100 in the evening, and written to the VRAM 121.
  • the drawing data written in the VRAM 122 is drawn, for example, in a frame buffer 122 or 123 for drawing in a format of 16 or 8 bits / pixel.
  • the data of the drawn frame buffer 122 or 123 is sent to the VDP 130.
  • Information for controlling the drawing is given from the main CPU 101 to the VDP 120 via the SCU 100. Then, the VDP 120 executes the drawing process according to this instruction.
  • the VDP 130 is connected to the VRAM 131, and the image data output from the VDP 130 is output to the encoder 160 via the memory 132.
  • the encoder 160 generates a video signal by adding a synchronization signal or the like to the image data, and outputs the video signal to a TV receiver. Output to machine 80. As a result, the game screen is displayed on the TV receiver 80.
  • the sound block 53 is composed of a DSP 140 for performing voice synthesis according to the PCM method or the FM method, and a CPU 141 for controlling the DSP 140 and the like.
  • the audio data generated by the DSP 140 is converted into a two-channel signal by the D / A converter 1 10, and then output to the speaker 80b.
  • the subsystem 54 is composed of a CD—: OM drive 50b, a CDI / F180, a CPU181, a MPGEGAUDI182, an MPGEVIDE183, and the like.
  • the subsystem 54 has a function of reading application software supplied in the form of CD-R ⁇ M, playing a moving image, and the like.
  • CD-ROM drive 5 Ob reads data from CD-ROM.
  • the CPU 181 controls the CD-ROM drive 5 Ob, and performs processing such as error correction of the read data.
  • the data read from the CD-ROM is supplied to the main CPU 101 via the CDI / F 180, the nose 106, and the SCU 100, and is used as application software. Used.
  • MPEGAUDI182 and MPEG010183 are devices for restoring data compressed by 1 ⁇ ? £: 0 standard 01; 1011 Picture Expert Group). By using these MPEGAUDIOs 18182 and MPEGGIDEO183 to restore the MPEG compressed data written in the CD-ROM, it is possible to reproduce a moving image.
  • FIG. 25 is an explanatory diagram illustrating a case in which a soccer game is played as an example of a game in a 3D virtual game space formed in the computer system.
  • a soccer coat is formed on the X-z plane of the 3D virtual space.
  • the longitudinal direction (left-right direction) of the coat is defined in the X-axis direction
  • the short direction (depth direction) of the coat is defined in the y-axis direction
  • the height direction is defined in the z-axis direction.
  • An object for each player (not shown) is arranged on this coat, and the player controls the movement of the main player by an input device.
  • line objects are drawn to form a soccer coat.
  • a virtual camera (viewpoint) for performing coordinate transformation and the like to display the state in the field of view on a two-dimensional monitor screen is arranged, and the game is relayed.
  • FIG. 26 and FIG. 27 are explanatory diagrams for explaining the focus of the present invention.
  • a line object is arranged on the ground by a combination of polygons for forming the line (hereinafter, referred to as a line 'polygon'), as shown in Fig. 25.
  • a drawn football coat is formed.
  • This line is displayed well on the screen when the camera position in the game space is viewed from above, but as the camera's vertical angle (y-axis direction) approaches the horizontal direction, The area of the line occupying the screen decreases, and it gradually disappears from the monitor screen.
  • the line polygon and the camera face each other, that is, if the normal vector of the line polygon and the line of sight of the camera are parallel, If the position is sufficiently distant, the line polygon may be too thin to be displayed on the two-dimensional projection screen obtained by performing coordinate transformation on the three-dimensional virtual space. This is inconvenient for games that require you to play the game within a line (or coat).
  • the position coordinates of some vertices of the line polygon are changed under the condition that the line is hard to be reflected on the monitor screen, and the camera is displayed on the camera screen. Increase the area to be reflected. That is, in relation to the camera, the height position of the vertex located in the depth direction as viewed from the camera of the line polygon arranged on the ground is shown in FIG. Slightly increase the area of line polygons reflected in the camera.
  • FIG. 28 is a flowchart illustrating an algorithm for performing such processing.
  • a line 'polygon or line object
  • a corresponding flag is set by a program (not shown). You. If this is determined in the main program (not shown), a line loss prevention process is executed (S102, Yes).
  • the vertex of the Line 'polygon is located at the back or front as viewed from the camera.
  • the distances 11 and 12 between the camera and the vertex P1 and between the camera and the vertex P3 are calculated, and the distance between the vertex and the front is calculated according to the magnitude of the distance.
  • the depths and near sides of the vertices Pl and P3 are determined by comparing the angles 01 and 6> 3 of the vertices Pl and P3 with the angles 01 and 3 of the camera.
  • the latter method has an advantage that the amount of calculation in hardware can be reduced as compared with the former method.
  • the data of one line polygon is read from an object table (not shown) representing the object group arranged in the scene (S104).
  • Figure 31 shows an example of line polygon data.
  • the Isseki data of each vertex P. 1 to P 4 of a polygon for example, whirlpool de coordinate system coordinate values ( ⁇ ⁇ , ⁇ ⁇ ) in addition to, predetermined for determination of the back front of the vertex
  • the assigned angle value and the like are associated with each other.
  • the current position of the camera in the world coordinate system (X- ⁇ plane) and the vertex ⁇ ⁇ ⁇ direction of the vertex ⁇ of the line 'polygon viewed from this camera position are shown as Read.
  • the angle 0 ⁇ can be obtained by the trigonometric function from the coordinates of the vertex ⁇ of the line 'polygon and the coordinates of the camera position (S106).
  • 150 degrees-270 degrees ABS (— 120 degrees)> 90 (Where 90 degrees is the discriminant reference value used in this case, and ABS is an absolute value) (S i08), so it is judged as the vertex of the page before the line (S 1 1 0).
  • the vertex Pn is the edge in front of the line object (S110, Yes)
  • it is less than 10 m S 1 1 2, Y es
  • the line is usually reflected on the screen. Therefore, the height of the vertex Pn is not adjusted, and the data of the next line polygon vertex is read.
  • Do S112, No.
  • the distance to the vertex Pn is 10 m or more (S112, No), that is, normally, when the camera is away from the line, the line is hard to see.
  • step (S111) increase the coordinate value of the vertex Pn of the edge at the back of the line by a predetermined value in the y-axis direction (height direction) of the edge of the line, and ground the edge at the back of the line polygon. Raise it from step (S111). Such processing is performed for each vertex of all lines and polygons on the screen (S116).
  • the game field (soccer ground) is divided into predetermined areas, the area where the ball is located is determined, and the camera angle is set so that the direction of travel of the ball (the direction the player wants to see) can be seen well. It is an adjustment.
  • FIGS. 32 to 34 illustrate the moving direction of the player and the preferred direction of the camera when moving in that direction.
  • the camera basically moves along the side line and faces the player. Of course, the camera can enter the field and follow the game.
  • the camera When the player controlled by the player moves toward the back of the X-y plane (z-axis direction) (Fig. 32 (a)), the camera is turned in the z-axis direction ((b)). When the player controlled by the player moves to the left (the X-axis direction) of the xy plane (Fig. 33 (a)), the camera is moved at a predetermined angle from the z-axis direction, for example, in the direction of 115 degrees. The screen display of the area in the ball traveling direction is increased toward ().
  • the angle measured clockwise (positive direction) from the z axis is represented by a positive value
  • the angle measured counterclockwise (negative direction) is represented by a negative value.
  • the camera is moved at a predetermined angle from the z-axis direction, for example, 15 degrees in the traveling direction. Aim to increase the screen display in the area in the ball traveling direction (Fig. (B)).
  • this routine of adjusting the left and right angles of the camera is executed, and the camera's gazing point is on the player side or on the ball side. Is determined (S1 32).
  • the traveling direction of the player is determined (S138).
  • Player in front In the case of moving in the direction (Fig. 39) and moving in the depth direction (Fig. 40), the angle of the camera to the player in the X-z plane is set to 0 degree (S140, Fig. 41). ).
  • the angle of the camera with respect to the player is set at an angle of 115 degrees from the z axis (S142, Fig. 43).
  • the angle of the camera with respect to the player is set at an angle of 15 degrees from the z-axis (S144, FIG. 45).
  • the camera angle is adjusted so that the line of sight vector from the ball to the player is at an angle of 20 degrees from the z-axis.
  • the camera angle is determined so that the line of sight vector from the ball to the player is at an angle of 120 degrees from the z axis.
  • the camera's gazing point is within 8 m from the penalty area ( S1 4 8). If the camera's gaze point is within 8 meters of the penalty area (S148, Yes, Fig. 49), the camera's line of sight vector should be at an angle of Set (Fig. 50). As shown in Fig. 48, when the position of the ball and the player are opposite, the direction of the camera is set at 15 degrees from the z-axis.
  • the camera's line of sight vector is set to an angle of 0 degree with respect to the ball (0 degree with respect to the z axis) (Fig. 52). After finishing these processes, return to the main program.
  • the player can use an input device such as a pad joystick to move the camera in the X and z directions.
  • an input device such as a pad joystick
  • the angle of the camera is about 15 degrees.
  • the camera angle in the X-z plane is adjusted according to the area of the player's game field, so that the direction of travel of the ball can be seen well.
  • FIG. 53 is a flowchart illustrating processing for adjusting the vertical angle of the camera, which is executed at a predetermined timing (predetermined condition) determined by a main program (not shown).
  • the height position of the camera is not limited to this, but is usually set to a height of about 1 Om.
  • the angle at which this camera looks down on the game field is set according to the game area. That is, the position of the gazing point of the camera is determined (S162). When the fixation point is on the player (S 162, player), it is determined whether the fixation point is near the penalty area (S 164).
  • the camera's line-of-sight vector must be at –8 degrees from the z-axis to show a relatively large area. Orient the camera so that it is in the same direction (S166). Here, when the camera is facing downward, the angle is negative, when it is upward, the angle is positive, and the camera is horizontal. As 0 degrees.
  • the camera is oriented so that the line of sight of the camera is at 11 ° from the z-axis. (S168). As a result, the camera can be looked down more, and an image with a more three-dimensional feeling and a sense of depth can be obtained.
  • the fixation point When the fixation point is on the ball (S162, ball), it is determined whether the fixation point is near the penalty area (S170). If the fixation point is not near the penalty area (S170, No), the orientation of the camera or the like is set so that the camera's line of sight vector is at 11 degrees from the z-axis direction. (S166). When the point of interest is in the vicinity of the penalty area (S170, Yes), the camera is set so that the camera's line-of-sight vector is at 13 degrees from the z-axis direction. Determine the orientation (S174).
  • FIG. 55 is a flowchart illustrating the zoom adjustment of the camera. If it is determined in the main program that the camera should be adjusted for zoom, the routine moves to this routine.
  • the camera's point of interest is not near the penalty area (S182, No).
  • the player is off the screen (S186, Yes)
  • the player is projected on the screen. Therefore, zoom down is performed (S188).
  • the player is on the screen (S186, No), and If the player is within 3/4 of the screen (S190, Yes), move the camera so that the camera approaches a predetermined distance from the point of regard, and perform zoom-in (S 1 90). This makes it possible to close up the player while a certain area is visible. If the player is on the screen but is not within 3/4 of the screen, (S190, No), the distance between the camera and the gazing point is maintained (S194).
  • FIG. 57 is a flowchart for explaining another example in which something that should be prevented from disappearing from the screen, such as the above-mentioned line polygon, can be displayed.
  • attribute data indicating that the data of the polygon to be prevented from being lost is a target of the loss prevention power is added in advance.
  • the computer system determines whether or not there is a polygon to be prevented from disappearing in the field of view (S202).
  • a line 'polygon executes the polygon loss prevention program. That is, as shown in FIG. 58, a unit line-of-sight vector is obtained from the point of gaze of the camera and the position of the camera (S204). A unit normal vector is obtained from the data of the polygon to be prevented from disappearing (S206). Obtain the angle between the unit line-of-sight vector and the unit normal vector. This can be obtained as the inner product of the unit line-of-sight vector and the unit normal vector (S208). The coordinates of the vertices of the polygon are adjusted so that this angle becomes a predetermined angle (S210).
  • step 204 to step 210 The processing from step 204 to step 210 is performed for each polygon to be prevented from disappearing in the visual field.
  • step 202 is used as the loss prevention execution means.
  • Steps 204 to 208 correspond to angle calculating means, and step 310 corresponds to polygon inclining means.
  • the present invention is not limited to soccer games, but includes lines drawn on grounds and courts, such as tennis, baseball, basketball, volleyball, rugby, and American football poles. Applicable to various games
  • the zoom of the camera is adjusted according to the area and the display state.
  • the program for realizing the image processing device and the screen display method as described above in the combination system is recorded on an information recording medium, for example, a CD-ROM, a DVD-ROM, an R0M cassette, or the like. Provided.
  • the texture having the spectators facing the stadium that is, an example of a display object displayed in a three-dimensional virtual space which is a game space
  • a to D the texture having the spectators facing the stadium
  • the texture applied to the polygon surface for example, of the textures mapped onto the polygon surface, the background portion other than the display body imitating the audience is used as the texture of the transparent bit, and the display is performed.
  • the body part can be an opaque bit texture.
  • Fig. 59 is a schematic diagram of this texture.
  • the texture area of the opaque bit is also included, including the display body 300 as a spectator and the surrounding area 310 if necessary.
  • the other part, for example, the background part 302 is a texture area of the transparent bit.
  • FIG. 60 is an example of a texture related to the form of another audience. Background 3 02 is likewise This is a transparent bit, and character 304 is an opaque bit.
  • This texture is attached to a polygon other than the polygon to which the texture shown in Fig. 59 is attached, and in front of the polygon to which the texture shown in Fig. 59 is attached, that is, closer to the virtual viewpoint. Place a polygon with the texture shown in Fig. 60 on it.
  • FIG. 61 shows a state in which these textures are superimposed as shown in FIGS. 8 to 17, that is, superimposed.
  • the character 304 in FIG. 60 is superimposed on the transparent background in FIG. 59. Therefore, when the polygons of FIG. 59 and FIG. 60 are superimposed and displayed, the audiences of both textures are synthesized, united, or superimposed and displayed on the screen.
  • the spectators who are the characters of each polygon overlap each other, the lower spectators in the three-dimensional space, that is, the spectators of the lower priority polygons are the same as the spectators of the higher priority polygons. It will not be displayed on the screen.
  • a plurality of polygons having such a texture are applied along a plane orthogonal to or otherwise intersecting the overlapping direction of the polygons.
  • the embodiment described above it can be reproduced or simulated in the same way as in the case of Fig. 62 and Fig. 63.
  • the polygons described in Fig. 59 and the polygons described in Fig. 60 are available.
  • Fig. 62 shows the case where the polygon 400 was moved upward
  • Fig. 63 shows the case where the polygon 402 was moved upward.
  • a movement in which a large number of display bodies swing like a spectator in a soccer stadium When it is preferable to divide a group of display objects into a number of blocks and move each block in a controlled manner (animal or insect group movement), Can be created more efficiently.
  • Such movements are made in a certain mode, for example, in the case of a soccer game, when a ball released by a player reaches a goal.
  • the texture described here may be picture data including characters such as a background (clouds and waves) and spectators.
  • the background portion of FIG. 59 being composed of a transparent texture
  • a single color texture is used, and the character of FIG. 60 is made of a color that can be distinguished from this single color.
  • the background of FIG. 60 is made of a single color texture, and the background of FIG. 59 is kept transparent, and at least the outline of the character of FIG. 59 is other than the single color. It is also possible to make it.
  • the polygons are arranged so as to be gradually positioned diagonally above the virtual space, but the invention is not limited to this, and the polygons are arranged on a substantially flat surface. It can also be arranged. Also, according to the above-described embodiment, when it is determined that the mutual relationship such as the distance between the target object and the character concerned with the character through the game or the relationship regarding the game content satisfies the predetermined condition.
  • the character's gaze is directed to the target body.
  • the character attacks while dribbling the ball, look in advance to find the zone to kick out or a friendly player. (Overlook) movements, so that the actual behavior of a soccer player can be simulated more realistically, the movement becomes more natural, and the sense of realism and presence can be improved. .
  • this viewpoint control is based on 1) how to make a strategy during the game, 2) In the case of a ball game, it is possible to grasp the destination of the ball from the action of the character holding the ball (behavior) and the surrounding conditions, and perform operations. It is also easy to remove.
  • a plurality of polygons for individually pasting textures imitating a plurality of audiences are virtually superimposed, and the plurality of polygons are arranged along a direction intersecting the superimposing direction.
  • the time at which the player plays the game is detected, and the screen color of the image is obtained in accordance with this time by complementing the screen color adjusted in advance so as to be optimal for the game. Therefore, by adding the effect of changing the screen color according to the game playing time, the screen color can always be kept so as not to hinder the game. The inconvenience in adjusting the color state can be avoided, and the color state of the display screen and the change in brightness within a day can be stably and accurately matched to enhance the sense of reality of the game.
  • a polygon in the virtual space that is difficult to see depending on the position of the camera is raised, so that, for example, the polygon drawn in the ground is used.
  • the object of the line does not disappear due to the image processing and is in good condition.
  • the camera position, the camera direction, the visual field range, and the like are adjusted according to the game area and the moving direction of the object. It is possible to obtain a game device that can easily play a game.
  • the image processing apparatus makes it easy to see a simulation (for example, a game) performed in a virtual space with a sense of reality by an observer (for example, a player). It can be displayed. Particularly, it is preferably used for video (or television) game devices.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Description

明 細 書 画像処理装置及び画像処理方法 技術分野
本発明は、 仮想空間にキャラクタ (よ り広い意味ではオブジェク ト) を配置してサッカーゲーム等を実行する T Vゲーム機等の画像 処理装置に適用可能な画像処理技術に関する。 特に、 キャラクタの 視線制御、 観客の挙動制御、 及び画面のカラー調整のためのフ ォグ 制御の各処理を実行するこ とで、 ゲームをよ り リ アルに且つ臨場感 溢れるものにする画像処理技術に関する。 また、 本発明は、 ゲーム フィ ール ドに配置されたオブジェク 卜の向きや、 ゲーム進行状況を 中継する仮想カメ ラの角度を適切に制御して遊戯者によ り見やすい 画像を提供する画像処理技術に関する。 背景技術
近年のコンピュータ技術の発達に伴い、 T Vゲーム機、 シ ミ ュ レ ーシヨ ン装置等に関する画像処理技術が広く 一般に普及するよう に なっている。 このようなシステムでは、 表示画面や表示内容をよ り リアルに見せる画像処理技術の高度化が、 商品価値を高める う えで 非常に大きなウェイ トを占めている。
T Vゲーム機を一例にとる と、 そのコ ンポーネン ト と しては、 パ ッ ド、 ジョイ スティ ッ クなどの操作器及び表示用モニタを含むペリ フエラルと、 画像処理、 音響処理、 ペリ フ エラルとのデ一夕通信な どを実行する C P Uを搭載した処理装置とを備え、 操作器との間で イ ンターラクティ ブにゲーム展開を演出できるよう になつている。 このような T Vゲーム機の一分野と して、 サッカーゲームを行う こ とができるゲーム装置がある。 このサッカーゲームは、 通常、 三 次元仮想空間にフ ィール ド及び観客席 (スタ ン ド) を設けたサッカ 一スタジアムを構築し、 フ ィ ール ド上で 2 チームのキャラクタ (表 示体、 若し く はオブジェク ト とも呼ばれる) が仮想のサッカー競技 を行う ものである。 具体的には、 プレーヤからの操作情報に応じた モーショ ンの計算、 ボールの処理、 コ リ ジョ ン (当た り) の処理、 ロボッ トの処理、 フィ ール ドの処理などを順次実行し、 プレーヤの 操作を反映させたゲーム展開を画面表示する。
このとき、 スタ ン ドの観客の挙動もゲームの雰囲気を盛り上げる 重要な要素であるから、 観客の挙動処理も取り入れるこ とが多い。 観客の挙動の制御方法と しては、 1 ) アニメーショ ン (動画) と同 様に、 予め動きのある観客の画像データをフ レーム毎に多数用意し ておき、 その画像を競技場面に応じてテクスチャを貼 り付けて動画 的に表示する方法、 2 ) 観客を表したポリ ゴンデータを用意してお いて競技場面に応じてポリ ゴンを動かす、 などの方法がある。
また、 ゲームの雰囲気や臨場感を盛 り上げる重要な要素と して、 表示画面のカラ一度合いが、 1 日の時間経過に対応した実際の明る さ (日照など) にマッチしているかどうかの問題がある。 特に、 野 外で行う ことが多いサッカーゲームでは大切なこ とで、 サッカーを 1 日の内のどの時間帯で行うかによ り、 明るさに関する物理的環境 は微妙に変わる。 つま り、 朝、 昼、 晩のいずれの時間帯で行うか、 また、 それらの中間時間帯のどこで行うかによ り、 明るさが異なる。 従来では時間帯に応じてカラ一画面の輝度を調整する、 という手法 が知られている。
しかしながら、 上述した従来のゲーム機にあっては、 ゲームの臨 場感ゃリ アル感の面において、 依然と して、 下記のような物足りな さがある。
第 1 に、 例えば、 サッカーゲームを例にとって説明する と、 例え ば、 キャラクタがボールを ド リ ブルしながら攻撃をする場合、 従来 装置では、 そのキャラクタを、 走る方向に顔を向けたまま ド リ ブル させるだけである。 しかし、 実際のサッカーゲームでは、 ド リ ブル しながら シュー ト した り、 味方にパスする場合、 ド リ ブルしている 選手は蹴る出すタイ ミ ングを計った り、 蹴り 出すゾーンや味方選手 を探すため、 走行方向と同じか、 または異なる方向を見る (見渡す) 動作を行う ものである。 つま り、 ド リ ブルしながら走るモーショ ン の制御だけでは、 実際のサッカー競技者の挙動を リ アルにシ ミ ュ レ — 卜 している とは言い難く 、 表示画面に写るキャラクタの動作がと ても単調かつ不自然である。 この顔の向き (つま り , 視線) の制御 は、 ド リ ブルしながら走る競技者のみならず、 ほかのボールを持た ない競技者についても同様である。 さ らに、 守備側のキャラクタも 実際には、 攻撃側のキャラクタの動作に左右される顔の向き (視線) になるのが自然であるが、従来はそのような制御はなされていない。 第 2 に、 観客の挙動もゲームの臨場感を盛り上げる需要な要素で ある。 しかし、 従来は、 観客個々の多彩な動き (よ り リアルな挙動) . ソフ ト プログラムの設計の簡単さ、 演算負荷の減少、 メモ リ容量の 少量化などの点で、 これら を同時に満足させるものではない。
従来のよう に、動画的にテクスチャを貼って観客を表示する場合、 動きを表したフ レーム枚数が少ないと、 観客の動きは粗く かつぎこ ちの無いものになる。 これを回避しよう と思えばフ レーム枚数が多 く なる。 したがって、 扱う画像データ も多く、 必要なメモ リ容量も 増大する。 更に、 ソ フ ト プロ グラ ムの設計の手間も増え、 また演算 負荷も大き く なる。 この負荷があま り増大する と、 キャラクタ (あ るいは、 オブジェク ト) の方の制御に支障も出るから、 観客の方は 省力化したい。 しかし、 観客の方の制御処理を間引いた り して省力 化する と、 表示される画面は迫力がな く、 臨場感に乏しいものとな る。
一方、 観客をポリ ゴンで表す場合、 ポリ ゴンで表すことのできる 観客数はその制御の負担を考える と、 著し く 制限される。 制御のた めの演算負荷を無視すれば、 個々の観客をポ リ ゴンで表し、 その動 きを個々それそれに制御するこ とも可能とは思われるが、 多数の観 客に対して実際上、 それは困難である。 そこで、 どう しても、 メイ ンになる特定の (選択された) 観客のみをポ リ ゴンで表すこ とにな る。 実際には、 観客は個々に異なる動きをする一方で、 時には集団 で同じ動きをすることもある。 このため、 特定の観客だけをメイ ン に動かしても、 迫力が無く、 臨場感に欠ける。
第 3 に、 従来装置の場合、 1 日の内の、 実際の明るさに関する物 理的環境の制御面でも、 昨今のゲーム機に求められているニーズを 満足させてはいない。 例えば、 朝、 昼、 晩の中間の時間帯にゲーム 機の前に座ってサッカーゲームを楽しむプレーヤ (遊戯者) にとつ ては、 表示画面がそのようなプレーヤの周囲環境にマッチすること が望ま しい。 しかし、 従来装置のよう に単純に画面全体の輝度を調 整するだけの処理の場合、 夜に近付く につれて画面が暗く なつて し まい、 かえって操作が難し く なる。
第 4 に、 仮想三次元空間で展開されるゲームを画面に表示する場 合、 ゲームを中継する仮想カメ ラがキャラクタ (あるいは、 ォブジ ェク ト)を見るカメラの視線方向によってゲームのし易さが異なる。 また、 仮想カメ ラの位置によって、 ゲームのやり安さが異なる。 ま た、 ゲームの展開エリ アに応じてオブジェク 卜の立体的表現が強調 されるこ とも望ま しい。
第 5 に、 仮想三次元空間でのゲームを画面に表示しょう とする場 合、 遊戯者が当該ゲームをやり易くするために、 仮想カメ ラの視点 位置を遠ざけて、 ゲームフィ ール ドを出来るだけ広 く 画面上に表示 するこ とが望まれる。 このような処理を した場合、 スポーツゲーム のコー ト範囲を示すライ ン · マーカの幅が仮想空間全体に比べて細 いので、 画面の解像度との関係で消失して しまう こ とがある。 一方、 この消失を防ぐため、予め太いライ ンを用意するこ とが考えられる。 しかし、 ゲームの迫力を増すために、 ズームアップ (視点を注視点 に近づける) した場合には、 特別に太いライ ンが表示されるこ とに なり、 不自然である。
本発明は、 以上のような課題に鑑みてなされたもので、 サッカー ゲームなどの画像処理において、 ゲームの リ アル感、 臨場感をよ り 一層高めた処理を施すこ とができ、 ゲーム装置に求められている昨 今のニーズに十分に応えるこ とのでき る画像処理装置及びその方法 を提供するこ とを目的とする。
また、 本発明は、 サッカーゲーム等に関わるゲームの画像処理に おいて、 キャラクタの動きが実際の競技者の動きに近づく よう に、 よ り正確にシミ ュ レー ト し、 ゲームの リ アル感を向上させるこ とを 目的とする。
また、 本発明は、 サッカーゲーム等に関わるゲームの画像処理に おいて、 観客の動きをよ り リ アルに表現し、 ゲームの臨場感を著し く 向上させるこ とを目的とする。
また、 本発明は、 サッカーゲーム等に関わるゲームの画像処理に おいて、 プレーヤがゲーム装置を実際に操作する時間帯の周囲環境 の光源状態に対応してカラー表示を調整した画面を提供し、 ゲーム の臨場感を向上させるこ とを目的とする。
また、 本発明は、 正確にシ ミ ュ レー ト されたキャラクタの動作を 用いて、 ゲームの状況を遊戯者に示唆するための新たな手段、 及び ゲームの難易度を調整するための新たな手段を提供するこ とを目的 とする。
また、 本発明は、 三次元仮想ゲーム空間において一定の役割を持 つが、 二次元画像への変換処理において消失しやすい小才ブジェク トが、 小さいままでも二次元のゲーム画面中に残る ように して、 遊 戯者にとって必要なオブジェク 卜の表示が確保された見易いゲーム 画面を提供するこ とを目的とする。
また、 本発明は、 ゲームフ ィ ール ドのエ リ アやキャラクタ と仮想 カメ ラ との相対的位置関係に応じて仮想カメ ラの位置やカメ ラの視 線方向を制御し、 遊戯者にとってそのエリ アでよ り好ま しい見え方 をする画面を形成する画像処理装置を提供するこ とを目的とする。 発明の開示
上記目的を達成させるため、 本発明の画像処理装置は、 仮想三次 元空間で競技者を模したキャラクタの挙動を画像表示する装置であ り、 上記キャラクタにゲームを通して関わ り を持つ目標体 (仮想点) 及び上記キャラ クタ相互間の (距離等の) 相互位置関係またはゲー ム内容に関する関係が所定条件に合致する所定状態か否かを判断す る判断手段と、 この判断手段が上記所定状態を判断したとき、 上記 キャラクタの視線を上記目標体に向けさせる (上記仮想点を注視点 とする) 視線制御手段とを備える。 この目標点に代えて、 仮想空間 内のいずれかの仮想点であっても よい。 例えば、 上記ゲームはサッカーゲームであ り、 上記目標体は上記 サッカーゲームのボールである。 例えば、 上記視線制御手段は、 上 記キャラ クタの頭部の回転に続いて当該キャラクタの胴部及び腰部 を回転制御する手段を含んでも よい。 例えば、 上記判断手段は、 上 記仮想三次元空間における上記キャラクタ と上記目標体の座標値に 基づき当該キャラクタから 目標体までの角度を計算する手段を含む 構成でもよい。
また、 好ま し く は、 上記目標体は複数個あ り、 上記判断手段は上 記複数個の目標体のいずれに視線を向けるべきかを上記ゲームの状 況に応じて判定する判定手段を含むものである。
本発明の画像処理方法は、 仮想三次元空間で競技者を模したキヤ ラク夕の挙動を画像表示する方法であ り、 上記キャラクタにゲーム を通して関わ り を持つ目標体と当該キャラクタ との間の相互的関係 またはゲーム内容に関する関係が所定条件を合致する所定状態か否 かを判断し、 その所定状態が判断されたとき、 上記キャラクタの視 線を上記目標体に向けさせる。
本発明の画像処理方法は、 特に、 上記キャラクタに第 1 の挙動を 実行させている間に所定条件が成立したか否かを判断し、 上記所定 条件が成立したときには、上記キャラクタに第 2の挙動を実行させ、 これによ り、 遊戯者にゲームの進行状況の情報を暗示 (あるいは示 唆) する。
本発明の画像処理装置は、 仮想三次元空間で競技場を臨むスタ ン ドの観客の挙動を画像表示する装置で、 複数の観客を摸したテクス チヤを個々に貼 り付ける複数枚のポリ ゴンであって仮想的に重ね合 わせた複数枚のポリ ゴンと、 この複数枚のポ リ ゴンをその重ね合わ せ方向に交差する方向に沿って動かすポリ ゴン揺動手段とを備える 好ま し く は、 上記複数枚のポリ ゴンは、 複数個のオブジェク トの それそれを形成する複数枚のポリ ゴンがオブジェク ト順にィ ン夕一 リーブされた状態で仮想的に重ね合わせてあ り、 上記ポリ ゴン揺動 手段は上記複数個のオブジェク ト をオブジェク ト毎に同期し且つ連 動して周期的に動かす手段である。 また、 上記動かす方向は、 好適 には、 上記ポリ ゴンの上下方向または左右方向である。
本発明の画像処理方法は、 仮想三次元空間で競技場を臨むスタン ドの観客の挙動を画像表示する方法であ り、 複数の観客を模したテ クスチヤを個々に貼り付ける複数枚のポリ ゴンを仮想的に重ね合わ せ、 この複数枚のポリ ゴンをその重ね合わせ方向に交差する方向に 沿って動かす。
本発明の画像処理装置は、 仮想三次元空間におけるゲームをシミ ュレー ト し画像表示する装置であ り、 プレーヤが上記ゲームを行う 時刻を検知する検知手段と、 この検知手段によ り検知される時刻に 応じて上記画像の画面カラーを部分的にあるいは全体的に調整する 調整手段とを備える。 例えば、 上記調整手段は、 1 日の内で最もゲ ームに適した明るさを呈する少な く とも 2つの基準時間帯の予め定 めた画面カラー状態の情報をそれそれ基準値と して記憶している記 憶手段と、 上記検知手段によ り検知されるゲームの時刻が上記基準 時間帯のいずれかに入っている ときには、 上記基準値の内のいずれ か相当する方からゲームの表示画面にマスクするデータを生成する とともに、 上記時刻が上記基準時間帯のいずれにも入っていないと きには、 上記少な く と も 2つの基準値の内の当該時刻の時間的前後 にある 2 つの基準値に基づき補間した画面カラー状態の情報から上 記マスクするデ一夕を生成するデ一夕生成手段と、 を備える。
本発明の画像処理方法は、 仮想三次元空間におけるゲームをシ ミ ュ レー ト し画像表示する方法であって、 プレーヤが上記ゲームを実 行する 1 日の内の実際の時間を検知し、 この実際の時間に応じて上 記画像の画面カラーを調整する。
本発明の画像処理装置は、 コンビユ ー夕システム内に形成される 仮想空間にオブジェク トを配置し、 入力操作と定められたルールに 従って上記オブジェク トの動きを制御しながらゲームを展開し、 上 記仮想空間内の様子を仮想カメ ラから見た画面と して表示する画像 処理装置において、 上記仮想空間内の基準となる基準平面上に配置 されるポ リ ゴンと、 上記ポリ ゴンと上記仮想カメ ラ相互間の位置関 係を判別する判別手段と、 判別結果に対応して上記仮想カメ ラから 見える上記ポリ ゴンの面積が増すよう に上記ポリ ゴンを傾斜するポ リ ゴン傾斜手段と、 を備える。
また、 好ま し く は、 上記基準平面はグラウン ドであ り、 上記ポリ ゴンは上記グラ ウン ド上に配置されるライ ンを形成するポリ ゴンで ある。
また、 上記ポ リ ゴンは複数辺によって画定され、 上記ポ リ ゴン傾 斜手段は、 上記ポリ ゴンの互いに対向する辺のう ちの一方の辺に属 する頂点の座標値を変更する。
また、 本発明の画像処理装置は、 コ ンビユー夕システム内に形成 される仮想空間にオブジェク トを配置し、 入力操作と定められたル —ルに従って上記オブジェク トの動きを制御しながらゲームを展開 し、 上記仮想空間内の様子を仮想カメ ラから見た画面と して表示す る画像処理装置において、 上記オブジェク トが上記仮想空間におけ る特定のエリ ア内に存在するかどうかを判別する判別手段と、 上記 判別結果に基づいて上記仮想カメラの角度を調整するカメ ラ角度調 整手段と、 を備える。 好ま し く は、 上記カメ ラ角度調整手段は、 上記判別結果と上記ォ ブジェク トの移動方向とに基づいて上記仮想カメ ラの角度を調整す る。
好ま し く は、 上記カメ ラ角度調整手段は、 上記仮想空間における 左右方向及び上下方向のう ち少な く ともいずれかの方向において上 記仮想カメ ラの角度調整を行う。
また、 本発明の画像処理装置は、 コ ンピュータシステム内に形成 される仮想空間にオブジェク ト を配置し、 入力操作と定められたル ールに従って上記オブジェク トの動きを制御しながらゲームを展開 し、 上記仮想空間内の様子を仮想カメ ラから見た画面と して表示す る画像処理装置において、 上記オブジェク 卜が上記仮想空間におけ る特定のエリ ア内に存在するかどうかを判別する判別手段と、 上記 判別結果に基づいて上記仮想カメ ラの視野範囲を調整するズーム調 整手段と、 を備える。
また、 本発明の画像処理装置は、 複数のポ リゴンからなる三次元 形状モデルで構成された仮想空間を任意の位置の仮想カメ ラから見 た二次元画像を生成して、 表示装置に表示する画像生成表示手段を 有する画像処理装置において、 上記仮想カメ ラの向き (カメ ラの視 線方向) を表す視線ベク トルと、 上記仮想空間内に配置された所定 のポリ ゴンの面の向きを表す法線べク トルと、 のなす角度を算出す る角度算出手段と、 上記角度算出手段の算出した角度が所定の値に なるよう に、 上記ポリ ゴンの頂点の座標値を変更するポリ ゴン傾斜 手段と、 を有する。
また、 本発明の画像処理装置は、 複数のポ リ ゴンからなる三次元 形状モデルで構成された仮想空間を任意の視点 (あるいは、 仮想力 メラ) から見た二次元画像を生成して、 表示装置に表示する画像生 成表示手段を有する画像処理装置において、 上記ポ リ ゴンは、 ポリ ゴンの消失防止プログラムを動作させるためのデータを含む、 消失 防止の属性を有する消失防止ポリ ゴンを含み、 上記消失防止プログ ラムは、 上記消失防止ポリ ゴンと上記視点との相互位置関係を判別 する位置判別手段と、 上記位置判別手段の判別結果に応じて、 上記 消失防止ポリ ゴンの頂点の座標値を変更する座標値変更手段と、 を 含み、 上記表示装置に描画されるポリ ゴンが上記消失防止ポリ ゴン である場合に上記消失防止プログラムを実行する消失防止実行手段 と、 を備える。
また、 本発明に係る情報記録媒体は、 コ ンピュータシステムを上 述したいずれかの画像処理装置と して機能させるプログラムを記録 している。 図面の簡単な説明
第 1 図は、 本発明の一実施例に係るゲーム装置の機能的な構成を 示すブロ ック図である。 第 2 図は、 C P Uの処理の概要を示す粗い フローチャー トである。 第 3 図は、 視線制御における角度計算を説 明する図である。 第 4 図は、 視線制御における角度計算を説明する 図である。 第 5 図は、 キャラクタの視線制御の様子を示す図である。 第 6 図は、 視線制御の一例を示す概略フローチャー トである。 第 7 図は、 第 6図と共に、 視線制御の一例を示す概略フ ローチャー トで ある。 第 8図は、 ポリ ゴンによる観客デ一夕のデータ構造を説明す る図である。 第 9 図は、 観客の挙動制御の処理の一例を示す概略フ ローチャー トである。 第 1 0図は、 観客の挙動制御の一例の一こま を示す説明図である。 第 1 1 図は、 観客の挙動制御の一例の別の一 こまを示す説明図である。 第 1 2 図は、 観客の挙動制御の一例の別 の一こまを示す説明図である。 第 1 3 図は、 観客の挙動制御の一例 の別の一こまを示す説明図である。 第 1 4図は、 観客の挙動制御の 一例の別の一こまを示す説明図である。 第 1 5図は、 観客の挙動制 御の一例の別の一こまを示す説明図である。 第 1 6 図は、 観客の挙 動制御の一例の別の一こまを示す説明図である。 第 1 7図は、 観客 の挙動制御の一例の別の一こまを示す説明図である。 第 1 8図は、 フォグ制御の一例に係る概略フローチャー トである。 第 1 9 図は、 フォグ制御のための時間帯分けを説明する図である。 第 2 0図は、 フォグ制御による表示画面の一例を示す図である。 第 2 1 図は、 フ ォグ制御による表示画面の別の一例を示す図である。 第 2 2 図は、 キャラクタの視線制御の結果、 画面に表示される映像の模式図であ る。 第 2 3図は、 ゲーム装置の全体的な構成例を示す説明図である。 第 2 4図は、 ゲーム装置の回路構成を説明するブロ ック図である。 第 2 5図は、 ゲーム装置内に形成される仮想ゲーム空間を説明する 説明図である。 第 2 6 図は、 カメ ラ位置とグラウン ドに描かれるラ イ ンの見え方を説明する説明図である。 第 2 7図は、 ライ ン ' ポリ ゴンの奥側エッジの頂点を上げて、 ライ ンが見える ようにする処理 を説明する説明図である。 第 2 8図は、 ライ ン消失防止処理を説明 するフローチャー トである。 第 2 9 図は、 ライ ン ' ポリ ゴンの頂点 とカメ ラ との位置関係を説明する説明図である。 第 3 0図は、 ライ ン ·ポリ ゴンの頂点とカメ ラ との位置関係を説明する説明図である。 第 3 1 図は、 ライ ン · ポリ ゴンの頂点のデータの例を説明する説明 図である。 第 3 2 図において、 同図 ( a ) は、 プレーヤの奥 ' 手前 方向の移動を説明する説明図である。 同図 ( b ) は、 その際のカメ ラの視線べク トルの方向を説明する説明図である。 第 3 3 図におい て、 同図 ( a ) は、 プレーヤの左方向への移動を説明する説明図で ある。 同図 ( b ) は、 その際のカメラの視線ベク トルの方向を説明 する説明図である。 第 3 4図において、 同図 ( a ) は、 プレーヤの 右方向への移動を説明する説明図である。 同図 ( b ) は、 その際の カメ ラの視線べク トルの方向を説明する説明図である。第 3 5 図は、 カメ ラの左右方向への角度調整処理を説明するフローチャー トであ る。 第 3 6図は、 カメ ラの左右方向への角度調整処理を説明するフ ローチャー トの続きである。 第 3 7図は、 カメラの注視点がプレー ャにある場合を説明する説明図である。 第 3 8図は、 注視点がペナ ルティ エ リ アから 8 m以内にある場合のカメ ラの角度調整の例を説 明する説明図である。 第 3 9 図は、 プレーヤの進行方向が手前方向 である場合を説明する説明図である。 第 4 0図は、 プレーヤの進行 方向が奥方向である場合を説明する説明図である。 第 4 1 図は、 プ レーャの進行方向が奥 · 手前方向であるときのカメ ラの視線べク ト ルの方向の例を説明する説明である。 第 4 2 図は、 プレーヤが左方 向に移動する例を説明する説明図である。 第 4 3図は、 プレーヤが 左方向に移動する場合のカメ ラの角度調整を説明する説明図である , 第 4 4図は、 プレーヤが右方向に移動する例を説明する説明図であ る。 第 4 5 図は、 プレーヤが右方向に移動する場合のカメ ラの角度 調整を説明する説明図である。 第 4 6 図は、 カメ ラの注視点がボー ルにある ときの例を説明する説明図である。 第 4 7 図は、 ボールと プレーヤが 1 5 m以上離れている ときのカメ ラの調整角度の例を説 明する説明図である。 第 4 8 図は、 ボールとプレーヤが 1 5 m以上 離れている と きのカメ ラの調整角度の他の例を説明する説明図であ る。 第 4 9図は、 カメ ラの注視点がペナルティエリ アから 8 m以内 にある場合を説明する説明図である。 第 5 0図は、 カメ ラの注視 点がペナルティ エ リ アから 8 m以内にある場合のカメ ラの角度調整 を説明する説明図である。 第 5 1 図は、 注視点がペナルティ エ リア から 8 m以内ではない場合を説明する説明図である。 第 5 2 図は、 注視点がペナルティ エ リ アから 8 m以内ではない場合のカメ ラの角 度調整を説明する説明図である。 第 5 3図は、 カメ ラの上下角度の 調整を説明するフローチャー トである。 第 5 4図は、 カメ ラの上下 角度の調整を説明する説明図である。 第 5 5 図は、 カメ ラのズーム 調整を説明する フ口一チヤ一 卜である。 第 5 6図は、 画面のプレー ャの存在するエ リアを説明する説明図である。 第 5 7図は、 他のォ ブジェク ト消滅防止の例を説明するフ ローチャー トである。 第 5 8 図は、 オブジェク ト消滅防止を説明する説明図である。 第 5 9 図は、 観客を含むテクスチャーの他の例であ り、 第 6 0 図は、 それのさら に他の例である。 第 6 1 図は、 それそれのテクスチャーが貼られた ポリ ゴンを重ねて表示した場合のテクスチャーの表示態様であ り、 第 6 2 図は各ポリ ゴン面を動かす一態様である。 また、 第 6 3図は、 さ らに他の態様である。 発明を実施するための最良の形態
以下、 本発明に第 1 の実施の形態について図 1 〜図 2 2 を、 第 2 の実施の形態について図 2 3〜図 3 1 を、 第 3の実施の形態につい て図 3 2 〜図 5 8 を参照して説明する。 これ等実施形態は、 本発明 の画像処理装置を一体に組み込んだゲーム装置に関する。 なお、 こ こでのアプリケーショ ンソフ トはサヅカ一ゲームのソフ トである場 合を例示するが、 野球ゲーム、 ソフ トボール、 バスケッ トボールな ど、 その他のゲームソフ トであっても同様に実施できる。
図 1 は、 第 1 の実施形態に係るゲーム装置のブロ ック構成の概要 を示す。 このゲーム装置は、 C P U (中央処理装置) 1 を有し、 こ の C P U 1にバス B U Sを通して R〇M 2、 作業用 RAM 3、 入力 装置 4及びビデオディ スプレイ プロセ ッサ ( V D P ) 5が接続され ている。 C P U 1は、 R OM 2に予め格納されているゲームのプロ グラムを順次実行する。 本発明に関わる種々の処理は、 R OM 2に 格納されているプログラムを VD P 5が一定周期で実行する中で実 現される。 本発明に関わる処理と しては、 キャラクタの視線制御の 処理、 観客の挙動制御の処理、 表示画面のカラ一調整と してのフ ォ グ制御の処理の 3つである。 このため、 R OM 2には C P U 1や V D P 5で処理するプログラムのほか、 キャラクタのポリ ゴンデータ、 及び、 それら 3つの処理に必要なプログラム及び固定データ (観客 のポリ ゴンデ一夕、 フ ォグの基準デ一夕など) が予め格納されてい る。
作業用 RAM 3は、 ゲーム実行中の各種デ一夕を一時的に記憶す る。 入力装置 4は、 ジョイスティ ックなど、 プレーヤが操作する操 作器を備え、 キャラクタの移動、 モーショ ンを制御する場合など、 ゲーム進行に必要なデータを入力するために使用される。
VD P 5には、 ビデオ RAM (VRAM) 6、 描画装置 7、 作業 用 R AM 8が接続されている。 VRAM 6には R OM 2からのポ リ ゴンデ一夕が格納される。 このポリゴンデータのそれそれは、 表示 すべき頂点数分の座標データ と、 それら頂点のカラーパレ ツ ト と し て与え られる色デ一夕 とを備える。 VD P 5はデジタル信号プロセ ヅサ (D S P ) を有している。 この VD P 5も、 R OM 2に予め格 納されている画像処理専用のプログラムを、 フレームの切換タイ ミ ングなどの一定周期のタイ ミ ング信号に呼応して起動し、実行する。 V D P 5の処理によ り、 V R A M 6に記憶されているポリ ゴンデ一 夕が座標変換処理されて、 描画装置 7に渡される。 描画装置 7にはテクスチャデ一夕 R 0M 9及びフ レームバッフ ァ メモ リ 1 0が接続されている。 描画装置 7によ り、 座標変換された ポリ ゴンデ一夕にテクスチャが貼 り付けられ、 フ レームバッ フ ァメ モ リ 1 0に 1 フ レーム (画面) 分のビクセルデ一夕 と して書き込ま れる。
フ レームバッ フ ァメモ リ 1 0は D/A変換器 1 1を介して C R T などの画像表示装置 1 2に接続されている。 D/ A変換器 1 1はビ デォ信号発生回路と して機能するもので、 フ レームバッフ ァメモリ 1 0から ピクセルデ一夕を読み出し、 アナロ グ信号に変換する。 こ の変換データはビデオ信号と して表示装置 1 2に順次送られ、 画像 が表示される。
さ らに、 このゲーム装置はバス B U Sに接続されたフォグ回路 1 3及び実時間ク ロ ック 1 4を備える。 実時間クロ ック 1 4は、 時計、 カレンダ機能を備えてお り、 日常の実際の時刻デ一夕を C P U 1に 与えるようになつている。 フォグ回路 1 3は後述するよう に、 ゲ一 ム装置が操作される時間 (すなわち、 プレーヤがゲームを行う 日常 の実際の時刻) に応じて、 表示画面のカラーをフォグデ一夕 と呼ば れる別途設定したカラーデータでマスク して調整する、いわゆる「フ ォグ機能」 を発揮する もので、 C P U 1の指示の下にフォグデ一夕 を生成して VD P 5に送るよう になつている。
図 2に、 C P U 1によ り実行される フ レーム毎の処理の一例を示 す。 まず、 C P U 1は、 プレーヤの操作情報に対応したキャラクタ のモーショ ン ' コマン ド (走る、 走る方向を変える、 ボールを蹴る など) を入力装置 4から受け取り、 三次元仮想空間におけるキャラ クタのモーショ ンの計算を実行する ( S 1 ) 。
次いで、 C P U 1は、 サッカーボールの位置を進めるなど、 三次 元仮想空間におけるボールの処理を行い ( S 2 ) 、 さ らに、 三次元 仮想空間におけるコ リ ジョ ン (当た り ) の処理を行う ( S 3 ) 。 こ のコ リ ジョ ン処理は、 キャラクタ と地面との間、 キャラクタ同士、 キャラクタ とボールとの間など、 様々なコ リ ジョ ン判定及びその処 理が実行される。 次いで、 C P U 1は、 プレーヤが操作しているキ ャラクタ (ロボッ ト) の、 プレーヤからの操作情報に対応した仮想 三次元空間での挙動処理を行う ( S 4 ) 。
更に、 C P U 1はキャラクタの視線制御の処理を行う ( S 5 ) 。 この視線制御は本発明の特徴との一つを成すもので、 競技中のキヤ ラク夕の動作の多様化を図り、 サッカーゲームの リ アル感を増加さ せよう とするものである。 この処理の詳細は後述する。
この視線制御の処理が済むと、 C P U 1は、 サッカー競技場のフ ィ 一ル ドの処理を行う ( S 6 ) 。 このフ ィール ドの処理は、 仮想三 次元空間のフィ ール ド内に存在する各キャラクタの位置を参照して、 どのキャラクタがオフサイ ドライ ン内にいるか、 どのキャラク夕が ゴールエ リアにいるかなどを判断して、 ゲームを進める上での戦術 に関わる必要な処理を指令するものである。
この後、 C P U 1は、 観客の挙動制御の処理を行い ( S 7 ) 、 さ らにフォグ制御の指令を出す ( S 8 ) 。 これら 2つの処理も、 本発 明の特徴の一部を成すものである。 観客の挙動制御の処理は、 演算 負荷を押えた状態で、 観客の挙動を多彩に表現し、 リ アル感及び臨 場感を向上させよう とするもので、 その詳細は後述する。 また、 フ ォグ制御の処理は、 上述したフォグ機能を使用して、 プレーヤが実 際にゲームを行っている 1 曰の内の実時間に合わせたカラ一画面の 明暗度 (昼間の試合か、 夜間の試合か等によるカラ一調整) の制御 を行い、 リアル感及び臨場観を盛り上げよう とする もので、 その詳 細は後述する。 最後に、 その他の必要な処理を実行する ( S 9 ) 。 なお、 ステッ プ S 5 における視点制御でキャラクタの注視点のみ を決定し、 実際にキャラクタを振り向かせるモーショ ンは、 次の処 理時間 S 1 において行う よう に しても良い。 ステッ プ S 4 も同様に して良い。 別言すれば、 デ一夕取得、 注視点決定から、 実際に該当 方向に向 く モーショ ンが行われるまで、 最大 1 / 6 0秒程度のタイ ムラグを設けるこ とができる。
C P U 1は以上の処理をフ レーム毎に繰り返す。 このため、 ゲ一 ムの進行に伴って、 C P U 1 はプレーヤ操作に応じたモーショ ンな どのコマン ドを、 V D P 5 に送る。 V D P 5 には、 また、 C P U 1 の制御の元で、 R◦ M 2から必要なポ リゴンデ一夕が渡される。 そ こで、 V D P 5 は、 ポ リ ゴンデ一夕を V R A M 6 に一時記憶させる とともに、 コマン ドに したがってポリ ゴンデータを仮想三次元空間 から透視二次元空間に座標変換し、 この変換座標を描画装置 7 に渡 す。 描画装置 7は座標変換されたポリ ゴンデ一夕にテクスチャを貼 り付け、 フ レームバッ ファメモ リ 1 0 に書き込む。 この結果、 フ レ ーム毎にビクセルデータが更新された画像が表示装置 1 2 に表示さ れる。
上述したキャラクタの視線制御の処理を図 3〜図 7に基づき説明 する。 この処理は上述した図 2のステップ S 5で実行される処理で ある。
最初にキャラクタ Cの視線方向を決める角度演算の原理を説明す る。 いま、 キャラクタ Cが三次元仮想空間の座標 ( X p , y p, z p) に位置し、 また対象体と してサッカーボール Bが同空間の座標 ( X t , y t, z t ) に位置しているものとする。 この場合、 図 3に示す y軸方向からみたときのジオメ ト リから、 X — X t — X p Z ~ Z t — Z p
の値が演算でき、 この値 x, , z ' からキャラクタ Cとボール Bと の間の X — z面上での角度 6y及び距離 Lが計算できる。 同様に、 このジオメ 卜 リから横軸にキャラクタ Cとボール Bとの間の距離 L をと り、 縦軸を y軸と したときのジオメ ト リ を図 4に示すよう に想 定でき る。 つま り、 キャ ラ クタ Cの座標 ( yp, L p) 及びボール Bの座標 (y t, L t ) を設定できる。 この場合、
y ' = y t - L t
L, = L t— L p
の値が演算でき、 この y, 及び L ' から y— L面上でのキャラクタ Cのボール Bを見つめる角度 yが計算できる。 つま り、 各キャラ クタ について、 例えばボールをみる と きの視線は 0 y , L, θ xの パラメ一夕で決まる。 対象体がボールに限らず、 相手プレーヤ、 ゴ ール、 審判であった り する場合も同様に計算できる。 つま り、 自己 キャラクタの座標と相手プレーヤや審判の所定点の座標、 ゴールの 例えば、 中心位置の座標とを与えてやればよい。
このように視線方向が決まるが、 キャラクタが実際にその方向に 視線を向ける過程においては、 種々の体の向け方 (回転の仕方) が ある。 この様子を図 5に示す。 本実施形態では、 視線制御時に体を 向ける (回転させる) 部分と して、 キャラクタ Cの頭部 H D、 胴部 B D , 腰部 H Pを指定している。 そして、
1 ) 頭部 H Dの回転 (上下方向、 横方向の回転) を先行させ、 こ れに胴部 B Dの回転を追随させ、 これに腰部 H Pの回転を追随させ る、
2 ) 頭部 HDと胴部 B Dの同時回転を先行させ、 これに腰部 H P の回転を追随させる、
3 ) 胴部 H Dのみ回転させる、
等の回転状態を競技の場面毎に、 キャラクタの置かれている状況毎 に制御できるよう になつている。 この制御は、 例えば、 フ レーム毎 に各部 H D , B D , H Pのそれまでの回転角を記憶しておき、 次フ レームでは、 現在の回転角に微小角度を増加させたモーショ ンを指 令すればよ く 、 各部毎に演算角度 θ χ , 6> yまで達したフ レームで 回転モーショ ンの指令が終わるようにすればよい。
なお、 一般的には、 人間の動きには構造的な法則性があ り、 モー シヨ ンさせる ときには、 この法則性を加味する と最も 自然な動きに 見える。 例えば、 振り 向く ときには図 5 にも示した如く、 首の回転 速度が最も速く 、 次に上半身、 最後に全身となる。 そこで、 振り向 きの場合、 首を上半身よ り速く、 かつ上半身を全身よ り速く 回転さ せるこ とが望ま しい。
また、 頭部 H Dの回転角度が一定値に達した時点で胴部 B Dの回 転を開始させるような処理によって、 頭→胴→腰の回転タイ ミ ング をずら して表現しても良い。
このように決まる視線制御の処理の一例を図 6及び図 7 に示す。 この処理は C P U 1 によ り実施される。 なお、 このキャラクタの視 線制御の手法は多様な形態をとるこ とができる。 こ こに示すものは あ く まで一例と して示すものであって、 本発明を実施例に限定する ものではない。 また、 この視線制御の処理は、 フ ィ ール ド上に居る 全競技者 (キャラクタ) について実施しても よいし、 演算負荷を軽 減する観点から、 表示視野内に入るキャラクタのみついて実施して もよい。 さ らに、 表示視野内のキャラクタであっても、 と く に、 注 目すべきキャラクタ (例えばボールに関わるモ一ショ ンを行ってい るキャラ クタや、 プレーヤ (遊戯者) が操作しているキャラクタ) など特定のキャラクタのみについて実施してもよい。
図 5 に示すよう に、 例えば、 あるキャラクタが現在走っているか どうかを判断し、 Y E S (走っている) か N 0 (走っていない) で 場合分けを行う ( S 2 1 ) 。 Y E Sの場合、 さらに、 相手チームが ボールを持っているか否かを判断する ( S 2 2 ) 。 この判断が Y E S (相手チームが持っている) の場合、 さ らに、 相手チームのキヤ ラク夕が ド リ ブル中であるか否かを判断する ( S 2 3 ) 。 この判断 で Y E S ( ド リ ブル中である) のときは、 さ らに、 ド リ ブルしてい るキャラクタが 3 メー トル以内にいるか否かを距離計算値から判断 する ( S 2 4 ) 。 この判断で Y E S ( 3メ一 トル以内にいる) のと き、 いま制御対象となっているキャラクタはボールの方に視線を向 ける ( S 2 5 ) 。 このステップ 2 5の処理では、 前述した図 5の回 転処理が加味される。 例えば、 このステップ 2 5 に至るキャラクタ は走っているので、 走 り ながら視線をボールに向けるには、 1 ) の 態様が例えば好適となる。
ステッ プ S 2 4で N 0 ( 3メー トル以内にいない) のときは、 い ま制御御対象となっているキャラクタは、 ド リ プルしている相手キ ャラク夕に視線を向ける ( S 2 6 ) 。 このと きの回転制御は図 5で 説明したいずれの態様を とつてもよ く、 その時点で相手との角度関 係がどのよう になっているかに応じて選択すればよい。
ステッ プ S 2 3で N 0 ( ド リ ブル中ではない) のとき、 及び、 ス テヅプ S 2 2で N〇 (相手チームがボールを持っていない) のとき は、 現在のボールの挙動が 「ハイ ボール」 か否かを判断する ( S 2 7 ) 。 「ハイ ボール」 はこ こではボールの位置がキャラクタの頭上 よ り も高い状態を言う 。 この判断が Y E S (ハイボールである) の ときは、 いま制御対象となっているキャラクタにボールに視線を向 けるよう に指令する ( S 2 8 ) 。 反対に、 N O (ハイ ボールでない) のときは、 視線制御は行わず、 モーショ ンに依存した視線を維持さ せる ( S 2 9 ) 。 例えば、 このキャラ クタは少な く とも走っている から、 走行方向を向いた視線を維持させる。 以下、 モーショ ンに依 存する とは、 視線制御を行わず、 プログラムに定められたキャラク 夕の動作パターン (モーショ ン) の動きをそのまま使う こ とを言う。 ステップ S 2 1 の判断で N〇、 つま り 自分が走行していない状態 が判断されたときは、 ド リ ブル中であるか (図 7、 S 3 0 ) 、 セン 夕 リ ングエリ ア内にいるか ( S 3 1 ) を順次判断する。 ステップ S 3 1 で Y E S と判断されたときは、 ド リ ブル中でかつセン夕 リ ング エ リ ア内にいる場合であるから、 当然ゴールを狙うのが自然の流れ である。 そこで、 この場合は、 キャラクタの視線をゴールに向けさ せる ( S 3 2 ) 。
ステップ S 3 1 でセン夕 リ ングエリ ア内にいないときは、例えば、 4秒に 1 回の割合で ト ップの選手に視線を向けさせる ( S 3 3 ) と ともに、 4秒に 1 回の割合でゴールに視線を向けさせる ( S 3 4 ) 。 また、 ステップ S 3 0で N 0 ( ド リ ブル中ではない) のと きは、 例 えば、 セ ッ トプレイ 中であるか否かを判断する ( S 3 5 ) 。 この判 断が Y E S (セ ッ トプレイ 中) のときはさ ら に、 パスの相手が決ま つていてキックに入っているか否かを判断し ( S 3 7 ) 、 Y E Sの ときはパスの相手に視線を向けさせ ( S 3 7 ) 、 N Oのと きは格別 の視線制御は行わずに、モーショ ンに依存した視線を確保させる( S 3 8 ) o
なお、 図 2 2 は、 キャラクタの視線制御の結果表示される画面を 模式的に示したものである。 同図において、 選手 Aは、 パスする相 手である選手わの (足元の) 方向に視線を向ける。 選手 Bは、 パス されるボールの方向に視線を向けている。
このよ う にキャラクタの視線制御を施すようにしたため、 実際の サヅカーゲームにおいて競技者が行う挙動に非常近いシ ミ ュレ一シ ヨ ンを行う こ とができる。 従来のよう に、 視線は、 例えば、 走行方 向を向いたままで、 突然に、 別の方向にボールを蹴り 出すという こ ともな く なる。 このような場合でも、 キャラクタは事前に、 蹴り 出 す、 または蹴り 出したい方向に視線を向けるので、 よ り リ アルにキ ャラク夕の挙動を表現でき、 臨場感も高められ、 ゲーム性の高いゲ —ム装置を提供できる。 しかも、 視線制御の際、 頭部だけを回転さ せるだけではな く、 必要に応じて、 胴部や腰部も追随または同時に 回転させるので、 その視線制御に挙動に リアル感が確実に高められ る。
また別の観点から上記視線制御の利点を考える と、 キャラクタが 向ける視線方向自体が、 プレーヤ (遊戯者) に次の操作を行う ヒン トを暗示 (示唆) する という こ とである。 例えば、 ド リ ブル中のキ ャラク夕が頻繁に後ろに視線を向け始めたら、 後ろから相手チーム のキャラクタが迫っている こ とが考え られるから、 プレーヤ (遊戯 者) はこの追跡を避けなければと思う ようになる。 したがって、 キ ャラク夕の挙動がプレーヤ (遊戯者) にゲームの状況を伝える (暗 示する) ことができる。
反対に、 図 6及び図 7 に示した判断ステップに、 若干のフロ ック を混ぜる こ ともできる。 つま り、 正規の判断とは全く別の方向にわ ざと視線を向けさせるのである。 これによ り、 プレーヤ (遊戯者) の判断を攪乱するこ とができ、 ゲーム装置と しての興味性、 ゲーム 性を一層高める こ とができ、 また、 ゲームの難易度を上げるこ とが できる。
続いて、 上述した観客の挙動制御の処理を図 8〜図 1 7 を用いて 説明する。
最初に、 本発明に係る観客を表す画像データ (観客データ) の構 造を図 8 によ り説明する。 いま、 後ろに進むほど座席が高く なる m ( > 2 ) 列のスタ ン ドに観客が座っている と し、 この m列の観客の 内の n ( > 2 ) 行を切 り 出す。 この 「 111列 11行」 の内の、 m, 列 ( > 0 ) 分に対する 「 m ' 列 X n行」 の観客を 1枚の矩形状のポリ ゴンに複数観客分のテクスチャァを貼って表す。 例えば、 図 8 にお いて、 A〜 D, A ' 〜 D, , A " 〜 D " は 1 2枚の矩形状のポ リ ゴ ンを示し、 各ポ リ ゴンがスタ ン ド奥行き方向に進むほど高く なる状 態を摸して積層した仮想空間でのデータ構造を示す。 ポリ ゴン A ~ D , A, 〜 D, , A " 〜 D " のそれそれは、 1枚のポリ ゴンで、 例 えば 3列 ( = m, ) x 4行 ( = n ) 分の複数の観客を表す。 1枚目 のポリ ゴン Aの後ろ (奥行き方向) に仮想的に位置する 2枚目のポ リ ゴン Bは例えば 1列だけ上がった状態を初期状態と し、 3枚目の ポリ ゴン Cは例えば 1列だけ上がった状態を初期状態と し、 さ らに、 4枚目のポリ ゴン Dは例えば 1列だけ上がつた状態を初期状態と し ている。 このため、 A〜D , A ' 〜D, , A "〜D " の 1 2枚のポ リ ゴンによ り、 スタ ン ドに陣取る、 例えば、 「 1 4列 X 4行」 の観 客を表す。
1 2 の枚のポ リ ゴン A〜 D, A, 〜 D, , A,, 〜 D " の内、 例え ば、 最初の 4枚のポリ ゴン A〜 Dが観客の図柄的に相互に関連し、 その次の 4枚のポリ ゴン A ' ~ D ' が観客の図柄的に相互に関連し、 最後の 4枚のポ リ ゴン A "〜 D " が観客の図柄的に相互に関連して いる。 同時に、 1 2の枚のポリ ゴン A〜 D, A ' ~ D, , A " ~ D " の 1、 5、 9枚目の 3枚のポリ ゴン A, A ' , A " が同一に動かさ れる同一オブジェク ト 0 B 1を構成している。 同様に、 2、 6、 1 0枚目の 3枚のポリ ゴン B , B ' , B " が同一に動かされる同一ォ ブジェク ト 0 B 2を構成している。 同様に、 3、 7、 1 1枚目の 3 枚のポリ ゴン C, C ' , C " が同一オブジェク ト 0 B 3を、 4、 8、 1 2枚目の 3枚のポリ ゴン D , D, , D " が同一オブジェク ト 〇 B 4をそれそれ構成している。 オブジェク ト毎の観客の図柄は関連し なくても よい。 つま り、 本発明の観客データは、 複数個 (枚) のポ リ ゴンが互いに仮想空間上で分離されながら も、 同一のオブジェク トを形成している点に一つの特徴がある。 なお、 オブジェク ト毎の 観客の図柄は関連させな く てもよい。
このように構成されるデ一夕に対して、 図 9に示す観客挙動制御 の処理が C P U 1によ り実施される。 つま り、 C P U 1は全体の観 客デ一夕のポリ ゴンの内、 その挙動を制御するポ リ ゴン群を決める ( S 4 1 ) 。 これによ り、 仮想カメラ (視点) から見える観客の内、 例えば自分が応援するチーム側に陣取った観客のポ リ ゴンの群 (例 えば図 1 0の 1 2枚のポ リ ゴン A〜 D , A ' 〜 D, , A " 〜 D,, ) のいずれかが選択される。 ここで、 複数のポ リ ゴン群を選択しても 勿論よい。
次いで、 C P U 1は、 決定 (選択) したポ リ ゴン群を動かす挙動 パターンを選択する ( S 4 2 ) 。 この挙動パターンと しては、 ここ では、 1群あるいは複数群のポリ ゴンのそれそれを上下 (縦) 方向 に動かす、 または左右 (横) 方向に動かすパターンが用意されてい る。 この挙動パターンが選択されると、 C P U 1は、 選択した挙動 パターンに沿って 1群あるいは複数群のポ リ ゴンのそれそれを動か す処理を行う ( S 4 3 a , ···, S 4 3 n ) 0 このポ リ ゴンの動かし方の一例を図 1 0〜図 1 7に示す。 これら の図のポ リ ゴン群は 1群を例示してお り、 図 8と同一のデータ構成 を有する。 ポリ ゴンを動かす前の状態が図 1 0の状態である とする と、 この状態から、 例えば、 フ レーム更新毎に、 図 1 1、 図 1 2、 図 1 3、 図 1 4、 図 1 5、 図 1 6で示すポリ ゴン位置の状態へと順 次動かし、 複数フ レーム後には一順して再び図 1 7で示すポリ ゴン 位置の状態 (図 1 0と同じポリ ゴン位置の状態) に戻る。
具体例と しては、 図 1 1に示す最初のフ レーム更新時には、 最初 のオブジェク ト O B 1 を形成する手前から 1、 5、 9番目の 3つの ポリ ゴン A, A ' , Α" を仮想空間で上方向に上げる ( u p ) 。 図 1 2に示すその次のフ レーム更新時には、 オブジェク ト O B 1の 3 つのポリ ゴン A, A ' , A " をさ らに上方向に上げる (u p ) と と もに、 2番目のオブジェク ト O B 2を形成する 2、 6、 1 0番目の 3つのポ リ ゴン B, B, , : B " を上方向に上げる ( u p ) 。 図 1 3 に示すその次のフ レーム更新時には、 オブジェク ト 〇 B 1のポリ ゴ ン A, A ' , A " を仮想空間で下方向に下げる ( d o wn) と とも に、 2番目のオブジェク ト 0 B 2のポ リ ゴン B , B ' , B " をさ ら に上方向に上げ、 かつ、 3番目のオブジェク ト 0 B 3を形成する 3、 7、 1 1番目の 3つのポリ ゴン C, C, , C"を上方向に上げる (u p ) 。 図 1 4に示すその次のフ レーム更新時には、 2番目のォブジ ェク ト O B 2のポ リ ゴン B , B ' , B"及び 3番目のオブジェク ト OB 3のポリ ゴン C , C, , C" を下方向に下げる ( d o wn) と ともに、 オブジェク ト O B 4の 3つのポリ ゴン D , D ' , D" を上 方向に上げる ( u p) 。 そ して、 図 1 5に示すその次のフ レーム更 新時には、 3番目のオブジェク ト 0 B 3のポリ ゴン C, C ' , C " 及びオブジェク ト 0 B 4のポ リ ゴン D, D ' , D " を下方向に下げ る ( d o wn) 。 その次のフ レーム更新時には、 遅れて下げ始めた オブジェク ト 0 B 4の 3つのポ リ ゴン D , D 5 , D" を下方向にさ らに下げる ( d o wn) 。 これによ り、 図 1 7に示すよう に、 一巡 して最初のポリ ゴン位置状態に戻る。 ポリ ゴンを左右方向に動かす ときも同様である。
そ して、 C P U 1は、 1群あるいは複数群のポリ ゴンのそれそれ を動かす度に (例えば、 図 1 0から図 1 1に至る状態) 、 仮想カメ ラから見える分の観客データを V D P 5に指定する ( S 4 4 ) 。 こ の後、 再びステ ップ S 4 1の処理に戻って、 フ レーム更新毎に上述 した挙動パターンの制御処理を繰り返す。 なお、 この観客の挙動制 御の処理は複数の表示フ レーム毎に行う よう にして、 かかる処理を 間引き して、 簡素化するこ ともできる。 また、 この観客の挙動制御 の処理は、 特定のモー ド時 (例えば、 ゴール時) に行うよう に して も良い。 なお、 三次元仮想空間内の表示体は、 仮想空間内の所定の 仮想カメ ラ視点 (遊戯者によって移動され得る。 ) から表示画面に 対して透視変換されて表示される。 また、 仮想カメ ラの位置、 投影 セン夕一に相当する視点と、 キャラクタの視線制御における視点と は、 念のために、 別物であるこ とを指摘しておく 。
この結果、複数のポリ ゴンを 1つのオブジェク 卜 と して関連付け、 かつ、 このよう な複数のオブジェク トの各ポリ ゴンを横断的にグル ープ化してイ ン夕一リ ーブし、 関連する絵柄をグループ毎にテクス チヤで与えているので、 オブジェク ト単位で各ポリ ゴンを動かすだ けで、 絶え間な く 動く 観客の多彩な挙動をよ り リ アルに表現するこ とができる。 オブジェク ト単位で動かすので、 そのソ フ ト プログラ ムのコマン ド数が少な く なる等、 その設計を簡単化できる。 また、 挙動制御自体も簡単になって、制御のための演算負荷が少な く なる。 P98/00 77
28 観客個々をポリ ゴンで表示する場合に比べて遜色の無いリ アルな挙 動を表現しながら、 扱うデ一夕量は格段に少なく て済む。 したがつ て、 観客デ一夕を格納しておく メモ リ の容量の少な く てよい。 当然 に、 動画的に観客の挙動を表示する場合よ り も、 デ一夕数が少な く、 かつ、 よ り リアルに臨場感をもって表現できる。
続いて、 上述したフォグ制御の処理を図 1 8〜図 2 1 を用いて説 明する。 このフ ォグ制御とは、 前述したよう に、 カラー値を持った 一種のマスクデータを画像データ上に重畳する処理である。 それに よ り、 従来の輝度データのみによって 1 日の日照変化に伴う明るさ の変化を画面に反映するだけでは得られない、 よ り リ アルな画面表 現を得よう とするものである。
この処理は C P U 1 によ り、 例えば、 図 1 8に示すよう に実行さ れる。 なお、 この図 1 8の処理を VD P 5で実行させても よい。
C P U 1は、 まず、 現在の時刻、 すなわち、 プレーヤ (遊戯者) がゲーム装置を操作している標準時刻、 を実時間ク ロ ック 1 3から 読み込む ( S 5 1 ) 。 次いで、 その時刻が予め定めた、 昼、 夕、 夜 の基準となる時間帯からずれているかどうかを判断する ( S 5 2 ) 。 この昼、 夕、 夜の基準時間帯は、 例えば、 図 1 9のように定められ ている。 例えば、 昼間の基準時間帯と しては比較的長めに 6 : 0 0 〜 1 6 : 3 0を、 夕方の基準時間帯と しては 1 7 : 0 0〜 1 8 : 3 0に、 夜間の基準時間帯と しては 1 9 : 3 0〜 5 : 3 0にそれそれ 設定されている。 ここで、 昼間の基準時間帯を長めにしているのは、 朝方近く にプレイする遊戯者と夕方近 く にプレイする遊戯者との間 で、 画面の明るさが影響してゲーム結果に差が出ないよう にするた めである。
ステッ プ S 5 2の判断で Y E S となる と きは、 昼、 夕、 夜の基準 時間帯別に予め設定されているフォグデータのパラメ一夕値を R O M 2から読み出す ( S 5 3 ) 。 このパラメ一夕 と しては、 赤、 青、 緑のフォグのカラーコー ド、 オフセ ッ ト値 (フォグの濃さを表す) 、 及び濃度 (奥行きに対するフォグの掛かる具合) の 3つであ り、 基 準時間帯についてはそれらのパラメ一夕値が適宜な値になるよう に 予め決められている。
次いで、 C P U 1はフォグデ一夕を演算し、 そのデ一夕をマスク デ一夕 と して V D P 5 に出力する ( S 5 4 , S 5 5 ) 。
一方、 ステップ S 5 2で N Oとなる ときは、 現在の時刻と基準時 間帯とのずれを計算する ( S 5 6 ) 。 例えば、 時刻が朝の 5 : 4 5 であった とすれば、 夜の基準時間帯と昼のそれとの丁度、 中間で、 1 5分のずれがある。
次いで、 C P U 1は、 ずれがある時刻を挟んで存在する 2つの基 準時間帯のフォグデ一夕のパラメ一夕値 ( R , G , Bのカラ一コ一 ド、 オフセッ ト値、 濃度) をそれそれ読み出す ( S 5 7 ) 。 時刻が 例えば 5 : 4 5であったとすれば、 夜間と昼間の基準時間帯のパラ メータ値がそれそれ読み出される。
そして、 オフセ ッ ト値及び濃度に対するパラメ一夕値の補間演算 が行われる ( S 5 8 ) 。 例えば、 時刻が例えば 5 : 4 5の場合、 ォ フセ ッ ト値及び濃度は丁度、 夜間と昼間の基準時間帯のオフセ ッ ト 値及び濃度の 1 / 2の平均値となる。 時刻がいずれかの基準時間帯 によ り近い場合、 その近い分の重み付けがなされ、 平均化 (補間) される。
このよう に時刻が基準時間帯からずれていた場合でも、 補間演算 によ り、 オフセ ッ ト値と濃度が決ま り、 前述と同様にフォグデータ が演算され、 出力される ( S 5 4 , S 5 5 ) 。 この結果、 プレーヤ (遊戯者) がゲームを行う と きの時刻に想定 された日照状態に応じてフォグが掛けられた画像が リ アルタイ ムに 表示される。 例えば、 夕方にゲームを行う場合、 競技場の外の背景 部分には黒つぼいフォグが掛けられる (図 2 0の斜線参照) 。 また、 例えば、 夜間にゲームを行う場合、 背景に月が出ている とすれば、 黒っぽいフ ォグと月光に輝く 黄色っぽいフ ォグとが背景に掛かる (図 2 1 の斜線参照) 。
このため、 従来のよう に単に輝度値のみの制御で、 競技場及びそ の周囲を表示する画像の日照状態 (物理的明るさ) を表現する場合 とは異な り、 よ り リアルに光源の明るさやスペク トルの変化を表現 できる。 と く に、 カラーのフォグデ一夕を被せているため、 例えば 月が出ている部分など、局所的な明るさの調整も容易に可能である。 また、 本実施形態では例えば朝焼け、 夕焼けが出る ような基準時間 帯間の微妙な明るさをも、 昼間、 夕方、 夜間の内の 2 つの基準時間 帯を使った補間パラメ一夕から処理できる。
つま り、 昼、 夕、 夜の一番ゲームに適したカラ一状態に対応した カラー状態を予め作成しておいて、 ゲームを行う時刻に合ったカラ —状態を昼/夕、 夕/夜、 も し く は夜/昼の基準値間で補間 (具体 的には、 カラ一の混ぜ合わせ処理 ; 2 つの基準値の間で補間を した 輝度値を付加してもよい) してカラー状態を決める。 このため、 単 に輝度値のみで調整する場合のように画面が暗く なつて操作が難し く なる という こ ともない。 カラ一調整の開始点 (一方の基準値) と 終着点 (もう一方の基準値) とが予め決まってお り、 ゲームに適し た状態がセッ 卜 されているから、 どの時間にプレイ しても画面の力 ラー状態による有利/不利が生じない。 つま り、 ゲームであるこ と の特殊性ゆえに、 「時間の変化に拠るカラ一変化」 を演出した上で、 「プレイ する時間帯によって有利/不利が生じて不公正感を出さな い」 という こ とが重要であ り、 本実施形態の装置はこれに応えるこ とができる。 このよう に、 競技場やその周辺を取り巻く環境の明る さ表現に関して臨場感に優れた画像を提供できる。
上述したキャラクタの視線制御、 観客の挙動制御、 及びフォグ制 御は必ずしも 3つ同時に実行しな くても よい。 いずれか 1つまたは 2つの制御を行う よう にしてもよい。
次に、 本発明の第 2の実施の形態について図 2 3〜図 5 8を参照 して説明する。
図 2 3は、 本発明の他の実施の形態に係る画像処理装置を用いた ビデオゲーム機の外観図である。 この図において、 ビデオゲーム機 本体 5 0は略箱型をなし、 その内部にはゲーム処理用の基板等が設 けられている。 また、 ビデオゲーム機本体 5 0の前面には、 2つの コネクタ 6 0 aが設けられてお り、 これらのコネクタ 6 0 aにはゲ —ム操作用の P A D 6 0 bがケーブル 6 0 cを介して接続されてい る。 2人の遊戯者がゲームを楽しむ場合には、 2つの P A D 6 O b が使用される。
ビデオゲーム機本体 5 0の上部には、 R 0 Mカー ト リ ッジ接続用 のカー ト リ ッジ I /F 5 0 a、 C D— R O M読み取り用の C D— R 0 M ドライ ブ 5 0 bが設けられている。 ビデオゲーム機本体 5 0の 背面には、 図示されていないが、 ビデオ出力端子及びオーディ オ出 力端子が設けられている。 このビデオ出力端子はケーブル 7 0 aを 介して T V受像機 8 0のビデオ入力端子に接続される とともに、 ォ —ディ ォ出力端子はケーブル 7 O bを介して T V受像機 8 0のォ一 ディ ォ入力端子に接続されている。 このようなビデオゲーム機にお いて、 ユーザが P A D 6 O bを操作するこ とによ り、 T V受像機 8 0に映し出された画面を見ながらゲームを行う こ とができる。
図 2 4は、 本実施の形態に係る T Vゲーム機の概要を表すブロ ッ ク図である。 この画像処理装置は、 装置全体の制御を行う C P Uブ ロ ック 5 1、 ゲーム画面の表示制御を行う ビデオブロ ック 5 2、 効 果音等を生成するサウン ドブロ ック 5 3、 C D— R OMの読み出し を行うサブシステム 5 4等によ り構成されている。
C P Uプロ ック 5 1は、 S C U ( System Control Unit) 1 0 0、 メイ ン C P U 1 0 1、 RAM 1 0 2、 R OM 1 0 3、 カー ト リ ッジ I / F 5 0 a N サブ C P U 1 04、 C P Uバス 1 0 3等によ り構成 されている。 メ イ ン C P U 1 0 1は、 装置全体の制御を行う もので ある。 このメイ ン C P U 1 0 1は、 内部に D S P (Digital Signal Processor) と同様の演算機能を備え、 アプリケーシ ョ ン ソ フ トを 高速に実行可能である。 RAM I 0 2は、 メ イ ン C P U 1 0 1のヮ —クエ リ アと して使用されるものである。 R OM 1 0 3には、 初期 化処理用のイニシャルプログラム等が書き込まれている。 S C U 1 0 0は、 バス 1 0 5、 1 0 6、 1 0 7を制御するこ とによ り、 メイ ン C P U 1 0 1、 VD P 1 2 0、 1 3 0、 D S P 1 4 0、 C P U 1 4 1等の間におけるデータ入出力を.円滑に行う ものである。 また、 S C U 1 0 0は、 内部に DMAコン ト ローラを備え、 ゲーム中のス プライ トデ一夕をビデオブロ ック 5 2内の VRAMに転送するこ と ができる。 これによ り、 ゲーム等のアプリケーショ ンソフ ト を高速 に実行するこ とが可能である。 カー ト リ ッジ I /F 5 0 aは、 R O Mカー ト リ ヅ ジの形態で供給されるアプリケーショ ンソフ ト を入力 するためのものである。
サブ C P U 1 0 4は、 S MP C ( System Manager & Peripheral Control) と呼ばれるもので、 メ イ ン C P U 1 0 1からの要求に応 じて、 P AD 6 O bからペ リ フ ヱラルデ一夕をコネクタ 6 0 aを介 して収集する機能等を備えている。 メ イ ン C P U 1 0 1はサブ C P U 1 0 4から受け取ったペリ フ エラルデ一夕に基づき処理を行う も のである。 コネクタ 6 0 aには、 P AD、 ジョイスティ ック、 キー ボー ド等のう ちの任意のペリ フ ヱラルが接続可能である。 サブ C P U 1 0 4は、 コネクタ 6 0 a (本体側端子) に接続されたペリ フ エ ラルの種類を自動的に認識し、 ペリ フ エラルの種類に応じた通信方 式に従いペリ フ ヱラルデ一夕等を収集する機能を備えている。
ビデオブロ ッ ク 5 2は、 ビデオゲームのポ リゴンデ一夕から成る キャラクタ等の描画を行う V D P (Video Display Processor) 1 2 0、 背景画面の描画、 ポリ ゴン画像デ一夕及び背景画像の合成、 ク リ ッ ピング処理等を行う VD P 1 3 0 とを備えている。 VD P 1 2 0は VRAM 1 2 1及びフ レームバ ッ フ ァ 1 2 2、 1 2 3に接続 されている。 ビデオゲーム機のキャラクタを表すポ リ ゴンの描画デ —夕はメ イ ン C P U 1 0 1から S CU 1 0 0を介して VD P 1 2 0 に送られ、 VR AM 1 2 1に書き込まれる。 VRAM 1 2 1に書き 込まれた描画データは、 例えば、 1 6または 8 ビ ッ 卜 / pixelの形 式で描画用のフ レームバッ フ ァ 1 2 2 または 1 2 3に描画される。 描画されたフ レームバ ッ フ ァ 1 2 2または 1 2 3のデータは VD P 1 3 0に送られる。 描画を制御する情報は、 メイ ン C P U 1 0 1か ら S C U 1 0 0を介して VD P 1 2 0に与え られる。 そして、 VD P 1 2 0は、 この指示に従い描画処理を実行する。
VD P 1 3 0は、 VRAM 1 3 1に接続され、 VD P 1 3 0から 出力された画像デ一夕はメモリ 1 3 2を介してエンコーダ 1 6 0に 出力される構成となっている。 エンコーダ 1 6 0は、 この画像デー 夕に同期信号等を付加するこ とによ り 映像信号を生成し、 T V受像 機 8 0に出力する。 これによ り、 T V受像機 8 0にゲームの画面が 表示される。
サウン ドプロ ック 5 3は、 P C M方式あるいは F M方式に従い音 声合成を行う D S P 1 4 0 と、 この D S P 1 4 0の制御等を行う C P U 1 4 1 とによ り構成されている。 D S P 1 4 0 によ り生成され た音声デ一夕は、 D / Aコ ンバータ 1 Ί 0によ り 2チャンネルの信 号に変換された後にスピーカ 8 0 bに出力される。
サブシステム 5 4は、 C D—: O M ドライ ブ 5 0 b、 C D I / F 1 8 0、 C P U 1 8 1、 M P E G A U D I 0 1 8 2、 M P E G V I D E 0 1 8 3等によ り構成されている。 このサブシステム 5 4は、 C D— R〇 Mの形態で供給されるアプリケーショ ンソ フ 卜の 読み込み、 動画の再生等を行う機能を備えている。 C D— R O M ド ライ ブ 5 O bは C D— R O Mからデ一夕を読み取るものである。 C P U 1 8 1は、 C D— R O M ドライ ブ 5 O bの制御、 読み取られた データの誤り訂正等の処理を行う ものである。 C D— R O Mから読 み取られたデータは、 C D I / F 1 8 0、 ノ ス 1 0 6、 S C U 1 0 0を介してメ イ ン C P U 1 0 1 に供給され、 アプリケーショ ンソ フ ト と して利用される。 また、 M P E G A U D I 0 1 8 2、 M P E G 1 0 0 1 8 3は、 1^ ? £: 0規格 01;1011 Picture Exper t Group) によ り圧縮されたデ一夕を復元するデバイスである。 こ れらの M P E G A U D I 0 1 8 2 , M P E G V I D E O 1 8 3 を用いて C D— R O Mに書き込まれた M P E G圧縮データの復元を 行う こ とによ り、 動画の再生を行う こ とが可能となる。
図 2 5は、 コ ン ピュータシステム内に形成される 3 Dの仮想ゲ一 ム空間において、 ゲームの一例と して、 サッカー · ゲームを行う場 合を説明する説明図である。 同図において、 サッカーコー トが 3 D仮想空間の X — z平面に形 成される。 コー トの長手方向 (左右方向) は X軸方向に、 コー トの 短手方向 (奥行方向) は y軸方向に、 高さ方向は z軸方向に、 それ それ定められている。 このコー ト上に、 図示しない各選手のォブジ ェク トが配置され、 遊戯者は入力装置によって主人公たる選手の動 きを制御する。 グラウン ドには、 ライ ンオブジェク トが描かれて、 サッカー · コー トが形成されている。 この仮想ゲーム空間に、 視野 内の様子を座標変換等を行って二次元のモニタ画面に表示するため の仮想カメラ (視点) が配置され、 ゲームが中継される。
図 2 6及び図 2 7は、 本発明の着目を説明する説明図である。 図 2 6 において、 グラウン ドには、 ライ ンを形成するためのポリ ゴン (以下、 ライ ン ' ポリ ゴンという) の組合わせによってライ ン ' ォ ブジェク トが配置され、 図 2 5 に示すような、 線引されたサッカー コー トが形成される。 このライ ンは、 ゲーム空間のカメラ位置が上 方から見おろす角度にある ときは、 画面に良く表示されるが、 カメ ラの上下方向 ( y軸方向) の角度が、 水平方向に近づ く につれて画 面中に占めるライ ンの面積は減少し、 だんだんモニタ画面に映らな く なつていく 。 また、 ライ ン · ポリ ゴンとカメラ とが相対する状態、 すなわち、 ライ ン · ポ リ ゴンの法線べク トルとカメ ラの視線べク ト ルとが平行になる場合であっても、 視点位置を十分に遠ざけた場合 には、 当該三次元仮想空間を座標変換した二次元投影画面では、 ラ イ ン · ポ リ ゴンが細く な りすぎて表示されない場合があ り得る。 ラ イ ン (あるいはコー ト) 内でゲームを行う こ とを前提とするゲーム では、 これは不都合である。
そこで、 本発明では、 モニタ画面にライ ンが映り難く なる条件下 では、 ライ ンポ リ ゴンの一部の頂点の位置座標を変更し、 カメ ラに 映る面積が増えるよう にする。 すなわち、 カメ ラ との相対的な関係 において、 グラウン ド上に配置されたライ ン · ポリ ゴンのカメ ラか ら見て奥方向に位置する頂点の高さ位置を図 2 7 に示すよう に、 少 し上げてカメ ラに映るライ ン ·ポリ ゴンの面積が増えるようにする。 図 2 8 は、 このような処理を行うアルゴリ ズムを説明するフロー チヤ一トである。
まず、 仮想ゲーム空間に配置された各オブジェク トを観察する力 メラの視野内に、 ライ ン ' ポリ ゴン (あるいはライ ン · ォブジェク ト) が存在する と、 図示しないプログラムによって対応するフラグ が設定される。 これが、 メイ ンプログラム (図示せず) 中で判別さ れる と、 ライ ン消失防止処理が実行される ( S 1 0 2、 Y e s ) 。
まず、 ライ ン ' ポリ ゴンの頂点がカメ ラから見て、 奥に位置する か手前に位置するかを判別する。 これには、 図 2 9 に示すよう に、 カメ ラ と頂点 P 1間、 カメ ラ と頂点 P 3間の各距離 1 1及び 1 2を計算 して、 両距離の大小によって頂点の奥 ·手前を判別する方法がある。 また、 図 3 0 に示すよう な、 頂点 P l、 P 3の角度 0 1、 6> 3とカメ ラの角度 0 1、 3の比較によって、 頂点 P l、 P 3の奥 · 手前を判別 する方法がある。 両方法のいずれも本実施の形態に使用可能である が、 後者の方法は前者の方法に比べてハー ドウェアにおける演算量 が少な く て済む利点がある。
そこで、 以下に述べるステッ プ S 1 0 4〜 S 1 1 0のライ ンポ リ ゴンの頂点の奥 · 手前の判別では、 後者の角度の比較による方法で 説明する。
該当シーンにおいて配置されるォブジヱク ト群を表す図示しない オブジェク トテーブルから一つのライ ン · ポ リゴンのデ一夕を読取 る ( S 1 0 4 ) 。 図 3 1 は、 ライ ン · ポ リ ゴンのデータの例を示し ており、 ポリ ゴンの各頂点 P 1〜 P 4のデ一夕には、 例えば、 ワール ド座標系の座標値 (χπ, ζη) に加えて、 予め頂点の奥手前の判別 用に定められた角度値等が対応付されている。
次に、 図 3 0に示すよう に、 カメラのワール ド座標系 ( X — ζ平 面) における現在の位置と、 このカメ ラ位置から見たライ ン ' ポリ ゴンの頂点 Ρη方向の角度 0ηを読取る。 角度 0ηは、 ライ ン ' ポ リ ゴンの頂点 Ρηの座標と、 カメ ラ位置の座標とから三角関数によつ て、 求めるこ とが出来る ( S 1 0 6 ) 。
次に、 ライ ン · ポリ ゴンの頂点とカメ ラ角度との比較を行う ( S 1 0 8 ) 。 例えば、 図 3 0において、 予め頂点 Ρ 1に設定された角 度は 9 0度、 また、 予め頂点 Ρ3に設定された角度は 2 7 0度であ る とする。 カメ ラ と頂点 P 1とを結ぶ視線ベク トルの X軸からの角 度 01が 1 2 0度である と き、 1 2 0度— 9 0度 = 3 0度 < 9 0度 (ここで、 9 0度はこの場合の判別基準値) であるので ( S 1 0 8 ) . ライ ンの奥のエッジの頂点と判別される ( S 1 1 0 ) 。
また、 カメ ラ と頂点 Ρ3とを結ぶ視線ベク トルの X軸からの角度 03が 1 5 0度である とき、 1 5 0度一 2 7 0度 = A B S (— 1 2 0度) > 9 0度 (ここで、 9 0度はこの場合に用いられる判別基準 値、 AB Sは絶対値) であるので ( S i 0 8 ) 、 ライ ンの手前のェ ヅジの頂点と判別される ( S 1 1 0 ) 。
頂点 P nがライ ン · オブジェク トの手前のエッ ジである と きは、 頂点 Pnについては、 高さ調整を行わず、 次のライ ンポ リ ゴンの頂 点のデ一夕の読取り を行う ( S 1 1 0、 N o ) 。
頂点 P nがライ ン .オブジェク トの手前のエッジである ときは ( S 1 1 0、 Y e s ) 、 頂点 P nまでの距離が 1 0 m以下か、 どう かを 判別する。 1 0 m以下のとき ( S 1 1 2、 Y e s ) 、 すなわち、 力 メ ラがライ ンに近接している ときは、 通常、 画面にライ ンが映る状 態であるので、 頂点 Pnについては、 高さ調整を行わず、 次のライ ンポリ ゴンの頂点のデータの読取り を行う ( S 1 1 2、 N o ) 。 頂点 Pnまでの距離が 1 0 m以上のと き ( S 1 1 2、 N o ) 、 す なわち、 通常、 カメラがライ ンから離れている状態のときは、 ライ ンが見え難い状態にあるので、 ライ ンの奥のエツ ジの頂点 P nの座 標デ一夕の y軸方向 (高さ方向) の値を所定値増加して、 ライ ン ' ポリ ゴンのの奥のエッ ジをグラウン ドから上げる ( S 1 1 4 ) 。 こ のような処理を、 画面中の全ライ ン · ポリ ゴンの各頂点について行 う ( S 1 1 6 ) 。
この結果、 仮想ゲーム空間に配置されたライ ン · オブジェク トの 奥側のエッジは、 図 2 7に示すよう に立上が り、 カメ ラからよ く見 えるよう になる。
次に、 第 3の発明の実施の形態について説明する。 第 3の発明は、 ゲームフ ィール ド (サッカーグラウン ド) を所定のエリアに分け、 ボールの位置するエリ アを判断し、 ボールの進行方向 (プレーヤの 見たい方向) が良く見えるよう にカメ ラアングルを調整するもので ある。
図 3 2〜図 3 4は、 遊戯者の移動方向と当該方向に移動する際に 好ま しいカメラの向き方向を説明する ものである。
まず、 カメ ラは、 図 2 5 に示すよう に、 基本的にサイ ドライ ンに 沿って動き、 プレーヤ方向を向 く 。 勿論、 カメラはフ ィ ール ド内に 入ってゲームを追う こ とができる。
遊戯者が制御する プレーヤが X — y平面の奥手前方向 ( z軸方 向) に移動する場合 (図 3 2 ( a) ) 、 カメ ラを z軸方向に向ける (同図 ( b) ) 。 遊戯者が制御するプレーヤが x— y平面の左方向 (― X軸方向) に移動する場合 (図 3 3 ( a ) ) 、 カメ ラを z軸方向から所定角度、 例えば、 一 1 5度方向に向けてボール進行方向の領域の画面表示を 増やす (同図 ( b ) ) 。 こ こで、 z軸から時計方向 (正方向) に測 つた角度を正の値で、 反時計方向 (負方向) に測った角度を負の値 で表している。
遊戯者が制御するプレーヤが X ― y平面の右方向 ( X軸方向) に 移動する場合 (図 3 4 ( a ) ) 、 カメ ラを z軸方向から所定角度、 例えば、 進行方向に 1 5度向けて、 ボール進行方向の領域の画面表 示を増やす (同図 ( b ) ) 。
このような、 カメ ラ角度の調整とゲームフ ィール ドのエ リ アとを 組合わせて、 カメ ラの視点方向を定める例を図 3 5及び図 3 6のフ ローチャー トを参照して説明する。
まず、 図示しないメ イ ンプログラム中で定められる所定のタイ ミ ング (条件) で、 カメ ラの左右角度調整の本ルーチンが実行され、 カメ ラの注視点がプレーヤ側にあるかボール側にあるかを判別する ( S 1 3 2 ) 。
プレーヤ側にある と き ( S 1 3 2、 プレーヤ側) 、 注視点がサッ 力一コー 卜のペナルティ エ リ アから戸)?定距離、 例えば 8 m以内かど うかを判別する ( S 1 3 4 ) 。 8 m以内のとき ( S 1 3 4、 Y e s ) は、 ペナルティ エ リア近傍では、 敵 · 味方の選手が集り、 パスゃシ ユー トの機会が高まるので (図 3 7 ) 、 ペナルティ エ リア近傍の状 況が良 く 見える よ う にカメ ラを z軸に対 して一 1 5度程度傾ける ( S 1 3 6、 図 3 8 ) 。
ペナルティ エ リ アから 8 m以上離れている とき ( S 1 3 4、 N o ) は、 プレーヤの進行方向を判断する ( S 1 3 8 ) 。 プレーヤが手前 方向に移動する場合 (図 3 9 ) 及び奥方向に移動する場合 (図 4 0 ) は、 X — z平面におけるカメ ラのプレーヤに対する角度を 0度とす る ( S 1 4 0、 図 4 1 ) 。 プレーヤが左方向に移動する場合 (図 4 2 ) は、 カメ ラのプレーヤに対する角度が z軸から一 1 5度方向の 角度となるよう にする ( S 1 4 2、 図 4 3 ) 。 プレーヤが右方向に 移動する場合 (図 4 4 ) は、 カメ ラのプレーヤに対する角度が z軸 から 1 5度方向の角度となるようにする ( S 1 4 4、 図 4 5 ) 。 次に、 カメ ラの注視点の位置がボールにあるとき ( S 1 3 2、 ボ ール側) 、 ボールとプレーヤ間の距離が、 所定距離、 例えば 1 5 m 以上離れているかが判断される ( S 1 4 6 ) 。 1 5 m以上離れてい る とき ( S 1 4 6、 Y e s , 図 4 6 ) 、 ボールから プレーヤに向う 視線べク トルが z軸から 2 0度の角度となる よう に、 カメ ラの角度 を定める ( S 1 5 4、 図 4 7 ) 。 また、 z軸に対して、 プレーヤと ボールの位置が逆になる場合は、 ボールから プレーヤに向う視線べ ク トルが z軸から 一 2 0度の角度となるよう に、 カメ ラの角度を定 める ( S 1 5 4、 図 4 8 ) 。
ボールとプレーヤ間の距離が、 所定距離、 例えば 1 5 m以上離れ ていないとき ( S 1 4 6、 N o ) は、 カメ ラの注視点がペナルティ エリ アから 8 m以内かどうかが判別きれる ( S 1 4 8 ) 。 カメ ラの 注視点がペナルティ エ リ アから 8 m以内である場合 ( S 1 4 8、 Y e s、 図 4 9 ) 、 カメ ラの視線ベク トルを z軸に対して— 1 5度の 角度に設定する (図 5 0 ) 。 なお、 図 4 8 に示したよう に、 ボール とプレーヤの位置が逆のときは、 カメ ラの向きを z軸から 1 5度の 方向に定める。
更に、 ボールとプレーヤ間の距離が 1 5 m以内であって、 カメ ラ の注視点がペナルティ エ リ アから 8 m以内ではない場合( S 1 4 8、 N o、 図 5 1 ) 、 カメ ラの視線ベク トルをボ一ルに対して 0度 ( z 軸に対して 0度) の角度に設定する (図 5 2 ) 。 これ等の処理を終 えて、 メイ ンプログラムに戻る。
なお、 サイ ドライ ンに沿ってカメラが動く ときに、 z軸方向から のカメ ラの角度を大き く しすぎる と、 遊戯者がパッ ドゃジョイステ イ ツク等の入力装置で X方向及び z方向のプレーヤの移動を入力す る場合に、 画面のプレーヤの動き方向と直接対応しな く なつて操作 し難く なる場合がある。 このため、 1 5度程度のカメ ラの角度が具 ノロ.よい o
このよう にして、 プレーヤのゲームフ ィ ール ドのエ リ アに応じて X — z平面におけるカメ ラアングルが調整され、 ボールの進行方向 が良く見えるよう になされる。
次に、 カメ ラの上下方向 ( y軸方向) の角度調整について説明す る。 図 5 3は、 カメラの上下方向の角度調整を行う処理を説明する フローチャー トであ り、 図示しないメイ ンプログラムで定められる 所定のタイ ミ ング (所定条件) で実行される。 カメ ラの高さ位置は、 これに限定されるものではないが、 通常、 1 O m程度の高さに設定 される。 本ルーチンでは、 図 5 4 に示すよう に、 このカメ ラがゲ一 ムフ ィ ール ドを俯瞰する角度をゲームエリ アに応じて設定する。 す なわち、 カメ ラの注視点の位置を判別する ( S 1 6 2 ) 。 注視点が プレーヤにある とき ( S 1 6 2、 プレーヤ) 、 注視点がペナルティ エリ ア付近にあるかどうかを判別する ( S 1 6 4 ) 。 注視点がペナ ルティ エ リ ア付近にない場合には ( S 1 6 4 、 N o ) 、 比較的に広 い範囲を見せるために、 カメ ラの視線ベク トルが z軸方向から — 8 度の方向になるよう にカメ ラの向きを定める ( S 1 6 6 ) 。 ここで、 カメ ラが下向きの場合を負の角度、 上向きの場合を正の角度、 水平 を 0度と して表す。 また、 注視点がペナルティ エリ ア付近にある場 合には ( S 1 6 4、 Y e s ) 、 カメラの視線ベク トルが z軸方向か ら一 1 1度の方向になるようにカメ ラの向きを定める ( S 1 6 8 ) 。 これによ り、 よ り カメ ラが見おろすよう にな り、 よ り立体感、 奥行 感のある画像が得られる。
注視点がボールにある とき ( S 1 6 2、 ボール) 、 注視点がペナ ルティ エ リア付近にあるかどうかを判別する ( S 1 7 0 ) 。 注視点 がペナルティ エ リ ア付近にない場合には ( S 1 7 0、 N o ) 、 カメ ラの視線べク トルが z軸方向から一 1 1度の方向になるよう にカメ ラ等の向きを定める ( S 1 6 6 ) 。 また、 注視点がペナルティ エリ ァ付近にある場合には ( S 1 7 0、 Y e s ) 、 カメ ラの視線べク ト ルが z軸方向から一 1 3度の方向になるよう にカメ ラの向きを定め る ( S 1 7 4 ) 。
これ等の処理が終ったらメイ ンプログラムに戻る。
図 5 5は、 カメ ラのズーム調整を説明するフローチャー トである。 メイ ンプログラムにおいて、 カメ ラのズーム調整を行うべきこ とが 判断されると、 本ル一チンに移行する。
まず、 カメ ラの注視点がペナルティ エ リ ア付近にあるかどうかを 判断する ( S 1 8 2 ) 。 ペナルティ エ リ ア付近にある場合は、 カメ ラが注視点から所定距離まで離れるよう にカメラを引 く、 ズーム ' ダウンを行う ( S 1 8 4 ) 。 これによつて、 ペナルティエ リ ア全体 が見渡せるよう になる。
カメ ラの注視点がペナルティ エ リ ア付近になく ( S 1 8 2、 N o ) . プレーヤが画面の外にいる とき ( S 1 8 6、 Y e s ) 、 画面内にプ レ一ャを映すべく、 ズーム . ダウンを行う ( S 1 8 8 ) 。 図 5 6に 示すよう に、 プレーヤが画面内に存在し ( S 1 8 6、 N o ) 、 かつ、 プレーヤが画面の 3 / 4以内に入っている場合は ( S 1 9 0、 Y e s ) 、 カメ ラが注視点から所定距離まで近づ く よう にカメ ラを移動 する、 ズームアップを行う ( S 1 9 0 ) 。 これによ り、 一定の範囲 が見えいる状態でプレーヤをクローズアップするこ とが可能となる , また、 プレーヤが画面に映っているが、 画面の 3 / 4以内には入つ ていない場合は ( S 1 9 0、 N o ) , カメ ラ と注視点との距離を維 持する ( S 1 9 4 ) 。
図 5 7は、 上述したライ ン · ポリ ゴンのように、 画面から消滅す るこ とを防止すべきものを表示できる よう に した他の例を説明する フローチャー トである。
同図においては、 予め消失を防止すべきポ リゴンのデータに消失 防止力の対象であるこ とを示す属性デ一夕が付されている。 仮想力 メ ラの視野内のオブジェク ト群を画面表示する際に、 コンピュータ システムによって視野内に消失防止対象のポリ ゴンが存在するかど うかが判別される ( S 2 0 2 ) 。
消失防止'対象のポリ ゴン、 例えば、 ライ ン ' ポリ ゴンが存在する 場合 ( S 2 0 2、 Y e s ) , ポリ ゴンの消失防止プログラムを実行 する。 すなわち、 図 5 8 に示すよう に、 カメ ラの注視点とカメ ラの 位置から単位視線ベク トルを求める ( S 2 0 4 ) 。 消失防止対象の ポリ ゴンのデータから単位法線ベク トルを求める ( S 2 0 6 ) 。 単 位視線べク トルと単位法線べク トルとのなす角度を求める。これは、 単位視線べク トルと単位法線べク トルの内積と して求めるこ とが可 能である ( S 2 0 8 ) 。 この角度が所定の角度になるよう に、 ポリ ゴンの頂点の座標値を調整する ( S 2 1 0 ) 。 視野内の消失防止対 象となる各ポリ ゴンについてステ ップ 2 0 4からステップ 2 1 0の 処理を行う。 こ こで、 ステップ 2 0 2は消失防止実行手段に、 ステ ヅプ 2 0 4 〜 2 0 8は角度算出手段に、 ステ ップ 3 1 0はポリ ゴン 傾斜手段に対応する。
このようにしても、 ゲームに不可欠なライ ン等が消えないよう に するこ とが可能となる。
なお、 本発明は、 サッカーゲームに限定されるものではな く 、 グ ラウン ドやコー トにライ ンが描かれる、 テニス、 野球、 バスケッ ト ボール、 バレーボール、 ラグビー、 ァメ リ カンフ ッ トポール等、 種々 のゲームに適用可能である
このようにして、 エ リ アや表示状態に応じてカメ ラのズーム調整 がなされる。
以上説明したような、 画像処理装置及び画面の表示方法をコンビ ユ ー夕システムに実現するプログラムは、 情報記録媒体、 例えば、 C D— R O M、 D V D— R O M、 R 0 Mカセ ッ ト等に記録されて提 供される。
第 8 から第 1 7図において説明した実施形態において、 競技場を 臨む観客、 すなわち、 ゲーム空間である三次元仮想空間内に表示さ れる表示体の一例、 を有するテクスチャーを A乃至 D "のそれそれ のポリ ゴン面に貼られた態様は特に限定されない。 例えば、 ポリ ゴ ン面にマッ ピングされるテクスチャーのうち、 観客を模した表示体 以外の背景部分を透明ビッ トのテクスチャ一とし、 表示体の部分を 不透明ビッ トのテクチヤーとするこ とができる。
第 5 9 図はこのテクスチャーの模式図である。 観客である表示体 3 0 0および必要であればその周囲部分 3 0 1 も含めて不透明ビッ トのテクスチャー領域とする。 それ以外の部分、 例えば、 背景部分 3 0 2 を透明ビッ 卜のテクスチャー領域とする。 第 6 0図は、 他の 観客の形態に係わるテクスチャ一の例である。 背景 3 0 2 は同様に 透明ビッ トであ り、 キャラクタ一 3 0 4は不透明ビッ トである。 こ のテクスチャ一は、 第 5 9 図のテクスチャーが貼られるポリゴン以 外のポリ ゴンに貼 り付けられ、 第 5 9 図のテクスチャ一が貼らたポ リ ゴンの手前、 即ちよ り仮想視点側に第 6 0 図のテクスチャーが貼 られたポ リ ゴンを配置する。 第 6 1 図は、 これらのテクスチャ一が 第 8乃至 1 7図に示すよう に重畳、 すなわち、 重ねられた状態を示 すものである。 第 5 9 図の透明な背景部分に第 6 0 図のキャラクタ 3 0 4が重ねて表示される。 したがって、 第 5 9 と第 6 0 図とのポ リ ゴンが重ねられて表示される と、 両方のテクスチャーの観客が合 成、 合体、 或いは重ねられて画面に表示される。 なお、 それそれの ポリ ゴンのキャラクタ一である観客同士が重なる と 3次元空間にお いて下の方の観客、 すなわち、 優先度の低いポ リ ゴンの観客は優先 度の高いポリ ゴンの観客の下にな り画面には表示されないこ とにな る。
このようなテクスチャ一が貼られた複数のポ リ ゴンを第 8 図乃至 第 1 7図のよう に、 複数のポリ ゴンをその重ね合わせ方向に直交或 いはこれ以外に交差する面に沿って、 あるいは、 3次元空間内でポ リ ゴン A乃至 D "に臨む仮想カメ ラに沿って交差する方向、或いは、 その重ね合わせ方向に交差する方向に動かすこ とによって観客の動 きを前記実施形態の場合と同様に再現或いはシミ ュ レー トするこ と ができる。 第 6 2 図及び第 6 3図は第 5 9 図で説明したポ リ ゴン 4 0 0 と第 6 0図で説明したポ リ ゴン 4 0 2 とを重ね、 第 6 2 図はポ リ ゴン 4 0 0 を上に動かし、 第 6 3図はポリ ゴン 4 0 2 を上に動か した場合である。
このように、 本発明によれば、 サッカー競技場における観客のよ う に多数の表示体が揺動するような動き、 或いは、 多数の表示体か らなる群の動き、 多数の表示体を複数のブロ ックに分けて、 各プロ ックを制御された状態で動かすこ とが好適な場合 (動物や昆虫の群 の動き) において、 その動きをよ り効率的に作り 出すこ とが可能と なる。 このよう な動きは、 特定のモー ドの時、 例えば、 サッカーゲ ームの場合、 選手が放ったボールがゴールした場合に生じるように する。 なお、 繰り返すが、 ここで説明したテクスチャ一は、 背景 (雲- 波等) 及び観客などのキャラクタを含めた絵のデータであっても良 いこ とは勿論である。 また、 第 5 9 図の背景部分を透明テクスチャ 一から構成されることに代えて、 単一色のテクスチャ一に し、 第 6 0図のキャラクタ一を、 この単一色とは区別できる ような色のテク スチヤ一から構成しても良い。 さ らに、 第 6 0図の背景部分を単一 色のテクスチャ一にし、 第 5 9 図の背景部分は透明色にしたまま、 第 5 9 図のキャラクタの少な く とも輪郭を前記単一色以外にするこ とも可能である。 さら にまた、 第 8図乃至第 1 7図の場合は各ポリ ゴンを仮想空間状斜め上方に徐々に位置する よう に配置したが、 こ れに限らず、 ほぼ平坦面に各ポ リ ゴンを配置するよう にもできる。 また、 上述した実施例によれば、 キャラクタ にゲームを通して関 わ り を持つ目標体と当該キャラクタ との間の距離等の相互関係また はゲーム内容に関する関係が所定条件を合致する と判断されたとき キャラクタの視線を目標体に向けさせるよう にしたので、 例えばサ ヅカーゲームにおいてキャラクタがボールを ド リ ブルしながら攻撃 をする場合、 事前に、 蹴り 出すゾーンや味方選手を探すため、 別の 方を見る (見渡す) 動作を行うので、 実際のサッカー競技者の挙動 をよ り リ アルにシ ミ ュ レー トでき、 よ り 自然な動きにな り、 リ アル 感及び臨場感を向上させるこ とができる。
また、 この視点制御は、 1 ) ゲーム中の作戦の立て方、 ゲームの 難易度にも影響させる こ とができる、 2 ) ボールゲームの場合、 ボ —ルを持っているキャラ ク タの行動からボールの転送される (ベ き) 先や周囲の状況を把握でき、 操作がし易い、 などの効果も得ら れる。
また、 実施例によれば、 複数の観客を模したテクスチャを個々に 貼り付ける複数枚のポ リ ゴンを仮想的に重ね合わせ、 この複数枚の ポリ ゴンをその重ね合わせ方向に交差する方向に沿って動かすよう にしたので、 観客個々の多彩な動き (よ り リ アルな挙動) を表現で き、 ソフ トプログラムの設計を簡単化させ、 演算負荷を減少させ、 メモ リ容量の少量化を可能にするなど、 これらを要求を同時にほと んど満足させ、 かつ、 ゲームの臨場感を盛り上げるこ とができる。
また、 実施例によれば、 プレーヤがゲームを行う時刻を検知し、 この時刻に応じて画像の画面カラ一を、 予めゲームに最適になるよ うに調整した画面カラーから補完して求める よう に したので、 ゲ一 ムを行う時間に合わせて画面カラーを変化させる演出を加えた上で、 画面カラ一を常にゲームの支障にならないよう に保つことができる , また、 従来のよう に輝度だけで画面カラー状態を調整する ときの不 都合を回避でき、 表示画面のカラー状態と 1 日の内の明るさの変化 とを安定してかつ精度良く適合させ、 ゲームの臨場感を高めること ができる。
他の実施例によれば、 三次元仮想空間内で展開されるゲームにお いて、 カメラ位置によって見難く なる仮想空間内のポリ ゴンを起す よう にしているので、 例えば、 グラウン ドに描かれたライ ンのォブ ジェク トが画像処理によって消滅するこ とがなく具合がよい。
また、 他の実施例によれば、 ゲームのエ リ アやオブジェク 卜の移 動方向に応じてカメラ位置、 カメ ラの向き、 視野範囲等が調整され るゲーム装置を得るこ とが可能となり、 遊戯者がゲームを行い易い 画面が得られる。
産業上の利用可能性
以上のように、 本発明にかかる画像処理装置は、 仮想空間で行わ れるシ ミ ュ レーシ ョ ン (例えば、 ゲーム) を観察者 (例えば、 遊戯 者) によ り臨場感をも って、 見易く表示することが可能となる。 特 に、 ビデオ (あるいはテレ ビ) ゲーム装置に用いて好ましい。

Claims

請 求 の 範 囲
1 . 仮想三次元空間で競技者を模したキャラクタの挙動を画像 表示する画像処理装置において、
前記キャラクタにゲームを通して関わ り を持つ目標体と当該キヤ ラク夕 との間の相互位置関係またはゲーム内容に関する関係が所定 条件に合致する所定状態か否かを判断する判断手段と、 この判断手 段が前記所定状態を判断したと き、 前記キャラクタの視線を前記目 標体に向けさせる視線制御手段とを備えたこ とを特徴とする画像処 理装置。
2 . 前記ゲームはサッカーゲームであ り、 前記目標体は前記サ ッカ一ゲームのボールである請求項 1 記載の画像処理装置。
3 . 前記視線制御手段は、 前記キャラクタの頭部の回転に続い て当該キャラクタの胴部及び腰部を回転制御する手段を含む請求項 1記載の画像処理装置。
4 . 前記判断手段は、 前記仮想三次元空間における前記キャラ クタ と前記目標体の座標値に基づき当該キャラクタから目標体まで の角度を計算する手段を含む請求項 1 記載の画像処理装置。
5 . 前記目標体は複数個あ り、 前記判断手段は前記複数個の目 標体のいずれに視線を向けるべきかを前記ゲームの状況に応じて判 定する判定手段を含む請求項 1記載の画像処理装置。
6 . 仮想三次元空間で競技者を模したキャラクタの挙動を画像 表示する画像処理方法において、
前記キヤラク夕にゲームを通して関わ り を持つ目標体と当該キヤ ラク夕 との間の相互位置関係またはゲーム内容に関する関係が所定 条件を合致する所定状態か否かを判断し、 その所定状態が判断され たとき、 前記キャラクタの視線を前記目標体に向けさせるこ とを特 徴と した画像処理方法。
7 . 仮想三次元空間で競技者を模したキャラクタの挙動を画像 表示する画像処理方法において、
前記キャラクタに第 1 の挙動を実行させている間に所定条件が成 立したか否かを判断し、 前記所定条件が成立したと きには、 前記キ ャラク夕に第 2 の挙動を実行させ、 これによ り、 遊戯者にゲームの 進行状況の情報を暗示することを特徴と した画像処理方法。
8 . 仮想三次元空間で表示体の挙動を画像表示する画像処理装 置において、
複数の表示体をテクスチヤを個々に貼 り付ける複数枚のポリ ゴン であって仮想的に重ね合わせた複数枚のポリ ゴンと、 この複数枚の ポリ ゴンをその重ね合わせ方向に交差する面に沿って動かすポリ ゴ ン揺動手段とを備えたこ とを特徴とする画像処理装置。
9 . 前記複数枚のポリ ゴンは、 複数個のオブジェク トのそれそ れを形成する複数枚のポリ ゴンがオブジェク ト順にィ ン夕一リーブ された状態で仮想的に重ね合わせてあ り、 前記ポリ ゴン摇動手段は 前記複数個のオブジェク トをォブジェク ト每に同期し且つ連動して 周期的に動かす手段である請求項 8記載の画像処理装置。
1 0 . 前記動かす方向は、 前記ポ リ ゴンの上下方向または左右 方向である請求項 9記載の画像処理方法。
1 1 . 仮想三次元空間で表示体の挙動を画像表示する画像処理 方法において、
複数の表示体を摸したテクスチャを個々に貼り付ける複数枚のポ リ ゴンを仮想的に重ね合わせ、 この複数枚のポリ ゴンをその重ね合 わせ方向に交差する方向に沿って動かすこ とを特徴とする画像処理 方法。
1 2 . 仮想三次元空間におけるゲームをシミ ュ レー ト し画像表 示する画像処理装置において、
プレーヤが前記ゲームを行う時刻を検知する検知手段と、 この検 知手段によ り検知される時刻に応じて前記画像の画面カラーを調整 する調整手段と、 を備えたことを特徴とする画像処理装置。
1 3 . 前記調整手段は、 ゲームに適した状態に設定された少な く とも二つの基準時間帯の画面カラ一の値をそれぞれ基準値と して 記憶している記憶手段と、 前記検知手段によ り検知される時刻が前 記基準時間帯のいずれかに入っている ときには、 前記基準値の内の いずれか相当する方からゲームの表示画面にマスクするデータを生 成する と ともに、 前記時刻が前記基準時間帯のいずれにも入ってい ないときには、 前記少な く とも 2つの基準値の内の当該時刻の時間 的前後にある 2 つの基準値に基づき補間した画面カラー状態の情報 から前記マスクするデ一夕を生成するデータ生成手段と、 を備える 請求項 1 2記載の画像処理装置。
1 4 . 仮想三次元空間におけるゲームをシミ ュ レー ト し画像表 示する画像処理方法において、
プレーヤが前記ゲームを行う時刻を検知し、 この時刻に応じて前 記画像の画面カラ一を調整するこ とを特徴と した画像処理方法。
1 5 . 仮想三次元空間内の生物を模した表示体を、 所定の視点 から透視変換して表示画面に表示する画像表示方法であって、 前記 仮想空間内に設定された仮想点の位置と、 前記表示体の位置とを比 較するステップと、 前記比較結果がプログラムに定められた所定の 条件に合致するかどうか判定するステ ップと、 前記比較結果が前記 所定の条件に合致した場合に、 前記仮想点を前記表示体の注視点と するステップとを有するこ とを特徴とする画像表示方法。
1 6 . 仮想三次元空間内の生物を摸した表示体を、 所定の視点 から透視変換して表示画面に表示する画像表示方法であって、 前記 仮想空間内に設定された複数の仮想点の位置と、 前記表示体の位置 とを比較するステップと、 前記比較結果に応じて、 前記表示体の注 視点となる前記仮想点を選択するステップとを有することを特徴と する画像表示方法。
1 7 . コ ンピュータシステム内に形成される仮想空間にォブジ ェク ト を配置し、 入力操作と定められたルールに従って前記ォブジ ェク 卜の動きを制御しながらゲームを展開し、 前記仮想空間内の様 子を仮想カメ ラから見た画面と して表示する画像処理装置であつて、 前記仮想空間内の基準となる基準平面上に配置されるポリ ゴンと、 前記ポ リ ゴンと前記仮想カメ ラ相互間の位置関係を判別する判別 手段と、
判別結果に対応して前記仮想カメラから見える前記ポリ ゴンの面 積が増すよう に前記ポリ ゴンを傾斜するポリ ゴン傾斜手段と、
を備える画像処理装置。
1 8 . 前記基準平面はグラウン ドであ り、 前記ポリゴンは前記 グラウン ド上に配置されるライ ンを形成するポリ ゴンである、 請求 項 1 7記載の画像処理装置。
1 9 . 前記ポリ ゴンは四角形であ り、 前記ポリ ゴン傾斜手段は、 前記ポリ ゴンの互いに対向する辺のう ちの一方の辺に属する頂点の 座標値を変更する、 請求項 1 7記載の画像処理装置。
2 0 . コ ン ピュータシステム内に形成される仮想空間にォブジ ヱク ト を配置し、 入力操作と定められたルールに従って前記ォブジ ェク トの動きを制御しながらゲームを展開し、 前記仮想空間内の様 子を仮想カメラから見た画面と して表示する画像処理装置であって、 前記オブジェク トが前記仮想空間における特定のエ リア内に存在 するかどうかを判別する判別手段と、
前記判別結果に基づいて前記仮想カメ ラの角度を調整するカメ ラ 角度調整手段と、
を備える画像処理装置。
2 1 . 前記カメラ角度調整手段は、 前記判別結果と前記ォブジ ェク トの移動方向とに基づいて前記仮想カメ ラの角度を調整する、 請求項 2 0記載の画像処理装置。
2 2 . 前記カメラ角度調整手段は、 前記仮想空間における左右 方向及び上下方向のう ち少な く ともいずれかの方向において前記仮 想カメ ラの角度調整を行う、 請求項 2 0若し く は 2 1記載の画像処 理装置。
2 3 . コンビュ一夕システム内に形成される仮想空間にォブジ ェク トを配置し、 入力操作と定められたルールに従って前記ォブジ ェク 卜の動きを制御しながらゲームを展開し、 前記仮想空間内の様 子を仮想カメ ラから見た画面と して表示する画像処理装置であって、 前記オブジェク トが前記仮想空間における特定のエ リア内に存在 するかどうかを判別する判別手段と、 '
前記判別結果に基づいて前記仮想カメ ラの視野範囲を調整するズ ーム調整手段と、
を備える画像処理装置。
2 4 . 複数のポリ ゴンからなる三次元形状モデルで構成された 仮想空間を任意の位置の仮想カメ ラから見た二次元画像に変換して 表示装置に表示する画像生成表示手段を有する画像処理装置であつ て、 前記仮想カメ ラの向きを表す視線ベク トルと、 前記仮想空間内に 配置された所定のポリ ゴンの面の向きを表す法線べク トルと、 のな す角度を算出する角度算出手段と、
前記角度算出手段の算出した角度が所定の値になるよう に、 前記 ポリ ゴンの頂点の座標値を変更するポリ ゴン傾斜手段と、
を備える画像処理装置。
2 5 . 複数のポリ ゴンからなる三次元形状モデルで構成された 仮想空間を任意の視点から見た二次元画像を生成して、 表示装置に 表示する画像生成表示手段を有する画像処理装置であって、
前記ポ リ ゴンは、 ポ リ ゴンの消失防止プログラムを動作させるた めのデ一夕を含む、 消失防止の属性を有する消失防止ポリ ゴンを含 み、
前記消失防止プログラムは、 前記消失防止ポリ ゴンと前記視点と の相互位置関係を判別する位置判別手段と、 前記位置判別手段の判 別結果に応じて、 前記消失防止ポリ ゴンの頂点の座標値を変更する 座標値変更手段と、 を含み、 更に
前記表示装置に描画されるポリ ゴンが前記消失防止ポリ ゴンであ る場合に前記消失防止プログラムを実行する消失防止実行手段、 を備える画像処理装置。
2 6 . コンビュ一夕システムを請求項 1 〜 5、 8、 9、 1 2、 1 3、 1 7〜 2 5のいずれか 1 つに記載の画像処理装置と して機能 させるプログラムを記録した情報記録媒体。
PCT/JP1998/000677 1997-02-18 1998-02-18 Dispositif et procede pour le traitement des images WO1998035734A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1019980708368A KR100300832B1 (ko) 1997-02-18 1998-02-18 화상처리장치및화상처리방법
DE69833482T DE69833482T2 (de) 1997-02-18 1998-02-18 Verfahren und vorrichtung zur bildverarbeitung
EP98904377A EP0901803B1 (en) 1997-02-18 1998-02-18 Device and method for image processing
US09/171,236 US6989829B2 (en) 1997-02-18 1998-02-18 Image processing device and image processing method
US12/329,648 US7737968B2 (en) 1997-02-18 2008-12-08 Image processing device and image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP9034163A JP2955989B2 (ja) 1997-02-18 1997-02-18 ゲーム装置
JP9/34089 1997-02-18
JP9/34163 1997-02-18
JP3408997 1997-02-18

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US09171236 A-371-Of-International 1998-02-18
US11/171,735 Division US7532211B2 (en) 1997-02-18 2005-06-30 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
WO1998035734A1 true WO1998035734A1 (fr) 1998-08-20

Family

ID=26372888

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/000677 WO1998035734A1 (fr) 1997-02-18 1998-02-18 Dispositif et procede pour le traitement des images

Country Status (8)

Country Link
US (3) US6989829B2 (ja)
EP (2) EP0901803B1 (ja)
KR (1) KR100300832B1 (ja)
CN (2) CN1188193C (ja)
DE (1) DE69833482T2 (ja)
ES (1) ES2260830T3 (ja)
HK (1) HK1081135A1 (ja)
WO (1) WO1998035734A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1002560A2 (en) * 1998-11-19 2000-05-24 Nintendo Co. Limited Video game apparatus and information storage medium for video game
EP1002561A3 (en) * 1998-11-19 2002-04-03 Nintendo Co., Limited Video game apparatus and information storage medium for video game
US6612930B2 (en) 1998-11-19 2003-09-02 Nintendo Co., Ltd. Video game apparatus and method with enhanced virtual camera control
US6712703B2 (en) 1998-11-19 2004-03-30 Nintendo Co., Ltd. Video game apparatus and information storage medium for video game

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1188193C (zh) * 1997-02-18 2005-02-09 世嘉股份有限公司 图像处理装置及图像处理方法
TW452748B (en) * 1999-01-26 2001-09-01 Ibm Description of video contents based on objects by using spatio-temporal features and sequential of outlines
US7085995B2 (en) * 2000-01-26 2006-08-01 Sony Corporation Information processing apparatus and processing method and program storage medium
AU781859B2 (en) * 2000-01-26 2005-06-16 Sony Corporation Information processing device and processing method and program storing medium
US7685534B2 (en) * 2000-02-16 2010-03-23 Jlb Ventures Llc Method and apparatus for a three-dimensional web-navigator
EP1406218A4 (en) * 2001-05-21 2005-07-20 Sega Corp IMAGE PROCESSING APPARATUS AND GAME APPARATUS
JP3594915B2 (ja) * 2001-08-03 2004-12-02 株式会社ナムコ プログラム、情報記憶媒体及びゲーム装置
US6705945B2 (en) * 2001-10-10 2004-03-16 Sony Computer Entertainment America Inc. Providing game information via characters in a game environment
US6952207B1 (en) * 2002-03-11 2005-10-04 Microsoft Corporation Efficient scenery object rendering
US20030227453A1 (en) * 2002-04-09 2003-12-11 Klaus-Peter Beier Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data
JP4079358B2 (ja) * 2002-12-06 2008-04-23 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム制御方法、及びプログラム
DE10325382A1 (de) * 2003-05-30 2004-12-23 Karl Storz Gmbh & Co. Kg Verfahren und Vorrichtung zum Visualisieren von medizinischen Patientendaten auf einer medizinischen Anzeigeeinheit
US7420574B2 (en) * 2004-04-16 2008-09-02 Autodesk, Inc. Shape morphing control and manipulation
US7064761B2 (en) 2004-05-10 2006-06-20 Pixar Techniques for animating complex scenes
JP4474640B2 (ja) * 2004-05-11 2010-06-09 株式会社セガ 画像処理プログラム、ゲーム処理プログラムおよびゲーム情報処理装置
JP2006018476A (ja) * 2004-06-30 2006-01-19 Sega Corp 画像の表示制御方法
JP2006060652A (ja) * 2004-08-23 2006-03-02 Fuji Photo Film Co Ltd デジタルスチルカメラ
KR100612874B1 (ko) * 2004-11-22 2006-08-14 삼성전자주식회사 스포츠 동영상의 요약 방법 및 장치
JP4488996B2 (ja) * 2005-09-29 2010-06-23 株式会社東芝 多視点画像作成装置、多視点画像作成方法および多視点画像作成プログラム
JP4706966B2 (ja) * 2005-12-06 2011-06-22 株式会社セガ 画像生成プログラム、画像処理装置
JP5025950B2 (ja) * 2005-12-12 2012-09-12 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP4125758B2 (ja) * 2006-02-27 2008-07-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
CN100437608C (zh) * 2006-04-30 2008-11-26 珠海市西山居软件有限公司 游戏中虚拟人物作交互动作的装置和方法
US9327191B2 (en) * 2006-05-08 2016-05-03 Nintendo Co., Ltd. Method and apparatus for enhanced virtual camera control within 3D video games or other computer graphics presentations providing intelligent automatic 3D-assist for third person viewpoints
JP4707034B2 (ja) * 2006-07-07 2011-06-22 株式会社ソニー・コンピュータエンタテインメント 画像処理方法、入力インタフェース装置
WO2008021091A2 (en) * 2006-08-11 2008-02-21 Packetvideo Corp. 'system and method for delivering interactive audiovisual experiences to portable devices'
US20080231627A1 (en) * 2007-03-20 2008-09-25 Robert Allen Shearer Using Ray Tracing to Enhance Artificial Intelligence Character Behavior
JP4929061B2 (ja) * 2007-06-04 2012-05-09 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4964057B2 (ja) * 2007-08-08 2012-06-27 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
US9126116B2 (en) 2007-09-05 2015-09-08 Sony Computer Entertainment America Llc Ranking of user-generated game play advice
US9108108B2 (en) 2007-09-05 2015-08-18 Sony Computer Entertainment America Llc Real-time, contextual display of ranked, user-generated game play advice
GB2454681A (en) * 2007-11-14 2009-05-20 Cybersports Ltd Selection of animation for virtual entity based on behaviour of the entity
CN101593362B (zh) * 2008-05-26 2012-09-05 新奥特(北京)视频技术有限公司 一种图形的路径构建方法
GB2465538B (en) * 2008-08-01 2013-03-13 Sony Corp Method and apparatus for generating an event log
JP4498449B2 (ja) * 2008-08-22 2010-07-07 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
US8914854B2 (en) * 2008-09-11 2014-12-16 International Business Machines Corporation User credential verification indication in a virtual universe
US8412662B2 (en) * 2009-06-04 2013-04-02 Motorola Mobility Llc Method and system of interaction within both real and virtual worlds
US11647243B2 (en) 2009-06-26 2023-05-09 Seagate Technology Llc System and method for using an application on a mobile device to transfer internet media content
US20120210205A1 (en) 2011-02-11 2012-08-16 Greg Sherwood System and method for using an application on a mobile device to transfer internet media content
JP5050094B2 (ja) * 2010-12-21 2012-10-17 株式会社東芝 映像処理装置及び映像処理方法
US8798777B2 (en) 2011-03-08 2014-08-05 Packetvideo Corporation System and method for using a list of audio media to create a list of audiovisual media
RU2479040C1 (ru) * 2011-12-23 2013-04-10 Владимир Евгеньевич Афоньшин Способ тактической подготовки команды в игровых видах спорта
US9833707B2 (en) 2012-10-29 2017-12-05 Sony Interactive Entertainment Inc. Ambient light control and calibration via a console
CN105204805B (zh) * 2015-09-15 2018-08-03 网易(杭州)网络有限公司 一种基于高度变化的3d动态路标显示方法和显示装置
KR102434406B1 (ko) * 2016-01-05 2022-08-22 한국전자통신연구원 공간 구조 인식을 통한 증강 현실 장치 및 그 방법
JP7314475B2 (ja) * 2016-11-11 2023-07-26 セイコーエプソン株式会社 ロボット制御装置、及び、ロボット制御方法
CN106570914B (zh) * 2016-11-15 2020-01-14 华南理工大学 一种移植二维图像中角色的姿态的方法
KR101931564B1 (ko) 2017-03-03 2018-12-24 한국과학기술원 영상 정합을 이용한 영상 처리 장치 및 방법
US10561942B2 (en) 2017-05-15 2020-02-18 Sony Interactive Entertainment America Llc Metronome for competitive gaming headset
JP6223617B1 (ja) * 2017-05-26 2017-11-01 株式会社テクテック 仮想地図表示システム、プログラム及び方法
US10128914B1 (en) 2017-09-06 2018-11-13 Sony Interactive Entertainment LLC Smart tags with multiple interactions
CN108159701B (zh) * 2017-12-27 2021-02-12 网易(杭州)网络有限公司 游戏角色显示位置的调整方法、装置、处理器及终端
CN110009714A (zh) * 2019-03-05 2019-07-12 重庆爱奇艺智能科技有限公司 在智能设备中调整虚拟角色眼神的方法及装置
CN111311523B (zh) * 2020-03-26 2023-09-05 北京迈格威科技有限公司 图像处理方法、装置、系统和电子设备
JP7233399B2 (ja) * 2020-06-23 2023-03-06 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06277362A (ja) * 1993-03-26 1994-10-04 Namco Ltd 3次元ゲーム装置
JPH07178242A (ja) * 1993-12-21 1995-07-18 Sega Enterp Ltd ゲーム機における球技ゲームでの視点変更方法
JPH0884861A (ja) * 1994-09-14 1996-04-02 Taito Corp Tvボールゲーム
JPH08155143A (ja) * 1994-12-01 1996-06-18 Namco Ltd 3次元ゲーム装置及び画像合成方法
JPH08161530A (ja) * 1994-12-09 1996-06-21 Olympus Optical Co Ltd アイコン作成方法及び動画用のコマ作成方法
JPH08215432A (ja) * 1995-02-17 1996-08-27 Namco Ltd 3次元ゲーム装置及び画像合成方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE8801043D0 (sv) * 1988-03-22 1988-03-22 Orjan Strandberg Genimator
US6054991A (en) * 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
JPH05249953A (ja) 1991-12-03 1993-09-28 Toshiba Corp 画像表示装置
JP2914823B2 (ja) 1992-05-27 1999-07-05 株式会社ハドソン 奥行き表現方法
US5363297A (en) * 1992-06-05 1994-11-08 Larson Noble G Automated camera-based tracking system for sports contests
JP2807608B2 (ja) * 1992-12-29 1998-10-08 株式会社ナムコ ソーティング処理装置、これを用いた画像合成装置及びソーティング処理方法
JP2539153B2 (ja) 1993-03-19 1996-10-02 インターナショナル・ビジネス・マシーンズ・コーポレイション 仮想会議システム用端末装置及び仮想会議システム
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
KR100393504B1 (ko) * 1994-06-20 2003-10-30 가부시키가이샤 세가 오브젝트방향제어방법및장치
EP1138358B1 (en) 1994-06-28 2004-01-21 Sega Corporation Game apparatus and method of playing game
EP0707288B1 (en) * 1994-10-14 2003-08-27 Canon Kabushiki Kaisha Image processing method and apparatus
JP3538248B2 (ja) * 1994-12-02 2004-06-14 株式会社ナムコ 画像合成装置及び画像合成方法
ES2239326T3 (es) * 1995-01-19 2005-09-16 Sega Enterprises, Ltd. Metodo de procesamiento de imagen y procesador de imagen.
US6768563B1 (en) * 1995-02-24 2004-07-27 Canon Kabushiki Kaisha Image input system
JPH08257238A (ja) 1995-03-24 1996-10-08 Taito Corp ビデオゲーム機
US5651104A (en) * 1995-04-25 1997-07-22 Evans & Sutherland Computer Corporation Computer graphics system and process for adaptive supersampling
US6542155B1 (en) * 1995-04-27 2003-04-01 Kabushiki Kaisha Sega Enterprises Picture processing device, picture processing method, and game device and storage medium using the same
JP3141737B2 (ja) * 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法
JP3461980B2 (ja) * 1995-08-25 2003-10-27 株式会社東芝 高速描画方法および装置
JPH09153146A (ja) * 1995-09-28 1997-06-10 Toshiba Corp 仮想空間表示方法
JP3544268B2 (ja) * 1995-10-09 2004-07-21 任天堂株式会社 三次元画像処理装置およびそれを用いた画像処理方法
JP2000506637A (ja) * 1995-10-13 2000-05-30 ロウズバロ,ジェイムズ,ビー. 生物アニメーションおよびシミュレーション技術
US6267673B1 (en) * 1996-09-20 2001-07-31 Nintendo Co., Ltd. Video game system with state of next world dependent upon manner of entry from previous world via a portal
US5990896A (en) * 1996-09-30 1999-11-23 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Rapid and efficient terrain surface finding system
US6280323B1 (en) * 1996-11-21 2001-08-28 Konami Co., Ltd. Device, method and storage medium for displaying penalty kick match cursors in a video soccer game
US5953077A (en) * 1997-01-17 1999-09-14 Fox Sports Productions, Inc. System for displaying an object that is not visible to a camera
CN1188193C (zh) 1997-02-18 2005-02-09 世嘉股份有限公司 图像处理装置及图像处理方法
US20020049690A1 (en) * 2000-06-16 2002-04-25 Masanori Takano Method of expressing crowd movement in game, storage medium, and information processing apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06277362A (ja) * 1993-03-26 1994-10-04 Namco Ltd 3次元ゲーム装置
JPH07178242A (ja) * 1993-12-21 1995-07-18 Sega Enterp Ltd ゲーム機における球技ゲームでの視点変更方法
JPH0884861A (ja) * 1994-09-14 1996-04-02 Taito Corp Tvボールゲーム
JPH08155143A (ja) * 1994-12-01 1996-06-18 Namco Ltd 3次元ゲーム装置及び画像合成方法
JPH08161530A (ja) * 1994-12-09 1996-06-21 Olympus Optical Co Ltd アイコン作成方法及び動画用のコマ作成方法
JPH08215432A (ja) * 1995-02-17 1996-08-27 Namco Ltd 3次元ゲーム装置及び画像合成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0901803A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1002560A2 (en) * 1998-11-19 2000-05-24 Nintendo Co. Limited Video game apparatus and information storage medium for video game
EP1002560A3 (en) * 1998-11-19 2002-04-03 Nintendo Co., Limited Video game apparatus and information storage medium for video game
EP1002561A3 (en) * 1998-11-19 2002-04-03 Nintendo Co., Limited Video game apparatus and information storage medium for video game
US6612930B2 (en) 1998-11-19 2003-09-02 Nintendo Co., Ltd. Video game apparatus and method with enhanced virtual camera control
US6712703B2 (en) 1998-11-19 2004-03-30 Nintendo Co., Ltd. Video game apparatus and information storage medium for video game
AU774918B2 (en) * 1998-11-19 2004-07-15 Nintendo Co., Ltd. Video game apparatus and information storage medium for video game
KR100583513B1 (ko) * 1998-11-19 2006-05-24 닌텐도가부시키가이샤 비디오게임장치 및 비디오게임용 정보기억매체
CN100375970C (zh) * 1998-11-19 2008-03-19 任天堂株式会社 视频游戏装置和用于视频游戏装置的方法
US7783535B2 (en) 1998-11-19 2010-08-24 Nintendo Co., Ltd. Video game apparatus and information storage medium for video game

Also Published As

Publication number Publication date
EP0901803A4 (en) 2001-02-28
EP0901803B1 (en) 2006-02-15
CN1217668A (zh) 1999-05-26
US6989829B2 (en) 2006-01-24
US7737968B2 (en) 2010-06-15
DE69833482T2 (de) 2006-10-12
CN1640519B (zh) 2010-06-09
US20090115781A1 (en) 2009-05-07
CN1188193C (zh) 2005-02-09
CN1640519A (zh) 2005-07-20
US20050239547A1 (en) 2005-10-27
ES2260830T3 (es) 2006-11-01
EP1642624A2 (en) 2006-04-05
KR100300832B1 (ko) 2002-10-19
EP1642624A3 (en) 2007-02-28
US20010040575A1 (en) 2001-11-15
DE69833482D1 (de) 2006-04-20
HK1081135A1 (en) 2006-05-12
KR20000064948A (ko) 2000-11-06
EP0901803A1 (en) 1999-03-17
US7532211B2 (en) 2009-05-12

Similar Documents

Publication Publication Date Title
WO1998035734A1 (fr) Dispositif et procede pour le traitement des images
US8172678B2 (en) Image processing for a game
KR100740072B1 (ko) 화상 생성 장치
US6603479B1 (en) Picture processing device, picture processing method, and game device and storage medium using the same
US6746331B1 (en) Assisting a player to contact an object by adjusting timing
JPH10290886A (ja) 画像処理装置および画像処理方法
JP4600793B2 (ja) 画像処理装置
JP3052933B2 (ja) 画像処理装置および画像処理方法
JP2004187731A (ja) ゲーム装置、ゲーム制御方法、及びプログラム
JP2007054656A (ja) 画像処理装置および画像処理方法
JP4688405B2 (ja) プログラム、情報記憶媒体及びゲーム装置
JP3912658B2 (ja) 画像処理装置、画像処理方法及びこれを用いたゲーム装置並びに記憶媒体
JP5303592B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2002273029A (ja) ゲーム情報、情報記憶媒体、および、ゲーム装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 98800158.6

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 1998904377

Country of ref document: EP

Ref document number: 1019980708368

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1998904377

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09171236

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1019980708368

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019980708368

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1998904377

Country of ref document: EP