WO1995035555A1 - Procede et dispositif de traitement d'image - Google Patents

Procede et dispositif de traitement d'image Download PDF

Info

Publication number
WO1995035555A1
WO1995035555A1 PCT/JP1995/001219 JP9501219W WO9535555A1 WO 1995035555 A1 WO1995035555 A1 WO 1995035555A1 JP 9501219 W JP9501219 W JP 9501219W WO 9535555 A1 WO9535555 A1 WO 9535555A1
Authority
WO
WIPO (PCT)
Prior art keywords
matrix
information
camera
data
image processing
Prior art date
Application number
PCT/JP1995/001219
Other languages
English (en)
French (fr)
Inventor
Katunori Itai
Shunsuke Sekikawa
Masayuki Sumi
Original Assignee
Sega Enterprises Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Enterprises Ltd. filed Critical Sega Enterprises Ltd.
Priority to DE69530824T priority Critical patent/DE69530824D1/de
Priority to US08/596,324 priority patent/US5971852A/en
Priority to EP95921991A priority patent/EP0715280B1/en
Priority to KR1019960700837A priority patent/KR100274444B1/ko
Priority to JP8501948A priority patent/JP2883737B2/ja
Publication of WO1995035555A1 publication Critical patent/WO1995035555A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1043Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being characterized by constructional details
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/203Image generating hardware
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying

Definitions

  • the present invention relates to an image processing method and an image processing method applicable to a game machine that displays an image on a display device and progresses the game in real time, and particularly to the image processing method.
  • the present invention relates to an image processing method and an apparatus for effectively utilizing hardware resources of a game machine.
  • a computer game machine that can advance a game to a real time is a game machine that executes game software stored in advance. And an operation unit for providing an operation signal for processing such as moving a character on the game, and a display for displaying an image of the game development executed on the game machine body. It has a device and an audio device that generates the required sound as the game is deployed.
  • game machines that capable of providing a more realistic image with a clear screen are gaining in popularity.
  • game machines that use polygon processing which can display three-dimensional image data as a set of fixed units, provide a visual realism. Is popular because it is high.
  • this polygon processing game machine the number of polygons that constitute one object (a moving object on the screen) is increased or the polygon surface is protected. By applying the scan, the reality can be further enhanced.
  • seeking realism means that for hardware, not only can the processing time be shortened, but also the data capacity that increases dramatically can be reduced. This means demanding the ability to handle images, which significantly increases the burden on hardware. However, this demand is expected to increase further in the future, which will only increase the computational load on the duer.
  • game machines originally perform real-time image processing based on player input. This was required, and the basic load of the central processing unit was originally higher than that of simple computer graphics image processing.
  • An object of the present invention has been made in view of the above-mentioned problems of the related art, and an image processing method and an image processing method capable of reducing the load of image processing and displaying a more realistic image. It is intended to provide the equipment of the above.
  • Another object of the present invention is to provide an image processing method and an image processing method capable of reducing the load of image processing on an object to be displayed and displaying a more realistic image. It is to provide the device. Disclosure of the invention
  • an image processing method provides an object obtained by performing coordinate transformation between a matrix of information of virtual camera information and a transformation matrix.
  • Object display data can be obtained by setting the rotation component in the matrix of the unit so that it is the unit matrix.
  • the matrix of the camera information includes, for example, the position information of the force camera and the rotation information of the camera.
  • a virtual camera is one in which the viewpoint and the angle of view when drawing computer graphics are compared to a camera.
  • the settings of this virtual camera include position, optical axis direction (lens direction), angle of view (zoom to wide), and twist (rotation of the optical axis). Angle).
  • a virtual camera refers to a viewpoint set virtually.
  • the virtual camera is understood as virtual view direction determining means for determining the view direction of an image displayed on the television monitor.
  • Shape (object) Defines the arrangement of objects (objects) in three-dimensional space from the body coordinate system, which is a unique coordinate system.
  • the object force s which is model-transformed to the world coordinate system, is converted to the field-of-view coordinate system determined by this virtual camera (position and angle, etc.). explaining followed c is found to be displayed on the motor two motor 3 0 Te, or, preferably, moves the Conclusions click scan information of the virtual Camera in M, 3-dimensional space Let X be the matrix that has the information of, and let T be the transformation matrix.
  • the image processing apparatus converts the coordinates of an object based on the matrix of the information of the virtual camera, and performs the coordinate conversion of the object. It is provided with a processing means for setting the rotation component of the matrix of the cut to the component forming the unit matrix.
  • the processing means includes, for example, a camera control matrix processing means for obtaining a matrix of information of the virtual camera, and a matrix of information of the virtual camera.
  • the matrix is multiplied by the conversion matrix to obtain a matrix with information on the rotated point, and the rotation component of the matrix is converted to a unit matrix.
  • an image processing apparatus comprises: a storage unit for storing positional coordinate information and angle information of a camera and positional coordinate information of an object; and a force camera obtained from the storage unit.
  • An object mat that calculates each angle of the three-dimensional coordinate system that directs the object in a desired direction from the position coordinate information and angle information of the object and the position coordinate information of the object. It is equipped with a risk processing means.
  • the virtual component is always virtual.
  • the display data of the object facing the gaze direction of the camera is created. Regardless of the direction in which the virtual camera is pointed, the relationship that the object always points in the direction of the camera is maintained. Only one piece of frontal data (two-dimensional data) is required, and there is no need to handle a large amount of data, so the calculation processing becomes lighter.
  • the object is configured as an object that is displayed in the shape of a cell, and this object is always set at a predetermined position. The flat object such as a signboard can always be directed to the line of sight.
  • the matrix of camera information can be selected as needed, based on the operation information of the game machine, such as camera position information and camera rotation information. You. BRIEF DESCRIPTION OF THE FIGURES
  • FIG. 1 is a perspective view schematically illustrating a game machine according to one embodiment to which the present invention is applied.
  • - Figure 2 is a diagram explaining the objects of the game machine.
  • Figure 3 is an electrical block diagram showing the outline of the game machine.
  • FIG. 4 is a functional block diagram of the central processing unit of the game machine and its peripherals.
  • FIG. 5 is a flowchart showing an outline of the processing of the central processing unit.
  • 6A to 6C are explanatory diagrams showing an example of the image processing.
  • 7A to 7C are explanatory diagrams illustrating an example of the image processing.
  • FIG. 8 is a flowchart showing an outline of processing of a central processing unit of a game machine according to another embodiment to which the present invention is applied.
  • FIG. 1 shows a game machine to which an image processing method and an image processing apparatus according to the present invention are applied.
  • This game machine handles, for example, a tank game, and as an object according to the present invention, a pattern of an explosion when an artillery launched from a tank hits a target ( Explosion pattern) will be described as an example.
  • the game machine shown in FIG. 1 includes a casing 1 forming a cockpit.
  • the housing 1 includes a base 1A and a front wall IB, and a front wall 1B is provided at one end of the base 1A.
  • a cockpit 2 is provided at the base 1A, and a player sits on the cockpit 2 to control the game machine.
  • the game machine main body 10 is placed inside, and the handlebar 2 OA, access 20B, and the view change switch are placed in the cockpit 2 below it.
  • the unit 20 is provided with a TV monitor 30 and a speaker 40 at an upper front part thereof.
  • This game machine handles a tank game, and the handle 20 ⁇ is the only operating device that gives the game machine a direction change.
  • This tank game targets a tank as a running display object (vehicle).
  • the tank 31 can be schematically represented as shown in FIG. 2, and has a hull 32 and a gun sight 33.
  • the electrical block diagram of the game machine is shown in Figure 3.
  • the game machine main body 10 of this game machine consists of a central processing unit (CPU) 101, an auxiliary processing unit 10 2.
  • Polygon '' 'Lambda memory 110 a coordinate transformation device called a geomizer riser 111, Polygon de lambda memory 111, Ren It is equipped with a polygon paint device 113, also called a Darling device, and a frame memory 114.
  • the central processing unit (CPU) 101 is connected to the auxiliary arithmetic processing unit 102, the program data ROM 103, the data RAMI 04, and the -Connected to the backup RAMI 05, input interface 106, sound device 108, and polygon '' '' RAM memory 110 ing.
  • An operation unit 20 and a dip switch 107 are connected to the input interface 106.
  • the CPU 101 cooperates with the auxiliary processing unit 102 to read out the game program data stored in advance in the program data ROM 103 and execute the program. Execute the program.
  • the position and angle of a virtual camera that controls the position, direction, and angle of the tank as an object displayed on the TV monitor 30 and determines the field of view of the display screen Control etc. are included.
  • Figure 5 shows an overview of these controls.
  • the sound device 108 is connected to the speaker 40 via the power amplifier 109.
  • the acoustic signal formed by the sound device 108 is power-amplified by the power amplifier 109 and sent to the speaker 40.
  • the read-out end of the parameter memory 110 is connected to the coordinate converter 111, and the polygon parameter in this memory 110 is connected. Is given to the coordinate transformation device. You.
  • the coordinate converter 111 is connected to the polygon memory 112 and receives the polygon data from the memory 112. In the coordinate conversion device 111, the coordinate values of the polygon to be displayed are converted from three-dimensional to two-dimensional perspective coordinates based on the given polygon parameters and polygon data. Is done.
  • the output end of the coordinate conversion device 111 is connected to a polygon paint device 113, and the polygon data converted to perspective coordinates is converted to a polygon paint device. Sent to 1 1 3
  • the polygon paint device 1 13 is used to transfer the texture stored in the frame memory 114 to the received polygon. To form the image data.
  • a TV monitor 30 is connected to the output terminal of the polygon paint device 113, and the image formed by the paint device 113 is displayed.
  • the accelerator 20B of the operation unit 20 is an accelerator opening that reflects the running speed V of the object on the TV monitor 30 in response to the operation of the player. Outputs the electric signal of A. Similarly, handle 2OA outputs an electrical signal in direction 0 that reflects the behavior of the object.
  • the view switch 20C is a switch in which the player specifies the position of a virtual camera that determines the field of view of the image displayed on the TV monitor 30. .
  • the central processing unit 101 cooperates with the auxiliary processing unit 102 and, as shown in FIG. 4, stores the image according to the present invention stored in the program data ROM 103 as shown in FIG.
  • the camera control matrix processing means 12 1 and the object matrix processing means are executed. 1 and 2 and the object pattern display processing means 1 and 2 are functionally realized.
  • the program data ROM 103 stores explosion model data M D composed of polygon peaks that determine the shape of the explosion pattern (object).
  • the data R AMI04 contains the explosion pattern display matrix X, the camera matrix M, and the explosion coordinate data CD.
  • the explosion coordinate data CD is the position data at which the explosion occurs, for example, the center position coordinates of the explosion model data MD.
  • the central processing unit 101 controls the position and rotation of the virtual camera that determines the line of sight in response to the operation input from the operation unit 20 and controls the position and rotation of the virtual camera.
  • the camera matrix M is stored in the data RAMI04, and the camera matrix M and the explosion coordinate data CD are taken in and the explosion pattern is read.
  • (Object) coordinate transformation The explosion pattern display matrix X is created by executing the operation to set the rotation component of the matrix of the explosion pattern matrix and the unit matrix to the explosion pattern display matrix X.
  • X is temporarily stored in RAMI 04.
  • the central processing unit 101 is provided with an explosion model data MD stored in the program data R0M103 and an explosion pattern stored in the data RAMI04. The display processing of the explosion pattern is executed based on the display matrix X.
  • the data thus obtained is supplied to the polygon parameter memory 110, and finally to the display device 30. You.
  • the central processing unit 101 calculates the center position of the explosion pattern according to the force s (not shown), operation information, and the like as necessary, and the data RAMI 0 is used for each calculation.
  • the value of the explosion coordinate data CD of 4 is updated.
  • the operation of this embodiment will be described with reference to FIGS. 5 to 7, focusing on a display process for an explosion pattern as an object.
  • the explosion pattern shall use the image data of the front part.
  • the central processing unit 101 executes predetermined initialization (step 201).
  • the central processing unit 101 reads operation information such as the handle angle and the opening degree of the accelerator operated by the player from the operation unit 20 (step 202). ), And based on the read information, a matrix of the camera information of the virtual camera (camera matrix).
  • the control process of M is executed. (Step 203).
  • the basic matrix of the position of the virtual camera is set to E
  • the translation matrix is set to T
  • the rotation matrix is set to rotation.
  • the camera matrix M calculated in this manner is stored in the data RAMI04 (step 204).
  • the central processing unit 101 reads out the explosion coordinate data CD from the program data ROM 103 and reads the data from RAMI 04 to the camera matrix. Reads Mx (Step 205). After that, the coordinate transformation of the explosion pattern is executed as the explosion pattern processing (step 206). That is, based on the current camera matrix M and the explosion coordinate data CD,
  • the explosion pattern display matrix X for the movement in the three-dimensional space is obtained.
  • T is the mobile transformation matrix.
  • the explosion pattern display matrix X is expressed by [Equation 5]. .
  • the first line is [1 0 0 0]
  • the second line is [0 1 0 0]
  • the third line is
  • the central processing unit 101 calculates the rotational component of the matrix X.
  • An operation to set the components forming the unit matrix is performed (Fig. 5, step 207). This is because the value of each component ai of the equation has rotation information, and if this rotation information is set to a value that forms a unit matrix as shown in [Equation 7] below, the rotation information is set. Will be lost, and inevitably, the explosion pattern display matrix X will indicate a non-rotating state. In other words, if the object is not rotating and can be turned to this object (here, the explosion pattern), the above-described operation should be performed. This allows the object to always be directed to this direction (line of sight) at a desired position.
  • the explosion pattern display matrix X of the smart object can be formed, always pointing in a desired direction along the camera's line of sight. Even if the shooting direction of the camera is oriented in any direction, the object will always be in the direction of the camera.
  • the explosion pattern display matrix X is temporarily stored in the data RAM 104 (step 208).
  • the explosion pattern display matrix X is read from the data RAM 104, and the explosion model data MD is read from R0M103 (step 209). ).
  • explosion pattern display processing is performed (step 210). In this display processing, the display data is created by multiplying the explosion 'turn display matrix X' by the polygon vertex data read from the explosion model data MD.
  • the central processing unit 101 creates a polygon parameter of the polygon and stores the polygon data in the polygon's parameter memory 1. Output to 10 (Step 2 1 K 2 1 2) o
  • step 202 the process returns to step 202.
  • a matrix M of the desired force camera information is obtained and converted into a camera information matrix M.
  • the matrix X to be multiplied is calculated.
  • the explosion Display data in which the turn is always directed in the line of sight can be obtained.
  • the data of the object including the explosion pattern obtained in this way is transferred to the coordinate transformation processing device via the polygon.parameter memory 110.
  • the coordinate conversion processing device (geomet- lyzer) 1 1 1 creates display data in accordance with the required display coordinates, and uses a polygon painting device (rendering device). Give to 1 1 3).
  • the texture data obtained from the frame 'memory 114 is added to the display data.
  • the polygon data is converted into display data in which decoration is applied to the surface of the polygon data. This display data is given to the display device 30 and displayed.
  • steps 202 to 204 form the camera contact port matrix processing means 122 of FIG.
  • the elements 205 and 206 form the object matrix processing means 122 of the figure, and the steps 207 to 210 correspond to those of the figure.
  • Object pattern display processing means 123 is equivalently formed.
  • another matrix operation of the camera matrix X in step 206 described above will be described for comparison. In this embodiment, this method is not employed to reduce the number of operations.
  • the first line is [100 0 0]
  • the second line is [0 cos 0 sine 0]
  • the rotation transformation matrix R X is [Equation 8].
  • the first line has [abc 0]
  • the second line has [ABC 0]
  • the upper-case element of the calculation result X is the part affected by the rotation matrix Rx. Therefore, the matrix X obtained by rotating the virtual camera in the X-axis direction is obtained by the coordinate conversion process.
  • the first line is [c 0 s 0 0-sine 0], the second line ⁇ [0 1 0 0]
  • the third line is [sin 0 0 c 0 s 0 0]
  • the first line is [GHI0]
  • the second is [(1 e f0]
  • the first line is [cos 0 si e 0 0],
  • the second line is [one sin 0 cos 6 0 0]
  • the third line is [0 0 1 0]
  • the fourth line is [0 0 0 1]
  • X R z 'M
  • X is [MN 0 0] on the first line and [? QR 0], [ghi 0] on the third line, and [jk 1 1] on the fourth line.
  • the upper-case element of the calculation result X is the part affected by the rotation matrix Rz ( therefore, the virtual camera was rotated in the z-axis direction by the coordinate transformation process). Matrix X is obtained.
  • a matrix X having a rotation component can be obtained. Can be.
  • the second line is [0 1 0 0]
  • the third line is ⁇ [0 0 1 0]
  • an object 501 is arranged in the upper center of the area 500, and a viewpoint 5200 of the virtual camera is shown in the figure.
  • the direction is from the lower left of the drawing to the upper right of the drawing.
  • the camera matrix M is defined as follows.
  • the third row is [GHI 0] and the fourth row is a matrix with power ⁇ [abc 1] c. Therefore, when observing the object 5 10 from the camera viewpoint 5 20, X By calculating RTM, it is possible to obtain a trapezoidal object 5 10 ′ having a small left side and a large right side on the screen as shown in FIG. 7C. In this way, the object 510 can be acquired based on the information on the position and rotation of the camera, and a predetermined image can be obtained.
  • FIGS. 6A and 7A the area 510 in FIGS. 6A and 7A is a rectangular polygon 510.
  • FIG. 7A shows the state in which the camera moves and rotates. 4
  • the converted parameters (vertices) are ⁇ 1 ', ⁇ 2', '3', P 4 '
  • the rotation information represented by A, B, C, D, E, F, G, H, and I in the camera matrix M shown in Fig. 7B is formed into a unit matrix.
  • the explosion pattern is obtained by a pseudo operation based on the unit matrix. Will always face the virtual camera at 90 degrees. For this reason, the entire explosion pattern can be expressed using only the frontal data of the explosion pattern. In other words, since it is possible to perform the movement according to the viewpoint using only the data in a predetermined area of the explosion pattern, it is possible to move the data only in the predetermined area of the explosion pattern. Juke can be represented three-dimensionally.
  • a tank game is assumed as a game that handles the object of the image processing of the present invention, but this game simply uses a target that moves automatically. It may be a game that hits with.
  • the explosion pattern has been described as an example of an object, the object may be arbitrary, such as an enemy tank in a tank game, or a specific background. It can be an object, or it can be just like a standing signboard, so that the object can always be directed to the line of sight, reducing the above-mentioned effect of reducing the computational load. Obtainable.
  • This embodiment has the same configuration as that of the above-described tank game embodiment, and the central processing unit 101 performs the processing shown in FIG.
  • the coordinates and angle information of the camera position are obtained in the camera control matrix processing, and the object matrix is processed.
  • the rotation angle of the object on the three-dimensional coordinate axis is determined from the position of the object, the position of the camera and the rotation angle. Is calculated.
  • the central processing unit 101 performs a camera control matrix mixing process in which the position coordinates of the camera are determined from the origin of the three-dimensional coordinates.
  • the position data (Cx, Cy, Cz) indicating the position is obtained, and the angle information (Ax, Ay, Az) of the camera is obtained (Steps 301 to 30). 3).
  • AX indicates how much the camera is rotating with respect to the X axis of the three-dimensional coordinates.
  • a y and A z also indicate how much rotation is with respect to the y-axis and z-axis.
  • the explosion coordinate data CD is taken from the RAM 104 and the object position coordinates are obtained.
  • the explosion pattern and the flat object are displayed according to the display data accurately oriented in the desired direction (the direction of the line of sight), and the objects are processed.
  • the objects are processed.
  • a signboard as a flat object can always be directed in the line of sight.
  • the object is always oriented accurately and in the desired direction (the direction of the line of sight) from the position data of the object and the position data and angle data of the camera. You can do it.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

明細書 画像処理方法及びそ の装置 技術分野
本発明は、 ディ ス プ レ イ 装置に画像を表示 して リ ア ル タ イ ム にゲー ムを進行す る ゲー ム機に適用でき る画像処理方法及びその装置に係わ り、 と く にゲ— ム機の ハー ド ウ ェア資源を有効に利用でき る よ う に した画像処理方法及びそ の装置に関 する。
背景技術
—般に、 リ ア ル タ イ ム にゲー ムを進行させる こ と の で き る コ ン ピ ュ ータ ゲー ム 機は、 予め記憶したゲ ー ム ソ フ ト を実行する ゲ ー ム機本体と、 ゲ ー ム 上の キ ャ ラ ク タ を移動させるな どの処理のための操作信号を与える操作部と、 ゲー ム機本体 で実行されたゲー ム展開の画像を表示するディ ス プ レ イ 装置と、 ゲー ム展開に伴 い必要な音響を発生さ せる音響装置とを備えている。
このよ う なゲー ム機では、 画面が鮮明で、 よ り リ ア ル な映像を提供でき る も の が人気を得ている。 特に、 三次元の画像デー タ を一定のユニ ッ ト の集合と して表 示でき るポ リ ゴ ン処理を用いたゲー ム機は、 ビ ジ ュ ア ル な現実感 ( リ ア ル感) が 高いため、 人気を博している。 このポ リ ゴン処理のゲー ム機においては、 一つの オ ブジ ェ ク ト (画面上で動きのある表示物) を構成する ポ リ ゴン数を増加させた り、 ポ リ ゴ ン面にテ ク ス チ ャ ー を施すこ と によ り、 現実感をよ り 一層高める こ と ができ る。
このよ う に現実感を求める と いう こ と は、 ハー ド ウ ェ アに対しては、 処理時間 の短縮化はも ちろんの こ と、 飛躍的に増加するデー タ容量を リ ア ル タ イ ム に処理 する能力を要求する こ とを意味 し、 ハ ー ド ウ ェ ア の負担が著 し く 大き く な る。 し か し、 この要求は今後ますます増大する こ とが予想され、 それによ り ドゥ エ ァへの演算負荷も高ま るばかり であ る。
—方、 ゲー ム機は元来、 プ レ ー ヤ の入力に基づく リ ア ル タ イ ム の画像処理を行 う こ と が要求されてお り、 単な る コ ン ピ ュ ー タ グラ フ ィ ッ ク ス画像処理に比較す る と、 中央演算処理装置の基本的な負荷は元々高い も のであ つた。
その上、 飛行シ ミ ュ レー タ のよ う な圧倒的なデ— タ処理能力を確保 したいがた めに、 高価な高速演算処理装置を複数搭載してゲー ム機を構成 し たのでは、 高価 格の商品にな り、 市場のニー ズにそ ぐわないと い う 制約もあ つ た。
こ の よ う な事情によ って、 従来のゲー ム機では、 演算処理装置の処理能力の限 界またはデー タ容量の限界について妥協点を見出 し ながらの画像表示処理に留ま ら ざる を得なかっ た。 こ のため、 画像の現実感に物足り な さ を残すと い う状況が あ った。
本発明の目的は、 上述 した従来技術の問題点に鑑みてな された も のであ り、 画 像処理の負荷を減ら して、 よ り現実感のある画像を表示でき る画像処理方法及び そ の装置を提供する こ とであ る。
本発明の別の目的は、 と く に、 表示対象であ る オ ブ ジ ェ ク ト についての画像処 理の負荷を減ら して、 よ り現実感のある画像を表示でき る画像処理方法及びその 装置を提供する こ とである。 発明の開示
上記目的を達成するために、 本発明に係わる画像処理方法では、 仮想カ メ ラ の 情報のマ ト リ ッ タ ス と変換マ ト リ ッ ク ス とで座標変換 して得たォ ブジ ュ ク 卜 のマ ト リ ッ ク ス内の回転成分が単位マ ト リ ッ ク ス となる よ う に設定する こ と に よ り、 オ ブジ ェ ク ト の表示デー タ を得る。 カ メ ラ の情報のマ ト リ ッ ク ス は、 例えば、 力 メ ラ の位置情報と カ メ ラ の回転情報とか らなる。
なお、 こ こ で、 仮想カ メ ラ と は、 コ ン ピュータ グ ラ フ ィ ッ ク ス を描 く と きの視 点、 画角をカ メ ラ に例えた も のを云 う。 こ の仮想カ メ ラ のセ ッ テ ィ ン グは、 位置、 光軸方向 ( レ ン ズの向き) 、 画角 ( ズー ム〜ワ イ ド) 、 ツ イ ス ト (光軸回 り の回 転角) の指定で行う。 換言すれば、 仮想カ メ ラ と は、 仮想的に設定された視点を 云う。 仮想カ メ ラ は、 テ レ ビモ ニ タ に表示する画像の視野方向を決定する仮想的 な視野方向決定手段と して理解される。 図形 (ォブ ジュ ク ト ) 固有の座標系であ る ボデ ィ座標系から 3 次元空間内の図形 (ォ ブジュ ク ト ) の配置を定義する ヮ ー ル ド座標系にモデ リ ン グ変換された オ ブ ジ ェ ク ト 力 s、 こ の仮想カ メ ラ ( の位置及 び角度等) によ っ て定ま る視野座標系に視野変換さ れてモ ニ タ 3 0 に表示される c さ ら に続けて説明する と、 ま た、 好適には、 仮想カ メ ラ の情報のマ ト リ ッ ク ス を M、 3 次元空間内での移動の情報を持つマ ト リ ッ ク ス を X、 変換マ ト リ ッ ク ス を T とする と、
X = T M
か ら得たマ ト リ ッ ク ス Xの回転成分が単位マ ト リ ッ ク ス とな る よ う に設定する こ と によ り、 常に視線方向を向いたォ ブジ ク 卜 の表示デ― タ をつ く る。
また、 本発明に係わ る画像処理装置は、 仮想カ メ ラ の情報のマ ト リ ッ ク スを基 に ォ ブ ジ ュ ク 卜 の座標変換を し、 か つ座標変換 したォ ブ ジ ュ ク 卜 のマ ト リ ッ ク.ス の回転成分を単位マ ト リ ッ ク ス を形成する成分に設定する処理手段を設けた もの である。
前記処理手段は、 例えば、 仮想カ メ ラ の情報のマ ト リ ッ ク スを得る カ メ ラ コ ン ト ロ ー ルマ ト リ ッ ク ス処理手段と、 前記仮想カ メ ラ の情報のマ ト リ ッ ク ス に変換 マ ト リ ッ ク スをかけて、 回転した点の情報を もつマ ト リ ッ ク スを得る と と もに、 当該マ ト リ ッ ク ス の回転成分を単位マ ト リ ッ ク スを形成する成分に設定する こ と によ り、 常に仮想カ メ ラ の視線方向に向いたォ ブジ ュ ク ト の表示デー タ を得る こ とがで き るォブジヱ ク ト マ ト リ ッ ク ス処理手段とを備えた も のである。
また、 本発明に係わ る画像処理装置は、 カ メ ラ の位置座標情報及び角度情報と ォ ブジ - ク ト の位置座標情報と を記憶する記憶手段と、 前記記憶手段から得た力 メ ラ の位置座標情報及び角度情報及びォ ブ ジ ェ ク ト の位置座標情報か らォ ブ ジ ュ ク ト を所望の方向に向かせる 3 次元座標系の各角度を算出する ォ ブジ ュ ク ト マ ト リ ッ ク ス処理手段を備えた ものであ る。
本発明に係わる画像処理では、 座標変換して得たォブジュ ク ト の表示マ ト リ ッ ク ス の回転成分が単位マ ト リ ッ ク ス を形成する成分に設定される の で、 常に仮想 カ メ ラ の視線方向を向いたォブジェ ク ト の表示デー タが作られる。 仮想カ メ ラ を どのよ う な方向に向けて も、 カ メ ラ の方向にォ ブジ ヱ ク ト が常に向 く と い う関係 は維持されるから、 ォ ブジ - ク 卜 のデー タ は例えばその正面デー タ ( 2 次元デ一 タ) 1 枚で済み、 多量のデー タ を扱 う必要がないか ら、 演算処理が軽 く な る。 ま た、 オ ブジェ ク ト をノ、'ネ ル状に表示される ォブ ジュ ク ト デ一 夕 と して構成 してお き、 こ のオ ブ ジ ェ ク ト を所定の位置で、 常に所定の方向を向 く よ う にする こ とが でき、 看板等の平板状のォ ブジ ュ ク ト も常時視線方向に向け る こ と がで き る。 ま た、 カ メ ラ の情報のマ ト リ ッ ク ス は、 ゲー ム機な どの操作情報に応じて、 カ メ ラ の位置情報と カ メ ラ の回転情報とを必要に応じて選択で き る。 図面の簡単な説明
図 1 は本発明を適用 した一実施例に係る ゲー ム機の概略を説明する斜視図であ る。 - 図 2 は同ゲー ム機のォ ブジェ ク ト を説明する図である。
図 3 は同ゲー ム機の概略を示す電気的プロ ッ ク 図であ る。
図 4 は同ゲー ム機の中央演算処理装置及びその周辺の機能プロ ッ ク 図である。 図 5 は中央演算処理装置の処理の概要を示すフ ロ ーチ ヤ 一 ト である。
図 6 A乃至図 6 C は画像処理の一例を示す説明図であ る。
図 7 A乃至図 7 C は画像処理の一例を示す説明図であ る。
図 8 は本発明を適用 したそのほかの実施例に係る ゲー ム機の中央演算処理装置 の処理の概要を示すフ ロ ーチ ャ ー ト であ る。 発明を実施するための最良の形態
以下、 本発明の一実施例を図面を参照 して説明す る。
図 1 は、 本発明に係る画像処理方法及び画像処理装置を適用 し たゲー ム機を示 す。 こ のゲー ム機は、 例えば戦車ゲー ムを扱う も ので、 本発明に係る ォブジ ュ ク ト と して、 戦車か ら打ち出された大砲が標的に当た る と きの爆発のパタ ー ン (爆 発パタ ー ン) を例示して説明する。
図 1 に示すゲー ム機は、 操縦室を形成する筐体 1 を備える。 筐体 1 は基部 1 A と前壁部 I B とを備え、 前壁部 1 B が基部 1 A の一端に垂設さ れている。 基部 1 A には操縦席 2 が設け られ、 こ の操縦席 2 にプ レー ヤが座っ てゲー ム機を操縦す る。 前壁部 1 B には、 その内部にゲー ム機本体 1 0 が、 その下部の操縦席 2 にハ ン ドル 2 O A、 ア ク セ ル 2 0 B、 ビ ュ ーチ ェ ン ジ ス ィ ッ チ 2 0 C な どを含む操作 部 2 0 が、 及びその上側前部に T V モ ニ タ 3 0 及びス ピーカ 4 0 がそれぞれ設け られて いる。
このゲー ム機は戦車ゲー ムを扱う も の で、 ハ ン ド ル 2 0 Αがゲー ム機に方向デ 一 夕 を与えるための唯一の操作機器とな っている。 こ の戦車ゲー ムは、 走行する 表示オ ブジェ ク ト (走行体) と して戦車を対象と している。 戦車 3 1 は図 2 の よ う に模式的に表わすこ とができ、 車体 3 2 と砲芯の照準 3 3 とを備える。
ゲー ム機の電気的なプロ ッ ク 図は図 3 のよ う に表 される。 こ のゲー ム機のゲ一 ム機本体 1 0 は、 中央演算処理装置 ( C P U ) 1 0 1、 補助演算処理装置 1 0 2. プロ グ ラ ム / ^デー タ R O M 1 0 3、 デー タ R A M I 0 4 ッ ク ア ッ プ R A M I 0 5、 入力イ ン タ ー フ ェ イ ス 1 0 6、 デ ィ ッ プス ィ ッ チ 1 0 7、 サ ウ ン ド装置 1 0 8、 電力増幅器 1 0 9、 ポ リ ゴ ン ' ' ラ メ 一 夕 メ モ リ 1 1 0、 ジ オ メ 夕 ラ イ ザ と呼ばれる座標変換装置 1 1 1、 ポ リ ゴ ン . デ一夕 メ モ リ 1 1 2、 レ ン ダ リ ン グ 装置と も呼ばれる ポ リ ゴ ン ペ イ ン ト 装置 1 1 3、 及びフ レ ー ム メ モ リ 1 1 4 を備 えてい る。
こ の内、 中央演算処理装置 ( C P U ) 1 0 1 は、 バ ス ラ イ ンを介して、 補助演 算処理装置 1 0 2、 プ ロ グラ ム データ R O M 1 0 3、 データ R A M I 0 4、 パ- ッ ク ア ッ プ R A M I 0 5、 入力イ ン タ ー フ ェ イ ス 1 0 6、 サ ウ ン ド装置 1 0 8 及びポ リ ゴン ' ' ラ メ ータ メ モ リ 1 1 0 に接続されてい る。 入力 イ ン 夕 一 フ ェ イ ス 1 0 6 には操作部 2 0及びディ ッ プス ィ ツ チ 1 0 7 が接続されている。 C P U 1 0 1 は補助演算処理装置 1 0 2 と共働 して、 プロ グラ ムノデー タ R O M 1 0 3 に予め格納されたゲー ム プロ グラ ム のデー タ が読み出 し、 そ のプ ロ グ ラ ム を実行 する。 ゲーム プロ グラ ム には、 T Vモニ タ 3 0 に表示さ れる オ ブ ジ ェ ク ト と して の戦車の位置、 方向、 角度の制御及び表示画面の視野を決める仮想カ メ ラ の位置 及び角度の制御な ども含ま れる。 そ れ ら の制御概要を図 5 に示す。
サ ウ ン ド装置 1 0 8 は電力増幅器 1 0 9 を介 して ス ピー カ 4 0 に接続されてい る。 サ ウ ン ド装置 1 0 8 で形成された音響信号は電力増幅器 1 0 9 で電力増幅さ れ、 ス ピーカ 4 0 に送 られる。
ポ リ ゴン . パラ メ ー タ メ モ リ 1 1 0 の読出 し端は座標変換装置 1 1 1 に接続さ れてお り、 こ のメ モ リ 1 1 0 内のポ リ ゴ ンパラ メ ー タ が座標変換装置に与え られ る。 座標変換装置 1 1 1 は ポ リ ゴ ン デ— 夕 メ モ リ 1 1 2 に接続さ れてお り、 メ モ リ 1 1 2 か ら ポ リ ゴン デー タ を受け取る。 座標変換装置 1 1 1 では、 与え られた ポ リ ゴ ンパ ラ メ ー タ と ポ リ ゴ ンデー タ と に基づいて、 表示する ポ リ ゴ ン の座標値 が 3 次元から 2 次元の透視座標に変換さ れる。 座標変換装置 1 1 1 の出力端はポ リ ゴン ペイ ン ト装置 1 1 3 に接続さ れ、 透視座標に変換処理されたポ リ ゴ ンのデ — 夕がポ リ ゴ ン ペ イ ン ト装置 1 1 3 に送 られる。 ポ リ ゴ ン ペ イ ン ト装置 1 1 3 は. 送 られて き た ポ リ ゴン に フ レー ム メ モ リ 1 1 4 に格納 してい る テ ク ス チ ャ ーデ— 夕 をペ イ ン ト した画像デー タ を形成する。 ポ リ ゴ ン ペ イ ン ト 装置 1 1 3 の出力端 には T Vモニ タ 3 0 が接続されてお り、 ペイ ン ト装置 1 1 3 で形成さ れた画像デ 一夕が表示される。
—方、 操作部 2 0 のア ク セル 2 0 B はプ レーヤの操作に応答 して、 T V モ ニ タ 3 0 上のオ ブ ジ ェ ク ト の走行速度 V に反映する ア ク セル開度 A の電気信号を出力 する。 同様にハ ン ド ル 2 O Aは、 オ ブジ ェ ク ト の挙動を反映する方向 0 の電気信 号を出力する。 ビ ュ ー チ ヱ ン ジ ス ィ ッ チ 2 0 C は、 T V モニ タ 3 0 に表示する画 像の視野を決定する仮想カ メ ラ の位置を プ レーヤが指定する ス ィ ツ チ であ る。
中央演算処理装置 1 0 1 は、 補助演算処理装置 1 0 2 と共働 して、 図 4 に示す よ う に、 プロ グラ ム デー タ R O M 1 0 3 に記憶さ れた、 本発明に係る画像処理 方法を含むゲーム プロ グラ ムを実行する こ とで、 カ メ ラ コ ン ト ロ ー ルマ ト リ ッ ク ス処理手段 1 2 1 と、 ォ ブ ジ ヱ ク ト マ ト リ ッ ク ス処理手段 1 2 2 と、 ォ ブ ジ ェ ク ト パタ ー ン表示処理手段 1 2 3 とを機能的に実現す る。 プロ グラ ムノデー タ R O M 1 0 3 には、 爆発パタ ー ン (オブ ジェ ク ト) の形状を決める ポ リ ゴ ンの頂点デ 一夕か ら成る爆発モデルデータ M D が記憶されている。 またデー タ R A M I 0 4 には、 爆発パタ ー ン表示マ ト リ ッ ク ス X、 カ メ ラ マ ト リ ッ ク ス M、 及び爆発座標 デー タ C Dが記億されている。 爆発座標デ一 夕 C D は煜発を起こす位置デー タ で、 例えば爆発モデルデー タ M D の中心位置座標である。
中央演算処理装置 1 0 1 は後述する よ う に、 操作部 2 0 か らの操作入力に応 じ て視線方向を決める仮想カ メ ラ の位置と回転を コ ン ト ロ ール し、 そ の カ メ ラ マ ト リ ッ ク ス Mをデ一 タ R A M I 0 4 に記憶さ せ る と と も に、 カ メ ラ マ ト リ ッ ク ス M 及び爆発座標デー タ C Dを取り込み、 爆発パタ ー ン (オブジ ェ ク ト) を座標変換 する演算及び爆発パタ ー ン のマ ト リ ッ ク ス の回転成分を単位行列に設定する演算 を実行 して爆発パター ン表示マ ト リ ッ ク ス X を作り、 こ の マ ト リ ッ ク ス を X を デ — 夕 R A M I 0 4 に一時記憶させる。 さ らに中央演算処理装置 1 0 1 は、 プロ グ ラ ム デー タ R 0 M 1 0 3 に記憶さ れて い る爆発モ デル デー タ M D及びデー タ R A M I 0 4 に記憶されている爆発パター ン表示マ ト リ ッ ク ス Xを基に爆発パター ン の表示処理を実行する よ う にな っ てい る。 こ の よ う に して得たデー タ は、 ポ リ ゴ ン ' パ ラ メ ー タ メ モ リ 1 1 0 に供給され、 最終的には、 デ ィ ス プ レ イ装置 3 0 に供給される。 なお、 中央演算処理装置 1 0 1 は、 図示 しない力 s、 操作情報な ど に応じた爆発パタ ー ン の中心位置を必要に応 じて演算 し、 そ の演算の都度、 デ— タ R A M I 0 4 の爆発座標デー タ C Dの値を更新す る よ う にな っ てい る。
この実施例の動作を、 ォ ブジ - ク ト と しての爆発パタ ー ンに対する表示処理を 中心に図 5 〜図 7 を参照して説明す る。 なお、 爆発パタ ー ンはそ の正面部分の画 像デー タ を使用する も のとする。
こ のゲー ム機 1 では、 電源が投入される こ と によ り、 ゲー ム機本体 1 0 の動作 が開始 し、 中央演算処理装置 1 0 1 が補助演算処理装置 1 0 2 と共働 して図 5 に 示す処理を実行する。
まず、 中央演算処理装置 1 0 1 は所定の初期設定を実行する ( ス テ ッ プ 2 0 1 ) 。 つ い で、 中央演算処理装置 1 0 1 は、 プ レー ヤ が操作する ハ ン ド ル角、 ァ ク セ ル開度などの操作情報を操作部 2 0 から読み込み ( ス テ ッ プ 2 0 2 ) 、 こ の読み 込み情報に基づいて仮想カ メ ラ の カ メ ラ 情報の マ ト リ ッ ク ス ( カ メ ラ マ ト リ ッ ク ス ) M の コ ン ト ロ ー ル処理を実行す る ( ス テ ッ プ 2 0 3 ) 。
こ の コ ン ト ロ ー ル処理は、 仮想カ メ ラ の位置の基本マ ト リ ッ ク ス を E、 移動変 換マ ト リ ッ ク スを T, 、 回転変換マ ト リ ッ ク ス を R ' 、 カ メ ラ位置情報を持つマ ト リ ッ ク ス ( カ メ ラ マ ト リ ッ ク ス ) を M とする と、
M = R ' T ' E · . · · [数 1 ]
で与え られる。
こ の コ ン ト ロ ー ル処理を具体的に説明する。 本実施例では、 ハ ン ド ル 2 0 A , ア ク セ ル 2 0 B な どで戦車 3 1 の挙動を コ ン ト ロールするので、 仮想カ メ ラ は戦 車の視点から見ている とする。 そ こ で、 戦車の.位'置をそのま ま カ メ ラ の位置 ( X , Y p, Z p ) と み なす こ と ができ、 戦車の回転角をカ メ ラ の回転角
( X a , Y a, Z a ) とみなす こ と ができ る。 つま り、 ア ク セ ル操作によ る戦車 の移動はカ メ ラ の位置 ( X p, Y p, Z p ) の変化と し て反映し、 ハ ン ド ル操作 に よ る 戦車の回転は カ メ ラ の回転角 ( X a, Y a, Z a ) の変化と し て反映する。
この場合、 回転変換マ ト リ ッ ク ス を R ' は、 [数 2 ] の行列演算で与え られ、 移動変換マ ト リ ッ ク ス T ' は、 [数 3 ] の行列演算で与え られる。 [数 2 ] 及び [数 3 ] の行列演算式は、 後に記載されている。 [数 4 ] 以降の演算式又は値も 同様に後に説明されている。
単位行列 E は、 [数 4 ] で表されるから、 上記 [数 2 ] 〜 [数 4 ] 式の 3 つの マ ト リ ッ ク ス を掛 け合わせた も のが カ メ ラ マ ト リ ッ ク ス M ( = R, T ' E ) と な る
こ の よ う に演算された カ メ ラ マ ト リ ッ ク ス Mは デ ー タ R A M I 0 4 に格納され る ( ス テ ッ プ 2 0 4 ) 。
次いで、 中央演算処理装置 1 0 1 はプ ロ グ ラ ム デー タ R O M 1 0 3 か ら爆発 座標デ一 タ C Dを読み出すと と もに、 デ一 夕 R A M I 0 4 か らカ メ ラ マ ト リ ッ ク ス Mを読み出す ( ス テ ッ プ 2 0 5 ) 。 その後、 爆発パタ ー ン処理と して爆発パ夕 — ン の座標変換を実行する ( ス テ ッ プ 2 0 6 ) 。 つ ま り、 現在の カ メ ラ マ ト リ ツ ク ス M と爆発座標デー タ C D と に基づき、
X = T M
の行列演算を行い、 3 次元空間内の移動に関する爆発パター ン表示マ ト リ ッ ク ス Xが求められる。 Tは移動変換マ ト リ ッ ク スである。
具体的には、 カ メ ラ の位置を ( T x, T y, T ζ ) と し た と き、 爆発パ タ ー ン 表示マ ト リ ッ ク ス X は、 [数 5 ] で表される。 移動変換マ ト リ ッ ク ス Τが式のよ う に、 1 行目が [ 1 0 0 0 ] 、 2 行目が [ 0 1 0 0 ] 、 3 行目 が
[ 0 0 1 0 ] 、 4行目が [丁 T y T z 1 ] である と し、 これらを 用いて X = T Mの計算をする と、 X は、 1 行目に [ a b c 0 ] 、 2 行目に
[ d e f 0 ] 、 3 行目に [ £: h i 0 ] 、 4 行目に [ A B C 1 ] が得られる こ と に な る。 したがって、 こ の座標変換処理によ り、 仮想カ メ ラが移 動 した こ と に よ る マ ト リ ッ ク ス Xが得られる。 こ の実施例では、 後述する演算処理の簡単化の理由か ら、 回転変換マ ト リ ッ ク ス Rを使用 し ないので、 X = T Mの計算をする だけで済む。 こ の X = T M の計算 をする こ と によ り、 カ メ ラ情報のマ ト リ ッ ク ス X は、 [数 6 ] に示す値を と る。
こ の よ う に求め られた爆発パ タ ー ン表示マ ト リ ッ ク ス X の値が演算される と、 中央演算処理装置 1 0 1 は、 当該マ ト リ ッ ク ス X の回転成分を単位行列を形成す る成分に設定する演算を実行する (図 5 ス テ ッ プ 2 0 7 ) 。 これは、 式の各成分 a i の値が回転情報を持つので、 こ の回転情報を下記 [数 7 ] に示すよ う に単 位マ ト リ ッ ク スを形成する値に設定すれば回転情報が失われて し ま う こ と にな り、 必然的に、 爆発パタ ー ン表示マ ト リ ッ ク ス X は無回転の状態を表すこ と になる。 すなわ ち、 回転 していな い状態で、 こ ち ら を向 く こ と が可能な ォ ブ ジ - ク ト ( こ こ では爆発パタ ー ン) であれば、 上述 した演算を実行する こ と に よ り、 当該 オ ブジ ェ ク ト を常時、 好みの位置で、 こ ち ら (視線方向) を向 く よ う にする こ と ができ る。 つ ま り、 常にカ メ ラ の視線方向に沿った所望方向を向いた、才 ブジヱ ク ト の爆発パタ ー ン表示マ ト リ ッ ク ス X を形成でき る。 カ メ ラ の撮影方向をあ らゆ る方向に向けても、 ォ ブジ ュ ク トが常にカ メ ラ の方向に向いた状態と な る。
こ の爆発パタ ー ン表示マ ト リ ッ ク ス X をデー タ R A M I 0 4 に一時的に格納す る (ス テ ッ プ 2 0 8 ) 。
次いで、 爆発パター ン表示マ ト リ ッ ク ス X がデー タ R A M 1 0 4 か ら、 爆発モ デルデ― タ M Dが R 0 M 1 0 3 か ら読み出 さ れる ( ス テ ッ プ 2 0 9 ) 。 次いで、 爆発パター ン表示処理がな される ( ス テ ッ プ 2 1 0 ) 。 こ の表示処理では、 爆発 'ター ン表示マ ト リ ヅ ク ス X に爆発モデルデー タ M Dか ら読み出 される ポ リ ゴン 頂点デー タ を掛け合わせて表示デー 夕が作成される。
さ ら に、 中央演算処理装置 1 0 1 は、 ポ リ ゴ ンの ポ リ ゴ ンパ ラ メ ー タ を作成 し、 こ のポ リ ゴンデー タ を ポ リ ゴ ン ' ラ メ ー タ メ モ リ 1 1 0 に出力する ( ス テ ッ プ 2 1 K 2 1 2 ) o
この後、 ス テ ッ プ 2 0 2 の処理に戻る。 上述の繰 り返すこ と に よ り、 所望の力 メ ラ情報のマ ト リ ッ ク ス Mが求ま り、 カ メ ラ情報マ ト リ ッ ク ス Mに変換マ ト リ ッ ク ス T をかけてな るマ ト リ ッ ク ス X が算出される。 そ して、 マ ト リ ッ ク ス X につ いて回転成分を単位マ ト リ ッ ク ス を形成する成分に設定する こ と によ り、 爆発パ タ ー ン が常に視線方向に向 く 表示デー タ が得られる。
このよ う に して得られた爆発パタ ー ン を含むオ ブ ジ ェ ク 卜 の デ ー タ は、 ポ リ ゴ ン . パ ラ メ ー タ メ モ リ 1 1 0 を介して座標変換処理装置 1 1 1 に与え られる。 座 標変換処理装置 ( ジォ メ タ ラ イ ザ) 1 1 1 では、 必要な表示座標に合わせて表示 デー タ を作成 し、 ポ リ ゴ ン ペ イ ン ト 装置 ( レ ン ダ リ ン グ装置) 1 1 3 に与える。 ポ リ ゴ ン ペ イ ン ト装置 1 1 3 で は、 当該表示デ ー タ に対 して、 フ レ ー ム ' メ モ リ 1 1 4 か ら得たテ ク ス チ ャ デー タ を付加する こ と に よ り、 ポ リ ゴ ン デー タ の表面 に装飾が施された表示デー タ に変換 される。 こ の表示デ ― タ は デ ィ ス プ レ イ 装置 3 0 に与え られ、 表示される。
なお、 図 5 の処理において、 ス テ ッ プ 2 0 2 ~ 2 0 4 が図 4 の カ メ ラ コ ン ト 口 ー ルマ ト リ ッ ク ス処理手段 1 2 1 を形成 し、 ス テ ッ プ 2 0 5 , 2 0 6 が同図のォ ブ ジ ヱ ク ト マ ト リ ッ ク ス処理手段 1 2 2 を形成 し、 さ ら に ス テ ッ プ 2 0 7 ~ 2 1 0 が同図のォ ブジ ヱ ク ト パタ ー ン表示処理手段 1 2 3 を等価的に形成 している。 こ こ で、 上述 し た ス テ ッ プ 2 0 6 に お け る カ メ ラ マ ト リ ッ ク ス Xの別の行列演 算を比較のた め に説明 してお く。 こ の手法は、 本実施例では、 演算付加軽減のた めに採用 してはいない。 ォブジェ ク 卜が 3 次元空間内を移動 し、 そ の移動 した位 置での回転情報を持つ ォブジェ ク ト 表示マ ト リ ッ ク スを X とする と、 当該マ ト リ ッ ク ス X は、
X = R T M
で得られる。 なお、 R は回転変換マ ト リ ッ ク ス、 T は移動変換マ ト リ ッ ク ス であ る。 移動変換マ ト リ ッ ク ス T に つ い て は前述 した [数 5 ] と同様であ る。
こ の座標変換処理における回転変換マ ト リ ッ ク ス Rの具体的計算例について説 明する。 まず、 マ ト リ ッ ク ス Mが [数 8 ] 〜 [数 1 0 ] 式に示すよ う に、 例えば 要素 a、 b、 c、 … k、 1 の 4 行 4 列の行列である とする。
回転変換マ ト リ ッ ク ス R X が [数 8 ] の よ う に、 1 行目が [ 1 0 0 0 ] 、 2 行目が [ 0 c o s 0 s i n e 0 ] 、
3 行目が [ 0 — s i n e c 0 s 6» 0 ] 、 4 行目カ;' [ 0 0 0 1 ] であ る と し、 これらを用いて X = R x ' Mの計算をする と、 X は、
1 行目 に [ a b c 0 ] 、 2 行目に [ A B C 0 ] 、 3 行目 に [ D E F 0 ] 、 4 行目に [ j k 1 1 ] が得 られる こ と にな る。 こ の計算結果 X の大文字の要素が回転マ ト リ ッ ク ス R x の影響を受けた部分 である。 したがって、 座標変換処理によ り、 仮想カ メ ラ が X 軸方向について回転 し た こ と によ る マ ト リ ッ ク ス X が得 られる こ と にな る。
同様に、 回転変換マ ト リ ッ ク ス R y が [数 9 ] の よ う に、
1 行目が [ c 0 s 0 0 - s i n e 0 ] 、 2 行目力 ϊ [ 0 1 0 0 ] 3 行目が [ s i n 0 0 c 0 s 0 0 ] 、 4 行目が [ 0 0 0 1 ] であ る と し、 こ れらを用いて X = R y ' Mの計算をする と、 X は、
1 行目 に [ G H I 0 ] 、 2 行目に [ (1 e f 0 ] 、
3 行目 に [ J K L 0 ] 、 4 行目に [ j k 1 1 ] が得 られる こ と にな る。 こ の計算結果 Xの大文字の要素が回転マ ト リ ッ ク ス R y の影響を受けた部分 である。 したがって、 座標変換処理によ り、 仮想カ メ ラ が y 軸方向について回転 した こ と によ る マ ト リ ッ ク ス X が得 られる こ と にな る。
同様に、 回転変換マ ト リ ッ ク ス R z が [数 1 0 ] のよ う に、
1 行目が [ c o s 0 s i e 0 0 ] 、
2 行目が [一 s i n 0 c o s 6 0 0 ] 、 3 行目が [ 0 0 1 0 ] 、 4 行目が [ 0 0 0 1 ] ある と し、 これらを用いて X = R z ' Mの計算をする と、 X は、 1 行目に [ M N 0 0 ] 、 2 行目に [? Q R 0 ] 、 3 行目 に [ g h i 0 ] 、 4 行目に [ j k 1 1 ] が得られる こ と にな る。 こ の計算結果 X の大文字の要素が回転マ ト リ ッ ク ス R z の影響を受けた部分である ( したがって、 座標変換処理によ り、 仮想カ メ ラ が z 軸方向について回転した こ と による マ ト リ ッ ク ス X が得られる こ と にな る。
こ の よ う に、 カ メ ラ マ ト リ ッ ク ス Mに回転変換マ ト リ ッ ク ス R を掛ける こ と に よ り、 回転成分を有す るマ ト リ ッ ク ス X を得る こ と はでき る。
続いて、 図 6 及び図 7 を参照 して作用効果の具体例を説明する。
まず、 比較のために、 ォ ブジ ヱ ク ト の回転変換マ ト リ ッ ク ス R を導入 して X =
R T M のォ ブジヱ ク ト マ ト リ ッ ク ス処理を行ったと仮定 した場合を説明する。 いま、 図 6 Aに示すよ う に、 エ リ ア 5 0 0 内の中央上部にォブ ジェ ク ト 5 1 0 が配置されている もの とする。 また、 仮想カ メ ラ の視点 5 2 0 が図示のとお り、 中央部から図示上方向に向かっ てい る もの とする。 こ の と き の力 メ ラ マ ト リ ッ ク スを M、 単位行列を E と し、 M = R, T ' E を算出する と、 マ ト リ ッ ク ス Mは、 図 6 B に示すよ う に、 1 行目が [ 1 0 0 0 ] で、
2 行目が [ 0 1 0 0 ] で、 3 行目力 ϊ [ 0 0 1 0 ] で、
4 行目が [ 0 0 0 1 ] と なる行列とな る。 し たがって、 X = R T Mの計算 を し、 カ メ ラ の視点 5 2 0 から オブ ジェ ク ト 5 1 0 を観察する と、 図 6 C に示す よ う に長方形状のォブ ジヱ ク ト 5 1 0 ' を得る こ と ができ る。 こ のよ う に所定の 大き さ のォブジヱ ク ト 5 1 0 を、 X = R T Mの計算をする こ と に よ り、 一定の方 向を向いた映像と して得る こ とがで き る。
また、 図 7 Aに示すよ う に、 エ リ ア 5 0 0 内の中央上部にオ ブ ジ ェ ク ト 5 1 0 が配置されてお り、 仮想カ メ ラ の視点 5 2 0 が図示のと お り、 図示左下方向から 図示右上方向に向かっ てい る も のとする。 こ の と き の カ メ ラ マ ト リ ッ ク ス Mは、 単位行列を E と し、 M = R, T ' E を算出する と、 図 7 B に示すよ う に、 1 行目 が [ A B C 0 ] で、 2 行目力 [ D E F 0 ] で、
3 行目が [ G H I 0 ] で、 4 行目力 ϊ [ a b c 1 ] と な る行列となる c したがって、 カ メ ラ の視点 5 2 0 か らオ ブジェ ク ト 5 1 0 を観察する と、 X = R T Mの計算をする こ と に よ り、 図 7 C に示すよ う に画面上で左側が小さ く 右側が 大きな台形状のオ ブジ ェ ク ト 5 1 0 ' を得る こ とができ る。 こ のよ う にカ メ ラ の 位置 ' 回転の情報を基にオ ブジ ェ ク ト 5 1 0 を取り 込み、 所定の映像を得る こ と ができ る。
これに対して、 本実施例で採用 している簡便的な ォブジ ヱ ク ト マ ト リ ッ ク ス 処 理であ る X = T Mの演算の場合を説明する。
いま 図 6 A、 図 7 A のエ リ ア 5 1 0 は長方形ポ リ ゴン 5 1 0 である とする。 図 6 Aで、 長方形ポ リ ゴ ン 5 1 0 は、
P 1 ( X I , Y 1 , Z l ) , P 2 ( X 2 , Y 2, Z 2 ) ,
P 3 ( X 3 , Y 3, Z 3 ) , P 4 ( X 4 , Y 4, Z 4 )
の 4頂点のパラ メ ータ で表される。 カ メ ラが移動 して回転した状態を図 7 A とす る。 4 頂点 P 1〜 P 4 は、 M = R, T ' Eで求め られたカ メ ラ マ ト リ ッ ク ス Mに よ り変換される。 変換後のパ ラ メ ー タ (頂点) を Ρ 1 ' , Ρ 2 ' , Ρ 3 ' , P 4 ' とする と、
Ρ 1 ' = Ρ 1 · Μ, P 2 ' = P 2 · M,
P 3 ' = P 3 ■ M, P 4 ' = P 4 · M
で表さ れる。 こ のパラ メ ータ をその ま ま表示させる と、 図 7 C に示すよ う にな つ て しま う。
そ こ で、 図 7 B のカ メ ラ マ ト リ ッ ク ス Mの中の A, B , C , D, E, F, G, H, I で表される回転情報を、 単位行列を形成する成分に設定 し たマ ト リ ッ ク ス を M ' と して 4頂点を変換する と、
P 1 " = P 1 · M ' , P 2 " = P 2 · M ' ,
P 3 " = P 3 · M ' , P 4 " - P 4 · M ' ,
で表さ れる。 こ の変換デー タ P I " , P 2 " , P 3 " , P 4 " を表示する と、 図 7 C に示す長方形ポ リ ゴンが、 図 7 A に示す視線方向を向 く よ う に表示される。 こ のよ う に回転情報を単位行列にする と、 長方形ポ リ ゴ ン 5 1 0 が常にカ メ ラ方 向に対向している とい う図 6 A に示す位置関係が保持される。
こ の よ う に、 本実施例では、 操作部 2 0 からの操作に応じた仮想カ メ ラ の情報 のマ ト リ ッ ク ス Mを求め、 ついで X = T Mの座標変換を行い、 かつそ のマ ト リ ッ ク ス X の回転成分が単位マ ト リ ッ ク ス の成分を持つ よ う にする こ と によ り、 その 単位マ ト リ ッ ク ス に拠る疑似演算で、 爆発パタ ー ンが仮想カ メ ラ の視線に常に 9 0 度で向く よ う になる。 こ のため、 爆発パター ンの正面データ のみを用いて爆発 パター ンの全体像を表現でき る。 つ ま り、 爆発パタ ー ンの一部の所定領域のデー タ のみを用いて視点に応じた移動を させる こ とがで き るため、 爆発パター ンの所 定領域のデー タ のみでォブ ジュ ク ト を立体的に表す こ とができ る。 ま た爆発パタ ー ン表示マ ト リ ッ ク ス Xを求める と き、 単位行列の使用に拠る疑似演算によ って. 回転変換マ ト リ ッ ク ス Rを使っ た時間の掛かる爆発パタ ー ン の回転演算は不要と な る。 したがって、 視点の移動に伴 う ォ ブジェ ク 卜 の移動表示のための演算に必 要なデー タ量を少な く でき、 ま た扱 う表示データ量を少な く させ る こ とができ、 演算負荷を軽 く して高速演算が可 にな る。 ま た、 ォブジュ ク ト を視点の移動に 応 じて移動させるため、 正面データ な ど、 オブジェ ク 卜 の一部のデータ のみでォ ブジ - ク トが立体的である よ う に見せる こ とができ る。 こ のよ う に処理データ を させながら、 高品質の画像を表示さ せる こ と がで き る。
なお、 上記実施例では本発明の画像処理のォ ブジ ヱ ク ト を扱 う ゲー ム と して戦 車ゲー ムを想定 したが、 こ のゲー ム は単に、 自動的に移動す る標的を銃で打つゲ ー ムであ っ て も よ い。 ォ ブ ジ ェ ク ト と し て爆発パタ ー ンを例示 して説明 したが、 こ のォ ブジ - ク ト は任意の も のでよ く、 例えば戦車ゲー ム におけ る敵戦車、 背景 の特定の ものでもよ く、 ま た単に立 っている看板の よ う な も ので も よ く、 ォ ブ ジ ュ ク ト を常時、 視線方向に向ける こ と がで き、 上述 した演算負荷の軽減効果を得 る こ と ができ る。
続いて、 本発明の他の実施例を図 8 に基づき説明する。
こ の実施例は前述 した戦車ゲー ム の実施例の同等の構成を有 し、 中央演算処理 装置 1 0 1 は図 8 に示す処理を疔う。
こ の実施例は、 カ メ ラ コ ン ト ロ ー ルマ ト リ ッ ク ス 処理において カ メ ラ の位置の 座標と角度の情報とを得る と と もに、 ォ ブジヱ ク ト マ ト リ ッ ク ス処理においてォ ブジヱ ク ト を正確に視線方向に向け るために、 ォブ ジヱ ク 卜 の位置と カ メ ラ の位 置及び回転角度とから 3 次元座標軸上のォブジ ュ ク 卜 の回転角度を算出する よ う に した ものである。
図 8 に示す処理を説明する。 まず、 中央演算処理装置 1 0 1 は所定の初期設定 の後、 そのカ メ ラ コ ン ト ロ ールマ ト リ ッ ク ス処理と して、 カ メ ラ の位置座標が 3 次元座標の原点から どの位置にあるかを示す位置データ ( C x、 C y、 C z ) と、 カ メ ラ の角度情報 ( A x、 A y、 A z ) とを求める (ス テ ッ プ 3 0 1 ~ 3 0 3 ) 。 こ こで、 例えば A X は、 3 次元座標の X 軸に対 して カ メ ラがどの位回転 している かとい う こ と を示 している。 なお、 A y、 A z も y 軸、 z軸に対 して どの位回転 してい るかを示す。 こ のカ メ ラ の位置データ ( C x、 C y、 C z ) と カ メ ラ の角 度情報 ( A x、 A y、 A z ) とがデータ R A M I 0 4 に、 M = R ' T ' E の演算 結果である カ メ ラ マ ト リ ッ ク ス Mと して格納される ( ス テ ッ プ 3 0 4 ) 。
こ の よ う に して各デー タ が得られる と、 ォブジュ ク ト マ ト リ ッ ク ス処理と して、 R A M I 0 4 から爆発座標デー タ C Dを取り込み、 オブジェ ク ト 位置座標
( O z、 O y、 0 z ) を得る と と も に、 爆発パタ ー ンを正確に視線方向に向かせ るための角度デー タを作成する ( ス テ ッ プ 3 0 5、 3 0 6 ) 。 こ の爆発パター ン の角度デー タ作成は、 y軸、 X 軸、 z 軸に対 して以下のよ う に行われる。 y軸の 回転角 Y a n g を [数 1 1 ] によ り 求め る。
Y a n g = t a n -1 [ ( O x - C x ) / ( O z - C z ) ] · · · [数 1 1 ] こ こ で、 ( O x — C x ) はォ ブジ ヱ ク ト座標と カ メ ラ座標の x 軸方向の距離で あ り、 ( O z — C z ) はォ ブジ ュ ク ト座標と カ メ ラ座標の z 軸方向の距離であ る。 また、 X軸の回転角度 X a n g を [数 1 2 ] によ り算出する。
X a n g = t a n "1 [ { ( O x - C x ) s i n ( Y a n ) +
( O z - C z ) c o s ( Y a n g ) } / ( O y - C y ) ] . . [数 1 2 ] さ ら に、 z 軸の回転角度 Z a n g を [数 1 3 ] に よ り算出する。
Z a n g = A z ■ · · [数 1 3 ]
こ の よ う にォ ブ ジ - ク ト マ ト リ ッ ク ス処理において爆発パタ ー ンを正確に視線 方向に向ける角度デー タ ( Y a n g、 X a n g、 Z a n g ) が算出された と こ ろ で、 こ れら角度デー タ ( Y a n g、 X a n g、 Z a n g ) を用いて爆発パタ ー ン の座標変換が、 前述した X = R T M の演算によ り行われ、 そ のデー タ Xが格納さ れる ( ス テ ッ プ 3 0 7、 3 0 8 ) 。 こ の後、 前述と 同様に、 表示処理に必要なデ 一 夕 の読出 し、 爆発パ タ ー ン表示処理、 ポ リ ゴ ン パ ラ メ ー タ作成、 ポ リ ゴ ン パ ラ メ ータ 出力の処理が行われる ( ス テ ッ プ 3 0 9 〜 3 1 2 ) 。
こ の よ う に、 爆発パター ン、 平板状のォブジ ュ ク 卜 が正確に所望方向 (視線方 向) に向いた表示デー タ によ っ て表示処理が行われ、 それらのォ ブジ ュ ク トが常 に視線方向を向く。 例えば平板状のオブジェ ク ト と しての看板を常時、 視線方向 に向けてお く こ とができ る。 こ の実施例では、 オ ブ ジ ェ ク ト の位置デ— 夕 と カ メ ラ の位置デー タ及び角度デー タ とか ら、 オブジェ ク ト を常に正確に所望方向 (視 線方向) に向けてお く こ と がで き る。 -91-
0 0 0
L 0 0
=3
0 0 I 0 0 0 0 !■ ノ
=丄
Figure imgf000018_0001
Figure imgf000018_0002
urn lZlOIS6d£llDd [数 5]
M X
Figure imgf000019_0001
[数 6]
Figure imgf000019_0002
に、 A=aTx+dTy+gTz+j
B=bTx+eTy+hTz+k
Figure imgf000019_0003
[数 7] a 1 b 0 c→ 0
d e -→ 1 f →0
9 1 h 0 i → 1 [数 8]
Rx M X
r- 1 0 0 0Ί 「 a b c r a b c o -
0 cosG sinG 0 d e f 0 A B C 0
0 -sine cosG 0 g h i 0 D E F 0
、 0 0 0 1 J し j k i 1 し j k I 1 J
[数 9]
Ry M X
'cose 0 -sine 0> 广 a b c 0> H I 0Ί
0 1 0 0 d e f 0 d e f 0 sine 0 COS0 0 g h i 0 J K し 0 に o 0 0 1 に j k I 1. に j k t 1 J
[数 10]
Rz M X
-
Figure imgf000020_0001

Claims

請 求 の 範 囲
1 . 視線方向を定める仮想カ メ ラ の情報のマ ト リ ッ ク ス と変換マ ト リ ッ ク ス と で 座標変換してォ ブ ジ ェ ク ト の マ ト リ ッ ク ス を求め、 こ の マ ト リ ッ ク ス の回転成分 が単位マ ト リ ッ ク ス と な る よ う に設定する こ と に よ り、 ォ ブ ジ ヱ ク ト の表示デ ー 夕 を得る画像処理方法。
2 . 前記仮想カ メ ラ の情報のマ ト リ ッ ク ス は、 カ メ ラ の位置情報 と カ メ ラ の回転 情報と からなる請求項 1 記載の画像処理方法。
3 . 仮想カ メ ラ の情報のマ ト リ ッ ク スを M、 3 次元空間内で の オ ブ ジ ェ ク ト の移 動情報を持つマ ト リ ッ ク ス を X、 変換マ ト リ ッ ク ス を T と す る と、
X = T M
の座標変換から得たマ ト リ ッ ク ス X の回転成分が単位マ ト リ ッ ク ス と なる よ う に 設定す る こ と によ り、 常に所望方向に向いたォ ブジ ュ ク ト の表示デー タ を得る画 像処理方法。
4 . 仮想カ メ ラ の情報のマ ト リ ッ ク スを基に座標変換してォ ブジ ュ ク 卜 のマ ト リ ッ ク ス を形成し、 かっ こ の マ ト リ ッ ク ス の回転成分が単位マ ト リ ッ ク ス と な る よ う に設定する処理手段を設けた画像処理装置。
5 . 前記処理手段は、 前記仮想カ メ ラ の情報のマ ト リ ッ ク ス を得る カ メ ラ コ ン ト ロ ー ル マ ト リ ッ ク ス処理手段と、 前記仮想カ メ ラ の情報のマ ト リ ッ ク ス に変換マ ト リ ッ ク スを掛けて回転した点の情報を持つォ ブジ - ク 卜 のマ ト リ ッ ク ス を得る と と も に、 当該マ ト リ ッ ク ス の回転成分が単位マ ト リ ッ ク ス とな る よ う に設定す る ォ ブジヱ ク ト マ ト リ ッ ク ス処理手段と を備え、 常に所望方向に向いた前記ォブ ジ ェ ク ト の表示デー タ を得る請求項 4 記載の画像処理装置。
6 . 仮想力 メ ラ の位置座標情報及び角度情報と オ ブ ジ ェ ク ト の位置座標情報とを
記憶す る記憶手段と、 こ の記憶手段か ら得た力 メ ラ の位置座標情報及び角度情報 及びォ ブ ジ ェ ク ト の位置座標情報か ら前記オブジェ ク ト を所望の方向に向かせる 3 次元座標系の角度を算出する ォ ブ ジ - ク ト マ ト リ ッ ク ス処理手段を備えた画像 処理装置。
PCT/JP1995/001219 1994-06-20 1995-06-20 Procede et dispositif de traitement d'image WO1995035555A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE69530824T DE69530824D1 (de) 1994-06-20 1995-06-20 Verfahren und gerät zur bildverarbeitung
US08/596,324 US5971852A (en) 1994-06-20 1995-06-20 Image processing method and apparatus
EP95921991A EP0715280B1 (en) 1994-06-20 1995-06-20 Method and apparatus for processing image
KR1019960700837A KR100274444B1 (ko) 1994-06-20 1995-06-20 화상 처리 방법 및 장치
JP8501948A JP2883737B2 (ja) 1994-06-20 1995-06-20 画像処理方法及びその装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP16050794 1994-06-20
JP6/160507 1994-06-20

Publications (1)

Publication Number Publication Date
WO1995035555A1 true WO1995035555A1 (fr) 1995-12-28

Family

ID=15716448

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1995/001219 WO1995035555A1 (fr) 1994-06-20 1995-06-20 Procede et dispositif de traitement d'image

Country Status (6)

Country Link
US (1) US5971852A (ja)
EP (1) EP0715280B1 (ja)
KR (1) KR100274444B1 (ja)
CN (2) CN1087854C (ja)
DE (1) DE69530824D1 (ja)
WO (1) WO1995035555A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186031A (ja) * 1997-09-11 1999-03-30 Sega Enterp Ltd 画像処理装置及び画像処理方法並びに媒体
US6664965B1 (en) 1998-08-07 2003-12-16 Kabushiki Kaisha Sega Enterprises Image processing device and information recording medium
US7101284B2 (en) 2001-12-18 2006-09-05 Sony Computer Entertainment Inc. Object display system in a virtual world
US7277571B2 (en) 2002-05-21 2007-10-02 Sega Corporation Effective image processing, apparatus and method in virtual three-dimensional space

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6582308B1 (en) * 1997-03-23 2003-06-24 Kabushiki Kaisha Sega Enterprises Image processing device and character aspect design device
JP3103322B2 (ja) * 1997-05-23 2000-10-30 コナミ株式会社 シューティングゲーム装置、シューティングゲームの画像表示方法及び可読記録媒体
JP3342393B2 (ja) * 1998-03-19 2002-11-05 株式会社コナミコンピュータエンタテインメントジャパン ビデオゲーム装置、コンピュータ読み取り可能な記録媒体
TW401699B (en) * 1998-04-01 2000-08-11 Koninkl Philips Electronics Nv A method and device for generating display frames from a sequence of source frames through synthesizing one or more intermediate frames exclusively from an immediately preceding source frame
EP0999523B1 (en) 1998-05-20 2006-12-06 Kabushiki Kaisha Sega doing business as Sega Corporation Image processor, game machine, image processing method, and recording medium
US6350199B1 (en) * 1999-03-16 2002-02-26 International Game Technology Interactive gaming machine and method with customized game screen presentation
EP1079332A1 (en) * 1999-08-25 2001-02-28 M.M. Multimedia A/S Method of rendering states of a system
JP3321570B2 (ja) * 1999-09-14 2002-09-03 株式会社ソニー・コンピュータエンタテインメント 動画作成方法、記憶媒体およびプログラム実行装置
JP3822776B2 (ja) * 2000-03-29 2006-09-20 株式会社バンダイナムコゲームス ゲーム装置、及び情報記憶媒体
JP3686920B2 (ja) * 2002-05-21 2005-08-24 コナミ株式会社 3次元画像処理プログラム、3次元画像処理方法及びビデオゲーム装置
JP4563266B2 (ja) * 2005-06-29 2010-10-13 株式会社コナミデジタルエンタテインメント ネットワークゲームシステム、ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4732925B2 (ja) * 2006-03-09 2011-07-27 イマグノーシス株式会社 医用画像の表示方法およびそのプログラム
US8319771B2 (en) * 2008-09-30 2012-11-27 Disney Enterprises, Inc. Computer modelled environment
TWI493500B (zh) * 2009-06-18 2015-07-21 Mstar Semiconductor Inc 使二維影像呈現出三維效果之影像處理方法及相關影像處理裝置
CN102238313A (zh) * 2010-04-22 2011-11-09 扬智科技股份有限公司 产生影像转换矩阵的方法、影像转换方法及其装置
JP5905421B2 (ja) * 2013-09-03 2016-04-20 株式会社ア−キテック 三次元作図システム及びそのプログラム
US11638872B1 (en) * 2021-10-18 2023-05-02 Electronic Arts Inc. Videographer mode in online games

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6165368A (ja) * 1984-09-07 1986-04-03 Hitachi Ltd 設計支援方法
JPS6182278A (ja) * 1984-09-29 1986-04-25 Toshiba Corp 3次元座標変換装置
JPS6266382A (ja) * 1985-09-19 1987-03-25 Fujitsu Ltd 回転図形の歪発生防止方式
JPS6295666A (ja) * 1985-10-21 1987-05-02 Sony Corp 画像発生装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4027403A (en) * 1975-03-12 1977-06-07 The Singer Company Real-time simulation of point system having multidirectional points as viewed by a moving observer
US4811245A (en) * 1985-12-19 1989-03-07 General Electric Company Method of edge smoothing for a computer image generation system
JPH0668758B2 (ja) * 1986-01-07 1994-08-31 株式会社日立製作所 カーソル制御方法及び3次元図形表示装置
US5003498A (en) * 1986-01-13 1991-03-26 Hitachi, Ltd. Graphic display method
US5001663A (en) * 1989-05-03 1991-03-19 Eastman Kodak Company Programmable digital circuit for performing a matrix multiplication
US5261820A (en) * 1990-12-21 1993-11-16 Dynamix, Inc. Computer simulation playback method and simulation
FR2675977B1 (fr) * 1991-04-26 1997-09-12 Inst Nat Audiovisuel Procede de modelisation d'un systeme de prise de vues et procede et systeme de realisation de combinaisons d'images reelles et d'images de synthese.
JP2760253B2 (ja) * 1992-07-14 1998-05-28 住友電気工業株式会社 道路の動画像作成方法及びこの方法を適用した車載ナビゲーション装置
US5379370A (en) * 1992-07-17 1995-01-03 International Business Machines Corporation Method and apparatus for drawing lines, curves, and points coincident with a surface
JPH0812687B2 (ja) * 1992-11-27 1996-02-07 日本電気株式会社 3次元地図上のシンボル表示方式
US5583977A (en) * 1993-10-21 1996-12-10 Taligent, Inc. Object-oriented curve manipulation system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6165368A (ja) * 1984-09-07 1986-04-03 Hitachi Ltd 設計支援方法
JPS6182278A (ja) * 1984-09-29 1986-04-25 Toshiba Corp 3次元座標変換装置
JPS6266382A (ja) * 1985-09-19 1987-03-25 Fujitsu Ltd 回転図形の歪発生防止方式
JPS6295666A (ja) * 1985-10-21 1987-05-02 Sony Corp 画像発生装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0715280A4 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186031A (ja) * 1997-09-11 1999-03-30 Sega Enterp Ltd 画像処理装置及び画像処理方法並びに媒体
US6664965B1 (en) 1998-08-07 2003-12-16 Kabushiki Kaisha Sega Enterprises Image processing device and information recording medium
US6980207B2 (en) 1998-08-07 2005-12-27 Kabushiki Kaisha Sega Enterprises Image processing device and information recording medium
US7471297B2 (en) 1998-08-07 2008-12-30 Kabushiki Kaisha Sega Enterprises Image processing device and information recording medium
US7557808B2 (en) 1998-08-07 2009-07-07 Kabushiki Kaisha Sega Image processing device and information recording medium
US7101284B2 (en) 2001-12-18 2006-09-05 Sony Computer Entertainment Inc. Object display system in a virtual world
KR100730455B1 (ko) 2001-12-18 2007-06-19 가부시키가이샤 소니 컴퓨터 엔터테인먼트 가상 세계에서의 객체 표시 시스템
US7277571B2 (en) 2002-05-21 2007-10-02 Sega Corporation Effective image processing, apparatus and method in virtual three-dimensional space

Also Published As

Publication number Publication date
CN1087854C (zh) 2002-07-17
CN1129482A (zh) 1996-08-21
CN1399230A (zh) 2003-02-26
EP0715280A1 (en) 1996-06-05
EP0715280B1 (en) 2003-05-21
US5971852A (en) 1999-10-26
DE69530824D1 (de) 2003-06-26
CN1205594C (zh) 2005-06-08
KR960704284A (ko) 1996-08-31
EP0715280A4 (en) 1996-08-21
KR100274444B1 (ko) 2000-12-15

Similar Documents

Publication Publication Date Title
WO1995035555A1 (fr) Procede et dispositif de traitement d'image
US20220091725A1 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
KR100393504B1 (ko) 오브젝트방향제어방법및장치
JP5300777B2 (ja) プログラム及び画像生成システム
EP2105905A2 (en) Image generation apparatus
US6196919B1 (en) Shooting game apparatus, method of performing shooting game, and computer-readable recording medium storing shooting game program
JPH0836651A (ja) 画像処理装置
JP2012161604A (ja) 空間相関したマルチディスプレイヒューマンマシンインターフェース
JP3245142B2 (ja) ゲームシステム及び情報記憶媒体
JP3215306B2 (ja) 画像合成方法及び装置
JP2000288248A (ja) ゲーム装置及び情報記憶媒体
JP2883737B2 (ja) 画像処理方法及びその装置
JP3431522B2 (ja) ゲーム装置及び情報記憶媒体
US6749509B1 (en) Image processing method and apparatus
JPH11283049A (ja) 画像処理方法及びその装置
JP2002216167A (ja) 画像生成システム、プログラム及び情報記憶媒体
JP2001250128A (ja) ゲームシステム及び情報記憶媒体
JP4229316B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP4698701B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP5063022B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP4159060B2 (ja) 画像生成装置及び情報記憶媒体
JP2002092640A (ja) ゲームシステム及び情報記憶媒体
JP2888828B1 (ja) 画像生成装置及び情報記憶媒体
JP3990050B2 (ja) ゲーム装置及び情報記憶媒体
JP2002042166A (ja) ゲームシステム及び情報記憶媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 95190555.4

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR RU US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE ES FR GB IT

WWE Wipo information: entry into national phase

Ref document number: 1995921991

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1995921991

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 08596324

Country of ref document: US

ENP Entry into the national phase

Ref document number: 1996 596324

Country of ref document: US

Date of ref document: 19961022

Kind code of ref document: A

WWG Wipo information: grant in national office

Ref document number: 1995921991

Country of ref document: EP