WO1997006511A1 - Appareil et procede pour former une image virtuelle - Google Patents

Appareil et procede pour former une image virtuelle Download PDF

Info

Publication number
WO1997006511A1
WO1997006511A1 PCT/JP1996/002268 JP9602268W WO9706511A1 WO 1997006511 A1 WO1997006511 A1 WO 1997006511A1 JP 9602268 W JP9602268 W JP 9602268W WO 9706511 A1 WO9706511 A1 WO 9706511A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual image
subject
predetermined
viewpoint
virtual
Prior art date
Application number
PCT/JP1996/002268
Other languages
English (en)
French (fr)
Inventor
Kenji Yamamoto
Original Assignee
Sega Enterprises, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Enterprises, Ltd. filed Critical Sega Enterprises, Ltd.
Priority to KR1019970702317A priority Critical patent/KR100439931B1/ko
Priority to US08/817,076 priority patent/US6377277B1/en
Priority to CA002201755A priority patent/CA2201755C/en
Priority to US10/830,499 priority patent/USRE41414E1/en
Priority to EP96926620A priority patent/EP0786742B1/en
Priority to BR9606580A priority patent/BR9606580A/pt
Priority to DE69625455T priority patent/DE69625455T2/de
Publication of WO1997006511A1 publication Critical patent/WO1997006511A1/ja
Priority to MXPA/A/1997/002603A priority patent/MXPA97002603A/xx

Links

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6653Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera

Definitions

  • the present invention relates to a technology for generating a virtual image used in a game device, a simulator, and the like.
  • the present invention relates to a virtually generated three-dimensional space (hereinafter, referred to as a “virtual space”).
  • the present invention relates to a technology for generating an image (hereinafter referred to as a “virtual image”) obtained by projecting (perspective projection) onto a two-dimensional plane corresponding to a predetermined viewpoint.
  • These virtual image generation devices generally include a virtual image generation device body having a built-in computer device for executing a program stored in advance, and a command for moving an object to be displayed on a screen within the virtual image.
  • Input device that supplies an operation signal to the computer device to operate, a display that displays a virtual image corresponding to the program expansion generated by the computer device, and sound accompanying the program expansion.
  • an acoustic device that generates
  • an object a robot, a human, etc.
  • an object of the opponent Toshi
  • a virtual space There is a story with a theme of a story that uses a terrain (hereinafter referred to as “virtual terrain”) to play.
  • Each object operated by the operator of the game device performs an attack such as shooting a bullet while looking at the opponent's gap while hiding behind an obstacle or the like provided as part of the virtual terrain. .
  • the coordinate system for the perspective projection is performed in which the coordinate system of the virtual space is perspectively viewed from a predetermined viewpoint and projected onto a two-dimensional plane in front of the viewpoint.
  • the operator is required to recognize the object that he or she operates.
  • the line of sight from the viewpoint of the virtual image is directed to its own object.
  • the object operated by the user will be displayed as the subject almost in the center of the display.
  • an obstacle may sometimes enter the line of sight of observing the own object.
  • the present invention is to provide a virtual image generating apparatus which does not use the above-mentioned means (1) and (2) and does not impair the atmosphere of a game or the like. With the goal.
  • a second object of the present invention is to accurately determine whether or not a subject can be displayed so as to overlap with an object in a virtual space, and furthermore, to perform a virtual image to be subjected to a transmission process capable of suitably recognizing the subject and the object.
  • An object of the present invention is to provide a generator and a method thereof. Disclosure of the invention
  • the invention according to the present application is based on an object (operation) that exists in a virtual space within a virtual space that is virtually set (for example, a space represented by a world coordinate system).
  • Virtual images game images, simulations
  • This is a virtual image generation method that generates a shape image (polygon data, position of a shape, etc.) of an object (virtual terrain, obstacle, irregularities on the ground, etc.) existing in a virtual space.
  • a predetermined condition is satisfied. point of view It is determined whether or not the object and the object are overlapped, and if it is determined that the subject and the object are in a predetermined overlapping state, the object is subjected to a predetermined transmission processing (mesh processing, translucent processing, A non-transmissive process that does not transmit the object when it is determined that the subject and the object are in a state other than the predetermined overlapping state (eg, a virtual image composed of a single wire frame). Generate a virtual image on which normal texture data is pasted.
  • the invention according to claim 1 transmits a virtual image obtained when a figure of a subject or an object, which will be described later, which is present in the virtual space set in the virtual space and is observed from a predetermined viewpoint.
  • a virtual image generating apparatus that generates the image without transmitting the image, wherein the image that has not been subjected to the transmission processing is regarded as an image to be transmitted after a predetermined condition is satisfied, and the image is transmitted under the predetermined condition.
  • an image generating means for converting the image subjected to the transmission processing to an image not subjected to the transmission processing.
  • Overlap judging means for judging whether the object and the object are in a predetermined overlapping state, and performing predetermined transmission processing on the object when the overlap judging means judges that the object and the object are in a predetermined overlapping state
  • Image generating means for generating a non-transmission-processed virtual image that does not transmit the object when it is determined that the object and the object are in a state other than the predetermined overlapping state; Is provided.
  • Each angle is obtained, and an angle formed by the first vector and the second vector is obtained.
  • the angle is in a predetermined relationship with respect to a predetermined reference angle, the overlap is obtained. It is determined to be in a state. On the other hand, when there is no predetermined relationship, it is determined to be a state other than the overlapping state.
  • the angle formed by the first vector and the second vector is compared with a predetermined reference angle, and if the angle is smaller than the reference angle, it is determined that the vehicle is in the overlapping state. When the angle is larger than the reference angle, it is determined that the state is other than the overlapping state.
  • the angle for example, the angle at which each vector is projected on a predetermined coordinate plane is selected.
  • the reference angle is selected, for example, to be large enough to determine that both vectors are oriented in substantially the same direction.
  • the overlap determining means includes a first base point (a lower end of the subject, a geometric center of gravity, (For example, other points on the outer shape) from a predetermined point (such as the XZ plane in the world coordinate system) (displacement in the Y-axis direction, ie, “height”) and a second base point preset on the object (The top of the object or the geometric center) and the displacement from the point (such as the “height” of the object) are compared.
  • a first base point a lower end of the subject, a geometric center of gravity, (For example, other points on the outer shape) from a predetermined point (such as the XZ plane in the world coordinate system) (displacement in the Y-axis direction, ie, “height”) and a second base point preset on the object (The top of the object or the geometric center) and the displacement from the point (such as the “height” of the object) are compared.
  • the displacement of the first base point is smaller than the displacement of the second base point, It is determined that they are in the overlapping state, and when the displacement of the first base point is larger than the displacement of the second base point, it is determined that the state is other than the overlapping state.
  • the image generating means includes a predetermined pattern (a pattern in which pixels are replaced every several dots, a pattern) when performing transmissive display.
  • a predetermined pattern a pattern in which pixels are replaced every several dots, a pattern
  • the pattern alternately and sequentially arranges pixels for displaying an object and pixels for displaying a subject. is there.
  • an object such as an obstacle that is displayed without being subjected to the transmission processing is set to an object when a predetermined condition is satisfied, for example, when the object is observed from a viewpoint.
  • a predetermined condition for example, when the object is observed from a viewpoint.
  • a state in which a subject can be hidden by an object is determined to be an overlapping state, and the object is subjected to transmission processing, so that an image of the obstacle and the subject is sufficiently provided to an observer. Given. As a result, the observer can give a suitable operation to the object while recognizing the existence of the obstacle, and does not feel that the atmosphere of the game or the like has been impaired.
  • this angle is compared with the reference angle, if an angle that is small enough to determine the overlap is set as the reference angle, the object overlaps the subject. It is possible to accurately judge whether or not it will be observed.
  • the viewpoint is set so as to observe the subject from above the subject, when the height of the subject is lower than the height of the object, the object may overlap the subject.
  • a condition can occur.
  • each displacement between the first base point on the subject and the second base point on the object that is, a parameter corresponding to “height” in the above example is compared. Therefore, it is possible to determine whether or not the subject and the object are in a positional relationship such that they overlap. As described in claim 5, it is preferable to use in combination with the overlap judgment described in claim 3 in order to ensure the accuracy of the judgment.
  • the transmission processing is displayed by replacing pixels according to a predetermined pattern, a virtual image that can recognize both the object and the subject is generated.
  • the predetermined pattern is displayed alternately with the pixels for displaying the object and the pixels for displaying the background as in the invention according to claim 6, the subject can be displayed without deteriorating the texture of the object.
  • a virtual image is displayed that can sufficiently clearly display the background behind the contained object.
  • FIG. 1 is a schematic block diagram of a game device according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating the operation of the game device according to the embodiment of the present invention.
  • FIG. 3 is an operation diagram illustrating the overlap determination.
  • FIG. 4 is an example of the display of a virtual image according to the embodiment of the present invention (when no overlapping state occurs).
  • FIG. 5 is an example (when an overlapping state occurs) of displaying a virtual image according to the embodiment of the present invention.
  • FIG. 6 is an explanatory diagram of a virtual image according to the related art when an overlap occurs.
  • Fig. 7 is a plan view showing that vectors directed from an obstacle toward an object are given to each side, front, and back of the obstacle.
  • FIG. 8 is a side view showing an arrangement relationship between an obstacle and a subject.
  • FIG. 9 is a side view similar to FIG. 8, according to another embodiment.
  • FIG. 10 is a side view similar to FIG. 8, according to another embodiment.
  • FIG. 11 is a side view showing an arrangement relationship between two obstacles, a subject, and a viewpoint according to another embodiment.
  • FIG. 12 is a table showing the state of interior angles formed by the two vectors in FIG.
  • FIG. 13 is a perspective view showing a right-handed coordinate system of the virtual space.
  • the game device has a story development in which objects (robonotes), which are subjects, compete in a three-dimensional space.
  • the operator operates his own robot to move freely in the virtual space and attacks the opponent's robot.
  • the viewpoint (camera) for observing the virtual image moves along with its own robot.
  • FIG. 1 shows a configuration diagram of a game device according to the present embodiment.
  • the game device 100 has, as basic components, a game device main body 10, an input device 11, an output device 12, a TV monitor 13, and a speaker. It has 1 4.
  • the input device 11 includes an operation lever operated by the left and right hands of the operator to move the robot.
  • the code corresponding to the operation state of the operation lever is transmitted to the input / output interface 106 as an operation signal.
  • the output device 12 includes various lamps for notifying the operator of the operation state of the device.
  • the TV monitor 13 displays an image of the competitive game. Instead of the TV monitor, a head mounted display (HMD), a projector, or the like may be used.
  • HMD head mounted display
  • the game device main body 10 as an image generating means has a counter 100, a CPU (Central Processing Unit) 101, a ROM 110, a RAM 103, and a sound processor.
  • the game device main body 10 generates a new virtual image at predetermined intervals (for example, 160 seconds corresponding to a vertical synchronization period of a television system).
  • the CPU 101 as position data identification means and overlap judgment means is a counter 100 that counts from an initial value via a bus line, and a professional that performs game progress and image generation.
  • ROM 102 storing temporary data
  • RAM 103 storing temporary data
  • sound device 104 input / output interface 106
  • scroll data computing device 1 07 scroll data computing device 1 07
  • coprocessor 108 and geometrizer 110.
  • RAM I 03 is used to temporarily store data required for coordinate conversion of polygon data, etc., and to write various commands to the geometrizer (display of objects, etc.) , Stores matrix operation results during conversion operation.
  • the input / output interface 106 requests the CPU 101 to perform an interrupt process, and the CPU 101 outputs a lamp display data. Is supplied to the output device 12.
  • the sound device 104 is connected to the speaker 14 via the power amplifier 105.
  • the audio signal output from the sound device 104 is power-amplified by the power amplifier 105 and supplied to the speaker 14.
  • ROM 1 11 1 is the shape data of the objects required to generate the virtual image, that is, its own robot-the robot of the opponent, the explosion image of the bomb, the obstacles constituting the virtual terrain, the background Stores polygon data such as terrain.
  • the ROM 109 contains the overlap judgment on whether or not the object (object) is hidden by the terrain such as obstacles, and whether the object collides with another terrain shape. Stores shape data for objects (buildings, obstacles, terrain, etc.) necessary for hit determination.
  • the data group stored in the ROM 109 is a coarse unit sufficient for performing overlap judgment, etc., compared to the relatively sophisticated polygon data group for image display stored in the ROM 110. It is composed. For example, for each object or object that composes the virtual terrain, if the entire surface is regarded as a cube, ignoring the fine unevenness information on the surface, ROM109 will generate data for displaying the cube. It is stored together with a number identifying each face of the cube.
  • the data on the terrain includes the ID of each surface that defines the terrain, and this ID and the information on each terrain surface are tabulated and stored in the ROM 111.
  • the polygon data is a set of a plurality of vertices, and the vertices of polygons (polygons: mainly triangular or quadrangular), which are elements constituting the shape of each object, are relative to each other.
  • a coordinate system indicating the relative position of each object such as an object and an obstacle in a virtual space is virtualized from a specific viewpoint (for example, a camera). It is necessary to convert the space to a two-dimensional coordinate system (viewpoint coordinate system).
  • the viewpoint is set to a position where the subject to be operated is observed from a predetermined position (for example, obliquely above the subject). The positional relationship between the viewpoint and the subject may change depending on the game development.
  • the coordinates indicating the position of the subject are supplied from the input device 11 to the CPU 101 as an operation signal.
  • the CPU 101 When an operation signal is input from the input device 11, the CPU 101 generates the coordinates of the viewpoint and the coordinates of the object in the next interval to move the subject corresponding to the operation signal. . When these coordinates are determined, CPU 101 determines whether objects overlap or hit each other.
  • Each object such as an object and an obstacle is composed of a plurality of polygon data.
  • the overall shape of each object is determined by a coordinate system (body coordinate system) that indicates the coordinates of the other vertices with one of the vertices as the origin, out of the polygons that compose the object.
  • Polygon data is linked.
  • a virtual image is generated
  • a conversion process of projecting each object on a two-dimensional plane constituting the field of view is performed as if each object existing in the virtual space was observed from any viewpoint (for example, photographed with a camera).
  • This is called perspective projection
  • the coordinate transformation performed by matrix operation for perspective projection is called perspective transformation.
  • the geometrizer 110 performs perspective transformation to create a virtual image to be actually displayed.
  • the geometrizer 110 is connected to the shape data ROM 111 and the drawing device 112.
  • the geometry data 1101 is supplied from the CPU 101 with data specifying polygon data necessary for perspective transformation and matrix data necessary for perspective transformation.
  • the geometerizer 110 performs perspective transformation of the polygon data stored in the shape data ROM 111 based on the matrix supplied from the CPU 101, and converts the polygon data from the three-dimensional coordinate system in the virtual space. Obtain the data converted to the view coordinate system. At this time, if it is necessary to display a burst image as a result of the hit determination, polygon data for the burst image is used.
  • the drawing device 111 attaches the texture to the converted shape data of the visual field coordinate system, and outputs it to the frame buffer 115. At this time, if the object or the like is hidden behind an obstacle as a result of the overlap determination by the CPU 101, predetermined transmission processing is performed. In order to paste this texture, the drawing device 112 is connected to the texture data ROM 113 and the texture map RAMI 14 and the framer is attached. It is connected to buffer 1 15.
  • the scroll data calculation device 107 calculates scroll screen data such as characters (stored in ROM 102).
  • the image synthesizing device 116 imports the character data output from the arithmetic device 107 into the image data supplied from the frame buffer 115 to resynthesize the image.
  • the recombined image data is output to the TV monitor 13 via the DZA converter 117.
  • step S1 the CPU 101 performs initialization necessary for displaying an obstacle. That is, when a new operation signal is supplied from the input device 11, the CPU 10 1 calculates the coordinates of the movement destination when the object operated by the operator is moved according to the movement assigned to the operation signal. When the destination of the object is determined, the new position of the viewpoint for observing this object as a subject is also determined.
  • the CPU 101 After calculating the coordinates of the new viewpoint, the CPU 101 selects an object that needs to be perspective-projected when observing the virtual space around the subject from this viewpoint. For this selection, the coprocessor 108 refers to the shape data stored in the shape data ROM 109. The selected object is stored in RAMI03 together with a number specifying each surface constituting the object.
  • step S2 When an object such as an obstacle to be displayed does not exist in the field of view when observing the virtual space from the viewpoint (step S2: NO).
  • the CPU 101 transforms the new viewpoint into a perspective view.
  • the request data is supplied to the geometerizer 110, and the processing ends.
  • Step S2 Y E S
  • the overlap judgment described below is sequentially performed for each of the objects such as obstacles included in the field of view.
  • the object as the subject is moved from the point C where the viewpoint (virtual camera) is projected to the XZ plane. It depends on the magnitude of the angle 0 formed between the vector CR projected to the point R and the vector OR directed from the obstacle O to the point R (see Fig. 3).
  • Fig. 3 corresponds to a plan view of the virtual space viewed from the Y direction toward the XZ plane.
  • the vector OR is given in advance for each obstacle as shown in FIG.
  • the obstacle O in Fig. 7 is shown from the same direction as Fig. 3.
  • a vector 72 is defined in parallel with the XY plane.
  • a vector 76 is defined in a direction opposite to that of the vector 72.
  • a vector 7 4 is defined in the area 3 facing the front 7 0 4 in parallel with the XZ plane.
  • a vector 70 is assigned to a region 1 facing the rear surface 700 in a direction opposite to that of the vector 74.
  • the vectors 70.72, 74, and 76 are defined at right angles to each plane.
  • the area 70 is assigned a vector 70 or 72, and the area 6 is assigned a vector. 72 or 74, the area 7 is assigned the vector 74 or 76, and the area 8 is assigned the vector 76 or 70, respectively.
  • the vectors for each of these areas are tabulated and stored, for example, in ROM11.
  • step S3 in FIG. 2 (X, z) is read from the current coordinate position of the object, and an obstacle is determined depending on whether (X, z) belongs to any of regions 1 to 8.
  • the vector OR from the harmful object to the object is determined to be one of the vectors 70 to 76.
  • the overlap judgment is based on the magnitude of the angle between the vector OR and the vector CR, and the vector size is generally not important.
  • the toll is generally given a predetermined size in advance.
  • the vector CR from the projection point C of the viewpoint to the projection point R of the object is defined as the coordinate value (X1, z1) formed by the projection point C on the XZ plane and the projection point R formed on the XZ plane ( X 2. z 2).
  • step S4 the angle formed by the vector CR and the vector OR corresponding to the line of sight directed from the viewpoint to the subject (the angle formed by the vector OR based on the vector CR).
  • the angle of the smaller value on the inner side hereinafter referred to as the “inner angle J” is calculated for convenience.
  • step S5 the CPU 101 compares the reference angle preset in the program with the interior angle obtained in step S4, and forms a vector CR and a vector OR. If the ⁇ angle is within the reference angle (Step S5: YES), the height of the base point of the subject (distance in the Y direction) is compared with the height of the base point of the obstacle (Step S5). 6). If the height of the subject is lower than the height of the obstacle (step S6: YES), that is, the inner angle between the vector CR and the vector OR is equal to or smaller than the reference angle, and If the condition that the height is lower than the height of the obstacle is met, the CPU 101 transparently processes the obstacle along with the number of the object specifying the obstacle.
  • the code to be done is supplied to the drawing apparatus 112 via the geometerizer 110 (step S8). If the subject is behind a plurality of obstacles, overlapping judgment will be made for each of the obstacles.If the overlapping state of each obstacle meets the above conditions, Numbers and codes of multiple objects are supplied to the geometerizer. Is the angle formed by the vector CR and the vector OR larger than the reference angle?
  • a code indicating that the non-transmissive processing which is a normal obstacle display method should be performed is supplied to the geometrizer 110 (step S7).
  • the vector 70 is selected as the vector OR.
  • the line-of-sight vector CR from the projection C of the virtual camera as the viewpoint to the XZ plane toward the projection point R is given as shown in Fig. 3 (A).
  • the inner angle 01 formed by the vector CR and the vector OR is equal to or smaller than the reference value, and it is determined that there is a possibility that the object R ′ and the obstacle O may overlap. (Refer to Fig. 6), then go to step S6.
  • a height (y coordinate) H formed by the object R ′ with respect to the virtual ground plane 80 is calculated from the current coordinates of the object.
  • the height H and the height of the obstacle are compared, and the height (HI) of the first starting point (the lower end of the object) of the object is determined as the height of the second starting point (the upper end of the obstacle) of the obstacle. If the height is higher than (H 0), the entire object can be observed from the viewpoint C ′, and the possibility that the object and the obstacle overlap may be denied.
  • the image is generated without being transparently processed as described.
  • the obstacle O is not transmitted because the object R ′ cannot be observed from the viewpoint C ′.
  • the image is generated as follows.
  • vector 74 is selected as the vector OR.
  • the line-of-sight vector CR from the projection C of the virtual camera as the viewpoint to the XZ plane toward the projection point R is given as shown in Fig. 3 (B).
  • the interior angle ⁇ 2 formed by the vector CR and the vector OR exceeds the reference value, and it is determined that the object R and the obstacle O do not overlap with each other. Return to 2.
  • the processing in step S6 is not applied.
  • an object is determined based on an interior angle formed by the vectors.
  • the reason for determining the overlap between the obstacle and the obstacle is as follows. That is, when the object viewed from the viewpoint is located beyond the obstacle as shown in Fig. 3 (A), both the vector OR and the vector CR are from the back of the obstacle 700. It is almost in the same direction as you saw the object. In this case, the interior angle formed by both vectors tends to be small.
  • a reference angle suitable for distinguishing between the state in Fig. 3 (A) and the state in Fig. 3 (B) is defined as the interior angle, and the interior angle actually formed by both vectors and this reference angle are defined as The comparison makes it possible to distinguish between FIG. 3 (A) and (B).
  • the reference angle varies depending on the angle and the distance between the viewpoint and the object, but is preferably selected from 70 to 90 °.
  • step S6 the height of each object, that is, the Y coordinate in the world coordinate system of the virtual space is used as a reference because the Y coordinate of the viewpoint is always larger than the Y coordinate of the obstacle ( High). Therefore, if the game apparatus sets the “height” of the viewpoint lower than the “height” of the obstacle, the magnitude relationship of the X coordinates of each object may be compared instead of the “height” comparison.
  • the drawing apparatus 112 When the transmission processing is specified (step S8), the drawing apparatus 112 performs a “mesh” processing when attaching a texture to the obstacle based on the texture data. If transmission processing is specified for multiple objects, "mesh” processing is performed for multiple objects.
  • the mesh process is a process of applying a pixel for displaying the background of the obstacle instead of a pixel for displaying the obstacle in accordance with a predetermined pattern from a pixel row for displaying the obstacle.
  • the predetermined pattern is a pattern that enables the background and the obstacle to be recognized evenly, and is preferably a pattern that does not extremely change the texture of the obstacle. For example, a pattern in which pixels for obstacles and pixels for background are alternately arranged is preferable.
  • the present invention does not prevent the determination of the overlap between the object and the obstacle by other means such as performing the determination of the overlap from the coordinate values of the two.
  • an obstacle is displayed in a mesh shape as a transmission process, so that even if the obstacle enters between the viewpoint and the subject, the operation is performed.
  • the user can keep operating the subject without losing sight of the subject and recognizing the existence of obstacles.
  • the vector OR is stored in a memory in advance as a table and is read out from the memory according to the position of the object with respect to the obstacle, so that the overlap determination can be performed quickly and easily. Can be performed at any time.
  • the state of the overlap is established. Although it was determined that there was, the overlap determination may be performed only by determining the angle. Because the movement of the subject on the game device is severe, when the viewpoint is set far from the obstacle or when the height of the obstacle is low, even if the transparency processing is executed based on the approximate positional relationship, This is because the operator can perform the operation without feeling uncomfortable.
  • the vector when overlapping occurs according to the size of each object (that is, the distance from the center of gravity to the outer shape).
  • the line of sight vector CR make different angles. This angle also depends on the distance between the viewpoint and each object. Therefore, the reference angle used for comparison in step S5 may be changed according to the size of the outer shape of each object or the distance between the viewpoint and each object.
  • the vector OR may be calculated based on the position of the subject and the position of the obstacle.
  • This vector is obtained as a vector from a predetermined base point of the obstacle O to the base point of the subject R ′.
  • the base point is, for example, It is the center point of the body or obstacle.
  • the center point is the point geometrically equivalent to the center of gravity of the cube surrounding each object.
  • the reference point for the height of each object may be the center point of each object used in the vector calculation, but for obstacles, the height of the top surface of the obstacle, and for objects that are objects, the The height at the bottom may be used as a reference.
  • the mesh processing of changing the pixels every dot is performed.
  • the pixels may be replaced with different patterns. That is, the pixels may be exchanged every two dots, or the background and obstacles may be displayed in stripes.
  • a transmission process that makes the display of an obstacle semi-transparent may be performed.
  • the color information (RGB) of the pixel that displays the obstacle and the color information of the pixel that displays the background are calculated (added, multiplied, etc.), and hidden behind the obstacle. Process so that the part can be recognized.
  • the overlap determination process is performed on obstacles in the visual field of the viewpoint, but FIG. 2 shows all obstacles in the virtual space other than the visual field, for example, in the virtual space. Processing may be applied. This will be described with reference to FIG.
  • FIG. 11 is expressed in the same direction as FIG. 7, and is a diagram showing two obstacles 0 1 and 0 2 in the virtual space from the Y direction.
  • Figure 11 shows the projection points R-1 and R-2 of the two objects on the XZ plane, and the projection points C-1 1 and C-1 2 of the viewpoints on R-1 and R-2, respectively. And have the following relationship.
  • Applying the overlap determination to all obstacles in the virtual space means, for example, that an identification ID is assigned to each obstacle and the processing from step S3 to step S8 is performed for all IDs Apply it.
  • a status flag register for determining whether overlap determination is necessary for each obstacle can be provided in the ROM. For example, if the height of the obstacle is smaller than the object and almost all of the object does not overlap the obstacle even if the position of the viewpoint changes, this flag overlaps and is judged. No processing is required.
  • FIG. 4 is a diagram for explaining a case where the subject and the obstacle are in a positional relationship where they do not overlap.
  • the virtual camera C ′ observing the subject R observes a virtual space centered on the subject R ′ from above the subject R ′.
  • the obstacle O is behind the subject R when viewed from the camera C ′.
  • the angle formed by the vector facing the subject from the viewpoint and the vector facing the subject from the obstacle becomes larger than the reference angle, and is not determined to be in the overlapping state.
  • FIG. 5 (A) shows a bird's-eye view of the positional relationship between the camera C ′ and the subject R ′ at this time
  • FIG. 5 (B) shows this positional relationship viewed from the side.
  • the angle between the two vectors is equal to or smaller than the reference angle, and the height of the subject R 'is also lower than the height of the obstacle. Therefore, the obstacle O is transparently processed, and the texture of the obstacle is mesh-processed as shown in FIG. 3 (C), and the virtual image of the object R hidden behind is displayed on the monitor. .
  • an image is generated so that a figure that is generated without being subjected to the transparency processing is a figure that is transmitted as necessary, so that no obstacle is displayed. It is possible to provide a virtual image generation device which does not impair the atmosphere of a game or the like without taking measures such as displaying an obstacle in a single wire frame from the beginning. Then, the positional relationship where the subject is obstructed by the object is determined as an overlapping state, and transmission processing is performed on the object that hides the subject, so that the image of the subject is sufficiently given, and the observer can easily operate the Can grasp the situation.
  • the overlap judgment is made based on the angle formed by the vector from the viewpoint to the subject and the vector from the obstacle to the subject, it is possible to accurately and easily determine whether or not the object overlaps the subject and is observed. Therefore, by performing the transmission processing based on the positional relationship in which the subject is hidden by the object, an image display without a sense of incongruity can be performed. The overlap determination can also be performed by comparing the displacement between the subject and the object.
  • the transmissive processing is performed by exchanging pixels according to a predetermined pattern and displayed, it is possible to realize image transmissivity by relatively easy processing without impairing the color, shape, texture, etc. of the object and the subject. In particular, if the pixels for displaying the object and the pixels for displaying the background are alternately displayed, it is possible to obtain a virtual image in which the object and the subject can be sufficiently recognized even in the overlapping state.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Processing (AREA)
  • Geophysics And Detection Of Objects (AREA)

Description

明細書 仮想画像生成装置及びその方法 技術分野
本発明はゲーム装置、 シ ミ ュ レータ等に用いる仮想画像の生成技術に係 り 、 特 に仮想的に生成した 3次元空間 (以下 「仮想空間」 と レ、う。 ) に存在する物体を、 所定の視点に対応する 2次元平面に投影 (透視投影) した際に得られる画像 (以 下 「仮想画像」 という。 ) の生成技術に関する。
背景技術
近年、 3次元空間を移動する移動体 (オブジェ ク ト) の間で対戦を行う こ とが 可能な仮想画像生成装置を搭載したゲーム装置ゃシミ ュ レ一タが開発されている。 これら仮想画像生成装置は、 一般に、 予め記憶したプロ グラムを実行する コ ン ビ ユ ータ装置を内蔵した仮想画像生成装置本体と 、 画面上に表示するオブジェク ト の仮想画像内での移動を指令する操作信号をコ ン ピュータ装置に供給する入力装 置と 、 コ ン ピュータ装置によ り 生成されたプロ グラム展開に対応する仮想画像を 表示するディ スプ レイ と 、 そのプロ グラム展開に伴 う音響を発生する音響装置と を備えている。
上記のよ う な構成のゲーム装置の例と して、 操作者自 らが操作するオブジェク ト (ロ ボッ ト、 人間等) と対戦相手である敏のオブジェク ト とが、 仮想空間内に 設定された地形 (以下 「仮想地形」 という。 ) を利用 して対戦するス トー リ 一を テーマ と したものがある。 このゲーム装置の操作者に操作される各ォブジェク ト は、 互いに仮想地形の一部と して設け られた障害物等の陰に隠れながら、 相手の 隙を見て弾を撃つ等の攻撃を加える。
これら仮想空間内の動き を 3次元表示するためには、 所定の視点から仮想空間 を観察 した際に認識される画像を用いる。 そのため、 仮想空間の座標系を所定の 視点から透視し、 視点の前面の 2次元平面に投影する透視投影のための座標変換 を行う。 多く の場合、 操作者に自 己の操作するォブジェク トを認識させるために、 仮想画像の視点からの視線は自 己のオブジェク ト に向け られる。 自己の操作する オブジェク トは被写体と してディ スプレイのほぼ中央に表示されるよ う になる。 しかしながら、 仮想画像の視点は自 己のオブジェク ト と一定の位置関係を有し ながら移動するため、 時と して自 己のオブジェク トを観察する視線の問に障害物 が入り 込む場合がある。 かかる場合、 自 己のオブジェク トは障害物に隠されるの で、 自 己のオブジェ ク トの動きが認識できなく な り 操作が行えなく なる とい う 問 題があった。 自 己のオブジェク 卜が操作できなければ、 ゲーム展開における緊張 感が減殺され、 ゲームの面白さを損なって しま う。
このよ う なケースを図 6 を参照して説明する。 被写体 R ' を当該仮想画像の視 点となる仮想的なカ メ ラ C ' が観察する と 、 同図 ( A ) に示すよ う に、 視線を障 害物 Oが遮って しま う位置関係と なる場合が生ずる。 視線が遮られる と 、 生成さ れた仮想画像は同図 ( B ) のよ う に、 被写体 Rが障害物 Oに隠されて表示される ものとなる。 こ のため、 操作対象たる被写体 R ' をどのよ う に操作すればよいの 力 、 操作者は判断できなく なるのである。
かかる事態を回避するためには、
( 1 ) 障害物を表示しない、
( 2 ) 障害物を最初からワイヤ一フ レームで表示する、
等の方法が考えられる。
しかし、 ( 1 ) このよ う な方法を採る と 、 自 己のオブジェク トの認識はできて も障害物が認識できなく なるため、 新たな問題が生ずる。 ( 2 ) のよ う な方法を 採る と、 障害物の認識は一応可能であるが、 被写体 Rが障害物 Oに隠されていな い場合でも、 障害物がワイヤーフ レームによって表示されるため、 ゲーム等の雰 囲気を損ねるおそれがある。
このよ う な問題を解決するために、 本願発明は、 上記 ( 1 ) 及び ( 2 ) の手段 をと る こ と なく 、 しかも、 ゲーム等の雰囲気を損なわない仮想画像生成装置を提 供する こ と を目的とする。 本願発明の第 2 の 目的は、 仮想空間において被写体が 物体に重なって表示され得るか否かを正確に判定し、 さ らに被写体及び物体をと も好適に認識し得る透過処理をする仮想画像生成装置及びその方法を提供するこ と にある。 発明の開示
このよ う な目的を達成するために、 こ の出願に係わる発明は、 仮想的に設定し た仮想空間 (例えば、 ワール ド座標系で示される空間) 内において仮想空間に存 在する被写体 (操作者の操作するロボッ ト、 飛行機等のオブジェ ク ト) を所定の 視点 (仮想空間の上下関係から見て被写体の斜め上方等) から観察した際に得ら れる仮想画像 (ゲーム画像、 シ ミ ュ レーシ ョ ン画像等) を生成する仮想画像生成 方法であって、 仮想空間に存在する物体 (仮想的な地形、 障害物、 地面の凹凸 等) に関する形状データ (ポ リ ゴンデータ、 形状の位置を特定するデータ、 面デ —タ等) と被写体の位置データ (座標データ等) と に基づいて、 所定の条件が成 立するか否かを判定し、 例えば、 視点と被写体との間に物体が視点から重なって 観察されるか否かを判定し、 被写体と物体とが所定の重な り 状態である と判定し たと き には物体に所定の透過処理 (メ ッシュ処理、 半透明処理、 物体をワイヤ一 フ レームによって構成する等) した仮想画像を生成し、 被写体と物体とが所定の 重な り 状態以外の状態である と判定したと きには物体の透過を行わない非透過処 理 (通常のテ ク スチャデータ の貼り付け処理等) した仮想画像を生成する。
すなわち、 請求項 1 記載の発明は、 仮想的に設定した仮想空間内において当該 仮想空間に存在する、 後述の被写体や物体等の図形を所定の視点から観察 した際 に得られる仮想画像を透過させて、 又は透過させる こ となく 生成する仮想画像生 成装置であって、 前記透過処理がされていない画像を、 所定の条件が成立した以 降、 透過させる画像と し、 こ の所定の条件の終了以降は、 透過処理がされている 画像を透過処理がされていない画像とする画像生成手段を備える。
そ して、 請求項 2記載の発明は、 前記仮想空間に存在する物体に関する形状デ ータを記憶する形状データ記憶手段と 、 前記被写体の位置データ を特定する位置 データ特定手段と 、 前記形状データ記憶手段が記億する前記形状データ と前記位 置データ特定手段が特定した前記被写体の位置データ と に基づいて、 前記視点と 前記被写体との間に前記物体が前記視点から重なって観察されるか否かを判定す る重な り 判定手段と 、 前記重な り 判定手段が前記被写体と前記物体とが所定の重 な り 状態である と判定したと き には前記物体に所定の透過処理した仮想画像を生 成し、 前記被写体と前記物体とが前記所定の重な り 状態以外の状態である と判定 したと き には前記物体の透過を行わない非透過処理した仮想画像を生成する画像 生成手段と、 を備える。
請求項 3記載の発明は、 前記視点が前記被写体を観察する方向に向いた第 1 の べク トルと 、 前記物体が被写体に向いた第 2 のべク トルとが前記重な り 判定手段 によってそれぞれ求められる と と もに、 この第 1 のべク トルと第 2 のべク トルが 成す角度を求め、 この角度が所定の基準角に対して所定の関係にある と き に前記 重な り 状態にある と判定し、 一方、 所定の関係にないと きには重な り 状態以外の 状態である と判定する。 好適には、 この第 1 のベク トルと第 2 のベク トルが成す 角度と所定の基準角 と を比較し、 この角度が前記基準角 よ り 小さい場合に前記重 な り 状態である と判定し、 前記角度が前記基準角よ り 大きい場合に前記重な り状 態以外の状態である と判定する。
前記角度と しては、 例えば、 各ベク トルを所定の座標平面に投射した際の角度 が選定される。 前記基準角は、 例えば、 両ベク トルがほぼぼ同一の方向を向いて いる と判定し う る程度の大き さに選定される。
請求項 4 に記載の発明は、 請求項 2 に記載の仮想画像生成装置において、 重な り判定手段は、 被写体に予め設定された第 1 基点 (被写体の下端、 又は幾何学的 な重心、 又はその他の外形上の点等) についての所定の地点 (ワール ド座標系の X Z 平面等) からの変位 ( Y軸方向の変位、 すなわち 「高さ」 等) と物体に予め 設定された第 2基点 (物体最上端或いは幾何学的中心) についての地点からの変 位 (物体の 「高さ」 等) と を比較し、 第 1 基点についての変位が第 2基点につい ての変位よ り 小さい場合に重な り 状態である と判定し、 第 1 基点についての変位 が第 2 基点についての変位よ り 大きい場合に重な り 状態以外の状態である と判定 する。
請求項 5 に記載のよ う に、 請求項 3 に記載した重な り判定と請求項 4 に記載し た重な り判定と を併用 し、 両判定条件を満たすと き重なり状態と判定してもよい。 請求項 6 に記載の発明は、 請求項 2 に記載の仮想画像生成装置において、 画像 生成手段は、 透過表示を行う場合に所定のパターン (数 ドッ 卜毎に画素を入れ換 えるパターン、 ス ト ライプ状のパターン等) に したがって物体を表示するための 画素の代わ り に被写体を表示するための画素を表示する仮想画像を生成する。 請求項 7 に記載の発明は、 請求項 5 に記載の仮想画像生成装置において、 バタ —ンは、 物体を表示するための画素と被写体を表示するための画素と を交互に順 次並べる ものである。
本発明によれば、 透過処理される こ となく 表示されている障害物等の物体を、 所定の条件が成立した場合、 例えば、 視点から被写体を観察 した場合に被写体と 物体と の問に物体が入り 込んだ場合、 物体に透過処理を適用 し、 この条件の成立 が終了 した場合は、 物体の画像生成が非透過処理に復帰する。
通常、 視点から被写体を観察した場合に被写体の間に物体が入り込む場合には、 物体に被写体が遮られて、 仮想画像の観察者に対 し、 被写体の映像が十分に与え られなく なる。 本発明は、 被写体が物体に隠され得るよ う な状態を重な り 状態で ある と判定し、 その物体に対して透過処理を施すので、 障害物と被写体と の映像 が十分に観察者に与えられる。 その結果、 観察者は障害物の存在を認識しつつ被 写体に好適な操作を与える こ とができ 、 ゲーム等の雰囲気が損なわれた と感ずる こ とがない。
なお、 複数の物体について重な り状態が判定された場合は、 重な り 状態が判定 された物体のそれぞれについて透過処理がされるこ と になる。
特に、 視点からみて被写体と視点と の間に物体が入り 込むよ う な位置関係と な る とき、 視点から被写体へのべク トルと物体から被写体へのべク トルの方向とは、 ほぼ同一の方向を向く こ と になる。 このと き、 両ベク トルが互いに成す角度は、 比較的小さいものになる。
請求項 3 に記載の発明によれば、 この角度を基準角 と比較するので、 基準角 と して重な り を判定する程度に十分な小さい角度を設定しておけば、 物体が被写体 に重なって観察されるか否かを正確に判定でき る。
—方、 視点が被写体の上方から被写体を観察する よ う な位置に設定される場合 を例に採れば、 被写体の高さが物体の高さ よ り 低いと き に物体が被写体を隠す重 なり状態が生じ得る。
請求項 4 に記載の発明によれば、 被写体上の第 1 基点と物体上の第 2 基点との 各々 の変位、 すなわち上記例でいえば 「高さ」 に相当するパラ メ 一タ を比較する ので、 被写体と物体と が重な り 状態と な り う る位置関係にあるか否かを判定でき る。 請求項 5項にあるよ う に、 請求項 3 に記載した重な り判定と併用する こ とが、 判定の正確さを期す上で好ま しい。
請求項 6 に記載の発明によれば、 透過処理を所定のパター ンにしたがって画素 を入れ換えて表示するので、 物体及び被写体をと もに認識し得る仮想画像が生成 される。 特に、 請求項 6 に記載の発明のよ う に、 所定のパターンを物体表示用の 画素と背景表示用の画素と を交互に表示する場合には、 物体の質感を損ねるこ と なく 被写体をも含む物体の陰に入る背景をも十分に明瞭に表示し得る仮想画像が 表示される。 図面の簡単な説明
図 1 は、 本発明の実施の形態に係るゲーム装置の概略プロ ック図である。
図 2 は、 本発明の実施の形態に係るゲーム装置の動作を説明するフローチヤ一 トである。
図 3は、 重な り判定について説明する動作図である。
図 4 は、 本発明の実施の形態に係る仮想画像の表示の実施例 (重な り 状態が生 じない場合) である。
図 5 は、 本発明の実施の形態に係る仮想画像の表示の実施例 (重な り 状態が生 ずる場合) である。
図 6 は、 従来例に係る重な り が生ずる場合の仮想画像の説明図である。
図 7 は、 障害物から被写体 (オブジェク ト) に向かったべク ト ルを障害物の各 側面、 正面及び背面に与えたこ と を示す平面図ある。
図 8 は、 障害物と被写体との配置関係を示す側面図である。
図 9は、 他の実施形態に係わる、 図 8 と同様な側面図である。
図 1 0は、 さ らに、 他の実施形態に係わる、 図 8 と同様な側面図である。
図 1 1 は、 二つの障害物と 、 被写体及び視点と の配置関係を示す、 他の実施形 態に係わる側面図である。
図 1 2 は、 図 1 1 における二つのべク ト ルが互いに成す内角の状態を示す表図 である。 図 1 3は、 仮想空間の右手座標系を示す斜視図である。 発明を実施するための最良の形態
本発明の好適な実施の形態を図面に基づいて説明する。
( I ) 構成の説明
本発明の実施の本形態に係るゲーム装置は、 被写体であるオブジェク ト (ロ ボ ノ ト ) 同士が 3次元空間内で対戦するス トー リ 一展開を有する ものである。 操作 者は、 自 己のロ ボッ トを操作して仮想空間内を自在に移動 し、 対戦相手のロボッ トを攻撃する。 仮想画像を観察する視点 (カ メ ラ) は自 己のロ ボッ トに付随して 移動する ものとする。
図 1 に、 本形態に係るゲーム装置の構成図を示す。 図 1 に示すよ う に、 当該ゲ ーム装置 1 0 0 0は、 基本的構成要素と してゲーム装置本体 1 0、 入力装置 1 1 、 出力装置 1 2、 T Vモニタ 1 3、 及びス ピーカ 1 4 を備えている。
入力装置 1 1 は、 ロボッ トを移動させるために操作者の左右の手によ り操作す る操作レバ一を備える。 操作レバ一の操作状態に対応したコー ドは、 操作信号と して入出力イ ン タ 一フ ェース 1 0 6 に伝達される。 出力装置 1 2は、 操作者に装 置の動作状態を知らせるための各種ラ ンプ類を備える。 T Vモニタ 1 3は、 この 対戦型ゲームの画像を表示する もので、 T Vモニタの代わ り に、 ヘッ ドマウン ト ディ スプレイ ( HMD : head mounted display ) 、 プロ ジェク タ等を用いても よ い。
画像生成手段と してのゲーム装置本体 1 0は、 カ ウンタ 1 0 0、 C P U (中央 演算処理装置) 1 0 1 を有する と と もに、 R OM 1 0 2、 R AM I 0 3、 サゥン ド装置 1 0 4、 入出力イ ンタ 一フ ェース 1 0 6 、 ス ク ロ ールデータ演算装置 1 0 7、 コ ' プロセ ッサ (捕助演算処理装置) 1 0 8 、 地形デー タ R OM 1 0 9 、 ジ ォメ タ ライザ 1 1 0、 形状データ R OM 1 1 1 、 描面装置 1 1 2、 テ ク スチャデ ー タ R OM 1 1 3、 テ ク スチャマ ッ プ R AM I 1 4 、 フ レームバ ッ フ ァ 1 1 5 、 画像合成装置 1 1 6、 D/A変換器 1 1 7 を備えている。 なお、 ゲーム装置本体 1 0は、 所定のイ ンタ一バル (例えば、 テ レ ビジ ョ ン方式の垂直同期期間に相当 する 1 6 0秒) 毎に新たな仮想画像を生成する。 位置データ特定手段、 重な り 判定手段と しての C P U 1 0 1 は、 バス ライ ンを 介して、 初期値からカ ウン トするカ ウンタ 1 0 0、 ゲームの進行と画像生成を行 う プロ グラムなどを記憶した R OM 1 0 2 、 テンポラ リ データ を記億する R AM 1 0 3 、 サウン ド装置 1 0 4 、 入出力イ ンターフ ェ ース 1 0 6、 ス ク ロ ールデー タ演算装置 1 0 7、 コ ' プロセ ッサ 1 0 8、 及びジォメ タ ライザ 1 1 0に接続さ れている。
R AM I 0 3 はポ リ ゴンデータ の座標変換等を行う際に必要なデータの格納を —時的に行う もので、 ジォメ タ ライザに対する各種コマ ン ドの書込み (オブジェ ク トの表示など) 、 変換処理の演算時のマ ト リ クス演算結果等を格納する。
入出力イ ンタ 一フ ェース 1 0 6 は、 入力装置 1 1 から操作信号が入力される と C P U 1 0 1 に割 り 込み処理の要求を し、 C P U 1 0 1 からラ ンプ表示用のデー タが供給される と このデータを出力装置 1 2に供給する。
サウン ド装置 1 0 4 は、 電力増幅器 1 0 5 を介してス ピーカ 1 4に接続されて いる。 サウン ド装置 1 0 4によ り 出力 された音声信号は、 電力増幅機 1 0 5によ り電力増幅されス ピーカ 1 4に供給される。
R OM 1 1 1 は、 仮想画像を生成するために必要な物体についての形状データ、 すなわち、 自 己のロボッ トゃ対戦相手のロボッ ト、 爆弾の炸裂映像、 仮想地形を 構成する障害物、 背景、 地形等のポ リ ゴンデータを格納する。
—方、 R OM 1 0 9 には、 被写体 (オブジェ ク ト) が障害物等の地形に隠され るか否かの重な り判定、 及び、 被写体が他の地形形状に衝突するか否かの当た り 判定に必要な物体 (建造物、 障害物、 地形等) についての形状データを格納する。
R OM 1 0 9 に格納するデータ群は、 R OM 1 1 1 に格納された画像表示用の 比較的精緻なポリ ゴンデータ群に比べ、 重な り 判定等を行う に足 り る粗い単位で 構成されたものである。 例えば、 仮想地形を構成する各物体やオブジェ ク 卜につ いて、 表面の細かい凹凸情報は無視し全体を立方体に見立てた場合に、 R OM 1 0 9は、 当該立方体を表示するためのデータ を立方体の各面を特定する番号と と もに格納する。
こ のデータに基づいて、 各物体と オブジェ ク ト と の当た りや重な り を判定でき る他、 各物体についての形状、 すなわち、 各物体の高さ、 幅、 奥行き等を判定で き る。 こ こで、 例えば地形に関するデータは地形を定義する各面の I Dを含み、 この I D と各地形面の関する とはテーブル化されて R O M 1 1 1 に記憶されてい る。 なお、 ポリ ゴンデータ とは、 複数の頂点の集合からな り 、 各物体の形状を構 成する要素であるポリ ゴク (多角形 : 主と して 3角形又は 4角形) の各頂点を相 対座標又は絶対座標で指示したデータ群をいう。
仮想画像を生成するためには、 仮想空間におけるオブジェク ト、 障害物等の各 物体の相対位置を示す座標系 (ワール ド座標系) を、 ある特定の視点 (例えば、 カ メ ラ等) から仮想空間を見た 2次元の座標系 (視点座標系) に変換する必要が ある。 視点は、 操作対象である被写体を所定の位置 (例えば、 被写体の斜め上 方) から観察する位置に設定される。 ゲーム展開によって視点と被写体の位置関 係が変化する場合もある。 被写体の位置を示す座標は入力装置 1 1 から操作信号 と して C P U 1 0 1 に供給される。
入力装置 1 1 から操作信号が入力される と、 C P U 1 0 1 は操作信号に対応し た被写体の移動をさせるベく 、 次のイ ンターバルにおける視点の座標及びォブジ ェク トの座標を生成する。 これら座標が定まる と C P U 1 0 1 が物体同士の重な り判定や当た り判定を行う。
オブジェク トゃ障害物等の各物体は、 各々が複数のポ リ ゴンデータによ り 構成 される。 各物体は、 物体を構成する多角形の う ち、 いずれかの頂点を原点と して 他の頂点の座標を示す座標系 (ボディ座標系) で全体形が決定され、 各物体を構 成するポリ ゴンデータが関連づけられる。
仮想画像を観察する視点からみて、 オブジェク ト等が障害物の陰に入った際に 障害物を透過処理する場合には、 物体同士の重なり状態の判定を行う必要がある。 この重なり判定は本発明に係り 、 詳しく は後述する。 また、 オブジェク トゃ障害 物に弾丸や光線が当たった場合に炸裂映像等を表示させるためには、 各物体同士 の相対位置を演算して各物体同士が衝突しているか否かを判定する当た り判定を 行う必要が る。 ボディ座標系で示された各物体の相対的な位置を得るために、 仮想空間を構成す、る所定の座標系 (ワール ド座標系) に変換する。 各物体の相対 位置が判れば物体が互いに衝突しているか否かが判定できる。
仮想空間の座標系における各物体の相対位置が定まる と、 仮想画像を生成する ために、 これら仮想空間に存在する各物体をいずれかの視点で観察 (例えばカメ ラで撮影) した如く 、 視野を構成する 2次元平面に各物体を投影する変換処理を 行う。 これを透視投影といい、 透視投影のためのマ ト リ ク ス演算によ り行う座標 変換を透視変換という。 実際に表示する仮想画像を作成するために透視変換を実 行するのがジォメ タライザ 1 1 0である。
ジォメ タライザ 1 1 0は、 形状データ R OM 1 1 1及ぴ描画装置 1 1 2 に接続 されている。 ジォメ タライザ 1 1 0には C P U 1 0 1 から透視変換に必要なポリ ゴンデータを指定するデータ と と もに透視変換に必要なマ ト リ ク スデータが供給 される。 ジォメ タライザ 1 1 0は、 形状データ R O M 1 1 1 に格納されたポリ ゴ ンデータを C P U 1 0 1 から供給されたマ ト リ ク ス に基づいて透視変換し、 仮想 空間における 3次元の座標系から視野座標系に変換したデータを得る。 このとき、 当たり判定の結果、 炸裂映像を表示する必要がある場合は、 炸裂映像のためのポ リ ゴンデータを用いる。
描画装置 1 1 2は変換した視野座標系の形状データにテ ク スチャを貼り合わせ フ レームバ ッ フ ァ 1 1 5 に出力する。 このとき、 C P U 1 0 1 による重なり判定 の結果、 ォブジュク ト等が障害物の陰に隠れている場合は、 所定の透過処理を行 う 。 こ のテ ク スチャ の貼り付けを行うため、 描画装置 1 1 2 はテ ク ス チャデー タ R OM 1 1 3及びテ ク スチャマップ R AM I 1 4 に接続されると と もに、 フ レー ムバ ッ フ ァ 1 1 5 に接続されている。
ス ク ロ ールデータ演算装置 1 0 7は、 文字などのス ク ロ ール画面のデータ (R OM 1 0 2に格納) を演算する。 画像合成装置 1 1 6は、 演算装置 1 0 7から出 力される文字データを前記フ レームバ ッ フ ァ 1 1 5から供給された画像データに イ ンポ一ズして画像を再合成する。 再合成された画像データは DZ A変換器 1 1 7 を介して T Vモニタ 1 3 に出力される。
( I I ) 動作の説明
次に、 本形態に係る重なり判定について、 図 2 のフ ロ ーチャー トを参照しなが ら説明する。
ステ ッ プ S 1 において、 C P U 1 0 1 は障害物を表示する際に必要な初期化を 行う。 すなわち、 入力装置 1 1 から新たな操作信号が供給されると、 C P U 1 0 1 は操作信号に対して割 り付けた動き方で操作者の操作するオブジェク ト を移動 させた場合の移動先の座標を演算する。 ォブジュ ク トの移動先が定まる と 、 こ の オブジェク トを被写体と して観察する視点の新しい位置も定まる。
C P U 1 0 1 は、 新たな視点の座標を演算した後、 この視点から被写体を中心 と して仮想空間を観察した際に透視投影する必要のある物体を選択する。 この選 択の為に、 コ · プロセ ッサ 1 0 8 は形状データ R O M 1 0 9 に格納された形状デ —タ を参照する。 選択された物体は、 この物体を構成する各面を特定する番号と と もに R A M I 0 3 に格納される。
表示すべき障害物等の物体が、 視点から仮想空間を観察した場合の視野に存在 しない場合 (ステ ッ プ S 2 : N O ) C P U 1 0 1 は新たな視点について透視投影 するための変換マ ト リ ク スデータ をジォメ タ ライザ 1 1 0 へ供給して処理を終了 する。 通常は複数の障害物等の物体が視野に含まれるので (ステ ップ S 2 : Y E S ) 、 視野に含まれる障害物等の物体の各々 について順番に以下に述べる重な り 判定を行う。
この重な り判定は、 図 1 3 に示す右手座標系を備えた仮想空間内で、 視点 (仮 想カ メ ラ) が X Z平面に投影された点 Cから、 被写体であるオブジェク トが X Z 平面に投影された点 Rに向け られたべク トル C R と 障害物 Oから点 Rに向け られ たべク トル O R とが互いに成す角度 0 の大き さによっている (図 3参照) 。
図 3 は仮想空間を Y方向から観て X Z平面に向かって表した、 平面図に相当す る ものである。 べク トル O Rは、 図 7 に示すよ う に各障害物について予め与えら れている。 図 7 の障害物 Oは、 図 3 と同方向から表せられている。 この障害物の 右側面 7 2 0が臨む領域 2 には、 X Y平面に平行にべク ト ル 7 2 が定義されてい る。 また、 左側面 7 6 0が臨む領域 4 には、 ベク トルと 7 2 と逆方向にベク トル 7 6が定義されている。
—方、 正面 7 4 0が臨む領域 3 には、 X Z平面に平行にべク トル 7 4 が定義さ れている。 また、 背面 7 0 0が臨む領域 1 にはベク トル 7 4 と は逆方向にべク ト 7 0が割 り付け られている。 これらベク ト ル 7 0 . 7 2 , 7 4 , 及び 7 6 は各 面に直角に定義されている。
なお、 領域 5 にはベク トル 7 0又は 7 2 が割 り 当て られ、 領域 6 にはベク トル 7 2又は 7 4 、 領域 7 にはベク ト ル 7 4又は 7 6 、 領域 8 にはベク ト ル 7 6又は 7 0がそれぞれ割り付けられる。 これら領域毎のベク トルは、 テーブル化されて、 例えば R O M 1 1 に記億されている。
図 2 のステ ップ S 3 において、 オブジェ ク ト の現在座標位置から ( X , z ) が 読み出され、 こ の ( X , z ) が領域 1 乃至 8 のどれに属するか否かによって、 障 害物からオブジェ ク ト に向け られたべク ト ル O Rがべク ト ル 7 0乃至 7 6 のいず れかに決定される。
重な り 判断は、 前記べク トル O R とべク トル C R とが成す角度の大き さに基づ く ために、 べク ト ルの大き さは一般的には重要でないこ とから、 これらべク ト ル には、 一般に所定の大き さが予め与えられている。
そして、 視点の投影点 Cからオブジェ ク 卜の投影点 Rに向いたべク トル C Rは、 投影点 C が X Z 平面に成す座標値 ( X 1 , z 1 ) と投影点 Rが X Z 平面に成す ( X 2. z 2 ) とから演算する。
次いで、 ステ ップ S 4 において、 視点から被写体に向け られた視線に対応する ベク ト ル C R とベク ト ル O R とが成す角度 (ベク ト ル C Rを基準と したベク ト ル O Rが成す角度の う ち、 内側の小さい値のほ う の角度、 以下、 便宜上 「内角 J と レ、 う。 ) が計算される。
ステ ップ S 5 において、 C P U 1 0 1 は予めプロ グラムで設定されている基準 角度と 、 ステ ッ プ S 4 で求めた内角 と を比較し、 ベク ト ル C R とベク ト ル O R と がなす內角が基準角度以内である場合には (ステ ッ プ S 5 : Y E S ) 被写体の基 点の高さ ( Y方向の距離) と障害物の基点の高さ と を比較する (ステ ップ S 6 ) 。 被写体の高さが障害物の高さ よ り 低い場合 (ステ ップ S 6 : Y E S ) 、 すなわ ち、 べク トル C R とべク ト ル O R と のなす内角が基準角度以下、 且つ、 被写体の 高さが障害物の高さ よ り 低い、 と レ、 う条件に合致した場合には、 C P U 1 0 1 は 当該障害物を指定する物体の番号と と もに、 こ の障害物を透過処理すべき 旨のコ ー ドを、 ジォメ タ ライザ 1 1 0 を介して描画装置 1 1 2 へ供給する (ステ ップ S 8 ) 。 被写体が複数の障害物の陰に入る場合は、 障害物の各々 について重な り判 定がされる こ と と なるので、 各障害物についての重な り 状態が上記条件に合致す れば、 複数の物体の番号、 コー ドがジォメ タ ライザに供給される。 べク トル C R とべク トル O R と のなす角度が基準角度よ り 大き いか (ステ ップ
5 5 : N O ) 、 又は、 被写体の高さ が障害物の高さ よ り 高い場合 (ステ ップ S
6 : N O) には、 通常の障害物の表示方法である非透過処理をすべき 旨のコー ド をジォメ タ ライザ 1 1 0 に供給する (ステ ップ S 7 ) 。
例えば、 図 3 ( A ) に示すよ う に、 オブジェ ク トの X Z平面への投影点 Rは、 図 7 の領域 1 に属するので、 ベク トノレ O R と してベク トル 7 0 が選択される。 視 点たる仮想カメ ラの X Z平面への投影 Cから投影点 Rに向けた視線べク トル C R は、 図 3 ( A) のよ う に与えられる。 そ して、 ベク トル C R とベク トル O R と力; 成す内角 0 1 は基準値以下であ り 、 オブジェ ク ト R ' と障害物 O とは重な り の可 能性がある と判断されて (図 6参照) 、 ステ ップ S 6 に移行する。
次いで、 図 8 に示すよ う に、 オブジェ ク 卜の現在座標から、 オブジェ ク ト R ' が仮想地平面 8 0 に対 して成す高さ ( y座標) Hを演算する。 こ の高さ H と障害 物の高さ とが比較されて、 オブジェク 卜の第 1 起点 (ォブジェ ク トの下端) の高 さ ( H I ) が障害物の第 2起点 (障害物の上端) 高さ ( H 0 ) よ り も高い場合は、 視点 C ' からオブジェク ト全体を観察でき る ものであり 、 オブジェク 卜 と障害物 との重な り の可能性が否定されて、 障害物 Oは通常とおり透過処理される こ と な く その画像が生成される。
一方、 オブジェク トの高さ ( H 2 ) が障害物の高さ ( H 0 ) よ り低い場合は、 視点 C ' からオブジェ ク ト R ' を観察できないものと して、 障害物 Oが透過され るよ う にその画像を生成する。
また、 図 3 ( B ) に示すよ う に、 オブジェク トの X Z平面への投影点 Rは、 図 7の領域 3 に属するので、 べク トル O R と してべク トル 7 4が選択される。 視点 たる仮想カメ ラの X Z平面への投影 Cから投影点 Rに向けた視線べク ト ル C Rは、 図 3 ( B ) のよ う に与え られる。 そ して、 ベク ト ル C R とベク ト ル O R とが成す 内角 Θ 2 は基準値を越えて、 オブジェ ク ト R と障害物 Oとが重なる こ と は無いと 判定されて、 ステ ップ S 2 に リ ターンする。 そ して、 図 3 ( B ) の場合は、 被写 体の高さが障害物 Oの高さよ り 低く ても、 重な り 状態にはならないのでステ ップ S 6 の処理は適用されない。
こ の発明の形態において、 べク トル同士が成す内角に基づいて、 オブジェク ト と障害物との重な り を判定する よ う に したのは、 次の理由による。 すなわち、 図 3 ( A ) のよ う に視点から観たオブジェク トが障害物を越えた位置にある場合は、 べク ト ル O R及びべク ト ル C R と も障害物の背面 7 0 0からォブジヱク トを観た ほぼ同方向にある。 この場合は、 両べク トルが成す内角は小さい値になる傾向を 採る。
これに対して、 図 3 ( B ) のよ う に、 視点から観たオブジェク トが障害物の手 前の位置にある場合は、 ベタ ト ル O Rは障害物の背面 7 0 0から正面 7 4 0 に向 かった方向にあ り 、 ベク ト ル C Rは、 障害物の正面 7 4 0から背面 7 0 0 に向か つた方向にある。 これ ら の方向は互いに逆方向であるから、 両べク トルが成す内 角は図 3 ( A ) よ り も大きな傾向と成る。
したがって、 内角 と して図 3 ( A ) の状態と 図 3 ( B ) の状態を区別するのに 適した基準角度を定義し、 両べク ト ルが実際に成す内角 と こ の基準角度を比較す るこ と によ り 、 図 3 ( A ) と ( B ) と を互いに区別するこ とが可能と成る。 基準 角度と しては、 視点と オブジェク トが成す角度や距離によっても異なるが、 好適 には、 7 0乃至 9 0 ° が選択される。
なお、 ステ ップ S 6 において、 各物体の高さ、 すなわち仮想空間のワール ド座 標系における Y座標を基準と したのは、 視点の Y座標が常に障害物の Y座標よ り 大きレヽ (高い) からである。 したがって、 視点の 「高さ」 を障害物の 「高さ」 よ り低く 設定するゲーム装置ならば、 「高さ」 の比較の代わり に各物体の X座標の 大小関係を比較してもよい。
透過処理が指定された場合 (ステ ッ プ S 8 ) 、 描画装置 1 1 2 は当該障害物に テク スチャデータ に基づいてテ ク スチャを貼 り 付ける際に、 「メ ッシュ」 処理を 行 う。 複数の物体について透過処理が指定された場合は、 複数の物体について 「メ ッ シュ」 処理がされる。 なお、 メ ッ シュ処理とは、 当該障害物を表示する画 素列の中から所定のパターンに従って、 障害物表示のための画素の代わり に、 障 害物の背景を表示する画素を当てはめる処理をい う。 所定のパターンは、 背景と 障害物とが均等に認識できる よ う なパターンであって、 極端に障害物の質感を変 動させないよ う なパターンがよい。 例えば、 障害物のための画素と背景のための 画素と を交互に配置するパターンが好ま しレ、。 上記のよ う に本形態によれば、 視点からォブジェ ク 卜に向かったべク トルと 、 障害物からォブジ - ク ト に向かったべク ト ル とが成す角度と 、 両物体の高さの相 違とい う 2 つの条件に基づいて重な り 状態の判定を行う ので、 正確な重な り 状態 の判定が行える。 もっ と も、 本発明は、 オブジェ ク ト と障害物と の重な り 判定を 両者の座標値から行 う等の他の手段によ り この重な り 判定を行う こ と を妨げる も のではなレ、。
また、 重な り 状態である と判定された場合には、 透過処理と してメ ッ シュ状に 障害物が表示されるので、 視点と被写体と の間に障害物が入 り 込んでも、 操作者 は被写体を見失わずに、 しかも障害物の存在を認識しつつ被写体の操作を持続で きる。
そ して、 ベク トル O Rは予めメ モ リ にテーブルと して記憶され、 オブジェ ク ト が障害物に対して成す位置に応じてメ モ リ から読み出されるため、 重な り 判定を 迅速かつ容易に行う こ とができ る。
( I I I ) 他の実施の形態
i ) 重な り判定について
上記形態では、 べク ト ル C R とべク ト ル O R と のなす角度の条件、 及び、 被写 体の高さ と障害物の高さ との間の条件と を共に満た した場合に重なり 状態である と判定していたが、 角度の判定のみで重な り 判定を行っても よい。 ゲーム装置に おける被写体の動きは激しいために、 視点が障害物から遠方に設定された場合や 障害物の高さが低い場合には、 おおよその位置関係に基づいて透過処理を実行し ても、 違和感なく操作者は操作を行えるからである。
また、 視点から障害物や被写体等の物体を観察する場合、 各物体の大き さ (す なわち、 重心から外形までの距離) に応じて、 重な り が生ずる と きのべク トル〇 R と視線べク ト ル C R と の成す角度が異なる。 視点と各物体との距離によっても この角度は異なる。 そこで、 各物体の外形の大き さや視点一各物体間の距離に対 応させて、 ステ ップ S 5 の比較に用いる基準角度を変更させてもよい。
また、 図 9 に示すよ う に、 べク ト ル O Rを、 被写体の位置と障害物の位置と に 基づいて演算する よ う に しても良い。 こ のベク ト ルは、 障害物 Oの所定の基点か ら被写体 R ' の基点に向かうベク トルと して求められる。 基点は、 例えば、 被写 体や障害物等の中心点とする。 中心点とは幾何学的に見て、 各物体を囲む立方体 の重心に相当する点とする。 なお、 ゲーム装置では、 各ォブジェ ク トゃ視点の動 きが激しいため、 厳密に各物体の中心点を求める必要はな.く 、 おおよその位置を 中心点の座標と して R O M 1 0 9等に格納しておけば十分である。 各物体の高さ の基準点は、 べク トル演算で用いた各物体の中心点であっても よいが、 障害物に ついては障害物の上面の高さ、 被写体たるオブジェク ト についてはオブジェク ト の最下部の高さを基準と してもよい。
i i ) 透過処理について
画像生成装置が行う透過処理と して上記形態では画素を 1 ドッ ト毎に変更する メ ッ シュ処理を行ったが、 異なるパターンで画素を入れ換えてもよい。 すなわち、 2 ドッ ト毎に画素を入れ換えた り 、 縞状に背景と障害物と を表示した り してもよ レ、。 また、 画素を入れ換える 「メ ッシュ」 処理の代わり に、 障害物の表示を半透 明状態にする透過処理を行っても よい。 半透明状態にするには、 障害物を表示す る画素の色情報 ( R G B ) と背景を表示する画素の色情報と に演算 (加算、 乗算 等) を施して、 障害物の陰に隠れた部分が認識でき るよ う に処理する。
また、 図 8 と同 じ方向から表された図 1 0 に示すよ う に、 視点 C ' の視野角が ø — 1 である と したと き、 Y方向に幅を持ったオブジェク ト R ' が障害物 Oに重 なる部分は Θ — 2 の範囲である。. したがって、 この 0 — 2 の部分のみの箇所に透 過処理を与えるよ う にしても良い。
前記図 2 に示す形態では、 視点の視野内にある障害物について、 重な り 判定の 処理を実行したが、 視野内以外の例えば、 仮想空間内にある全ての障害物につい て図 2 に示す処理を適用する よ う に しても良い。 こ のこ と を図 1 1 を使用 しなが ら説明する。
図 1 1 は図 7 と同方向に表現されており 、 仮想空間内にある二つの障害物 0 1 と 0 2 を Y方向から示した図である。 図 1 1 は、 二つのオブジェク トの X Z平面 への投影点 R— 1 , R— 2 と 、 R— 1 に対する視点の投影点 C 一 1 と R— 2 に対 する視点の投影点 C一 2 とが次の関係にあるこ とを示している。
( 1 ) R— 1 : 障害物 O 1 の背面 7 0 0— 1側 障害物 O 2 の正面 7 4 0 — 2側
C 障害物 O 1 の正面 7 4 0 _ 1 側
( 2 ) R— 2 : 障害物 O 1 の背面 7 0 0 — 1 側
障害物 O 2 の背面 7 0 0 — 2側
C一 2 : 障害物 O 1 の背面 7 0 0 — 1側
障害物 0 2 の正面 7 4 0 — 2側
投影点 C一 1 と投影点 R— 1 との間のべク トル C R— 1 、
障害物〇 1 と投影点 R— 1 との間のべク トル O R— 1 、
投影点 C一 2 と投影点 R— 2 との間のべク ト ル C R— 2 、
障害物 0 2 と投影点 R— 2 と の間のべク トル O R— 2 、
とが互いに成す内角は、 図 1 2 に示すとおり である。
図 1 1 、 図 1 2から分かるよ う に、 オブジェク トの投影点が R— 1 にある と き、 障害物 O 1 については透過処理が適用 され、 障害物 O 2 には非透過処理が適用 さ れる。
一方、 オブジェク トの投影点が R— 2 にある と き には、 障害物 0 1 及び障害物 0 2 の両方について透過処理が成される。 但し、 このと きの視点は C一 2 にある ために、 障害物〇 1 は視点の視野内に無いこ とから映像と しては T V モニ タ 1 3 には表示されない。
仮想空間内にある全ての障害物について重なり判定を適用する こ とは、 例えば、 それぞれの障害物について識別 I Dを与え、 全ての I Dについてステ ップ S 3 か らステ ップ S 8 までの処理を適用すればよレ、。
また、 それぞれの障害物について、 重な り 判定が必要か否かのステータ スフラ グレジス タを R O M内に設ける こ とができ る。 例えば、 障害物の高さがオブジェ ク ト に比較して小さ く 、 視点の位置が変わってもほぼオブジェ ク トの全体が障害 物に重ならないよ う な場合、 このフラ グに重な り 判定処理を必要と しない 「 1 J をたてる。
(実施例)
上記実施の形態に係るゲーム装置を使用 した場合の実施例について説明する。 図 4 は被写体と障害物との重な り が生じない位置関係にある場合を説明する図 である。 同図 ( B ) に示すよ う に、 本形態では、 被写体 Rを観察する仮想カ メ ラ C ' は被写体 R ' の上側から被写体 R ' を中心と した仮想空間を観察する。 同図 ( A ) の俯瞰図に示すよ う に、 カメ ラ C ' が P 1の点に位置する場合には、 障害物 Oはカ メ ラ C ' から見て被写体 Rの背後に存在するため、 視点から被写体に向い たべク ト ルと障害物から被写体に向いたベタ トルが成す角度は基準角よ り 大き く なり 、 重な り状態である とは判定されない。 したがって、 障害物 Oについて透過 処理は行われず、 同図 ( C ) のよ う に通常の仮想画像がモニタに表示される。 と ころが、 同図 ( A ) の P 2の点にカメ ラ C ' が周 り込んだ場合、 カメ ラ C ' と 被写体 R ' との間に障害物 Oが入り 込み、 重な り 状態と なる。 このと きのカ メ ラ C ' と被写体 R ' と の位置関係を俯瞰した図が図 5 ( A ) であ り 、 この位置関係 を側面から見た図が同図 ( B ) である。 このと き両べク トルとべク トルと の成す 角は基準角以下であ り 、 被写体 R ' の高さ も障害物の高さ よ り低い。 したがって、 障害物 Oは透過処理され、 同図 ( C ) に示すよ う に障害物のテクスチャがメ ッシ ュ処理されて、 背後に隠れた被写体 Rが透過した仮想画像がモニタに表示される。 産業上の利用可能性
本発明によれば、 通常、 透過処理される こ と なく 生成されている図形が、 必要 に応じて透過された図形となるよ う に画像が生成されるため、 障害物を表示 しな い、 障害物を最初からワイヤ一フ レームで表示する等の手段をと るこ と なく 、 し かも、 ゲーム等の雰囲気を損なわない仮想画像生成装置を提供する こ とができ る。 そして、 被写体が物体に遮られる位置関係を重な り状態と して判定し、 被写体 を隠す物体に透過処理を施すので、 被写体の映像が十分に与えられ、 観察者は困 難なく 被写体の操作や状況の把握が行える。
特に、 視点から被写体に向かうベク トルと障害物から被写体に向かうベク ト ル とが成す角度に基づいて重な り 判定を行えば、 物体が被写体に重なって観察され るか否かを正確かつ容易に判定でき るので、 被写体が物体に隠される位置関係か ら透過処理をする こ と によ り 、 違和感のない画像表示がされる。 また、 被写体と 物体の変位を比較する こ とでも、 重なり判定を行う こ とができる。 一方、 透過処理を所定のパターンに したがって画素を入れ換えて表示すれば、 物体及び被写体の色彩、 形状、 質感等を損ねずに、 比較的容易な処理で画像の透 過を実現できる。 特に、 物体表示用の画素と背景表示用の画素と を交互に表示す れば、 重な り状態においても物体及び被写体と も十分に認識でき る仮想画像を得 るこ とができ る。

Claims

請求の範囲
1 . 仮想的に設定した仮想空間内において当該仮想空間に存在する図形を所定 の視点から観察 した際に得られる仮想画像を透過させて、 又は透過させる こ と な く 生成する仮想画像生成装置であって、
前記透過処理がされていない画像を、 所定の条件が成立した以降、 透過させる 画像と し、 この所定の条件が終了 した以降は、 透過処理がされている画像を透過 処理がされていない画像とする画像生成手段を備える画像生成装置。
2 . 仮想的に設定した仮想空間内において当該仮想空間に存在する被写体を所 定の視点から観察した際に得られる仮想画像を生成する仮想画像生成装置であつ 前記仮想空間に存在する物体に関する形状データを記憶する形状データ記憶 手段と、
前記被写体の位置データを特定する位置データ特定手段と、
前記形状データ記憶手段が記億する前記形状データ と前記位置データ特定手段 が特定した前記被写体の位置データ と に基づいて、 前記視点と前記被写体と の間 に前記物体が前記視点から重なって観察されるか否かを判定する重な り 判定手段 と、
前記重な り判定手段が前記被写体と前記物体とが所定の重な り 状態である と判 定したと きには前記物体に所定の透過処理した仮想画像を生成し、 前記被写体と 前記物体とが前記所定の重な り 状態以外の状態である と判定したと き には前記物 体の透過を行わない非透過処理した仮想画像を生成する画像生成手段と 、 を備え る仮想画像生成装置。
3 . 前記重な り 判定手段は、 前記視点が前記被写体を観察する方向に向いた第 1 のべク トルと 、 前記物体が被写体に向いた第 2 のべク トルと 、 をそれぞれ求め る と と もに、 この第 1 のベク トルと第 2 のベク トルが成す角度を求め、 前記角度 が前記基準角に対して所定の関係にある と きに前記重な り 状態である と判定し、 この所定の関係にないと きに前記重な り状態以外の状態である と判定する請求項 2記載の仮想画像生成装置。
4 . 前記重な り 判定手段は、 前記被写体に予め設定された第 1 基点についての 所定の地点からの変位と前記物体に予め設定された第 2基点についての前記地点 からの変位と を比較し、 前記第 1 基点についての変位が前記第 2基点についての 変位よ り 小さい場合に前記重な り状態である と判定し、 前記第 1 基点についての 変位が前記第 2基点についての変位よ り 大きい場合に前記重な り 状態以外の状態 である と判定する請求項 2記載の仮想画像生成装置。
5 . 前記重な り 判定手段は、 請求項 3記載の角度が前記基準角に対 して所定の 関係にあ り 、 かつ請求項 5記载の第 1 基点についての変位が前記第 2基点につい ての変位よ り も小さい場合に、 前記重な り 状態である と判定する請求項 2 記載の 仮想画像生成装置。
6 . 前記画像生成手段は、 前記透過表示を行 う場合に所定のパターンに したが つて前記物体を表示するための画素の代わ り に前記被写体を表示するための画素 を表示する仮想画像を生成する請求項 2記載の仮想画像生成装置。
7 . 前記パターンは、 前記物体を表示するための画素と前記被写体を表示する ための画素とを交互に順次並べる ものである請求項 6記載の仮想画像生成装置。
8 . 仮想的に設定した仮想空間内において当該仮想空間に存在する被写体を所 定の視点から観察 した際に得られる仮想画像を生成する仮想画像生成方法であつ て、
前記仮想空間に存在する物体に関する形状データ と前記被写体の位置データ と に基づいて、 前記視点と前記被写体と の間に前記物体が前記視点から重なって観 察されるか否かを判定し、 前記被写体と前記物体とが所定の重な り状態である と 判定したと き には前記物体に所定の透過処理した仮想画像を生成し、 前記被写体 と前記物体とが前記所定の重な り 状態以外の状態である と判定したと き には前記 物体の透過を行わない非透過処理した仮想画像を生成する こ と を特徴とする仮想 画像生成方法。
9 . 仮想的に設定した仮想空間内において当該仮想空間に存在する被写体を所 定の視点から観察 した際に得られる仮想画像を生成するためのプロ グラムデータ を記録した記録媒体であって、
前記プロ グラ ムデータ は、 前記饭想空間に存在する物体に関する形状データ と 前記被写体の位置データ と に基づいて、 前記視点と前記被写体との間に前記物体 が前記視点から重なって観察されるか否かを判定し、 前記被写体と前記物体とが 所定の重な り状態である と判定したと き には前記物体に所定の透過処理した仮想 画像を生成し、 前記被写体と前記物体とが前記所定の重な り 状態以外の状態であ る と判定したと き には前記物体の透過を行わない非透過処理した仮想画像を生成 する処理のためのプロ グラムデータである こ と を特徴とする記録媒体。
PCT/JP1996/002268 1995-08-10 1996-08-09 Appareil et procede pour former une image virtuelle WO1997006511A1 (fr)

Priority Applications (8)

Application Number Priority Date Filing Date Title
KR1019970702317A KR100439931B1 (ko) 1995-08-10 1996-08-09 가상화상생성장치및그방법
US08/817,076 US6377277B1 (en) 1995-08-10 1996-08-09 Virtual image generation apparatus and method
CA002201755A CA2201755C (en) 1995-08-10 1996-08-09 Virtual image formation apparatus and method
US10/830,499 USRE41414E1 (en) 1995-08-10 1996-08-09 Virtual image generation apparatus and method
EP96926620A EP0786742B1 (en) 1995-08-10 1996-08-09 Virtual image formation apparatus and method
BR9606580A BR9606580A (pt) 1995-08-10 1996-08-09 Aparelho e método de formação de imagem virtual
DE69625455T DE69625455T2 (de) 1995-08-10 1996-08-09 Vorrichtung und verfahren zur erzeugung von virtuellen bildern
MXPA/A/1997/002603A MXPA97002603A (en) 1995-08-10 1997-04-09 Apparatus and method for the generation of virt image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP7/204849 1995-08-10
JP07204849A JP3141737B2 (ja) 1995-08-10 1995-08-10 仮想画像生成装置及びその方法

Publications (1)

Publication Number Publication Date
WO1997006511A1 true WO1997006511A1 (fr) 1997-02-20

Family

ID=16497420

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1996/002268 WO1997006511A1 (fr) 1995-08-10 1996-08-09 Appareil et procede pour former une image virtuelle

Country Status (9)

Country Link
US (2) USRE41414E1 (ja)
EP (1) EP0786742B1 (ja)
JP (2) JP3141737B2 (ja)
KR (1) KR100439931B1 (ja)
CN (1) CN1158632C (ja)
BR (1) BR9606580A (ja)
CA (1) CA2201755C (ja)
DE (1) DE69625455T2 (ja)
WO (1) WO1997006511A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0893149A2 (en) * 1997-07-25 1999-01-27 Konami Co., Ltd. Video-game apparatus, method of processing video game image, and computer-readable recording medium with stored video game program
CN100374175C (zh) * 1997-11-25 2008-03-12 世嘉股份有限公司 图象生成装置及方法

Families Citing this family (120)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3141737B2 (ja) 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法
US5769718A (en) * 1996-05-15 1998-06-23 Rieder; William R. Video game apparatus and medium readable by a computer stored with video game program
JP2902352B2 (ja) * 1996-05-15 1999-06-07 コナミ株式会社 ビデオゲーム装置
CN1188193C (zh) * 1997-02-18 2005-02-09 世嘉股份有限公司 图像处理装置及图像处理方法
JP3183632B2 (ja) 1997-06-13 2001-07-09 株式会社ナムコ 情報記憶媒体及び画像生成装置
JP3145059B2 (ja) 1997-06-13 2001-03-12 株式会社ナムコ 情報記憶媒体及び画像生成装置
JP4035867B2 (ja) * 1997-09-11 2008-01-23 株式会社セガ 画像処理装置及び画像処理方法並びに媒体
JPH11207029A (ja) 1998-01-28 1999-08-03 Konami Co Ltd ビデオゲーム装置、ビデオゲームにおける画面表示方法及び画面表示プログラムが格納された可読記録媒体
JP4114824B2 (ja) * 1998-04-24 2008-07-09 株式会社バンダイナムコゲームス 画像生成装置及び情報記憶媒体
JP4258824B2 (ja) * 1998-05-20 2009-04-30 株式会社セガ 画像処理装置、画像処理方法及び記録媒体
US6552722B1 (en) * 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
JP4188463B2 (ja) 1998-09-03 2008-11-26 株式会社バンダイナムコゲームス 画像生成装置、画像生成方法および記憶媒体
JP2001087551A (ja) * 1999-09-24 2001-04-03 Konami Co Ltd 射的ビデオゲーム装置および射的ビデオゲームにおける画像表示方法
JP2001276420A (ja) 2000-03-30 2001-10-09 Namco Ltd ゲーム装置および情報記憶媒体
JP3345600B2 (ja) * 2000-04-10 2002-11-18 コナミ株式会社 ゲームシステムおよびコンピュータ読取可能な記憶媒体
JP3347124B2 (ja) 2000-04-28 2002-11-20 株式会社コナミコンピュータエンタテインメントジャパン ゲームシステムおよびゲーム用プログラムが記憶されたコンピュータ読み取り可能な記録媒体
JP2002202770A (ja) * 2000-12-28 2002-07-19 Genki Kk コンピュータゲームの逐次読込方法並びに逐次読込方法を用いた記録媒体
JP2002360920A (ja) * 2001-06-05 2002-12-17 Atlus Co Ltd ゲーム画像制御装置
JP3764070B2 (ja) * 2001-06-07 2006-04-05 富士通株式会社 オブジェクト表示プログラムおよびオブジェクト表示装置
JP4707080B2 (ja) * 2001-07-30 2011-06-22 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
JP3594915B2 (ja) * 2001-08-03 2004-12-02 株式会社ナムコ プログラム、情報記憶媒体及びゲーム装置
US7133083B2 (en) * 2001-12-07 2006-11-07 University Of Kentucky Research Foundation Dynamic shadow removal from front projection displays
JP3637031B2 (ja) * 2002-04-03 2005-04-06 任天堂株式会社 ゲーム装置およびゲームプログラム
JP4115188B2 (ja) * 2002-07-19 2008-07-09 キヤノン株式会社 仮想空間描画表示装置
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
JP2007535733A (ja) * 2004-03-03 2007-12-06 バーチャル アイリス スタジオ,インク. 画像の配信および対話型操作を可能にするシステム
US7542050B2 (en) * 2004-03-03 2009-06-02 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US7502036B2 (en) * 2004-03-03 2009-03-10 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
JP4412715B2 (ja) * 2004-05-07 2010-02-10 株式会社バンダイナムコゲームス プログラム、情報記憶媒体および画像生成システム
JP3877077B2 (ja) 2004-08-31 2007-02-07 任天堂株式会社 ゲーム装置および画像処理プログラム
JP4636908B2 (ja) * 2005-03-14 2011-02-23 キヤノン株式会社 画像処理装置、画像処理方法
WO2007010596A1 (ja) * 2005-07-19 2007-01-25 Fujitsu Limited 画像判定方法、画像判定装置および画像判定方法をコンピュータに実行させるプログラムを記録した記録媒体
JP4717622B2 (ja) * 2005-12-15 2011-07-06 株式会社バンダイナムコゲームス プログラム、情報記録媒体および画像生成システム
JP5154775B2 (ja) 2006-08-18 2013-02-27 任天堂株式会社 ゲームプログラムおよびゲーム装置
US20080231627A1 (en) * 2007-03-20 2008-09-25 Robert Allen Shearer Using Ray Tracing to Enhance Artificial Intelligence Character Behavior
JP4489800B2 (ja) * 2007-08-30 2010-06-23 株式会社スクウェア・エニックス 画像生成装置及び方法、並びにプログラム及び記録媒体
JP5016443B2 (ja) * 2007-10-25 2012-09-05 ティーオーエー株式会社 カメラ設置シミュレータプログラム
CN101983315A (zh) 2008-05-29 2011-03-02 通腾科技股份有限公司 在数字地图图像上显示路径信息
JP2010033285A (ja) * 2008-07-28 2010-02-12 Namco Bandai Games Inc プログラム、情報記憶媒体および画像生成システム
JP2010033252A (ja) * 2008-07-28 2010-02-12 Namco Bandai Games Inc プログラム、情報記憶媒体および画像生成システム
US8898574B2 (en) * 2008-12-19 2014-11-25 International Business Machines Corporation Degrading avatar appearances in a virtual universe
US9633465B2 (en) 2009-02-28 2017-04-25 International Business Machines Corporation Altering avatar appearances based on avatar population in a virtual universe
US9440591B2 (en) * 2009-05-13 2016-09-13 Deere & Company Enhanced visibility system
CN101819678A (zh) * 2010-03-16 2010-09-01 昆明理工大学 驾驶模拟系统三维虚拟图像的标定方法
JP5614211B2 (ja) 2010-09-30 2014-10-29 株式会社セガ 画像処理プログラム及びコンピュータ読み取り可能な記録媒体
CN102456200A (zh) * 2010-10-25 2012-05-16 鸿富锦精密工业(深圳)有限公司 商品广告插播系统及方法
JP5677050B2 (ja) * 2010-11-26 2015-02-25 株式会社カプコン ゲームプログラム及びゲーム装置
JP5670253B2 (ja) * 2011-05-18 2015-02-18 日立アロカメディカル株式会社 超音波診断装置
JP6085411B2 (ja) * 2011-06-02 2017-02-22 任天堂株式会社 画像処理装置、画像処理方法、および画像処理装置の制御プログラム
US9266019B2 (en) 2011-07-01 2016-02-23 Empire Technology Development Llc Safety scheme for gesture-based game
US9390318B2 (en) 2011-08-31 2016-07-12 Empire Technology Development Llc Position-setup for gesture-based game system
US8657681B2 (en) 2011-12-02 2014-02-25 Empire Technology Development Llc Safety scheme for gesture-based game system
JP5807130B2 (ja) 2012-02-24 2015-11-10 エンパイア テクノロジー ディベロップメント エルエルシー ジェスチャー・ベースのゲーム・システムのための安全な方式
JP2016502694A (ja) * 2012-10-04 2016-01-28 ディズニー エンタープライゼス インコーポレイテッド 没入型環境用のインタラクティブ型オブジェクト
US20140198034A1 (en) 2013-01-14 2014-07-17 Thalmic Labs Inc. Muscle interface device and method for interacting with content displayed on wearable head mounted displays
JP6148887B2 (ja) 2013-03-29 2017-06-14 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像処理システム
WO2014186370A1 (en) 2013-05-13 2014-11-20 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices that accommodate different user forms
US9666427B2 (en) * 2013-06-21 2017-05-30 Lam Research Corporation Method of collapse-free drying of high aspect ratio structures
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US11426123B2 (en) 2013-08-16 2022-08-30 Meta Platforms Technologies, Llc Systems, articles and methods for signal routing in wearable electronic devices that detect muscle activity of a user using a set of discrete and separately enclosed pod structures
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US9788789B2 (en) 2013-08-30 2017-10-17 Thalmic Labs Inc. Systems, articles, and methods for stretchable printed circuit boards
KR102372544B1 (ko) 2014-02-14 2022-03-10 페이스북 테크놀로지스, 엘엘씨 탄성 전기 케이블 및 이를 사용하는 웨어러블 전자 장치를 위한 시스템, 물품, 및 방법
US10199008B2 (en) 2014-03-27 2019-02-05 North Inc. Systems, devices, and methods for wearable electronic devices as state machines
US20150325202A1 (en) * 2014-05-07 2015-11-12 Thalmic Labs Inc. Systems, devices, and methods for wearable computers with heads-up displays
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US9874744B2 (en) 2014-06-25 2018-01-23 Thalmic Labs Inc. Systems, devices, and methods for wearable heads-up displays
JP2016093362A (ja) * 2014-11-14 2016-05-26 株式会社コロプラ ゲーム空間内における仮想カメラの制御プログラム及びゲームシステム。
US9807221B2 (en) 2014-11-28 2017-10-31 Thalmic Labs Inc. Systems, devices, and methods effected in response to establishing and/or terminating a physical communications link
JP6122047B2 (ja) * 2015-02-10 2017-04-26 株式会社カプコン ゲームプログラムおよびゲーム装置
US9958682B1 (en) 2015-02-17 2018-05-01 Thalmic Labs Inc. Systems, devices, and methods for splitter optics in wearable heads-up displays
EP3259633B1 (en) 2015-02-17 2021-01-20 Google LLC Systems, devices, and methods for eyebox expansion in wearable heads-up displays
US10078435B2 (en) 2015-04-24 2018-09-18 Thalmic Labs Inc. Systems, methods, and computer program products for interacting with electronically displayed presentation materials
US10175488B2 (en) 2015-05-04 2019-01-08 North Inc. Systems, devices, and methods for spatially-multiplexed holographic optical elements
US10078220B2 (en) 2015-05-28 2018-09-18 Thalmic Labs Inc. Wearable heads-up display with integrated eye tracker
WO2017041010A1 (en) 2015-09-04 2017-03-09 Thalmic Labs Inc. Systems, articles, and methods for integrating holographic optical elements with eyeglass lenses
WO2017059285A1 (en) 2015-10-01 2017-04-06 Thalmic Labs Inc. Systems, devices, and methods for interacting with content displayed on head-mounted displays
US10937332B2 (en) * 2015-10-20 2021-03-02 The Boeing Company Systems and methods for providing a virtual heads up display in a vehicle simulator
US9904051B2 (en) 2015-10-23 2018-02-27 Thalmic Labs Inc. Systems, devices, and methods for laser eye tracking
US10802190B2 (en) 2015-12-17 2020-10-13 Covestro Llc Systems, devices, and methods for curved holographic optical elements
US10303246B2 (en) 2016-01-20 2019-05-28 North Inc. Systems, devices, and methods for proximity-based eye tracking
US10151926B2 (en) 2016-01-29 2018-12-11 North Inc. Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display
JP6002346B1 (ja) * 2016-04-07 2016-10-05 株式会社Cygames ゲームにおけるオブジェクト画像表示のためのプログラム、方法、電子装置及びシステム
US20170294135A1 (en) * 2016-04-11 2017-10-12 The Boeing Company Real-time, in-flight simulation of a target
CA3020631A1 (en) 2016-04-13 2017-10-19 Thalmic Labs Inc. Systems, devices, and methods for focusing laser projectors
US20190121306A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation Systems and methods for identifying biological structures associated with neuromuscular source signals
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
US10990174B2 (en) 2016-07-25 2021-04-27 Facebook Technologies, Llc Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
US10277874B2 (en) 2016-07-27 2019-04-30 North Inc. Systems, devices, and methods for laser projectors
WO2018027326A1 (en) 2016-08-12 2018-02-15 Thalmic Labs Inc. Systems, devices, and methods for variable luminance in wearable heads-up displays
US10345596B2 (en) 2016-11-10 2019-07-09 North Inc. Systems, devices, and methods for astigmatism compensation in a wearable heads-up display
CA3045192A1 (en) 2016-11-30 2018-06-07 North Inc. Systems, devices, and methods for laser eye tracking in wearable heads-up displays
US10663732B2 (en) 2016-12-23 2020-05-26 North Inc. Systems, devices, and methods for beam combining in wearable heads-up displays
JP6681352B2 (ja) * 2017-01-06 2020-04-15 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、情報処理方法、ゲームシステム、ゲームプログラム、ゲーム装置、及びゲーム方法
JP6606791B2 (ja) 2017-01-12 2019-11-20 株式会社コナミデジタルエンタテインメント ゲーム装置及びプログラム
US10437073B2 (en) 2017-01-25 2019-10-08 North Inc. Systems, devices, and methods for beam combining in laser projectors
US20190121135A1 (en) 2017-10-23 2019-04-25 North Inc. Free space multiple laser diode modules
JP6669783B2 (ja) * 2017-12-25 2020-03-18 ガンホー・オンライン・エンターテイメント株式会社 端末装置、システム、プログラム及び方法
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
WO2019186622A1 (ja) * 2018-03-26 2019-10-03 楽天株式会社 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
US10843089B2 (en) * 2018-04-06 2020-11-24 Rovi Guides, Inc. Methods and systems for facilitating intra-game communications in a video game environment
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN112105983B (zh) * 2018-05-08 2023-07-07 苹果公司 增强的视觉能力
EP4241661A1 (en) 2018-08-31 2023-09-13 Facebook Technologies, LLC Camera-guided interpretation of neuromuscular signals
EP3853698A4 (en) 2018-09-20 2021-11-17 Facebook Technologies, LLC NEUROMUSCULAR TEXT ENTRY, WRITING AND DRAWING IN SYSTEMS WITH EXTENDED REALITY
US11785203B2 (en) * 2019-03-19 2023-10-10 Sony Group Corporation Information processing apparatus, information processing method, and program
JP6713591B1 (ja) * 2019-04-17 2020-06-24 楽天株式会社 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
JP7001719B2 (ja) 2020-01-29 2022-02-04 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置、及び方法
JPWO2021215246A1 (ja) * 2020-04-21 2021-10-28
CN112807684A (zh) * 2020-12-31 2021-05-18 上海米哈游天命科技有限公司 一种遮挡物信息获取方法、装置、设备及存储介质
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
CN117163302B (zh) * 2023-10-31 2024-01-23 安胜(天津)飞行模拟系统有限公司 飞行器仪表显示方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06215150A (ja) * 1993-01-18 1994-08-05 Toshiba Corp 三次元画像表示装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0145321A3 (en) * 1983-11-15 1986-12-10 Motorola, Inc. System and method for altering an aspect of one of a plurality of coincident visual objects in a video display generator
US5202672A (en) * 1987-12-30 1993-04-13 Namco Ltd. Object display system
US6054991A (en) * 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
EP0605945B1 (en) * 1992-12-15 1997-12-29 Sun Microsystems, Inc. Method and apparatus for presenting information in a display system using transparent windows
CA2109681C (en) * 1993-03-10 1998-08-25 Donald Edgar Blahut Method and apparatus for the coding and display of overlapping windows with transparency
JPH06290254A (ja) * 1993-03-31 1994-10-18 Toshiba Corp 三次元図形の表示処理装置
US5638501A (en) * 1993-05-10 1997-06-10 Apple Computer, Inc. Method and apparatus for displaying an overlay image
US5491510A (en) * 1993-12-03 1996-02-13 Texas Instruments Incorporated System and method for simultaneously viewing a scene and an obscured object
WO1996020470A1 (en) * 1994-12-23 1996-07-04 Philips Electronics N.V. Single frame buffer image processing system
JP3734045B2 (ja) * 1995-08-10 2006-01-11 株式会社セガ 仮想画像生成方法及びその装置
JP3141737B2 (ja) 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06215150A (ja) * 1993-01-18 1994-08-05 Toshiba Corp 三次元画像表示装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0893149A2 (en) * 1997-07-25 1999-01-27 Konami Co., Ltd. Video-game apparatus, method of processing video game image, and computer-readable recording medium with stored video game program
EP0893149A3 (en) * 1997-07-25 2001-03-07 Konami Co., Ltd. Video-game apparatus, method of processing video game image, and computer-readable recording medium with stored video game program
US6361438B1 (en) 1997-07-25 2002-03-26 Konami Co., Ltd. Video game transparency control system for images
CN100374175C (zh) * 1997-11-25 2008-03-12 世嘉股份有限公司 图象生成装置及方法

Also Published As

Publication number Publication date
JP2000348217A (ja) 2000-12-15
JP3141737B2 (ja) 2001-03-05
EP0786742A1 (en) 1997-07-30
EP0786742A4 (en) 1998-12-09
DE69625455T2 (de) 2003-10-23
KR970706554A (ko) 1997-11-03
EP0786742B1 (en) 2002-12-18
US6377277B1 (en) 2002-04-23
DE69625455D1 (de) 2003-01-30
CN1158632C (zh) 2004-07-21
BR9606580A (pt) 1998-07-07
MX9702603A (es) 1998-05-31
CN1161096A (zh) 1997-10-01
JP3769747B2 (ja) 2006-04-26
CA2201755A1 (en) 1997-02-20
JPH0950541A (ja) 1997-02-18
KR100439931B1 (ko) 2005-04-06
USRE41414E1 (en) 2010-07-06
CA2201755C (en) 2004-07-06

Similar Documents

Publication Publication Date Title
WO1997006511A1 (fr) Appareil et procede pour former une image virtuelle
EP1585063B1 (en) Image generation device, image display method and program product
JP3734045B2 (ja) 仮想画像生成方法及びその装置
US10661181B2 (en) Simulation system and game system
JP3138423B2 (ja) シミュレーション装置
US6878058B1 (en) Image processor and game device with image processor
JP4282112B2 (ja) 仮想物体制御方法および仮想物体制御装置および記録媒体
JPH09138637A (ja) 模擬視界装置
EP0797172A3 (en) Image processor and game apparatus equipped with the same
JP3990648B2 (ja) プログラム、情報記憶媒体及び画像生成装置
JP4662271B2 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP3215306B2 (ja) 画像合成方法及び装置
JP4334961B2 (ja) 画像生成情報、情報記憶媒体及び画像生成装置
JP3786671B1 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2008067853A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2018171309A (ja) シミュレーションシステム及びプログラム
JP3138424B2 (ja) シミュレーション装置及び衝突判定方法
JP2020057399A (ja) シミュレーション制御装置及びシミュレーション制御プログラム
JP2006263321A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP3179739B2 (ja) ドライビングゲーム機及びドライビングゲームプログラムが格納された記録媒体
MXPA97002603A (en) Apparatus and method for the generation of virt image
JP2002331165A (ja) ゲーム機におけるマーカーの色変更装置及び情報記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 96190888.2

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): BR CA CN KR MX SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

ENP Entry into the national phase

Ref document number: 2201755

Country of ref document: CA

Ref document number: 2201755

Country of ref document: CA

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1996926620

Country of ref document: EP

Ref document number: PA/a/1997/002603

Country of ref document: MX

Ref document number: 1019970702317

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 10830499

Country of ref document: US

Ref document number: 08817076

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1996926620

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019970702317

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1996926620

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1019970702317

Country of ref document: KR