WO1998001824A1 - Processeur d'images, jeux video, procede d'affichage d'images et support d'enregistrement - Google Patents

Processeur d'images, jeux video, procede d'affichage d'images et support d'enregistrement Download PDF

Info

Publication number
WO1998001824A1
WO1998001824A1 PCT/JP1997/002331 JP9702331W WO9801824A1 WO 1998001824 A1 WO1998001824 A1 WO 1998001824A1 JP 9702331 W JP9702331 W JP 9702331W WO 9801824 A1 WO9801824 A1 WO 9801824A1
Authority
WO
WIPO (PCT)
Prior art keywords
segment
target
image
display
determined
Prior art date
Application number
PCT/JP1997/002331
Other languages
English (en)
French (fr)
Inventor
Yukio Hutatsugi
Shiro Maekawa
Yojiro Ogawa
Tatsuo Yamajiri
Original Assignee
Sega Enterprises, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Enterprises, Ltd. filed Critical Sega Enterprises, Ltd.
Priority to US09/029,771 priority Critical patent/US6259431B1/en
Priority to JP50505298A priority patent/JP3515127B2/ja
Priority to EP97929531A priority patent/EP0855677A4/en
Publication of WO1998001824A1 publication Critical patent/WO1998001824A1/ja

Links

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/306Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying a marker associated to an object or location in the game field
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car

Definitions

  • the present invention relates to an image display technology for generating an image of a model arranged in a so-called virtual three-dimensional coordinate space, and more particularly, to an interactive game in which a plurality of model questions in a virtual space have a conversation or the like.
  • an image display technology for generating an image of a model arranged in a so-called virtual three-dimensional coordinate space
  • an interactive game in which a plurality of model questions in a virtual space have a conversation or the like.
  • a game device that captures a three-dimensional space in which a plurality of segments are arranged from a predetermined viewpoint and develops it on the next screen and displays it on a monitor has a high commercial value.
  • a player moves a specific segment (hereinafter referred to as a model) in a virtual space by moving an input device.
  • This model approaches other segments (representing humans or treasure chests; hereinafter referred to as “targets”) placed in the virtual space, and makes an intention between the model and the target. Perform communication.
  • Communication refers to, for example, a “conversation” in which words are exchanged between a model and a target object, and an interaction such as opening a treasure chest as a target object. Whether or not to communicate is determined by a contact determination or the like that determines whether or not the model and the target are in contact.
  • the model and the target can be observed as if they exist in the real world. Even without it, a situation can emerge where the older brother can clearly communicate with the opponent from the relationship. Even in such a case, if it is not possible to communicate without contacting the model and the target like a conventional game device defined by quadratic, it lacks realism and makes the game uninteresting. would.
  • the viewpoint of the visual field change for observing the virtual space is set at a position distant from the viewpoint of the model in order to improve the visibility.
  • the model and the target can be seen from the viewpoint, but the H target cannot be seen from the viewpoint of the model.
  • the model and the S target will be viewed from directly above the plane in the virtual sky ⁇ ' ⁇ ].
  • the model even if there is a difference in the coordinate value (height) between the model and the target, the difference hardly appears on the display screen, so operate the model to touch the target. It is expected to be difficult.
  • an object of the present invention is to provide an image processing technique capable of judging whether or not a segment arranged in a virtual space is in a state in which it can be captured.
  • the challenge is to determine additional conditions, even when the segment is in a position where it can be captured.
  • a second object of the present invention is to make it possible to select the next processing when a condition that a segment can be captured is satisfied.
  • a third object of the present invention is to bring about a change in an image table of a sign that is in a capture state.
  • a fourth object of the present invention is to provide a simple form of capturing a virtual question defined by a second order.
  • a fifth object of the present invention is to provide a method for specifying a segment to be actually captured when a plurality of segments can be captured in a virtual space defined in two dimensions.
  • the invention for solving the first problem of the present invention is an image processing apparatus for displaying both images of a segment arranged in a virtual space, a method thereof, or a program for implementing the method. !
  • a display position determining means for determining a display position of a sign displayed on the display screen based on the operation signal
  • a positional relationship determining means for determining whether or not the marker determined by the display position determining means (step) satisfies a condition that the marker has a predetermined positional relationship with respect to the one target segment;
  • a state determining means for determining whether or not the target segment is displayed, and if the state determining means (step) determines that the target segment is satisfied, Image display means (step) for displaying an image indicating that the image is captured.
  • the sign refers to a cursor or the like used to indicate a specific position on the display screen.
  • a segment refers to a set of display elements, which are composed of, for example, polygons and can be moved as a unit, and refers to an object to be displayed having a form simulating a person, an object (a jewelry box), or the like.
  • the display position determining step (step), the positional relationship determining means (I: process) and the state determining means (step) correspond to a processing circuit.
  • “ ⁇ ” in the ⁇ 'image display means is equivalent to the image ⁇ display M path.
  • c can be provided accurately whether capturable for segment I with respect to segment Bok, volume, the both images processing device which can quickly determine, the surface ⁇ Zosho ⁇ When the device is applied to, for example, a game machine simulating an interactive game in a virtual space, it is accurately determined whether or not conditions are satisfied for capturing the target segment.
  • a segment I which is operated based on the operation signal, is displayed in the virtual space, and if it is determined that the target segment has a condition capable of being captured, the segment is operated based on the operation signal. It is preferable to display an image showing the interaction between the segment and the segment serving as the II target.
  • condition determined by the positional relationship determining means is such that the marker and the segment serving as the [:: 1] are overlapped on the display screen.
  • process it is preferable to set the condition that can be captured by the state determination means (“process”) to determine whether or not the segment serving as the L1 target is to be processed by the image display means (“process”).
  • the invention for solving the second problem further includes an action selecting means (“step”) for displaying a plurality of options indicating an action to be taken next when the target segment can be captured,
  • the image display means (“process”) displays an image based on the input operation loan corresponding to the selection displayed by the action selecting means (“process”).
  • the display form of the mark is changed according to the type of the target segment.
  • the content of the two-image display is changed in accordance with the distance between the sign and the target segment.
  • the invention that solves the fifth problem is to set the distance from the viewpoint for image display for each of the segments set in the judgment palace set to the circumference of ⁇ 3 ⁇ 4! 3 ⁇ 4
  • the segment with the shortest distance is determined as the segment that satisfies the above condition. Therefore, when a plurality of objects overlap from a predetermined viewpoint in the virtual space, the segment closest to the viewpoint is determined as 0 target, and then whether or not this target can be captured is determined. In the case where there is an obstacle around the segment to be captured, it is possible to prevent the segment hidden by the obstacle from being captured.
  • a recording medium is a medium in which information (mainly digital data and programs) is d-recorded by some physical means, and a predetermined function is provided to a processing unit such as a computer and a processor for: It can be done.
  • any method may be used as long as it downloads a program to a computer by some means and performs a predetermined function.
  • flexible disks, fixed disks, magnetic tapes, magneto-optical disks, CD-ROMs, DVDs, ROM cartridges, RAM memory cartridges with battery packs, flash memory cartridges, nonvolatile Includes RAM power licensing.
  • FIG. 1 is an overall perspective view of an embodiment of a TV game machine to which the image processing device of the present invention is applied.
  • FIG. 2 is a block diagram showing a schematic configuration of the TV game machine.
  • FIG. 3 is a functional block diagram showing an image processing system of the TV game machine.
  • the fourth is a flowchart of the image processing performed by the TV game machine.
  • Fig. 5 is a diagram showing the metaphor displayed on the screen I .. of the TV receiver when processed by the flowchart.
  • FIG. 6 is a view showing a small screen displayed on the screen of the TV receiver when the processing is performed by the flowchart.
  • FIG. 7 is a diagram showing a small example of a ghost that can be created by applying the image processing system.
  • FIG. 8 is a diagram showing an example of a surface that can be created by applying the two image processing systems.
  • FIG. 9 is a diagram showing an example of a screen that can be created by applying the image processing system.
  • Figure 10 shows an example of a screen that can be created by applying the same one-plane image processing system.
  • FIG. 11 is a conceptual diagram showing an arrangement of a judgment display object in a virtual question.
  • FIG. 123 ⁇ 4 is a diagram showing a screen viewed from the viewpoint S in FIG.
  • FIG. 13 is a diagram showing a screen viewed from the viewpoint SS of FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • the image processing apparatus of the present invention is applied to a home TV game machine.
  • FIG. 1 is a perspective view showing the appearance of a game machine according to the present invention.
  • the game device of the present embodiment includes a game device main body 1, a pad 2b, and a monitor device 5.
  • the game apparatus main body 1 has an image / audio processing device of the present invention housed in a part thereof.
  • the exterior is provided with an interface (I / F) section la of the ROM cartridge connection ffl and a CD-ROM drive 1b for reading a CD-ROM.
  • No The command 2b has ten cursors 2 bb number of operation buttons, and is configured to be able to generate an operation signal based on a player's operation.
  • the operation signal is supplied to the connector 2a via the cable 2c, so that the "J" function is configured.
  • the pad 2b is detachably provided to the game apparatus main body 1 by the connector 2a, and is configured so that two pads can be connected so that two players can operate at the same time.
  • the monitor device 5 is configured to be connected to a not-shown t, a video output terminal V0, and an audio output terminal A0 of the game device main body 1 via a video cable 4a and an audio cable 4b.
  • the game device i includes a CPU block 11, a video block 1, a sound block 12, and a subsystem 13.
  • the CPU block controls the image processing of the present invention while advancing the game processing according to the program, and includes an SCU (System Control Unit) 100, a main CPU 101, a RAM I 02, and a ROM 1 03, sub CPU 104 and CPU bus 105.
  • SCU System Control Unit
  • the main CPU 101 has a DSP (Digital Signal Processor) inside, and is configured to be able to execute processing based on the program data transferred from the CD-ROM 1 at high speed.
  • the RAM 102 stores the application software program data, audio control program data, waveform data read from the CD-R0M1, the work area for decoding MPEG images, and the CD-R ⁇ M decoding. It is configured to be usable as an overnight cache for error correction.
  • the ROM 103 is configured to be able to store initial program data for initialization processing of the device.
  • the SCU 100 transfers data through the nodes 105, 106 and 107.
  • the SCU 100 is equipped with a DMA controller inside, and the image blocks required during the execution of the game are stored in the video block 11 ⁇ .
  • the sound control program data and waveform data can be transferred to the sound block 12 so that they can be transferred to VRAM.
  • the sub CPU 104 is called SMP C (System Manager & Peripheral Control), and is configured to collect the operation signals from the pad 2b in response to the request of the main CPU 101.
  • SMP C System Manager & Peripheral Control
  • the video block 11 is composed of VDP (Vide Display Processor) 120, VDPI 30, VRAM 121, frame buffer 122, 123, and VRAM so that the image processing of the primary Hjj can be executed. It is configured with 13 1 and memory 1 32.
  • VDP Vehicle Display Processor
  • the VRAM 122 is configured to be able to store a drawing command transferred via the SCU 100 by the main CPU 101.
  • the VDP 120 generates a bitmap format image based on bitmap data based on drawing commands stored in the VRAM 1221, generates bitmap image data, deforms figures, shadows and shading, etc. It is configured to perform the color calculation of the image data and to write the generated image data to the frame buffers 122 and 123.
  • the frame buffers 122 and 123 are configured to be able to store the image data generated by the VDP 120.
  • the VRAM I31 is configured to be able to store image data of a background image, a data table necessary for realizing the functions of the VDP130, and the like.
  • the VDP 130 uses the window processing for setting the selection frame, the processing for adding shadows, the enlargement / reduction, rotation, and the like based on the image data stored in the VRAM 131, frame buffers 122 and 123.
  • Mosaic processing, moving processing, clipping and display priority The image processing of the hidden surface processing fl, such as the position processing, is performed, and the image data can be stored in the memory 32.
  • the memory 132 is configured to store the image data of the drawing river by the VDP 130 and to be able to output the data to the encoder 160.
  • the encoder 160 converts the image data for drawing stored in the memory 132 into a video signal format, performs DZA conversion, and supplies it to the monitor device 5 via the video output terminal Vo. It is configured.
  • the TV receiver 5 is configured to display an image based on the supplied video signal on a display unit.
  • the sound block 12 includes a DSP 140 and a CPU 141.
  • the CPU 141 is configured to be able to transfer the acoustic control program data and the waveform data transferred from the main CPU 101 to the DSP 140.
  • the DSP 140 has a built-in acoustic memory. Under the control of the CPU 141, waveform generation, delay data generation, and voice synthesis are performed by referring to the waveform data and the PCM sound source or FM sound source, and the generated audio data is converted to a DZA converter. It is configured to be able to output to 0.
  • the DSP 140 has functions such as frequency control, volume control, FM calculation, modulation, voice synthesis, reverb, etc. by these actions.
  • the D / A converter 170 converts the audio data generated by the DSP 140 into a two-channel signal, which can be supplied to the speakers 5a and 5b via the audio output terminal Ao. It is configured.
  • Subsystem 13 includes a CD-ROM drive 1b, a CD interface (IZF) 180, a CPU 181, an MPEG audio circuit 182, and an MPEG video circuit 183.
  • the CD-ROM drive b reads application program data, image data, sound control program data, and waveform data from the CD-ROM, and the CD interface 180 reads these data from the CPU.
  • the CPU 18 1 controls the MPEG audio circuit 18 2 and the MPEG video circuit 18 3 to provide high efficiency code compression according to the MPEG standard. It is configured to be able to decode the two images, i.e.
  • FIG. 3 shows a functional block diagram of an L-plane image processing system implemented by the game machine shown in FIG. Explaining FIG. 3 in contrast to FIG. 2, the image processing system 200 A is executed by the CPU block 10 (mainly the main CP 101), and the memory 200 0 B mainly consists of RAM 102 (and R 0 M 103 if necessary).
  • the CPU block 10 mainly the main CP 101
  • the memory 200 0 B mainly consists of RAM 102 (and R 0 M 103 if necessary).
  • operation data from the pad 2b is input to the image processing system 20OA.
  • various data can be taken from the memory 200B.
  • Image data, sound control data, and program data required for game processing are transferred from the CD-ROM or ROM memory to the memory 200B.
  • the memory 200B is configured to be able to store various data calculated by the image processing system 200A and the like.
  • the image processing system 200 A of the game machine 200 is provided with a display position determining means 201 for determining the front position of the cursor (S 400 shown in FIG. 4 described later). 1, equivalent to S 402), judgment object determination means 202 (corresponding to S 403 to S 409 described later) for determining a judgment display object (referred to as a target segment), The state of the judgment display object designated by the cursor, that is, the judgment object state judgment means 203 (corresponding to S411 described later) for judging whether or not the object can be caught, Next, the action selection means 204 (corresponding to S412, S413 described later) that allows the player to select the content to be taken from the processing means from the notifying means 201, 202, 204 Image output to control image output
  • the control means 205 and the control F of the second stage 205 include a display control means 206 for forming a video signal based on both the image data stored in the memory 200B.
  • the display control-T-stage (circuit) 206 takes out the image data GD stored in the memory 200B, forms a video signal, and supplies it to the TV receiver 5.
  • the li image output control means 205 and the display control circuit 206 are mainly realized by the CPU block 10, the video block 11, and the encoder 160.
  • the cursor used as an aim to capture a specific segment as a target is referred to as a “lock-on cursor”.
  • J Judgment object data HD is provided in step 202 of the judgment object.
  • the lock-on cursor data LCD is sent to the judgment means 203 of the state of the object to be judged, and the action data ACD is sent to the action selection means 204.
  • the details of the determination object data, the lock cursor shape determination data LCD, and the action data ACD will be described later with reference to a flowchart shown in FIG.
  • the image data GD is provided to the display control means 206.
  • the data of the pad 2 b, for example, the cross key 2 b b is given to the action selecting means 204.
  • the fourth is a flowchart showing the image processing operation in the image processing system.
  • 5 and 6 are explanatory diagrams showing examples of screens displayed on the screen of the TV receiver 5 by the image processing system processing the flowchart of FIG.
  • a role playing game in which segments are arranged and processed in a virtual space defined by tertiary vaults will be described as an example.
  • the video block 11 is operated and, for example, the screen 3 shown in FIG. 5A is displayed on the display unit of the TV receiver 5. 0 0 is displayed. At this time, it is assumed that a display object 310 that can be locked on is displayed in the screen 300. This The “lock on” process is described below.
  • FIGS. 5A and 5B are images viewed from the viewpoint of a model (for example, a segment simulating a person) in which the player can operate the metaphor.
  • a model for example, a segment simulating a person
  • communication such as conversation and movement can be exchanged with the question of an indicator 310 (this is also a segment that simulates a person virtually).
  • the state where it is determined to enter this mode in which communication is possible or the state where it is required to enter this mode is "lock on”.
  • the lock-on has almost the same content as “lock-on” in the aerial battle game described above.
  • lock-on means that the display object specified by the lock-on force is to be processed.
  • the display object is a person
  • the displayed object is something other than a person, such as a "treasure box”
  • the model operated by the player may be set as a target that should approach the treasure box and open the jewelry box. It will be done.
  • the lock-on force is generally referred to as a “sign”.
  • a series of actions taken to lock on such as bringing the model operated by the user close to the display object 310 or touching it, is referred to as “access”. Shall be defined.
  • the player operates the pad 2b to determine the display of the lock-on force (Step S401). For example, when a display object is displayed on the screen and the player desires communication with the display object 310, the lock-on cursor can be displayed. This selection can be made by pressing a predetermined button of the pad 2b. When the button is pressed, the access state, ie, lock-on mode, is provided to the player. When the lock-on force is determined to be displayed, the lock-on cursor, such as the fifth MB small, is displayed on the screen 301 displayed on the front and back of the TV receiver 5. LC is represented.
  • the lock-on cursor L C has a cross shape in this embodiment.
  • the lock-on cursor L C is not limited to this, and may be a square, a circle, or a corner.
  • the form of this force sol can change depending on the type of display. If you do not decide to display the rock-force LC, you must go through the flow chart of (S401; ⁇ 0;, Evil 4. In this case, for example, the character manipulated by the 3D space You can get close to the displayed object and communicate with the object.
  • the player If the lock-on cursor is selected to be displayed (S401; YES), the player operates the peripheral 2b to display the lock-on force LC in the screen 301 and indicates the arrow LC320. In the direction, and try to lock on the display object 310 (S402), ie, as shown in Fig. 5B, the player places the lock-on cursor on the display object 310. It is possible to move the force sol in the direction of the arrow 320 by operating the leaf-shaped key 2 bb of the pad 2 b shown in Fig. 1. In this case, only one pad 2b is required.
  • the display position determination means 201 realized by the main CPU 101 determines a fixed value determined by the lock-on force.
  • the range closure is calculated, and this is made to RAMI 02; ⁇ (S402). That is, for example, the coordinates of the screen within a circle connecting the tips of the crosses of the lock-on cursor L C can be set to this range 11.
  • this range will be referred to as a mouth-on-force determination range.
  • Step 4 03 One image data of the object in the virtual space defined by the dimension is converted from the position of the viewpoint ⁇ and the direction of the line of sight to image data defined by the coordinates of the visual field coordinate system, and then this image data is perspective Projection (perspective transformation) and conversion to image data defined by secondary vertex coordinates.
  • the objects are a person 310, a building 310A, a background 310B resembling a mountain range, and the like. These are displayed as two-dimensional images on the screen of the TV receiver, as shown in FIG. Normally, a background image is indicated by image data defined by two-dimensional coordinates, and other segments such as display objects are composed of polygons.
  • step 404 it is determined whether or not the lock-on cursor range includes the one-dimensional display position of the display object on the display screen h. For example, it is determined whether or not there is a whole or part of the graphic between the mouth cursor and the eclectic object. In this determination, when it is determined that the display object 310 is not within the control force sol determination range (S404; NO), the process returns to step 403. In addition, in order to facilitate this overlap determination, it is possible to replace the display object with a simple model such as a circle or an ellipse, and determine the degree of 3 ⁇ . If the determination in step 404 is affirmative, the distance from the viewpoint (camera) to the display object in the three-dimensional coordinate system is calculated. The display object whose distance is to be calculated in this way is referred to as a determination object.
  • Steps 404 to 409 the determination display object to be locked on is determined.
  • the principle for determining this determination object will be described.
  • FIG. 11 is a schematic diagram showing an arrangement of a display object in a virtual space.
  • the reference numeral 3 0 is a display object corresponding to the person described above, and 3 0 Z and 3 3 0 Z are display objects, Actually, it is a ⁇ 'object (for example, a wall) that should not be locked on, S is a sight,' (provisionally, hereafter referred to as a camera in the sense that it captures a space), and 31 to 52 are The distance from the viewpoint S to each display object is reduced.
  • FIG. 12 is a screen displayed by the TV receiver, viewing each of these objects from the viewpoint S.
  • Steps 405 to 410 are steps for judging this. In this description, it is assumed that there is an obstacle in front of the person as in the case where the person is aimed from the viewpoint S in FIG. 11.
  • step 405 distances S1 to S3 (see FIG. 11) between the viewpoint and each display object are calculated with reference to the position data of each display object and the position data of the viewpoint. This distance is calculated, for example, as the distance between the center of the displayed object (geometric center of gravity) and the viewpoint.
  • Step 406 first, the person 310 is set as a temporary judgment display object.
  • the distance S2 between the wall 320Z and the viewpoint and the distance S3 between the person and the viewpoint are compared. Since S 2 is smaller than S 3 (S 406; YES), that is, since the wall 320 Z is in front of the person 310, the temporary judgment object or the person 3 10 to the wall 3 2 The value is changed to 0Z (S407).
  • the process proceeds to step 408, and these processes are executed for all the displayed objects.
  • the wall 330Z becomes a temporary judgment object (S409). In other words, the closest judgment object viewed from the viewpoint S is determined.
  • step 405 the initial tentative object is set to the person 310, which may be set to any of the walls 320Z and 330Z. Regardless of the displayed object, the wall 330Z is finally determined as a temporary object, and the process proceeds to step 409. If the wall 330Z is used as the initial provisional judgment, in step 407, the provisional judgment is not changed to another object (310Z is 3200Z). It should be noted that a flag may be set in the data group of the closest-judgment object (330Z) to reduce the fact that it is the closest-judgment object.
  • the viewpoint is at the position of the viewpoint S S in FIG. 11, the person 310 is determined to be the final judgment (the closest judgment).
  • the judgment object data in FIG. 3 corresponds to, for example, the distance from the viewpoint of the display object described here, a flag indicating that the object is the closest judgment object, and the like.
  • step 410 it is determined whether or not the closest determination object can be locked on.
  • the purpose of the lock-on is to achieve communication with the displayed object (for a mouth-playing game). Therefore, walls that are still life are not treated as lock-on targets. In this case, the process returns to step 401 and lock-on processing is not performed.
  • the approach determination object may be treated as a lock-on target.
  • Step 4 1 1 Therefore, the display form of the lock-on cursor is to be changed from the already described cross-section. For example, if the lock-on object is a friendly model that has no relationship with the player on the game program, a circular lock-on cursor is used. ) To indicate the lock-on cursor of the shape.
  • lockon cursor type determination data LCD of the third type refers to this kind of data such as flags. 3 ⁇ 4
  • Step 4 12 is to determine the force that allows the player to lock on, i.e., whether or not the completion of the mouth acknowledgment has been confirmed by the player by pressing a predetermined button on the pad 2 b. .
  • the lock-on force is overlapped with the person 3 10 0 which is the object, this person is determined to be the closest judgment object, and it can be mouthed in step 4 10
  • the lock-on cursor is placed in the center in step 4 11 and a cross is placed around the lock-on cursor, and the brackets are placed around the lock-on cursor as a general bracket LC.
  • step 401 When the player operates the pad 2b to turn on the lock-on (S412; N0), the flow returns to step 401.
  • the brightness of the lock-on cursor is increased as shown in the screen 303 of FIG. 5D. Let the player know that lock-on is complete.
  • step 4 13 the screen shifts to the screen 304 of FIG. 6. Form (3 1 1 and 3 1 2 are displayed on the screen.
  • the player selects a desired action by selecting an icon in the selection using the cross key of the pad or the like.
  • Greetings displayed on the options include greeting from a distance (icon 311) or approaching the building and saying hello (icon 312). Can be set appropriately according to the story of the game.
  • the icon 3 1 1 the model 3 3 0 operated by the player is displayed on both sides, From a distance to the person as the object to be judged, a screen 305 is displayed from which the user is greeted with “Hello!” And accessed (Fig. 6B). The data for developing the action selected by the icon on the screen.
  • FIG. 6C a screen shown in FIG. 6C viewed from the viewpoint of the model operated by the player is displayed on the screen of the 06 TV receiver 5.
  • This I-plane 306 is displayed in a state where the model operated by the player raises the display 310 by ⁇ from below.
  • the display object 310 says "Hello, how are you! (Displaying the message), and you can communicate with each other.
  • the model operated by the user and the person 310 are three-dimensional coordinates 1: even if they do not come into contact with each other, and even if they are not skilled in operation, they can easily and quickly capture the target. It is possible to do.
  • FIG. 7 shows a display example when the present invention is applied to a game.
  • Fig. 7 (1) shows a display example in which the model 330a operated by the player and the display object 310a are separated from each other.
  • FIG. 7B shows a display example in which the model 330 a operated by the player and the display object 31 Ob are approaching.
  • the relationship between the model 330a and the display object 310a will be described with reference to FIG. 7A.
  • C First, the character 330a and the display object 310 on the screen of the TV receiver 5 will be described. It is assumed that a screen 350 is displayed in which a and are separated from each other. The player decides to display the Mouth Kwon Power Sol. Operate head 2b. Thereby, the flowchart of FIG. 4 is executed by the image processing system 200A of FIG. Next, the player moves the lock-on cursor LC and locks on the display object 310a. Try. As a result, if lock-on is possible, the table / lower item 3] 0a is locked on. As a result, as shown in FIG.
  • the model 3330a operated by l Li in the image [350] and the display object 31 1a become accessible.
  • the model 330a is said to be “Cheer!” Toward the display object 310a, and the display object 310a is You can display the picture [ ⁇ 350], which answers "Yo!
  • FIG. 7B shows the west side 351 of FIG. 7B showing the state 3 ⁇ 4 ′ of the plane 350 of FIG. 7iA, which shows a state in which communication has progressed. That is, after the model 330a greets the person 310a as a display object from a distance (Fig. 7A), the model 330a comes closer and the model 310a becomes the person 310b! !: In addition, “actually " is called, and the conversation with the person 310b, "Humhum,” starts.
  • Fig. 8 shows another example of communication.
  • the three objects 3 10, 3 10 d Screen 3 5 2 is displayed.
  • the player has locked on two display objects 3110c and 3110d.
  • FIG. 10A shows a screen at a certain time
  • FIG. 10A shows a screen when a certain time has elapsed from that time.
  • the distant display object 310 f is directed to the player.
  • the corresponding model 330 d is called in, and the image [354] is shown.
  • the player locks on a far-field object 310f.
  • a lock-on force LC is displayed at the center of the screen, and the screen 301 is set so that the cursor cannot be moved from this position.
  • the direction of the line of sight is toward the other side of the road via the position of the mouth-on cursor.
  • the position of the viewpoint to be changed in view is changed in accordance with the operation.
  • the lock-on cursor LC relatively moves in the direction of the arrow 320.
  • the lock-on cursor can be adjusted to the position of the person 310. This operation is similar to the aiming operation in the so-called "Flytoshumi Yule".
  • the position of the viewpoint is set to the viewpoint of the model operated by the player. It will be the same, and the image seen from this model will be displayed.
  • the position of the viewpoint does not match the position of the viewpoint of the model, it may be set so as to follow the movement of the model while maintaining a fixed positional relationship with the model (for example, above and behind the model). No.
  • the lock-on cursor L C since the position of the lock-on cursor is fixed on both sides, it is not necessary to particularly display the cursor. In other words, it is sufficient for the player to operate the player in such a manner that the object in the center of the screen can always be aimed. Even when the lock-on cursor L C is displayed, the lock-on cursor L C may be displayed at all times in addition to being displayed only when trying to lock on as in the above embodiment.
  • the ad venture game It may be an action game.
  • the following processing can be selected when the condition that the segment can be captured is satisfied. Therefore, by selecting the processing, it is possible to provide various processing contents.
  • the present invention it is possible to bring about a change in the image display of the sign used for capturing. Therefore, the monotony of the operation to be captured can be eliminated. Also, according to the present invention, in a virtual space defined in three dimensions, even if the sign and the segment do not overlap each other, it is possible to make it easy to detect.
  • the segment to be captured at the most is specified by referring to the distance. Capture is possible even when a plurality of segments are arranged close to each other. Therefore, if there are multiple segments from a given viewpoint in the virtual space, the segment that is also close to the 3 ⁇ 4 point is determined as the U target, and then this target is captured. By determining whether or not there is an obstacle, if there is an obstacle around the segment to be captured, it is possible to prevent a segment hidden by the obstacle from being captured.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

明 細 書 像処理装置、 ゲーム機、 画像^示方法および記録媒体 技術分野
本発明は、 いわゆる仮想的な三次元座標空問に配置したモデルの画像を生成す る画像表小-技術に係り、 特に、 仮想空間内の複数のモデル問で会話等をさせる対 話型ゲームにおいて、 捕捉対象を容易に特定することのできる技術に ί する。 背景技術
近年のコンピュータグラフィックス技術の発達に伴い、 ビデオゲーム機ゃシミ ユレ一シヨン装置などの画'像処理装蹬が広く一般に普及するようになってきてい る。
特に、 複数のセグメントを配置した三次元空間を所定の視点から捕らえ :次兀 画面に展開してモニタに ¾示する形式のゲーム装置は、 商品価値が高い。 例えば、 ロールプレイング (Rol l playing) ゲームといわれる対話型のゲーム装置では、 遊技者 (player) が入力装置を動かすことにより、 特定のセグメント (以下モデ ルという) を仮想空間内で移動させる。 このモデルは、 仮想空間内に配置された 他のセグメン卜 (人間を表わしたもの、 あるいは宝箱を表わしたもの;以下 「 標物」 という) に接近し、 このモデルと目標物との間で意思疎通を行う。 意思疎 通とは、 例えば、 モデルと目標物である人との間で言葉を交わす 「会話」 を行う ことや、 目標物である宝箱を開ける等の相互動作を行うことをいう。 意思疎通を 行うか否かは、 モデルと目標物とが接触しているかどうかを判定する接触判定等 によって判断することになる。
従来のロールプレイングゲームでは、 二次元で定義された仮想空間で行われて t、た。 仮想空間が二次兀なので、 ¾示 面上のモデルと I ]標物とのみかけの距離 が、 モデルと 標物とのゲーム ½開上の距離であり、 遊技者は :感的に両^の位 g関係を把握することができた。
しかしながら、 上^のように、 三次元でモデル の位置を特定するゲーム装^ では、 現実の世界に存在しているようにモデルや目標物を観察することができる ので、 表示両面上接触していなくても、 .いの位 {S関係から兄て明らかに相手を ½通せるような状態が出現しうる。 このような場合にも、 従来の二次 で定義さ れたゲーム装置のようにモデルと目標物を接触しなければ意思疎通ができないと いうのでは、 現実感に欠け、 ゲームを面白くないものにしてしまう。
仮に接触させることを意思疎通の条件にした場合、 以 の不都合が生じる。 通常、 二次元で定義されたゲーム装 ISでは、 見通しをよくするために、 モデル の視点から離れた位置に、 仮想空間を観察する視野変化の視点を設定する。 モデ ルと 標物との間に障害物が配置される場合、 視野変換の視点からはモデルも目 標物も見えるのに、 モデルの視点からは H標物が見通せないという状況である。 このようば場合はモデルは Π標物の方向へ移動できな 、のが道理であるから、 モ デルに対し、 障害物を超えて移動できないように制御するか、 モデルが目標物に 接触できない旨の表示が必要になってしまう。
さらに、 三次元で仮想空間を定義すると、 画面の奥ゆき方向(視点座標系の Z 軸方向)の座標が異なると、 例えば仮想空 \'ύ]内の平面に対し真上からモデルと S 標物を観察しているような場合、 モデルと目標物との座標値 (高さ) に差があつ ても表示画面上にその差がほとんど現れないため、 モデルを目標物に接触させる ように操作するのが困難になると予想される。
また、 さらに、 モデルを目標物に近づけたとしても、 モデルが目標物に向き合 うように、 モデルの向きを変える必要もでてくる。
すなわち、 三次元で定義されたセグメントをモニタに ¾示するために二次元座 標に変換する透視変換を行うゲーム装置では、 最初から二次兀で定義されたロー ルプレイングゲームに用いていた方法を適用すると、 上 のような稀々の不都合 が生ずると考えられる。
方、 次儿で^義されたゲーム装^で 標物を特定する方法として、 従来の 空中戦を模擬したゲーム機等で利用される、 公知の照準固定 (すなわち、 ある目 標物を攻撃対象として捕捉すること。 以下、 「ロックオン」 ともいう) の技術が ある。 そこで、 この技術を利用して、 遊技者が意思疎通したい f !標物にカーソル を重ねて口ックォンするようにすることも考えられる。
しかしながら、 このような従来の空中戦を模擬したゲーム機は、 ^を真似た仮 想空間内での空中戦を模擬するものであるから、 標物である敵機とモデルであ る自機との間に障害物が存在しないことを前提としている。 このため、 この種の 空中戦を模擬したゲーム機は、 力 ―ソルが敵機に重なつたか否かのみを判定して t、るに過ぎず、 障害物が攻撃が妨げられるか否かの判断までは行つていなかった したがって、 モデルと目標物との間に障害物が存在することを想定したゲーム 装置には、 この従来のロックオンする技術をそのまま適用することができない。 また、 従来のロックオンの技術は、 表示物にカーソルを単に固定するだけの単 調な表示であり、 変化に乏しい画像となっていた。 発明の開示
そこで、 本発明は、 仮想空間に配置されるセグメン卜に対し、 捕捉できる状態 にあるか否かを判断できるようにした画像処理技術を提供することを目的とする すなわち、 本発明の第 1の課題は、 セグメントが捕捉できる位置にある場合で あっても、 さらに追加の条件を判断することである。
また本発明の第 2の課題は、 セグメン卜が捕捉できる条件を満たしている場合 に、 次の処理を選択できるようすることである。 また本発明の第 3の課題は、 捕捉に川いる標識の画像表 に変化をもたらすこ とである。
また本発明の第 4の課題は、 二次兀で定義された仮想 問における靳たな捕捉 の形態を提供することである。
また本発明の第 5の課題は、 二次元で定義された仮想空間において複数のセグ メ ン卜が捕捉可能な場合に、 実際に捕捉するセグメン 卜を特定する方法を提供す ることである。
すなわち、 本発明の第 1の課題を解決する発明は、 仮想空間内に配置されるセ グメントを両像表示するための画像処理装置、 その方法またはそれを実現するプ ログラ厶デ一夕が ί!己録された 録媒体であって、
操作信号に基づいて表示画面上に表 する標識の表示位置を決定する表示位置 決定手段 (工程) と、
前記表示位置決定手段 (工程) により決定した標識が、 前記 1標となるセグメ ン卜に対し所定の位置関係にあるという条件を満たすか否かを決定する位置関係 決定手段 (工程) と、
前記位置関係決定^段 (工程) により前記標識が前記目標となるセグメ ン トに 対し所定の位置関係にあると决定された場合に、 さらにこの目標となるセグメ ン 卜が捕捉可能な条件を備えるか否かを判断する状態判断手段 (工程) と、 前記標識を表示するとともに、 前記状態判断手段 (工程) により前記目標とな るセグメン卜が捕捉可能な条件を備えると判断された場合に、 捕捉した旨を示す 画像を表示する画像表示手段(工程)と、 を備える。
なお、 標識とは、 表示画面上において特定の位置を示すために使用されるカー ソル等をいう。 セグメントとは、 例えばポリゴンにより構成され、 一体として移 動可能な表示要素の集合体をいい、 人物や物 (宝石箱) 等を模擬した形態を備え る被表示体のことをいう。 ここで、 表示位 決定^段 (工程) 、 位置関係決定手段 ( I:程) および状態判 断手段 (工程) は、 処理回路に相当する。 凼'像 示手段 に「.程) は、 画像 ^示 M 路に相当する。
本発明によれば、 セグメン卜に対する捕捉がセグメン卜に対して可能か かを 的確、 容 、 迅速に判断できるようにした両像処理装置を提供することができる c したがって、 この面 ί像処现装置を、 例えば、 仮想空間内に対話型ゲームを模擬し たゲーム機に適用した場合では、 门標とするセグメン卜が捕捉できる条件を備え るか否かが的確に判断される。
特に、 仮想空問には前記操作信号に ¾づいて操作されるセグメン I、が表示され、 標となるセグメン卜が捕捉可能な条件を備えると判断された場合に、 操作 号 に基づいて操作されるセグメン 卜と II標となるセグメン卜との相互閱係を示す画 像を表示するようにすることは好ましい。
また、 位置関係決定手段(「工程) により決定される条件を、 表示画面上、 標識 と【::1標となるセグメン卜が重なっていることにするのは好ましい。
さらに、 状態判断手段(「工程) により判断される捕捉可能な条件を、 L1標とな るセグメン卜が画像表示手段(「工程) の処理対象であるか否かに設定することは 好ましい。
上記第 2の課題を解決する発明は、 目標とするセグメン卜が捕捉可能であった 場合に、 次にとるべき行動を示す複数の選択枝を表示する行動選択手段(「工程) をさらに備え、 画像表示手段(「工程) は、 行動選択手段(「工程) により表示され た選択枝に対応した入力された操作借号に基づいて、 ^像を表示する。
上記第 3の課題を解決する発明は、 目標とするセグメントの種類に応じて、 標 識の表示形態を変更する。
上記第 4の課題を解決する発明は、 前記標識と前,!己目標とするセグメ ントとの 距離に応じて、 兩像表示の內容を変更する。 上^第 5の課題を解決する発明は、 β¾の周! IIに設定した判定盹闕に ¾なって いるセグメン 卜の各々について 像^示のための視点との距離を;汁^し、 卜¾さ れた距離が最も短.いセグメン卜を前 £条件を満たす Π標とするセグメ ントとして 決定する。 したがって、 仮想空間内の所定の視点から視て複数の^ 物が重なつ て存在する場合、 視点に対して最も近いセグメン卜を 0標として決定し、 次いで この Η標が捕捉可能であるか否かを判定するように構成することにより、 捕捉す べきセグメン卜の周りに障害物があった場合、 障害物に隠れるセグメ ン卜を捕捉 してしまうことを防止できる。
なお、 ^録媒体とは、 何等かの物理的手段により情報 (主にデジタルデータ、 プログラム) が d録されているものであって、 コンピュータ、 :用プロセッサ等 の処理装^に所定の機能を行わせることができるものである。 要するに、 何等か の手段でもってコンピュータにプログラムをダウンロードし、 所定の機能を ¾行 させるものであればよい。 例えば、 フレキシブルディスク、 固定ディスク、 磁気 テープ、 光磁気ディスク、 C D— R O M、 D V D、 R O M力一卜リ ッジ、 バッテ リノくックァップ付きの R A Mメモリカートリ ッジ、 フラッシュメモリ力一トリ ッ ジ、 不揮発性 R A M力一トリ ッジ等を含む。
有線または無線の通信回線 (公衆回線、 デ一夕専用線、 衛 回線等) を介して ホストコンピュータからデータの転送を受ける場合を含むものとする。 いわゆる ィンタ一ネッ トをここにいう記録媒体に含まれるものである。 図面の簡単な説明
第 1図は、 本発明の画像処理装置を適用した T Vゲーム機の実施の形態の全体斜 視図である。
第 2図は、 同 T Vゲーム機の概略構成を示すブロック図である。
第 3図は、 同 T Vゲーム機の ί 像処理系を示す機能ブロック図である。 第 4冈は、 同 TVゲーム機で処现される画像処 ί のフローチヤ一 卜である。
第 5図は、 同フローチヤ一卜で処现される際に TV受像機のスク リーン I·.に表小 される画而を示す闵である。
第 6図は、 同フローチヤ一卜で処理される際に TV受像機のスクリーン上に表示 される Ιϋ面を小す図である。
第 7図は、 同画像処现系を応用して作成できる幽 ΊίΠの例を小す図である。
第 8図は、 同両像処理系を応用して作成できる阿面の例を示す図である。
第 9図は、 同画像処理系を応用して作成できる画面の例を示す図である。
笫 1 0図は、 同 1面像処理系を応用して作成できる画面の例を示す である。
第 1 1図は、 仮想 問內における判定表示物の配置を示す概念図である。
第 1 2¾は、 第 1 1図の視点 Sから視た画面を示す図である。
第 1 3図は、 第 1 1図の視点 S Sから視た画面を す図である。 発明を実施するための最良の形態
以ド、 本発明の好適な実施の形態を図面を参照して説明する。
以下、 本発明の実施の形態の一例を第 1図 1乃至第 6図を参照を参照しながら 説明する。 この実施形態は、 本発明の画像処理装置を家庭用の TVゲーム機に適 用したものである。
(装置構成)
第 1図は、 本発明に係るゲーム機の外観を示す斜視図である。 第 1図に示すよ うに、 本形態のゲーム装置は、 ゲーム装置本体 1、 パッ ド 2 bおよびモニタ装置 5を備えている。
ゲーム装置本体 1は、 その內部に、 本発明の画像音声処理装 ?:が収められてい る。 その外装には、 ROMカートリ ッジ接続 fflのインタ一フェース ( I /F) 部 l a、 CD— ROM読取用の CD— ROMドライブ 1 bが設けられている。 ノヽ°ッ ド 2 bは、 十 カーソル 2 b bゃ 数の操作ボタンを備え、 遊技者の操作に ¾づ いて操作信号を^成可能に構成される。 そして、 この操作信号がケーブル 2 cを 介してコネクタ 2 aに供給" J"能に構成されている。 パッ ド 2 bは、 コネクタ 2 a によりゲーム装置本体 1に着脱可能に設けられ、 二人の遊技者が同時に操作する ために二つのパッ ドが接^可能に構成される。 なお、 パツ ドの代わりに、 マウス、 リモコン、 キーボード等を接続して構成してもよい。 モニタ装置 5は、 ビデオケ —ブル 4 aおよびオーディオケーブル 4 bを介して、 ゲーム装置本体 1の図示し な t、ビデオ出力端子 V 0およびオーディオ出力端子 A 0に接続されて構成されて いる。
第 2 Iに、 本発明の i了像処理装置を適用したゲーム装^のプロック図を示す。 第 2図に示すように、 本ゲーム装 i は、 C PUブロック 1 ϋ、 ビデオブロック ] 1、 サゥンドブロック 1 2およびサブシステム 1 3により構成される。
( C P Uブロック)
C PUブロックは、 プログラムにしたがってゲーム処理を進めるとともに、 本 発明の画像処理を制御するものであって、 S C U (System Control Unit) 1 0 0、 メイン C PU 1 0 1、 RAM I 02, ROM 1 03、 サブ C PU 1 04およ び C P Uバス 1 05等により構成されている。
メイン C PU 1 0 1は、 その内部に D S P (Digital Signal Processor) を備 え、 C D— ROM 1から転送されたプログラムデータに基づく処理を高速に実行 可能に構成されている。 RAM 1 02は、 C D— R 0M 1から読み取られたァプ リケーシヨンソフ トのプログラムデータ、 音響制御プログラムデータ、 波形デ一 夕、 MP E G画像復号時のワークエリアおよび C D— R〇 M復号時の誤り訂正用 デ一夕キャッシュとして使用可能に構成されている。 ROM1 0 3は、 当該装攛 の初期化処理のためのイニシャルプログラムデータが格納可能に構成されている。 S C U 1 00は、 ノくス 1 05、 1 06および 1 07を介して行われるデータの転 送を統括 "J能に構成されている。 また、 S C U 1 0 0は、 内部に DMAコント口 ーラを備え、 ゲームの实行-中に必要になる画像デ一クをビデオブロック 1 1內の V R AMへ転送可能に、 音^制御プログラムデ一タおよび波形データをサゥン ド プロック 1 2に転送可能に構成されている。
サブ C P U 1 04は SMP C (System Manager & Peripheral Control) と呼 ばれ、 メ イ ン C P U 1 0 1の ¾求に応じパッ ド 2 bからの操作 号を収集" ί能に 構成される。
(ビデオブロック)
ビデオブロック 1 1は、 本発 Hjjの ¾像処理を実行可能なように、 VDP (Vide Display Processor) 1 2 0、 V D P I 30、 V R AM 1 2 1 , フレームバッ ファ 1 2 2、 1 23、 VRAM 1 3 1およびメモリ 1 32を備えて構成されてい る。
VRAM 1 2 1は、 メイン C P U 1 0 1により S CU 1 00を介して転送され た描画コマンドを格納可能に構成されている。
VDP 1 20は、 VRAM 1 2 1に格納された描画コマンドに基づいて、 ポリ ゴンデ一夕あるいはビッ トマップデータに基づく ビッ トマップ形式の画像デ一夕 の生成、 図形の変形、 影やシェーディ ング等の色演算等を行い、 生成した画像デ —夕をフレームバッファ 1 22および 1 23に書込み可能に構成されている。 フレームバッファ 1 2 2および 1 2 3は、 V D P 1 20により生成させられた 画像デ一夕を格納可能に構成されている。
V RAM I 3 1は、 背景画像の画像データ、 VD P 1 30の機能実現に必要な データテーブル等を格納可能に構成されている。
V D P 1 30は、 V R AM 1 3 1、 フレー厶バッファ 1 22および 1 23に格 納された画像データに基づいて、 選択枠を設定するウィン ドウ処理、 影をつける 処理、 拡大 ·縮小、 回転、 モザイク処理、 移動処理、 クリ ッビングや表示優 ¾順 位処理等の陰面処 fl、 の,'像処理を行い 示 像データをメモリ 〗 32に格納 可能に構成されている。
メモリ 1 32は、 V D P 1 30により描画川両像デー夕が格納され、 ェンコ一 ダ 1 60に出力可能に構成されている。
エンコーダ 1 6 0は、 メモリ 1 32に格納されている描画用画像デ一夕をビデ ォ信 のフォーマツ 卜に変換し、 D ZA変換してビデオ出力端 V oを経てモニタ 装置 5へ供給可能に構成されている。
TV受信機 5は、 供給されたビデオ 号に基づいた画像を表示部に表示 nj"能に 構成されている。
(サゥンドブロック )
サゥンドブロック 1 2は、 D S P 1 40と、 C PU 1 4 1とにより構成される。 C PU 1 4 1は、 メイン C PU 1 0 1から転送された音響制御プログラムデー 夕および波形デ一夕を D S P 1 4 0に転送可能に構成されている。 D S P 1 4 0 は、 音響メモリを内蔵して構成されている。 そして C P U 1 4 1の制御により、 波形デ一夕を参照して P CM音源または FM音源による波形発生、 遅延デ一夕の 生成、 および音声合成を行い、 生成した音声データを DZ Aコンバータ ] 7 0に 出力可能に構成されている。 D S P 1 4 0は、 これらの作用により周波数制御、 音量制御、 FM演算、 変調、 音声合成、 リバーブ等の機能を備えている。 D/A コンバ一夕 1 70は、 D S P 1 4 0によって生成された音声デ一夕を 2チヤンネ ルの信号に変換し、 オーディオ出力端子 A oを介してスピーカ 5 aおよび 5 bに 供給可能に構成されている。
(サブシステム)
サブシステム 1 3は、 CD— ROMドライブ 1 b、 CDイン夕一フェース ( I ZF) 1 80、 C PU 1 8 1、 MPE Gオーディォ回路 1 82および MP E Gビ デォ回路 1 83を備えて構成されている。 C D— R O M ドライブ ] bは、 C D— R O Mからアプリケーショ ンソフ 卜のプ ログラ厶デ一夕、 【 像データ、 音響制御プログラムデ一夕および波形データを読 み取り、 C Dインターフヱース 1 8 0はこれらを C P Uブロック 1 ()に供給" ί能 に構成されている。 また、 C P U 1 8 1は、 M P E Gオーディオ回路 1 8 2およ び M P E Gビデオ回路 1 8 3を制御して、 M P E G規格により高能率符 圧縮化 された両像デ一夕および f?デー夕を複号化可能に構成されている。
第 3図は、 第 2図に示すゲーム機によって実施される L面像処理系を機能ブ口ッ ク同で示したものである。 第 3図を第 2図に対照して説明すると、 画像処理系 2 0 0 Aは、 C P Uブロック 1 0 (主としてメイン C Pし' 1 0 1 ,) によつて実丄 j さ れ、 メモリ 2 0 0 Bは主として R A M 1 0 2 (必要に応じて R 0 M 1 0 3も) 力、 ら構成される。
第 3図に示すように、 画像処理系 2 0 O Aには、 パッ ド 2 bからの操作データ が入力されている。 またメモリ 2 0 0 Bから各種のデータが取り込めるようにな つている。 このメモリ 2 0 0 Bには、 C D— R O Mや R O M力一トリ ッジからゲ —厶処理に必要な画像データ、 音響制御デー夕およびプログラムデータが転送さ れている。 また、 メモリ 2 0 0 Bには、 画像処理系 2 0 0 Aで算出した各種のデ 一夕等も記憶可能に構成されている。
第 3図に示すように、 ゲ一ム機 2 0 0の画像処理系 2 0 0 Aは、 カーソルの表 位置を決定する表示位置決定手段 2 0 1 (後述の第 4図に示す S 4 0 1 , S 4 0 2に相当) 、 判定表示物 (目標となるセグメ ン トをいう) を決定する判定物決 定手段 2 0 2 (後述の S 4 0 3乃至 S 4 0 9に相当) 、 カーソルが指定している 判定表示物の状態、 すなわち、 捕捉して良い対象か否かを判定する判定物状態判 断手段 2 0 3 (後述の S 4 1 1に相当) 、 捕捉されたときに次に遊技者が採れる 内容を選択できる行動選択手段 2 0 4 (後述の S 4 1 2 , S 4 1 3に相当) 、 記手段 2 0 1、 2 0 2、 2 0 4からの処理結果から画像出力を制御する画像出力 制御手段 2 0 5およびこの于-段 2 0 5の制御 Fにメモリ 2 0 0 Bに格納された両 像データを½に映像信号を形成する^示制御手段 2 0 6とを備えている。
表示制御- T-段 (回路) 2 0 6は、 メモリ 2 0 0 Bに格納されている画像デ一夕 G Dを取り出して映像信 を形成し、 T V受像機 5に供給する。 li 像出力制御手 段 2 0 5及び表示制御回路 2 0 6は、 主に、 C P Uブロック 1 0、 ビデオプロッ ク 1 1、 及びエンコーダ 1 6 0より'宪現されている。
以下、 特定のセグメントを目標として捕捉するために照準として使用するカー ソルを 「ロックオンカーソル」 と称する。
fi;J 判定物の決^ 段 2 0 2には、 判定物データ H Dカ えられる。 ロックォ ンカーソルデータ L C Dは判定物の状態の判断手段 2 0 3に ' えられ、 ァクショ ンデータ A C Dは行動選択手段 2 0 4に えられる。 なお、 判定物データ、 ロッ クォンカーソル形状判別データ L C D及びァクションデ一夕 A C Dの內容につい ては、 後述の第 4図に示すフローチャートの説明する。 画像データ G Dは、 ^示 制御手段 2 0 6に与-えられる。 パッ ド 2 bの例えば十字キー 2 b bのデータは、 行動選択手段 2 0 4に与えられる。
次に、 本実施の形態の動作を説明する。 第 4 は上記画像処理系における画像 処理動作を示すフローチャー トである。 また、 第 5図及び第 6図は、 当該画像処 理系が第 4図のフローチヤ一卜を処理することにより T V受像機 5のスクリーン 上に ¾示される画面の例を示す説明図である。 なお、 ここでは、 三次兀で定義さ れた仮想的空間内でセグメ ン 卜を配置して処理されるロールプレイングゲームを 例にとって説明する。
まず、 C P Uブロック 1 0力、 アプリケーシヨ ンソフ トウエア (ゲームプログ ラム) を実行することにより、 ビデオブロック 1 1が動作して T V受像機 5の表 示部上に例えば第 5図 Aに示す画面 3 0 0が表示される。 このとき、 その画面 3 0 0内にロックオンできそうな表示物 3 1 0が 示されているものとする。 この 「ロックオン」 処理を説明すると、 次のとおりである。
第 5図 Aおよび第 5図 Bの阿而を遊技者が操作できるモデル (例えば、 人物を 模擬したセグメント) の視点から観た影像であるとする。 このモデルは、 会話や 動作等の意思疎通を^示物 3 1 0 (これも仮想的に人物を模擬したセグメン卜と する。 ) との問で交わすことできる。
このとき、 この意思疎通できるモードに入ることが決定された状態或し、はこの モードに入ることが要求された状態が 「ロックオン」 である。 ここで、 ロックォ ンとは、 既述のような空中戦シユ ミ レ一シヨンゲ一ムにおける 「ロックオン」 と ほぼ同様な内容である。
すなわち、 ロックオンとは、 ロックオン力一ソルによって指定された表示物が 処理の対象とされること、 例えば、 表示物が人物の場合は、 遊技者が操作にによ り表示物に接触し或いは接近し、 会話を開始したり、 或いは動作を開始したりす る 標になることである。 また、 表示物が 「宝箱」 のような人物以外の事物であ る場合は、 遊技者が操作するモデルがこの宝箱に近づいて宝石箱の蓋を開けたり する等の動作をすべき目標としてとされることを云う。
本発明では、 ロックオン力一ソルのことを総称して 「標識」 と表現している。 なお、 例えば、 この意思疎通を採るために、 己の操作するモデルを表示物 3 1 0に近づけたり、 これと接触したりする等、 ロックオンするために採る一連の行 動を 「アクセス」 と定義することとする。
遊技者は、 パッ ド 2 bを操作して、 ロックオン力一ソルの表示を决定する (ス テツプ S 4 0 1 ) 。 例えば、 画面に表示物が表示されており、 この表示物 3 1 0 との意思疎通を遊技者が希望する場合は、 このロックオンカーソルを表示するこ とができる。 この選択は、 パッ ド 2 bの所定の釦を押下することにより可能であ る。 釦がが押下されたら、 アクセス状態、 すなわちロックオンモードが遊技者に 提供される。 ロックオン力一ソルが表示することを決定すると、 T V受像機 5の表小-部ト.に 表不される画'面 3 0 1内に、 第 5 m B小'すようなロックオンカーソル L Cが表 される。
このロックオンカーソル L Cは、 この^施の形態では、 十字状の形状のもので あるカ^ これに限らず四 ί や丸や 角の形状であってもよい。 後述のように、 表 示物の種類によって、 この力一ソルの形態を変史することができる。 なお、 ロッ クォン力一ソル L Cの表示決 をしない場合には ( S 4 0 1 ; Ν 0; 、 凶 4のフ ローチャートを抜ける。 この場合は、 例えば、 が操るキャラクタ 身を 3次 元空間内で表示物に接近させて、 物との問でコ ミュニケーションを採ること ができる。
ロックオンカーソルを^示することが選択された場合 ( S 4 0 1 ; Y E S 、 プレーヤは、 ペリフヱラル 2 bを操作して画面 3 0 1内のロックオン力一ソル L Cを図示矢印 3 2 0の方向に移動させて、 その表示物 3 1 0へのロックオンを試 みる (S 4 0 2 ) 。 すなわち、 第 5図 Bに示す如く、 遊技者は、 表示物 3 1 0に ロックオンカーソルを重ねるように、 第 1図に示すパッ ド 2 bの叶-字キ一 2 b b を操作して、 力一ソルを矢印 3 2 0の方向に移動させることができる。 なお、 - 人で遊技する場合は、 パッ ド 2 bはどちらか一台あれば良い。
そして、 メイン C P U 1 0 1によって実現される表示位置決定手段 2 0 1は、 表示物を指定するロックオンカーソル L Cの表示位置が決定されたときに、 当該 ロックオン力一ソルで判定される一定範閉を算出し、 これを R A M I 0 2に; 惊 させる ( S 4 0 2 ) 。 すなわち、 例えば、 ロックオンカーソル L Cの十字の先端 を結ぶ円内の画面の座標を、 この範 11とすることができる。 以後、 この範囲のこ とを、 口ックォン力一ソル判定範囲と称することとする。
次に、 このロックォンカーソルの表示位置や口ックォンカーソルによって口ッ クォンの有無を判定する範囲を算出する。 そして、 ステップ 4 0 3によって、 三 次元で定義された仮想空問にある 示物の 1 像データを、 視点の位^及び視線の 方向から視野座標系の座 ¾で定義された画像データに変換し、 次いで、 この画像 データを透視投影 (透視変換) して、 二次兀座標で定義された画像データに変換 する。
これらの変換は、 いずれも公知の画像処理技術によって行われる。 ここで、 表 物とは、 第 5 1 Aにおいては、 人物 3 1 0、 建造物 3 1 0 A、 山脈に似た背景 3 1 0 B等である。 これらは、 第 5図に示すように、 T V受信機の衷^部の画面 上に二次元画像として表示されている。 通常、 背景画像は二次元座標で定義され た画像データにより^示され、 これ以外の表示物等のセグメントはポリゴンから 構成される。
次に、 ステップ 4 0 4において、 ロックオンカーソル範囲カ^ これら ¾示物の 表示画面 hにおける一:次元の表示位置を含んでいるか否かが判定される。 例えば、 口ックォンカーソルと衷示物との間で図形の全体的或いは一部の :なりがあるか 否かが判定される。 この判定において、 表示物 3 1 0がコントロール力一ソル判 定範囲に入っていないと判定されたときには (S 4 0 4 ; N O ) 、 ステップ 4 0 3の処理に戻る。 なお、 この重なり判定を容易にするために、 表示物を例えば円、 楕円当の簡略のモデルに置き換え、 3Ϊなり具合を判定するることも可能である。 このステップ 4 0 4の判定が肯定された場合は、 3次元座標系における視点 (カメラ) から表示物までの距離を算出する。 このように距離を算出する対象と なつた表示物を判定物と称する。
その後、 ステップ 4 0 4乃至ステップ 4 0 9によって、 ロックオンされる判定 表示物が決定されるが、 各ステップを説明する前に、 この判定物を决定するため の原理について説明する。
第 1 1図は、 仮想空間内で表示物の配置を示す模式的な図である。 符号 3 1 0 は、 既述の人物に相当する表示物、 3 2 0 Z , 3 3 0 Zは、 表示物ではあるが、 実際にはロックオンすべきでない^' 物 (例えば、 壁.) であり、 Sは視,' (仮 、 ¾間を撮影するという意味で以 ドカメラと称する) であり、 3 1乃至5 2は、 各 表示物までの視点 Sからの距離を小す。 第 1 2図は、 この視点 Sからこれらの各 ¾示物を視た、 T V受信機によって ¾わされる画面である。
第 1 2図から分かるように、 仮想空間内において、 : 3 3 0 Zが視点から兄て 最も近くに配^されるものであり、 この壁に隠れて他の壁 3 2 0 Z、 人物 3 1 ϋ が表示されている。 この図の状態で、 たとえ、 ロックオンカーソル L Cが人物 3 1 0に重なっているとしても、 この人物 3 1 0は壁 3 3 0 Ζや 3 2 0 Ζの陰に隠 れているために、 この人物に口ックォンすべきではない。 i}i純に ¾なりを判定す るだけでは、 人物と壁とのいずれにロックオンしょうとしているかの判断できな い。
-方、 第 1 1図において、 視点 S Sから視た画面は、 第 1 3図に示すように、 人物 3 1 0がもっとも手前に来る。 したがって、 この人物 3 1 0にロックオン力 一ソル L Cが重なった場合、 人物 3 1 0にロックォンして良いことになる。
ステップ 4 0 5乃至 4 1 0は、 このことを判断するための丁-程である。 なお、 ここでの説明に当たっては、 第 1 1図の視点 Sから人物に照準を合せた場合のよ うに、 人物の手前に障害物が存在するものとする。 ステップ 4 0 5では、 各表示 物の位置データと視点の位置デ一夕とを参照して、 視点と各表示物との距離 S 1 乃至 S 3 (第 1 1図参照) を算出する。 この距離としては、 例えば、 表示物の 心 (幾何学的重心) と視点との距離をもって算出される。
次に、 ステップ 4 0 6において、 先ず、 人物 3 1 0を仮の判定表示物として設 定する。 次いで、 この壁 3 2 0 Zと視点との距離 S 2と人物と視点との距離 S 3 とが比較される。 S 2が S 3よりも小さい (S 4 0 6 ; Y E S ) 、 すなわち、 壁 3 2 0 Zが人物 3 1 0の手前侧にあるために、 仮の判定物か人物 3 1 0から壁 3 2 0 Zに変更される (S 4 0 7 ) 。 次いで、 ステップ 4 0 8に移行し、 全ての表示物についてこれらの処理を ¾行 すると、 最終的に壁 3 3 0 Zが仮の判定物となる (S 4 0 9 ) 。 すなわち、 視点 Sから視て最も近接した判定物が決^される。 ステップ 4 0 5において、 当初の 仮の判定物を人物 3 1 0に設定したカ^ これを壁 3 2 0 Z、 3 3 0 Zのいずれに 設定しても良い。 どのような表示物に設定しても、 最終的に壁 3 3 0 Zが仮の判 定物として判定され、 ステップ 4 0 9に移行する。 壁 3 3 0 Zを当初の仮の判定 物とした場合、 ステップ 4 0 7において、 仮の判定物は他の表 物 ( 3 1 0乂は 3 2 0 Z ) に変更されない。 なお、 最近接判定物 ( 3 3 0 Z ) のデータ群に、 最- 近接判定物であることを小すフラグを立てるようにしても良い。
-方、 視点が第 1 1図の視点 S Sの位置にある場合、 人物 3 1 0が最終的な判 定物 (最近接判定物) であると判定される。 第 3図の判定物データとは、 例えば、 ここで説明した表示物の視点との距離や、 最近接判定物であることを示すフラグ 等が相当する。
ステップ 4 1 0では、 この最近接判定物がロックオンできるものか否かが判定 される。 ロックオンの目的は表示物との間で意思疎通を達成するものである (口 —ルプレイングゲームの場合) 。 よって、 静物である壁はロックオンの対象とし て取り扱われない。 この場合はステップ 4 0 1に戻ってロックォンの処理は行わ れない。
一方、 判定物を壁 3 2 0 Z , 3 3 0 Zから人物に変更すれば、 ¾近接判定物を ロックオンの対象として取り扱われても良い。 もっとも、 壁自体にロックオンで きるようにしても良い。 すなわち、 ロックオンできる表示物か否かは、 ゲームプ ログラムで任意に設定できる事項である。 ロックオンできる表示物か否かは、 所 定のフラグを利用して判断するようにすれば容易に判定できる。
最近接判定物がロックオンできる対象であると判定された場合、 ステップ 4 1 0からステップ 4 1 1に移行する。 ステップ 4 1 1では、 最近接判定物の種類に よってロックオンカーソルの表示形態を、 既述の十 型から変更しょうとするも のである。 例えば、 ロックオンの判' 物が、 ゲームプログラム上の遊技者と敝対 関係にない味方のモデルであれば、 円形形状のロックオンカーソルとし、 一方、 敵であれば」角^ (例えば正三角形) 形状のロックオンカーソルを 示する の 如くすることである。
これらは各判定物毎にその種類を特定するフラグを予め設定することによって 可能となる。 ロックオンカーソルの ¾示形態を変史することによって、 遊技者は、 口ックォンする判定物の種類をロックオン力一ソルの表示形態から的確かつ迅速 に知ることが可能となる。 なお、 第 3 ¾のロックォンカーソル形態判別データ L C Dとは、 この種のフラグ等のデータを云う。 ¾近接判定物に設定されているフ ラグをチェックすれば、 どのような形態の力一ソルを表示する必要があるか^か が迅速に判断することができる。
ステップ 4 1 2は、 遊技者がロックオンを許容する力、、 すなわち、 パッ ド 2 b の所定の釦を押下することによって、 口ックォンの完了が遊技者によって確認さ れたか否かを判断する。
第 5図 Cに示す 1两面 3 0 2は、 ロックオン力一ソルが表 物である人物 3 1 0 に重なり、 この人物が最近接判定物と判定され、 かつステップ 4 1 0において口 ックォンできるものであると判定されて、 さらに、 ステップ 4 1 1によってロッ クオンカーソルを中央に十字型を配置し、 かつその周りに略かぎ括弧型の全体標 識 L Cとして存在する形態としたものである。
遊技者がパッ ド 2 bを操作してロックオンを |ヒめるときには (S 4 1 2 ; N 0 ) 、 ステップ 4 0 1に戻る。 遊技者がパッ ド 2 bを操作してロックオンしたと きには ( S 4 1 2 ; Y E S ) 、 第 5図 Dの画面 3 0 3に示すように、 ロックオン カーソルの輝度が増加されてロックオンが完了したことを遊技者に知らしめるよ うにする。 次いで、 ステップ 4 1 3において、 6図の画面 3 0 4に移行し、 このロック オンカーソルを幽'而 hより ^ するとともに、 遊技者が实行できる行動を小-す選 択枝をそれぞれアイコンの形態 ( 3 1 1 , 3 1 2 で画面に表 する。
遊技者は、 パッ ドの十字キー等を用いて選択枝中の所 ¾のアイコンを選択して、 所望の行動を選択する。 選択枝に表示する行勳としては、 遠くから挨拶する (ァ イコン 3 1 1〕 、 あるいはビル内に入り近づいて挨拶する (アイ コン 3 1 2 ) と いうようなことである。 勿論、 選択枝の内容は、 ゲームのストーリに応じて適 H 設^することが可能となる。 アイコン 3 1 1を選択することによって、 遊技者の 操作するモデル 3 3 0が両而に表, されて、 遠くから判定物としての人物に対し て遠くから、 「やあ ! 」 と挨拶してアクセスする画面 3 0 5が表示される (第 6 図 B ) 。 なお、 第 3 (¾|のアクションデータ A C Dとは、 アイコンおによって選択 された行動を画面に展開するためのデータを云う。
すると、 遊技者の操作するモデルの視点から見た第 6図 Cに^すような画面 3 0 6カ^ T V受像機 5のスクリーン上に表示される。 この I面面 3 0 6は、 示物 3 1 0を遊技者の操作するモデルが下から β上げた状態で表示される。 表示物 3 1 0は 「やあ、 元気かい! ?」 と云って (メ ッセージを表 -して) 、 両者の意思 疎通が図れるようになる。
なお、 第 1 1図の視点 S Sから仮想空間内の各表示物 3 1 0 , 3 2 0 Ζ , 3 3 0 Ζを視たような位置関係にある場合は、 最近接判定物が人物 3 1 0と判定され (第 1 3図 1 3参照) 、 この人物に対してロックオンが可能と判定される C S 4 1 0 ) ο
既述のように、 第 5図 Β , Cに示すように、 ロックオンカーソルを表示物 3 1 0に重ねるようにすれば、 ロックオンが可能となる。 したがって、 このことは、 二次兀で定義された仮想空間におけるロールプレイングゲームシステムに対して 次のような利点がある。 遊技者は二次兀で定義された仮想空問内で β の操作するモデルを移動させて、 示物に S己のモデルが接触したか否かを所定の視点から確認しながらゲームを 進める。 Τ V受信機 5の表示部の I面面は三次几で定義された面像デ一夕を二次元 座標に透視変換したものである。 従来の接触の有無によって ,1 疎通を図るか 否かを決定すようとすれば、 操作者は二次元的に表示される 示両而を観ながら 三次兀で定義された仮想空間内におけるセグメン 卜の接触を図ることを要求され、 相当な熟練が要求される。 例えば、 表示物 3 1 0との距離感を正確に把掘し、 示物 3 〗 0に接近したら遊技者が操作するモデルの位置を微調整し、 さらに表小- 物 3 1 0に対してモデルが £しく向き合うように (顔の正 ΐίιΐ Γπ;]士がァ Lいに向き合 つている) する等が必要がある。
しかしながら、 第 5図 B、 Cに示すように、 ロックオン力一ソルを表示物 3 1 0に重ねるようにすれば、 簡単にロックオンが可能となる。 したがって、 ΰ己の 操作するモデルと人物 3 1 0とが三次元座標 1:接触したことにならなくても、 ま た、 操作に熟練していなくても、 目標の捕捉を容易に迅速に達成することが可能 となる。
第 7図は本発明をゲームに応用した場合の表示例を示している。 第 7図 Αは遊 技者が操作するモデル 3 3 0 aと表示物 3 1 0 aとが離れた状態にある表示例で ある。 第 7図 Bは遊技者が操作するモデル 3 3 0 aと表示物 3 1 O bとが接近し ている状態にある表示例を示す。
ここで、 第 7図 Aを用い、 モデル 3 3 0 aと表示物 3 1 0 aの関係を説明する c まず、 T V受像機 5のスクリーン上に、 キャラクタ 3 3 0 aと表示物 3 1 0 aと が離れた状態になっている画面 3 5 0が表示されているものとする。 遊技者は口 ックォン力一ソルの表示を決定し、 ノ、。ッ ド 2 bを操作する。 これにより、 第 4図 のフローチャートが第 3図の画像処理系 2 0 0 Aで実施される。 次いで、 遊技者 は、 上記ロックオンカーソル L Cを移動し、 その表示物 3 1 0 aにロックオンを 試みる。 これにより、 ロックオン可能であった場合、 表/下物 3 】 0 aをロックォ ンする。 これにより、 第 7図 Aに示すように、 画 [ 3 5 0内の l Liの操作するモ デル 3 3 0 aと表示物 3 1 ϋ aとがアクセス可能な状態になる。 例えば、 l itfu 3 5 0內において、 モデル 3 3 0 aが表示物 3 1 0 aに向かって 「お一い! ! 」 と いい、 表示物 3 1 0 aはモデル 3 3 0 aに対し、 「よお! 」 と答える、 という画 [ίΠ 3 5 0を表示することができる。
次いで、 第 7 i Aの 面 3 5 0の ,¾':思疎通が進行した状態を小-す第 7図 Bの西 面 3 5 1が¾示される。 すなわち、 モデル 3 3 0 aが表示物としての人物 3 1 0 aに遠くから挨拶をした後 (第 7図 A ) 、 さらに近づいて、 モデル 3 0 aが人物 3 1 0 bの!!:に 「実は…」 といい、 人物 3 1 0 bは 「フムフム」 と-ムっている会 話が開始されるのである。
第 8図も意思疎通の他の例を示すものである。 T V受像機 5の表示部上に、 遠 くにある窓 3 4 0から见える :つの表 物 3 1 0 じ 、 3 1 0 dを、 モデル 3 3 0 bが双服鏡 3 4 1で H、ている画面 3 5 2が表示されている。 ここで、 遊技者が 二つの表示物 3 1 0 c , 3 1 0 dにロックオンをしたとする。 これにより、 モデ ル 3 3 0 bがあたかもこれらの二つの表示物の会話を遠くから盗聴しているよう な画像を表示させることができる。
第 9図も同様な意思疎通の例を示すものである。 向かいの建物 3 4 2の内部に モデル 3 3 0 c力く居り、 他の建物 3 4 4の中に表示物 3 1 0 eが居るものとする c モデル 3 3 0 cは向かいの建物 3 4 2の窓 3 4 5から、 他の建物 3 4 4の窓 3 4 6の表示物 3 1 0 eを見ている爾面が表示されているものとする。 このとき、 他 の建物 3 4 4の窓 3 4 6に見える表示物 3 1 0 eをロックオンして、 向かいの逑 物 3 4 2から他の表示物 3 1 0 eを狙撃する画像 3 5 3を作ることができる。 第 1 0図 Aは、 ある時間の Ι¾ί面を示し、 同図 Βはその時間から一定時間経過し た場合の画面を示す。 第 1 0図 Αでは、 遠くにいる表示物 3 1 0 f を遊技者に対 応するモデル 3 3 0 dが呼び寄せて L、る画 [ 3 5 4が 示されている。 この Ιίί像 例では、 遊技者は遠くにいる表小-物 3 1 0 f をロックオンする。 これにより、 モ デル 3 3 0 dが遠くにいる表示物 3 1 0 f を呼び寄せているかのうような両像を 表示することが可能となる。
さらに第 1 0図 Bに すように、 モデル 3 3 0 dの近くに来た^ 物 3 1 0 f が、 先程まで ¾ 物 3 1 0 f がいた ¾所を ¾り返ると、 その場所に大きな岩 3 4
8が落ちてくるような [了面 3 5 5を表示することができる。
第 7図乃至第 1 0図に示すように、 距離が遠く離れていることからこそできる 動作を、 ゲーム中の場面胜開や謎解きなどに取り入れていくことができる。 よつ て、 多彩なゲームの展開が可能になるという利点がある。
(その他の変形例)
なお、 上記実施形態においては、 ノ、。ッ ドの操作によりロックオン力一ソルの位 置を動かしていたが、 ロックオンカーソルの位置を画面の所 位置に固定し、 代 わりに視野変換のための座標を動かすことにより、 照準を合せるようにしてもよ い。
例えば、 第 1 4図に示すように、 ロックオン力一ソル L Cを画面の中央に ¾示 してこの位匱からカーソルを動かせないように画面 3 0 1を設定する。 この状態 では視線の方向は口ックオンカーソルの位置を経て道路の彼方へ向かっている。 この状態において、 遊技者がパッ ドを操作すた場合、 その操作に対応させて視野 変換させる視点の位置を変更させる。 例えば、 第 1 4図における視点の位置から 画面右方向に視点が移動すると、 ロックオンカーソル L Cは相対的に矢印 3 2 0 の方向に移動していく。 その結果、 第 1 5図に示すように、 ロックオンカーソル を人物 3 1 0の位置に合せることができる。 この操作は、 いわゆるフライ トシミ ユレ一夕における照準を合せる操作に類似している。
なお、 このような変形例では、 視点の位置を遊技者の操作するモデルの視点に 一致するものとし、 このモデルから見た画像を表示することになる。 また、 視点 の位 | がモデルの視点の位置に 致はしていないが、 モデルと 定の位置関係を 保って (例えばモデルの後上方) モデルの動きに追従していくよう設定してもよ い。
また、 このような変形例では、 ロックオンカーソルの位置が両面上固定される ので、 特にカーソルを表示しなくてもよい。 つまり、 遊技者は画面の中央部分に ある表示物に常に照準が合せられるものとして操作すれば充分だからである。 また、 ロックオンカーソル L Cを表示する場合であっても、 上記実施形態のよ うにロックォンをしょうとするときにのみ表^させる他に、 常時表示させるよう にしてもよい。
また、 ゲームの形態としては、 ロールプレイングゲームのような対話型ゲーム の他に、 複数のモデルとの間で会話や動作を介して対話 の意思素つ通があれば、 ァドベンチャーゲ一厶、 ァクションゲームであつても良い。 産業上の利用形態
本発明によれば、 仮想空間に配置されるセグメントに対し、 捕捉できる状態に あるか否かを判断できるようにした。
すなわち、 本発明によれば、 セグメントが捕捉できる位置にある場合であって も、 さらに追加の条件を判断することができる。 したがって、 セグメントの種類 や周囲の状況に応じて、 多様な条件設定が可能となる。
また本発明によれば、 セグメントが捕捉できる条件を満たしている場合に、 次 の処理を選択できる。 したがって、 処理を選択することにより、 処理内容を多彩 に設けることができる。
また本発明によれば、 捕捉に用いる標識の画像表示に変化をもたらすことがで きる。 したがって、 捕捉する操作の単調さを排除することができる。 また本発叨によれば、 三次元で定義された仮想 ΐ間において、 標識とセグメ ン 卜とが重なっていなくても、 拙捉可能にすることができる。
また本発明によれば、 二次兀で定 ¾された仮, + ¾間において複数のセグメ ン 卜 が捕捉可能な場合に、 ¾際に捕捉するセグメン卜を距離を参照して特定するので、 複数のセグメン卜が接近して配置されていても捕捉が可能である。 したがって、 仮想空問内の所定の視点から視て複数のセグメン卜が. ffiなつて存在する場合、 ¾ 点に対して も近いセグメン卜を U標として決定し、 次いでこの 標が捕捉" ί能 であるか否かを判定するように構成することにより、 捕捉すべきセグメン卜の周 りに障害物があった場合、 障害物に隠れるセグメントを捕捉してしまうことを防 止できる。

Claims

請 求 の 範 囲
1 仮想空間内に配 されるセグメン卜を画像表示するための兩像処理装置 であってヽ
操作^ に基づいて ¾ 画面上に表示する標識の表示位置を決定する衷示位 ί¾ 決定手段と、
前記表示位置決定手段により決 ¾した標識が、 前記 標となるセグメ ントに対 し所定の位置関係にあるという条件を満たすか否かを決定する位置関係決定 T-段 と、
ij d位^関係決定手段により前記標識が前 1:1標となるセグメン卜に対し所 の位置関係にあると決定された場合に、 さらにこの目標となるセグメン 卜が捕捉 "ί能な条件を備えるか否かを判断する状態判断手段と、
前記標識を表示するとともに、 前己状態判断手段により前記目標となるセグメ ン卜が捕捉可能な条件を備えると判断された場合に、 捕捉した旨を示す附像を表 示する画像表示手段と、 を備えることを特徴とする画像処理装置。
2 前記仮想空間には前記操作信号に Sづいて操作されるセグメン卜が^ され、 前記画像表示手段は、 前記目標となるセグメン卜が捕捉可能な条件を備えると判 断された場合に、 前記操作信号に基づいて操作されるセグメン卜と前記目標とな るセグメン卜との相互関係を示す画像を表示する請求の範囲第 1項に記載の画像 処理装置。
3 前記位置関係決定手段により決定される条件は、 表示画面上、 前記標識と前 記目標となるセグメントが重なっていることである請求の範囲第 1項に記載の ί*ί 像処理装置。
4 前記状態判断手段により判断される捕捉可能な条件とは、 前記 標となるセ グメ ン卜が前記画像表示手段の処理対象であるか否かである請求の範囲第 1項に 記載の両像処理装置。
5 前 標とするセグメントが捕捉可能であった場合に、 次にとるべき行 iiを 示す複数の選択枝を表示する行動選択手段をさらに備え、
前^画像表示手段は、 前 Ϊ 行励選択 ΐ段により^示された選択枝に対応した人 力された操作信号に基づいて、 画像を表不する^求の範囲第 1 ¾に記載の^像処 理装置。
6 前 £画像表 手段は、 前記 [^標とするセグメ ン 卜の種類に応じて、 前, 標識 の表示形態を変更する請求の範囲第 1 ¾に記載の両像処理装置。
7 前記画像 示手段は、
Figure imgf000028_0001
前記 I I標とするセグメ ン 卜との距離に応じ て、 画像表示の内容を変更する請求の範囲第 1 ¾に 載の 像処理装置。
8 前記位置関係決定手段は、 前記標識の周囲に設定した判定範囲に重なつてい るセグメン卜の各々について画像表示のための視点との距離を計算し、 計算され た距離が最も短いセグメン 卜を前 条件を満たす目標とするセグメン 卜として決 定する請求の範凼第 1項に記載の画像処理装置。
9 仮想空間内に配置されるセグメ ン トを画像表示するための画像処理装置 であって、
操作者の操作に対応する操作信号を出力する入力装置と、
仮想空間に配置される一以上のセグメン卜の位置座標と前¾操作信号に基づく 標識の表示位置を演算し、 演算結果に基づいて表示すべきセグメン卜および前 標識の画像を含む画像データを出力する処理回路と、
前記処理回路が出力した画像データに基づいて画像表示する画像表示回路と、 を備え、
前 ¾処理回路は、 前^操作信号に基づいて表 画 [ 上に表 する標識の ¾示位 置を決定し、 表示位置を決定した標識が目標となるセグメン卜に対し所定の位置 関係にあるという条件を満たすか否かを決定し、 前; E標識が前^目標となるセグ メン卜に対し所定の位置関係にあると決^された場合に、 さらにこの目標となる セグメ ン卜が捕捉 nj能な条件を備えるか^かを判断し、 ιϊ § 0標となるセグメ ン トが捕捉可能な条件を備えると判断された場合に、 捕捉した^を示す 像デ一夕 を出力することを特徴とする画像処理装置。
1 0 前£¾処理回路は、 前記操作 ίϊί号に基づいて操作されるセグメン卜の両像デ ータを出力し、 前記 標となるセグメン卜が捕捉可能な条件を傰えると判断され た場合に、 前,记操作信号に ¾づいて操作されるセグメン 卜と前 目標となるセグ メン卜との相互関係を示す陋像データを出力する請求の範 ffl第 9 ¾に ^載の i像 処理装置。
1 1 前記処理回路により決定される所定の位 ^関係にあるという条件は、 表小- 画面上、 前記標識と前記目標となるセグメン卜が重なっていることである請求の 範囲第 9項に 載の両像処理装置。
1 2 前記処理回路により判断される捕捉可能な条件とは、 前記 iJ標となるセグ メントが処理対象として予め定義されたものであるか否かである請求の範囲第 9 項に記載の画像処理装置。
1 3 前記処理回路は、 前記目標とするセグメン卜が捕捉可能であった場合に、 次にとるべき行動を示す複数の選択枝を表示する両像デ一夕を出力し、
前記選択枝に対応した入力された操作信号に基づく画像データをさらに出力す る請求の範囲第 9项に記載の画像処理装置。
1 4 前記処理回路は、 前 目標とするセグメン卜の種類に応じて、 異なる表示 形態の標識を表示させる画像データを出力する請求の範囲第 9項に記載の画像処
1 5 前記処理回路は、 前記標識と前記目標とするセグメン 卜との距離に応じて、 出力する画像データの内容を変更する請求の範囲第 9項に記載の画像処理装置。
1 6 前記処理回路は、 前記標識の周囲に設定した判定範囲に重なっているセグ メン卜の各々について tii像表 のための視点との距離を計算し、 計算された距離 が最も短いセグメン卜を前記条件を満たす Π標とするセグメン 卜として決 する 請求の範剛第 9項に記載の画像処理装置。
1 7 ^求の範 Ϊ1第 1 ¾乃至第 1 4項のいずれか一 ¾,k載の画像処理装 ί を備え るゲーム機。
1 8 仮想空問内に配置されるセグメン卜を両像表示するための両像処理方法 であって、
操作信号に基づいて表示画面上に表示する標識の表示位置を決定する表示位置 決:^工程と、
前記衷示位置決定工程により決定した標識が、 前記 y標となるセグメ ン トに w し所定の位置関係にあるという条件を満たすか否かを決定する位置関係決定ェ¾ と、
前記位置関係決定工程により前記標識が前記 H標となるセグメ ン トに対し所定 の位置関係にあると決定された場合に、 さらにこの π標となるセグメ ントが捕捉 可能な条件を備えるか否かを判断する状態判断に程と、
前記標識を表示するとともに、 前記状態判断工程により前記目標となるセグメ ン卜が捕捉可能な条件を備えると判断された場合に、 捕捉した旨を示す画像を表 示する画像表示工程と、 を備えることを特徴とする画像処理方法。
1 9 コンピュータに、
仮想空間內に配 Sされるセグメン卜を画像表示するための画像処理であって、 操作信号に基づいて表示画面上に表示する標識の表示位置を決定する表示位^ 決定工程と、
前記表示位置決定工程により決定した標識が、 前記目標となるセグメン卜に対 し所定の位置関係にあるという条件を満たすか否かを決定する位置関係決定工程 と、 前記位置関係決定工程により ι¾記標識が前¾ 0標となるセグメ ン 卜に対し所定 の位置関係にあると決定された場合に、 さらにこの目標となるセグメン 卜が捕捉 nj"能な条件を備えるか否かを判断する状態判断工程と、
前記標識を表示するとともに、 前¾状態判断工程により前 目標となるセグメ ン 卜が捕捉可能な条件を備えると判断された場合に、 捕捉した旨を不す幽 Ί象を表 示する画像衷示て程と、 を ¾行させるプログラムデータが記憶された機械読取可 能な記録媒体。
2 0 仮想空問内に配置される被¾示体を画像表示するための画像処现装 で あつ 、
操作信号に基づいて^示 ^面上に表示する標識の^示位^を決定する表示位 決定手段と、
前記表示位置決 手段により決定した標識が、 前記目標となる被表示体に対し 所定の位置関係にあるという条件を満たすか否かを決定する位置関係決定手段と、 前¾位置関係決定手段により前^標識が前記 S標となる被表示体に対し所定の 位置関係にあると決定された場合に、 さらにこの目標となる被表示体が捕捉可能 な条件を備えるか否かを判断する状態判断于-段と、 を備えることを特徴とする画 像処理装置。
2 1 前記標識を表示するとともに、 前記状態判断手段により前記 標となる 被表示体が捕捉可能な条件を備えると判断された場合に、 捕捉した旨を示す画像 を表示する画像表示手段をさらに備える諮求の範囲第 2 0項に^載の画像処理装 置。 補正書の請求の範囲
[ 1 9 9 7年 1 2月 1 2日 (1 2 . 1 2 . 9 7 ) 国際事務局受理:出顧当初の請求の範囲 1は補正された;新 しい請求の範囲 2 2及び 2 3が加えられた;他の請求の範囲は変更なし。 (3頁) ]
1 仮想空間内に配置されるセグメントを画像表示するための画像処理装置 であって、
5 操作者の操作に対応する操作信号に基づいて表示画面上に表示する標識の表示 位置を決定する表示位置決定手段と、
前記表示位置決定手段により決定した標識が、 前記目標となるセグメン 卜に対 し所定の位置関係にあるという条件を満たすか否かを決定する位置関係決定手段 と、
10 前記位置関係決定手段により前記標識が前記目標となるセグメン卜に対し所定 の位置関係にあると決定された場合に、 さらにこの目標となるセグメントが捕捉 可能な条件を備えるか否かを判断する状態判断手段と、
前記標識を表示するとともに、 前記状態判断手段により前記目標となるセグメ ン卜が捕捉可能な条件を備えると判断された場合に、 捕捉した旨を示す画像を表
15 示する画像表示手段と、 を備えることを特徴とする画像処理装置。
2 前記仮想空間には前記操作信号に基づいて操作されるセグメン卜が表示され、 前記画像表示手段は、 前記目標となるセグメン 卜が捕捉可能な条件を備えると判 断された場合に、 前記操作信号に基づいて操作されるセグメントと前記目標とな るセグメン卜との相互関係を示す画像を表示する請求の範囲第 1項に記載の画像
20 処理装置。
3 前記位置関係決定手段により決定される条件は、 表示画面上、 前記標識と前 記目標となるセグメントが重なっていることである請求の範囲第 1項に記載の画 像処理装置。
4 前記状態判断手段により判断される捕捉可能な条件とは、 前記目標となるセ
25 グメントが前記画像表示手段の処理対象であるか否かである請求の範囲第 1項に 補正された用紙 (条約第 19条) 前記位置関係決定工程により前記標識が前記目標となるセグメントに対し所定 の位置関係にあると決定された場合に、 さらにこの目標となるセグメントが捕捉 可能な条件を備えるか否かを判断する状態判断工程と、
前記標識を表示するとともに、 前記状態判断工程により前記目標となるセグメ ン卜が捕捉可能な条件を備えると判断された場合に、 捕捉した旨を示す画像を表 示する画像表示工程と、 を実行させるプログラムデータが記憶された機械読取可 能な記録媒体。
2 0 仮想空間内に配置される被表示体を画像表示するための画像処理装置で あって、
操作信号に基づいて表示画面上に表示する標識の表示位置を決定する表示位置 决定手段と、
前記表示位置決定手段により決定した標識が、 前記目標となる被表示体に対し 所定の位置関係にあるという条件を満たすか否かを決定する位置関係決定手段と、 前記位置関係決定手段により前記標識が前記目標となる被表示体に対し所定の 位置関係にあると決定された場合に、 さらにこの目標となる被表示体が捕捉可能 な条件を備えるか否かを判断する状態判断手段と、 を備えることを特徴とする画 像処理装置。
2 1 前記標識を表示するとともに、 前記状態判断手段により前記目標となる 被表示体が捕捉可能な条件を備えると判断された場合に、 捕捉した旨を示す画像 を表示する画像表示手段をさらに備える請求の範囲第 2 0項に記載の画像処理装 置。
2 2 仮想空間を所定の視点から見た表示画像内に表示されている対象物を遊 技者の操作に基づいて捕捉可能に構成した画像処理装置において、
捕捉用のカーソルを遊技者の操作に対応させて表示画面内に表示する手段と、 前記対象物が前記視点から見て意思疎通可能な範囲にあるか否かを判定する手 捕正された用紙 (条約第 19条) 段と、
前記対象物が前記視点から見て意思疎通可能な範囲にあると判定された場合に、 今度はこの対象物が子め捕捉可能なものとして設定されている対象物に相当する か否かを判定する手段と、
前記対象物が捕捉可能な対象物に相当すると判定された場合に、 当該対象物が 捕捉可能であることを遊技者が認識できるように前記力一ソルの表示を変える手 段と、 を備えた画像処理装置。
2 3 仮想空間を所定の視点から見た表示画像内に表示されている対象物を遊 技者の操作に基づいて捕捉可能に構成した画像処理装置において、
捕捉用のカーソルを遊技者の操作に対応させて表示画面内に表示する手段と、 前記対象物が前記視点から見て見通せる範囲にあるか否かを判定する手段と、 前記対象物が前記視点から見て見通せる範囲にあると判定された場合に、 今度 はこの対象物が予め捕捉可能なものとして設定されている対象物に相当するか否 かを判定する手段と、
前記対象物が捕捉可能な対象物に相当すると判定された場合に、 当該対象物が 捕捉可能であることを遊技者が認識できるように前記カーソルの表示を変える手 段と、 を備えた画像処理装置。
補正された用紙 (条約第 19条) 条約 1 9条に基づく説明書
補正後の請求の範囲第 1項では、 表示画面上に表示される標識が 「操作者の操作 に対応」 するものであることが明確にされた。 さらに本願発明の要旨が追加した第 2項および第 2 3項で明確にされた。 なお第 9項には 「操作者の操作に対応」 する ものであることが出願当初から明確である。
国際調査報告に列記された文献のいずれにも、 上記発明が開示されていない。 す なわち、 国際調査報告に列記された文献 (特開平 7 - 008632号:以下 「引用例」 ) にはマーカ 30の表示位置を演算するマ一力位置設定部 154が記載されているが、 こ のマーカ 30は標的であるセグメント (敵未来戦車 22 ) の標的状態情報に基づいて 表示される。 つまり標的が移動すればこれに連動してマーカ 30も移動するものであ る。 例えば引用例の段落 0097にはマーカ 3 0の表示位置がマーカ位置設定部 1 54で 演算される旨が記載されている。 これに対し本願発明の標識は、 「操作者の操作に 対応」 するものであって、 操作者の操作によって移動させられるものでない点で根 本的に相違する。
すなわち引用例では、 マ一力 30が標的となる敵未来戦車 22の状態を表示するィ ンジケ一夕としての意味しかないのに対し、 本願発明は照準となる標識が意思疎通 可能な範囲にあるかまた意思疎通可能であっても捕捉の対象として好ましいか等の 付加情報を提供可能に構成されている。
本願発明によれば、 遊技者が標識 (力一ソル) を動かすと、 セグメント (対象 物) がコミュニケ一シヨンの及ぶ範囲であるかが判定され、 さらにセグメントが捕 捉可能なものか否かが判定され、 捕捉可能であれば標識の表示が変化する。 遊技者 は標識によってセグメン卜が捕捉可能か否かが判り次の行動を選択でき、 三次元ゲ —ムのように空間配置が複雑な場合でも混乱せず、 ゲームプレイできるという効果 を奏する。
したがって本願発明の第 1項、 第 9項、 追加した第 2 2項および第 2 3項は十分 な進歩性を有する。 他の一部の請求の範囲 (第 2項乃至第 4項、 第 6項、 第 7項、 第 1 0項乃至第 1 2項、 第 1 4項、 第 1 5項、 第 1 7項) のいずれも第 1項または 第 9項を引用しているので、 同様に進歩性を有する。
なお、 国際調査報告書に列記された他の文献 (特開平 6 - 1621 70号、 特開平 8- 13 1 653号) は一般的な技術水準を表す文献とされているので、 本願発明に関係して いない。
PCT/JP1997/002331 1996-07-04 1997-07-04 Processeur d'images, jeux video, procede d'affichage d'images et support d'enregistrement WO1998001824A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US09/029,771 US6259431B1 (en) 1996-07-04 1997-07-04 Image processor, game machine, image display method, and recording medium
JP50505298A JP3515127B2 (ja) 1996-07-04 1997-07-04 画像処理装置、ゲーム機、画像表示方法および記録媒体
EP97929531A EP0855677A4 (en) 1996-07-04 1997-07-04 IMAGE PROCESSOR, PLAYER, IMAGE PROCESS, AND RECORDING MEDIUM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP8/174769 1996-07-04
JP17476996 1996-07-04

Publications (1)

Publication Number Publication Date
WO1998001824A1 true WO1998001824A1 (fr) 1998-01-15

Family

ID=15984355

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1997/002331 WO1998001824A1 (fr) 1996-07-04 1997-07-04 Processeur d'images, jeux video, procede d'affichage d'images et support d'enregistrement

Country Status (6)

Country Link
US (1) US6259431B1 (ja)
EP (1) EP0855677A4 (ja)
JP (1) JP3515127B2 (ja)
KR (1) KR100492215B1 (ja)
CN (1) CN1154955C (ja)
WO (1) WO1998001824A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1322473C (zh) * 2001-05-22 2007-06-20 约福·沙菲 在虚拟三维空间中显示可视内容的方法和系统
JP2011215886A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体、及び、画像生成装置
US9165408B2 (en) 2008-12-01 2015-10-20 Visual Domains Ltd. Method and system for browsing visual content displayed in a virtual three-dimensional space

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6831659B1 (en) * 1998-05-20 2004-12-14 Kabushiki Kaisha Sega Enterprises Image processor unit, game machine, image processing method, and recording medium
JP3777061B2 (ja) * 1999-05-13 2006-05-24 コナミ株式会社 ビデオゲーム装置
JP4114029B2 (ja) * 1999-07-16 2008-07-09 株式会社セガ 画像処理装置、画像処理方法及び記録媒体
JP2001029655A (ja) * 1999-07-23 2001-02-06 Square Co Ltd 行動選択支援方法、記録媒体およびゲーム装置
JP3181275B2 (ja) * 1999-07-30 2001-07-03 株式会社ケイシーイーオー 競技方法及び装置、記録媒体
JP2001038053A (ja) * 1999-08-03 2001-02-13 Konami Co Ltd ゲーム展開の制御方法、ゲーム装置及び記録媒体
JP2001155188A (ja) * 1999-09-14 2001-06-08 Sony Computer Entertainment Inc 表示オブジェクト選択受付方法、記憶媒体およびプログラム実行装置
US6807620B1 (en) * 2000-02-11 2004-10-19 Sony Computer Entertainment Inc. Game system with graphics processor
JP3822776B2 (ja) * 2000-03-29 2006-09-20 株式会社バンダイナムコゲームス ゲーム装置、及び情報記憶媒体
JP3991583B2 (ja) * 2000-11-24 2007-10-17 株式会社セガ 画像表示方法、コンピュータゲーム処理方法及び記録媒体
JP3741965B2 (ja) * 2001-03-19 2006-02-01 株式会社ナムコ 画像処理装置、画像処理用プログラム、およびそのプログラムを記録した記録媒体
US7409441B2 (en) * 2001-05-18 2008-08-05 Sony Computer Entertainment Inc. Display apparatus for accessing desired web site
US9393487B2 (en) * 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US20070015559A1 (en) * 2002-07-27 2007-01-18 Sony Computer Entertainment America Inc. Method and apparatus for use in determining lack of user activity in relation to a system
US20060256081A1 (en) * 2002-07-27 2006-11-16 Sony Computer Entertainment America Inc. Scheme for detecting and tracking user manipulation of a game controller body
US7782297B2 (en) * 2002-07-27 2010-08-24 Sony Computer Entertainment America Inc. Method and apparatus for use in determining an activity level of a user in relation to a system
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7864159B2 (en) 2005-01-12 2011-01-04 Thinkoptics, Inc. Handheld vision based absolute pointing system
JP2006305176A (ja) * 2005-04-28 2006-11-09 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
CN100410955C (zh) * 2005-09-30 2008-08-13 腾讯科技(深圳)有限公司 在二维游戏场景中实现跟随的方法及装置
US9327191B2 (en) * 2006-05-08 2016-05-03 Nintendo Co., Ltd. Method and apparatus for enhanced virtual camera control within 3D video games or other computer graphics presentations providing intelligent automatic 3D-assist for third person viewpoints
US8913003B2 (en) 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
US8277316B2 (en) 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
JP4137151B2 (ja) * 2006-09-21 2008-08-20 株式会社スクウェア・エニックス ビデオゲーム制御システム、及びビデオゲーム制御サーバ
US8310656B2 (en) * 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) * 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US20080098448A1 (en) * 2006-10-19 2008-04-24 Sony Computer Entertainment America Inc. Controller configured to track user's level of anxiety and other mental and physical attributes
US20080096654A1 (en) * 2006-10-20 2008-04-24 Sony Computer Entertainment America Inc. Game control using three-dimensional motions of controller
WO2008063390A2 (en) * 2006-11-09 2008-05-29 Wms Gaming Inc. Wagering game with 3d gaming environment using dynamic camera
US20080217075A1 (en) * 2007-03-05 2008-09-11 Microsoft Corporation Dual joystick directional text input
US9176598B2 (en) 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
US8834245B2 (en) * 2007-08-17 2014-09-16 Nintendo Co., Ltd. System and method for lock on target tracking with free targeting capability
CN101925925B (zh) * 2008-01-21 2013-05-01 艾利森电话股份有限公司 基于预测的图像处理
JP5227910B2 (ja) * 2009-07-21 2013-07-03 株式会社コナミデジタルエンタテインメント ビデオゲーム装置、ゲーム画像表示方法及びゲーム画像表示プログラム
CN107213635B (zh) * 2017-05-25 2023-01-24 网易(杭州)网络有限公司 视野显示方法和装置
JP6588177B1 (ja) * 2019-03-07 2019-10-09 株式会社Cygames 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム
JP7233399B2 (ja) * 2020-06-23 2023-03-06 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06162170A (ja) * 1992-11-17 1994-06-10 Fujitsu Ltd ハードウェアに依存しない3次元ピック処理方式
JPH078632A (ja) * 1993-03-26 1995-01-13 Namco Ltd 3次元ゲーム装置
JPH08131653A (ja) * 1994-11-09 1996-05-28 Namco Ltd 3次元ゲーム装置および3次元ゲーム画像生成方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2080209A1 (en) * 1992-01-10 1993-07-11 Eric Allen Brewer Spatially organized computer display system
JP2799126B2 (ja) * 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
JP3227158B2 (ja) * 1993-06-16 2001-11-12 株式会社ナムコ 3次元ゲーム装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06162170A (ja) * 1992-11-17 1994-06-10 Fujitsu Ltd ハードウェアに依存しない3次元ピック処理方式
JPH078632A (ja) * 1993-03-26 1995-01-13 Namco Ltd 3次元ゲーム装置
JPH08131653A (ja) * 1994-11-09 1996-05-28 Namco Ltd 3次元ゲーム装置および3次元ゲーム画像生成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ADDISON WESLEY: "Proceedings of the Conference on Human Factors in Computing Systems, Reading", 3 May 1992, pages: 135 - 142
BAUERSFELD P: "Association for Computing Machinery: "Iterative Design of an Interface for Easy 3-D Direct Manipulation", STRIKING A BALANCE, 3 May 1992 (1992-05-03)
See also references of EP0855677A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1322473C (zh) * 2001-05-22 2007-06-20 约福·沙菲 在虚拟三维空间中显示可视内容的方法和系统
US8035635B2 (en) 2001-05-22 2011-10-11 Yoav Shefi Method and system for displaying visual content in a virtual three-dimensional space
US9396578B2 (en) 2001-05-22 2016-07-19 Yoav Shefi Method and system for displaying visual content in a virtual three-dimensional space
US9165408B2 (en) 2008-12-01 2015-10-20 Visual Domains Ltd. Method and system for browsing visual content displayed in a virtual three-dimensional space
JP2011215886A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体、及び、画像生成装置

Also Published As

Publication number Publication date
EP0855677A1 (en) 1998-07-29
CN1154955C (zh) 2004-06-23
JP3515127B2 (ja) 2004-04-05
US6259431B1 (en) 2001-07-10
CN1197524A (zh) 1998-10-28
KR100492215B1 (ko) 2005-12-21
KR19990044374A (ko) 1999-06-25
EP0855677A4 (en) 2006-02-08

Similar Documents

Publication Publication Date Title
WO1998001824A1 (fr) Processeur d'images, jeux video, procede d'affichage d'images et support d'enregistrement
JP3306397B2 (ja) エンタテインメント装置、画像生成方法および記憶媒体
JP3786132B2 (ja) ゲーム画像処理プログラム及び記憶媒体
JP5436912B2 (ja) プログラム、情報記憶媒体及びゲーム装置
JP3372832B2 (ja) ゲーム装置、ゲーム画像処理方法およびゲーム画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003325973A (ja) ゲームシステムおよびゲームプログラム
JP3786669B2 (ja) ゲームシステム、プログラム及び情報記憶媒体
JP2008200295A (ja) ゲーム装置、プログラム及び情報記憶媒体
JP4205747B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2011258158A (ja) プログラム、情報記憶媒体及び画像生成システム
JPH10154240A (ja) 画像作成装置および画像表示装置
JP2004341572A (ja) 画像生成システム、プログラム及び情報記憶媒体
US10076704B2 (en) Game device
JP2000288248A (ja) ゲーム装置及び情報記憶媒体
JPH11146978A (ja) 3次元ゲーム装置及び情報記憶媒体
JP2002373350A (ja) 画像処理装置
JPH11467A (ja) ゲーム装置
JP2005100109A (ja) 画像生成情報、情報記憶媒体及び画像生成装置
JPH10113465A (ja) ゲーム装置、画面生成方法及び情報記憶媒体
JP2000135375A (ja) ゲーム装置、情報記録媒体および画像処理方法
JP5213913B2 (ja) プログラム及び画像生成システム
JP2002306849A (ja) 電子ゲーム装置
JPH0830808A (ja) 画像合成装置
JP7317893B2 (ja) プログラム、方法及び情報処理装置
JP3491754B2 (ja) ゲーム装置、ゲーム画面の表示方法及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 97190843.5

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 1997929531

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1019980701618

Country of ref document: KR

Ref document number: 09029771

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1997929531

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019980701618

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019980701618

Country of ref document: KR