WO2004110577A1 - 映像表示装置、映像表示方法および映像表示システム - Google Patents

映像表示装置、映像表示方法および映像表示システム Download PDF

Info

Publication number
WO2004110577A1
WO2004110577A1 PCT/JP2004/007970 JP2004007970W WO2004110577A1 WO 2004110577 A1 WO2004110577 A1 WO 2004110577A1 JP 2004007970 W JP2004007970 W JP 2004007970W WO 2004110577 A1 WO2004110577 A1 WO 2004110577A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
moving object
image
sub
game
Prior art date
Application number
PCT/JP2004/007970
Other languages
English (en)
French (fr)
Inventor
Keiichiro Toyama
Original Assignee
Sony Computer Entertainment Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc. filed Critical Sony Computer Entertainment Inc.
Priority to CN2004800158626A priority Critical patent/CN1802193B/zh
Priority to EP04745680A priority patent/EP1640046A4/en
Priority to JP2005506905A priority patent/JP4252575B2/ja
Publication of WO2004110577A1 publication Critical patent/WO2004110577A1/ja
Priority to US11/296,692 priority patent/US8118671B2/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/305Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for providing a graphical or textual hint to the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6623Methods for processing data by generating or executing the game program for rendering three dimensional images for animating a group of characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6653Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6669Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera using a plurality of virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character change rooms

Definitions

  • Video display device video display method and video table
  • the present invention relates to image display technology, and more particularly to technology for displaying an image related to the outside of an object moving in a virtual space.
  • the present invention has an object to provide a technology for realizing a new video effect and a technology for providing a new game feature.
  • a first processing unit for displaying a main video from a viewpoint of a first moving object operated by a user in a virtual space
  • a video A video processing apparatus comprising: a second processing unit that switches from a video to a sub-video from the viewpoint of a second moving object among moving objects other than the first moving object and displays the sub-image.
  • Another aspect of the present invention is a first moving object operated by a user in a virtual space.
  • a management unit that manages progress of a game in which a scenario progresses by a chain of a plurality of actors, a storage unit that stores a predetermined progression order of scenario progress, and a game. And a processing unit that displays a video that reflects the progress status of the scenario and the progression order of the scenarios.
  • a plurality of video display devices are connected via a network, and a user of each video display device operates the movement of a mobile object operated in a virtual space.
  • each video display device includes a first processing unit for displaying a main video from the viewpoint of a first moving object operated by the user in the virtual space, a video from another video from the main video, and And a second processing unit configured to switch to a sub-image from the viewpoint of the second moving object to be operated.
  • new video display can be realized. Further, according to the video display device of the present invention, when the processing technology is applied to a game, the game property can be improved.
  • the game provided by the game device configures one large flow of story by an aggregation of a plurality of scenarios.
  • the whole story is also called a scenario
  • scenario when the term “scenario” is used hereinafter, unless otherwise specified, it shall mean an individual scenario that constitutes the whole story.
  • the various characters are the protagonists among the many moving objects or characters in the game. That is, it is set as a playable character operated by the user.
  • various characters that do not have a specific protagonist become masters and prominences in each scenario.
  • Such a game is referred to as a “group image game”, and in the present embodiment, a survival group image game aiming at survival from an enemy character is assumed among such group image games.
  • group image game a survival group image game aiming at survival from an enemy character is assumed among such group image games.
  • the flow of the game will be described first.
  • the user has the ability to feel as if he or she is looking at a video that another character is watching. Viewing an image from the point of view of another character is called a “vision jack”. The closer you are to each other, the closer you see, the more clearly you can see the images that other characters are watching, and the ability to clearly hear the sounds that other characters can hear.
  • the character targeted for view jacks is an enemy character, and the user must grasp the positional relationship and distance between the character operated by himself and the enemy character by viewing the image from the viewpoint of the enemy character. Can. In this way, the scenario is cleared by running away from the enemy character or chasing down the enemy character.
  • the user operates the characters set for each scenario to categorize each scenario.
  • the scenario the situation, the purpose of the scenario, the clear condition, etc., which are not the same as the operating character, are different.
  • the branch destination changes after that depending on which condition is used to end the clear condition, which is not limited to one.
  • the game device realizes the above video effects, assistance for the user's game operation, and the like using a novel video display technology.
  • FIG. 1 shows a configuration of a game device 10 according to an embodiment of the present invention.
  • the game apparatus 10 includes an operation unit 12, an input reception unit 14, a key assignment unit 16, a switching unit 18, a processing unit 20, a progress management unit 26, a reading unit 28, a storage unit 30, an output unit 32, a display 34 and a speaker 36.
  • the game device 10 is realized by a CPU, a memory, a program loaded into the memory, etc., but in this case, it depicts functional blocks realized by the cooperation of them. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the program may be recorded on a recording medium readable by the CPU. Also, it may be supplied from the outside through the network.
  • the game device 10 may be a game machine owned by a user or a general computer. Also, the game apparatus 10 may be configured as a system including a server and user terminals connected via a network. When configured as a system, in order to reduce the load on the user terminal, the operation unit 12 and the output unit 32 are provided on the user terminal side, and the configuration for performing main processing such as the processing unit 20 is on the server side. It may be provided. Even in this case, the user terminal may be a game dedicated machine or a general computer, or may be a PDA (Personal Digital Assistants) terminal, a portable terminal such as a mobile phone, or the like.
  • PDA Personal Digital Assistants
  • the operation unit 12 is a user interface for inputting an instruction from the user.
  • the operation unit 12 is a controller for a game, and in this case, the operation unit 12 includes a plurality of keys (buttons) and joysticks. Ru.
  • the user views the game image displayed on the display 34 and uses the operation unit 12 to perform an operation related to the image, that is, an operation necessary for the game progress.
  • FIG. 2 is a diagram showing a network environment in which a plurality of game devices 10 are connected.
  • a plurality of game devices 10 are connected via a network 11, and this network environment constitutes a video display system, in this example the game system.
  • the network 11 may be a network of various protocols, such as the Internet or an intranet.
  • the game device 10 is configured to have a network connection function.
  • any one game device 10 may function as a server, and the other game devices 10 may function as clients.
  • a server for managing the game progress between the game devices 10 may be separately provided. In this case, even if the plurality of game devices 10 function as clients, Good. Also, regardless of whether each game device 10 operates individually, the game operation instruction by the user is transmitted to the other game devices 10 through the network 11, and the game in the other game devices 10 is also performed. By accepting the operation instruction through the network 11, it is possible to realize the game progress synchronized with the plurality of game devices 10. In this game system, the user of each game device 10 operates in the virtual space. A video table that reflects the motion of a moving object on the video of another video display device.
  • FIG. 3 shows a game machine controller which is an example of the operation unit 12.
  • This game machine controller is configured to have a key group 50 consisting of an ⁇ ⁇ key, a ⁇ ⁇ key, a mouth key, and an X key, two joysticks 52 rotatable 360 degrees, a cross key 54 and the like.
  • the operation unit 12 is not limited to the configuration as shown in FIG. 3, but may be a user interface such as a keyboard or touch panel. It is preferable that the operation unit 12 have a structure capable of inputting an arbitrary angle like the joystick 52.
  • the reading unit 28 receives the media 40 having the game data recorded thereon.
  • the media 40 is, for example, a CD-ROM or a DVD, and stores game data such as AV data of a game scene, a game program, and the like.
  • the game program recorded on the medium 40 may be directly executed by the processing unit 20 or may be executed by the processing unit 20 by decoding.
  • the reading unit 28 drives the media 40 to read game data recorded on the medium 40 into the storage unit 30.
  • the processing unit 20 executes the read game data.
  • the processing unit 20 includes a first processing unit 22 and a second processing unit 24.
  • the first processing unit 22 performs display processing of a video from the viewpoint of the character operated by the user and audio processing corresponding to the video.
  • the character operated by the user is referred to as the "main character”
  • the image from the viewpoint of the main character is referred to as the "main image”.
  • it is set for each main character force scenario operated by the user.
  • the second processing unit 24 is positioned as one that mainly performs video processing other than the main character, and performs display processing of video other than the main video and audio processing corresponding to the video.
  • videos other than the main video are called “sub video”.
  • the sub video includes, for example, a video from the viewpoint of characters other than the main character, a video reflecting the relationship between scenarios, and the like.
  • characters other than the main character are referred to as "sub-characters”, and in the present embodiment, it is assumed that a sub-group game is used, so among sub-characters, those set as enemies are called “enemy characters”. There is also.
  • the functions of the first processing unit 22 and the second processing unit 24 in the processing unit 20 are realized by a computer such as a CPU.
  • the game device 10 when the main video is displayed on the display 34 during normal scenario progress, it is desired to operate the user character and confirm the position of the enemy character, or the scenario If you want to check the relationship between the sub-pictures, etc., display the sub-picture on the display 34 as appropriate. In order to clear the scenario, it is possible to attract the user's interest to the game, as it is necessary to check the sub-picture efficiently.
  • the progress management unit 26 manages the progress of a game in which a scenario progresses by a chain of a plurality of actors.
  • a main character exists for each scenario, and as a relationship between these characters, it is another scenario that the main character has completed a predetermined event in a certain scenario.
  • the progress management unit 26 manages the progress of such a game. For example, in order to perform an event B, if it is a condition that another event A has been completed, it is necessary for the user to perform the event A before the game apparatus 10 force event B. May be presented.
  • the progress management unit 26 may attempt consistency within one scenario only by trying to match consistency among the scenarios.
  • the progress management unit 26 manages the progress of the game, the user can recognize the chain of a plurality of main characters, that is, the necessity of the coordination work between the characters in the game.
  • FIG. 4 shows an example of the main video displayed on the display 34.
  • the main video is represented as a video including a video from the viewpoint of the main character, that is, a video of the background of the main character.
  • the presentation method of the main video is one of the effects, and by making the video from behind the main character, the user can view the video of the main character's gaze direction, and also objectively watch the main character. Can improve the game's realism. It is also possible to display the main character viewpoint video purely by excluding the main character video from the main video. In any case, in the present embodiment, the main video may include a video from the viewpoint of the main character.
  • FIG. 5 (a) shows an example of the sub-image displayed on the display 34. As shown in FIG.
  • This sub video is a video from the viewpoint of the enemy character that is the sub character.
  • the enemy character exists at a position where the main character can be directly seen, that is, at a position without an obstacle between the enemy character and the main character.
  • the user recognizes that the enemy character approaches the left side of the main character by watching the sub-image, and the danger is approaching.
  • FIG. 5 (b) shows another example of the sub-image displayed on the display 34.
  • This sub-image is also an image from the viewpoint of the enemy character.
  • the enemy character is in a position where the main character can not be seen directly.
  • the symbol "+" represents the direction in which the main character exists, and indicates that the main character exists behind the tree.
  • the size of the + mark expresses the distance between the enemy character and the main character. The user can intuitively grasp the distance between the main character and the enemy character by indicating the + mark largely if the distance is short and indicating the + mark small if the distance is far. The user recognizes the direction and distance of the enemy character by looking at this sub-image, and determines the moving direction of the main character thereafter.
  • the symbols to be displayed are not limited to the “ten” mark and symbols of other shapes may be used.
  • the main character may be represented symbolically, even if the enemy character can see directly without being able to see the main character directly.
  • a display is made to intuitively inform the user that it is in a position where it can not be viewed directly, such as representing the main character that is not symbolically expressed semi-transparently. Thank you.
  • the sub-pictures shown in FIG. 5 (a) and FIG. 5 (b) are displayed on the display 34 by operating the operation unit 12 from the state where the main picture is displayed and entering the “view jack” mode. Ru.
  • the main video shown in FIG. 4 is displayed on the device play 34 by performing a predetermined operation on the operation unit 12 from the state where the sub video is displayed.
  • the input receiving unit 14 receives a mode switching instruction from the operation unit 12 and transmits the mode switching instruction to the switching unit 18.
  • the switching unit 18 selects the position of the first processing unit 22 or the second processing unit 24 to select the display video from the main video to the sub video or from the sub video to the main video. Switch.
  • FIG. 6 shows the configuration of the first processing unit 22.
  • the first processing unit 22 includes the main video processing unit 60 and the sound.
  • a voice processing unit 62 is provided.
  • the main video processing unit 60 performs display processing of the viewpoint video of the main character
  • the audio processing unit 62 performs audio processing corresponding to the video.
  • the main video processing unit 60 and the audio processing unit 62 process the game data read from the medium 40 into the storage unit 30 based on the operation instruction input by the user. By this processing, the main character is operated in the virtual space.
  • the video data and audio data reflecting the operation instruction from the user are supplied to the output unit 32, and are output from the display 34 and the speaker 36, respectively.
  • the first processing unit 22 records that effect in the storage unit 30.
  • FIG. 7 shows the configuration of the second processing unit 24.
  • the second processing unit 24 includes a sub-image processing unit 70 and an audio processing unit 90.
  • the sub video processing unit 70 performs display processing of a video from the viewpoint of the sub character, a video indicating the relationship between the scenarios, and the like, and the audio processing unit 90 performs audio processing corresponding to the video. Similar to the main video processing unit 60 and the audio processing unit 62 in the first processing unit 22, the sub video processing unit 70 and the audio processing unit 90 receive the game data read into the storage unit 30 by the user. Process based on the operation instruction.
  • the sub video processing unit 70 includes a video mode determination unit 72, a lock determination unit 74, a pointing direction detection unit 76, a position detection unit 78, a sub video generation unit 80, and an information acquisition unit 82.
  • the video mode determination unit 72 determines whether the mode selected via the operation unit 12 is a force as the “visual field jack mode” or a “link navigation mode”.
  • the lock determination unit 74 determines whether or not the sub-image is fixed to the viewpoint image of a specific enemy character. In the case where the sub-image is fixed, the user selects an enemy character to be noted and stores it in the storage unit 30 (see FIG. 1) when entering the visibility jack mode before the previous time. If you are out of view jack mode while locking the lock.
  • This view lock is a simple operation of the operation unit 12 when the user recognizes that an enemy character is present in the direction in which the main character tries to move. There is a way to register enemy characters in the storage unit 30 so that they can be switched in a random manner.
  • the viewpoint video of the enemy character is displayed on the display 34 at the moment when the user switches the video from the main video to the sub video.
  • the pointing direction detection unit 76 checks whether an enemy character exists in the direction in which the joystick 52 is tilted.
  • the game controller shown in FIG. 3 has two joysticks 52.
  • the left joystick 52 is used for pointing.
  • the joystick 52 can be flipped to any of front, rear, left and right.
  • the front direction is set as the line of sight of the main character.
  • the pointing direction detection unit 76 detects the direction in which the other character is present, based on the direction in which the main character is facing, that is, the viewing direction of the main image.
  • FIG. 8 is a diagram for explaining the sub character detection function of the pointing direction detection unit 76. As shown in FIG.
  • the reference direction is set to the line of sight direction of the main character 100a, and the direction in which the sub character exists is detected using a clockwise angle around the position of the main character 100a.
  • the sub-character 100b is in the viewing direction, that is, in the direction of the angle 0.
  • the sub-character 100c is in the direction of the angle ⁇
  • the sub-character 100d is in the direction of the angle ⁇
  • the sub-character 100e is in the direction of the angle ⁇ .
  • the pointing direction detection unit 76 detects the tilting direction of the joystick 52, and determines whether or not the sub character exists in that direction.
  • the illustrated example shows a state where the sub-character 100b is present in an area in which the joystick 52 is tilted in the direction of the sight line and a predetermined angle is given to the left and right with respect to the direction, that is, the hatched area.
  • the pointing direction detection unit 76 transmits the detection result to the position detection unit 78.
  • the pointing direction detection unit 76 calculates the direction in which the sub character exists with respect to the main character, and when the direction instructed by the user matches the direction obtained by the calculation, the user's pointing direction To detect the presence of a sub-character.
  • “matching in direction” is a concept including the case in which the directions are similar, that is, the direction in which the sub-character is included is included in the area given a predetermined angle in the direction designated by the user. Including the case.
  • the position detection unit 78 determines whether the main character 100a is present at the viewing angle of the sub character 100b.
  • FIG. 9 (a) shows that the main character 100a is within the viewing angle of the sub character 100b.
  • FIG. 9 (b) shows a state where the main character 100a is not within the viewing angle of the sub character 100b. If it is within the view angle, the position detection unit 78 detects the direction in which the main character 100a is present in the field of view of the sub character 100b. The direction in which the main character 100a is present may be determined as a clockwise or counterclockwise angle with respect to the direction dividing the viewing angle, that is, the viewing direction of the sub character 100b. The detection results of the pointing direction detection unit 76 and the position detection unit 78 are transmitted to the sub-image generation unit 80.
  • Sub-picture generation unit 80 receives the outputs of pointing direction detection unit 76 and position detection unit 78, and generates a sub-picture to be a viewpoint image of the sub character. First, when it is detected in the pointing direction detection unit 76 that there is no sub character in the predetermined direction with respect to the main character 100a, the sub video generation unit 80 generates a noise video as a sub video.
  • the noise video is a video of “Sandstorm” projected at the end of the television program, and by transmitting a noise video, the user can intuitively recognize that the sub character does not exist in the designated direction. S can.
  • the sub-image generating unit 80 when it is detected that the sub-character is present in the instructed predetermined direction, the sub-image generating unit 80 generates an image from the viewpoint of the sub-character as a sub-image.
  • the position detection unit 78 detects the presence of the main character within the viewing angle of the sub character, as shown in FIG. 5B if an obstacle is present between the main character and the sub character.
  • the direction of the main character is represented by a symbol such as +.
  • the sub video generation unit 80 may express the distance between the main character and the sub character by the size of the + mark. Further, the sub-image generation unit 80 may process the sub-image or the sound according to the distance between the main character and the sub-character.
  • the sharpness of the sub-image may be increased by increasing the sharpness of the sub-image as the distance decreases, and the sharpness of the sub-image may decrease as the distance increases even if the sound is increased, and the sound may be reduced. .
  • the user can intuitively grasp the distance and positional relationship between the main character and the sub character, and can realize novel game characteristics.
  • the user can store specific sub-characters in the storage unit 30 (see FIG. 1) in association with a predetermined operation state of the operation unit 12. Specifically, when the joystick 52 is operated to jack the field of view of the sub character, any one of the keys 50 shown in FIG.
  • the sub character is stored in the storage unit 30 by pressing the key. For example, pressing the “o key” of the key group 50 while displaying the visual field of a certain sub character allows assigning the viewpoint video of that character to the ⁇ ⁇ key.
  • the key assignment unit 16 receives a key input of the user via the input reception unit 14, the key assignment unit 16 assigns a sub character to the key and stores the sub character in the storage unit 30.
  • the assignment of keys, ie registration of subcharacters can be performed as many as the number of keys.
  • the key group 50 consists of four keys, so up to four sub-characters can be stored in the storage unit 30.
  • the lock determination unit 74 determines whether or not the field of view is locked, and if locked, the sub character's sub character
  • the position detection unit 78 is instructed to generate an image.
  • the user can select and press the key to position the lock determination unit 74 so as to generate a sub-picture of the corresponding sub-character.
  • the position detection unit 78 detects the presence direction of the main character in the field of view of the sub character, and the sub video generation unit 80 generates a sub video of the viewpoint video of the sub character.
  • the processes of the position detection unit 78 and the sub-image generation unit 80 are as described above.
  • FIG. 10 shows a processing flow of video display in the visibility jack mode.
  • the lock semi-IJ determination unit 74 determines whether or not the field of view of a specific sub character is locked in the field of view jack mode (S10). For example, when returning to the main image while fixing the field of view of a particular sub character in the previous field of view jack mode, it is determined that the field of view is locked in the next field of view jack mode (Y in S10). ).
  • the viewpoint image of the sub character is displayed on the display 34 (S12).
  • the position detection unit 78 detects the direction in which the main character is present, and the sub image generation unit 80 detects the main character direction in the viewpoint image of the sub character. Express by symbols.
  • the pointing direction detection unit 76 detects the input angle of the joystick 52 (S22). Further, the pointing direction detection unit 76 detects the existence position of the sub character, and obtains the direction of the sub character with respect to the sight direction of the main character. Thereby, it is determined whether or not the sub character exists in the direction designated by the joystick 52 (S24). If the sub-character is present (Y in S24), the viewpoint video of the sub-character is displayed (S12), and if it is not present (N in S24), the noise video is displayed (S14). If the joystick 52 is turned 360 degrees while being tilted, the viewpoint image and the noise image of the sub character are alternately displayed, and the user can easily search for the direction in which the sub character exists around the main character.
  • the key assignment unit 16 stores the input key and the sub character in the storage unit 30 in association with each other. (S28). Thereafter, when the key is input in the visibility jack mode, the viewpoint video of the corresponding sub character is displayed. If key input is not performed (N in S26), key allocation is not performed. Subsequently, it is determined whether there is a mode change, that is, whether to exit from the visual jack mode (S30), and if the visual jack mode is to be continued (N in S30), the user operates the joystick 52 to receive (S20) The input angle is detected (S22), and the presence or absence of the sub character is detected (S24). After that, repeat the above process. When a mode change instruction is input from the user (Y in S30), the image display in the visibility jack mode is ended.
  • the game device 10 presents to the user an image that reflects the progress of the game and the progression order of the scenarios.
  • the game device 10 described above provides a group image game in which a scenario progresses by a chain of a plurality of players.
  • the progress status of the scenario in the group image game is managed by the progress management unit 26.
  • the storage unit 30 stores the progressing order of a predetermined scenario.
  • each scenario may exist independently, but the complexity of the game is realized by giving a predetermined relationship between the scenarios, and the user's interest To attract It is possible to do S.
  • S the relationship between scenarios.
  • Event A Remove a key from an enemy character.
  • Event B Put the stolen key in the key box.
  • Event C Remove the key from the key box and unlock the door.
  • the above three events are realized by respective main characters in independent scenarios.
  • the realization of these events may be required during one scenario, and one scenario may require the realization of two events, and another scenario may require the realization of one event.
  • the scenario has a preset order of progression, and Event A, Event B and Event C need to be achieved in this order.
  • the achievement order of this event is referred to as a scenario progression order. That is, in the present embodiment, the progression order of the scenarios is used as a concept including the order relationship of the events in the scenario which is not only the order relationship among the scenarios.
  • FIG. 11 shows an example of the sub-image displayed on the display 34 in the link navigation mode.
  • the sub video in the link navigation mode is called "link navigation video" to distinguish it from the viewpoint video of the sub character described above.
  • the user can shift to the link navigation mode by performing a predetermined key operation of the operation unit 12.
  • the video mode determination unit 72 determines that the link navigation mode is selected through the operation unit 12 (see FIG. 1)
  • the information acquisition unit 82 receives the link navigation image from the storage unit 30. Get the information you need to generate.
  • the storage unit 30 stores the progression order of predetermined scenarios. Further, the progress management unit 26 manages the progress of a game in which a scenario progresses by a chain of a plurality of players, and records the progress of the game, specifically, a scenario (event) which has already ended, in the storage unit 30. For example, the storage unit 30 may have a list of scenarios in the game, and the progress management unit 26 may set a flag indicating the end of the scenario to the list each time the scenario ends.
  • the information acquisition unit 82 acquires, from the storage unit 30, information indicating the progress of the game and the progression order of the scenarios.
  • the sub video generation unit 80 sends the information acquisition unit 82 the progress of the acquired game and the series Based on the progression order of the nario, a link navigation image, which is a sub image, is generated.
  • FIG. 11 is an initial screen of the link navigation video showing the proceeding sequence of the scenario, in which the character Y should perform the event A, the character X should perform the S event B, and the character Z should perform the event C in this order. It is done.
  • the order between events is represented by arrows.
  • the user can view the link navigation image and recognize which scenario should be performed first and which character should be used to advance the scenario.
  • the information acquisition unit 82 transmits the broken portion to the sub-image generation unit 80.
  • the sub video generation unit 80 expresses the failure location in the link navigation video.
  • the secondary video generation unit 80 should present the event before event B to present to the user that a logical failure has occurred.
  • the sub-image generation unit 80 applies a color to the display of the completed event, and blinks and displays the currently executing event. The user can recognize that event A should be performed prior to event B if event B is blinking and event A has not been subjected to display processing completed.
  • a warning may be expressed directly to indicate that event A is not being performed.
  • the user can easily recognize that the event currently being executed should be changed by expressing in the link navigation video the logical failure caused by the action between multiple characters. Is possible.
  • game device 10 of the present embodiment it is possible to provide a game in which some relation between scenarios is included, and the user can smoothly progress the game based on the link navigation image. Can. For example, it is also possible to improve gameplay by including an element of puzzle solving in the relationship between scenarios. In addition, it is also possible to dynamically generate a new relationship between scenarios depending on the conditions that cleared the scenario, in which case new events will be displayed in the link navigation image, greatly improving the game performance. To contribute. As described above, the game apparatus 10 can improve the game performance and realize smooth progress of the game by switching and displaying the main video and the sub video.
  • FIG. 12 is a diagram for explaining the processing method of the expression video of the character in the present embodiment.
  • the game device 10 changes the facial expression of the character using the alpha-plowing technology in order to reduce the amount of calculation of image data.
  • the storage unit 30 stores a plurality of images of facial expressions that are texture data.
  • the illustrated example is an angry expression image 102a and a smiling expression image 102b.
  • FIG. 13 shows the configuration of the sub-image processing unit 70 that performs the scrambling.
  • the sub-image processing unit 70 includes an emotion determination unit 110, a texture image selection unit 112, a moving image acquisition unit 114, and a fitting unit 116.
  • the display processing using the coding is used as a function to generate the facial expression of the character in the entire processing unit 20, which is preferably incorporated in the main video processing unit 60 (see FIG. 6) which only includes the sub video processing unit 70. Be done.
  • Emotion determination unit 110 determines the character's emotion from the situation of the character. Emotions are typically emotions, and are exemplified by fear, embarrassment or feeling unrest.
  • the storage unit 30 records, in advance, as a texture image, a plurality of expression images corresponding to various emotions that may occur in the character according to the scenario of the game.
  • emotion determination unit 110 determines that the main character is in a fear emotion, and when it escapes from the enemy character, it is in a relief emotion. Determine that. As described above, the emotion determination unit 110 determines the character's emotion by grasping the situation where the character is placed.
  • Texture image selection unit 112 selects a texture image of a facial expression from storage unit 30 according to the determined emotion, and inset unit 116 is used as a facial expression of the character at a predetermined position on the screen, ie, the character's face. It will be displayed in the position.
  • the motion of the character is represented in virtual space using three-dimensional CG or the like.
  • the texture image selection unit 112 selects the texture image of the changed expression from the storage unit 30.
  • the moving image acquisition unit 114 performs blending between the expression before the change and the image of the change after the expression, and acquires a series of moving images as one object. As shown in FIG. 12, the moving image acquisition unit 114 performs a blending between the angry expression image 102a and the smiling expression image 102b to obtain a series of moving images from the angry expression to the smiling expression. You can easily capture facial expression changes due to emotional changes .
  • the fitting unit 116 fits and displays this object at a predetermined position on the screen. This makes it possible to realize the transition of the expression depending on the character's emotion with a small amount of data operation. In particular, this image processing technology is applied to images of relatively simple and relatively small areas of the screen, as in the case of expressing the transition between closed and open, or closed, eyes of the character. By doing this, it is possible to exert sufficient visual effects.
  • one user power S main character is assumed to be operated in the group image game. It is also possible for a plurality of users to operate each main character. In that case, in one scenario, a plurality of users who cooperate with each other to complete a plurality of predetermined execution orders may smoothly perform the game by confirming the link navigation image as appropriate. It is possible to Also, when a plurality of game devices 10 are connected via a network, in each game device 10, the user can view the viewpoint image of the main character operated by himself and the character viewpoint of the character operated by another user. It is possible to switch and display images and it is possible to confirm the status of each other without having a conversation.
  • a character that is a person is assumed as a moving object, but the present invention is not limited to this, and may be an animal, or a vehicle such as a car or an airplane.
  • moving objects include objects that move in a virtual space, such as vehicles that do not inherently have vision, such as vehicles. For objects that do not have a vision, such as a vehicle, setting a virtual viewpoint to the vehicle provides a moving object in the present invention.
  • FIG. 1 A diagram showing a configuration of a game device according to an embodiment.
  • FIG. 2 is a diagram showing a network environment to which a game device is connected.
  • FIG. 3 is a view showing a game machine controller which is an example of an operation unit.
  • FIG. 4 is a view showing an example of a main video displayed on a display.
  • FIG. 5 (a) is a diagram showing an example of a sub-image displayed on a display, and (b) is a diagram showing another example of the sub-image.
  • FIG. 6 is a diagram showing the configuration of a first processing unit.
  • FIG. 7 is a diagram showing the configuration of a second processing unit.
  • FIG. 8 is a diagram for explaining a sub character detection function of a pointing direction detection unit.
  • FIG. 9 (a) is a diagram showing a state in which a main character enters a viewing angle of a sub character, and (b) is a diagram showing a state outside the viewing angle.
  • FIG. 10 is a diagram showing a processing flow of image display in the visibility jack mode.
  • FIG. 11 is a view showing an example of a sub-image displayed in the link navigation mode.
  • FIG. 12 is a diagram for explaining a processing method of expression video.
  • FIG. 13 is a diagram showing the configuration of a sub-image processing unit that performs pre-processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 新規な映像効果を実現する映像表示装置を提供する。本発明のゲーム装置10によると、仮想空間における複数キャラクタの視点映像を任意に切り替えることができる。第1処理部22は、メインキャラクタの視点映像を担当し、第2処理部24は、サブキャラクタの視点映像を担当する。この技術をゲームに応用した場合、サブキャラクタからの視点映像で自身のメインキャラクタの位置などを認識することができ、新規な映像効果を実現するとともに、ゲーム性を向上することができる。

Description

明 細 書
映像表示装置、映像表示方法および映像表;
技術分野
[0001] 本発明は、映像表示技術に関し、特に、仮想空間内で移動するオブジェ外に関す る映像を表示する技術に関する。
背景技術
[0002] コンピュータの処理能力の向上に伴い、様々な映像処理技術が実現されるようにな つている。特に仮想空間においてキャラクタを操作するゲームでは、映像効果がゲー ムの演出を高めることとなり、近年の傾向として、その重要性は格段に高くなつている 発明の開示
発明が解決しょうとする課題
[0003] このようにゲーム業界では、独自のゲーム性を提供するべぐ映像表示に工夫を凝 らし、他のゲームとの差別化を図ることが重要な要素となっている。映像効果の良し 悪しがゲームの人気を左右するため、ゲーム開発の方向性も、新規な映像表現技術 の実現に力が注がれるケースが多レ、。またゲーム業界に限らず、バーチャルな映像 を提供する全ての業界において、ユーザの興味関心を引くための斬新な映像表示 技術の開発に注目が集まっている。
[0004] そこで本発明は、新規な映像効果を実現する技術、また新たなゲーム性を提供す る技術を提供することを目的とする。
課題を解決するための手段
[0005] 上記目的を達成するために、本発明のある態様は、仮想空間においてユーザが操 作する第 1の移動オブジェクトの視点からの主映像を表示する第 1処理部と、映像を 、主映像から、第 1の移動オブジェクト以外の移動オブジェクトのうちの第 2の移動ォ ブジエタトの視点からの副映像に切り替えて表示する第 2処理部とを備える映像表示 装置を提供する。
[0006] 本発明の別の態様は、仮想空間においてユーザが操作する第 1の移動オブジェク トに対して、第 2の移動オブジェクトが存在する方向を演算し、ユーザにより指示され た方向と演算により求めた方向とがー致する場合に、第 2の移動オブジェ外に関す る映像を表示する映像表示方法を提供する。
[0007] また、本発明のさらに別の態様は、複数主体の連鎖によりシナリオが進行するグー ムの進行管理を行う管理部と、予め定められたシナリオの進行順序を記憶する記憶 部と、ゲームの進行状況およびシナリオの進行順序を反映した映像を表示する処理 部とを備える映像表示装置を提供する。
[0008] また、本発明のさらに別の態様は、複数の映像表示装置がネットワークを介して接 続され、それぞれの映像表示装置のユーザが仮想空間において操作する移動ォブ ジェタトの動きを他の映像表示装置の映像に反映する映像表示システムを提供する
。この映像表示システムにおいて、各映像表示装置は、仮想空間においてユーザが 操作する第 1の移動オブジェクトの視点からの主映像を表示する第 1処理部と、映像 を、主映像から、別のユーザが操作する第 2の移動オブジェクトの視点からの副映像 に切り替えて表示する第 2処理部とを備える。
[0009] なお、以上の構成要素の任意の組合せや、本発明の表現を方法、装置、システム 、記録媒体、コンピュータプログラムなどの間で変換したものも、本発明の態様として 有効である。
発明の効果
[0010] 本発明の映像表示装置によれば、新規な映像表示を実現することができる。また本 発明の映像表示装置によれば、この処理技術をゲームに応用した場合に、ゲーム性 を向上することができる。
発明を実施するための最良の形態
[0011] 以下では、本発明の映像処理技術をゲームに応用した実施の形態について説明 する。実施の形態に係るゲーム装置により提供されるゲームは、一つの大きな流れの ストーリーを、複数のシナリオの集合体で構成する。なお全体のストーリーをシナリオ とも呼ぶが、以後、シナリオというときは、特に明示しない限り、全体のストーリーを構 成する個々のシナリオを意味するものとする。シナリオ中では、ゲームにおける多数 の移動オブジェクトすなわちキャラクタの中から、様々なキャラクタがそれぞれ主人公 、つまりユーザにより操作されるプレイヤブルキャラクタとして設定されている。このゲ ームでは、特定の主人公が存在するのではなぐ様々なキャラクタが各シナリオで主 人公となる。このようなゲームを「群像ゲーム」と呼び、本実施の形態では、そのような 群像ゲームのうち、敵キャラクタからの生き残りを目的としたサバイバル群像ゲームを 想定する。本実施の形態の理解を容易にするために、まずゲームの流れについて説 明する。
[0012] このゲームでは、ユーザが操作するキャラクタ力 他のキャラクタが見ている映像を 自分が見ているかのように感じ取る能力を有している。他のキャラクタの視点から映像 を見ることを「視界ジャック」と呼ぶ。お互いが近くにレ、ればレ、るほど他のキャラクタが 見ている映像を鮮明に見ることができ、また他のキャラクタに聞こえる音をクリアに聞く こと力 Sできる。多くの場合、視界ジャックする対象となるキャラクタは敵キャラクタであり 、ユーザは、敵キャラクタの視点からの映像を見ることで、自身の操作するキャラクタと 敵キャラクタとの位置関係および距離を把握することができる。これにより、敵キャラク タから逃げ、または敵キャラクタを追い詰めるなどして、シナリオをクリアしていく。
[0013] ユーザは、シナリオごとに設定されているキャラクタを操作して個々のシナリオをタリ ァしていく。シナリオ中では、操作するキャラクタだけでなぐシチュエーションゃシナ リオの目的、またクリア条件などがそれぞれ異なる。クリア条件は、 1つに限定するも のではなぐどの条件でシナリオを終了するかによって、その後の分岐先が変わること もある。本実施の形態に係るゲーム装置は、以上の映像効果や、ユーザのゲーム操 作のアシストなどを、新規な映像表示技術を用いて実現する。
[0014] 図 1は、本発明の実施の形態に係るゲーム装置 10の構成を示す。ゲーム装置 10 は、操作部 12、入力受付部 14、キー割当部 16、切替部 18、処理ユニット 20、進行 管理部 26、読出部 28、記憶部 30、出力部 32、ディスプレイ 34およびスピーカ 36を 備える。ゲーム装置 10は、 CPU,メモリ、メモリにロードされたプログラムなどによって 実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。 したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれ らの組合せによっていろいろな形で実現できることは、当業者に理解されるところであ る。なお、プログラムは、 CPUにより読み取り可能な記録媒体に記録されていてもよく 、また外部からネットワークを通じて供給されるものであってもよレ、。
[0015] ゲーム装置 10は、ユーザが所有するゲーム専用機や一般的なコンピュータであつ てよレ、。またゲーム装置 10は、ネットワークで接続されたサーバおよびユーザ端末を 含んだシステムとして構成されてもよレ、。システムとして構成される場合には、ユーザ 端末の負荷を軽減するために、操作部 12や出力部 32などがユーザ端末側に設けら れ、処理ユニット 20などのメイン処理を行う構成がサーバ側に設けられてもよい。この 場合であっても、ユーザ端末はゲーム専用機や一般的なコンピュータであってよぐ また PDA(Personal Digital Assistants)端末や携帯電話などの携帯端末などであって あよい。
[0016] 操作部 12は、ユーザからの指示を入力するユーザインタフェースであり、ゲーム用 のコントローラであってよぐその場合には操作部 12が、複数のキー(ボタン)やジョイ スティックから構成される。ユーザはディスプレイ 34に表示されたゲーム映像を見な がら、操作部 12を用いて映像に関する操作、すなわちゲーム進行に必要な操作を 行う。
[0017] 図 2は、複数のゲーム装置 10が接続されたネットワーク環境を示す図である。複数 のゲーム装置 10がネットワーク 11を介して接続され、このネットワーク環境は、映像 表示システム、この例ではゲームシステムを構成する。ネットワーク 11は、インターネ ットゃイントラネットなど、各種プロトコルのネットワークであってよい。ゲーム装置 10は 、ネットワーク接続機能を有して構成される。
[0018] このネットワーク環境において、いずれか 1つのゲーム装置 10がサーバとして機能 し、他のゲーム装置 10はクライアントとして機能してもよい。また、図示した複数のゲ ーム装置 10とは別に、ゲーム装置 10間のゲーム進行を管理するサーバが別途設け られてもよぐこの場合は、複数のゲーム装置 10がクライアントとして機能してもよい。 また各ゲーム装置 10が個々に動作してもよぐいずれの場合であっても、ユーザによ るゲーム操作指示をネットワーク 11を通じて他のゲーム装置 10に伝達し、また他の ゲーム装置 10におけるゲーム操作指示をネットワーク 11を通じて受け付けることで、 複数のゲーム装置 10が同期したゲーム進行を実現することが可能となる。このグー ムシステムは、それぞれのゲーム装置 10のユーザが仮想空間において操作する移 動オブジェクトの動きを他の映像表示装置の映像に反映する映像表; て構成される。
[0019] 図 3は、操作部 12の一例であるゲーム機用コントローラを示す。このゲーム機用コ ントローラは、〇キー、△キー、口キー、 Xキーからなるキー群 50、 360度回転自在 な 2つのジョイスティック 52、十字キー 54などを有して構成される。なお、操作部 12は 図 3に示すような構成に限らず、例えばキーボードゃタツチパネルなどのユーザイン ターフェースであってもよい。なお操作部 12は、ジョイスティック 52のように、任意の 角度を入力可能な構造を有することが好ましい。
[0020] 図 1に戻って、読出部 28には、ゲームデータを記録したメディア 40が揷入される。メ ディア 40は、例えば CD—ROMや DVDなどであり、ゲームシーンの AVデータゃゲ ームプログラムなどのゲームデータを記録している。メディア 40に記録されたゲーム プログラムは、処理ユニット 20により直接実行される形態であっても、デコードすること により処理ユニット 20が実行することのできる形態であってもよい。読出部 28は、メデ ィァ 40を駆動して、メディア 40に記録されたゲームデータを記憶部 30に読み出す。 処理ユニット 20は、読み出されたゲームデータを実行する。
[0021] 処理ユニット 20は、第 1処理部 22および第 2処理部 24を有する。本実施の形態で は、第 1処理部 22が、ユーザが操作するキャラクタの視点からの映像の表示処理と、 その映像に対応する音声処理を行う。以下では、ユーザが操作するキャラクタを「メイ ンキャラクタ」と呼び、メインキャラクタの視点からの映像を「主映像」と呼ぶ。なお既述 のごとぐ群像ゲームにおいては、ユーザが操作するメインキャラクタ力 シナリオごと に設定されている。
[0022] 第 2処理部 24は、メインキャラクタ以外の映像処理を主として行うものとして位置づ けられ、主映像以外の映像の表示処理と、その映像に対応する音声処理を行う。以 下、主映像以外の映像を「副映像」と呼ぶ。副映像は、例えばメインキャラクタ以外の キャラクタの視点からの映像や、シナリオ間の関係を反映した映像などを含む。以下 、メインキャラクタ以外のキャラクタを「サブキャラクタ」と呼び、本実施の形態ではサバ ィバル群像ゲームを想定しているため、サブキャラクタのうち敵として設定されている ものを「敵キャラクタ」と呼ぶこともある。またサブキャラクタの視点からの映像を映し出 すモードを「視界ジャックモード」と呼び、シナリオ間の関係を反映した映像を映し出 すモードを「リンクナビモード」と呼ぶ。リンクナビモードでは、ユーザがシナリオ間の 関係を確認することができる。なお処理ユニット 20における第 1処理部 22および第 2 処理部 24の機能は、 CPUなどのコンピュータにより実現される。
[0023] ゲーム装置 10が提供するゲームでは、通常のシナリオ進行時、ディスプレイ 34に 主映像が表示された状態で、ユーザカ^ィンキャラクタを操作し、敵キャラクタの位置 を確認したい場合や、シナリオ間の関係を確認したい場合などに、副映像をディスプ レイ 34に適宜表示させていく。シナリオをクリアするためには、副映像を効率よく確認 する必要があるとすることで、ユーザの興味をゲームに引き付けることが可能となる。
[0024] 進行管理部 26は、複数主体の連鎖によりシナリオが進行するゲームの進行管理を 行う。本実施の形態の群像ゲームでは、シナリオごとにメインキャラクタが存在してお り、これらのキャラクタ間の関係として、あるシナリオでメインキャラクタが所定のィベン トを完了していることが、別のシナリオでのイベントを行うための条件となるように設定 する。進行管理部 26は、このようなゲームの進行状況を管理する。例えば、あるィべ ント Bを行うためには、別のイベント Aを完了していることが条件となるのであれば、ゲ ーム装置 10力 イベント Bの前にイベント Aを行うべきことをユーザに提示してもよい。 なお、進行管理部 26はシナリオ間の整合性を図るだけでなぐ 1つのシナリオ内にお ける整合性を図ってもよい。進行管理部 26がゲームの進行状況を管理することで、 ユーザは複数のメインキャラクタの連鎖、すなわちゲームにおけるキャラクタ同士の協 調作業の必要性を認識することができる。
[0025] 図 4は、ディスプレイ 34に表示される主映像の一例を示す。この例において主映像 は、メインキャラクタの視点からの映像を含んだ映像、すなわちメインキャラクタの背後 力 の映像として表現される。主映像の表現法は演出の一つであり、メインキャラクタ の背後からの映像とすることで、ユーザは、メインキャラクタの視線方向の映像を見る ことができるとともに、客観的にメインキャラクタも見ることができ、ゲームの臨場感を高 めることができる。なお主映像からメインキャラクタの映像を排除して、純粋にメインキ ャラクタの視点映像を表示してもよい。いずれにしても、本実施の形態において主映 像は、メインキャラクタの視点からの映像を含んでいればよい。 [0026] 図 5 (a)は、ディスプレイ 34に表示される副映像の一例を示す。この副映像は、サブ キャラクタである敵キャラクタの視点からの映像である。この例では、敵キャラクタがメ インキャラクタを直接見ることができる位置、すなわちメインキャラクタとの間に障害物 のない位置に存在している。ユーザは、この副映像を見ることで、メインキャラクタの 左側に敵キャラクタが接近し、危険が迫っていることを認識する。
[0027] 図 5 (b)は、ディスプレイ 34に表示される副映像の別の例を示す。この副映像も敵 キャラクタの視点からの映像である。この副映像では、敵キャラクタがメインキャラクタ を直接見ることのできない位置に存在している。図中、記号である「 +」印は、メインキ ャラクタの存在する方向を表現し、メインキャラクタが木の後方に存在してレ、る状態を 示している。 +印の大きさは、この敵キャラクタとメインキャラクタとの距離を表現する。 距離が近ければ +印を大きく示し、逆に遠ければ +印を小さく示すことで、ユーザは 、直観的にメインキャラクタと敵キャラクタとの距離を把握することができる。ユーザは 、この副映像を見ることで、敵キャラクタの方向および距離を認識し、その後のメイン キャラクタの移動方向などを決定していく。なお、表示する記号は、「十」印に限定す るものでなぐ他の形状の記号を使用してもよい。また、敵キャラクタがメインキャラクタ を直接見ることができない位置にある場合だけでなぐ直接見ることができる場合であ つても、メインキャラクタを記号で表現してもよい。また、直接見ることができない場合 には、記号表現ではなぐメインキャラクタを半透明に表現するなど、直接見ることが できない位置に存在していることをユーザに直観的に知らしめるような表示を行って あよい。
[0028] 図 5 (a)および図 5 (b)に示す副映像は、主映像を表示した状態から操作部 12を操 作して「視界ジャック」モードに入ることで、ディスプレイ 34に表示される。また図 4に 示す主映像は、副映像を表示した状態から操作部 12に所定の操作を行うことで、デ イスプレイ 34に表示される。入力受付部 14は、操作部 12からのモード切替指示を受 け付け、切替部 18に伝達する。切替部 18は、このモード切替指示を受けて、第 1処 理部 22または第 2処理部 24のレ、ずれかを選択し、表示映像を主映像から副映像、 または副映像から主映像に切り替える。
[0029] 図 6は、第 1処理部 22の構成を示す。第 1処理部 22は、主映像処理部 60および音 声処理部 62を有する。主映像処理部 60は、メインキャラクタの視点映像の表示処理 を行い、音声処理部 62は、その映像に対応する音声処理を行う。主映像処理部 60 および音声処理部 62は、メディア 40から記憶部 30に読み込まれたゲームデータを、 ユーザにより入力された操作指示に基づいて処理する。この処理により、メインキャラ クタを仮想空間中で動作させる。ユーザからの操作指示を反映した映像データおよ び音声データは、出力部 32に供給され、それぞれディスプレイ 34およびスピーカ 36 力 出力されることになる。シナリオをクリアすると、第 1処理部 22は、その旨を記憶部 30に記録する。
[0030] 図 7は、第 2処理部 24の構成を示す。第 2処理部 24は、副映像処理部 70および音 声処理部 90を有する。副映像処理部 70は、サブキャラクタの視点からの映像や、シ ナリオ間の関係を示す映像などを表示処理し、音声処理部 90は、その映像に対応 する音声処理を行う。副映像処理部 70および音声処理部 90は、第 1処理部 22にお ける主映像処理部 60および音声処理部 62と同様に、記憶部 30に読み込まれたゲ ームデータを、ユーザにより入力された操作指示に基づいて処理する。
[0031] 副映像処理部 70は、映像モード判定部 72、ロック判定部 74、指示方向検出部 76 、位置検出部 78、副映像生成部 80および情報取得部 82を有する。映像モード判定 部 72は、操作部 12を介して選択されたモードが「視界ジャックモード」である力、また は「リンクナビモード」であるかを判定する。
[0032] 視界ジャックモードが選択された場合、ロック判定部 74は、副映像が特定の敵キヤ ラクタの視点映像に固定されているか否力を判定する。副映像が固定されている場 合とは、前回以前に視界ジャックモードに入ったときに、ユーザが、注意すべき敵キヤ ラクタを選択して記憶部 30 (図 1参照)に記憶し、視界をロックしたまま視界ジャックモ ードから抜けた場合である。この視界ロックは、メインキャラクタが移動しょうとする方 向に敵キャラクタが存在することをユーザが認識している場合、操作部 12の簡単な 操作で、主映像からその敵キャラクタの視点映像に瞬間的に切り替えることができる ように、敵キャラクタを記憶部 30に登録しておくという使い方がある。副映像を特定の 敵キャラクタの視点映像に固定することで、ユーザが映像を主映像から副映像に切り 替えた瞬間に、その敵キャラクタの視点映像がディスプレイ 34に表示される。 [0033] 視界が固定されていない場合、ユーザが操作部 12のジョイスティック 52を倒すと、 指示方向検出部 76が、ジョイスティック 52を倒した方向に敵キャラクタが存在するか 否かを調べる。図 3に示すゲームコントローラは、 2つのジョイスティック 52を有してい る力 例えば左側のジョイスティック 52が、方向指示のために用いられる。ジョイスティ ック 52は前後左右のいずれにも倒すことができ、ここでは前方向をメインキャラクタの 視線方向として設定する。指示方向検出部 76は、メインキャラクタが向いている方向 、すなわち主映像の視線方向を基準として、他のサブキャラクタの存在する方向を検 出する。
[0034] 図 8は、指示方向検出部 76のサブキャラクタ検出機能を説明するための図である。
この例では、基準方向をメインキャラクタ 100aの視線方向に設定し、メインキャラクタ 100aの位置を中心に時計回りの角度を用いて、サブキャラクタの存在する方向を検 出する。サブキャラクタ 100bは、視線方向、すなわち角度 0の方向に存在する。同様 に、サブキャラクタ 100cは角度 α、サブキャラクタ 100dは角度 β、サブキャラクタ 10 0eは角度 γの方向に存在している。
[0035] 続いて、指示方向検出部 76はジョイスティック 52の倒れた方向を検出し、その方向 にサブキャラクタが存在しているか否かを判定する。図示の例は、視線方向にジョイ スティック 52を倒し、その方向に対して左右に所定の角度をもたせた領域、すなわち ハッチングを施した領域にサブキャラクタ 100bが存在している状態を示している。指 示方向検出部 76は、ユーザにより指示された方向にサブキャラクタ 100bが存在して レ、ることを検出すると、その検出結果を位置検出部 78に伝達する。具体的に、指示 方向検出部 76は、メインキャラクタに対してサブキャラクタが存在する方向を演算し、 ユーザにより指示された方向と演算により求めた方向とがー致する場合に、ユーザの 指示方向にサブキャラクタが存在していることを検出する。なお本実施の形態におい て、方向が一致するとは、方向が近似する場合も含む概念であり、すなわち、ユーザ により指示された方向に所定の角度をもたせた領域にサブキャラクタの存在方向が 含まれる場合も含む。位置検出部 78は、メインキャラクタ 100aがサブキャラクタ 100b の視野角に存在してレ、るか否かを判定する。
[0036] 図 9 (a)は、メインキャラクタ 100aがサブキャラクタ 100bの視野角に入っている状態 を示し、図 9 (b)は、メインキャラクタ 100aがサブキャラクタ 100bの視野角に入ってい ない状態を示す。視野角に入っている場合、位置検出部 78は、サブキャラクタ 100b の視界においてメインキャラクタ 100aの存在する方向を検出する。メインキャラクタ 1 00aの存在方向は、視野角を 2分する方向、すなわちサブキャラクタ 100bの視線方 向を基準として、時計回りまたは反時計回りの角度として求めてもよい。指示方向検 出部 76および位置検出部 78における検出結果は、副映像生成部 80に伝達される。
[0037] 副映像生成部 80は、指示方向検出部 76および位置検出部 78の出力を受けて、 サブキャラクタの視点映像となる副映像を生成する。まず、指示方向検出部 76にお いて、メインキャラクタ 100aに対して所定の方向にサブキャラクタが存在しないことが 検出された場合、副映像生成部 80は、ノイズ映像を副映像として生成する。ノイズ映 像は、テレビの番組終了時に映し出される「砂嵐」の映像であってよぐノイズ映像を 流すことで、ユーザは指示した方向にサブキャラクタが存在しないことを直観的に認 識すること力 Sできる。
[0038] 一方、指示した所定の方向にサブキャラクタが存在していることが検出された場合、 副映像生成部 80は、そのサブキャラクタの視点からの映像を副映像として生成する。 なお位置検出部 78が、サブキャラクタの視野角内にメインキャラクタの存在を検出し た場合、メインキャラクタとサブキャラクタの間に障害物が存在していれば、図 5 (b)に 示すように、メインキャラクタの存在方向を記号例えば +印で表現する。副映像生成 部 80は、 +印の大きさによりメインキャラクタとサブキャラクタの距離を表現してもよい 。また、副映像生成部 80は、メインキャラクタとサブキャラクタの距離に応じて、副映 像または音声に加工処理を施してもよい。具体的には、距離が近いほど副映像の鮮 明度を上げて、また音声を大きくしてもよぐ逆に距離が離れるほど副映像の鮮明度 を下げて、また音声を小さくしてもよい。以上の視聴効果を利用することで、ユーザは 直観的にメインキャラクタとサブキャラクタの距離および位置関係を把握することがで き、斬新なゲーム性を実現することが可能となる。
[0039] ユーザは、操作部 12の所定の操作状態に対応付けて、特定のサブキャラクタを記 憶部 30 (図 1参照)に記憶させることができる。具体的には、ジョイスティック 52を操作 してサブキャラクタの視界をジャックした状態で、図 3に示すキー群 50のいずれかの キーを押すことで、サブキャラクタを記憶部 30に記憶させる。例えば、あるサブキャラ クタの視界を映像表示した状態でキー群 50のうちの「〇キー」を押すと、〇キーにそ のキャラクタの視点映像を割り当てることができる。キー割当部 16は、入力受付部 14 を介してユーザのキー入力を受け取ると、そのキーにサブキャラクタを割り当て、記憶 部 30に記憶する。キーの割り当て、すなわちサブキャラクタの登録は、キーの数だけ 行うことができる。この例ではキー群 50が 4つのキーから構成されており、したがって 最大で 4つのサブキャラクタを記憶部 30に記憶することができる。
[0040] 図 7に戻って、視界ジャックモードの開始時において、ロック判定部 74は、視界が口 ックされているか否かを判定し、ロックされている場合には、そのサブキャラクタの副 映像を生成するよう位置検出部 78に指示する。また、複数のキーにそれぞれサブキ ャラクタが対応付けられている場合には、ユーザが、キーを選択して押すことで、ロッ ク判定部 74が、対応するサブキャラクタの副映像を生成するよう位置検出部 78に指 示する。位置検出部 78はサブキャラクタの視界におけるメインキャラクタの存在方向 を検出し、副映像生成部 80は、サブキャラクタの視点映像を副映像として生成する。 位置検出部 78および副映像生成部 80の処理は上記したとおりである。
[0041] 図 10は、視界ジャックモードにおける映像表示の処理フローを示す。まず、ロック半 IJ 定部 74が、視界ジャックモードにおいて特定のサブキャラクタの視界がロックされて レ、るか否かを判定する(S10)。例えば前回の視界ジャックモードにおいて、特定のサ ブキャラクタの視界を固定した状態で主映像に戻ったとき、次回の視界ジャックモー ドにおいては、視界がロックされていると判定される(S10の Y)。視界がロックされて レ、るとき、そのサブキャラクタの視点映像をディスプレイ 34に表示する(S12)。サブキ ャラクタの視界にメインキャラクタが直接映らないときは、位置検出部 78が、メインキヤ ラクタの存在方向を検出して、副映像生成部 80が、サブキャラクタの視点映像中にメ インキャラクタの方向を記号で表現する。
[0042] 一方、視界がロックされていない場合(S10の N)、ノイズ映像が表示される(S14)。
続いて、キー入力の有無を判定し (S16)、キーが入力された場合は(S16の Y)、そ のキーにサブキャラクタが割り当てられてレ、るか否かを判定する(S 18)。割り当てら れている場合(S 18の Y)、対応するサブキャラクタの視点映像を表示し (S 12)、割り 当てられていない場合は(S 18の N)、ノイズ映像を表示した状態を維持する(S 14)。
[0043] キー入力がない場合(S16の N)、ユーザがジョイスティック 52を操作すると(S20)、 指示方向検出部 76が、ジョイスティック 52の入力角度を検出する(S22)。また指示 方向検出部 76は、サブキャラクタの存在位置を検出して、メインキャラクタの視線方 向に対するサブキャラクタの方向を求める。これにより、ジョイスティック 52により指示 された方向にサブキャラクタが存在するか否かを判定する(S24)。サブキャラクタが 存在する場合(S24の Y)、そのサブキャラクタの視点映像を表示し (S12)、存在しな い場合は(S24の N)、ノイズ映像を表示する(S 14)。ジョイスティック 52を倒した状態 で 360度回転させると、サブキャラクタの視点映像とノイズ映像とが交互に表示され、 ユーザは、メインキャラクタの周囲におけるサブキャラクタの存在方向を容易にサー チできる。
[0044] サブキャラクタの視点映像が表示された状態で、ユーザがキーを入力すると(S26 の Y)、キー割当部 16が、入力したキーとサブキャラクタとを対応付けて記憶部 30に 記憶する(S28)。以後、視界ジャックモードにおいて、そのキーが入力されると、対応 するサブキャラクタの視点映像が表示されることになる。キー入力が行われない場合 は(S26の N)、キーの割当は行われなレ、。続いて、モード変更の有無、すなわち視 界ジャックモードから抜けるか否力を判定し (S 30)、視界ジャックモードを継続する場 合は(S30の N)、ユーザによるジョイスティック 52の操作を受けて(S20)、その入力 角度を検出し (S22)、サブキャラクタの存在の有無を検出していく(S24)。以後、上 記の処理を繰り返して行う。ユーザからモードの変更指示が入力される場合(S30の Y)、視界ジャックモードにおける映像表示を終了する。
[0045] 以下、ゲーム装置 10が、ゲームの進行状況およびシナリオの進行順序を反映した 映像をユーザに提示する構成を示す。既述のごとぐゲーム装置 10は、複数主体の 連鎖によりシナリオが進行する群像ゲームを提供する。図 1に戻って、群像ゲームに おけるシナリオの進行状況は、進行管理部 26により管理される。
[0046] 記憶部 30は、予め定められたシナリオの進行順序を記憶する。複数のシナリオから なる群像ゲームにおいて、各シナリオは独立して存在してもよレ、が、シナリオ間に何ら 力、の所定の関係を与えることで、ゲームの複雑さを実現し、ユーザの興味を引き付け ること力 Sできる。シナリオ間の関係を説明するために、以下のような 3つのイベントを想 定する。
(イベント A)敵キャラクタから鍵を奪う。
(イベント B)奪った鍵をキーボックスに入れておく。
(イベント C)キーボックスから鍵を取りだし、ドアの鍵をあける。
[0047] 以上の 3つのイベントが、それぞれ独立したシナリオにおいて、それぞれのメインキ ャラクタにより実現される。なお、これらのイベントの実現が 1つのシナリオ中に要求さ れてもよぐまた、あるシナリオで 2つのイベントの実現が要求され、別のシナリオで 1 つのイベントの実現が要求されてもよい。いずれの場合であっても、シナリオには進 行順序が予め設定されており、イベント A、イベント B、イベント Cは、この順序で達成 される必要がある。以下、このイベントの達成順序を、シナリオの進行順序と呼ぶ。す なわち本実施の形態において、シナリオの進行順序は、シナリオ間の順序関係だけ でなぐシナリオ内のイベントの順序関係も含む概念として用いる。
[0048] 図 11は、リンクナビモードにおいてディスプレイ 34に表示される副映像の一例を示 す。上記したサブキャラクタの視点映像と区別するため、リンクナビモードにおける副 映像を「リンクナビ映像」と呼ぶ。主映像が表示されている状態から、ユーザが操作部 12の所定のキー操作を行うことで、リンクナビモードに移ることができる。図 7におい て、映像モード判定部 72が、操作部 12 (図 1参照)を介してリンクナビモードが選択さ れたことを判定すると、情報取得部 82が、記憶部 30からリンクナビ映像の生成に必 要な情報を取得する。
[0049] 記憶部 30は、予め定められたシナリオの進行順序を記憶している。また進行管理 部 26は、複数主体の連鎖によりシナリオが進行するゲームの進行管理を行い、グー ムの進行状況、具体的には既に終了したシナリオ (イベント)を、記憶部 30に記録す る。例えば記憶部 30がゲーム中のシナリオのリストを有しており、シナリオが終了する ごとに、進行管理部 26が、リストにシナリオの終了を示すフラグをたててもよい。情報 取得部 82は、記憶部 30から、ゲームの進行状況およびシナリオの進行順序を示す 情報を取得する。
[0050] 副映像生成部 80は、情報取得部 82におレ、て取得したゲームの進行状況およびシ ナリオの進行順序をもとに、副映像であるリンクナビ映像を生成する。図 11は、シナリ ォの進行順序を示すリンクナビ映像の初期画面であり、キャラクタ Yがイベント Aを、 キャラクタ X力 Sイベント Bを、キャラクタ Zがイベント Cを、この順に行うべきことが表示さ れている。イベント間の順序は、矢印で表現される。ユーザはリンクナビ映像をみて、 どのシナリオを最初に行えばよいか、またどのキャラクタでシナリオを進行させればよ いかを、認識すること力できる。情報取得部 82は、複数キャラクタ間の行動に起因し て論理上の破綻が生じていることを検出すると、その破綻している箇所を副映像生成 部 80に伝達する。副映像生成部 80は、その破綻箇所をリンクナビ映像に表現する。
[0051] 具体的には、図 11の例において、キャラクタ Yによるイベント Aの終了前に、キャラク タ Xによりイベント Bを終了することは、論理上不可能である。そのため、ユーザが、ィ ベント Aの前にイベント Bを行おうとしている場合、副映像生成部 80は、論理上の破 綻が生じていることをユーザに提示するべぐイベント Bの前にイベント Aを行うべきこ とをリンクナビ映像中に表現する。例えば副映像生成部 80は、完了したイベントの表 示に色付けを施し、現在実行中のイベントは点滅させて表示する。ユーザは、ィベン ト Bが点滅しており、一方でイベント Aに完了済みの表示処理が施されていない場合 は、イベント Bの前にイベント Aを行うべきことを認識できる。なお、リンクナビ映像中に 、イベント Aが行われていないことを示す警告を直接的に表現してもよい。いずれの 場合であっても、複数キャラクタ間の行動に起因した論理上の破綻をリンクナビ映像 中に表現することで、ユーザは、現在実行中のイベントを変更するべきことを容易に 認識することが可能となる。
[0052] 本実施の形態のゲーム装置 10によると、シナリオ間の関係に何らかの含みを持た せたゲームの提供が可能となり、ユーザは、リンクナビ映像をもとに、円滑にゲームを 進行することができる。例えば、シナリオ間の関係に謎解きの要素を含ませることで、 ゲーム性を向上することも可能である。またシナリオをクリアした条件により、シナリオ 間に新たな関係を動的に発生させることも可能であり、その場合は、リンクナビ映像に 新たなイベントが表示されることとなり、ゲーム性の向上に大いに貢献する。このよう にゲーム装置 10は、主映像と副映像とを切り替えて表示することで、ゲーム性を向上 し、またゲームの円滑進行を実現することができる。 [0053] 図 12は、本実施の形態におけるキャラクタの表情映像の処理方法を説明するため の図である。本実施の形態のゲーム装置 10は、画像データの演算量を少なくするた めに、キャラクタの表情を αプレンデイング技術を用いて変化させる。記憶部 30は、 テクスチャデータである表情の画像を複数記憶する。図示の例は、怒った表情画像 1 02aと笑った表情画像 102bである。
[0054] 図 13は、 ひプレンディングを行う副映像処理部 70の構成を示す。副映像処理部 7 0は、感情判定部 110、テクスチャ画像選択部 112、動画取得部 1 14およびはめ込 み部 116を備える。なおひプレンディングを用いた表示処理は副映像処理部 70だけ でなぐ主映像処理部 60 (図 6参照)にも組み込むことが好ましぐ処理ユニット 20全 体においてキャラクタの表情を生成する機能として利用される。
[0055] 感情判定部 110は、キャラクタの状況から、キャラクタの感情を判定する。感情は、 代表的には喜怒哀楽であり、その他に恐怖、困惑または切羽詰った気分などが例示 される。記憶部 30は、ゲームのシナリオに応じてキャラクタに発生し得る様々な感情 に対応する複数の表情画像をテクスチャ画像として予め記録しておく。
[0056] 感情判定部 110は、例えば、メインキャラクタが敵キャラクタに追われているときは、 メインキャラクタが恐怖の感情にあることを判定し、敵キャラクタから逃げ切ったときは 、安堵の感情にあることを判定する。このように、感情判定部 110は、キャラクタの置 かれてレ、る状況を把握することで、キャラクタの感情を定めてレ、く。
[0057] テクスチャ画像選択部 112は、判定された感情に応じて、表情のテクスチャ画像を 記憶部 30から選択し、はめ込み部 116が、キャラクタの表情として画面上の所定位 置、すなわちキャラクタの顔位置にはめ込み表示していく。キャラクタの動作は、仮想 空間において 3次元 CGなどを用いて表現される。
[0058] キャラクタの感情が変化するとき、テクスチャ画像選択部 112は、変化後の表情の テクスチャ画像を記憶部 30から選択する。動画取得部 114は、変化前の表情と変化 後の表情の画像の間をひブレンディングし、一連の動画を 1つのオブジェクトとして取 得する。図 12に示すように、動画取得部 114は、怒った表情画像 102aと笑った表情 画像 102bの間をひブレンディングして、怒った表情から笑った表情までの一連の動 画を取得することで、感情の移り変わりによる表情変化を簡易に取得することができる 。はめ込み部 116は、このオブジェクトを画面上の所定位置にはめ込み表示する。こ れにより、キャラクタの感情に応じた表情の移り変わりを、少ないデータ演算量で実現 すること力 S可能となる。特に、この映像処理技術は、キャラクタの目を閉じた状態と開 レ、た状態の間の移り変わりを表現する場合のように、比較的シンプルで、また画面中 の比較的小さな領域の映像に適用することで、十分な視覚効果を発揮することが可 能となる。
[0059] 以上、本発明を実施の形態をもとに説明したが、本発明の技術的範囲は上記実施 の形態に記載の範囲には限定されない。上記実施の形態は例示であり、それらの各 構成要素の組合せに、さらにいろいろな変形例が可能なこと、またそうした変形例も 本発明の範囲にあることは当業者に理解されるところである。以下、そうした例を挙げ る。
[0060] 上記実施の形態では、群像ゲームにおいて 1人のユーザ力 Sメインキャラクタを操作 することを想定としている力 複数のユーザが、それぞれのメインキャラクタを操作す ることも可能である。その場合、 1つのシナリオ中で、お互いが協力して予め実行順序 を定められた複数のイベントを完了していってもよぐ複数のユーザは適宜リンクナビ 映像を確認することで、円滑にゲームを進行することが可能となる。また、複数のゲー ム装置 10がネットワークを介して接続されている場合は、各ゲーム装置 10において、 ユーザは、 自身が操作するメインキャラクタの視点映像と、別のユーザが操作するキ ャラクタの視点映像とを切り替えて表示することができ、会話をしなくても、互いの状 況を確認することが可能となる。
[0061] また、実施の形態では移動オブジェクトとして、人物であるキャラクタを想定している が、本発明はこれに限定するものではなぐ動物であってもよいし、車や飛行機など の乗物であってもよレ、。すなわち移動オブジェクトは、仮想空間中を移動する物体で あればよぐ乗物のように本来的に視覚を有していないものも含む。乗物のように視 覚を有していないものについては、仮想的な視点を乗物に設定することで、本発明 における移動オブジェクトとなる。
産業上の利用可能性
[0062] 本発明は、映像表示の分野に適用することができる。 図面の簡単な説明
[0063] [図 1]実施の形態に係るゲーム装置の構成を示す図である。
[図 2]ゲーム装置が接続されたネットワーク環境を示す図である。
[図 3]操作部の一例であるゲーム機用コントローラを示す図である。
[図 4]ディスプレイに表示される主映像の一例を示す図である。
[図 5] (a)はディスプレイに表示される副映像の一例を示す図であり、 (b)は副映像の 別の例を示す図である。
[図 6]第 1処理部の構成を示す図である。
[図 7]第 2処理部の構成を示す図である。
[図 8]指示方向検出部のサブキャラクタ検出機能を説明するための図である。
[図 9] (a)はメインキャラクタがサブキャラクタの視野角に入ってレ、る状態を示す図であ り、(b)は視野角に入っていない状態を示す図である。
[図 10]視界ジャックモードにおける映像表示の処理フローを示す図である。
[図 11]リンクナビモードにおいて表示される副映像の一例を示す図である。
[図 12]表情映像の処理方法を説明するための図である。
[図 13] aプレンディングを行う副映像処理部の構成を示す図である。
符号の説明
[0064] 10···ゲーム装置、 11· "ネットワーク、 12···操作部、 14···入力受付部、 16···キ 一割当部、 18···切替部、 20···処理ユニット、 26···進行管理部、 30···記憶部、 32···出力部、 34· "ディスプレイ、 36· "スピーカ、 40· "メディア。

Claims

請求の範囲
[1] 仮想空間においてユーザが操作する第 1の移動オブジェクトの視点からの主映像 を表示する第 1処理部と、
映像を、主映像から、第 1の移動オブジェクト以外の移動オブジェクトのうちの第 2の 移動オブジェクトの視点からの副映像に切り替えて表示する第 2処理部と、
を備えることを特徴とする映像表示装置。
[2] 第 2の移動オブジェクトを記憶する記憶部と、
第 2の移動オブジェ外の表示指示を受け付ける受付部とをさらに備え、 映像が副映像から主映像に戻った後、前記第 2処理部は、前記受付部で受け付け た指示をもとに、第 2の移動オブジェクトに係る副映像を表示することを特徴とする請 求項 1に記載の映像表示装置。
[3] ユーザが映像に関する操作を行うための操作部をさらに備え、
前記記憶部は、第 2の移動オブジェクトを、操作部の所定の操作状態に対応付け て記憶することを特徴とする請求項 2に記載の映像表示装置。
[4] 前記第 2処理部は、第 1の移動オブジェクト以外の移動オブジェクトのうち、第 1の 移動オブジェクトに対してユーザから指示された方向に存在する第 2の移動オブジェ タトの視点からの副映像を表示することを特徴とする請求項 1から 3のいずれかに記 載の映像表示装置。
[5] 前記第 2処理部は、第 2の移動オブジェクトが存在しない方向に関する映像を表示 するときには、ノイズ映像を副映像として表示することを備えることを特徴とする請求 項 4に記載の映像表示装置。
[6] 前記第 2処理部は、副映像を表示するとき、その中に第 1の移動オブジェクトの存 在方向を記号で示すことを特徴とする請求項 1に記載の映像表示装置。
[7] 前記第 2処理部は、記号の大きさにより、第 1の移動オブジェクトと第 2の移動ォブ ジェ外の距離を表現することを特徴とする請求項 6に記載の映像表示装置。
[8] 前記第 2処理部は、副映像を表示するとき、第 1の移動オブジェクトと第 2の移動ォ ブジエ外の距離に応じて、副映像または音声に加工処理を施すことを特徴とする請 求項 1に記載の映像表示装置。
[9] 仮想空間においてユーザが操作する第 1の移動オブジェクトに対して、第 2の移動 オブジェクトが存在する方向を演算し、ユーザにより指示された方向と演算により求め た方向とがー致する場合に、第 2の移動オブジェクトに関する映像を表示することを 特徴とする映像表示方法。
[10] 仮想空間においてユーザが操作する第 1の移動オブジェクトの視点からの主映像 を表示するステップと、
映像を、主映像から、第 1の移動オブジェクト以外の移動オブジェクトのうちの第 2の 移動オブジェクトの視点からの副映像に切り替えて表示するステップと、
を備えることをと映像表示方法。
[11] コンピュータに、
仮想空間においてユーザが操作する第 1の移動オブジェクトの視点からの主映像 を表示する機能と、
映像を、主映像から、第 1の移動オブジェクト以外の移動オブジェクトのうちの第 2の 移動オブジェクトの視点からの副映像に切り替えて表示する機能と、
を実行させるためのプログラム。
[12] コンピュータに、
仮想空間においてユーザが操作する第 1の移動オブジェクトの視点からの主映像 を表示する機能と、
映像を、主映像から、第 1の移動オブジェクト以外の移動オブジェクトのうちの第 2の 移動オブジェクトの視点からの副映像に切り替えて表示する機能と、
を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
[13] 複数主体の連鎖によりシナリオが進行するゲームの進行管理を行う管理部と、 予め定められたシナリオの進行順序を記憶する記憶部と、
ゲームの進行状況およびシナリオの進行順序を反映した映像を表示する処理部と
を備えることを特徴とする映像表示装置。
[14] 処理部は、シナリオの進行上、複数主体間の行動に起因して論理上の破綻が生じ ている場合に、その破綻を映像に表現することを特徴とする請求項 13に記載の映像
[15] 複数主体の連鎖によりシナリオが進行するゲームの進行管理を行うステップと、 定められたシナリオの進行順序を予め記憶しておくステップと、
ゲームの進行状況およびシナリオの進行順序を反映した映像を表示するステップと
を備えることを特徴とする映像表示方法。
[16] コンピュータに、
複数主体の連鎖によりシナリオが進行するゲームの進行管理を行う機能と、 予め定められたシナリオの進行順序を記憶する機能と、
ゲームの進行状況およびシナリオの進行順序を反映した映像を表示する機能と、 を実行させるためのプログラム。
[17] コンピュータに、
複数主体の連鎖によりシナリオが進行するゲームの進行管理を行う機能と、 予め定められたシナリオの進行順序を記憶する機能と、
ゲームの進行状況およびシナリオの進行順序を反映した映像を表示する機能と、 を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
[18] 複数の映像表示装置がネットワークを介して接続され、それぞれの映像表示装置 のユーザが仮想空間において操作する移動オブジェクトの動きを他の映像表示装置 の映像に反映する映像表示システムであって、各映像表示装置は、
仮想空間においてユーザが操作する第 1の移動オブジェクトの視点からの主映像 を表示する第 1処理部と、
映像を、主映像から、別のユーザが操作する第 2の移動オブジェクトの視点からの 副映像に切り替えて表示する第 2処理部とを備えることを特徴とする映像表示システ ム。
[19] ネットワークを介して接続された複数の映像表示装置において映像を表示する方 法であって、
ユーザが仮想空間において操作する第 1の移動オブジェクトの視点からの主映像 映像を、主映像から、別のユーザが操作する第 2の移動オブジェクトの視点からの 副映像に切り替えて表示するステップと、
を備えることを特徴とする映像表示方法。
PCT/JP2004/007970 2003-06-11 2004-06-08 映像表示装置、映像表示方法および映像表示システム WO2004110577A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN2004800158626A CN1802193B (zh) 2003-06-11 2004-06-08 图像显示装置、图像显示方法及图像显示系统
EP04745680A EP1640046A4 (en) 2003-06-11 2004-06-08 VIDEO DISPLAY DEVICE, VIDEO DISPLAY PROCEDURE AND VIDEO DISPLAY SYSTEM
JP2005506905A JP4252575B2 (ja) 2003-06-11 2004-06-08 映像表示装置、映像表示方法および映像表示システム
US11/296,692 US8118671B2 (en) 2003-06-11 2005-12-07 Image display apparatus, image display method, and image display system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-166403 2003-06-11
JP2003166403 2003-06-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/296,692 Continuation US8118671B2 (en) 2003-06-11 2005-12-07 Image display apparatus, image display method, and image display system

Publications (1)

Publication Number Publication Date
WO2004110577A1 true WO2004110577A1 (ja) 2004-12-23

Family

ID=33549258

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/007970 WO2004110577A1 (ja) 2003-06-11 2004-06-08 映像表示装置、映像表示方法および映像表示システム

Country Status (6)

Country Link
US (1) US8118671B2 (ja)
EP (1) EP1640046A4 (ja)
JP (1) JP4252575B2 (ja)
KR (1) KR100730863B1 (ja)
CN (1) CN1802193B (ja)
WO (1) WO2004110577A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009291426A (ja) * 2008-06-05 2009-12-17 Square Enix Co Ltd ゲーム装置及びプログラム
JP2011018146A (ja) * 2009-07-08 2011-01-27 Konami Digital Entertainment Co Ltd ゲームプログラム、ゲーム装置、ゲーム制御方法
US9417761B2 (en) 2011-06-02 2016-08-16 Nintendo Co., Ltd. Storage medium storing image processing program, image processing apparatus, image processing method and image processing system for displaying a virtual space in which objects are arranged with a virtual camera
JP2017074162A (ja) * 2015-10-14 2017-04-20 株式会社スクウェア・エニックス ゲームプログラム及びゲームシステム
WO2022085189A1 (ja) * 2020-10-23 2022-04-28 日本電信電話株式会社 処理装置、処理方法およびプログラム
JP7141486B1 (ja) 2021-04-15 2022-09-22 株式会社Cygames プログラム、情報処理装置、方法、及びシステム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8882594B2 (en) * 2007-04-05 2014-11-11 Microsoft Corporation Control scheme for real time strategy game
KR100983543B1 (ko) * 2008-05-08 2010-09-24 주식회사 넥슨 인공지능에 의해 조작되는 캐릭터를 이용한 스크린샷 제공시스템 및 그 방법
US8308570B2 (en) 2009-11-18 2012-11-13 Sony Computer Entertainment America Inc. Synchronizing mission progress in peer-to-peer cooperative games
US8812538B2 (en) * 2010-01-29 2014-08-19 Wendy Muzatko Story generation methods, story generation apparatuses, and articles of manufacture
KR101506375B1 (ko) * 2012-12-21 2015-03-26 (주)스마일게이트엔터테인먼트 제3자 슈팅 게임 화면 제어장치 및 제어방법
CN110227254B (zh) * 2019-06-21 2020-07-07 腾讯科技(深圳)有限公司 视角切换控制方法和装置、存储介质及电子装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2888831B2 (ja) * 1998-06-17 1999-05-10 株式会社ナムコ 3次元ゲーム装置及び画像合成方法
JP2001246150A (ja) * 2000-03-02 2001-09-11 Namco Ltd ゲーム装置及び情報記憶媒体
JP2002035427A (ja) * 2000-07-19 2002-02-05 Namco Ltd マルチプレイヤーゲーム用の情報提供システムおよび情報記憶媒体
JP3348152B2 (ja) * 2000-06-28 2002-11-20 株式会社コナミコンピュータエンタテインメントジャパン ゲームシステム
JP2002358542A (ja) * 2001-06-01 2002-12-13 Namco Ltd 画像生成装置、画像生成方法、ゲーム装置、プログラムおよび記録媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6283857B1 (en) * 1996-09-24 2001-09-04 Nintendo Co., Ltd. Three-dimensional image processing apparatus with enhanced automatic and user point of view control
JPH1133230A (ja) * 1997-07-16 1999-02-09 Sega Enterp Ltd 通信ゲームシステム
JPH11128533A (ja) * 1997-10-30 1999-05-18 Nintendo Co Ltd ビデオゲーム装置およびその記憶媒体
US6271854B1 (en) * 1997-12-15 2001-08-07 Intel Corporation Method and apparatus for facilitating navigation in three-dimensional graphic scenes
GB9800397D0 (en) * 1998-01-09 1998-03-04 Philips Electronics Nv Virtual environment viewpoint control
JP3824788B2 (ja) * 1998-09-28 2006-09-20 株式会社コナミデジタルエンタテインメント ビデオゲーム装置、ビデオゲームにおけるゲーム画面の視点切替方法及びビデオゲームにおけるゲーム画面の視点切替プログラムが記録されたコンピュータ読み取り可能な記録媒体
JP2000267675A (ja) * 1999-03-16 2000-09-29 Sega Enterp Ltd 音響信号処理装置
JP2001276420A (ja) * 2000-03-30 2001-10-09 Namco Ltd ゲーム装置および情報記憶媒体
JP3764070B2 (ja) * 2001-06-07 2006-04-05 富士通株式会社 オブジェクト表示プログラムおよびオブジェクト表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2888831B2 (ja) * 1998-06-17 1999-05-10 株式会社ナムコ 3次元ゲーム装置及び画像合成方法
JP2001246150A (ja) * 2000-03-02 2001-09-11 Namco Ltd ゲーム装置及び情報記憶媒体
JP3348152B2 (ja) * 2000-06-28 2002-11-20 株式会社コナミコンピュータエンタテインメントジャパン ゲームシステム
JP2002035427A (ja) * 2000-07-19 2002-02-05 Namco Ltd マルチプレイヤーゲーム用の情報提供システムおよび情報記憶媒体
JP2002358542A (ja) * 2001-06-01 2002-12-13 Namco Ltd 画像生成装置、画像生成方法、ゲーム装置、プログラムおよび記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP1640046A4 *
WEEKLY DREAMCAST MAGAZINE, vol. 18, no. 4, 16 February 2001 (2001-02-16), pages 110, XP002987043 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009291426A (ja) * 2008-06-05 2009-12-17 Square Enix Co Ltd ゲーム装置及びプログラム
JP4545809B2 (ja) * 2008-06-05 2010-09-15 株式会社スクウェア・エニックス ゲーム装置及びプログラム
JP2011018146A (ja) * 2009-07-08 2011-01-27 Konami Digital Entertainment Co Ltd ゲームプログラム、ゲーム装置、ゲーム制御方法
US9417761B2 (en) 2011-06-02 2016-08-16 Nintendo Co., Ltd. Storage medium storing image processing program, image processing apparatus, image processing method and image processing system for displaying a virtual space in which objects are arranged with a virtual camera
JP2017074162A (ja) * 2015-10-14 2017-04-20 株式会社スクウェア・エニックス ゲームプログラム及びゲームシステム
WO2022085189A1 (ja) * 2020-10-23 2022-04-28 日本電信電話株式会社 処理装置、処理方法およびプログラム
JP7141486B1 (ja) 2021-04-15 2022-09-22 株式会社Cygames プログラム、情報処理装置、方法、及びシステム
WO2022219935A1 (ja) * 2021-04-15 2022-10-20 株式会社Cygames プログラム、情報処理装置、方法、及びシステム
JP2022163795A (ja) * 2021-04-15 2022-10-27 株式会社Cygames プログラム、情報処理装置、方法、及びシステム

Also Published As

Publication number Publication date
JP4252575B2 (ja) 2009-04-08
US8118671B2 (en) 2012-02-21
EP1640046A4 (en) 2011-09-07
KR100730863B1 (ko) 2007-06-20
EP1640046A1 (en) 2006-03-29
CN1802193A (zh) 2006-07-12
JPWO2004110577A1 (ja) 2006-07-20
KR20060018885A (ko) 2006-03-02
CN1802193B (zh) 2010-09-08
US20060135256A1 (en) 2006-06-22

Similar Documents

Publication Publication Date Title
US8118671B2 (en) Image display apparatus, image display method, and image display system
JP6545744B2 (ja) 頭部装着ディスプレイにおけるオペレーション・モード・スイッチング
US9616338B1 (en) Virtual reality session capture and replay systems and methods
US7647560B2 (en) User interface for multi-sensory emoticons in a communication system
CN104225915B (zh) 用于减少与头戴式系统相关联的跃点的系统和方法
US8979650B2 (en) Game apparatus, recording medium having game program recorded thereon, and game system
CN110083227B (zh) 在头戴式系统内产生增强虚拟现实场景的系统和方法
JP6576245B2 (ja) 情報処理装置、制御方法及びプログラム
EP1151775A2 (en) Recording medium, program, entertainment system, and entertainment apparatus
US20150328545A1 (en) Systems and methods for interfacing video games and user communications
US20080215975A1 (en) Virtual world user opinion & response monitoring
US20070126874A1 (en) Image processing device, image processing method, and information storage medium
EP2126708A1 (en) Virtual world user opinion&response monitoring
CN112933606A (zh) 游戏场景转换方法及装置、存储介质、计算机设备
CN112007360A (zh) 监控功能道具的处理方法、装置及电子设备
JP2992499B2 (ja) 画像処理方法及び装置、記録媒体
JP2003122473A (ja) 電子情報処理装置、電子情報処理方法およびその記録媒体ならびにコンピュータプログラム
JP6539224B2 (ja) ゲームプログラムおよびゲームシステム
JP2020156919A (ja) 情報処理装置、情報処理方法及びプログラム
JP2004008762A (ja) 通信ゲームシステム、記録媒体およびプログラム
JP4154549B2 (ja) ゲーム装置、プログラムを記録した記録媒体
US20060247052A1 (en) Game information processing apparatus and game control program
JP4204525B2 (ja) 3次元画像生成装置および3次元画像生成プログラム
CN113521737A (zh) 虚拟角色的锁定方法、装置、计算机设备及存储介质
JP6156934B2 (ja) 空間合成システム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005506905

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 20048158626

Country of ref document: CN

Ref document number: 11296692

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020057023667

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2004745680

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057023667

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004745680

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11296692

Country of ref document: US