WO2002095684A1 - Afficheur - Google Patents

Afficheur Download PDF

Info

Publication number
WO2002095684A1
WO2002095684A1 PCT/JP2002/004822 JP0204822W WO02095684A1 WO 2002095684 A1 WO2002095684 A1 WO 2002095684A1 JP 0204822 W JP0204822 W JP 0204822W WO 02095684 A1 WO02095684 A1 WO 02095684A1
Authority
WO
WIPO (PCT)
Prior art keywords
display device
amount
display
viewpoint
gazing point
Prior art date
Application number
PCT/JP2002/004822
Other languages
English (en)
French (fr)
Inventor
Tomokazu Kake
Akio Ohba
Original Assignee
Sony Computer Entertainment Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc. filed Critical Sony Computer Entertainment Inc.
Priority to US10/451,281 priority Critical patent/US7193629B2/en
Priority to EP02771725A priority patent/EP1391847A4/en
Publication of WO2002095684A1 publication Critical patent/WO2002095684A1/ja

Links

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/02Non-photorealistic rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/407Data transfer via internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6692Methods for processing data by generating or executing the game program for rendering three dimensional images using special effects, generally involving post-processing, e.g. blooming
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Definitions

  • the present invention is applied to a web browser for browsing web pages, a video game in a virtual space provided by a server device on a predetermined network, and a net game system.
  • the present invention relates to a suitable display device and an image processing method. Background art
  • client terminal devices such as video game machines and personal computer devices
  • video games using such client terminal devices
  • Browsing of web pages on the Internet is becoming more frequent.
  • the user when moving the display position of the web page displayed by such a client terminal device, the user is connected to the client terminal device.
  • An input device such as a mouse device or a keyboard is operated to move a display position.
  • a scroll bar for vertical movement is displayed in the display area. Is displayed.
  • the user operates the mouse device to drag the scroll bar corresponding to the scroll direction of the display screen in the vertical or horizontal direction with the cursor, or to operate the upper, lower, left and right keys of the keyboard. Press the key corresponding to the scroll direction on the display screen.
  • the client terminal is The screen is scrolled according to the key pressed. As a result, display objects such as sentences and images that cannot be displayed in the display area of the monitor device are displayed in the display area.
  • a virtual three-dimensional space character displayed on a monitor device when moving a virtual three-dimensional space character displayed on a monitor device from the current location to another location, the user is connected to the client terminal device. Press the key corresponding to the moving direction of the character among the up, down, left and right keys provided on the controller, or use the stick-shaped key provided on the controller. Tilt the analog controller in the direction of character movement. As a result, the character of the video game moves in a virtual three-dimensional space in response to the pressing operation of the up, down, left, and right keys or the tilting operation of the analog controller. And.
  • a display object such as a notice or an advertisement that the user wants to recognize.
  • a web page is scrolled, characters and images are blurred in response to the scrolling speed, and notices, advertisements, etc.
  • a display object is recognized by the user.
  • the present invention has been made in view of the above-described problems, and it is desired that a user recognize a notice, an advertisement, and the like even when a display object such as a character or an image is moved and displayed. It is an object of the present invention to provide a display device and an image processing method capable of displaying a display object prominently. Disclosure of the invention
  • the present invention provides a display screen including an object to which a predetermined image effect is added and an object to which a predetermined image effect is not added, so that a point of interest in the display screen can be obtained. Make users feel uncomfortable with different objects.
  • FIG. 1 is a block diagram of a net game system according to a first embodiment of the present invention.
  • FIG. 2 is a perspective view showing an appearance of a controller provided in a client terminal device of the net game system according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of a virtual three-dimensional space provided by the game server device of the net game system according to the first embodiment.
  • FIG. 4 is a diagram for explaining a drawing process when a moving operation is performed using an analog controller of the controller provided in the client terminal device. It is a flowchart.
  • FIG. 5 is a diagram for explaining a display image in a state in which a motion shuffler has been added to an object other than the object serving as a gazing point.
  • FIG. 6 is a flowchart for explaining a drawing process in a case where a moving operation is performed using a direction indication button of a controller provided in the client terminal device. You.
  • FIG. 9 is a diagram for explaining an enlargement speed and a contraction speed of a project.
  • FIG. 8 is a diagram showing an example in which an object serving as a gazing point is prominently displayed by setting different depths of field.
  • FIG. 9 is a diagram showing an example in which an object other than an object serving as a gazing point is fogged.
  • FIG. 10 is a diagram illustrating an example of a relationship between a blur amount of a motion blur added to an object serving as a gazing point and a display compensation.
  • Fig. 11 shows the flow of display control to make the point of interest stand out when scrolling or enlarging / reducing operations of characters displayed on the display screen. This is a flow chart for explaining.
  • FIG. 12 is a diagram showing a state in which the attention point is displayed prominently even when the scroll operation is performed on the display surface.
  • FIG. 13 is a diagram showing a state in which an index serving as a gazing point is conspicuously displayed even when the display screen is enlarged / reduced.
  • FIG. 14 is a longitudinal sectional view showing a state in which the button provided on the controller is not pressed and a state in which the button is pressed.
  • FIG. 15 is a longitudinal sectional view showing a state where the thickness of the piezo element has been changed by applying a voltage to the piezo element provided on the ⁇ button provided on the controller. It is.
  • FIG. 16 is a flowchart for explaining the flow of the control process of the net game system according to the seventh embodiment of the present invention.
  • FIG. 17 is a diagram for explaining a parameter table of the net game system according to the eighth embodiment of the present invention.
  • FIG. 18 is a diagram for explaining a modification of the parameter table of the net game system according to the eighth embodiment.
  • FIG. 19 shows a drawing process of the net game system according to the eighth embodiment. This is a flowchart showing the flow of the process.
  • FIG. 20 is a flowchart showing a flow of a drawing process for adding a motion blur in the net game system according to the eighth embodiment.
  • FIG. 21 is a diagram showing a state in which a motion shuffler is added to the original image.
  • FIG. 22 is a diagram for explaining the afterimage processing.
  • FIG. 23 is a diagram illustrating an example of an object that has been subjected to the afterimage processing by overwriting and the afterimage processing by postscript.
  • FIG. 1 shows a system configuration diagram of a net game system according to the first embodiment of the present invention.
  • the network game system according to the present embodiment includes a plurality of clients respectively connected to a predetermined network 1 such as an Internet. It has a terminal device 2 and a game server device 3 that provides a virtual three-dimensional space to each user having the client terminal device 2.
  • Each client terminal device 2 has a secondary storage medium such as a controller 4, a monitor device 5, a speaker device 7, and a hard disk drive 10 (HDD). Drive is connected.
  • a secondary storage medium such as a controller 4, a monitor device 5, a speaker device 7, and a hard disk drive 10 (HDD). Drive is connected.
  • HDD hard disk drive
  • the controller 4 has, for example, two gripping portions 2OR, 20L as shown in FIG. 2, and the player uses these gripping portions 2OR, 20L.
  • the controller 4 is operated by holding the controller with left and right hands.
  • This controller 4 holds each gripper 20 R, 20 L with the left and right hands.
  • the first and second operating parts 21 and 22 and the analog controllers 23 R and 23 L are provided at positions operable by each thumb, respectively. .
  • the first operation unit 21 is provided with an instruction button for instructing, for example, the direction in which the character moves and the direction of the viewpoint, and an upward direction instruction button for instructing an upward direction.
  • 21a, down direction button 21b to indicate a downward direction, right direction button 21c to indicate a right direction, left direction button to indicate a left direction 2 1 d is provided for each.
  • the second operation unit 22 was provided with a a button 22 a provided with a ⁇ -shaped stamp, an X button 22 b provided with an X-shaped stamp, and a ⁇ -shaped stamp.
  • ⁇ button 22 c and a button 22 d provided with a mouth-shaped engraving are provided respectively.
  • the controller 4 moves the tilt amount and the tilt direction with respect to the reference position.
  • the corresponding coordinate value on the XY coordinate is supplied to the client terminal device 2 as an operation output.
  • the control button 4 includes a start button 24 for giving an instruction to start a game, and a select button 2 for giving a selection of a predetermined item. 5 and a mode selection switch 26 for selecting an analog mode and a digital mode.
  • the light emitting diode 27 (LED) is controlled to emit light, and the analog controllers 23R and 2R are controlled.
  • the analog controllers 23R and 2R are controlled.
  • 3 L is activated and the digital mode is selected, the light-emitting diode 27 is quenched and the analog controller is turned off.
  • 23 R and 23 L are set to a non-operating state.
  • buttons 3 By operating each of these buttons, the player changes the viewpoint in the virtual three-dimensional space provided by the game server device 3 or operates a character. It has become.
  • the controller 4 has a pressing force controller 8 for variably controlling the pressing force of each of the above-mentioned buttons 22 a to 22 d, and a controller for vibrating the controller 4 itself.
  • the vibration motors 9 and are provided. As will be described later, the pressing force control unit 8 and the vibration motor 9 are controlled in accordance with the distance and angle between the viewpoint and an object to be a gazing point of a signboard or the like, so that a user can be controlled. And tactilely recognize the presence of signboards.
  • the speaker device 7 is designed to control the output of a predetermined sound output according to the distance and angle between the viewpoint and the object to be the gazing point of the signboard or the like. It is designed to inform the user of the presence of a signboard or the like audibly.
  • the net game system is a three-dimensional space by changing a viewpoint in a virtual town (three-dimensional space) provided by the game server device 3. Take a walk in the city or operate your own character to move in this 3D space, shop at stores, etc., and interact with the characters of other users you have met. Communicate It is a net video game that can be enjoyed as if it were.
  • the user When playing this net video game, the user activates the web browser of the client terminal device 2, and uses the web browser to connect his or her own client terminal device 2 to the game server. Connect to device 3.
  • the game server device 3 When a communication line is established with the client terminal device 2, the game server device 3 transmits predetermined virtual three-dimensional image information to the client terminal device 2 side. You. As a result, an image of a street in a virtual three-dimensional space, for example, as shown in FIG. 3, is displayed on the monitor device 5 connected to the client terminal device 2 of the user.
  • the user can select the direction indication buttons 21 a to 2 for the up, down, left, and right of the controller 4.
  • each analog controller 23R, 23L By operating 1d or each analog controller 23R, 23L, it is possible to virtually freely move in such a three-dimensional space of a cityscape. it can.
  • the user presses each of the up, down, left, and right direction indicating buttons 21a to 21d of the controller 4, or Tilt the analog controllers 23 R and 23 L.
  • the information indicating the operation state of the controller 4 is transmitted from the client terminal device 2 to the game server device 3 side.
  • the game server device 3 Upon receiving the information indicating the operation state of the controller 4, the game server device 3 sequentially writes the image information in the three-dimensional space corresponding to the operation state of the controller 4. Reply to Ant terminal 2 side.
  • the net game system uses an image processing technique called “motion blur” to add blur to each object and display it. It expresses the feeling of movement in response to the operation of the controller 4 by the user.
  • motion blur an image processing technique
  • the “object to be the point of gaze” such as is clearly displayed without generating a play regardless of the moving operation of the controller 4.
  • the client terminal device 2 is provided to the user.
  • the tilting operation of the analog control port 23R or the analog control port 23L is detected, the start of the drawing process is performed. Proceed to top S1.
  • the client terminal device 2 displays information indicating the detected operation direction of the analog controller 23 R or the detected analog controller 23 L and information indicating the amount of tilt operation in the game.
  • the data is transmitted to the server device 3 side.
  • step S1 the game server device 3 transmits the operation direction of the analog controller 23R or the analog controller 23L transmitted from the client terminal device 2. And the information indicating the amount of tilting operation are taken in. As a result, the drawing process proceeds to step S2.
  • the game server device 3 uses the image processing technology of “Motion Blur” to add a pre to each object constituting the three-dimensional image of the cityscape and move in the three-dimensional space. Express how you are.
  • the game server device 3 captures information indicating a small amount of tilting operation, the size of each object constituting the three-dimensional image of the cityscape is set to a small value. It represents the state where the user is moving at a low speed in the three-dimensional space.
  • the game server device 3 When the game server device 3 captures information indicating a large amount of tilting operation, the game server device 3 sets the size of the blur of each object constituting a three-dimensional image of a cityscape to a large value, and It expresses the state of moving in the three-dimensional space at high speed.
  • step S2 the game server device 3 determines the size of the blur of each object constituting the displayed three-dimensional cityscape image based on the information indicating the amount of tilting operation. As a result, the drawing process proceeds to step S3.
  • step S3 the game server device 3 transmits the Object ”is detected. Thereby, the drawing process proceeds to step S4.
  • step S4 the game server device 3 transmits the object of the point of regard to which the blur is not added by the motion blur and the user's analog controller 23R.
  • an object to which a motion blur is added in accordance with the tilt operation amount of the analog controller 23 L, and the analog controller 23 R or the analog controller The 3D image of the cityscape corresponding to the operation direction of the controller 23 L is rendered, and this image information is transmitted to the user's client terminal device 2.
  • the process proceeds to the drawing process power S step S5.
  • the client terminal device 2 controls the monitor device 5 to display a three-dimensional image corresponding to the image information transmitted from the game server device 3.
  • a brake corresponding to the tilt operation amount of the user's analog control port 23 R or analog control controller 23 L is added as a whole.
  • the movement direction of the user's analog controller 23 R or analog control port 23 L has no blur added to the object of interest.
  • the three-dimensional image corresponding to is displayed on the monitor device 5.
  • Fig. 5 (a) shows an example of a three-dimensional image to which motion blur is added as a whole
  • Fig. 5 (b) shows the motion blur as a whole.
  • An example of a three-dimensional image to which no blur due to the motion blur is added to the object to be the gazing point (in this case, the signboard 35) is shown.
  • the signboard 35 which is the object of interest in this case, is not If the drawing process is performed without adding the blur due to the motion blur, the motion of the motion image will be added because the blur is entirely added to the displayed image.
  • the signboard 35 which is an object to which blurring caused by blurring is not added, can be highlighted.
  • the client terminal device 2 holds the analog controller 23R or the analog controller 23L while the user tilts the analog controller 23L.
  • Information indicating the operation direction of the analog controller 23 R or the analog controller 23 R and information indicating the amount of tilt operation are transmitted to the game server device 3 side.
  • the client terminal device 2 is connected to the analog controller 23R or the analog controller 23L while the user is not tilting the analog controller 23R or the analog controller 23L.
  • Information indicating the tilt operation amount of ⁇ 0 j of the log controller 23 R or the analog controller portal 23 L is transmitted to the game server device 3 side.
  • the game server device 3 determines whether or not information indicating the tilt operation amount of “0” has been received from the client terminal device 2 side, and thereby the analog control is performed. It is determined whether or not the operation of the controller 23R or the analog controller 23L is completed (the force of the non-tilting operation). If the game server device 3 determines that the operation of the analog controller 23 R or the analog controller 23 L has been completed, the drawing process is performed. All routines are terminated.
  • analog controller 23 R or analog controller 23
  • step S1 the game server device 3 determines whether the analog controller 23 R or the analog controller has been operated in step S1.
  • the analog controller 23R or the analog controller 23L is tilted.
  • the size of the motion blur play to be added to the object other than the object to be the gazing point is determined according to the amount of tilt operation.
  • the game server device 3 detects the object to be the gazing point in step S3, and in step S4, detects the object other than the object to be the gazing point. 3D corresponding to the operation direction of the user with a shake that has a size corresponding to the amount of tilt operation of the analog control port 23R or analog control controller 23L. Render the image.
  • the amount of blur added to objects other than the object at the point of interest in step S2 is gradually increased in accordance with the continuous operation time. May be larger.
  • the pre-amount of the three-dimensional image displayed on the monitor device 5 in accordance with the continuous operation time of the analog controller 23R or the analog controller 23L gradually increases. It becomes larger and gives the user the feeling of moving slowly and rapidly in a three-dimensional space. Even in this case, the object to be the point of interest can be clearly displayed without adding blur.
  • the information indicating the direction indicating button pressed by the user out of 1d is stored in the game server device for the time during which the direction indicating buttons 21a to 21d are continuously pressed. Send to 3 side.
  • step S11 the game server device 3 fetches the information indicating the direction indicating button pressed by the user transmitted from the client terminal device 2. As a result, the drawing process proceeds to step S12.
  • step S2 when information indicating the direction indicating button pressed by the user is transmitted, the game server device 3 responds to the time when this information is continuously received by the motion server device. The blur amount is determined. For this reason, in step S2, the count value of the counter is set to "1" so as to count the time during which the information indicating the direction indication button is continuously received. Reset. As a result, the drawing process proceeds to step S13.
  • step S13 the game server device 3 determines the size of the blur of each object constituting the three-dimensional image of the cityscape to be displayed according to the count value of the counter. decide. As a result, the drawing process proceeds to step S14.
  • step S 14 the game server device 3 is building an object, for example, an object with an advertisement sign, a notice or a message, or any other event. Building, etc. Detects "objects to be gazing points" such as objects where messages exist, notes, and messages. As a result, the drawing process proceeds to step S15.
  • step S15 the game server device 3 transmits the object of the point of gaze to which the motion blur is not added and the direction button 21a for each direction of the user.
  • a 3D image of a cityscape is drawn with an object to which blur is added by a motion blur according to the count value indicating the continuous pressing operation time of ⁇ 21 d, and this image information is It is sent to the user's client terminal device 2.
  • the motion blur is entirely controlled by the motion blur according to the force point value indicating the continuous pressing operation time of the user's respective direction indicating buttons 21a to 21d.
  • a three-dimensional image (see FIG. 5 (b)) without a pre-set is displayed on the user's monitor device 5 for the object to be the gazing point.
  • the drawing process proceeds to step S16.
  • the client terminal device 2 displays the pressed direction indicating button.
  • Information is transmitted to the game server device 3 side, and the information is not transmitted unless each of the direction indicating buttons 21a to 21d is pressed by the user.
  • step S16 the game server device 3 determines whether or not the information indicating the direction indicating button pressed by the user is continuously received from the client terminal device 2 side. In this way, it is determined whether or not the operation of each of the direction indication buttons 21a to 21d has been completed (whether or not the operation is in a non-operation state).
  • the drawing process proceeds to step S17.
  • the game server device 3 Resets the count value of the counter for counting the continuous pressing operation time of the indicating buttons 21a to 21d. As a result, all the routines in the drawing process are completed.
  • step S16 determines whether the operation of each of the direction indicating buttons 21a to 21d has been completed. If it is determined in step S16 that the operation of each of the direction indicating buttons 21a to 21d has not been completed, the drawing process is performed in step S16. Returning to step 2, the game super device 3 further increments the count value of the above counter by "1", and this incremented count value is incremented by one. It forms a three-dimensional image with a pre-press of the size corresponding to the value.
  • the net game system has the analog controller 23R or the analog controller 23L.
  • the amount of play corresponding to the amount of tilting operation or the continuous pressing operation time of each of the up, down, left, and right direction indication buttons 21a to 21d is added to objects other than the object to be the gazing point. To display.
  • the object to be the gazing point such as an object, a place where an item exists, an object with notes, a message, or the like, is moved by moving the controller 4 (the tilting operation described above). Or press operation) can be clearly displayed.
  • the game server device 3 forms a three-dimensional image corresponding to the operation of the controller 4 connected to the client terminal device 2, and forms a three-dimensional image. It is to be transmitted to the client terminal device 2.
  • each data for the three-dimensional rendering processing such as object data and texture data for forming a three-dimensional image corresponding to the operation of the controller 4 and a drawing processing program.
  • May be transmitted to the client terminal device 2 side, and the client terminal device 2 side may form a three-dimensional image based on each of the data ( the game server device).
  • the 3D image formed on the 3 side may be transmitted to the client terminal device 2 side, or each data for forming the 3D image from the game server device 3 side may be transmitted to the client terminal device 2 side.
  • the client terminal 2 may form a three-dimensional image.
  • the net game system according to the second embodiment includes a drawing process that does not add blur by the motion bra to the above-mentioned object to be the point of interest, and the object to be the point of interest.
  • the drawing process is performed to make the object that is the gazing point stand out more. That is what we did.
  • the game server device 3 forms image information in which the object to be the point of interest gradually becomes a large image as the viewpoint is moved and operated near the object to be the point of interest. And sends it to the client terminal 2 side. At this time, the game server device 3 does not add the blur caused by the motion blur to the object serving as the gazing point, and also sets the expansion speed or the expansion speed different from the expansion speed or the reduction speed of the other objects. At the reduction speed, the image of the object that is the gazing point is enlarged or reduced.
  • Fig. 7 (a) shows a diagram conceptually showing the expansion and contraction speeds of objects other than the object of interest
  • Fig. 7 (b) shows the observable object of interest.
  • Figures showing conceptually the enlargement speed and contraction speed of, respectively.
  • the change in the expansion speed and the reduction speed of the object as the point of interest changes with the objects other than the object as the point of interest. It shows different changes with respect to changes in the speed of expansion and contraction of the object.
  • the game server device 3 changes the enlargement speed substantially linearly to form an image. As shown in FIG. 7 (a), let the original size T of the object be the enlarged size L of the object.
  • the game server device 3 changes the reduction speed substantially linearly to form an image. As shown in Fig. 7 (a), let the original size T of the object be the reduced size S of the object.
  • Fig. 7 (b) The dotted line in Fig. 7 (b) indicates the transition of the enlargement speed or reduction speed when objects other than the object to be the point of interest are gradually enlarged or reduced (normal path). .
  • Fig. 7 (b) Line, (Nono 0 scan of I Obujeku bets were eyes stand) which indicates a transition of the spreading rate, or reduced rate and in case of displaying an enlarged or reduced Obuje click bets to be gazing point gradually.
  • the game Form an enlarged or reduced image on the line of the cut.
  • the game server device 3 An image in which the object is enlarged earlier in time than the other objects is formed, and when the image is reduced, the object to be the point of interest is reduced in time later than the other objects.
  • the game server device 3 deletes the image information of the object serving as the gazing point and the object other than the object serving as the gazing point formed at the different enlargement speeds or reduction speeds. Send to client terminal 2 side.
  • the opto-jet which is the gazing point displayed on the user's monitor device 5
  • the opto-jet does not have the motion blur added thereto.
  • the image is enlarged, the image is enlarged earlier than other objects, and when the image is reduced, the image is reduced later than other objects.
  • the object of interest can be further emphasized, and the same effects as those of the net game system according to the first embodiment described above can be obtained. it can.
  • an object to be a gazing point is described.
  • image processing technology that does not add blur due to motion blur and image processing technology that sets the object to be the point of interest at an enlargement or reduction speed different from that of other objects are used together.
  • the object that becomes the point of view was made more prominent, but only with image processing technology that sets the object to be the point of regard at a different enlargement or reduction speed from the other objects. May be used to make the object to be the point of interest stand out
  • the object to be the point of interest is enlarged or reduced at a different enlargement or reduction speed from the other objects, so that the user looking at the screen feels a kind of discomfort. This makes it possible to highlight the object that is the gazing point.
  • the net game systems according to the first and second embodiments described above form an object to which blur is added by the motion blur during the moving operation and an object to which no blur is added. In this way, the object without the blur was made to stand out as the object of interest.
  • the net game system forms an overall three-dimensional image based on the depth of field, and generates a three-dimensional image of each object.
  • the object to be the point of interest is focused on irrespective of the depth of field, so that the object to be the point of interest is conspicuous. .
  • the game server device 3 responds to the user's viewpoint with an object serving as a gazing point formed without adding a depth of field and another object formed with an added depth of field. A three-dimensional image is formed and transmitted to the client terminal device 2 of the user.
  • Fig. 8 (a) shows the 3D image formed without adding the depth of field to each object
  • Fig. 8 (b) shows the image of Fig. 8 (a).
  • Fig. 8 (c) shows an object that is a gazing point formed without adding the depth of field.
  • a three-dimensional image formed by the object and another object formed by adding the depth of field is a three-dimensional image formed by the object and another object formed by adding the depth of field.
  • FIG. 8 (a) when a three-dimensional image is formed without adding a depth of field to each object, all objects have a point. Is formed.
  • Fig. 8 (b) when the depth of field is added to each object, as shown in Fig. 8 (b), objects other than the object with the same focus as in the photo have the same focus. Blur occurs depending on the distance from the object where the is combined.
  • FIG. 8 (b) is a three-dimensional image when the foremost object 40 is in focus. In FIG. 8 (b), it can be seen that blurring due to the depth of field has occurred for objects farther than the foremost object 40. I will be strong.
  • the object 41 shown in FIG. 8 (c) is an object to be the point of regard. Since this object 41 is deeper than the foreground object 40, it is an object that produces blur when a three-dimensional image is formed based on the depth of field. is there.
  • the game server device 3 sets the depth of field for the object to be the gazing point. Regardless of the in-focus state, an overall three-dimensional image is formed. In the example shown in Fig. 8 (c), the depth of field is added so that only the foremost object 40 is in focus, and the other objects 40 are also in focus. The focus is on the object 41, which is the point of interest, and it is displayed. In addition, it can be seen that the object 42 having the same depth as the object 41, which is the gazing point, is blurred due to the depth of field.
  • the object that is the gazing point as an in-focus image regardless of the depth of field and the other object to which the depth of field is added are totally By forming a three-dimensional image, an object can be formed in the three-dimensional image formed based on the depth of field, which makes the user feel uncomfortable. Then, the object that is the point of regard, which is an object that remembers a sense of incongruity, can be made more prominent than other objects, and the same effect as in the first embodiment described above can be obtained. Obtainable.
  • the net game system according to the fourth embodiment is to clearly display an object to be a gazing point in a three-dimensional image in which fog (fog) has occurred.
  • An object that is a viewpoint is made to stand out.
  • the 3D image as an example shown in Fig. 9 (a) shows a 3D image in which a fog (fog) has occurred in a city where a plurality of buildings are lined up.
  • a fog fog
  • FIG. 9 (b) shows a 3D image in which a fog (fog) has occurred in a city where a plurality of buildings are lined up.
  • the brightness (luminance, contrast, and the like) of an object serving as a gazing point is determined by the brightness of another object.
  • the object to be the gazing point is made to stand out.
  • the game server device 3 is configured to control the contrast of the object to be the gazing point out of all the objects in the three-dimensional image. Set only contrast (or brightness only, or both contrast and brightness), higher than the contrast of other objects.
  • the contrast of the object of interest (or only the brightness, or both the contrast and the brightness) is lower than the contrast of the other objects.
  • only the object that is the point of interest may be displayed more darkly than other objects.
  • the object to be the point of interest can be made more conspicuous than other objects, so that the same effect as in the first embodiment described above can be obtained. You.
  • the object to be the gazing point is more conspicuous than the other objects, so that the mosaiyo is used. It controls the tumbler, enlargement / reduction speed, depth of field, fogging, display brightness, etc., for example, depending on the amount of money paid by the advertiser to the system administrator. The amount of the image effect added may be adjusted.
  • Figure 10 shows the amount of motion blur added and the amount of money paid to the system administrator by the advertiser of this "signboard" when the object of interest is, for example, a "signboard". It is a diagram showing the relationship with the amount.As can be seen from this figure, the maximum amount of advertising fees in this example, for example, 200,000 yen, was paid by the advertiser to the system administrator. In this case, the game server device 3 displays the signboard of the advertiser without adding a motion blur. As a result, the advertiser's advertisement can be clearly displayed to the user who moves his or her viewpoint in the virtual space, so that the advertiser can obtain a great advertising effect.
  • the game server device 3 causes the advertiser's sign to break. A motion blur with a small amount is added and displayed. This As a result, the advertiser's advertisement is displayed to the user who moves his / her viewpoint in the virtual space to the extent that the characters and the like can be confirmed. A corresponding advertising effect can be obtained.
  • the game server device 3 displays the advertiser's signage. To display the motion blur with a medium shake amount. As a result, the advertiser's advertisement is displayed to the user who moves his / her viewpoint in the virtual space to the extent that the characters can be confirmed by gaze, and the advertiser is the system administrator. You can get the advertising effect according to the amount paid.
  • the game server device 3 applies the same advertisement to the signboard and surrounding scenery of the advertiser.
  • the motion blur of the amount is added and displayed (Motion blur is added without distinguishing signboards and scenery).
  • the sign of the advertiser is hardly recognized by the user until the movement of the viewpoint in the virtual space is completed.
  • the frequency of advertising can be set to the frequency desired by the advertiser.
  • the advertiser can select the amount of advertisement fee to be paid to the system administrator, thereby enabling the advertiser to select the desired advertisement frequency.
  • the motion blur is used as the image effect.
  • the difference between the expansion speed or the reduction speed of the object of interest and the other objects can be adjusted. (The smaller the difference, the less noticeable).
  • the amount of money to be paid to the system administrator from the advertiser is added to the observing object, depending on the amount of money paid. What is necessary is just to adjust the addition amount of the depth of field.
  • the brightness at the time of displaying the object to be the point of interest according to the amount of money paid by the advertiser to the system administrator is determined. Adjust it.
  • the degree of prominence of the object of interest can be changed according to the amount of money paid to the system administrator.
  • the addition amount of such a surface image effect may be adjusted according to the importance of the object to be watched.
  • the game server device 3 moves the viewpoint of the user. Even if an operation is performed, the signboard displaying this information is displayed without adding a motion blur. As a result, information that is important to the user moving in the viewpoint in the virtual space is clearly identified. The important information can be recognized by all users.
  • the game server device 3 displays a small blur motion blur on the signboard describing this information when the user moves the viewpoint. It is added and displayed.
  • information of medium importance is displayed to the user who moves his or her viewpoint in the virtual space to such an extent that the user can substantially confirm the information. This allows the user to recognize the displayed information.
  • the game server device 3 displays a motion blur with a moderate amount of blur on a signboard describing this information when a user's viewpoint movement operation is performed. One is added and displayed. As a result, information that is less important to the user who moves his or her viewpoint in the virtual space is displayed to the extent that the user can confirm it somehow. The displayed information can be recognized.
  • the game server device 3 displays, when a user's viewpoint movement operation is performed, a motion amount shaker corresponding to the viewpoint movement operation. As it is, it is added to a signboard that shows information of lower importance and is displayed. As a result, the object to be the gazing point is added with the motion plastic having the same amount of blur as the other objects.
  • the blur amount of the motion blur added to the object such as a signboard that describes the information according to the importance of the information
  • the importance is high. The more information, the easier it is for the user to recognize.
  • the motion blur is used as the image effect.
  • the difference between the expansion speed or the reduction speed of the object of interest and the other object may be adjusted (the smaller the difference, the more the eye The degree of standing is reduced).
  • the amount of depth of field added to the object to be the point of interest should be adjusted according to the importance of the information. I just need.
  • the amount of fog to be added to an object serving as a gazing point may be adjusted according to the importance of information.
  • the brightness at the time of displaying the object to be the gazing point may be adjusted according to the importance of the information.
  • the degree of conspicuousness of the object to be watched should be changed according to the importance of the information.
  • the present invention is applied to a net game system for playing a video game in a three-dimensional space provided on the game server device 3 side.
  • the present invention is applied to a web browser that downloads and displays web page data from a web server device connected to a network.
  • the client terminal device 2 shown in FIG. 1 is connected to the network 1 based on a web browser.
  • the data is downloaded, and based on the downloaded data, a character or a surface image of a web page is displayed on the monitor device 5.
  • the web page data downloaded on the client terminal device 2 includes at least the text and image data that is the display content of the web page and the object (point of interest). Data that indicates characters and images) and image effects to highlight the gazing point when scrolling or enlarging / reducing operations are performed.
  • the client terminal device 2 is provided with a display control program when a scroll operation or an enlargement / reduction operation is performed by a user. Based on this, the display control of the web page is performed using a predetermined image effect so that the object to be the gazing point stands out.
  • the web browser provided in the client terminal device 2 is connected to the client terminal device 2 and the network shown in FIG. A communication line is established with the web server device 6 on the network 1, and a web page downloaded from the web server device 6 is displayed on the monitor device 5 to start the process.
  • the client terminal device 2 stores at least the text and image data, which are the display contents of the web page, as the above-described web page data.
  • Data indicating the object (characters, images, etc.) to be the point of interest, and the point of interest when scrolling or enlarging / reducing operations are performed. It is assumed that a display control program for controlling an image eater to make an object to stand out is down-loaded.
  • step S21 the control unit of the client terminal device 2 transmits the contents of all characters, images, and the like of the web page downloaded from the web server device 6 to the monitor device 5. It is determined whether or not all the contents are displayed on the display screen (whether or not all the contents of the web page can be displayed). In this determination, in the case of Yes, since the entire content of the web page is displayed on the display screen of the monitor device 5, the user may perform a scroll operation to see the non-displayed content. We do not do it. Therefore, the display control process proceeds to step S26. If the determination is No, the display control process proceeds to step S22.
  • step S22 since not all the contents of the web page are displayed on the display screen of the monitor device 5, the control unit of the client terminal device 2 changes the initial position of the display screen. To control the save. As a result, the display control process proceeds to step S23.
  • the control unit of the client terminal device 2 executes a screen for scrolling the display screen.
  • the display of the mouth is controlled.
  • the control section scrolls the display screen.
  • the control section controls the scroll operation.
  • the unit determines whether a scroll operation, which is a drag operation of this user, has been performed. Until the scroll operation is detected, the display control of the web page is continued as it is, and the scroll operation or the enlargement / reduction operation is detected at the timing when the scroll operation or the enlargement / reduction operation is detected.
  • the display control process proceeds to step S24.
  • step S23 it is also determined whether or not the user has performed an operation of enlarging or reducing a desired character or image, etc.
  • the display control process when the enlargement / reduction operation is performed will be described later.
  • step S24 the control unit determines whether or not there is data indicating an object to be the point of gaze downloaded from the web server device 6, and thereby the web page is determined. It is determined whether or not there is an object to be the point of gaze in all the contents. If there is an object to be a point of interest, the display control process proceeds to step S25. If no object to be a point of interest exists, this display control process is performed. Proceed to step S27. In step S27, since there is no object to be the gazing point, the control unit adjusts the initial display position of the display screen saved in step S22 and the amount of scroll operation by the user. A motion blur is added to the entire display screen accordingly. As a result, the display control process proceeds to step S26.
  • step S25 since there is an object to be the point of interest, the control unit executes an object other than the object designated as the point of interest.
  • the display control is performed by adding the initial display position of the display screen saved in step S22 and a motion bracket corresponding to the scroll operation amount of the user. .
  • the display control process proceeds to step S26.
  • FIG. 12 shows that the motion blur is applied to objects other than the object designated as the point of interest according to the scroll operation amount of the user.
  • 4 shows an example of a display screen on which is added and displayed.
  • each of the characters "Psychological effect of color”, “Warm color, Cold color”, “Advance color, Back color”, which is the index of the web page, is used. In this case, it is specified as a viewpoint object.
  • the user indicates the scroller 46 displayed on the web page with an arrow in Fig. 12. Drag up and down to specify the web page scrolling display.
  • the control unit of the client terminal device 2 controls the objects other than the characters of the gazing point objects, such as “psychological effect of color”, “warm color, cold color”, “advanced color, receding color”.
  • a motion blur corresponding to the drag operation amount of the user is added to the cut and displayed.
  • the objects of the fixation point, “the psychological effect of color”, “warm color, cold color”, and “ Each character of “advanced color, faded color” will be clearly displayed as shown in Fig.12.
  • the user can find the desired character or text in the web page by directly entering the keyword and searching. You. However, when searching for the desired character while scrolling the display screen by skipping or browsing, the motion blur is applied to all the characters on the display screen. If added, the blurring added to the scrolled characters and the like makes it difficult to recognize the desired characters and the like, making it difficult to find the desired characters and the like.
  • the creator designated the index of the web page and the like as an object to be a point of regard, and produced a web page.
  • the index point or the like which is the point of interest, is displayed without adding a motion blur. For this reason, it is possible to make it easier for users who are skipping or browsing to recognize the index or the like, and to easily find necessary information such as desired characters. Can be done.
  • step S23 the above explanation is to add a motion blur to characters other than the character that becomes the gazing point when the scroll bar is operated by the user.
  • the character to be the gazing point is made to stand out by the addition, but a case where the user's enlargement / reduction operation is detected in step S23 described above will be described below.
  • step S23 when the control unit detects the user's enlargement / reduction operation, in step S24, the control unit determines whether there is an object to be a gazing point. If there is an object to be the point of interest, in step S25, the enlargement or reduction speed of the object to be the point of interest, such as a character or image, is set to another object. In addition to making the enlargement or reduction speed of the object different, the motion blur corresponding to the enlargement or reduction speed is added to objects other than the object that is the point of interest, and Other objects are displayed without adding motion blur.
  • Fig. 13 shows an example of a display image to which such an image effect is added.
  • the "two use & info" displayed at the center of the display screen is displayed.
  • the gaze point character is represented by other characters or the like.
  • the object is enlarged or reduced at a different enlargement or reduction speed than the object, and it is displayed very noticeably because no motion puller is added.
  • an object serving as a gazing point such as an index
  • desired characters and the like are required. Information can be easily found.
  • the image effect of adding a motion blur to an object other than the object to be the point of interest the enlargement speed of the object to be the point of interest, and the like. Decrease the speed of the expansion of other objects.
  • An image effect to be enlarged or reduced at an enlargement speed or reduction speed different from the large speed or reduction speed is used in combination, but it is necessary to use either one of them. You may do it.
  • the brightness (brightness, contrast, etc.) of the object to be the gazing point may be different from the brightness of other objects.
  • the brightness may be displayed. Even in this case, the object to be the point of interest will be displayed brighter or darker than other objects, so that the point of interest, such as an index, should be conspicuous. Can be displayed.
  • a web page is produced in such a manner that the creator specifies an object to be the point of interest in advance, and the client terminal device 2 side performs image effects such as motion blur.
  • the display was controlled by using the ⁇ to make the gazing point specified by the creator stand out.
  • the client terminal device 2 detects the point of gaze and makes it stand out as follows. The display is controlled.
  • parts that the creator wants to emphasize are often displayed in a different display color and size than objects such as other texts. .
  • step S24 of the flowchart shown in FIG. 11 the control unit determines whether there is an object such as a character or an image having a specific display color and that the size of the object is larger than a predetermined size.
  • an object such as a character or an image having a specific display color
  • the control unit determines whether there is an object such as a character or an image having a specific display color and that the size of the object is larger than a predetermined size.
  • objects such as signboards are noticeable by adding a motion blur to objects other than a signboard or the like that becomes a gazing point during movement of the viewpoint.
  • a motion blur to objects other than a signboard or the like that becomes a gazing point during movement of the viewpoint.
  • the user was able to visually recognize the object such as the signboard.
  • the controller 4 is vibrated according to the distance or angle between the viewpoint and the object to be the gazing point.
  • the user can tactilely recognize the object such as the signboard.
  • the controller 4 is provided with a vibration function (vibration motor 9) and a pressing force variable function (pressing force control unit 8) that enable such control. I have.
  • the variable pressing force function is configured as follows.
  • Fig. 14 (a) and Fig. 14 (b) show the 2 button 22c cut vertically in a straight line along the height direction, and this section is viewed from the front. That's it.
  • the buttons 22 c are provided with a convex button cover 50 and a convex button cover 50 so that the force is applied.
  • a predetermined length of the electrode spacer 51 provided in such a manner as to be partially buried therein, a piezoelectric element 52 provided so as to surround the electrode spacer 51, and a substrate 53.
  • the piezo It has a spacer 54 which is an elastic member such as rubber or sponge, and is provided so as to fill the gap between the element 52 and the substrate 53.
  • the convex button force par 50 is formed by a protruding part 50 a and a flange part 50 b, and the protruding part 50 a is formed by a cover 55 of the second operation part 42. It is provided so as to protrude by a predetermined distance from
  • the electrode spacer 51 is provided with an electrode 57 on the anti-button cover 50 side for energizing by contacting the electrode 56 provided on the substrate 53.
  • the piezo element 52 is connected to the client terminal device 2 via a voltage application terminal 58, and according to the voltage applied from the client terminal device 2, the ⁇ button is pressed. The thickness changes along the height direction of 22c.
  • FIG. 14 (a) shows a state where the O button 22c is not pressed when no voltage is applied to the piezo element 52.
  • FIG. 14 (b) shows a pressing operation state of the O button 22 c in a state where no voltage is applied to the piezo element 52.
  • the electrode 57 provided on the electrode spacer 51 is provided on the substrate 53. Is not in contact with the electrode 56.
  • the button is pressed as shown in FIG. 14 (b).
  • the spacer 54 formed of an elastic member is deformed by the flange portion 50b of the cylinder 50 through the piezo element 52 so as to be crushed.
  • the electrode 57 provided on the electrode spacer 51 is brought into contact with the electrode 56 provided on the substrate 53 to conduct electricity.
  • the client terminal device 2 detects that the 2 button 22 c has been pressed by this energization. [Variable control of force required for pressing]
  • FIG. 15A shows a state in which a voltage is applied to the piezo element 52.
  • a voltage is applied to the piezo element 52 as shown in FIG. 15 (a)
  • the piezo element 52 is turned on by the ⁇ button 22 according to the applied voltage. Deformation occurs as the thickness of c in the height direction increases. As a result, the spacer 54 is deformed by being crushed by the increased thickness of the piezo element 52.
  • each voltage is only applied to the piezo element 52.
  • the electrodes 56 and 57 are not in contact with each other.
  • the voltage applied to the piezo element 52 is variable by the control of the client terminal device 2, so that the thickness of the piezo element 52 is It changes according to the distance and angle between the object and the viewpoint.
  • the pressing force required to press the ⁇ button 22 c is variably controlled, but this is achieved by raising and lowering the first operation unit 21.
  • the pressing force required to press the left and right direction indicating buttons 21a to 21d may be variably controlled.
  • the tilting operation force required to perform the tilting operation of each of the analog operation sections 23 R and 23 L may be variably controlled.
  • the operation means is the controller 4, but the same applies to the case of an input device such as a keyboard or a mouse device.
  • a pressing force varying means such as the piezo element may be provided between the cover of each key and the contact portion.
  • the operation means is a mouse device, if the pressing force variable means such as the piezo element is provided between the cover of the operation button and the contact portion, the controller 4 described above can be used. The same effect can be obtained.
  • This flowchart starts when the user logs in to the virtual world formed by the net game system.
  • step S51 the client terminal device 2 communicates with the controller 4, so that the controller 4 has a function corresponding to the control in this case. For example, it is determined whether or not it has a pressing force variable function and a vibration function. If it is determined that the controller 4 does not have the control function, the controller 4 cannot be controlled, and the client terminal is not controlled. The device 2 ends the execution of this flowchart.
  • the controller 4 when it is determined that the controller 4 has the control function, the controller 4 can be controlled, and thus the client 4 can be controlled.
  • the terminal device 2 advances this control process to step S52.
  • step S52 the client terminal device 2 detects a viewpoint moving operation performed by the user who has logged in to the virtual world using the controller 4, and the vicinity of the moving position of the user is detected. Next, it is determined whether or not an emphasized object such as a signboard exists. If there is no enhanced object, the client terminal device 2 advances the control process to step S61, and if there is an enhanced object, the client terminal device 2 executes this control process. Proceed to step S53.
  • step S53 the client terminal device 2 detects a signboard on which the most important content is displayed, among the objects to be highlighted near the moving position of the user. If the signboard is an advertisement, the signboard that pays a high advertising fee can be the “most important signboard”. In this step S53, some signs may be detected in descending order of importance.
  • step S54 the client terminal device 2 calculates the distance between the object on which the most important content is displayed and the viewpoint of the user.
  • step S55 the client terminal device 2 transmits the control amount (the amount of vibration of the torsion function or the pressing of the button) corresponding to the distance calculated in step S54. Calculate the amount of pressing force necessary for).
  • step S56 the client terminal device 2 calculates the angle between the user's viewpoint and the above-mentioned emphasized object.
  • step S57 the client terminal device 2 calculates the control amount with respect to the angle calculated in step S56.
  • control amount may be gradually increased as the angle becomes smaller.
  • control may be performed when the signboard exists at the viewing angle, and the control may not be performed when the signboard does not exist at the viewing angle.
  • the client terminal device 2 calculates the moving speed of the viewpoint with respect to the signboard.
  • the client terminal device 2 calculates the control amount for the moving speed of the user calculated in step S58. In this case, as the moving speed increases, a larger control amount is gradually calculated.
  • step S60 the client terminal device 2 transmits the button of the controller 4 based on the control amounts calculated in steps S54 to S60. Control the vibration function.
  • the client terminal device 2 controls the amount of vibration of the controller 4 as the signboard is within the viewing angle of the user and the viewpoint of the user approaches the emphasized object.
  • the vibration motor 9 of the controller 4 is controlled so that the pressure gradually increases.
  • the pressing force control unit of the controller 4 controls the pressing force required to press the button of the controller 4 to gradually increase. 8 (for example, the above-described piezo element 52).
  • step S61 the client terminal device 2 determines whether or not the user has logged out of the virtual world. If the log has not been logged, the above-described control in steps S52 to S60 is repeated and executed. On the other hand, if a logout of the user is detected, the execution of this flowchart is terminated.
  • the important objects are determined according to the distance between the viewpoint and the important object and the viewing angle.
  • the motion blur is not applied, and at the same time, the faster the moving speed, the greater the force required for the button operation.
  • the vibration of the controller 4 the above skip reading is performed. A tactile attention can be given to a user who moves in the virtual world with a sense. Also, by controlling the control amount according to the distance between the viewpoint and the important object and the viewing angle, the visual effect can be captured. As a result, it is possible to prevent inconvenience such as overlooking important information when a user moves in a virtual world at high speed.
  • control may be performed in consideration of the moving speed of the user's view together with the distance between the viewpoint and the object and the viewing angle of the user.
  • control amount gradually increases as the moving speed of the user's viewpoint increases.
  • control when controlling based on the viewing angle, the control can be performed only when there is an important sign in the viewing angle, so that important information can be prevented from being overlooked. .
  • control may be performed on a signboard that is not within the viewing angle. In this case, objects that are not visible to the user can be made to stand out.
  • control for changing the weight of the “button” and the control for changing the magnitude of the “vibration” are used in combination, but either one of the controls is performed. You may do it. Alternatively, each of the above-mentioned controls may be properly used according to the importance of the information.
  • the above description visually and tactilely expresses the current state of the network, etc.
  • unique sounds voice, music, beep, etc.
  • the sound may be controlled from the speaker device 7 shown in FIG.
  • the sound power device 7 is controlled so that the loud sound is gradually generated as the viewpoint approaches the signboard, and conversely, the sound is gradually reduced as the viewpoint approaches the signboard.
  • the above-mentioned speaker device 7 is controlled so as to generate a strange sound.
  • an additional amount (effect amount) of image processing to be added can be set for each object.
  • the game server device 3 includes a plurality of objects each indicating an amount of effects to be added to each object. It has a parameter database 11 (parameter DB) in which parameters for each project are recorded. Also, each client terminal device 2 stores the parameters of each object downloaded from the parameter DB 11 of the game server device 3, for example, a hard disk drive 1 It has a secondary storage medium device such as 0 (HDD).
  • the client terminal device 2 downloads the parameters of each object, it forms a parameter table of each object in the HDD 10. Then, when the user performs a viewpoint moving operation, the client terminal device 2 reads out the parameters of each object from the parameter table, and responds to the parameters. Each object is rendered with the added amount of image processing.
  • FIG. 17 shows an example of a parameter table formed in the HDD 10 described above.
  • the parameter table stores the identification information (ID) of each object, the information indicating the attribute of each object, and the amount of effect of each object. And the information indicating the changeable range of the effect amount that can be changed by the user.
  • the attribute is the object of the first building, the ID of "1" is assigned, and if the attribute is the object of the second building, the ID is "2". ID is attached. Also, if the attribute is the object of the first signboard, an ID of “3” is attached, and if the attribute is the object of the second signboard, an ID of “4” is attached. If the attribute is an object of a tree, an ID of “5” is added. If the attribute is an object of a car, an ID of ⁇ 6 ”is added. In addition, if the attribute is an object of a telephone pole, an ID of “7” is assigned. If the attribute is a human object, an ID of “n (where n is a natural number) J is assigned. ing.
  • the amount of image processing effects added to each object can be changed by the user except for some objects.
  • the first building In the case of a dating object the effect amount can be changed in the range of "0 to 10"
  • the second building object "5 to 10"
  • the effect amount can be changed within the range.
  • the amount of the e-fat can be changed in the range of “0 to 5”
  • the amount of the effetate in the object of the second signboard can be changed. In this case, the effect amount cannot be changed.
  • the amount of effect can be changed in the range of “0 to 8”, and in the case of an object of a car, the amount of the effect is “0 to 10J”.
  • the effect amount can be changed within the range, and in the case of telephone pole objects, the effect amount can be changed within the range of “0 to 10”.
  • the amount of e-fate can be changed within the range of "5 to 10".
  • the object of the second signboard is a signboard on which important information such as, for example, maintenance information of the game server device 3 is posted. For this reason, only the administrator cannot change the effect amount for this second sign object (the user cannot change the effect amount for this second sign object). I can't do that.)
  • the amount of ef- fect of each such object is set to a predetermined initial value when the parameter template is formed. However, when the user specifies change of the effect amount, the client terminal device 2 displays the parameter table on the monitor device 5.
  • the user recognizes the amount of effect of each object from the parameter table displayed on the monitor device 5, and evaluates the desired object through the controller 4. ⁇ Perform the operation to change the amount of cut.
  • the user inputs a first building object whose effect amount can be changed in a range of “0 to 10” by the user.
  • the client terminal device 2 Writes the number of "8" to the object of the first building in the parameter table as shown in Fig.17.
  • the effect amount of "10” is set by the user for the opi-jet of the person who can change the effect amount in the range of "5 to 10". Then, the client terminal device 2 writes “10j effect amount” to the “person” object in the parameter table as shown in FIG. The client terminal device 2 reads out the parameter table customized by the user in the process of drawing each object, and reads the parameter table for each object. Performs drawing processing with the specified amount of effect added.
  • the effect amount can be set for each object such as each building and each tree. However, for example, the same amount of effect is applied to all building objects and the same amount of effect is applied to telephone pole objects.
  • the effect amount may be determined uniformly according to the attribute of the object.
  • step S71 the client terminal device 2 sets the object ID to the initial value “1” in order to read out the effect amount from the first object.
  • Set (i l).
  • step S72 the client terminal device 2 refers to the recordable data stored in the HDD 10 and proceeds to step S73. Then, the amount of ef- fect of the object having the ID of "1" is detected and stored in a storage medium such as an internal memory.
  • step S74 the client terminal device 2 determines whether or not the effect amounts of all objects stored in the parameter table have been detected. I do. Then, when the detection of the amounts of the effects of all the objects is completed, the drawing process proceeds to step S75, and the amounts of the effects of all the objects are determined. If not, the drawing process proceeds to step S77.
  • step S77 since the detection of the amount of ef- fect of all objects has not been completed, the client terminal device 2 sets the value of the ID of the object set in advance. (I) is incremented by "1", and the drawing process is returned to step S72.
  • step S74 the object ID value is incremented by "1" until it is determined that the detection of the effect amounts of all the objects has been completed. Detects the effect amount of all objects while performing.
  • step S75 the client terminal device 2 detects the viewpoint of the user based on the operation state of the controller 4, and the object corresponding to the viewpoint is detected. Is loaded. Then, for each of these objects, a predetermined effect is added so that the effect amount becomes the amount of effect stored in the internal memory described above, and drawing processing is performed. Thus, it is possible to perform a drawing process on an image formed by each object to which a predetermined amount of effect is added. Therefore, for example, an image in which no effect is added to an object to be a gazing point, or an effect with a small amount of effect is added to an object to be a gazing point Images, etc., can be formed by setting the amount of ef- ate of each of the above objects. You.
  • step S76 the client terminal device 2 detects the operation state of the controller 4 to determine whether the log from the virtual world has been instructed by the user. It is determined whether or not.
  • the client terminal device 2 returns the drawing process to the above-described step S75, and performs the drawing corresponding to the user's viewpoint. Continue processing.
  • the communication line connected between the client terminal device 2 and the game server device 3 up to that point is cleared.
  • the terminal device 2 performs a disconnection process, and ends the drawing process shown in FIG. 19.
  • This flowchart is used when it is determined in step S74 of the flowchart in FIG. 19 that the detection of the effect amounts of all the objects has been completed. It becomes a start.
  • step S81 the client terminal device 2 loads an object corresponding to the user's viewpoint.
  • step S82 the client terminal device 2 sets the loaded object to the above-mentioned object from the amount of effects stored in the above-mentioned internal memory. Load the project volume. In this case, each object The effect to be added is a motion bracket. For this reason, the client terminal device 2 sets the number of times of interpolation of the inter-frame image corresponding to the loaded amount of the above-described object for the dictated object. Then, in step S83, the client terminal device 2 repeatedly performs the drawing process while interpolating between the above-mentioned frames with the set number of interpolations. Then, a rendering process with a motion bracket is performed for each object.
  • the image of the sphere in FIG. 21 (a) is the image of the first frame (or the image of the first field)
  • the image of the sphere in FIG. 21 (b) is The image of the second frame, which is the frame following the image of the first frame, (or the image of the second field).
  • the image of the sphere moves from the upper left to the lower right of the drawing during one frame (or one field). It is assumed that it moves diagonally.
  • the motion blur sets the effect amount by how many images are used to interpolate between the frames (or between the fields).
  • FIG. 21 (c) is an image obtained by dividing the image of the first frame and the image of the second frame by 10 and performing interpolation processing.
  • the image of the moving sphere is captured by linear capture (capture processing assuming that the moving object moves at a constant speed), or by nonlinear capture.
  • interpolation processing interpolation processing assuming that a moving object moves at an irregular speed
  • a motion blur can be added to the object.
  • step S84 the client terminal device 2 determines whether or not the rendering process for the number of times of capturing set as the effect amount has been completed. If the drawing process for the number of times of capturing has not been completed, the drawing process is returned to step S83, and the drawing process for the number of interpolations is completed.
  • the motion blur image is formed by repeating and executing the above-described linear sampling processing or nonlinear sampling processing.
  • the client terminal device 2 advances the rendering process to step S85. .
  • step S85 it is determined whether or not the drawing processing for adding such a motion blur has been completed for all the objects. If the drawing process for all the objects has not been completed, the process returns to step S82, and the above-described object and the amount of the E-fet amount are returned. The loading and drawing processes are repeatedly executed until it is determined that the drawing processes for all objects have been completed.
  • the client terminal device 2 ends the drawing processing step shown in FIG. I do.
  • the client terminal device 2 executes the drawing process in step S76 of the flowchart shown in FIG. Will be migrated.
  • each object is blurred.
  • the image blur may be added by the afterimage processing.
  • the square image of FIG. 22 (a) is the first frame image (or the image of the first field), and the square image of FIG. 22 (b) is the above-mentioned square image.
  • the image of the second frame which is the frame following the image of the first frame, (or the image of the second field).
  • a square image is one frame.
  • the transparency of the image of the previous frame is adjusted so as to be translucent, for example, and overwritten on the image of the current frame as shown in Fig. 22 (c). This is done.
  • the number of images to be overwritten is set as the amount of effect. Then, the client terminal device 2 adds a blur to the object by overwriting the object by the set number of images.
  • the net game system uses the amount of effect of the effect added to each object as a parameter. By setting with, it is possible to perform drawing processing of each object with a different effect amount for each object.
  • the present invention operates a predetermined object such as a character in a virtual three-dimensional space formed in a game super device on a network such as an internet. It can be applied to a net game system that enjoys video games.

Description

明細書 表示装置 技術分野
本発明は、 ウ ェブページの閲覧を行 う ウ ェブブラ ウザや、 所定のネ ッ ト ワーク 上のサーバ装置によ り 提供される仮想空間でビデオゲーム を行 ぅ ネ ッ ト ゲームシステム等に適用 して好適な表示装置及び画像処理方法 に関する。 背景技術
今 日 において、 ビデオゲーム機やパーソナルコ ン ピュータ装置等のク ライ ア ン ト端末装置が一般家庭に広く 普及 してお り 、 こ のク ライ ア ン ト 端末装置を用いた ビデオゲ一ムや、 イ ンターネ ッ ト上の ウェブページの 閲覧等が頻繁に行われる よ う になつている。
こ こで、 こ のよ う なク ライ ア ン ト端末装置に よ り 表示された ウ ェブぺ ージの表示箇所を移動する場合、 ユーザはク ライ ア ン ト端末装置に接続 されているマ ウス装置やキーボー ド等の入力デバイ ス を操作 して表示箇 所の移動操作を行 う よ う になっている。
具体的には、 例えばウ ェブページに、 モニタ装置の表示領域で表示 し きれない文章や画像等の表示物がある場合、表示領域には上下移動用(及 ぴ左右移動用) のス ク ロ ールバーが表示される。
ユーザは、 マ ウス装置を操作 してカーソルで表示画面のス ク ロール方 向に対応する ス ク ロールバ一を上下方向或いは左右方向に ドラ ッ グ操作 し、 或いはキーボー ドの上下左右の各キーの う ち、 表示画面のス ク ロ ー ル方向に対応する キーを押圧操作する。 ク ライ ア ン ト端末装置は、 こ の 押圧操作されたキーに対応 して画面をス ク ロ ール表示する。これによ り 、 モニタ装置の表示領域で表示 しきれなかった文章や画像等の表示物が表 示領域に表示される こ と と なる。
一方、 ビデオゲームにおいて、 例えばモニタ装置に表示された仮想的 な三次元空閬のキャ ラ ク タ を現在の場所から他の場所に移動させる場合 ユーザは、 ク ライ アン ト端末装置に接続されたコ ン ト ローラ に設け られ ている上下左右の各キーの う ち、 キャ ラ ク タ の移動方向に対応する キ一 を押圧操作し、 或いはコ ン ト ローラ に設け られている スティ ッ ク状のァ ナロ グコ ン ト ローラ をキャ ラ ク タ の移動方向に傾倒操作する。 これによ り 、 上下左右の各キーの押圧操作、 或いはアナロ グコ ン ト ロ ーラ の傾倒 操作に対応 して、 ビデオゲームのキャ ラ ク タ が仮想的な三次元空間内を 移動する こ と と なる。
こ こ で、ウェブページやビデオゲームの仮想的な三次元空間において、 注意事項や広告等、 ユーザに対して認識させたい表示物が存在する場合 がある。 し力 し、 従来は、 ウェブページのス ク ロ ールが行われる と 、 ス ク ロ ール速度に応 じて文字や画像にブレを生 じ、 注意事項や広告等、 ュ 一ザに対して認識 させたい表示物をユーザに対して認識させる こ と がで き な く なる問題があった。
また、 ビデオゲームの場合も同様であ り 、 キャ ラ ク タ の移動操作が行 われる と 、 キャ ラ ク タや背景と なる画像にブ レを生じ、 スポンサーの広 告等、 ユーザに対 して認識させたい表示物をユーザに対して認識させる こ と ができ な く なる問題があった。
本発明は上述の課題に鑑みてな されたものであ り 、 文字や画像等の表 示物が移動表示された場合であって も、 注意事項や広告等、 ユーザに対 して認識させたい表示物が 目 立つよ う に表示する こ と ができ る よ う な表 示装置及ぴ画像処理方法の提供を 目 的 とする。 発明の開示
本発明は、 所定の画像エフ エ タ ト を付加 したオブジェ ク ト と所定の画 像エ フ ェ ク ト を付加 しないォブジェ ク ト と で表示画面を構成する こ と で 表示画面内の注視点と なるオブジェ ク ト に対してユーザが違和感を憶え る よ う にする。
これによ り 、 例えば注意事項や広告等、 ユーザに対して認識させたい 表示物である注視点と なるオブジェ ク ト にユーザの注意を引 く こ と がで き 、 該注視点 と なるオブジェ ク ト を 目 立せる こ と ができ る。 図面の簡単な説明
図 1 は、 本発明の第 1 の実施の形態と なるネ ッ ト ゲームシス テム のブ 口 ッ'ク 図である。
図 2 は、 第 1 の実施の形態のネ ッ トゲームシステム のク ライ アン ト端 末装置に設け られている コ ン ト ロ ー ラ の外観を示す斜視図である。
図 3 は、 第 1 の実施の形態のネ ッ ト ゲームシス テ ムのゲームサーバ装 置で提供される仮想的な三次元空間の一例を示す図である。
図 4 は、 上記ク ライ ア ン ト端末装置に設け られている コ ン ト ロ ー ラ の アナロ グコ ン ト ロ ーラ を用いて移動操作を行った場合における描画処理 行程を説明するためのフ ロ ーチヤ一トである。
図 5 は、 注視点 と なるオブジェク ト以外のオブジェ ク ト に対 してモー シ ヨ ンブラーが付加された状態の表示画像を説明するための図である。 図 6 は、 上記ク ライ ア ン ト端末装置に設け られている コ ン ト ローラの 方向指示ボタ ンを用いて移動操作を行った場合における描画処理行程を 説明するためのフ ローチヤ一ト であ る。
図 7 は、 拡大/縮小操作が行われた場合における、 注視点 と なる ォブ ジェク ト の拡大速度及び縮小速度を説明するための図である。
図 8 は、 異なる被写界深度 とする こ と で、 注視点 と なるオブジェ ク ト を 目 立つよ う に表示 した例を示す図である。
図 9 は、 注視点 と なるォブジェ ク ト以外のオブジェ ク ト に対してフォ ギング処理を施 した例を示す図である。
図 1 0 は、 注視点 と なるオブジェ ク ト に対 して付加 されるモーシ ョ ン ブラーのブ レ量と表示代償と の関係の一例を示す図である。
図 1 1 は、 表示画面に表示された文字等のス ク ロール操作、 或いは拡 大 /縮小操作が された際に、 注視点 と なるィ ンデッ タ ス を 目 立たせるた めの表示制御の流れを説明するためのフ ローチヤ一ト である。
図 1 2 は、 表示面面がス ク ロ ール操作された場合でも 、 注視点 と なる ィ ンデッ タ スが 目 立つよ う に表示されている様子を示す図である。
図 1 3 は、 表示画面が拡大 Z縮小操作された場合でも 、 注視点 と なる イ ンデッ ク スが 目 立つよ う に表示されている様子を示す図である。
図 1 4 は、 コ ン ト ローラ に設け られている〇ボタ ンが押圧されていな い状態及び該〇ボタ ンが押圧された状態を示す縦断面図である。
図 1 5 は、 コ ン ト ロ ーラ に設け られている〇ボタ ンに設け られている ピエゾ素子に電圧を印加する こ と によ り 、 ピエゾ素子の厚みが変化 した 状態を示す縦断面図である。
図 1 6 は、 本発明の第 7 の実施の形態と なるネ ッ ト ゲームシステムの 制御行程の流れを説明するためのフ ローチャー ト である。
図 1 7 は、 本発明の第 8 の実施の形態 と なるネ ッ ト ゲームシステ ム の パラ メ 一タテーブルを説明するための図である。
図 1 8 は、 第 8 の実施の形態と なるネ ッ ト ゲームシステム のパラ メ一 タテ一ブルの変形例を説明するための図である。
図 1 9 は、 第 8 の実施の形態 と なるネ ッ ト ゲームシステムの描画処理 行程の流れを示すフ ローチヤ一 トである。
図 2 0 は、 第 8 の実施の形態 と なるネ ッ トゲームシステム のモ一シ ョ ンブラーを付加する描画処理行程の流れを示すフ ロ ーチヤ一 ト である。 図 2 1 は、 元の画像にモ一シ ヨ ンブラ一を付加 される様子を示す図で める。
図 2 2 は、 残像処理を説明するための図である。
図 2 3 は、 重ね書き によ る残像処理及び後書き によ り 残像処理が施さ れたォブジェ ク ト の一例を示す図である。 発明を実施するための最良の形態
[第 1 の実施の形態]
〔シス テム構成〕
まず、 図 1 にこ の本発明の第 1 の実施の形態と なるネ ッ ト ゲ一ムシス テムのシステ ム構成図を示す。 この図 1 からわかる よ う に、 こ の実施の 形態のネ ッ ト ゲームシステムは、 例えばイ ンタ一ネ ッ ト等の所定のネ ッ ト ワーク 1 にそれぞれ接続された複数のク ライ ア ン ト端末装置 2 と 、 ク ライ アン ト端末装置 2 を有する各ユーザに対して仮想的な三次元空間を 提供する ゲームサーバ装置 3 と を有 している。
各ク ライ ア ン ト端末装置 2 には、 それぞれコ ン ト ロ ーラ 4 、 モニタ装 置 5 , ス ピーカ装置 7 、 及びハー ドディ ス ク ドライ ブ 1 0 ( H D D ) 等 の二次記憶媒体の ドライ ブが接続されている。
この う ち、 コ ン ト ローラ 4 は、 例えば図 2 に示すよ う に 2 つの把持部 2 O R , 2 0 L を有 してお り 、 プレーヤは、 こ の各把持部 2 O R , 2 0 L を左右の手で把持して こ の コ ン ト ロ ー ラ 4 を操作する よ う になってい る。
こ の コ ン ト ローラ 4 には、 各把持部 2 0 R , 2 0 L を左右の手で把持 した状態において、 例えば各親指で操作可能な位置に、 第 1 , 第 2 の操 作部 2 1 , 2 2 と 、 アナロ グコ ン ト ローラ 2 3 R , 2 3 L と がそれぞれ 設け られている。
第 1 の操作部 2 1 は、 例えばキャ ラ ク タ の進む方向や視点の方向等の 指示を行 う ための指示ボタ ンが設け られてお り 、 上方向を指示する ため の上方向指示ポタ ン 2 1 a 、 下方向を指示するための下方向指示ボタ ン 2 1 b 、 右方向を指示するための右方向指示ボタ ン 2 1 c 、 左方向を指 示するための左方向指示ポタ ン 2 1 d がそれぞれ設け られている。
第 2 の操作部 2 2 には、△形状の刻印が設け られた△ボタ ン 2 2 a と 、 X形状の刻印が設け られた Xボタ ン 2 2 b と 、 〇形状の刻印が設け られ た〇ボタ ン 2 2 c と 、 口形状の刻印が設け られたロボタ ン 2 2 d と がそ れぞれ設け られている。
アナロ グコ ン ト ローラ 2 3 R , 2 3 L は、 非傾倒操作時には起立 した 状態 (傾き のない状態 =基準ポジシ ョ ン) でそのポジシ ョ ンが保持され る よ う になっている。 コ ン ト ローラ 4 は、 アナロ グコ ン ト ロ ーラ 2 3 R 或いはアナロ グコ ン ト ロ ーラ 2 3 L が傾倒操作される と 、 上記基準ポジ シ ヨ ンに対する傾き量と傾き方向に応 じた X Y座標上の座標値を操作出 力 と して、 ク ライ ア ン ト端末装置 2 に供給する。
また、 こ の コ ン ト 口一ラ 4 には、 ゲーム開始の指示等を行 う ためのス ター ト ボタ ン 2 4 と 、 所定の項目 の選択等を行 う ためのセ レク ト ボタ ン 2 5 と 、 アナロ グモ一 ド及びデジタルモー ドを選択するためのモー ド選 択スィ ツチ 2 6 と を有している。
こ のモー ド選択スィ ツ チ 2 6 によ り アナ口 ダモー ドが選択された場合 には、 発光ダイ オー ド 2 7 ( L E D ) が発光制御 され、 アナロ グコ ン ト ローラ 2 3 R , 2 3 Lが動作状態と な り 、 デジタルモー ドが選択された 場合には、 発光ダイ オー ド 2 7 が消光制御 され、 アナロ グコ ン ト ロ ーラ 2 3 R , 2 3 Lが非動作状態と なる よ う になつている。
また、 こ の コ ン ト ローラ 4 には、 各把持部 2 O R , 2 0 L を左右の手 で把持 した状態において、 例えば各手の人差 し指 (或いは中指) で操作 可能な位置に、 右ポタ ン 2 8 及ぴ左ポタ ン 2 9 が設け られている。 こ の 各ボタ ン 2 8 , 2 9 は、 それぞれコ ン ト ロ ーラ 4 の厚さ方向 ( =高 さ方 向) に並設された第 1 , 第 2 の右ボタ ン 2 8 R 1 , 2 8 R 2 、 及び第 1, 第 2 の左ボタ ン 2 9 L 1 , 2 9 L 2 を有 している。
プレーヤはこれ らの各ポタ ンを操作する こ と で、 ゲームサーバ装置 3 によ り 提供される仮想的な三次元空間における視点を変更操作し、 或い はキャ ラ ク タ を操作する よ う になっ ている。
また、 こ の コ ン ト ローラ 4 には、 上記各ポタ ン 2 2 a〜 2 2 d の押圧 力を可変制御する押圧力制御部 8 と 、 当該コ ン ト ローラ 4 自 体を振動 さ せるための振動モータ 9 と が設け られている。 後に説明するが、 これ ら 押圧力制御部 8 及び振動モータ 9 は、 視点 と 、 看板等の注視点 と なるォ ブジェ ク ト と の間の距離や角度等に応 じて制御 され、 ユーザに対 して看 板等の存在を触覚的に知 らせる よ う になっ ている。
また、 ス ピーカ装置 7 は、 視点と 、 看板等の注視点 と なるオブジェ ク ト と の間の距離や角度等に応 じて所定の音響出力が出力制御 される よ う になってお り 、 ユーザに対 して看板等の存在を聴覚的に知 らせる よ う に なっている。
〔シス テ ム動作〕
この実施の形態と なるネ ッ ト ゲ一ムシステムは、 ゲームサーバ装置 3 側で提供される仮想的な街 (三次元空間) における視点を変更操作する こ と で、 こ の三次元空間である街を散歩 し、 或いは自 分で作成 したキヤ ラ ク タ を操作して こ の Ξ次元空間内を移動 させ店舗で買い物等を行い、 さ らには出会った他のユーザのキャ ラ ク タ と コ ミ ュニケーシ ョ ンを図る 等 して楽しむこ と が可能なネ ッ ト ビデオゲーム と なっている。
このネ ッ ト ビデオゲームを行 う場合、 ユーザはク ライ アン ト端末装置 2 の ウ ェブブラ ウザを起動 し、 こ の ウェブブラ ウザによ り 自 分のク ライ ア ン ト端末装置 2 をゲームサーバ装置 3 に接続する。 ゲームサーバ装置 3 は、 ク ライ ア ン ト端末装置 2 と の間で通信回線が確立される と 、 所定 の仮想的な三次元空間の画像情報をク ライ ア ン ト端末装置 2 側に送信す る。 これに よ り 、 そのユーザのク ライ ア ン ト端末装置 2 に接続されてい るモニ タ装置 5 に、 例えば図 3 に示すよ う な仮想的な三次元空間の街並 みの画像が表示 される こ と と なる。 '
ユーザは、 コ ン ト ローラ 4 の上下左右の各方向指示ポタ ン 2 1 a 〜 2
1 d 、或いは各アナ ロ グコ ン ト ロ ーラ 2 3 R , 2 3 L を操作する こ と で、 このよ う な街並みの三次元空間内を仮想的に 自 由 に移動する こ と ができ る。
すなわち、 この よ う な仮想的な三次元空間内を移動する場合、 ユーザ はコ ン ト ロ ーラ 4 の上下左右の各方向指示ボタ ン 2 1 a 〜 2 1 d を押圧 操作し、或いは各アナロ グコ ン ト ローラ 2 3 R , 2 3 L を傾倒操作する。 こ の コ ン ト ロ ーラ 4 の操作状態を示す情報は、 ク ライ ア ン ト端末装置 2 からゲームサーバ装置 3 側に送信される。 ゲームサーバ装置 3 は、 コ ン ト ロ一ラ 4 の操作状態を示す情報を受信する と 、 こ の コ ン ト ロ ーラ 4 の 操作状態に対応する三次元空間内の画像情報を順次ク ライ ア ン ト端末装 置 2側に返信する。
これによ り 、 ク ライ ア ン ト端末装置 2 に接続されたモニタ装置 5 に、 ュ一ザの コ ン ト ローラ操作に対応する三次元空間の画像が順次表示 され ユーザはこ のモニ タ装置 5 に表示される三次元空間の画像を通 じて、 該 三次元空間内を仮想的に移動する こ と ができ る (三次元空間内を移動す る感覚を得る こ と ができ る。)。 〔移動操作中における注視点の表示動作〕
こ こ で、 こ の実施の形態のネ ッ ト ゲーム システムは、 「モーシ ョ ンブラ 一」 と 呼ばれる画像処理技術を用い、 各ォブジェ ク ト に対してブレを付 加 して表示する こ と で、 ユーザのコ ン ト ローラ 4 の操作に応 じた移動感 を表現する よ う になっている。
し力ゝ し、 例えば
こ のネ ッ ト ゲームシステム に協賛する ス ポンサーの広告の看板、 こ のネ ッ ト ゲームシステムの管理者側に広告料を支払った企業等の広 告の看板、
何らかのィ ベン ト を開催 している ビルディ ング等の建物、
何らかのアイ テムが存在 している場所、
注意事項ゃメ ッセージ等が記載されたオブジェ ク ト
等の 「注視点 と なるォブジェ ク ト 」 は、 コ ン ト ロ ーラ 4 の移動操作に拘 わらずプ レを生 じ させる こ と な く 明確に表示する こ と が好ま しい。
このため、 このネ ッ ト ゲームシステムでは、 「注視点 と なる オブジェ ク ト」 に対 しては、 コ ン ト ローラ 4 の移動操作に拘わ らずモーシ ョ ンブラ 一によ るブ レを付加 しないこ と で明確に表示する よ う になっている。 ユーザカ コ ン ト ローラ 4 のアナロ グコ ン ト 口一ラ 2 3 R , 2 3 L を用 いて移動操作を行った場合における描画処理行程の流れを図 4 のフ ロ ー チャー ト に、 また、 ユーザがコ ン ト ロ ーラ 4 の上下左右の各方向指示ボ タ ン 2 1 a〜 2 1 d を用いて移動操作を行った場合における描画処理行 程の流れを図 6 のフ 口 一チヤ一ト にそれぞれ示す。
(アナ口 グコ ン ト 口ーラ の傾倒操作に応 じた描画処理)
まず、図 4 のフ 口一チヤ一 ト を用いて、アナロ グコ ン ト ローラ 2 3 R , 2 3 L が傾倒操作された場合における描画処理行程の説明する。
この図 4 のフ ロ ーチャー ト は、 ク ライ ア ン ト端末装置 2 が、 ユーザに よ るアナロ グコ ン ト 口 一ラ 2 3 R或いはアナロ グコ ン ト 口 一ラ 2 3 L の 傾倒操作を検出 したタイ ミ ングでス タ ー ト と な り 、 こ の描画処理行程が ステ ップ S 1 に進む。
ク ライ ア ン ト端末装置 2 は、 検出 したアナロ グコ ン ト ローラ 2 3 R或 いはアナロ グコ ン ト ローラ 2 3 L の操作方向を示す情報、 及ぴ傾倒操作 量を示す情報をゲームサーバ装置 3 側にそれぞれ送信する よ う になって いる。
ステ ップ S 1 では、 ゲームサーバ装置 3 が、 こ のク ライ ア ン ト端末装 置 2 から送信 されたアナロ グコ ン ト ローラ 2 3 R或いはアナロ グコ ン ト ローラ 2 3 L の操作方向を示す情報 と 、 傾倒操作量を示す情報をそれぞ れ取 り 込む。 これによ り 、 こ の描画処理行程がステ ップ S 2 に進む。 次に、 ゲ一ムサーバ装置 3 は、 「モーシ ョ ンブラー」 の画像処理技術を 用いて街並みの三次元画像を構成する各オブジェク ト に対してプレを付 加 して三次元空間内を移動 している様子を表現する。 こ の際、 ゲームサ —バ装置 3 は、 小さ な傾倒操作量を示す情報を取 り 込んだ場合、 街並み の三次元画像を構成する各オブジェ ク ト のプ レの大き さ を小さ く 設定し て、 ユーザがその三次元空間内を低速で移動 している状態を表現する。 また、 ゲームサーバ装置 3 は、 大き な傾倒操作量を示す情報を取 り 込ん だ場合、 街並みの三次元画像を構成する各ォブジェ ク ト のブ レの大き さ を大き く 設定 して、 ユーザがその三次元空間内を高速で移動 している状 態を表現する。
ステ ッ プ S 2 では、 ゲームサーバ装置 3 が、 上記傾倒操作量を示す情 報に基づいて、 表示する街並みの三次元画像を構成する各オブジェ ク ト のブ レの大き さ を決定する。 これに よ り 、 こ の描画処理行程がステ ップ S 3 に進む。
ステ ッ プ S 3 では、 ゲームサーバ装置 3 が、 前述の 「注視点 と なるォ ブジェ ク ト」 を検出する。 これによ り 、 こ の描画処理行程がステ ッ プ S 4 に進む。
次に、 ステ ップ S 4 では、 ゲームサーバ装置 3 が、 モーシ ョ ンブラー によ るブ レを付加 していない注視点のオブジェク ト と 、 ユーザのアナ口 グコ ン ト ロ ーラ 2 3 R或いはアナロ グコ ン ト ローラ 2 3 L の傾倒操作量 に応 じてモーシ ョ ンブラーによ るプ レを付加 したオブジェク ト で、 アナ ロ グコ ン ト ロ ーラ 2 3 R或いはアナロ グコ ン ト ローラ 2 3 L の操作方向 に対応する街並みの三次元画像を描画処理し、 こ の画像情報をユーザの ク ライ ア ン ト端末装置 2 側に送信する。 これによ り 、 こ の描画処理行程 力 Sステ ップ S 5 に進む。
ク ライ ア ン ト端末装置 2 は、 ゲームサーバ装置 3 か ら送信 された画像 情報に対応する三次元画像をモニタ装置 5 に表示制御する。これに よ り 、 ユーザのアナロ グコ ン ト 口 一ラ 2 3 R或いはアナロ グコ ン ト ローラ 2 3 L の傾倒操作量に応 じたブ レが全体的には付加 されてレヽるのであるが、 注視点と なるオブジェ ク ト に対 してはブレが付加 されていない、 ユーザ のアナロ グコ ン ト ロ ーラ 2 3 R或いはアナロ グコ ン ト 口 一ラ 2 3 L の操 作方向に対応する三次元画像がモニ タ装置 5 に表示される こ と と なる。 図 5 ( a ) に全体的にモーシ ョ ンプラーによ るブレが付加 された三次 元画像の一例を、 図 5 ( b ) に全体的にモーシ ョ ンブラーに よ る ブ レが 付加 されているが、 注視点 と なるオブジェ ク ト ( こ の例の場合は、 看板 3 5 ) に対 してはモーシ ョ ンブラーによ るブレが付加 されていない三次 元画像の一例をそれぞれ示す。
こ の図 5 ( a ) , 図 5 ( b ) を見比べてわ力 る よ う に、 こ の例の場合に おいて注視点 と なるオブジェ ク トである看板 3 5 に対 してはモ一シ ヨ ン ブラーに よ る プ レを付加 しないで描画処理を行 う と 、 表示画像が全体的 にモーシ ョ ンプラーによ るブ レが付加されている分、 却ってモ一シ ョ ン ブラーによ る ブレが付加 されていないオブジェ ク ト である看板 3 5 を 目 立たせる こ と ができ る。
このため、 当該ネ ッ ト ゲームシステムに協賛する スポンサ一の広告の 看板、 こ のネ ッ ト ゲーム システムの管理者側に広告料を支払った企業等 の広告の看板、何らかのィベン ト を開催 している ビルディ ング等の建物、 何らかのアイ テムが存在 している場所、 注意事項ゃメ ッセージ等が記載 されたオブジェ ク ト等の よ う な 「注視点 と なるオブジェ ク ト」 を、 コ ン ト ローラ 4 の移動操作に拘わ らず明確に表示する こ と ができ る。
次に、 ク ライ ア ン ト端末装置 2 は、 アナロ グコ ン ト ロ ーラ 2 3 R或い はアナロ グコ ン ト ローラ 2 3 Lがユーザによ り 傾倒操作されている 間は こ のアナロ グコ ン ト ローラ 2 3 R或いはアナロ グコ ン ト ローラ 2 3 し の 操作方向を示す情報、 及び傾倒操作量を示す情報をゲームサーバ装置 3 側に送信する。
なお、 ク ラ イ ア ン ト端末装置 2 は、 アナロ グコ ン ト ローラ 2 3 R或い はアナロ グコ ン ト ローラ 2 3 L がユーザによ り 傾倒操作されていない間 は、 こ のアナ ロ グコ ン ト ローラ 2 3 R或いはアナロ グコ ン ト 口一ラ 2 3 L の Γ 0 jの傾倒操作量を示す情報をゲームサーバ装置 3 側に送信する。 ステ ッ プ S 5 では、 ゲームサーバ装置 3 が、 ク ライ アン ト端末装置 2 側から の 「 0 」 の傾倒操作量を示す情報が受信されたか否かを判別する こ と で、 アナロ グコ ン ト ロ ーラ 2 3 R或いはアナロ グコ ン ト ローラ 2 3 Lの操作終了であるか否か(非傾倒操作状態である か否力 )を判別する。 そ して、 ゲームサーバ装置 3 に よ り 、 アナロ グコ ン ト ローラ 2 3 R或い はアナロ グコ ン ト ローラ 2 3 L の操作が終了 した も の と判別 された場合 はこの描画処理行程の全ルーチンが終了する。
一方、 アナロ グコ ン ト ロ ーラ 2 3 R或いはアナロ グコ ン ト ローラ 2 3
L の操作が終了 していないも の と判別された場合は こ の插画処理行程が ステ ップ S 1 に戻る。 描画処理行程がステ ップ S 5 力 らステ ップ S 1 に 戻る と い う こ と は、 アナロ グコ ン ト ローラ 2 3 R或いはアナロ グコ ン ト ローラ 2 3 L がユーザによ り 連続的に操作されている こ と を示している このため、 この場合、 ゲームサーバ装置 3 は、 ステ ップ S 1 において、 アナロ グコ ン ト ロ ーラ 2 3 R或いはアナロ グコ ン ト ロ ーラ 2 3 L の操作 方向及び傾倒操作量を示す各情報を取 り 込み、 ス テ ッ プ S 2 においてこ のアナロ グコ ン ト ローラ 2 3 R或いはアナロ グコ ン ト ローラ 2 3 L の傾 倒操作量に応 じて注視点 と なるオブジェ ク ト以外のォブジェ ク ト に付加 するモーシ ョ ンブラーのプ レの大き さ を決定する。 そ して、 ゲームサー バ装置 3 は、ステ ップ S 3 において注視点と なるオブジェ ク ト を検出 し、 ステ ップ S 4 において、 こ の注視点 と なるォブジェク ト以外のオブジェ ク ト に対してアナロ グコ ン ト 口 一ラ 2 3 R或いはアナロ グコ ン ト ロ ーラ 2 3 L の傾倒操作量に応 じた大き さ のブレを付加 したュ一ザの操作方向 に対応する三次元画像を描画処理する。
なお、 アナロ グコ ン ト ローラ 2 3 R或いはアナ ロ グコ ン ト ローラ 2 3
L の傾倒操作が連続的に検出 される場合は、 上記ステ ッ プ S 2 で注視点 のオブジェ ク ト以外のオブジェ ク ト に付加するブ レ量を、 その連続操作 時間に対応 して徐々 に大き く して も よい。
これによ り 、 アナロ グコ ン ト ローラ 2 3 R或いはアナロ グコ ン ト ロ ー ラ 2 3 Lの連続操作時間に応 じてモニタ装置 5 に表示 される三次元画像 のプレ量が徐々 に大き く な り 、 ユーザに対して三次元空間内を徐々 に高 速に移動 している感覚を与える こ と ができ る。 こ の場合でも、 注視点 と なるオブジェ ク ト に対 してはブ レが付加されず明確に表示する こ と がで さ る。
(上下左右の各方向指示ボタ ンの押圧操作に応 じた描画処理) 次に、 図 6 のフ ローチャー ト を用いて、 上下左右の各方向指示ボタ ン 2 1 a ~ 2 1 d が押圧操作された場合における描画処理行程の説明する , こ の図 6 の フ ロ ーチャー ト は、 ク ライ ア ン ト端末装置 2 が、 ユーザに よ る上下左右の各方向指示ポタ ン 2 1 a 〜 2 1 d の押圧操作を検出 した タイ ミ ングでスター ト と な り こ の描画処理行程がステ ップ S 1 1 に進む ク ライ アン ト端末装置 2 は、 上下左右の各方向指示ボタ ン 2 1 a 〜 2
1 d の う ち、ユーザによ り 押圧操作された方向指示ボタ ンを示す情報を、 その方向指示ボタ ン 2 1 a 〜 2 1 d が連続的に押圧操作されている時間 分、 ゲームサーバ装置 3 側に送信する。
ステ ップ S 1 1 では、 ゲームサーバ装置 3 が、 こ のク ライ ア ン ト端末 装置 2 から送信されたユーザによ り 押圧操作された方向指示ボタ ンを示 す情報を取 り 込む。 これによ り 、 こ の描画処理行程がステ ップ S 1 2 に 進む。
次に、 ゲームサーバ装置 3 は、 ユーザに よ り 押圧操作された方向指示 ボタ ンを示す情報が送信される場合、 この情報が連続的に受信される時 間に応 じてモーシ ョ ンブラ一のブレ量を決定する よ う になっている。 こ のため、 ステ ップ S 2 において、 上記方向指示ボタ ンを示す情報が連続 的に受信される時間をカ ウ ン トすべく 、 カ ウ ンタのカ ウ ン ト値を 「 1 」 イ ンク リ メ ン トする。 これによ り 、 こ の描画処理行程がステ ップ S 1 3 に進む。
ステ ップ S 1 3 では、 ゲームサーバ装置 3 が、 上記カ ウ ンタ のカ ウ ン ト値に応 じて、 表示する街並みの三次元画像を構成する各オブジェ ク ト のブ レの大き さ を決定する。 これに よ り 、 こ の描画処理行程がステ ップ S 1 4 に進む。
ステ ップ S 1 4 では、 ゲームサーバ装置 3 が、 例えば広告の看板のォ ブジェ ク ト 、 注意事項或いはメ ッセージ等を記載 したオブジェ ク ト 、 何 らかのィベン ト を開催している ビルディ ング等の建物、 何らかのアイ テ ムが存在 している場所、 注意事項ゃメ ッセージ等が記載されたオブジェ タ ト等の 「注視点 と なるオブジェ ク ト」 を検出する。 これによ り 、 こ の 描画処理行程がステ ップ S 1 5 に進む。
次に、 ステ ップ S 1 5 では、 ゲームサーバ装置 3 が、 モーシ ョ ンブラ 一によ るブ レを付加 していない注視点のオブジェ ク ト と 、 ユーザの各方 向指示ボタ ン 2 1 a 〜 2 1 d の連続押圧操作時間を示す上記カ ウ ン ト値 に応 じてモーシ ョ ンブラーによ るブ レを付加 したオブジェク ト で街並み の三次元画像を描画処理し、 こ の画像情報をユーザのク ライ アン ト端末 装置 2 側に送信する。
これによ り 、 ユーザの各方向指示ポタ ン 2 1 a 〜 2 1 d の連続押圧操 作時間を示す上記力 ゥ ン ト値に応 じて全体的にはモ一シ ョ ンブラーに よ る プレが付加 されている のであるが、 注視点 と なるオブジェ ク ト に対 し てはプ レが付加 されていない三次元画像 (図 5 ( b ) 参照) がユーザの モニ タ装置 5 に表示され、 こ の描画処理行程がステ ッ プ S 1 6 に進む。 次に、 ク ライ アン ト端末装置 2 は、 各方向指示ボタ ン 2 1 a 〜 2 1 d がュ一ザによ り 押圧操作されている 間は、 こ の押圧されている方向指示 ポタ ンを示す情報をゲームサーバ装置 3 側に送信 し、 各方向指示ボタ ン 2 1 a ~ 2 1 d がュ一ザによ り 押圧操作されていない場合は、 情報の送 信は行わないよ う になっ てレヽる。
ステ ップ S 1 6 では、 ゲームサーバ装置 3 が、 ク ライ アン ト端末装置 2 側からユーザによ り 押圧されている方向指示ボタ ンを示す情報が受信 され続けている か否かを判別する こ と で、 各方向指示ボタ ン 2 1 a 〜 2 1 d の操作終了であるか否か (非操作状態である か否か) を判別する。 ゲームサ一パ装置 3 によ り 、 各方向指示ボタ ン 2 1 a 〜 2 1 d の押圧操 作が終了 したもの と判別 された場合はこ の描画処理行程がステ ップ S 1 7 に進む。 こ のステ ップ S 1 7 では、 ゲームサーバ装置 3 が、 各方向指 示ポタ ン 2 1 a 〜 2 1 d の連続押圧操作時間をカ ウ ン トするためのカ ウ ンタ のカ ウ ン ト値を リ セ ッ トする。 これに よ り 、 この描画処理行程の全 ル一チンが終了する。
一方、 ステ ップ S 1 6 において、 各方向指示ボタ ン 2 1 a 〜 2 1 d の 操作が終了 していないも の と判別された場合は、 こ の描画処理行程がス テ ツプ S 1 2 に戻 り 、 ゲームサ一パ装置 3 が、 上記カ ウ ンタ のカ ウ ン ト 値を さ らに 「 1 」 イ ンク リ メ ン ト し、 こ のイ ンク リ メ ン ト したカ ウ ン ト 値に応 じた大き さ のプレを付加 した三次元画像を形成する。
これによ り 、 各方向指示ボタ ン 2 1 a 〜 2 1 d が連続的に押圧操作さ れている間は、上記カ ウ ンタ のカ ウ ン ト値が徐々 に大き な値と なるため、 注視点 と な る オブジェ ク ト 以外のオブジェ ク ト に付加 されるブ レ量が 徐々 に大き く な り 、 ユーザに対 して三次元空間内を高速に移動 している 感覚を得る こ と ができ る移動感のある三次元画像を提供する こ と ができ る。
なお、 カ ウ ン ト値が徐々 に大き な値と なった場合でも、 注視点と なる オブジェク ト に対してはプレは付加 されない。 これに よ り 、 注視点 と な るオブジェ ク ト を明確に表示する こ と ができ る。
〔第 1 の実施の形態の効果〕
以上の説明から明 らかなよ う に、 こ の第 1 の実施の形態のネ ッ ト ゲー ム シス テムは、 アナロ グコ ン ト ローラ 2 3 R或いはアナロ グコ ン ト ロー ラ 2 3 Lの傾倒操作量、 或いは上下左右の各方向指示ボタ ン 2 1 a 〜 2 1 d の連続押圧操作時間に応じた量のプ レを、 注視点 と なるオブジェ ク ト以外のオブジェ ク ト に対して付加 して表示する。
これに よ り 、 当該ネ ッ ト ゲーム システ ム に協賛する ス ポンサーの広告 の看板、 こ のネ ッ トゲームシス テム の管理者側に広告料を支払った企業 等の広告の看板、 何らかのィベン ト を開催 している ビルディ ング等の建 物、 何らかのアイ テムが存在している場所、 注意事項やメ ッセージ等が 記載されたオブジェ ク ト等の 「注視点 と なるオブジェ ク ト」 を、 コ ン ト ローラ 4 の移動操作 (上記傾倒操作或いは押圧操作) に拘わ らず明確に 表示する こ と ができ る。
また、 こ の実施の形態の説明では、 ゲームサーバ装置 3 は、 ク ライ ア ン ト端末装置 2 に接続されている コ ン ト ロ ーラ 4 の操作に対応する三次 元画像を形成 してク ライ アン ト端末装置 2 に送信する こ と と した。
しかし、 これは、 コ ン ト ローラ 4 の操作に対応する三次元画像を形成 するためのオブジェ ク トデータやテ ク スチャデータ等の三次元 レンダ リ ング処理のための各データ及び描画処理プロ グラ ムをク ライ アン ト端末 装置 2 側に送信 し、 ク ライ アン ト端末装置 2側で、 こ の各データ に基づ いて三次元画像を形成する よ う に しても よ い ( =ゲームサーバ装置 3 側 で形成 した三次元画像をク ライ ア ン ト端末装置 2 側に送信 しても よい し ゲームサーバ装置 3 側から三次元画像を形成するための各データ をク ラ イ アン ト端末装置 2 側に送信 し .、 ク ライ ア ン ト端末装置 2側で三次元画 像を形成 して も よい。)。
[第 2 の実施の形態]
次に本発明の第 2 の実施の形態 と なるネ ッ ト ゲームシステ ム の説明 を する。 この第 2 の実施の形態のネ ッ トゲームシス テムは、 上述の注視点 と なるオブジェ ク ト に対してモーシ ョ ンブラ一によ る ブレを付加 しない 描画処理と 共に、 こ の注視点 と なる オブジェ ク ト の拡大速度或いは縮小 速度を、 他のオブジェ ク ト の拡大速度或いは縮小速度 と は異な らせる こ と で、 注視点 と なるオブジェ ク ト を さ ら に 目 立たせて表示する描画処理 を行 う よ う に したも のである。
なお、 上述の第 1 の実施の形態と こ の第 2 の実施の形態と では、 こ の 点のみが異なるため、 以下この差異の説明のみ行い、 重複説明は省略す る。
こ の場合、 ゲームサーバ装置 3 は、 注視点 と なるォブジェ ク ト の近く に視点が移動操作される に連れ、 こ の注視点 と なるオブジェ ク ト を徐々 に大き な画像と した画像情報を形成 してク ライ ア ン ト端末装置 2 側に送 信する。 こ の際、 ゲームサーバ装置 3 は、 注視点 と なるオブジェ ク ト に 対 してモーシ ョ ンブラーによ るブレを付加 しない と共に、 他のオブジェ ク ト の拡大速度或いは縮小速度 と は異なる拡大速度或いは縮小速度でこ の注視点 と なるオブジェ ク ト の画像を拡大或いは縮小表示する。
図 7 ( a ) に注視点 と なるオブジェ ク ト以外のオブジェク ト の拡大速 度及ぴ縮小速度を概念的に示 した図を、 図 7 ( b ) に注視点 と なるォブ ジヱ タ ト の拡大速度及び縮小速度を概念的に示 した図をそれぞれ示す。 こ の図 7 ( a ) , 図 7 ( b ) を見比べてわかる よ う に、 注視点 と なるォ ブジェ ク ト の拡大速度及び縮小速度の変化は、 注視点 と なるオブジェ ク ト以外のオブジェ ク ト の拡大速度及び縮小速度の変化に対して異なる変 化を示すよ う になっている。
具体的には、 注視点 と なるオブジェ ク ト以外のオブジェク ト を徐々 に 拡大 して表示する場合、 ゲームサーバ装置 3 は、 略々 リ ニア に拡大速度 を変化させて画像を形成する こ と で、 図 7 ( a ) に示すよ う にオブジェ ク ト の元のサイ ズ T をオブジェ ク ト の拡大サイ ズ L と する。
また、 注視点 と なるオブジェ ク ト 以外のオブジェ ク ト を徐々 に縮小 し て表示する場合、 ゲームサーバ装置 3 は、 略々 リ ニアに縮小速度を変化 させて画像を形成する こ と で、 図 7 ( a ) に示すよ う にオブジェ ク ト の 元のサイ ズ T をオブジェ ク ト の縮小サイ ズ S とする。
図 7 ( b ) の点線は、 注視点 と なるオブジェ ク ト 以外のオブジェ ク ト を徐々 に拡大或いは縮小 して表示する場合における拡大速度或いは縮小 速度の遷移を示 している (通常のパス)。 これに対 して、 図 7 ( b ) の実 線は、 注視点 と なるォブジェ ク ト を徐々 に拡大或いは縮小して表示する 場合における拡大速度或いは縮小速度の遷移を示 している ( 目 立たせた ぃォブジェク ト のノヽ0ス)。
こ の図 7 ( b ) の点線で示す拡大速度或いは縮小速度の遷移から わか る よ う に、 注視点 と なるオブジェ ク ト以外のオブジェ ク ト の場合、 ゲー ムサ一パ装置 3 は、 このオブジェ ク ト の リ ニアに拡大或いは縮小した画 像を形成する。
これに対して、 注視点 と なるオブジェク ト の場合、 図 7 ( b ) の実線 で示す拡大速度或いは縮小速度の遷移からわかる よ う に、 ゲームサーバ 装置 3 は、 拡大時には、 注視点 と なるオブジェ ク ト を他のオブジェ ク ト よ り も時間的に早く 拡大 した画像を形成 し、 縮小時には、 注視点 と なる オブジェ ク ト は他のオブジェ ク ト よ り も時間的に遅れて縮小 した面像を 形成する。
そ して、 ゲームサーバ装置 3 は、 こ の よ う に異なる拡大速度或いは縮 小速度で形成 した注視点 と なるオブジェ ク ト と注視点 と なるオブジェ ク ト 以外のオブジェ ク ト の画像情報をク ライ ア ン ト端末装置 2 側に送信す る。
これによ り 、 ユーザのモニタ装置 5 に表示される注視点 と なるォプジ エ タ ト は、 他のオブジェ ク ト と は異な り 、 モーシ ョ ンブラーによ るプ レ が付加 される こ と な く 明確に表示 される う え、 拡大時には他のオブジェ ク ト よ り も時間的に早く 拡大表示され、 また、 縮小時には他のオブジェ タ ト よ り も時間的に遅れて縮小表示 される。 こ のため、 注視点と なるォ ブジェ ク ト を さ ら に 目 立たせる こ と ができ る他、 上述の第 1 の実施の形 態のネ ッ ト ゲームシステム と 同様の効果を得る こ と ができ る。
〔第 2 の実施の形態の変形例〕
こ の第 2 の実施の形態の説明では、 注視点 と なるオブジェ ク ト に対 し てはモーシ ョ ンブラーによ るブレを付加 しない画像処理技術と 、 注視点 と なるオブジェ ク ト を他のォブジェ ク ト と は異なる拡大速度或いは縮小 速度 と する画像処理技術と を併用 して、 注視点 と なるオブジェ ク ト を さ ら に 目 立たせる も のであつ たが、 これは、 注視点 と なるオブジェ ク ト を 他のオブジェ ク ト と は異なる拡大速度或いは縮小速度 とする画像処理技 術のみを用いて注視点 と なるオブジェ ク ト を 目 立たせる よ う に して も よ い
こ の場合でも、 注視点 と なるオブジェク ト は、 他のオブジェ ク ト と は 異なる拡大速度或いは縮小速度で拡大表示或いは縮小表示されるため、 画面を見ているユーザに対して一種の違和感を憶え させる こ と ができ 、 注視点 と なるオブジェ ク ト を 目 立たせる こ と ができ る。
[第 3 の実施の形態]
次に、 本発明の第 3 の実施の形態 と なるネ ッ ト ゲーム シス テ ムの説明 をする。 上述の第 1 , 第 2 の実施の形態のネ ッ ト ゲームシステムは、 移 動操作時にモーシ ョ ンブラーに よ る ブ レが付加されるオブジェ ク ト と 、 ブ レが付加 されないオブジェク ト を形成する こ と で、 ブ レの付加 されて いないオブジェ ク ト を注視点のオブジェ ク ト と して 目 立たせる ものであ つた。
こ の第 3 の実施の形態のネ ッ ト ゲーム シス テムは、 被写界深度に基づ いて全体的な三次元画像を形成 し、 こ の三次元画像を形成する各ォブジ ェ ク ト の う ち、 注視点 と なるオブジェ ク ト は被写界深度に拘わ らずピン ト の合ったオブジェ ク ト とする こ と で、 注視点 と なる オブジェ ク ト が 目 立つよ う に したも のである。
なお、 上述の各実施の形態と こ の第 3 の実施の形態 と では、 こ の点の みが異なるため、 以下こ の差異の説明のみ行い、 重複説明は省略する。 すなわち、 こ の第 3 の実施の形態のネ ッ ト ゲーム システム の場合、 ゲ ームサーバ装置 3 は、 被写界深度を付加する こ と な く 形成した注視点と なるオブジェ ク ト と 、 被写界深度を付加 して形成 した他のオブジェ ク ト で、 ユーザの視点に対応する三次元画像を形成 し、 これをユーザのク ラ イ アン ト端末装置 2 に送信する。
一例ではあるが、 図 8 ( a ) は各オブジェ ク ト に被写界深度を付加す る こ と な く 形成 した三次元画像、 図 8 ( b ) は、 図 8 ( a ) の画像を形 成する各オブジェ ク ト に封 してそれぞれ被写界深度を付加 して形成 した 三次元画像、 図 8 ( c ) は、 被写界深度を付加する こ と なく 形成 した注 視点 と なるオブジェ ク ト と 、 被写界深度を付加 して形成 した他のォプジ ェ ク ト と で形成 した三次元画像をそれぞれ示 している。
まず、 図 8 ( a ) からわかる よ う に、 各オブジェ ク ト に被写界深度を 付加する こ と な く 三次元画像を形成する と 、 全ての各オブジェク ト に ピ ン ト のあった状態の三次元画像が形成される。 これに対して各オブジェ タ ト に被写界深度を付加する と 図 8 ( b ) に示すよ う に写真 と 同様にピ ン ト を合わせたオブジェ ク ト以外のオブジェ ク ト は、 そのピン ト を合わ せたオブジェ ク ト からの距離に応じてボケを生ずる。 図 8 ( b ) は、 一 番手前のオブジェ ク ト 4 0 にピン ト が合っている場合の三次元画像であ る。 こ の図 8 ( b ) では、 こ の一番手前のオブジェ ク ト 4 0 よ り も奥側 のオブジェ ク ト に对しては被写界深度によ るボケが発生している こ と が わ力 るであろ う 。
こ こで、 例えば図 8 ( c ) に示すオブジェ ク ト 4 1 が注視点 と なるォ ブジェ ク トである とする。 こ のオブジェ ク ト 4 1 は、 一番手前のォブジ 工 ク ト 4 0 よ り も奥側にあるため、 被写界深度に基づいて三次元画像を 形成する と ボケが発生するォブジェ ク ト である。
しか し、 こ の第 3 の実施の形態のネ ッ ト ゲームシステムの場合、 ゲ一 ムサーバ装置 3 は、 注視点 と なるオブジェ ク ト に対しては被写界深度に 拘わ らずピン ト の合った状態と して全体的な三次元画像を形成する。 図 8 ( c ) に示す例の場合、 被写界深度を付加する こ とで一番手前の オブジェク ト 4 0 のみピン トが合っ た状態と する と共に、 こ のオブジェ ク ト 4 0以外に も、 注視点と なるオブジェ ク ト 4 1 に ピン ト を合わせて 表示する。 なお、 こ の注視点と なるオブジェ ク ト 4 1 と 同 じ奥行き にあ るオブジェ ク ト 4 2 は被写界深度によ るボケが生 じている こ と がわかる であろ う。
こ の よ う に被写界深度に拘わ らずピン ト の合っ た画像と した注視点 と なるオブジェ ク ト と 、 被写界深度が付加 された他のオブジェ ク ト と で全 体的な三次元画像を形成する こ と によ り 、 被写界深度に基づいて形成さ れた三次元画像中に違和感を憶えるオブジェ ク ト を形成する こ と ができ る。 そ して、 違和感を憶えるオブジェ ク トである注視点 と なるオブジェ ク ト を、 他のオブジェ ク ト よ り も 目 立たせる こ と ができ、 上述の第 1 の 実施の形態 と 同様の効果を得る こ と ができ る。
[第 4 の実施の形態]
次に、 本発明の第 4 の実施の形態 と なるネ ッ ト ゲームシス テムの説明 をする。 こ の第 4 の実施の形態のネッ ト ゲーム シス テ ムは、 フォ グ (霧) が発生 した三次元画像中におけ る注視点と なるオブジェ ク ト を明確に表 示する こ と で、 注視点 と なるオブジェ ク ト が 目 立つよ う に した ものであ る。
なお、 上述の各実施の形態と この第 4 の実施の形態 と では、 こ の点の みが異なる ため、 以下こ の差異の説明のみ行い、 重複説明は省略する。 図 9 ( a ) に示す一例 と しての三次元画像は、 複数の ビルディ ングが 立ち並ぶ街にフ ォ グ (霧) が発生 した三次元画像を示 している。 こ のよ う に三次元画像中にフォ グを発生させる こ と で、 視点から遠 く なる ビル デイ ング程、 その視認が困難と なる。 しかし、 こ の第 3 の実施の形態のネ ッ ト ゲーム シス テムの場合、 ゲー ムサーバ装置 3 が、 例えば図 9 ( b ) に示すよ う に、 こ のフ ォ グの中に 存在する注視点 と なるオブジェ ク ト である ビルディ ング 4 5 が明確に表 示される よ う に全体の三次元画像を形成する (注視点 と なる ォブジェ ク トがフ ォ グに拘わ らず明確に表示 される よ う に全体の三次元画像を形成 する。)。
これによ り 、 全体的にフォ グでぼやけた印象の三次元画像中に、 注視 点 と なるオブジェ ク ト だけが明確に表示される こ と と なるため、 こ の注 視点 と なるオブジェ ク ト を 目立たせる こ と ができ る他、 上述の第 1 の実 施の形態と 同 じ効果を得る こ と ができ る。
[第 5 の実施の形態]
次に、 本発明の第 5 の実施の形態 と なるネ ッ ト ゲームシステ ムの説明 をする。 こ の第 5 の実施の形態のネ ッ ト ゲームシステ ムは、 注視点 と な るオブジェ ク ト の明 る さ (輝度やコ ン ト ラ ス ト等) を、 他のオブジェ ク ト の明る さ と は異なる 明る さ で表示する こ と で、 注視点 と なるオブジェ ク トカ 目立つよ う に したも のである。
なお、 上述の各実施の形態と この第 5 の実施の形態 と では、 こ の点の みが異なる ため、 以下こ の差異の説明のみ行い、 重複説明は省略する。 すなわち、 こ の第 5 の実施の形態のネ ッ ト ゲームシステムでは、 ゲー ムサーバ装置 3 が、 三次元画像内の全ォブジェ ク ト の う ち、 注視点 と な るオブジェ ク ト の コ ン ト ラス ト のみ (又は輝度のみ、 或いはコ ン ト ラス ト及び輝度の両方)、他のオブジェ ク ト の コ ン ト ラス ト よ り も高めに設定 する。
これによ り 、 注視点 と なるオブジェ ク ト のみが明る く 表示 される こ と と なるため、 こ の注視点 と なるオブジェ ク ト を他のオブジェ ク ト よ り も 目 立たせる こ と ができ る他、 上述の第 1 の実施の形態 と 同様の効果を得 る こ と ができ る。
なお、注視点 と なるオブジェ ク ト の コ ン ト ラス ト のみ(又は輝度のみ、 或いはコ ン ト ラ ス ト及び輝度の両方)、他のオブジェ ク ト のコ ン ト ラ ス ト よ り も低めに設定 して、 こ の注視点 と なるオブジェ ク ト のみ、 他のォブ ジェ タ ト よ り も暗めに表示 して も よい。 この場合でも、 注視点 と なるォ ブジェ ク ト を他のオブジェ ク ト よ り も 目 立たせる こ と ができ るため、 上 述の第 1 の実施の形態と 同様の効果を得る こ と ができ る。
[支払い金額に応 じた画像エフェ ク ト の付加]
こ こ で、 前述の よ う に、 各実施の形態のネ ッ ト ゲームシステ ムでは、 注視点 と な るオブジェ ク ト が他のオブジェ ク ト よ り も 目 立つよ う に、 モ ーシ ヨ ンブラー, 拡大速度/縮小速度, 被写界深度, フオギング, 表示 の明る さ等を制御する のである が、 例えば広告主か ら システ ム管理者に 支払われる金銭の額に応 じてこ のよ う な画像エフ ェ ク ト の付加量を調整 する よ う に して も よい。
図 1 0 は、 注視点と なるオブジェ ク ト が例えば 「看板」 であつた場合 における、 モーシ ョ ンブラーの付加量と 、 こ の 「看板」 の広告主か ら シ ステム管理者に支払われる金銭の額 と の関係を示 した図なのである が、 こ の図 1 0 から わかる よ う に、 こ の例における広告料の最高金額である 例えば 2 0 万円が広告主からシステ ム管理者に支払われた場合、 ゲーム サーバ装置 3 は、 こ の広告主の看板に対 してモーシ ョ ンブラーを付加す る こ と な く 表示する。 これによ り 、 仮想空間内を視点移動するユーザに 対 して広告主の広告が明確に表示される こ と と なるため、 広告主は大き な宣伝効果を得る こ と ができ る。
次に、 上記最高金額の半額である 1 0 万円 の広告料が広告主から シス テ ム管理者に支払われた場合、 ゲームサーバ装置 3 は、 こ の広告主の看 板に対 してブ レ量の少ないモーシ ョ ンブラ一を付加 して表示する。 これ によ り 、 仮想空間内を視点移動するユーザに対して、 文字等が確認でき る程度に広告主の広告が表示される こ と と な り 、 広告主はシステ ム管理 者に支払った金額に応 じた宣伝効果を得る こ とができ る。
次に、 上記最高金額の 1 ノ 4 の金額である 5 万円の広告料が広告主か ら シス テム管理者に支払われた場合、 ゲームサーバ装置 3 は、 こ の広告 主の看板に対 してブレ量が中程度のモーシ ョ ンブラ一を付加 して表示す る。 これに よ り 、 仮想空間内を視点移動するユーザに対して、 注視すれ ば文字等を確認でき る程度に広告主の広告が表示される こ と と な り 、 広 告主はシステ ム管理者に支払っ た金額に応 じた宣伝効果を得る こ と がで き る。
次に、 最低金額である 1 万円の広告料が広告主から システ ム管理者に 支払われた場合、 ゲームサーバ装置 3 は、 こ の広告主の看板及び周 り の 風景に対して同 じブ レ量のモーショ ンブラ一を付加 して表示する (看板 や風景を区別する こ と な く モーシ ョ ンブラーを付加する。)。 この場合、 仮想空間内の視点移動が終了するまで広告主の看板は殆どユーザに認識 される こ と はない。
こ の よ う に、 広告主からシス テ ム管理者側に支払われる広告料等の金 銭の額に応 じて広告主の看板等の注視点 と なるオブジェ ク ト に対 し付加 するモーシ ョ ンブラーのブ レ量を調整する こ と で、 広告頻度を広告主が 希望する頻度 と する こ と ができ る。 言い換えれば、 広告主がシステ ム管 理者側に支払 う 広告料の金額を選択する こ と によ り 、 広告主が希望する 広告頻度を選択可能とする こ と ができ る。
なお、 以上の説明は画像エフェ ク ト と してモーシ ョ ンブラーが用い ら れる場合であつたが、 他の画像エフ エ タ トが用い られる場合も同様であ る。
例えば、 拡大速度/縮小速度を変化させる場合には、 注視点 と なるォ ブジェ ク ト の拡大速度或いは縮小速度 と他オブジェ ク ト の拡大速度或い は縮小速度 と の差が大きい程、 注視点 と なるオブジェ ク トが 目 立つよ う になる。 こ のため、 広告主から システ ム管理者に支払われる金銭の額に 応 じて、 こ の注視点 と なるォブジェ ク ト と他のオブジェ ク ト の拡大速度 或いは縮小速度の差を調整すればよ い (こ の差が小さ い程、 目 立つ度合 いが小さ く なる)。
また、 画像エフ ェ ク ト と して被写界深度を用いる場合には、 広告主か らシステム管理者に支払われる金銭の額に応 じて、 注視点と なるォブジ ェ ク ト に付加する被写界深度の付加量を調整すればよい。
また、 画像エフ エ タ ト と してフオギングを用いる場合には、 広告主か ら シス テム管理者に支払われる金銭の額に応 じて、 注視点と なるォブジ エ タ ト に付加する フ ォ グの付加量を調整すればよ い。
さ ら に、 表示の明 る さ を制御する場合には、 広告主からシステ ム管理 者に支払われる金銭の額に応 じて、 注視点 と なる ォブジェク ト を表示す る際の明 る さ を調整すればよい。
すなわち、 シス テム管理者に支払われる金銭の額に応 じて、 注視点 と なるオブジェ ク ト の 目 立つ度合いを変化させればよいこ と を理解された い
[重要度に応 じた画像エフエ タ ト の付加]
次に、 こ のよう な面像エフェ ク ト の付加量は、 注視点となるオブジェ ク ト の重要度に応 じて調整する よ う に して も よい。
図 1 0 に示すよ う に、 例えば当該システム の メ ンテナンス情報等の よ う に全ユーザに認識させたい重要度の大き な情報に対 しては、 ゲームサ ーパ装置 3 は、 ユーザの視点移動操作がな された場合でも、 こ の情報を 記 した看板にモーシ ョ ンブラーを付加する こ と な く 表示する。 これによ り 、 仮想空間内を視点移動するユーザに対して重要度の高い情報が明確 に表示される こ と と なるため、 全ユーザに対 して重要な情報を認識させ る こ と ができ る。
同様に、 重要度の中程度の情報に対しては、 ゲームサーバ装置 3 は、 ユーザの視点移動操作がなされた場合に、 こ の情報を記 した看板に少な ぃブ レ量のモーシ ョ ンブラーを付加 して表示する。 これによ り 、 仮想空 間内を視点移動するユーザに対 して重要度が中程度の情報が、 ユーザか ら略々確認でき る程度に表示 される こ と と なるため、 殆どのュ一ザに対 してその表示 した情報を認識させる こ と ができ る。
同様に、 重要度が低い情報に対 しては、 ゲームサーバ装置 3 は、 ユー ザの視点移動操作がな された場合に、 こ の情報を記した看板に中程度の ブレ量のモーシ ョ ンブラ一を付加 して表示する。 これによ り 、 仮想空間 内を視点移動するユーザに対 して重要度の低い情報が、 ユーザから何と な く 確認でき る程度に表示される こ と と なる ため、 ある程度のユーザに 対してその表示 した情報を認識させる こ と ができ る。
同様に、重要度が さ らに低い情報に対しては、ゲームサーバ装置 3 は、 ユーザの視点移動操作がなされた場合に、 こ の視点移動操作に対応する ブレ量のモ一シ ョ ンプラーをそのま ま、 重要度が さ ら に低い情報を記 し た看板に付加 して表示する。 これに よ り 、 注視点 と なるオブジェ ク ト も 他のオブジェ ク ト と 同様のブレ量のモーシ ョ ンプラ一が付加 される こ と と なる。
こ の よ う に、 情報の重要度に応 じてその情報を記 した看板等のォブジ ヱ ク ト に対 して付加するモーシ ョ ンブラーのブ レ量を調整する こ と で、 重要度の高い情報程ユーザに対 して認識させ易 く する こ と ができ る。
なお、 以上の説明は画像エフ ェ ク ト と してモーシ ョ ンブラーが用い ら れる場合であつたが、 他の画像エフ エ タ ト が用い られる場合も 同様であ る。 例えば、 拡大速度 縮小速度を変化させる場合には、 注視点と なるォ ブジェ ク ト の拡大速度或いは縮小速度 と他オブジェク ト の拡大速度或い は縮小速度 と の差が大きい程、 注視点 と なるオブジェ ク トが 目 立つよ う になる。 こ のため、 情報の重要度に応 じて、 この注視点と なるオブジェ ク ト と他のオブジェ ク 卜 の拡大速度或いは縮小速度の差を調整すればよ い (この差が小さ い程、 目 立つ度合いが小さ く なる)。
また、 画像エフ ェ ク ト と して被写界深度を用いる場合には、 情報の重 要度に応 じて、 注視点と なるオブジェ ク ト に付加する被写界深度の付加 量を調整すればよい。
また、 画像エフ ェ ク ト と してフオギングを用いる場合には、 情報の重 要度に応 じて、 注視点 と なるオブジェ ク ト に付加する フォグの付加量を 調整すればよい。
さ らに、 表示の明る さ を制御する場合には、 情報の重要度に応 じて、 注視点と なるオブジェ ク ト を表示する際の明る さ を調整すればよ い。 すなわち、 情報の重要度に応 じて注視点 と なるオブジェク ト の 目 立つ 度合いを変化させればよいこ と を理解されたい。 '
[第 6 の実施の形態]
次に、 本発明の第 6 の実施の形態の説明 をする。 上述の各実施の形態 は、 本発明を、 ゲームサーバ装置 3 側で提供される三次元空間内でビデ ォゲームを行 う ネ ッ ト ゲームシステムに適用 した ものであつたが、 この 第 6 の実施の形態は、 本発明を、 ネ ッ ト ワーク に接続された ウ ェブサー バ装置か ら ウ ェブページのデータ をダウ ン ロ ー ド して表示する ウ ェブブ ラ ゥザに適用 したものである。
なお、 上述の各実施の形態 と こ の第 6 の実施の形態 と では、 こ の点の みが異なるため、 以下この差異の説明のみ行い、 重複説明は省略する こ と とする。 [第 6 の実施の形態の構成]
こ の第 6 の実施の形態の場合、 図 1 に示すク ライ ア ン ト端末装置 2 が ウ ェブブラ ウザに基づいてネ ッ ト ワーク 1 に接続されている ウ ェブサ一 パ装置 6 から ウェブページのデータ をダウ ンロー ドし、 こ のダウ ン ロ ー ド したデータ に基づいて ウ ェブページの文字や面像等をモニタ装置 5 に 表示する よ う になっている。
ク ライ アン ト端末装置 2側でダウ ンロ ー ドされる ウ ェブページのデー タ は、 少な く と もその ウ ェブページの表示内容である文字や画像のデー タ と 、 注視点 と なるオブジェ ク ト (文字や画像等) を示すデータ 、 及び ス ク ロ ール操作や拡大/縮小操作がな された際に、 注視点と なるォプジ エ タ ト を 目 立たせるための画像エフ ェ ク ト を制御する表示制御プロ グラ ム と を有してお り 、 ク ライ ア ン ト端末装置 2 は、 ユーザによ り ス ク ロ ー ル操作や拡大ノ縮小操作がなされた際に、 こ の表示制御プロ グラムに基 づいて、 所定の画像エフ エ タ ト を用いて、 注視点 と なるオブジェ ク ト を 目 立たせる よ う に ウ ェブページの表示制御を行 う よ う になつ ている。
[ク ライ ア ン ト端末装置の表示制御動作]
次に、 ク ライ アン ト端末装置 2 の表示制御の流れを図 1 1 に示すフ ロ —チヤ一 ト を用いて説明する。 まず、 こ の図 1 1 に示すフ ロ 一チャー ト は、 ク ライ ア ン ト端末装置 2 に設け られている ウ ェブブラ ウザが、 こ の ク ライ アン ト端末装置 2 と 図 1 に示すネ ッ ト ワーク 1 上の ウ ェブサーバ 装置 6 と の通信回線を確立 し、 こ の ウ ェブサーバ装置 6 から ダウ ン 口 一 ド した ウェブページをモニタ装置 5 に表示する こ と でス タ ー ト と なる。 なお、 こ の時点で、 ク ライ ア ン ト端末装置 2 には、 前述の ウ ェブべ一 ジのデータ と して、 少な く と もその ウ ェブページの表示内容である文字 や画像のデータ と 、 注視点 と なるオブジェ ク ト (文字や画像等) を示す データ、 及びス ク ロ ール操作や拡大/縮小操作がなされた際に、 注視点 と なるォブジェ ク ト を 目 立たせる ための画像エフエ タ ト を制御する表示 制御プロ グラ ム と がダウ ン口 一 ドされている もの とする。
次に、 ステ ップ S 2 1 では、 ク ライ アン ト端末装置 2 の制御部が、 ゥ エブサーバ装置 6 から ダウ ンロ ー ド されたウ ェブページの全ての文字, 画像等の内容がモニタ装置 5 の表示画面内に全て表示されているか否か (ウ ェブページの全内容が表示でき ているか否か) を判別する。 こ の判 別において、 Y e s の場合は、 ウェブページの全ての内容がモニタ装置 5 の表示画面に表示されているため、 ユーザは、 表示されていない内容 を見るためにス ク ロ ール操作を行 う こ と はない。 このため、 こ の表示制 御行程がステ ップ S 2 6 に進む。 また、 こ の判別において、 N o の場合 はこの表示制御行程がステ ップ S 2 2 に進む。
次に、 ステ ップ S 2 2 では、 ウ ェブページの全ての内容がモニタ装置 5 の表示画面に表示 されていないため、 ク ライ ア ン ト端末装置 2 の制御 部が、 その表示画面の初期位置を保存制御する。 これによ り 、 この表示 制御行程がス テ ッ プ S 2 3 に進む。
次に、 ウェ ブページの全ての内容をモニタ装置 5 の表示画面に表示で き ない場合、 ク ラ イ ア ン ト端末装置 2 の制御部は、 表示画面をス ク ロ一 ルする ためのス ク 口一ルバ一を表示制御する。 こ のス ク 口一/レノ 一がュ 一ザによ り ドラ ッ グ操作される と 、 制御部は表示画面をス ク ロ ール表示 するのである が、 ステ ップ S 2 3 では、 制御部が、 こ のユーザの ドラ ッ グ操作である ス ク ロ 一ル操作がな されたか否かを判別する。 そ して、 ス ク ロール操作が検出 される までの間は、 そのまま ウェブページの表示制 御を継続 して行い、 ス ク ロ ール操作或いは拡大/縮小操作が検出 された タイ ミ ングでこ の表示制御行程がステ ップ S 2 4 に進む。
なお、 こ のス テ ッ プ S 2 3 においては、 ユーザによ り 所望の文字や画 像等の拡大 Z縮小操作がな されたか否かも判別 される のであ るが、 こ の 拡大ノ縮小操作がな された場合の表示制御行程は後に説明する こ と とす る。
ステ ップ S 2 4 では、 制御部が、 ウ ェブサーバ装置 6 から ダウ ン ロ ー ドされた注視点 と なるオブジェ ク ト を示すデータが存在するか否かを判 別する こ と で、 ウ ェブページの全内容の中で注視点 と なるオブジェ ク ト が存在するか否かを判別する。 注視点 と なるオブジェ ク トが存在する場 合は、 こ の表示制御行程がステ ップ S 2 5 に進み、 注視点と なるォブジ ヱ ク ト が存在しない場合は、こ の表示制御行程がステ ッ プ S 2 7 に進む。 ステ ップ S 2 7 では、 注視点 と なるオブジェ ク ト が存在しないため、 制御部が、 上記ステ ップ S 2 2 で保存した表示画面の初期表示位置 と 、 ユーザのス ク ロール操作量に応 じて表示画面全体にモーショ ンブラーを 付加 して表示する。 これに よ り 、 こ の表示制御行程がステ ッ プ S 2 6 に 進む。
これに対 して、 ステ ップ S 2 5 では、 注視点 と なるオブジェ ク ト が存 在するため、 制御部が、 こ の注視点 と して指定されているオブジェ ク ト 以外のォブジェ ク ト に対 して、 上記ステ ッ プ S 2 2 で保存した表示画面 の初期表示位置 と 、 ユーザのス ク ロ ール操作量に応 じたモ一シ ョ ンブラ 一を付加 した表示制御を行 う 。 これによ り 、 こ の表示制御行程がステ ツ プ S 2 6 に進む。
図 1 2 に、 こ の よ う にユーザのス ク ロ ール操作量に応 じて、 注視点 と して指定されているオブジェ ク ト以外のオブジェ ク ト に対 してモ一シ ョ ンブラーが付加 されて表示 された表示画面の一例を示す。
こ の図 1 2 に示す例は、ウ ェブページのィ ンデッ ク ス と なっ ている「色 彩の心理的効果」, 「暖かい色, 冷たい色」, 「進出色, 後退色」 の各文字 が注視点のオブジェ ク ト と して指定されている場合である。 ユーザは、 ウ ェブページに表示されている ス ク ロ ールパー 4 6 を図 1 2 に矢印で示 すよ う に上下に ドラ ッ グ操作して ウ ェブページのス ク 口 一ル表示を指定 する。 ク ライ ア ン ト端末装置 2 の制御部は、 注視点のオブジェク ト であ る 「色彩の心理的効果」, 「暖かい色, 冷たい色」, 「進出色, 後退色」 の 各文字以外のオブジェ ク ト に対して、 前述の よ う にュ一ザの ドラ ッ グ操 作量に応じたモーシ ョ ンブラーを付加 して表示する。 これによ り 、 ュ一 ザによ り ドラ ッ グ操作がな されている にも拘わらず、 注視点のオブジェ ク トである 「色彩の心理的効果」, 「暖かい色, 冷たい色」, '「進出色, 後 退色」 の各文字が図 1 2 に示すよ う に明確に表示される こ と と なる。
ウ ェブページにおいて、 具体的なキーヮー ドが決ま っている場合は、 直接そのキーワー ドを入力 して検索する こ と によ り 、 ウ ェブページ内に おける所望の文字や文章等を見つけ出すこ と ができ る。 しか し、 飛ばし 読みや拾い読み等によ り 表示画面をス ク ロ ールさせなが ら所望の文字等 を見つけ出す作業を行 う 場合に、 表示画面の全部の文字に対 してモーシ ョ ンブラーを付加 して しま っては、 ス ク ロ ールされる文字等に付加 され るブレによ り 所望の文字等が認識しづら く な り 、 所望の文字等を見つけ 出 し難く なる。
こ の実施の形態の ウ ェブブラ ゥザの場合、 制作者が ウ ェブぺ.一ジのィ ンデッ ク ス等を注視点 と なるォプジヱ ク ト と して指定 して ウェブページ の製作を行っ た場合には、 表示画面のス ク ロ ール時であって も、 こ の注 視点であるイ ンデッ ク ス等に対 してはモーシ ョ ンブラーが付加される こ と な く 表示 される。 こ のため、 飛ば し読みや拾い読みを行っているユー ザに対 してイ ンデッ ク ス等を認識させ易 く する こ と ができ、 所望の文字 等の必要な情報を見つけ易 く する こ と ができ る。
〔拡大ノ縮小操作に対応する動作〕
次に、 以上の説明はユーザによ り ス ク ロ ールバーがス ク ロ ール操作さ れた場合に注視点 と なる文字以外の文字に対してモー シ ョ ンブラーを付 加する こ と で注視点 と なる文字を 目 立たせる ものであつたが、 以下、 前 述のステ ップ S 2 3 でユーザの拡大/縮小操作が検出 された場合につい て説明する。
すなわち、 上記ステ ップ S 2 3 において、 制御部がユーザの拡大 縮 小操作を検出する と 、 ステ ップ S 2 4 で注視点と なるオブジェ ク ト の有 無を判別する。 そ して、 注視点 と なるオブジェ ク ト があった場合には、 ステ ップ S 2 5 において、 この注視点 と なる文字や画像等のオブジェ ク ト の拡大速度或いは縮小速度を、 他のオブジェ ク ト の拡大速度或いは縮 小速度に対して異な らせる と共に、 こ の拡大速度或いは縮小速度に対応 するモーシ ョ ンブラーを注視点 と なるオブジェ ク ト以外のオブジェ ク ト に付加 し、 注視点 と なるオブジェ ク ト にはモーシ ョ ンブラーを付加する こ と な く 表示する。
図 1 3 に こ の よ う な画像エフェ ク ト を付加 した表示画像の一例を示す こ の図 1 3 に示す表示画像の場合、表示画面の中央に表示されている「二 ユース &イ ンフ ォ」 の文字が注視点 と なっている場合を示 している。 こ の図 1 3 において、 注視点 と なる文字と 、 そのま わ り の注視点以外のォ ブジェ ク ト を見比べてわかる よ う に、 こ の注視点 と なる文字は、 他の文 字等のオブジェ ク ト と は異なる拡大速度或いは縮小速度で拡大或いは縮 小される う え、 モーシ ョ ンプラーが付加されていないため、 非常に 目 立 つよ う に表示 される。
これに よ り 、 ユーザによ り 拡大ノ縮小操作がな された場合でも、 例え ばイ ンデッ ク ス等の注視点と なるオブジェ ク ト を 目 立たせる こ と ができ 所望の文字等の必要な情報を見つけ易 く する こ と ができ る。
なお、 この例においては、 注視点 と なるオブジェ ク ト以外のオブジェ ク ト に対 してモ一シ ョ ンブラーを付加する画像エ フヱ ク ト と 、 注視点と なるオブジェ ク ト の拡大速度或いは縮小速度を、 他のオブジェク ト の拡 大速度或いは縮小速度と は異なる拡大速度或いは縮小速度で拡大表示或 いは縮小表示する画像エフヱ ク ト と の両方を併用する こ と と したが、 こ れは、 いずれか一方を用いる よ う に して も よい。
また、 注視点 と なるオブジェ ク ト の明 る さ (輝度やコ ン ト ラ ス ト等) を、 他のオブジェ ク トの明る さ と は異なる.明る さ で表示 して も よい。 こ の場合でも、 注視点 と なるオブジェ ク ト が他のオブジェ ク ト に対 して明 る く 或いは暗く 表示される こ と と なるため、 イ ンデッ ク ス等の注視点を 目 立つ よ う に表示する こ と ができ る。
〔注視点の 自動検出〕
次に、 以上の説明では、 制作者が注視点 と なるオブジェク ト を予め指 定する かたちでウ ェブページを製作し、 ク ライ ア ン ト端末装置 2 側で、 モーシ ョ ンブラー等の画像エフ ェ ク ト を用いてこ の制作者から指定され た注視点を 目 立たせる よ う に表示制御する も のであっ た。 しか し、 この よ う な注視点の指定がな されていないウ ェブページに対 しては、 ク ライ アン ト端末装置 2 は、 以下のよ う に注視点を検出 して 目 立たせる よ う に 表示制御する よ う になっている。
すなわち、 文章におけるィ ンデッ タ スや重要な部分等のよ う に制作者 が強調 したい部分は、 他の文宇等のオブジェ ク ト と は異なる表示色ゃ大 き さで表示 される場合が多い。
こ のため、 上記制御部は、 図 1 1 に示すフ ローチャー トのステ ップ S 2 4 において、 特定の表示色の文字や画像等のオブジェ ク ト の存在、 及 び所定以上の大き さ の文字や画像等のオブジェ ク ト の存在を検出する こ と で注視点 と なるオブジェ ク ト の有無を判別する。 そ して、 こ の よ う な 注視点 と なるオブジェ ク ト の存在を検出 した場合に、 ステ ッ プ S 2 5 に おいて、 こ の注視点のオブジェ ク ト以外のオブジェク ト に対 してモーシ ョ ンブラー等の画像エフ ヱ ク ト を付加 して表示制御する。 これによ り 、 ウ ェブページを製作する際に予め注視点の指定がな され ていない場合でも、 注視点 と なるべきォブジェ ク ト を 自 動的に検出 して これを 目 立つよ う に表示する こ と ができ る。
[第 7 の実施の形態]
次に、 本発明を適用 した第 7 の実施の形態 と なるネ ッ トゲームシステ ムの説明をする。
上述の各実施の形態は、 視点移動中に注視点 と なる看板等のオブジェ ク ト以外に対 してモーシ ョ ンブラーを付加する こ と等によ り 、 看板等の オブジェ ク ト が 目 立つよ う に表示する ものであった。 これによ り 、 ユー ザは、 上記看板等のォブジェ ク ト を視覚的に認識する こ と ができ た。
これに対して、 この第 7 の実施の形態は、 視点 と 、 注視点 と なる ォブ ジェ ク ト と の間の距離や角度等に応 じて、 コ ン ト ローラ 4 を振動させた り 、 コ ン ト ロ ーラ 4 のボタ ン操作に必要な押圧力 を変化させる制御を行 う こ と で、 ユーザが上記看板等のオブジェ ク ト を触覚的に認識可能 と し たも のである。
[押圧力可変機能の一例]
前述のよ う に、 コ ン ト ロ ーラ 4 には、 こ のよ う な制御を可能とする振 動機能 (振動モータ 9 ) 及び押圧力可変機能 (押圧力制御部 8 ) が設け られている。 こ の う ち、 押圧力可変機能は以下の よ う に構成される。
〔〇ボタ ンの構成〕
図 1 4 ( a ) , 図 1 4 ( b ) は、 〇ボタ ン 2 2 c を高 さ方向に沿って直 線的に縦切 り に し、 こ の断面を正面か ら見た状態の図なのである。 こ の 図 1 4 ( a ) , 図 1 4 ( b ) 力 らゎ力 る よ う に〇ボタ ン 2 2 c は、 凸状の ボタ ンカバー 5 0 と 、 こ の凸状のボタ ンカバー 5 0 内に一部を埋設する かたちで設け られた所定長の電極スぺ一サ 5 1 と 、 こ の電極スぺーサ 5 1 を取 り 囲むよ う に設け られた ピエゾ素子 5 2 と 、 基板 5 3 と 、 ピエゾ 素子 5 2及び基板 5 3 の間隙を埋める よ う に設け られた、 例えばゴムや ス ポンジ等の弾性部材である スぺーサ 5 4 と を有 している。
凸状のボタ ン力パー 5 0 は、 突出部 5 0 a と フ ラ ンジ部 5 0 b と で形 成されてお り 、 突出部 5 0 a が第 2 の操作部 4 2 のカバー 5 5 から所定 分突出する よ う に設け られている。
電極スぺーサ 5 1 には、 基板 5 3 に設け られた電極 5 6 と接触する こ と で通電を図 る電極 5 7 が反ボタ ンカバ一 5 0側に設け られている。 ピエゾ素子 5 2 は、 電圧印加端子 5 8 を介 してク ライ アン ト端末装置 2 に接続されてお り 、 ク ライ ア ン ト端末装置 2 から印加 される電圧に応 じて、 〇ボタ ン 2 2 c の高 さ方向に沿っ て厚みが変化する よ う になって いる。
〔通常時における押圧操作〕
こ のよ う な構成を有する〇ボタ ン 2 2 c において、 図 1 4 ( a ) はピ ェゾ素子 5 2 に電圧が印加 されていない状態における Oボタ ン 2 2 c の 非押圧操作状態を示 し、 図 1 4 ( b ) はピエゾ素子 5 2 に電圧が印加 さ れていない状態における Oボタ ン 2 2 c の押圧操作状態を示 している。
図 1 4 ( a ) からわかる よ う に、 Oボタ ン 2 2 c の非抻圧操作状態の と き には、 電極スぺーサ 5 1 に設け られた電極 5 7 は基板 5 3 に設け ら れた電極 5 6 と接触していない状態である。 こ の状態において、 図 1 4 ( a ) の矢印で示すよ う にボタ ンカバー 5 0 の突出部 5 0 a に対 して押 圧力を加える と 、 図 1 4 ( b ) に示すよ う にボタ ンカ ノく一 5 0 のフ ラ ン ジ部 5 0 b に よ り ピエゾ素子 5 2 を介 して弾性部材で形成されたスぺー サ 5 4 が押 し潰されるかたちで変形する。 そ して、 電極スぺーサ 5 1 に 設け られた電極 5 7 が基板 5 3 に設け られた電極 5 6 と接触 して通電が 図 られる よ う になっている。 ク ライ ア ン ト端末装置 2 は、 こ の通電によ り 、 〇ボタ ン 2 2 c が押圧操作された こ と を検出する。 〔押圧に必要とする力の可変制御〕
次に、 図 1 5 ( a ) は、 ピエゾ素子 5 2 に電圧が印加 された状態を示 している。 こ の図 1 5 ( a ) 力 らゎ力 る よ う に、 ピエゾ素子 5 2 に電圧 が印加 される と 、 この印加 された電圧に応 じて ピエゾ素子 5 2 が、 〇ボ タ ン 2 2 c の高 さ方向の厚みが増すかたちで変形する。 これによ り 、 こ のピエゾ素子 5 2 の厚みが増 した分、 スぺ一サ 5 4 が押 し潰される かた ちで変形する。
なお、 ピエゾ素子 5 2 及びスぺーサ 5 4 は、 電極スぺーサ 5 1 を取 り 囲むよ う に してそれぞれ設け られているため、 ピエゾ素子 5 2 に電圧が 印加 されるだけでは、 各電極 5 6, 5 7 は接触は しないよ う になつ てい る。
次に、 こ のよ う に ピエゾ素子 5 2 によ り スぺーサ 5 4 が押 し潰された 状態で〇ボタ ン 2 2 c を押圧操作する と、 図 1 5 ( b ) に示すよ う にボ タ ンカバー 5 0 のフ ラ ンジ部 5 O b によ り ピエゾ素子 5 2 を介 してスぺ ーサ 5 4 が さ らに押 し潰される かたちで変形 し、 各電極 5 6 , 5 7 が接 触 して通電が図 られる。 しか し、 こ の場合、 〇ボタ ン 2 2 c が押圧操作 される前に、 スぺーサ 5 4 はピエゾ素子 5 2 に印加 された電圧に応 じた 分だけ ピエゾ素子 5 2 に よ り 押 し潰されている。 このため、 こ の〇ボタ ン 2 2 c を押圧操作する には、 通常よ り も大き な押圧力を必要 とする こ と と なる。 .
すなわち、 こ の実施の形態の場合、 ピエゾ素子 5 2 に印加 される電圧 は、 ク ライ アン ト端末装置 2 の制御によ り 可変されるため、 ピエゾ素子 5 2 の厚みは、 視点と 、 注視点 と な るオブジェ ク ト と の間の距離や角度 等に応 じて変化する こ と と なる。
なお、 この例においては、 〇ボタ ン 2 2 c を押圧するのに必要と する 押圧力を可変制御する こ と と したが、 これは、 第 1 の操作部 2 1 の上下 左右の各方向指示ボタ ン 2 1 a 〜 2 1 d を押圧するのに必要とする押圧 力を可変制御する よ う に しても よい。 また.、 各アナロ グ操作部 2 3 R , 2 3 L の傾倒操作をする のに必要とする傾倒操作力を可変制御する よ う に して も よい。
また、こ の例は操作手段が コ ン ト ロ ーラ 4 の場合であつたが、これは、 キーボー ドやマ ウ ス装置等の入力デバイ スの場合であっても同様である, すなわち、 操作手段がキーボー ドの場合は、 各キーのカバー と接触部 と の間に上記ピエゾ素子等の押圧力可変手段を設ければよい。 また、 操作 手段がマ ウス装置の場合は、 操作ボタ ンのカバー と接触部と の間に上記 ピエゾ素子等の押圧力可変手段を設ければ、 上述のコ ン ト ロ ーラ 4 の場 合と 同様の効果を得る こ と ができ る。
[制御行程]
次に、 図 1 6 のフ ローチヤ一 ト を用いて こ のよ う な制御行程の流れを 説明する。 なお、 以下、 「ポタ ン」 の重さ を変化させる制御 と 、 「振動」 の大き さ を変化させる制御を併用する も の と して説明を進める。
こ のフ ロ ーチャー ト は、 ユーザが当該ネ ッ ト ゲーム システムで形成さ れた仮想世界にロ グイ ンする こ と でス ター ト と な る。
ステ ップ S 5 1 では、 ク ライ ア ン ト端末装置 2 が、 コ ン ト ローラ 4 と 通信を行 う こ と によ り 、 そのコ ン ト ローラ 4 が、 この場合における制御 に対応する機能である、 例えば押圧力可変機能及び振動機能を有 してい るか否かを判別する。 そ して、 コ ン ト ロ ーラ 4 が制御機能を備えていな い と 判別 した場合、 その コ ン ト ローラ 4 に対 して制御を行 う こ と ができ ないため、 ク ライ アン ト端末装置 2 は、 こ のフ ロ ーチャー ト の実行を終 了する。
これに対 して、 コ ン ト ロ ーラ 4 が制御機能を備えている と判別 した場 合、 その コ ン ト ローラ 4 に対する制御が可能であるため、 ク ライ ア ン ト 端末装置 2 は、 この制御行程をステ ップ S 5 2 に進める。
ステ ップ S 5 2 では、 ク ライ アン ト端末装置 2 が、 仮想世界内に ロ グ イ ン したユーザが コ ン ト ローラ 4 を用いて行 う 視点移動操作を検出 して ユーザの移動位置近辺に、 例えば看板等の強調オブジェ.ク ト が存在する か否かを判別する。 そ して、 ク ライ アン ト端末装置 2 は、 強調オブジェ ク ト が存在 しない場合は、 こ の制御行程をステ ッ プ S 6 1 に進め、 強調 オブジェ ク ト が存在する場合は、 こ の制御行程をステ ップ S 5 3 に進め る。
ステ ップ S 5 3 では、 ク ライ アン ト端末装置 2 が、 ユーザの移動位置 近辺に存在する強調表示すべきオブジェ ク ト の う ち、 最も重要な内容が 表示されている看板を検出する。 看板が広告であれば、 高い広告料が支 払われている看板を 「最も重要な看板」 とすればよい。 なお、 こ のステ ップ S 5 3 において、 重要度の高い順にい く つかの看板を検出する よ う に しても よい。
ステ ッ プ S 5 4 では、 ク ライ アン ト端末装置 2 が、 上記最も重要な内 容が表示 されているオブジェ ク ト と ユーザの視点 と の間の距離を算出す る。 ステ ップ S 5 5 では、 ク ライ ア ン ト端末装置 2 が、 上記ステ ッ プ S 5 4 で算出 した上記距離に対応する制御量 (捩動機能の振動量や、 ボタ ンを押圧する のに必要な押圧力の大き さ等) を算出する。
ステ ップ S 5 6 では、 ク ライ アン ト端末装置 2 が、 ユーザの視点 と 上 記強調オブジェ ク ト と の角度を算出する。 ステ ッ プ S 5 7 では、 ク ライ アン ト端末装置 2 が、 上記ステ ップ S 5 6 で算出 した角度に対する上記 制御量を算出する。
この場合、 上記角度が小さ く なる に連れ、 徐々 に制御量が大き く なる よ う に して も よい。或いは、看板が視野角 に存在する場合に制御を行い、 看板が視野角 に存在 しない場合は制御を行わない よ う に して も よい。 ステ ップ S 5 8 では、 ク ライ アン ト端末装置 2 が、 上記看板に対する 視点の移動速度を算出する。 ステ ッ プ S 5 9 では、 ク ライ アン ト端末装 置 2 が、 上記ステ ップ S 5 8 で算出 したユーザの移動速度に対する上記 制御量を算出する。 この場合、 移動速度が速く なる に連れ、 徐々 に大き な制御量が算出 される。
ステ ップ S 6 0 では、 ク ライ アン ト端末装置 2 が、 上記ステ ップ S 5 4 〜ステ ップ S 6 0 で算出 した制御量に基づいて、 コ ン ト ロ ーラ 4 のボ タ ン、 又は (及び) 振動機能を制御する。
具体的には、ク ライ ァ ン ト端末装置 2 は、看板がユーザの視野角内で、 かつ、 ユーザの視点が上記強調オブジェ ク ト に近づく に連れ、 コ ン ト 口 ーラ 4 の振動量が徐々 に大き く なる よ う に該コ ン ト ローラ 4 の振動モー タ 9 を制御する。 また、 ユーザの移動速度が速く なる に連れ、 コ ン ト 口 ーラ 4 のボタ ンを押圧する のに要する押圧力が徐々 に大き く なる よ う に コ ン'ト ローラ 4 の押圧力制御部 8 (例えば、 上記ピエゾ素子 5 2 等) を 制御する。
最後に、 ク ライ ア ン ト端末装置 2 は、 ステ ップ S 6 1 において、 ユー ザが仮想世界から ロ グア ウ ト したか否かを判別する。 そ して、 ロ グァ ゥ ト していない場合は、 ステ ップ S 5 2 〜ステ ップ S 6 0 における上述の 制御を繰り 返 し実行する。 これに対 して、 ュ一ザの ロ グア ウ ト を検出 し た場合は、 こ のフ ローチャー ト の実行を終了する。
[第 7 の実施の形態の効果]
ユーザの移動速度が速い場合、 ュ - ザは、 いわゆる 「飛ばし読み」 の 感覚で仮想世界内を移動 している こ と を示す。 こ のため、 重要な情報を 見落と す可能性が高い。
しかし、 こ の実施の形態のネ ッ ト ゲームシステムの場合、 視点 と 重要 なオブジェ ク ト と の距離及び視野角 に応 じて、 該重要なオブジェ ク ト に 対してモーシ ョ ンブラーがかからないよ う にする と 同時に、 移動速度が 速いほ どポタ ン操作に必要 とする力を大き く し、 また、 コ ン ト ローラ 4 を振動制御する ため、 上記飛ばし読みの感覚で仮想世界内を移動するュ —ザに対して触覚的に注意を促すこ と ができ る。 また、 視点 と 重要なォ ブジェ ク ト と の距離及ぴ視野角に応 じて制御量を制御する こ と で、 視覚 的効果を捕助する こ と も でき る。 これによ り 、 ユーザが仮想世界を高速 で移動 した場合に重要な情報を見落と して しま う よ う な不都合を防止す る こ と ができ る。
なお、 視点 と オブジェ ク ト と の間の距離やユーザの視野角 と 共に、 ュ 一ザの視 の移動速度を考慮して上記制御を行 う よ う に しても よい。 こ の場合、 ユーザの視点の移動速度が高速化する に連れ、 徐々 に制御量が 大き く なる。
また、 視野角 に基づいて制御を行 う 場合は、 視野角 の中に重要な看板 がある場合のみ、 制御を行 う こ と で、 重要な情報の見落と しを防止する こ と ができ る。
逆に、 視野角 に入っていない看板等に対する'制御を行 う よ う に して も よい。 こ の場合、 ュ一ザには見えていないオブジェ ク ト を 目 立たせる こ と ができ る よ う になる。
こ のよ う に、 ユーザの視覚 と触覚を同時に刺激する こ と で、 「重要なも のを 目 立たせる」 場合に、 高い効果を得る こ と ができ る。
なお、 こ の例の場合、 「ボタ ン」 の重さ を変化させる制御 と 、 「振動」 の大き さ を変化させる制御 と を併用する こ と と したが、 いずれか一方の 制御を行 う よ う に して も よい。 或いは、 情報の重要度等に応 じて、 上記 各制御を使い分ける よ う に して も よい。
[第 7 の実施の形態の変形例 ]
以上の説明は、 ネ ッ ト ワーク の現状等を視覚的及び触覚的に表現する も のであつ たが、看板に表示される情報の重要度等に応 じて固有の音(音 声, 音楽, ビープ音等) を決め、 視点 と の距離や角度に応じて、 上記音 を図 1 に示すス ピーカ装置 7 から発音制御 して も よい。 例えば、 視点が 看板に近づ く に連れ徐々 に大き な音を発音する よ う に上記ス ピー力装置 7 を発音制御 し、 こ の逆に、 視点が看板に近づ く に連れ徐々 に小さ な音 を発音する よ う に上記ス ピーカ装置 7 を発音制御する。
こ のよ う な音声フ ィ ー ドバ ッ ク制御を単独で用いる こ と に よ り 、 ユ ー ザに対 して看板等の存在を聴覚的に認識させる こ と ができ る。 また、 こ の音声フ ィ ー ドパ ッ ク制御を上述のモーシ ョ ンブラー等の視覚制御及び 制御 と 併用する こ と によ り 、 ユーザに対して看板等のオブジェ ク ト の存 在を、 視覚的, 触覚的及び聴覚的に認識させる こ と ができ る。 従っ て、 ユーザが重要な情報等を見落と す不都合を さ ら に強力に防止する こ と が でき る。
[第 8 の実施の形態]
次に、 本発明の第 8 の実施の形態のネ ッ ト ゲームシステム の説明 をす る。 上述の各実施の形態は、 注視点 と なるオブジェ ク ト に対 してモーシ ョ ンブラー等の画像処理を付加する か否かと い う 、 二者択一的な制御を 行 う ものであった。
こ の第 8 の実施の形態のネ ッ ト ゲームシステムは、 付加する画像処理 の付加量 (エ フエ タ ト量) を、 各オブジェ ク ト毎に設定可能 と した も の である。
[第 8 の実施の形態の構成]
こ の第 8 の実施の形態のネ ッ ト ゲームシステムの場合、 図 1 に示すよ う にゲームサーバ装置 3 は、 各ォブジェ ク ト毎に付加するエ フ エ タ ト量 を示す、 該各ォブジェ ク ト毎のパラ メ ータ が記億されたパラ メ ータデー タベース 1 1 (パラ メ ータ D B ) を有 している。 また、 各ク ライ アン ト端末装置 2 は、 ゲームサーバ装置 3 のパラ メ一 タ D B 1 1 から ダウ ンロー ドされた各オブジェ ク ト のパラメ 一タ を記憶 する、 例えばハー ドディ ス ク ドライ ブ 1 0 ( H D D ) 等の二次記憶媒体 装置を有している。
ク ライ ア ン ト端末装置 2 は、 各ォブジェ ク ト のパラ メ ータ をダウ ン口 ー ドする と 、 こ の H D D 1 0 内に各ォブジェ ク ト のパラ メ ータテーブル を形成する。 そ して、 ク ライ アン ト端末装置 2 は、 ユーザが視点移動操 作を行った際に、 このパラ メ ータテーブルから各オブジェク ト のパラ メ —タ を読み出 し、 このパラ メ ータ に対応するエフエタ ト量の画像処理を 付加 して各ォブジェ ク ト を描画処理する よ う になつている。
図 1 7 に、 上記 H D D 1 0 内に形成されるパラ メ 一タテーブルの一例 を示す。 こ の図 1 7 に示すよ う に、 パラ メ ータテーブルは、 各オブジェ タ ト の識別情報 ( I D ) と 、 各オブジェ ク ト の属性を示す情報と 、 各ォ ブジェ ク ト のエフヱ ク ト量を示す情報と 、 ユーザが変更可能なエフ ェク ト量の変更可能範囲を示す情報 と で形成されている。
具体的には、 属性が第 1 の ビルディ ングのオブジェ ク トの場合、 Γ 1 」 の I D が付 されてお り 、 属性が第 2 の ビルディ ングのオブジェ ク ト の場 合、 「 2 」 の I Dが付されている。 また、 属性が第 1 の看板のオブジェク ト の場合、 「 3 」 の I Dが付されてお り 、 属性が第 2 の看板のオブジェ ク ト の場合、 「 4 」 の I Dが付されている。 また、 属性が樹木のオブジェク 卜 の場合、 「 5 」の I Dが付されてお り 、属性が車のォブジェク ト の場合、 Γ 6 」 の I Dが付されている。 さ ら に、 属性が電柱のオブジェ ク ト の場 合、 「 7 」 の I Dが付されてお り 、 属性が人のオブジェ ク ト の場合、 「 n ( n は 自然数) J の I Dが付されている。
各オブジェ ク ト に付加 される画像処理のエフェ ク ト量は、 一部のォブ ジェ ク ト を除いてユーザが変更可能 と なっ ている。 例えば、 第 1 の ビル デイ ングのオブジェ ク ト の場合、 「 0 〜 1 0 」 の範囲でエフェ ク ト量が変 更可能 と なってお り 、 第 2 の ビルディ ングのオブジェ ク ト の場合、 「 5 〜 1 0 」 の範囲でエフェ ク ト量が変更可能と なっている。 また、 第 1 の看 板のォブジェ ク ト の場合、 「 0 〜 5 」 の範囲でエフエ タ ト量が変更可能と なってお り 、 これに対 して、 第 2 の看板のォブジェ ク ト の場合はェフ エ ク ト量の変更は 「不可」 と なっ ている。 また、 樹木のオブジェ ク ト の場 合、 「 0 〜 8 」 の範囲でエフ エ タ ト量が変更可能 と なってお り 、 車のォブ ジェ ク ト の場合、 「 0 〜 1 0 J の範囲でエフ エ タ ト量が変更可能 と なって いる。 さ ら に、 電柱のオブジェ ク ト の場合、 「 0 ~ 1 0 」 の範囲でェフ エ ク ト量の変更が可能と なっ てお り 、人のオブジェ ク ト の場合、 「5 〜 1 0 」 の範囲でエフエ タ ト量の変更が可能 と なっている。
なお、 第 2 の看板のオブジェ ク ト は、 例えばゲームサーバ装置 3 のメ ンテナンス情報等の重要な情報が掲載される看板と なっている。 こ のた め、 管理者のみが こ の第 2 の看板のォブジェ ク ト に対するエフ ェ ク ト量 を変更不可 と なっている (ユーザは、 こ の第 2 の看板のエフ ェ ク ト量を 変更できないよ う になってレ、る。)
こ の よ う な各オブジェ ク ト のエフ エ タ ト量は、 パラ メ 一タ テ一プルが 形成された と き には所定の初期値にそれぞれ設定されている。 しか し、 ユーザからエフ ヱ ク ト量の変更が指定される と 、 ク ライ アン ト端末装置 2 は、 上記パラ メ 一タテーブルをモニタ装置 5 に表示する。
ユーザは、こ のモニタ装置 5 に表示 されたパラ メ ータテーブルによ り 、 各オブジェ ク ト のエフエ タ ト量を認識 し、 コ ン ト ローラ 4 を介 して所望 のオブジェ ク ト に対してエフ ヱ ク ト量の変更操作を行 う 。
例えば、 こ の図 1 7 に示す例の場合、 「 0 〜 1 0 」 の範囲でエ フヱ ク ト 量の変更が可能な第 1 の ビルディ ングのオブジェ ク ト に対して、 ユーザ によ り 、 「 8 」 のエ フ ェ ク ト量が設定される と 、 ク ライ アン ト端末装置 2 は、 図 1 7 に示すよ う にパラ メ ータテーブルの第 1 の ビルディ ングのォ ブジェ ク ト に対して 「 8 」 のエフエ タ ト量を書き込む。
同様に、 「 5 〜 1 0 」 の範囲でエフヱ ク ト量の変更が可能な人のォプジ エ タ ト に対 して、ュ一ザに よ り 、 「1 0 」のエフェ ク ト 量が設定される と 、 ク ライ アン ト端末装置 2 は、 図 1 7 に示すよ う にパラ メ ータ テ一ブルの 「人」 のオブジェ ク ト に対して 「 1 0 j のエフェ ク ト量を書き込む。 ク ライ ア ン ト端末装置 2 は、 この よ う にユーザによ り カス タマイ ズさ れたパラ メ ータテーブルを、各オブジェ ク ト の描画処理の際に読み出 し、 各オブジェ ク ト毎に指定されたエフ ェ ク ト量のエフエ タ ト を付加 して描 画処理を行 う 。
なお、 こ の例においては、 例えば各ビルディ ング毎や各樹木毎等の各 オブジェ ク ト毎にエフ ェ ク ト量を設定可能 と した。 しかし、 例えばビル デイ ングのオブジェ ク ト に対しては全て同 じエフ ェ ク ト量、 電柱のォプ ジェ ク ト に対 しては全て同 じエフエ タ ト量等の よ う に、 ォブジェ ク ト の 属性に応 じて一律的にエフェ ク ト量が決ま っ ている よ う に して も よ い。
[第 8 の実施の形態の動作]
次に、 図 1 9 のフ ローチャー ト を用いて、 このパラ メ ータ テーブルを 用いた描画処理動作の説明をする。 こ のフ ロ ーチャー ト は、 ゲームサー バ装置 3 から各オブジェ ク ト のパラ メ 一タ がダウ ンロー ドされ、 ク ライ アン ト端末装置 2 の H D D 1 0 に前述のパラ メ ータテーブルが形成 され る こ と でス ター ト と なる。
ステ ップ S 7 1 では、 ク ライ アン ト端末装置 2 が、 最初のオブジェ ク トからエフェ ク ト量の読み出 しを行 う べく 、 オブジェ ク ト の I D を初期 値である 「 1 」 に設定する ( i = l )。
次に、 ステ ップ S 7 2 において、 ク ライ ア ン ト端末装置 2 は、 H D D 1 0 に記憶されているノ ラ メ 一タテ一ブルを参照 し、 ステ ップ S 7 3 に おいて、 「 1 」 の I D を有するオブジェ ク ト のエフ エ タ ト量を検出 して内 部メ モ リ 等の記憶媒体に記憶する。
次に、 ステ ップ S 7 4 では、 ク ライ アン ト端末装置 2 が、 パラ メ ータ テーブルに記憶されている全てのオブジェ ク ト のエフ ェ ク ト量が検出 さ れたか否かを判別する。 そ して、 全てのオブジェ ク ト のエフ エ タ ト量の 検出が終了 した場合は、 こ の描画処理行程をステ ップ S 7 5 に進め、 全 てのオブジェ ク ト のエフ エ タ ト量の検出が終了 していない場合は、 こ の 描画処理行程をステ ップ S 7 7 に進める。
ステ ップ S 7 7 では、 全てのォブジェ ク ト のエフ エ タ ト量の検出が終 了 していないため、 ク ライ ア ン ト端末装置 2 が、 先に設定したオブジェ タ ト の I D の値 ( i ) を 「 1 」 イ ンク リ メ ン ト し、 こ の描画処理行程を ステ ップ S 7 2 に戻す。
そ して、 上記ステ ップ S 7 4 において、 全てのオブジェク ト のェフエ ク ト量の検出が終了 した と判別 されるまで、 オブジェ ク トの I Dの値を 「 1 」 ずつイ ンク リ メ ン ト しなが ら全てのオブジェ ク ト のエフェ ク ト量 を検出する。
次に、 ステ ップ S 7 5 では、 ク ライ ア ン ト端末装置 2 が、 コ ン ト 口 一 ラ 4 の操作状態に基づいてユーザの視点を検出 し、 こ の視点に対応する オブジェ ク ト を ロー ドする。 そ して、 この各オブジェ ク トに対して、 上 記内部メ モ リ に記憶 したエフ ヱ ク ト量と なる よ う に所定のエフ ェ ク ト;を 付加 して描画処理を行 う 。 これによ り 、 予め設定されたエフ ェ ク ト量の エフ エ タ ト が付加 された各オブジェ ク ト で形成された画像を描画処理す る こ と ができ る。 従って、 例えば注視点と なるオブジェ ク ト に対して全 く エフ ヱ ク ト が付加 されていない画像、 或いは注視点 と なるオブジェ ク ト に対 して少ないエフェ ク ト量のエフ エ タ トが付加された画像等を、 上 記各ォブジェ ク ト のエフエ タ ト量を設定する こ と で形成する こ と ができ る。
次に、 ステ ッ プ S 7 6 では、 ク ライ アン ト端末装置 2 が、 コ ン ト ロー ラ 4 の操作状態を検出する こ と で、 仮想世界から のロ グァ ゥ トがユーザ から指示されたか否かを判別する。 仮想世界から のロ グァ ゥ トがュ一ザ か ら指示されない場合、 ク ライ アン ト端末装置 2 は、 描画処理行程を上 記ステ ップ S 7 5 に戻 し、 ユーザの視点に対応する描画処理を継続 して 実行する。
これに対して、 仮想世界からのロ グア ウ ト が指示された場合、 それま で当該ク ライ ア ン ト端末装置 2 と ゲームサーバ装置 3 と の間で接続され ていた通信回線をク ライ ア ン ト端末装置 2 が切断処理 し、 こ の図 1 9 に 示す描画処理行程を終了する。
[モ一シ ョ ンプラーを付加する場合の描画処理]
次に、 一例 と して、 上記ステ ッ プ S 7 5 において、 モーシ ョ ンブラー を付加する場合の描画処理行程を、 図 2 0 のフ ロ ーチャー ト を用いて説 明する。 なお、 例えば上述のフォギング処理や拡大/縮小処理等のモー シ ヨ ンブラー以外のエフエ タ ト を付加する場合も、 以下に説明する描画 処理行程と 同様 と なるため、 こ のモーシ ョ ンブラー以外のエ フ ェ ク ト を 付加する場合の描画処理も以下の説明を参照 されたい。
こ のフ ロ ーチャー ト は、 図 1 9 のフ ローチャー ト のステ ップ S 7 4 に おいて、 全てのオブジェ ク ト のエフ ェ ク ト量の検出が終了 した と判断さ れた場合にス ター ト と なる。
ステ ップ S 8 1 では、 ク ライ アン ト端末装置 2 が、 ユーザの視点に対 応するオブジェ ク ト を ロー ドする。
ステ ッ プ S 8 2 では、 ク ライ ア ン ト端末装置 2 が、 上記内部メ モ リ に 記億されたエフヱ ク ト量の中から、 上記ロー ド したォブジェ ク ト に設定 されてレヽるエフ ェ ク ト量を ロ ー ドする。 こ の場合、 各オブジェ ク ト に対 して付加するエフ ェ ク ト は、 モーシ ョ ンブラ一である。 このため、 ク ラ イ ア ン ト端末装置 2 は、 口 一 ド したオブジェ ク ト に対して、 上記ロ ー ド したエフ エ タ ト量に対応する フ レーム間画像の補間回数を設定する。 そ して、 ク ライ アン ト端末装置 2 は、 ステ ップ S 8 3 において、 この 設定した補間回数で上記フ レーム間を補間処理しなが ら繰り 返 し描画処 理を行 う こ と で、 各ォブジェ ク ト に対してモーシ ョ ンブラ一を付加 した 描画処理を行 う 。
詳細に説明する と 、 図 2 1 ( a ) の球の画像を第 1 フ レーム の画像 (或 いは第 1 フ ィ ール ドの画像)、 図 2 1 ( b ) の球の画像を上記第 1 フ レー ムの画像の次の フ レームであ る第 2 フ レームの画像 (或いは第 2 フ ィ 一 ル ドの画像) と する。 こ の図 2 1 ( a ) 及び図 2 1 ( b ) に示すよ う に、 球の画像が 1 フ レームの間 (或いは 1 フ ィ ール ドの間) に図面の左上か ら右下に斜めに移動する とする。 モーシ ョ ンブラ一は、 こ の各フ レーム 間 (或いは各フ ィ ール ド間) を何枚の画像で補間するかとい う こ と で、 そのエ フ ェ ク ト量が設定される。
例えば、 図 2 1 ( c ) は、 上記第 1 フ レーム の画像と上記第 2 フ レー ムの画像と の間を 1 0 分割 して補間処理した場合の画像である。 こ の図 2 1 ( c ) か らわかる よ う に、 移動する球の画像を線形捕間処理 (移動 するオブジェ ク ト が定速で移動する こ と を想定した捕間処理)、或いは非 線形補間処理 (移動するオブジェ ク トが不規則な速度で移動する こ と を 想定 した補間処理) する こ と で、 オブジェ ク ト に対 してモーシ ョ ンブラ 一を付加する こ と ができ る。
次に、 ステ ップ S 8 4 では、 ク ライ アン ト端末装置 2 が、 上記エフ ェ ク ト量と して設定された捕間回数分の描画処理が終了 したか否かを判別 する。 そ して、 捕間回数分の描画処理が終了 していない場合は、 こ の描 画処理行程をステ ップ S 8 3 に戻 し、 補間回数分の描画処理が終了する まで、 上記線形捕間処理或いは非線形捕間処理を繰 り 返 し実行する こ と で、 モーシ ョ ンブラー画像を形成する。
これに対して、 ク ライ アン ト端末装置 2 は、 上記エフェク ト量と して 設定された補間回数分の描画処理が終了 した場合は、 こ の描画処理行程 をステ ップ S 8 5 に進める。
ステ ップ S 8 5 では、 こ のよ う なモーシ ョ ンブラーを付加する描画処 理が、全てのオブジェク ト に対して終了 したか否かを判別する。そ して、 全てのオブジェ ク ト に対する描画処理が終了 していない場合は、 こ の描 画処理行程をステ ップ S 8 2 に戻 し、 前述のオブジェ ク ト及ぴエフ エ タ ト量の ロー ド及び描画処理を、 全てのオブジェ ク ト に対する描画処理が 終了 したもの と判別されるまで、 繰 り 返し実行する。
これに対して、 全てのオブジェ ク ト に対する描画処理が終了 した もの と判別 した場合、 ク ライ アン ト端末装置 2 は、 こ の図 2 0 の フ 口 一チヤ 一ト に示す描画処理行程を終了する。 こ の図 2 0 の フ口一チヤ一ト に示 す描画処理行程が終了する と 、 ク ライ アン ト端末装置 2 は、 図 1 9 のフ ローチャー ト のステ ップ S 7 6 に描画処理行程を移行する こ と と なる。
[残像処理]
なお、 以上の説明は、 各オブジェ ク ト に対 してモーシ ョ ンブラ一によ る ブ レを付加する場合の説明であつ たが、 こ のモーシ ョ ンブラーの代わ り に各オブジェク ト に対 して残像処理によ り ブレを付加する よ う に して も よい。
具体的には、 図 2 2 ( a ) の四角の画像を第 1 フ レームの画像 (或い は第 1 フ ィ ール ドの画像)、 図 2 2 ( b ) の四角の画像を上記第 1 フ レー ム の画像の次のフ レームである第 2 フ レーム の画像 (或いは第 2 ブ イ一 ル ドの画像) とする。
こ の図 2 2 ( a ) 及び図 2 2 ( b ) に示すよ う に、 四角の画像が 1 フ レームの間 (或いは 1 フ ィ ール ドの間) に図面の略々 中央から多少右下 に移動する と する。 残像処理は、 一つ前のフ レームの画像の透明度を、 例えば半透明等になる よ う に調整 して、 図 2 2 ( c ) に示すよ う に現在 のフ レームの画像に重ね書きする こ と で行われる。
こ の よ う な透明度を調整しなが ら各フ レームの画像の重ね書き を実行 する と 、 図 2 3 ( a ) に示すよ う にオブジェ ク ト に対 してブ レを付加す る こ と ができ る。
なお、 この よ う な残像処理を付加 した画像に対 して、 現在のフ レーム の画像を上書きする と 、 図 2 3 ( b ) に示すよ う にブ レが付加 される こ と でボケた画像を明確に表示する こ と ができ る。
モーシ ョ ンブラーの代わ り に この残像処理によ り ブ レを各オブジェ ク ト に対 して付加する場合、 エフ エ タ ト量と して重ね書き を行 う 画像枚数 が設定される。 そ して、 ク ライ アン ト端末装置 2 は、 こ の設定された画 像枚数分、 オブジェ ク ト を重ね書きする こ と で、 そのオブジェ ク ト にブ レを付加する こ と と なる。
[第 8 の実施の形態の効果]
以上の説明から明 らかなよ う に、 こ の第 8 の実施の形態のネ ッ ト ゲー ムシス テ ムは、 各オブジェ ク ト に付加するエフェ ク ト のエフ エ タ ト量を パラ メ ータで設定する こ と に よ り 、 各オブジェ ク ト毎に異なるエフェ ク ト量で該各ォブジェ ク ト の描画処理を行 う こ と ができ る。
こ のため、注視点 と なるオブジェ ク ト に対 してエフェ ク ト を付加する、 或いは付加 しない と い う オンノオフ的な制御のみな らず、 注視点 と なる オブジェ ク ト に対して付加するエフ ェ ク ト量までも制御可能 とする こ と ができ る。 従って、 上記オン /オフ的な制御を行った場合よ り も、 繊細 なエフ エ タ ト付加制御を行 う こ と ができ 、 各ォブジェ ク トの 目 立ち方の 微調整を可能 とする こ と ができ る。 最後に、 本発明は一例 と して説明 した上述の実施の形態に限定される こ と はな く 、 上述の実施の形態以外であって も、 本発明に係る技術的思 想を逸脱 しない範囲であれば、 設計等に応 じて種々 の変更が可能である こ と は勿論である こ と を付け加えてお く 。 産業上の利用の可能性
本発明は、 イ ンタ一ネ ッ ト等のネ ッ ト ワーク上のゲームサ一パ装置内 に形成された仮想的な三次元空間内でキャ ラ ク タ等の所定のオブジェ ク ト を操作して ビデオゲームを楽 しむネ ッ ト ゲームシステムに適用する こ と ができ る。

Claims

請求の範囲
1 . 操作手段の移動操作を検出する操作検出手段と 、
表示画面を構成する一つ或いは複数のォブジェ ク ト に対して設定 され ている所定の画像処理の付加量を示す情報を記憶する記憶手段と 、 上記操作検出手段によ り 上記操作手段の移動操作が検出 された際に、 上記記憶手段に記憶されている付加量を示す情報に基づいて、 上記ォブ ジェ ク ト に対 して上記画像処理を上記付加量分、 施 して表示手段に表示 する表示制御手段 と
を有する表示装置。
2 . 請求の範囲 1 記載の表示装置であって、
上記記憶手段に記憶されている付加量を示す情報の一部或いは全部を 変更操作する ための変更操作手段を有する こ と
を特徴とする表示装置。
3 . 請求の範囲 1 又は請求の範囲 2 記載の表示装置であって、
上記付加量を示す情報は、 各オブジェ ク ト毎に設定されてお り 、 或い はォブジヱ ク ト の種類毎に設定されている こ と
を特徴とする表示装置。
4 .請求の範囲 1 か ら 3 の う ち、いずれか一項記載の表示装置であっ て、 上記画像処理は、 モーシ ョ ンブラー処理, フオ ギング処理, 被写界深 度処理, オブジェ ク ト の拡大/縮小処理、 及び残像処理の う ち、 少な く と も一つの画像処理である こ と
を特徴と する表示装置。
5 . 操作手段の移動操作を検出する操作検出手段 と 、
上記操作検出手段によ り 検出 された上記操作手段の移動操作量に応 じ て、 表示画面を構成するオブジェ ク ト の う ち、 注視点 と なるオブジェ ク ト以外のオブジェ ク ト に対して所定の画像処理を施 して移動表示を行 う 表示制御手段 と
を有する表示装置。
6 . 請求の範囲 5 記載の表示装置であって
上記画像処理は、 モーシ ョ ンブラー処理 フ ォ ギング処理, 被写界深 度処理, 及び残像処理の う ち、 少な く と も つの画像処理である こ と を特徴と する表示装置。
7 . 請求の範囲 5 又は請求の範囲 6 記載の表示装置であって、
操作手段の拡大操作、 及び縮小操作の う ち、 少な く と も一方の操作を 検出する操作検出手段と 、
上記操作検出手段によ り 検出 された上記操作手段の拡大操作量、 或い は縮小操作量に応 じて、 表示画面を構成するオブジェ ク ト の う ち、 注視 点と なるオブジェ ク ト の拡大速度或いは縮小速度を、 こ の注視点 と なる オブジェ ク ト 以外のオブジェ ク ト の拡大速度或いは縮小速度 と は異なる 拡大速度或いは縮小速度で拡大表示或いは縮小表示する表示制御手段 と を有する こ と を特徴と する表示装置。
8 .請求の範囲 5 から 7 の う ち、いずれか一項記載の表示装置であって、 上記表示制御手段は、 上記注視点 と なるオブジェ ク ト を表示する 明 る さ と 、 こ の注視点 と なるオブジェ ク ト以外のオブジェ ク ト を表示する明 る さ と がそれぞれ異なる よ う に表示する こ と
を特徴とする表示装置。
9 .請求の範囲 5 か ら 8 の う ち、いずれか一項記載の表示装置であって、 上記注視点 と なるオブジェ ク ト は、 制作者によ り 予め指定されている オブジェ ク ト である こ と
を特徴とする表示装置。
1 0 . 請求の範囲 5 か ら 9 の う ち、 いずれか一項記載の表示装置であつ て、
上記注視点 と なるオブジェ ク ト は、 所定のサイ ズ以上のサイ ズのォブ ジェ タ ト 、 及び所定の表示色のオブジェク ト の う ち、 少な く と も一方の 才ブジェ ク ト である こ と
を特徴とする表示装置。
1 1 . 請求の範囲 1 から 1 0 の う ち、 いずれか一項記載の表示装置であ つて、
上記操作手段に よ り 移動操作される視点の位置を検出する位置検出手 段と 、
上記位置検出手段によ り 検出 された視点の位置 と 、 上記注視点と なる オブジェ ク ト と の間の距離を検出する距離検出手段と 、
上記操作手段を操作するのに必要 とする力量を可変する力量可変手段 と 、
上記距離検出手段で検出 された上記視点の位置と 注視点 と なるォブジ ェ ク ト と の間の距離に応 じて、 上記操作手段を操作するのに必要 と する 力量が変化する よ う に上記力量可変手段を制御する制御手段と を有する こ と を特徴と する表示装置。
1 2 . 請求の範囲 1 から 1 1 の う ち、 いずれか一項記載の表示装置であ つて、
上記操作手段を振動駆動する振動駆動手段を有 し、
上記制御手段は、 上記距離検出手段で検出 された上記視点の位置 と注 視点 と なるオブジェク ト と の間の距離に応 じた大き さ で振動する よ う に 上記振動手段を振動制御する こ と
を特徴とする表示装置。
1 3 . 請求の範囲 1 1 又は請求の範囲 1 2 記載の表示装置であって、 上記操作手段に よ り 移動操作される視点の移動速度を検出する移動速 度検出手段を有 し、
上記制御手段は、 上記距離検出手段で検出 された上記視点の位置と注 視点と なるオブジェク ト と の間の距離、 及び上記移動速度検出手段で検 出 された視点の移動速度に応 じて、 上記力量可変手段及び上記振動手段 の う ち、 少な く と も一方を制御 し、 或いは、
上記制御手段は、 上記距離検出手段で検出 された上記視点の位置 と注 視点 と なるオブジェ ク ト と の間の距離、 又は上記移動速度検出手段で検 出 された視点の移動速度に応 じて、 上記力量可変手段及び上記振動手段 の う ち、 少な く と も一方を制御する こ と
を特徴と する表示装置。
1 4 . 請求の範囲 1 1 から 1 3 の う ち、 いずれか一項記載の表示装置で あって、
上記操作手段に よ り 移動操作される視点に対応する視野角 を検出する 視野角検出手段を有 し、
上記制御手段は、 上記距離検出手段で検出 された上記視点の位置 と 注 視点 と なる オブジェ ク ト と の間の距離、 上記移動速度検出手段で検出 さ れた視点の移動速度、 及び上記視野角検出手段で検出 された視野角 に応 じて、 上記力量可変手段及び上記振動手段の う ち、 少な く と も一方を制 御 し、 或いは、
上記制御手段は、 上記距離検出手段で検出 された上記視点の位置 と 注 視点 と なる オブジェ ク ト と の間の距離、 上記移.動速度検出手段で検出 さ れた視点の移動速度、 又は上記視野角検出手段で検出 された視野角 の う ち、 少な く と も一つに基づいて、 上記力量可変手段及ぴ上記振動手段の う ち、 少な く と も一方を制御する こ と
を特徴とする表示装置。
1 5 . 請求の範囲 1 1 から 1 4 の う ち、 いずれか一項記載の表示装置で あって、
所定の音響出力 を得るための音響出力丰段 と 、
上記距離検出手段で検出 された上記視点の位置と 注視点と なるォブジ ェ ク ト と の間の距離、 上記移動速度検出手段で検出 された視点の移動速 度、 又は上記視野角検出手段で検出 された視野角 の う ち、 少な く と も一 つに基づいて、 上記所定の音響出力が得るれる よ う に上記音響出力手段 を制御する音声フ ィ ー ドバ ッ ク制御手段 と
を有する こ と を特徴とする表示装置。
1 6 . 操作手段の移動操作を検出する ステ ッ プ と 、
上記ス テ ッ プで上記操作手段の移動操作が検出 された際に、 記憶手段 に記億されている、 表示画面を構成する一つ或いは複数のオブジェ ク ト に対 して設定されている所定の画像処理の付加量を示す情報に基づいて 上記オブジェ ク ト に対 して上記画像処理を上記付加量分、 施 して出力す る ステ ッ プと
を有する画像処理方法。
PCT/JP2002/004822 2001-05-18 2002-05-17 Afficheur WO2002095684A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/451,281 US7193629B2 (en) 2001-05-18 2002-05-17 Display apparatus
EP02771725A EP1391847A4 (en) 2001-05-18 2002-05-17 DISPLAY

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2001150013 2001-05-18
JP2001-150013 2001-05-18
JP2002-143637 2002-05-17
JP2002143637A JP3836396B2 (ja) 2001-05-18 2002-05-17 表示装置及び画像処理方法

Publications (1)

Publication Number Publication Date
WO2002095684A1 true WO2002095684A1 (fr) 2002-11-28

Family

ID=26615366

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/004822 WO2002095684A1 (fr) 2001-05-18 2002-05-17 Afficheur

Country Status (4)

Country Link
US (1) US7193629B2 (ja)
EP (1) EP1391847A4 (ja)
JP (1) JP3836396B2 (ja)
WO (1) WO2002095684A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017045296A (ja) * 2015-08-27 2017-03-02 株式会社コロプラ ヘッドマウントディスプレイシステムを制御するプログラム
WO2017033777A1 (ja) * 2015-08-27 2017-03-02 株式会社コロプラ ヘッドマウントディスプレイシステムを制御するプログラム
WO2018012395A1 (ja) * 2016-07-13 2018-01-18 株式会社バンダイナムコエンターテインメント シミュレーションシステム、処理方法及び情報記憶媒体

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4077321B2 (ja) * 2001-02-23 2008-04-16 富士通株式会社 表示制御装置
JP3948911B2 (ja) * 2001-05-30 2007-07-25 富士通株式会社 視野データに従う仮想空間におけるリンクされた複数の情報オブジェクトの表示
US8715058B2 (en) 2002-08-06 2014-05-06 Igt Reel and video combination machine
US7841944B2 (en) 2002-08-06 2010-11-30 Igt Gaming device having a three dimensional display device
US7309284B2 (en) 2004-01-12 2007-12-18 Igt Method for using a light valve to reduce the visibility of an object within a gaming apparatus
JP3993863B2 (ja) 2004-04-29 2007-10-17 株式会社コナミデジタルエンタテインメント 画像生成装置、速度表現方法、および、プログラム
US7348985B2 (en) * 2004-05-12 2008-03-25 Pixar Variable motion blur
JP2006092156A (ja) * 2004-09-22 2006-04-06 Namco Ltd プログラム、情報記憶媒体及び画像生成装置
JP4447417B2 (ja) * 2004-09-22 2010-04-07 元気株式会社 ゲーム装置、プログラム及びコンピュータの制御方法
JP4234089B2 (ja) * 2004-11-16 2009-03-04 株式会社ソニー・コンピュータエンタテインメント エンタテインメント装置、オブジェクト表示装置、オブジェクト表示方法、プログラム、およびキャラクタ表示方法
GB0502891D0 (en) * 2005-02-12 2005-03-16 Next Device Ltd User interfaces
JP4706965B2 (ja) * 2005-08-31 2011-06-22 株式会社セガ 画像生成プログラム、画像生成装置
JP4761528B2 (ja) * 2005-10-11 2011-08-31 任天堂株式会社 ゲームプログラムおよびゲーム装置
WO2007069557A1 (ja) * 2005-12-12 2007-06-21 Softadvance, Inc. プレゼンテーション表示装置、コンピュータの制御方法及びプログラム
JP4997947B2 (ja) * 2006-01-05 2012-08-15 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4761537B2 (ja) * 2006-03-27 2011-08-31 サミー株式会社 画像生成装置、遊技機、及び画像生成プログラム
JP5196729B2 (ja) * 2006-04-11 2013-05-15 任天堂株式会社 通信ゲームシステム
KR100829564B1 (ko) * 2006-09-29 2008-05-14 삼성전자주식회사 효율적으로 모션 블러 효과를 제공하는 3차원 그래픽스렌더링 방법 및 장치
US8360847B2 (en) 2006-11-13 2013-01-29 Igt Multimedia emulation of physical reel hardware in processor-based gaming machines
US8357033B2 (en) 2006-11-13 2013-01-22 Igt Realistic video reels
US8210922B2 (en) 2006-11-13 2012-07-03 Igt Separable game graphics on a gaming machine
US8142273B2 (en) 2006-11-13 2012-03-27 Igt Presentation of wheels on gaming machines having multi-layer displays
EP2089861A2 (en) 2006-11-13 2009-08-19 Itg Single plane spanning mode across independently driven displays
US8192281B2 (en) 2006-11-13 2012-06-05 Igt Simulated reel imperfections
JP2009003799A (ja) * 2007-06-22 2009-01-08 Aplix Corp ポータブル機器およびポータブル機器における仮想空間の提供方法
US8012010B2 (en) 2007-09-21 2011-09-06 Igt Reel blur for gaming machines having simulated rotating reels
JP5229801B2 (ja) 2008-09-25 2013-07-03 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、及びプログラム
US8898574B2 (en) * 2008-12-19 2014-11-25 International Business Machines Corporation Degrading avatar appearances in a virtual universe
US9633465B2 (en) 2009-02-28 2017-04-25 International Business Machines Corporation Altering avatar appearances based on avatar population in a virtual universe
JP5356139B2 (ja) * 2009-07-21 2013-12-04 株式会社コナミデジタルエンタテインメント ビデオゲーム装置及び表示モード切替制御方法
US8531452B2 (en) 2009-07-21 2013-09-10 Konami Digital Entertainment Co., Ltd. Video game machine, gaming image display control method and display mode switching control method
JP5293582B2 (ja) 2009-12-10 2013-09-18 株式会社セガ 画像処理プログラムおよびコンピュータ読み取り可能な記録媒体
US9171390B2 (en) * 2010-01-19 2015-10-27 Disney Enterprises, Inc. Automatic and semi-automatic generation of image features suggestive of motion for computer-generated images and video
JP5401380B2 (ja) * 2010-03-29 2014-01-29 株式会社コナミデジタルエンタテインメント 処理装置、処理方法、ならびに、プログラム
US8425316B2 (en) 2010-08-03 2013-04-23 Igt Methods and systems for improving play of a bonus game on a gaming machine and improving security within a gaming establishment
JP2012058896A (ja) * 2010-09-07 2012-03-22 Sony Corp 情報処理装置、プログラムおよび情報処理方法
US8823746B2 (en) * 2010-10-19 2014-09-02 Apple Inc. System and method for motion blur using velocity vectors
US8298081B1 (en) 2011-06-16 2012-10-30 Igt Gaming system, gaming device and method for providing multiple display event indicators
US8605114B2 (en) 2012-02-17 2013-12-10 Igt Gaming system having reduced appearance of parallax artifacts on display devices including multiple display screens
JP5437431B2 (ja) * 2012-04-20 2014-03-12 任天堂株式会社 通信ゲームシステム
CN104395936B (zh) * 2012-06-28 2018-03-09 索尼电脑娱乐公司 信息处理系统、信息处理装置、信息终端装置、信息处理方法和信息处理程序
JP5435110B2 (ja) * 2012-11-29 2014-03-05 日本電気株式会社 端末装置、表示方法、及びプログラム
JP5516800B2 (ja) * 2013-06-13 2014-06-11 株式会社セガ 画像処理プログラムおよびコンピュータ読み取り可能な記録媒体
US20150055858A1 (en) * 2013-08-21 2015-02-26 GM Global Technology Operations LLC Systems and methods for color recognition in computer vision systems
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
WO2015198783A1 (ja) * 2014-06-24 2015-12-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2016117332A1 (ja) * 2015-01-20 2016-07-28 株式会社カプコン コンピュータ装置、該コンピュータ装置の制御方法、及び記録媒体
CN105678834B (zh) * 2016-02-26 2019-12-17 腾讯科技(深圳)有限公司 区分对象的方法和装置
US10402955B2 (en) * 2016-12-21 2019-09-03 Facebook, Inc. Long exposure filter
EP3568832A4 (en) * 2017-01-13 2020-09-16 Warner Bros. Entertainment Inc. ADDING MOTION EFFECTS TO DIGITAL STILL IMAGES
JP2018116537A (ja) * 2017-01-19 2018-07-26 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6912227B2 (ja) * 2017-03-16 2021-08-04 ヤフー株式会社 描画装置、描画方法および描画プログラム
US10668382B2 (en) * 2017-09-29 2020-06-02 Sony Interactive Entertainment America Llc Augmenting virtual reality video games with friend avatars
JP7152873B2 (ja) * 2018-05-10 2022-10-13 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN112866561A (zh) * 2020-12-31 2021-05-28 上海米哈游天命科技有限公司 图像处理方法、装置、电子设备及存储介质
WO2023276156A1 (ja) * 2021-07-02 2023-01-05 日本電信電話株式会社 空間像表示装置、空間像表示方法、及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08286603A (ja) * 1995-04-13 1996-11-01 Sharp Corp 情報表示装置
JPH10222694A (ja) * 1996-12-06 1998-08-21 Sega Enterp Ltd 画像処理装置およびその方法
EP0913175A2 (en) 1997-10-30 1999-05-06 Nintendo Co. Limited Video game apparatus and memory medium therefor
JPH11161814A (ja) * 1997-11-25 1999-06-18 Namco Ltd 画像生成装置、シミュレーション装置及び情報記憶媒体
JP2000020754A (ja) * 1998-07-07 2000-01-21 Nec Corp モデル表示装置
JP2000293298A (ja) * 1999-04-08 2000-10-20 Sega Enterp Ltd 操作装置及びその制御方法
JP2002015335A (ja) * 2000-06-28 2002-01-18 Toshiba Corp モーションブラー画像描画方法及び描画装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089991A (ja) 1998-09-09 2000-03-31 Fujitsu Ltd 文書管理システム
US6628264B1 (en) * 1999-08-27 2003-09-30 Sony Computer Entertainment Inc. Entertainment system, entertainment apparatus, recording medium, and program
US20010008841A1 (en) * 2000-01-14 2001-07-19 Nobuhiro Komata Recording medium, computer and method operating car images on a screen of the computer
US6426755B1 (en) * 2000-05-16 2002-07-30 Sun Microsystems, Inc. Graphics system using sample tags for blur

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08286603A (ja) * 1995-04-13 1996-11-01 Sharp Corp 情報表示装置
JPH10222694A (ja) * 1996-12-06 1998-08-21 Sega Enterp Ltd 画像処理装置およびその方法
EP0913175A2 (en) 1997-10-30 1999-05-06 Nintendo Co. Limited Video game apparatus and memory medium therefor
JPH11161814A (ja) * 1997-11-25 1999-06-18 Namco Ltd 画像生成装置、シミュレーション装置及び情報記憶媒体
JP2000020754A (ja) * 1998-07-07 2000-01-21 Nec Corp モデル表示装置
JP2000293298A (ja) * 1999-04-08 2000-10-20 Sega Enterp Ltd 操作装置及びその制御方法
JP2002015335A (ja) * 2000-06-28 2002-01-18 Toshiba Corp モーションブラー画像描画方法及び描画装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A. F. BLACKWELL, A. R. JANSEN, K. MARRIOTT: "Restricted Focus Viewer: A Tool for Tracking Visual Attention", THIS DOCUMENT TEACHES A RESTRICTED FOCUS VIEWER (RFV
See also references of EP1391847A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017045296A (ja) * 2015-08-27 2017-03-02 株式会社コロプラ ヘッドマウントディスプレイシステムを制御するプログラム
WO2017033777A1 (ja) * 2015-08-27 2017-03-02 株式会社コロプラ ヘッドマウントディスプレイシステムを制御するプログラム
US9779702B2 (en) 2015-08-27 2017-10-03 Colopl, Inc. Method of controlling head-mounted display system
WO2018012395A1 (ja) * 2016-07-13 2018-01-18 株式会社バンダイナムコエンターテインメント シミュレーションシステム、処理方法及び情報記憶媒体
JP2018010488A (ja) * 2016-07-13 2018-01-18 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
US11493990B2 (en) 2016-07-13 2022-11-08 Bandai Namco Entertainment Inc. Simulation system, processing method, and information storage medium

Also Published As

Publication number Publication date
EP1391847A4 (en) 2010-09-08
US7193629B2 (en) 2007-03-20
US20040085356A1 (en) 2004-05-06
EP1391847A1 (en) 2004-02-25
JP3836396B2 (ja) 2006-10-25
JP2003058912A (ja) 2003-02-28

Similar Documents

Publication Publication Date Title
JP3836396B2 (ja) 表示装置及び画像処理方法
CN104793737B (zh) 用于内容编创的系统和方法
US10241580B2 (en) Overlaying of haptic effects
US20090102805A1 (en) Three-dimensional object simulation using audio, visual, and tactile feedback
US20040080541A1 (en) Data displaying device
US20090167701A1 (en) Audio and tactile feedback based on visual environment
JPH1185400A (ja) 表示装置
JP2009517761A (ja) スクロールレートの変化の予測でユーザを支援する表示
EP1126389A1 (en) Data displaying device and method, electronic book displaying device, and recording medium on which display data is recorded
JP2013250771A (ja) プログラム、情報処理装置、画像表示方法及び表示システム
CA2923867A1 (en) Haptic rendering for a flexible computing device
JP2013250772A (ja) プログラム、情報処理装置、画像表示方法及び表示システム
WO2006096046A2 (en) Variable internet banner
JP2011053276A (ja) 背景映像可変表示機能を備えるカラオケシステム
Joyce III et al. Implementation and capabilities of a virtual interaction system
WO2023189405A1 (ja) 入出力装置
JP2002014890A (ja) 電子的ネットワークを用いた広告システム
KR100470725B1 (ko) 마우스 커서 위치에 따라 광고영역을 이동시키는 광고재생시스템 및 광고재생방법
Luk Using haptics to address mobile interaction design challenges: prototyping and user evaluation with a handheld tactile display
CN116529701A (zh) 交互方法、移动终端及存储介质
EP1804215A1 (en) Method and device for multiperspective display of objects
JP2005250422A (ja) 視覚に訴える身体的引き込み方法及びシステム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE ES FR GB IT

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2002771725

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10451281

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2002771725

Country of ref document: EP