WO2013061672A1 - 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体 - Google Patents

画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体 Download PDF

Info

Publication number
WO2013061672A1
WO2013061672A1 PCT/JP2012/070839 JP2012070839W WO2013061672A1 WO 2013061672 A1 WO2013061672 A1 WO 2013061672A1 JP 2012070839 W JP2012070839 W JP 2012070839W WO 2013061672 A1 WO2013061672 A1 WO 2013061672A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual camera
movement
moving
target position
target object
Prior art date
Application number
PCT/JP2012/070839
Other languages
English (en)
French (fr)
Inventor
記央 花輪
貴史 金原
美樹 田川
Original Assignee
株式会社コナミデジタルエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コナミデジタルエンタテインメント filed Critical 株式会社コナミデジタルエンタテインメント
Priority to US14/354,136 priority Critical patent/US20140306886A1/en
Publication of WO2013061672A1 publication Critical patent/WO2013061672A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera

Definitions

  • the present invention relates to an image processing apparatus, a control method for the image processing apparatus, a program, and an information storage medium.
  • an image processing device for example, a game device
  • a virtual camera and / or a user operation target object moves in response to a user operation.
  • a virtual camera or / and an operation target object are moved to a desired position in a desired mode (for example, moving speed or moving means)
  • a desired mode for example, moving speed or moving means
  • the user performs an operation for specifying a target position and a moving mode. And had to do the operation to specify.
  • the present invention has been made in view of the above problems, and its purpose is to provide a desired movement target position when moving a virtual camera or / and an operation target object to a desired movement target position in a desired movement mode.
  • An object of the present invention is to provide an image processing apparatus, a control method for the image processing apparatus, a program, and an information storage medium capable of specifying a desired movement mode with a single operation.
  • an image processing apparatus is an image processing apparatus that displays on a display unit a screen representing a virtual space in which an object is arranged as viewed from a virtual camera.
  • An operation accepting means for accepting a designation operation for designating a partial area
  • an operation time information obtaining means for obtaining information relating to the time required for the designation operation, the virtual camera or / and the operation target object
  • the partial area Movement control means for moving the virtual camera or / and the operation target object closer to the attention area.
  • the movement target position of the virtual camera and / or the operation target object is the position of the designated partial area in the virtual space.
  • a movement target position determination means that is determined based on the size of the designated partial area, and a movement mode in the case of moving the virtual camera or / and the operation target object toward the movement target position
  • the movement mode determination means for determining based on the time required for the designated operation and the movement mode determined by the movement mode determination means direct the virtual camera and / or the operation target object toward the movement target position. And means for moving.
  • the image processing apparatus control method is a method for controlling an image processing apparatus that displays on a display means a screen representing a state in which a virtual space in which an object is arranged is viewed from a virtual camera.
  • An operation accepting step for accepting a designation operation for designating a partial area an operation time information obtaining step for obtaining information relating to the time required for the designation operation, the virtual camera or / and the operation target object, the partial area
  • a movement control step for moving the virtual camera or / and the operation target object closer to the attention area.
  • the movement target position of the virtual camera and / or the operation target object is set to the virtual sky of the designated partial area.
  • a moving target position determining step that is determined based on the position within the area and the size of the specified partial area, and the virtual camera or / and the operation target object are moved toward the moving target position.
  • a movement mode determination step for determining a movement mode based on the time required for the designated operation, and a movement mode determined in the movement mode determination step, the virtual camera and / or the operation target object as the movement target. Moving toward a position.
  • a program according to the present invention is a program for causing a computer to function as an image processing apparatus that displays on a display means a screen representing a state in which a virtual space in which an object is arranged is viewed from a virtual camera.
  • An operation accepting unit that accepts a designation operation for designating a partial area of the user, an operation time information acquisition unit that obtains information related to the time required for the designation operation, and the virtual camera or / and the operation target object
  • the information storage medium according to the present invention is a computer-readable information storage medium recording the above program.
  • the desired movement target position and the desired movement mode when moving a virtual camera or / and an operation target object to a desired movement target position in a desired movement mode (for example, a movement speed or a moving unit), the desired movement target position and the desired movement mode. Can be specified in one operation.
  • a desired movement mode for example, a movement speed or a moving unit
  • the movement mode determination unit may determine a movement speed when moving the virtual camera or / and the operation target object toward the movement target position at the time required for the designated operation. You may make it determine based on.
  • the movement mode determination unit includes a unit that acquires an operation speed of the specified operation based on the time required for the specified operation, and the virtual camera and / or the operation target object. May be determined based on the operation speed of the designated operation.
  • a means for changing a display mode of the image showing the partial area based on a comparison result between means for displaying an image showing the partial area on the screen, a parameter of the operation target object, and a parameter of the object included in the partial area. And a means for changing a display mode of the image showing the partial area.
  • FIG. 1 It is a figure which shows an example of the hardware constitutions of the game device (image processing apparatus) which concerns on embodiment of this invention. It is a figure which shows an example of virtual space. It is a figure for demonstrating a virtual camera. It is a figure which shows an example of a game screen. It is a figure for demonstrating operation for moving a user character and a virtual camera. It is a figure which shows an example of virtual space when a user character and a virtual camera move to a movement target position. It is a figure which shows an example of the game screen when a user character and a virtual camera move to a movement target position. It is a figure which shows an example of the correspondence of operation speed and movement speed.
  • a game device image processing device
  • FIG. 1 shows an example of a hardware configuration of a game device according to an embodiment of the present invention.
  • the game apparatus 10 includes a control unit 11, a storage unit 12, a communication unit 13, a display unit 14, an audio output unit 15, an operation unit 16, and a touch panel 17.
  • the control unit 11 includes one or a plurality of microprocessors, for example.
  • the control unit 11 executes processing for controlling each unit of the game apparatus 10 or executes information processing based on an operating system or other program stored in the storage unit 12.
  • the storage unit 12 includes a main storage unit and an auxiliary storage unit.
  • the main storage unit includes, for example, a RAM, and a program and data read from the auxiliary storage unit are written into the main storage unit.
  • the main storage unit is also used as a working memory for the control unit 11.
  • the auxiliary storage unit includes a nonvolatile storage medium such as a hard disk drive or a solid state drive, and programs and data are stored in the auxiliary storage unit.
  • the communication unit 13 is for performing data communication via a communication network such as the Internet.
  • the program and data are supplied to the game apparatus 10 from a remote location via a communication network and stored in the storage unit 12 (auxiliary storage unit).
  • the display unit 14 is, for example, a liquid crystal display.
  • the display unit 14 displays a screen according to instructions from the control unit 11.
  • the audio output unit 15 is, for example, a speaker or a headphone terminal.
  • the sound output unit 15 outputs sound (for example, music or sound effects) in accordance with instructions from the control unit 11.
  • the operation unit 16 includes, for example, a button, a stick (lever), a keyboard, or a mouse, and is used for a user to perform an operation.
  • the touch panel 17 is a general touch panel such as a resistive film type or a capacitance type.
  • the touch panel 17 detects a position touched by the user.
  • the touch panel 17 supplies information corresponding to the position touched by the user to the control unit 11.
  • the touch panel 17 is overlaid on the display unit 14 and is used by the user to indicate a position in the screen displayed on the display unit 14.
  • the position detected by the touch panel 17 (that is, the position touched by the user) is represented in the screen coordinate system.
  • the screen coordinate system is such that the upper left vertex of the screen displayed on the display unit 14 is the origin O, the horizontal direction (right direction) is the Xs axis positive direction, and the vertical direction (down direction) is the Ys axis positive direction.
  • XsYs coordinate system see FIG. 4 described later).
  • the game apparatus 10 may include an optical disk drive or a memory card slot.
  • the optical disk drive is for reading programs and data recorded on an optical disk (information storage medium)
  • the memory card slot is for reading programs and data stored on a memory card (information storage medium).
  • the program and data may be supplied to the game apparatus 10 via an optical disc or a memory card and stored in the storage unit 12 (auxiliary storage unit).
  • the game apparatus 10 executes various games based on the game program stored in the storage unit 12.
  • a game device 10 is a game in which a user operates a game character (hereinafter referred to as “user character”) to combat a game character (hereinafter referred to as “enemy character”) that opposes the user character. Will be described.
  • FIG. 2 shows an example of a virtual space.
  • the virtual space 20 shown in FIG. 2 is a virtual three-dimensional space in which three coordinate axes (Xw axis, Yw axis, and Zw axis) orthogonal to each other are set.
  • the position of the object arranged in the virtual space 20 is specified by these three coordinate axes.
  • the XwYwZw coordinate system is referred to as a “world coordinate system”.
  • a field object (hereinafter simply referred to as “field”) 21, which is an object representing a field, is arranged in the virtual space 20.
  • a user character object (hereinafter simply referred to as “user character”) 22, which is an object representing a user character, is arranged on the field 21.
  • enemy character objects (hereinafter simply referred to as “enemy characters”) 23 A, 23 B, and 23 C, which are objects representing enemy characters, are also arranged on the field 21.
  • the enemy characters 23A, 23B, and 23C may be collectively referred to as “enemy character 23”.
  • a friend character object 24 (hereinafter simply referred to as “friend character”) 24, which is an object representing the friend character of the user character 22, is also arranged on the field 21.
  • friend character which is an object representing the friend character of the user character 22.
  • two enemy characters 23 ⁇ / b> A and 23 ⁇ / b> B are approaching the teammate character 24.
  • a treasure box object (hereinafter simply referred to as “treasure box”) 25 which is an object representing a treasure box is also arranged on the field 21.
  • the enemy character 23 ⁇ / b> C is located near the treasure box 25.
  • FIG. 3 is a diagram for explaining the virtual camera.
  • the virtual camera 30 is set based on the position of the user character 22. More specifically, for example, the virtual camera 30 is set to a position 22A in the head of the user character 22 (for example, an intermediate position between the left eye and the right eye). In this case, the virtual camera 30 also moves according to the movement of the user character 22, and the field of view of the virtual camera 30 becomes substantially equal to the field of view of the user character 22.
  • the virtual camera 30 may not be set at the position 22A in the head of the user character 22.
  • the virtual camera 30 may be set above the user character 22.
  • the virtual camera 30 may be moved according to the movement of the user character 22.
  • FIG. 4 shows an example of the screen.
  • the screen 40 converts the coordinate value of each vertex of the object arranged in the virtual space 20 from the world coordinate system to the screen coordinate system by matrix operation for converting the coordinate value of the world coordinate system into the coordinate value of the screen coordinate system. Is generated by
  • the virtual camera 30 when the virtual camera 30 is set at the position 22A in the head of the user character 22, the virtual space 20 viewed from the user character 22 is displayed on the screen 40. In this case, the user plays the game while viewing the screen 40 on which the virtual space 20 viewed from the user character 22 is displayed.
  • the movement target position of the user character 22 and the virtual camera 30 and the movement mode (for example, movement speed) when the user character 22 and the virtual camera 30 move to the movement target position are as follows. A technique for realizing a user interface that can be designated by one operation by a user will be described.
  • FIG. 5 is a diagram for explaining an operation for moving the user character 22 and the virtual camera 30.
  • the user draws a trajectory 52 surrounding the partial area 50 in the screen 40 on the touch panel 17, so that the movement target position of the user character 22 and the virtual camera 30, the user character 22 and The movement speed (movement mode) when the virtual camera 30 moves to the movement target position is designated.
  • the user character 22 and the virtual camera 30 are described in the area of the virtual space 20 displayed in the area 50 (hereinafter referred to as “attention area”). Move towards). That is, the user character 22 and the virtual camera 30 approach the attention area.
  • a position where the field of view of the user character 22 and the virtual camera 30 corresponds to the attention area is set as a movement target position of the user character 22 and the virtual camera 30. That is, a position where the field of view of the user character 22 and the virtual camera 30 substantially matches the attention area is set as a movement target position of the user character 22 and the virtual camera 30.
  • FIG. 6 and 7 show examples of the virtual space 20 and the screen 40 when the user character 22 and the virtual camera 30 move to the movement target position, respectively.
  • the virtual camera 30 is set at the position 22 ⁇ / b> A in the head of the user character 22. It is arranged at the position of the camera 30.
  • the movement speed in the virtual space 20 when the user character 22 and the virtual camera 30 move from the current position to the movement target position is set based on the operation speed of the operation for drawing the locus 52.
  • FIG. 8 shows an example of a correspondence relationship between the operation speed (vo) for drawing the locus 52 and the moving speed (vm) of the user character 22 and the virtual camera 30. Note that the operation speed (vo) of the operation for drawing the trajectory 52 is calculated by dividing the length of the trajectory 52 by the time required to draw the trajectory 52.
  • “V1”, “V2”, and “V3” indicate predetermined operation speeds, and these have a relationship of “V1 ⁇ V2 ⁇ V3”.
  • Va”, “Vb”, “Vc”, and “Vd” indicate predetermined moving speeds, and these have a relationship of “Va ⁇ Vb ⁇ Vc ⁇ Vd”.
  • the movement speed (vm) of the user character 22 and the virtual camera 30 increases as the operation speed (vo) of the operation for drawing the locus 52 increases.
  • the user can specify the movement target positions of the user character 22 and the virtual camera 30 by drawing the trajectory 52 surrounding the area 50 in the screen 40. Furthermore, the user can specify the movement speed (movement mode) when the user character 22 and the virtual camera 30 move to the movement target position by adjusting the operation speed of the operation for drawing the locus 52. That is, in the game apparatus 10, both the movement target position of the user character 22 and the virtual camera 30 and the moving speed (movement mode) when the user character 22 and the virtual camera 30 move toward the movement target position are designated. This can be done by one intuitive operation of drawing a trajectory 52 surrounding the area 50 in the screen 40.
  • the enemy character 23 ⁇ / b> C is located near the treasure box 25.
  • the user draws the trajectory 52 surrounding the enemy character 23C and the treasure chest 25 relatively slowly, so that the user character 22 (and the virtual camera) is drawn. 30) is slowly moved to the enemy character 23C and the treasure box 25.
  • FIG. 9 is a functional block diagram showing functional blocks realized by the game apparatus 10.
  • the game apparatus 10 includes a data storage unit 90, an operation reception unit 91, an operation time information acquisition unit 92, and a movement control unit 93.
  • the data storage unit 90 is realized by the storage unit 12, and the other functional blocks are realized by the control unit 11 executing a program read from the storage unit 12.
  • the data storage unit 90 stores data necessary for executing the game. For example, model data of each object arranged in the virtual space 20 and motion data of the user character 22, enemy character 23, and teammate character 24 are stored in the data storage unit 90.
  • parameter data of the user character 22, the enemy character 23, and the teammate character 24 is stored in the data storage unit 90.
  • the following parameters are included in the parameter data.
  • state data indicating the current state of the virtual space 20 is stored in the data storage unit 90.
  • the following data is included in the status data.
  • Data indicating the state of the user character 22 (position, moving direction, moving speed, etc.)
  • Data indicating the state of the enemy character 23 (position, moving direction, moving speed, etc.)
  • State of the ally character 24 (position, moving)
  • Data indicating the state of the virtual camera 30 position, line-of-sight direction, field angle, etc.
  • the operation accepting unit 91 accepts an operation (hereinafter referred to as “designating operation”) for designating the area 50 in the screen 40.
  • an operation of drawing a locus 52 surrounding the area 50 in the screen 40 corresponds to a “designation operation”. That is, in the case of the present embodiment, the operation reception unit 91 is based on the position information supplied from the touch panel 17 every predetermined time (for example, 1/60 second) while the user's finger is in contact with the touch panel 17. The position on the touch panel 17 instructed (contacted) by the user is acquired every predetermined time (for example, 1/60 seconds). And the operation reception part 91 acquires the locus
  • FIG. 10 is a diagram for explaining an example of the trajectory data.
  • the trajectory data includes a plurality of positions on the trajectory 52 (here, positions P 1 to P 18 ).
  • the position P 1 is the start point of the locus 52. That is, the position P 1 is the contact position when the contact is started on the touch panel 17.
  • Position P 18 is the end point of the trajectory 52. That is, the position P 18 is the contact position when the contact is terminated to the touch panel 17.
  • the operation time information acquisition unit 92 will be described.
  • the operation time information acquisition unit 92 acquires information related to the time required for performing the specified operation (hereinafter referred to as “operation time”).
  • the operation time information acquisition unit 92 acquires the time when the designated operation is started. In addition, the operation time information acquisition unit 92 acquires the time when the designation operation is completed. The operation time information acquisition unit 92 acquires the time elapsed from the start time to the end time as information related to the operation time.
  • the operation time information acquisition unit 92 initializes a numerical value stored in the storage unit 12 to an initial value (for example, 0). In addition, until the designated operation ends, the operation time information acquisition unit 92 calculates the numerical value stored in the storage unit 12 by a predetermined value (for example, 1) every predetermined time (for example, 1/60 seconds). Increase (or decrease). When the designated operation is completed, the operation time information acquisition unit 92 acquires the difference between the numerical value and the initial value stored in the storage unit 12 as information related to the operation time.
  • a predetermined value for example, 1
  • the operation time information acquisition unit 92 acquires the difference between the numerical value and the initial value stored in the storage unit 12 as information related to the operation time.
  • the operation of drawing the locus 52 surrounding the area 50 in the screen 40 corresponds to the “designation operation”.
  • the time required to draw the trajectory 52 surrounding the area 50 in the screen 40 corresponds to the “operation time”.
  • the time from when the user's finger touches the position P 1 to when the user's finger moves to the position P 18 and then leaves the touch panel 17 is “operation time”. Equivalent to. Since the contact position of the user is acquired every predetermined time (for example, 1/60 second), the number of positions P 1 to P 18 included in the trajectory data ( 18 in the case of FIG. 10) is N, And if it is set as predetermined time (DELTA) T, operation time (t) will be acquired by the following formula
  • t (N ⁇ 1) * ⁇ T (1)
  • the movement control unit 93 moves the virtual camera 30 and / or the user's operation target object based on the area 50 in the screen 40 specified by the specifying operation.
  • the “operation target object” is an object operated by the user among objects arranged in the virtual space 20.
  • the user character 22 corresponds to an “operation target object”.
  • the movement control unit 93 brings the user character 22 (operation target object) and / or the virtual camera 30 closer to an area (attention area) in the virtual space 20 displayed in the area 50 in the screen 40 designated by the designation operation. To move.
  • the movement control unit 93 includes a movement target position determination unit 94 and a movement mode determination unit 95.
  • the movement target position determination unit 94 determines the movement target position of the user character 22 or / and the virtual camera 30 when the user character 22 or / and the virtual camera 30 is brought close to the attention area.
  • the movement target position determination unit 94 determines the movement target position based on the position in the virtual space 20 of the area 50 in the screen 40 designated by the designation operation and the size of the area 50.
  • the “size of the region 50” may be, for example, the size of the region 50 in the screen 40 (screen coordinate system), or in the virtual space 20 of the region 50 (world coordinate system). It may be the size of.
  • the size of the region 50 in the virtual space 20 is the size of the region in the virtual space 20 corresponding to the region 50 (that is, the region of interest).
  • the movement target position determination unit 94 is visible from the user character 22 in a position where the region of the virtual space 20 that can be seen by the user character 22 (that is, the field of view of the user character 22) corresponds to the attention region.
  • the position where the region of the virtual space 20 substantially matches the region of interest) is determined as the movement target position of the user character 22.
  • the movement target position determination unit 94 determines the position (in other words, from the virtual camera 30) that the area of the virtual space 20 that can be seen from the virtual camera 30 (that is, the field of view of the virtual camera 30) corresponds to the attention area.
  • the position at which the visible region of the virtual space 20 substantially matches the region of interest is determined as the movement target position of the virtual camera 30. Details of the operation of the movement target position determination unit 94 will be described later (see step S106 in FIG. 11 described later).
  • the movement mode determination unit 95 determines the movement mode when the user character 22 or / and the virtual camera 30 moves toward the movement target position based on the time (operation time) required for the designated operation. For example, “a movement mode when the user character 22 or / and the virtual camera 30 moves toward the movement target position” means movement when the user character 22 or / and the virtual camera 30 moves toward the movement target position. Speed. Further, for example, if the user character 22 is moved by a moving means selected from a plurality of moving means (for example, vehicles), “movement when the user character 22 moves toward the movement target position”. The “mode” is a moving means used when the user character 22 moves toward the movement target position.
  • correspondence information indicating a correspondence relationship between a condition related to a time (operation time) required for performing a specified operation and a movement mode is stored in the data storage unit 90.
  • the correspondence relationship information illustrated in FIG. 8 is an example of information indicating a correspondence relationship between the operation speed (vo) of the operation for drawing the trajectory 52 and the movement speed (vm).
  • the correspondence relationship information shown in FIG. 8 is information in a table format indicating the correspondence relationship, but the correspondence relationship information is a mathematical expression format for calculating the moving speed (vm) based on the operation speed (vo). It may be the information.
  • the operation of drawing the locus 52 surrounding the area 50 in the screen 40 corresponds to the “designation operation”.
  • the time required to draw the locus 52 corresponds to the “operation time”.
  • the operation speed of the operation for drawing the locus 52 is calculated based on the operation time of the operation for drawing the locus 52. That is, the operation speed of the operation for drawing the locus 52 is calculated by dividing the length of the locus 52 by the time (operation time) required for drawing the locus 52.
  • the range of the operation speed corresponds to the condition related to the operation time of the operation for drawing the trajectory 52.
  • “time required for performing the designated operation (operation time)” Corresponding to “conditions”.
  • the movement mode determination unit 95 determines the movement speed when moving the user character 22 or / and the virtual camera 30 toward the movement target position based on the correspondence information as described above. That is, the movement mode determination unit 95 selects a movement speed that is associated with a condition that is satisfied by the time (operation time) required for performing the designated operation. For example, when the correspondence relationship information illustrated in FIG. 8 is stored, the movement mode determination unit 95 selects a movement speed associated with the range to which the operation speed of the operation for drawing the locus 52 belongs.
  • the movement control unit 93 moves the user character 22 and / or the virtual camera 30 toward the movement target position in the movement mode determined by the movement mode determination unit 95.
  • FIG. 11 is a flowchart showing an example of a process related to the present invention among the processes executed by the game apparatus 10.
  • the process shown in FIG. 11 is a process that is repeatedly executed every predetermined time (for example, 1/60 seconds).
  • the control unit 11 executes the processing shown in FIG. 11 according to the program stored in the storage unit 12 so that the control unit 11 functions as the operation reception unit 91, the operation time information acquisition unit 92, and the movement control unit 93. become.
  • the control unit 11 determines whether or not the input of the trajectory 52 has been completed (S101). When it is determined that the input of the trajectory 52 has not been completed, the control unit 11 ends this process. On the other hand, when it is determined that the input of the trajectory 52 has been completed, the control unit 11 initializes the value of the variable i to N (S102).
  • the positions P 1 to P N are included in the trajectory data indicating the trajectory 52 input by the user. That is, “N” indicates the total number of positions included in the trajectory data. In other words, “N” indicates the total number of positions detected by the touch panel 17 while the locus 52 is input. For example, in the case of the trajectory data shown in FIG. 10, the value of “N” is 18.
  • the control unit 11 determines whether reference trajectory data, to satisfy the conditions surrounding locus 52 from position P 1 to the position P i (S103).
  • the “enclosing condition” is a condition for determining that the region 50 in the screen 40 is surrounded by the locus 52.
  • each of the following two types of conditions A and B is set as a surrounding condition.
  • 12, 13 and 14 are diagrams for explaining the enclosing conditions. [Condition A] straight line from the position P i-1 to the position P i is intersect with straight lines from the position P i-j-1 to the position P i-j (2 ⁇ j ⁇ i-2).
  • condition A will be described.
  • the trajectory 52 from the position P 1 to the position P i it is assumed that a path 52 from position P 1 shown in FIG. 12 to the position P 12.
  • the straight line to the position P 12 from the position P 11 is, for intersect with straight lines from the position P 1 to position P 2, the trajectory 52 from the position P 1 shown in FIG. 12 to the position P 12 satisfies the condition A .
  • the reference distance Dr is set.
  • the reference distance Dr is the difference between the maximum value and the minimum value of Xs-axis coordinate values of the position P 1 ⁇ P 12, the maximum value and the minimum value of Ys-axis coordinate values of the position P 1 ⁇ P 12 It is set based on at least one of the differences.
  • the reference distance Dr is set.
  • the horizontal sides 132A of the rectangular 130 passes through the position P 6 Y-axis coordinate value is the minimum, and a sides parallel to Xs-axis direction, the lateral side 132B is, Y-axis coordinate value is the maximum position through P 1, and a sides parallel to the X-axis direction.
  • the vertical side 134A of the rectangular 130 passes through the position P 3 X-axis coordinate value is the minimum, and a sides parallel to Ys-axis direction, the vertical side 134B is X-axis coordinate value is the maximum position through P 10, and is parallel sides in the Ys axis.
  • the reference distance Dr ((Sx / 2) 2 + (Sy / 2) 2 ) 1/2 (2)
  • the reference distance Dr is determined according to the above equation (2), for example, as shown in FIG. 14, the right triangle 140 whose lengths of the two sides 142A and 142B other than the hypotenuse 142C are Sx / 2 and Sy / 2, respectively.
  • the length of the hypotenuse 142C is set as the reference distance Dr.
  • the formula for calculating the reference distance Dr is not limited to the above formula (2), and may be calculated by another formula.
  • the reference distance Dr may be determined in advance.
  • the linear distance d between the position P 1 and the position P 12 is equal to or less than the reference distance Dr, and among the positions P 2 to P 11 , the linear distance from the position P 1 is Since there is a position (for example, position P 6 ) that is greater than or equal to the reference distance Dr, the trajectory 52 from the position P 1 to the position P 12 shown in FIG.
  • step S103 the position from the position P 1 P i conditions locus 52 above to A, if both are determined not to satisfy the B, ie, a condition enclosing trajectory 52 from the position P 1 to the position P i
  • the control part 11 reduces 1 from the value of the variable i (S104). Then, the control unit 11 determines whether or not the position Pi is the starting point (S105).
  • the case where the position P i is determined to be the starting point is a case where the locus 52 input by the user is not a locus surrounding the area 50 in the screen 40. In this case, the control unit 11 ends this process. On the other hand, when it is determined that the position P i is not the start point, the control unit 11 executes the process of step S103.
  • step S103 if the locus 52 from position P 1 to the position P i is determined to satisfy the condition enclosing, i.e., the position P i to the locus 52 above condition A from the position P 1, at least one of B
  • the control part 11 determines the movement target position of the user character 22 (virtual camera 30) (S106).
  • Control unit 11 by executing a predetermined process based on the position and size of the region 50 of the screen 40 which is surrounded by the trajectory 52 from the position P 1 to the position P i, the user characters 22 (virtual camera 30) Determine the movement target position.
  • 15 and 16 are diagrams for explaining an example of a method for determining the movement target position of the user character 22 (virtual camera 30).
  • the trajectory 52 from the position P 1 to the position P i it is assumed that a path 52 from position P 1 shown in FIG. 15 to the position P 12.
  • a rectangle 130 is a rectangle obtained in the same manner as the rectangle 130 in FIG.
  • the position Q 4 is a perpendicular foot from the position P 4 to the horizontal side 132A of the rectangle 130.
  • R 1 , R 2 , R 3 , and R 4 represent the vertices of the rectangle 130.
  • step S106 first, the control unit 11 obtains information about the position and size of a region 50 surrounded by the trajectory 52 from the position P 1 to the position P 12.
  • the control unit 11 as information about the position of the region 50 surrounded by the trajectory 52 from the position P 1 to the position P 12, obtains a representative position in the region 50 surrounded by the trajectory 52.
  • the control unit 11 acquires the center point C of the rectangle 130 including the locus 52 as the representative position.
  • the control unit 11 may acquire any position of the object included in the region 50 surrounded by the trajectory 52 as the representative position. For example, the control unit 11 acquires the position of the object closest to the user character 22 (or the virtual camera 30) as the representative position among the objects included in the region 50 surrounded by the trajectory 52. Also good. For example, when the enemy character 23 and the friend character 24 are included in the area 50 surrounded by the trajectory 52 and the friend character 24 is closer to the user character 22 (or the virtual camera 30) than the enemy character 23, The control unit 11 may acquire the position of the teammate character 24 as the representative position.
  • the control unit 11 as information about the size of the region 50 surrounded by the trajectory 52 from the position P 1 to the position P 12, obtains the area of the region 50 surrounded by the trajectory 52.
  • the control unit 11 obtains the area of the region 50 surrounded by the trajectory 52 by subtracting the area of the region other than the region 50 surrounded by the trajectory 52 from the area of the rectangle 130.
  • the area of the region other than the region 50 surrounded by the trajectory 52 is obtained by adding the areas of the following triangle and quadrangle.
  • the virtual space 20 (world coordinates) of the region 50 is acquired. You may make it acquire the information regarding the magnitude
  • the control unit 11 may specify an area (that is, an attention area) in the virtual space 20 corresponding to the area 50 surrounded by the trajectory 52 and acquire information on the size of the area (attention area). Good.
  • the control unit 11 moves the target of the user character 22 based on the information (the virtual camera 30) Determine the position.
  • the virtual camera 30 An example of a method for determining the movement target position of the user character 22 (virtual camera 30) will be described with reference to FIG.
  • the control unit 11 acquires a position in the virtual space 20 corresponding to the representative position of the region 50 surrounded by the locus 52 (for example, the center point C of the rectangle 130 in FIG. 15). For example, the control unit 11 converts the screen coordinate value of the representative position into the coordinate value of the world coordinate system based on the matrix calculation for converting the coordinate value of the screen coordinate system into the coordinate value of the world coordinate system. Thus, a position in the virtual space 20 corresponding to the representative position is acquired.
  • Reference numeral “160” in FIG. 16 indicates a position in the virtual space 20 corresponding to the representative position.
  • control unit 11 moves from the position 160 acquired as described above on the straight line 162 parallel to the line-of-sight direction 32 of the virtual camera 30 in the direction opposite to the line-of-sight direction 32 of the virtual camera 30.
  • 164 is acquired as the movement target position of the user character 22 (virtual camera 30).
  • the control unit 11 determines the distance (k) between the position 160 and the position 164 based on the area of the region 50 surrounded by the locus 52.
  • correspondence information indicating the correspondence between the area of the region 50 and the distance (k) is required.
  • FIG. 17 shows an example of the correspondence information described above.
  • “A1”, “A2”, and “A3” indicate predetermined areas, and these have a relationship of “A1 ⁇ A2 ⁇ A3”.
  • “K1”, “K2”, and “K3” indicate predetermined distances, and these have a relationship of “K1 ⁇ K2 ⁇ K3”.
  • the distance (k) increases as the area (a) of the region 50 surrounded by the locus 52 increases.
  • the correspondence relationship information shown in FIG. 17 indicates that the field of view of the user character 22 (virtual camera 30) corresponds to (substantially matches) the region (attention region) in the virtual space 20 displayed in the region 50 surrounded by the locus 52. Is set to be
  • the control unit 11 selects the distance (k) associated with the range to which the area (a) of the region 50 surrounded by the locus 52 belongs. To do.
  • the correspondence relationship information shown in FIG. 17 is information in a table format indicating the above correspondence relationship, but the correspondence relationship information is information in a mathematical formula format for calculating the distance (k) based on the area (a). There may be.
  • step S106 the control unit 11 (operation time information acquisition unit 92) acquires the time (operation time) required to perform the operation of drawing the trajectory 52 ( S107). That is, the control unit 11 calculates the time required to draw the trajectory 52 from the position P 1 to the position P i (operation time).
  • This operation time (t) is calculated by the above equation (1).
  • the value of the variable i corresponds to the value of “N” in the above equation (1).
  • control unit 11 calculates the operation speed of the operation for drawing the trajectory 52 (S108). That is, the control unit 11 calculates the operating speed at which the trajectory 52 from the position P 1 to the position P i is drawn.
  • the control unit 11 obtains the length of the trajectory 52 from the position P 1 to the position P i.
  • the length (L) of the locus 52 is calculated according to the following equation (3).
  • “D i ⁇ 1 ” indicates a linear distance between the position P i ⁇ 1 and the position P i .
  • “D 1 ” indicates the distance between the position P 1 and the position P 2 .
  • L D 1 + D 2 +... + D i-1 (3)
  • the control unit 11 positions the length of the trajectory 52 from P 1 to a position P i and (L), the position P 1 from the position P i to take the time to draw the locus of (operating time: t) to based on, for calculating the operating speed at which the trajectory 52 is drawn from the position P 1 to the position P i. That is, the control unit 11 calculates the operation speed by dividing the length (L) of the locus by the operation time (t).
  • control unit 11 may calculate the operation time and the operation speed when the locus 52 from the position P 1 (start point) to the position P N (end point) is drawn.
  • the control unit 11 determines the moving speed of the user character 22 (virtual camera 30) (S109). For example, the control unit 11 determines the movement speed based on the operation speed determined in step S109 and the correspondence relationship information illustrated in FIG. That is, the control unit 11 acquires a movement speed corresponding to the operation speed calculated in step S108.
  • control unit 11 moves the user character 22 (virtual camera 30) to start moving to the movement target position determined in step S106 (S110).
  • the control unit 11 moves the user character 22 and the virtual camera 30 to the movement target position (see FIG. 18).
  • the control unit 11 moves the user character 22 (virtual camera 30) at the moving speed determined in step S109.
  • the movement target position of the user character 22 and the virtual camera 30 and the movement mode (movement speed) when the user character 22 and the virtual camera 30 move toward the movement target position It is possible to specify both by one intuitive operation of drawing a trajectory 52 surrounding the area 50 in the screen 40. That is, according to the game apparatus 10, both the movement target position of the user character 22 and the virtual camera 30 and the movement mode (movement speed) when the user character 22 and the virtual camera 30 move toward the movement target position are both. It is possible to realize a user interface that allows the user to designate the user by one intuitive operation.
  • correspondence information as shown in FIG. 19 may be stored.
  • the correspondence relationship information shown in FIG. 19 is information indicating a correspondence relationship between the operation time (t) required for the designation operation (operation for drawing the trajectory 52) and the moving speed (vm), and the operation time (t ) To obtain the moving speed (vm) directly.
  • T1”, “T2”, and “T3” indicate predetermined times, and these have a relationship of “T1 ⁇ T2 ⁇ T3”.
  • “Va”, “Vb”, “Vc”, and “Vd” are the same as those in FIG.
  • the movement speed (vm) becomes faster as the operation time (t) is shorter.
  • the processing in step S108 in FIG. 11 is not necessary.
  • the correspondence relationship information illustrated in FIG. 19 is information in a table format, but the correspondence relationship information may be information in a mathematical formula format for calculating the moving speed (vm) based on the operation time (t). .
  • the control unit 11 may display an image (hereinafter referred to as “region image”) indicating the region 50 in the screen 40 specified by the specifying operation on the screen 40.
  • region image an image indicating the region 50 in the screen 40 specified by the specifying operation.
  • the control unit 11 determines the area image based on the comparison result between the parameter of the user character 22 and the parameter of the enemy character 23.
  • the display mode may be changed.
  • an image showing the locus 52 corresponds to the “region image”.
  • “changing the display mode of the region image” includes changing the color or the like of the region image.
  • “changing the display mode of the area image” includes changing the thickness or type of the line. .
  • the “comparison result between the parameter of the user character 22 and the parameter of the enemy character 23” is “the difference (large or small) between the parameter of the user character 22 and the parameter of the enemy character 23”.
  • the above “comparison result” is the difference (large or small) between the hit point parameter of the user character 22 and the hit point parameter of the enemy character 23.
  • the “comparison result” is a difference (large or small) between the strength parameter of the user character 22 and the strength parameter of the enemy character 23.
  • the statistical values (for example, average value or maximum value) of the parameters of the plurality of enemy characters 23 are set to the above-mentioned “enemy character 23 It may be used as a “parameter”.
  • the parameter of any one of the plurality of enemy characters 23 may be used as the “parameter of the enemy character 23”.
  • FIG. 20 shows an example of this correspondence information.
  • the correspondence relationship between the difference ( ⁇ p) between the parameter of the user character 22 and the parameter of the enemy character 23 and the display mode information indicating the display mode of the area image is defined.
  • the case where the value of “ ⁇ p” is a positive value indicates that the parameter of the user character 22 is larger than the parameter of the enemy character 23, and the value of “ ⁇ p” is a negative value.
  • the case indicates a case where the parameter of the user character 22 is smaller than the parameter of the enemy character 23.
  • the control unit 11 refers to the correspondence information shown in FIG. 20 and acquires display mode information corresponding to the comparison result ( ⁇ p) between the parameter of the user character 22 and the parameter of the enemy character 23. And the control part 11 sets the display mode of an area
  • a user will compare an area image with the comparison result of the parameter of user character 22, and the parameter of enemy character 23 contained in field 50 specified by specification operation (operation which draws locus 52). It can be grasped from the display mode of (trajectory 52). Therefore, it is possible to grasp at a glance whether the enemy character 23 is stronger or weaker than the user character 22 before fighting the enemy character 23.
  • the designation operation is not limited to the operation of drawing the locus 52, and may be another operation.
  • an operation for designating two positions 210 and 212 on the touch panel 17 may be used.
  • a rectangular area 214 having a diagonal line connecting the two positions 210 and 212 as a diagonal corresponds to “an area in the screen 40 designated by the designation operation”.
  • the time required to indicate the two positions 210 and 212 corresponds to “time required for the designated operation (operation time)”.
  • the position 212 is instructed after the position 210 is instructed first, the time from when the position 210 is instructed until the position 212 is instructed corresponds to the “time required for the designated operation (operation time)” To do.
  • the user character 22 may not be placed in the virtual space 20. In this case, only the virtual camera 30 may be moved according to the user's operation.
  • the relative positional relationship between the user character 22 and the virtual camera 30 may be changed.
  • the virtual camera 30 may be automatically set to an optimal position according to the positional relationship between the user character 22 and another object (for example, the enemy character 23). In such a case, only the user character 22 needs to move according to the user's operation.
  • the game apparatus 10 may include a pointing device other than the touch panel 17.
  • the game apparatus 10 may include a mouse.
  • the game apparatus 10 may include a pointing device such as a Wii (registered trademark) remote control controller manufactured by Nintendo.
  • the game apparatus 10 may include a pointing device such as a KINET (registered trademark) controller manufactured by Microsoft Corporation.
  • the position of the predetermined part (for example, the right hand) of the user may be handled as the position indicated by the user.
  • the game executed on the game device 10 is not limited to the game described above.
  • the present invention can be applied to a game in which an object operated by a user or / and a virtual camera 30 moves according to the user's operation.
  • the present invention can also be applied to an image processing apparatus other than the game apparatus 10.
  • the present invention can be applied to an image processing apparatus that displays an object operated by a user and / or a screen on which a virtual camera 30 moves according to a user operation on a display unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 仮想カメラ又は/及び操作対象オブジェクトを所望の移動目標位置まで所望の移動態様で移動させる場合において、所望の移動目標位置と所望の移動態様とを一の操作で指定することが可能な画像処理装置を提供する。操作時間情報取得部(92)は、画面内の一部領域を指定するための指定操作に要した時間に関する情報を取得する。移動制御部(93)は、仮想カメラ又は/及び操作対象オブジェクトを、一部領域に表示された仮想空間内の注目領域に近づけるように移動させる。移動目標位置決定部(94)は、仮想カメラ又は/及び操作対象オブジェクトの移動目標位置を、一部領域の仮想空間内における位置と、一部領域の大きさと、に基づいて決定する。移動態様決定部(95)は、仮想カメラ又は/及び操作対象オブジェクトを移動目標位置に向けて移動させる場合の移動態様を、指定操作に要した時間に基づいて決定する。

Description

画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
 本発明は画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体に関する。
 オブジェクトが配置された仮想空間を仮想カメラから見た様子を表す画面を表示手段に表示する画像処理装置(例えばゲーム装置等)が知られている。このような画像処理装置では、仮想カメラ又は/及びユーザの操作対象オブジェクトがユーザの操作に応じて移動するものがある。
特開2010-046219号公報
 従来の画像処理装置では、仮想カメラ又は/及び操作対象オブジェクトを所望の位置まで所望の態様(例えば移動速度又は移動手段等)で移動させる場合、ユーザは、目標位置を指定する操作と、移動態様を指定する操作と、を行わなければならなかった。
 本発明は上記課題に鑑みてなされたものであって、その目的は、仮想カメラ又は/及び操作対象オブジェクトを所望の移動目標位置まで所望の移動態様で移動させる場合において、所望の移動目標位置と所望の移動態様とを一の操作で指定することが可能な画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体を提供することにある。
 上記課題を解決するために、本発明に係る画像処理装置は、オブジェクトが配置された仮想空間を仮想カメラから見た様子を表す画面を表示手段に表示する画像処理装置において、前記画面内の一部領域を指定するための指定操作を受け付ける操作受付手段と、前記指定操作に要した時間に関する情報を取得する操作時間情報取得手段と、前記仮想カメラ又は/及び操作対象オブジェクトを、前記一部領域に表示された前記仮想空間内の注目領域に近づけるように移動させる移動制御手段と、を含み、前記移動制御手段は、前記注目領域に前記仮想カメラ又は/及び前記操作対象オブジェクトを近づける場合の前記仮想カメラ又は/及び前記操作対象オブジェクトの移動目標位置を、前記指定された一部領域の前記仮想空間内における位置と、前記指定された一部領域の大きさと、に基づいて決定する移動目標位置決定手段と、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる場合の移動態様を、前記指定操作に要した前記時間に基づいて決定する移動態様決定手段と、前記移動態様決定手段によって決定された移動態様で、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる手段と、を含むことを特徴とする。
 また、本発明に係る画像処理装置の制御方法は、オブジェクトが配置された仮想空間を仮想カメラから見た様子を表す画面を表示手段に表示する画像処理装置の制御方法において、前記画面内の一部領域を指定するための指定操作を受け付ける操作受付ステップと、前記指定操作に要した時間に関する情報を取得する操作時間情報取得ステップと、前記仮想カメラ又は/及び操作対象オブジェクトを、前記一部領域に表示された前記仮想空間内の注目領域に近づけるように移動させる移動制御ステップと、を含み、前記移動制御ステップは、前記注目領域に前記仮想カメラ又は/及び前記操作対象オブジェクトを近づける場合の前記仮想カメラ又は/及び前記操作対象オブジェクトの移動目標位置を、前記指定された一部領域の前記仮想空間内における位置と、前記指定された一部領域の大きさと、に基づいて決定する移動目標位置決定ステップと、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる場合の移動態様を、前記指定操作に要した前記時間に基づいて決定する移動態様決定ステップと、前記移動態様決定ステップにおいて決定された移動態様で、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させるステップと、を含むことを特徴とする。
 また、本発明に係るプログラムは、オブジェクトが配置された仮想空間を仮想カメラから見た様子を表す画面を表示手段に表示する画像処理装置としてコンピュータを機能させるためのプログラムであって、前記画面内の一部領域を指定するための指定操作を受け付ける操作受付手段、前記指定操作に要した時間に関する情報を取得する操作時間情報取得手段、及び、前記仮想カメラ又は/及び操作対象オブジェクトを、前記一部領域に表示された前記仮想空間内の注目領域に近づけるように移動させる移動制御手段、として前記コンピュータを機能させ、前記移動制御手段は、前記注目領域に前記仮想カメラ又は/及び前記操作対象オブジェクトを近づける場合の前記仮想カメラ又は/及び前記操作対象オブジェクトの移動目標位置を、前記指定された一部領域の前記仮想空間内おける位置と、前記指定された一部領域の大きさと、に基づいて決定する移動目標位置決定手段と、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる場合の移動態様を、前記指定操作に要した前記時間に基づいて決定する移動態様決定手段と、前記移動態様決定手段によって決定された移動態様で、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる手段と、を含むことを特徴とするプログラムである。
 また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。
 本発明によれば、仮想カメラ又は/及び操作対象オブジェクトを所望の移動目標位置まで所望の移動態様(例えば移動速度又は移動手段等)で移動させる場合において、所望の移動目標位置と所望の移動態様とを一の操作で指定することが可能になる。
 また本発明の一態様では、前記移動態様決定手段は、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる場合の移動速度を、前記指定操作に要した前記時間に基づいて決定するようにしてもよい。
 また本発明の一態様では、前記移動態様決定手段は、前記指定操作に要した前記時間に基づいて、前記指定操作の操作速度を取得する手段を含み、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる場合の移動態様を、前記指定操作の操作速度に基づいて決定するようにしてもよい。
 また本発明の一態様では、前記一部領域を示す画像を前記画面に表示する手段と、前記操作対象オブジェクトのパラメータと、前記一部領域内に含まれるオブジェクトのパラメータと、の比較結果に基づいて、前記一部領域を示す前記画像の表示態様を変更する手段と、を含むようにしてもよい。
本発明の実施形態に係るゲーム装置(画像処理装置)のハードウェア構成の一例を示す図である。 仮想空間の一例を示す図である。 仮想カメラについて説明するための図である。 ゲーム画面の一例を示す図である。 ユーザキャラクタ及び仮想カメラを移動させるための操作について説明するための図である。 ユーザキャラクタ及び仮想カメラが移動目標位置まで移動した場合の仮想空間の一例を示す図である。 ユーザキャラクタ及び仮想カメラが移動目標位置まで移動した場合のゲーム画面の一例を示す図である。 操作速度と移動速度との対応関係の一例を示す図である。 本発明の実施形態に係るゲーム装置(画像処理装置)の機能ブロック図である。 軌跡データの一例について説明するための図である。 ゲーム装置で実行される処理の一例を示すフロー図である。 囲み条件について説明するための図である。 囲み条件について説明するための図である。 囲み条件について説明するための図である。 移動目標位置の決定方法の一例を説明するための図である。 移動目標位置の決定方法の一例を説明するための図である。 面積と距離との対応関係の一例を示す図である。 ユーザキャラクタ及び仮想カメラの移動の一例について説明するための図である。 操作時間と移動速度との対応関係の一例を示す図である。 パラメータの差と表示態様情報との対応関係の一例を示す図である。 指定操作の他の一例について説明するための図である。
 以下、本発明の実施形態の例について図面に基づき詳細に説明する。なお、以下では、画像処理装置の一態様であるゲーム装置に本発明を適用した場合について説明する。本発明の実施形態に係るゲーム装置(画像処理装置)は、例えば、携帯ゲーム機、携帯電話機(スマートフォン)、携帯情報端末、パーソナルコンピュータ、業務用ゲーム機、又は家庭用ゲーム機(据置型ゲーム機)等によって実現される。
 図1は、本発明の実施形態に係るゲーム装置のハードウェア構成の一例を示す。図1に示すように、ゲーム装置10は制御部11、記憶部12、通信部13、表示部14、音声出力部15、操作部16、及びタッチパネル17を含む。
 制御部11は例えば一又は複数のマイクロプロセッサを含む。制御部11は、記憶部12に記憶されたオペレーティングシステム又はその他のプログラムに基づいて、ゲーム装置10の各部を制御するための処理を実行したり、情報処理を実行したりする。
 記憶部12は主記憶部及び補助記憶部を含む。主記憶部は例えばRAMを含み、補助記憶部から読み出されたプログラム及びデータが主記憶部に書き込まれる。主記憶部は制御部11の作業用メモリとしても用いられる。補助記憶部は例えばハードディスクドライブ又はソリッドステートドライブ等の不揮発性記憶媒体を含み、プログラムやデータが補助記憶部に記憶される。
 通信部13は、インターネット等の通信ネットワークを介してデータ通信を行うためのものである。例えば、プログラムやデータは、通信ネットワークを介して遠隔地からゲーム装置10に供給され、記憶部12(補助記憶部)に記憶される。
 表示部14は例えば液晶ディスプレイである。表示部14は制御部11からの指示に従って画面を表示する。音声出力部15は例えばスピーカ又はヘッドホン端子である。音声出力部15は制御部11からの指示に従って音声(例えば、音楽又は効果音等)を出力する。操作部16は例えばボタン、スティック(レバー)、キーボード、又はマウスを含み、ユーザが操作を行うために用いられる。
 タッチパネル17は、例えば抵抗膜方式又は静電容量方式等の一般的なタッチパネルである。タッチパネル17はユーザによって接触された位置を検出する。タッチパネル17は、ユーザによって接触された位置に応じた情報を制御部11に供給する。タッチパネル17は表示部14の上に重ねられ、表示部14に表示される画面内の位置をユーザが指し示すために用いられる。例えば、タッチパネル17によって検出された位置(すなわち、ユーザによって接触された位置)はスクリーン座標系で表される。スクリーン座標系は、表示部14に表示される画面の左上の頂点を原点Oとし、横方向(右方向)をXs軸正方向とし、縦方向(下方向)をYs軸正方向とするようなXsYs座標系である(後述の図4参照)。
 なお、ゲーム装置10は光ディスクドライブ又はメモリカードスロットを含むようにしてもよい。光ディスクドライブは光ディスク(情報記憶媒体)に記録されたプログラムやデータを読み出すためのものであり、メモリカードスロットはメモリカード(情報記憶媒体)に記憶されたプログラムやデータを読み出すためのものである。プログラムやデータは、光ディスク又はメモリカードを介してゲーム装置10に供給され、記憶部12(補助記憶部)に記憶されるようにしてもよい。
 ゲーム装置10は記憶部12に記憶されるゲームプログラムに基づいて各種ゲームを実行する。以下では、ユーザがゲームキャラクタ(以下「ユーザキャラクタ」と記載する。)を操作することによって、ユーザキャラクタと対立するゲームキャラクタ(以下「敵キャラクタ」と記載する。)を退治するゲームをゲーム装置10が実行する場合について説明する。
 ゲーム装置10が上記のゲームを実行する場合、仮想空間が記憶部12(主記憶部)に構築される。図2は仮想空間の一例を示す。図2に示す仮想空間20は、互いに直交する3つの座標軸(Xw軸、Yw軸、及びZw軸)が設定された仮想的な3次元空間である。仮想空間20に配置されるオブジェクトの位置等はこれらの3つの座標軸によって特定される。なお、以下では、XwYwZw座標系のことを「ワールド座標系」と記載する。
 図2に示すように、各種オブジェクトが仮想空間20に配置される。例えば、フィールドを表すオブジェクトであるフィールドオブジェクト(以下、単に「フィールド」と記載する。)21が仮想空間20に配置される。また、ユーザキャラクタを表すオブジェクトであるユーザキャラクタオブジェクト(以下、単に「ユーザキャラクタ」と記載する。)22がフィールド21上に配置される。さらに、敵キャラクタを表すオブジェクトである敵キャラクタオブジェクト(以下、単に「敵キャラクタ」と記載する。)23A,23B,23Cもフィールド21上に配置される。なお、以下では、敵キャラクタ23A,23B,23Cのことを総称して「敵キャラクタ23」と記載する場合がある。
 また、ユーザキャラクタ22の味方キャラクタを表すオブジェクトである味方キャラクタオブジェクト(以下、単に「味方キャラクタ」と記載する。)24もフィールド21上に配置される。なお、図2に示す状態では2体の敵キャラクタ23A,23Bが味方キャラクタ24に向かって迫ってきている。
 さらに、宝箱を表すオブジェクトである宝箱オブジェクト(以下、単に「宝箱」と記載する。)25もフィールド21上に配置される。なお、図2に示す状態では敵キャラクタ23Cが宝箱25の付近に位置している。
 また、仮想空間20には仮想カメラ(視点)が設定される。図3は仮想カメラについて説明するための図である。例えば、仮想カメラ30はユーザキャラクタ22の位置に基づいて設定される。より具体的には、例えば、仮想カメラ30はユーザキャラクタ22の頭部内の位置22A(例えば、左目と右目との間の中間位置)に設定される。この場合、ユーザキャラクタ22の移動に従って仮想カメラ30も移動し、仮想カメラ30の視界はユーザキャラクタ22の視界と略等しくなる。
 なお、仮想カメラ30はユーザキャラクタ22の頭部内の位置22Aに設定されなくてもよい。例えば、仮想カメラ30はユーザキャラクタ22の背後の上方に設定されるようにしてもよい。なお、この場合にも、仮想カメラ30はユーザキャラクタ22の移動に従って移動するようにすればよい。
 上記の仮想カメラ30から見た仮想空間20を表す画面が表示部14に表示される。図4は画面の一例を示す。画面40は、ワールド座標系の座標値をスクリーン座標系の座標値に変換するための行列演算によって、仮想空間20に配置されたオブジェクトの各頂点の座標値をワールド座標系からスクリーン座標系に変換することによって生成される。
 なお、上述したように、仮想カメラ30がユーザキャラクタ22の頭部内の位置22Aに設定される場合には、ユーザキャラクタ22から見た仮想空間20が画面40に表示されることになる。この場合、ユーザは、ユーザキャラクタ22から見た仮想空間20が表された画面40を見ながらゲームをプレイすることになる。
 以下、上記のようなゲーム装置10において、ユーザキャラクタ22及び仮想カメラ30の移動目標位置と、ユーザキャラクタ22及び仮想カメラ30が移動目標位置まで移動する場合の移動態様(例えば移動速度)と、をユーザが一つの操作によって指定することが可能なユーザインタフェースを実現するための技術について説明する。
 図5は、ユーザキャラクタ22及び仮想カメラ30を移動させるための操作について説明するための図である。本実施形態の場合、ユーザは、画面40内の一部の領域50を囲むような軌跡52をタッチパネル17上で描くことによって、ユーザキャラクタ22及び仮想カメラ30の移動目標位置と、ユーザキャラクタ22及び仮想カメラ30が移動目標位置まで移動する場合の移動速度(移動態様)と、を指定する。
 画面40内の一部の領域50を囲むような軌跡52が描かれた場合、ユーザキャラクタ22及び仮想カメラ30が、該領域50に表示された仮想空間20の領域(以下「注目領域」と記載する。)に向かって移動する。すなわち、ユーザキャラクタ22及び仮想カメラ30は注目領域に近づいていく。
 この場合、ユーザキャラクタ22及び仮想カメラ30の視界が注目領域に対応することになるような位置が、ユーザキャラクタ22及び仮想カメラ30の移動目標位置として設定される。すなわち、ユーザキャラクタ22及び仮想カメラ30の視界が注目領域に略一致することになるような位置が、ユーザキャラクタ22及び仮想カメラ30の移動目標位置として設定される。
 図6及び図7は、ユーザキャラクタ22及び仮想カメラ30が上記の移動目標位置まで移動した場合の仮想空間20及び画面40の一例をそれぞれ示す。なお、図6では、ユーザキャラクタ22を省略しているが、上述したように、仮想カメラ30はユーザキャラクタ22の頭部内の位置22Aに設定されるため、実際には、ユーザキャラクタ22も仮想カメラ30の位置に配置される。
 ユーザキャラクタ22及び仮想カメラ30が、現在の位置から移動目標位置まで移動する場合の仮想空間20における移動速度は、軌跡52を描く操作の操作速度に基づいて設定される。図8は、軌跡52を描く操作の操作速度(vo)と、ユーザキャラクタ22及び仮想カメラ30の移動速度(vm)と、の対応関係の一例を示す。なお、軌跡52を描く操作の操作速度(vo)は、軌跡52の長さを、軌跡52を描くために要した時間によって除することによって算出される。また、図8において、「V1」,「V2」、及び「V3」は所定の操作速度を示し、これらは「V1<V2<V3」の関係を有する。また、「Va」、「Vb」、「Vc」、及び「Vd」は所定の移動速度を示し、これらは「Va<Vb<Vc<Vd」の関係を有する。図8に示す対応関係では、軌跡52を描く操作の操作速度(vo)が速いほど、ユーザキャラクタ22及び仮想カメラ30の移動速度(vm)が速くなるようになっている。
 以上のように、ゲーム装置10では、ユーザは、画面40内の領域50を囲むような軌跡52を描くことによって、ユーザキャラクタ22及び仮想カメラ30の移動目標位置を指定することができる。さらに、ユーザは、軌跡52を描く操作の操作速度を調整することによって、ユーザキャラクタ22及び仮想カメラ30が移動目標位置まで移動する場合の移動速度(移動態様)を指定することができる。すなわち、ゲーム装置10では、ユーザキャラクタ22及び仮想カメラ30の移動目標位置と、ユーザキャラクタ22及び仮想カメラ30が移動目標位置に向かって移動する場合の移動速度(移動態様)と、の両方を指定することを、画面40内の領域50を囲むような軌跡52を描くという一つの直感的な操作で行えるようになっている。
 例えば、図2に示す状態では、2体の敵キャラクタ23A,23Bが味方キャラクタ24に迫ってきている。このような場合、味方キャラクタ24を助けるべく、ユーザは、例えば図5に示すような、敵キャラクタ23A,23B及び味方キャラクタ24を囲む軌跡52を素早く描くことによって、ユーザキャラクタ22(及び仮想カメラ30)を敵キャラクタ23A,23B及び味方キャラクタ24の所まで速く移動させる。
 また、図2に示す状態では、敵キャラクタ23Cが宝箱25の付近に位置している。このような場合、敵キャラクタ23Cに注意を払いながら宝箱25に慎重に近づくべく、ユーザは、敵キャラクタ23C及び宝箱25を囲む軌跡52を比較的ゆっくりと描くことによって、ユーザキャラクタ22(及び仮想カメラ30)を敵キャラクタ23C及び宝箱25の所までゆっくり移動させる。
 上記に説明したようなユーザインタフェースを実現するための構成について説明する。図9は、ゲーム装置10で実現される機能ブロックを示す機能ブロック図である。図9に示すように、ゲーム装置10はデータ記憶部90、操作受付部91、操作時間情報取得部92、及び移動制御部93を含む。例えば、データ記憶部90は記憶部12によって実現され、他の機能ブロックは、制御部11が記憶部12から読み出されたプログラムを実行することによって実現される。
 まず、データ記憶部90について説明する。データ記憶部90は、ゲームを実行するために必要なデータを記憶する。例えば、仮想空間20に配置される各オブジェクトのモデルデータや、ユーザキャラクタ22、敵キャラクタ23、及び味方キャラクタ24のモーションデータがデータ記憶部90に記憶される。
 また、ユーザキャラクタ22、敵キャラクタ23、及び味方キャラクタ24のパラメータデータがデータ記憶部90に記憶される。例えば、下記のようなパラメータがパラメータデータに含まれる。
・強さを示す強さパラメータ(例えば、攻撃パラメータ又は守備パラメータ等)
・体力の残り又はダメージの累積を示すヒットポイントパラメータ
 さらに、仮想空間20の現在の状態を示す状態データがデータ記憶部90に記憶される。例えば、下記に示すようなデータが状態データに含まれる。
・ユーザキャラクタ22の状態(位置、移動方向、及び移動速度等)を示すデータ
・敵キャラクタ23の状態(位置、移動方向、及び移動速度等)を示すデータ
・味方キャラクタ24の状態(位置、移動方向、及び移動速度等)を示すデータ
・仮想カメラ30の状態(位置、視線方向、及び画角等)を示すデータ
 次に、操作受付部91について説明する。操作受付部91は、画面40内の領域50を指定するための操作(以下「指定操作」と記載する。)を受け付ける。
 本実施形態の場合、画面40内の領域50を囲むような軌跡52を描く操作が「指定操作」に相当する。すなわち、本実施形態の場合、操作受付部91は、ユーザの指がタッチパネル17上に接触している間において所定時間(例えば1/60秒)ごとにタッチパネル17から供給される位置情報に基づいて、ユーザによって指示(接触)されているタッチパネル17上の位置を所定時間(例えば1/60秒)ごとに取得する。そして、操作受付部91はユーザによって指示(接触)された位置の軌跡を取得する。この場合、ユーザの指がタッチパネル17上に接触している間において所定時間ごとに取得されたユーザの指示位置(接触位置)の集合が、軌跡データとして取得される。この軌跡データは記憶部12に記憶される。
 図10は軌跡データの一例について説明するための図である。図10に示すように、軌跡データには、軌跡52上の複数の位置(ここでは位置P~P18)が含まれる。なお、図10において、位置Pは軌跡52の始点である。すなわち、位置Pは、タッチパネル17への接触が開始された際の接触位置である。位置P18は軌跡52の終点である。すなわち、位置P18は、タッチパネル17への接触が終了された際の接触位置である。
 操作時間情報取得部92について説明する。操作時間情報取得部92は指定操作を行うために要した時間(以下「操作時間」と記載する。)に関する情報を取得する。
 例えば、操作時間情報取得部92は、指定操作が開始された時刻を取得する。また、操作時間情報取得部92は、指定操作が終了した時刻を取得する。そして、操作時間情報取得部92は、開始時刻から終了時刻までに経過した時間を、操作時間に関する情報として取得する。
 または、指定操作が開始された場合に、操作時間情報取得部92は、記憶部12に記憶される数値を初期値(例えば0)に初期化する。また、指定操作が終了するまでの間、操作時間情報取得部92は、記憶部12に記憶される上記の数値を、所定時間(例えば1/60秒)ごとに、所定値(例えば1)ずつ増加(又は減少)させていく。そして指定操作が終了した場合、操作時間情報取得部92は、記憶部12に記憶される上記の数値と初期値との差を、操作時間に関する情報として取得する。
 上述したように、本実施形態の場合、画面40内の領域50を囲むような軌跡52を描く操作が「指定操作」に相当する。このため、本実施形態の場合、画面40内の領域50を囲むような軌跡52を描くために要した時間が「操作時間」に相当する。
 例えば図10に示した軌跡データの場合、ユーザの指が位置Pに接触した時点から、ユーザの指が位置P18まで移動した後にタッチパネル17から離れた時点までの時間が「操作時間」に相当する。なお、ユーザの接触位置は所定時間(例えば1/60秒)ごとに取得されるため、軌跡データに含まれる位置P~P18の数(図10の場合には18個)をNとし、かつ、所定時間ΔTとすると、操作時間(t)は下記の式(1)によって取得される。
t=(N-1)*ΔT ・・・ (1)
 移動制御部93について説明する。移動制御部93は、指定操作によって指定された画面40内の領域50に基づいて、仮想カメラ30又は/及びユーザの操作対象オブジェクトを移動させる。「操作対象オブジェクト」は、仮想空間20に配置されるオブジェクトのうちの、ユーザによって操作されるオブジェクトである。本実施形態の場合、ユーザキャラクタ22が「操作対象オブジェクト」に相当する。
 移動制御部93は、ユーザキャラクタ22(操作対象オブジェクト)又は/及び仮想カメラ30を、指定操作によって指定された画面40内の領域50に表示される仮想空間20内の領域(注目領域)に近づけるように移動させる。
 図9に示すように、移動制御部93は移動目標位置決定部94及び移動態様決定部95を含む。
 移動目標位置決定部94は、ユーザキャラクタ22又は/及び仮想カメラ30を注目領域に近づける場合のユーザキャラクタ22又は/及び仮想カメラ30の移動目標位置を決定する。移動目標位置決定部94は、上記の移動目標位置を、指定操作によって指定された画面40内の領域50の仮想空間20における位置と、領域50の大きさと、に基づいて決定する。ここで、「領域50の大きさ」とは、例えば、領域50の、画面40内(スクリーン座標系)における大きさであってもよいし、領域50の、仮想空間20内(ワールド座標系)における大きさであってもよい。なお、「領域50の、仮想空間20内における大きさ」とは、領域50に対応する仮想空間20内の領域(すなわち注目領域)の大きさである。
 例えば、移動目標位置決定部94は、ユーザキャラクタ22から見える仮想空間20の領域(すなわち、ユーザキャラクタ22の視界)が注目領域に対応することになるような位置(言い換えれば、ユーザキャラクタ22から見える仮想空間20の領域が注目領域に略一致することになるような位置)を、ユーザキャラクタ22の移動目標位置として決定する。また例えば、移動目標位置決定部94は、仮想カメラ30から見える仮想空間20の領域(すなわち、仮想カメラ30の視界)が注目領域に対応することになるような位置(言い換えれば、仮想カメラ30から見える仮想空間20の領域が注目領域に略一致することになるような位置)を、仮想カメラ30の移動目標位置として決定する。移動目標位置決定部94の動作の詳細については後述する(後述の図11のステップS106参照)。
 移動態様決定部95は、ユーザキャラクタ22又は/及び仮想カメラ30が移動目標位置に向けて移動する場合の移動態様を、指定操作に要した時間(操作時間)に基づいて決定する。例えば、「ユーザキャラクタ22又は/及び仮想カメラ30が移動目標位置に向けて移動する場合の移動態様」とは、ユーザキャラクタ22又は/及び仮想カメラ30が移動目標位置に向けて移動する場合の移動速度である。また、例えば、ユーザキャラクタ22が複数の移動手段(例えば乗物)のうちから選択される移動手段によって移動するような場合であれば、「ユーザキャラクタ22が移動目標位置に向けて移動する場合の移動態様」とは、ユーザキャラクタ22が移動目標位置に向けて移動する場合に用いる移動手段である。
 移動態様決定部95を実現するために、例えば、指定操作を行うために要した時間(操作時間)に関する条件と、移動態様と、の対応関係を示す対応関係情報がデータ記憶部90に記憶される。より具体的には、例えば図8に示したような対応関係情報がデータ記憶部90に記憶される。図8に示した対応関係情報は、軌跡52を描く操作の操作速度(vo)と、移動速度(vm)と、の対応関係を示す情報の一例である。なお、図8に示した対応関係情報は上記の対応関係を示すテーブル形式の情報であるが、対応関係情報は、操作速度(vo)に基づいて移動速度(vm)を算出するための数式形式の情報であってもよい。
 上述したように、本実施形態の場合、画面40内の領域50を囲むような軌跡52を描く操作が「指定操作」に相当する。このため、軌跡52を描くために要した時間が「操作時間」に相当する。また、軌跡52を描く操作の操作速度は、軌跡52を描く操作の操作時間に基づいて算出される。つまり、軌跡52を描く操作の操作速度は、軌跡52の長さを、軌跡52を描くために要した時間(操作時間)で除することによって算出される。このため、図8に示した対応関係情報において、操作速度の範囲は、軌跡52を描く操作の操作時間に関する条件に相当し、その結果、「指定操作を行うために要した時間(操作時間)に関する条件」に相当する。
 移動態様決定部95は、ユーザキャラクタ22又は/及び仮想カメラ30を移動目標位置に向けて移動させる場合の移動速度を、上記のような対応関係情報に基づいて決定する。すなわち、移動態様決定部95は、指定操作を行うために要した時間(操作時間)によって満足される条件に対応づけられた移動速度を選択する。例えば、図8に示した対応関係情報が記憶されている場合、移動態様決定部95は、軌跡52を描く操作の操作速度が属する範囲に対応づけられた移動速度を選択する。
 移動制御部93は、移動態様決定部95によって決定された移動態様でユーザキャラクタ22又は/及び仮想カメラ30を移動目標位置に向けて移動させる。
 次に、ゲーム装置10で実行される処理について説明する。図11は、ゲーム装置10で実行される処理のうち、本発明に関連する処理の一例を示すフロー図である。例えば、図11に示す処理は所定時間(例えば1/60秒)ごとに繰り返し実行される処理である。制御部11が記憶部12に記憶されるプログラムに従って、図11に示す処理を実行することによって、制御部11が操作受付部91、操作時間情報取得部92、及び移動制御部93として機能するようになる。
 図11に示すように、制御部11(操作受付部91)は、軌跡52の入力が完了されたか否かを判定する(S101)。軌跡52の入力が完了されていないと判定された場合、制御部11は本処理を終了する。一方、軌跡52の入力が完了されたと判定された場合、制御部11は変数iの値をNに初期化する(S102)。なお、ここでは、位置P~Pが、ユーザによって入力された軌跡52を示す軌跡データに含まれている場合を想定している。すなわち、「N」は軌跡データに含まれる位置の総数を示している。言い換えれば、「N」は、軌跡52が入力される間にタッチパネル17によって検出された位置の総数を示している。例えば図10に示す軌跡データの場合、「N」の値は18である。
 ステップS102の処理が実行された後、制御部11は軌跡データを参照し、位置Pから位置Pまでの軌跡52が囲み条件を満足するか否かを判定する(S103)。「囲み条件」とは、画面40内の領域50が軌跡52によって囲まれたと判断されるような条件である。本実施形態では、下記の2種類の条件A,Bの各々が囲み条件として設定されている。図12、図13、及び図14は囲み条件について説明するための図である。
[条件A]位置Pi-1から位置Pへの直線が、位置Pi-j-1から位置Pi-j(2≦j≦i-2)への直線と交わる。
[条件B]位置Pと位置Pとの間の直線距離dが基準距離Dr以下であって、かつ、位置P~Pi-1のうちに、位置Pからの直線距離が基準距離Dr以上となる位置が存在する。
 まず、条件Aについて説明する。ここでは、例えば、位置Pから位置Pまでの軌跡52が、図12に示す位置Pから位置P12までの軌跡52である場合を想定する。この場合、位置P11から位置P12への直線が、位置Pから位置Pへの直線と交わるため、図12に示す位置Pから位置P12までの軌跡52は条件Aを満足する。
 次に、条件Bについて説明する。ここでは、例えば、位置Pから位置Pまでの軌跡52が、図13に示す位置Pから位置P12までの軌跡52である場合を想定する。
 本実施形態の場合、条件Bが満足されるか否かを判断するのにあたって、まず、基準距離Drが設定される。例えば、基準距離Drは、位置P~P12のXs軸座標値のうちの最大値及び最小値の差と、位置P~P12のYs軸座標値のうちの最大値及び最小値の差との少なくとも一方に基づいて設定される。
 具体的には、例えば図13に示すような、位置Pから位置P12までの軌跡52を含むような矩形130の大きさに基づいて、基準距離Drが設定される。なお、矩形130の横辺132Aは、Y軸座標値が最小である位置Pを通り、かつ、Xs軸方向に平行な辺であり、横辺132Bは、Y軸座標値が最大である位置Pを通り、かつ、X軸方向に平行な辺である。また、矩形130の縦辺134Aは、X軸座標値が最小である位置Pを通り、かつ、Ys軸方向に平行な辺であり、縦辺134Bは、X軸座標値が最大である位置P10を通り、かつ、Ys軸方向に平行な辺である。
 矩形130の横辺132A,132Bの長さをSxとし、縦辺134A,134Bの長さをSyとすると、下記の式(2)に従って基準距離Drが決定される。
Dr=((Sx/2)+(Sy/2)1/2 ・・・ (2)
 上記の式(2)に従って基準距離Drが決定される場合、例えば図14に示すように、斜辺142C以外の2辺142A,142Bの長さがそれぞれSx/2、Sy/2である直角三角形140の斜辺142Cの長さが、基準距離Drとして設定されることになる。なお、基準距離Drを算出するための式は上記の式(2)に限られず、他の式によって算出されるようにしてもよい。また、基準距離Drは予め定められていてもよい。
 図13に示す例の場合、位置Pと位置P12との間の直線距離dは基準距離Dr以下であり、かつ、位置P~P11のうちに、位置Pからの直線距離が基準距離Dr以上である位置(例えば位置P)が存在するため、図13に示す位置Pから位置P12までの軌跡52は条件Bを満足する。
 ステップS103において、位置Pから位置Pまでの軌跡52が上記の条件A,Bのいずれも満足しないと判定された場合、すなわち、位置Pから位置Pまでの軌跡52が囲み条件を満足しないと判定された場合、制御部11は変数iの値から1を減少させる(S104)。そして、制御部11は位置Pが始点であるか否かを判定する(S105)。
 位置Pが始点であると判定された場合とは、ユーザによって入力された軌跡52が画面40内の領域50を囲むような軌跡ではなかった場合である。この場合、制御部11は本処理を終了する。一方、位置Pが始点でないと判定された場合、制御部11はステップS103の処理を実行する。
 ステップS103において、位置Pから位置Pまでの軌跡52が囲み条件を満足すると判定された場合、すなわち、位置Pから位置Pまでの軌跡52が上記の条件A,Bの少なくとも一方を満足すると判定された場合、制御部11(移動目標位置決定部94)は、ユーザキャラクタ22(仮想カメラ30)の移動目標位置を決定する(S106)。制御部11は、位置Pから位置Pまでの軌跡52によって囲まれる画面40の領域50の位置及び大きさに基づいて所定の処理を実行することによって、ユーザキャラクタ22(仮想カメラ30)の移動目標位置を決定する。
 図15及び図16は、ユーザキャラクタ22(仮想カメラ30)の移動目標位置の決定方法の一例について説明するための図である。以下では、例えば、位置Pから位置Pまでの軌跡52が、図15に示す位置Pから位置P12までの軌跡52である場合を想定する。
 なお、図15において、矩形130は図13の矩形130と同様にして得られる矩形である。また、位置Q(i=2,4,5,7~9,11,12)は、位置Pから矩形130の縦辺134A,134B又は横辺132A,132Bへの垂線の足を示す。例えば、位置Qは、位置Pから矩形130の横辺132Aへの垂線の足である。また、R,R,R,Rは矩形130の頂点を示す。
 ステップS106において、まず、制御部11は、位置Pから位置P12までの軌跡52によって囲まれる領域50の位置及び大きさに関する情報を取得する。
 位置Pから位置P12までの軌跡52によって囲まれる領域50の位置に関する情報の取得方法について説明する。例えば、制御部11は、位置Pから位置P12までの軌跡52によって囲まれる領域50の位置に関する情報として、軌跡52によって囲まれる領域50内の代表位置を取得する。例えば図15に示すように、制御部11は、軌跡52を含む矩形130の中心点Cを上記の代表位置として取得する。
 なお、制御部11は、軌跡52によって囲まれる領域50に含まれているオブジェクトのいずれかの位置を上記の代表位置として取得するようにしてもよい。例えば、制御部11は、軌跡52によって囲まれる領域50に含まれているオブジェクトのうちで、ユーザキャラクタ22(又は仮想カメラ30)に最も近いオブジェクトの位置を上記の代表位置として取得するようにしてもよい。例えば、軌跡52によって囲まれる領域50内に敵キャラクタ23及び味方キャラクタ24が含まれており、かつ、味方キャラクタ24が敵キャラクタ23よりもユーザキャラクタ22(又は仮想カメラ30)に近い場合には、制御部11は味方キャラクタ24の位置を上記の代表位置として取得するようにしてもよい。
 次に、位置Pから位置P12までの軌跡52によって囲まれる領域50の大きさに関する情報の取得方法について説明する。ここでは、軌跡52によって囲まれる領域50の大きさに関する情報として、領域50の、画面40内(スクリーン座標系)における大きさに関する情報を取得する場合について説明する。
 例えば、制御部11は、位置Pから位置P12までの軌跡52によって囲まれる領域50の大きさに関する情報として、軌跡52によって囲まれる領域50の面積を取得する。例えば、制御部11は、軌跡52によって囲まれる領域50以外の領域の面積を矩形130の面積から引くことによって、軌跡52によって囲まれる領域50の面積を取得する。なお、図15に示す例の場合、軌跡52によって囲まれる領域50以外の領域の面積は、下記の三角形及び四角形の面積を足すことによって取得される。
・三角形P,P1212,P,P
・四角形P,P,P,P,P,P10,P101111,P11121211
 なお、軌跡52によって囲まれる領域50の大きさに関する情報として、領域50の、画面40内(スクリーン座標系)における大きさに関する情報を取得する代わりに、領域50の、仮想空間20内(ワールド座標系)における大きさに関する情報を取得するようにしてもよい。例えば、制御部11は、軌跡52によって囲まれる領域50に対応する仮想空間20内の領域(すなわち注目領域)を特定し、該領域(注目領域)の大きさに関する情報を取得するようにしてもよい。
 位置Pから位置P12までの軌跡52によって囲まれる領域50の位置及び大きさに関する情報が取得された後、制御部11はそれらの情報に基づいてユーザキャラクタ22(仮想カメラ30)の移動目標位置を決定する。図16を参照しながら、ユーザキャラクタ22(仮想カメラ30)の移動目標位置の決定方法の一例について説明する。
 まず、制御部11は、軌跡52によって囲まれる領域50の代表位置(例えば図15の矩形130の中心点C)に対応する仮想空間20内の位置を取得する。例えば、制御部11は、スクリーン座標系の座標値をワールド座標系の座標値に変換するための行列演算に基づいて、上記の代表位置のスクリーン座標値をワールド座標系の座標値に変換することによって、上記の代表位置に対応する仮想空間20内の位置を取得する。図16における符号「160」は、上記の代表位置に対応する仮想空間20内の位置を示す。
 次に、制御部11は、上記のようにして取得された位置160から、仮想カメラ30の視線方向32と平行な直線162上を、仮想カメラ30の視線方向32とは逆方向に移動した位置164を、ユーザキャラクタ22(仮想カメラ30)の移動目標位置として取得する。この場合、制御部11は、位置160と位置164との間の距離(k)を、軌跡52によって囲まれる領域50の面積に基づいて決定する。
 軌跡52によって囲まれる領域50の面積に基づいて上記の距離(k)を決定するためには、領域50の面積と距離(k)との対応関係を示す対応関係情報が必要となる。
 図17は上記の対応関係情報の一例を示す。図17において、「A1」,「A2」、及び「A3」は所定の面積を示し、これらは「A1<A2<A3」の関係を有する。また、「K1」、「K2」、及び「K3」は所定の距離を示し、これらは「K1<K2<K3」の関係を有する。図17に示す対応関係情報では、軌跡52によって囲まれる領域50の面積(a)が大きいほど、距離(k)が大きくなるようになっている。図17に示す対応関係情報は、ユーザキャラクタ22(仮想カメラ30)の視界が、軌跡52によって囲まれる領域50に表示される仮想空間20内の領域(注目領域)と対応(略一致)することとなるように設定される。
 例えば、図17に示したような対応関係情報が記憶されている場合、制御部11は、軌跡52によって囲まれる領域50の面積(a)が属する範囲に対応づけられた距離(k)を選択する。なお、図17に示す対応関係情報は上記の対応関係を示すテーブル形式の情報であるが、対応関係情報は、面積(a)に基づいて距離(k)を算出するための数式形式の情報であってもよい。
 ステップS106の処理が実行された後、図11に示すように、制御部11(操作時間情報取得部92)は、軌跡52を描く操作を行うのに要した時間(操作時間)を取得する(S107)。すなわち、制御部11は、位置Pから位置Pまでの軌跡52を描くために要した時間(操作時間)を算出する。この操作時間(t)は上記の式(1)によって算出される。ただし、この場合、変数iの値が上記の式(1)における「N」の値に相当する。
 また、制御部11は、軌跡52を描く操作の操作速度を算出する(S108)。すなわち、制御部11は、位置Pから位置Pまでの軌跡52が描かれた際の操作速度を算出する。
 例えば、制御部11は位置Pから位置Pまでの軌跡52の長さを取得する。軌跡52の長さ(L)は下記の式(3)に従って算出される。なお、下記の式(3)において、「Di-1」は位置Pi-1と位置Pとの間の直線距離を示している。例えば、「D」は位置Pと位置Pとの間の距離を示している。
L=D+D+・・・+Di-1 ・・・ (3)
 そして、制御部11は、位置Pから位置Pまでの軌跡52の長さ(L)と、位置Pから位置Pまでの軌跡を描くために要した時間(操作時間:t)に基づいて、位置Pから位置Pまでの軌跡52が描かれた際の操作速度を算出する。すなわち、制御部11は軌跡の長さ(L)を操作時間(t)で除することによって操作速度を算出する。
 なお、ステップS107,S108において、制御部11は、位置P(始点)から位置P(終点)までの軌跡52が描かれた際の操作時間及び操作速度を算出するようにしてもよい。
 ステップS108の処理が実行された後、制御部11(移動態様決定部95)はユーザキャラクタ22(仮想カメラ30)の移動速度を決定する(S109)。例えば、制御部11は、ステップS109で決定された操作速度と、図8に示した対応関係情報と、に基づいて移動速度を決定する。すなわち、制御部11は、ステップS108で算出された操作速度に対応する移動速度を取得する。
 ステップS109の処理が完了した後、制御部11(移動制御部93)は、ステップS106で決定された移動目標位置への移動をユーザキャラクタ22(仮想カメラ30)に開始させる(S110)。この場合、制御部11は、ユーザキャラクタ22及び仮想カメラ30を移動目標位置まで移動させる(図18参照)。また、この場合、制御部11は、ステップS109で決定された移動速度でユーザキャラクタ22(仮想カメラ30)を移動させる。以上で図11に示す処理は終了する。
 以上に説明したゲーム装置10によれば、ユーザキャラクタ22及び仮想カメラ30の移動目標位置と、ユーザキャラクタ22及び仮想カメラ30が移動目標位置に向かって移動する場合の移動態様(移動速度)と、の両方を指定することを、画面40内の領域50を囲むような軌跡52を描くという一つの直感的な操作で行うことが可能になる。すなわち、ゲーム装置10によれば、ユーザキャラクタ22及び仮想カメラ30の移動目標位置と、ユーザキャラクタ22及び仮想カメラ30が移動目標位置に向かって移動する場合の移動態様(移動速度)と、の両方を指定することを一つの直感的な操作によって行えるようなユーザインタフェースを実現することが可能になる。
 なお、本発明は以上に説明した実施形態に限定されるものではない。
 (1)図8に示した対応関係情報の代わりに、例えば図19に示すような対応関係情報が記憶されるようにしてもよい。図19に示す対応関係情報は、指定操作(軌跡52を描く操作)のために要した操作時間(t)と、移動速度(vm)と、の対応関係を示す情報であり、操作時間(t)から移動速度(vm)を直接求めるための情報である。なお、図19において、「T1」、「T2」、及び「T3」は所定の時間を示し、これらは「T1<T2<T3」の関係を有する。「Va」、「Vb」、「Vc」、及び「Vd」は図8と同様である。図19に示す対応関係情報では、操作時間(t)が短いほど、移動速度(vm)が速くなるようになっている。
 なお、図19に示す対応関係情報が記憶される場合、図11のステップS108の処理は不要になる。また、図19に示す対応関係情報はテーブル形式の情報であるが、対応関係情報は、操作時間(t)に基づいて移動速度(vm)を算出するための数式形式の情報であってもよい。
 (2)制御部11は、指定操作によって指定された画面40内の領域50を示す画像(以下「領域画像」と記載する。)を画面40に表示するようにしてもよい。また、指定操作によって指定された画面40内の領域50に敵キャラクタ23が含まれる場合、制御部11は、ユーザキャラクタ22のパラメータと敵キャラクタ23のパラメータとの比較結果に基づいて、領域画像の表示態様を変更するようにしてもよい。
 本実施形態の場合、例えば、軌跡52を示す画像が「領域画像」に相当する。例えば、「領域画像の表示態様を変更する」とは、領域画像の色等を変更することを含む。また例えば、領域画像が、指定操作によって指定された領域50の境界線を示す線である場合、「領域画像の表示態様を変更する」とは、線の太さや種類等を変更することを含む。
 また例えば、「ユーザキャラクタ22のパラメータと敵キャラクタ23のパラメータとの比較結果」とは、「ユーザキャラクタ22のパラメータと敵キャラクタ23のパラメータとの間の差(大小)である。より具体的には、上記の「比較結果」とは、ユーザキャラクタ22のヒットポイントパラメータと敵キャラクタ23のヒットポイントパラメータとの間の差(大小)である。または、上記の「比較結果」とは、ユーザキャラクタ22の強さパラメータと敵キャラクタ23の強さパラメータとの間の差(大小)である。
 なお、軌跡52によって囲まれる領域50に複数の敵キャラクタ23が含まれている場合、それら複数の敵キャラクタ23のパラメータの統計値(例えば平均値又は最大値等)を上記の「敵キャラクタ23のパラメータ」として用いるようにすればよい。または、それら複数の敵キャラクタ23のうちのいずれかの敵キャラクタ23のパラメータを上記の「敵キャラクタ23のパラメータ」として用いるようにしてもよい。
 ユーザキャラクタ22のパラメータと敵キャラクタ23のパラメータとの比較結果に基づいて、領域画像の表示態様を変更するためには、上記の比較結果と、領域画像の表示態様と、の対応関係を示す対応関係情報が必要となる。図20はこの対応関係情報の一例を示す。
 図20に示す対応関係情報では、ユーザキャラクタ22のパラメータと敵キャラクタ23のパラメータとの間の差(Δp)と、領域画像の表示態様を示す表示態様情報と、の対応関係が定められている。なお、図20において、「Δp」の値が正の値である場合とは、ユーザキャラクタ22のパラメータが敵キャラクタ23のパラメータよりも大きい場合を示し、「Δp」の値が負の値である場合とは、ユーザキャラクタ22のパラメータが敵キャラクタ23のパラメータよりも小さい場合を示している。
 制御部11は図20に示す対応関係情報を参照し、ユーザキャラクタ22のパラメータと敵キャラクタ23のパラメータとの比較結果(Δp)に対応する表示態様情報を取得する。そして、制御部11は領域画像の表示態様を該表示態様情報が示す表示態様に設定する。
 以上のようにすれば、ユーザキャラクタ22のパラメータと、指定操作(軌跡52を描く操作)によって指定された領域50内に含まれている敵キャラクタ23のパラメータと、の比較結果をユーザが領域画像(軌跡52)の表示態様から把握できる。したがって、敵キャラクタ23と戦う前に、その敵キャラクタ23がユーザキャラクタ22よりも強いか弱いかを一目で把握することが可能になる。
 (3)指定操作は軌跡52を描く操作に限られず、別の操作であってもよい。例えば図21に示すように、タッチパネル17上の二つの位置210,212を指示するような操作であってもよい。この場合、二つの位置210,212を結ぶ直線を対角線とするような矩形領域214が「指定操作によって指定された画面40内の領域」に相当する。また、この場合、二つの位置210,212を指示するために要した時間が「指定操作に要した時間(操作時間)」に相当する。例えば、先に位置210が指示された後に位置212が指示された場合、位置210が指示されてから位置212が指示されるまでの時間が「指定操作に要した時間(操作時間)」に相当する。
 (4)ユーザキャラクタ22を仮想空間20に配置しないようにしてもよい。この場合、仮想カメラ30のみがユーザの操作に従って移動するようにすればよい。
 (5)ユーザキャラクタ22と仮想カメラ30との相対的位置関係は変化するようにしてもよい。例えば、仮想カメラ30は、ユーザキャラクタ22と他のオブジェクト(例えば敵キャラクタ23)との位置関係に合わせて最適な位置に自動的に設定されるようにしてもよい。このような場合、ユーザキャラクタ22のみがユーザの操作に従って移動するようにすればよい。
 (6)ゲーム装置10は、タッチパネル17以外のポインティングデバイスを備えるようにしてもよい。例えば、ゲーム装置10はマウスを備えるようにしてもよい。また、ゲーム装置10は、任天堂社製のWii(登録商標)のリモコンコントローラのようなポインティングデバイスを備えるようにしてもよい。あるいは、ゲーム装置10は、マイクロソフト社製のKINECT(登録商標)コントローラのようなポインティングデバイスを備えるようにしてもよい。なお、この場合、ユーザの所定部位(例えば右手)の位置が、ユーザが指示している位置として扱われるようにすればよい。
 (7)ゲーム装置10で実行されるゲームは以上に説明したゲームに限られない。本発明は、ユーザによって操作されるオブジェクト又は/及び仮想カメラ30がユーザの操作に従って移動するようなゲームに適用することができる。また、本発明は、ゲーム装置10以外の画像処理装置にも適用することも可能である。本発明は、ユーザによって操作されるオブジェクト又は/及び仮想カメラ30がユーザの操作に従って移動するような画面を表示手段に表示する画像処理装置に適用することが可能である。

Claims (7)

  1.  オブジェクトが配置された仮想空間を仮想カメラから見た様子を表す画面を表示手段に表示する画像処理装置において、
     前記画面内の一部領域を指定するための指定操作を受け付ける操作受付手段と、
     前記指定操作に要した時間に関する情報を取得する操作時間情報取得手段と、
     前記仮想カメラ又は/及び操作対象オブジェクトを、前記一部領域に表示された前記仮想空間内の注目領域に近づけるように移動させる移動制御手段と、
     を含み、
     前記移動制御手段は、
     前記注目領域に前記仮想カメラ又は/及び前記操作対象オブジェクトを近づける場合の前記仮想カメラ又は/及び前記操作対象オブジェクトの移動目標位置を、前記指定された一部領域の前記仮想空間内における位置と、前記指定された一部領域の大きさと、に基づいて決定する移動目標位置決定手段と、
     前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる場合の移動態様を、前記指定操作に要した前記時間に基づいて決定する移動態様決定手段と、
     前記移動態様決定手段によって決定された移動態様で、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる手段と、を含む、
     ことを特徴とする画像処理装置。
  2.  請求項1に記載の画像処理装置において、
     前記移動態様決定手段は、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる場合の移動速度を、前記指定操作に要した前記時間に基づいて決定することを特徴とする画像処理装置。
  3.  請求項1に記載の画像処理装置において、
     前記移動態様決定手段は、前記指定操作に要した前記時間に基づいて、前記指定操作の操作速度を取得する手段を含み、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる場合の移動態様を、前記指定操作の操作速度に基づいて決定することを特徴とする画像処理装置。
  4.  請求項1に画像処理装置において、
     前記一部領域を示す画像を前記画面に表示する手段と、
     前記操作対象オブジェクトのパラメータと、前記一部領域内に含まれるオブジェクトのパラメータと、の比較結果に基づいて、前記一部領域を示す前記画像の表示態様を変更する手段と、を含む、
     ことを特徴とする画像処理装置。
  5.  オブジェクトが配置された仮想空間を仮想カメラから見た様子を表す画面を表示手段に表示する画像処理装置の制御方法において、
     前記画面内の一部領域を指定するための指定操作を受け付ける操作受付ステップと、
     前記指定操作に要した時間に関する情報を取得する操作時間情報取得ステップと、
     前記仮想カメラ又は/及び操作対象オブジェクトを、前記一部領域に表示された前記仮想空間内の注目領域に近づけるように移動させる移動制御ステップと、
     を含み、
     前記移動制御ステップは、
     前記注目領域に前記仮想カメラ又は/及び前記操作対象オブジェクトを近づける場合の前記仮想カメラ又は/及び前記操作対象オブジェクトの移動目標位置を、前記指定された一部領域の前記仮想空間内における位置と、前記指定された一部領域の大きさと、に基づいて決定する移動目標位置決定ステップと、
     前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる場合の移動態様を、前記指定操作に要した前記時間に基づいて決定する移動態様決定ステップと、
     前記移動態様決定ステップにおいて決定された移動態様で、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させるステップと、を含む、
     ことを特徴とする画像処理装置の制御方法。
  6.  オブジェクトが配置された仮想空間を仮想カメラから見た様子を表す画面を表示手段に表示する画像処理装置としてコンピュータを機能させるためのプログラムであって、
     前記画面内の一部領域を指定するための指定操作を受け付ける操作受付手段、
     前記指定操作に要した時間に関する情報を取得する操作時間情報取得手段、及び、
     前記仮想カメラ又は/及び操作対象オブジェクトを、前記一部領域に表示された前記仮想空間内の注目領域に近づけるように移動させる移動制御手段、
     として前記コンピュータを機能させ、
     前記移動制御手段は、
     前記注目領域に前記仮想カメラ又は/及び前記操作対象オブジェクトを近づける場合の前記仮想カメラ又は/及び前記操作対象オブジェクトの移動目標位置を、前記指定された一部領域の前記仮想空間内における位置と、前記指定された一部領域の大きさと、に基づいて決定する移動目標位置決定手段と、
     前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる場合の移動態様を、前記指定操作に要した前記時間に基づいて決定する移動態様決定手段と、
     前記移動態様決定手段によって決定された移動態様で、前記仮想カメラ又は/及び前記操作対象オブジェクトを前記移動目標位置に向けて移動させる手段と、を含む、
     ことを特徴とするプログラム。
  7.  請求項6に記載のプログラムを記録したコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2012/070839 2011-10-26 2012-08-16 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体 WO2013061672A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/354,136 US20140306886A1 (en) 2011-10-26 2012-08-16 Image processing device, method for controlling image processing device, program, and information recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-235507 2011-10-26
JP2011235507A JP5160680B1 (ja) 2011-10-26 2011-10-26 画像処理装置、画像処理装置の制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2013061672A1 true WO2013061672A1 (ja) 2013-05-02

Family

ID=48013580

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/070839 WO2013061672A1 (ja) 2011-10-26 2012-08-16 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体

Country Status (3)

Country Link
US (1) US20140306886A1 (ja)
JP (1) JP5160680B1 (ja)
WO (1) WO2013061672A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123074A (ja) * 2016-01-07 2017-07-13 株式会社ミクシィ 情報処理装置、情報処理装置の制御方法及び制御プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10049493B1 (en) * 2015-10-22 2018-08-14 Hoyt Architecture Lab, Inc System and methods for providing interaction with elements in a virtual architectural visualization
US10198855B2 (en) * 2016-07-20 2019-02-05 Colopl, Inc. Method of providing virtual space, method of providing virtual experience, system and medium for implementing the methods
US20180129274A1 (en) * 2016-10-18 2018-05-10 Colopl, Inc. Information processing method and apparatus, and program for executing the information processing method on computer
KR102601052B1 (ko) 2017-02-23 2023-11-09 매직 립, 인코포레이티드 가변 파워 반사기를 갖는 디스플레이 시스템
JP7140487B2 (ja) * 2017-10-25 2022-09-21 キヤノン株式会社 情報処理装置、表示制御方法、及び、プログラム
CN108970115A (zh) * 2018-07-13 2018-12-11 腾讯科技(深圳)有限公司 对战游戏中的信息显示方法、装置、设备及存储介质
CN111672104B (zh) * 2020-06-05 2022-05-10 腾讯科技(深圳)有限公司 虚拟场景的显示方法、装置、终端及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006311966A (ja) * 2005-05-09 2006-11-16 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
JP2008005961A (ja) * 2006-06-28 2008-01-17 Namco Bandai Games Inc 画像生成システム、プログラム及び情報記憶媒体
JP2011000167A (ja) * 2009-06-16 2011-01-06 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3734815B2 (ja) * 2003-12-10 2006-01-11 任天堂株式会社 携帯ゲーム装置及びゲームプログラム
JP4297804B2 (ja) * 2004-02-19 2009-07-15 任天堂株式会社 ゲーム装置及びゲームプログラム
JP4515221B2 (ja) * 2004-10-29 2010-07-28 任天堂株式会社 ゲームプログラム
JP2006146556A (ja) * 2004-11-19 2006-06-08 Nintendo Co Ltd 画像表示処理プログラムおよび画像表示処理装置
JP4244040B2 (ja) * 2005-03-10 2009-03-25 任天堂株式会社 入力処理プログラムおよび入力処理装置
JP4326502B2 (ja) * 2005-05-26 2009-09-09 任天堂株式会社 表示領域を移動させる画像処理プログラムおよび画像処理装置
KR101430445B1 (ko) * 2007-08-20 2014-08-14 엘지전자 주식회사 화면 크기 조절 기능을 갖는 단말기 및 이러한 기능을구현하는 프로그램을 기록한 매체
TWI374658B (en) * 2007-09-29 2012-10-11 Htc Corp Image process method
US20090300554A1 (en) * 2008-06-03 2009-12-03 Nokia Corporation Gesture Recognition for Display Zoom Feature
US8847992B2 (en) * 2008-08-22 2014-09-30 Google Inc. Navigation in a three dimensional environment using an orientation of a mobile device
US8174504B2 (en) * 2008-10-21 2012-05-08 Synaptics Incorporated Input device and method for adjusting a parameter of an electronic system
US8631354B2 (en) * 2009-03-06 2014-01-14 Microsoft Corporation Focal-control user interface
JP5326802B2 (ja) * 2009-05-19 2013-10-30 ソニー株式会社 情報処理装置、画像拡大縮小方法及びそのプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006311966A (ja) * 2005-05-09 2006-11-16 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
JP2008005961A (ja) * 2006-06-28 2008-01-17 Namco Bandai Games Inc 画像生成システム、プログラム及び情報記憶媒体
JP2011000167A (ja) * 2009-06-16 2011-01-06 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123074A (ja) * 2016-01-07 2017-07-13 株式会社ミクシィ 情報処理装置、情報処理装置の制御方法及び制御プログラム

Also Published As

Publication number Publication date
US20140306886A1 (en) 2014-10-16
JP5160680B1 (ja) 2013-03-13
JP2013090853A (ja) 2013-05-16

Similar Documents

Publication Publication Date Title
JP5160680B1 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
EP2466445B1 (en) Input direction determination terminal, method and computer program product
US7762893B2 (en) Storage medium having game program stored thereon and game apparatus
US7922588B2 (en) Storage medium having game program stored thereon and game apparatus
US9652063B2 (en) Input direction determination system, terminal, server, network system, information storage medium, and input direction determination method
US9001062B2 (en) Method for controlling computer that is held and operated by user using a re-touch determination area
EP1927384A1 (en) Method of determining operation input using game controller including acceleration detector, and method of calculating moving path of the game controller
JP6185123B1 (ja) プログラム、制御方法、及び情報処理装置
US11266904B2 (en) Game system, game control device, and information storage medium
JP2007130367A (ja) ゲーム装置およびゲームプログラム
JP5994019B2 (ja) ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP5210547B2 (ja) 移動制御プログラムおよび移動制御装置
JP6447853B1 (ja) ゲーム制御装置、ゲームシステム、及びプログラム
JP7436293B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP6534011B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6519075B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
WO2007139074A1 (ja) 三次元ゲームの表示システム、表示方法及び表示プログラム
JP5379275B2 (ja) ゲーム装置およびゲームプログラム
JP5888793B2 (ja) オブジェクト制御プログラム及びオブジェクト制御方法
JP2015153159A (ja) 移動制御装置及びプログラム
US8926427B2 (en) Video game with screen flip and dual sets of collision data
JP4143590B2 (ja) 3次元画像処理装置、ゲーム装置、3次元画像処理プログラムおよびゲームプログラム
CN102498455A (zh) 信息处理装置、信息处理装置的控制方法、程序以及信息存储介质
JP2019080928A (ja) ゲームシステム、ゲーム制御装置、及びプログラム
JP6206781B2 (ja) 移動制御装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12843085

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14354136

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12843085

Country of ref document: EP

Kind code of ref document: A1