WO2020013039A1 - 情報処理装置及びコントローラ装置の制御方法 - Google Patents

情報処理装置及びコントローラ装置の制御方法 Download PDF

Info

Publication number
WO2020013039A1
WO2020013039A1 PCT/JP2019/026348 JP2019026348W WO2020013039A1 WO 2020013039 A1 WO2020013039 A1 WO 2020013039A1 JP 2019026348 W JP2019026348 W JP 2019026348W WO 2020013039 A1 WO2020013039 A1 WO 2020013039A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
information processing
control unit
controller device
inclination
Prior art date
Application number
PCT/JP2019/026348
Other languages
English (en)
French (fr)
Inventor
ニコラ ドゥセ
英行 内田
修幸 斎藤
朋仁 伊藤
エリック ベイリー
真之 山田
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to EP19834006.9A priority Critical patent/EP3822745B1/en
Priority to JP2020530131A priority patent/JP6990769B2/ja
Priority to US17/258,780 priority patent/US11701578B2/en
Publication of WO2020013039A1 publication Critical patent/WO2020013039A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • G05G2009/0474Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks characterised by means converting mechanical movement into electric signals
    • G05G2009/04762Force transducer, e.g. strain gauge
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Definitions

  • the present invention relates to an information processing device and a program.
  • a controller device (a device that includes a joystick or the like and that receives a user's instruction operation and transmits the content of the instruction operation to the information processing device) that is used by being connected to an information processing device such as a home-use game machine has recently become highly popular. It is functionalized so that information of analog values, such as the amount of switch depression and the amount of tilt operation, can be acquired with relatively high accuracy and provided to the information processing apparatus.
  • One embodiment of the present invention that solves the problems of the above conventional example is connected to a controller device having a push button that moves from a first position to a second position when the user pushes with a finger.
  • An information processing apparatus comprising: an acquisition unit configured to acquire an amount of depression of the push button; and the first position and the second position, wherein the amount of depression does not include the first position and the second position.
  • Determining means for determining whether or not the value belongs to a range set by two threshold values set between the two, and processing executing means for executing a predetermined process based on a result of the determination. It was decided.
  • FIG. 1 is a block diagram illustrating a configuration example of an information processing device according to an embodiment of the present invention.
  • FIG. 2 is a schematic plan view illustrating an outline of a controller connected to the information processing apparatus according to the embodiment of the present invention.
  • FIG. 2 is a configuration block diagram illustrating an example of a controller connected to the information processing device according to the embodiment of the present invention.
  • FIG. 4 is an explanatory diagram illustrating an example of control performed by the information processing device according to the embodiment of the present invention.
  • the information processing apparatus 1 includes a control unit 11, a storage unit 12, an interface unit 13, a display control unit 14, a voice control unit 15, And a unit 16.
  • the information processing device 1 is communicably connected to the controller device 2 in a wired or wireless manner.
  • a display device 3 such as a display is connected to the information processing device 1.
  • the display device 3 may include a speaker that outputs sound.
  • the controller device 2 connected to the information processing device 1 can be held by a user with both hands, and includes grip portions 21L and 21R and a main body portion 22.
  • the grippers 21L and 21R (hereinafter, when both are collectively referred to as the grippers 21) are provided on the left and right sides of the housing, respectively.
  • the left hand is used.
  • the joysticks 23L and 23R capable of tilting operation and a plurality of buttons are provided at positions on the main body 22 where the thumbs of the left and right hands of the user respectively reach. 24 are arranged.
  • rocking switches 25L and 25R are arranged on the rear side surface of the main body 22 at positions where the index finger or the middle finger of the left and right hands of the user reaches while holding the grip 21 with each hand. Have been.
  • the left and right configurations of each of the gripping portions 21L and 21R, the joysticks 23L and 23R, and the oscillating switches 25L and 25R for example, the L and R as in the oscillating switch 25. Omitting the characters
  • controller device 2 may further include other switches, buttons, and the like.
  • the size, ratio, arrangement, and the like of the controller device 2 itself, its buttons and the like are merely examples, and the present embodiment is not limited to the illustrated sizes and ratios. It is not limited to the arrangement.
  • a control unit 31 a microphone 32, a speaker 33, a tactile presentation device 34, a switch control unit 35, a communication unit 36, a sensor unit 37 are included.
  • the swing switch 25 is fixed to the housing of the controller device 2 via an axis so as to be rotatable around the axis within a predetermined angle range.
  • this angle range is a first position where the outer surface of the swing switch 25 protrudes most to the outside of the housing, and a second position where the outer surface of the swing switch 25 is pushed inward of the housing. It is assumed that it is a range that swings between the positions.
  • the swing switch 25 of the present embodiment may be, for example, a device capable of presenting a sense of force.
  • a rotary encoder is provided on the shaft of the swing switch 25 as one of the sensors included in the sensor unit 37.
  • the rotary encoder detects information on the swing position (pressed position) of the swing switch 25 and outputs the information to the control unit 31.
  • a brake device is arranged on the shaft of the swing switch 25, and brakes the rotation of the swing switch 25 according to an instruction input from the control unit 31. In the present embodiment, it is assumed that the braking strength can be controlled in accordance with an instruction input from the control unit 31.
  • a device having a widely known configuration as a rocking switch capable of presenting a sense of force can be employed, and a detailed description thereof will be omitted.
  • the example of the present embodiment is an example, and the method of presenting the force sense of the swing switch 25 also uses an actuator or the like that controls movement of the swing switch 25 in a direction to push the swing switch 25 from the inside. Is also good.
  • the swing switch 25 is biased toward the first position by an elastic body or the like. That is, when the swing switch 25 is not operated by the user, it is in a state of being moved to the first position.
  • the control unit 31 of the controller device 2 is a program control device such as a microcomputer, and operates according to a program stored in a memory provided in the control unit 31.
  • the control unit 31 of the present embodiment processes an audio signal input from the microphone 32 and sounds the speaker 33 according to an instruction received from the information processing device 1 or the like.
  • the control unit 31 controls the tactile presentation device 34 according to the instruction received from the information processing device 1 or the like, and presents the tactile sense to the user.
  • the control unit 31 controls the switch control unit 35 to present a reaction force to the push of the swing switch 25. Further, the control unit 31 acquires information representing the content of the user's operation on the joystick 23, the button 24, and the swing switch 25 (for example, the amount of depression of the swing switch 25) from the respective buttons, the sensor unit 37, and the like.
  • the acquired information is transmitted to the information processing device 1 via the communication unit 36. The operation of the control unit 31 will be described later in detail.
  • the microphone 32 generates an audio signal corresponding to the audio around the controller device 2 and outputs the audio signal to the control unit 31.
  • the speaker 33 sounds the sound waveform according to the sound waveform input from the control unit 31.
  • the tactile presentation device 34 is, for example, a voice coil motor (VCM), a vibrator, or the like. In accordance with an instruction input from the control unit 31, the tactile presentation device 34 generates vibration of a specified waveform, and provides a user holding the controller device 2 with vibration or the like. Present a tactile sensation.
  • the tactile presentation devices 34 of the present embodiment may be arranged one by one on the grips 21L and 21R, and individually controlled (shown as tactile presentation devices 34L and 34R in FIG. 2). In this way, different tactile sensations can be presented to each of the left and right hands.
  • the ⁇ ⁇ switch control unit 35 controls the force sense presentation device of the rocking switch 25, and presents a reaction force (a force against the pushing) to the pushing operation of the user.
  • the communication unit 36 is a USB (Universal Serial Bus), a network interface, a Bluetooth (registered trademark) interface, or the like, performs communication with the information processing device 1 by wire or wirelessly, and transmits an instruction to be transmitted by the information processing device 1. And outputs it to the control unit 31.
  • the communication unit 36 sends the instructed information to the information processing device 1 in accordance with the instruction input from the control unit 31.
  • the sensor unit 37 includes at least one sensor.
  • the sensor may include, for example, a rotary encoder attached to the rotation shaft of the swing switch 25 as described above.
  • the sensor unit 37 may include an inclination sensor that detects the inclination of the controller device 2 itself. This tilt sensor is orthogonal to, for example, the left-right direction (X-axis direction) of the controller device 2, the direction from the near side to the far side (Y-axis direction), and the plane stretched by these X-axis and Y-axis.
  • the rotation angles about the X, Y, and Z axes with respect to the direction are detected and output.
  • the control unit 11 of the information processing apparatus 1 is a program control device such as a CPU, and operates according to a program stored in the storage unit 12.
  • the program may be provided by being stored in a non-transitory computer readable and non-transitory recording medium, and may be stored in the storage unit 12.
  • a processing example of the control unit 11 according to the present embodiment will be described later.
  • the storage unit 12 is a disk device, a memory device, or the like, and stores a program executed by the control unit 11.
  • the storage unit 12 also operates as a work memory of the control unit 11.
  • the interface unit 13 is a USB interface or the like, communicates with a device (such as the controller device 2) connected by a USB or the like, and sends out instructions and data input from the control unit 11.
  • the interface unit 13 outputs information received from a communication partner to the control unit 11.
  • the display control unit 14 draws an image in accordance with an instruction input from the control unit 11, outputs the drawn image to the display device 3, and displays the image.
  • the voice control unit 15 generates a voice waveform in accordance with an instruction input from the control unit 11, outputs the generated waveform to a device including a speaker, such as the display device 3, and sounds the voice.
  • the communication unit 16 is a network interface, a Bluetooth (registered trademark) interface, or the like, and performs communication with a device (such as the controller device 2) connected wirelessly, an external server, or the like. Sends the input instructions and data.
  • the communication unit 16 outputs information received from a communication partner to the control unit 11.
  • control unit 11 of the present embodiment executes, for example, a game application program and the like, and operates, for example, as follows.
  • the control unit 11 as a process of an application program, prompts the user at a first position (outside the casing of the controller device 2) of at least one of the swing switches 25L and 25R of the controller device 2.
  • a game application in which a game character climbs a vertical surface while putting a hand on a protrusion serving as a clue is considered.
  • the grasping force of the convex portion is set by the swing switch 25, and the movement of the left and right hands (the operation of extending the other hand to the next convex portion while grasping the convex portion with one hand) is performed.
  • the joystick 23 is tilted.
  • the game character falls because the grasping force of the convex portion is small, and on the other hand, depending on the convex portion, the game character falls. Is too large (the pushing amount is equal to or larger than the threshold value L2), the convex portion itself is damaged, and the convex portion also falls.
  • the threshold values L1 and L2 of the pushing amount are L1 ⁇ L2, and P1 ⁇ L1 with respect to the pushing amount P0 ("0") at the first position. Further, it is assumed that L2 ⁇ Pmax with respect to the pushing amount Pmax at the second position.
  • L2 may be set differently for each convex portion. Further, depending on the convex portion, L2 may not be set (even if it is not damaged even if it is grasped with the maximum grasping force). In this example, the smaller the value of L2-L1, the higher the difficulty of the operation.
  • the operability may be enhanced by presenting a tactile sensation.
  • the control unit 11 instructs the controller device 2 to vibrate the tactile sense presentation device 34 built in the left hand side grip unit 21L. May be output.
  • the control unit 11 instructs the controller device 2 to vibrate the tactile sense presentation device 34 incorporated in the right hand side grip 21R. May be output. This allows the user to know that each hand is gripping within the appropriate range.
  • the control unit 11 when the pushing amount is a positive value ⁇ L, for example, when the pushing amount of the swing switch 25L falls below L1 + ⁇ L (L1 + ⁇ L ⁇ L2), the control unit 11 Alternatively, an instruction may be output to finely vibrate the tactile sensation presentation device 34 incorporated in the left hand side grip 21L (the same may be applied to the right hand side). According to this example, the user can know that the pushing amount is close to the lower limit of the appropriate range.
  • control unit 11 sets the force sense for the pushing amount (the reaction force against the change in the pushing amount of the swing switch 25 (the force against the change in the pushing amount)) relatively at the threshold values L1 and L2 as compared with the surroundings. It may be set to present a large reaction force (FIG. 4).
  • the user pushes the swing switch 25 from the initial position and reaches the threshold value L1 for the first time, the user feels a reaction force, and when the user exceeds the threshold value L1, the user feels that the reaction force has disappeared.
  • the threshold value L1 has been exceeded.
  • the pushing amount is increased as it is, the user will feel the reaction force again when the threshold value L2 is reached, and it is possible to suppress an operation that exceeds the threshold value L2.
  • the warning when the threshold value L2 is exceeded is increased, as shown in FIG. 4, the magnitude of the reaction force presented near the threshold value L2 is presented near the threshold value L1. It may be set to be larger than the magnitude of the reaction force.
  • the pushing amount is reduced (the pushing force of the swing switch 25 is reduced) from the pushing amount larger than the threshold value L1.
  • the control unit 11 sets the reaction force as described above so that the pushing amount becomes the threshold.
  • the control unit 11 checks the time change of the pushing amount, and sets the swing switch 25 to the threshold. When the threshold value L1 is reached from the pushing amount larger than the value L1, control may be performed so as not to present the reaction force regardless of the setting of the reaction force.
  • the difficulty level of the operation is adjusted by dynamically changing the force (the weight of the swing switch 25) required to change the pushing amount of the swing switch 25. It may be good.
  • the control unit 11 causes the user to tilt the controller device 2 as a process of an application program, obtains the tilt by an output of a tilt sensor, and obtains the tilt of the obtained tilt.
  • the inclination of the electric saw arranged in the game space may be changed according to the size, and a process of drawing the image and displaying the image to the user may be performed.
  • control unit 11 may set the rotation amount of the electric saw blade in accordance with the pushing amount of the swing switch 25.
  • the control unit 11 simulates an operation of cutting various objects such as virtual wood and stones arranged in the game space according to these operations.
  • control unit 11 presents the reaction force to the pushing of the swing switch 25 with respect to the rotation amount R (the pushing amount of the swing switch 25) of the electric saw blade in accordance with the type of the object to be cut. To change. Further, the control unit 11 acquires information on the inclination of the controller device 2 from the output of the inclination sensor. Then, the control unit 11 determines whether or not the electric saw blade is in contact with the position to be cut of the virtual object by using the acquired information.
  • the control unit 11 refers to, for example, only the angle ⁇ around the X axis of the controller device 2 among the acquired information on the inclination, and It is determined whether the electric saw blade is in contact with the position of the virtual object to be cut by comparing the position of the object (the position that is not cut when the object is cut halfway).
  • the control unit 11 outputs to the controller device 2 predetermined waveform information as waveform information when the electric saw is spinning, as information on the vibration waveform of the tactile sense presentation device 34 of the controller device 2.
  • the controller device 2 controls the tactile presentation device 34 based on the waveform information, the user knows from the vibration that the electric saw is operating but is not in contact with the object.
  • the control unit 11 further outputs predetermined waveform information as the waveform information of the sound when the electric saw is running idle to the display device 3 to make it sound.
  • the control unit 11 receives information on the inclination of the controller device 2 (output of the inclination sensor) from the controller device 2 and acquires the angle ⁇ about the X axis of the controller device 2 from the information on the inclination.
  • the control unit 11 determines whether or not ⁇ ⁇ ⁇ (whether or not it abuts on the cutting position of the object). If it determines that it does not abut on the cutting position of the object, the control unit 11 responds to the obtained angle ⁇ . Then, the inclination of the image of the electric saw in the displayed image is changed, and the process returns to the process of acquiring the information on the inclination of the controller device 2 and the process is continued.
  • the control unit 11 performs the following processing. That is, the control unit 11 obtains the cutting amount ⁇ , for example, as follows.
  • P [ ⁇ ⁇ (R-R0) ⁇ ( ⁇ - ⁇ )]
  • P [X] is a function that becomes X when X> 0 and becomes 0 when X ⁇ 0.
  • R is the pushing amount of the swing switch 25
  • R0 is the reference pushing amount set by the control unit 11 for each object to be cut
  • is the positive pushing amount set by the control unit 11 for each object to be cut. It is a proportional parameter.
  • the virtual object will not be cut unless the user tilts the controller device 2 in a state where the swing switch 25 is pushed in by a pushing amount exceeding the reference pushing amount.
  • the control unit 11 determines whether or not ⁇ is 0 (whether or not it is not cut), and when ⁇ is 0, displays the inclination of the image of the electric saw in the image to be displayed.
  • the controller 2 is instructed to stop the tactile presentation operation of the tactile presentation device 34 of the controller 2 while maintaining the above, and further stops the output of the sound according to the rotation of the electric saw.
  • the control unit 11 returns to the process of acquiring information on the inclination of the controller device 2 and continues the process.
  • is a positive real number satisfying 0 ⁇ ⁇ 1 and is set in advance by the control unit 11 for each type of virtual object.
  • This ⁇ is one of the attribute information related to the virtual object.
  • the control unit 11 also updates the new cutting position to ⁇ + ⁇ by using the value ⁇ representing the current cutting position ( ⁇ ⁇ ⁇ + ⁇ ).
  • the control unit 11 determines whether or not the updated cutting position ⁇ has become ⁇ > ⁇ E. If it determines that ⁇ > ⁇ E, the control unit 11 displays an image notifying that the cutting has been completed. To end the processing. At this time, the control unit 11 may output, to the controller device 2, predetermined waveform information as the waveform information when the electric saw is spinning as the information on the vibration waveform of the tactile presentation device 34 of the controller device 2. Good. Further, the control unit 11 may output predetermined waveform information as the waveform information of the sound when the electric saw is running idle to the display device 3 to make it sound.
  • the control unit 11 determines in advance as the information on the vibration waveform of the tactile presentation device 34 of the controller device 2 as the waveform information when the electric saw is cut.
  • the obtained waveform information is output to the controller device 2.
  • the controller 2 controls the tactile presentation device 34 based on the waveform information.
  • This waveform information may also be predetermined for each type of virtual object.
  • the control unit 11 also outputs predetermined waveform information as the waveform information of the audio being disconnected to the display device 3 to make it sound.
  • the audio waveform information may also be determined in advance for each type of virtual object.
  • the control unit 11 may cause the rocking switch 25 pressed by the user to present a reaction force corresponding to the amount of depression of the rocking switch 25. While the virtual electric saw is in contact with the cutting position of the object ( ⁇ ⁇ ⁇ and ⁇ ⁇ ⁇ E) by the user's operation, the control unit 11 determines the pushing amount R and the virtual object to be cut. The magnitude of the reaction force is determined by a predetermined method such as ⁇ ⁇ R using a predetermined parameter ⁇ for each object, and the reaction force for pushing the swing switch 25 is presented.
  • the control unit 11 returns to the process of acquiring the information on the inclination of the controller device 2 and continues the process.
  • the control unit 11 By the operation of the control unit 11, while the cutting is being performed, the user senses the reaction force to the pushing of the swing switch 25 and knows that the cutting is being performed by vibration and sound.
  • the controller device 2 When the inclination information (output of the inclination sensor) ⁇ is in the range of ⁇ ⁇ ⁇ and ⁇ ⁇ ⁇ E, a predetermined reaction force is presented (for example, the position R having a smaller pushing amount than the pushing position R).
  • a predetermined reaction force is presented (for example, the position R having a smaller pushing amount than the pushing position R).
  • the swing switch 25 changes the reaction force (hardness to push or force to move in the direction opposite to the pushing direction) presented to the user to change the user's state. Can understand the state of the game.
  • the change in the angle of the electric saw in the image with respect to the change in the inclination of the controller device 2 becomes smaller, so that cutting is more difficult.
  • the user is given a sense of cutting the object.
  • the smaller the object that is difficult to cut the smaller ⁇ and the larger ⁇ .
  • the cutting amount per unit time can be reduced for the same rotation amount (the pushing amount of the swing switch 25), and the user is given a feeling that cutting is more difficult.
  • the reaction force is increased, and the user is given a feeling of cutting an object that is difficult to cut.
  • the weight (reaction force) of the swing switch 25 the tactile sensation, the voice, and the amount of change in the image corresponding to the magnitude of the operation appear in the game space.
  • the texture hardness or the like
  • the weight or the attributes such as the attack power and the defense power of the target object are comprehensively presented to the user.
  • control unit 11 outputs waveform information for controlling the tactile sense presentation device 34, which is output to the controller device 2 in accordance with the inclination information of the controller device 2 obtained from the controller device 2, or as audio.
  • the waveform information may be different.
  • the frequency of the waveform information for controlling the tactile presentation device 34 and the frequency of each waveform information of the audio waveform information May be controlled to be higher.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

情報処理装置が、ユーザが指で押し込むことにより、第1の位置から第2の位置までの間で移動する押し込みボタンを備えたコントローラ装置に接続される。情報処理装置は、上記コントローラ装置の押し込みボタンの押し込み量を取得し、当該押し込み量が、第1の位置と第2の位置とを含まない、第1の位置と第2の位置との間に設定された2つのしきい値により設定される範囲に属するか否かを判断して、当該判断の結果に基づいて、所定の処理を実行する。

Description

情報処理装置及びコントローラ装置の制御方法
 本発明は、情報処理装置及びプログラムに関する。
 近年、家庭用ゲーム機等の情報処理装置に接続されて用いられるコントローラ装置(ジョイスティック等を備え、ユーザの指示操作を受けて、当該指示操作の内容を情報処理装置に伝達する装置)は、高機能化しており、スイッチの押し込み量や傾倒操作量等のアナログ値の情報を比較的高精度に取得し、情報処理装置に提供できるようになっている。
 このような背景の下、こうした高機能なコントローラ装置から受け入れた情報を用いた種々の処理により、コントローラ装置を用いた体験(エクスペリエンス)の品質を向上させることが要望されている。
 上記従来例の問題点を解決する本発明の一態様は、ユーザが指で押し込むことにより、第1の位置から第2の位置までの間で移動する押し込みボタンを備えたコントローラ装置に接続される情報処理装置であって、前記押し込みボタンの押し込み量を取得する取得手段と、前記押し込み量が、前記第1の位置と第2の位置とを含まない、前記第1の位置と第2の位置との間に設定された2つのしきい値により設定される範囲に属するか否かを判断する判断手段と、前記判断の結果に基づいて、所定の処理を実行する処理実行手段と、を含むこととしたものである。
 これにより、コントローラ装置を用いた体験の品質を向上できる。
本発明の実施の形態に係る情報処理装置の構成例を表すブロック図である。 本発明の実施の形態に係る情報処理装置に接続されるコントローラの概要を表す概略平面図である。 本発明の実施の形態に係る情報処理装置に接続されるコントローラの例を表す構成ブロック図である。 本発明の実施の形態に係る情報処理装置が行う制御の例を表す説明図である。
 本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報処理装置1は、図1に例示するように、制御部11と、記憶部12と、インタフェース部13と、表示制御部14と、音声制御部15と、通信部16とを含んで構成されている。またこの情報処理装置1は、コントローラ装置2との間で、有線または無線にて通信可能に接続されている。さらに情報処理装置1には、ディスプレイ等の表示装置3が接続される。またこの表示装置3は音声を出力するスピーカーを備えてもよい。
 本実施の形態の情報処理装置1に接続されるコントローラ装置2は、図2に例示するように、ユーザが両手で把持可能なものであり、把持部21L,21Rと、本体部22とを含む。ここで把持部21L,21R(以下、両者をまとめて指す場合は、把持部21と記す)は、筐体の左右にそれぞれ設けられ、ユーザが通常の状態でコントローラ装置2を操作するときには、左手と右手のそれぞれで把持される。また、ユーザが把持部21をそれぞれの手で把持した状態で、ユーザの左右の手の親指がそれぞれ到達する本体部22上の位置には、傾倒操作可能なジョイスティック23L,23R、並びに複数のボタン24が配されている。
 また、本体部22の奥側の側面にはユーザが把持部21をそれぞれの手で把持した状態で、ユーザの左右の手の人差し指または中指が到達する位置に、揺動スイッチ25L,25Rが配されている。なお、以下の説明で、把持部21L,21R、ジョイスティック23L,23R、揺動スイッチ25L,25Rのそれぞれについて左右の構成を区別する必要がない場合は、例えば揺動スイッチ25のようにL,Rの文字を省いて表記する
 ここで、これらのジョイスティックやボタン、スイッチの構成及び配置は一例であり、このコントローラ装置2には、さらに他のスイッチやボタン等が配されていてもよい。また本実施の形態の以下の説明において、コントローラ装置2自身や、そのボタン等の各部の大きさやその比、配置等は一例であり、本実施の形態の例は、図示等した大きさや比率、配置に限られるものではない。
 さらにこのコントローラ装置2の内部には、図3に例示するように、制御部31と、マイク32と、スピーカー33と、触覚提示デバイス34と、スイッチ制御部35と、通信部36と、センサ部37とが含まれている。
 ここでまず、コントローラ装置2の各部の構成について説明する。本実施の形態において揺動スイッチ25は、コントローラ装置2の筐体に対して、軸を介し、この軸周りに所定の角度範囲内で回動可能に固定される。
 以下の説明では、この角度範囲は、揺動スイッチ25の外側面が、筐体外側に最も突き出た位置である第一の位置と、筐体内方に向かって押し込まれた位置である第二の位置との間で揺動する範囲であるとする。
 さらに本実施の形態の揺動スイッチ25は、例えば力覚を提示可能なデバイスであってもよい。具体的にこの揺動スイッチ25の軸には、センサ部37に含まれるセンサの一つとしてロータリーエンコーダが設けられる。このロータリーエンコーダは、揺動スイッチ25の揺動位置(押し込み位置)の情報を検出して制御部31に出力する。また、この揺動スイッチ25の軸には、ブレーキ装置が配されており、制御部31から入力される指示に従って、揺動スイッチ25の回転を制動する。本実施の形態では、この制動の強さも制御部31から入力される指示に従って制御可能となっているものとする。このようなデバイスとしては、力覚を提示可能な揺動スイッチとして広く知られた構成のものを採用できるので、ここでの詳しい説明を省略する。また、本実施の形態のここでの例は、一例であり、揺動スイッチ25の力覚提示の方式も、揺動スイッチ25を内側から押し出す方向に移動制御するアクチュエータ等を用いるものであってもよい。
 また本実施の形態の以下の例では、揺動スイッチ25は、第一の位置に向かって弾性体等で付勢されているものとする。つまりこの揺動スイッチ25はユーザが操作していない状態では、第一の位置に移動した状態にある。
 コントローラ装置2の制御部31は、マイクロコンピュータ等のプログラム制御デバイスであり、制御部31内に備えるメモリに格納したプログラムに従って動作する。本実施の形態の制御部31は、マイク32から入力される音声信号を処理し、また情報処理装置1等から受信した指示に従ってスピーカー33を鳴動する。
 またこの制御部31は、触覚提示デバイス34を情報処理装置1等から受信した指示に従って制御し、ユーザに触覚を提示する。制御部31は、スイッチ制御部35を制御して、揺動スイッチ25の押し込みに対する反力を提示する。さらに、この制御部31はジョイスティック23やボタン24、揺動スイッチ25に対するユーザの操作の内容(例えば揺動スイッチ25の押し込み量等)を表す情報を、それぞれのボタンやセンサ部37等から取得し、通信部36を介して情報処理装置1に当該取得した情報を送出する。この制御部31の動作については後に詳しく述べる。
 マイク32は、コントローラ装置2の周囲の音声に対応する音声信号を生成して制御部31に出力する。スピーカー33は、制御部31から入力される音声波形に従って、当該音声波形を鳴動する。
 触覚提示デバイス34は、例えばボイスコイルモータ(VCM)やバイブレータ等であり、制御部31から入力される指示に従い、指示された波形の振動を生じさせ、コントローラ装置2を把持するユーザに振動等の触覚を提示する。本実施の形態の触覚提示デバイス34は、把持部21L,21Rにそれぞれ一つずつ配され、個別に制御することとしてもよい(図2に触覚提示デバイス34L,34Rとして示す)。このようにすると、左右の手のそれぞれに互いに異なる触覚を提示できる。
 スイッチ制御部35は、揺動スイッチ25の力覚提示デバイスを制御し、ユーザの押し込み操作に対して反力(押し込みに反する力)を提示させる。
 通信部36は、USB(Universal Serial Bus)やネットワークインタフェース、ブルートゥース(登録商標)インタフェース等であり、有線または無線にて情報処理装置1との間で通信を行い、情報処理装置1が送信する指示等を受信して制御部31に出力する。またこの通信部36は制御部31から入力される指示に従って、指示された情報を情報処理装置1に送出する。
 センサ部37は、少なくとも一つのセンサを含む。ここでセンサは、例えば上述のように、揺動スイッチ25の回転軸に取り付けられたロータリーエンコーダを含んでもよい。またこのセンサ部37は、コントローラ装置2そのものの傾きを検出する傾斜センサを備えてもよい。この傾斜センサは、例えばコントローラ装置2の左右方向(X軸方向とする)、手前から奥側への方向(Y軸方向とする)、及びこれらのX軸,Y軸で張られる面に直交する方向(鉛直方向。Z軸方向とする)とのそれぞれのX,Y,Z軸周りの回転角を検出して出力するものとする。
 情報処理装置1の制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では、このプログラムは、コンピュータ可読、かつ非一時的な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。本実施の形態の制御部11の処理例については後に説明する。
 記憶部12は、ディスクデバイスやメモリデバイス等であり、制御部11によって実行されるプログラムを保持する。またこの記憶部12は制御部11のワークメモリとしても動作する。
 インタフェース部13は、USBインタフェース等であり、USB等によって接続されたデバイス(コントローラ装置2等)との間で通信を行い、制御部11から入力された指示やデータを送出する。またこのインタフェース部13は、通信の相手方から受信した情報を制御部11に出力する。
 表示制御部14は、制御部11から入力される指示に従って、画像を描画し、当該描画した画像を表示装置3に出力して表示させる。音声制御部15は、制御部11から入力される指示に従って音声波形を生成して、表示装置3等、スピーカーを備えるデバイスに出力して、音声を鳴動させる。
 通信部16は、ネットワークインタフェースや、ブルートゥース(登録商標)インタフェース等であり、無線にて接続されたデバイス(コントローラ装置2等)や、外部のサーバ等との間で通信を行い、制御部11から入力された指示やデータを送出する。またこの通信部16は、通信の相手方から受信した情報を制御部11に出力する。
 次に、制御部11の動作例について説明する。本実施の形態の制御部11は、例えばゲームのアプリケーションプログラム等を実行して、例えば次のように動作する。
[揺動スイッチの押し込み量]
 本実施の形態の一例に係る制御部11は、アプリケーションプログラムの処理として、ユーザに対し、コントローラ装置2の揺動スイッチ25L,25Rの少なくとも一方について、その第一の位置(コントローラ装置2の筐体外方に最も突出した位置)と第二の位置(最後まで押し込んだ位置)とを含まない、これら第一の位置と第二の位置との間に設定された2つのしきい値により設定される範囲(以下、適正範囲と呼ぶ)に維持することを要求する。
 このようなアプリケーションの例として、ゲームキャラクタが、垂直な面を、手がかりとなる凸部に手をかけつつよじ登るゲームアプリケーションが考えられる。このゲームアプリケーションでは、例えば凸部の把握力を揺動スイッチ25により設定し、左右の手の移動(一方の手で凸部を把握したまま、他方の手を次の凸部へ伸ばす動作)を、ジョイスティック23の傾倒操作で行う。このとき、凸部の把握力が小さい場合(押し込み量がしきい値L1未満である場合)にはゲームキャラクタは凸部の把握力が小さいため落下してしまい、一方、凸部によっては把握力が大きすぎる(押し込み量がしきい値L2以上である)と凸部自体が破損して、やはり落下してしまうこととする。
 ここで押し込み量のしきい値L1、L2はL1<L2であり、また第一の位置の押し込み量P0(「0」とする)に対しP1<L1であるとする。さらに第二の位置の押し込み量Pmaxに対してL2<Pmaxであるとする。
 なおL2は凸部ごとに異ならせて設定することとしてもよい。また凸部によってはL2の設定がなくても(最大の把握力で把握しても破損しないこととしても)よい。この例では、L2-L1が小さいほど操作の難易度は高くなる。
 また本実施の形態のこの例では、触力覚を提示することで操作性を高めることとしてもよい。例えば、揺動スイッチ25Lの押し込み量がしきい値L1またはL2を超えるときに、制御部11は、コントローラ装置2に対して左手側の把持部21Lに内蔵した触覚提示デバイス34を振動させる指示を出力してもよい。同様に、揺動スイッチ25Rの押し込み量がしきい値L1またはL2を超えるときに、制御部11は、コントローラ装置2に対して右手側の把持部21Rに内蔵した触覚提示デバイス34を振動させる指示を出力してもよい。これにより、ユーザに対してそれぞれの手が適性範囲で把持していることがわかるようにしておく。
 また、この振動とは別に、押し込み量が正の値ΔLを用いて、例えば揺動スイッチ25Lの押し込み量がL1+ΔL(L1+ΔL<L2とする)を下回るときには、制御部11は、コントローラ装置2に対して左手側の把持部21Lに内蔵した触覚提示デバイス34を細かく振動させるよう指示を出力してもよい(右手側も同様としてもよい)。この例によると、ユーザは押し込み量が適正範囲の下限に近いことを知ることができる。
 さらに、本実施の形態では、揺動スイッチ25に対する力覚の提示により、難易度を調整することも可能である。
 例えば制御部11は、押し込み量に対する力覚(揺動スイッチ25の押し込み量の変化に対する反力(押し込み量の変化に抗する力)の設定において、しきい値L1,L2において周囲よりも比較的大きい反力を提示するよう設定してもよい(図4)。
 このようにすると、ユーザが揺動スイッチ25を初期の位置から押し込み初めてしきい値L1に達するとき、反力を感じ、しきい値L1を超えると反力がなくなったことを感じることとなる。これによりしきい値L1を超えたことが理解しやすくなる。また、このまま押し込み量を増大させていくと、ユーザは、しきい値L2に達するときにまた反力を感じることとなり、しきい値L2を超えるような操作を抑制できる。この際、しきい値L2を超える場合の警告を大きくするのであれば、図4に例示したように、しきい値L2近傍で提示する反力の大きさを、しきい値L1近傍において提示する反力の大きさより大きめに設定してもよい。
 さらに揺動スイッチ25が、その回転軸にブレーキを有する場合など、しきい値L1より大きい押し込み量から、押し込み量を低下させていく(揺動スイッチ25の押し込み力を下げていく)ときにも、押し込み量が低下することを抑制するように反力を提示できる構成である場合には、制御部11が、上述のように反力の設定をしておくことで、押し込み量がしきい値L1に近くなると、反力が提示され、力の低減に抗することが可能となる。
 また揺動スイッチ25が、しきい値L1より大きい押し込み量から、押し込み量を低下させていく(揺動スイッチ25の押し込み力を下げていく)ときに押し込み量が低下することを抑制するように反力を提示できない(押し込み量を低下させる方向にのみ反力を提示可能な)構成である場合は、制御部11は、押し込み量の時間変化を調べておき、揺動スイッチ25が、しきい値L1より大きい押し込み量からしきい値L1に達したときには、反力の設定に関わらず、反力を提示しないよう制御してもよい。
 このように、本実施の形態のこの例では、揺動スイッチ25の押し込み量の変動に要する力(揺動スイッチ25の重さ)を動的に変化させることで、操作の難易度を調整することとしてもよい。
[揺動スイッチの押し込み力]
 また別の例では、本実施の形態の制御部11は、アプリケーションプログラムの処理として、ユーザに対し、コントローラ装置2自体を傾けさせ、その傾きを傾斜センサの出力によって取得し、当該取得した傾きの大きさに応じて、ゲーム空間に配した電動のこぎりの傾きを変更して、その画像を描画してユーザに表示する処理を行ってもよい。
 このとき、制御部11は揺動スイッチ25の押し込み量に応じて、電動のこぎりの刃の回転量を設定してもよい。制御部11は、これらの操作に応じて、ゲーム空間に配した仮想の木材や石材等、種々の対象物を切る動作をシミュレートする。
 すなわち制御部11は、切るべき対象物の種類に応じて、電動のこぎりの刃の回転量R(揺動スイッチ25の押し込み量)の大きさに対する揺動スイッチ25の押し込みへの反力の提示態様を変更する。また制御部11は、コントローラ装置2の傾きの情報を、傾きセンサの出力から取得する。そして制御部11は、この取得した情報を用いて、電動のこぎりの刃が仮想の対象物の切るべき位置に当接しているかを判断する。本実施の形態では、ゲームの難易度を適宜調整するため、制御部11は、取得した傾きの情報のうち、例えばコントローラ装置2のX軸周りの角度θのみ参照し、この角度θと仮想の対象物の位置(途中まで切れているときには切れていない位置)とを比較して、電動のこぎりの刃が仮想の対象物の切るべき位置に当接しているかを判断する。
 この処理を行う制御部11は、例えば次のように動作する。当初、制御部11は、切るべき仮想的な対象物の位置をコントローラ装置2の傾き(X軸周りの角度)に対応する初期位置φ=φ0に設定する。また制御部11は、仮想的な対象物の切断が完了する位置を、コントローラ装置2の傾き(X軸周りの角度)に対応する位置φEと設定する。
 また制御部11は、コントローラ装置2の触覚提示デバイス34の振動波形の情報として、電動のこぎりが空転しているときの波形情報として予め定められた波形情報を、コントローラ装置2に出力する。コントローラ装置2がこの波形情報により触覚提示デバイス34を制御すると、ユーザは電動のこぎりが動作しているが、対象物に当接していない状況であることをその振動で知る。
 さらに制御部11は、電動のこぎりが空転しているときの音声の波形情報として予め定められた波形情報を、表示装置3に出力して鳴動させる。
 制御部11は、コントローラ装置2の傾きの情報(傾斜センサの出力)を、コントローラ装置2から受信し、当該傾きの情報のうち、コントローラ装置2のX軸周りの角度θを取得する。
 制御部11はθ≧φとなったか(対象物の切断位置に当接したか)否かを判断し、対象物の切断位置に当接していないと判断すると、当該取得した角度θに対応して、表示する画像中の電動のこぎりの画像の傾きを変更し、コントローラ装置2の傾きの情報を取得する処理に戻って処理を続ける。
 一方、ここで、対象物の切断位置に当接した(θ≧φとなった)と判断すると、制御部11は、次の処理を行う。すなわち制御部11は、切断される量Δφを、例えば、次のように求める。
Δφ=P[α・(R-R0)・(φ-θ)]
ここでP[X]は、X>0のときにX、X≦0のときに0となる関数であるとする。また、Rは、揺動スイッチ25の押し込み量であり、R0は、切断する対象物ごとに制御部11が設定する基準押し込み量、αは切断する対象物ごとに制御部11が設定する正の比例パラメータである。これにより、ユーザが基準押し込み量を超えた押し込み量で揺動スイッチ25を押し込んだ状態でコントローラ装置2を傾けなければ仮想の対象物は切断されないこととなる。
 制御部11は、Δφが0であるか否か(切れていないか否か)を判断し、Δφが0であるときには、表示する画像中の電動のこぎりの画像の傾きを現在表示している傾きに維持しつつ、コントローラ装置2の触覚提示デバイス34の触覚提示動作を停止するようコントローラ装置2に指示し、さらに電動のこぎりの回転に応じた音声の出力を停止する。
 これによりユーザは、
・コントローラ装置2を傾けているはずであるのに、画面上の操作対象物である電動のこぎりの傾きが変化しない、
・触覚提示が停止した
・音声が停止した
ことから、電動のこぎりが対象物に係って回転を停止した状態となったことを知る。
 制御部11は、さらにコントローラ装置2の傾きの情報を取得する処理に戻って処理を続ける。
 また制御部11は、Δφが0であるか否かを判断したときに、Δφ>0であった場合は、表示する画像中の電動のこぎりの画像の傾きをβ・θに傾ける。ここでβは0<β<1なる正の実数であり、仮想の対象物の種類ごとに制御部11が予め設定する。このβは、仮想の対象物に係る属性情報の一つである。
 制御部11は、また、現在の切断位置を表す値φを用いて、新たな切断位置をφ+Δφに更新する(φ←φ+Δφとする)。制御部11は、ここで更新した切断位置φがφ>φEとなったか否かを判断し、φ>φEとなったと判断すると、切断が終了したこととして、その旨を通知する画像を表示して処理を終了する。このとき制御部11は、コントローラ装置2の触覚提示デバイス34の振動波形の情報として、電動のこぎりが空転しているときの波形情報として予め定められた波形情報を、コントローラ装置2に出力してもよい。また制御部11は、電動のこぎりが空転しているときの音声の波形情報として予め定められた波形情報を、表示装置3に出力して鳴動させてもよい。
 また、更新後の切断位置φがφ>φEでなければ、制御部11は、コントローラ装置2の触覚提示デバイス34の振動波形の情報として、電動のこぎりが切断しているときの波形情報として予め定められた波形情報を、コントローラ装置2に出力する。そしてコントローラ装置2にこの波形情報により触覚提示デバイス34を制御させる。この波形情報もまた、仮想の対象物の種類ごとに予め定められてもよい。
 制御部11はまた、切断中の音声の波形情報として予め定められた波形情報を、表示装置3に出力して鳴動させる。この音声の波形情報も、仮想の対象物の種類ごとに予め定められてもよい。
 さらにこのとき、制御部11は、ユーザが押し下げている揺動スイッチ25に、当該揺動スイッチ25の押し込み量に対応する反力を提示させてもよい。制御部11は、ユーザの操作により仮想的な電動のこぎりが対象物の切断位置に当接している(θ≧φ、かつφ≦φEである)間、押し込み量Rと、切断される仮想の対象物ごとに予め定めたパラメータγとを用いて反力の大きさを、γ・Rなど予め定めた方法で定め、揺動スイッチ25の押し込みに対する反力を提示させる。
 制御部11は、そしてコントローラ装置2の傾きの情報を取得する処理に戻って処理を続ける。
 この制御部11の動作により、ユーザは切断が行われている間、揺動スイッチ25の押し込みに対する反力を感知するとともに、振動及び音声により切断が行われていることを知る。例えば揺動スイッチ25の力覚提示の方式として、揺動スイッチ25を内側から押し出す方向に移動制御するアクチュエータ等を用いる場合、揺動スイッチ25の押し込み量Rが一定であっても、コントローラ装置2の傾きの情報(傾斜センサの出力)θが、θ≧φ、かつφ≦φEである範囲となったときに、所定の反力を提示させる(例えば押し込み位置Rよりも押し込み量の少ない位置R′に移動する方向にアクチュエータを制御させてユーザに押し込みに対する反力を提示させる)。
 このように、揺動スイッチ25の押し込み量を一定にしたままでも、他の操作(コントローラ装置2を傾ける、ジョイスティック23やボタン24を操作する、等の操作)を行う等により(あるいは特段の操作がなくても)、ゲームの状態が変化したときに、揺動スイッチ25がユーザに提示する反力(押し込みにくさ、あるいは押し込む方向とは反対方向に移動させる力)を変化させることで、ユーザがゲームの状態を把握できるようになる。
 また、例えば木材の場合よりも石材の場合に、βの値が小さいものとしておくと、コントローラ装置2の傾斜の変化に対する、画像中の電動のこぎりの角度の変化が小さくなるので、より切断しにくい対象物を切っているという感覚がユーザに対して与えられる。
 同様に、切断しにくい対象物ほど、αを小さくし、γを大きくする。これにより同じ回転量(揺動スイッチ25の押し込み量)のときの、単位時間あたりの切断量が小さくでき、より切断しにくいという感覚をユーザに対して与えられる。またγを大きくしたことで、反力が大きくなり、切断しにくい対象物を切断しているという感覚がユーザに対して与えられる。
 このように本実施の形態のこの例では、揺動スイッチ25の重さ(反力)、提示される触覚、音声、さらには操作の大きさに対応した画像の変化量を、ゲーム空間に登場している対象物に応じて変更することで、当該対象物の質感(硬さ等)や、重量感、あるいは、攻撃力や防御力等の属性を総合的に、ユーザに対して提示する。
 さらに制御部11は、コントローラ装置2から取得した、コントローラ装置2の傾きの情報に応じて、コントローラ装置2に対して出力する、触覚提示デバイス34を制御するための波形情報や、音声として出力する波形情報を異ならせてもよい。
 一例として、コントローラ装置2のX軸周りの傾きが水平から大きくなる(垂直に近い角度になる)に従って、触覚提示デバイス34を制御する波形情報と、音声の波形情報とのそれぞれの波形情報の周波数が高くなるように制御してもよい。
 このようにすると、バイクのスロットルを回転させたときに、エンジンの回転量が大きくなったかのような感覚をユーザに対して与えられる。
 1 情報処理装置、2 コントローラ装置、3 表示装置、11 制御部、12 記憶部、13 インタフェース部、14 表示制御部、15 音声制御部、16 通信部、21 把持部、22 本体部、23 ジョイスティック、24 ボタン、25 揺動スイッチ、31 制御部、32 マイク、33 スピーカー、34 触覚提示デバイス、35 スイッチ制御部、36 通信部、37 センサ部。

 

Claims (4)

  1.  ユーザが指で押し込むことにより、第1の位置から第2の位置までの間で移動する押し込みボタンを備えたコントローラ装置に接続される情報処理装置であって、
     前記押し込みボタンの押し込み量を取得する取得手段と、
     前記押し込み量が、前記第1の位置と第2の位置とを含まない、前記第1の位置と第2の位置との間に設定された2つのしきい値により設定される範囲に属するか否かを判断する判断手段と、
     前記判断の結果に基づいて、所定の処理を実行する処理実行手段と、
    を含む情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記コントローラ装置は、傾斜センサを備え、
     前記情報処理装置は、
     ユーザに提示する画像情報を生成する生成手段をさらに備え、
     前記取得手段は、前記傾斜センサにより検出されたコントローラ装置の傾斜の情報を取得し、
     前記処理実行手段は、前記取得手段が取得した傾斜の情報に基づいて前記画像情報中に示されるオブジェクトの傾斜角を設定する処理であって、所定の方法で定められた前記オブジェクトに関する属性情報に応じて、前記取得した傾斜の情報に対する前記オブジェクトの傾斜角の情報を制御する情報処理装置。
  3.  請求項2に記載の情報処理装置であって、
     音声情報をユーザに提示する音声出力手段をさらに備え、
     前記処理実行手段は、前記所定の方法で定められた前記オブジェクトに関する属性情報に応じて、前記取得した傾斜の情報に対する音声情報を制御する情報処理装置。
  4.  ユーザが指で押し込むことにより、第1の位置から第2の位置までの間で移動する押し込みボタンを備えたコントローラ装置に接続される情報処理装置に、
     前記情報処理装置の取得手段が、前記押し込みボタンの押し込み量を取得する工程と、
     判断手段が、前記押し込み量が、前記第1の位置と第2の位置とを含まない、前記第1の位置と第2の位置との間に設定された2つのしきい値により設定される範囲に属するか否かを判断する工程と、
     処理実行手段が、前記判断の結果に基づいて、所定の処理を実行する工程と、を実行させるコントローラ装置の制御方法。

     
PCT/JP2019/026348 2018-07-12 2019-07-02 情報処理装置及びコントローラ装置の制御方法 WO2020013039A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19834006.9A EP3822745B1 (en) 2018-07-12 2019-07-02 Information processing system and method of operation therefor
JP2020530131A JP6990769B2 (ja) 2018-07-12 2019-07-02 情報処理装置及びコントローラ装置の制御方法
US17/258,780 US11701578B2 (en) 2018-07-12 2019-07-02 Information processing apparatus and control method for controller apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-132655 2018-07-12
JP2018132655 2018-07-12

Publications (1)

Publication Number Publication Date
WO2020013039A1 true WO2020013039A1 (ja) 2020-01-16

Family

ID=69142459

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/026348 WO2020013039A1 (ja) 2018-07-12 2019-07-02 情報処理装置及びコントローラ装置の制御方法

Country Status (4)

Country Link
US (1) US11701578B2 (ja)
EP (1) EP3822745B1 (ja)
JP (1) JP6990769B2 (ja)
WO (1) WO2020013039A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109395373B (zh) * 2018-09-14 2021-12-07 深圳市腾讯信息技术有限公司 对象控制方法和装置、存储介质及电子装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276615A (ja) * 2007-05-01 2008-11-13 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2009061161A (ja) * 2007-09-07 2009-03-26 Namco Bandai Games Inc プログラム、情報記憶媒体、及び、ゲームシステム
JP2010142561A (ja) * 2008-12-22 2010-07-01 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2011083461A (ja) * 2009-10-16 2011-04-28 Mega Chips Corp ゲームシステム
WO2016186041A1 (ja) * 2015-05-15 2016-11-24 フィールズ株式会社 振動式入力装置
WO2017061178A1 (ja) * 2015-10-05 2017-04-13 アルプス電気株式会社 触覚再現装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236162A (ja) * 2000-02-24 2001-08-31 Sony Computer Entertainment Inc エンタテインメント装置、記録媒体及びコンピュータプログラム
US8686939B2 (en) * 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7628700B2 (en) * 2005-04-13 2009-12-08 Microsoft Corporation Game controller link mechanism joining a user-activated control and an analogue input device
US7721609B2 (en) * 2006-03-31 2010-05-25 Cypress Semiconductor Corporation Method and apparatus for sensing the force with which a button is pressed
JP4386900B2 (ja) 2006-05-02 2009-12-16 アルプス電気株式会社 操作装置およびゲームコントローラ
US20130023341A1 (en) * 2010-03-30 2013-01-24 Capcom Co., Ltd. Program and recording medium on which the program is recorded
JP5848520B2 (ja) 2011-05-11 2016-01-27 任天堂株式会社 音楽演奏プログラム、音楽演奏装置、音楽演奏システム、および音楽演奏方法
US10722784B2 (en) 2012-09-21 2020-07-28 Bright Cloud International Corporation Bimanual integrative virtual rehabilitation system and methods
US9619029B2 (en) * 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
EP3265895B1 (en) * 2015-03-01 2020-04-08 Tactical Haptics Embedded grasp sensing devices, systems, and methods
CN107912061B (zh) * 2015-03-06 2021-06-01 伊利诺斯工具制品有限公司 用于焊接的传感器辅助头戴式显示器
US9870052B2 (en) 2015-06-11 2018-01-16 Oculus Vr, Llc Hand-held controller with pressure-sensing switch for virtual-reality systems
JP6626576B2 (ja) 2016-07-21 2019-12-25 株式会社ソニー・インタラクティブエンタテインメント 操作デバイス、及び制御システム
JP6093473B1 (ja) * 2016-08-19 2017-03-08 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018036942A (ja) * 2016-09-01 2018-03-08 株式会社アルファコード 3次元ユーザインタフェース装置および3次元操作用プログラム
JP6728111B2 (ja) * 2017-08-01 2020-07-22 株式会社コロプラ 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
CA3072774A1 (en) * 2017-08-21 2019-02-28 Precisionos Technology Inc. Medical virtual reality, mixed reality or augmented reality surgical system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276615A (ja) * 2007-05-01 2008-11-13 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2009061161A (ja) * 2007-09-07 2009-03-26 Namco Bandai Games Inc プログラム、情報記憶媒体、及び、ゲームシステム
JP2010142561A (ja) * 2008-12-22 2010-07-01 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2011083461A (ja) * 2009-10-16 2011-04-28 Mega Chips Corp ゲームシステム
WO2016186041A1 (ja) * 2015-05-15 2016-11-24 フィールズ株式会社 振動式入力装置
WO2017061178A1 (ja) * 2015-10-05 2017-04-13 アルプス電気株式会社 触覚再現装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3822745A4 *

Also Published As

Publication number Publication date
US20210268370A1 (en) 2021-09-02
JPWO2020013039A1 (ja) 2021-03-11
EP3822745A1 (en) 2021-05-19
EP3822745A4 (en) 2022-03-23
US11701578B2 (en) 2023-07-18
EP3822745B1 (en) 2024-06-05
JP6990769B2 (ja) 2022-01-12

Similar Documents

Publication Publication Date Title
US10078370B2 (en) Devices and methods for modifying haptic effects
JP3420953B2 (ja) エンタテインメントシステム及び記録媒体
JP4387086B2 (ja) 触覚フィードバックインターフェースデバイス用の方向接触フィードバック
EP3531249A1 (en) Systems and methods for multi-output electrostatic haptic effects
US8130196B2 (en) Game performing method, storage medium, game apparatus, data signal and program
US20090088248A1 (en) Game controlling apparatus for pedaling motion
JP2012055340A (ja) ゲーム機用コントローラ
US10698490B2 (en) Haptic feedback device, method and system
JP2020523673A (ja) 入力方法および装置
JP7233399B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
WO2020013039A1 (ja) 情報処理装置及びコントローラ装置の制御方法
JP7176040B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7248720B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP7300028B2 (ja) コントローラ装置、及びその制御方法
JP2011115230A (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
WO2020111155A1 (ja) 情報処理装置、その制御方法、及びプログラム
JP5535181B2 (ja) ゲーム装置、ならびに、プログラム
US6390919B1 (en) Entertainment system, entertainment apparatus, recording medium, and program
JP3078355U (ja) デスクトップ型振動ジョイスティック
EP4375808A1 (en) Content control method and system
EP4332733A1 (en) Haptic module and controller having rotational weight distribution
JP2006320738A (ja) プログラム、情報記憶媒体及びゲーム装置
JP5325816B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP5581347B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP2003175276A (ja) エンタテインメントシステム及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19834006

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020530131

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE