WO2018110432A1 - 情報処理システム、コントローラデバイス、コントローラデバイスの制御方法、及びプログラム - Google Patents

情報処理システム、コントローラデバイス、コントローラデバイスの制御方法、及びプログラム Download PDF

Info

Publication number
WO2018110432A1
WO2018110432A1 PCT/JP2017/044072 JP2017044072W WO2018110432A1 WO 2018110432 A1 WO2018110432 A1 WO 2018110432A1 JP 2017044072 W JP2017044072 W JP 2017044072W WO 2018110432 A1 WO2018110432 A1 WO 2018110432A1
Authority
WO
WIPO (PCT)
Prior art keywords
controller device
information
user
vibration
hand
Prior art date
Application number
PCT/JP2017/044072
Other languages
English (en)
French (fr)
Inventor
佑輔 中川
山野 郁男
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to US16/345,071 priority Critical patent/US10969867B2/en
Priority to JP2018556628A priority patent/JP6799077B2/ja
Publication of WO2018110432A1 publication Critical patent/WO2018110432A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device

Definitions

  • the vibrator 25 corresponds to the vibrator of the present invention, and receives a signal indicating the vibration period and vibration intensity from the control unit 21 and vibrates at the designated vibration period / vibration intensity.
  • the communication unit 26 is a wired interface such as a USB interface or a wireless interface such as Bluetooth (registered trademark), and outputs various information to the information processing apparatus 1 in accordance with instructions input from the control unit 21. .
  • the information processing apparatus 1 includes a control unit 11, a storage unit 12, an interface unit 13, an imaging unit 14, and an output unit 15.
  • the control unit 11 is a program control device such as a CPU, and operates according to a program stored in the storage unit 12.
  • the storage unit 12 is a memory device or the like and holds a program executed by the control unit 11. This program may be provided by being stored in a computer-readable non-transitory storage medium and copied to the storage unit 12.
  • the storage unit 12 also operates as a work memory for the control unit 11.
  • the interface unit 13 is connected to the controller device 20 wirelessly or in a wired manner. Information indicating the contents of the user's operation from the controller device 20 and information on the distance detected by the finger sensor 241 (the finger sensor 241 corresponds to each finger). If there are a plurality of distances, information on a plurality of distances detected by the finger sensor 241 corresponding to each finger is received and output to the control unit 11.
  • the imaging unit 14 is a camera or the like installed with the range where the user is positioned as the imaging range, and repeatedly captures images including the user at predetermined timings, and outputs data of the images to the control unit 11.
  • the output unit 15 has an interface for outputting video and the like to a home television, such as an HDMI (registered trademark) interface.
  • the output unit 15 outputs information on a video to be displayed in accordance with an instruction input from the control unit 11.
  • the information relating to the contact state between the controller device 20 and the user's hand includes information relating to the contact area between the controller device 20 and the user's hand, information on the pressure applied by the user's hand to the controller device 20, and the like. Is included.
  • the acquisition unit 42 when the distance to a certain finger is “0” or smaller than a predetermined value, the acquisition unit 42 is bent and touches the surface of the device body 210 (holding the controller device 20). Judgment) In addition, when the distance to a certain finger is greater than a predetermined value, the acquisition unit 42 determines that the finger is extended and separated from the surface of the device main body 210.
  • the correction unit 43 refers to the correction rate information that is set in advance and stored in the storage unit 22.
  • the correction unit 43 corrects the correction rate r (n) associated with this number n. Is calculated as follows.
  • the preset correction factor r (n) is a vibration intensity reduction rate (that is, 0 ⁇ r (n) ⁇ 1), for N and n where N> n, r (N) ⁇ r ( n). Accordingly, the more fingers that are stretched and do not touch the surface of the device main body 210, that is, the vibration strength reduction rate decreases as the user's finger extends, and the vibration strength decreases as the user's finger extends. It will be corrected to strengthen.
  • the preset correction factor r (n) is the rate of increase in vibration intensity (that is, r (n) ⁇ 1), for N and n where N> n, r (N)> r (n) deep. Accordingly, the more fingers that are stretched and do not touch the surface of the device body 210, that is, the increase rate of the vibration intensity increases as the user's finger extends, and the vibration intensity increases as the user's finger extends. It will be corrected to strengthen.
  • the vibration control unit 44 receives the input of the waveform information V (t) represented by the corrected information from the correction unit 43, and uses the corrected waveform information V (t) to change the vibrator 25 that is a vibrator. Vibrate. Since such a control method for vibrating a vibrator such as a vibrator based on waveform information is widely known, detailed description thereof is omitted here. Note that when vibration intensity or vibration frequency information is input instead of waveform information, the vibration control unit 44 has an amplitude proportional to the vibration intensity represented by the input information and is represented by the input information. The vibrator is vibrated at a frequency proportional to the vibration frequency. In the case where there is no input of either one, the vibrator may be vibrated at a vibration intensity or a vibration frequency determined as a default in advance.
  • the correction unit 43 determines the distance between the index finger, the middle finger, the ring finger, and the little finger according to the distance between the position on the surface of the device body 210 when the finger is bent and the position of the vibrator.
  • means the total when i is changed from 1 to 4.
  • Information regarding the degree of close contact between the controller device 20 and the hand or pressure may be used. The reason for using this information is that even when all fingers are extended, the user's feeling of vibration differs depending on whether the contact area with the palm of the user is large or small. .
  • the acquisition unit 42 is used for vibration control of the acceleration magnitude information A obtained here (note that the acceleration magnitude A varies with time ⁇ , and hence is represented as A ( ⁇ ) below).
  • a ratio E ( ⁇ ) A ( ⁇ ) / V ( ⁇ ) with respect to the corrected vibration intensity V ( ⁇ ) is obtained.
  • the ratio E ( ⁇ ) becomes smaller. Therefore, the smaller the ratio E ( ⁇ ), the closer the controller device 20 and the user's hand are. It can be estimated that the degree of adhesion between the controller device 20 and the user's hand is smaller as the ratio E ( ⁇ ) is larger.
  • the acquisition unit 42 may acquire the state of bending and stretching of the user's finger as information related to the contact area between the controller device 20 and the user's hand, and output the information along with the information ⁇ related to this ratio.
  • the correction unit 43 increases the information ⁇ related to the ratio output by the acquisition unit 42 (that is, the estimation is that the degree of close contact between the controller device 20 and the user's hand is small).
  • the vibration intensity v (t) represented by the received information is corrected so as to increase.
  • This correction corresponds to multiplying the amplitude by ⁇ .
  • amendment part 43 is correct
  • the information processing system has the above configuration, and operates as follows.
  • the information processing apparatus 1 outputs an instruction to present vibration to the controller device 20 in accordance with an instruction of an application program such as a game program (S1). ).
  • This instruction is output as, for example, waveform information v (t) representing a change in vibration intensity (vibration amplitude) with respect to time t.
  • the controller device 20 has a distance Li (i is an index corresponding to the index finger, middle finger, ring finger, little finger) detected by the finger sensor 241 corresponding to the index finger, middle finger, ring finger, and little finger.
  • Li 1, 2, 3, 4
  • the controller device 20 vibrates the vibrator 25 that is a vibrator based on the corrected waveform information V (t) obtained here (S4).
  • the statistical value L related to the distance increases as the user's finger extends, and the vibration intensity is corrected to be stronger. For this reason, even if the vibration instruction input from the information processing apparatus 1 is the same, the user holds the controller device 20 (the user's hand is in closer contact with the device body 210 of the controller device 20). ) When the user releases his / her finger from the controller device 20, the vibration is presented in a state where the amplitude is corrected to be large. In this way, an equivalent vibration experience is presented to the user regardless of whether or not the user's finger is away from the device body 210.
  • the controller device 20 obtains information A of the magnitude of acceleration detected by the acceleration sensor 243 while vibrating the vibrator 25 as a vibrator. Then, the controller device 20 obtains the average (average during vibration) ⁇ of the ratio of the magnitude A of the acceleration to the instructed vibration (vibration intensity after correction).
  • the controller device 20 corrects the vibration intensity and vibration frequency information received from the information processing apparatus 1.
  • the vibration intensity and vibration frequency are corrected on the information processing apparatus 1 side. It doesn't matter.
  • the control unit 11 of the information processing apparatus 1 performs operations as the receiving unit 41, the acquiring unit 42, and the correcting unit 43.
  • the correction unit 43 of the control unit 11 corrects information representing the vibration intensity and vibration frequency received by the receiving unit 41 based on the information acquired by the acquisition unit 42.
  • the operation of the correction unit 43 is the same as the operation when the correction unit 43 is realized by the control unit 21 of the controller device 20.
  • the control unit 11 outputs the vibration intensity and vibration frequency information (corrected waveform information V (t)) obtained by the correction by the correction unit 43 to the controller device 20.
  • the information processing apparatus 1 may execute the correction processing as processing of an application program such as a game program.
  • processing for correcting information on vibration intensity and vibration frequency based on information relating to the contact area between the controller device 20 and the user's hand acquired from the controller device 20 is performed as processing such as a game. For this reason, it becomes possible to perform the correction
  • the area of a rectangle circumscribing the skin color part of the hand part detected from the user's image is obtained, and when this area exceeds a predetermined threshold, the application program instructs that the user's finger is extended. Correction that increases the vibration intensity (increases the amplitude) of the waveform information v (t) may be performed. Alternatively, when the area falls below a predetermined threshold value, it is assumed that the user's finger is bent, and correction is performed to weaken (attenuate the amplitude) the vibration intensity of the waveform information v (t) instructed from the application program. May be.
  • the controller device 20 vibrates as much as the controller device 20 vibrates the vibrator as information indicating the degree of close contact between the controller device 20 itself and the user's hand. (That is, how much vibration the acceleration sensor 243 detects), but the present embodiment is not limited to this.
  • the information indicating the degree of close contact may represent the diameter of the annular portion of the fixture 220 (or the circumference of the belt of the annular portion or the fixing position of the buckle).
  • the controller device 20 may obtain information indicating the degree of adhesion by obtaining the circumferential length of the belt of the annular portion from the entire length of the belt and the fixing position of the buckle.
  • the controller device 20 sends the information to the information processing apparatus 1.
  • the information processing apparatus 1 obtains a ratio C / AV between the average value AV of the contact degree information received over the past p times and the information C indicating the contact degree received from the controller device 20 this time. If information for the past p times is not stored, an average value of general users may be stored in the storage unit 12 in advance, and the average value of general users may be used as the average value AV.
  • the information processing apparatus 1 or the controller device 20 corrects the waveform information V (t) after the correction with respect to the waveform information v (t) represented by the received information.
  • a plurality of capacitance sensors 245 may be disposed over the surface of the device main body 210 of the controller device 20 and in a range where the user's hand can contact.
  • the contact area Q between the user's hand and the device main body 210 and the degree of contact (how strong the user's hand is pressing the surface of the device main body 210) ) F can be detected more directly.
  • the contact area Q detected here with respect to the reference contact area Qav and the contact degree Fav (which should be obtained experimentally as an average contact area and the contact degree).
  • the correction is not performed in a monotonous manner (in a monotonous manner such that the vibration intensity is increased as the value is increased or the vibration intensity is reduced as the value is increased) according to the size of the contact area between the controller device 20 and the user's hand.
  • the magnitude of the corresponding correction factor may be set as a function of the contact area, and the correction factor may be determined based on the setting. For example, when the contact area between the controller device 20 and the user's hand is less than a predetermined threshold, correction is performed to weaken the vibration intensity as the contact area is smaller than the threshold, and the contact area exceeds the threshold. In such a case, correction may be performed to weaken the vibration intensity as the contact area is larger than the threshold value.
  • vibration based on the instructed waveform information v (t) is presented, and the vibration attenuated from the waveform information v (t) as the distance from the threshold value increases. Will be presented.
  • the correction for changing the vibration amplitude of the given waveform information v (t) can be realized by a widely known process such as a pitch change, and therefore a detailed description of the correction method is omitted. Further, both the vibration intensity and the vibration frequency may be corrected.
  • the controller device 20 includes a pressure sensor, and pressure (applied to the controller device 20 from the user's hand) as one piece of information on the degree of contact between the controller device 20 and the user's hand ( A force for grasping the controller device 20) may be detected.
  • a pressure sensor various well-known ones can be used, and detailed description thereof is omitted here.
  • the control unit 21 of the information processing apparatus 1 or the controller device 20 causes the vibration intensity, The vibration frequency may be corrected.
  • control unit 21 of the information processing apparatus 1 or the controller device 20 sets the vibration intensity and the vibration frequency such as waveform information at a correction factor corresponding to the pressure value applied to the controller device 20 from the user's hand detected by the pressure sensor. It is good also as correcting.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ユーザの手に固定されるコントローラデバイスと、当該コントローラデバイスに接続され、コントローラデバイスとの間で情報の送受信を行う情報処理装置とを含む情報処理システムであって、コントローラデバイスが、コントローラデバイスの筐体を振動させる振動子を備え、振動子の振動強度を表す情報を受け入れ、コントローラデバイスとユーザの手との接触面積に係る情報を取得し、振動子を振動させる。また、コントローラデバイスと情報処理装置とのいずれかが、コントローラデバイスの取得手段が取得した情報に基づき、振動強度を表す情報を補正する。

Description

情報処理システム、コントローラデバイス、コントローラデバイスの制御方法、及びプログラム
 本発明は、情報処理システム、コントローラデバイス、コントローラデバイスの制御方法、及びプログラムに関する。
 家庭用ゲーム機等におけるコントローラデバイスは、ユーザが行ったボタン押下やデバイスを振る等の動作を検出して、ゲーム機等の本体に当該検出したユーザの動作を表す情報を送出している。従来、こうしたコントローラデバイスのうちには、手袋のようにユーザの手に装着して、指の動きを検出するものが知られている。
 また、こうしたコントローラデバイスでは、ユーザに対して振動をフィードバックする振動子を有しているものがある。このようなコントローラデバイスは、家庭用ゲーム機等の情報処理装置から入力される振動強度で、振動子を振動させる。
 しかしながら、コントローラデバイスの振動によりユーザが感じる振動は、ユーザの手とコントローラデバイスとの密着の度合いによって異なる。またコントローラデバイスを手に固定する方法によっては密着の度合いがプレイの度に異なる場合がある。このため、本来提示されるべき振動強度による体感と、ユーザが実際に体感する振動とが大きく異なってしまったり、同じ強度の振動であってもプレイごとに異なってしまったりといった事態が生じる。
 本発明は上記実情に鑑みて為されたもので、ユーザに対してより安定した体感を提示できるコントローラデバイス及びプログラムを提供することを、その目的の一つとする。
 上記従来例の問題点を解決する本発明の一態様は、ユーザの手に固定されるコントローラデバイスと、当該コントローラデバイスに接続され、コントローラデバイスとの間で情報の送受信を行う情報処理装置とを含む情報処理システムであって、前記コントローラデバイスが、コントローラデバイスの筐体を振動させる振動子を備え、前記振動子の振動強度と振動周波数との少なくとも一方を表す情報を受け入れる受入手段と、コントローラデバイスとユーザの手との接触状態に係る情報を取得する取得手段と、前記振動子を振動させる振動制御手段と、を有し、前記コントローラデバイスと情報処理装置とのいずれかが、前記コントローラデバイスの取得手段が取得した情報に基づき、振動強度と振動周波数との少なくとも一方を表す情報を補正する補正手段を備え、前記コントローラデバイスの振動制御手段が、当該補正された情報で表される振動強度と振動周波数にて、前記振動子を振動させることとしたものである。
本発明の実施の形態に係るコントローラデバイスの例を表す概要説明図である。 本発明の実施の形態に係るコントローラデバイスの例を表す構成ブロック図である。 本発明の実施の形態に係る情報処理システムの例を表す構成ブロック図である。 本発明の実施の形態に係るコントローラデバイスの例を表す機能ブロック図である。 本発明の実施の形態に係る情報処理システムが用いる補正のパラメータの例を表す説明図である。 本発明の実施の形態に係る情報処理システムの動作例を表すフローチャート図である。
 本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明において各部の大きさやその比、配置等は一例であり、本実施の形態の例は、図示等した大きさや比率、配置に限られるものではない。
 本発明の実施の形態に係る情報処理システムは、情報処理装置1とコントローラデバイス20とを含む。ここで情報処理装置1は、例えば家庭用ゲーム機等のコンピュータ機器であり、コントローラデバイス20は、この情報処理装置1に接続される。
 本発明の実施の形態に係るコントローラデバイス20は、ユーザの左手または右手に装着されて固定される。以下の説明において、ユーザの左手に固定されるコントローラデバイス20と、右手に固定されるコントローラデバイス20とを区別する必要がある場合は、ユーザの左手に固定されるコントローラデバイス20をコントローラデバイス20L、ユーザの右手に固定されるコントローラデバイス20をコントローラデバイス20RとそれぞれL,Rの符号を付して区別する。
 このコントローラデバイス20の一例は、図1にその概要を例示するように、デバイス本体210と、このデバイス本体210に固定された固定具220とを含んで構成される。また、このコントローラデバイス20は、図2に示すように、デバイス本体210内に、制御部21と、記憶部22と、操作インタフェース23と、センサ部24と、バイブレータ25と、通信部26とを含んだ回路部を備えて構成される。
 デバイス本体210は、ユーザの左手に装着されるものと、右手に装着されるものとで、いずれもその形状が同一となっていてもよい。本実施の形態の例では、固定具220は例えば可撓性あるベルトとバックルとを有し、ベルトとバックルとにより直径が調整可能な環状部を形成するものとする。そしてユーザは、この環状部に人差指から小指までを通し、デバイス本体210がユーザの親指の付根(人差指から小指のMP関節に相当する位置)に当接させた位置に固定されるように環状部の直径を適宜調整し、バックルで固定する。
 デバイス本体210は、ユーザにより把持される把持部211と、操作部212と、位置提示部213とを含む。把持部211は、本実施の形態の一例では実質的に多角形柱状をなしている。操作部212は、把持部211から連続して形成されており、図1の例では、ボタン操作部231を含む。またこのデバイス本体210の側面側(デバイス本体210の背面をユーザの手の平に当接させたときに指側に向いた面)には、後に説明するセンサ部24の指センサ241が設けられている。位置提示部213は、デバイス本体210の上側(ユーザの手に固定した際、親指側)背面に配され、例えばLED等の発光素子を少なくとも一つ含んで構成される。この位置提示部213は、コントローラデバイス20の動作中はコントローラデバイス20ごとに固有の、予め指定された色の光を発光するものとする。またこの位置提示部213は、コントローラデバイス20ごとに固有な色のマーカー等、各コントローラデバイス20の位置をそれぞれ外部から検出できればよく、必ずしも発光素子でなくてもよい。
 またこのコントローラデバイス20の大きさは、ユーザが自然にデバイス本体210を把持したときに、その一方端がユーザの親指の先端が到達する位置よりやや外側に位置し、その他方端が、小指の付け根(MP関節に相当する位置)からやや突出する位置にある程度の大きさとする。なおコントローラデバイス20は、コントローラデバイス20を装着した状態でユーザが手を開いても、固定具220によりユーザの手に固定されるので、落下することはない。
 本実施の形態の一例において、指センサ241は光学センサであり、赤外光を放射する発光部と、赤外光を検出する受光部とを有し、発光部から放射された光が対象物に反射して受光部に入射する割合を測定することで、障害物までの距離を検出する。この指センサ241の位置からデバイス本体210の側面側(デバイス本体210の背面をユーザの手の平に当接させたときに指側に向いた面)にある障害物までの距離を検出する。この例では、ユーザがデバイス本体210を手に固定し、指を伸ばした状態からデバイス本体210を握り込む形まで手を動かすと、指センサ241は指を伸ばした状態では、ユーザの指の先端の方向にある障害物(例えばユーザが指を下方に向けた状態であれば床面等)までの距離を検出することとなる。その後、ユーザの指が曲げられると、指の第2関節または第3関節の表面までの距離が検出され、ユーザがデバイス本体210を握り込んだ状態では、指センサ241に指の表面が接するため、この指センサ241が検出する距離は「0」となる。
 なお、この指センサ241は、少なくとも人差指から小指までのそれぞれに対応して設けられ、それぞれが障害物までの距離の情報を得てもよいし、人差指から小指までのうち一部の指(一つの指だけでもよい)に対応して設けられ、それぞれが障害物までの距離の情報を得るものであってもよい。さらに指センサ241は、5個以上備えられ、コントローラデバイス20の側面側(デバイス本体210の背面をユーザの手の平に当接させたときに指側に向いた面)に一列に配されていてもよい。またこの指センサ241は、所定のタイミングごとに繰り返して障害物までの距離を検出し、当該検出した距離の情報を出力するものとする。
 本実施の形態では、ここで制御部21は、CPU等のプログラム制御デバイスであり、記憶部22に格納されたプログラムに従って動作する。本実施の形態ではこの制御部21は、操作インタフェース23からユーザが操作部212においてした操作の内容を表す情報の入力を受け、当該情報を、通信部26を介して情報処理装置1へ出力する。またこの制御部21は、センサ部24に含まれるセンサが出力する情報を、通信部26を介して情報処理装置1へ出力する。
 記憶部22は、メモリデバイス等であり、制御部21によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部22に複写されたものであってもよい。またこの記憶部22は、制御部21のワークメモリとしても動作する。
 操作インタフェース23は、操作部212にてユーザが行った操作の内容を表す情報を制御部21に出力する。センサ部24は、少なくとも一つのセンサを含み、当該センサが出力する情報を制御部21に出力する。本実施の形態の一例では、このセンサ部24は、既に説明した指センサ241のほか、コントローラデバイス20のデバイス本体210の傾きを検出する傾きセンサ242や、コントローラデバイス20の動きを検出する加速度センサ243を含んでもよい。さらにこのセンサ部24は、複数の静電容量センサ245を含んでもよい。
 ここで傾きセンサ242は、デバイス本体210の長手方向の軸まわりの回転角の情報と、長手方向の軸の重力の向きに対する角度の情報とを検出して出力する。加速度センサ243は、コントローラデバイス20に加えられる各軸方向の加速度を検出し、当該検出の結果を出力する。なお、ここで加速度の方向は、コントローラデバイス20の長手方向をZ軸とし、このZ軸を法線とする面内で、ユーザの指が位置するべき方向をX軸、上記面内でX軸に直交する方向をY軸とするなどして予め定めておけばよい。
 バイブレータ25は、本発明の振動子に相当し、制御部21から振動周期と振動強度とを指示する信号の入力を受けて、当該指示された振動周期・振動強度にて振動する。通信部26は、USBインタフェース等の有線インタフェースや、ブルートゥース(登録商標)等の無線インタフェースであり、制御部21から入力される指示に従い、種々の情報を情報処理装置1に対して出力している。
 情報処理装置1は、図3に例示するように、制御部11と、記憶部12と、インタフェース部13と、撮像部14と、出力部15とを含んで構成されている。制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。
 記憶部12は、メモリデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部12に複写されたものであってもよい。またこの記憶部12は、制御部11のワークメモリとしても動作する。
 インタフェース部13は、コントローラデバイス20に無線又は有線にて接続され、コントローラデバイス20からユーザの操作の内容を表す情報や、指センサ241において検出した距離の情報(指センサ241が各指に対応して複数ある場合は、各指に対応する指センサ241が検出した複数の距離の情報)を受け入れ、制御部11に出力する。
 撮像部14は、ユーザの位置する範囲を撮像範囲として設置されたカメラ等であり、ユーザを含む画像を所定のタイミングごとに繰り返して撮像し、当該画像のデータを制御部11に出力する。
 出力部15は、例えばHDMI(登録商標)インタフェース等、家庭用テレビジョンに対して映像等を出力するインタフェースを有する。この出力部15は、制御部11から入力される指示に従い、表示するべき映像の情報を出力する。
 本実施の形態の一例では、コントローラデバイス20の制御部21が、情報処理装置1から振動子の振動強度を表す情報を受け入れる。またこの制御部21は、コントローラデバイス20とユーザの手との接触状態に係る情報を取得する。そして制御部21は、当該取得した情報に基づき、受け入れた振動強度を表す情報を補正する。制御部21は、ここで補正された情報で表される振動強度にて、振動子であるバイブレータ25を振動させる。
 ここでコントローラデバイス20とユーザの手との接触状態に係る情報には、コントローラデバイス20とユーザの手との接触面積に係る情報や、ユーザの手がコントローラデバイス20に対して加える圧力の情報等が含まれる。
 この例の制御部21は、機能的には、図4に例示するように、受入部41と、取得部42と、補正部43と、振動制御部44とを含んで構成される。
 受入部41は、情報処理装置1から振動子の振動強度と振動周波数とを表す情報を受け入れる。この振動強度と振動周波数とを表す情報は、具体的には、振動振幅の時間tに対する変化を表す波形情報v(t)であり、音声信号と同様のものでよい。もっとも、本実施の形態においてこの振動強度や振動周波数を表す情報は、波形情報に限られず、振動強度を指定する数値の情報や、振動周波数を指定する数値の情報であってもよい。
 取得部42は、コントローラデバイス20とユーザの手との接触面積に係る情報を取得する。本実施の形態の一例に係る取得部42は、ユーザの指の屈伸の状態を、コントローラデバイス20とユーザの手との接触面積に係る情報として取得する。すなわち、この取得部42は、指センサ241が検出するデバイス本体210の表面から各指までの距離の情報に基づいて、ユーザの指が曲げられてデバイス本体210の表面に触れている(コントローラデバイス20を握っている)か、ユーザの指が伸ばされて、デバイス本体210の表面から離れているかを表す情報を取得する。
 具体的に、取得部42は、ある指までの距離が「0」または予め定めた値より小さい場合に、当該指が曲げられてデバイス本体210の表面に触れている(コントローラデバイス20を握っている)と判断する。また、取得部42は、ある指までの距離が予め定めた値より大きい場合に、当該指が伸ばされてデバイス本体210の表面から離れていると判断する。
 補正部43は、取得部42が取得した情報に基づき、受入部41が受け入れた振動強度または振動周波数の少なくとも一方を表す情報を補正する。以下の例では、説明を簡単にするため、振動強度を補正する例について述べる。例えば、この補正部43は、ユーザの指が伸びているほど振動強度を強めるよう補正する。具体的に、この補正部43は、取得部42により、伸ばされてデバイス本体210の表面に触れていない(コントローラデバイス20を握っていない)と判断された指の数に基づき、次のように振動強度を補正する。
 すなわち補正部43は、予め設定され、記憶部22に格納されている補正率の情報を参照する。この補正率の情報は、例えば、図5に例示するように、伸ばされて、デバイス本体210の表面に触れていない指の数(n=0,1,2…)と、振動強度の補正率r(n)とを関連付けたものである。補正部43は、取得部42が取得した情報により、伸ばされてデバイス本体210の表面に触れていない指の数がnであったときには、この数nに関連付けられている補正率r(n)を用いて次のように演算する。すなわち補正部43は、受入部41が受け入れた情報が表す波形情報v(t)に対する補正後の波形情報V(t)を、V(t)=r(n)×v(t)として得て出力する。この補正はつまり、波形情報v(t)の振幅をr(n)倍することに相当する。
 ここで予め設定された補正率r(n)が振動強度の低減率(つまり0<r(n)≦1)であるときは、N>nなるN,nについて、r(N)<r(n)としておく。これにより、伸ばされてデバイス本体210の表面に触れていない指が多いほど、つまり、ユーザの指が伸びているほど振動強度の低減率が小さくなり、ユーザの指が伸びているほど振動強度を強めるよう補正されることとなる。また予め設定された補正率r(n)が振動強度の増大率(つまりr(n)≧1)であるときは、N>nなるN,nについて、r(N)>r(n)としておく。これにより、伸ばされてデバイス本体210の表面に触れていない指が多いほど、つまり、ユーザの指が伸びているほど振動強度の増大率が大きくなり、ユーザの指が伸びているほど振動強度を強めるよう補正されることとなる。
 振動制御部44は、補正部43から補正された情報で表される波形情報V(t)の入力を受け入れて、当該補正後の波形情報V(t)にて、振動子であるバイブレータ25を振動させる。このような、波形情報に基づいてバイブレータ等の振動子を振動させる制御の方法は、広く知られているので、ここでの詳しい説明を省略する。なお、波形情報ではなく、振動強度や振動周波数の情報が入力されるときには、この振動制御部44は、当該入力された情報によって表される振動強度に比例する振幅で、入力された情報によって表される振動周波数に比例する周波数にて、振動子を振動させる。なお、いずれか一方の入力がない場合は、予めデフォルトとして定められた振動強度、または振動周波数で振動子を振動させることとしておけばよい。
 また、本実施の形態の一例において補正部43は、上述のように、伸ばされてデバイス本体210の表面に触れていない指の数に応じて振動強度を補正する場合に代えて、指センサ241が検出した指までの距離の値に応じて振動強度を補正してもよい。
 例えば補正部43は、人差指、中指、薬指、小指の各指に対応する指センサ241が検出したそれぞれの指までの距離Li(iは、人差指、中指、薬指、小指に対応するインデックスであり、i=1,2,3,4)を用い、これらの平均などの統計値Lに応じて、次のように振動強度を補正してもよい。すなわち、補正部43は、距離に係る統計値Lが大きいほど、つまりユーザの指が伸びているほど振動強度を強めるよう補正する。一例として、統計値Lを用いた増大率r=(αL+1)を用い、受入部41が受け入れた情報が表す振動強度v(t)に対する補正後の振動強度V(t)を、V(t)=r×v(t)として得て、出力する。この補正はつまり、振幅をr=(αL+1)倍することに相当する。なお、ここでαは正の比例定数であり、実験的に定めることとすればよい。
 また、この統計値Lは重みづけ平均であってもよい。例えば補正部43は、振動子の取り付け位置により、指を曲げたときにもっとも振動子の取り付け位置に近い位置に接する指に対する重みwnと、そうでない指に対する重みwdとで、0<wn<wdとなるように設定した重みを用いて、指を曲げたときにもっとも振動子の取り付け位置に近い位置に接する指までの距離Lnと、それ以外の指までの距離Ld1,Ld2,Ld3とを用い、L=(wn×Ln+wd×(Ld1+Ld2+Ld3))/(wn+3wd)として演算してもよい。
 また、補正部43は人差指、中指、薬指、小指の各指について、それぞれの指を曲げたときに触れるデバイス本体210の表面上の位置と、振動子の位置との距離に応じて、この距離が大きいほど大きい値となるように設定された重みwi(このiも、人差指、中指、薬指、小指に対応するインデックスであり、i=1,2,3,4とする)を用い、L=Σ(wi×Li)/Σwiとしてもよい。ここでΣは、iを1から4まで変化させたときの総和を意味する。
 さらに本実施の形態の別の例では、コントローラデバイス20とユーザの手との接触面積に係る情報として、指センサ241が検出した指までの距離の値に基づく情報に代えて、またはこれとともに、コントローラデバイス20と手との密着の度合いや圧力に関する情報を用いてもよい。この情報を用いるのは、すべての指が伸ばされた状態であっても、ユーザの手の平との接触面積が大きい場合と小さい場合とでユーザの振動の感じ方が異なることを考慮したものである。
 一例として、取得部42は、コントローラデバイス20とユーザの手との接触面積に係る情報(の少なくとも一部)として、振動子を振動している間に、コントローラデバイス20自体がどれだけ振動するか(つまり、加速度センサ243がどれだけの振動を検出するか)を調べる。例えば取得部42は、振動制御部44が振動子としてのバイブレータ25を振動制御している間に、加速度センサ243が検出する加速度の大きさの情報A(X,Y,Zの各軸ごとの加速度Ax,Ay,Azを合成した合成加速度の情報、例えばA=√(Ax2+Ay2+Az2)とする)を用いて次の演算を行う。すなわち取得部42は、ここで求めた加速度の大きさの情報A(なお、この加速度の大きさAは、時間τとともに変動するので以下ではA(τ)と表す)の、振動制御に用いた補正後の振動強度V(τ)に対する割合E(τ)=A(τ)/V(τ)を求める。このとき、デバイス本体210の振動がユーザの手によって押さえられているほど、この割合E(τ)は小さくなるため、この割合E(τ)が小さいほど、コントローラデバイス20とユーザの手との密着の度合いが大きく、この割合E(τ)が大きいほど、コントローラデバイス20とユーザの手との密着の度合いが小さいと推定できる。
 そこで取得部42は、この割合E(τ)に基づく情報を、コントローラデバイス20とユーザの手との接触面積に係る情報(の少なくとも一部)として出力する。例えばこの割合E(τ)を振動中の時間全体で積分して(所定のタイミングごとのE(τ)の値を総和するなどして近似的に積分の結果を得て)、その結果の情報εを出力する。この積分の結果εにおいても、この値εが小さいほど、コントローラデバイス20とユーザの手との密着の度合いが大きく、この値εが大きいほど、コントローラデバイス20とユーザの手との密着の度合いが小さいと推定できる。
 なお、取得部42は、ユーザの指の屈伸の状態も、コントローラデバイス20とユーザの手との接触面積に係る情報として取得して、この割合に係る情報εとともに出力してもよい。
 この例では補正部43は、取得部42が出力する割合に係る情報εが大きいほど(つまり、コントローラデバイス20とユーザの手との密着の度合いが小さいと推定されるほど)、受入部41が受け入れた情報が表す振動強度v(t)を、強めるよう補正する。
 一例として補正部43は、割合に係る情報εを用いて、1より大きい値βを生成し(例えばβ=γ×(1+ε)とすればよい。ここでγは1より大きい値であり実験的に定めればよい)、受入部41が受け入れた情報が表す波形情報v(t)に対する補正後の波形情報V(t)を、V(t)=β×v(t)として得て出力する。この補正はつまり、振幅をβ倍することに相当する。
 なお、補正部43は、取得部42が上記割合に係る情報εとともに、指の屈伸の状態を表す情報も出力しているときには、この指の屈伸の状態を表す情報に基づいて得られた補正のパラメータ(上述のr(n)またはr)を併せて用い、受入部41が受け入れた情報が表す波形情報v(t)に対する補正後の波形情報V(t)を、V(t)=β×r(n)×v(t)またはV(t)=β×r×v(t)として得て、出力してもよい。
 さらに、別の例では、この補正部43は、取得部42が出力する割合E(τ)またはεが、予め定めたしきい値を超える(または下回る)場合に、波形情報v(t)を補正してもよい。この場合の補正率は、割合E(τ)やεによらず、予め定めたβ′を用いて、V(t)=β′×v(t)とすることとしてもよい。
[動作]
 本発明の実施の形態に係る情報処理システムは以上の構成を備えており、次のように動作する。本実施の形態の情報処理システムでは、図6に例示するように、情報処理装置1が、ゲームプログラム等のアプリケーションプログラムの指示に従って、コントローラデバイス20に対し、振動を提示する指示を出力する(S1)。この指示は例えば振動強度(振動振幅)の時間tに対する変化を表す波形情報v(t)として出力される。
 コントローラデバイス20は、情報処理装置1から振動強度を表す情報を受け入れる。またコントローラデバイス20は、コントローラデバイス20自身とユーザの手との接触面積に係る情報を取得する(S2)。具体的に本実施の形態の一例では、コントローラデバイス20は、指センサ241が検出するデバイス本体210の表面から各指までの距離の情報に基づいて、ユーザの指が曲げられてデバイス本体210の表面に触れている(コントローラデバイス20を握っている)か、ユーザの指が伸ばされて、デバイス本体210の表面から離れているかを表す情報を取得する。
 そしてコントローラデバイス20は、人差指、中指、薬指、小指の各指に対応する指センサ241が検出したそれぞれの指までの距離Li(iは、人差指、中指、薬指、小指に対応するインデックスであり、i=1,2,3,4)を用い、これらの平均Lを求める。
 コントローラデバイス20は、ここで求めた統計値である平均Lを用いて増大率r=(αL+1)とする。コントローラデバイス20は、情報処理装置1から受け入れた情報が表す波形情報v(t)に、この増大率を乗じて(振動強度である振幅を増大率rだけ振幅を増大させて)、補正後の波形情報V(t)を得る(S3)。
 コントローラデバイス20は、ここで得た補正後の波形情報V(t)に基づいて、振動子であるバイブレータ25を振動させる(S4)。
 この例によると、ユーザの指が伸びているほど距離に係る統計値Lが大きくなり、振動強度が強めに補正される。このため、情報処理装置1から入力される振動の指示が同じであっても、ユーザがコントローラデバイス20を握っている(コントローラデバイス20のデバイス本体210にユーザの手がより密接に接触している)ときよりも、ユーザがコントローラデバイス20から指を放しているときのほうが、振幅が大きく補正された状態で振動が提示されることとなる。こうしてユーザの指がデバイス本体210から離れているか否かに関わらず、同等の振動体験がユーザに提示されることとなる。
 また本実施の形態の例では、コントローラデバイス20は、振動子としてのバイブレータ25を振動させている間に、加速度センサ243が検出する加速度の大きさの情報Aを得る。そしてコントローラデバイス20は、指示した振動(補正後の振動強度)に対するこの加速度の大きさAの割合の平均(振動中の平均)εを求める。
 このεは、その値が小さいほど、コントローラデバイス20とユーザの手との密着の度合いが大きく、εの値が大きいほど、コントローラデバイス20とユーザの手との密着の度合いが小さいと推定できる。
 コントローラデバイス20は、上記εの値を求めた後、当該εの値が大きいほど(つまり、コントローラデバイス20とユーザの手との密着の度合いが小さいと推定されるほど)、情報処理装置1から入力される振動強度v(t)を、強めるよう補正する。例えば、コントローラデバイス20は、上記の割合に係る情報εを用いて、β=γ×(1+ε)などのようにして、1より大きい値βを生成する。
 そして、コントローラデバイス20は、情報処理装置1から波形情報v(t)を表す情報を受け入れると、指の屈伸の状態を表す情報に基づいて得られた補正のパラメータrと、ここで生成したβとを用い、受け入れた情報が表す波形情報v(t)に対する補正後の波形情報V(t)を、V(t)=β×r×v(t)として得る。
 そしてコントローラデバイス20は、ここで得た補正後の波形情報V(t)に基づいて、振動子であるバイブレータ25を振動させる。
 本実施の形態の例によると、ユーザの手とコントローラデバイス20との接触面積が小さいほど、入力された振動強度を強くなるように(振幅が増大されるように)制御される。また、ユーザの手とコントローラデバイス20との接触面積が大きいほど、入力された振動強度が弱くなるように(振幅を減衰させるように)制御される。
[情報処理装置において補正を行う例]
 また、ここまでの説明においては、コントローラデバイス20が情報処理装置1から受け入れた振動強度や振動周波数の情報を補正することとしていたが、振動強度や振動周波数の補正は情報処理装置1側において行っても構わない。この場合、情報処理装置1の制御部11が、受入部41、取得部42、及び補正部43としての動作を行うこととなる。
 すなわちこの例では、制御部11が実現する受入部41は、アプリケーションプログラムからコントローラデバイス20を振動させる指示を受け入れる。この場合も、振動強度や振動周波数を表す情報は、具体的には、振動強度(振動振幅)や振動周波数の時間tに対する変化を表す波形情報v(t)であり、音声信号と同様のものである。
 制御部11の取得部42は、コントローラデバイス20とユーザの手との接触面積に係る情報を取得する。この例では、制御部11は、コントローラデバイス20から、ユーザの指の屈伸の状態を表す情報(例えば伸ばされている指の数や、各指までの距離の情報等)を受け入れる。
 制御部11の補正部43は、取得部42が取得した情報に基づき、受入部41が受け入れた振動強度や振動周波数を表す情報を補正する。この補正部43の動作は、コントローラデバイス20の制御部21により補正部43が実現される場合の動作と同様である。制御部11は、この補正部43にて補正して得られた振動強度や振動周波数の情報(補正した波形情報V(t))を、コントローラデバイス20へ出力する。
 そしてコントローラデバイス20が、補正後の波形情報V(t)を情報処理装置1から受信して、当該受信した補正後の波形情報V(t)に基づいて、振動子であるバイブレータ25を振動させる。
 また、この例のように振動強度や振動周波数の補正を情報処理装置1側において行う場合、情報処理装置1は、ゲームプログラム等のアプリケーションプログラムの処理として当該補正の処理を実行してもよい。この場合、コントローラデバイス20から取得した、コントローラデバイス20とユーザの手との接触面積に係る情報に基づき、振動強度や振動周波数の情報を補正する処理がゲーム等の処理として行われることとなる。このため、ゲームの内容に応じた補正を実行することが可能となる。
[カメラで情報を取得する例]
 なお、このように情報処理装置1にて補正を行う場合に、ユーザの手との接触面積に係る情報(ユーザの指の屈伸に関する情報等)は、コントローラデバイス20から受信することとしてもよいが、これに代えて、撮像部14にて撮像したユーザの画像から手の位置を検出し、その形状等を認識する処理を実行して、ユーザの指が伸びているか否かを判断することとしてもよい。
 一例としてユーザの画像から検出された手の部分の肌色部分に外接する矩形の面積を求め、この面積が予め定めた閾値を超える場合に、ユーザの指が伸びているとしてアプリケーションプログラムから指示された波形情報v(t)の振動強度を強める(振幅を増大させる)補正を行ってもよい。または、上記面積が予め定めた閾値を下回る場合に、ユーザの指が曲げられているとして、アプリケーションプログラムから指示された波形情報v(t)の振動強度を弱める(振幅を減衰させる)補正を行ってもよい。
[ベルトの長さを使う例]
 また、ここまでの説明ではコントローラデバイス20が、コントローラデバイス20自身と、ユーザの手との密着の度合いを表す情報として、振動子を振動している間に、コントローラデバイス20自体がどれだけ振動するか(つまり、加速度センサ243がどれだけの振動を検出するか)を調べることとしていたが、本実施の形態はこれに限られない。
 具体的にこの密着の度合いを表す情報は、固定具220の環状部の直径(あるいは環状部のベルトの周長やバックルの固定位置)を表すものであってもよい。例えばコントローラデバイス20は、ベルト全体の長さとバックルの固定位置とから、環状部のベルトの周長を求めて密着の度合いを表す情報としてもよい。この例では、コントローラデバイス20は、当該情報を情報処理装置1へ送出する。
 情報処理装置1では、ユーザを認証しておく。また情報処理装置1は、当該認証したユーザについて、コントローラデバイス20から過去p回(例えばp=5などと予め定めておく)に亘って受信した環状部のベルトの周長等の密着度合いの情報を記憶しておく。情報処理装置1は、過去p回に亘って受信した密着度合いの情報の平均値AVと、今回コントローラデバイス20から受信した密着の度合いを表す情報Cとの比C/AVを得る。なお、過去p回分の情報が記憶されていない場合は、一般的なユーザの平均値を予め記憶部12に格納しておき、この一般的なユーザの平均値を平均値AVとしてもよい。
 ここで、密着度合いの情報を、環状部のベルトの周長とし、比C/AVを用いる場合は、この値が1を超えて大きいほど、密着度合いは低い(締めつけが緩い)こととなる。そこで、情報処理装置1またはコントローラデバイス20は、この比の値C/AVを用いて、受け入れた情報が表す波形情報v(t)に対する補正後の波形情報V(t)を、V(t)=C/AV×v(t)と補正する。
 なお、指の屈伸に基づく情報r(n)またはrが得られている場合は、情報処理装置1またはコントローラデバイス20は、受け入れた情報が表す波形情報v(t)に対する補正後の波形情報V(t)を、V(t)=C/AV×r(n)×v(t)またはV(t)=C/AV×r×v(t)とする。
[静電容量センサを用いる例]
 さらに、本実施の形態の例では、指の屈伸状態や、ベルトの締めつけの度合い(環状部のベルトの周長等)、あるいは振動子を振動させているときのコントローラデバイス20自身の振動の強さにより、ユーザの手とコントローラデバイス20との接触面積に係る情報を得ていたが、本実施の形態はこれに限られない。
 例えば本実施の形態の別の例では、コントローラデバイス20のデバイス本体210表面であって、ユーザの手が接触し得る範囲に亘って、複数の静電容量センサ245を配してもよい。この場合、各静電容量センサ245の出力により、ユーザの手とデバイス本体210との接触面積Qと、密着の度合い(ユーザの手がどの程度の強さでデバイス本体210表面を押圧しているか)Fとがより直接的に検出できる。
 この場合も、予め基準となる接触面積Qavと、密着度合いFavと(実験的に、平均的な接触面積と密着度合いとを得ておけばよい)に対して、ここで検出した接触面積Qと密着度合いFとの比、Q/Qav及びF/Favを求め、情報処理装置1またはコントローラデバイス20が、受け入れた情報が表す波形情報v(t)に対する補正後の波形情報V(t)を、V(t)=Q/Qav×F/Fav×v(t)とすればよい。
 これにより、上記検出により取得した情報が表す接触面積が小さいほど、振動強度が強めるよう補正されることとなる。
[他の補正態様の例]
 なお、ここまでの例ではコントローラデバイス20とユーザの手との接触面積が小さいほど、振動強度を強める補正を行うものとしたが、本実施の形態はこれに限られず、コントローラデバイス20とユーザの手との接触面積が小さいほど振動強度を弱めるよう補正してもよい。これはユーザの手との接触面積があまりにも小さい場合には、振動させても演出効果が低いと考えられるからである。
 また、コントローラデバイス20とユーザの手との接触面積の大小に応じて単調に(大きいほど振動強度を強める、あるいは大きいほど振動強度を弱めるというように単調に)補正するのではなく、接触面積に応じた補正率の大きさを接触面積の関数として設定しておき、当該設定に基づいて補正率を定めても構わない。例えば、コントローラデバイス20とユーザの手との接触面積が所定のしきい値未満のときには、当該しきい値より接触面積が小さいほど振動強度を弱める補正を行い、接触面積が当該しきい値を超える場合は、当該しきい値より接触面積が大きいほど、振動強度を弱める補正を行うようにしてもよい。この例では、接触面積がしきい値に等しい場合には指示された波形情報v(t)に基づく振動が提示され、当該しきい値から離れるほど、波形情報v(t)より減衰された振動が提示されることとなる。
[振動周波数の補正]
 なお、ここまでの例では、波形情報v(t)のうち、振動強度に対応する振幅を増幅または減衰させる例について説明してきたが、本実施の形態はこれに限られない。例えば、これまでの説明で波形情報の振幅を補正するとしていたのに代えて、または振幅を補正するときに、振幅の補正とともに、振動周波数を高める、あるいは低くする補正してもよい。
 なお、与えられた波形情報v(t)の振動振幅を変化させる補正は、ピッチ変更等の広く知られた処理によって実現できるため、補正方法に関する詳しい説明は省略する。また振動強度と振動周波数との双方を補正してもよい。
[圧力センサの例]
 さらに、本実施の形態の一例では、コントローラデバイス20が圧力センサを備えて、コントローラデバイス20とユーザの手との密着度合いの情報の一つとして、ユーザの手からコントローラデバイス20に加えられる圧力(コントローラデバイス20を握る力)を検出してもよい。このような圧力センサは広く知られた種々のものが利用できるので、ここでの詳しい説明を省略する。
 本実施の形態において圧力センサを用いる場合は、圧力センサが検出したユーザの手からコントローラデバイス20に加えられる圧力が予め定めたしきい値を超える場合に、情報処理装置1またはコントローラデバイス20の制御部21が波形情報等、振動強度や振動周波数を補正することとしてもよい。
 また、圧力センサが検出したユーザの手からコントローラデバイス20に加えられる圧力が予め定めたしきい値を下回る場合に、情報処理装置1またはコントローラデバイス20の制御部21が波形情報等、振動強度や振動周波数を補正することとしてもよい。
 さらに、圧力センサが検出したユーザの手からコントローラデバイス20に加えられる圧力の値に応じた補正率で、情報処理装置1またはコントローラデバイス20の制御部21が波形情報等、振動強度や振動周波数を補正することとしてもよい。
[実施例の効果]
 このように本実施の形態によると、ユーザの手とコントローラデバイス20との間の接触面積が変動しても、それに応じて振動の強度が補正されるので、ユーザに対してより安定した体感を提示できる。
 1 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、14 撮像部、15 出力部、20 コントローラデバイス、21 制御部、22 記憶部、23 操作インタフェース、24 センサ部、25 バイブレータ、26 通信部、41 受入部、42 取得部、43 補正部、44 振動制御部、210 デバイス本体、211 把持部、212 操作部、213 位置提示部、220 固定具、231 ボタン操作部、241 指センサ、242 傾きセンサ、243 加速度センサ、245 静電容量センサ。
 

Claims (11)

  1.  ユーザの手に固定されるコントローラデバイスと、当該コントローラデバイスに接続され、コントローラデバイスとの間で情報の送受信を行う情報処理装置とを含む情報処理システムであって、
     前記コントローラデバイスが、コントローラデバイスの筐体を振動させる振動子を備え、
     前記振動子の振動強度と振動周波数との少なくとも一方を表す情報を受け入れる受入手段と、
     コントローラデバイスとユーザの手との接触状態に係る情報を取得する取得手段と、
     前記振動子を振動させる振動制御手段と、
    を有し、
     前記コントローラデバイスと情報処理装置とのいずれかが、前記コントローラデバイスの取得手段が取得した情報に基づき、振動強度と振動周波数との少なくとも一方を表す情報を補正する補正手段を備え、
     前記コントローラデバイスの振動制御手段が、当該補正された情報で表される振動強度と振動周波数にて、前記振動子を振動させる情報処理システム。
  2.  ユーザの手に固定されるコントローラデバイスであって、
     コントローラデバイスの筐体を振動させる振動子を備え、
     前記振動子の振動強度を表す情報を受け入れる受入手段と、
     コントローラデバイスとユーザの手との接触状態に係る情報を取得する取得手段と、
     前記取得手段が取得した情報に基づき、前記受け入れた振動強度と振動周波数の少なくとも一方を表す情報を補正する補正手段と、
     当該補正された情報で表される振動強度と振動周波数にて、前記振動子を振動させる振動制御手段と、
     を含むコントローラデバイス。
  3.  請求項1記載の情報処理システムであって、
     前記取得手段は、ユーザの指の屈伸の状態を、コントローラデバイスとユーザの手との接触状態に係る情報として取得し、
     前記補正手段は、ユーザの指の屈伸の状態に応じて前記振動強度と振動周波数の少なくとも一方を表す情報を補正する情報処理システム。
  4.  請求項1または3記載の情報処理システムであって、
     前記取得手段が取得する情報には、コントローラデバイスとユーザの手との密着の度合いに関する情報が含まれ、
     前記補正手段は、コントローラデバイスとユーザの手との密着の度合いに応じて前記振動強度と振動周波数の少なくとも一方を表す情報を補正する情報処理システム。
  5.  請求項4に記載の情報処理システムであって、
     前記取得手段は、圧力センサを有し、当該圧力センサの検出結果に基づいて、コントローラデバイスとユーザの手との密着の度合いを推定する情報処理システム。
  6.  請求項4に記載の情報処理システムであって、
     前記取得手段は、加速度センサを有し、前記振動子が振動している間に当該加速度センサの検出結果に基づいて、コントローラデバイスとユーザの手との密着の度合いを推定する情報処理システム。
  7.  請求項1に記載の情報処理システムであって、
     前記取得手段は、静電容量センサを有し、当該静電容量センサによりコントローラデバイスとユーザの手との接触状態に係る情報を取得する情報処理システム。
  8.  請求項7に記載の情報処理システムであって、
     前記補正手段は、前記取得手段が取得した情報が表す接触状態に係る情報の一つである接触面積に応じて、前記振動強度と振動周波数の少なくとも一方を表す情報を補正する情報処理システム。
  9.  ユーザの手に固定され、自身の筐体を振動させる振動子を備えたコントローラデバイスを用い、
     受入手段が、前記振動子の振動強度を表す情報を受け入れる工程と、
     取得手段が、コントローラデバイスとユーザの手との接触状態に係る情報を取得する工程と、
     補正手段が、前記取得した情報に基づき、前記受け入れた振動強度と振動周波数の少なくとも一方を表す情報を補正する工程と、
     振動制御手段が、当該補正された情報で表される振動強度と振動周波数にて、前記振動子を振動させる工程と、
     を含むコントローラデバイスの制御方法。
  10.  ユーザの手に固定され、コントローラデバイスの筐体を振動させる振動子を備えるコントローラデバイスを、
     前記振動子の振動強度を表す情報を受け入れる受入手段と、
     コントローラデバイスとユーザの手との接触状態に係る情報を取得する取得手段と、
     前記取得手段が取得した情報に基づき、前記受け入れた振動強度と振動周波数の少なくとも一方を表す情報を補正する補正手段と、
     当該補正された情報で表される振動強度と振動周波数にて、前記振動子を振動させる振動制御手段と、
     として機能させるプログラム。
  11.  ユーザの手に固定され、コントローラデバイスの筐体を振動させる振動子を備えるコントローラデバイスに接続された情報処理システムを、
     前記振動子の振動強度を表す情報を受け入れる受入手段と、
     前記コントローラデバイスとユーザの手との接触状態に係る情報を取得する手段と、
     前記取得した情報に基づき、前記受け入れた振動強度と振動周波数の少なくとも一方を表す情報を補正する補正手段と、
     当該補正された情報で表される振動強度と振動周波数を、前記コントローラデバイスに出力する手段と、
     として機能させるプログラム。
     
     
PCT/JP2017/044072 2016-12-15 2017-12-07 情報処理システム、コントローラデバイス、コントローラデバイスの制御方法、及びプログラム WO2018110432A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/345,071 US10969867B2 (en) 2016-12-15 2017-12-07 Information processing system, controller device, controller device control method and program
JP2018556628A JP6799077B2 (ja) 2016-12-15 2017-12-07 情報処理システム、コントローラデバイス、コントローラデバイスの制御方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-243639 2016-12-15
JP2016243639 2016-12-15

Publications (1)

Publication Number Publication Date
WO2018110432A1 true WO2018110432A1 (ja) 2018-06-21

Family

ID=62558302

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/044072 WO2018110432A1 (ja) 2016-12-15 2017-12-07 情報処理システム、コントローラデバイス、コントローラデバイスの制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US10969867B2 (ja)
JP (1) JP6799077B2 (ja)
WO (1) WO2018110432A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019532393A (ja) * 2017-07-27 2019-11-07 サーク・コーポレーション 二次的相互容量測定を使用する自己容量センサおよびセンサアレイの感度較正方法
WO2020079853A1 (ja) * 2018-10-19 2020-04-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、コントローラ装置、情報処理装置、及びプログラム
WO2020174786A1 (ja) * 2019-02-27 2020-09-03 株式会社東海理化電機製作所 制御装置及びプログラム
JP2021524776A (ja) * 2018-05-18 2021-09-16 バルブ コーポレーション 力検知抵抗器(fsr)を含むハンドヘルドコントローラのセンサ融合アルゴリズム
US11429187B2 (en) 2018-10-19 2022-08-30 Sony Interactive Entertainment Inc. Controller apparatus, control method thereof, and program
US11786809B2 (en) 2016-10-11 2023-10-17 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US11977681B2 (en) 2020-03-13 2024-05-07 Sony Group Corporation Information processing device and information processing method
US11992751B2 (en) 2016-10-11 2024-05-28 Valve Corporation Virtual reality hand gesture generation

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833018B2 (ja) 2017-04-18 2021-02-24 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
US11458389B2 (en) * 2017-04-26 2022-10-04 Sony Interactive Entertainment Inc. Vibration control apparatus
US11738261B2 (en) 2017-08-24 2023-08-29 Sony Interactive Entertainment Inc. Vibration control apparatus
WO2019038888A1 (ja) 2017-08-24 2019-02-28 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
US11198059B2 (en) 2017-08-29 2021-12-14 Sony Interactive Entertainment Inc. Vibration control apparatus, vibration control method, and program
US11353959B2 (en) * 2018-08-21 2022-06-07 Sony Interactive Entertainment Inc. Controller device
JP7072550B2 (ja) * 2019-11-19 2022-05-20 株式会社ソニー・インタラクティブエンタテインメント 操作デバイス
US11610459B2 (en) * 2020-04-13 2023-03-21 Google Llc Factory and user calibration of haptic systems
CN114285934B (zh) * 2020-09-17 2023-03-24 华为技术有限公司 一种振动调节方法、电子设备及计算机可读存储介质
US11775071B1 (en) * 2022-03-08 2023-10-03 Microsoft Technology Licensing, Llc Haptic feedback from a computing accessory

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054645A (ja) * 2011-09-06 2013-03-21 Denso Wave Inc 光学的情報読取装置
JP2014528120A (ja) * 2011-09-06 2014-10-23 イマージョン コーポレーションImmersion Corporation 触覚出力装置および触覚出力装置において触覚効果を生成する方法
JP2015118605A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 触感制御装置、制御方法及びプログラム
WO2016038953A1 (ja) * 2014-09-10 2016-03-17 ソニー株式会社 検出装置、検出方法、制御装置、および制御方法
WO2017043610A1 (ja) * 2015-09-08 2017-03-16 ソニー株式会社 情報処理装置、方法およびコンピュータプログラム

Family Cites Families (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5889670A (en) 1991-10-24 1999-03-30 Immersion Corporation Method and apparatus for tactilely responsive user interface
JPH0884858A (ja) * 1994-09-16 1996-04-02 Sega Enterp Ltd コントローラ保持具
US7091948B2 (en) 1997-04-25 2006-08-15 Immersion Corporation Design of force sensations for haptic feedback computer interfaces
JPH11226265A (ja) 1998-02-13 1999-08-24 Human Kk 振動ゲーム装置
EP0999518A4 (en) 1998-05-19 2005-07-27 Sony Computer Entertainment Inc IMAGE PROCESSING DEVICE AND METHOD, AND ASSOCIATED MEDIUM
US6563487B2 (en) 1998-06-23 2003-05-13 Immersion Corporation Haptic feedback for directional control pads
DE20080209U1 (de) 1999-09-28 2001-08-09 Immersion Corp Steuerung von haptischen Empfindungen für Schnittstellenvorrichtungen mit Vibrotaktiler Rückkopplung
US6766299B1 (en) 1999-12-20 2004-07-20 Thrillionaire Productions, Inc. Speech-controlled animation system
US6864877B2 (en) 2000-09-28 2005-03-08 Immersion Corporation Directional tactile feedback for haptic feedback interface devices
JP3556194B2 (ja) 2000-10-13 2004-08-18 松下電器産業株式会社 音楽再生機能を有する携帯電話機、音楽再生機能を有する携帯電話機による音楽データ再生方法およびそのプログラム
WO2002073385A1 (fr) 2001-03-08 2002-09-19 National Institute Of Advanced Industrial Science And Technology Procede et unite servant a presenter une force interieure au moyen d'un gyroscope
US7010488B2 (en) 2002-05-09 2006-03-07 Oregon Health & Science University System and method for compressing concatenative acoustic inventories for speech synthesis
JP3988608B2 (ja) 2002-10-07 2007-10-10 日本電気株式会社 バイブレータ制御機能付き無線電話機及び無線電話機のバイブレータ制御方法
JP3972800B2 (ja) 2002-11-08 2007-09-05 株式会社デンソー 入力装置
JP2005058404A (ja) 2003-08-11 2005-03-10 Family Co Ltd マッサージ機
JP4111278B2 (ja) 2003-11-20 2008-07-02 独立行政法人産業技術総合研究所 触力覚情報提示システム
US7742036B2 (en) 2003-12-22 2010-06-22 Immersion Corporation System and method for controlling haptic devices having multiple operational modes
US20080204266A1 (en) 2004-02-03 2008-08-28 Jussi Malmberg Method and Device For Implementing Vibration Output Commands in Mobile Terminal Devices
JP2005332063A (ja) 2004-05-18 2005-12-02 Sony Corp 触覚機能付き入力装置、情報入力方法及び電子機器
JP2007071782A (ja) 2005-09-08 2007-03-22 Canon Inc 位置姿勢計測システム及びその計測方法、並びに制御プログラム
US8249276B2 (en) 2005-09-15 2012-08-21 Sony Computer Entertainment Inc. Information processor and controller device
JP2007324829A (ja) 2006-05-31 2007-12-13 Toshiba Corp 振動体感再生装置及び振動体感再生方法
JP4961904B2 (ja) 2006-08-30 2012-06-27 株式会社島津製作所 ヘッドモーショントラッカ装置
JP5228307B2 (ja) 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
WO2008078523A1 (ja) 2006-12-25 2008-07-03 Konica Minolta Holdings, Inc. 手書き電子入力システム
JP3132531U (ja) * 2007-03-22 2007-06-14 株式会社バンダイナムコゲームス 装着具
US7596795B2 (en) 2007-04-17 2009-09-29 Seagate Technology Llc Vibration compensation based on identification of vibration frequency
JP4892443B2 (ja) 2007-07-09 2012-03-07 株式会社ソニー・コンピュータエンタテインメント ゲームコントローラ
EP2014341B8 (en) 2007-07-09 2017-08-30 Sony Interactive Entertainment Inc. Game Controller
GB2467461B (en) 2007-09-14 2012-03-07 Nat Inst Of Advanced Ind Scien Virtual reality environment generating apparatus and controller apparatus
WO2009035100A1 (ja) 2007-09-14 2009-03-19 National Institute Of Advanced Industrial Science And Technology バーチャルリアリティ環境生成装置及びコントローラ装置
US8727878B2 (en) 2008-07-18 2014-05-20 Disney Enterprises, Inc. Video game controller
JP5594944B2 (ja) 2008-08-05 2014-09-24 株式会社島津製作所 モーショントラッカ装置
JP5156571B2 (ja) 2008-10-10 2013-03-06 キヤノン株式会社 画像処理装置、画像処理方法
US9070282B2 (en) 2009-01-30 2015-06-30 Altorr Corp. Smartphone control of electrical devices
KR101613939B1 (ko) 2009-08-12 2016-04-20 엘지전자 주식회사 이동 단말기 및 이것의 전원 제어 방법
US9436280B2 (en) 2010-01-07 2016-09-06 Qualcomm Incorporated Simulation of three-dimensional touch sensation using haptics
JP2011183374A (ja) 2010-02-10 2011-09-22 Sanyo Electric Co Ltd 電子機器
WO2012052803A1 (en) 2010-10-19 2012-04-26 Nokia Corporation A display apparatus
JP2012103852A (ja) 2010-11-09 2012-05-31 Tokai Rika Co Ltd タッチ式入力装置
JP5887830B2 (ja) 2010-12-10 2016-03-16 株式会社ニコン 電子機器及び振動方法
CN103620928A (zh) * 2011-03-17 2014-03-05 联合活跃驱动公司 多个同步振动致动器的非对称总体振动波形
JP5738052B2 (ja) 2011-04-18 2015-06-17 京セラ株式会社 携帯情報端末、触覚サーバ、触覚サービスシステム、及び通信方法
JP2013052046A (ja) 2011-09-02 2013-03-21 Panasonic Corp 触力覚的情報提示装置
CN103828252B (zh) 2011-09-09 2016-06-29 接合技术公司 用于言语和语言训练的口内触觉生物反馈方法、装置以及系统
JP5912191B2 (ja) 2012-02-22 2016-04-27 アセルサン・エレクトロニク・サナイ・ヴェ・ティジャレット・アノニム・シルケティAselsan Elektronik Sanayi ve Ticaret Anonim Sirketi 追跡システムを最適化するためのシステムおよび方法
JP6055612B2 (ja) 2012-05-22 2016-12-27 京セラ株式会社 電子機器
US9128523B2 (en) 2012-12-20 2015-09-08 Amazon Technologies, Inc. Dynamically generating haptic effects from audio data
US9098984B2 (en) 2013-03-14 2015-08-04 Immersion Corporation Haptic effects broadcasting during a group event
WO2014200779A2 (en) 2013-06-09 2014-12-18 Sony Computer Entertainment Inc. Head mounted display
US10101789B2 (en) 2013-08-08 2018-10-16 Honeywell International Inc. Battery management in wireless mesh networks
US20150059086A1 (en) 2013-08-29 2015-03-05 Altorr Corporation Multisensory control of electrical devices
US10599218B2 (en) 2013-09-06 2020-03-24 Immersion Corporation Haptic conversion system using frequency shifting
JP6037252B2 (ja) 2013-10-25 2016-12-07 パナソニックIpマネジメント株式会社 電子機器
JP2015121983A (ja) 2013-12-24 2015-07-02 京セラ株式会社 触感呈示装置
WO2015121971A1 (ja) 2014-02-14 2015-08-20 富士通株式会社 触感提供装置、及び、システム
JP6237326B2 (ja) 2014-02-25 2017-11-29 富士通株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム
JP2015185137A (ja) 2014-03-26 2015-10-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10394326B2 (en) 2014-03-31 2019-08-27 Sony Corporation Tactile sense presentation apparatus, signal generation device, tactile sense presentation system, and tactile sense presentation method
JP6119658B2 (ja) 2014-04-07 2017-04-26 株式会社デンソー タッチ式入力システム
US10022622B2 (en) 2014-04-21 2018-07-17 Steelseries Aps Programmable actuation inputs of an accessory and methods thereof
JP6322830B2 (ja) 2014-05-09 2018-05-16 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
FR3021442B1 (fr) 2014-05-21 2018-01-12 Airbus Group Sas Procede de traitement d'informations locales
JP6167068B2 (ja) 2014-05-28 2017-07-19 日本電信電話株式会社 擬似力覚発生装置
JP6108624B2 (ja) 2014-05-30 2017-04-05 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
JP6323182B2 (ja) 2014-06-03 2018-05-16 富士通株式会社 電子書籍装置および電子書籍プログラム
JP2015231098A (ja) 2014-06-04 2015-12-21 ソニー株式会社 振動装置、および振動方法
JP2016002797A (ja) 2014-06-13 2016-01-12 アイシン精機株式会社 車両機器制御装置及び制御方法
JP6361872B2 (ja) 2014-07-09 2018-07-25 任天堂株式会社 振動生成システム、振動生成装置、振動信号生成プログラム、および振動生成方法
US10055018B2 (en) * 2014-08-22 2018-08-21 Sony Interactive Entertainment Inc. Glove interface object with thumb-index controller
US9977573B2 (en) 2014-10-31 2018-05-22 Microsoft Technology Licensing, Llc Facilitating interaction between users and their environments using a headset having input mechanisms
US9846484B2 (en) 2014-12-04 2017-12-19 Immersion Corporation Systems and methods for controlling haptic signals
JP6527339B2 (ja) 2015-01-27 2019-06-05 任天堂株式会社 振動信号生成プログラム、振動生成装置、振動生成システム、および振動信号生成方法
JP6445921B2 (ja) 2015-04-21 2018-12-26 任天堂株式会社 振動信号生成プログラム、振動信号生成システム、振動信号生成装置、振動信号生成方法、およびデータ出力プログラム
WO2016186041A1 (ja) 2015-05-15 2016-11-24 フィールズ株式会社 振動式入力装置
JP6222186B2 (ja) 2015-08-11 2017-11-01 コニカミノルタ株式会社 操作パネル、およびそれを備えた画像形成装置
US10109161B2 (en) 2015-08-21 2018-10-23 Immersion Corporation Haptic driver with attenuation
US20170061784A1 (en) 2015-08-27 2017-03-02 Altorr Corporation Sip-and-puff Controller of Electrical Devices for Paraplegic or Quadriplegic Humans
US9842476B2 (en) 2015-09-25 2017-12-12 Immersion Corporation Programmable haptic devices and methods for modifying haptic effects to compensate for audio-haptic interference
US10398178B2 (en) 2015-11-06 2019-09-03 Mark Scatterday Electronic vaporizer
JP6587941B2 (ja) * 2016-01-14 2019-10-09 株式会社デンソーテン 入力装置、表示装置、および、入力装置の振動状態検出方法
US10198074B2 (en) 2016-02-18 2019-02-05 Immersion Corporation Haptically-enabled modular peripheral device assembly
US20180098583A1 (en) * 2016-10-12 2018-04-12 Oculus Vr, Llc Force grounding wristband for haptic glove
CN110036358A (zh) 2016-12-01 2019-07-19 小利兰·斯坦福大学托管委员会 通过来自机械隔离的执行器的提示的感知组合的矢量触觉反馈
JP6626992B2 (ja) 2016-12-15 2019-12-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、振動制御方法、及びプログラム
US9792501B1 (en) 2016-12-31 2017-10-17 Vasuyantra Corp. Method and device for visually impaired assistance
KR102442179B1 (ko) 2017-11-17 2022-09-08 삼성전자주식회사 웨어러블 장치를 통하여 햅틱 피드백을 제공하는 전자 장치 및 그 방법
US10620705B2 (en) 2018-06-01 2020-04-14 Google Llc Vibrating the surface of an electronic device to raise the perceived height at a depression in the surface

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054645A (ja) * 2011-09-06 2013-03-21 Denso Wave Inc 光学的情報読取装置
JP2014528120A (ja) * 2011-09-06 2014-10-23 イマージョン コーポレーションImmersion Corporation 触覚出力装置および触覚出力装置において触覚効果を生成する方法
JP2015118605A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 触感制御装置、制御方法及びプログラム
WO2016038953A1 (ja) * 2014-09-10 2016-03-17 ソニー株式会社 検出装置、検出方法、制御装置、および制御方法
WO2017043610A1 (ja) * 2015-09-08 2017-03-16 ソニー株式会社 情報処理装置、方法およびコンピュータプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11786809B2 (en) 2016-10-11 2023-10-17 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US11992751B2 (en) 2016-10-11 2024-05-28 Valve Corporation Virtual reality hand gesture generation
JP2019532393A (ja) * 2017-07-27 2019-11-07 サーク・コーポレーション 二次的相互容量測定を使用する自己容量センサおよびセンサアレイの感度較正方法
JP2021524776A (ja) * 2018-05-18 2021-09-16 バルブ コーポレーション 力検知抵抗器(fsr)を含むハンドヘルドコントローラのセンサ融合アルゴリズム
JP7361725B2 (ja) 2018-05-18 2023-10-16 バルブ コーポレーション 力検知抵抗器(fsr)を含むハンドヘルドコントローラのセンサ融合アルゴリズム
WO2020079853A1 (ja) * 2018-10-19 2020-04-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、コントローラ装置、情報処理装置、及びプログラム
JPWO2020079853A1 (ja) * 2018-10-19 2021-09-02 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、コントローラ装置、情報処理装置、及びプログラム
JP7000593B2 (ja) 2018-10-19 2022-01-19 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、コントローラ装置、情報処理装置、及びプログラム
US11429187B2 (en) 2018-10-19 2022-08-30 Sony Interactive Entertainment Inc. Controller apparatus, control method thereof, and program
US11813518B2 (en) 2018-10-19 2023-11-14 Sony Interactive Entertainment Inc. Information processing system, controller apparatus, information processing apparatus, and program
WO2020174786A1 (ja) * 2019-02-27 2020-09-03 株式会社東海理化電機製作所 制御装置及びプログラム
US11977681B2 (en) 2020-03-13 2024-05-07 Sony Group Corporation Information processing device and information processing method

Also Published As

Publication number Publication date
US20190278372A1 (en) 2019-09-12
JP6799077B2 (ja) 2020-12-09
US10969867B2 (en) 2021-04-06
JPWO2018110432A1 (ja) 2019-04-11

Similar Documents

Publication Publication Date Title
WO2018110432A1 (ja) 情報処理システム、コントローラデバイス、コントローラデバイスの制御方法、及びプログラム
JP6626992B2 (ja) 情報処理システム、振動制御方法、及びプログラム
JP6626576B2 (ja) 操作デバイス、及び制御システム
JP6574892B2 (ja) 制御装置及び制御プログラム
JP7000593B2 (ja) 情報処理システム、コントローラ装置、情報処理装置、及びプログラム
US10981053B2 (en) Vibration control apparatus
JP6710285B2 (ja) 情報処理装置、制御方法、プログラム、及び記憶媒体
JP6959349B2 (ja) 操作デバイス、及びその制御装置
JP2016029563A (ja) 触覚型デバイスの自己較正
JP2007296367A (ja) ゲームプログラムの実行を制御するための入力を取得する方法
JP2009294690A (ja) 入力装置、制御装置、制御システム及び制御方法
JP2009165826A (ja) ジェスチャカタログ生成および認識
JP6959991B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5016023B2 (ja) 操作デバイス及び情報処理システム、情報処理方法
US10877562B2 (en) Motion detection system, motion detection method and computer-readable recording medium thereof
WO2018198272A1 (ja) 制御装置、情報処理システム、制御方法、及びプログラム
JP6687749B2 (ja) 情報処理装置、制御方法、プログラム、及び記録媒体
JP6661783B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
JPWO2019159332A1 (ja) 情報処理装置、情報処理システム、コントローラデバイス、情報処理方法、及びプログラム
JP7176040B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2023037548A1 (ja) 情報処理システム、コントローラ装置、その制御方法、及びプログラム
JP6903137B2 (ja) 振動制御装置
JPWO2018110435A1 (ja) 振動機構の制御装置
KR20160089982A (ko) 동작인식센서를 이용한 입력장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17879700

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018556628

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17879700

Country of ref document: EP

Kind code of ref document: A1