WO2015137014A1 - 情報入出力装置及び情報入出力方法 - Google Patents

情報入出力装置及び情報入出力方法 Download PDF

Info

Publication number
WO2015137014A1
WO2015137014A1 PCT/JP2015/053073 JP2015053073W WO2015137014A1 WO 2015137014 A1 WO2015137014 A1 WO 2015137014A1 JP 2015053073 W JP2015053073 W JP 2015053073W WO 2015137014 A1 WO2015137014 A1 WO 2015137014A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
sensor
input
output
dimensional space
Prior art date
Application number
PCT/JP2015/053073
Other languages
English (en)
French (fr)
Inventor
臼田 裕
Original Assignee
臼田総合研究所株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 臼田総合研究所株式会社 filed Critical 臼田総合研究所株式会社
Priority to US15/120,042 priority Critical patent/US10082885B2/en
Publication of WO2015137014A1 publication Critical patent/WO2015137014A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Definitions

  • the present invention relates to an information input / output device and an information input / output method for inputting / outputting information in space in a wearable or mobile computer environment.
  • an information input device in a portable personal computer is equivalent to a mouse by touching a display supported by the other hand with a finger of one hand or a pen held in one hand, such as a pen input to a small LCD or a touch panel. I was making an input.
  • these contact-type information input devices have a problem of lack of convenience because they require an input environment such that both hands are closed for input and the user needs to put in and out the bag for input.
  • Patent Document 2 a virtual keyboard technology (see, for example, Patent Document 2) that allows a user to input information by attaching a data glove to the user's hand and sensing the movement of a finger without requiring an actual keyboard
  • Patent Document 3 a technique for recognizing input information by recognizing an image of the movement of a finger of the palm of the hand and the movement of the other hand pointing to the palm of the hand
  • JP 2001-56743 A Japanese Patent No. 25000283 Japanese Patent Laid-Open No. 2001-31356
  • the portable information input / output device is mounted at various locations on the user's body, depending on the mounting position, it may be difficult to see even if a display device is added. appear.
  • a voice output device can be added to the portable information input / output device instead of the display device.
  • the portable information input / output device is mounted at various locations on the user's body. In such a situation, it becomes difficult to easily hear the voice output of the voice output device.
  • conventional portable information input / output devices can be used in combination with virtual reality systems, but even if a display device or audio output device is added, the size, unevenness, and rigidity of virtual objects can be wirelessly added. There is a problem that it is not possible to present a sense of touch.
  • an object of the present invention is to provide an information input / output device and an information input / output device that can easily and reliably input and output information in a space in a wearable or mobile computer environment in view of the problems of the conventional techniques as described above. To provide an output method.
  • the present invention it is determined whether or not to enter an information input state based on whether or not the detection output of the first environmental change in the three-dimensional space exceeds the threshold, and the detection output of the first environmental change exceeds the threshold.
  • the second environmental change in the three-dimensional space is detected as input information, and vibration information corresponding to the second environmental change in the three-dimensional space is output.
  • the present invention is a portable information input / output device having a portable housing, the first sensor for detecting a first environmental change in the three-dimensional space, and the second sensor in the three-dimensional space.
  • a second sensor for detecting an environmental change; an information output means comprising at least one vibration device; and determining whether or not a detection output acquired by the first sensor exceeds a threshold, and the first sensor
  • the detection output acquired by the above exceeds a threshold value
  • Control means for generating an output signal corresponding to the second environmental change and controlling the generated output signal as vibration information from the information output means is provided in the casing.
  • the first sensor is an optical sensor that detects a first environmental change in the three-dimensional space as a change in received light amount
  • the control means is the optical sensor. Based on the first environmental change detected as a change in the amount of received light in the three-dimensional space, it is determined whether to enter an information input state, and the second sensor detected by the second sensor. Environmental changes can be acquired as input information.
  • the first sensor is a pressure sensor that detects a first environmental change in the three-dimensional space as a change in atmospheric pressure
  • the control means includes the pressure sensor. Based on the first environmental change detected by the sensor as a change in atmospheric pressure in the three-dimensional space, it is determined whether to enter an information input state, and the second sensor detected by the second sensor. Environmental changes can be acquired as input information.
  • control means converts the absolute value data acquired as the detection output by the first sensor into a relative amount and determines whether or not a threshold value is exceeded. Can be.
  • the second sensor detects one or more changes in position, orientation, and orientation in the three-dimensional space as a second environmental change in the three-dimensional space.
  • the control means is one of position, orientation, and orientation in the three-dimensional space by the second sensor when the detection output acquired by the first sensor exceeds a threshold value.
  • the second environmental change detected as the above change is acquired as input information, and an output signal corresponding to one or more changes in position, orientation, and orientation in the three-dimensional space is received as vibration information from the information output means. It is possible to perform control to output.
  • the information output means includes a plurality of vibration devices arranged three-dimensionally, and the control means outputs a detection output acquired by the first sensor.
  • An output signal corresponding to one or more changes in position, orientation, and orientation in the three-dimensional space based on input information on the second environmental change detected by the second sensor when a threshold value is exceeded To be output as three-dimensional vibration information from the information output means.
  • the three-dimensional sensor may include any one or a plurality of types of sensors among an acceleration sensor, an angular velocity sensor, and an orientation sensor.
  • the casing may be detachably mounted on a mounting portion of a ring type holder, and may be mounted on a finger via the ring type holder.
  • the present invention is also an information input / output method by a portable information input / output device having a portable housing, wherein a detection output by a first sensor for detecting a first environmental change in a three-dimensional space is a threshold value.
  • a detection output by a first sensor for detecting a first environmental change in a three-dimensional space is a threshold value.
  • the second environmental change in the three-dimensional space detected by the second sensor is used as input information.
  • an output signal corresponding to the second environmental change in the three-dimensional space is generated, and the generated output signal is generated as vibration information from an information output unit including at least one vibration device. It is characterized by outputting.
  • the present invention it is determined whether or not to enter an information input state based on whether or not the detection output of the first environmental change in the three-dimensional space exceeds the threshold, and the detection output of the first environmental change exceeds the threshold.
  • the second environmental change in the three-dimensional space is detected as input information, and vibration information corresponding to the second environmental change in the three-dimensional space is output, so that the wearable or mobile computer environment Information can be input and output easily and reliably.
  • FIG. 1 is a block diagram showing a configuration of an information input / output device to which the present invention is applied.
  • FIG. 2 is an external perspective view showing the internal structure of the information input / output device.
  • FIG. 3 is an external perspective view of the information input / output device with the upper half of the casing removed.
  • 4A and 4B are diagrams showing a ring-type holder to which the casing of the information input / output device is mounted, FIG. 4A shows a state in which the ring-type holder and the casing are separated, and FIG. 4B shows a ring-type holder. Shows a state in which a housing is mounted.
  • FIG. 5 is an external perspective view showing a usage state of the information input / output device.
  • FIG. 5 is an external perspective view showing a usage state of the information input / output device.
  • FIG. 6 is a flowchart showing a procedure of information input / output control in the first input operation mode by the control unit in the information input / output device.
  • FIG. 7 is a diagram illustrating an example of detection output signals of the sensors used for information input / output control in the first input operation mode.
  • FIG. 8 is a diagram showing another example of the detection output signal of each sensor used for information input / output control in the first input operation mode.
  • FIG. 9 is a flowchart showing a procedure of information input / output control in the second input operation mode by the control unit in the information input / output device.
  • FIG. 10 is a diagram illustrating an example of detection output signals of the sensors used for information input / output control in the second input operation mode.
  • FIG. 11 is a diagram showing another example of detection output signals of the sensors used for information input / output control in the second input operation mode.
  • FIG. 12 is a flowchart showing a procedure of information input / output control in the information presentation mode by the control unit in the information input / output device.
  • FIG. 13 is a diagram illustrating an example of the contents of a correspondence table between a three-dimensional space value by an optical sensor input and an output value of a vibration device used in information input / output control in the information presentation mode.
  • FIG. 14 is a diagram illustrating an example of the contents of a correspondence table between a three-dimensional space value by an atmospheric pressure sensor input and an output value of a vibration device used in information input / output control in the information presentation mode.
  • FIG. 15 is a diagram schematically illustrating an example of information input / output in a three-dimensional space in cooperation with the virtual reality system.
  • the present invention is applied to, for example, an information input / output device 100 configured as shown in the block diagram of FIG.
  • the information input / output device 100 is a device for inputting / outputting information in space in a wearable or mobile computer environment, and includes a portable housing 1, and includes a control unit 10 including a CPU, An optical sensor 11, an acceleration sensor 12, an angular velocity sensor 13, an orientation sensor 14, an atmospheric pressure sensor 15, a temperature sensor 16, a vibration device 17, a communication interface 18, a battery unit 19 that supplies power to the optical sensor 11, an acceleration sensor 12, an angular velocity sensor 13, an orientation sensor 14. Provided in the housing 1.
  • the optical sensor 11 is an environment sensor that detects an environmental change in a three-dimensional space in which information is input / output by the information input / output device 100 as a change in received light amount in the usage state of the information input / output device 100.
  • a detection output signal indicating the amount of received light in the space is supplied to the control unit 10.
  • the acceleration sensor 12 is an environment sensor that detects an environmental change in the three-dimensional space as a change in acceleration in the usage state of the information input / output device 100, and detects and outputs a signal level corresponding to the acceleration in the three-dimensional space. A signal is supplied to the control unit 10.
  • the angular velocity sensor 13 is an environment sensor that detects an environmental change in the three-dimensional space as a change in angular velocity in the usage state of the information input / output device 100, and controls the detection output signal indicating the angular velocity in the three-dimensional space. Supplied to the unit 10.
  • the orientation sensor 14 is an environment sensor that detects an environmental change in the three-dimensional space as a change in orientation in the usage state of the information input / output device 100, and controls the detection output signal indicating the orientation in the three-dimensional space. Supplied to the unit 10. As this direction sensor 14, a geomagnetic sensor is used.
  • the atmospheric pressure sensor 15 is an environmental sensor that detects an environmental change in the three-dimensional space as a change in atmospheric pressure in the usage state of the information input / output device 100, and controls the detection output signal indicating the atmospheric pressure in the three-dimensional space. Supplied to the unit 10.
  • the temperature sensor 16 is an environment sensor that detects an environmental change in the three-dimensional space as a temperature change in the usage state of the information input / output device 100, and controls the detection output signal indicating the temperature in the three-dimensional space. Supplied to the unit 10.
  • the vibration device 17 is controlled by the control unit 10 and generates an output signal generated based on input information acquired based on an environmental change in a three-dimensional space where information is input / output by the information input / output device 100. Output as vibration information.
  • the communication interface 18 is provided for the control unit 10 to exchange information with an external electronic device.
  • the communication method is not particularly limited.
  • a wireless communication standard such as Bluetooth (registered trademark), Wi-Fi (registered trademark), ZigBee (registered trademark), or the like can be used.
  • the information input / output device 100 is operated by the power supplied from the battery unit 19, and the information by the optical sensor 11, acceleration sensor 12, angular velocity sensor 13, azimuth sensor 14, atmospheric pressure sensor 15, and temperature sensor 16. Based on input information acquired as a detection output corresponding to an environmental change in a three-dimensional space where information is input / output by the input / output device 100, the control unit 10 outputs an output signal corresponding to the environmental change in the three-dimensional space. And the generated output signal is output from the vibration device 17 as vibration information.
  • the power supply from the battery unit 19 can be turned on and off by operating the switch 19A.
  • the control unit 10 the optical sensor 11, the acceleration sensor 12, the angular velocity sensor 13, the direction sensor 14, the atmospheric pressure sensor 15, the temperature sensor 16, the vibration device 17, the communication interface 18, and the like are as follows.
  • the external perspective view of FIG. 2 the external perspective view of the information input / output device 100 in a state of being stacked on the battery unit 19 and having the upper half of the housing 1 removed is shown in FIG. Built in the housing 1.
  • FIG. 4A and FIG. 4B are diagrams showing a ring type holder to which the casing of the information input / output device is mounted, FIG. 4A shows a state where the ring type holder and the casing are separated, and FIG. The state which mounted
  • the information input / output device 100 is used by being attached to, for example, an index finger of a user via the ring type holder 2.
  • control part 10 in this information input / output device 100 performs the information input / output control of the first input operation mode according to the procedure shown in the flowchart of FIG.
  • control unit 10 performs non-contact information output control by the optical sensor 11.
  • step S ⁇ b> 1 the control unit 10 detects the information input / output device 100 detected by the optical sensor 11 as first environment change information in a three-dimensional space in which information is input / output by the information input / output device 100.
  • the detection output signal indicating the amount of received light in the three-dimensional space, that is, the light input absolute value (Vcd) data is acquired.
  • the control unit 10 converts the first environment change information, that is, the light input absolute value (Vcd) data acquired in the process of step S1, into the light input relative value by the following conversion formula (formula 1).
  • a process of converting into a quantity ( ⁇ Vcd) is performed.
  • t is a unit time
  • n is a measured natural number of the optical input absolute value
  • control unit 10 determines whether or not the light input relative amount ( ⁇ Vcd) obtained in the process of step S2 has exceeded a threshold value Tcd for determining whether or not to enter the information input state. Processing to determine is performed.
  • step S4 the control unit 10 determines that the determination result in step S3 is “YES”, that is, if the light input relative amount ( ⁇ Vcd) exceeds the threshold value Tcd, the second environment in the three-dimensional space.
  • change information acceleration information indicated by a detection output signal from the acceleration sensor 12, angular velocity information indicated by a detection output signal from the angular velocity sensor 13, orientation information indicated by a detection output signal from the orientation sensor 14, and detection output signal from the pressure sensor 15.
  • the pressure information indicated by, and the temperature information indicated by the detection output signal from the temperature sensor 16 are simultaneously acquired.
  • step S3 If the determination result in step S3 is “NO”, that is, if the light input relative amount ( ⁇ Vcd) does not exceed the threshold value Tcd, the process returns to step S1, and the detection output signal from the optical sensor 11 is used. The process of obtaining the indicated optical input absolute value (Vcd) data is repeated.
  • control unit 10 uses the information input / output device from a part or all of the second environment change information, that is, acceleration information, angular velocity information, azimuth information, atmospheric pressure information, and temperature information in the process of step S4. It is determined what state 100 is in the three-dimensional space.
  • step S5 the control unit 10 indicates that the light input relative amount ( ⁇ Vcd) obtained in the process of step S2 is the threshold value as shown in FIG. If the information input / output device 100 does not move in the three-dimensional space exceeding Tcd, in the next step S6, the three-dimensional space value Vcd (0, 0, 0) is calculated from the acceleration information, angular velocity information, and azimuth information. ) And the input information is [Input 1].
  • S AX is an X axis acceleration detection signal
  • S AY is a Y axis acceleration detection signal
  • S AZ is a Z axis acceleration detection signal
  • S BX is an X axis angular velocity detection signal
  • S BY is the angular velocity detection signal of the Z-axis
  • S C is the light quantity detection signal
  • S D is pressure detection signal
  • S E is a temperature detection signal. Since the acceleration detection signals S AX , S AY , and S AZ are hardly changed, the information input / output device 100 has hardly moved in the three-dimensional space, but the light amount detection signal S Since C varies as shown in FIG. 7, it is determined that there is an input instruction, and the three-dimensional space value Vcd (X, Y, Z) by the optical sensor 11 is set to Vcd (0, 0, 0). The information is [Input 1].
  • step S5 the control unit 10 indicates that the light input relative amount ( ⁇ Vcd) obtained in the process of step S2 is the threshold value as shown in FIG.
  • the three-dimensional space value Vcd (X, Y, Z) is calculated from the acceleration information, angular velocity information, and direction information. )
  • input information is [input 2].
  • S AX is an X axis acceleration detection signal
  • S AY is a Y axis acceleration detection signal
  • S AZ is a Z axis acceleration detection signal
  • S BX is an X axis angular velocity detection signal
  • S BY is the angular velocity detection signal of the Y-axis
  • S BZ is the angular velocity detection signal of the Z-axis
  • S C is the light quantity detection signal
  • S D is pressure detection signal
  • S E is a temperature detection signal.
  • the information input / output device 100 is moved in the three-dimensional space.
  • the shows, the light quantity detection signal S C is, since the variation as shown in FIG. 8, it is determined that there is an input instruction, the three-dimensional space value by the optical sensor 11 Vcd (X, Y, Z ) and Vcd ( X1, Y1, Z1), and the input information is [input 2].
  • the control unit 10 executes the command using the input information [input 1] as a stationary state command and the input information [input 2] as an operation state command. That is, the input information [input 1] is determined to be an optical sensor input instruction when there is no three-dimensional space movement of the information input / output device 100, and an optical sensor input corresponding process when there is no three-dimensional space movement is performed. On the other hand, the input information [input 2] is determined to be an optical sensor input instruction when there is a three-dimensional space movement of the information input / output device 100, and an optical sensor input corresponding process when there is a three-dimensional space movement is performed.
  • the information input / output device 100 indicates the first environment change information for determining whether or not to input / output information by the detection output signal from the optical sensor 11.
  • the control unit 10 uses the optical input absolute value (Vcd) data to perform input / output depending on whether the optical input relative value ( ⁇ Vcd) obtained by converting the optical input absolute value (Vcd) exceeds the threshold value Tcd. It is determined whether or not.
  • the light input relative amount ( ⁇ Vcd) does not exceed the threshold value Tcd
  • there is an input / output instruction when the light input relative amount ( ⁇ Vcd) exceeds the threshold value Tcd without entering the information input state.
  • the second environmental change information that is, the acceleration information indicated by the detection output signal from the acceleration sensor 12, the angular velocity information indicated by the detection output signal from the angular velocity sensor 13, and the detection output signal from the direction sensor 14 are indicated.
  • the information input / output device 100 when the user uses it by attaching it to, for example, the index finger of the user via the ring type holder 2, the light input absolute value is obtained by covering the light receiving unit 11A of the optical sensor 11 with a thumb, for example.
  • An input / output instruction can be issued by changing the value (Vcd).
  • the control unit 10 in the information input / output device 100 performs information input / output control in the second input operation mode, for example, according to the procedure shown in the flowchart of FIG.
  • control unit 10 performs non-contact information output control by the atmospheric pressure sensor 15.
  • step S ⁇ b> 11 the control unit 10 detects the information input / output device 100 detected by the atmospheric pressure sensor 15 as first environment change information in a three-dimensional space in which information is input / output by the information input / output device 100.
  • the detection output signal indicating the atmospheric pressure in the three-dimensional space, that is, the atmospheric pressure absolute value (Vps) data is acquired.
  • the control unit 10 converts the first environment change information, that is, the absolute pressure value (Vps) data acquired in the process of the above step S11, into the atmospheric pressure relative amount (equation 2) by the following conversion equation (equation 2). (Vps) is converted.
  • t is a unit time
  • m is a measured natural number of the atmospheric pressure input absolute value.
  • control unit 10 determines whether or not the atmospheric pressure relative amount ( ⁇ Vps) obtained in the process of step S12 has exceeded a threshold value Tps for determining whether or not to enter the information input state. Perform the process.
  • step S14 the control unit 10 determines that the determination result in step S13 is "YES", that is, if the atmospheric pressure relative amount ( ⁇ Vps) exceeds the threshold value Tps, the second environmental change in the three-dimensional space.
  • acceleration information indicated by a detection output signal from the acceleration sensor 12 angular velocity information indicated by a detection output signal from the angular velocity sensor 13, orientation information indicated by a detection output signal from the orientation sensor 14, and detection output signal from the atmospheric pressure sensor 15.
  • a process of simultaneously obtaining the atmospheric pressure information indicated and the temperature information indicated by the detection output signal from the temperature sensor 16 is performed.
  • step S13 If the determination result in step S13 is “NO”, that is, if the light input relative amount ( ⁇ Vps) does not exceed the threshold value Tps, the process returns to step S11 and the detection output signal from the atmospheric pressure sensor 15 is used. Repeats the process of obtaining the indicated absolute pressure (Vcd) data
  • control unit 10 uses the information input / output device from a part or all of the second environment change information, that is, acceleration information, angular velocity information, azimuth information, atmospheric pressure information, and temperature information in the process of step S14. It is determined what state 100 is in the three-dimensional space.
  • step S15 for example, as shown in FIG. 10, the control unit 10 indicates that the relative pressure ( ⁇ Vps) obtained in the process of step S12 is the threshold value Tps. If the information input / output device 100 has not moved greatly in the three-dimensional space, the three-dimensional space value Vps (0, 0, 0) is calculated from the acceleration information, angular velocity information, and direction information in the next step S16. ) And the input information is [Input 3].
  • S AX is an X axis acceleration detection signal
  • S AY is a Y axis acceleration detection signal
  • S AZ is a Z axis acceleration detection signal
  • S BX is an X axis angular velocity detection signal
  • S BY is the angular velocity detection signal of the Z-axis
  • S C is the light quantity detection signal
  • S D is pressure detection signal
  • S E is a temperature detection signal. Since the acceleration detection signals S AX , S AY , and S AZ hardly change, it indicates that the information input / output device 100 has hardly moved in the three-dimensional space, but the atmospheric pressure detection signal S Since D varies as shown in FIG. 10, it is determined that there is an input instruction, and the three-dimensional space value Vps (X, Y, Z) by the atmospheric pressure sensor 15 is set to Vps (0, 0, 0). The information is [Input 3].
  • step S15 for example, as shown in FIG. 11, the detection output signal of each sensor, the control unit 10 determines that the atmospheric pressure relative amount ( ⁇ Vps) obtained in the process of step S12 is the threshold value Tps. If the information input / output device 100 is moved greatly in the three-dimensional space, in the next step S17, the three-dimensional space value Vps (X, Y, Z) is calculated from the acceleration information, angular velocity information, and azimuth information. ) As an operator, and input information is [input 4].
  • S AX is an X axis acceleration detection signal
  • S AY is a Y axis acceleration detection signal
  • S AZ is a Z axis acceleration detection signal
  • S BX is an X axis angular velocity detection signal
  • S BY is the angular velocity detection signal of the Y-axis
  • S BZ is the angular velocity detection signal of the Z-axis
  • S C is the light quantity detection signal
  • S D is pressure detection signal
  • S E is a temperature detection signal.
  • the information input / output device 100 is moved in the three-dimensional space. Since the atmospheric pressure detection signal SD fluctuates as shown in FIG. 11, it is determined that there is an input instruction, and the three-dimensional space value Vps (X, Y, Z) by the atmospheric pressure sensor 15 is expressed as Vps ( X2, Y2, Z2), and the input information is [input 4].
  • the control unit 10 executes the command using the input information [input 3] as a stationary state command and the input information [input 4] as an operation state command. That is, the input information [input 3] is determined to be a pressure sensor input instruction when there is no three-dimensional space movement of the information input / output device 100, and pressure sensor input corresponding processing when there is no three-dimensional space movement is performed. On the other hand, the input information [input 4] is determined to be an atmospheric pressure sensor input instruction when there is a three-dimensional space movement of the information input / output device 100, and an atmospheric pressure sensor input corresponding process when there is a three-dimensional space movement is performed.
  • the information input / output device 100 indicates the first environment change information for determining whether or not to input / output information by the detection output signal from the atmospheric pressure sensor 15. Whether or not to perform input / output force based on whether or not the relative atmospheric pressure ( ⁇ Vps) obtained by converting the absolute atmospheric pressure (Vps) exceeds the threshold Tps using the absolute atmospheric pressure (Vps) data. Is judged. If the atmospheric pressure relative amount ( ⁇ Vps) does not exceed the threshold value Tps, even if the information input / output device 100 is largely moved in the three-dimensional space, it is not regarded as an input / output instruction, and the light input relative amount.
  • the absolute pressure value (Vcd) varies depending on the height position of the information input / output device 100. Therefore, it is possible to give input / output instructions in cooperation with an operation such as raising a raised hand or moving from the first floor to the second floor.
  • the control unit 10 acquires the posture information in the use state of the information input / output device 100 from the detection output signal indicating the angular velocity in the three-dimensional space obtained by the angular velocity sensor 13. That is, the angular velocity sensor 13 functions as a posture sensor for acquiring posture information in the usage state of the information input / output device 100.
  • the control unit 10 acquires position information in the use state of the information input / output device 100 from the detection output signal indicating the acceleration speed in the three-dimensional space obtained by the acceleration sensor 12. That is, the acceleration sensor 12 functions as a position sensor for acquiring position information in the usage state of the information input / output device 100.
  • control unit 10 performs information input / output control in the information presentation mode, for example, according to the procedure shown in the flowchart of FIG.
  • step S21 the control unit 10 performs input information [input 1], [input 2], and the second input operation based on the detection of the optical sensor 11 executed in the first input operation mode.
  • a process of detecting a command based on input information [input 3] and [input 4] based on detection of the atmospheric pressure sensor 15 executed in the mode is performed.
  • the control unit 10 determines the three-dimensional space value Vcd (X, Y, Z) and the output value Bcd (X, Y, Z) of the vibration device 17 as shown in FIG. Referring to the correspondence table, the process of acquiring the output value Bcd (X, Y, Z) of the vibration device 17 is performed.
  • the control unit 10 determines, for example, the three-dimensional space value Vps (X, Y, Z) and the output value Bps (X, Y, Z) of the vibration device 17 by the atmospheric pressure sensor input as shown in FIG. Referring to the correspondence table, a process for obtaining the output value Bps (X, Y, Z) of the vibrating device 17 is performed.
  • control unit 10 gives the output value Bcd (X, Y, Z) corresponding to the acquired three-dimensional space value Vcd (X, Y, Z) to the vibrating device 17 to vibrate.
  • the control unit 10 gives the output value Bps (X, Y, Z) corresponding to the acquired three-dimensional space value Vps (X, Y, Z) to the vibration device 17 to vibrate.
  • the control unit 10 waits for an input from the next optical sensor 11 in the next step S26, and the first input described above.
  • the process returns to the step S21 and the vibration is performed according to the correspondence table shown in FIG. The output process for vibrating the device 17 is repeatedly controlled.
  • the control unit 10 waits for an input from the next atmospheric pressure sensor 15 in the next step S27, and the second input described above.
  • the process returns to the step S21 and the vibration is performed according to the correspondence table shown in FIG. The output process for vibrating the device 17 is repeatedly controlled.
  • the first sensor that detects the first environmental change in the three-dimensional space, that is, the optical sensor 11 or the atmospheric pressure sensor.
  • a second detection unit for detecting a second environmental change in the three-dimensional space when the detection output obtained by the first sensor exceeds the threshold value. Acceleration information indicated by the detection output signal from the acceleration sensor 12, angular velocity information indicated by the detection output signal from the angular velocity sensor 13, azimuth information indicated by the detection output signal from the azimuth sensor 14, and detection by the atmospheric pressure sensor 15.
  • the command is executed with all the input information [input 1], [input 2], [input 3], and [input 4], and the second environment change in the three-dimensional space is performed based on the input information.
  • the control unit 10 performs control to generate an output signal and output the generated output signal as vibration information from an information output unit including at least one vibration device 17.
  • the information input / output device 100 it is determined whether or not to enter the information input state based on whether or not the detection output of the first environment change in the three-dimensional space exceeds the threshold, and the first environment
  • the change detection output exceeds a threshold
  • the second environment change in the three-dimensional space is detected as input information, and the vibration information corresponding to the second environment change in the three-dimensional space is output, so that the wearable Alternatively, information can be input and output easily and reliably in space in a mobile computer environment.
  • the information input / output device 100 includes three pieces of the vibration device 17 that are three-dimensionally arranged so that the three axes (X axis, Y axis, Z axis) direction of the three-dimensional space and the vibration plane are orthogonal to each other.
  • the control unit 10 determines whether or not to enter the information input state based on whether or not the detection output of the first environmental change in the three-dimensional space exceeds a threshold value. When the detection output of the first environmental change exceeds a threshold, the second environmental change in the three-dimensional space is detected as input information, and the three-dimensional according to the second environmental change in the three-dimensional space
  • the vibration information is output from the three vibration devices 17X, 17Y, and 17Z arranged three-dimensionally.
  • control unit 10 is executed in the input information [input 1], [input 2], and the second input operation mode based on the detection output of the optical sensor 11 executed in the first input operation mode.
  • three-dimensional vibration information is obtained from the three vibration devices 17X, 17Y, and 17Z arranged in three dimensions. Output.
  • the control unit 10 in the portable information input / output device 100 has a function of exchanging information with a portable terminal or the like via the communication interface 18, and the three-dimensional space value Vcd (X, Y, Z) and the output value Bcd (X, Y, Z) of the vibration device 17, and the three-dimensional space value Vps (X, Y, Z) and the output value of the vibration device 17 by the pressure sensor input.
  • a correspondence table with Bps (X, Y, Z) is acquired and stored in a memory, or input information [input 1], [input 2], [input 3], and [input 4] are transmitted to a portable terminal or the like.
  • the portable information input / output device 100 is attached to the user's finger via the ring-type holder 2, but via small-sized holders such as a bracelet type, a stick type, and a pencil type.
  • the outer shape of the housing 1 may be various small and portable shapes such as a ring type, a bracelet type, a stick type, and a pencil type.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 ウェアラブルまたはモバイルコンピュータ環境で空間上で情報の入出力を容易且つ確実に行うことのできる情報入出力装置及び情報入出力方法を提供する。携帯可能な筐体1を具備する携帯型情報入出力装置100において、三次元空間における第1の環境変化を検出する第1のセンサ(光センサ11又は気圧センサ15)による検出出力が閾値を超えたか否かを判定し、上記第1のセンサにより取得される検出出力が閾値を超えた場合に、上記三次元空間における第2の環境変化を検出する第2のセンサ(加速度センサ12、角速度センサ13、方位センサ14、気圧センサ15、又は、温度センサ16)により取得される情報の一部あるいは全部を入力情報として、コマンドを実行し、上記入力情報に基づいて、上記三次元空間における第2の環境変化に応じた出力信号を生成し、生成した出力信号を少なくとも1つの振動デバイス17からなる情報出力手段から振動情報として出力させる制御を制御部10により行う。

Description

情報入出力装置及び情報入出力方法
  本発明は、ウェアラブルまたはモバイルコンピュータ環境で空間上で情報の入出力を行うための情報入出力装置及び情報入出力方法に関する。本出願は、日本国において2014年3月13日に出願された日本特許出願番号特願2014-049701を基礎として優先権を主張するものであり、この出願を参照することにより、本出願に援用される。
 従来、携帯型のパーソナルコンピュータにおける情報入力装置は、小型LCDへのペン入力、タッチパネル等、片手の指又は片手に握っているペンで他方の手で支えているディスプレイを触れることにより、マウスに相当する入力を行っていた。しかし、これらの接触型情報入力装置では、入力するために両手が塞がる、入力のために鞄から出し入れしなければならない等、入力の環境が必要であり、利便性に欠ける問題があった。
 近年、モバイルコンピューティングが進み、ウェアラブルコンピューターが実用化の段階を迎える中で、ユーザーに拘束感を与えず、いつでもどこでも自由に使用が可能で、直感的な操作が行えるヒューマンインターフェースとしての情報入出力装置が望まれている。
 例えば、3次元の空間内で携帯型機器を動かすことにより、画像表示装置上でカーソルポインタを移動させ、ボタンにより操作を行う機器(3次元マウス)を用いた技術(例えば、特許文献1参照)が提案されている。
 また、実際のキーボードを必要とせず、ユーザーの手にデータグローブを装着して指の動きを感知することにより情報の入力を可能とする仮想キーボードの技術(例えば、特許文献2参照)や、広げた手の平の指の動きや、手の平を指し示すもう一方の手の動きを画像認識することで入力情報を認識する技術(例えば、特許文献3参照)が提案されている。
特開2001-56743号公報 特許第2500283号公報 特開2001-312356号公報
 しかしながら、従来の携帯型情報入出力装置では、装着された機器を利用者が目視で確認しないと適切な操作を行うことが困難であった。
 また、携帯型情報入出力装置が小型化されると、表示装置を付加することが難しくなり、仮に付加することができたとしても、画面サイズを極めて小さくせざるを得ず、視認することが難しくなってしまう。
 さらに、携帯型情報入出力装置は、使用者の身体の様々な箇所に装着されるので、装着位置によっては、表示装置が付加されていたとしても容易に見ることが困難になってしまう状況が発生する。
 また、表示装置に替えて音声出力装置を携帯型情報入出力装置に付加することもできるが、携帯型情報入出力装置は、使用者の身体の様々な箇所に装着されるので、装着位置によっては、音声出力装置の音声出力を容易に聞き取ることが困難になってしまう状況が発生する。
 また、従来の携帯型情報入出力装置では、仮想現実システムと組み合わせて使用することが考えられるが、表示装置や音声出力装置を付加したとしても、ワイヤレスで仮想物体の大きさ、凹凸、堅さなどの接触感覚を提示することはできないという問題点があった。
 そこで、本発明の目的は、上述したような従来の技術の問題点に鑑み、ウェアラブルまたはモバイルコンピュータ環境で空間上で情報の入出力を容易且つ確実に行うことのできる情報入出力装置及び情報入出力方法を提供することにある。
 本発明のさらに他の目的、本発明によって得られる具体的な利点は、以下において図面を参照して説明される実施に形態から一層明らかにされるであろう。
 本発明では、三次元空間における第1の環境変化の検出出力が閾値を超えたか否かにより、情報入力状態とするか否かを判断し、上記第1の環境変化の検出出力が閾値を超えた
場合に、三次元空間における第2の環境変化を入力情報として検出し、上記三次元空間における第2の環境変化に応じた振動情報を出力させる。
 すなわち、本発明は、携帯可能な筐体を具備する携帯型情報入出力装置であって、三次元空間における第1の環境変化を検出する第1のセンサと、上記三次元空間における第2の環境変化を検出する第2のセンサと、少なくとも1つの振動デバイスからなる情報出力手段と、上記第1のセンサにより取得される検出出力が閾値を超えたか否かを判定し、上記第1のセンサにより取得される検出出力が閾値を超えた場合に、上記第2のセンサにより検出される上記第2の環境変化を入力情報として取得し、取得した上記入力情報に基づいて、上記三次元空間における第2の環境変化に応じた出力信号を生成し、生成した出力信号を情報出力手段から振動情報として出力させる制御を行う制御手段とを上記筐体内に備える。
 本発明に係る携帯型情報入出力装置において、上記第1のセンサは、上記三次元空間における第1の環境変化を受光量の変化として検出する光センサであり、上記制御手段は、上記光センサにより上記三次元空間における受光量の変化として検出される上記第1の環境変化に基づいて、情報入力状態とするか否かを判断して、上記第2のセンサにより検出される上記第2の環境変化を入力情報として取得するものとすることができる。
 また、本発明に係る携帯型情報入出力装置において、上記第1のセンサは、上記三次元空間における第1の環境変化を気圧の変化として検出する圧力センサであり、上記制御手段は、上記圧力センサにより上記三次元空間における気圧の変化として検出される上記第1の環境変化に基づいて、情報入力状態とするか否かを判断して、上記第2のセンサにより検出される上記第2の環境変化を入力情報として取得するものとすることができる。
 また、本発明に係る携帯型情報入出力装置において、上記制御手段は、上記第1のセンサによる検出出力として取得される絶対値データを相対量に変換して閾値を超えたか否かを判定するものとすることができる。
 また、本発明に係る携帯型情報入出力装置において、上記第2のセンサは、上記三次元空間における第2の環境変化として上記三次元空間における位置、姿勢、方位の1つ以上の変化を検出する三次元センサであり、上記制御手段は、上記第1のセンサにより取得される検出出力が閾値を超えた場合に、上記第2のセンサにより上記三次元空間における位置、姿勢、方位の1つ以上の変化として検出される上記第2の環境変化を入力情報として取得し、上記三次元空間における位置、姿勢、方位の1つ以上の変化に応じた出力信号を上記情報出力手段から振動情報として出力させる制御を行うものとすることができる。
 また、本発明に係る携帯型情報入出力装置において、上記情報出力手段は、三次元配置された複数個の振動デバイスからなり、上記制御手段は、上記第1のセンサにより取得される検出出力が閾値を超えた場合に、上記第2のセンサにより検出される上記第2の環境変化を入力情報に基づいて、上記三次元空間における位置、姿勢、方位の1つ以上の変化に応じた出力信号を上記情報出力手段から三次元の振動情報として出力させる制御を行うものとすることができる。
 また、本発明に係る携帯型情報入出力装置において、上記三次元センサは、加速度センサ、角速度センサ、方位センサの内の何れか1種類又は複数種類のセンサを備えるものとすることができる。
 さらに、本発明に係る携帯型情報入出力装置において、上記筐体は指輪型ホルダの装着部に着脱自在に装着され、上記指輪型ホルダを介して指に装着されるものとすることができる。
 また、本発明は、携帯可能な筐体を具備する携帯型情報入出力装置による情報入出力方法であって、三次元空間における第1の環境変化を検出する第1のセンサによる検出出力が閾値を超えたか否かを判定し、上記第1のセンサにより取得される検出出力が閾値を超えた場合に、第2のセンサにより検出される上記三次元空間における第2の環境変化を入力情報として取得し、取得した上記入力情報に基づいて、上記三次元空間における第2の環境変化に応じた出力信号を生成し、生成した出力信号を少なくとも1つの振動デバイスからなる情報出力手段から振動情報として出力させることを特徴とする。
 本発明では、三次元空間における第1の環境変化の検出出力が閾値を超えたか否かにより、情報入力状態とするか否かを判断し、上記第1の環境変化の検出出力が閾値を超えた場合に、三次元空間における第2の環境変化を入力情報として検出し、上記三次元空間における第2の環境変化に応じた振動情報を出力させることにより、ウェアラブルまたはモバイルコンピュータ環境で空間上で情報の入出力を容易且つ確実に行うことができる。
図1は、本発明を適用した情報入出力装置の構成を示すブロック図である。 図2は、上記情報入出力装置の内部構造を示す外観斜視図である。 図3は、上記筐体の上ハーフを取り除いた状態の情報入出力装置の外観斜視図である。 図4A、図4Bは、上記情報入出力装置の筐体が装着される指輪型ホルダを示す図であり、図4Aは指輪型ホルダと筐体を分離した状態を示し、図4Bは指輪型ホルダに筐体を装着した状態を示している。 図5は、上記情報入出力装置の使用状態を示す外観斜視図である。 図6は、上記情報入出力装置における制御部による第1の入力動作モードの情報入出力制御の手順を示すフローチャートである。 図7は、上記第1の入力動作モードの情報入出力制御に使用される各センサの検出出力信号を一例を示す図である。 図8は、上記第1の入力動作モードの情報入出力制御に使用される各センサの検出出力信号を他の例を示す図である。 図9は、上記情報入出力装置における制御部による第2の入力動作モードの情報入出力制御の手順を示すフローチャートである。 図10は、上記第2の入力動作モードの情報入出力制御に使用される各センサの検出出力信号を一例を示す図である。 図11は、上記第2の入力動作モードの情報入出力制御に使用される各センサの検出出力信号を他の例を示す図である。 図12は、上記情報入出力装置における制御部による情報提示モードの情報入出力制御の手順を示すフローチャートである。 図13は、上記情報提示モードの情報入出力制御において用いられる光センサ入力による三次元空間値と振動デバイスの出力値との対応表の内容の一例を示す図である。 図14は、上記情報提示モードの情報入出力制御において用いられる気圧センサ入力による三次元空間値と振動デバイスの出力値との対応表の内容の一例を示す図である。 図15は、仮想現実システムと連携した三次元空間における情報の入出力の例を模式的に示す図である。
 以下、本発明に係る情報入出力装置及び情報入出力方法の実施の形態を図面を参照にして詳細に説明をする。
 本発明は、例えば図1のブロック図に示すような構成の情報入出力装置100に適用される。
 この情報入出力装置100は、ウェアラブルまたはモバイルコンピュータ環境で空間上で情報の入出力を行うための装置であって、携帯可能な筐体1を具備しており、CPUからなる制御部10、この制御部10に接続された光センサ11、加速度センサ12、角速度センサ13、方位センサ14、気圧センサ15、温度センサ16、振動デバイス17、通信インターフェース18、これに電源を供給するバッテリユニット19等を上記筐体1内に備える。
 光センサ11は、この情報入出力装置100により情報の入出力を行う三次元空間における環境変化を当該情報入出力装置100の使用状態における受光量の変化として検出する環境センサであり、上記三次元空間における受光量を示す検出出力信号を上記制御部10に供給する。
 また、加速度センサ12は、上記三次元空間における環境変化を当該情報入出力装置100の使用状態における加速度の変化として検出する環境センサであり、上記三次元空間における加速度に応じた信号レベルの検出出力信号を上記制御部10に供給する。
 また、角速度センサ13は、上記三次元空間における環境変化を当該情報入出力装置100の使用状態における角速度の変化として検出する環境センサであり、上記三次元空間における角速度を示す検出出力信号を上記制御部10に供給する。
 また、方位センサ14は、上記三次元空間における環境変化を当該情報入出力装置100の使用状態における方位の変化として検出する環境センサであり、上記三次元空間における方位を示す検出出力信号を上記制御部10に供給する。この方位センサ14には、地磁気センサが用いられている。
 また、気圧センサ15は、上記三次元空間における環境変化を当該情報入出力装置100の使用状態における気圧の変化として検出する環境センサであり、上記三次元空間における気圧を示す検出出力信号を上記制御部10に供給する。
 さらに、温度センサ16は、上記三次元空間における環境変化を当該情報入出力装置100の使用状態における温度の変化として検出する環境センサであり、上記三次元空間における温度を示す検出出力信号を上記制御部10に供給する。
 また、振動デバイス17は、上記制御部10により制御され、当該情報入出力装置100により情報の入出力を行う三次元空間における環境変化に基づいて取得される入力情報に基づいて生成した出力信号を振動情報として出力する。
 さらに、通信インターフェース18は、上記制御部10が外部の電子機器と情報の授受を行うために備えられている。通信方法は特に限定されるものではないが、例えばブルートゥース(Bluetooth:登録商標)や、Wi-Fi(ワイファイ:登録商標)、ZigBee(ジグビー:登録商標)等の無線通信規格を用いることができる。
 そして、この情報入出力装置100は、バッテリユニット19から供給される電源により動作して、上記光センサ11、加速度センサ12、角速度センサ13、方位センサ14、気圧センサ15、温度センサ16による当該情報入出力装置100により情報の入出力を行う三次元空間における環境変化に応じた検出出力として取得される入力情報に基づいて、上記制御部10により、上記三次元空間における環境変化に応じた出力信号を生成し、生成した出力信号を上記振動デバイス17から振動情報として出力させる。なお、上記バッテリユニット19からの電源供給は、スイッチ19Aの操作によりオンオフできるようになっている。
 ここで、この情報入出力装置100において、上記制御部10、光センサ11、加速度センサ12、角速度センサ13、方位センサ14、気圧センサ15、温度センサ16、振動デバイス17、通信インターフェース18等は、図2の外観斜視図に示すように、上記バッテリユニット19上に積層設置され、上記筐体1の上ハーフを取り除いた状態の情報入出力装置100の外観斜視図を図3に示すように、上記筐体1に内蔵されている。
 そして、上記筐体1は、図4A、図4Bに示すように、指輪型ホルダ2の装着部2Aに着脱自在に装着されるようになっている。ここで、図4A、図4Bは、上記情報入出力装置の筐体が装着される指輪型ホルダを示す図であり、図4Aは指輪型ホルダと筐体を分離した状態を示し、図4Bは指輪型ホルダに筐体を装着した状態を示している。
 この情報入出力装置100は、図5に示すように、上記指輪型ホルダ2を介して使用者の例えば人差し指に装着して使用される。
 そして、この情報入出力装置100における制御部10は、例えば、図6のフローチャートに示す手順に従って第1の入力動作モードの情報入出力制御を行う。
 第1の入力動作モードにおいて、制御部10は、光センサ11による非接触情報出力制御を行う。
 すなわち、先ずステップS1において、制御部10は、この情報入出力装置100により情報の入出力を行う三次元空間における第1の環境変化情報として、光センサ11により検出される当該情報入出力装置100の三次元空間における受光量を示す検出出力信号、すなわち、光入力絶対値(Vcd)データを取得する処理を行う。
 次のステップS2において、制御部10は、上記ステップS1の処理で取得された第1の環境変化情報すなわち光入力絶対値(Vcd)データを、次の変換式(式1)により、光入力相対量(ΔVcd)に変換する処理を行う。
  ΔVcd=Σ(Vcdt=n-Vcdt=n-1)/n   (式1)
  ただし、tは単位時間、nは光入力絶対値の測定自然数である。
 次のステップS3において、制御部10は、上記ステップS2の処理で得られた光入力相対量(ΔVcd)が、情報入力状態とするか否かを決定するための閾値Tcdを超えたか否かを判定する処理を行う。
 次のステップS4において、制御部10は、上記ステップS3における判定結果が「YES」、すなわち、光入力相対量(ΔVcd)が閾値Tcdを超えた場合には、上記三次元空間における第2の環境変化情報として、加速度センサ12による検出出力信号により示される加速度情報、角速度センサ13による検出出力信号により示される角速度情報、方位センサ14による検出出力信号により示される方位情報、気圧センサ15による検出出力信号により示される気圧情報、温度センサ16による検出出力信号により示される温度情報を同時に取得する処理を行う。なお、上記ステップS3における判定結果が「NO」、すなわち、光入力相対量(ΔVcd)が閾値Tcdを超えていない場合には、上記ステップS1の処理に戻って、光センサ11による検出出力信号により示される光入力絶対値(Vcd)データを取得する処理を繰り返し行う
 次のステップS5において、制御部10は、上記ステップS4の処理で第2の環境変化情報すなわち加速度情報、角速度情報、方位情報、気圧情報、温度情報の一部あるいは全てから、この情報入出力装置100が三次元空間においてどのような状態にあるかを判定する。
 そして、制御部10は、上記ステップS5における判定の結果、例えば、図7に各センサの検出出力信号を示すように、上記ステップS2の処理で得られた光入力相対量(ΔVcd)が上記閾値Tcdを超え、この情報入出力装置100が三次元空間において移動していない場合には、次のステップS6において、上記加速度情報、角速度情報、方位情報から三次元空間値Vcd(0,0,0)を設定し、入力情報を[入力1]とする。
 すなわち、図7において、SAXはX軸の加速度検出信号、SAYはY軸の加速度検出信号、SAZはZ軸の加速度検出信号であり、SBXはX軸の角速度検出信号、SBYはY軸の角速度検出信号、SBZはZ軸の角速度検出信号であり、Sは光量検出信号、Sは気圧検出信号、Sは温度検出信号である。そして、加速度検出信号SAX,SAY,SAZはほとんど変動していないので、情報入出力装置100の三次元空間での移動は、ほとんど起きていないことを示しているが、光量検出信号Sは、図7のように変動しているので、入力指示があると判定し、光センサ11による三次元空間値Vcd(X,Y,Z)をVcd(0,0,0)とし、入力情報を[入力1]とする。
 また、制御部10は、上記ステップS5における判定の結果、例えば、図8に各センサの検出出力信号を示すように、上記ステップS2の処理で得られた光入力相対量(ΔVcd)が上記閾値Tcdを超え、この情報入出力装置100が三次元空間において移動されている場合には、次のステップS7において、上記加速度情報、角速度情報、方位情報から三次元空間値Vcd(X,Y,Z)を演算子として設定し、入力情報を[入力2]とする。
 すなわち、図8において、SAXはX軸の加速度検出信号、SAYはY軸の加速度検出信号、SAZはZ軸の加速度検出信号であり、SBXはX軸の角速度検出信号、SBYはY軸の角速度検出信号、SBZはZ軸の角速度検出信号であり、Sは光量検出信号、Sは気圧検出信号、Sは温度検出信号である。そして、加速度検出信号SAX,SAY,SAZ及び角速度検出信号SBX,SBY,SBZが大きく変動しているので、情報入出力装置100の三次元空間での移動が起きていることを示しており、光量検出信号Sは、図8のように変動しているので、入力指示があると判定し、光センサ11による三次元空間値Vcd(X,Y,Z)をVcd(X1,Y1,Z1)とし、入力情報を[入力2]とする。
 さらに、次のステップS8において、制御部10は、上記入力情報[入力1]を静止状態コマンドとし、また、上記入力情報[入力2]を動作状態コマンドとして命令を実行する。すなわち、上記入力情報[入力1]は、情報入出力装置100の3次元空間移動が無い場合の光センサ入力指示であると判断し、3次元空間移動無い場合の光センサ入力対応処理を行う。一方、上記入力情報[入力2]は、情報入出力装置100の3次元空間移動がある場合の光センサ入力指示であると判断し、3次元空間移動ある場合の光センサ入力対応処理を行う。
 すなわち、この第1の入力動作モードでは、この情報入出力装置100により情報の入出力を行うか否かを判定するための第1の環境変化情報として、上記光センサ11による検出出力信号により示される光入力絶対値(Vcd)データを用いて、制御部10は、光入力絶対値(Vcd)を変換した光入力相対量(ΔVcd)が閾値Tcdを超えた否かにより、入出力を行うか否かを判定している。そして、上記光入力相対量(ΔVcd)が閾値Tcdを超えていない場合には情報入力状態とすることなく、上記光入力相対量(ΔVcd)が閾値Tcdを超えて場合に入出力指示があったものと判定して、上記第2の環境変化情報すなわち、加速度センサ12による検出出力信号により示される加速度情報、角速度センサ13による検出出力信号により示される角速度情報、方位センサ14による検出出力信号により示される方位情報、気圧センサ15による検出出力信号により示される気圧情報、温度センサ16による検出出力信号により示される温度情報の一部あるいは全部を入力情報[入力1]、[入力2]として、コマンドを実行する。
 この情報入出力装置100では、上記指輪型ホルダ2を介して使用者の例えば人差し指に装着して使用する場合、例えば、上記光センサ11の受光部11Aを親指で覆うことにより、上記光入力絶対値(Vcd)を変化させて入出力指示を行うことができる。
 また、この情報入出力装置100における制御部10は、例えば、図9のフローチャートに示す手順に従って第2の入力動作モードの情報入出力制御を行う。
 すなわち、第2の入力動作モードにおいて、制御部10は、気圧センサ15による非接触情報出力制御を行う。
 すなわち、先ずステップS11において、制御部10は、この情報入出力装置100により情報の入出力を行う三次元空間における第1の環境変化情報として、気圧センサ15により検出される当該情報入出力装置100の三次元空間における気圧を示す検出出力信号、すなわち、気圧絶対値(Vps)データを取得する処理を行う。
 次のステップS12において、制御部10は、上記ステップS11の処理で取得された第1の環境変化情報すなわち気圧絶対値(Vps)データを、次の変換式(式2)により、気圧相対量(ΔVps)に変換する処理を行う。
  ΔVps=Σ(Vpst=m-Vpst=m-1)/m   (式2)
  ただし、tは単位時間、mは気圧入力絶対値の測定自然数である。
 次のステップS13において、制御部10は、上記ステップS12の処理で得られた気圧相対量(ΔVps)が、情報入力状態とするか否かを決定するための閾値Tpsを超えたか否かを判定する処理を行う。
 次のステップS14において、制御部10は、上記ステップS13における判定結果が「YES」、すなわち、気圧相対量(ΔVps)が閾値Tpsを超えた場合には、上記三次元空間における第2の環境変化情報として、加速度センサ12による検出出力信号により示される加速度情報、角速度センサ13による検出出力信号により示される角速度情報、方位センサ14による検出出力信号により示される方位情報、気圧センサ15による検出出力信号により示される気圧情報、温度センサ16による検出出力信号により示される温度情報を同時に取得する処理を行う。なお、上記ステップS13における判定結果が「NO」、すなわち、光入力相対量(ΔVps)が閾値Tpsを超えていない場合には、上記ステップS11の処理に戻って、気圧センサ15による検出出力信号により示される気圧絶対値(Vcd)データを取得する処理を繰り返し行う
 次のステップS15において、制御部10は、上記ステップS14の処理で第2の環境変化情報すなわち加速度情報、角速度情報、方位情報、気圧情報、温度情報の一部あるいは全てから、この情報入出力装置100が三次元空間においてどのような状態にあるかを判定する。
 そして、制御部10は、上記ステップS15における判定の結果、例えば、図10に各センサの検出出力信号を示すように、上記ステップS12の処理で得られた気圧相対量(ΔVps)が上記閾値Tpsを超え、この情報入出力装置100が三次元空間において大きく移動していない場合には、次のステップS16において、上記加速度情報、角速度情報、方位情報から三次元空間値Vps(0,0,0)を設定し、入力情報を[入力3]とする。
 すなわち、図10において、SAXはX軸の加速度検出信号、SAYはY軸の加速度検出信号、SAZはZ軸の加速度検出信号であり、SBXはX軸の角速度検出信号、SBYはY軸の角速度検出信号、SBZはZ軸の角速度検出信号であり、Sは光量検出信号、Sは気圧検出信号、Sは温度検出信号である。そして、加速度検出信号SAX,SAY,SAZはほとんど変動していないので、情報入出力装置100の三次元空間での移動は、ほとんど起きていないことを示しているが、気圧検出信号Sは、図10のように変動しているので、入力指示があると判定し、気圧センサ15による三次元空間値Vps(X,Y,Z)をVps(0,0,0)とし、入力情報を[入力3]とする。
 また、制御部10は、上記ステップS15における判定の結果、例えば、図11に各センサの検出出力信号を示すように、上記ステップS12の処理で得られた気圧相対量(ΔVps)が上記閾値Tpsを超え、この情報入出力装置100が三次元空間において大きく移動されている場合には、次のステップS17において、上記加速度情報、角速度情報、方位情報から三次元空間値Vps(X,Y,Z)を演算子として設定し、入力情報を[入力4]とする。
すなわち、図11において、SAXはX軸の加速度検出信号、SAYはY軸の加速度検出信号、SAZはZ軸の加速度検出信号であり、SBXはX軸の角速度検出信号、SBYはY軸の角速度検出信号、SBZはZ軸の角速度検出信号であり、Sは光量検出信号、Sは気圧検出信号、Sは温度検出信号である。そして、加速度検出信号SAX,SAY,SAZ及び角速度検出信号SBX,SBY,SBZが大きく変動しているので、情報入出力装置100の三次元空間での移動が起きていることを示しており、気圧検出信号Sは、図11のように変動しているので、入力指示があると判定し、気圧センサ15による三次元空間値Vps(X,Y,Z)をVps(X2,Y2,Z2)とし、入力情報を[入力4]とする。
 さらに、次のステップS18において、制御部10は、上記入力情報[入力3]を静止状態コマンドとし、また、上記入力情報[入力4]を動作状態コマンドとして命令を実行する。すなわち、上記入力情報[入力3]は、情報入出力装置100の3次元空間移動が無い場合の圧力センサ入力指示であると判断し、3次元空間移動無い場合の圧力センサ入力対応処理を行う。一方、上記入力情報[入力4]は、情報入出力装置100の3次元空間移動がある場合の気圧センサ入力指示であると判断し、3次元空間移動ある場合の気圧センサ入力対応処理を行う。
 すなわち、この第2の入力動作モードでは、この情報入出力装置100により情報の入出力を行うか否かを判定するための第1の環境変化情報として、上記気圧センサ15による検出出力信号により示される気圧絶対値(Vps)データを用いて、制御部10は、気圧絶対値(Vps)を変換した気圧相対量(ΔVps)が閾値Tpsを超えた否かにより、入出力力を行うか否かを判定している。そして、上記気圧相対量(ΔVps)が閾値Tpsを超えていない場合には、この情報入出力装置100が三次元空間において大きく移動されても、入出力指示とは見なさず、上記光入力相対量(ΔVcd)が閾値Tcdを超えて場合に入出力指示があったものと判定して、上記第2の環境変化情報すなわち、加速度センサ12による検出出力信号により示される加速度情報、角速度センサ13による検出出力信号により示される角速度情報、方位センサ14による検出出力信号により示される方位情報、気圧センサ15による検出出力信号により示される気圧情報、温度センサ16による検出出力信号により示される温度情報の一部あるいは全部を入力情報[入力3]、[入力4]として、コマンドを実行する。
 この情報入出力装置100では、上記指輪型ホルダ2を介して使用者の例えば人差し指に装着して使用する場合、例えば、情報入出力装置100の高さ位置により上記気圧絶対値(Vcd)が変化するので、挙手た起立等の動作や一階から二階への移動などに連携した入出力指示を行うことができる。
 この情報入出力装置100において、上記制御部10は、上記角速度センサ13により得られる上記三次元空間における角速度を示す検出出力信号から当該情報入出力装置100の使用状態における姿勢情報を取得する。すなわち、上記角速度センサ13は、当該情報入出力装置100の使用状態における姿勢情報を取得するための姿勢センサとして機能している。また、上記制御部10は、上記加速度センサ12により得られる上記三次元空間における加速速度を示す検出出力信号から当該情報入出力装置100の使用状態における位置情報を取得する。すなわち、上記加速度センサ12は、当該情報入出力装置100の使用状態における位置情報を取得するための位置センサとして機能している。
 また、この情報入出力装置100では、制御部10は、例えば、図12のフローチャートに示す手順に従って、情報提示モードの情報入出力制御を行う。
 すなわち、先ずステップS21において、制御部10は、上記第1の入力動作モードにおいて実行される上記光センサ11の検出出に基づく入力情報[入力1]、[入力2]、上記第2の入力動作モードにおいて実行される上記気圧センサ15の検出出に基づく入力情報[入力3]、[入力4]による命令を検出する処理を行う。
 次のステップS22において、制御部10は、例えば図13に示すような光センサ入力による三次元空間値Vcd(X,Y,Z)と振動デバイス17の出力値Bcd(X,Y,Z)との対応表を参照して、上記振動デバイス17の出力値Bcd(X,Y,Z)を取得する処理を行う。
 次のステップS23において、制御部10は、例えば図14に示すような気圧センサ入力による三次元空間値Vps(X,Y,Z)と振動デバイス17の出力値Bps(X,Y,Z)との対応表を参照して、上記振動デバイス17の出力値Bps(X,Y,Z)を取得する処理を行う。
 次のステップS24において、制御部10は、取得した上記三次元空間値Vcd(X,Y,Z)に対応する出力値Bcd(X,Y,Z)を上記振動デバイス17に与えて振動させる。
 また、次のステップS25において、制御部10は、取得した上記三次元空間値Vps(X,Y,Z)に対応する出力値Bps(X,Y,Z)を上記振動デバイス17に与えて振動させる。
 そして、制御部10は、上記ステップS24において出力値Bcd(X,Y,Z)を出力した後、次のステップS26において、次の光センサ11からの入力待ち状態となり、上述の第1の入力動作モードの光センサ11による非接触情報出力制御により光センサ入力による三次元空間値Vcd(X,Y,Z)を取得したら、上記ステップS21に戻って、図13に示した対応表に従って上記振動デバイス17を振動させる出力処理の制御を繰り返し行う。
 また、制御部10は、上記ステップS25において出力値Bps(X,Y,Z)を出力した後、次のステップS27において、次の気圧センサ15からの入力待ち状態となり、上述の第2の入力動作モードの気圧センサ15による非接触情報出力制御により気圧センサ入力による三次元空間値Vps(X,Y,Z)を取得したら、上記ステップS21に戻って、図14に示した対応表に従って上記振動デバイス17を振動させる出力処理の制御を繰り返し行う。
 すなわち、本実施形態では、携帯可能な筐体1を具備する携帯型情報入出力装置100において、三次元空間における第1の環境変化を検出する第1のセンサ、すなわち、光センサ11又は気圧センサ15による検出出力が閾値を超えたか否かを判定し、上記第1のセンサにより取得される検出出力が閾値を超えた場合に、上記三次元空間における第2の環境変化を検出する第2のセンサにより取得される、加速度センサ12による検出出力信号により示される加速度情報、角速度センサ13による検出出力信号により示される角速度情報、方位センサ14による検出出力信号により示される方位情報、気圧センサ15による検出出力信号により示される気圧情報、温度センサ16による検出出力信号により示される温度情報の一部あるいは全部を入力情報[入力1]、[入力2]、[入力3]、[入力4]として、コマンドを実行し、上記入力情報に基づいて、上記三次元空間における第2の環境変化に応じた出力信号を生成し、生成した出力信号を少なくとも1つの振動デバイス17からなる情報出力手段から振動情報として出力させる制御を上記制御部10により行う。
 このような構成の情報入出力装置100では、三次元空間における第1の環境変化の検出出力が閾値を超えたか否かにより、情報入力状態とするか否かを判断し、上記第1の環境変化の検出出力が閾値を超えた場合に、三次元空間における第2の環境変化を入力情報として検出し、上記三次元空間における第2の環境変化に応じた振動情報を出力させることにより、ウェアラブルまたはモバイルコンピュータ環境で空間上で情報の入出力を容易且つ確実に行うことができる。
 ここで、上記情報入出力装置100は、上記振動デバイス17として、上記三次元空間の3軸(X軸、Y軸、Z軸)方向と振動面が直交するように三次元配置された3個の振動デバイス17X、17Y、17Zを備えており、上記制御部10は、三次元空間における第1の環境変化の検出出力が閾値を超えたか否かにより、情報入力状態とするか否かを判断し、上記第1の環境変化の検出出力が閾値を超えた場合に、三次元空間における第2の環境変化を入力情報として検出し、上記三次元空間における第2の環境変化に応じた三次元の振動情報を上記三次元配置された3個の振動デバイス17X、17Y、17Zから出力させる制御を行う。すなわち、上記制御部10は、上記第1の入力動作モードにおいて実行される上記光センサ11の検出出に基づく入力情報[入力1]、[入力2]、上記第2の入力動作モードにおいて実行される上記気圧センサ15の検出出に基づく入力情報[入力3]、[入力4]による命令に応じて、上記三次元配置された3個の振動デバイス17X、17Y、17Zから三次元の振動情報を出力させる。
 そして、この携帯型情報入出力装置100における制御部10は、通信インターフェース18を介して携帯端末などと情報交換を行う機能を有しており、上記光センサ入力による三次元空間値Vcd(X,Y,Z)と振動デバイス17の出力値Bcd(X,Y,Z)との対応表、及び、上記気圧センサ入力による三次元空間値Vps(X,Y,Z)と振動デバイス17の出力値Bps(X,Y,Z)との対応表を取得してメモリに保存したり、入力情報[入力1]、[入力2]、[入力3]、[入力4]を携帯端末などに送信することにより、例えば、図15に三次元空間における情報の入出力の例を示すように、外部の仮想現実システムと連携した入出力装置として機能し、ワイヤレスで仮想物体50の大きさ、凹凸、堅さなどの接触感覚を提示することができる。
 なお、上記携帯型情報入出力装置100は、指輪型ホルダ2を介して使用者の指に装着されるものとしたが、腕輪型、スティック型、ペンシル型など小型の各種形状のホルダを介して、使用者に身体に装着できるようにしてもよく、また、筐体1の外観形状を指輪型、腕輪型、スティック型、ペンシル型など小型で携帯可能な各種形状としてもよい。
 1 筐体、2 指輪型ホルダ、2A 装着部、10 制御部、11 光センサ、11A 受光部、12 加速度センサ、13 角速度センサ、14 方位センサ、15 気圧センサ、16 温度センサ、17X、17Y、17Z 振動デバイス、18 通信インターフェース、19 バッテリユニット、50 仮想物体、100 情報入出力装置

Claims (9)

  1.  携帯可能な筐体を具備する携帯型情報入出力装置であって、
     三次元空間における第1の環境変化を検出する第1のセンサと、
     上記三次元空間における第2の環境変化を検出する第2のセンサと、
     少なくとも1つの振動デバイスからなる情報出力手段と、
     上記第1のセンサにより取得される検出出力が閾値を超えたか否かを判定し、上記第1のセンサにより取得される検出出力が閾値を超えた場合に、上記第2のセンサにより検出される上記第2の環境変化を入力情報として取得し、取得した上記入力情報に基づいて、上記三次元空間における第2の環境変化に応じた出力信号を生成し、生成した出力信号を情報出力手段から振動情報として出力させる制御を行う制御手段とを上記筐体内に備える携帯型情報入出力装置。
  2.  上記第1のセンサは、上記三次元空間における第1の環境変化を受光量の変化として検出する光センサであり、
     上記制御手段は、上記光センサにより上記三次元空間における受光量の変化として検出される上記第1の環境変化に基づいて、情報入力状態とするか否かを判断して、上記第2のセンサにより検出される上記第2の環境変化を入力情報として取得することを特徴とする請求項1記載の携帯型情報入出力装置。
  3.  上記第1のセンサは、上記三次元空間における第1の環境変化を気圧の変化として検出する圧力センサであり、
     上記制御手段は、上記圧力センサにより上記三次元空間における気圧の変化として検出される上記第1の環境変化に基づいて、情報入力状態とするか否かを判断して、上記第2のセンサにより検出される上記第2の環境変化を入力情報として取得することを特徴とする請求項1記載の携帯型情報入出力装置。
  4.  上記制御手段は、上記第1のセンサによる検出出力として取得される絶対数値データ又は絶対値データを相対量に変換して閾値を超えたか否かを判定することを特徴とする請求項2又は3の何れか1項記載の携帯型情報入出力装置。
  5.  上記第2のセンサは、上記三次元空間における第2の環境変化として上記三次元空間における位置、姿勢、方位の1つ以上の変化を検出する三次元センサであり、
     上記制御手段は、上記第1のセンサにより取得される検出出力が閾値を超えた場合に、上記第2のセンサにより上記三次元空間における位置、姿勢、方位の1つ以上の変化として検出される上記第2の環境変化を入力情報として取得し、上記三次元空間における位置、姿勢、方位の1つ以上の変化に応じた出力信号を上記情報出力手段から振動情報として出力させる制御を行うことを特徴とする請求項1乃至3の何れか1項記載の携帯型情報入出力装置。
  6.  上記情報出力手段は、三次元配置された複数個の振動デバイスからなり、
     上記制御手段は、上記第1のセンサにより取得される検出出力が閾値を超えた場合に、上記第2のセンサにより検出される上記第2の環境変化を入力情報に基づいて、上記三次元空間における位置、姿勢、方位の1つ以上の変化に応じた出力信号を上記情報出力手段から三次元の振動情報として出力させる制御を行うことを特徴とする請求項5記載の携帯型情報入出力装置。
  7.  上記三次元センサは、加速度センサ、角速度センサ、方位センサの内の何れか1種類又は複数種類のセンサを備えることを特徴とする請求項6記載の携帯型情報入出力装置。
  8.  上記筐体は指輪型ホルダの装着部に着脱自在に装着され、上記指輪型ホルダを介して指に装着されることを特徴とする請求項1記載の情報入出力装置。
  9.  携帯可能な筐体を具備する携帯型情報入出力装置による情報入出力方法であって、
     三次元空間における第1の環境変化を検出する第1のセンサによる検出出力が閾値を超えたか否かを判定し、
     上記第1のセンサにより取得される検出出力が閾値を超えた場合に、第2のセンサにより検出される上記三次元空間における第2の環境変化を入力情報として取得し、
     取得した上記入力情報に基づいて、上記三次元空間における第2の環境変化に応じた出力信号を生成し、
     生成した出力信号を少なくとも1つの振動デバイスからなる情報出力手段から振動情報として出力させることを特徴とする情報入出力方法。
PCT/JP2015/053073 2014-03-13 2015-02-04 情報入出力装置及び情報入出力方法 WO2015137014A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/120,042 US10082885B2 (en) 2014-03-13 2015-02-04 Information input and output apparatus and information input and output method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014049701A JP6270557B2 (ja) 2014-03-13 2014-03-13 情報入出力装置及び情報入出力方法
JP2014-049701 2014-03-13

Publications (1)

Publication Number Publication Date
WO2015137014A1 true WO2015137014A1 (ja) 2015-09-17

Family

ID=54071466

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/053073 WO2015137014A1 (ja) 2014-03-13 2015-02-04 情報入出力装置及び情報入出力方法

Country Status (3)

Country Link
US (1) US10082885B2 (ja)
JP (1) JP6270557B2 (ja)
WO (1) WO2015137014A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6881159B2 (ja) * 2016-12-28 2021-06-02 花王株式会社 感触評価装置
JP6958119B2 (ja) * 2017-08-29 2021-11-02 花王株式会社 感触評価装置
CN110278230A (zh) * 2018-03-16 2019-09-24 阿里巴巴集团控股有限公司 数据处理方法、客户端、服务器及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11508382A (ja) * 1995-04-26 1999-07-21 インターバル リサーチ コーポレイション 状況を感知する汎用インタフェース装置
JP2010134955A (ja) * 1995-11-30 2010-06-17 Immersion Corp 触覚感覚を与えるための装置、システム、及び方法
JP2013025664A (ja) * 2011-07-25 2013-02-04 Sony Corp 入力装置、入力方法及び制御システム
WO2013022712A2 (en) * 2011-08-05 2013-02-14 Qualcomm Incorporated Gesture detection using proximity or light sensors

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2500283B2 (ja) 1992-04-13 1996-05-29 株式会社高度映像技術研究所 仮想空間キ―ボ―ド装置
JP3857504B2 (ja) 1993-05-21 2006-12-13 ソニー株式会社 入力装置、制御システム
JPH0712194A (ja) * 1993-06-21 1995-01-17 Mazda Motor Corp トロイダル型無段変速機
JP2001312356A (ja) 2000-04-28 2001-11-09 Tomohiro Kuroda 身体を利用する画像入力インタフェースを備えた一体型装着型計算機
US7020508B2 (en) * 2002-08-22 2006-03-28 Bodymedia, Inc. Apparatus for detecting human physiological and contextual information
JP4930160B2 (ja) * 2007-04-04 2012-05-16 セイコーエプソン株式会社 水泳距離計測装置
WO2009024971A2 (en) * 2007-08-19 2009-02-26 Saar Shai Finger-worn devices and related methods of use
JP2010204724A (ja) * 2009-02-27 2010-09-16 Denso Corp 入力システム及び電気機器
JP5755549B2 (ja) * 2011-10-26 2015-07-29 パイオニア株式会社 ソース機器およびこれを備えた再生システム
JP5613314B1 (ja) * 2013-11-14 2014-10-22 Jfeシステムズ株式会社 ジェスチャー検出装置、ジェスチャー検出プログラム、ジェスチャー認識装置およびジェスチャー認識プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11508382A (ja) * 1995-04-26 1999-07-21 インターバル リサーチ コーポレイション 状況を感知する汎用インタフェース装置
JP2010134955A (ja) * 1995-11-30 2010-06-17 Immersion Corp 触覚感覚を与えるための装置、システム、及び方法
JP2013025664A (ja) * 2011-07-25 2013-02-04 Sony Corp 入力装置、入力方法及び制御システム
WO2013022712A2 (en) * 2011-08-05 2013-02-14 Qualcomm Incorporated Gesture detection using proximity or light sensors

Also Published As

Publication number Publication date
US20170068333A1 (en) 2017-03-09
JP6270557B2 (ja) 2018-01-31
JP2015176176A (ja) 2015-10-05
US10082885B2 (en) 2018-09-25

Similar Documents

Publication Publication Date Title
KR101666096B1 (ko) 강화된 제스처 기반 상호작용 시스템 및 방법
EP2975497B1 (en) Terminal device, terminal device control method, and program
KR100744902B1 (ko) 휴대 무선 조작기
JP5392093B2 (ja) 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
US20120235906A1 (en) Apparatus and method for inputting information based on events
JPWO2009072475A1 (ja) 入力装置、制御装置、制御システム、ハンドヘルド装置及び制御方法
JP2006511862A (ja) 非接触型入力装置
WO2015137014A1 (ja) 情報入出力装置及び情報入出力方法
US20110310013A1 (en) Interface apparatus and method for contact-free space input/output
TWM518361U (zh) 指戴式輸入裝置
KR20160143428A (ko) 펜 단말기 및 그 제어방법
US8779904B2 (en) Multimode remote controller comprising an accelerometer, a gyroscope, a capacitive pressure transducer, and a touch pad
KR101211808B1 (ko) 동작인식장치 및 동작인식방법
US20150002486A1 (en) Multifunctional pencil input peripheral computer controller
US20170199586A1 (en) Gesture control method for interacting with a mobile or wearable device utilizing novel approach to formatting and interpreting orientation data
JP2011065512A (ja) 情報処理システム、情報処理プログラム、操作認識システム、および操作認識プログラム、
KR20150093270A (ko) 모션 인터페이스 디바이스
JP2009187353A (ja) 入力装置
KR20010110615A (ko) 피부의 움직임을 감지하여 작동되는 정보입력장치와 이를이용한 이동정보처리장치와 컴퓨터와 이동통신기기
WO2013032410A1 (en) Multifunctional pencil input peripheral computer controller
JP2014164428A (ja) ポインティング装置およびポインタ操作方法
KR101473469B1 (ko) 리모콘 장치 및 전자 기기의 동작 제어 방법
US20230116966A1 (en) A dual peripheral device
Singh et al. Glove Mouse: A Gesture Controlled Wireless Computer Mouse
KR101066829B1 (ko) 공간 입력장치 및 이를 이용한 입력방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15761271

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 15120042

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC , EPO FORM 1205A DATED 13-12-16

122 Ep: pct application non-entry in european phase

Ref document number: 15761271

Country of ref document: EP

Kind code of ref document: A1