CN102763057A - 输入设备、方法和程序 - Google Patents

输入设备、方法和程序 Download PDF

Info

Publication number
CN102763057A
CN102763057A CN2011800100220A CN201180010022A CN102763057A CN 102763057 A CN102763057 A CN 102763057A CN 2011800100220 A CN2011800100220 A CN 2011800100220A CN 201180010022 A CN201180010022 A CN 201180010022A CN 102763057 A CN102763057 A CN 102763057A
Authority
CN
China
Prior art keywords
input
vibration
data
rapping
rap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011800100220A
Other languages
English (en)
Other versions
CN102763057B (zh
Inventor
则枝真
三桥秀男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of CN102763057A publication Critical patent/CN102763057A/zh
Application granted granted Critical
Publication of CN102763057B publication Critical patent/CN102763057B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/04Input or output devices integrated in time-pieces using radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • G06F3/0433Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves in which the acoustic waves are either generated by a movable member and propagated within a surface layer or propagated within a surface layer and captured by a movable member
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

输入设备包括:检测单元,检测通过轻敲用户身体产生并通过身体传输的振动作为检测数据;以及输入信息识别单元,参考检测数据,基于检测数据根据轻敲位置处身体组织的物理特性而变化的事实来识别轻敲位置,并且输出分配给识别出的轻敲位置的操作命令。当用户执行针对移动电子设备的输入操作时,用户不需要取出输入设备。此外,简化了用户执行的输入操作。

Description

输入设备、方法和程序
技术领域
相关申请的交叉参考
本申请要求基于2010年3月15日递交的日本专利申请2010-057940以及2010年12月15日递交的日本专利申请No.2010-279665的优先权权益,先前递交日的申请的全部公开内容通过引用合并在本申请中。
本发明涉及一种输入设备、输入方法和程序。具体地,本发明涉及一种可以应用于诸如移动音乐播放器或移动电话等移动电子设备的输入设备、输入方法和程序。
背景技术
为了在小型移动电子设备上执行输入操作(例如,声音音量调整或音乐广播选择),需要用户从他/她存放设备的衣服口袋或包中取出该设备。在专利文献1中,作为避免该操作的技术,公开了一种移动电话设备,其中通过固定在用户手臂上的设备分离地执行移动电话的一部分功能。
在专利文献2中,公开了一种电话设备,该电话设备附着至用户耳朵,以允许基于用户发出咀嚼或咬的声音时产生的触发信号来执行通过移动电话的通信。
在专利文献3中,还公开了一种输入装置,该输入装置构造为类似于手表,并且输入诸如“握紧”、“释放”“扭动”或“摇动”等用户手势作为命令输入。
现有技术文献
专利文献
专利文献1:日本专利特开No.JP-A-10-051527
专利文献1:日本专利特开No.JP-A-10-200610
专利文献3:日本专利特开No.JP-P2002-358149A
发明内容
本发明要解决的问题
以上专利文献的全部公开通过引用合并于此。本发明人进行以下分析。
在专利文献1示出的移动电话设备中,输入键布置在手镯型的小型输入设备中。由于输入键尺寸较小,因此难于确认输入操作或识别输入键,使得可能产生诸如不正确按压操作等输入错误。
在专利文献2示出的电话设备中,仅一种类型的开/关操作(这里咀嚼或咬)用于执行输入操作。因此难于实现所操作设备拥有的多个功能的操作。
在专利文献3示出的电话设备中,分别由复杂移动组成的复杂手势用作输入操作。因此难于在输入操作与平常每天的移动之间进行区分,使得输入设备会接受用户的无意输入操作作为命令输入。
需要在移动输入设备的输入操作时简化用户的输入操作,并且消除取出输入设备以激活的需要。本发明的目的在于提供一种满足这些需要的输入设备、输入方法和程序。
解决问题的手段
根据本发明的第一方面,提供了一种输入设备,包括:
检测单元,检测通过轻敲用户身体而产生并通过身体传输的振动作为检测数据;以及
输入信息识别单元,参考检测数据,并且基于检测数据根据轻敲位置处身体组织的物理特性而变化的事实来识别轻敲位置。
根据本发明的第二方面,提供了一种输入方法,包括:
通过计算机检测通过轻敲用户身体而产生并通过身体传输的振动作为检测数据;以及
参考检测数据,并且基于检测数据根据检测到检测数据的位置处身体组织的物理特性而变化的事实来识别轻敲位置。
根据本发明的第三方面,提供了一种程序,使计算机执行以下操作:
检测通过轻敲用户身体而产生并通过身体传输的振动作为检测数据;以及
参考检测数据,并且基于检测数据根据检测到检测数据的位置处身体组织的物理特性而变化的事实来识别轻敲位置。
根据本发明的第四方面,提供了一种输入设备,包括:
检测单元,检测通过轻敲用户身体而产生并通过身体传输的振动作为检测数据;以及
输入信息识别单元,参考检测数据,基于检测数据根据轻敲位置处身体组织的物理特性而变化的事实来识别轻敲位置,以及输出分配给识别出的轻敲位置的操作命令。
根据本发明的第五方面,提供了一种输入方法,包括
通过计算机检测通过轻敲用户身体而产生并通过身体传输的振动作为检测数据;
参考检测数据,并且基于检测数据根据轻敲位置处身体组织的物理特性而变化的事实来识别轻敲位置,以及
输出分配给识别出的轻敲位置的操作命令。
根据本发明的第六方面,提供一种程序,使计算机执行以下操作:
通过计算机检测通过轻敲用户身体而产生并通过身体传输的振动作为检测数据;
参考检测数据,并且基于检测数据根据轻敲位置处身体组织的物理特性而变化的事实来识别轻敲位置,以及
输出分配给识别出的轻敲位置的操作命令。
本发明的效果
在根据本发明的输入设备、输入方法和程序中,不需要用户在执行针对移动电子设备的输入操作时取出输入设备。此外用户的输入操作可以更简单。
附图说明
图1是根据第一示例性实施例的输入设备的配置的框图。
图2是详细示出了第一示例性实施例的输入设备的输入区域的透视图。
图3是详细示出了第一示例性实施例的输入设备中检测单元的透视图。
图4是示出了第一示例性实施例的输入设备中检测单元的截面图。
图5是示出了第一示例性实施例的输入设备的操作的流程图。
图6是用于说明第一示例性实施例的输入设备中振动波形提取的图。
图7是用于说明第一示例性实施例的输入设备的振动周期提取的图。
图8是用于说明第一示例性实施例的输入设备中每个输入区域的身体组织物理特性值的模型的图。
图9是用于说明第一示例性实施例的输入设备中每个输入区域的周期λ及其频率分布的图。
图10是示出了第一示例性实施例的输入设备中上限阈值和下限阈值与输入信息识别数据之间的对应关系的表格表示。
图11是示出了第二示例性实施例的输入设备的配置的框图。
图12是示出了第二示例性实施例的输入设备的操作的流程图。
图13是用于说明第二示例性实施例的输入设备的接触检测子单元中振动衰减的图。
图14是用于说明第三示例性实施例的输入设备中输入时输入区域和手臂姿势的示意透视图。
图15是示出了第三示例性实施例的输入设备的配置的框图。
图16是示出了第三示例性实施例的输入设备的操作的流程图。
图17是用于说明第三示例性实施例的输入设备的振动周期提取和手臂姿势提取的图。
图18是示出了第三示例性实施例的输入设备中上限阈值和下限阈值和重力加速度方向的组合与输入信息识别数据之间的对应关系的表格表示,重力加速度方向对应于手臂姿势。
具体实施方式
在第一方式中,提供了根据上述第一方面的输入设备。
在第二方式的输入设备中,检测数据可以是振动周期。
在第三方式中,输入设备还可以包括:存储单元,将检测单元检测到的振动周期与轻敲位置彼此关联地存储,其中输入信息识别单元可以参考存储单元来识别轻敲位置。
在第四方式中,存储单元可以将振动周期的上限阈值和下限阈值与轻敲位置彼此相关联地存储,并且输入信息识别单元可以通过判定检测到的振动周期是否落在上限阈值与下限阈值之间来识别轻敲位置。
在第五方式的输入设备中,检测数据可以是振动衰减特性。
在第六方式中,提供了输入设备,包括:另一存储单元,将检测单元检测到的振动衰减特性与轻敲位置彼此相关联地存储。输入信息识别单元参考该另一存储单元来识别轻敲位置。
在第七方式的输入设备中,存储单元可以将振动衰减特性的上限阈值和下限阈值与轻敲位置彼此相关联地存储,并且输入信息识别单元可以通过判定检测到的振动衰减特性是否落在上限阈值与下限阈值之间来识别轻敲位置。
在第八方式的输入设备中,衰减特性可以是振动的稳定时间或衰减比。
在第九方式中,提供了根据上述第二方面的输入方法。
在第十方式中,提供了根据上述第三方面的程序。
在第十一方式中,提供了其上记录有上述程序的计算机可读记录介质。
在第十二方式中,提供了根据上述第四方面的输入设备。
在第十三方式中,提供了根据上述第五方面的输入方法。
在第十四方式的输入设备中,检测单元可以包括加速度传感器,并且可以设置在被轻敲侧的手腕上,并且输入信息识别单元可以响应于加速度传感器检测到的重力加速度来识别被轻敲手臂的姿势(或姿态),从而输出操作命令,操作命令与识别出的轻敲位置和被轻敲手臂姿势的集合相关联。
根据本发明,可以向输入操作分配对用户身体部位的轻敲。根据本发明,输入设备可以是手镯型小尺寸的设备,并且可以不需要用户取出输入设备以激活电子设备的操作。因此,能够消除复杂的输入操作,并减少执行输入操作所需的时间。
此外,由于可以向用户身体部位分配输入操作,所以可以提供足够大的输入区域,从而能够防止发生用户的输入错误。
由于根据本发明可以提供多个输入区域,因此能够实现多种不同类型的输入操作,即针对所激活的设备拥有的多个功能的输入操作。
此外,根据本发明,由于用户触摸他/她身体的指定操作是输入操作,因此能够区分输入操作与日常的身体移动,并且可以防止用户无意的输入操作。
(第一示例性实施例)
现在参照附图描述根据第一示例性实施例的输入设备。
图2是示出了要激活的设备是便携式音乐播放器并且用户手臂用作输入部位情况下输入区域的细节。参照图2,用于激活感兴趣设备的三个输入区域71至73布置在手臂上。在本示例性实施例中,仅作为示例,音乐播放是感兴趣操作。将“下一曲目”功能、“播放/暂停”功能和“停止”功能分配到输入区域71至73,输入区域71至73分别设置在前臂手腕侧、前臂上臂侧以及上臂。
用户通过使用他/她的另一手臂轻敲手臂上的输入区域71至73来执行输入操作。例如,当用户在听音乐的同时慢跑或散步时,他或她能够不必取出移动音乐播放器来在尺寸小的输入键上执行繁琐操作。而是,用仅需要轻敲他/她的手臂来使设备执行与轻敲位置相关联的操作。
图1是示出了根据本示例性实施例的输入设备的配置的框图。
参照图1,输入设备包括检测单元1、存储单元4、输入信息识别单元5和信息呈现单元6。
检测单元1包括设置在被轻敲侧的接触检测子单元2。在检测到通过轻敲操作所产生并且通过用户身体传输的振动时,接触检测子单元2输出检测数据a。
存储单元4存储接触检测子单元2检测到的振动的周期与轻敲位置的对应关系,作为判定数据c。
在接收到检测数据a时,输入信息识别单元5计算振动的周期,并且参考存储单元4的判定数据c,以便识别轻敲位置。输入信息识别单元5然后输出分配给轻敲位置的命令,作为输入信息识别数据d。
在接收到输入信息识别数据d时,例如信息呈现单元6执行符合该命令的播放或停止音乐,同时输出随附的画面图像说明。
参照图2,用于检测振动的接触检测子单元2例如布置在用户左手(被轻敲侧)的手腕上。
图3详细示出了检测单元1的配置。参照图3,检测单元1中包括的接触检测子单元2包括安装在配线基板10上的加速度传感器9。接触检测子单元2通过该加速度传感器9来检测振动作为加速度。
图4详细示出了检测单元1的结构。参照图4,除了加速度传感器9以外,配线基板10还包括存储器16、算术逻辑单元11、呈现内容处理单元12、以及呈现单元13。此外,这些单元封装在外壳14中。
存储器16保持存储单元4的判定数据c。算术逻辑处理单元11执行输入信息识别单元5中的处理。呈现内容处理单元12通过分配给轻敲位置的命令控制音乐输出的播放/停止,以及控制信息呈现单元6中画面的纹理。呈现单元13通过扬声器输出呈现内容处理单元12所控制的音频信号,以向另一呈现设备(例如,蓝牙设备)传输数据,或者输出受控制的像素信号作为显示。
现在参照附图描述根据本示例性实施例的输入设备的整体操作。图5示出了本示例性实施例的输入设备的操作的流程图。
当用户用另一手臂的手轻敲用户手臂上的输入区域71至73之一时,接触检测子单元2从检测数据a中提取预设时间间隔内的数据(步骤S101)。对振动波形加以表示的检测数据a是加速度传感器9在每个采样间隔检测到的值的时域数据。例如,接触检测子单元2从检测数据a中提取自检测到输入事件时起预设持续时间内的振动波形,作为识别轻敲位置的数据。
输入的轻敲操作引起振动的周期根据被轻敲侧的粘弹性值而变化,粘弹性是身体组织(例如,皮肤、肉或骨骼)所确定的物理特性。因此,输入信息识别单元5基于检测数据a来提取接触检测子单元2检测到的振动的周期(步骤S102)。
输入信息识别单元5然后参考存储单元4的判定数据c,存储单元4保持周期值与具体被轻敲位置之间的对应关系。注意,周期的值随着被轻敲位置处身体组织的物理特性值而变化。输入信息识别单元5然后将检测到的振动周期与输入区域71至73对照,以识别被轻敲的具体输入区域,从而输出识别出的输入区域作为输入信息识别数据d(步骤S103)。
最后,信息呈现单元6呈现预设符号、数据以及分配给识别出的输入区域的功能(步骤S104)。
现在详细描述每个步骤的操作。
图6是用于说明步骤S101中振动波形提取的图。当接收振动波形作为检测数据a时,其中振动波形是接触检测子单元2检测到的值的时域数据,提取检测数据a中落在与作为参考的发生输入事件的时间点有关的预设时间内的那些数据作为可用于比较的数据。检测到的振动是图6(a)所示接触检测子单元2处的振动波形。注意,如果顺序地处理每个时间点处的检测数据值,则通信是耗时的。因此,对于输入信息识别单元5,期望以预设持续时间为间隔来总体地接收检测数据。
图7是步骤S102中振动周期提取的图。为了计算轻敲操作所产生的振动的开始时间点,检接触检测子单元2提取振动波形的上升时间。找到振动开始之前波形的稳态值与波形上升期间最大倾斜点处波形的切线的交点,作为振动开始的时间点tS。然后,为了计算与振动的半周期λ/2相对应的时间点,找到经过最大点之后单调递减的波形与波形稳态部分相交的时间点作为时间tE。在这种情况下,振动周期λ可以计算为2(tE-tS)。
现在说明使用振动周期将被轻敲位置处身体组织的物理特性值与轻敲位置相关联的方法。
图8示意性示出了各个输入区域的身体组织的物理值的模型。在用户的被接触手臂上,分别与用户的前臂手腕侧、前臂上臂侧以及上臂相关联地设置第一、第二和第三输入区域71至73。注意,为了便于说明才如此表示输入区域71至73。这并不意味着在用于检测位置的具体设备设置在用户手臂上。
由于人体由身体组织(即,皮肤、肉、骨骼和血管)组成,各个轻敲位置呈现不同的物理特性。身体组织因此可以由质量元件、弹簧元件和阻尼元件来表示。
这里假定第一输入区域71的身体组织包括质量重量m1的质量元件、弹性系数k1的弹簧元件以及粘度系数c1的阻尼元件。类似地,假定第二输入区域72的身体组织包括质量重量m2的质量元件、弹性系数k2的弹簧元件以及粘度系数c2的阻尼元件,并且第三输入区域73的身体组织包括质量重量m3的质量元件、弹性系数k3的弹簧元件以及粘度系数c3的阻尼元件.
为了简单起见,现在认为每个输入区域71至73的身体组织,由质量元件、弹簧元件和阻尼元件的并联连接构成(Voigt模型)。身体组织的物理特性值与振动周期λ之间的关系如下:
即,如果利用轻敲输入作为脉冲输入,计算被轻敲侧衰减的固有振动周期,则周期λ可以与身体组织的物理特性值相关联,如以下方程(方程1)所示:
[方程1]
λ = 2 π k m - c 2 4 m 2
由于输入区域71至73的身体组织具有不同的物理特性值,因此能够将振动周期λ与输入区域71至73之一相关联。
方程1指示弹性系数k越大(即,身体组织越硬),周期λ变得越短。
严格地,弹性系数k和粘度系数c根据轻敲的手臂形状以及手形状、以及接触或触摸的方式而变得非线性。严格地,轻敲输入的脉冲也不是脉冲输入。因此,考虑到对于越小粘性系数k值,接触时间变得越长,可以基于周期与作为身体组织的物理特性的各个系数之间关系的建模表示,来计算周期λ。
在任何速率下,按照前臂手腕侧(第一输入区域71)、上臂(第三输入区域73)和前臂上臂侧(第二输入区域72)的顺序,周期λ倾向于更长。这种趋势符合身体组织越硬(具有更大的粘性系数k值)周期λ变得越短的趋势。
图9示出了针对第一至第三区域71至73中的每一个,振动周期λ及其频率分布的图。由于个体差异,身体组织的值针对不同用户而变化。甚至对于同一人,输入区域71至73上的具体轻敲位置也随时间而变化。还存在由于身体与设备之间的接触状态随时间不同所引起的变化。因此,在步骤S103中,可以根据多次试验轻敲操作来测量周期λ,然后可以结合针对输入区域71至73的变化来设置下限阈值和上限阈值。这样可以确定下限阈值和上限阈值之间的值是至各个输入区域的输入。
在设置下限阈值和上限阈值时,考虑以下事实:在输入区域71至73的每一个中,作为输入的轻敲位置的变化为正态分布。因此,使用标准偏差σ作为参考值来小心地设置下限阈值和上限阈值,使得在确定输入区域时使用的周期值不与确定相邻输入区域时使用的那些周期值交叠。例如,可以将μ-2σ和μ+2σ分别设置为下限阈值和上限阈值,其中,μ是周期的期望值。注意,此时在范围μ±2σ中包括了所有数据的95.45%。
优选地,将用于通过接触检测子单元2处的振动周期λ来识别输入信息的阈值预先存储在存储单元4中作为判定数据c。
图10以表格形式示出了输入信息识别数据d与存储单元4中存储的判定数据c中包含的下限阈值和上限阈值之间的示例对应关系。为了仅有下限阈值和上限阈值作为判定数据c存储在存储单元4中,在为存储单元4准备数据时多次通过轻敲输入区域71至73中的每一个来获得多个周期值。对于输入区域71至73中的每一个而言,将呈现正态分布的周期期望值减去标准偏差视为下限阈值,并且将周期期望值加上标准偏差视为上限阈值。将三组上限阈值和下限阈值与输入区域71至73相关,以用作判定数据c。
如果例如接触检测子单元2所检测的振动的周期λ是0.035s,则该周期落在针对输入区域71的下限阈值和上限阈值之间。因此,选择分配给第一输入区域71的命令,即,“下一曲目”。
接着详细描述信息呈现单元6的操作(步骤S104)。
在接收到输入信息识别单元5所识别的输入信息识别数据d时,信息呈现单元6向用户呈现分配给输入位置的功能。由于在本示例性实施例中假定对广播的音乐进行操作,因此,根据分配给输入区域71至73的功能(即,“下一曲目”、“播放/暂停”和“停止”)对音乐数据进行控制,从而从扬声器输出对应的音乐或语音。
信息呈现单元6还可以根据分配给输入区域71至73的功能来,经由例如蓝牙等向耳机或头戴耳机传输数据,或者显示正播放(广播)的乐曲名或者正执行的功能。
在本示例性实施例中,测量从振动波形的上升时间开始直到振动恢复至原始位置为止这半个周期,以计算周期λ。然而,还可以基于所测量的从振动波形的上升时间开始直到最大幅度值时间为止这种四分之一周期值,来计算周期λ。
输入信息识别单元5可以在识别输入信息时保持和参考阈值,而不是将阈值包括在判定数据c中。
在本示例性实施例中,在用户的手臂上设置三个输入区域71至73,并且向每个输入区域分配命令。然而,可以根据需要任意设置输入区域的数目以及向其分配的命令,因此不限于本示例性实施例的方式。
此外,在本示例性实施例中,三个输入区域71至73均设置在用户手臂上。然而,只要轻敲位置的身体组织呈现不同的物理特性值,则输入区域可以设置在手臂以外的其他地方。
此外,在本示例性实施例中,检测单元设置在用户的手腕上。然而,只要选择的安装位置允许传输振动,则检测单元也可以设置在上臂、手套、戒指或脚踝。检测单元也可以布置在用户所携带的手持设备上。
(第二示例性实施例)
现在参照附图描述根据第二示例性实施例的输入设备。
在第一示例性实施例中,计算轻敲位置处身体组织的物理特性值的差异,作为检测到的振动周期。周期和轻敲位置彼此相关来识别输入区域。在本示例性实施例中,计算检测到的振动衰减到小于预设幅度范围的时间(以下被称作稳定时间)来识别输入区域。
图11示出了本示例性实施例的输入设备的配置的框图。在第一示例性实施例中,将接触检测子单元2所检测的周期与轻敲位置之间的对应关系预先存储在存储单元4中作为判定数据c。在本示例性实施例中,将接触检测子单元2所检测的振动的稳定时间与轻敲位置之间的对应关系预先存储在存储单元4中作为判定数据e。
本示例性实施例的输入设备包括输入信息识别单元15,来代替第一示例性实施例中的输入信息识别单元5。在接收到检测数据a时,输入信息识别单元15参考存储单元4中预先存储的判定数据e,并且提取接触检测子单元2所检测的振动的稳定时间来识别轻敲位置。
现在详细描述本示例性实施例的输入设备的操作。
在第一示例性实施例中,输入信息识别单元5基于接触检测子单元2所检测的振动周期来识别轻敲位置。在本示例性实施例中,输入信息识别单元15基于接触检测子单元2所检测的振动稳定时间来识别轻敲位置。这一点通过以下事实变为可能:振动的衰减量响应于轻敲位置处身体组织的物理特性值而变化,因此,检测单元1所检测的振动稳定时间也相应地变化。
现在详细描述输入信息识别单元15的操作。
图12示出了本示例性实施例的输入设备的操作的流程图。在第一示例性实施例中,在图5的步骤S102中提取振动周期。在本示例性实施例的输入设备中,基于检测数据a来提取接触检测子单元2所检测的振动的稳定时间(步骤S202)。
图13示出了接触检测子单元2中振动的衰减方式。在步骤S202中,为了提取振动经衰减的稳定时间,测量振动幅度变成最大的时间点Tmax和振动幅度减小到不超过最大值的10%的时间点Tc。将这两个时间的差视为稳定时间。
在第一示例性实施例中,在图5的步骤S103中,参考存储单元4中的判定数据c,来识别被轻敲的具体输入区域,其中存储单元4保持接触检测子单元2中检测的振动周期与轻敲位置之间的关系。在本示例性实施例中,输入信息识别单元15参考存储单元4中的判定数据e,存储单元4保持接触检测子单元2所检测的稳定时间与轻敲位置之间的关系。输入信息识别单元将稳定时间与输入区域相关,以识别被轻敲了的具体输入区域71、72或73(步骤S203)。
在步骤S203中,如在步骤S103一样,可以根据稳定时间是否落在稳定时间的下限阈值和上限阈值之间,来使用这些阈值识别轻敲位置。
在本示例性实施例中,基于幅度已经减小到不超过最大幅度的10%的最末端时间来计算稳定时间。然而,该计算稳定时间的方法不是限制性的,例如还可以基于振动幅度减小到不超过最大幅度的5%的最末端时间来计算。
在本示例性实施例中,计算振动稳定时间以利用由于身体组织的不同物理特性值而引起的不同振动衰减。然而可以使用利用了振动衰减量的其他方法,例如,计算振动衰减比的方法。
(第三示例性实施例)
现在参考附图描述第三示例性实施例的输入设备。
在第一和第二示例性实施例中,为了判定设备要执行的操作,设置与用户的手臂接触的三个输入区域71至73。通过检测数据来识别这些输入区域中的一个具体区域,检测数据取决于轻敲位置处身体组织的物理特性值。在本示例性实施例中,不仅采用轻敲位置处身体组织的物理特性值的差异,还采用接触检测子单元2检测到的检测数据p(以下将描述)。注意,可以根据被轻敲侧不同的手臂姿势,来向相同输入区域中的输入分配不同的操作命令。
图14示出了输入时间点处不同的手臂姿势(或姿态)以及各个输入区域。具体地,图14的(a)至(c)分别示出了用户手臂向上姿势、水平姿势以及向下姿势。如果手臂姿势不同,则分配给每个输入区域的操作命令也不同。
假定正操作的设备是音乐播放器,参照图14的(b),其中用户的手臂是水平姿势,向设置在用户前臂上手腕侧的输入区域71分配“下一曲目”命令,如在第一示例性实施例中一样。以类似的方式,向设置在用户前臂上臂侧的输入区域72分配“播放/暂停”命令,并且向设置在用户上臂上的输入区域73分配“停止”命令。参照图14的(a),其中,用户的手臂是向上姿势,分别向输入区域71至73分配“快进”命令、“播放/暂停”命令和“后退”命令。参照图14的(c),其中用户的手臂是向下姿势,分别向输入区域71至73分配“静音”命令、“声音音量减小”命令和“声音音量增大”命令。
图15是示出了本示例性实施例的输入设备的配置的框图。在第一示例性实施例中,为了识别轻敲位置,将接触检测子单元2所检测的振动周期与轻敲位置之间的对应关系预先存储在存储单元4中作为判定数据c(图1)。在本示例性实施例中,将接触检测子单元2所检测的手臂姿势跟接触检测子单元2所检测的振动周期与轻敲位置之间的对应关系相结合。具体地,将轻敲位置和手臂姿势的集合与操作命令之间的对应关系预先存储在存储单元4中作为判定数据g。
参照图15,本示例性实施例的输入设备包括输入信息识别单元25来代替第一示例性实施例的输入信息识别单元5(图5)。在接收到检测数据p时,输入信息识别单元25基于接触检测子单元2所检测的手臂姿势并且例如基于振动稳定时间,参考存储单元4中的判定数据g来识别分配给轻敲位置和手臂姿势的集合的操作命令。
将响应于通过轻敲位置/手臂姿势集合识别出的操作命令,而输出的命令视为输入信息识别数据b。
现在描述本示例性实施例的输入设备的操作。
图16示出了本示例性实施例的输入设备的操作的流程图。在第一示例性实施例中,在图5的步骤S102中提取振动周期。在本示例性实施例的输入设备中,在步骤S102中提取振动周期,在步骤S102之后,基于检测数据p来提取接触检测子单元2处的手臂姿势(步骤S302)。
现在详细描述输入信息识别单元25的操作。
输入信息识别单元5参考存储单元4中的判定数据g,以识别操作命令。存储单元中保持的判定数据g包括轻敲位置/手臂姿势集合与操作命令之间的对应关系。可以基于检测数据p的振动周期的差异来找到各种轻敲位置,同时可以基于接触检测子单元2中的加速度值来找到各种手臂姿势。输入信息识别单元25能够以这种方式针对图14所示各种手臂姿势,来识别输入区域71至73,从而输出针对所分配操作的命令,作为输入信息识别数据b。
现在详细描述输入信息识别单元25中步骤S302的操作。
在步骤S302中,输入信息识别单元5利用接触检测子单元2的加速度传感器9所检测的重力加速度方向,来提取手臂姿势。
图17示出了步骤S102中振动周期提取和步骤S302中手臂姿势提取。图17(a)类似于图7。步骤S102中提取振动周期的方法与结合第一示例性实施例描述的方法类似。图17(b)示出了沿着接触检测子单元2的加速度传感器9所检测的加速度方向X、Y和Z的相应分量的波形。从图17(b)中可以看出,在接触检测子单元2检测轻敲冲击之前检测加速度的特定值,这指示了始终向加速度传感器9施加预设重力加速度。在步骤S302中,输入信息识别单元25参考图17(b)所示的检测数据p来计算振动开始时间tS之前稳定状态下的加速度,作为要与手臂姿势相关的重力加速度。
现在详细描述步骤S303中输入信息识别单元5的操作。
图18示出了振动周期的上限阈值和下限阈值与重力加速度方向(等同于手臂姿势)的组合跟输入信息识别数据b之间的对应关系示例的表格表示。该对应关系包括在存储单元4中存储的判定数据g中。下限阈值和上限阈值定义了提取轻敲位置时使用的振动周期的范围,与图10所示的那些阈值相同。参照图18,为了表示重力加速度方向(等同于手臂姿势),对重力加速度的(X、Y、Z)分量(通常针对上述各个手臂姿势)的值进行平均,并且存储作为判定数据g。
在步骤S303中,输入信息识别单元参考存储单元4中存储的判定数据g。在存储单元4中存储的下限阈值和上限阈值之间的振动周期与重力加速度值的组合之中,将其中检测到的重力加速度值最接近存储值并且振动周期在下限阈值和上限阈值之间的那个组合视为相关的判定数据g。
在本示例性实施例中,使用与第一示例性实施例的方法类似的用于输入设备的方法,根据轻敲所产生的振动的周期来计算轻敲位置。然后使用重力加速度来计算手臂姿势,从而识别针对分配给输入区域的操作的命令。备选地,为了识别轻敲位置,还可以使用与用于第二示例性实施例的输入设备的方法类似的方法。
在本示例性实施例中,针对所分配操作的命令基于轻敲位置和手臂姿势的组合而改变。备选地,针对所分配操作的命令可以基于轻微位置和手臂姿势变化的组合而改变。
在本示例性实施例中,加速度传感器9用于检测手臂姿势,并且使用重力加速度来区分手臂姿势,以判断针对分配给输入区域的操作的命令。备选地,可以组合地使用角度传感器、陀螺仪等传感器,以判定手臂姿势。
可以通过提供如本示例性实施例中接触检测子单元2的加速度传感器9,根据作为从稳定状态的变化的振动的周期,来计算轻敲位置。此外,也可以同时利用重力加速度来计算手臂姿势。因此,利用本示例性实施例的输入设备,能够获取多个状态量,无需添加传感器,因此简化了设备的配置。
上述非专利文献通过引用合并于此。示例性实施例的修改和调整在本发明充分公开(包括权利要求)的范围内,并且基于本发明的基本技术构思。各个公开元素的各种组合和选择(包括每个权利要求的每个元素,每个示例性实施例的每个元素,每个附图的每个元素,等)在本发明的权利要求的范围内。即,本发明包括本领域技术人员根据包括权利要求和技术构思的充分公开进行的各种改变和修改。
注意,以上一些或所有示例性实施例可以描述为以下方式,然而这些方式并不意在限制本发明。
(方式1)
一种输入设备,包括:
检测单元,检测振动作为检测数据,振动是通过轻敲用户身体而产生并通过身体传输的;以及
输入信息识别单元,参考检测数据,并且基于检测数据根据轻敲位置处身体组织的物理特性而变化的事实来识别轻敲位置。
(方式2)
根据方式1所述的输入设备,其中
检测数据是振动周期。
(方式3)
根据方式2所述的输入设备,还包括
存储单元,将检测单元检测到的振动周期与轻敲位置彼此关联地存储,其中输入信息识别单元参考存储单元来识别轻敲位置。
(方式4)
根据方式3所述的输入设备,其中
存储单元将振动周期的上限阈值和下限阈值与轻敲位置彼此关联地存储,并且
输入信息识别单元通过判定检测到的振动周期是否落在上限阈值与下限阈值之间来识别轻敲位置。
(方式5)
根据方式1所述的输入设备,其中
检测数据是振动衰减特性。
(方式6)
根据方式5所述的输入设备,还包括:
存储单元,将检测单元检测到的振动衰减特性与轻敲位置彼此关联地存储,其中
输入信息识别单元参考存储单元来识别轻敲位置。
(方式7)
根据方式6所述的输入设备,其中
存储单元将振动衰减特性的上限阈值和下限阈值与轻敲位置彼此关联地存储,并且
输入信息识别单元通过判定检测到的振动衰减特性是否落在上限阈值与下限阈值之间来识别轻敲位置。
(方式8)
根据方式5至7中任一项所述的输入设备,其中
衰减特性是振动稳定时间。
(方式9)
根据方式5至7中任一项所述的输入设备,其中
衰减特性是振动衰减比。
(方式10)
根据方式1至9中任一项所述的输入设备,其中
输入信息识别单元输出被分配给识别出的轻敲位置的操作命令。
(方式11)
根据方式1至10中任一项所述的输入设备,其中
检测单元包括对振动进行检测的加速度传感器。
(方式12)
根据方式1至11中任一项所述的输入设备,其中
检测单元设置在被轻敲侧的手腕上。
(方式13)
一种输入方法,包括:
通过计算机检测振动作为检测数据,振动是通过轻敲用户身体产生并通过身体传输的;以及
参考检测数据,并且基于检测数据根据检测到检测数据的位置处身体组织的物理特性而变化的事实来识别轻敲位置。
(方式14)
根据方式13所述的输入方法,其中
检测数据是振动周期。
(方式15)
根据方式14所述的输入方法,其中
计算机通过参考存储单元来识别轻敲位置,存储单元将在检测到检测数据的位置处检测到的振动周期与轻敲位置彼此关联地存储。
(方式16)
根据方式15所述的输入方法,其中
存储单元将振动周期的上限阈值和下限阈值与轻敲位置彼此关联地存储;并且
计算机通过判定检测到的振动周期是否落在上限阈值与下限阈值之间来识别轻敲位置。
(方式17)
根据方式13所述的输入方法,其中
检测数据是振动衰减特性。
(方式18)
根据方式17所述的输入方法,其中
计算机通过参考存储单元来识别轻敲位置,存储单元将在检测到检测数据的位置处检测到的振动衰减特性与轻敲位置彼此关联地存储。
(方式19)
根据方式18所述的输入方法,其中
存储单元将振动衰减特性的上限阈值和下限阈值与轻敲位置彼此相关联地存储;并且
计算机通过判定检测到的振动衰减特性是否落在上限阈值与下限阈值之间来识别轻敲位置。
(方式20)
根据方式17至19中任一项所述的输入方法,其中
衰减特性是振动稳定时间。
(方式21)
根据方式17至19中任一项所述的输入方法,其中
衰减特性是振动衰减比。
(方式22)
根据方式13至21中任一项所述的输入方法,还包括:
通过计算机输出被分配给识别出的轻敲位置的操作命令。
(方式23)
根据方式13至22中任一项所述的输入方法,其中
检测位置是被轻敲侧的手腕。
(方式24)
一种程序,使计算机执行以下操作:
检测振动作为检测数据,振动是通过轻敲用户身体产生并且通过身体传输的;以及
参考检测数据,并且基于检测数据根据检测到检测数据的位置处身体组织的物理特性而变化的事实来识别轻敲位置。
(方式25)
根据方式24所述的程序,其中
检测数据是振动周期。
(方式26)
根据方式25所述的程序,其中
程序允许计算机执行以下处理:通过参考存储单元来识别轻敲位置,存储单元将在检测到检测数据的位置处检测到的振动周期与轻敲位置彼此关联地存储。
(方式27)
根据方式26所述的程序,其中
存储单元将振动周期的上限阈值和下限阈值与轻敲位置彼此关联地存储;并且
程序使计算机执行以下处理,通过判定检测到的振动周期是否落在上限阈值与下限阈值之间来识别轻敲位置。
(方式28)
根据方式24所述的程序,其中
检测数据是振动衰减特性。
(方式29)
根据方式28所述的程序,其中
程序使计算机执行以下处理:通过参考存储单元来识别轻敲位置,存储单元将在检测到检测数据的位置处检测到的振动衰减特性与轻敲位置彼此关联地存储。
(方式30)
根据方式29所述的程序,其中
存储单元将振动衰减特性的上限阈值和下限阈值与轻敲位置彼此相关联地存储;并且
程序使计算机执行以下处理:通过判定检测到的振动衰减特性是否落在上限阈值与下限阈值之间来识别轻敲位置。
(方式31)
根据方式28至30中任一项所述的程序,其中
衰减特性是振动稳定时间。
(方式32)
根据方式28至30中任一项所述的程序,其中
衰减特性是振动衰减比。
(方式33)
根据方式24至32中任一项所述的程序,还包括:
程序还使计算机输出被分配给识别出的轻敲位置的操作命令。
(方式34)
根据方式24至33中任一项所述的程序,其中
检测位置是被轻敲侧的手腕。
(方式35)
一种存储有根据方式24至34中任一项所述的程序的计算机可读记录介质。
(方式36)
一种输入设备,包括:
检测单元,检测振动作为检测数据,振动是通过轻敲用户身体产生并通过身体传输的;以及
输入信息识别单元,参考检测数据,基于检测数据根据轻敲位置处身体组织的物理特性而变化的事实来识别轻敲位置,以及输出分配给识别出的轻敲位置的操作命令。
(方式37)
一种输入方法,包括:
通过计算机,检测振动作为检测数据,振动是通过轻敲用户身体产生并通过身体传输的;以及
参考检测数据,并且基于检测数据根据检测到检测数据的位置处身体组织的物理特性而变化的事实来识别轻敲位置;
输出分配给识别出的轻敲位置的操作命令。
(方式38)
根据方式1至8或36中任一项所述的输入设备,其中
检测单元包括加速度传感器,以及
输入信息识别单元响应于加速度传感器检测到的重力加速度来识别被轻敲手臂的姿势,以输出操作命令,操作命令与识别出的轻敲位置和被轻敲手臂姿势的集合相关联。
(方式39)
根据方式39所述的输入设备,其中
检测单元设置在被轻敲侧的手腕上。
(方式40)
根据方式38或39所述的输入设备,其中
输入信息识别单元响应于重力加速度,识别被轻敲手臂的姿势是向上手臂姿势、水平手臂姿势还是向下手臂姿势。
附图标记说明
1检测单元
2接触检测子单元
4存储单元
5、15、25输入信息识别单元
6信息呈现单元
9加速度传感器
10配线基板
11算术逻辑单元
12呈现内容处理单元
13呈现单元
14外壳
16存储器
71-73输入区域
a、p检测数据
c、e、g判定数据
b、d输入信息识别数据

Claims (19)

1.一种输入设备,包括:
检测单元,检测通过轻敲用户的身体而产生并通过所述身体传输的振动作为检测数据;以及
输入信息识别单元,参考所述检测数据,基于所述检测数据根据轻敲位置处身体组织的物理特性而变化的事实来识别所述轻敲位置,并且输出分配给识别出的所述轻敲位置的操作命令。
2.根据权利要求1所述的输入设备,其中,
所述检测数据是所述振动的周期。
3.根据权利要求2所述的输入设备,还包括:
存储单元,将所述检测单元检测到的所述振动的周期与轻敲位置彼此关联地存储,其中
所述输入信息识别单元参考所述存储单元来识别所述轻敲位置。
4.根据权利要求3所述的输入设备,其中,
所述存储单元将所述振动的周期的上限阈值和下限阈值与轻敲位置彼此关联地存储,并且
所述输入信息识别单元通过判定检测到的所述振动的周期是否落在所述上限阈值与所述下限阈值之间来识别所述轻敲位置。
5.根据权利要求1所述的输入设备,其中,
所述检测数据是所述振动的衰减特性。
6.根据权利要求5所述的输入设备,还包括:
存储单元,将所述检测单元检测到的所述振动的衰减特性与轻敲位置彼此关联地存储,其中
所述输入信息识别单元参考所述存储单元来识别所述轻敲位置。
7.根据权利要求6所述的输入设备,其中,
所述存储单元将所述振动的衰减特性的上限阈值和下限阈值与轻敲位置彼此关联地存储,并且
所述输入信息识别单元通过判定检测到的所述振动的衰减特性是否落在所述上限阈值与所述下限阈值之间来识别所述轻敲位置。
8.根据权利要求5至7中任一项所述的输入设备,其中,
所述衰减特性是所述振动的稳定时间或衰减比。
9.根据权利要求1至8中任一项所述的输入设备,其中,
所述检测单元包括加速度传感器;以及
所述输入信息识别单元响应于所述加速度传感器检测到的重力加速度来识别被轻敲手臂的姿势,以输出与识别出的轻敲位置和被轻敲手臂的姿势的集合相关联的操作命令。
10.根据权利要求9所述的输入设备,其中,
所述检测单元设置在被轻敲侧的手腕上。
11.根据权利要求9或10所述的输入设备,其中,
所述输入信息识别单元响应于所述重力加速度来识别所述被轻敲手臂的姿势是朝上姿势、水平姿势还是朝下姿势。
12.一种输入方法,包括:
通过计算机检测通过轻敲用户的身体而产生并通过所述身体传输的振动作为检测数据;
参考所述检测数据,并且基于检测数据根据检测到所述检测数据的位置处身体组织的物理特性而变化的事实来识别轻敲位置;以及
输出分配给识别出的所述轻敲位置的操作命令。
13.根据权利要求12所述的输入方法,其中,
所述检测数据是所述振动的周期。
14.根据权利要求13所述的输入方法,其中,
所述计算机通过参考存储单元来识别所述轻敲位置,所述存储单元将在检测到所述检测数据的位置处检测到的所述振动的周期与轻敲位置彼此关联地存储。
15.根据权利要求12所述的输入方法,其中,
所述检测数据是所述振动的衰减特性。
16.根据权利要求15所述的输入方法,其中,
计算机通过参考存储单元来识别所述轻敲位置,所述存储单元将在检测到所述检测数据的位置处检测到的所述振动的衰减特性与轻敲位置彼此关联地存储。
17.根据权利要求15或16所述的输入方法,其中,
所述衰减特性是所述振动的稳定时间或衰减比。
18.一种程序,使计算机执行以下操作:
检测通过轻敲用户的身体而产生并且通过所述身体传输的振动作为检测数据;以及
参考所述检测数据,并且基于所述检测数据根据检测到所述检测数据的位置处身体组织的物理特性而变化的事实来识别轻敲位置;以及
输出分配给识别出的所述轻敲位置的操作命令。
19.根据权利要求18所述的程序,其中
所述检测数据是所述振动的周期或衰减特性。
CN201180010022.0A 2010-03-15 2011-03-14 输入设备、方法和程序 Active CN102763057B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2010-057940 2010-03-15
JP2010057940 2010-03-15
JP2010279665 2010-12-15
JP2010-279665 2010-12-15
PCT/JP2011/055940 WO2011115060A1 (ja) 2010-03-15 2011-03-14 入力装置、入力方法及びプログラム

Publications (2)

Publication Number Publication Date
CN102763057A true CN102763057A (zh) 2012-10-31
CN102763057B CN102763057B (zh) 2016-07-13

Family

ID=44649145

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180010022.0A Active CN102763057B (zh) 2010-03-15 2011-03-14 输入设备、方法和程序

Country Status (4)

Country Link
US (1) US9195303B2 (zh)
JP (1) JP5790642B2 (zh)
CN (1) CN102763057B (zh)
WO (1) WO2011115060A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105074626A (zh) * 2013-05-01 2015-11-18 英特尔公司 对额外设备触摸事件的检测和响应
CN105264467A (zh) * 2013-06-07 2016-01-20 精工爱普生株式会社 电子设备及点击操作检测方法
CN106471445A (zh) * 2014-05-28 2017-03-01 惠普发展公司,有限责任合伙企业 基于触摸输入的离散光标移动
CN107077281A (zh) * 2014-09-09 2017-08-18 三菱电机株式会社 触感控制系统及触感控制方法
CN108027655A (zh) * 2016-02-25 2018-05-11 日本电气株式会社 信息处理系统、信息处理设备、控制方法和程序
CN108027656A (zh) * 2015-09-28 2018-05-11 日本电气株式会社 输入设备、输入方法和程序

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110134758A (ko) * 2010-06-09 2011-12-15 주식회사 팬택 인체접촉을 이용한 입력 장치 및 방법
US9081542B2 (en) * 2012-08-28 2015-07-14 Google Technology Holdings LLC Systems and methods for a wearable touch-sensitive device
US9134856B2 (en) * 2013-01-08 2015-09-15 Sony Corporation Apparatus and method for controlling a user interface of a device based on vibratory signals
JP2014238695A (ja) * 2013-06-07 2014-12-18 セイコーエプソン株式会社 電子機器及びタップ操作検出方法
JP2014238696A (ja) * 2013-06-07 2014-12-18 セイコーエプソン株式会社 電子機器及びタップ操作検出方法
JP5741638B2 (ja) 2013-06-20 2015-07-01 カシオ計算機株式会社 携帯表示装置及び操作検出方法
DE112015003279T5 (de) * 2014-07-15 2017-04-06 Asahi Kasei Kabushiki Kaisha Eingabevorrichtung, Biosensor, Programm, computer-lesbares Medium und Modussetzverfahren
WO2016017956A1 (en) 2014-07-30 2016-02-04 Samsung Electronics Co., Ltd. Wearable device and method of operating the same
KR102216126B1 (ko) 2014-07-31 2021-02-16 삼성전자주식회사 정맥 인증을 이용하여 동작하는 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법
WO2016139798A1 (ja) * 2015-03-05 2016-09-09 富士通株式会社 入力検知方法、入力検知プログラム及びデバイス
US20160282949A1 (en) * 2015-03-27 2016-09-29 Sony Corporation Method and system for detecting linear swipe gesture using accelerometer
CN107615214B (zh) * 2015-05-21 2021-07-13 日本电气株式会社 界面控制系统、界面控制装置、界面控制方法及程序
CN106371568B (zh) * 2015-10-10 2019-09-10 北京智谷睿拓技术服务有限公司 力度信息确定方法和设备
JP6140385B2 (ja) * 2015-10-25 2017-05-31 レノボ・シンガポール・プライベート・リミテッド 音響操作システム、操作方法およびコンピュータ・プログラム
FR3047135B1 (fr) * 2016-01-26 2020-03-06 Philippe Royer Dispositif de commande de diffusion d'un media
WO2018175257A1 (en) 2017-03-21 2018-09-27 Pcms Holdings, Inc. Method and system for the detection and augmentation of tactile interactions in augmented reality

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090124872A1 (en) * 2004-03-25 2009-05-14 Olympus Corporation In-vivo information acquisition apparatus and in-vivo information acquisition apparatus system
US20090146848A1 (en) * 2004-06-04 2009-06-11 Ghassabian Firooz Benjamin Systems to enhance data entry in mobile and fixed environment

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051527A (ja) 1996-08-01 1998-02-20 Goro Miyao 携帯電話装置
JP3525665B2 (ja) 1997-01-07 2004-05-10 日本電信電話株式会社 常装着型電話装置
US7148879B2 (en) 2000-07-06 2006-12-12 At&T Corp. Bioacoustic control system, method and apparatus
JP2002358149A (ja) 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
WO2007064456A2 (en) * 2005-11-28 2007-06-07 The George Washington University Virtual reality simulator harness systems
JP2008253310A (ja) 2007-03-31 2008-10-23 Saga Univ 筋電・筋音測定用センサ
US20080278446A1 (en) * 2007-05-07 2008-11-13 Schifter Ilan Multi-sensor user input device for interactive programs on a machine

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090124872A1 (en) * 2004-03-25 2009-05-14 Olympus Corporation In-vivo information acquisition apparatus and in-vivo information acquisition apparatus system
US20090146848A1 (en) * 2004-06-04 2009-06-11 Ghassabian Firooz Benjamin Systems to enhance data entry in mobile and fixed environment

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105074626A (zh) * 2013-05-01 2015-11-18 英特尔公司 对额外设备触摸事件的检测和响应
CN105074626B (zh) * 2013-05-01 2019-03-05 英特尔公司 对额外设备触摸事件的检测和响应
CN105264467A (zh) * 2013-06-07 2016-01-20 精工爱普生株式会社 电子设备及点击操作检测方法
CN105264467B (zh) * 2013-06-07 2018-10-12 精工爱普生株式会社 电子设备及点击操作检测方法
CN106471445A (zh) * 2014-05-28 2017-03-01 惠普发展公司,有限责任合伙企业 基于触摸输入的离散光标移动
US10175779B2 (en) 2014-05-28 2019-01-08 Hewlett-Packard Development Company, L.P. Discrete cursor movement based on touch input
CN107077281A (zh) * 2014-09-09 2017-08-18 三菱电机株式会社 触感控制系统及触感控制方法
CN108027656A (zh) * 2015-09-28 2018-05-11 日本电气株式会社 输入设备、输入方法和程序
CN108027655A (zh) * 2016-02-25 2018-05-11 日本电气株式会社 信息处理系统、信息处理设备、控制方法和程序

Also Published As

Publication number Publication date
US9195303B2 (en) 2015-11-24
US20130002544A1 (en) 2013-01-03
JPWO2011115060A1 (ja) 2013-06-27
CN102763057B (zh) 2016-07-13
JP5790642B2 (ja) 2015-10-07
WO2011115060A1 (ja) 2011-09-22

Similar Documents

Publication Publication Date Title
CN102763057A (zh) 输入设备、方法和程序
CN102770829B (zh) 输入设备、输入方法和程序
JP6844665B2 (ja) 端末装置、端末装置の制御方法およびプログラム
TWI432994B (zh) 感測回授方法和裝置
CN107210950A (zh) 用于共享用户交互的设备
EP1244003A2 (en) Information input system using bio feedback and method thereof
JP6959349B2 (ja) 操作デバイス、及びその制御装置
CN107807733A (zh) 用于柔性电子设备的经补偿触觉呈现
JP2012093603A (ja) 入力装置およびプログラム
CN103425489A (zh) 用于控制具有骨导换能器的装置的系统和设备
CN104318950B (zh) 信息处理方法及电子设备
CN102770830B (zh) 输入设备、输入方法
CN108780354A (zh) 用于与可穿戴电子设备交互的方法和系统
CN104516670B (zh) 有力度感的乐器琴键
CN109887481A (zh) 电子琴演奏方法及装置
CN103376918A (zh) 一种重力感应方法及一种电子设备
CN214344200U (zh) 一种人体肢体运动和器械运动模拟声音增强运动能力装置
WO2020264443A1 (en) Wearable multimodal-sensing device
KR101521889B1 (ko) 디지털 장치 및 그 제공방법
KR101544044B1 (ko) 교육특화디바이스용 확장형 교구 로봇
CN112188450A (zh) 一种基于输入外设进行输入的方法及相关装置
CN111465978A (zh) 电子的身体打击乐器
KR20170011217A (ko) 협력적 음악 창작 시스템 및 방법
KR20160005941A (ko) 손가락 장착형 음계발생시스템
JP2014007660A (ja) 電子機器

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant