CN107402629A - 信息处理装置,信息处理系统和信息处理方法 - Google Patents
信息处理装置,信息处理系统和信息处理方法 Download PDFInfo
- Publication number
- CN107402629A CN107402629A CN201710327703.9A CN201710327703A CN107402629A CN 107402629 A CN107402629 A CN 107402629A CN 201710327703 A CN201710327703 A CN 201710327703A CN 107402629 A CN107402629 A CN 107402629A
- Authority
- CN
- China
- Prior art keywords
- recognition unit
- unit
- posture
- voice operating
- gesture recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/162—Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W52/00—Power management, e.g. TPC [Transmission Power Control], power saving or power classes
- H04W52/02—Power saving arrangements
- H04W52/0209—Power saving arrangements in terminal devices
- H04W52/0251—Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity
- H04W52/0254—Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity detecting a user operation or a tactile contact or a motion of the device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1601—Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
- G06F1/1605—Multimedia displays, e.g. with integrated or attached speakers, cameras, microphones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3215—Monitoring of peripheral devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Image Analysis (AREA)
Abstract
提供了一种信息处理装置、信息处理系统和信息处理方法。该信息处理装置包括:处理执行单元,被配置为执行与由语音操作识别单元识别出的语音操作和由姿势识别单元识别出的姿势操作相关的处理,所述语音操作识别单元被配置为基于来自语音接收单元的信息识别语音操作,所述姿势识别单元被配置为识别基于来自传感器的信息而识别出的用户的姿势。语音操作识别单元与姿势识别单元的姿势等待状态并行地进入语音操作等待状态。
Description
相关申请的交叉引用
本申请要求于2016年5月18日提交的日本优先权专利申请JP2016-099394的优先权,通过引用将其全部内容结合于此。
技术领域
本公开涉及信息处理装置、信息处理系统和信息处理方法。
背景技术
近年来,用户可以通过各种操作方法来操作信息处理装置。例如,已经开发了检测用户的姿势以允许用户的操作的信息处理装置。
JP 2010-191826A公开了如上所述的基于用户的姿势允许用户的操作的信息处理装置。JP 2010-191826A中公开的信息处理装置包括成像设备,并且该成像设备检测用户的姿势。
发明内容
在目前的手机中设置有功能和应用上的各种操作,这些操作可能不能被基于姿势的操作覆盖。因此,期望与姿势操作一起使用不同于姿势操作的其他操作方法。
根据本公开的实施例,提供了一种信息处理装置,包括:处理执行单元,被配置为执行与由语音操作识别单元识别出的语音操作和由姿势识别单元识别出的姿势操作相关的处理,所述语音操作识别单元被配置为基于来自语音接收单元的信息识别语音操作,所述姿势识别单元被配置为识别基于来自传感器的信息而识别出的用户的姿势。语音操作识别单元与姿势识别单元的姿势等待状态并行地进入语音操作等待状态。
根据本公开的实施例,提供了一种信息处理系统,包括:处理执行单元,被配置为执行与由语音操作识别单元识别出的语音操作和由姿势识别单元识别出的姿势操作相关的处理,所述语音操作识别单元被配置为基于来自语音接收单元的信息识别语音操作,所述姿势识别单元被配置为识别基于来自传感器的信息识别出的用户的姿势。语音操作识别单元与姿势识别单元的姿势等待状态并行地进入语音操作等待状态。
根据本公开的实施例,提供了一种信息处理方法,包括:执行与基于来自语音接收单元的信息识别出的语音操作和与基于来自传感器的信息识别出的姿势相关的操作相关的处理,以及允许将要识别语音操作的语音操作等待状态和将要识别姿势的姿势等待状态的共存。
根据上述本公开,允许用户经由语音操作和姿势操作执行各种操作。
注意到,上述效果不一定是限制性的。与上述效果一起或代替上述效果,可以实现本说明书中描述的效果或可以从本说明书中掌握的其它效果中的任何一种。
附图说明
图1是示出本公开的实施例的示例性信息处理系统的示图;
图2是示出本公开的实施例的小型终端的示例性外观的示图;
图3是示出本公开的实施例的信息处理系统的示例性配置的框图;
图4是示出本公开的实施例的信息处理系统中的示例性处理的流程图;
图5是示出本公开的实施例的信息处理系统中的示例性处理的流程图;
图6是示出本公开的实施例的信息处理系统中的示例性处理优先级的示图;
图7是示出本公开的实施例的信息处理系统中的示例性处理的流程图;
图8是示出本公开的实施例的手机的另一示例性配置的框图;
图9是示出由本发明实施例的小型终端中设置的传感器检测的示例性加速度的示图;
图10是示出由本发明实施例的小型终端中设置的传感器检测的另一示例性加速度的示图;
图11是示出本公开的实施例的信息处理系统中的示例性处理的流程图;
图12是示出本公开的实施例的手机的另一示例性配置的框图;
图13是示出为针对由本公开的实施例的小型终端中设置的传感器检测的加速度设置的阈值的示图;
图14是示出针对检测姿势设置的超时时段的示图;以及
图15是示出本公开的实施例的另一示例性信息处理系统的示图。
具体实施方式
在下文中,将参照附图详细描述本公开的一个或多个优选实施例。在本说明书和附图中,具有基本相同的功能和结构的结构元件用相同的附图标记表示,并且省略对这些结构元件的重复解释。
注意到,将按以下顺序提供描述。
1.系统配置
2.与用于识别姿势操作的传感器的激活定时相关的示例性处理
3.与另一种操作方法并行地识别姿势操作的示例性处理
4.识别出的姿势操作被取消的示例性处理
5.利用机器学习识别姿势操作的示例性处理
6.根据待识别的姿势的强度来识别不同操作的示例性处理
7.针对识别姿势设置超时时段的示例性处理
8.附记
9.结论
<<1.系统配置>>
<1-1.系统配置的概述>
图1是示出本公开的实施例的信息处理系统的概述的图。本公开的实施例的信息处理系统包括小型终端100、手机200、通信网络300和服务器400。作为将要附连到用户耳朵的终端的小型终端100经由短距离无线通信连接到手机200。包括扬声器的小型终端100允许用户使用小型终端100进行通话。还包括按钮的小型终端100允许用户通过操作按钮来操作手机200的各种功能或应用。注意到,小型终端100、手机200和服务器400是示例性信息处理装置。
包括扬声器和麦克风的手机200可以通过与包括在移动通信网络中的基站通信来与其它终端进行通信。此外,手机200包括用于显示信息的显示单元,以及在显示单元上形成的触摸面板。用户通过使用触摸面板执行操作来执行与手机200的功能或应用相关的各种操作。注意到,用于操作手机200的组件不限于触摸面板,可以是诸如方向键、硬按钮或微动拨盘(jog dial)的组件。
此外,手机200除了呼叫功能还具有各种功能和应用,其中一些可以通过经由通信网络300与服务器400通信来实现。例如,可以包括作为手机200的功能和应用的类型的电子邮件、短消息、社交网络服务、摄影、音乐再现、浏览功能、地图显示等。
服务器400经由通信网络300连接到手机200。服务器400根据手机200的应用或功能来执行处理。例如,服务器400处理从手机200发送的语音数据200。
在上述系统配置中,在小型终端100附连到用户耳朵的情况下,用户可以通过在小型终端100上执行各种操作来操作手机200的功能或正在手机200中执行的应用。
<1-2.小型终端的配置>
因此,上面已经概述了本公开的实施例的通信系统。在下文中,将描述本公开的实施例的小型终端100的配置。图2是示出小型终端100的外观的图。作为将要附连到用户耳朵的终端的小型终端100具有待插入到用户耳朵中的插入单元122。此外,小型终端100具有将由用户操作的按钮102。注意到,按钮102是示例性操作单元。
上面已经描述了小型终端100的外观。在下文中,将描述本实施例的信息处理系统的配置。图3是示出信息处理系统的配置的框图。小型终端100包括按钮102、处理单元104和电池106。此外,小型终端100包括扬声器108、麦克风110、传感器112和短距离通信单元114。
用户可以在按钮102上执行多个不同操作。例如,作为用户在按钮102上执行的不同操作方法,用户可以短暂地按下按钮102一次、或短暂地按下两次。替代地,作为由用户在按钮102上执行的不同操作方法,用户可以按下按钮102预定的时间段。注意到,按钮102可以是静电或压敏触摸面板,或者可以是物理键。替代地,可以存在一个或多个按钮102,按钮的数量不受限制。但是,由于在小型终端(诸如本实施例的小型终端100)中用于布置按钮102的空间有限,因此更少数量的按钮102是优选的。
连接到小型终端100的每个部件的处理单元104处理来自每个部件的信息。例如,处理单元104检测由用户对按钮102的操作所产生的信号。此外,处理单元104处理经由短距离通信单元114从手机200接收的语音数据,并且将经处理的语音数据输出到扬声器108。此外,处理单元104处理由麦克风110接收的语音,以生成语音数据,并且经由短距离通信单元114将语音数据发送到手机200。
此外,处理单元104处理来自传感器112的信号。传感器112包括接近传感器(proximity sensor)116、加速度传感器118和陀螺仪传感器120。基于由接近传感器生成的检测信号,处理单元104检测到小型终端100附连到用户的耳朵。此外,处理单元104处理从加速度传感器118和陀螺仪传感器120输出的信号,并将经处理的信号发送到手机200。电池106将存储在电池中的电力供应给小型终端100的每个部件,并且每个部件通过供应的电力进行操作。
扬声器108基于由处理单元104处理的语音数据输出语音。例如,当在手机200中使用呼叫功能时,扬声器108基于从手机200发送的语音数据输出呼叫的语音。此外,麦克风110接收语音并将音频信号发送到处理单元104。例如,麦克风110接收用户发出的语音并将音频信号发送到处理单元104。
注意到,接近传感器116可以是例如能够在不触摸物体的情况下检测目标物体的接近传感器。例如,接近传感器可以使用红外光、超声波或电磁波来检测目标物体。在又一示例中,接近传感器可以使用由于目标物体的接近而造成的电磁感应引起的涡流变化或静电电容的变化来检测目标物体。
此外,加速度传感器118检测施加到小型终端100的加速度。例如,当小型终端100附连到用户时,在用户晃动他/她的颈部时,加速度传感器118检测到加速度。存在各种类型的加速度传感器(诸如光学器件或半导体)118,并且本实施例的小型终端100可以包括任何类型的加速度传感器。
此外,陀螺仪传感器120检测小型终端100的角速度和角加速度。例如,当小型终端100附连到用户时,在用户晃动他/她的颈部时,陀螺仪传感器120检测到角速度和角加速度。和加速度传感器118一样,也存在各种类型的陀螺仪传感器(诸如液压或光学器件)120,并且本实施例的小型终端100可以包括任何类型的陀螺仪传感器。
此外,短距离通信单元114使用短距离无线通信接口(诸如蓝牙(注册商标))与其它设备(诸如手机200)进行通信。因为小型终端100使用低容量电池106,因此使用节能的无线通信接口(诸如蓝牙低功耗)是优选。注意到,短距离通信单元114不限于上述接口,并且可以是诸如ZigBee(注册商标)的短距离无线通信接口。
注意到,小型终端100和手机200通过配对相互连接。通过搜索位于无线电波的可达范围内的设备并且从检测到的设备中选择用户想要连接的设备来执行配对。对于配对,小型终端100和手机200可以被配置为使用密码来相互认证。允许手机200和小型终端100通过以上述方式进行配对来相互通信。
<1-3.手机和服务器的配置>
上面已经描述了小型终端100的配置。在下文中,将描述本实施例的手机200的配置。如图3中所示,手机200包括处理单元202、短距离通信单元204和蜂窝通信单元206。此外,处理单元202具有语音生成单元208、姿势识别单元210、按钮操作识别单元212、语音操作识别单元214和处理执行单元216。
短距离通信单元204使用短距离无线通信接口来与其它设备(诸如小型终端100)进行通信。短距离通信单元204可以是短距离无线通信接口,诸如上述的蓝牙或ZigBee。与短距离通信单元204相比,蜂窝通信单元206被用于与位于远程的设备进行通信。例如,蜂窝通信单元206可以是基于由3GPP指定的通信标准(诸如长期演进)的接口。
语音生成单元208生成各种语音数据。例如,当在手机200中执行呼叫功能时,语音生成单元208生成通信方的语音数据。此外,语音生成单元208基于正在手机200中执行的应用来生成语音数据。注意到,所生成的语音数据可以经由短距离通信单元204发送到小型终端100。
姿势识别单元210基于由加速度传感器118和/或陀螺仪传感器120输出的信号来识别用户的姿势。例如,可以通过比较与预先存储的预定姿势相关联的加速度传感器118和/或陀螺传感器120的信号和由加速度传感器118和/或陀螺传感器120输出并由姿势识别单元210接收的信号的模式来识别姿势。由姿势识别单元210识别出的姿势可以是例如在小型终端100附连到用户的耳朵的情况下,用户侧向或纵向晃动他/她的头部。姿势识别单元210可以识别出用户已经通过纵向晃动他/她的头部执行了肯定操作。替代地,姿势识别单元210可以识别出用户已经通过侧向晃动他/她的头部执行了否定操作。
按钮操作识别单元212识别用户已经操作小型终端100的按钮102。例如,当用户操作按钮102时,可以通过从小型终端100向手机200发送按钮操作信号来识别用户对按钮102的操作。
语音操作识别单元214识别由用户执行的语音操作。例如,小型终端100的麦克风110接收用户的语音,并且小型终端100将用户的语音数据发送到手机200。已经接收到语音数据的手机200将语音数据发送到服务器400。服务器400的语音分析单元404分析接收到的语音数据,并将分析结果发送到手机200。语音操作识别单元214基于接收到的分析结果来识别由用户执行的语音操作。
处理执行单元216执行各种处理。例如,处理执行单元216执行安装在手机200中的应用。此外,处理执行单元216从姿势识别单元210、按钮操作识别单元212和语音操作识别单元214接收操作信息,并且基于该操作信息对正在执行的应用执行处理。
注意到,在上述示例中的语音数据的分析在服务器400的语音分析单元404中执行。但是,可以在手机200的语音操作识别单元214中执行在服务器400的语音分析单元404中执行的语音数据的分析。
注意到,由姿势识别单元210识别出的姿势可以是用户向左或向右倾斜他/她的头部。例如,在音乐再现应用中,当姿势识别单元210识别出用户已经向左或向右倾斜他/她的头部时,处理执行单元216可以快进或倒退要再现的音乐。替代地,由姿势识别单元210识别出的姿势可以是用户将他/她的脸向前推。例如,在照片显示应用中,当姿势识别单元210识别出用户已经将他/她的脸向前推时,处理执行单元216可以放大照片。替代地,由姿势识别单元210识别出的姿势可以是用户将他/她的脸向后拉。例如,在照片显示应用中,当姿势识别单元210识别出用户已经将他/她的脸向后拉时,处理执行单元216可以缩小照片。
<<2.与用于识别姿势操作的传感器的激活定时相关的示例性处理>>
上面已经描述了本实施例的系统配置。在下文中,将描述本实施例的信息处理系统中的示例性处理。图4是示出用于姿势识别的加速度传感器118和/或陀螺仪传感器120被激活的定时的流程图。图4的流程图描述了当手机200在应用(诸如短消息服务或社交网络服务)中接收到消息时要执行的示例性处理。
首先,在S102,手机200接收消息。在这种情况下,由处理执行单元216执行的应用向语音生成单元208、姿势识别单元210和语音操作识别单元214发送指示消息接收的通知。接下来,在S104,已经从应用接收了消息的语音生成单元208生成语音数据,以便可听地通知用户在S102对消息的接收。然后,手机200将生成的语音数据发送到小型终端100,并且小型终端100的处理单元104再现接收到的语音数据。在这里,要再现的语音数据的内容可以是例如“已经接收到消息。要读吗?”。
在S106,已经从应用接收到通知的语音操作识别单元214转换到语音操作等待状态来等待来自用户的语音操作。与S106的处理并行,在S108激活小型终端100的传感器。这可以通过由已经从应用接收到通知的姿势识别单元210生成激活信号并且将激活信号发送到小型终端100来实现。
在S108,激活用于姿势识别的加速度传感器118和/或陀螺仪传感器120。在S110,与加速度传感器118和/或陀螺仪传感器120的激活同步,姿势识别单元210转换到姿势等待状态来等待来自用户的姿势操作。注意到,加速度传感器118和/或陀螺传感器120的激活可以通过向姿势识别单元210发送指示语音操作识别单元214已经转换到语音操作等待状态的信息来实现。在这种情况下,加速度传感器118和/或陀螺仪传感器120的激活同步于语音操作识别单元214到语音操作等待状态的转换。
接下来,在S112,指示姿势识别单元210处于姿势等待状态的声音效果被再现。该声音效果允许用户识别姿势识别单元210何时转换到姿势等待状态。接下来,在S114,姿势识别单元210确定用户是否已经执行了姿势。当姿势识别单元210在S114识别出姿势时,处理流程进行到S116。
在S116,与在S114识别出的姿势相关的操作信息被临时存储在未示出的存储单元中。接下来,在S118,指示姿势识别单元210处于姿势等待状态的声音效果被停止。然后,在S120,姿势识别单元210释放姿势等待状态,并且终止姿势识别。因此,在S122,加速度传感器118和/或陀螺仪传感器120转换到休眠状态。
接下来,在S124,处理执行单元216对应用执行与在S116临时存储的姿势相关的处理。具体地,当在S104再现的语音数据的内容为“已经接收到消息。要读吗?”,并且在S114用户已执行纵向晃动他/她的头部的姿势时,在S124处理执行单元216执行朗读接收到的消息的处理。
当在S114姿势识别单元210没有识别出姿势时,处理流程进行到S126。在S126,姿势识别单元210确定是否经过了预定的时间段。当在S126姿势识别单元210确定已经经过了预定的时间段时,处理流程进行到S128。
在S128,指示姿势识别单元210处于姿势等待状态的声音效果被停止。然后,在S130,姿势识别单元210释放姿势等待状态,并且终止姿势识别。因此,在S132,加速度传感器118和/或陀螺仪传感器120转换到休眠状态。
如上所述,基于姿势识别单元210接收来自应用的指示消息接收的通知激活加速度传感器118和/或陀螺仪传感器120。基于如上所述来自应用的通知激活加速度传感器118和/或陀螺仪传感器120,使得传感器112在相对于应用的操作的适当的定时被激活,由此有可能降低小型终端100的功耗。这对于具有较小容量电池106的终端(诸如小型终端100)是非常有利的。
除了上述处理,还可以根据来自应用的通知或应用的类型来选择将被激活的传感器112。例如,当要基于来自应用的通知或应用的类型识别的姿势是简单姿势时,可以激活加速度传感器118或陀螺仪传感器120。替代地,当要被识别的姿势是复杂姿势时,加速度传感器118和陀螺传感器120均可以被激活。在这种情况下,可以根据来自应用的通知或其类型与将要识别的姿势相关联地存储通知或其类型。
注意到,在上述示例中来自应用的通知是指示消息已经被接收的通知。此外,将通过来自应用的通知识别的姿势是用户纵向晃动他/她的头部的姿势(肯定的响应)或用户侧向晃动他/她的头部的姿势(否定的响应)。
替代地,可以基于来自应用的通知或应用的类型来选择要激活的传感器112的模式。待选择的传感器112的模式可以是例如具有不同采样频率的模式。当识别出具有快速运动的姿势时,选择具有高采样频率的模式,而当识别出具有慢运动的姿势时,选择具有低采样频率的模式。如上所述,根据待识别的姿势来选择要被激活的传感器112或选择传感器112的模式允许小型终端100的功耗的进一步降低。
注意到,在上述实施例中,在S112再现声音效果,该声音效果指示姿势识别单元210处于姿势等待状态。但是,可以在用户执行姿势时(即,在加速度传感器118和/或陀螺仪传感器120检测加速度、角速度或角加速度时)再现声音效果。替代地,可以使用振动代替声音效果来指示姿势识别单元210处于姿势等待状态。替代地,可以再现消息而不是声音效果。例如,消息可以类似于“将开始姿势识别”。替代地,当姿势识别终止时,同样可以再现消息。在这种情况下,例如,可以再现诸如“将终止姿势识别”的消息。
替代地,当在上述示例性处理中用户执行语音操作而不是姿势操作时,加速度传感器118和/或陀螺仪传感器120可以与语音操作的识别同步地转换到休眠状态。
<<3.与另一种操作方法并行地识别姿势操作的示例性处理>>
上面已经描述了与本实施例中的用于姿势操作的传感器112的激活定时相关的示例性处理。在下文中,将描述识别姿势操作和另一个操作方法的示例性过程。在本实施例的信息处理系统中,与姿势操作的识别并行地执行语音操作和按钮操作的识别。因此,用户可以通过组合多种操作方法来执行各种操作。图5是示出与姿势操作的识别并行地执行语音操作和按钮操作的识别的示例性处理的示图。
在S202处,手机200以与图4中的示例性处理类似的方式接收消息。接下来,在S204处,基于指示已经从应用接收了消息的通知的接收,语音操作识别单元214转换到语音操作等待状态,以等待来自用户的语音操作。
与在S204处的处理并行,在S206处激活小型终端100的加速度传感器118和/或陀螺仪传感器120,并且姿势识别单元210转换到姿势等待状态,以等待来自用户的姿势操作。此外,与在S204处和S206处的处理并行,按钮操作识别单元212转换到按钮操作等待状态,以等待来自用户的按钮操作(S208)。
然后,在S210处,姿势识别单元210确定用户是否已经执行了姿势。当在S210处姿势识别单元210识别出姿势时,处理流程进行到S212。在S212处,临时存储与在S210处识别出的姿势相关的操作信息。注意到,当在S210处姿势识别单元210没有识别出姿势时,处理流程进行到S214。在S214处,姿势识别单元210确定是否经过了预定的时间段。当在S214处姿势识别单元210确定经过了预定的时间段时,处理终止。
接下来,在S216处,按钮操作识别单元212确定用户是否已经操作按钮102。当在S216处按钮操作识别单元212识别出用户已经操作按钮102时,按钮操作识别单元212向处理执行单元216发送与按钮操作相关的操作信息,并且处理执行单元216执行与按钮操作相关的处理(S218)。
当在S216处按钮操作识别单元212没有识别出用户已经操作按钮102时,处理流程进行到S220。在S220处,语音操作识别单元214确定用户是否已经执行语音操作。当在S220处语音操作识别单元214识别出用户已经执行语音操作时,语音操作识别单元214向处理执行单元216发送与语音操作相关的操作信息,并且处理执行单元216执行与语音操作相关的处理(S222)。
当在S220处语音操作识别单元214没有识别出用户已经执行语音操作时,处理流程进行到S224。在S224处,姿势识别单元210向处理执行单元216发送与在S212处临时存储的姿势相关的操作信息,并且处理执行单元216执行与姿势操作相关的处理。
上面已经描述了首先执行姿势操作时的示例性处理。但是,执行操作的顺序不限于图5中所述的示例。图6是示出较早执行的操作方法与随后执行的操作方法之间的关系的示图。
首先,将在较早执行按钮操作的情况下描述其与另一种操作方法的关系。当较早执行按钮操作并且随后执行姿势操作时,与按钮操作相关的处理优先于姿势操作执行。在这种情况下,在执行按钮操作的时间点可以停止指示姿势识别单元210处于姿势等待状态的声音效果。类似地,当较早执行按钮操作并且随后执行语音操作时,与按钮操作相关的处理优先于语音操作执行。
接下来,将描述在较早执行姿势操作的情况下其与另一种操作方法的关系。当较早执行姿势操作并且随后执行按钮操作时,与按钮操作相关的处理优先于姿势操作执行。类似地,当较早执行姿势操作并且随后执行语音操作时,与语音操作相关的处理优先于姿势操作执行。
接下来,将描述在较早执行语音操作的情况下其与另一种操作方法的关系。当较早执行语音操作并且随后执行按钮操作时,与按钮操作相关的处理优先于语音操作执行。类似地,当较早执行语音操作并且随后执行姿势操作时,与语音操作相关的处理优先于姿势操作执行。
每种操作方法的优先级并不限于上述示例。此外,可以改变每种操作方法的优先级。例如,对每种操作方法执行加权,并且处理执行单元216可以考虑权重来执行与每种操作方法相关的处理。每种操作方法的权重可由用户设置。替代地,也可以根据每种操作方法的识别精度来设置每种运算方法的权重。
注意到,可以组合使用上述各个操作方法。例如,按钮操作可以与姿势操作组合。当由处理执行单元216执行音乐再现应用时,用户在触摸按钮102的同时向右倾斜他/她的头部可以允许处理执行单元216执行再现下一个音乐的处理。
替代地,语音操作可以与姿势操作组合。当由处理执行单元216执行消息应用时,用户在发出“OK”的同时纵向晃动他/她的头部可以允许处理执行单元216以强调的方式输入字母“OK”。此外,处理执行单元216可以输入与字母“OK”对应的图像(印章),而不是强调字母的处理。
替代地,语音操作可以与按钮操作组合。当由处理执行单元216执行消息应用时,用户在触摸按钮102的同时发出“OK”可以允许处理执行单元216以强调的方式输入字母“OK”。替代地,处理执行单元216可以输入与字母“OK”对应的图像(印章),而不是强调字母的处理。
在上述本实施例的信息处理系统中,并行地执行姿势操作、语音操作和按钮操作。因此,用户可以使用多种操作方法执行各种操作。
<<4.识别出的姿势操作被取消的示例性处理>>
上面已经描述了其中并行执行姿势操作、语音操作和按钮操作的示例性处理。在下文中,将描述取消姿势操作的示例性处理。存在误识别姿势操作的可能性,并且因此优选地准备取消识别出的姿势操作的处理。图7是示出识别出的姿势操作被取消的示例性处理的图。在7中,将描述在消息应用中发送回消息时的示例性处理。
在S302处,例如为了使得用户确定是否回复消息,小型终端100再现语音“使用OK进行回复吗?”。在S306处,姿势识别单元210转换到姿势等待状态,以等待来自用户的姿势操作。
然后,在S306处,姿势识别单元210确定用户是否已经执行了姿势。当在S306处姿势识别单元210识别出姿势时,处理流程进行到S308。注意到,在下文中,将描述在S306处识别出的姿势是用户纵向晃动他/她的头部(点头)的姿态的情况下的示例性处理。
在S308处,姿势识别单元210向处理执行单元216发送与在S306处识别出的姿势相关的操作信息,并且处理执行单元216存储与识别出的姿势相关的操作信息。注意到,当在S306处姿势识别单元210没有识别出姿势时,处理流程进行到S310。在S310处,姿势识别单元210确定是否经过了预定的时间段。当在S310处姿势识别单元210确定经过了预定的时间段时,处理终止。
接下来,在S312处,基于在S306处识别出的姿势,执行语音通知。当在S306处识别出的姿势是与指示肯定响应的“点头”相关的姿势时,在S312执行例如语音通知(诸如“在三秒钟内回复”)。
接下来,在S314处,姿势识别单元210转换到取消姿势等待状态,以识别用于取消与在S306处识别出的姿势相关的操作的取消姿势。例如,取消姿势可以是用户侧向晃动他/她的头部的姿态。在这里,取消姿势是预定的特定姿势。
接下来,在S316处,姿势识别单元210确定用户是否已经执行取消姿势。当在S316处姿势识别单元210识别出取消姿势时,姿势识别单元210终止姿势识别(S318)。然后,在S320处,姿势识别单元210向处理执行单元216发送与在S316处识别出的取消姿势相关的操作信息,并且处理执行单元216执行取消处理。具体地,处理执行单元216不执行与在S308处存储的姿势相关的处理。换句话说,与在S306处识别出的姿势相关的操作被取消。然后,在S322处,小型终端100执行语音通知,以便通知用户已经取消在S306识别出的操作。在S322处再现的语音的内容可以是例如“回复取消”。
当在S316处姿势识别单元210没有识别出取消姿势时,处理流程进行到S324。在S324处,姿势识别单元210确定是否经过了预定的时间段。在S324处的时间段是用于用户取消与在S306处识别出的姿势相关的操作而设置的取消时段。另外,在取消时段期间,处理执行单元216等待来自姿势识别单元210的、与取消姿势相关的操作信息的输入。
当在S324处姿势识别单元210确定经过了预定的时间段时,处理流程进行到S326。在S326处,姿势识别单元210终止姿势识别并且通知处理执行单元216已经经过了取消时段。然后,在S328处,处理执行单元216执行与在S308处存储的姿势相关的处理。在S330处,例如,执行诸如“已回复”的语音通知,以便指示已经执行了与在S306处由用户执行的姿势操作相关的处理。
注意到,处理执行单元216可以动态地设置用于等待来自姿势识别单元210的、与取消姿势相关的操作信息的输入的取消时段的长度。例如,处理执行单元216可以基于从正在被执行的应用获取的信息设置取消时段的长度。
在这种情况下,处理执行单元216可以基于正在被执行的应用的类型来设置取消时段的长度。例如,对于消息发送和接收应用,处理执行单元216可以将取消时段的长度设置为较长,并且对于音乐再现应用,将取消时段的长度设置为较短。这是因为,在发送消息时,用户可以发送重要信息,并且因此用户更仔细地确定消息的发送。另一方面,这是因为在音乐再现中,即使用户执行错误操作,用户也不会遭受显著的不利。因此,根据正在被执行的应用的类型设置适当长度的取消时段。
替代地,处理执行单元216可以基于正在被执行的应用的状态来设置取消时段的长度。例如,对于在移动图像拍摄应用中终止移动图像拍摄的操作,处理执行单元216可以将取消时段的长度设置为较长,并且对于开始移动图像拍摄的操作,将取消时段的长度设置为较短。换句话说,处理执行单元216对于处于开始移动图像拍摄之前的状态的操作和处于移动图像拍摄期间的状态的操作设置用于取消时段的不同长度。这是因为,通常预期是在开始移动图像拍摄时快速拍摄主体的运动,而当终止移动图像拍摄时,之后删除不需要的长时间拍摄的移动图像就足够了。因此,根据正在被执行的应用的状态设置适当长度的取消时段。
替代地,处理执行单元216可以基于正在被执行的应用的通知的类型来设置取消时段的长度。例如,在消息发送和接收应用中,对于询问用户是否要发送消息的通知的操作,处理执行单元216可以将取消时段的长度设置为较长,并且对于询问用户是否要读取消息的通知的操作,将取消时段的长度设置为较短。这是因为用户更仔细地确定消息的发送,而在读取消息时,即使用户执行错误的操作,用户也不会遭受显著的不利。因此,根据正在被执行的应用的通知的类型设置适当长度的取消时段。
替代地,处理执行单元216可以基于从加速度传感器118和陀螺仪传感器120获取的加速度、角速度或角加速度的大小来设置取消时段的长度。例如,当从加速度传感器118和陀螺仪传感器120获取的加速度、角速度或角加速度较大时,处理执行单元216确定用户正在移动并将取消时段的长度设置为较长。这是因为,在移动时用户执行许多错误的操作。因而,根据用户的移动状态设置适当长度的取消时段。
替代地,用户可以通过操作手机200的操作单元来设置取消时段。替代地,取决于应用的类型或状态或者来自应用的通知,可以不提供取消时段。这是因为,对于期望快速执行的操作,优选的是不提供取消时段。例如,期望对于来自应用的通知“要再现音乐吗?”不提供取消时段,以便立即执行与该操作相关的处理。
另外,在图7中,通过姿势操作来执行姿势操作的取消。但是,操作的取消不限于此。例如,可以通过按钮操作来执行操作的取消。在这种情况下,用户可以在取消时段期间按住按钮102,使得按钮操作识别单元212向处理执行单元216发送操作信息,并且已经接收到操作信息的处理执行单元216可以取消操作。替代地,操作的取消可以通过语音操作来执行。在这种情况下,用户可以在取消时段期间发出“否”,使语音操作识别单元214向处理执行单元216发送操作信息,并且已经接收到操作信息的处理执行单元216可以取消操作。
替代地,当姿势识别单元210检测到等于或高于预定值的加速度、角速度或角加速度时,可以生成与在S316处的取消姿势相关的操作信息。例如,可以由用户侧向猛烈晃动他/她的头部来执行取消姿势。因此,可以减少错误的取消操作。
上面已经描述了取消识别出的姿势操作的示例性处理。因而,在已经被误识别姿势操作或者用户已经执行错误操作的情况下,用户可以取消曾经识别出的姿势操作。
替代地,在上述示例中要取消的处理可以是与姿势操作相关的处理以外的处理。例如,在识别出语音操作之后,可以通过识别取消姿势来取消与识别出的语音操作相关的处理。替代地,在识别出按钮操作之后,可以通过识别取消姿势来取消与识别出的按钮操作相关的处理。
<<5.利用机器学习识别姿势操作的示例性处理>>
以上已经描述了取消识别出的姿势操作的示例性处理。在下文中,将描述使用通过机器学习的学习结果识别姿势操作的示例性处理。在姿势操作的识别中,可以通过使用机器学习的学习结果来提高识别精度。但是,利用机器学习的姿势操作的识别精度可能不够。因此,本实施例的信息处理系统除了通过机器学习识别姿势操作,还基于特定规则执行姿势操作的识别。
图8是示出本实施例的手机200的另一示例性配置的框图。本实施例中的手机200的姿势识别单元210具有机器学习确定单元218和规则确定单元220。机器学习确定单元218使用通过机器学习执行的学习结果来执行姿势的识别。另一方面,规则确定单元220基于预定规则执行姿势的识别。
图9是示出当用户点头时由加速度传感器118检测到的加速度的模式的图。在图9的范围A中,在用户点头之前,由加速度传感器118检测到的加速度是恒定的。在图9的范围B中,当用户向下晃动他/她的头部时,加速度传感器118检测出单调递减的加速度。在图9的范围C中,当用户向上晃动他/她的头部时,加速度传感器118在与范围B中的方向相反的方向上检测出大致相同大小的加速度。
图10是示出当用户突然向下看时由加速度传感器118检测到的加速度的模式的图。在跨范围A到范围B中,图10的加速度模式与图9的加速度模式类似。但是,在图10的范围C中的加速度模式中,在与范围B中的方向相反的方向上没有检测到加速度。
规则确定单元220预先存储图9中所示的加速度模式,例如作为用户的点头姿势的规则。然后,规则确定单元220将存储的加速度模式与由加速度传感器118检测到的加速度模式进行比较,以执行姿势的识别。换句话说,因为图10中所示的加速度模式10与存储的加速度模式不同,规则确定单元220不执行姿势识别。
在下文中将更具体地描述上述规则。例如,在开始姿势之前的加速度被设置为(x0,y0,z0),并且当终止姿势时的加速度被设置为(x1,y1,z1)。规则确定单元220可以使用两个加速度的大小之间的差值|(x1-x0),(y1-y0),(z1-z0)|等于或小于预定阈值作为规则。
图11是示出要由本实施例的姿势识别单元210执行的示例性姿势识别处理的流程图。首先,在S402处,机器学习确定单元218基于利用机器学习的学习结果来执行姿势识别。当在S402处机器学习确定单元218识别了姿势时,处理流程进行到S404。在S404处,独立于机器学习确定单元218,规则确定单元220基于预定的规则执行姿势识别。注意到,当在S402处机器学习确定单元218没有识别出姿势时,处理终止。
当在S404处规则确定单元220识别出姿势时,处理流程进行到S406。在S406处,姿势识别单元210向处理执行单元216发送与识别出的姿势相关的操作信息,并且处理执行单元216执行与识别出的姿势相关的处理。当在S404处规则确定单元220没有识别出姿势时,处理终止。在这种情况下,处理执行单元216不执行与在S402处由机器学习确定单元218识别出的姿势相关的处理。
如上所述,在本实施例中,由姿势识别单元210中的机器学习确定单元218和规则确定单元220识别姿势。因而,减少了通过机器学习的姿势的误识别。
<<6.根据待识别的姿势的强度来识别不同操作的示例性处理>>
上面已经描述了基于利用机器学习的学习结果以及预定规则来识别姿势的示例性处理。在下文中,将描述根据待识别的姿势的强度而改变对识别出的姿势的操作的示例性处理。例如,当表达强烈的否定时,用户可以侧向激烈地晃动他/她的头部,或者当表达弱否定时,可以侧向缓慢晃动他/她的头部。在本实施例的信息处理系统中,用户可以根据这样的姿势的强度执行不同的操作。
图12是表示本实施例的手机200的配置的框图。本实施例中的手机200的姿势识别单元210具有强度确定单元222。当由加速度传感器118或陀螺仪传感器120检测到的加速度、角速度或角加速度小于预定的大小时,强度确定单元222识别出第一姿势。此外,当加速度、角速度或角加速度大于预定的大小时,强度确定单元222识别出第二姿势。
图13是示出由本实施例的姿势识别单元210识别出的第一姿势和第二姿势的加速度的模式的图。在这里,由阈值T表示用于区分上述第一姿势与第二姿势的加速度的预定大小。因此,在图13的范围A中识别出的姿势是第一姿势,在范围B中识别出的姿势是第二姿势。注意到,在下文中,将描述根据由加速度传感器118检测到的加速度的大小来执行不同姿势操作的示例。
当用户侧向缓慢晃动他/她的头部时,加速度传感器118检测到如图13的范围A中所示的不超过阈值T的大小的加速度。姿势识别单元210将该姿势识别为第一姿势,并且向处理执行单元216发送与第一姿势相关的操作信息。替代地,当用户侧向猛烈晃动他/她的头部时,加速度传感器118检测到如图13的范围B中所示的超过阈值T的大小的加速度。姿势识别单元210将该姿势识别为第二姿势,并且向处理执行单元216发送与第二姿势相关的操作信息。
已经接收到与第一姿势相关的操作信息和与第二姿势有关的操作信息的处理执行单元216对于每条操作信息执行不同的处理。例如,与第一操作信息相关的处理可以是在消息输入操作中输入具有通常尺寸和颜色的“否”的处理。另一方面,与第二操作信息相关的处理可以是在消息输入操作中输入尺寸大于通常尺寸并且为红色的“否”的处理。如上述示例中所述,用户可以通过猛烈晃动他/她的头部来输入强烈否定信息。
如上所述,用户可以通过执行具有不同强度的姿势来执行不同操作。注意到,不同操作不限于上述示例。例如,在呼叫应用中,当用户已执行上述第一姿势时,处理执行单元216可以执行“保持”操作。替代地,当用户已执行第二姿势时,处理执行单元216可以执行“挂断”操作。
另外,上面已经描述了用户可以通过执行具有不同强度的姿势来执行第一姿势和第二姿势的示例。但是,可以设置多个上述阈值T,例如,升序的不同阈值T1、T2和T3,以便允许识别其它不同的姿势。例如,当检测到小于阈值T1的加速度、角速度或角加速度时,可以识别出第一姿势。替代地,当检测到大于阈值T1且小于阈值T2的加速度、角速度或角加速度时,可以识别出第二姿势。替代地,当检测到大于阈值T2且小于阈值T3的加速度、角速度或角加速度时,可以识别出第三姿势。替代地,当检测到大于阈值T3的加速度、角速度或角加速度时,可以识别出第四姿势。如上所述,可以设置用于待检测的加速度、角速度或角加速度的多个阈值,从而允许根据设定的阈值识别多个姿势操作。
另外,在上述示例中根据姿势的强度来识别不同的姿势操作。但是,也可以根据姿势被识别出的次数来识别不同的姿势操作。例如,可以设想,当表达强烈的否定时,用户多次晃动他/她的头部。因此,当已经识别出相同姿势不少于预定次数时,处理执行单元216可以执行与第二姿势相关的处理。替代地,当识别出相同姿势少于预定次数时,处理执行单元216可以执行与第一姿势相关的处理。替代地,可以关于检测到姿势的次数设置多个阈值,并且可以根据设定的阈值的次数来识别多个姿势操作。
<<7.设置用于识别姿势的超时时段的示例性处理>>
上面已经描述了根据识别出的姿势的强度识别姿势操作变化的示例性处理。注意到,在下文中,将描述其中设置用于识别姿势的超时时段的示例性处理。例如,在姿势识别中存在用户侧向晃动他/她的头部多次的情况。在这种情况下,存在虽然用户想要执行一次操作但是操作可能被执行多次的可能性。在本实施例中,为了防止违背用户意图执行操作,设置与姿势识别相关的超时时段。
图14示出了本实施例中与姿势识别相关的待设置的超时时段。注意到,在下文中,将描述基于由加速度传感器118检测到的加速度来识别姿势的示例。在图14中,用户执行姿势(诸如侧向晃动他/她的头部),由此加速度传感器118检测到加速度。姿势识别单元210从检测到加速度的时刻起开始超时时段的计时。
然后在由P1表示的时间点识别首次(first-time)姿势。随后,检测到由用户执行的多次相似姿势引起的加速度变化。在这种情况下,姿势识别单元210确定是否已经经过了超时时段。当姿势识别单元210确定还没有经过超时时段时,姿势识别单元210不识别在该期间执行的姿势。然后,在经过了超时时段之后,姿势识别单元210开始识别姿势。因而,姿势识别单元210在经过了超时时段之后的时间点P2识别出第二次(second time)姿势。
如上所述,设置超时时段防止执行用户不期望的次数的处理。
<<8.附记>>
本领域技术人员应当理解,取决于设计要求和其它因素,可以发生各种修改、组合、子组合和变更,只要它们在所附权利要求或其等同物的范围内即可。
在上述实施例中,例如,姿势的识别、按钮操作的识别和语音操作的识别是由手机200执行的。但是,可以由服务器400执行姿势的识别、按钮操作的识别和语音操作的识别。具体地,小型终端100经由网络向服务器400发送来自传感器112的信号、来自麦克风110的音频信号以及按钮102的操作信号。已经接收到相应信号的服务器400处理接收到的信号,以执行姿势的识别、按钮操作的识别和语音操作的识别。然后,服务器400将识别结果发送到小型终端100。然后,小型终端100根据接收到的识别结果对应用执行处理。
替代地,可以由小型终端100执行姿势的识别、按钮操作的识别和语音操作的识别。在这种情况下,小型终端100的处理单元104处理来自各个部分的信号,以执行姿势的识别、按钮操作的识别以及语音操作的识别。然后,小型终端100根据接收到的识别结果对应用执行处理。小型终端100可以被配置为执行如上所述的所有处理。注意到,在上述示例中,小型终端100可以如图15中所示地经由通信网络300直接连接到服务器400。替代地,小型终端100可以执行姿势识别并且向手机200发送与识别出的姿势相关的操作信息。
替代地,小型终端100可以计算姿势识别的可能性并向手机200发送可能性,使得手机200可以使用由小型终端100计算的姿势识别的可能性和预定阈值来确定姿势识别。在这个示例中,小型终端100和手机200可以通过通信路径(诸如蓝牙、Wi-Fi或有线网络)连接。
小型终端100基于来自传感器112的信息执行与姿势识别相关的处理,并且生成姿势识别的中间结果。当执行了N种类型的姿势识别时,示例性中间结果可以是具有其中列出用于每种姿势的兼容值(阈值)的数据集。例如,当识别出两种类型的姿势(即,“点头”和“侧向晃动”)时,例如,中间结果可以表示为“点头:0.8”和“侧向晃动:0.2”。作为在小型终端100中生成的一对姿势和得分的中间结果被发送到手机200。手机200可以根据设置的值、用于每个用户的个性化规则或者用户、小型终端100或手机200的状态来确定阈值,并且确定是否处理与姿势识别相关的操作。
另外,在上述实施例中,小型终端100是附连到用户耳朵的信息处理装置。但是,小型终端100不限于此。例如,小型终端100可以是腕带型可穿戴终端。
此外,可以提供用于以上述方式操作处理单元104和202的计算机程序。替代地,可以提供其中存储了这种程序的存储介质。
<<9.结论>>
如上所述,基于来自应用的通知激活在根据本公开的实施例的信息处理系统中用于姿势识别的传感器112。此外,与语音操作同步地激活用于姿势识别的传感器112。因此,有可能降低小型终端100中的功耗。
此外,根据本公开的实施例的信息处理系统可以并行地等待与姿势识别、语音操作和按钮操作相关的操作。此外,用户可以执行组合与姿势识别、语音操作和按钮操作相关的操作的操作。因此,用户可以执行各种操作。
此外,根据本公开的实施例的信息处理系统执行与曾经识别出的姿势相关的操作的取消处理。因而,即使当已经执行了错误操作时,用户也可以取消操作。此外,在根据本公开的实施例的信息处理系统中,动态地设置用于接受与识别出的姿势相关的操作的取消处理的取消时段。因此,根据正在被执行的应用的状态或类型设置适当的取消时段。
另外,本说明书中描述的效果仅仅是说明性或示例性效果,并不是限制性的。即,具有以上效果或代替以上效果,根据本说明书的描述,根据本公开的技术可以实现对本领域技术人员清楚的其它效果。
此外,本技术也可以如下配置。
(1)一种信息处理装置,包括:
处理执行单元,被配置为执行与由语音操作识别单元识别出的语音操作和由姿势识别单元识别出的姿势操作相关的处理,所述语音操作识别单元被配置为基于来自语音接收单元的信息识别语音操作,所述姿势识别单元被配置为识别基于来自传感器的信息而识别出的用户的姿势,其中
语音操作识别单元与姿势识别单元的姿势等待状态并行地进入语音操作等待状态。
(2)根据(1)所述的信息处理装置,其中
姿势识别单元与语音操作识别单元进入语音操作等待状态同步地进入姿势等待状态。
(3)根据(2)所述的信息处理装置,其中
处理执行单元执行应用,以及
语音操作识别单元基于来自正在由处理执行单元执行的应用的通知进入语音操作等待状态。
(4)根据(1)至(3)中任一项所述的信息处理装置,其中
处理执行单元优先于由姿势识别单元识别出的操作执行与由语音操作识别单元识别出的操作相关的处理。
(5)根据(1)至(4)中任一项所述的信息处理装置,其中
操作单元操作识别单元,被配置为识别用户对操作单元的操作,其中
操作单元操作识别单元与姿势识别单元的姿势等待状态和语音操作识别单元的语音操作等待状态并行地进入操作单元操作等待状态
(6)根据(5)所述的信息处理装置,其中
处理执行单元优先于由语音操作识别单元识别出的操作执行与由操作单元操作识别单元识别出的操作相关的处理。
(7)根据(5)或(6)所述的信息处理装置,其中
对于由姿势识别单元识别出的操作、由语音操作识别单元识别出的操作以及由操作单元操作识别单元识别出的操作中的每一个执行加权,以及
处理执行单元考虑加权来确定要优先执行的处理。
(8)根据(5)至(7)中任一项所述的信息处理装置,包括:
处理执行单元执行将由姿势识别单元识别出的操作、由语音操作识别单元识别出的操作以及由操作单元操作识别单元识别出的操作中的至少两个进行组合的处理。
(9)根据(3)至(8)中任一项所述的信息处理装置,包括:
根据来自应用的通知或应用的类型选择待激活的传感器的模式
(10)根据(3)至(8)中任一项所述的信息处理装置,其中
传感器包括多个传感器,以及
根据来自应用的通知或应用的类型选择待激活的传感器。
(11)根据(1)至(10)中任一项所述的信息处理装置,其中
传感器是加速度传感器或陀螺仪传感器,以及
当检测到小于预定值的加速度或角速度时,姿势识别单元识别出第一姿势,并且当检测到大于所述预定值的加速度或角速度时,姿势识别单元识别出第二姿势。
(12)根据(1)至(10)中任一项所述的信息处理装置,其中
当识别出相同姿势的次数比预定次数小时,姿势识别单元识别出第一姿势,并且当识别出相同姿势的次数比预定次数大时,姿势识别单元识别出第二姿势。
(13)根据(1)至(12)中任一项所述的信息处理装置,包括:
姿势识别单元包括:
机器学习确定单元,被配置为基于机器学习来识别姿势,以
及
规则确定单元,被配置为基于预定规则来识别姿势,以及
当机器学习确定单元和规则确定单元都识别出姿势时,姿势识别单元识别出姿势。
(14)一种信息处理系统,包括:
语音操作识别单元,被配置为基于来自语音接收单元的信息识别语音操作;
姿势识别单元,被配置为识别基于来自传感器的信息识别用户的姿势;以及
处理执行单元,被配置为执行与由语音操作识别单元和姿势识别单元识别出的操作相关的处理,其中
语音操作识别单元与姿势识别单元的姿势等待状态并行地进入语音操作等待状态。
(15)一种信息处理方法,包括:
基于来自语音接收单元的信息识别语音操作;
基于来自传感器的信息识别用户的姿势;以及
执行与识别出的语音操作和与姿势相关的操作相关的处理;以及
允许将要识别语音操作的语音操作等待状态和将要识别姿势的姿势等待状态的共存。
Claims (15)
1.一种信息处理装置,包括:
处理执行单元,被配置为执行与由语音操作识别单元识别出的语音操作和由姿势识别单元识别出的姿势操作相关的处理,所述语音操作识别单元被配置为基于来自语音接收单元的信息识别语音操作,所述姿势识别单元被配置为识别基于来自传感器的信息而识别出的用户的姿势,其中
语音操作识别单元与姿势识别单元的姿势等待状态并行地进入语音操作等待状态。
2.根据权利要求1所述的信息处理装置,其中
姿势识别单元与语音操作识别单元进入语音操作等待状态同步地进入姿势等待状态。
3.根据权利要求2所述的信息处理装置,其中
处理执行单元执行应用,以及
语音操作识别单元基于来自正在由处理执行单元执行的应用的通知进入语音操作等待状态。
4.根据权利要求1所述的信息处理装置,其中
处理执行单元优先于由姿势识别单元识别出的操作执行与由语音操作识别单元识别出的操作相关的处理。
5.根据权利要求1所述的信息处理装置,还包括:
操作单元操作识别单元,被配置为识别用户对操作单元的操作,其中
操作单元操作识别单元与姿势识别单元的姿势等待状态和语音操作识别单元的语音操作等待状态并行地进入操作单元操作等待状态。
6.根据权利要求5所述的信息处理装置,其中
处理执行单元优先于由语音操作识别单元识别出的操作执行与由操作单元操作识别单元识别出的操作相关的处理。
7.根据权利要求5所述的信息处理装置,其中
对于由姿势识别单元识别出的操作、由语音操作识别单元识别出的操作以及由操作单元操作识别单元识别出的操作中的每一个执行加权,以及
处理执行单元考虑加权来确定要优先执行的处理。
8.根据权利要求5所述的信息处理装置,其中
处理执行单元执行将由姿势识别单元识别出的操作、由语音操作识别单元识别出的操作以及由操作单元操作识别单元识别出的操作中的至少两个进行组合的处理。
9.根据权利要求3所述的信息处理装置,其中
根据来自应用的通知或应用的类型选择待激活的传感器的模式。
10.根据权利要求3所述的信息处理装置,其中
传感器包括多个传感器,以及
根据来自应用的通知或应用的类型选择待激活的传感器。
11.根据权利要求1所述的信息处理装置,其中
传感器是加速度传感器或陀螺仪传感器,以及
当检测到小于预定值的加速度或角速度时,姿势识别单元识别出第一姿势,并且当检测到大于所述预定值的加速度或角速度时,姿势识别单元识别出第二姿势。
12.根据权利要求1所述的信息处理装置,其中
当识别出相同姿势的次数比预定次数小时,姿势识别单元识别出第一姿势,并且当识别出相同姿势的次数比预定次数大时,姿势识别单元识别出第二姿势。
13.根据权利要求1所述的信息处理装置,其中
姿势识别单元包括:
机器学习确定单元,被配置为基于机器学习来识别姿势,以及
规则确定单元,被配置为基于预定规则来识别姿势,以及
当机器学习确定单元和规则确定单元都识别出姿势时,姿势识别单元识别出姿势。
14.一种信息处理系统,包括:
处理执行单元,被配置为执行与由语音操作识别单元识别出的语音操作和由姿势识别单元识别出的姿势操作相关的处理,所述语音操作识别单元被配置为基于来自语音接收单元的信息识别语音操作,所述姿势识别单元被配置为识别基于来自传感器的信息识别出的用户的姿势,其中
语音操作识别单元与姿势识别单元的姿势等待状态并行地进入语音操作等待状态。
15.一种信息处理方法,包括:
执行与基于来自语音接收单元的信息识别出的语音操作和与基于来自传感器的信息识别出的姿势相关的操作相关的处理,以及
允许将要识别语音操作的语音操作等待状态和将要识别姿势的姿势等待状态的共存。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016-099394 | 2016-05-18 | ||
JP2016099394A JP6789668B2 (ja) | 2016-05-18 | 2016-05-18 | 情報処理装置、情報処理システム、情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107402629A true CN107402629A (zh) | 2017-11-28 |
Family
ID=58709767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710327703.9A Pending CN107402629A (zh) | 2016-05-18 | 2017-05-11 | 信息处理装置,信息处理系统和信息处理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10635152B2 (zh) |
EP (1) | EP3246790B1 (zh) |
JP (1) | JP6789668B2 (zh) |
CN (1) | CN107402629A (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108181992A (zh) * | 2018-01-22 | 2018-06-19 | 北京百度网讯科技有限公司 | 基于手势的语音唤醒方法、装置、设备及计算机可读介质 |
JP7098390B2 (ja) * | 2018-04-12 | 2022-07-11 | 株式会社Nttドコモ | 情報処理装置 |
CN108804010B (zh) * | 2018-05-31 | 2021-07-30 | 北京小米移动软件有限公司 | 终端控制方法、装置及计算机可读存储介质 |
WO2020049921A1 (ja) * | 2018-09-07 | 2020-03-12 | ソニー株式会社 | 端末装置、端末装置の制御方法および記憶媒体 |
US10839778B1 (en) * | 2019-06-13 | 2020-11-17 | Everett Reid | Circumambient musical sensor pods system |
US20220291752A1 (en) * | 2020-01-16 | 2022-09-15 | Von Clausewitz Systems, LLC | Distributed Application Platform Projected on a Secondary Display for Entertainment, Gaming and Learning with Intelligent Gesture Interactions and Complex Input Composition for Control |
JP7438034B2 (ja) | 2020-06-15 | 2024-02-26 | 株式会社Nttドコモ | 端末装置 |
US11972095B2 (en) | 2021-03-23 | 2024-04-30 | Microsoft Technology Licensing, Llc | Voice assistant-enabled client application with user view context and multi-modal input support |
US11789696B2 (en) | 2021-03-23 | 2023-10-17 | Microsoft Technology Licensing, Llc | Voice assistant-enabled client application with user view context |
WO2022203968A1 (en) * | 2021-03-23 | 2022-09-29 | Microsoft Technology Licensing, Llc | Voice assistant-enabled client application with user view context and multi-modal input support |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120105257A1 (en) * | 2010-11-01 | 2012-05-03 | Microsoft Corporation | Multimodal Input System |
WO2014107410A1 (en) * | 2013-01-04 | 2014-07-10 | Kopin Corporation | Lifeboard-series of home pages for head mounted displays (hmd) that respond to head tracking |
CN104049745A (zh) * | 2013-03-14 | 2014-09-17 | 三星电子株式会社 | 输入控制方法和支持该输入控制方法的电子装置 |
US20150046886A1 (en) * | 2013-08-07 | 2015-02-12 | Nike, Inc. | Gesture recognition |
CN105321071A (zh) * | 2014-07-31 | 2016-02-10 | Lg电子株式会社 | 可穿戴装置及其控制方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4624577B2 (ja) * | 2001-02-23 | 2011-02-02 | 富士通株式会社 | 複数のセンサによるヒューマンインタフェースシステム |
JP2003053028A (ja) * | 2001-08-15 | 2003-02-25 | Aruze Corp | 音声入力を用いて表示画面上のキャラクタを動作させるプログラム及びこれを記憶した外部記憶媒体 |
JP5493864B2 (ja) * | 2007-12-07 | 2014-05-14 | パナソニック株式会社 | 電子機器 |
JP5483899B2 (ja) | 2009-02-19 | 2014-05-07 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置および情報処理方法 |
US9316827B2 (en) * | 2010-09-20 | 2016-04-19 | Kopin Corporation | LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking |
US20120260287A1 (en) * | 2011-04-07 | 2012-10-11 | Sony Corporation | Personalized user interface for audio video display device such as tv |
JP2013186646A (ja) * | 2012-03-07 | 2013-09-19 | Toshiba Corp | 情報処理装置および情報処理装置の制御方法 |
JP5974649B2 (ja) * | 2012-06-08 | 2016-08-23 | 株式会社リコー | 情報処理装置、会議システム、プログラム |
WO2014157757A1 (ko) * | 2013-03-29 | 2014-10-02 | 엘지전자 주식회사 | 이동식 입력 장치 및 그를 이용한 명령 입력 방법 |
JP6192104B2 (ja) * | 2013-09-13 | 2017-09-06 | 国立研究開発法人情報通信研究機構 | テキスト編集装置及びプログラム |
EP2947635B1 (en) * | 2014-05-21 | 2018-12-19 | Samsung Electronics Co., Ltd. | Display apparatus, remote control apparatus, system and controlling method thereof |
US20160103655A1 (en) * | 2014-10-08 | 2016-04-14 | Microsoft Corporation | Co-Verbal Interactions With Speech Reference Point |
KR102277259B1 (ko) * | 2014-11-26 | 2021-07-14 | 엘지전자 주식회사 | 디바이스 제어 시스템, 디지털 디바이스 및 디지털 디바이스 제어 방법 |
WO2016106358A1 (en) * | 2014-12-22 | 2016-06-30 | Robert Bosch Gmbh | System and methods for interactive hybrid-dimension map visualization |
US9491517B2 (en) * | 2015-03-03 | 2016-11-08 | Google Inc. | Systems and methods for broadcast audience interaction and participation |
US10802620B2 (en) * | 2015-03-17 | 2020-10-13 | Sony Corporation | Information processing apparatus and information processing method |
US9870755B2 (en) * | 2015-05-22 | 2018-01-16 | Google Llc | Prioritized display of visual content in computer presentations |
-
2016
- 2016-05-18 JP JP2016099394A patent/JP6789668B2/ja active Active
-
2017
- 2017-04-25 EP EP17167878.2A patent/EP3246790B1/en active Active
- 2017-05-02 US US15/584,330 patent/US10635152B2/en active Active
- 2017-05-11 CN CN201710327703.9A patent/CN107402629A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120105257A1 (en) * | 2010-11-01 | 2012-05-03 | Microsoft Corporation | Multimodal Input System |
WO2014107410A1 (en) * | 2013-01-04 | 2014-07-10 | Kopin Corporation | Lifeboard-series of home pages for head mounted displays (hmd) that respond to head tracking |
CN104049745A (zh) * | 2013-03-14 | 2014-09-17 | 三星电子株式会社 | 输入控制方法和支持该输入控制方法的电子装置 |
US20150046886A1 (en) * | 2013-08-07 | 2015-02-12 | Nike, Inc. | Gesture recognition |
CN105321071A (zh) * | 2014-07-31 | 2016-02-10 | Lg电子株式会社 | 可穿戴装置及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3246790A3 (en) | 2018-02-28 |
JP2017207891A (ja) | 2017-11-24 |
US20170336848A1 (en) | 2017-11-23 |
EP3246790B1 (en) | 2020-11-04 |
JP6789668B2 (ja) | 2020-11-25 |
EP3246790A2 (en) | 2017-11-22 |
US10635152B2 (en) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107402629A (zh) | 信息处理装置,信息处理系统和信息处理方法 | |
US10755695B2 (en) | Methods in electronic devices with voice-synthesis and acoustic watermark capabilities | |
CN107402628A (zh) | 信息处理装置,信息处理系统和信息处理方法 | |
US7807913B2 (en) | Motion-based sound setting apparatus and method and motion-based sound generating apparatus and method | |
EP3777115B1 (en) | Electronic device supporting personalized device connection and method thereof | |
WO2014099872A1 (en) | Multi-purpose stylus for a computing device | |
CN110061900A (zh) | 消息显示方法、装置、终端及计算机可读存储介质 | |
KR102447381B1 (ko) | 통화 중 인공지능 서비스를 제공하기 위한 방법 및 그 전자 장치 | |
CN110347520A (zh) | 消息分发的方法、装置、电子设备及介质 | |
CN110046018A (zh) | 显示消息的方法、装置、电子设备及介质 | |
CN112912955B (zh) | 提供基于语音识别的服务的电子装置和系统 | |
CN110049525A (zh) | 网络连接方法、装置、电子设备及介质 | |
CN110113659A (zh) | 生成视频的方法、装置、电子设备及介质 | |
CN110109608A (zh) | 文本显示方法、装置、终端及存储介质 | |
KR20230113831A (ko) | 음향 주밍 | |
KR20200101221A (ko) | 사용자 입력 처리 방법 및 이를 지원하는 전자 장치 | |
CN109240823B (zh) | 多端联动处理任务的方法、装置和可读存储介质 | |
CN109961802A (zh) | 音质比较方法、装置、电子设备及存储介质 | |
CN109085991A (zh) | 应用程序控制方法及装置、终端、存储介质 | |
CN114333821A (zh) | 电梯控制方法、装置、电子设备、存储介质及产品 | |
CN113380275B (zh) | 语音处理方法、装置、智能设备及存储介质 | |
EP4358536A1 (en) | Ambient sound control method and electronic device for same | |
US20230186031A1 (en) | Electronic device for providing voice recognition service using user data and operating method thereof | |
CN112165552A (zh) | 控制语音助手的方法以及使用该方法的电子装置 | |
CN108446276A (zh) | 确定歌单关键词的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171128 |