CN105278682B - 用于对命令进行触觉确认的系统和方法 - Google Patents
用于对命令进行触觉确认的系统和方法 Download PDFInfo
- Publication number
- CN105278682B CN105278682B CN201510604590.3A CN201510604590A CN105278682B CN 105278682 B CN105278682 B CN 105278682B CN 201510604590 A CN201510604590 A CN 201510604590A CN 105278682 B CN105278682 B CN 105278682B
- Authority
- CN
- China
- Prior art keywords
- actuator
- signal
- user
- processor
- order
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000012790 confirmation Methods 0.000 title abstract description 25
- 230000000694 effects Effects 0.000 claims abstract description 111
- 235000013399 edible fruits Nutrition 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000005236 sound signal Effects 0.000 claims 6
- 230000006870 function Effects 0.000 description 37
- 230000004044 response Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 15
- 230000001413 cellular effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000029058 respiratory gaseous exchange Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 241000209140 Triticum Species 0.000 description 3
- 235000021307 Triticum Nutrition 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008439 repair process Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000001737 promoting effect Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 206010000210 abortion Diseases 0.000 description 1
- 231100000176 abortion Toxicity 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 208000010125 myocardial infarction Diseases 0.000 description 1
- 230000001235 sensitizing effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001550 time effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B6/00—Tactile signalling systems, e.g. personal calling systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
公开了用于对命令进行触觉确认的系统和方法。系统包括:传感器;被配置成由用户接触的壳体;被配置成将触觉效果输出到所述壳体的致动器;以及与所述传感器和所述致动器进行通信的处理器,所述处理器被配置成:从所述传感器接收与用户输入相关联的传感器信号;识别所述用户输入并且确定与所述用户输入相关联的命令;如果所述用户输入被识别并且所述命令被确定,则:生成第一致动器信号,所述第一致动器信号被配置成促使所述致动器输出第一触觉效果;以及将所述第一致动器信号传送给所述致动器;否则:生成第二致动器信号,所述第二致动器信号被配置成促使所述致动器输出第二触觉效果;以及将所述第二致动器信号传送给所述致动器。
Description
分案说明
本申请属于申请日为2010年11月1日的中国发明专利申请201080050101.X的分案申请。
相关申请的交叉引用
本专利申请要求于2009年11月4日提交的、题为“Systems and Methods forHaptic Confirmation of Commands”的美国实用专利申请No.12/612,230的优先权,其全部内容通过引用的方式被合并到本文中。
技术领域
本发明总体上涉及触觉反馈,以及更具体地涉及对命令进行触觉确认。
背景技术
对电子设备的命令典型地已通过按下按钮或扳动开关来发出。然而,语音和其他类型的命令在用户接口中正变得更盛行,诸如对蜂窝电话的语音命令拨号。在这样的系统中,用户可以对着麦克风说出命令来拨打朋友的电话号码,并且该用户可以听见哔哔声或看见闪光,以指示电话正在拨打该号码。但是,如果蜂窝电话的扬声器已在被使用,诸如由于该电话正在播放歌曲,则该蜂窝电话可能打断音乐来播放哔哔声,或如果声音已被静音,则其可能根本不向用户提供应答。因此,可能期望的是,提供用于向用户提供响应的其他机制。
发明内容
本发明的实施例提供了用于对语音命令进行触觉确认的系统和方法。例如,在一个实施例中,一种用于对命令进行触觉确认的方法,包括:从麦克风接收话音信息;识别该话音信息并且确定与该话音信息相关联的命令;以及如果该话音信息被识别并且该命令被确定,则:生成第一致动器信号,该第一致动器信号被配置成促使致动器输出第一触觉效果;以及将该第一致动器信号传送给致动器。否则,生成第二致动器信号,该第二致动器信号被配置成促使致动器输出第二触觉效果;以及将第二致动器信号传送给致动器。另一个实施例包括包含用于执行这样的方法的程序代码的计算机可读介质。
提及这些说明性实施例并不是为了限制或限定本发明,而是提供示例以帮助对本发明的理解。在具体实施方式中论述了说明性实施例,并且在其中提供了对本发明的进一步描述。可以通过研究本说明书来进一步理解通过本发明的各种实施例提供的优点。
附图说明
当参考附图来阅读以下具体实施方式时,将更好地理解本发明的这些及其他特征、方面和优点,在附图中:
图1-4示出根据本发明的实施例的用于对命令进行触觉确认的系统的框图;
图5示出根据本发明的一个实施例的用于对命令进行触觉确认的计算机实现的方法的流程图;
图6示出根据本发明的实施例的用于对命令进行触觉确认的系统的框图;以及
图7示出根据本发明的一个实施例的用于对命令进行触觉确认的计算机实现的方法的流程图。
具体实施方式
本发明的实施例提供了用于对命令进行触觉确认的系统和方法。例如,在一个实施例中,用户可以对着在蜂窝电话上的麦克风说出命令,诸如“呼叫家”。该电话试图识别所说出的命令,以及如果其是成功的,则其生成触觉效果来向用户提供以下可触指示:所说出的命令被识别并且电话将执行所请求的功能。该电话然后可以试图对与“家”相对应的电话号码进行电话呼叫。然而,如果该电话没有识别该命令,则其生成第二触觉效果来向用户提供以下可触指示:所说出的命令没有被识别并且没有功能将被执行。
在另一个实施例中,第一用户和第二用户可以使用诸如无线电设备的无线通信设备相互通信。每一个用户具有带有麦克风的头戴式耳机和与该麦克风进行通信的无线电设备。头戴式耳机还包括用于输出触觉效果的致动器。第一用户可以通过无线电设备向第二用户发出口头命令。第二用户可能不能向第一用户提供口头响应。例如,第二用户可能位于靠近敌人战斗部队的战区中。第二用户可以通过在其头戴式耳机上或在无线电设备上按下按钮或系列按钮来促使触觉消息被传送给第一用户来对该口头命令作出响应。第一用户的无线电设备可以接收该触觉消息,并且将信号传送给第一用户的头戴式耳机中的致动器以促使该致动器向第一用户输出触觉效果。
用于对命令进行触觉确认的说明性系统
现参考附图,其中相同的附图标记遍及多个图指示相同的元素。图1示出了根据本发明的一个实施例的用于对命令进行触觉确认的系统的框图。在图1中所示的实施例中,系统包括具有壳体105的设备100。该设备进一步包括处理器110、存储器115、致动器130和麦克风135,其每一个被布置在壳体105中或耦接到壳体105。在图1中所示的实施例中,设备100是蜂窝电话,以及壳体105被配置成由能够对着麦克风135说话的用户抓握。在一些实施例中,设备100可以是包括壳体105、处理器110、存储器115、致动器130和麦克风135的头戴式耳机。在一些实施例中,设备100可以包括具有多个设备的系统。例如,将在下面更详细论述的图2包括相互通信的两个设备110、150。
再次参考图1中所示的实施例,处理器110与存储器115、致动器130和麦克风135进行通信。麦克风135将从用户接收到的话音信息编码成被传送给处理器110的一个或多个麦克风信号。处理器110接收麦克风信号,并且执行存储在存储器115中的语音识别软件来试图识别编码在所接收到的麦克风信号内的话音信息。如果处理器110能够识别该话音信息,则其执行存储在存储器115中的试图标识与所识别的话音信息相关联的命令的软件。如果处理器110标识与所识别的话音信息相关联的命令,则其生成第一致动器信号,该第一致动器信号被配置成促使致动器输出第一触觉效果。第一触觉效果被配置成向用户指示语音命令被识别。处理器110然后将第一致动器信号传送给致动器130,致动器130基于第一致动器信号来输出第一触觉效果。
然而,如果话音信息没有被识别,或如果与话音信息相对应的命令没有被找到,则处理器110生成第二致动器信号,该第二致动器信号被配置成促使致动器130输出第二触觉效果。处理器110然后将第二致动器信号传送给致动器130,致动器130基于第二致动器信号来输出第二触觉效果。第二触觉效果被配置成指示话音信息没有被识别或对应的命令没有被找到。然而,在一个实施例中,对于未能识别话音信息或未能找到与所识别的话音信息相对应的命令,可以输出不同的触觉效果。注意的是,标识符“第一”和“第二”在此被用来区分不同的信号和效果,而不是特定信号或效果序列。例如,如果语音命令没有被识别,则仅仅第二致动器信号被生成并且传送给致动器;指示语音命令被识别的第一信号没有被生成或传送给致动器。
图1中的实施例可以包括多个设备中的任何设备,诸如手持式设备、可佩戴设备、车辆(例如,汽车、轮椅等)、非便携式设备(例如,台式计算机)或能够接收语音命令、对其进行处理并且生成触觉效果的其他设备。
例如,在一个实施例中,设备100包括个人数字助理(PDA)。在这样的实施例中,用户可以对着麦克风135说出语音命令来促使PDA执行功能。例如,用户可以指令PDA将约会添加到日历用于星期二下午3点。处理器110试图识别该语音命令,以及如果处理器110识别了该语音命令,则处理器110然后生成致动器信号,并且将该致动器信号传送给致动器以促使该致动器输出触觉效果来指示该语音命令被识别。替选地,如果该语音命令没有被识别,则处理器110可以生成第二致动器信号,并且将第二致动器信号传送给致动器以促使该致动器输出触觉效果来指示该语音命令没有被识别。
在类似的实施例中,处理器110可以部分识别命令。例如,处理器110可以识别话音命令是将约会添加到日历,但是可能没有识别约会的时间。在这样的实施例中,处理器110可以生成第三致动器信号,并且将第三致动器信号传送给致动器以促使该致动器输出触觉效果来指示语音命令被部分识别。在这样的实施例中,触觉效果不仅可以指示命令被部分识别,而且可以指示命令的哪部分没有被识别。例如,如果日期没有被识别,则设备可以输出第四触觉效果,而如果时间没有被识别,则设备可以输出第五触觉效果。使用触觉信令,用户可以在不必借助于查看显示器来确定问题源的情况下获悉理解说出的命令的困难。
在类似的实施例中,当话音命令的部分被接收并且识别或没有被识别时,处理器110可以生成致动器信号。例如,在一个实施例中,用户可以说“将约会添加到日历用于9月2号星期二下午3点”。处理器可以识别“将约会添加到日历”并且生成第一致动器信号以促使致动器输出第一触觉效果来指示命令的一部分被识别。第一触觉效果然后在用户说了“将约会添加到日历”之后很快被输出以向用户指示话音命令的该部分被识别。另一个触觉效果然后可以在日期被识别或没有被识别之后被输出,以及第三触觉效果然后可以在时间被识别或没有被识别之后被输出。用户然后可以重述命令的未被识别的部分。被输出的与话音命令的部分相对应的触觉效果可以向用户指示命令的哪个部分需要被重复,而不是要求用户重述整个命令。
响应于语音命令,可以向用户输出更进一步的触觉效果。例如,在上面描述的用户试图将约会添加到PDA上的日历的实施例中,可以使用另外的触觉效果。例如,如果处理器110识别命令,但是确定命令的日期和时间将与已存储在日历中的约会出现冲突,则处理器110可以生成致动器信号以促使致动器输出触觉效果来指示该命令被识别,但是存在潜在冲突。在类似的实施例中,如果处理器110识别了命令,但是确定命令的日期和时间与现有约会接近,则处理器110可以生成致动器信号以促使致动器输出触觉效果来指示命令被识别,但是期望的日期和时间与现有约会接近。在这样的实施例中,指示潜在冲突的触觉效果不同于指示约会时间与另一个约会接近的触觉效果。
如上所述,本发明的一些实施例可以试图在话音信息被接收时,诸如实时地识别话音信息。然而,即使在不试图在话音信息被接收时识别话音信息的一些实施例中,当话音信息被接收时执行其他功能可以是有利的。例如,在一个实施例中,设备100从麦克风接收话音信息,并且试图在该话音信息被接收时识别该话音信息。当设备100开始识别话音信息时,其可以识别与命令相对应的词或短语。例如,如果用户说“呼叫家”,则设备100可以识别词“呼叫”并且确定其对应于起动电话呼叫的命令。这可以向设备指示用户正发出语音命令,并且设备可以在接收整个命令之前准备好输出触觉效果。例如,设备100可以使向致动器130供给电流以期生成触觉效果的放大器(未示出)预热(warm up)。取决于哪些另外的话音信息可以被接收,设备100可以选择可能被输出的一个或多个潜在触觉效果。在设备100不试图在话音信息被接收时识别该话音信息的一个实施例中,当设备100检测到其正在接收话音信息时,设备100可以开始使放大器预热。这样的实施例可以确定话音信息正被接收,以及该话音信息可以包括语音命令。因此,可以有利的是,设备100在其正在接收话音信息时使放大器预热,以确保触觉效果可以在语音命令已被识别或尚未被识别之后很快被输出。
除手持式实施例外,其他设备也可以提供语音命令的触觉确认。例如,在一个实施例中,设备100包括台式计算机。用户可以发出命令以促使计算机100执行花费长时间段来完成的功能,诸如执行软件构建。如果处理器110识别该命令,则其可以生成第一致动器信号,该第一致动器信号被配置成促使致动器130,诸如通过嵌入在耦接到计算机100的键盘或鼠标(未示出)内的致动器130,向用户输出触觉效果。然后,当处理器110执行该功能时,其可以将第二致动器信号定期性地传送给在键盘或鼠标内的致动器130以指示该功能仍在执行。这样的触觉效果可以是被设计成向用户提供不显眼的状态信息的低幅度振动。在另一个实施例中,振动可以最初是不显眼的,但是随着该功能越来越接近完成,可以变得越来越强。例如,振动的幅度可以增加,或频率可以增加或减少。当处理器110完成该功能时,其可以生成第三致动器信号,并且将第三致动器信号传送给在键盘或鼠标内的致动器130以指示该功能已完成。替选地,如果在执行该功能期间发生错误,诸如构建错误,则触觉效果可以被输出来指示不成功地终止该功能。在用户在设备100上开始功能并且允许该功能在后台执行,但是设备100能够使用户获悉该功能的状态的情景下,这样的实施例可以是有用的。例如,用户可以向其蜂窝电话发出语音命令以发起通过蜂窝网络从远程服务器下载应用。该用户然后可以将蜂窝电话放回其口袋中、发起电话呼叫或执行一些其他任务。然而,该蜂窝电话仍可以能够向用户提供下载的触觉状态,诸如完成的下载百分比、下载的问题或当完成了下载时的触觉指示。
现参考图2,图2示出根据本发明的一个实施例的用于对命令进行触觉确认的系统200的框图。图2中所示的系统200包括第一设备100和第二设备150,其中每一个设备100、150使用连接170与另一个设备进行通信。第一设备100包括参考图1描述的组件。第二设备包括与存储器165进行通信的处理器160。第一设备100中的处理器110与第二设备150中的处理器160进行通信。例如,在一个实施例中,两个处理器110、160通过无线连接,诸如经由蓝牙,进行通信。在一些实施例中,无线连接可以包括红外线链路、RF链路、Wifi链路或其他无线连接。在另一个实施例中,两个处理器110、160通过诸如串行或并行连接或以太网连接的有线连接进行通信。使用连接170,处理器110能够向处理器160传送信号以及从处理器160接收信号,尽管在一些实施例中,连接170可能是单向连接。
例如,在一个实施例中,设备100包括蓝牙头戴式耳机,以及设备150包括蜂窝电话。在这样的实施例中,麦克风135将从用户接收到的话音信息编码成被传送给处理器110的一个或多个麦克风信号。头戴式耳机中的处理器110然后促使麦克风信号被传送给蜂窝电话中的处理器160。处理器160然后执行存储在存储器165中的语音识别软件来试图识别编码在所接收到的麦克风信号内的话音信息。如果处理器160能够识别该话音信息,则其执行存储在存储器165中的试图标识与所识别的话音信息相关联的命令的软件。如果处理器160标识与所识别的话音信息相关联的命令,则其生成第一致动器信号,该第一致动器信号被配置成促使致动器输出第一触觉效果。处理器160将第一致动器信号传送给处理器110,处理器110然后将第一致动器信号传送给致动器130。在一些实施例中,处理器110将信号传送给致动器以促使该致动器上电以便为输出触觉效果作准备。在另一个实施例中,处理器160将第一致动器信号传送给致动器130。
然而,如果话音信息或对应的命令没有被识别,则处理器160生成第二致动器信号,该第二致动器信号被配置成促使致动器130输出第二触觉效果。处理器160将第二致动器信号传送给处理器110,处理器110然后将第二致动器信号传送给致动器130。在另一个实施例中,处理器160将第二致动器信号传送给致动器130。在接收到第二致动器信号之后,致动器130基于第二致动器信号来输出第二触觉效果。
在一些实施例中,处理器160可以将高电平致动器信号传送给处理器110。处理器110然后可以基于该高电平致动器信号来生成低电平致动器信号。处理器110然后可以将该低电平致动器信号传送给致动器130以促使致动器130输出触觉效果。可以在于1995年12月1日提交并且于1998年3月31日授予的、题为“Method and Apparatus for ControllingForce Feedback Interface Systems Utilizing a Host Computer”的美国专利No.5,734,373中找到高电平和低电平致动器信号的更详细描述,其全部内容通过引用的方式被合并到本文中。
再次参考图2,本发明的一个实施例可以提供仿真由处理器110、160确定的命令或由处理器110、160执行的功能的触觉效果。例如,在一个实施例中,第一设备100包括微型耳机,以及第二设备150包括蜂窝电话。在这样的实施例中,用户可以发出语音命令,诸如“呼叫家”。处理器110将从麦克风135接收到的话音信息传送给第二设备150中的处理器160。处理器160识别该语音命令,并且生成与所拨打的每一个号码和正被呼叫的电话的每一个铃声相对应的一系列触觉效果。与所述触觉效果相对应的致动器信号被传送给第一设备100中的处理器110,其诸如在与每一个按钮按下和每一个铃声相对应的时间,输出所述触觉效果。
在其他实施例中,可以从与远程设备相关联的处理器接收触觉命令。例如,图3示出了根据本发明的一个实施例的用于对命令进行触觉确认的系统300的框图。在图3中所示的实施例中,用于对命令进行触觉确认的系统300包括与通信设备150进行通信的触觉启用的医疗警报设备100。该通信设备与远程设备170进行通信。在该实施例中,医疗警报设备100使用RF链路,诸如使用标准无绳电话频率的RF链路,与通信设备150进行通信。医疗警报设备100被配置成由用户佩戴,诸如绕在用户的脖子或手腕上。医疗警报设备100可以由用户使用来指示医疗紧急情况,诸如跌倒或心脏病发作。例如,用户可以诸如通过说“救命”或通过按下按钮并且说出诸如“救命”或“紧急情况”的命令,对着该设备上的麦克风说话。在图3中所示的实施例中,医疗警报设备100中的处理器110然后将一个或多个信号传送给通信设备150中的处理器160。通信设备150然后发起到远程系统170的连接,并且将指示用户对医疗紧急情况发了信号的一个或多个信号传送给远程系统170。在这样的实施例中,远程系统170可以由能够调度救护车或其他服务来帮助用户的调度员监视。
在医疗警报设备100、通信设备150和远程系统170之间传送消息期间,可以生成并且输出另外的触觉效果。例如,在所示的实施例中,通信设备150可以向医疗警报设备100发送促使医疗警报设备100输出触觉效果来指示已发起紧急呼叫的消息。在该呼叫已被答复之后,通信设备150可以促使第二触觉效果被输出来指示该呼叫被答复。替选地或另外地,调度员可以促使信号跨网络380被传送给通信设备150中的处理器160。例如,调度员可以向用户提供触觉信号来指示其请求被接收并且帮助正在途中。处理器160然后可以将高电平致动器信号传送给医疗警报设备中的处理器110以促使触觉效果被输出。医疗警报设备中的处理器110然后可以基于来自处理器160的接收到的信号来生成低电平致动器信号,并且将该致动器信号传送给致动器以促使触觉效果被输出。例如,调度员可以传送长振动以指示请求被接收,稍后跟随另外的振动以指示救护车已被调度。调度员可以定期性地传送这样的触觉信号以指示他仍在关注用户,以及正对用户的请求作出响应。对于有听力或视力障碍的个人,这样的实施例可以是有利的。它还可以向用户提供其对帮助的请求已被接收以及调度员仍在处理其需要的保证。
现参考图4,图4示出了根据本发明的一个实施例的用于对命令进行触觉确认的系统400的框图。图4中所示的系统400包括经由网络480相互进行通信的两个设备410、412。设备410包括如图1中所示的设备100。设备412也包括如参考图1所描述的处理器430、存储器115、麦克风435和致动器440。然而,每一个设备410、412还包括网络接口315。每一个网络接口315与其相应的处理器110、430进行通信,并且被配置成与网络480进行通信,因此使得设备410、412能够通过网络480相互进行通信。在这样的实施例中,设备410能够从其麦克风435接收语音命令,并且将该语音命令传送给设备412。例如,在一个实施例中,可以通过网络480传送从麦克风135接收到的话音信息,使得设备412的用户能够诸如经由扬声器(未示出)听见该语音命令。用户可以通过按下设备425上的按钮来发送指示该语音命令被接收的应答的信号,来确认该命令被识别。设备410可以接收该信号,以及处理器110可以生成致动器信号,并且将该致动器信号传送给致动器以促使该致动器向用户输出触觉效果。在一些实施例中,用户可以通过提供该命令没有被接收或该命令是混乱的或难以理解的触觉指示来作出响应。在一个这样的实施例中,用户还可以提供请求重传消息的触觉指示。
在另一个实施例中,用户可以通过提供触觉输入,诸如通过按下按钮或轻击触摸敏感设备,来对接收到的语音命令作出响应。触觉输入中的每一个可以与响应相互关联,响应可以被转换成说出的命令并且被传送给接收者。例如,士兵可以将对命令的响应轻击到耦接到诸如设备412的通信设备的触摸敏感输入设备中,顺次指示该命令被接收并且该士兵会服从。设备412然后可以将该可触响应传送给诸如设备410的另一个设备,其然后将该可触响应转换成可听信号,诸如说出的消息。在这样的实施例中,可触响应可以对应于预先记录的消息或可以由设备412转换成话音的预先确定的文本。这样的实施例,将允许经由用户的、导致对接收者的说出的回复的沉默应答。
图4中所示的系统还可以由多个用户有利地使用来执行协作的任务或程序。例如,在一个实施例中,设备410和412可以包括在银行内的不同位置处的计算机。每一个计算机410、412与控制对银行金库的进入的安全系统进行通信。在该两个计算机处的用户可能需要执行功能、或提供打开银行金库的认证。例如,可以要求在第一计算机410处的用户说出命令,诸如词或短语,以证实打开金库的授权。在该命令被识别之后,可以将触觉确认发送给在第二计算机412处的第二用户以指示其需要说出命令,诸如另一个词或短语,来完成打开金库的认证。如果第二用户的命令被识别,则可以在两个设备410、412中的每一个处输出触觉确认来向用户指示该命令是成功的。在这样的时间,可以解开银行金库上的锁。
然而,如果命令中的一个没有被识别,则一个或两个用户可以接收认证失败的触觉指示。在一个实施例中,可以给予其命令失败的用户第二次机会来提供认证。在这样的实施例中,可以向一个或两个用户输出指示认证失败但是可以重试命令的触觉效果。然而,如果认证最终失败,使得没有重试可用,则可以向一个或两个用户输出不同的触觉效果来指示认证失败。
可以使用包括不同或更复杂的事件序列的更进一步实施例。在这样的实施例中,可以向一个或多个用户输出触觉效果来指示在其部分的动作对完成序列是必需的。例如,在一个实施例中,多个技工可能正在修理较大的机器。在这样的情况下,每一个用户可以佩戴设备,诸如设备410或412。当用户完成修理的部分或需要帮助时,其可以传送命令来触发其他用户的设备410、412上的触觉效果。通过这样做,可以向下一用户通知任务完成或其需要执行一些动作来继续该修理过程。触觉效果的接收者可以向命令的发送者提供回触觉确认以指示接收者将采取必要的动作或某个其他指示。
现参考图5,图5示出了根据本发明的一个实施例的用于对语音命令进行触觉确认的计算机实现的方法500的流程图。将参考图1中所示的设备100来论述图5中所示的方法500。
方法500在框510中开始,那时处理器100接收话音信息。例如,处理器110可以从麦克风135接收编码在麦克风信号中的话音信息,或其可以诸如通过蓝牙连接来从另一个处理器接收话音信息。在接收到话音信息之后,该方法前进到框520。
在框520,在接收到话音信息之后,处理器100然后执行话音识别软件来识别话音信息。如果处理器识别话音信息,则其试图确定与该话音信息相关联的命令。如果处理器110确定与话音信息相关联的命令,则该方法前进到步骤530。然而,如果处理器不能识别话音信息,或不能确定与话音信息相关联的命令,则该方法前进到框522。
在框522中,处理器110生成第二致动器信号,该第二致动器信号被配置成促使致动器输出第二触觉效果。第二触觉效果被配置成向用户指示话音信息没有被识别,或没有找到与话音信息相对应的命令。处理器110然后如框524中所示将该致动器信号传送给致动器130。
在框530中,处理器110生成第一致动器信号,该第一致动器信号被配置成促使致动器输出第一触觉效果。第一触觉效果被配置成向用户指示话音信息被识别,并且找到了与话音信息相对应的命令。处理器110然后如框532中所示将该致动器信号传送给致动器130。在将第一致动器信号传送给致动器130之后,该方法前进到框534。
在框534中,处理器110确定另外的话音信息是否可用。例如,如上所述,处理器110可以试图在话音信息被接收到时识别该话音信息的部分,并且然后提供触觉效果来指示该话音信息的部分被识别。例如,用户可能试图将事件添加到日历,以及处理器可以对于该事件的每一个组件执行步骤510-532或步骤510-524,诸如该事件的日期、时间和位置。如果另外的话音信息可用于被接收,则该方法返回到步骤510以接收该另外的话音信息。然而,如果没有另外的话音信息被接收,则该方法500前进到步骤536。
在框536,处理器110执行与所识别的话音信息和命令相关联的功能。例如,如果话音信息包括“呼叫家”和拨打与称作“家”的联系人相关联的电话号码的已确定的命令,则处理器然后将执行拨号功能来拨打与“家”相关联的号码。在该功能开始了之后,该方法前进到框540,其是基于该功能是否已完成的循环的测试条件。
在框540中,处理器110确定该功能是否已完成。如果该功能尚未完成,则该方法前进到步骤542以输出触觉效果来指示该功能仍在执行。然而,如果该功能已完成,则该方法前进到步骤550,在步骤550,输出另一个触觉效果来指示该功能已完成。
框542至546是输出触觉效果来指示功能仍在执行的步骤。在框542中,处理器110生成与指示功能仍在执行的触觉效果相对应的致动器信号。在一个实施例中,处理器110可以生成相同的致动器信号,而不考虑该触觉效果已被输出的次数。例如,如果功能需要十分钟来完成,并且每30秒输出触觉效果,则每次输出该触觉效果时,处理器可以生成相同的致动器信号。因此,用户将大约每30秒就感受到相同的触觉效果。然而,在一些实施例中,取决于功能的状态,可以输出不同的触觉效果。例如,在一个实施例中,每次该方法返回到框542时,处理器110可以生成不同的致动器信号。在这样的实施例中,对于通过框542-546的每一次迭代,处理器110可以生成致动器信号来生成越来越强的触觉效果。在一个实施例中,如果功能仍在执行,但是遭遇错误,则处理器110可以生成不同的致动器信号。在这样的实施例中,处理器110可以生成与指示功能遭遇错误的触觉效果相关联的致动器信号。
在框542中生成致动器信号之后,在框544中,处理器110将该致动器信号传送给致动器130以促使该致动器输出触觉效果。在一些实施例中,处理器可以将该致动器信号传送给包括致动器的另一个设备。例如,在图2中所示的系统中,处理器160可以将致动器信号传送给处理器110。处理器110然后可以将该致动器信号传送给致动器130。如上所述,处理器160可以将高电平致动器信号传送给处理器110,处理器110然后可以生成处理器110然后传送给致动器130的低电平致动器信号。在致动器信号已被传送之后,该方法前进到框546。
在框546中,该方法在返回到框540之前延迟一段时间。延迟对允许时间在触觉效果之间流逝可以是有利的。例如,延迟可以允许触觉效果每30秒被输出一次,使得用户在非常短的时间段内不会重复感觉到触觉效果,其对用户来说可能是分心的。然而,在一些实施例中,可以将延迟时间设置为0,其可以允许触觉效果根据需要被输出。在延迟消逝了之后,该方法返回到框540。
在功能已完成之后,该方法前进到框550,在这时,处理器110生成与指示功能已完成的触觉效果相对应的致动器信号。例如,在一个实施例中,处理器110可以生成与指示功能成功完成的触觉效果相对应的致动器信号。替选地,处理器110可以生成与指示功能遭遇错误并且在运行至完成之前终止的触觉效果相对应的致动器信号。在致动器信号已被生成之后,该方法前进到框552,在框552,处理器110将该致动器信号传送给致动器130以促使致动器130输出触觉效果。在这之后,该方法返回到框510,以及处理器110试图接收更多的话音信息。
现参考图6,图6示出根据本发明的一个实施例的用于对命令进行触觉确认的系统600的框图。系统600包括具有壳体605的设备610。设备610进一步包括处理器620、存储器625、致动器630和传感器640。处理器620、存储器625、致动器630和传感器每一个被布置在壳体605内或耦接到壳体605。处理器620与存储器625、致动器630和传感器640中的每一个进行通信。处理器进一步与显示器650进行通信,显示器650可以耦接到壳体、被布置在壳体内、或是单独设备。设备610被配置成基于从传感器接收到的传感器信号来接收命令,并且基于所接收到的传感器信号来输出触觉效果。
在一个实施例中,设备610可以由用户携带或佩戴,以及传感器640可以包括光学传感器,该光学传感器被配置成检测用户的眼睛正查看的位置。例如,显示器650可以包括由用户佩戴的显示器,诸如带有集成显示器的护目镜。处理器620可以促使显示器650显示与命令相对应的图像或文本,所述命令诸如控制车辆(例如,轮椅)的命令、或发送给另一个人的命令,诸如对士兵的命令。为了发出命令,用户可以注视期望的命令。传感器640检测到用户的眼睛正注视的取向,并且将传感器信号传送给处理器620。处理器620确定与取向相关联的命令,并且生成致动器信号以促使致动器输出触觉效果。处理器620然后将该致动器信号传送给致动器630。在另一个实施例中,设备610进一步包括网络接口,诸如图4中所示的网络接口315。在这样的实施例中,处理器620可以跨网络480从诸如图4中所示的设备412的第二设备接收命令。设备610可以向用户输出触觉效果来指示命令已被接收,并且可以在显示器650上显示对该命令的可能响应。设备610的用户可以从可用响应选择响应来跨网络发送给第二设备412。在说出的命令或响应可能不是期望的秘密军事行动中,这样的实施例可以是有用的。
在相关实施例中,可以将所选择的响应发送给多个接收者。例如,诸如一小队士兵的军事单位可以与命令中心进行通信,并且提供对接收到的语音命令的触觉响应。在这样的实施例中,命令中心可以向该小队中的士兵中的每一个传送语音或触觉命令,并且可以从每一个士兵接收响应或应答。进一步实施例可以包括从士兵中的每一个接收响应的多个命令中心。例如,由于行动的性质,该小队的指挥官可以在该小队的行动附近的基地营中或可以与该小队一起但是分开的。另外,其他位置可以从另一个位置,诸如在船上或在另一个军事设施处,监视该小队的活动。在这样的实施例中,其他位置中的每一个可以接收去往和来自该小队的通信,包括来自该小队的触觉命令和确认。
再次参考图6,本发明的一个实施例可以输出仿真发出的命令或执行的功能的触觉效果。例如,在一个实施例中,设备610可以被配置成控制车辆,诸如轮椅。在这样的实施例中,提供仿真向车辆发出的命令的触觉效果可以是有利的。例如,如果用户选择使车辆向右转的命令,则处理器620可以生成致动器信号以促使致动器输出仿真右转的触觉效果。例如,在轮椅实施例中,致动器可以包括多个致动器。致动器然后可以输出在轮椅后面的中间开始并且移动到右边的振动。例如,可以在轮椅后面沿着水平线放置致动器,使得致动器接连被激活。用户如此可以感知到跨其背部移动到右边的振动,并且因此,接收指示命令被识别的反馈。
现参考图7,图7示出了根据本发明的一个实施例的用于对命令进行触觉确认的计算机实现的方法的流程图。将参考图6中所示的系统600描述图7。
在图7中所示的实施例中,方法700在框710中开始,那时处理器620从传感器640接收传感器信号。例如,在一个实施例中,传感器信号可以对应于用户触摸在诸如显示器650的触摸敏感显示器上的位置。在另一个实施例中,传感器信号可以对应于用户的眼睛的取向。在接收到传感器信号之后,方法700前进到框720。
在框720中,处理器620试图标识与所接收到的传感器信号相对应的命令。例如,处理器620可以标识在与触摸敏感显示屏上的感测到的地点相对应的位置处的按钮或用户界面元件。如果处理器620确定与在传感器信号中接收到的信息相对应的命令,则方法700前进到框730。否则,方法700前进到框722。
如果该方法前进到框722,则处理器620基于从传感器接收到的输入来生成与被配置成指示命令没有被识别的触觉效果相对应的致动器信号。在生成致动器信号之后,该方法前进到步骤724,那时处理器将该致动器信号传送给致动器630以促使该致动器输出触觉效果。
如果方法前进到框730,则处理器620基于从传感器接收到的输入来生成与被配置成指示命令被识别的触觉效果相对应的致动器信号。在生成致动器信号之后,该方法前进到步骤750,那时处理器将该致动器信号传送给致动器630以促使该致动器输出触觉效果。在输出该触觉效果之后,该方法前进到框750,处理器610执行与命令相关联的功能,尽管在一些实施例中,处理器610可以在生成致动器信号或将致动器信号传送给致动器之前开始执行功能。
虽然根据在各种机器上执行的软件而描述了在本文中的方法和系统,但是所述方法和系统还可以被实现为特定配置的硬件,特定地执行各种方法的这样的现场可编程门阵列(FPGA)。例如,再次参考图1-4和6,可以以数字电子电路或以计算机硬件、固件、软件、或其组合来实现实施例。在一个实施例中,计算机可以包括一个或多个处理器。处理器包括计算机可读介质,诸如被耦接到处理器的随机存取存储器(RAM)。处理器执行存储在存储器中的计算机可执行程序指令,诸如执行用于编辑图像的一个或多个计算机程序。这样的处理器可以包括微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)以及状态机。这样的处理器可以进一步包括可编程电子器件,诸如PLC、可编程中断控制器(PIC)、可编程逻辑器件(PLD)、可编程只读存储器(PROM)、电可编程只读存储器(EPROM或EEPROM)、或其他类似器件。
这样的处理器可以包括例如计算机可读介质的介质或可以与所述介质通信,所述介质可以存储指令,所述指令在被处理器执行时能够促使处理器执行在本文中被描述为由处理器执行或辅助的步骤。计算机可读介质的实施例可以包括但不限于能够为诸如web服务器中的处理器的处理器提供计算机可读指令的电子、光学、磁性、或其他存储设备。介质的其他示例包括但不限于软盘、CD-ROM、磁盘、存储器芯片、ROM、RAM、ASIC、已配置的处理器、所有光学介质、所有磁带或其他磁性介质、或计算机处理器可以从中进行读取的任何其他介质。所述处理器和处理可以在一个或多个结构中,并且可以散布于一个或多个结构。处理器可以包括用于执行本文所述的方法(或方法的部分)中的一个或多个的代码。
综述
仅仅出于说明和描述的目的,提供了本发明的一些实施例的前述描述,并且其并不意在是穷尽的或将本发明局限于所公开的精确形式。在不背离本发明的精神和范围的情况下,其许多修改和调整对于本领域技术人员来说将是显而易见的。
在本文中对“一个实施例”或“实施例”的引用意为结合该实施例描述的特定特征、结构、操作或其他特性可以被包括在本发明的至少一个实现中。本发明并不限制于被描述为如此的特定实施例。短语“在一个实施例中”或“在实施例中”在本说明书中各种地方的出现不一定是指相同的实施例。可以将在本说明书中关于“一个实施例”描述的任何特定特征、结构、操作或其他特性与关于任何其他实施例描述的其他特征、结构、操作或其他特性相组合。
Claims (16)
1.一种用于生成触觉效果来确认对命令的接收的系统,所述系统包括:
光学传感器;
被配置成由用户接触的壳体;
被配置成将触觉效果输出到所述壳体的致动器;以及
与所述光学传感器和所述致动器进行通信的处理器,所述处理器被配置成:
从所述光学传感器接收与用户输入相关联的传感器信号;
识别所述用户输入并且确定与所述用户输入相关联的命令;
如果所述用户输入被识别并且所述命令被确定,则:
生成第一致动器信号,所述第一致动器信号被配置成促使所述致动器输出第一触觉效果;以及
将所述第一致动器信号传送给所述致动器;
否则:
生成第二致动器信号,所述第二致动器信号被配置成促使所述致动器输出第二触觉效果;以及
将所述第二致动器信号传送给所述致动器,
其中所述用户输入包括用户眼睛的对焦点。
2.根据权利要求1所述的系统,其中所述处理器进一步被配置成,如果所述用户输入被识别并且所述命令被确定,则:
执行与所述用户输入相关联的功能;
生成第三致动器信号,所述第三致动器信号被配置成促使所述致动器输出第三触觉效果;以及
一旦完成对所述功能的执行,则将所述第三致动器信号传送给所述致动器。
3.根据权利要求2所述的系统,其中所述第三触觉效果被配置成仿真所述功能。
4.根据权利要求1所述的系统,进一步包括与所述处理器进行通信的扬声器,并且其中所述处理器进一步被配置成:
生成音频信号,所述音频信号被配置成促使所述扬声器输出声音;以及
将所述音频信号传送给所述扬声器。
5.根据权利要求1所述的系统,进一步包括与所述处理器进行通信的显示器,并且其中所述处理器进一步被配置成:
生成显示信号,所述显示信号被配置成促使所述显示器显示图像;以及
将所述显示信号传送给所述显示器。
6.根据权利要求1所述的系统,其中所述第一触觉效果被配置成仿真所述命令。
7.根据权利要求1所述的系统,其中所述传感器、致动器和处理器被布置在所述壳体内。
8.根据权利要求1所述的系统,其中所述壳体包括以下中的一个:被配置为由用户佩戴的设备、移动电话、个人数字助理、触摸敏感表面、医疗警报设备、鼠标或键盘。
9.根据权利要求1所述的系统,其中所述用户输入包括医疗紧急情况的指示。
10.根据权利要求1所述的系统,其中命令是与操作相关联的请求,并且所述第一触觉效果被配置为提供与所述操作的状态相关联的信息。
11.一种计算机实现的方法,包括以下步骤:
从光学传感器接收与用户输入相关联的传感器信号;
识别所述用户输入并且确定与所述用户输入相关联的命令;
如果所述用户输入被识别并且所述命令被确定,则:
生成第一致动器信号,所述第一致动器信号被配置成促使致动器输出第一触觉效果;以及
将所述第一致动器信号传送给所述致动器;
否则:
生成第二致动器信号,所述第二致动器信号被配置成促使所述致动器输出第二触觉效果;以及
将所述第二致动器信号传送给所述致动器,
其中所述用户输入包括用户眼睛的对焦点。
12.根据权利要求11所述的计算机实现的方法,其中如果所述用户输入被识别并且所述命令被确定,则:
执行与所述命令相关联的功能;
生成第三致动器信号,所述第三致动器信号被配置成促使所述致动器输出第三触觉效果;以及
一旦完成对所述功能的执行,则将所述第三致动器信号传送给所述致动器。
13.根据权利要求12所述的计算机实现的方法,其中所述第三触觉效果被配置成仿真所述功能。
14.根据权利要求11所述的计算机实现的方法,进一步包括:
生成音频信号,所述音频信号被配置成促使扬声器输出声音;以及
将所述音频信号传送给所述扬声器。
15.根据权利要求11所述的计算机实现的方法,进一步包括:
生成显示信号,所述显示信号被配置成促使显示器显示图像;以及
将所述显示信号传送给所述显示器。
16.根据权利要求11所述的计算机实现的方法,其中所述第一触觉效果被配置成仿真所述命令。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/612,230 US8279052B2 (en) | 2009-11-04 | 2009-11-04 | Systems and methods for haptic confirmation of commands |
US12/612,230 | 2009-11-04 | ||
CN201080050101.XA CN102597915B (zh) | 2009-11-04 | 2010-11-01 | 用于对命令进行触觉确认的系统和方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080050101.XA Division CN102597915B (zh) | 2009-11-04 | 2010-11-01 | 用于对命令进行触觉确认的系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105278682A CN105278682A (zh) | 2016-01-27 |
CN105278682B true CN105278682B (zh) | 2018-09-28 |
Family
ID=43502849
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510604590.3A Expired - Fee Related CN105278682B (zh) | 2009-11-04 | 2010-11-01 | 用于对命令进行触觉确认的系统和方法 |
CN201080050101.XA Expired - Fee Related CN102597915B (zh) | 2009-11-04 | 2010-11-01 | 用于对命令进行触觉确认的系统和方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080050101.XA Expired - Fee Related CN102597915B (zh) | 2009-11-04 | 2010-11-01 | 用于对命令进行触觉确认的系统和方法 |
Country Status (6)
Country | Link |
---|---|
US (3) | US8279052B2 (zh) |
EP (1) | EP2497004B1 (zh) |
JP (2) | JP5666611B2 (zh) |
KR (2) | KR101792583B1 (zh) |
CN (2) | CN105278682B (zh) |
WO (1) | WO2011056752A1 (zh) |
Families Citing this family (128)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US8279052B2 (en) * | 2009-11-04 | 2012-10-02 | Immersion Corporation | Systems and methods for haptic confirmation of commands |
US8717152B2 (en) | 2011-02-11 | 2014-05-06 | Immersion Corporation | Sound to haptic effect conversion system using waveform |
US9448626B2 (en) | 2011-02-11 | 2016-09-20 | Immersion Corporation | Sound to haptic effect conversion system using amplitude value |
US8949958B1 (en) * | 2011-08-25 | 2015-02-03 | Amazon Technologies, Inc. | Authentication using media fingerprinting |
KR20130027665A (ko) * | 2011-09-08 | 2013-03-18 | 삼성전자주식회사 | 휴대단말기의 홈 네트워크 서비스 제어장치 및 방법 |
WO2013057769A1 (ja) * | 2011-10-20 | 2013-04-25 | 富士通株式会社 | 情報処理装置、情報処理装置の制御方法および制御プログラム |
US9715276B2 (en) | 2012-04-04 | 2017-07-25 | Immersion Corporation | Sound to haptic effect conversion system using multiple actuators |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9063570B2 (en) | 2012-06-27 | 2015-06-23 | Immersion Corporation | Haptic feedback control system |
US20140002376A1 (en) * | 2012-06-29 | 2014-01-02 | Immersion Corporation | Method and apparatus for providing shortcut touch gestures with haptic feedback |
US8896524B2 (en) | 2012-08-24 | 2014-11-25 | Immersion Corporation | Context-dependent haptic confirmation system |
US9805721B1 (en) * | 2012-09-21 | 2017-10-31 | Amazon Technologies, Inc. | Signaling voice-controlled devices |
US9092059B2 (en) * | 2012-10-26 | 2015-07-28 | Immersion Corporation | Stream-independent sound to haptic effect conversion system |
US9584642B2 (en) | 2013-03-12 | 2017-02-28 | Google Technology Holdings LLC | Apparatus with adaptive acoustic echo control for speakerphone mode |
US10381002B2 (en) | 2012-10-30 | 2019-08-13 | Google Technology Holdings LLC | Voice control user interface during low-power mode |
US10304465B2 (en) | 2012-10-30 | 2019-05-28 | Google Technology Holdings LLC | Voice control user interface for low power mode |
US10373615B2 (en) | 2012-10-30 | 2019-08-06 | Google Technology Holdings LLC | Voice control user interface during low power mode |
US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
US11157436B2 (en) | 2012-11-20 | 2021-10-26 | Samsung Electronics Company, Ltd. | Services associated with wearable electronic device |
US10423214B2 (en) | 2012-11-20 | 2019-09-24 | Samsung Electronics Company, Ltd | Delegating processing from wearable electronic device |
US11237719B2 (en) | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
US10185416B2 (en) | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
US8994827B2 (en) | 2012-11-20 | 2015-03-31 | Samsung Electronics Co., Ltd | Wearable electronic device |
US9477313B2 (en) | 2012-11-20 | 2016-10-25 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving outward-facing sensor of device |
US9030446B2 (en) | 2012-11-20 | 2015-05-12 | Samsung Electronics Co., Ltd. | Placement of optical sensor on wearable electronic device |
CN103051781A (zh) * | 2012-12-07 | 2013-04-17 | 百度在线网络技术(北京)有限公司 | 语音后台控制方法及移动终端 |
KR20150104615A (ko) | 2013-02-07 | 2015-09-15 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US9791921B2 (en) | 2013-02-19 | 2017-10-17 | Microsoft Technology Licensing, Llc | Context-aware augmented reality object commands |
US9196262B2 (en) * | 2013-03-14 | 2015-11-24 | Qualcomm Incorporated | User sensing system and method for low power voice command activation in wireless communication systems |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US10157618B2 (en) | 2013-05-02 | 2018-12-18 | Xappmedia, Inc. | Device, system, method, and computer-readable medium for providing interactive advertising |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101370770B1 (ko) * | 2013-07-10 | 2014-03-06 | 주식회사 바이오스페이스 | 어플리케이션 다운로드 방법 및 시스템 |
CN105453026A (zh) | 2013-08-06 | 2016-03-30 | 苹果公司 | 基于来自远程设备的活动自动激活智能响应 |
US11044248B2 (en) | 2013-09-13 | 2021-06-22 | Symbol Technologies, Llc | Method and device for facilitating mutual authentication between a server and a user using haptic feedback |
US20150084735A1 (en) * | 2013-09-25 | 2015-03-26 | Lenovo (Singapore) Pte. Ltd. | Wearable information handling device outputs |
US8768712B1 (en) * | 2013-12-04 | 2014-07-01 | Google Inc. | Initiating actions based on partial hotwords |
FR3015108B1 (fr) * | 2013-12-13 | 2019-05-31 | Dav | Controle d'actionneurs d'une surface de commande sensitive a retour haptique |
FR3015383B1 (fr) * | 2013-12-19 | 2017-01-13 | Dav | Dispositif de controle pour vehicule automobile et procede de commande |
US20150278737A1 (en) * | 2013-12-30 | 2015-10-01 | Google Inc. | Automatic Calendar Event Generation with Structured Data from Free-Form Speech |
US9288572B2 (en) | 2014-01-09 | 2016-03-15 | International Business Machines Corporation | Haptic microphone |
CN104777894A (zh) * | 2014-01-13 | 2015-07-15 | 联想(北京)有限公司 | 一种信息处理方法及穿戴式电子设备 |
EP3110606B1 (en) | 2014-02-24 | 2021-09-15 | Sony Group Corporation | Smart wearable devices and methods for automatically configuring capabilities with biology and environment capture sensors |
US10691332B2 (en) | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
US10613627B2 (en) | 2014-05-12 | 2020-04-07 | Immersion Corporation | Systems and methods for providing haptic feedback for remote interactions |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
JP2016024212A (ja) * | 2014-07-16 | 2016-02-08 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
KR102096146B1 (ko) | 2014-09-02 | 2020-04-28 | 애플 인크. | 가변 햅틱 출력을 위한 시맨틱 프레임워크 |
US20160132642A1 (en) * | 2014-11-06 | 2016-05-12 | Raz Carmi | Device and method for monitoring food intake |
DE102015100313B3 (de) * | 2015-01-12 | 2016-05-04 | Visteon Global Technologies Inc. | Anordnung und Verfahren zur drahtlosen Verbindung von Vorrichtungen |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10613629B2 (en) | 2015-03-27 | 2020-04-07 | Chad Laurendeau | System and method for force feedback interface devices |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10219062B2 (en) * | 2015-06-05 | 2019-02-26 | Apple Inc. | Wireless audio output devices |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US9978366B2 (en) | 2015-10-09 | 2018-05-22 | Xappmedia, Inc. | Event-based speech interactive media player |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10319371B2 (en) * | 2016-05-04 | 2019-06-11 | GM Global Technology Operations LLC | Disambiguation of vehicle speech commands |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179823B1 (en) | 2016-06-12 | 2019-07-12 | Apple Inc. | DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK |
DK201670737A1 (en) | 2016-06-12 | 2018-01-22 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback |
DK179802B1 (en) * | 2016-09-06 | 2019-06-26 | Apple Inc. | Devices, methods and graphical user interfaces for generating tactile outputs |
DK179278B1 (en) | 2016-09-06 | 2018-03-26 | Apple Inc | Devices, methods and graphical user interfaces for haptic mixing |
DK201670720A1 (en) | 2016-09-06 | 2018-03-26 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs |
US10198076B2 (en) * | 2016-09-06 | 2019-02-05 | Neosensory, Inc. | Method and system for providing adjunct sensory information to a user |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10943503B2 (en) * | 2017-04-17 | 2021-03-09 | Facebook, Inc. | Envelope encoding of speech signals for transmission to cutaneous actuators |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
DK201770372A1 (en) | 2017-05-16 | 2019-01-08 | Apple Inc. | TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
KR101934954B1 (ko) | 2017-05-24 | 2019-01-03 | 네이버 주식회사 | 음성요청에 대응하는 정보 전달 향상을 위한 출력 |
US10477298B2 (en) * | 2017-09-08 | 2019-11-12 | Immersion Corporation | Rendering haptics on headphones with non-audio data |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
CN112166408B (zh) * | 2018-05-25 | 2024-06-11 | 三星电子株式会社 | 用于提供智能响应的方法和设备 |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
JP2020053797A (ja) * | 2018-09-26 | 2020-04-02 | 株式会社デンソー | 着信案内装置 |
KR20200126158A (ko) * | 2019-04-29 | 2020-11-06 | 삼성전자주식회사 | 사운드를 출력하는 액추에이터를 포함하는 전자 장치와 이의 동작 방법 |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US11662820B2 (en) | 2020-01-08 | 2023-05-30 | Dell Products, Lp | System for a solid-state keyboard and touchpad providing haptic feedback |
US11093048B1 (en) | 2020-01-31 | 2021-08-17 | Dell Products, Lp | System for modified key actions and haptic feedback for smart typing assist with a solid-state keyboard and touchpad |
US10860112B1 (en) | 2020-01-31 | 2020-12-08 | Dell Products, Lp | System for a solid-state keyboard and touchpad with a single sheet cover for providing haptic feedback |
US11294469B2 (en) | 2020-01-31 | 2022-04-05 | Dell Products, Lp | System and method for processing user input via a reconfigurable haptic interface assembly for displaying a modified keyboard configuration |
US11579695B2 (en) | 2020-01-31 | 2023-02-14 | Dell Products, Lp | System and method for generating sound effects on fingertips with piezoelectric actuators of a haptic keyboard |
US11106772B2 (en) | 2020-01-31 | 2021-08-31 | Dell Products, Lp | System and method for continuous user identification via piezo haptic keyboard and touchpad dynamics |
US11301053B2 (en) | 2020-01-31 | 2022-04-12 | Dell Products, Lp | System for providing haptic feedback across full palm rest in fixed position of information handling system |
US11175745B2 (en) | 2020-01-31 | 2021-11-16 | Dell Products, Lp | System and method for application of piezo electric haptic keyboard personal typing profile |
US11106286B2 (en) | 2020-01-31 | 2021-08-31 | Dell Products, Lp | System and method for mood detection via piezo haptic keyboard dynamics |
US11079849B1 (en) | 2020-01-31 | 2021-08-03 | Dell Products, Lp | System for extended key actions and haptic feedback and optimized key layout for a solid-state keyboard and touchpad |
US11067269B1 (en) | 2020-01-31 | 2021-07-20 | Dell Products, Lp | System and method for backlight integration with electrical contact foil in piezoelectric haptic keyboard |
US10936073B1 (en) | 2020-01-31 | 2021-03-02 | Dell Products, Lp | System and method for generating high-frequency and mid-frequency audible sound via piezoelectric actuators of a haptic keyboard |
US11079816B1 (en) | 2020-01-31 | 2021-08-03 | Dell Products, Lp | System and method for vapor chamber directional heat dissipation for a piezoelectric keyboard assembly |
US11358054B2 (en) * | 2020-02-18 | 2022-06-14 | Electronic Arts Inc. | Systems and methods for transcribing user interface elements of a game application into haptic feedback |
US11627417B2 (en) * | 2020-03-26 | 2023-04-11 | Expensify, Inc. | Voice interactive system |
US11043220B1 (en) | 2020-05-11 | 2021-06-22 | Apple Inc. | Digital assistant hardware abstraction |
WO2022080538A1 (ko) * | 2020-10-16 | 2022-04-21 | 엘지전자 주식회사 | 이동 단말기 |
US11977683B2 (en) * | 2021-03-12 | 2024-05-07 | Apple Inc. | Modular systems configured to provide localized haptic feedback using inertial actuators |
CN113971954B (zh) * | 2021-12-23 | 2022-07-12 | 广州小鹏汽车科技有限公司 | 语音交互方法及装置、车辆及存储介质 |
US20240168555A1 (en) * | 2022-11-16 | 2024-05-23 | Msg Entertainment Group, Llc | Portable haptic systems for use within a venue |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3736551A (en) * | 1970-11-16 | 1973-05-29 | Us Navy | Swimmers tactile command navigation apparatus |
US5767796A (en) * | 1995-10-19 | 1998-06-16 | U.S Philips Corporation | Navigation system for a vehicle |
WO1999045531A1 (en) * | 1998-03-03 | 1999-09-10 | Microsoft Corporation | Apparatus and method for providing speech input to a speech recognition system |
WO2004053830A1 (en) * | 2002-12-08 | 2004-06-24 | Immersion Corporation | Haptic communication devices |
GB2409257A (en) * | 2003-12-17 | 2005-06-22 | Timothy Guy Carpenter | Alphanumeric or command input using an actuator held by detents and a resiliently biased follower |
CN1802694A (zh) * | 2003-05-08 | 2006-07-12 | 语音信号科技公司 | 信噪比中介的语音识别算法 |
CN101467118A (zh) * | 2006-04-10 | 2009-06-24 | 英默森公司 | 具有触觉产生的参照键的触模板 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8028A (en) * | 1851-04-08 | Hokse-poweb | ||
US2009A (en) * | 1841-03-18 | Improvement in machines for boring war-rockets | ||
US2010A (en) * | 1841-03-18 | Machine foe | ||
JPH04372012A (ja) * | 1991-06-20 | 1992-12-25 | Fuji Xerox Co Ltd | 入力装置 |
US5734373A (en) | 1993-07-16 | 1998-03-31 | Immersion Human Interface Corporation | Method and apparatus for controlling force feedback interface systems utilizing a host computer |
DE19608869C2 (de) * | 1996-03-07 | 1998-03-26 | Daimler Benz Ag | Bediensystem, insbesondere für Komponenten in einem Kraftfahrzeug |
DE69820582T2 (de) | 1997-07-21 | 2004-09-30 | Koninklijke Philips Electronics N.V. | Informationsverarbeitingssystem |
JP4135316B2 (ja) * | 2000-12-15 | 2008-08-20 | ブラザー工業株式会社 | 機械翻訳装置 |
US6912399B2 (en) * | 2001-01-22 | 2005-06-28 | Royal Thoughts, Llc | Cellular telephone with programmable authorized telephone number |
US20020107695A1 (en) * | 2001-02-08 | 2002-08-08 | Roth Daniel L. | Feedback for unrecognized speech |
US20060066569A1 (en) * | 2003-12-08 | 2006-03-30 | Immersion Corporation, A Delaware Corporation | Methods and systems for providing haptic messaging to handheld communication devices |
JP2006065507A (ja) * | 2004-08-25 | 2006-03-09 | Sony Corp | 振動伝達機構、振動波形データ作成方法、触覚機能付き入力装置及び電子機器 |
CN101677762B (zh) * | 2008-02-28 | 2012-08-22 | 松下电器产业株式会社 | 视线检测装置以及视线检测方法 |
US9317116B2 (en) * | 2009-09-09 | 2016-04-19 | Immersion Corporation | Systems and methods for haptically-enhanced text interfaces |
US8902050B2 (en) * | 2009-10-29 | 2014-12-02 | Immersion Corporation | Systems and methods for haptic augmentation of voice-to-text conversion |
US8279052B2 (en) * | 2009-11-04 | 2012-10-02 | Immersion Corporation | Systems and methods for haptic confirmation of commands |
-
2009
- 2009-11-04 US US12/612,230 patent/US8279052B2/en active Active
-
2010
- 2010-11-01 KR KR1020167034392A patent/KR101792583B1/ko active IP Right Grant
- 2010-11-01 EP EP10779869.6A patent/EP2497004B1/en active Active
- 2010-11-01 CN CN201510604590.3A patent/CN105278682B/zh not_active Expired - Fee Related
- 2010-11-01 WO PCT/US2010/054967 patent/WO2011056752A1/en active Application Filing
- 2010-11-01 JP JP2012537166A patent/JP5666611B2/ja active Active
- 2010-11-01 KR KR1020127014416A patent/KR20120102678A/ko active Search and Examination
- 2010-11-01 CN CN201080050101.XA patent/CN102597915B/zh not_active Expired - Fee Related
-
2012
- 2012-09-05 US US13/603,578 patent/US8581710B2/en active Active
-
2013
- 2013-10-10 US US14/050,784 patent/US9318006B2/en active Active
-
2014
- 2014-12-10 JP JP2014249923A patent/JP5977325B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3736551A (en) * | 1970-11-16 | 1973-05-29 | Us Navy | Swimmers tactile command navigation apparatus |
US5767796A (en) * | 1995-10-19 | 1998-06-16 | U.S Philips Corporation | Navigation system for a vehicle |
WO1999045531A1 (en) * | 1998-03-03 | 1999-09-10 | Microsoft Corporation | Apparatus and method for providing speech input to a speech recognition system |
WO2004053830A1 (en) * | 2002-12-08 | 2004-06-24 | Immersion Corporation | Haptic communication devices |
CN1802694A (zh) * | 2003-05-08 | 2006-07-12 | 语音信号科技公司 | 信噪比中介的语音识别算法 |
GB2409257A (en) * | 2003-12-17 | 2005-06-22 | Timothy Guy Carpenter | Alphanumeric or command input using an actuator held by detents and a resiliently biased follower |
CN101467118A (zh) * | 2006-04-10 | 2009-06-24 | 英默森公司 | 具有触觉产生的参照键的触模板 |
Also Published As
Publication number | Publication date |
---|---|
KR20160145844A (ko) | 2016-12-20 |
EP2497004B1 (en) | 2019-10-09 |
EP2497004A1 (en) | 2012-09-12 |
JP5666611B2 (ja) | 2015-02-12 |
CN105278682A (zh) | 2016-01-27 |
US20130088340A1 (en) | 2013-04-11 |
JP2015092366A (ja) | 2015-05-14 |
US20140039900A1 (en) | 2014-02-06 |
WO2011056752A1 (en) | 2011-05-12 |
CN102597915A (zh) | 2012-07-18 |
JP5977325B2 (ja) | 2016-08-24 |
CN102597915B (zh) | 2015-11-25 |
US8581710B2 (en) | 2013-11-12 |
KR20120102678A (ko) | 2012-09-18 |
US8279052B2 (en) | 2012-10-02 |
US20110102161A1 (en) | 2011-05-05 |
JP2013510350A (ja) | 2013-03-21 |
KR101792583B1 (ko) | 2017-11-02 |
US9318006B2 (en) | 2016-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105278682B (zh) | 用于对命令进行触觉确认的系统和方法 | |
CN105392078B (zh) | 可穿戴电子设备 | |
CN102597914B (zh) | 用于语音到文本转换的触觉增加的系统和方法 | |
KR20150099156A (ko) | 무선 리시버 및 그 제어 방법 | |
CN105093526A (zh) | 眼镜式终端及其控制方法 | |
TW200840313A (en) | Mobile communication terminal for providing tactile interface | |
US9635164B2 (en) | Remote control for electronic device | |
JP2017147652A (ja) | 情報処理装置 | |
US11627417B2 (en) | Voice interactive system | |
US9167076B2 (en) | Ring accessory | |
EP2731369B1 (en) | Mobile terminal and control method thereof | |
CN107146625A (zh) | 一种语音识别的方法、终端及存储介质 | |
CN106856416B (zh) | 一种可穿戴设备的来电提醒方法及可穿戴设备 | |
US9213407B2 (en) | Ring accessory | |
JP4924178B2 (ja) | アラーム装置及びそれを用いた携帯端末 | |
KR101264049B1 (ko) | 이동통신단말장치의 가상 로봇과 동기화되는 애완 로봇 | |
JPWO2019220742A1 (ja) | 情報処理装置、情報処理方法、情報処理プログラム、端末装置、端末装置の制御方法および制御プログラム | |
Niwa et al. | An Emergency Application for Smartphones Based on Rhythm Pattern Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180928 |
|
CF01 | Termination of patent right due to non-payment of annual fee |