CN104517608A - 使用清音无喉语音控制系统 - Google Patents
使用清音无喉语音控制系统 Download PDFInfo
- Publication number
- CN104517608A CN104517608A CN201410513365.4A CN201410513365A CN104517608A CN 104517608 A CN104517608 A CN 104517608A CN 201410513365 A CN201410513365 A CN 201410513365A CN 104517608 A CN104517608 A CN 104517608A
- Authority
- CN
- China
- Prior art keywords
- larynx
- voiceless sound
- operator
- equipment
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
- A61B5/749—Voice-controlled interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/16—Transforming into a non-visible representation
Abstract
本发明提供了设备,其包括传感器,所述传感器配置成在操作装备期间在适于感测由操作者生成的清音无喉语音振动的位置被固定到装备的所述操作者的颈部。设备还包括处理器,所述处理器配置成接收并处理由所述传感器输出的信号,以便测量清音无喉语音振动,并且以便响应于所测量的清音无喉语音振动而生成用于装备的控制信号。
Description
技术领域
本发明整体涉及设备控制,并具体地涉及使用非声振动的设备的控制。
背景技术
授予Islam的美国专利8,098,423,其公开内容以引用方式并入本文,描述了医疗装置的嗓音控制的系统和方法。该公开指出医疗装置包括能够插入的部分,该能够插入的部分能够被插入与患者身体相关联的孔中。该公开还指出能够插入的部分包括自动头部单元,该自动头部单元能够至少部分地基于一个或多个控制信号,在至少两个运动轴上进行操纵,而且嗓音控制可用于该操纵。
授予Mahapatra等人的PCT专利申请PCT/US2008/082835,其公开内容以引用方式并入本文,描述了经剑突下过程摆放的可操纵的心外膜起搏导管系统。该公开指出该发明可用于在采用剑突下进入的专门电生理手术中所使用的医疗系统和装置上的嗓音控制的领域。
授予Brusell等人的PCT专利申请PCT/SE2003/001895,其公开内容以引用方式并入本文,描述了在不需要使用自然发音语音的情况下产生模拟语音的方法,其中当用户执行语音运动时,检测运动和病症。超声信号主要在朝向用户的嘴和/或喉部区域的方向上从外部发出,并且记录反射的超声信号。
授予Teaney的美国专利5,171,930,其公开内容以引用方式并入本文,描述了通过用作控制器输入的电声门图来驱动嗓音控制音乐装置。电声门图(EGG)具有定位在用户颈部周围的带形的换能器。EGG将用户声带的声襞打开和闭合的循环转换成干净的电信号,该公开权利要求将该电信号具体地相对于音调准确。
授予Moeller等人的美国专利申请2012/0299826,其公开内容以引用方式并入本文,描述了一种人/机(HM)界面,该界面允许人操作者使用操作者的声道的几何自由度来控制对应的机器。在一个实施例中,HM界面具有声传感器,该声传感器配置成使用声反射计对操作者的声道的几何形状进行实时监控。信号处理器例如使用信号特征选择和量化分析了由声传感器检测的反射的声信号,并且将这些信号转化成用于机器的命令和/或指令。
以引用方式并入本专利申请中的文献将视为本专利申请的整体部分,但除了在这些并入的文献中以与本说明书中明确或隐含地给出的定义相冲突的方式定义的任何术语,而只应考虑本说明书中的定义。
发明内容
本发明的实施例提供了装备,所述装备包括:
传感器,其配置成在操作装备期间在适于感测由操作者生成的清音无喉语音振动的位置被固定到所述装备的所述操作者的颈部;以及
处理器,其配置成接收并处理由传感器输出的信号,以便测量清音无喉语音振动,并且以便响应于测量的清音无喉语音振动而生成用于装备的控制信号。
在本发明所公开的实施例中,清音无喉语音振动由操作者生成的一组不同的清音无喉声振动组成,并且测量清音无喉语音振动包括区分组内的清音无喉声振动。
在另外的本发明所公开的实施例中,清音无喉语音振动由操作者生成的一组不同的清音无喉声振动组成,并且处理器配置成存储不同的清音无喉声振动的所述组和由操作者选择的用于装备的不同控制信号的集之间的一一对应。
在另选的实施例中,装备配置成在患者的心脏上执行消融。
在另外的另选实施例中,传感器包括肌电描记控制的电子喉(EMG-EL)。
根据本发明的实施例,还提供了一种方法,所述方法包括:
在操作装备期间在适于感测由操作者生成的清音无喉语音振动的位置将传感器固定到装备的所述操作者的颈部;以及
接收并处理由传感器输出的信号,以便测量清音无喉语音振动,并且以便响应于测量的清音无喉语音振动而生成用于装备的控制信号。
结合附图,通过以下对本公开的实施例的详细说明,将更全面理解本公开,该附图中:
附图说明
图1是根据本发明的实施例的清音无喉语音振动检测和控制系统的示意性图示;并且
图2是流程图,其示出根据本发明的实施例的激活图1系统的传感器所执行的步骤。
具体实施方式
综述
本发明的实施例包括一种系统,该系统允许装备的操作者使用由操作者生成的清音无喉语音振动来控制装备。系统的传感器在适于感测生成无音声的振动的位置被固定到所述操作者的颈部,其中所述传感器能够感测由操作者生成的清音无喉声振动。传感器配置成响应于振动而生成信号,并且系统处理器配置成接收并处理信号,以便测量清音无喉语音振动。
通常,在系统的可操作阶段之前执行的学习阶段中,操作者生成一组不同的清音无喉声振动或此类振动的组合,并且使用由传感器生成的相应信号,使振动以一一对应的方式与装备的相应控制信号相关联。在可操作阶段中,处理器监控响应于特定的操作者清音无喉声振动或振动的组合而生成的信号的传感器,并且使用一一对应来确定将要被施加至该装备的对应控制信号。
使用清音无喉语音振动控制装备具有多个优点。例如,在使用多个人员的医疗手术期间,系统操作者可因语言障碍而误解执行该手术的医师的要求。除了语言误会外,例如医师吐字不清或因医师的面罩导致医师语音听不清楚的其他因素也可造成从医师到操作者的错误传达。
系统描述
现在参考图1,图1为根据本发明的实施例的清音无喉语音振动检测和控制系统20的示意性图示。下面描述了清音无喉语音振动和清音无喉声振动,两者均用于系统20中。在以下公开中,假设系统20被实现为用于部分控制在医疗手术期间所使用的装备22的操作,本文中假设包括在患者26的心脏24上的消融手术。在一些实施例中,装备22可对应于购自加利福尼亚州91765,钻石吧市钻石峡谷路3333号的Biosense Webster公司的CARTO系统。然而,应当理解以举例的方式描述了使用装备22的该具体实施,使得系统20可用于控制其他设备或装备,包括与医疗手术未必相关联的设备或装备。
在系统20中,包括在装备22内的探头28被插入患者26的心脏24的心室中。装备22的操作者30可使用该探头执行心脏24局部的消融。
通过系统控制器32管理系统20的功能,该控制器通过与存储器36通信的处理器34而操作,在存储器中存储了用于系统20操作的软件。存储器36包括具有振动动作表50的振动模块38;下面更详细地描述了模块38和表50的功能和特性。
控制器32通常为包括通用计算机处理器的工业标准个人计算机。然而,在一些实施例中,控制器的功能中的至少一些使用定制设计的硬件和软件来执行,例如专用集成电路(ASIC)或现场可编程门阵列(FPGA)。控制器32通常安装在控制台40中,并且可由操作者30使用控制台的控制机构42来操作;控制机构通常包括指向装置、触摸屏和/或允许操作者设定系统20的参数的小键盘。连接至控制台40的屏幕44可向操作者28显示一个或多个不同的图形用户界面(GUI),从而将反馈提供至操作者以控制系统20。屏幕还向操作者30显示手术结果。
例如,可将存储器36中的软件通过网络以电子形式下载到控制器。可替代地或除此之外,软件可在非临时性有形介质诸如光学、磁性或电子存储介质上提供。
传感器60在操作者的颈部附近附接到操作者30,并且传感器配置成检测由操作者产生的清音无喉语音振动。通常,传感器60附接到操作者30,使得传感器尽可能靠近操作者咽部。例如,传感器可以是由操作者佩戴的项链的一部分。传感器60将其接收的清音无喉语音振动转换成电信号,并且电信号被传输至系统控制器32。通常,信号传输以无线传输方式实现,并且在这种情况下,上述项链的一部分可被配置为用于无线传输的天线。可替代地,信号传输可以经由耦接于传感器和系统控制器之间的缆线。
在本公开中并在权利要求中,术语清音无喉语音振动和清音无喉声振动应被理解为在相应的语音说话和发音期间,系统20的操作者的颈部肌肉的振动。尽管语音说话或发音,但是操作者并未使用他/她的嗓音。通过传感器60可检测振动,该传感器60通常包括肌电描记控制的电子喉(EMG-EL)。
在2007年4月的Journal of Speech,Language,and Hearing Research,第50卷,第335-351页的Goldstein等人的标题为Training Effects SpeechProduction Using a Hands-Free Electromyographically Controlled Electrolarynx(关于使用免提的肌电描记控制的电子喉的语音产生的训练效果)的第一篇文章中,以及在2004年2月的IEEE Transactions on BiomedicalEngineering,第51卷,第2号的Goldstein等人的标题为DesignImplementation a Hands-Free Electrolarynx Device Controlled Neck StrapMuscle Electromyographic Activity的第二篇文章中描述了可用作传感器60的EMG-EL。两篇文章均以引用方式并入本文。Goldstein的EMG-EL使用了由Boston MA的DelSys Inc.生产的表面EMG电极。
在以上引用的第一篇文章中提供了EMG-EL操作者可如何产生合适的无喉语音振动和声振动的描述。如该文所解释,具有正常颈部解剖结构的参与者要求不要使用其正常嗓音,而是保持其呼吸和嘴特定元音、单词和句子,以便模拟喉切除患者的病症。换句话讲,本文涉及的清音无喉语音振动和声振动模拟了喉切除患者在试图说话时的病症。
图2是流程图100,其示出根据本发明的实施例的激活和操作传感器60所执行的步骤。流程图100被划分为两个区段,即学习模式阶段102和操作模式阶段104,在学习模式阶段中,操作者30教授系统20由操作者30生成的特定清音无喉声振动,本文中统称为清音无喉语音振动,在操作模式阶段中,系统应用学习区段的结果以便操作系统20。
在学习区段的初始步骤110中,传感器60被附接至操作者28,基本上如上所述,并且操作者将传感器配置成与系统控制器32通信。本文中,该通信被假设为无线通信。通常,为了配置所述通信,操作者使用从振动模块38中检索到的构造GUI,该构造GUI在屏幕44上呈现给操作者。
在动作选择步骤112中,操作者选择由系统20针对通过传感器60检测的特定清音无喉声振动将要执行的动作。通常,在使用装备22执行的手术期间,存在操作者使用控制机构42执行的相对大数量的动作。此类动作包括选择例如以图形或表格形式呈现被执行的手术结果的方法。其他动作包括放大/最小化特定图像视图、平移或旋转图像。例如,在以上涉及的Carto系统中的消融手术期间,操作者可使用控制机构42呈现在消融期间所施加的力和功率,以及施加消融的时间的图形和/或数字显示。操作者还可使用控制机构42来呈现正在消融的组织的温度的图形和/或数字显示。
使用控制机构42的装备22,和在其中实现系统20的其他设备或装备的其他动作示例对于本领域技术人员将显而易见,并且假设所有此类动作包括在本发明的范围内。
在学习步骤114中,操作者选择了在步骤112中挑选的动作之一,并且生成清音无喉声振动,或者此类声振动的组合,其将被用来执行所选的动作。响应于所生成的无喉声振动,传感器60将对应的信号传输至控制器32。虽然正生成无喉声并且正在接收信号,但是控制器32可使用从模块38检索并在屏幕44上显示的学习GUI向操作者确认正在接收清音无喉声振动信号。通常,在足够控制器能区分无喉声振动信号与其他无喉声振动信号的一定长度的时间后,控制器向操作者指出该信号是与其他清音无喉声振动信号可分辨的可识别清音无喉声振动信号。时间长度可以是预调的时间长度,通常为秒的量级,该时间长度可在无需对操作者身体部分进行过度实验的情况下确定。可替代地,例如在已多次重复步骤114后,控制器32可自适应地设定时间长度。
在对应步骤116中,控制器32将在步骤114中接收的可识别清音无喉声振动或声振动的组合与在步骤112中由操作者选择的动作相关联。如箭头118所示,操作者30反复进行步骤114和116,使得控制器32在特定声振动或声振动的组合和装备22的动作之间生成一一对应集。控制器32将一一对应集存储在存储器36内。该集可作为表50存储在模块38内,或者作为另外一种选择该集可通过任何其他合适的存储方法存储。
在第一可操作步骤120中,操作者30引发装备22的操作,并且激活系统20。通常,由操作者30使用控制机构42和从模块38中检索并且在屏幕44上显示的可操作GUI,执行系统20的激活,从而向控制器32提供指令。该指令允许控制器接收来自传感器60的信号,所述信号响应于由传感器所检测的清音无喉语音振动而生成。该指令还允许控制器访问表50。
在第二可操作步骤122中,控制器32监控传感器60,并且周期性地检查来自传感器的信号。如果检测到信号,则控制器访问振动动作表,并且根据表确定对应于信号的动作。
在执行动作步骤124中,控制器32实现在步骤122中所识别的动作。在一些实施例中,控制器可例如通过在屏幕44上显示查询,为操作者验证将要执行的特定动作。(通常该验证降低了系统20执行不想要的动作的可能性。)例如,操作者可通过重复在步骤122中检测的清音无喉声振动或声振动的组合,和/或通过使用本领域已知的其他方式,例如使用控制机构42中的一个,来确认将要做出的动作。
如箭头126所示,在系统20的可操作阶段期间反复进行步骤122和124。
应当理解,上述实施例仅以举例的方式进行引用,并且本发明并不限于上面具体示出和描述的内容。相反,本发明的范围包括上述各种特征的组合和子组合以及其变型和修改,本领域技术人员在阅读上述说明时将会想到所述变型和修改,并且所述变型和修改并未在现有技术中公开。
Claims (10)
1.一种设备,包括:
传感器,其配置成在操作装备期间在适于感测由操作者生成的清音无喉语音振动的位置被固定到所述装备的所述操作者的颈部;以及
处理器,其配置成接收并处理由所述传感器输出的信号,以便测量所述清音无喉语音振动,并且以便响应于所测量的清音无喉语音振动而生成用于所述装备的控制信号。
2.根据权利要求1所述的设备,其中所述清音无喉语音振动包括由所述操作者生成的一组不同的清音无喉声振动,并且其中测量所述清音无喉语音振动包括区分所述组内的所述清音无喉声振动。
3.根据权利要求1所述的设备,其中所述清音无喉语音振动包括由所述操作者生成的一组不同的清音无喉声振动,并且其中所述处理器配置成存储不同的清音无喉声振动的所述组和由所述操作者选择的用于所述装备的不同控制信号的集之间的一一对应。
4.根据权利要求1所述的设备,其中所述装备配置成在患者的心脏上执行消融。
5.根据权利要求1所述的设备,其中所述传感器包括肌电描记控制的电子喉(EMG-EL)。
6.一种方法,包括:
在操作装备期间在适于感测由操作者生成的清音无喉语音振动的位置将传感器固定到所述装备的所述操作者的颈部;以及
接收并处理由所述传感器输出的信号,以便测量所述清音无喉语音振动,并且以便响应于所测量的清音无喉语音振动而生成用于所述装备的控制信号。
7.根据权利要求6所述的方法,其中所述清音无喉语音振动包括由所述操作者生成的一组不同的清音无喉声振动,并且其中测量所述清音无喉语音振动包括区分所述组内的所述清音无喉声振动。
8.根据权利要求6所述的方法,其中所述清音无喉语音振动包括由所述操作者生成的一组不同的清音无喉声振动,所述方法还包括存储不同的清音无喉声振动的所述组和由所述操作者选择的用于所述装备的不同控制信号的集之间的一一对应。
9.根据权利要求6所述的方法,其中所述装备配置成在患者的心脏上执行消融。
10.根据权利要求6所述的方法,其中所述传感器包括肌电描记控制的电子喉(EMG-EL)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/041,271 US9640198B2 (en) | 2013-09-30 | 2013-09-30 | Controlling a system using voiceless alaryngeal speech |
US14/041271 | 2013-09-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104517608A true CN104517608A (zh) | 2015-04-15 |
CN104517608B CN104517608B (zh) | 2020-08-18 |
Family
ID=51726319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410513365.4A Active CN104517608B (zh) | 2013-09-30 | 2014-09-29 | 使用清音无喉语音控制系统 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9640198B2 (zh) |
EP (1) | EP2854132B1 (zh) |
JP (1) | JP6490375B2 (zh) |
CN (1) | CN104517608B (zh) |
AU (1) | AU2014233625B2 (zh) |
CA (1) | CA2865341A1 (zh) |
IL (1) | IL234667B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106448673A (zh) * | 2016-09-18 | 2017-02-22 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种汉语电子喉语音转换方法 |
CN110234472A (zh) * | 2017-01-30 | 2019-09-13 | 阿克托梅德股份有限公司 | 用于产生以语音控制手术辅助系统的电机控制方式移动的机器人运动学的控制信号的手术辅助系统和方法 |
CN110767208A (zh) * | 2019-11-18 | 2020-02-07 | 中国矿业大学(北京) | 一种基于面部表面肌肉信号的不发声指令识别的辅助救援通讯方法及装置 |
WO2021026881A1 (zh) * | 2019-08-15 | 2021-02-18 | 深圳迈瑞生物医疗电子股份有限公司 | 医疗设备及医疗设备系统 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10255906B2 (en) * | 2016-12-14 | 2019-04-09 | International Business Machines Corporation | Sensors and analytics for reading comprehension |
CN110956949B (zh) * | 2019-10-24 | 2022-10-04 | 中国人民解放军军事科学院国防科技创新研究院 | 一种口含式缄默通信方法与系统 |
CN113823278B (zh) * | 2021-09-13 | 2023-12-08 | 北京声智科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1227476A (zh) * | 1996-06-24 | 1999-09-01 | 电脑动作公司 | 多功能外科控制系统和切换接口装置 |
JP2000267695A (ja) * | 1999-01-14 | 2000-09-29 | Nissan Motor Co Ltd | 車載機器のリモートコントロール装置 |
GB2422238A (en) * | 2005-01-17 | 2006-07-19 | Univ Hull | Generation of data from speech or voiceless mouthed speech |
WO2007024983A2 (en) * | 2005-08-22 | 2007-03-01 | Ablation Frontiers | User interface for tissue ablation system |
US20070106501A1 (en) * | 2005-11-07 | 2007-05-10 | General Electric Company | System and method for subvocal interactions in radiology dictation and UI commands |
US20080010071A1 (en) * | 2006-07-07 | 2008-01-10 | Michael Callahan | Neural translator |
CN101916566A (zh) * | 2010-07-09 | 2010-12-15 | 西安交通大学 | 一种电子喉语音重建方法及其系统 |
US20120232547A1 (en) * | 2011-03-08 | 2012-09-13 | Cohen Todd J | Ablation catheter system with safety features |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5171930A (en) | 1990-09-26 | 1992-12-15 | Synchro Voice Inc. | Electroglottograph-driven controller for a MIDI-compatible electronic music synthesizer device |
WO2002050652A2 (en) * | 2000-12-18 | 2002-06-27 | Human Bionics Llc, | Method and system for initiating activity based on sensed electrophysiological data |
US7259906B1 (en) | 2002-09-03 | 2007-08-21 | Cheetah Omni, Llc | System and method for voice control of medical devices |
WO2009062061A1 (en) | 2007-11-09 | 2009-05-14 | University Of Virginia Patent Foundation | Steerable epicardial pacing catheter system placed via the subxiphoid process |
JP5256119B2 (ja) * | 2008-05-27 | 2013-08-07 | パナソニック株式会社 | 補聴器並びに補聴器に用いられる補聴処理方法及び集積回路 |
US20120299826A1 (en) | 2011-05-24 | 2012-11-29 | Alcatel-Lucent Usa Inc. | Human/Machine Interface for Using the Geometric Degrees of Freedom of the Vocal Tract as an Input Signal |
US9931154B2 (en) * | 2012-01-11 | 2018-04-03 | Biosense Webster (Israel), Ltd. | Touch free operation of ablator workstation by use of depth sensors |
-
2013
- 2013-09-30 US US14/041,271 patent/US9640198B2/en active Active
-
2014
- 2014-09-15 IL IL234667A patent/IL234667B/en active IP Right Grant
- 2014-09-25 JP JP2014195299A patent/JP6490375B2/ja active Active
- 2014-09-26 AU AU2014233625A patent/AU2014233625B2/en not_active Ceased
- 2014-09-26 CA CA 2865341 patent/CA2865341A1/en not_active Abandoned
- 2014-09-29 EP EP14186865.3A patent/EP2854132B1/en active Active
- 2014-09-29 CN CN201410513365.4A patent/CN104517608B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1227476A (zh) * | 1996-06-24 | 1999-09-01 | 电脑动作公司 | 多功能外科控制系统和切换接口装置 |
JP2000267695A (ja) * | 1999-01-14 | 2000-09-29 | Nissan Motor Co Ltd | 車載機器のリモートコントロール装置 |
GB2422238A (en) * | 2005-01-17 | 2006-07-19 | Univ Hull | Generation of data from speech or voiceless mouthed speech |
WO2007024983A2 (en) * | 2005-08-22 | 2007-03-01 | Ablation Frontiers | User interface for tissue ablation system |
US20070106501A1 (en) * | 2005-11-07 | 2007-05-10 | General Electric Company | System and method for subvocal interactions in radiology dictation and UI commands |
US20080010071A1 (en) * | 2006-07-07 | 2008-01-10 | Michael Callahan | Neural translator |
CN101916566A (zh) * | 2010-07-09 | 2010-12-15 | 西安交通大学 | 一种电子喉语音重建方法及其系统 |
US20120232547A1 (en) * | 2011-03-08 | 2012-09-13 | Cohen Todd J | Ablation catheter system with safety features |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106448673A (zh) * | 2016-09-18 | 2017-02-22 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种汉语电子喉语音转换方法 |
CN106448673B (zh) * | 2016-09-18 | 2019-12-10 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种汉语电子喉语音转换方法 |
CN110234472A (zh) * | 2017-01-30 | 2019-09-13 | 阿克托梅德股份有限公司 | 用于产生以语音控制手术辅助系统的电机控制方式移动的机器人运动学的控制信号的手术辅助系统和方法 |
WO2021026881A1 (zh) * | 2019-08-15 | 2021-02-18 | 深圳迈瑞生物医疗电子股份有限公司 | 医疗设备及医疗设备系统 |
CN110767208A (zh) * | 2019-11-18 | 2020-02-07 | 中国矿业大学(北京) | 一种基于面部表面肌肉信号的不发声指令识别的辅助救援通讯方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CA2865341A1 (en) | 2015-03-30 |
JP6490375B2 (ja) | 2019-03-27 |
AU2014233625A1 (en) | 2015-04-16 |
CN104517608B (zh) | 2020-08-18 |
US20150095036A1 (en) | 2015-04-02 |
JP2015069653A (ja) | 2015-04-13 |
EP2854132A1 (en) | 2015-04-01 |
AU2014233625B2 (en) | 2019-09-19 |
IL234667B (en) | 2018-01-31 |
EP2854132B1 (en) | 2017-05-10 |
US9640198B2 (en) | 2017-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104517608A (zh) | 使用清音无喉语音控制系统 | |
EP1676540B1 (en) | Apparatus for performing a voice-assisted orthopaedic surgical procedure | |
Dromey et al. | Intentional changes in sound pressure level and rate: Their impact on measures of respiration, phonation, and articulation | |
US10013082B2 (en) | Operating system with haptic interface for minimally invasive, hand-held surgical instrument | |
US9330497B2 (en) | User interface devices for electrophysiology lab diagnostic and therapeutic equipment | |
KR101597701B1 (ko) | 의료 기술 제어기 | |
US20070123750A1 (en) | Catheter apparatus and methods of using same | |
JP2024012497A (ja) | コミュニケーション方法及びシステム | |
Dromey et al. | Speech interactions with linguistic, cognitive, and visuomotor tasks | |
Rastle et al. | Reading aloud begins when the computation of phonology is complete. | |
CN104363865A (zh) | 用于口吃减轻的方法和装置 | |
JP7083143B2 (ja) | 超音波探触子の誘導ナビゲーション | |
KR20180042702A (ko) | 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템 | |
JP2009515260A (ja) | 放射線医療のディクテーションおよびuiコマンドにおける音声下対話のシステムおよび方法 | |
Perkell | Five decades of research in speech motor control: What have we learned, and where should we go from here? | |
Davidson et al. | The impact of concurrent linguistic tasks on participants’ identification of spearcons | |
JPH1094529A (ja) | 医療装置 | |
Divenyi et al. | Dynamics of speech production and perception | |
CN109044377A (zh) | 一种注意力测试装置及心理测试设备 | |
US20230067021A1 (en) | System and method | |
JP2010032861A (ja) | 医療用実習装置 | |
KR20210028370A (ko) | 가상현실 기반 지능형 표준화환자 훈련 및 평가 시스템 | |
US9436910B2 (en) | Method, device and database for reconstructing intended activities from neural signals using frequencies of representations | |
Wijn | A Roadmap towards Touchless Interaction during Image-guided Therapy: Enhancing workflow in complex medical procedures through strategic technology implementation | |
Sharma et al. | Human‐Machine Interface Improving Quality of Patient Care |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |