CN108885871A - 声学地图命令情境化和设备控制 - Google Patents
声学地图命令情境化和设备控制 Download PDFInfo
- Publication number
- CN108885871A CN108885871A CN201680077392.9A CN201680077392A CN108885871A CN 108885871 A CN108885871 A CN 108885871A CN 201680077392 A CN201680077392 A CN 201680077392A CN 108885871 A CN108885871 A CN 108885871A
- Authority
- CN
- China
- Prior art keywords
- user
- audio
- environment
- processing
- order
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 23
- 238000011282 treatment Methods 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims description 15
- 238000004458 analytical method Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 230000005236 sound signal Effects 0.000 claims description 3
- 238000003491 array Methods 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims 2
- 238000009826 distribution Methods 0.000 claims 1
- 230000007613 environmental effect Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004113 cell culture Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000012864 cross contamination Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000004846 x-ray emission Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
提供了一种系统,其中执行协调处理的用户被定位在基于音频输入的复杂环境中。基于系统用户发声来检测和执行音频命令。可用命令受用户状态、位置、处理类型和处理进度的限制。命令执行受系统用户、非用户或无关设备的存在和位置的限制。
Description
背景技术
那些创建和维护复杂环境的人面临着因用户存在带来的减少或消除污染物元素的持续挑战。此外,由于用户移动以及与执行处理(即触摸计算机屏幕、操纵x射线发射器、定位灯、从托盘拿器械)所需的各种设备进行交互,还将面临设备到设备和设备到处理的交叉污染的威胁。
发明内容
在一个或多个实施例中,描述了由机器或系统执行的方法,其中将一个或多个声学传感器放置在环境中以定位和识别执行协调处理或协调处理的一部分的一个或多个系统用户。该方法基于他们在协调处理中的作用和协调处理的整体进度来分配与识别的系统用户相关的命令方案。该方法使相关材料能够响应于来自用户的命令从第一位置移动到至少一个附加位置。该方法进一步实现定位到用户的空间的相关自动化程序的执行,而不危及命令发布用户、其他附近用户。该方法还使多个用户能够以多个角色来命令和控制自动化设备,而不使设备影响其他用户或设备的空间。最后,该方法基于协调处理的整体进度和其他相关用户的状态来区分用户命令的优先次序并使用户命令可用。
在复杂环境中执行的程序常常错综复杂,具有多个重叠的步骤,这些步骤往往涉及参与协调处理的多个用户。协调处理的执行有时可能需要附加用户的存在,每个用户在环境内部或外部对协调处理拥有不同程度的权限和相关性。附加用户可以对协调处理的进度具有不同程度的权限,从全权限到完全被动。由于受限制的对环境的访问和可见性,复杂环境以外的用户通常在他们操纵环境内部设备的能力上受限。附加的内部用户代表了复杂环境基础设施的进一步紧张,增加了移动自动化设备的危险,并增加了交叉污染的总体可能性。
复杂环境通常也是信息丰富的,因为用户必须经常意识到多个处理变量,并且必须经常意识到这些变量的变化并对其作出反应。此外,每个用户必须通常意识到处理的整体进度,并且每个用户的活动必须与所执行的处理的各个阶段同步。
在示例实施例中,存在一种处理,包括:将音频传感器分组为声学阵列传感器;将至少一个声学阵列传感器放置在多个用户附近;登记第一音频输入;基于第一音频输入识别第一用户;基于输入到至少一个声学阵列传感器中的第一音频输入而定位第一用户;以及基于第一音频输入向第一授权用户分配权限级别。此外,该处理包括基于第一音频输入呈现第一授权用户可用的命令列表;基于来自所述第一用户的第二音频输入,从所述命令列表中执行所选命令;以及通过语音或非语音音频信号识别并定位至少一个附加用户;基于第一用户或至少一个附加用户的任一者的位置来限制第一用户所选命令的执行。
另一个实施例由包括以下的系统来说明:设置为阵列的声学传感器,该传感器耦合到模数转换器和数字数据输出收发器,形成声学阵列传感器;至少一个声学阵列传感器,操作性地连接到音频分析处理器;以及音频分析处理器操作性地连接到命令数据库和控制模块。在至少一个实施例中,命令数据库和控制模块中的至少一个操作性地连接到一个或多个机器,或者在一些情况下连接到多个机器,其中机器可以是自动的或者可以不是自动的。
另一个示例实施例可以存在于音频命令和控制方法中,其包括:将至少一个声学阵列传感器放置在至少一个不同环境中的每一个环境中,所述环境包含许多用户和自动化设备,所述用户参与协调处理;解析来自至少一个声学阵列传感器的信号以确定用户和设备的身份和位置;并向用户呈现针对位置、用户权限和协调处理时间线而定制的专用命令列表。此外,该方法包括响应于用户命令来接合和定位自动化设备;响应于用户、非用户或设备的存在和位置来限制自动化设备的接合和定位;向用户呈现针对位置、用户权限和协调处理时间线而定制的专用命令列表;响应于用户命令来接合和定位自动化设备;以及响应用户的存在和位置来限制自动化设备的接合和定位。
附图说明
当参考所附附图阅读以下具体实施方式时,本发明的实施例的这些以及其他特征、方面和优点将被更好理解,类似的字符在整个附图中表示类似的部件,在附图中:
图1示出了具有相邻环境的示例复杂环境。
图2示出了具有相邻环境的示例复杂环境的俯视示意图。
图3示出了示例机器示意图。
图4是方法流程图。
具体实施方式
本发明的实施例涉及使用音频传感器来定位复杂环境中的个体系统用户。如贯穿本文使用的,术语“复杂环境”或“环境”是同义词,并且定义了在其中自动化设备存在于系统用户或对象附近的区域。如下所述,该环境的特定实施例包括具有多个自动化技术部件的手术套件,自动化技术部件包括但不限于:信息显示或处理设备;器械托盘;患者支撑设备;诊断机械;环境控制;和其他专用设备或由此类设备处理的材料。然而,替代实施例包括但不限于:手术室、敏感电子设备组装区域、细胞培养和生物处理设施、食品加工设施等。最广泛的意义上,术语“外部环境”是指未被纳入复杂环境内的区域。外部环境可以与复杂环境相邻,或者远离复杂环境内不同程度的访问和控制能力。外部环境可以能够监测和控制多个分离的或联合的复杂环境。
如贯穿全文使用的,术语“声学阵列传感器”或“阵列”是指位于环境中且与较大系统可操作地连接的单独的个体传感器、或者作为单个设备的一部分组合在一起的个体音频传感器(该单个设备然后可操作地与更大的系统连接)、或其组合。
如贯穿全文所使用的,术语“用户”描述系统所定位的主动或被动的人或动物;作为说明性示例,主动用户将包括外科医生和多个支持人员;而被动用户则包括由系统跟踪的神志清醒或不清醒的患者。另一个说明性示例将包括兽医和支持人员作为主动用户,动物和主人作为被动用户。
并且如贯穿全文使用的,术语“自动化”应意味着将在有或没有一个或多个中间用户交互的情况下根据命令自动地操作相关的机器、设备和/或系统。
图1示出了复杂环境的示例实施例,该复杂环境呈通过窗口从相邻外部环境观察的手术套件的形式。复杂环境包含领导用户10,支持人员11和患者12形式的一个被动用户。与复杂环境分离的另一个用户13监测由自动化设备14在患者身上执行的程序。
图2表示图1中所示的复杂环境和外部环境的俯视图。在这个实例中,复杂环境包含领导用户10、支持人员11、患者12形式的一个被动用户、和自动化设备14。还表示了与复杂环境分离的另一个用户13。声学阵列传感器20和21被定位成提供最佳音频拾取以供命令定位。声学阵列传感器可以如元件20所示作为多群组工作,或者如元件21所示作为独立传感器工作。未示出的是命令和控制模块以及音频分析模块,所述模块可以位于复杂环境中、位于相邻环境中、位于其组合中、或位于完全独立的环境中。
图3表示示例机器实施例的示意性概览图。麦克风阵列30操作性地连接到模数数据采集板31,模数数据采集板31操作性地连接到数字收发器端口32,从而形成采集阵列33。三个采集阵列33操作性地连接到收发器/多路复用器34,收发器/多路复用器34还连接到互补采集系统35。互补采集系统可以是主动或被动的,并且能够接收来自环境的位置或命令输入信息并且以可用于处理的格式提供该信息。收发器/多路复用器34将所接收的数据格式化并发送到一个或多个命令数据库和音频分析引擎36,命令数据库和音频分析引擎36随后单独地或组合地分析一个或多个元素,诸如:音频数据实时分离语音命令和背景声音,定位语音和声音源,识别语音,并将语音转换为命令。数据库和分析引擎36然后生成命令输出37。命令输出可包括以下各项中的一者或多者:启动自动化设备、改变显示器上的信息、或改变用户可用的命令。
图4是展示该方法的流程图。接收到的原始音频数据40被解析41为允许确定用户身份44和用户位置45的组成元素。位置确定可以利用来自其他位置检测系统42的数据来补充。基于先前执行的命令、时间、具体输入、或其他度量,确定43协调处理的整体进度。接着,处理进度43、用户身份44、和位置45单独地或组合地用于向用户呈现情境化命令46。系统接着通过任何输入方法接收命令47,再次单独地或联合地确定相关身份48和位置49,然后执行50命令,连同由身份或位置施加的任何修改。情境化命令46可以与不同命令集互换,本地化为区域语言和/或特定的协调处理。
应理解,上面的描述旨在是说明性的,而非限制性的。例如,上文描述的实施例(和/或实施例的方面)可彼此结合地使用。另外,可以做出许多修改以使特定情况或材料适应本发明的教导,而不脱离本发明的范围。虽然本文所述的材料的尺寸、数值和类型旨在说明本发明的实施例,但它们决不是限制性的并且本质上是示例性的。其他实施例在审阅以上描述时可以是显而易见的。因此,本发明的范围应当参考所附权利要求以及此类权利要求的等同实施例的全部范围来确定。
在所附权利要求中,术语“包括”和“其中”被用作相应的术语“包括”和“其中”的简明英语对等词。而且,在所附权利要求中,术语“第一”、“第二”、“第三”、“上部”、“下部”、“底部”、“顶部”、“上方”、“下方”等仅用于标记,并不旨在将数值或位置要求施加给其对象。进一步,随后的权利要求的限制并没有以装置加功能的形式撰写,且并不意在基于35U.S.C.§112第六段来解释,除非且直到这样的权利要求限制明文使用短语“用于…装置(meansfor)”随后跟功能描述而没有进一步的结构。
如本文中所使用的,以单数叙述且冠以用词一摂或一个摂的元件或步骤应该被理解为不排除所述元件或步骤的复数,除非此类排除被明确地陈述。此外,对本发明的“一个实施例”的参考并不旨在被解释为排除亦纳入所叙述的特征的额外实施例的存在。而且,除非明确叙述相反情况,实施例“包括(comprising)”、“包含(including)”、“具有(having)”具有特定性质的元件或多个元件可包括不具有该性质的附加的这样的元件。
由于可以在上文描述的系统和方法中做出某些改变而不脱离本文包括的发明的精神和范围,因此意图是所有的在上文描述的或在附图中示出的主题都应当仅仅作为示出本发明构思的示例进行解释,而不应被解释为限制本发明。
Claims (20)
1.一种系统,包括:
设置为阵列的声学传感器,耦合到模数转换器和数字数据输出收发器,形成声学阵列传感器;
至少一个声学阵列传感器,操作性地连接到音频分析处理器;
所述音频分析处理器操作性地连接到命令数据库和控制模块;
所述命令和控制模块操作性地连接到一个或多个自动化机器。
2.如权利要求1所述的系统,其中,多个阵列传感器贯穿指定的控制区域而分布。
3.如权利要求1所述的系统,其中,所述音频分析处理器被配置为接收来自多个音频采集阵列的输入,并解析所述输入以确定多个用户相对于所述音频采集阵列的位置的存在、身份和位置中的至少一个。
4.如权利要求1所述的系统,其中,所述数据库被可互换地本地化为特定语言。
5.如权利要求1所述的系统,其中,所述数据库被可互换地配置为包含与特定处理相关的命令。
6.如权利要求1所述的系统,其中,所述声学阵列传感器贯穿包含多个个体用户和机器中的至少一个的多个不同环境而分布。
7.如权利要求1所述的系统,其中,非语音音频信号被用于响应于所述命令和控制模块而识别、定位和命令自动化机器中的至少一个。
8.如权利要求1所述的系统,包括至少两个音频传感器,所述至少两个音频传感器被定向成覆盖分离的指定主区域,所述至少两个音频传感器被进一步定向成允许基于信号到达时间的差异定位音频源。
9.如权利要求11所述的系统,操作性地连接到机器视觉系统,所述机器视觉系统被配置成跟踪被动和/或不发声主动用户的位置。
10.一种音频命令和控制方法,包括:
将至少一个声学阵列传感器放置在至少一个不同环境中的每一个环境中,所述环境包含多个用户和自动化设备,所述用户参与协调处理;
解析来自至少一个声学阵列传感器的信号以确定用户和设备的身份和位置;
向用户呈现针对位置、用户权限、和协调处理时间线而定制的专用命令列表;
响应于用户命令来接合和定位自动化设备;
响应于用户、非用户或设备的存在和位置来限制自动化设备的接合和定位;
向用户呈现针对位置、用户权限、和协调处理时间线而定制的专用命令列表;
响应于用户命令来接合和定位自动化设备;以及
响应于用户的存在和位置来限制自动化设备的接合和定位。
11.一种处理,包括:
将音频传感器分组为声学阵列传感器;
将至少一个声学阵列传感器放置在多个用户附近;
登记第一音频输入;
基于所述第一音频输入识别第一用户;
基于输入到至少一个声学阵列传感器中的所述第一音频输入而定位第一用户;
基于所述第一音频输入将权限级别分配给所述第一授权用户;
基于所述第一音频输入呈现所述第一授权用户可用的命令列表;
基于来自所述第一用户的第二音频输入,从所述命令列表中执行所选命令;
通过语音或非语音音频信号识别和定位至少一个附加用户;以及
基于所述第一用户或至少一个附加用户的任一者的位置来限制所述第一用户所选命令的执行。
12.如权利要求11所述的处理,其中,所述多个用户参与协调处理。
13.如权利要求12所述的处理,其中,个体用户可用的命令是基于所述协调处理的位置、用户功能、处理类型、和整体进度中的至少一个的。
14.如权利要求11所述的处理,其中,所选命令的所述执行包括移动仪器、改变显示给用户的信息、改变处理变量、决定报告和记录符号中的至少一个。
15.如权利要求14所述的处理,其中,所述命令的所述执行因靠近所述命令的发布者的一个或多个附加用户的所述存在而改变。
16.如权利要求11所述的处理,其中,多个用户分布在至少第一和第二环境之间,所述环境之间的可见性或可访问性有限。
17.如权利要求16所述的处理,其中,可用命令被本地化为特定环境。
18.如权利要求16所述的处理,其中,由在第一环境中的系统用户发布的命令在所述至少一个附加环境中执行。
19.如权利要求18所述的处理,其中,在至少一个附加环境中的命令的执行受到至少一个附加用户在至少一个附加环境中的存在和位置的限制。
20.如权利要求11所述的处理,其中,所述音频传感器利用来自设备的非语音音频发射来自动化并跟踪移动。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/986,613 | 2015-12-31 | ||
US14/986,613 US9812132B2 (en) | 2015-12-31 | 2015-12-31 | Acoustic map command contextualization and device control |
PCT/US2016/055355 WO2017116522A1 (en) | 2015-12-31 | 2016-10-04 | Acoustic map command contextualization and device control |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108885871A true CN108885871A (zh) | 2018-11-23 |
Family
ID=57227083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680077392.9A Pending CN108885871A (zh) | 2015-12-31 | 2016-10-04 | 声学地图命令情境化和设备控制 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9812132B2 (zh) |
EP (1) | EP3400596A1 (zh) |
CN (1) | CN108885871A (zh) |
WO (1) | WO2017116522A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3434219B1 (en) * | 2016-04-28 | 2022-03-02 | Sony Group Corporation | Control device, control method, program, and sound output system |
EP3324407A1 (en) * | 2016-11-17 | 2018-05-23 | Fraunhofer Gesellschaft zur Förderung der Angewand | Apparatus and method for decomposing an audio signal using a ratio as a separation characteristic |
EP3324406A1 (en) | 2016-11-17 | 2018-05-23 | Fraunhofer Gesellschaft zur Förderung der Angewand | Apparatus and method for decomposing an audio signal using a variable threshold |
CN107015781B (zh) * | 2017-03-28 | 2021-02-19 | 联想(北京)有限公司 | 语音识别方法和系统 |
US10610307B2 (en) | 2017-09-28 | 2020-04-07 | General Electric Company | Workflow assistant for image guided procedures |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6415257B1 (en) * | 1999-08-26 | 2002-07-02 | Matsushita Electric Industrial Co., Ltd. | System for identifying and adapting a TV-user profile by means of speech technology |
US20090055178A1 (en) * | 2007-08-23 | 2009-02-26 | Coon Bradley S | System and method of controlling personalized settings in a vehicle |
US20130096771A1 (en) * | 2011-10-12 | 2013-04-18 | Continental Automotive Systems, Inc. | Apparatus and method for control of presentation of media to users of a vehicle |
US20140122085A1 (en) * | 2012-10-26 | 2014-05-01 | Azima Holdings, Inc. | Voice Controlled Vibration Data Analyzer Systems and Methods |
CN104459625A (zh) * | 2014-12-14 | 2015-03-25 | 南京理工大学 | 基于轨道移动双麦克风阵列的声源定位装置及方法 |
CN104661150A (zh) * | 2013-11-25 | 2015-05-27 | 现代自动车株式会社 | 用于识别语音的装置和方法 |
US20150279368A1 (en) * | 2014-03-27 | 2015-10-01 | Matteo Contolini | Multi-User Voice Control System for Medical Devices |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6980152B2 (en) * | 2003-07-03 | 2005-12-27 | Textron Systems Corporation | Externally cued aircraft warning and defense |
US20050114140A1 (en) * | 2003-11-26 | 2005-05-26 | Brackett Charles C. | Method and apparatus for contextual voice cues |
US10540976B2 (en) * | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US9344773B2 (en) * | 2013-02-05 | 2016-05-17 | Microsoft Technology Licensing, Llc | Providing recommendations based upon environmental sensing |
-
2015
- 2015-12-31 US US14/986,613 patent/US9812132B2/en active Active
-
2016
- 2016-10-04 WO PCT/US2016/055355 patent/WO2017116522A1/en active Application Filing
- 2016-10-04 EP EP16790773.2A patent/EP3400596A1/en not_active Ceased
- 2016-10-04 CN CN201680077392.9A patent/CN108885871A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6415257B1 (en) * | 1999-08-26 | 2002-07-02 | Matsushita Electric Industrial Co., Ltd. | System for identifying and adapting a TV-user profile by means of speech technology |
US20090055178A1 (en) * | 2007-08-23 | 2009-02-26 | Coon Bradley S | System and method of controlling personalized settings in a vehicle |
US20130096771A1 (en) * | 2011-10-12 | 2013-04-18 | Continental Automotive Systems, Inc. | Apparatus and method for control of presentation of media to users of a vehicle |
US20140122085A1 (en) * | 2012-10-26 | 2014-05-01 | Azima Holdings, Inc. | Voice Controlled Vibration Data Analyzer Systems and Methods |
CN104661150A (zh) * | 2013-11-25 | 2015-05-27 | 现代自动车株式会社 | 用于识别语音的装置和方法 |
US20150279368A1 (en) * | 2014-03-27 | 2015-10-01 | Matteo Contolini | Multi-User Voice Control System for Medical Devices |
CN104459625A (zh) * | 2014-12-14 | 2015-03-25 | 南京理工大学 | 基于轨道移动双麦克风阵列的声源定位装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
US20170194008A1 (en) | 2017-07-06 |
EP3400596A1 (en) | 2018-11-14 |
WO2017116522A1 (en) | 2017-07-06 |
US9812132B2 (en) | 2017-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108885871A (zh) | 声学地图命令情境化和设备控制 | |
Sun et al. | Healthy operator 4.0: A human cyber–physical system architecture for smart workplaces | |
Kaasinen et al. | Smooth and resilient human–machine teamwork as an industry 5.0 design challenge | |
US10890897B2 (en) | Assembly of a modular structure | |
Dixon et al. | On the independence of compliance and reliance: Are automation false alarms worse than misses? | |
US11397896B2 (en) | Autonomous thinking pattern generator | |
Brunetti et al. | Smart interactive technologies in the human-centric factory 5.0: a survey | |
Khamaisi et al. | UX in AR-supported industrial human–robot collaborative tasks: a systematic review | |
Ghiță et al. | The amiro social robotics framework: Deployment and evaluation on the pepper robot | |
Gajšek et al. | Sustainable move towards flexible, robotic, human-involving workplace | |
Gacem et al. | Smart assistive glasses for Alzheimer's patients | |
Alonso et al. | An abstraction layer exploiting voice assistant technologies for effective human—Robot interaction | |
Sanna et al. | BARI: An Affordable Brain-Augmented Reality Interface to Support Human–Robot Collaboration in Assembly Tasks | |
Fallon et al. | The calibration of trust in an automated system: A sensemaking process | |
Gellert et al. | Robust assembly assistance using informed tree search with Markov chains | |
Rautiainen et al. | Multimodal interface for human–robot collaboration | |
Kadena et al. | FMEA in smartphones: A fuzzy approach | |
Luengo-Polo et al. | Rationale and methods of evaluation for ACHO, a new virtual assistant to improve therapeutic adherence in rural elderly populations: a user-driven living lab | |
Cotta et al. | Towards the cognitive factory in industry 5.0: From Concept to implementation | |
KR20200082145A (ko) | 경도 인지 장애 선별 시스템 및 방법 | |
Nuis et al. | Dialogues in sustainable HRM: examining and positioning intended and continuous dialogue in sustainable HRM using a complexity thinking approach | |
Smolen et al. | Perspectives on Identity and d/Deaf and Hard-of-Hearing Students | |
Vaittinen | An ethics of needs: deconstructing neoliberal biopolitics and care ethics with Derrida and Spivak | |
Ginelli et al. | UniMiB AAL: An android sensor data acquisition and labeling suite | |
Iglesias et al. | The Town Crier: A Use-Case Design and Implementation for a Socially Assistive Robot in Retirement Homes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181123 |