CN108885871A - 声学地图命令情境化和设备控制 - Google Patents

声学地图命令情境化和设备控制 Download PDF

Info

Publication number
CN108885871A
CN108885871A CN201680077392.9A CN201680077392A CN108885871A CN 108885871 A CN108885871 A CN 108885871A CN 201680077392 A CN201680077392 A CN 201680077392A CN 108885871 A CN108885871 A CN 108885871A
Authority
CN
China
Prior art keywords
user
audio
environment
processing
order
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201680077392.9A
Other languages
English (en)
Inventor
S·梵德洛克斯
M·哈达德
P·里奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of CN108885871A publication Critical patent/CN108885871A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种系统,其中执行协调处理的用户被定位在基于音频输入的复杂环境中。基于系统用户发声来检测和执行音频命令。可用命令受用户状态、位置、处理类型和处理进度的限制。命令执行受系统用户、非用户或无关设备的存在和位置的限制。

Description

声学地图命令情境化和设备控制
背景技术
那些创建和维护复杂环境的人面临着因用户存在带来的减少或消除污染物元素的持续挑战。此外,由于用户移动以及与执行处理(即触摸计算机屏幕、操纵x射线发射器、定位灯、从托盘拿器械)所需的各种设备进行交互,还将面临设备到设备和设备到处理的交叉污染的威胁。
发明内容
在一个或多个实施例中,描述了由机器或系统执行的方法,其中将一个或多个声学传感器放置在环境中以定位和识别执行协调处理或协调处理的一部分的一个或多个系统用户。该方法基于他们在协调处理中的作用和协调处理的整体进度来分配与识别的系统用户相关的命令方案。该方法使相关材料能够响应于来自用户的命令从第一位置移动到至少一个附加位置。该方法进一步实现定位到用户的空间的相关自动化程序的执行,而不危及命令发布用户、其他附近用户。该方法还使多个用户能够以多个角色来命令和控制自动化设备,而不使设备影响其他用户或设备的空间。最后,该方法基于协调处理的整体进度和其他相关用户的状态来区分用户命令的优先次序并使用户命令可用。
在复杂环境中执行的程序常常错综复杂,具有多个重叠的步骤,这些步骤往往涉及参与协调处理的多个用户。协调处理的执行有时可能需要附加用户的存在,每个用户在环境内部或外部对协调处理拥有不同程度的权限和相关性。附加用户可以对协调处理的进度具有不同程度的权限,从全权限到完全被动。由于受限制的对环境的访问和可见性,复杂环境以外的用户通常在他们操纵环境内部设备的能力上受限。附加的内部用户代表了复杂环境基础设施的进一步紧张,增加了移动自动化设备的危险,并增加了交叉污染的总体可能性。
复杂环境通常也是信息丰富的,因为用户必须经常意识到多个处理变量,并且必须经常意识到这些变量的变化并对其作出反应。此外,每个用户必须通常意识到处理的整体进度,并且每个用户的活动必须与所执行的处理的各个阶段同步。
在示例实施例中,存在一种处理,包括:将音频传感器分组为声学阵列传感器;将至少一个声学阵列传感器放置在多个用户附近;登记第一音频输入;基于第一音频输入识别第一用户;基于输入到至少一个声学阵列传感器中的第一音频输入而定位第一用户;以及基于第一音频输入向第一授权用户分配权限级别。此外,该处理包括基于第一音频输入呈现第一授权用户可用的命令列表;基于来自所述第一用户的第二音频输入,从所述命令列表中执行所选命令;以及通过语音或非语音音频信号识别并定位至少一个附加用户;基于第一用户或至少一个附加用户的任一者的位置来限制第一用户所选命令的执行。
另一个实施例由包括以下的系统来说明:设置为阵列的声学传感器,该传感器耦合到模数转换器和数字数据输出收发器,形成声学阵列传感器;至少一个声学阵列传感器,操作性地连接到音频分析处理器;以及音频分析处理器操作性地连接到命令数据库和控制模块。在至少一个实施例中,命令数据库和控制模块中的至少一个操作性地连接到一个或多个机器,或者在一些情况下连接到多个机器,其中机器可以是自动的或者可以不是自动的。
另一个示例实施例可以存在于音频命令和控制方法中,其包括:将至少一个声学阵列传感器放置在至少一个不同环境中的每一个环境中,所述环境包含许多用户和自动化设备,所述用户参与协调处理;解析来自至少一个声学阵列传感器的信号以确定用户和设备的身份和位置;并向用户呈现针对位置、用户权限和协调处理时间线而定制的专用命令列表。此外,该方法包括响应于用户命令来接合和定位自动化设备;响应于用户、非用户或设备的存在和位置来限制自动化设备的接合和定位;向用户呈现针对位置、用户权限和协调处理时间线而定制的专用命令列表;响应于用户命令来接合和定位自动化设备;以及响应用户的存在和位置来限制自动化设备的接合和定位。
附图说明
当参考所附附图阅读以下具体实施方式时,本发明的实施例的这些以及其他特征、方面和优点将被更好理解,类似的字符在整个附图中表示类似的部件,在附图中:
图1示出了具有相邻环境的示例复杂环境。
图2示出了具有相邻环境的示例复杂环境的俯视示意图。
图3示出了示例机器示意图。
图4是方法流程图。
具体实施方式
本发明的实施例涉及使用音频传感器来定位复杂环境中的个体系统用户。如贯穿本文使用的,术语“复杂环境”或“环境”是同义词,并且定义了在其中自动化设备存在于系统用户或对象附近的区域。如下所述,该环境的特定实施例包括具有多个自动化技术部件的手术套件,自动化技术部件包括但不限于:信息显示或处理设备;器械托盘;患者支撑设备;诊断机械;环境控制;和其他专用设备或由此类设备处理的材料。然而,替代实施例包括但不限于:手术室、敏感电子设备组装区域、细胞培养和生物处理设施、食品加工设施等。最广泛的意义上,术语“外部环境”是指未被纳入复杂环境内的区域。外部环境可以与复杂环境相邻,或者远离复杂环境内不同程度的访问和控制能力。外部环境可以能够监测和控制多个分离的或联合的复杂环境。
如贯穿全文使用的,术语“声学阵列传感器”或“阵列”是指位于环境中且与较大系统可操作地连接的单独的个体传感器、或者作为单个设备的一部分组合在一起的个体音频传感器(该单个设备然后可操作地与更大的系统连接)、或其组合。
如贯穿全文所使用的,术语“用户”描述系统所定位的主动或被动的人或动物;作为说明性示例,主动用户将包括外科医生和多个支持人员;而被动用户则包括由系统跟踪的神志清醒或不清醒的患者。另一个说明性示例将包括兽医和支持人员作为主动用户,动物和主人作为被动用户。
并且如贯穿全文使用的,术语“自动化”应意味着将在有或没有一个或多个中间用户交互的情况下根据命令自动地操作相关的机器、设备和/或系统。
图1示出了复杂环境的示例实施例,该复杂环境呈通过窗口从相邻外部环境观察的手术套件的形式。复杂环境包含领导用户10,支持人员11和患者12形式的一个被动用户。与复杂环境分离的另一个用户13监测由自动化设备14在患者身上执行的程序。
图2表示图1中所示的复杂环境和外部环境的俯视图。在这个实例中,复杂环境包含领导用户10、支持人员11、患者12形式的一个被动用户、和自动化设备14。还表示了与复杂环境分离的另一个用户13。声学阵列传感器20和21被定位成提供最佳音频拾取以供命令定位。声学阵列传感器可以如元件20所示作为多群组工作,或者如元件21所示作为独立传感器工作。未示出的是命令和控制模块以及音频分析模块,所述模块可以位于复杂环境中、位于相邻环境中、位于其组合中、或位于完全独立的环境中。
图3表示示例机器实施例的示意性概览图。麦克风阵列30操作性地连接到模数数据采集板31,模数数据采集板31操作性地连接到数字收发器端口32,从而形成采集阵列33。三个采集阵列33操作性地连接到收发器/多路复用器34,收发器/多路复用器34还连接到互补采集系统35。互补采集系统可以是主动或被动的,并且能够接收来自环境的位置或命令输入信息并且以可用于处理的格式提供该信息。收发器/多路复用器34将所接收的数据格式化并发送到一个或多个命令数据库和音频分析引擎36,命令数据库和音频分析引擎36随后单独地或组合地分析一个或多个元素,诸如:音频数据实时分离语音命令和背景声音,定位语音和声音源,识别语音,并将语音转换为命令。数据库和分析引擎36然后生成命令输出37。命令输出可包括以下各项中的一者或多者:启动自动化设备、改变显示器上的信息、或改变用户可用的命令。
图4是展示该方法的流程图。接收到的原始音频数据40被解析41为允许确定用户身份44和用户位置45的组成元素。位置确定可以利用来自其他位置检测系统42的数据来补充。基于先前执行的命令、时间、具体输入、或其他度量,确定43协调处理的整体进度。接着,处理进度43、用户身份44、和位置45单独地或组合地用于向用户呈现情境化命令46。系统接着通过任何输入方法接收命令47,再次单独地或联合地确定相关身份48和位置49,然后执行50命令,连同由身份或位置施加的任何修改。情境化命令46可以与不同命令集互换,本地化为区域语言和/或特定的协调处理。
应理解,上面的描述旨在是说明性的,而非限制性的。例如,上文描述的实施例(和/或实施例的方面)可彼此结合地使用。另外,可以做出许多修改以使特定情况或材料适应本发明的教导,而不脱离本发明的范围。虽然本文所述的材料的尺寸、数值和类型旨在说明本发明的实施例,但它们决不是限制性的并且本质上是示例性的。其他实施例在审阅以上描述时可以是显而易见的。因此,本发明的范围应当参考所附权利要求以及此类权利要求的等同实施例的全部范围来确定。
在所附权利要求中,术语“包括”和“其中”被用作相应的术语“包括”和“其中”的简明英语对等词。而且,在所附权利要求中,术语“第一”、“第二”、“第三”、“上部”、“下部”、“底部”、“顶部”、“上方”、“下方”等仅用于标记,并不旨在将数值或位置要求施加给其对象。进一步,随后的权利要求的限制并没有以装置加功能的形式撰写,且并不意在基于35U.S.C.§112第六段来解释,除非且直到这样的权利要求限制明文使用短语“用于…装置(meansfor)”随后跟功能描述而没有进一步的结构。
如本文中所使用的,以单数叙述且冠以用词一摂或一个摂的元件或步骤应该被理解为不排除所述元件或步骤的复数,除非此类排除被明确地陈述。此外,对本发明的“一个实施例”的参考并不旨在被解释为排除亦纳入所叙述的特征的额外实施例的存在。而且,除非明确叙述相反情况,实施例“包括(comprising)”、“包含(including)”、“具有(having)”具有特定性质的元件或多个元件可包括不具有该性质的附加的这样的元件。
由于可以在上文描述的系统和方法中做出某些改变而不脱离本文包括的发明的精神和范围,因此意图是所有的在上文描述的或在附图中示出的主题都应当仅仅作为示出本发明构思的示例进行解释,而不应被解释为限制本发明。

Claims (20)

1.一种系统,包括:
设置为阵列的声学传感器,耦合到模数转换器和数字数据输出收发器,形成声学阵列传感器;
至少一个声学阵列传感器,操作性地连接到音频分析处理器;
所述音频分析处理器操作性地连接到命令数据库和控制模块;
所述命令和控制模块操作性地连接到一个或多个自动化机器。
2.如权利要求1所述的系统,其中,多个阵列传感器贯穿指定的控制区域而分布。
3.如权利要求1所述的系统,其中,所述音频分析处理器被配置为接收来自多个音频采集阵列的输入,并解析所述输入以确定多个用户相对于所述音频采集阵列的位置的存在、身份和位置中的至少一个。
4.如权利要求1所述的系统,其中,所述数据库被可互换地本地化为特定语言。
5.如权利要求1所述的系统,其中,所述数据库被可互换地配置为包含与特定处理相关的命令。
6.如权利要求1所述的系统,其中,所述声学阵列传感器贯穿包含多个个体用户和机器中的至少一个的多个不同环境而分布。
7.如权利要求1所述的系统,其中,非语音音频信号被用于响应于所述命令和控制模块而识别、定位和命令自动化机器中的至少一个。
8.如权利要求1所述的系统,包括至少两个音频传感器,所述至少两个音频传感器被定向成覆盖分离的指定主区域,所述至少两个音频传感器被进一步定向成允许基于信号到达时间的差异定位音频源。
9.如权利要求11所述的系统,操作性地连接到机器视觉系统,所述机器视觉系统被配置成跟踪被动和/或不发声主动用户的位置。
10.一种音频命令和控制方法,包括:
将至少一个声学阵列传感器放置在至少一个不同环境中的每一个环境中,所述环境包含多个用户和自动化设备,所述用户参与协调处理;
解析来自至少一个声学阵列传感器的信号以确定用户和设备的身份和位置;
向用户呈现针对位置、用户权限、和协调处理时间线而定制的专用命令列表;
响应于用户命令来接合和定位自动化设备;
响应于用户、非用户或设备的存在和位置来限制自动化设备的接合和定位;
向用户呈现针对位置、用户权限、和协调处理时间线而定制的专用命令列表;
响应于用户命令来接合和定位自动化设备;以及
响应于用户的存在和位置来限制自动化设备的接合和定位。
11.一种处理,包括:
将音频传感器分组为声学阵列传感器;
将至少一个声学阵列传感器放置在多个用户附近;
登记第一音频输入;
基于所述第一音频输入识别第一用户;
基于输入到至少一个声学阵列传感器中的所述第一音频输入而定位第一用户;
基于所述第一音频输入将权限级别分配给所述第一授权用户;
基于所述第一音频输入呈现所述第一授权用户可用的命令列表;
基于来自所述第一用户的第二音频输入,从所述命令列表中执行所选命令;
通过语音或非语音音频信号识别和定位至少一个附加用户;以及
基于所述第一用户或至少一个附加用户的任一者的位置来限制所述第一用户所选命令的执行。
12.如权利要求11所述的处理,其中,所述多个用户参与协调处理。
13.如权利要求12所述的处理,其中,个体用户可用的命令是基于所述协调处理的位置、用户功能、处理类型、和整体进度中的至少一个的。
14.如权利要求11所述的处理,其中,所选命令的所述执行包括移动仪器、改变显示给用户的信息、改变处理变量、决定报告和记录符号中的至少一个。
15.如权利要求14所述的处理,其中,所述命令的所述执行因靠近所述命令的发布者的一个或多个附加用户的所述存在而改变。
16.如权利要求11所述的处理,其中,多个用户分布在至少第一和第二环境之间,所述环境之间的可见性或可访问性有限。
17.如权利要求16所述的处理,其中,可用命令被本地化为特定环境。
18.如权利要求16所述的处理,其中,由在第一环境中的系统用户发布的命令在所述至少一个附加环境中执行。
19.如权利要求18所述的处理,其中,在至少一个附加环境中的命令的执行受到至少一个附加用户在至少一个附加环境中的存在和位置的限制。
20.如权利要求11所述的处理,其中,所述音频传感器利用来自设备的非语音音频发射来自动化并跟踪移动。
CN201680077392.9A 2015-12-31 2016-10-04 声学地图命令情境化和设备控制 Pending CN108885871A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/986,613 2015-12-31
US14/986,613 US9812132B2 (en) 2015-12-31 2015-12-31 Acoustic map command contextualization and device control
PCT/US2016/055355 WO2017116522A1 (en) 2015-12-31 2016-10-04 Acoustic map command contextualization and device control

Publications (1)

Publication Number Publication Date
CN108885871A true CN108885871A (zh) 2018-11-23

Family

ID=57227083

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680077392.9A Pending CN108885871A (zh) 2015-12-31 2016-10-04 声学地图命令情境化和设备控制

Country Status (4)

Country Link
US (1) US9812132B2 (zh)
EP (1) EP3400596A1 (zh)
CN (1) CN108885871A (zh)
WO (1) WO2017116522A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3434219B1 (en) * 2016-04-28 2022-03-02 Sony Group Corporation Control device, control method, program, and sound output system
EP3324407A1 (en) * 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a ratio as a separation characteristic
EP3324406A1 (en) 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a variable threshold
CN107015781B (zh) * 2017-03-28 2021-02-19 联想(北京)有限公司 语音识别方法和系统
US10610307B2 (en) 2017-09-28 2020-04-07 General Electric Company Workflow assistant for image guided procedures

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415257B1 (en) * 1999-08-26 2002-07-02 Matsushita Electric Industrial Co., Ltd. System for identifying and adapting a TV-user profile by means of speech technology
US20090055178A1 (en) * 2007-08-23 2009-02-26 Coon Bradley S System and method of controlling personalized settings in a vehicle
US20130096771A1 (en) * 2011-10-12 2013-04-18 Continental Automotive Systems, Inc. Apparatus and method for control of presentation of media to users of a vehicle
US20140122085A1 (en) * 2012-10-26 2014-05-01 Azima Holdings, Inc. Voice Controlled Vibration Data Analyzer Systems and Methods
CN104459625A (zh) * 2014-12-14 2015-03-25 南京理工大学 基于轨道移动双麦克风阵列的声源定位装置及方法
CN104661150A (zh) * 2013-11-25 2015-05-27 现代自动车株式会社 用于识别语音的装置和方法
US20150279368A1 (en) * 2014-03-27 2015-10-01 Matteo Contolini Multi-User Voice Control System for Medical Devices

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6980152B2 (en) * 2003-07-03 2005-12-27 Textron Systems Corporation Externally cued aircraft warning and defense
US20050114140A1 (en) * 2003-11-26 2005-05-26 Brackett Charles C. Method and apparatus for contextual voice cues
US10540976B2 (en) * 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US9344773B2 (en) * 2013-02-05 2016-05-17 Microsoft Technology Licensing, Llc Providing recommendations based upon environmental sensing

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415257B1 (en) * 1999-08-26 2002-07-02 Matsushita Electric Industrial Co., Ltd. System for identifying and adapting a TV-user profile by means of speech technology
US20090055178A1 (en) * 2007-08-23 2009-02-26 Coon Bradley S System and method of controlling personalized settings in a vehicle
US20130096771A1 (en) * 2011-10-12 2013-04-18 Continental Automotive Systems, Inc. Apparatus and method for control of presentation of media to users of a vehicle
US20140122085A1 (en) * 2012-10-26 2014-05-01 Azima Holdings, Inc. Voice Controlled Vibration Data Analyzer Systems and Methods
CN104661150A (zh) * 2013-11-25 2015-05-27 现代自动车株式会社 用于识别语音的装置和方法
US20150279368A1 (en) * 2014-03-27 2015-10-01 Matteo Contolini Multi-User Voice Control System for Medical Devices
CN104459625A (zh) * 2014-12-14 2015-03-25 南京理工大学 基于轨道移动双麦克风阵列的声源定位装置及方法

Also Published As

Publication number Publication date
US20170194008A1 (en) 2017-07-06
EP3400596A1 (en) 2018-11-14
WO2017116522A1 (en) 2017-07-06
US9812132B2 (en) 2017-11-07

Similar Documents

Publication Publication Date Title
CN108885871A (zh) 声学地图命令情境化和设备控制
Sun et al. Healthy operator 4.0: A human cyber–physical system architecture for smart workplaces
Kaasinen et al. Smooth and resilient human–machine teamwork as an industry 5.0 design challenge
US10890897B2 (en) Assembly of a modular structure
Dixon et al. On the independence of compliance and reliance: Are automation false alarms worse than misses?
US11397896B2 (en) Autonomous thinking pattern generator
Brunetti et al. Smart interactive technologies in the human-centric factory 5.0: a survey
Khamaisi et al. UX in AR-supported industrial human–robot collaborative tasks: a systematic review
Ghiță et al. The amiro social robotics framework: Deployment and evaluation on the pepper robot
Gajšek et al. Sustainable move towards flexible, robotic, human-involving workplace
Gacem et al. Smart assistive glasses for Alzheimer's patients
Alonso et al. An abstraction layer exploiting voice assistant technologies for effective human—Robot interaction
Sanna et al. BARI: An Affordable Brain-Augmented Reality Interface to Support Human–Robot Collaboration in Assembly Tasks
Fallon et al. The calibration of trust in an automated system: A sensemaking process
Gellert et al. Robust assembly assistance using informed tree search with Markov chains
Rautiainen et al. Multimodal interface for human–robot collaboration
Kadena et al. FMEA in smartphones: A fuzzy approach
Luengo-Polo et al. Rationale and methods of evaluation for ACHO, a new virtual assistant to improve therapeutic adherence in rural elderly populations: a user-driven living lab
Cotta et al. Towards the cognitive factory in industry 5.0: From Concept to implementation
KR20200082145A (ko) 경도 인지 장애 선별 시스템 및 방법
Nuis et al. Dialogues in sustainable HRM: examining and positioning intended and continuous dialogue in sustainable HRM using a complexity thinking approach
Smolen et al. Perspectives on Identity and d/Deaf and Hard-of-Hearing Students
Vaittinen An ethics of needs: deconstructing neoliberal biopolitics and care ethics with Derrida and Spivak
Ginelli et al. UniMiB AAL: An android sensor data acquisition and labeling suite
Iglesias et al. The Town Crier: A Use-Case Design and Implementation for a Socially Assistive Robot in Retirement Homes

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181123