CN105701196A - 面向智能机器人的音频处理方法和智能机器人 - Google Patents
面向智能机器人的音频处理方法和智能机器人 Download PDFInfo
- Publication number
- CN105701196A CN105701196A CN201610015835.3A CN201610015835A CN105701196A CN 105701196 A CN105701196 A CN 105701196A CN 201610015835 A CN201610015835 A CN 201610015835A CN 105701196 A CN105701196 A CN 105701196A
- Authority
- CN
- China
- Prior art keywords
- audio
- intelligent robot
- voice data
- beat
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Toys (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种面向智能机器人的音频处理方法及智能机器人,属于智能机器人技术领域,解决了现有的智能机器人存在动作单一、死板的技术问题。该音频处理方法包括:获取用户指令并启动音频处理模块;执行所述音频处理模块,捕获外设音频数据;根据解析所述音频数据得到的节拍数据,生成动作指令并执行。
Description
技术领域
本发明涉及智能机器人技术领域,具体的说,涉及一种面向智能机器人的音频处理方法及智能机器人。
背景技术
随着科学技术的不断发展,信息技术、计算机技术以及人工智能技术的引入,机器人的研究已经逐步走出工业领域,逐渐扩展到了医疗、保健、家庭、娱乐以及服务行业等领域。而人们对于机器人的要求也从简单重复的机械动作提升为具有高度智能型、自主性及与其他智能体交互的智能机器人。对于智能机器人来说,其不仅需要具有完成指定工作的能力,还需要能够在许多场合与人协助完成任务,这就要求智能机器人能够与人进行有效的情感和信息交流。
目前,已有具备跳舞功能的智能机器人,可以通过本地存储的音乐完成指定曲目的动作。但是,现有的智能机器人所做的动作,都是通过自身预设的动作的指令来做出相应动作,而不能对外界的音乐做出反应。因此,现有的智能机器人存在动作单一、死板的技术问题。
发明内容
本发明的目的在于提供一种面向智能机器人的音频处理方法及智能机器人,以解决现有的智能机器人存在动作单一、死板的技术问题。
本发明提供一种面向智能机器人的音频处理方法,包括:
获取用户指令并启动音频处理模块;
执行所述音频处理模块,捕获外设音频数据;
根据解析所述音频数据得到的节拍数据,生成动作指令并执行。
进一步的是,获取用户指令包括:
接收用户语音指令。
优选的是,解析所述音频数据,具体为:
利用音乐指纹特征算法,将所述音频数据与现有曲库进行匹配;
当匹配成功时,获取所匹配到的乐曲的节拍数据。
进一步的是,当匹配失败时,利用节拍预估算法,对所述音频数据节拍分析;
当节拍分析成功时,获取所述音频数据的节拍数据。
进一步的是,当节拍分析失败时,将预设默认值作为所获取的节拍数据。
优选的是,捕获外设音频数据,具体为:
在指定时间间隔内,对外界音频进行采样;
对所述采集的音频进行降噪处理得到音频数据。
进一步的是,该方法还包括:
获取视觉输入信息;
根据所述视觉输入信息,选择动作类型。
本发明还提供一种智能机器人,包括处理器、存储器、音频采样设备、音频处理模块、动作控制模块和动作执行模块;
所述音频采样设备获取用户指令,所述处理器启动所述音频处理模块,并由所述音频处理模块捕获外设音频数据;
所述处理器解析所述音频数据,得到节拍数据;
所述动作控制模块根据节拍数据,生成动作指令,并由所述动作执行模块执行动作指令;
所述存储器中存储有多组预设的动作指令。
进一步的是,该智能机器人还包括头部表情输出板,用于根据动作指令中的表情信息,使所述智能机器人的头部输出相应的表情图像。
进一步的是,该智能机器人还包括音频输出设备,用于输出针对启动音频处理模块的回复信息。
本发明带来了以下有益效果:通过采用本发明提供的音频处理方法,智能机器人能够对从外界获取的音频数据进行分析、识别,获取到该音频数据的节拍数据,并作为参数生成动作指令,进而使智能机器人完成整套动作。因此,采用本发明提供的音频处理方法,能够实现智能机器人对外界的音乐做出反应,解决了现有的智能机器人动作单一、死板的技术问题。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分的从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚的说明本发明实施例中的技术方案,下面将对实施例描述中所需要的附图做简单的介绍:
图1是本发明实施例一提供的音频处理方法的流程图;
图2是本发明实施例一提供的音频处理方法的处理流程图;
图3是本发明实施例一中停止音频采集的流程图;
图4是本发明实施例二提供的智能机器人的示意图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此对本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程能充分理解并据以实施。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
实施例一:
本发明实施例提供一种音频处理方法,可应用于会跳舞的智能机器人中,使智能机器人能够对外界的音乐做出反应。
如图1和图2所示,该音频处理方法包括以下步骤:
S1:获取用户指令并启动音频处理模块。
本实施例中,智能机器人中的音频采样设备能够接收用户语音指令。用户可以向智能机器人说出语音指令,当语音指令为开始指令时,就会启动音频处理模块。
例如,用户对智能机器人说出“准备跳舞”。智能机器人中的音频采样设备接收到该语音指令,并判定为开始指令,之后就会启动音频处理模块。
S2:执行音频处理模块,捕获外设音频数据。
具体的,在指定时间间隔T1内,对外设音频进行收集采样。其中,该指定时间间隔通常默认为5秒。
然后,通过降噪算法,对采集到的音频进行降噪处理,从而获取降噪之后的音频数据。
S3:根据解析音频数据得到的节拍数据,生成动作指令并执行。
其中,解析音频数据的过程具体为:
首先利用音乐指纹特征算法,将音频数据与现有曲库进行匹配,也就是与智能机器人中已存储的曲库进行匹配。
如果匹配成功,则获取所匹配到的乐曲的节拍数据。乐曲的节拍数据通常以音乐速度单位bpm表示,即每分钟节拍数(beatsperminute)。
如果匹配失败,则可以利用节拍预估算法,对音频数据节拍分析。当节拍分析成功时,就可以获取音频数据的节拍数据,即获取音频数据的bpm。
当节拍分析失败时,则可以将默认值作为所获取的节拍数据,该默认值通常为60bpm。
同时,智能机器人还可以获取音频数据的音量信息。具体为,计算音频数据的时间段内的音量平均值,作为音量信息。
音量信息、节拍数据与当前时间段作为参数输入的动作控制模块,动作控制模块会根据输入的参数来获取指定的动作指令数组。再通过随机算法来获取在该动作指令数组之中的一个动作指令,发送给智能机器人的动作执行模块。
动作执行模块接收到动作控制模块发出的动作指令后,就会按照该动作指令执行动作,进而使智能机器人完成整套动作。
进一步的是,本实施例中还可以包括:
S4:获取视觉输入信息。
本发明实施例中的智能机器人融入多模态信息采集,除了对音频数据进行获取、处理之外,还能够获取视觉输入信息。
S5:根据视觉输入信息,选择动作类型。
具体的,智能机器人可以根据视觉输入信息,获取用户的面部特征,进而判别出用户的性别、年龄、表情等信息,然后根据这些信息选择动作类型,动作类型也作为动作控制模块的输入参数。
例如,智能机器人判别出用户是儿童时,可以选择较为活泼、可爱的动作类型;智能机器人判别出用户是青年男性时,可以选择速度和动作幅度较大的动作类型,等等。
如图3所示,在智能机器人执行动作的过程中,音频采样设备仍然在不断接收着用户语音指令。当接收到的语音指令为停止指令时,音频采样设备就会停止从外部获取音频数据。
例如,用户对智能机器人说出“停止跳舞”。音频采样设备接收到该语音指令,并判定为停止指令之后,就会停止从外部获取音频数据,进而终止上述所有音频处理过程。
通过采用本发明实施例提供的音频处理方法,智能机器人能够对从外界获取的音频数据进行分析、识别,获取到该音频数据的音量信息和节拍数据,并作为参数生成动作指令,进而使智能机器人完成整套动作。因此,采用本发明实施例提供的音频处理方法,能够实现智能机器人对外界的音乐做出反应,解决了现有的智能机器人动作单一、死板的技术问题。
实施例二:
本发明实施例提供一种智能机器人,可以使智能机器人能够对外界的音乐做出反应。
如图4所示,该智能机器人主要包括处理器、存储器、音频采样设备、音频处理模块、动作控制模块和动作执行模块。
本实施例中的处理器作为上位机,动作控制模块作为下位机,动作执行模块为下位机所控制的电机和舵机。此外,存储器中存储有多组预设的动作指令。
音频采样设备(话筒)获取用户指令,具体为接收用户语音指令。当语音指令为开始指令时,处理器就会启动音频处理模块。例如,用户对智能机器人说出“准备跳舞”。音频采样设备接收到该语音指令,并判定为开始指令,处理器就会启动音频处理模块。
之后由音频处理模块通过话筒捕获外设音频数据,其捕获过程具体为:在指定时间间隔T1内,对外设音频进行收集采样。其中,该指定时间间隔通常默认为5秒。然后,通过降噪算法对音频进行降噪处理,从而获取降噪之后的音频数据。
处理器用于解析音频数据,得到节拍数据。具体的,处理器首先利用音乐指纹特征算法,将音频数据与现有曲库进行匹配,也就是与智能机器人中已存储的曲库进行匹配。如果匹配成功,则获取所匹配到的乐曲的节拍数据,乐曲的节拍数据通常以音乐速度单位bpm表示。
如果匹配失败,则可以利用节拍预估算法,对音频数据节拍分析。当节拍分析成功时,就可以获取音频数据的节拍数据,即获取音频数据的bpm;当节拍分析失败时,则可以将默认值作为所获取的节拍数据,该默认值通常为60bpm。
同时,处理器还可以用于获取音频数据的音量信息。具体的,处理器能够计算音频数据的时间段内的音量平均值,作为音量信息。
音量信息、节拍数据与当前时间段作为参数输入的动作控制模块,动作控制模块会根据输入的参数生成动作指令,并由动作执行模块执行动作指令。
具体的,动作控制模块会根据输入的参数从存储器中获取指定的动作指令数组,再通过随机算法来获取在该动作指令数组之中的一个动作指令,发送给智能机器人的动作执行模块。动作执行模块接收到动作控制模块发出的动作指令后,就会按照该动作指令执行动作,进而使智能机器人完成整套动作。
此外,本发明实施例中的智能机器人融入多模态信息采集,除了对音频数据进行获取、处理之外,还能够获取视觉输入信息。
智能机器人可以根据视觉输入信息,获取用户的面部特征,进而判别出用户的性别、年龄、表情等信息,然后根据这些信息选择动作类型,动作类型也作为动作控制模块的输入参数。
例如,智能机器人判别出用户是儿童时,可以选择较为活泼、可爱的动作类型;智能机器人判别出用户是青年男性时,可以选择速度和动作幅度较大的动作类型,等等。
进一步的是,本实施例提供的智能机器人还包括头部表情输出板,用于根据动作指令中的表情信息,使智能机器人的头部输出相应的表情图像。
进一步的是,本实施例提供的智能机器人还包括音频输出设备,用于输出针对启动音频处理模块的回复信息。例如,智能机器人接收到用户说出“准备跳舞”的开始指令的同时,可以由音频输出设备输出“准备好了”等回复信息。
另外,在智能机器人执行动作的过程中,音频采样设备仍然在不断接收着用户语音指令。当接收到的语音指令为停止指令时,音频采样设备就会停止从外部获取音频数据。
例如,用户对智能机器人说出“停止跳舞”。音频采样设备接收到该语音指令,并判定为停止指令之后,就会停止从外部获取音频数据,进而终止上述所有音频处理过程。
通过采用本发明实施例提供的智能机器人,智能机器人能够对从外界获取的音频数据进行分析、识别,获取到该音频数据的音量信息和节拍数据,并作为参数生成动作指令,进而使智能机器人完成整套动作。因此,采用本发明实施例提供的智能机器人,能够实现智能机器人对外界的音乐做出反应,解决了现有的智能机器人动作单一、死板的技术问题。
虽然本发明所公开的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。任何本发明所属技术领域内的技术人员,在不脱离本发明所公开的精神和范围的前提下,可以在实施的形式上及细节上作任何的修改与变化,但本发明的专利保护范围,仍须以所附的权利要求书所界定的范围为准。
Claims (10)
1.一种面向智能机器人的音频处理方法,其特征在于,包括:
获取用户指令并启动音频处理模块;
执行所述音频处理模块,捕获外设音频数据;
根据解析所述音频数据得到的节拍数据,生成动作指令并执行。
2.根据权利要求1所述的音频处理方法,其特征在于,获取用户指令包括:
接收用户语音指令。
3.根据权利要求1所述的音频处理方法,其特征在于,解析所述音频数据,具体为:
利用音乐指纹特征算法,将所述音频数据与现有曲库进行匹配;
当匹配成功时,获取所匹配到的乐曲的节拍数据。
4.根据权利要求3所述的音频处理方法,其特征在于,
当匹配失败时,利用节拍预估算法,对所述音频数据节拍分析;
当节拍分析成功时,获取所述音频数据的节拍数据。
5.根据权利要求4所述的音频处理方法,其特征在于,
当节拍分析失败时,将预设默认值作为所获取的节拍数据。
6.根据权利要求1所述的音频处理方法,其特征在于,捕获外设音频数据,具体为:
在指定时间间隔内,对外界音频进行采样;
对所述采集的音频进行降噪处理得到音频数据。
7.根据权利要求1所述的音频处理方法,其特征在于,还包括:
获取视觉输入信息;
根据所述视觉输入信息,选择动作类型。
8.一种智能机器人,其特征在于,包括处理器、存储器、音频采样设备、音频处理模块、动作控制模块和动作执行模块;
所述音频采样设备获取用户指令,所述处理器启动所述音频处理模块,并由所述音频处理模块捕获外设音频数据;
所述处理器解析所述音频数据,得到节拍数据;
所述动作控制模块根据节拍数据,生成动作指令,并由所述动作执行模块执行动作指令;
所述存储器中存储有多组预设的动作指令。
9.根据权利要求8所述的智能机器人,其特征在于,还包括头部表情输出板,用于根据动作指令中的表情信息,使所述智能机器人的头部输出相应的表情图像。
10.根据权利要求8或9所述的智能机器人,其特征在于,还包括音频输出设备,用于输出针对启动音频处理模块的回复信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610015835.3A CN105701196A (zh) | 2016-01-11 | 2016-01-11 | 面向智能机器人的音频处理方法和智能机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610015835.3A CN105701196A (zh) | 2016-01-11 | 2016-01-11 | 面向智能机器人的音频处理方法和智能机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105701196A true CN105701196A (zh) | 2016-06-22 |
Family
ID=56227048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610015835.3A Pending CN105701196A (zh) | 2016-01-11 | 2016-01-11 | 面向智能机器人的音频处理方法和智能机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105701196A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106020850A (zh) * | 2016-06-23 | 2016-10-12 | 北京光年无限科技有限公司 | 在机器人操作系统中关闭应用的方法及装置 |
CN106292424A (zh) * | 2016-08-09 | 2017-01-04 | 北京光年无限科技有限公司 | 针对人形机器人的音乐数据处理方法及装置 |
CN106292423A (zh) * | 2016-08-09 | 2017-01-04 | 北京光年无限科技有限公司 | 针对人形机器人的音乐数据处理方法及装置 |
CN106527492A (zh) * | 2016-11-24 | 2017-03-22 | 腾讯科技(深圳)有限公司 | 一种飞行器的飞行控制方法和移动终端以及飞行控制端 |
CN106845624A (zh) * | 2016-12-16 | 2017-06-13 | 北京光年无限科技有限公司 | 与智能机器人的应用程序有关的多模态交互方法及系统 |
CN106951755A (zh) * | 2017-01-20 | 2017-07-14 | 深圳前海勇艺达机器人有限公司 | 基于智能机器人的验证方法及装置 |
WO2018010521A1 (zh) * | 2016-07-14 | 2018-01-18 | 歌尔股份有限公司 | 一种控制服务机器人跳舞的方法和装置 |
CN108839017A (zh) * | 2018-06-25 | 2018-11-20 | 盐城工学院 | 一种基于听觉的人形机器人控制系统 |
CN109324513A (zh) * | 2018-08-29 | 2019-02-12 | 上海常仁信息科技有限公司 | 一种基于机器人的智慧家庭的娱乐系统 |
CN112402952A (zh) * | 2019-08-23 | 2021-02-26 | 福建凯米网络科技有限公司 | 一种基于音频和虚拟形象的互动方法及终端 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101524594A (zh) * | 2009-04-17 | 2009-09-09 | 中国地质大学(武汉) | 随节奏自主舞蹈的人形机器人 |
CN101693371A (zh) * | 2009-09-30 | 2010-04-14 | 深圳先进技术研究院 | 跟踪音乐节拍跳舞的机器人 |
CN104598016A (zh) * | 2013-11-18 | 2015-05-06 | 施继荣 | 一种用于音频播放的控制方法、装置以及体感控制器 |
-
2016
- 2016-01-11 CN CN201610015835.3A patent/CN105701196A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101524594A (zh) * | 2009-04-17 | 2009-09-09 | 中国地质大学(武汉) | 随节奏自主舞蹈的人形机器人 |
CN101693371A (zh) * | 2009-09-30 | 2010-04-14 | 深圳先进技术研究院 | 跟踪音乐节拍跳舞的机器人 |
CN104598016A (zh) * | 2013-11-18 | 2015-05-06 | 施继荣 | 一种用于音频播放的控制方法、装置以及体感控制器 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106020850A (zh) * | 2016-06-23 | 2016-10-12 | 北京光年无限科技有限公司 | 在机器人操作系统中关闭应用的方法及装置 |
WO2018010521A1 (zh) * | 2016-07-14 | 2018-01-18 | 歌尔股份有限公司 | 一种控制服务机器人跳舞的方法和装置 |
US10828784B2 (en) | 2016-07-14 | 2020-11-10 | Goertek Inc. | Method and apparatus for controlling dancing of service robot |
CN106292424A (zh) * | 2016-08-09 | 2017-01-04 | 北京光年无限科技有限公司 | 针对人形机器人的音乐数据处理方法及装置 |
CN106292423A (zh) * | 2016-08-09 | 2017-01-04 | 北京光年无限科技有限公司 | 针对人形机器人的音乐数据处理方法及装置 |
CN106527492A (zh) * | 2016-11-24 | 2017-03-22 | 腾讯科技(深圳)有限公司 | 一种飞行器的飞行控制方法和移动终端以及飞行控制端 |
CN106845624A (zh) * | 2016-12-16 | 2017-06-13 | 北京光年无限科技有限公司 | 与智能机器人的应用程序有关的多模态交互方法及系统 |
CN106951755A (zh) * | 2017-01-20 | 2017-07-14 | 深圳前海勇艺达机器人有限公司 | 基于智能机器人的验证方法及装置 |
CN108839017A (zh) * | 2018-06-25 | 2018-11-20 | 盐城工学院 | 一种基于听觉的人形机器人控制系统 |
CN109324513A (zh) * | 2018-08-29 | 2019-02-12 | 上海常仁信息科技有限公司 | 一种基于机器人的智慧家庭的娱乐系统 |
CN112402952A (zh) * | 2019-08-23 | 2021-02-26 | 福建凯米网络科技有限公司 | 一种基于音频和虚拟形象的互动方法及终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105701196A (zh) | 面向智能机器人的音频处理方法和智能机器人 | |
US11226673B2 (en) | Affective interaction systems, devices, and methods based on affective computing user interface | |
JP6505748B2 (ja) | 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット | |
CN103456299B (zh) | 一种控制语音识别的方法和装置 | |
CN108717852B (zh) | 一种基于白光通信和类脑认知的智能机器人语义交互系统和方法 | |
WO2017215297A1 (zh) | 云端互动系统及其多感知型智能机器人和感知互动方法 | |
CN108202334A (zh) | 一种能够识别音乐节拍和风格的舞蹈机器人 | |
CN106997243B (zh) | 基于智能机器人的演讲场景监控方法及装置 | |
CN108629313A (zh) | 情绪调节方法、装置、系统以及计算机存储介质 | |
CN104102346A (zh) | 一种家用信息采集和用户情感识别设备及其工作方法 | |
CN106985137A (zh) | 用于智能机器人的多模态交互方法及系统 | |
CA2894407C (en) | Apparatus, system, and method for therapy based speech enhancement and brain reconfiguration | |
CN105912530A (zh) | 面向智能机器人的信息处理方法及系统 | |
CN108323158A (zh) | 心音的识别方法及云系统 | |
Su et al. | Recent advancements in multimodal human–robot interaction | |
CN105867595A (zh) | 联合语音信息与手势信息的人机交互方式以及实施装置 | |
CN106502382A (zh) | 用于智能机器人的主动交互方法和系统 | |
CN110480656A (zh) | 一种陪护机器人、陪护机器人控制方法及装置 | |
CN109599107A (zh) | 一种语音识别的方法、装置及计算机存储介质 | |
Mace et al. | Real-time implementation of a non-invasive tongue-based human-robot interface | |
Mulfari et al. | Exploring ai-based speaker dependent methods in dysarthric speech recognition | |
Al-Hudhud | Affective command-based control system integrating brain signals in commands control systems | |
Marcos et al. | Emotional AI in Healthcare: a pilot architecture proposal to merge emotion recognition tools | |
Arakawa et al. | Prism-tracker: A framework for multimodal procedure tracking using wearable sensors and state transition information with user-driven handling of errors and uncertainty | |
CN106943300A (zh) | 点穴治疗保健塑身的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160622 |
|
RJ01 | Rejection of invention patent application after publication |