CN112034853A - 一种家庭监护机器人的工作方法 - Google Patents
一种家庭监护机器人的工作方法 Download PDFInfo
- Publication number
- CN112034853A CN112034853A CN202010920779.4A CN202010920779A CN112034853A CN 112034853 A CN112034853 A CN 112034853A CN 202010920779 A CN202010920779 A CN 202010920779A CN 112034853 A CN112034853 A CN 112034853A
- Authority
- CN
- China
- Prior art keywords
- robot
- matching
- path
- template
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000012544 monitoring process Methods 0.000 title claims abstract description 10
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 30
- 238000013461 design Methods 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 20
- 238000004088 simulation Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 230000015572 biosynthetic process Effects 0.000 claims description 9
- 238000003786 synthesis reaction Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 8
- 238000012887 quadratic function Methods 0.000 claims description 6
- 238000001308 synthesis method Methods 0.000 claims description 4
- 238000011017 operating method Methods 0.000 claims 2
- 238000005516 engineering process Methods 0.000 abstract description 7
- 238000011160 research Methods 0.000 abstract description 3
- 230000010354 integration Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 7
- 238000005457 optimization Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
一种家庭监护机器人的工作方法。本发明涉及智能机器人技术领域,尤其涉及基于家庭监护机器人关键技术的研究与实现。提出了一种通过“优化的动态时间归整算法”实现的家庭服务机器人设计的语音识别后,控制机器人自主移动,从而为老人提供服务的家庭监护机器人及其工作方法。按以下步骤进行工作:S1、语音识别;S2、根据步骤S1.5中识别结果所表示的指令,控制机器人前往目标位置。本发明从整体上更精准、更高效的实现了语音的识别,并可以根据语音识别结果所表示的指令,控制机器人更稳定、更快速的前往目标位置。
Description
技术领域
本发明涉及智能机器人技术领域,尤其涉及基于家庭监护机器人关键技术的研究与实现。
背景技术
如今由于科技不断发展,许多家庭监护机器人已经具有语音交互和人脸识别、自主运动等功能,为家庭成员提供简单且重要的监护服务,行动不便者可以通过语音话语发出相关任务命令,机器人能根据命令内容做出相应动作,并根据基于轨迹规划技术,实现室内移动的功能,为智慧生活的带来了新的方式。
同时,服务机器人也可用于图书馆、银行、商场和政务服务大厅等特定场所,可以起到吸引用户并完成身份校验,通过“面对面”语音交互,实现服务咨询并辅助完成特定业务的作用,用户体验、办事效率大大提升。但在现阶段中服务机器人仍然存在部分问题:例如,服务机器人的语音交互功能不完善。部分机器人由于技术不成熟,不能有效识别用户的提问语音,因此无法给出确切的答案;而某些机器人即使完整地识别了语音,因为缺乏正确的匹配策略,给出的答案往往答非所问。这种问题使得服务机器人的交互性下降,用户得不到良好的体验。
目前,家庭服务机器人主要功能是要实现照顾老人、打扫卫生的功能,还是要实现家庭的安防功能,家庭服务机器人在室内的移动避障以及路径规划都是需要解决的关键技术。家庭服务机器人只有能够自主移动,才能提供这些服务。因此,研究家庭服务机器人的路径规划技术以及避障方法具有实际意义。
发明内容
本发明针对以上问题,提出了一种通过“优化的动态时间归整算法”实现的家庭服务机器人设计的语音识别后,控制机器人自主移动,从而为老人提供服务的家庭监护机器人及其工作方法。
本发明的技术方案为:按以下步骤进行工作:
S1、语音识别;
S1.1、将M帧数据的参考矢量模板R与N帧数据的待测矢量模板T,分别在垂直方向上展开构成一个二维坐标系,将参考模板R的各帧数据按照m=1,2,…,M在纵坐标上展开,将待测模板T的各帧数据按照n=1,2,…,N在横坐标上展开,通过各个帧号的横纵坐标画线构成网格,其中每一个交叉点(n,m)都对应测试模板中某一帧数据与待测模板中数据的交汇;
S1.2、设计好系统的约束条件,即路径搜索规则;
S1.3、在保证语音信号连贯性的基础上,对语音信号的特征匹配都是从第一帧(1,1)出发到点(M,N)点结束,若当前交汇点坐标是(in,im),可达到的前一个格点只可能是(in-1,im)、(in-1,im-1)和(in-1,im-2),如公式(2)所示,
在匹配期间通过约束路径的斜率求取两组特征矢量的匹配距离最小值;
S1.4、在满足约束条件的匹配路径上各个交汇点距离累加后得到匹配距离,在完成整个路径规划后,所获得的累加距离即为信号整体失真度,通过公式(3)计算;
D(in,im)=d(T(in),R(im))+min{D(in-1,im),D(in-1,im-1),D(in-1,im-2)} (3)
其中,d(T(in),R(im))表示T中第in帧特征与R中im帧特征之间的距离;这样,从(1,1)点出发(令D(1,1)=0)搜索,反复递推,直到(N,M)就可以得到最优路径,而且D(N,M)就是最佳匹配路径所对应的匹配距离;
S1.5、在进行语音识别时,将语音信号与所有参考模板进行匹配,得到的最小匹配距离Dmin(N,M)所对应语音即为识别结果;
S2、根据步骤S1.5中识别结果所表示的指令,控制机器人前往目标位置;
S2.1、对室内环境建立环境栅格地图,机器人进行环境建模的过程中,行驶路径为S形,当障碍物距离d<50cm时,根据机器人位姿向障碍物相反方向行驶,直至d>50cm;
S2.2、根据建立的栅格地图进行全局路径规划,使用蚁群算法规划一条从出发点到目的地的最优路径;
S2.3、对于机器人移动路径中的障碍物或者在距离机器人dmin范围内的障碍物,使用“模拟力合成”方法对障碍物进行避障;
S2.4、根据算法仿真得出的从当前位置到目标点的规划路径。
步骤S1在实际设计中可以删除靠近两个坐标轴的区域,当匹配路径向两个坐标轴之间的某一侧靠近时,说明两组特征矢量的长度差异十分明显,也就意味着说话人的语速变化极其剧烈;而相对特定人而言,语速一般不会出现太大的波动,会有一个较为稳定的范围,因此靠近坐标轴的区域可以认定为无效匹配区域并予以删除。
步骤S1中算法设计的斜率约束为范围为[1/2,2],匹配时起点包括一个固定起点(1,1)和两个松弛起点:(1,2)、(2,1),终点处同样分为一个固定终点(N,M)两个松弛终点(N-1,M)、(M-1,N)。
步骤S1中在实际匹配过程中,长度为N的模板作为特征模板,长度为M的模板作为匹配模板,由于M<N,在匹配时将曲线进行弯折,弯折后的特征向量分为三段即初始段(1,Xa),中间段(Xa+1,Xb)以及信号末段(Xb+1,N),其中如果待测模板长度不在公式(4)的限制范围内,
则对该模板直接判定为不匹配,以减少运算量。
步骤S2中“模拟力合成”方法是通过模拟物体的受力来进行路径规划的算法,障碍物对机器人产生一个排斥力,目标点对机器人产生一个吸引力,排斥力与吸引力的合力决定了机器人的运动方向;
“模拟力合成”方法需要对机器人所在的位置构造引力场以及斥力场,设引力场为Uatt,斥力场为Urep;则引力势场相当于异性电荷的吸引即可用二次函数表示为:
其中,k是正比例位置增益系数,X代表机器人在工作环境地图中的当前位置,Xg代表目标点在环境地图上的位置;ρ(X,Xg)=||Xg-X||是机器人与目标点的距离关系;机器人受到的引力方向为其本身当前所在位置与目标点的连线,并指向目标点;
引力场产生的引力为引力场的梯度函数,如下式(6):
Fatt(X)=k(Xg-X) (6)
斥力势场模拟同性电荷相斥的原理可用二次函数表示为:
其中,η表示斥力势场常量;X表示机器人当前所处位置;Xo表示障碍物所处位置;ρ0为斥力场的作用距离;ρ(X,Xo)表示机器人到障碍物的距离;
斥力Fatt(X)可用式(8)表示,
合力场是斥力场与引力场的和场,
U(X)=Uatt(X)+Urep(X) (9)
F(X)=Fatt(X)+Frep(X) (10)
合力是斥力与引力的合力。
本发明在语音识别过程中,通过将复杂的全局优化问题转换为可以轻松解决的局部优化问题,在提高语音识别能力的同时也降低运算的难度进而提升系统的运行效率;通过优化动态时间归整算法设置约束条件提高了实时性要求。而在解决语音识别问题后,本发明中的家庭机器人根据传感器采集的环境信息规划出一条从出发点到目的地的无障碍路径,并选用“模拟力合成”方法进行局部路径规划。本发明从整体上更精准、更高效的实现了语音的识别,并可以根据语音识别结果所表示的指令,控制机器人更稳定、更快速的前往目标位置。
附图说明
图1是三种匹配模式失真度对比的示意图,
图2是局部约束路径的原理图,
图3是优化动态时间归整算法约束平行四边形的示意图,
图4是机器人在某一位置“模拟力合成”的受力示意图,
图5是机器人通过“模拟力合成”方法避障后的行径路线示意图。
具体实施方式
为能清楚说明本专利的技术特点,下面通过具体实施方式,并结合其附图,对本专利进行详细阐述。
基于动态时间归整算法实现的语音识别算法本质上属于模板匹配方法,需要解决的关键说话人对同一个词的两次发音的差异的,这些差异包括语音强度的大小、语速原因导致的频谱偏移以及发音音节的长短不同等,因此在实际的匹配过程中两次发音之间往往不存在线性对应关系。
假设语音模板特征的矢量序列为R={R(1),R(2),…,R(M)},待匹配语音信号的矢量特征序列为T={T(1),T(2),…,T(N)},其中M,N分别表示两者的语音帧数,R(m),T(n)分别表示两者对应的语音帧矢量,两者之间的相似度通过欧氏距离d(T(in),R(im))来体现;二者之间欧氏距离越小则对应的相似度越高,反之相似度越低,当阈值低于一定值时可以判定两个语音为不相干语音。
如图1所示,上述三种匹配模式对同一词汇两次发音之间的匹配距离,阴影部分即为匹配失真,从图中明显可以看出,三种方法中非线性匹配方法的整体失真度最小。
把时间规整和距离测度计算结合起来的一种非线性规整技术,是通过寻找一个规整函数im=Φ(in),将测试矢量的时间轴n非线性地映射到参考模板的时间轴m上,并使该函数满足公式(1):
其中D为满足最优时间规整下的两矢量距离。
通过将复杂的全局优化问题转换为可以轻松解决的局部优化问题,在提高语音识别能力的同时也降低运算的难度进而提升系统的运行效率。
根据其算法思想,将M帧数据的参考矢量模板R与N帧数据的待测矢量模板T,分别在垂直方向上展开构成一个二维坐标系,将参考模板R的各帧数据按照m=1,2,…,M在纵坐标上展开,将待测模板T的各帧数据按照n=1,2,…,N在横坐标上展开,通过各个帧号的横纵坐标画线构成网格,其中每一个交叉点(n,m)都对应测试模板中某一帧数据与待测模板中数据的交汇。
d(T(in),R(im))表示T中第in帧特征与R中im帧特征之间的距离,通过对规划路径所经过的交汇点语音失真度累加求和即可得到信号的整体失真度。
在进行算法匹配时,首先设计好系统的约束条件,即路径搜索规则,在保证语音信号连贯性的基础上,对语音信号的特征匹配都是从第一帧(1,1)出发到点(M,N)点结束,若当前交汇点坐标是(in,im),可达到的前一个格点只可能是(in-1,im)、(in-1,im-1)和(in-1,im-2),如公式(2)所示。在匹配期间通过约束路径的斜率求取两组特征矢量的匹配距离最小值。
其原理如图2所示,在满足约束条件的匹配路径上各个交汇点距离累加后得到匹配距离,在完成整个路径规划后,所获得的累加距离即为信号整体失真度,通过公式(3)计算。
D(in,im)=d(T(in),R(im))+min{D(in-1,im),D(in-1,im-1),D(in-1,im-2)} (3)
这样从(1,1)点出发(令D(1,1)=0)搜索,反复递推,直到(N,M)就可以得到最优路径,而且D(N,M)就是最佳匹配路径所对应的匹配距离。在进行语音识别时,将测试模板与所有参考模板进行匹配,得到的最小匹配距离Dmin(N,M)所对应语音即为识别结果。该识别结构可以作为机器人的指令,例如命令机器人开灯、关灯、开始、移动,到客厅等语段,核心算法可以针对不同人群,达到85%以上较高的准确率。
基于以上分析提出一种优化的动态时间归整算法。虽然基本的动态时间归整算法可以实现目标,但实际运行时需要占用大量的存储空间,完成规整矩阵匹配,直接计算会增加大量的运算量,影响系统的处理效率,有悖于语音识别系统对于实时性的要求。为了避免冗余数据干扰系统运行,可以对匹配网格中的交汇点进行一定的取舍,在实际设计中可以删除靠近两个坐标轴的区域,当匹配路径向两个坐标轴之间的某一侧靠近时,说明两组特征矢量的长度差异十分明显,也就意味着说话人的语速变化极其剧烈。而相对特定人而言,语速一般不会出现太大的波动,会有一个较为稳定的范围,因此靠近坐标轴的区域可以认定为无效匹配区域并予以删除。基于上述原因,一般情况下针对语音信号的路径匹配约束范围一般设计为菱形,即“约束平行四边形”如图3所示。
此外,在路径中各点之间的斜率也必须进行约束,本发明中算法设计的斜率约束为范围为[1/2,2],匹配时起点包括一个固定起点(1,1)和两个松弛起点:(1,2)、(2,1),终点处同样分为一个固定终点(N,M)两个松弛终点(N-1,M)、(M-1,N)设置松弛起点和终点主要是为了克服端点检测不精确,导致起点终点不能对齐的问题。
在实际匹配过程中,长度为N的模板作为特征模板,长度为M的模板作为匹配模板,由于M<N,在匹配时将曲线进行弯折,弯折后的特征向量分为三段即初始段(1,Xa),中间段(Xa+1,Xb)以及信号末段(Xb+1,N),其中如果待测模板长度不在公式(4)的限制范围内,则对该模板直接判定为不匹配,以减少运算量。
优化动态时间归整算法的核心是模板匹配。因此在识别过程中会出现由于说话速率、语气等不同而导致的识别率出现差异的情况,因此在构建语音识别的指令库时,除了系统必须的指令库以外还需要增加一定的冗余词条,在检测到冗余词条时,放弃指令发送,直接跳出本次语音识别周期。
优化动态时间归整算法设置约束条件提高了实时性要求。
安静环境的测试结果如下表1所示,测试:开灯、关灯、开始、结束、暂停等参数语段,其中5人对相同指令测试三次1-3代表第一人,依次类推4-6、7-9、10-12、13-15分别代表第2、3、4、5位测试人员,表中Error代表识别失败,由表中可知优化的动态时间回归算法在识别过程中会出现由于说话速率、语气等不同而导致的识别率出现差异的情况,但总体还能达到较高的识别率。
表1
开灯 | 关灯 | 开始 | 结束 | 暂停 | |
1 | |||||
2 | Error | ||||
3 | |||||
4 | Error | ||||
5 | Error | Error | |||
6 | Error | Error | |||
7 | |||||
8 | |||||
9 | Error | ||||
10 | |||||
11 | Error | ||||
12 | |||||
13 | Error | ||||
14 | |||||
15 | Error | ||||
整体识别率 | 86.7% | 80% | 86.7% | 93.3% | 86.7% |
在解决语音识别问题后,还需要机器人实现室内自由移动。而路径规划是机器人实现室内自由移动的关键问题。路径规划是家庭机器人根据传感器采集的环境信息规划出一条从出发点到目的地的无障碍路径。
根据对环境信息的探测程度,可以将路径规划划分为全局路径规划与局部路径规划。进行全局路径规划需要已知整个环境信息,根据已知的环境信息建立全局环境地图;局部路径规划是在对环境信息局部未知或者完全未知的情况下,机器人在移动的过程中通过传感器对环境进行探测,然后根据探测的局部环境信息进行局部路径规划寻优。
局部路径规划不需要全部掌握运行环境信息,只需要探测机器人前进方向附近的环境信息。局部路径规划根据局部环境信息进行局部的路径寻优。局部路径规划选用“模拟力合成”方法。
“模拟力合成”是通过模拟物体的受力来进行路径规划的算法,障碍物对机器人产生一个排斥力,目标点对机器人产生一个吸引力,排斥力与吸引力的合力决定了机器人的运动方向。如图4是机器人在某一位置的受力示意图。
“模拟力合成”需要对机器人所在的位置构造引力场以及斥力场,设引力场为Uatt,斥力场为Urep。则引力势场相当于异性电荷的吸引即可用二次函数表示为:
其中,k是正比例位置增益系数,X代表机器人在工作环境地图中的当前位置,Xg代表目标点在环境地图上的位置。ρ(X,Xg)=||Xg-X||是机器人与目标点的距离关系。机器人受到的引力方向为其本身当前所在位置与目标点的连线,并指向目标点。
引力场产生的引力为引力场的梯度函数,如下式(6):
Fatt(X)=k(Xg-X) (6)
斥力势场模拟同性电荷相斥的原理可用二次函数表示为:
其中,η表示斥力势场常量;X表示机器人当前所处位置;Xo表示障碍物所处位置;ρ0为斥力场的作用距离;ρ(X,Xo)表示机器人到障碍物的距离。
斥力Fatt(X)可用式(8)表示。
合力场是斥力场与引力场的和场,合力是斥力与引力的合力。
U(X)=Uatt(X)+Urep(X) (9)
F(X)=Fatt(X)+Frep(X) (10)
同时,由于在家庭环境中,室内障碍物经常会发生变动,为了解决这个问题,本发明将构建环境特征点地图,建立室内环境的全局栅格地图,使用蚁群算法进行路径规划,对于室内环境变动的障碍物,使用“模拟力合成”进行避障。具体的算法步骤如下:
S2.1:对室内环境建立环境栅格地图。机器人进行环境建模的过程中,行驶路径为S形,当障碍物距离d<50cm时,根据机器人位姿向障碍物相反方向行驶,直至d>50cm。
S2.2:根据建立的栅格地图进行全局路径规划,使用改进的蚁群算法规划一条从出发点到目的地的最优路径。
全局路径规划是根据建立的栅格地图进行全局路径规划,栅格地图法将环境空间划分成大小相等的正方形,这些栅格在一起构成了连通图,并且每一个栅格都有属于自己的序号,这样就可以从起始栅格搜索出一条到达目标栅格的路径,该路径使用栅格序号便可以表示。栅格地图需要设定每一个栅格的形状,一般使用为矩形。整个环境可以被分成很多大小相等的矩形,矩形与矩形之间是相互连接的。黑色的栅格为障碍栅格,白色的为机器人的可移动栅格。而蚁群算法适用于复杂问题的求解与优化,我们这里用标准的蚁群算法,所以没有过多赘述。
S2.3:对于机器人移动路径中的障碍物或者在距离机器人dmin范围内的障碍物,使用“模拟力合成”对障碍物进行避障。
简单来讲是通过障碍物做一条力线,再通过目标点做一条力线,二者合称则为机器人的路径,如图5所示,根据算法仿真得出的从当前位置到目标点的规划路径,可以较好的达到预期目标。
本发明具体实施途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。
Claims (5)
1.一种家庭监护机器人的工作方法,其特征在于,按以下步骤进行工作:
S1、语音识别;
S1.1、将M帧数据的参考矢量模板R与N帧数据的待测矢量模板T,分别在垂直方向上展开构成一个二维坐标系,将参考模板R的各帧数据按照m=1,2,…,M在纵坐标上展开,将待测模板T的各帧数据按照n=1,2,…,N在横坐标上展开,通过各个帧号的横纵坐标画线构成网格,其中每一个交叉点(n,m)都对应测试模板中某一帧数据与待测模板中数据的交汇;
S1.2、设计好系统的约束条件,即路径搜索规则;
S1.3、在保证语音信号连贯性的基础上,对语音信号的特征匹配都是从第一帧(1,1)出发到点(M,N)点结束,若当前交汇点坐标是(in,im),可达到的前一个格点只可能是(in-1,im)、(in-1,im-1)和(in-1,im-2),如公式(2)所示,
在匹配期间通过约束路径的斜率求取两组特征矢量的匹配距离最小值;
S1.4、在满足约束条件的匹配路径上各个交汇点距离累加后得到匹配距离,在完成整个路径规划后,所获得的累加距离即为信号整体失真度,通过公式(3)计算;
D(in,im)=d(T(in),R(im))+min{D(in-1,im),D(in-1,im-1),D(in-1,im-2)} (3)
其中,d(T(in),R(im))表示T中第in帧特征与R中im帧特征之间的距离;这样,从(1,1)点出发(令D(1,1)=0)搜索,反复递推,直到(N,M)就可以得到最优路径,而且D(N,M)就是最佳匹配路径所对应的匹配距离;
S1.5、在进行语音识别时,将语音信号与所有参考模板进行匹配,得到的最小匹配距离Dmin(N,M)所对应语音即为识别结果;
S2、根据步骤S1.5中识别结果所表示的指令,控制机器人前往目标位置;
S2.1、对室内环境建立环境栅格地图,机器人进行环境建模的过程中,行驶路径为S形,当障碍物距离d<50cm时,根据机器人位姿向障碍物相反方向行驶,直至d>50cm;
S2.2、根据建立的栅格地图进行全局路径规划,使用蚁群算法规划一条从出发点到目的地的最优路径;
S2.3、对于机器人移动路径中的障碍物或者在距离机器人dmin范围内的障碍物,使用“模拟力合成”方法对障碍物进行避障;
S2.4、根据算法仿真得出的从当前位置到目标点的规划路径。
2.根据权利要求1所述的一种家庭监护机器人的工作方法,其特征在于,步骤S1在实际设计中可以删除靠近两个坐标轴的区域,当匹配路径向两个坐标轴之间的某一侧靠近时,说明两组特征矢量的长度差异十分明显,也就意味着说话人的语速变化极其剧烈;而相对特定人而言,语速一般不会出现太大的波动,会有一个较为稳定的范围,因此靠近坐标轴的区域可以认定为无效匹配区域并予以删除。
3.根据权利要求1所述的一种家庭监护机器人的工作方法,其特征在于,步骤S1中算法设计的斜率约束为范围为[1/2,2],匹配时起点包括一个固定起点(1,1)和两个松弛起点:(1,2)、(2,1),终点处同样分为一个固定终点(N,M)两个松弛终点(N-1,M)、(M-1,N)。
5.根据权利要求1所述的一种家庭监护机器人的工作方法,其特征在于,步骤S2中“模拟力合成”方法是通过模拟物体的受力来进行路径规划的算法,障碍物对机器人产生一个排斥力,目标点对机器人产生一个吸引力,排斥力与吸引力的合力决定了机器人的运动方向;
“模拟力合成”方法需要对机器人所在的位置构造引力场以及斥力场,设引力场为Uatt,斥力场为Urep;则引力势场相当于异性电荷的吸引即可用二次函数表示为:
其中,k是正比例位置增益系数,X代表机器人在工作环境地图中的当前位置,Xg代表目标点在环境地图上的位置;ρ(X,Xg)=||Xg-X||是机器人与目标点的距离关系;机器人受到的引力方向为其本身当前所在位置与目标点的连线,并指向目标点;
引力场产生的引力为引力场的梯度函数,如下式(6):
Fatt(X)=k(Xg-X) (6)
斥力势场模拟同性电荷相斥的原理可用二次函数表示为:
其中,η表示斥力势场常量;X表示机器人当前所处位置;Xo表示障碍物所处位置;ρ0为斥力场的作用距离;ρ(X,Xo)表示机器人到障碍物的距离;
斥力Fatt(X)可用式(8)表示,
合力场是斥力场与引力场的和场,
U(X)=Uatt(X)+Urep(X) (9)
F(X)=Fatt(X)+Frep(X) (10)
合力是斥力与引力的合力。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010920779.4A CN112034853A (zh) | 2020-09-04 | 2020-09-04 | 一种家庭监护机器人的工作方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010920779.4A CN112034853A (zh) | 2020-09-04 | 2020-09-04 | 一种家庭监护机器人的工作方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112034853A true CN112034853A (zh) | 2020-12-04 |
Family
ID=73591383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010920779.4A Pending CN112034853A (zh) | 2020-09-04 | 2020-09-04 | 一种家庭监护机器人的工作方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112034853A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115507857A (zh) * | 2022-11-23 | 2022-12-23 | 常州唯实智能物联创新中心有限公司 | 高效机器人运动路径规划方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202217495U (zh) * | 2011-10-09 | 2012-05-09 | 马骏 | 嵌入式语音识别系统 |
CN103092204A (zh) * | 2013-01-18 | 2013-05-08 | 浙江大学 | 一种混合的机器人动态路径规划方法 |
CN109300474A (zh) * | 2018-09-14 | 2019-02-01 | 北京网众共创科技有限公司 | 一种语音信号处理方法及装置 |
CN110320930A (zh) * | 2019-06-17 | 2019-10-11 | 中国工程物理研究院电子工程研究所 | 基于Voronoi图的多无人机编队队形可靠变换方法 |
CN111007846A (zh) * | 2019-11-07 | 2020-04-14 | 珠海云洲智能科技有限公司 | 一种无人船艇控制方法、装置、终端设备及存储介质 |
CN111002305A (zh) * | 2019-11-05 | 2020-04-14 | 珠海格力电器股份有限公司 | 基于图像扫描、识别和路径规划的可移动洗衣助手机器人 |
-
2020
- 2020-09-04 CN CN202010920779.4A patent/CN112034853A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202217495U (zh) * | 2011-10-09 | 2012-05-09 | 马骏 | 嵌入式语音识别系统 |
CN103092204A (zh) * | 2013-01-18 | 2013-05-08 | 浙江大学 | 一种混合的机器人动态路径规划方法 |
CN109300474A (zh) * | 2018-09-14 | 2019-02-01 | 北京网众共创科技有限公司 | 一种语音信号处理方法及装置 |
CN110320930A (zh) * | 2019-06-17 | 2019-10-11 | 中国工程物理研究院电子工程研究所 | 基于Voronoi图的多无人机编队队形可靠变换方法 |
CN111002305A (zh) * | 2019-11-05 | 2020-04-14 | 珠海格力电器股份有限公司 | 基于图像扫描、识别和路径规划的可移动洗衣助手机器人 |
CN111007846A (zh) * | 2019-11-07 | 2020-04-14 | 珠海云洲智能科技有限公司 | 一种无人船艇控制方法、装置、终端设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115507857A (zh) * | 2022-11-23 | 2022-12-23 | 常州唯实智能物联创新中心有限公司 | 高效机器人运动路径规划方法及系统 |
CN115507857B (zh) * | 2022-11-23 | 2023-03-14 | 常州唯实智能物联创新中心有限公司 | 高效机器人运动路径规划方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11107456B2 (en) | Artificial intelligence (AI)-based voice sampling apparatus and method for providing speech style | |
US11056096B2 (en) | Artificial intelligence (AI)-based voice sampling apparatus and method for providing speech style in heterogeneous label | |
ES2540995T3 (es) | Sistema y método para reconocer un comando de voz de usuario en un entorno con ruido | |
KR100814143B1 (ko) | 데이터 처리 장치 및 데이터 처리 장치 제어 프로그램 | |
US8868410B2 (en) | Non-dialogue-based and dialogue-based learning apparatus by substituting for uttered words undefined in a dictionary with word-graphs comprising of words defined in the dictionary | |
Najkar et al. | A novel approach to HMM-based speech recognition systems using particle swarm optimization | |
Richardson et al. | Hidden-articulator Markov models for speech recognition | |
WO2018053077A1 (en) | Microphone selection and multi-talker segmentation with ambient automated speech recognition (asr) | |
CN110211594B (zh) | 一种基于孪生网络模型和knn算法的说话人识别方法 | |
JP2002014692A (ja) | 音響モデル作成装置及びその方法 | |
KR101935040B1 (ko) | 음성안내 기반 대중교통 경로 안내 서비스 제공 방법 및 시스템 | |
Taniguchi et al. | Unsupervised spatial lexical acquisition by updating a language model with place clues | |
Marchi et al. | Generalised discriminative transform via curriculum learning for speaker recognition | |
Zhou et al. | A New Remote Health‐Care System Based on Moving Robot Intended for the Elderly at Home | |
Markov et al. | Integration of articulatory and spectrum features based on the hybrid HMM/BN modeling framework | |
CN114596844A (zh) | 声学模型的训练方法、语音识别方法及相关设备 | |
CN112034853A (zh) | 一种家庭监护机器人的工作方法 | |
KR20090025939A (ko) | 음성 인식을 이용한 홈 미디어 pc 시스템 및 그 제어방법 | |
Vimala et al. | Isolated speech recognition system for Tamil language using statistical pattern matching and machine learning techniques | |
Lavagetto | Time-delay neural networks for estimating lip movements from speech analysis: A useful tool in audio-video synchronization | |
JP2852298B2 (ja) | 標準パターン適応化方式 | |
Preciado-Grijalva et al. | Speaker fluency level classification using machine learning techniques | |
KR102418232B1 (ko) | 보이스 유사도 평가 방법 및 그 장치 | |
Holzapfel et al. | A robot learns to know people—first contacts of a robot | |
Takahashi et al. | Tied-structure HMM based on parameter correlation for efficient model training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201204 |
|
RJ01 | Rejection of invention patent application after publication |