发明内容
有鉴于此,本发明的主要目的在于提供基于实时用户行为分析的智能家居管理系统及方法,本发明通过实时的检测和判断用户的姿态,以及结合环境数据和历史行为数据,来对用户的行为进行预测,以实现更加智能化的智能家居控制,提升了智能家居控制的实时性和智能化程度;同时,本发明在进行姿态识别时,没有针对整幅图像进行识别,而是提取出人体区域后,再筛选出姿态识别的关键部分分别进行图像识别,最终的结果再进行匹配查询,以此完成姿态识别,提升了姿态识别的效率,并提升了识别的准确率。
为达到上述目的,本发明的技术方案是这样实现的:
基于实时用户行为分析的智能家居管理系统,所述系统包括:全景图像获取装置、传感器系统、用户当前行为分析装置、用户行为预测装置和控制装置;所述全景图像获取装置,配置用于获取当前场景内的全景图像;所述传感器系统,配置用于获取当前场景内的环境数据,所述环境数据至少包括:温度数据和湿度数据;所述用户当前行为分析装置,配置用于基于获取全景图像,分析判断当前用户的行为,得出当前行为分析结果;所述用户行为预测装置,配置用于基于得出的当前行为分析结果和历史行为数据,预测用户的行为,得出用户预测行为结果;所述控制装置,配置用于基于当前行为分析结果、环境数据和用户预测行为结果,控制智能家居设备的运行;所述用户当前行为分析装置包括:人体目标检测单元、人体关键部检测单元和识别单元;所述人体目标检测单元,配置用于从全景图像中筛选出人体部分;所述人体关键部检测单元,配置用于从筛选出的人体部分中,提取手、脚和头的部分;所述识别单元,配置用于基于提取出的手、脚和头的部分,分别使用预设的识别算法进行姿态识别,分别得出三个姿态识别结果,并基于得出的三个姿态识别结果,判断人体姿态,得出当前行为分析结果。
进一步的,所述人体目标检测单元从全景图像中筛选出人体部分的方法包括:预分割全景图像以形成若干分割图像,将各分割图像内所有像素的颜色用所对应的各分割图像内所有像素的颜色向量的平均值来表示,以获得初始叠加图;然后以分割图像为节点,根据叠加准则依次执行邻接叠加与全局叠加,并依次在邻接叠加与全局叠加过程中将各分割图像内所有像素的颜色用所对应的各分割图像内所有像素的颜色向量的平均值来表示,将相似的分割图像依次叠加形成新的分割图像,以依次构建出邻接叠加图及全局叠加图;结合分割图像间的颜色对比度、空间距离权重及背景概率权重分别在初始叠加图、邻接叠加图及全局叠加图上计算分割图像的权重值,以获得三幅初始权重图;对三幅初始权重图执行累加求和运算,以获得全景图像中的人体部分。
进一步的,所述邻接叠加的过程使用如下公式进行表示:
其中,L表示初始叠加图,M为分割图像的数量,s
k为分割图像,α
1为分割图像内所有像素的颜色向量的平均值,α
2为调整系数,取值范围为:0.25~1;Y为邻接叠加图。
进一步的,所述全局叠加的过程使用如下公式进行表示:
其中,L表示初始叠加图,M为分割图像的数量,s
k为分割图像,α
1为分割图像内所有像素的颜色向量的平均值,α
2为调整系数,取值范围为:0.25~1;P为全局叠加图。
进一步的,所述获得三幅初始权重图的方法使用如下公式表示:N1=X/D+lg(1+pL),N2=X/D+lg(1+pY),N3=X/D+lg(1+pP);其中,X为分割图像间的颜色对比度,D为分割图像间的空间距离权重,p为分割图像间的背景概率权重,N1为在初始叠加图上计算分割图像的权重值获得的第一幅初始权重图;N2为在邻接叠加图上计算分割图像的权重值获得的第二幅初始权重图;N3为在全局叠加图上计算分割图像的权重值获得的第三幅初始权重图。
进一步的,所述人体关键部检测从筛选出的人体部分中,提取手、脚和头的部分的方法包括:将筛选出的人体部分输入预先训练完成的头检测模型,得到多个头框图像;针对所述每个头框图像,确定与预设值的比值最大的头框图像,作为头检测结果并输出,以提取出头的部分;将筛选出的人体部分输入预先训练完成的手检测模型,得到多个手框图像;针对所述每个手框图像,确定与预设值的比值最大的手框图像,作为手检测结果并输出,以提取出手的部分;将筛选出的人体部分输入预先训练完成的脚检测模型,得到镀铬脚框图像;针对所述每个脚框图像,确定与预设值的比值最大的脚框图像,作为脚检测结果并输出,以提取出脚的部分。
进一步的,所述头检测模型使用如下公式表示:
n为检测模型的精确值,等于输出的头框图像的数量;a
i为输出的头框图像;
n为检测模型的精确值,等于输出的手框图像的数量;b
i为输出的手框图像;
n为检测模型的精确值,等于输出的脚框图像的数量;c
i为输出的脚框图像;分别将a
i、b
i和c
i分别与预设值进行比值运算,比值运算得到的结果的最大值所对应的a
i、b
i和c
i则分别为提取出的头的部分、手的部分和脚的部分。
进一步的,所述识别单元基于提取出的手、脚和头的部分,分别使用预设的识别算法进行姿态识别,分别得出三个姿态识别结果的方法包括:在提取出的头的部分中,筛选出用户的眼睛部分,判断用户的视线方向,得出视线判断结果;在提取出的手的部分中,进行图像识别,判断用户手的姿势,得出手势判断结果;在提取出的脚的部分中,进行图像识别,判断用户脚的姿势,得出脚势判断结果;所述基于得出的三个姿态识别结果,判断人体姿态,得出当前行为分析结果的方法包括:根据脚势判断结果、手势判断结果和视线判断结果,在预设的姿态数据库中进行检索,至少检索到两项相匹配的结果时所对应的姿态数据,作为姿态识别结果,然后基于姿态识别结果,判断人体姿态,得出当前行为分析结果。
进一步的,所述用户行为预测装置,基于得出的当前行为分析结果和历史行为数据,预测用户的行为,得出用户预测行为结果的方法包括:根据历史行为数据建立行为数据链;所述行为数据链定义为:将关联的历史行为数据进行绑定后得到的数据链;所述关联的历史行为数据定义为:在某连续的时间段内,至少两个历史行为数据发生的时间间隔低于设定的阈值;基于当前行为分析结果在数据链中进行匹配查询,若查询到相匹配的历史行为数据,则根据构建的数据链,找到该历史行为数据关联的所有的历史行为,将关联的所有的历史行为作为用户预测行为结果。
基于实时用户行为分析的智能家居管理方法。
本发明的基于实时用户行为分析的智能家居管理系统及方法,具有如下有益效果:本发明通过实时的检测和判断用户的姿态,以及结合环境数据和历史行为数据,来对用户的行为进行预测,以实现更加智能化的智能家居控制,提升了智能家居控制的实时性和智能化程度;同时,本发明在进行姿态识别时,没有针对整幅图像进行识别,而是提取出人体区域后,再筛选出姿态识别的关键部分分别进行图像识别,最终的结果再进行匹配查询,以此完成姿态识别,提升了姿态识别的效率,并提升了识别的准确率。主要通过以下过程实现:1.用户当前行为分析:本发明在进行智能家居控制时,相较于现有技术,使用实时判断用户的行为,而不是利用经验性的历史数据进行判断,提升了智能家居控制的实时性和准确率;因为根据经验性的历史数据进行判断,较为机械化,无法准确识别当前用户的需求,而使得智能家居的控制的准确率降低;而实时性的预测用户的意图和行为,再进行智能家居控制,则更能契合用户的需求,提升准确率。2.姿态分析算法的构建:本发明在进行当前用户行为分析时,没有使用现有技术的直接分析整张图来判断用户的姿态,而是将整张图中的关键部分进行提取,这样做有两个好处,一是可以使得姿态识别的效率提升,因为针对单个部分进行识别,识别图像的复杂度将降低,而且所需要识别图像的部分将减少,去除无用部分,只对关键部分进行识别,不但不影响准确率,还可以节省系统资源;二是通过这种识别,来进行匹配查询,只要满足识别结果中超过设定的阈值的部分,则可以进行匹配,得出姿态识别结果,而如果针对整幅图进行识别,则需要满足所有整幅图识别结果进行匹配才能找到相应结果,因为图像识别过程中无论怎样都会出现误差,这样就会导致无法找到匹配的结果,而导致程序运行的中断;3.人体区域检测算法的构建:本发明在查找全景图像中人体区域时,没有使用现有的人体区域检测算法,而是通过构建邻接叠加图和全局叠加图来进行人体区域检测,同时结合分割图像间的颜色对比度、空间距离权重及背景概率权重来确定三幅初始权重图,再对三幅初始权重图进行累加来获得人体部分,相较于现有技术,这样做可以使得获得的人体部分更加准确,因为邻接叠加、全局叠加和初始叠加通过三种不同的维度来实现,得到的结果更能反映图像的特征,以此累加后得到的人体区域部分,可以大幅去掉背景图像的干扰和图像本身噪声的干扰,提升准确率。
具体实施方式
下面结合附图及本发明的实施例对本发明的方法作进一步详细的说明。
实施例1
如图1所示
基于实时用户行为分析的智能家居管理系统,所述系统包括:全景图像获取装置、传感器系统、用户当前行为分析装置、用户行为预测装置和控制装置;所述全景图像获取装置,配置用于获取当前场景内的全景图像;所述传感器系统,配置用于获取当前场景内的环境数据,所述环境数据至少包括:温度数据和湿度数据;所述用户当前行为分析装置,配置用于基于获取全景图像,分析判断当前用户的行为,得出当前行为分析结果;所述用户行为预测装置,配置用于基于得出的当前行为分析结果和历史行为数据,预测用户的行为,得出用户预测行为结果;所述控制装置,配置用于基于当前行为分析结果、环境数据和用户预测行为结果,控制智能家居设备的运行;所述用户当前行为分析装置包括:人体目标检测单元、人体关键部检测单元和识别单元;所述人体目标检测单元,配置用于从全景图像中筛选出人体部分;所述人体关键部检测单元,配置用于从筛选出的人体部分中,提取手、脚和头的部分;所述识别单元,配置用于基于提取出的手、脚和头的部分,分别使用预设的识别算法进行姿态识别,分别得出三个姿态识别结果,并基于得出的三个姿态识别结果,判断人体姿态,得出当前行为分析结果。
采用上述技术方案:本发明通过实时的检测和判断用户的姿态,以及结合环境数据和历史行为数据,来对用户的行为进行预测,以实现更加智能化的智能家居控制,提升了智能家居控制的实时性和智能化程度;同时,本发明在进行姿态识别时,没有针对整幅图像进行识别,而是提取出人体区域后,再筛选出姿态识别的关键部分分别进行图像识别,最终的结果再进行匹配查询,以此完成姿态识别,提升了姿态识别的效率,并提升了识别的准确率。
实施例2
在上一实施例的基础上,所述人体目标检测单元从全景图像中筛选出人体部分的方法包括:预分割全景图像以形成若干分割图像,将各分割图像内所有像素的颜色用所对应的各分割图像内所有像素的颜色向量的平均值来表示,以获得初始叠加图;然后以分割图像为节点,根据叠加准则依次执行邻接叠加与全局叠加,并依次在邻接叠加与全局叠加过程中将各分割图像内所有像素的颜色用所对应的各分割图像内所有像素的颜色向量的平均值来表示,将相似的分割图像依次叠加形成新的分割图像,以依次构建出邻接叠加图及全局叠加图;结合分割图像间的颜色对比度、空间距离权重及背景概率权重分别在初始叠加图、邻接叠加图及全局叠加图上计算分割图像的权重值,以获得三幅初始权重图;对三幅初始权重图执行累加求和运算,以获得全景图像中的人体部分。
具体的,本发明在进行智能家居控制时,相较于现有技术,使用实时判断用户的行为,而不是利用经验性的历史数据进行判断,提升了智能家居控制的实时性和准确率;因为根据经验性的历史数据进行判断,较为机械化,无法准确识别当前用户的需求,而使得智能家居的控制的准确率降低;而实时性的预测用户的意图和行为,再进行智能家居控制,则更能契合用户的需求,提升准确率。
实施例3
在上一实施例的基础上,所述邻接叠加的过程使用如下公式进行表示:
其中,L表示初始叠加图,m为分割图像的数量,s
k为分割图像,α
1为分割图像内所有像素的颜色向量的平均值,α
2为调整系数,取值范围为:0.25~1;Y为邻接叠加图。
实施例4
在上一实施例的基础上,所述全局叠加的过程使用如下公式进行表示:
其中,L表示初始叠加图,M为分割图像的数量,s
k为分割图像,α
1为分割图像内所有像素的颜色向量的平均值,α
2为调整系数,取值范围为:0.25~1;P为全局叠加图。
实施例5
在上一实施例的基础上,所述获得三幅初始权重图的方法使用如下公式表示:N1=X/D+lg(1+pL),N2=X/D+lg(1+pY),N3=X/D+lg(1+pP);其中,X为分割图像间的颜色对比度,D为分割图像间的空间距离权重,p为分割图像间的背景概率权重,N1为在初始叠加图上计算分割图像的权重值获得的第一幅初始权重图;N2为在邻接叠加图上计算分割图像的权重值获得的第二幅初始权重图;N3为在全局叠加图上计算分割图像的权重值获得的第三幅初始权重图。
具体的,本发明在进行当前用户行为分析时,没有使用现有技术的直接分析整张图来判断用户的姿态,而是将整张图中的关键部分进行提取,这样做有两个好处,一是可以使得姿态识别的效率提升,因为针对单个部分进行识别,识别图像的复杂度将降低,而且所需要识别图像的部分将减少,去除无用部分,只对关键部分进行识别,不但不影响准确率,还可以节省系统资源;二是通过这种识别,来进行匹配查询,只要满足识别结果中超过设定的阈值的部分,则可以进行匹配,得出姿态识别结果,而如果针对整幅图进行识别,则需要满足所有整幅图识别结果进行匹配才能找到相应结果,因为图像识别过程中无论怎样都会出现误差,这样就会导致无法找到匹配的结果,而导致程序运行的中断。
实施例6
在上一实施例的基础上,所述人体关键部检测从筛选出的人体部分中,提取手、脚和头的部分的方法包括:将筛选出的人体部分输入预先训练完成的头检测模型,得到多个头框图像;针对所述每个头框图像,确定与预设值的比值最大的头框图像,作为头检测结果并输出,以提取出头的部分;将筛选出的人体部分输入预先训练完成的手检测模型,得到多个手框图像;针对所述每个手框图像,确定与预设值的比值最大的手框图像,作为手检测结果并输出,以提取出手的部分;将筛选出的人体部分输入预先训练完成的脚检测模型,得到镀铬脚框图像;针对所述每个脚框图像,确定与预设值的比值最大的脚框图像,作为脚检测结果并输出,以提取出脚的部分。
具体的,人脸图像检测与定位就是在输入图像中找到人脸确切的位置,它是人脸表情识别的第一步。人脸检测的基本思想是用知识或统计的方法对人脸建模,比较待检测区域与人脸模型的匹配程度,从而得到可能存在人脸的区域。其方法大致可分为以下两类:(1)基于统计的人脸检测是将人脸图像视为一个高维向量,将人脸检测问题转化为高维空间中分布信号的检测问题。(2)基于知识的人脸检测是利用人的知识建立若干规则,从而将人脸检测问题转化为假设、验证问题。
表情特征的提取根据图像性质的不同可分为:静态图像特征提取和序列图像特征提取。静态图像中提取的是表情的形变特征,即表情的暂态特征。而对于序列图像不仅要提取每一帧的表情形变特征还要提取连续序列的运动特征。形变特征提取必须依赖中性表情或模型,把产生的表情与中性表情做比较从而提取特征,而运动特征的提取则直接依赖于表情产生的面部变化。特征选择的依据是:①尽可能多的携带人脸面部表情的特征,即信息量丰富;②尽可能容易提取;③信息相对稳定,受光照变化等外界的影响小。
表情识别方法分类大致分为4种情况:
(1)基于模板的匹配方法。
(2)基于神经网络的方法。
(3)基于概率模型的方法。
(4)基于支持向量机的方法。
实施例7
在上一实施例的基础上,所述头检测模型使用如下公式表示:
n为检测模型的精确值,等于输出的头框图像的数量;a
i为输出的头框图像;
n为检测模型的精确值,等于输出的手框图像的数量;b
i为输出的手框图像;
n为检测模型的精确值,等于输出的脚框图像的数量;c
i为输出的脚框图像;分别将a
i、b
i和c
i分别与预设值进行比值运算,比值运算得到的结果的最大值所对应的a
i、b
i和c
i则分别为提取出的头的部分、手的部分和脚的部分。
实施例8
如图2和图3所示,在上一实施例的基础上,所述识别单元基于提取出的手、脚和头的部分,分别使用预设的识别算法进行姿态识别,分别得出三个姿态识别结果的方法包括:在提取出的头的部分中,筛选出用户的眼睛部分,判断用户的视线方向,得出视线判断结果;在提取出的手的部分中,进行图像识别,判断用户手的姿势,得出手势判断结果;在提取出的脚的部分中,进行图像识别,判断用户脚的姿势,得出脚势判断结果;所述基于得出的三个姿态识别结果,判断人体姿态,得出当前行为分析结果的方法包括:根据脚势判断结果、手势判断结果和视线判断结果,在预设的姿态数据库中进行检索,至少检索到两项相匹配的结果时所对应的姿态数据,作为姿态识别结果,然后基于姿态识别结果,判断人体姿态,得出当前行为分析结果。
具体的,用户的视线方向,可以作为用户意图判断的重要参数。现有技术中进行视线方向判断通过获取人体的眼球的朝向与参考平面之间的夹角;根据位置信息和夹角,确定人体的视线方向。
具体的,手势无论是静态或动态,其识别顺序首先需进行图像的获取手的检测和分割手势的分析,然后进行静态或动态的手势识别。手势分割
手势分割是手势识别过程中关键的一步,手势分割的效果直接影响到下一步手势分析及最终的手势识别。目前最常用的手势分割法主要包括基于单目视觉的手势分割和基于立体视觉的手势分割。
单目视觉是利用一个图像采集设备获得手势,得到手势的平面模型。建立手势形状数据库的方法是将能够考虑的所有手势建立起来,利于手势的模版匹配,但其计算量随之增加,不利于系统的快速识别。
立体视觉是利用多个图像采集设备得到手势的不同图像,转换成立体模型。立体匹配的方法与单目视觉中的模板匹配方法类似,也要建立大量的手势库;而三维重构则需建立手势的三维模型,计算量将增加,但分割效果较好。
手势分析是完成手势识别系统的关键技术之一。通过手势分析,可获得手势的形状特征或运动轨迹。手势的形状和运动轨迹是动态手势识别中的重要特征,与手势所表达意义有直接的关系。手势分析的主要方法有以下几类:边缘轮廓提取法、质心手指等多特征结合法以及指关节式跟踪法等。
边缘轮廓提取法是手势分析常用的方法之一,手型因其特有的外形而与其他物体区分;何阳青采用结合几何矩和边缘检测的手势识别算法,通过设定两个特征的权重来计算图像间的距离,实现对字母手势的识别。多特征结合法则是根据手的物理特性分析手势的姿势或轨迹;Meenakshi Panwar将手势形状和手指指尖特征相结合来实现手势的识别。指关节式跟踪法主要是构建手的二维或三维模型,再根据人手关节点的位置变化来进行跟踪,其主要应用于动态轨迹跟踪。
手势识别是将模型参数空间里的轨迹(或点)分类到该空间里某个子集的过程,其包括静态手势识别和动态手势识别,动态手势识别最终可转化为静态手势识别。从手势识别的技术实现来看,常见手势识别方法主要有:模板匹配法神经网络法和隐马尔可夫模型法。
模板匹配法是将手势的动作看成是一个由静态手势图像所组成的序列,然后将待识别的手势模板序列与已知的手势模板序列进行比较,从而识别出手势。
隐马尔可夫模型法(Hidden Markov Model,HMM):是一种统计模型,用隐马尔可夫建模的系统具有双重随机过程,其包括状态转移和观察值输出的随机过程。其中状态转移的随机过程是隐性的,其通过观察序列的随机过程所表现。
实施例9
如图4所示,在上一实施例的基础上,所述用户行为预测装置,基于得出的当前行为分析结果和历史行为数据,预测用户的行为,得出用户预测行为结果的方法包括:根据历史行为数据建立行为数据链;所述行为数据链定义为:将关联的历史行为数据进行绑定后得到的数据链;所述关联的历史行为数据定义为:在某连续的时间段内,至少两个历史行为数据发生的时间间隔低于设定的阈值;基于当前行为分析结果在数据链中进行匹配查询,若查询到相匹配的历史行为数据,则根据构建的数据链,找到该历史行为数据关联的所有的历史行为,将关联的所有的历史行为作为用户预测行为结果。
具体的,本发明在查找全景图像中人体区域时,没有使用现有的人体区域检测算法,而是通过构建邻接叠加图和全局叠加图来进行人体区域检测,同时结合分割图像间的颜色对比度、空间距离权重及背景概率权重来确定三幅初始权重图,再对三幅初始权重图进行累加来获得人体部分,相较于现有技术,这样做可以使得获得的人体部分更加准确,因为邻接叠加、全局叠加和初始叠加通过三种不同的维度来实现,得到的结果更能反映图像的特征,以此累加后得到的人体区域部分,可以大幅去掉背景图像的干扰和图像本身噪声的干扰,提升准确率。
具体的,图4中的每个圆圈均代表一个历史行为数据,相连的圆圈则代表关联的历史行为数据,不相连的圆圈则代表没有关联的历史行为数据。黑色的圆圈代表进行该历史行为数据后,用户离开了目标场景。
实施例10
基于实时用户行为分析的智能家居管理方法。
具体的,本发明的控制装置在获取了当前行为分析结果、环境数据和用户预测行为结果后,根据预先设定的权重比,来计算最终的控制结果;再将控制结果发送至智能家居设备,以控制智能家居设备的运行。
若设定的当前行为分析结果的权重比为H,环境数据的权重比为J,用户预测行为结果的权重比为G,则最终的控制结果使用如下公式进行表示:最终的控制结果=当前行为分析结果*H+环境数据*J+用户预测行为结果*G。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
需要说明的是,上述实施例提供的系统,仅以上述各功能单元的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能单元来完成,即将本发明实施例中的单元或者步骤再分解或者组合,例如,上述实施例的单元可以合并为一个单元,也可以进一步拆分成多个子单元,以完成以上描述的全部或者单元功能。对于本发明实施例中涉及的单元、步骤的名称,仅仅是为了区分各个单元或者步骤,不视为对本发明的不当限定。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的存储装置、处理装置的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
本领域技术人员应能够意识到,结合本文中所公开的实施例描述的各示例的单元、方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,软件单元、方法步骤对应的程序可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
术语“第一”、“另一部分”等是配置用于区别类似的对象,而不是配置用于描述或表示特定的顺序或先后次序。
术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者单元/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者单元/装置所固有的要素。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术标记作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
以上所述,仅为本发明的较佳实施例而已,并非配置用于限定本发明的保护范围。