CN108764483A - 低算力要求的神经网络分块优化方法及分块优化器 - Google Patents

低算力要求的神经网络分块优化方法及分块优化器 Download PDF

Info

Publication number
CN108764483A
CN108764483A CN201810273656.9A CN201810273656A CN108764483A CN 108764483 A CN108764483 A CN 108764483A CN 201810273656 A CN201810273656 A CN 201810273656A CN 108764483 A CN108764483 A CN 108764483A
Authority
CN
China
Prior art keywords
hyperplane
region
power
trained
piecemeal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810273656.9A
Other languages
English (en)
Other versions
CN108764483B (zh
Inventor
马瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Biyou Wave Technology Co ltd
Original Assignee
Zhejiang Changxin Descartes Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Changxin Descartes Technology Co Ltd filed Critical Zhejiang Changxin Descartes Technology Co Ltd
Priority to CN201810273656.9A priority Critical patent/CN108764483B/zh
Publication of CN108764483A publication Critical patent/CN108764483A/zh
Application granted granted Critical
Publication of CN108764483B publication Critical patent/CN108764483B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本发明公开了低算力要求的神经网络分块优化方法及分块优化器,该方法包括:分解隐层拓扑,将隐层参数形成的向量排列组成超平面;在超平面的每个位置添加数据;将超平面平分为二分别训练,选择变化程度较高的区域判断是否满足系统算力要求,多次重复直到某次分块后满足系统算力要求;使用训练数据集对筛选出的区域进行训练,若loss function满足系统要求结束训练;反之则组成新的待训练空间继续训练。本发明实施例在算力不足的应用场景下,基于相对少量的样本数据,通过搜寻隐层参数超平面上对loss function影响较大的区域并对其进行针对性的调优,用较小的运算量来快速完成一套满足基本要求的神经网络,且样本数据可以多次利用。

Description

低算力要求的神经网络分块优化方法及分块优化器
技术领域
本发明涉及机器学习领域,尤其涉及低算力要求的神经网络分块优化方法及分块优化器。
背景技术
神经网络的调节主要依靠调节隐层中的参数从而改变输入与输出间的非线性关系。传统的优化器着眼于寻找全局最优,在网络层数比较浅时通过不大的数据量就可以完整网络参数的调优。
但是当网络层数逐渐增加,由隐层参数组成的超平面逐渐变大,想要达到相同的调优效果也就需要更大量的样本数据和算力支持。在某些应用场景下不适合使用传统的优化算法,如系统算力不高的情况下,应使得运算量减少、样本数据相对较少,要求样本可以多次利用。
发明内容
为了克服现有技术的不足,本发明的目的在于提供低算力要求的神经网络分块优化方法及分块优化器,旨在解决传统的优化器应用于低算力要求的场景时神经网络优化的运算量较高、样本数据较大、样本不可多次利用的问题。
本发明的目的采用以下技术方案实现:
一种低算力要求的神经网络分块优化方法,包括:
步骤S1,分解隐层拓扑,完成隐层参数向量化;
步骤S2,根据隐层链接结构,将隐层参数形成的向量排列组成超平面;
步骤S3,在超平面的每个位置添加数据,作为超平面的初始态;
步骤S4,将超平面平分为两块区域,分别使用相同的数据集进行训练,并分别分析训练前后两块区域的数据变化程度;
步骤S5,留下变化程度较高的区域并判断该区域是否满足系统算力要求,若满足系统算力要求则进入步骤S6;否则继续重复步骤S4直至留下的变化程度较高的区域满足系统算力要求为止;
步骤S6,使用训练数据集对筛选出的区域进行训练,完成训练后若loss function满足系统要求,结束训练;反之进入步骤S7;
步骤S7,将步骤S6中满足系统算力要求的区域继续均分为两块区域,按步骤S4的方法挑选出变化较高的区域,然后从其他区域再选取相同大小的区域组成一个新的满足系统算力要求的待训练空间,继续按步骤S6的方法进行训练。
在上述实施例的基础上,优选的,所述超平面为二维超平面。
在上述任意实施例的基础上,优选的,所述步骤S3,具体为:
在超平面的每个位置添加随机生成的数据,作为超平面的初始态。
在上述任意实施例的基础上,优选的,所述步骤S7中,所述从其他区域再选取相同大小的区域组成一个新的满足系统算力要求的待训练空间的步骤,具体为:
逆向回溯至最近的区域组成一个新的满足系统算力要求的待训练空间。
或者,优选的,所述步骤S7中,所述从其他区域再选取相同大小的区域组成一个新的满足系统算力要求的待训练空间的步骤,具体为:
从第一次分块的另一半区域进行搜索,选取相同大小的区域组成一个新的满足系统算力要求的待训练空间。
一种低算力要求的神经网络分块优化器,包括:
第一模块,用于执行:
步骤S1,分解隐层拓扑,完成隐层参数向量化;
第二模块,用于执行:
步骤S2,根据隐层链接结构,将隐层参数形成的向量排列组成超平面;
第三模块,用于执行:
步骤S3,在超平面的每个位置添加数据,作为超平面的初始态;
第四模块,用于执行:
步骤S4,将超平面平分为两块区域,分别使用相同的数据集进行训练,并分别分析训练前后两块区域的数据变化程度;
第五模块,用于执行:
步骤S5,留下变化程度较高的区域并判断该区域是否满足系统算力要求,若满足系统算力要求则进入步骤S6;否则继续重复步骤S4直至留下的变化程度较高的区域满足系统算力要求为止;
第六模块,用于执行:
步骤S6,使用训练数据集对筛选出的区域进行训练,完成训练后若loss function满足系统要求,结束训练;反之进入步骤S7;
第七模块,用于执行:
步骤S7,将步骤S6中满足系统算力要求的区域继续均分为两块区域,按步骤S4的方法挑选出变化较高的区域,然后从其他区域再选取相同大小的区域组成一个新的满足系统算力要求的待训练空间,继续按步骤S6的方法进行训练。
在上述实施例的基础上,优选的,所述超平面为二维超平面。
在上述任意实施例的基础上,优选的,所述第三模块,用于执行步骤S3:
在超平面的每个位置添加随机生成的数据,作为超平面的初始态。
在上述任意实施例的基础上,优选的,所述第七模块逆向回溯至最近的区域组成一个新的满足系统算力要求的待训练空间。
或者,优选的,所述第七模块从第一次分块的另一半区域进行搜索,选取相同大小的区域组成一个新的满足系统算力要求的待训练空间。
相比现有技术,本发明的有益效果在于:
本发明公开了低算力要求的神经网络分块优化方法及分块优化器,该方法包括:分解隐层拓扑,完成隐层参数向量化;将隐层参数形成的向量排列组成超平面;在超平面的每个位置添加数据;将超平面平分为二,分别使用相同的数据集进行训练,分析两块区域的数据变化程度,选择变化程度较高的区域判断其系统算力要求,多次重复对超平面进行分块直到某次分块后变化程度较高的一块区域满足系统算力要求;使用训练数据集对筛选出的区域进行训练,完成训练后若loss function满足系统要求,结束训练;反之则将满足系统算力要求的区域继续均分为两块区域,按前述超平面分块的方法挑选出变化较高的区域,然后从其他区域再选取相同大小的区域组成一个新的满足系统算力要求的待训练空间,继续训练。本发明实施例在算力不足的应用场景下,基于相对少量的样本数据,通过搜寻隐层参数超平面上对loss function影响较大的区域并对其进行针对性的调优,用较小的运算量来快速完成一套满足基本要求的神经网络,且样本数据可以多次利用。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1示出了本发明实施例提供的一种低算力要求的神经网络分块优化方法的流程示意图;
图2示出了本发明实施例提供的一种低算力要求的神经网络分块优化器的结构示意图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述,需要说明的是,在不相冲突的前提下,以下描述的各实施例之间或各技术特征之间可以任意组合形成新的实施例。
具体实施例一
如图1所示,本发明实施例提供了一种低算力要求的神经网络分块优化方法,包括:
步骤S1,分解隐层拓扑,完成隐层参数向量化;
步骤S2,根据隐层链接结构,将隐层参数形成的向量排列组成超平面;
步骤S3,在超平面的每个位置添加数据,作为超平面的初始态;
步骤S4,将超平面平分为两块区域,分别使用相同的数据集进行训练,并分别分析训练前后两块区域的数据变化程度;
步骤S5,留下变化程度较高的区域并判断该区域是否满足系统算力要求,若满足系统算力要求则进入步骤S6;否则继续重复步骤S4直至留下的变化程度较高的区域满足系统算力要求为止;
步骤S6,使用训练数据集对筛选出的区域进行训练,完成训练后若loss function满足系统要求,结束训练;反之进入步骤S7;
步骤S7,将步骤S6中满足系统算力要求的区域继续均分为两块区域,按步骤S4的方法挑选出变化较高的区域,然后从其他区域再选取相同大小的区域组成一个新的满足系统算力要求的待训练空间,继续按步骤S6的方法进行训练。
本发明实施例在算力不足的应用场景下,基于相对少量的样本数据,通过搜寻隐层参数超平面上对loss function影响较大的区域并对其进行针对性的调优,用较小的运算量来快速完成一套满足基本要求的神经网络,且样本数据可以多次利用。
本发明实施例对超平面的维数不做限定,优选的,所述超平面可以为二维超平面。这样做的好处是,不限定超平面的维数,使超平面的维数可以不受限制,能够应用于各种维数的场景。
本发明实施例对步骤S3中所添加的数据的来源不做限定,其可以为根据经验人工添加,优选的,所述步骤S3,也可以具体为:在超平面的每个位置添加随机生成的数据,作为超平面的初始态。
本发明实施例对步骤S4中的分块方法不做限定,对数据变化程度度量的计算方法也不做限定。本发明实施例不关注具体的分块方式和具体的对于数据变化程度的度量方式,均可以应用现有技术。
本发明实施例对步骤S7中的选取方法不做限定,其可以为逆向回溯至最近的区域,也可随机挑出,也可重启搜索从第一次分块的另一半平面进行搜索。即,优选的,所述步骤S7中,所述从其他区域再选取相同大小的区域组成一个新的满足系统算力要求的待训练空间的步骤,可以具体为:逆向回溯至最近的区域组成一个新的满足系统算力要求的待训练空间;或者,也可以具体为:从第一次分块的另一半区域进行搜索,选取相同大小的区域组成一个新的满足系统算力要求的待训练空间。这样做的好处是,在尽量不增加过多运算量的前提下,达到训练效果。
在上述的具体实施例一中,提供了低算力要求的神经网络分块优化方法,与之相对应的,本申请还提供低算力要求的神经网络分块优化器。由于装置实施例基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。下述描述的装置实施例仅仅是示意性的。
具体实施例二
如图2所示,本发明实施例提供了一种低算力要求的神经网络分块优化器,包括:
第一模块,用于执行:
步骤S1,分解隐层拓扑,完成隐层参数向量化;
第二模块,用于执行:
步骤S2,根据隐层链接结构,将隐层参数形成的向量排列组成超平面;
第三模块,用于执行:
步骤S3,在超平面的每个位置添加数据,作为超平面的初始态;
第四模块,用于执行:
步骤S4,将超平面平分为两块区域,分别使用相同的数据集进行训练,并分别分析训练前后两块区域的数据变化程度;
第五模块,用于执行:
步骤S5,留下变化程度较高的区域并判断该区域是否满足系统算力要求,若满足系统算力要求则进入步骤S6;否则继续重复步骤S4直至留下的变化程度较高的区域满足系统算力要求为止;
第六模块,用于执行:
步骤S6,使用训练数据集对筛选出的区域进行训练,完成训练后若loss function满足系统要求,结束训练;反之进入步骤S7;
第七模块,用于执行:
步骤S7,将步骤S6中满足系统算力要求的区域继续均分为两块区域,按步骤S4的方法挑选出变化较高的区域,然后从其他区域再选取相同大小的区域组成一个新的满足系统算力要求的待训练空间,继续按步骤S6的方法进行训练。
本发明实施例在算力不足的应用场景下,基于相对少量的样本数据,通过搜寻隐层参数超平面上对loss function影响较大的区域并对其进行针对性的调优,用较小的运算量来快速完成一套满足基本要求的神经网络,且样本数据可以多次利用。
优选的,所述超平面可以为二维超平面。
优选的,所述第三模块,可以用于执行步骤S3:
在超平面的每个位置添加随机生成的数据,作为超平面的初始态。
优选的,所述第七模块可以逆向回溯至最近的区域组成一个新的满足系统算力要求的待训练空间。
或者,优选的,所述第七模块可以从第一次分块的另一半区域进行搜索,选取相同大小的区域组成一个新的满足系统算力要求的待训练空间。
本发明从使用目的上,效能上,进步及新颖性等观点进行阐述,其具有的实用进步性,己符合专利法所强调的功能增进及使用要件,本发明以上的说明及附图,仅为本发明的较佳实施例而己,并非以此局限本发明,因此,凡一切与本发明构造,装置,待征等近似、雷同的,即凡依本发明专利申请范围所作的等同替换或修饰等,皆应属本发明的专利申请保护的范围之内。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。尽管本发明已进行了一定程度的描述,明显地,在不脱离本发明的精神和范围的条件下,可进行各个条件的适当变化。可以理解,本发明不限于所述实施方案,而归于权利要求的范围,其包括所述每个因素的等同替换。对本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及形变,而所有的这些改变以及形变都应该属于本发明权利要求的保护范围之内。

Claims (10)

1.一种低算力要求的神经网络分块优化方法,其特征在于,包括:
步骤S1,分解隐层拓扑,完成隐层参数向量化;
步骤S2,根据隐层链接结构,将隐层参数形成的向量排列组成超平面;
步骤S3,在超平面的每个位置添加数据,作为超平面的初始态;
步骤S4,将超平面平分为两块区域,分别使用相同的数据集进行训练,并分别分析训练前后两块区域的数据变化程度;
步骤S5,留下变化程度较高的区域并判断该区域是否满足系统算力要求,若满足系统算力要求则进入步骤S6;否则继续重复步骤S4直至留下的变化程度较高的区域满足系统算力要求为止;
步骤S6,使用训练数据集对筛选出的区域进行训练,完成训练后若loss function满足系统要求,结束训练;反之进入步骤S7;
步骤S7,将步骤S6中满足系统算力要求的区域继续均分为两块区域,按步骤S4的方法挑选出变化较高的区域,然后从其他区域再选取相同大小的区域组成一个新的满足系统算力要求的待训练空间,继续按步骤S6的方法进行训练。
2.根据权利要求1所述的低算力要求的神经网络分块优化方法,其特征在于,所述超平面为二维超平面。
3.根据权利要求1或2所述的低算力要求的神经网络分块优化方法,其特征在于,所述步骤S3,具体为:
在超平面的每个位置添加随机生成的数据,作为超平面的初始态。
4.根据权利要求1或2所述的低算力要求的神经网络分块优化方法,其特征在于,所述步骤S7中,所述从其他区域再选取相同大小的区域组成一个新的满足系统算力要求的待训练空间的步骤,具体为:
逆向回溯至最近的区域组成一个新的满足系统算力要求的待训练空间。
5.根据权利要求1或2所述的低算力要求的神经网络分块优化方法,其特征在于,所述步骤S7中,所述从其他区域再选取相同大小的区域组成一个新的满足系统算力要求的待训练空间的步骤,具体为:
从第一次分块的另一半区域进行搜索,选取相同大小的区域组成一个新的满足系统算力要求的待训练空间。
6.一种低算力要求的神经网络分块优化器,其特征在于,包括:
第一模块,用于执行:
步骤S1,分解隐层拓扑,完成隐层参数向量化;
第二模块,用于执行:
步骤S2,根据隐层链接结构,将隐层参数形成的向量排列组成超平面;
第三模块,用于执行:
步骤S3,在超平面的每个位置添加数据,作为超平面的初始态;
第四模块,用于执行:
步骤S4,将超平面平分为两块区域,分别使用相同的数据集进行训练,并分别分析训练前后两块区域的数据变化程度;
第五模块,用于执行:
步骤S5,留下变化程度较高的区域并判断该区域是否满足系统算力要求,若满足系统算力要求则进入步骤S6;否则继续重复步骤S4直至留下的变化程度较高的区域满足系统算力要求为止;
第六模块,用于执行:
步骤S6,使用训练数据集对筛选出的区域进行训练,完成训练后若loss function满足系统要求,结束训练;反之进入步骤S7;
第七模块,用于执行:
步骤S7,将步骤S6中满足系统算力要求的区域继续均分为两块区域,按步骤S4的方法挑选出变化较高的区域,然后从其他区域再选取相同大小的区域组成一个新的满足系统算力要求的待训练空间,继续按步骤S6的方法进行训练。
7.根据权利要求6所述的低算力要求的神经网络分块优化器,其特征在于,所述超平面为二维超平面。
8.根据权利要求6或7所述的低算力要求的神经网络分块优化器,其特征在于,所述第三模块,用于执行步骤S3:
在超平面的每个位置添加随机生成的数据,作为超平面的初始态。
9.根据权利要求6或7所述的低算力要求的神经网络分块优化器,其特征在于,所述第七模块逆向回溯至最近的区域组成一个新的满足系统算力要求的待训练空间。
10.根据权利要求6或7所述的低算力要求的神经网络分块优化器,其特征在于,所述第七模块从第一次分块的另一半区域进行搜索,选取相同大小的区域组成一个新的满足系统算力要求的待训练空间。
CN201810273656.9A 2018-03-29 2018-03-29 低算力要求的神经网络分块优化方法及分块优化器 Expired - Fee Related CN108764483B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810273656.9A CN108764483B (zh) 2018-03-29 2018-03-29 低算力要求的神经网络分块优化方法及分块优化器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810273656.9A CN108764483B (zh) 2018-03-29 2018-03-29 低算力要求的神经网络分块优化方法及分块优化器

Publications (2)

Publication Number Publication Date
CN108764483A true CN108764483A (zh) 2018-11-06
CN108764483B CN108764483B (zh) 2021-05-18

Family

ID=63980820

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810273656.9A Expired - Fee Related CN108764483B (zh) 2018-03-29 2018-03-29 低算力要求的神经网络分块优化方法及分块优化器

Country Status (1)

Country Link
CN (1) CN108764483B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102496061A (zh) * 2011-11-25 2012-06-13 河海大学 基于主动学习的神经网络样本选择方法及其装置
CN106990995A (zh) * 2017-03-22 2017-07-28 西安交通大学 一种基于机器学习的循环分块大小选择方法
CN107016175A (zh) * 2017-03-23 2017-08-04 中国科学院计算技术研究所 适用神经网络处理器的自动化设计方法、装置及优化方法
CN107402905A (zh) * 2016-05-19 2017-11-28 北京旷视科技有限公司 基于神经网络的计算方法及装置
CN107437110A (zh) * 2017-07-11 2017-12-05 中国科学院自动化研究所 卷积神经网络的分块卷积优化方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102496061A (zh) * 2011-11-25 2012-06-13 河海大学 基于主动学习的神经网络样本选择方法及其装置
CN107402905A (zh) * 2016-05-19 2017-11-28 北京旷视科技有限公司 基于神经网络的计算方法及装置
CN106990995A (zh) * 2017-03-22 2017-07-28 西安交通大学 一种基于机器学习的循环分块大小选择方法
CN107016175A (zh) * 2017-03-23 2017-08-04 中国科学院计算技术研究所 适用神经网络处理器的自动化设计方法、装置及优化方法
CN107437110A (zh) * 2017-07-11 2017-12-05 中国科学院自动化研究所 卷积神经网络的分块卷积优化方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
S.NARANG: ""learning intrinsic sparse structures neural networks"", 《CVPR》 *

Also Published As

Publication number Publication date
CN108764483B (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
Lindner et al. Theory of oscillatory firing induced by spatially correlated noise and delayed inhibitory feedback
CN102567973B (zh) 基于改进的形状自适应窗口的图像去噪方法
CN103353872B (zh) 一种基于神经网络的教学资源个性化推荐方法
CN106411572B (zh) 一种结合节点信息和网络结构的社区发现方法
Zhao et al. Non-smooth plant disease models with economic thresholds
CN109829337B (zh) 一种社会网络隐私保护的方法、系统及设备
CN103246819B (zh) 一种面向普适计算的不一致性上下文消除系统和方法
Guillemin et al. Convexity for Hamiltonian torus actions on $ b $-symplectic manifolds
CN108416495A (zh) 基于机器学习的评分卡模型建立方法及装置
CN104182422B (zh) 统一通讯录信息处理方法和系统
CN106296425A (zh) 基于带权重联合非负矩阵分解的属性图聚类方法及系统
CN111061624A (zh) 策略执行效果确定方法、装置、电子设备及存储介质
CN103164495A (zh) 一种基于周边搜索的半连接查询优化方法及其系统
CN108764483A (zh) 低算力要求的神经网络分块优化方法及分块优化器
CN110162716A (zh) 一种基于社区检索的影响力社区搜索方法和系统
Hajra et al. Phase transitions in an aging network
CN103413027B (zh) 一种社会网络重叠社区发现方法的评价方法
CN107798623A (zh) 媒体干预下三分意见群体网络舆情传播模型
CN107315902A (zh) 基于维度区分的团队进步算法改进方案
CN111950129A (zh) 基于高斯回归模型的作战仿真实验方案优化方法
CN103310424B (zh) 一种基于结构相似度与全变差混合模型的图像去噪方法
CN106201655A (zh) 虚拟机分配方法和虚拟机分配系统
CN103268520B (zh) 一种基于技能贡献值的网络团队自动组建方法
Zhao et al. No-reference stereoscopic image quality assessment based on dilation convolution
CN112560326B (zh) 压力场的确定方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210219

Address after: No.50 GUCUI Road, Xihu District, Hangzhou City, Zhejiang Province 310012

Applicant after: Ding Zhilu

Address before: 313100 LV Shan township industrial zone, Changxing County, Huzhou, Zhejiang

Applicant before: ZHEJIANG CHANGXING DICAER TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right

Effective date of registration: 20210323

Address after: No.50 GUCUI Road, Xihu District, Hangzhou, Zhejiang 310000

Applicant after: Ding Zhilu

Applicant after: He Yifan

Address before: No.50 GUCUI Road, Xihu District, Hangzhou City, Zhejiang Province 310012

Applicant before: Ding Zhilu

TA01 Transfer of patent application right
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210414

Address after: Room 617, 6th floor, building 7, No. 970-1, Gaojiao Road, Wuchang Street, Yuhang District, Hangzhou City, Zhejiang Province 310000

Applicant after: Hangzhou biyou Wave Technology Co.,Ltd.

Address before: No.50 GUCUI Road, Xihu District, Hangzhou, Zhejiang 310000

Applicant before: Ding Zhilu

Applicant before: He Yifan

GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210518