CN110737339B - 基于深度学习的视觉—触觉交互模型构建方法 - Google Patents

基于深度学习的视觉—触觉交互模型构建方法 Download PDF

Info

Publication number
CN110737339B
CN110737339B CN201911029362.2A CN201911029362A CN110737339B CN 110737339 B CN110737339 B CN 110737339B CN 201911029362 A CN201911029362 A CN 201911029362A CN 110737339 B CN110737339 B CN 110737339B
Authority
CN
China
Prior art keywords
visual
task
model
tasks
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911029362.2A
Other languages
English (en)
Other versions
CN110737339A (zh
Inventor
赵铁松
薛鸿
徐艺文
陈炜玲
乔杨珺
袁迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201911029362.2A priority Critical patent/CN110737339B/zh
Publication of CN110737339A publication Critical patent/CN110737339A/zh
Application granted granted Critical
Publication of CN110737339B publication Critical patent/CN110737339B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种基于深度学习的视觉—触觉交互模型构建方法。首先,基于设计的三种虚拟交互任务,获得不同任务下视觉注意力和触感控制之间的相关性,进行跨模态行为分析;其次,根据相关性,利用LSTM神经网络建立视觉—触觉交互预测模型,实现不同任务的交互模型,并进行性能对比和评价;最后,利用训练模型预测出的结果在虚拟控制任务中进行实施,判断任务中目标的完成情况。本发明方法较采用传统的基于机器学习的训练模型相比,基于深度学习的LSTM神经网络模型预测效果最好,并在非随机任务中任务完成度较高,优势明显。

Description

基于深度学习的视觉—触觉交互模型构建方法
技术领域
本发明涉及视觉—触觉多媒体交互技术领域,特别是一种基于深度学习的视觉—触觉交互模型构建方法。
背景技术
现代多媒体系统中,视觉和听觉信息是普遍的。除了传统的视-听语言,触感信息将带来更真实、沉浸的体验,例如主端用户控制远程机械手臂与其所处的环境进行交互,用户不仅可感受到触觉反馈或者视觉信息来进一步调整远程控制过程。
在如上所述的触感驱动的过程中,融合了跨模态多感知信息并呈现给用户。然而,在机器智能时代,这些多感知信号没有整合在一起。所以,多感知信息的交互是非常关键的,这可以进一步增强系统的服务质量(QoS)以及用户的体验质量(QoE)。人类一般通过视觉感知大部分外部信息,在多感知交互领域中视觉—触觉交互是一个有吸引力的话题,利用视觉注意力为触感控制提供指导更是一个新颖的方向。眼球追踪检测到的视觉注意力的变化有利于有效的触觉指导,提升体验感,例如残疾人的行为、运动、意图等。
目前,视觉—触觉交互的研究主要集中在利用视觉注意力进行简单任务上的分类与识别。从基于视觉注意力预测特定的目标,到进一步的预测触觉操作行为,例如区域、方向等,大多数现有的研究利用视觉注意力预测较为宽泛的触感操作行为,如目标、区域、方向等。因此,基于视觉注意力进行更加精细的触觉指导是必然趋势。本发明致力于更精细的操作任务,并在任务驱动的场景中建立跨模态视觉—触觉交互模型。
发明内容
本发明的目的在于提供一种基于深度学习的视觉—触觉交互模型构建方法,该方法较传统机器学习方法提高了触感控制指导的精度。
为实现上述目的,本发明的技术方案是:一种基于深度学习的视觉—触觉交互模型构建方法,包括如下步骤:
步骤S1、基于虚拟交互任务,得到不同虚拟交互任务下视觉注意力与触感控制之间的相关性;
步骤S2、使用LSTM长短期记忆神经网络,利用用户的视觉注意力预测触感控制下的动觉位置,实现视觉—触觉交互模型的构建及性能验证;
步骤S3、利用训练模型预测出的结果在控制任务中进行实施,判断任务中目标的完成情况。
在本发明一实施例中,所述步骤S1具体实现如下:
步骤S11、建立视觉—触觉交互系统,该系统包括眼球追踪平台和触感交互平台;
步骤S12、基于步骤S11建立的视觉—触觉交互系统,在虚拟环境中设计三种虚拟交互任务,包括随机轨迹任务、固定轨迹任务与避障轨迹任务;采用主观测试获得包含记录任务数据的主观数据集,每个记录任务包含一对眼动信号序列和动觉位置序列的数据;
步骤S13、基于步骤S12获取到的视觉—触觉对数据集,对数据进行预处理,以实现跨模态信号的统一;具体包括对触感信号进行下采样以保持和眼动信号相同的采样率;对注视点坐标进行映射以保持和触感控制相同的Euclidean空间;对眼动信号采取移动平均滤波以避免不同用户注视习惯差异造成的不同程度信号噪声的影响;消除锋利的以及未采样到的眼动数据;
步骤S14、根据不同虚拟交互任务得到的有效数据集,针对每个记录任务计算每个坐标维度的相关性,最终每个记录任务的相关性为两个坐标维度相关性的平均,使用Person相关系数计算相关性,函数表达式如下:
Figure GDA0003111591580000021
其中,gi和pi分别表示一个记录任务中眼动坐标和动觉位置在每个样本的信号值,
Figure GDA0003111591580000022
Figure GDA0003111591580000023
分别表示一个记录任务中眼动坐标和动觉位置的平均值,n表示一个记录任务中的样本数量,γ表示计算的相关性值。
在本发明一实施例中,所述步骤S2具体实现如下:
步骤S21、读取数据集,对数据样本进行归一化,减少模型计算量,加速模型收敛并提高拟合效果;
步骤S22、载入LSTM神经网络,并根据具体要求添加新层,搭建视觉—触觉交互训练模型,针对具有不同相关性的任务分别构建一个模型;
步骤S23、引入训练效果评价指标MSE,对模型训练过程进行实时评价,实时保存训练模型和数据;
步骤S24、引入步骤S23训练的模型对测试集进行预测,使用MSE评价预测结果;
步骤S25、引入三种基于机器学习的方法与步骤S23训练的模型进行对比,分别为线性回归、K-NearestNeighbor回归与随机森林回归。
在本发明一实施例中,所述步骤S3具体实现如下:
步骤S31、在虚拟控制任务中验证模型的预测结果,针对测试集的每个记录任务,仅利用眼动信号预测出的动觉位置对目标进行控制,确定自动控制下任务目标能否完成;
步骤S32、引入性能评价指标任务完成度TAR,对任务完成情况进行评价,指标表达式如下:
Figure GDA0003111591580000031
其中,N表示成功完成任务的个数,Ntot表示任务的总个数。
相较于现有技术,本发明具有以下有益效果:本发明方法提供了一种新型的视觉—触觉交互模型,有效地提高了利用视觉注意力进行触感控制指导的精度,具有非常广泛的应用前景。
附图说明
图1是本发明实施例过程中的整体工作流程图。
图2是本发明实施例中的视觉-触觉交互模型图。
图3是本发明实施例中基于LSTM神经网络的视觉—触觉交互模型框架图。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
本发明提供了一种基于深度学习的视觉—触觉交互模型构建方法,包括如下步骤:
步骤S1、基于虚拟交互任务,得到不同虚拟交互任务下视觉注意力与触感控制之间的相关性;
步骤S2、使用LSTM长短期记忆神经网络,利用用户的视觉注意力预测触感控制下的动觉位置,实现视觉—触觉交互模型的构建及性能验证;
步骤S3、利用训练模型预测出的结果在控制任务中进行实施,判断任务中目标的完成情况。
以下为本发明一具体实施例。
本实施提供一种基于深度学习的视觉—触觉交互模型构建方法,整体工作流程如图1所示,包括以下步骤:步骤S1:基于三种设计的虚拟交互任务,得到不同任务下视觉注意力与触感控制之间的相关性;步骤S2:使用LSTM长短期记忆神经网络,利用用户的视觉注意力预测触感控制下的动觉位置,实现视觉—触觉交互模型的构建及性能验证;步骤S3:利用训练模型预测出的结果在控制任务中进行实施,判断任务中目标的完成情况。
在本实施例中,所述步骤S1,基于三种设计的虚拟交互任务,得到不同任务下视觉注意力与触感控制之间的相关性,具体包括以下步骤:
步骤S11、为了探讨视觉注意力和触感控制之间的相关性,需要建立视觉—触觉交互系统,该系统包括眼球追踪平台和触感交互平台;
步骤S12、基于S11建立的交互系统,在虚拟环境中设计三种交互任务,包括随机轨迹任务、固定轨迹任务与臂章轨迹任务;采用主观测试获得包含记录任务数据的主观数据集,每个记录任务包含一对包含眼动信号序列和动觉位置序列的数据;
步骤S13、基于S12获取到的视觉—触觉对数据集,对数据进行预处理,以实现跨模态信号的统一。具体包括对触感信号进行下采样以保持和眼动信号相同的采样率;对注视点坐标进行映射以保持和触感控制相同的Euclidean空间;对眼动信号采取移动平均滤波以避免不同用户注视习惯造成的不同程度信号噪声的影响;消除锋利的以及未采样到的眼动数据;
步骤S14、根据不同任务得到的有效数据集,针对每个记录任务计算每个坐标维度的相关性,最终每个记录任务的相关性为两个坐标维度相关性的平均,使用Person相关系数计算相关性,函数表达式如下:
Figure GDA0003111591580000041
其中,gi和pi分别表示一个记录任务中眼动坐标和动觉位置在每个样本的信号值,
Figure GDA0003111591580000042
Figure GDA0003111591580000043
分别表示一个记录任务中眼动坐标和动觉位置的平均值,n表示一个记录任务中的样本数量,γ表示计算的相关性值。
视觉-触觉交互模型如图2所述:在本实施例中,视觉注意力作为模型输入,触感控制的位置作为输出。B-LSTM神经网络框架图如图3所述:本实施例中,步骤S2采用双向LSTM神经网络,利用用户的视觉注意力预测触感控制下的动觉位置,实现视觉—触觉交互模型的构建,具体包括以下步骤:
步骤S21、读取数据集,对数据样本进行归一化,减少模型计算量,加速模型收敛并提高拟合效果;
步骤S22、载入LSTM神经网络,并根据具体要求添加新层,搭建视觉—触觉交互训练模型,针对具有不同相关性的任务分别构建一个模型;
步骤S23、引入训练效果评价指标MSE,对模型训练过程进行实时评价,实时保存训练模型和数据;
步骤S24、引入步骤S23训练的模型对测试集进行预测,使用MSE评价预测结果;
步骤S25、引入三种基于机器学习的方法与上述模型进行对比,分别为线性回归、K-Nearest Neighbor回归与随机森林回归。
进一步地,所述步骤S3利用训练模型预测出的结果在控制任务中进行实施,判断任务中目标的完成情况,具体包括以下步骤:
步骤S31、在虚拟控制任务中验证该模型的预测结果,针对测试集的每个记录任务,仅利用眼动信号预测出的动觉位置对目标进行控制,确定自动控制下任务目标能否完成;
步骤S32、引入性能评价指标任务完成度(TAR),对任务完成情况进行评价,指标表达式如下:
Figure GDA0003111591580000051
其中,N表示成功完成任务的个数,Ntot表示任务的总个数。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (4)

1.一种基于深度学习的视觉—触觉交互模型构建方法,其特征在于,包括如下步骤:
步骤S1、基于虚拟交互任务,得到不同虚拟交互任务下视觉注意力与触感控制之间的相关性;
步骤S2、使用LSTM长短期记忆神经网络,利用用户的视觉注意力预测触感控制下的动觉位置,实现视觉—触觉交互模型的构建及性能验证;
步骤S3、利用训练模型预测出的结果在控制任务中进行实施,判断任务中目标的完成情况。
2.根据权利要求1所述的基于深度学习的视觉—触觉交互模型构建方法,其特征在于,所述步骤S1具体实现如下:
步骤S11、建立视觉—触觉交互系统,该系统包括眼球追踪平台和触感交互平台;
步骤S12、基于步骤S11建立的视觉—触觉交互系统,在虚拟环境中设计三种虚拟交互任务,包括随机轨迹任务、固定轨迹任务与避障轨迹任务;采用主观测试获得包含记录任务数据的主观数据集,每个记录任务包含一对眼动信号序列和动觉位置序列的数据;
步骤S13、基于步骤S12获取到的视觉—触觉对数据集,对数据进行预处理,以实现跨模态信号的统一;具体包括对触感信号进行下采样以保持和眼动信号相同的采样率;对注视点坐标进行映射以保持和触感控制相同的Euclidean空间;对眼动信号采取移动平均滤波以避免不同用户注视习惯差异造成的不同程度信号噪声的影响;消除锋利的以及未采样到的眼动数据;
步骤S14、根据不同虚拟交互任务得到的有效数据集,针对每个记录任务计算每个坐标维度的相关性,最终每个记录任务的相关性为两个坐标维度相关性的平均,使用Person相关系数计算相关性,函数表达式如下:
Figure FDA0003111591570000011
其中,gi和pi分别表示一个记录任务中眼动坐标和动觉位置在每个样本的信号值,
Figure FDA0003111591570000012
Figure FDA0003111591570000013
分别表示一个记录任务中眼动坐标和动觉位置的平均值,n表示一个记录任务中的样本数量,γ表示计算的相关性值。
3.根据权利要求1所述的基于深度学习的视觉—触觉交互模型构建方法,其特征在于,所述步骤S2具体实现如下:
步骤S21、读取数据集,对数据样本进行归一化,减少模型计算量,加速模型收敛并提高拟合效果;
步骤S22、载入LSTM神经网络,并根据具体要求添加新层,搭建视觉—触觉交互训练模型,针对具有不同相关性的任务分别构建一个模型;
步骤S23、引入训练效果评价指标MSE,对模型训练过程进行实时评价,实时保存训练模型和数据;
步骤S24、引入步骤S23训练的模型对测试集进行预测,使用MSE评价预测结果;
步骤S25、引入三种基于机器学习的方法与步骤S23训练的模型进行对比,分别为线性回归、K-Nearest Neighbor回归与随机森林回归。
4.根据权利要求1所述的基于深度学习的视觉—触觉交互模型构建方法,其特征在于,所述步骤S3具体实现如下:
步骤S31、在虚拟控制任务中验证模型的预测结果,针对测试集的每个记录任务,仅利用眼动信号预测出的动觉位置对目标进行控制,确定自动控制下任务目标能否完成;
步骤S32、引入性能评价指标任务完成度TAR,对任务完成情况进行评价,指标表达式如下:
Figure FDA0003111591570000021
其中,N表示成功完成任务的个数,Ntot表示任务的总个数。
CN201911029362.2A 2019-10-28 2019-10-28 基于深度学习的视觉—触觉交互模型构建方法 Active CN110737339B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911029362.2A CN110737339B (zh) 2019-10-28 2019-10-28 基于深度学习的视觉—触觉交互模型构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911029362.2A CN110737339B (zh) 2019-10-28 2019-10-28 基于深度学习的视觉—触觉交互模型构建方法

Publications (2)

Publication Number Publication Date
CN110737339A CN110737339A (zh) 2020-01-31
CN110737339B true CN110737339B (zh) 2021-11-02

Family

ID=69271612

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911029362.2A Active CN110737339B (zh) 2019-10-28 2019-10-28 基于深度学习的视觉—触觉交互模型构建方法

Country Status (1)

Country Link
CN (1) CN110737339B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111796708B (zh) * 2020-06-02 2023-05-26 南京信息工程大学 一种在触摸屏上再现图像三维形状特征的方法
CN111796679B (zh) * 2020-06-19 2022-07-05 武汉大学 一种远程电磁触觉再现系统、磁场生成及触觉预测方法
CN112529062B (zh) * 2020-12-04 2021-06-15 齐鲁工业大学 一种基于灵巧手触觉信息的物体分类方法
CN113158493B (zh) * 2021-05-19 2022-11-18 苏州大学 纺织品虚拟触觉评价与预测方法及系统
CN114863093B (zh) * 2022-05-30 2024-05-31 厦门大学 基于眼动技术的神经网络训练方法及建筑设计方法和系统
CN116737051B (zh) * 2023-08-16 2023-11-24 北京航空航天大学 基于触控屏的视触结合交互方法、装置、设备和可读介质
CN116911079B (zh) * 2023-09-13 2024-02-09 江苏云幕智造科技有限公司 一种不完备模型的自演化建模方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104951447A (zh) * 2014-03-25 2015-09-30 上海市玻森数据科技有限公司 全网舆情监控系统
CN109214463A (zh) * 2018-09-25 2019-01-15 合肥优控科技有限公司 一种基于协同训练的地形分类方法
CN109923500A (zh) * 2016-08-22 2019-06-21 奇跃公司 具有深度学习传感器的增强现实显示装置
CN110162175A (zh) * 2019-05-16 2019-08-23 腾讯科技(深圳)有限公司 基于视觉的触觉测量方法、装置、设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190236416A1 (en) * 2018-01-31 2019-08-01 Microsoft Technology Licensing, Llc Artificial intelligence system utilizing microphone array and fisheye camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104951447A (zh) * 2014-03-25 2015-09-30 上海市玻森数据科技有限公司 全网舆情监控系统
CN109923500A (zh) * 2016-08-22 2019-06-21 奇跃公司 具有深度学习传感器的增强现实显示装置
CN109214463A (zh) * 2018-09-25 2019-01-15 合肥优控科技有限公司 一种基于协同训练的地形分类方法
CN110162175A (zh) * 2019-05-16 2019-08-23 腾讯科技(深圳)有限公司 基于视觉的触觉测量方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110737339A (zh) 2020-01-31

Similar Documents

Publication Publication Date Title
CN110737339B (zh) 基于深度学习的视觉—触觉交互模型构建方法
US11670185B2 (en) Adaptive machine learning system
Mead et al. Autonomous human–robot proxemics: socially aware navigation based on interaction potential
US10949660B2 (en) Electronic handwriting processor with convolutional neural networks
Perrin et al. Brain-coupled interaction for semi-autonomous navigation of an assistive robot
Coelho et al. Developing accessible TV applications
Kaaresoja et al. Towards the temporally perfect virtual button: touch-feedback simultaneity and perceived quality in mobile touchscreen press interactions
JP2020102194A (ja) コンテキストベースの深層知識追跡のためのシステム、方法及びプログラム
EP3164806A1 (en) Systems and methods for assessing, verifying and adjusting the affective state of a user
US10930265B2 (en) Cognitive enhancement of communication with tactile stimulation
US10541884B2 (en) Simulating a user score from input objectives
US20210074171A1 (en) Tracking concepts and presenting content in a learning system
CN108805035A (zh) 基于手势识别的教学互动方法以及装置
Bailly et al. Computational model of the transition from novice to expert interaction techniques
WO2018203122A1 (en) Computationally derived assessment in childhood education systems
US20180005116A1 (en) Method and system for automatic real-time identification and presentation of analogies to clarify a concept
CN113591678A (zh) 课堂注意力确定方法、装置、设备、存储介质及程序产品
Lam et al. The effects of system interpretation errors on learning new input mechanisms
Zhang et al. Learning preference: development in smart learning environments
Matei et al. Engineering a digital twin for manual assembling
Mead et al. Toward robot adaptation of human speech and gesture parameters in a unified framework of proxemics and multimodal communication
Mead Situated Proxemics and Multimodal Communication: Space, Speech, and Gesture in Human-Robot Interaction
Augstein et al. 3 Automated personalization of input methods and processes
WO2011013117A1 (en) System and methods which monitor for attentiveness by altering transfer function governing user-perceptible behaviors vs. user input
KR20210105272A (ko) 교육적 요소를 예측하는 사전학습 모델링 시스템 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant