CN113688685B - 基于交互场景下的手语识别方法 - Google Patents

基于交互场景下的手语识别方法 Download PDF

Info

Publication number
CN113688685B
CN113688685B CN202110843391.3A CN202110843391A CN113688685B CN 113688685 B CN113688685 B CN 113688685B CN 202110843391 A CN202110843391 A CN 202110843391A CN 113688685 B CN113688685 B CN 113688685B
Authority
CN
China
Prior art keywords
sign language
dialogue
prediction
result
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110843391.3A
Other languages
English (en)
Other versions
CN113688685A (zh
Inventor
冯伟
刘之谏
高丽清
刘泽康
史鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202110843391.3A priority Critical patent/CN113688685B/zh
Publication of CN113688685A publication Critical patent/CN113688685A/zh
Application granted granted Critical
Publication of CN113688685B publication Critical patent/CN113688685B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种基于交互场景下的手语识别方法,包括下列步骤:构建交互场景的对话文本数据库;构建交互场景的手语视频数据库;训练交互场景对话预测模型和手语视频识别网络;通过训练好的交互场景对话预测模型和手语视频识别网络,得到当前对话的预测结果和手语视频识别关键词信息;然后使用相似度匹配算法,将全部预测结果的对话模板与手语视频识别关键词组合得到手语关键词预测句子,然后将手语关键词预测句子和语言模型预测句子进行余弦相似度计算,将得到的相似度最高的结果作为对话的预测结果中与当前手语识别关键词匹配度最高的结果,并将结果返回。

Description

基于交互场景下的手语识别方法
技术领域
本发明涉及手语识别领域,特别涉及一种跨模态手语识别方法。
背景技术
我国是世界上听力残疾人数最多的国家。据统计,我国的听力残疾人约2780万人,占全国残疾人的30%以上。手语是听障人之间、听障人和非听障人之间进行思想交流和人际交往的主要工具。手语作为一种自然的肢体语言,主要通过手形的变化、手的朝向、手部相对于身体的位置和手部的运动轨迹来表达相应的语义,有部分手语还需要辅以身体姿态和面部表情来共同表达手语含义。由于手语本身吸引力比较小、学习成本比较高,所以目前在健全人范围内的普及程度很低,仍然只是一门小众化的语言。因此,设计手语识别算法,将手语识别为健全人可以理解的文字,可以有效缓解听障人士与健全人的交流鸿沟。
目前国内外基于视频的手语识别很少考虑使用交互环境上下文进行跨模态识别。在现有方案中,主要分为直接通过手语视频进行识别和直接通过运动信息进行识别两种。其中,(中国,201310204961.X)使用Kinect获取手的深度信息和人体主要部位的骨骼关节点3D坐标信息,通过近邻法和欧氏距离作为相似性度量准则的模板匹配方法进行基元匹配,确定手语含义;(中国,201720816796.7)通过用户手臂上佩戴的臂环,接收用户运动时的肌电信号和运动信息,通过肌电信号和运动信息获取用户手语内容。
考虑到手语属于一种用于交流的自然语言,在交互场景下,对话的上下文信息对于当前的对话内容预测必然存在指导意义,而且在交互环境下获取用户之间的对话内容难度不高,因此本专利采用用户间的对话信息作为辅助信息,约束手语视频的识别结果,使当前手语视频的识别结果更贴合对话主题。同时由于并没有现成的交互场景下的手语识别数据集,本专利构建了一套实现了多轮对话的大型交互场景下的手语识别数据集。
参考文献
[1]Zhu,Qi,et al."Crosswoz:A large-scale chinese cross-domain task-oriented dialogue dataset."Transactions of the Association for ComputationalLinguistics 8(2020):281-295.
[2]Zhu,Qi,et al."Convlab-2:An open-source toolkit for building,evaluating,and diagnosing dialogue systems."arXiv preprint arXiv:2002.04793(2020).
发明内容
本发明为了克服目前手语识别算法在交互环境下表达生硬,识别结果容易偏离交互主题的问题,提出了一种基于交互场景下的手语识别算法,技术方案如下:
一种基于交互场景下的手语识别方法,包括下列步骤:
第一步,准备数据集
(1)构建交互场景的对话文本数据库:确定交互场景范围,设计交互场景对话剧本,基于交互场景对话剧本构建用于交互场景下手语识别对话文本数据集;
(2)构建交互场景的手语视频数据库:基于交互场景对话剧本,采集对应手语视频内容并对其进行标注,构建用于训练手语视频识别网络的交互场景下的手语视频数据集,
第二步,训练交互场景对话预测模型和手语视频识别网络:利用构建好的对话文本数据集对交互场景对话预测模型进行训练,并利用手语视频数据集对手语视频识别网络进行训练,其中交互场景对话预测模型实现基于已有对话内容预测当前对话结果,包括对话模板和对话关键词,手语视频识别网络实现通过分析当前听障人士的手语视频,预测当前听障人士手语表达关键内容,方法如下:
(1)训练交互场景对话预测模型,其中交互场景对话预测模型使用ConvLab-2对话系统模型,使用构建好的交互场景下手语识别对话文本数据集对模型进行调整,使对话系统模型预测结果更符合现实对话内容;
(2)训练手语视频识别网络,使用VGG-M模型提取视频特征,以保证获取视频的时域与空间域特征,使用Encoder-Decoder结构识别手语结果,其中Encoder使用金字塔式LSTM结构,用以从视频关键帧中获取手语关键词信息;Decoder模型采用LSTM对Encoder信息进行解码,解码得到的结果使用CTC进行软对齐,最终得到识别关键词;
第三步,通过训练好的交互场景对话预测模型和手语视频识别网络,得到当前对话的预测结果和手语视频识别关键词信息;然后使用相似度匹配算法,将全部预测结果的对话模板与手语视频识别关键词组合得到手语关键词预测句子,然后将手语关键词预测句子和语言模型预测句子进行余弦相似度计算,将得到的相似度最高的结果作为对话的预测结果中与当前手语识别关键词匹配度最高的结果,并将结果返回。
本发明使用交互场景对话预测模型的预测结果对手语视频识别网络得到的识别结果进行约束,保证识别结果贴近对话主题,同时使识别结果更加贴近日常对话习惯。
附图说明
图1为交互场景下的手语识别算法流程图。
图2为交互场景的手语视频数据库展示图。
图3为对话预测模型缓存更新流程图。
图4为对话预测结果与手语识别结果匹配融合流程图。
具体实施方式
本发明提供了一种通过对话预测模型的预测结果约束手语识别结果的方法,在保证识别结果的语义准确性的同时,保证识别结果贴近对话主题,同时使识别结果更加贴近日常对话习惯。按以下方法具体实现:
第一步,准备数据集
(1)构建交互场景的对话文本数据库
对话数据主要围绕北京市朝阳区、东城区与西城区的餐馆,酒店和景点构建,内容包括但不限于询问地址,餐馆点菜,景点推荐,查询电话等问题,涉及到的酒店有650个,餐馆有268个,景点有195个,对话内容超过10万条数据。平均对话轮数超过4轮,能够实现开放式提问与回答。
(2)构建交互场景的手语视频数据库
参考对话文本数据库,提取其中的回答进行手语数据拍摄,采集600个不同的手语词和句子。为了规范手语打法,特邀请手语老师按照《国家通用手语常用词表》制作手语示范视频,并选取十位听障人士志愿者进行拍摄,每名志愿者每句手语拍摄十遍,最终得到60000条手语视频数据。同时,通过对不同的句子与词语拼接匹配,本数据库可以覆盖到的句子超过3000句,可以满足训练模型的需要,采集数据样例如图2所示。
第二步,训练交互场景对话预测模型和手语视频识别网络
(1)训练交互场景对话预测模型
本发明采用的交互场景对话模型是清华大学提出的基于CrossWOZ数据集的ConvLab-2对话模型[1][2](背景技术里列出的参考文献),该模型可以实现多轮对话,而且可以获得每轮对话的关键词与对话模板。其中每轮对话中的关键词是指在本次对话中用户想要表达或想要知道的信息,包括但不限于地名,电话号码,地址等信息;对话模板则指在一轮对话中为了完整的表意所需要使用的句式。
在本发明中,首先将设计好的交互场景的对话文本数据库按照ConvLab-2对话模型的数据规范要求,生成对应的数据库json文件,然后利用在CrossWOZ数据集上训练好的对话模型,在新的数据库json文件上进行微调训练,从而实现对本发明交互场景对话内容的支持。
(2)训练手语视频识别网络
首先利用VGG-M模型进行特征提取,输入的视频经过压缩,为视频帧序列长度l*112*112,经过特征提取后,得到特征维度为l*1024维的特征向量。随后将提取得到的特征输入到我们自己搭建的手语识别深度学习模型中进行训练,我们搭建的深度学习模型在传统的Encoder-Decoder结构上进行了优化,Encoder模型中添加了金字塔式的3层Bi-LSTM提取关键帧信息,并在每层Bi-LSTM层后进行最大池化,最后将特征维度压缩至l*256维;Decoder模型采用LSTM对Encoder信息进行解码,解码得到的结果使用CTC进行软对齐,最终得到识别关键词。具体的网络结构如表1所示。
表1手语识别网络结构
第三步,通过训练好的交互场景对话预测模型和手语视频识别网络,得到当前对话的预测结果和手语视频识别结果后,进行相似度检测返回最优结果,具体流程如图1所示。
在交互场景下,对话是随时间一轮一轮进行的,所以在对话预测模型中,需要实现对话信息的缓存更新或删除,具体实施方式如下:
算法在缓存区存有当前场景的对话信息,当收到新的对话信息时,算法通过检查新上传的对话信息时间戳timeupdate与当前缓存的对话信息时间戳timecurrent对缓存中的对话信息进行更新,流程如图3所示:
1.当两个时间戳之间的时间差大于等于预设阈值时,即timeupdate-timecurrent≥Δt,可以视为先前的对话已结束,缓存清理已存储的当前对话信息,将新的对话信息存储于缓存中,更新时间戳;
2.当两个时间戳之间的时间差小于预设阈值时,即timeupdate-timecurrent<Δt,可以视为对话仍在进行,缓存直接将新的对话信息添加到现有缓存中,更新时间戳。
在具体实施例中,对话终止时间阈值Δt被设置为2分钟,即在两分钟内没有新的对话输入,则算法默认对话终止。
在经过交互场景对话预测模型与手语视频识别网络后,可以得到对话关键词,对话模板和手语识别结果,需要对其进行相似度匹配,得到最终的交互场景下的手语识别结果。如图4所示具体步骤如下:
1.将当前对话模型得到的对话关键词与对话模板分别记为E,T,当前手语识别模型得到的识别关键词记为S,其中E,T有多个可选项,S是唯一结果:
E={Ei|i=1...m},# (1)
T={Ti|i=1...m},# (2)
其中,m≤K,K为对话模型能够返回的最多可能选项个数。
2.将Ti与Ei组合,得到语言模型预测句子Lp,将Ti与和S组合,得到手语关键词预测句子Ls,对Lp与Ls进行相似度计算,得到识别结果的相似度Simi,相似度的计算方法为计算两个句子全部词向量平均值的余弦相似度:
3.比较所有的Sim,相似度最大的结果即为最符合手语表达者表意的自然语言句子,将对应的Ei,Ti进行组合,作为最终最优的识别结果输出。
4.对于其他的Sim,将其Ei,Ti组合,作为备选答案输出。
第四步,测试本算法的识别结果
测试时,通过模拟不同场景的对话内容,以其他人提问,用户使用手语方式回答的形式进行,具体步骤如下:
(1)首先由其他人进行提问,提问结果以文字形式输入到算法中。用户针对提问的问题做出正确的手语回答。
(2)算法按上述步骤三所述流程,对用户输入文字和手语视频进行预测和识别,并得到最终的识别结果。
(3)检验识别结果与预期结果关键词的相似度作为准确率,并计算响应时间。
按照上述流程对算法进行测试,在测试数据集与真实环境中对听障人士的手语进行识别,共测试139条手语,识别正确的为123条,平均识别准确率为88.5%。平均响应速度为1.05秒,基本可以满足正常对话的需要。测试结果样例如表2所示。
表2交互场景下的手语识别算法测试样例。

Claims (1)

1.一种基于交互场景下的手语识别方法,包括下列步骤:
第一步,准备数据集
(1)构建交互场景的对话文本数据库:确定交互场景范围,设计交互场景对话剧本,基于交互场景对话剧本构建用于交互场景下手语识别对话文本数据集;
(2)构建交互场景的手语视频数据库:基于交互场景对话剧本,采集对应手语视频内容并对其进行标注,构建用于训练手语视频识别网络的交互场景下的手语视频数据集;
第二步,训练交互场景对话预测模型和手语视频识别网络:利用构建好的对话文本数据集对交互场景对话预测模型进行训练,并利用手语视频数据集对手语视频识别网络进行训练,其中交互场景对话预测模型实现基于已有对话内容预测当前对话结果,包括对话模板和对话关键词,手语视频识别网络实现通过分析当前听障人士的手语视频,预测当前听障人士手语表达关键内容,方法如下:
(1)训练交互场景对话预测模型,其中交互场景对话预测模型使用ConvLab-2对话系统模型,使用构建好的交互场景下手语识别对话文本数据集对模型进行调整,使对话系统模型预测结果更符合现实对话内容;
(2)训练手语视频识别网络,使用VGG-M模型提取视频特征,以保证获取视频的时域与空间域特征,使用Encoder-Decoder结构识别手语结果,其中Encoder使用金字塔式LSTM结构,用以从视频关键帧中获取手语关键词信息;Decoder模型采用LSTM对Encoder信息进行解码,解码得到的结果使用CTC进行软对齐,最终得到识别关键词;
第三步,通过训练好的交互场景对话预测模型和手语视频识别网络,得到当前对话的预测结果和手语视频识别关键词信息;然后使用相似度匹配算法,将全部预测结果的对话模板与手语视频识别关键词组合得到手语关键词预测句子,然后将手语关键词预测句子和语言模型预测句子进行余弦相似度计算,将得到的相似度最高的结果作为对话的预测结果中与当前手语识别关键词匹配度最高的结果,并将结果返回。
CN202110843391.3A 2021-07-26 2021-07-26 基于交互场景下的手语识别方法 Active CN113688685B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110843391.3A CN113688685B (zh) 2021-07-26 2021-07-26 基于交互场景下的手语识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110843391.3A CN113688685B (zh) 2021-07-26 2021-07-26 基于交互场景下的手语识别方法

Publications (2)

Publication Number Publication Date
CN113688685A CN113688685A (zh) 2021-11-23
CN113688685B true CN113688685B (zh) 2023-09-22

Family

ID=78577939

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110843391.3A Active CN113688685B (zh) 2021-07-26 2021-07-26 基于交互场景下的手语识别方法

Country Status (1)

Country Link
CN (1) CN113688685B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090065715A (ko) * 2007-12-18 2009-06-23 (주)트루시스템 언어 장애인용 대화 보조 장치
CN103106191A (zh) * 2013-01-21 2013-05-15 天津大学 一种基于概率图模型的中文新闻主题协同分割方法
CN103761225A (zh) * 2014-01-23 2014-04-30 天津大学 一种数据驱动的中文词语义相似度计算方法
KR20180072136A (ko) * 2016-12-21 2018-06-29 주식회사 이앤지테크 화자의 감정 유형 표시가 가능한 의사 소통 시스템 및 그 구동방법
KR20200143039A (ko) * 2019-06-14 2020-12-23 주식회사 스캐터랩 대화 시나리오 데이터베이스 구축 방법 및 장치
CN112307778A (zh) * 2020-11-17 2021-02-02 南京工业大学 特定场景手语视频的翻译模型训练方法、翻译方法及系统
CN112668463A (zh) * 2020-12-25 2021-04-16 株洲手之声信息科技有限公司 一种基于场景识别的中文手语翻译方法及系统
CN112668464A (zh) * 2020-12-25 2021-04-16 株洲手之声信息科技有限公司 一种融合场景匹配的中文手语翻译模型构建方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7542903B2 (en) * 2004-02-18 2009-06-02 Fuji Xerox Co., Ltd. Systems and methods for determining predictive models of discourse functions
KR102098734B1 (ko) * 2019-08-06 2020-04-08 전자부품연구원 대화 상대의 외형을 반영한 수어 영상 제공 방법, 장치 및 단말

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090065715A (ko) * 2007-12-18 2009-06-23 (주)트루시스템 언어 장애인용 대화 보조 장치
CN103106191A (zh) * 2013-01-21 2013-05-15 天津大学 一种基于概率图模型的中文新闻主题协同分割方法
CN103761225A (zh) * 2014-01-23 2014-04-30 天津大学 一种数据驱动的中文词语义相似度计算方法
KR20180072136A (ko) * 2016-12-21 2018-06-29 주식회사 이앤지테크 화자의 감정 유형 표시가 가능한 의사 소통 시스템 및 그 구동방법
KR20200143039A (ko) * 2019-06-14 2020-12-23 주식회사 스캐터랩 대화 시나리오 데이터베이스 구축 방법 및 장치
CN112307778A (zh) * 2020-11-17 2021-02-02 南京工业大学 特定场景手语视频的翻译模型训练方法、翻译方法及系统
CN112668463A (zh) * 2020-12-25 2021-04-16 株洲手之声信息科技有限公司 一种基于场景识别的中文手语翻译方法及系统
CN112668464A (zh) * 2020-12-25 2021-04-16 株洲手之声信息科技有限公司 一种融合场景匹配的中文手语翻译模型构建方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
key action and joint CTC-Attention based sign language recognition;haibo li;IEEE;全文 *
基于图像分析的室外文物病害演变监测方法与应用实例;岳琪峰;黄睿;冯伟;张龙;丛一蓬;孙济洲;;敦煌研究(第04期);全文 *
基于多模式接口技术的聋人与正常人交流系统;高文, 陈熙霖, 马继勇, 王兆其;计算机学报(第12期);全文 *

Also Published As

Publication number Publication date
CN113688685A (zh) 2021-11-23

Similar Documents

Publication Publication Date Title
Duarte et al. How2sign: a large-scale multimodal dataset for continuous american sign language
US20210233521A1 (en) Method for speech recognition based on language adaptivity and related apparatus
US20200137001A1 (en) Generating responses in automated chatting
Ahmed et al. Deaf talk using 3D animated sign language: A sign language interpreter using Microsoft's kinect v2
CN107203953A (zh) 一种基于互联网、表情识别和语音识别的教学系统及其实现方法
WO2017112813A1 (en) Multi-lingual virtual personal assistant
CN109256133A (zh) 一种语音交互方法、装置、设备及存储介质
CN110443129A (zh) 基于深度学习的中文唇语识别方法
CN113380271B (zh) 情绪识别方法、系统、设备及介质
Oliveira et al. Automatic sign language translation to improve communication
CN109147763A (zh) 一种基于神经网络和逆熵加权的音视频关键词识别方法和装置
CN109166409B (zh) 一种手语转换方法及装置
Fernando et al. Sign language translation approach to sinhalese language
CN113392265A (zh) 多媒体处理方法、装置及设备
Zhang et al. Teaching chinese sign language with a smartphone
WO2021179703A1 (zh) 一种手语翻译方法、装置、计算机设备及存储介质
CN116205222A (zh) 一种基于多通道注意力融合的方面级情感分析系统及方法
CN113761156A (zh) 人机交互对话的数据处理方法、装置、介质及电子设备
CN117251552B (zh) 基于大型语言模型的对话处理方法、装置及电子设备
Dixit et al. Audio to indian and american sign language converter using machine translation and nlp technique
CN113688685B (zh) 基于交互场景下的手语识别方法
CN112349294A (zh) 语音处理方法及装置、计算机可读介质、电子设备
Fraiwan et al. A Kinect-based system for Arabic sign language to speech translation
Sahoo et al. A proposed framework for Indian sign language recognition
Reddy et al. Indian sign language generation from live audio or text for tamil

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant