CN112966571B - 一种基于机器视觉的立定跳远腾空高度量测方法 - Google Patents
一种基于机器视觉的立定跳远腾空高度量测方法 Download PDFInfo
- Publication number
- CN112966571B CN112966571B CN202110176008.3A CN202110176008A CN112966571B CN 112966571 B CN112966571 B CN 112966571B CN 202110176008 A CN202110176008 A CN 202110176008A CN 112966571 B CN112966571 B CN 112966571B
- Authority
- CN
- China
- Prior art keywords
- frame
- long jump
- standing long
- hand
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Abstract
本发明公开了一种基于机器视觉的立定跳远腾空高度量测方法,其步骤包括:1摄像机采集立定跳远样本视频并利用OpenPose检测模型得到立定跳远人体关键点;2根据所述关键点构建躯干姿态向量;3利用所述人体躯干姿态向量对起跳帧和落地帧进行判别;4根据检测视频最高处漏帧状况采取不同方法量测高度;5对于非最高处漏帧状况采取OpenPose高度直接量测方法;6对于最高处漏帧状况通过OpenPose得到的位置点进行最小二乘法拟合二次函数,反向计算腾空高度。本发明利用机器视觉实现了对立定跳远高度的测量,减少了设备仪器成本,且不受天气、背景等外部因素的影响,具有较好的鲁棒性和检测准确率。
Description
技术领域
本发明涉及图像识别领域,具体的说是一种基于机器视觉的立定跳远腾空高度量测方法。
背景技术
立定跳远是国家体质健康监测的必测项目,它能有效发展学生的速度、协调、力量等身体素质,改善神经系统、心血管系统的功能。在影响学生的跳远成绩的诸多因素中,跳远的起跳高度是重中之重。因此,对学生立定跳远的腾空高度测量是十分必要的。
高度测量是模式识别中的一个很重要的特征,除了立定跳远外,在视频监控、交通管理等中均有广泛的应用。传统的高度测量方法是在监视场景中放一个标尺,参照标尺对目标物高度进行估计,这种方法主观性强误差太大,已经逐渐被舍弃。
目前,主要的高度测量方法主要有激光测距、单目视觉测量和双目视觉测量。激光测距的原理可分为两种,一种利用光速和往返时间的计算得到,另一种是依据激光位移传感器原理为基础的方法。激光测距的优势是在任何照明条件下都能够正常使用,同时保证对距离的高度灵敏。但是它也存在不可忽视的缺点,比如成本较高,受到近光调频的干扰,同时对大气和气象的测距条件苛刻;单目测量使用相机,将相机参数和三维场景进行线形转换所获得的参数,来计算目标物体的高度。然而这种方法必须知道相机参数和图片之间的关联性,且需要大量的矩阵计算,对场景的几何要求也较高;双目视觉测量通过两台相机模拟双目,通过拍摄的不同位置的检测物图像进行分析,确定距离。但其精度要受相机性能、光照和基线长度(两台相机之间距离)影响,同时因为算法复杂,所以在应用上会有很多限制。
发明内容
针对现有技术的不足,本发明旨在解决现有高度测量方法存在的所需测距条件苛刻、成本高、精度低、操作繁琐等问题,提出一种基于机器视觉的立定跳远腾空高度测量方法,以期实现对立定跳远高度的测量,减少设备仪器成本,提高鲁棒性和检测准确率。
本发明为解决技术问题采用如下技术方案:
本发明一种基于机器视觉的立定跳远腾空高度量测方法的特点是按如下步骤进行:
步骤一、对固定机位相机采集的立定跳远人体RGB图像信息进行处理,得到人体姿态关键点;
步骤1.1、使用固定机位相机采集不同时间、不同人群的立定跳远人体RGB图像视频;
步骤1.2、采用基于BODY_25模型的OpenPose神经网络模型,从立定跳远人体RGB图像视频中获得人体关键点,通过与标准人体立定跳远动作进行对比,得到立定跳远的n个特征关键点;
步骤二、基于所述立定跳远的n个特征关键点构建主躯干及手臂的姿态向量,包括左臂姿态向量Vleft-hand、右臂姿态向量Vright-hand和主躯干姿态向量Vbody;
步骤三、基于主躯干及手臂的姿态向量,计算一帧图像中主躯干及手臂的偏移角,并作为表征立定跳远起始帧姿态的关键动态量,以判断立定跳远起始帧;
步骤3.1、利用式(4)得到左臂姿态向量Vleft-hand的偏移角θleft-hand:
步骤3.2、利用式(5)得到右臂姿态向量Vright-hand的偏移角θright-hand:
步骤3.3、利用式(6)得到主躯干姿态向量Vbody的偏移角θbody:
若左臂姿态向量Vleft-hand的偏移角θleft-hand或右臂姿态向量Vright-hand的偏移角θright-hand与主躯干姿态向量Vbody的偏移角θbody的夹角α小于夹角阈值τ,且主躯干姿态向量Vbody的偏移角θbody与垂直向量Vvertical的夹角η小于阈值τ时,判定当前帧图像为起始帧;
步骤四、记录起始帧之后,根据主躯干位置变化判断立定跳远动作终止帧;
判断立定跳远起始帧之后,记录每一帧图像中踝部的位置坐标为k,当k在连续多帧内没有变化,则判定相应连续多帧的第一帧为终止帧,并根据终止帧和起始帧截取相应的视频段;
步骤五、读取所述视频段中每一帧图像的尾椎位置坐标y,并记录最高点为ymax,检查最高点ymax的前后帧图像是否有缺失,若缺失,则表示未记录立定跳远腾空最高点,并执行步骤六;否则,执行步骤七;
步骤六、记录计算最高点ymax的前一帧图像的尾椎位置坐标ypre和后一帧图像的尾椎位置坐标ynext的误差并判断δ>μ是否成立,若成立,则表示最高点ymax不是立定跳远腾空最高点,并执行步骤七,否则,执行步骤八;其中,μ表示误差阈值;
步骤七、根据每一帧图像的尾椎位置坐标计算出立定跳远过程中的最高点位置;
令第i帧图像的尾椎垂直方向位置坐标为yi,并根据相机的每帧时间间隔k计算出第i帧图像的尾椎垂直方向位置的时间ti,从而得出时间和高度的对应关系;
利用最小二乘法对时间和高度的对应关系进行拟合从而计算出曲线的最高点,记为ymax;
步骤八、令立定跳远腾空最高点为H=ymax。
与已有技术相比,本发明的有益效果体现在:
1、本发明将基于机器视觉获取的骨架关键点数据应用于人体立定跳远腾空高度测量,将视频数据转化为人体骨架序列数据,并根据关键点坐标识别结果计算出腾空高度;相比于传统方法,无需增加额外的设备仪器,大大减少了检测的成本。
2、本发明通过openpose获取的人体姿态关键点数据,不受天气、光照条件、背景等因素的影响,模型的鲁棒性较好。
3、本发明通过计算人体主躯干及手臂的偏移角和躯干与垂直向量偏移角判断起始或终止帧,确保了本方法具有较高的高度距离识别准确率与精确率,具备良好的应用价值。
附图说明
图1为本发明OpenPose检测点位图;
图2为本发明立定跳远腾空高度测量方法的流程图。
具体实施方式
本实施例中,参照图2,一种基于机器视觉的立定跳远腾空高度量测方法,是以摄像机采集图像信息,以人体骨骼关键点坐标表征人体姿态动态特征,以人体主躯干及手臂的偏移角和躯干与垂直向量偏移角作为判断起始或终止帧,以最小拟成法拟合跳跃轨迹得到腾空高度,具体的说,按如下步骤进行:
步骤一、对固定机位相机采集的立定跳远人体RGB图像信息进行处理,得到人体姿态关键点;
步骤1.1、使用固定机位相机采集不同时间、不同人群的立定跳远人体RGB图像视频;
步骤1.2、采用基于BODY_25模型的OpenPose神经网络模型,从立定跳远人体RGB图像视频中获得人体关键点,通过与标准人体立定跳远动作进行对比,得到立定跳远的n个特征关键点。如图1所示,即使用OpenPose获得颈部坐标(1点),尾椎坐标(8点),肩部坐标(3、5点),肘部坐标(4、6点),踝部坐标(11、14点)。
步骤二、基于立定跳远的n个特征关键点构建主躯干及手臂的姿态向量,包括左臂姿态向量Vleft-hand、右臂姿态向量Vright-hand和主躯干姿态向量Vbody;
步骤2.1、利用式(1)构建左臂姿态向量Vleft-hand:
步骤2.2、利用式(2)构建右臂姿态向量Vright-hand:
步骤2.3、利用式(3)构建主躯干姿态向量Vbody:
步骤三、基于主躯干及手臂的姿态向量,计算一帧图像中主躯干及手臂的偏移角,并作为表征立定跳远起始帧姿态的关键动态量,以判断立定跳远起始帧;
步骤3.1、利用式(4)得到左臂姿态向量Vleft-hand的偏移角θleft-hand:
步骤3.2、利用式(5)得到右臂姿态向量Vright-hand的偏移角θright-hand:
步骤3.3、利用式(6)得到主躯干姿态向量Vbody的偏移角θbody:
若左臂姿态向量Vleft-hand的偏移角θleft-hand或右臂姿态向量Vright-hand的偏移角θright-hand与主躯干姿态向量Vbody的偏移角θbody的夹角α小于夹角阈值τ,且主躯干姿态向量Vbody的偏移角θbody与垂直向量Vvertical的夹角η小于阈值τ时,判定当前帧图像为起始帧;
步骤四、记录起始帧之后,根据主躯干位置变化判断立定跳远动作终止帧;
判断立定跳远起始帧之后,记录每一帧图像中踝部的位置坐标为k,当k在连续多帧内没有变化,则判定相应连续多帧的第一帧为终止帧,并根据终止帧和起始帧截取相应的视频段;
步骤五、读取视频段中每一帧图像的尾椎位置坐标y,并记录最高点为ymax,检查最高点ymax的前后帧图像是否有缺失,若缺失,则表示未记录立定跳远腾空最高点,并执行步骤六;否则,执行步骤七;
步骤六、记录计算最高点ymax的前一帧图像的尾椎位置坐标ypre和后一帧图像的尾椎位置坐标ynext的误差并判断δ>μ是否成立,若成立,则表示最高点ymax不是立定跳远腾空最高点,并执行步骤七,否则,执行步骤八;其中,μ表示误差阈值;
步骤七、根据每一帧图像的尾椎位置坐标计算出立定跳远过程中的最高点位置;
设截取视频段总帧数为m,令第i帧图像的尾椎垂直方向位置坐标为yi,并根据相机的每帧时间间隔k计算出第i帧图像的尾椎垂直方向位置的时间ti,从而得出时间和高度的对应关系如表1所示;
表1
i | 1 | 2 | 3 | …… | m |
t<sub>i</sub> | t<sub>1</sub>=k×1 | t<sub>2</sub>=k×2 | t<sub>3</sub>=k×3 | …… | t<sub>m</sub>=k×m |
y<sub>i</sub> | y<sub>1</sub> | y<sub>2</sub> | y<sub>3</sub> | …… | y<sub>m</sub> |
利用最小二乘法对时间和高度的对应关系进行拟合从而计算出曲线的最高点,记为ymax;
步骤八、令立定跳远腾空最高点为H=ymax。
Claims (1)
1.一种基于机器视觉的立定跳远腾空高度量测方法,其特征是按如下步骤进行:
步骤一、对固定机位相机采集的立定跳远人体RGB图像信息进行处理,得到人体姿态关键点;
步骤1.1、使用固定机位相机采集不同时间、不同人群的立定跳远人体RGB图像视频;
步骤1.2、采用基于BODY_25模型的OpenPose神经网络模型,从立定跳远人体RGB图像视频中获得人体关键点,通过与标准人体立定跳远动作进行对比,得到立定跳远的n个特征关键点;
步骤二、基于所述立定跳远的n个特征关键点构建主躯干及手臂的姿态向量,包括左臂姿态向量Vleft-hand、右臂姿态向量Vright-hand和主躯干姿态向量Vbody;
步骤2.1、利用式(1)构建左臂姿态向量Vleft-hand:
式(1)中,x3表示左肩部特征关键点的横坐标,x4表示左肘部特征关键点的横坐标,y3表示左肩部特征关键点的纵坐标,y4表示左肘部特征关键点的纵坐标;
步骤2.2、利用式(2)构建右臂姿态向量Vright-hand:
式(2)中,x5表示右肩部特征关键点的横坐标,x6表示右肘部特征关键点的横坐标,y5表示右肩部特征关键点的纵坐标,y6表示右肘部特征关键点的纵坐标;
步骤2.3、利用式(3)构建主躯干姿态向量Vbody:
式(3)中,x1表示颈部特征关键点的横坐标,x8表示尾椎特征关键点的横坐标,y1表示颈部特征关键点的纵坐标,y8表示尾椎特征关键点的纵坐标;
步骤三、基于主躯干及手臂的姿态向量,计算一帧图像中主躯干及手臂的偏移角,并作为表征立定跳远起始帧姿态的关键动态量,以判断立定跳远起始帧;
步骤3.1、利用式(4)得到左臂姿态向量Vleft-hand的偏移角θleft-hand:
步骤3.2、利用式(5)得到右臂姿态向量Vright-hand的偏移角θright-hand:
步骤3.3、利用式(6)得到主躯干姿态向量Vbody的偏移角θbody:
若左臂姿态向量Vleft-hand的偏移角θleft-hand或右臂姿态向量Vright-hand的偏移角θright-hand与主躯干姿态向量Vbody的偏移角θbody的夹角α小于夹角阈值τ,且主躯干姿态向量Vbody的偏移角θbody与垂直向量Vvertical的夹角η小于阈值τ时,判定当前帧图像为起始帧;
步骤四、记录起始帧之后,根据主躯干位置变化判断立定跳远动作终止帧;
判断立定跳远起始帧之后,记录每一帧图像中踝部的位置坐标为k,当k在连续多帧内没有变化,则判定相应连续多帧的第一帧为终止帧,并根据终止帧和起始帧截取相应的视频段;
步骤五、读取所述视频段中每一帧图像的尾椎位置坐标y,并记录最高点为ymax,检查最高点ymax的前后帧图像是否有缺失,若缺失,则表示未记录立定跳远腾空最高点,并执行步骤六;否则,执行步骤七;
步骤六、记录计算最高点ymax的前一帧图像的尾椎位置坐标ypre和后一帧图像的尾椎位置坐标ynext的误差并判断δ>μ是否成立,若成立,则表示最高点ymax不是立定跳远腾空最高点,并执行步骤七,否则,执行步骤八;其中,μ表示误差阈值;
步骤七、根据每一帧图像的尾椎位置坐标计算出立定跳远过程中的最高点位置;
令第i帧图像的尾椎垂直方向位置坐标为yi,并根据相机的每帧时间间隔K计算出第i帧图像的尾椎垂直方向位置的时间ti,从而得出时间和高度的对应关系;
利用最小二乘法对时间和高度的对应关系进行拟合从而计算出曲线的最高点,记为ymax;
步骤八、令立定跳远腾空最高点为H=ymax。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110176008.3A CN112966571B (zh) | 2021-02-09 | 2021-02-09 | 一种基于机器视觉的立定跳远腾空高度量测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110176008.3A CN112966571B (zh) | 2021-02-09 | 2021-02-09 | 一种基于机器视觉的立定跳远腾空高度量测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112966571A CN112966571A (zh) | 2021-06-15 |
CN112966571B true CN112966571B (zh) | 2022-07-12 |
Family
ID=76284372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110176008.3A Active CN112966571B (zh) | 2021-02-09 | 2021-02-09 | 一种基于机器视觉的立定跳远腾空高度量测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112966571B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114120357B (zh) * | 2021-10-22 | 2023-04-07 | 中山大学中山眼科中心 | 一种基于神经网络的防近视方法和装置 |
CN113792719B (zh) * | 2021-11-18 | 2022-01-18 | 成都怡康科技有限公司 | 一种对立定跳远的技术性进行分析的方法及装置 |
CN114870385A (zh) * | 2022-05-11 | 2022-08-09 | 安徽理工大学 | 一种基于优化的OpenPose模型的立定跳远测试方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100090931A (ko) * | 2009-02-09 | 2010-08-18 | 장준호 | 제자리 멀리 뛰기 측정 장치 |
CN104200455A (zh) * | 2014-06-13 | 2014-12-10 | 北京工业大学 | 一种基于运动统计特征分析的关键姿态提取方法 |
CN106621284A (zh) * | 2016-12-28 | 2017-05-10 | 湖南科技大学 | 一种智能的体质检测平台 |
CN109489611A (zh) * | 2018-10-22 | 2019-03-19 | 江苏经贸职业技术学院 | 一种跳远中起跳动作的检测方法和系统 |
CN110975270A (zh) * | 2019-12-20 | 2020-04-10 | 西南交通大学 | 一种基于标记和计算机视觉的立定跳远检测方法 |
WO2020177498A1 (zh) * | 2019-03-04 | 2020-09-10 | 南京邮电大学 | 一种基于姿态估计的非侵入式人体热舒适检测方法及系统 |
CN112115827A (zh) * | 2020-09-09 | 2020-12-22 | 中南大学 | 基于人体姿态动态特征的跌倒行为识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN208081713U (zh) * | 2018-03-29 | 2018-11-13 | 叶洪辉 | 一种体育训练的立定跳远训练器 |
CN111104816B (zh) * | 2018-10-25 | 2023-11-03 | 杭州海康威视数字技术股份有限公司 | 一种目标物的姿态识别方法、装置及摄像机 |
-
2021
- 2021-02-09 CN CN202110176008.3A patent/CN112966571B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100090931A (ko) * | 2009-02-09 | 2010-08-18 | 장준호 | 제자리 멀리 뛰기 측정 장치 |
CN104200455A (zh) * | 2014-06-13 | 2014-12-10 | 北京工业大学 | 一种基于运动统计特征分析的关键姿态提取方法 |
CN106621284A (zh) * | 2016-12-28 | 2017-05-10 | 湖南科技大学 | 一种智能的体质检测平台 |
CN109489611A (zh) * | 2018-10-22 | 2019-03-19 | 江苏经贸职业技术学院 | 一种跳远中起跳动作的检测方法和系统 |
WO2020177498A1 (zh) * | 2019-03-04 | 2020-09-10 | 南京邮电大学 | 一种基于姿态估计的非侵入式人体热舒适检测方法及系统 |
CN110975270A (zh) * | 2019-12-20 | 2020-04-10 | 西南交通大学 | 一种基于标记和计算机视觉的立定跳远检测方法 |
CN112115827A (zh) * | 2020-09-09 | 2020-12-22 | 中南大学 | 基于人体姿态动态特征的跌倒行为识别方法 |
Non-Patent Citations (4)
Title |
---|
Emmanuel Ramasso 等.State Filtering and Change Detection Using TBM Conflict Application to Human Action Recognition in Athletics Videos.《IEEE Transactions on Circuits and Systems for Video Technology》.2007,第17卷(第7期), * |
Xiaobai Liu 等.Revisiting Jump-Diffusion Process for Visual Tracking: A Reinforcement Learning Approach.《IEEE Transactions on Circuits and Systems for Video Technology》.2018,第29卷(第8期), * |
徐华安.周界低空抛物视频检测技术研究.《中国优秀硕士学位论文全文数据库 信息科技辑》.2010,第2010年卷(第12期), * |
曲瑾.基于角点检测的目标跟踪算法研究与应用.《中国优秀硕士学位论文全文数据库 信息科技辑》.2016,第2016年卷(第2期), * |
Also Published As
Publication number | Publication date |
---|---|
CN112966571A (zh) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112966571B (zh) | 一种基于机器视觉的立定跳远腾空高度量测方法 | |
CN104282020B (zh) | 一种基于目标运动轨迹的车辆速度检测方法 | |
CN110852283A (zh) | 一种基于改进YOLOv3的安全帽佩戴检测与跟踪方法 | |
CN112818988A (zh) | 一种指针式仪表自动识别读数方法及系统 | |
CN112525352A (zh) | 一种基于人脸识别的红外测温补偿方法及终端 | |
CN109145803A (zh) | 手势识别方法及装置、电子设备、计算机可读存储介质 | |
CN105957107A (zh) | 行人检测与跟踪方法及装置 | |
CN109492525B (zh) | 一种测量基站天线工程参数的方法 | |
CN107917700A (zh) | 基于深度学习的小幅度目标三维姿态角测量方法 | |
CN106056121A (zh) | 基于sift图像特征匹配的卫星装配工件快速识别方法 | |
CN113688817A (zh) | 一种自动巡检的仪表识别方法及识别系统 | |
CN115717867A (zh) | 一种基于机载双相机和目标追踪的桥梁变形测量方法 | |
CN104598914A (zh) | 一种肤色检测的方法及装置 | |
CN109636856A (zh) | 基于hog特征融合算子的物体六维度位姿信息联合测量方法 | |
CN114022845A (zh) | 电工绝缘手套实时检测方法、计算机可读介质 | |
CN116310263A (zh) | 一种指针式航空地平仪示数自动读取实现方法 | |
CN109064497B (zh) | 一种基于颜色聚类补充学习的视频跟踪方法 | |
CN108180825A (zh) | 一种基于线结构光的长方体形物体三维识别与定位方法 | |
CN109919973A (zh) | 基于多特征联合的多视角目标关联方法、系统及介质 | |
CN113834447A (zh) | 一种户外复杂环境下高动态激光光条自适应成像处理方法 | |
CN112200856A (zh) | 一种基于事件相机的视觉测距方法 | |
CN110738706A (zh) | 一种基于航迹推测的快速机器人视觉定位方法 | |
CN110968722A (zh) | 一种用于无人机自主着陆的平台识别测量方法 | |
CN112215873A (zh) | 用于对变电站内多目标跟踪定位的方法 | |
Chen et al. | Object recognition and localization based on kinect camera in complex environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |