CN105354468A - 一种基于多轴力平台步态分析的用户身份识别方法 - Google Patents

一种基于多轴力平台步态分析的用户身份识别方法 Download PDF

Info

Publication number
CN105354468A
CN105354468A CN201510724718.XA CN201510724718A CN105354468A CN 105354468 A CN105354468 A CN 105354468A CN 201510724718 A CN201510724718 A CN 201510724718A CN 105354468 A CN105354468 A CN 105354468A
Authority
CN
China
Prior art keywords
data
user
sub
axial forces
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510724718.XA
Other languages
English (en)
Inventor
潘巧明
胡伟俭
刘江
万华根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lishui University
Original Assignee
Lishui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lishui University filed Critical Lishui University
Priority to CN201510724718.XA priority Critical patent/CN105354468A/zh
Publication of CN105354468A publication Critical patent/CN105354468A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

一种基于多轴力平台步态分析的用户身份识别方法,包括:a.离线用户身份特征库建立;b.在线用户身份实时识别;步骤a中包括以下步骤:a1.使用多轴力平台采集用户运动时的足部受力数据,将该数据归入特征库中,或用于新建特征库;a2.使用影像装置采集用户运动时的轨迹数据与时长数据,将该数据归入特征库中,或用于新建特征库;步骤b中包括以下步骤:b1.使用多轴力平台采集用户运动时的足部受力数据,将该数据与特征库中的数据进行对比;b2.使用影像装置采集用户运动时的轨迹数据与时长数据,将该数据与特征库中的数据进行对比;b3.将对比结果与预设阈值比较后输出身份识别结果。本发明通过采集用户动作与力学数据,大幅提升用户身份识别的准确性。

Description

一种基于多轴力平台步态分析的用户身份识别方法
技术领域
本发明属于用户身份识别技术领域,具体涉及一种基于多轴力平台步态分析的用户身份识别方法。
背景技术
安全问题与人们的日常工作、生活密切相关。随着人们日常工作、生活范围的不断拓展,用户身份识别问题的重要性日益突显。作为安全体系基础中的基础,用户身份识别对于有效保障访问的安全性至关重要。
用户身份识别技术伴随着信息技术的诞生而诞生,传统的用户身份识别方法包括基于密码的方法和基于智能卡的方法,它们在日常生活中曾经并且正在起着非常重要的作用。然而,由于密码容易被遗忘,智能卡易于丢失等常使得合法用户被排斥,甚至于会被恶意获得进而导致合法身份被非法冒用,这些固有的缺陷使得它们与现代生活日益不相容。随着科技的发展,用户身份识别技术也在快速演化中。当前,身份识别领域的研究热点主要是基于用户生理特征与/或行为特征的身份识别技术。
用户的生理特征包括脸型、虹膜、指纹、静脉、DNA等人与生俱来的个人特征,借助于生理特征进行用户身份识别已经是当前的实用方法,典型的方法包括人脸识别、指纹识别,手掌形状及轮廓识别、静脉识别、DNA身份认证等。指纹锁是目前最为成熟的基于生理特征的用户身份识别方法之一,已经得到广泛应用,它具有成本低廉的优势,但也由于它必须要求用户手指与识别装置发生物理接触而带来诸如卫生、易磨损等不足;人脸识别技术由于其非接触性具有直观方便、友好、易被接受的优点,随着人工智能重新激起人们的兴趣,近年来迅速成为用户身份识别中的活跃分支,然而,人脸识别技术也具有计算机视觉技术的内在缺点,即易于受环境光照、拍照角度、遮挡、人脸化妆甚至表情等的影响,从而造成识别困难;虹膜特征识别的安全度和精准度非常高,但虹膜特征库的建立困难重重;作为新兴的基于生理特征的用户身份识别技术,基于用户手部静脉结构和基于DNA的用户身份识别方法已浮出水面。
用户的行为特征,如笔迹、挥手姿势、行走姿态等是人后天习得的个人特征,基于笔迹的用户身份识别是最为传统的方法,由于容易模仿,而易于出现用户身份被冒用;当前基于步态的用户身份识别方法中,往往采用一段用户行走的视频序列最为输入,数据量大,计算复杂,处理困难且识别率不高;最近,随着微软Kinect深度相机逐渐得到业界认可,已有研究人员尝试基于三维手势动作进行用户身份识别。
用户生理特征和行为特征统称为用户生物特征。除了上述基于生物特征的用户身份识别方法,近年来,随着可穿戴装置的日益升温,也出现了一些基于可穿戴装置的用户身份识别方法,如基于特制笔的用户身份识别方法、基于特制手套的用户身份识别方法、基于智能移动终端的用户身份识别方法等。总体上说,这些识别方法只是一些努力,尚未能进入实际应用。
此外,目前大部分的这类身份识别系统仅仅利用了用户的生理属性和运动学(或行为)属性,我们认为,用户的动力学属性,即用户在执行某一动作时的施力或受力,应该成为刻画用户个体差异的重要特征。
发明内容
针对现有技术中的问题,本发明的主要目的在于提供一种基于多轴力平台步态分析的用户身份识别方法,从运动学、动力学两个维度提取特征用于身份识别。
为达到以上目的,本发明采用的技术方案为:
一种基于多轴力平台步态分析的用户身份识别方法,包括以下步骤:a.离线用户身份特征库建立;b.在线用户身份实时识别;所述步骤a中包括以下步骤:a1.使用多轴力平台采集用户运动时的足部受力数据,将该数据归入特征库中,或用于新建特征库;a2.使用影像装置采集用户运动时的轨迹数据与时长数据,将该数据归入特征库中,或用于新建特征库;所述步骤b中包括以下步骤:b1.使用多轴力平台采集用户运动时的足部受力数据,将该数据与特征库中的数据进行对比;b2.使用影像装置采集用户运动时的轨迹数据与时长数据,将该数据与特征库中的数据进行对比;b3.将对比结果与预设阈值比较后输出身份识别结果。
作为优选,所述步骤a1、a2中采集到的数据经过处理后归入特征库中,所述步骤b1、b2中采集到的数据经过处理后与特征库中的数据做对比,该处理方法包括以下步骤:c1.将数据拟合成曲线,对曲线进行平滑处理,并基于峰谷进行分割,将整条曲线分割为若干条子轨迹;c2.基于子轨迹的用户特征提取。
作为优选,所述步骤c2中提取的特征选自以下参数中的一种或多种:子轨迹起点与终点的三维坐标、子轨迹起点与终点的速度、子轨迹起点与终点的曲率、子轨迹起点与终点的挠率、子轨迹起点与终点的连线L的长度、子轨迹中除起点与终点外其余所有点到连线L的长度的均值、子轨迹中除起点与终点外其余所有点到连线L的长度的方差、形成子轨迹的时间长度。
作为优选,所述特征库的建立包括利用SVM方法,建立用户身份识别模型;所述对比过程包括以用户特征为参数,进行用户身份概率计算,并依据计算出的用户身份概率及预设阈值确定用户身份或进行拒识。
作为优选,建立用户身份识别模型中使用径向基核函数基于一对一方法进行多类分类。
作为优选,用户的运动方式为若干次踏步运动。
作为优选,所述多轴力平台为AMTI多轴力平台,所述影像装置为微软KinectRGBD相机。
本发明通过采集用户动作与力学数据,计算用户生理参数、行为特征参数以及用户动力学参数,获取更为丰富的用户特征描述以全面刻画用户特征,从而大幅提升用户身份识别的准确性。
与现有技术相比,本发明具有以下有益效果:综合采用用户生理参数、行为特征参数以及用户动力学参数全面刻画用户特征,从而大幅提升用户身份识别的准确性;使用SVM原理对用户运动轨迹和足部受力特征进行训练与识别。选用径向基核函数基于一对一方法进行多类分类。选用SVM与RBF核函数是因为它们在解决小样本、非线性及高维模式识别中表现出许多特有的优势,能有效防止过度拟合,数据训练时间相对短,分类精度高。
附图说明
图1是本发明中离线用户身份特征库建立的步骤图。
图2是本发明中在线用户身份实时识别的步骤图。
具体实施方式
以下描述用于揭露本发明以使本领域技术人员能够实现本发明。以下描述中的优选实施例只作为举例,本领域技术人员可以想到其他显而易见的变型。
一种基于AMTI多轴力平台步态分析的用户身份识别方法,包括离线用户身份特征库建立和在线用户身份实时识别两个阶段。
阶段一、离线用户身份特征库建立,步骤如图1所示,包括:
步骤1,用户步态数据及足部受力数据采集:用户站立于两块并排放置的AMTI多轴力平台板上,完成1次原地踏步;放置于用户正前方的微软KinectRGBD相机自动采集用户的动作,并记录用户的髋部、左、右膝部、左、右踝部的三维轨迹数据与运动时长,同时,AMTI多轴力平台自动记录用户左、右足部受力大小。
步骤2,用户关节点运动轨迹的自动分割:对步骤1记录的用户关节点(即髋部、左、右膝部、左、右踝部)的三维运动轨迹进行平滑处理,并基于峰谷进行分割,将整条运动轨迹分割为若干条子运动轨迹。
步骤3,用户足部受力曲线的自动分割:对步骤1记录的用户左、右足受力曲线进行平滑处理,并基于峰谷进行分割,将整条曲线分割为若干条子轨迹。
步骤4,基于子轨迹的用户特征提取:对步骤1中得到的每一曲线轨迹,对其子轨迹(由步骤2、3自动分割得到)分别定义如下特征:4.1,子轨迹起始点与终止点三维坐标、速度、曲率及挠率;4.2,子轨迹起始点与终止点连线得到的弦L的弦长;4.3,子轨迹中除始点与终点外其余所有顶点到弦L的长度的均值与方差;4.4,形成子轨迹的时间长度(以毫秒计算)。
将该曲线轨迹所有子轨迹的特征参数合并,得到该轨迹的特征描述。
将髋部、左、右膝部、左、右踝部运动轨迹曲线、左、右足受力曲线特征参数合并,形成用户特征参数描述。
步骤5,用户特征样本库的建立:每位用户重复20次原地踏步运动,每次得到一组用户特征参数描述,以每组用户特征参数作为一个采样,加入用户特征样本库。
步骤6,用户身份识别模型的建立:利用SVM方法,建立用户身份识别模型。具体地,选用径向基(RadialBasisFunction,RBF)核函数基于一对一方法进行多类分类。
阶段二、在线用户身份实时识别,步骤如图2所示,包括:
步骤7,用户步态数据及足部受力数据采集:方法与过程与离线用户身份特征库建立建立步骤1相同。
步骤8,用户关节点运动轨迹的自动分割:方法与过程与离线用户身份特征库建立步骤2相同。
步骤9,用户足部受力曲线的自动分割:方法与过程与离线用户身份特征库建立步骤3相同。
步骤10,基于子轨迹的用户特征提取:与过程与离线用户身份特征库建立步骤4相同。
步骤11,基于用户特征的用户身份概率计算:以用户特征为参数,经SVM分类器对用户特征进行用户身份概率计算,该分类器经由离线预录制的用户样本训练生成;
步骤12,基于预定义的阈值的用户身份确认或拒识:依据SVM分类器计算出的用户身份概率及预定义的阈值确定用户身份或进行拒识。
本发明的技术效果是,采集、分析用户步态特征和足部受力特征,从用户生理参数、运动行为参数和动力学参数三方面全面刻画用户个性特征,将显著提升用户身份识别的准确率。
本实验室对本发明申请的技术进行了测试,建立门禁系统。实验室共有工作人员100人,他们将被授权通过该门禁系统,对于实验室外其余所有人员均不应被允许通过该门禁系统。具体测试过程中,首先在实验室门口安装相应的硬件装置(即Kinect相机和AMTI板)。对实验室人员授权过程对应于本专利中离线采集与训练部分,即对这100名实验室工作人员,采用“离线用户身份特征库建立”的方法获得他们的身份特征,建立关于这100名工作人员的身份特征库,并经过训练生成SVM分类器。
在进行实验室人员身份识别时,当某人靠近到门禁系统时,门禁系统借助Kinect或其他辅助装置(如红外感应器)感知到有人员靠近,会自动通过语音提示该人站到AMTI板上,并进行一次原地踏步运动。此时,系统自动进行用户身份的识别。若该人系实验室人员,门禁系统会予以放行;若该人不是实验室人员,该门禁系统会拒识,并自动通知实验室安保人员,转为人工接待来访者或对付闯入者。
本发明使用SVM原理对用户运动轨迹和足部受力特征进行训练与识别。选用径向基(RadialBasisFunction,RBF)核函数基于一对一方法进行多类分类。选用SVM与RBF核函数是因为它们在解决小样本、非线性及高维模式识别中表现出许多特有的优势,能有效防止过度拟合,数据训练时间相对短,分类精度高。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明的范围内。本发明要求的保护范围由所附的权利要求书及其等同物界定。

Claims (7)

1.一种基于多轴力平台步态分析的用户身份识别方法,包括以下步骤:
a.离线用户身份特征库建立;
b.在线用户身份实时识别,
其特征在于,所述步骤a中包括以下步骤:
a1.使用多轴力平台采集用户运动时的足部受力数据,将该数据归入特征库中,或用于新建特征库;
a2.使用影像装置采集用户运动时的轨迹数据与时长数据,将该数据归入特征库中,或用于新建特征库;
所述步骤b中包括以下步骤:
b1.使用多轴力平台采集用户运动时的足部受力数据,将该数据与特征库中的数据进行对比;
b2.使用影像装置采集用户运动时的轨迹数据与时长数据,将该数据与特征库中的数据进行对比;
b3.将对比结果与预设阈值比较后输出身份识别结果。
2.根据权利要求1所述的一种基于多轴力平台步态分析的用户身份识别方法,其特征在于,所述步骤a1、a2中采集到的数据经过处理后归入特征库中,所述步骤b1、b2中采集到的数据经过处理后与特征库中的数据做对比,该处理方法包括以下步骤:
c1.将数据拟合成曲线,对曲线进行平滑处理,并基于峰谷进行分割,将整条曲线分割为若干条子轨迹;
c2.基于子轨迹的用户特征提取。
3.根据权利要求2所述的一种基于多轴力平台步态分析的用户身份识别方法,其特征在于,所述步骤c2中提取的特征选自以下参数中的一种或多种:子轨迹起点与终点的三维坐标、子轨迹起点与终点的速度、子轨迹起点与终点的曲率、子轨迹起点与终点的挠率、子轨迹起点与终点的连线L的长度、子轨迹中除起点与终点外其余所有点到连线L的长度的均值、子轨迹中除起点与终点外其余所有点到连线L的长度的方差、形成子轨迹的时间长度。
4.根据权利要求3所述的一种基于多轴力平台步态分析的用户身份识别方法,其特征在于,所述特征库的建立包括利用SVM方法,建立用户身份识别模型;所述对比过程包括以用户特征为参数,进行用户身份概率计算,并依据计算出的用户身份概率及预设阈值确定用户身份或进行拒识。
5.根据权利要求4所述的一种基于多轴力平台步态分析的用户身份识别方法,其特征在于,建立用户身份识别模型中使用径向基核函数基于一对一方法进行多类分类。
6.根据权利要求1至5任一项所述的一种基于多轴力平台步态分析的用户身份识别方法,其特征在于,用户的运动方式为若干次踏步运动。
7.根据权利要求1至5任一项所述的一种基于多轴力平台步态分析的用户身份识别方法,其特征在于,所述多轴力平台为AMTI多轴力平台,所述影像装置为微软KinectRGBD相机。
CN201510724718.XA 2015-10-29 2015-10-29 一种基于多轴力平台步态分析的用户身份识别方法 Pending CN105354468A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510724718.XA CN105354468A (zh) 2015-10-29 2015-10-29 一种基于多轴力平台步态分析的用户身份识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510724718.XA CN105354468A (zh) 2015-10-29 2015-10-29 一种基于多轴力平台步态分析的用户身份识别方法

Publications (1)

Publication Number Publication Date
CN105354468A true CN105354468A (zh) 2016-02-24

Family

ID=55330439

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510724718.XA Pending CN105354468A (zh) 2015-10-29 2015-10-29 一种基于多轴力平台步态分析的用户身份识别方法

Country Status (1)

Country Link
CN (1) CN105354468A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106023255A (zh) * 2016-05-19 2016-10-12 浙江工商大学 基于运动的三维模型空域分割的方法
CN107578019A (zh) * 2017-09-13 2018-01-12 河北工业大学 一种视觉触觉融合的步态识别系统及识别方法
CN108304757A (zh) * 2017-06-16 2018-07-20 腾讯科技(深圳)有限公司 身份识别方法及装置
CN108798493A (zh) * 2018-04-25 2018-11-13 李绍辉 自动化可收起维修梯的使用方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101609507A (zh) * 2009-07-28 2009-12-23 中国科学技术大学 步态识别方法
US20100033574A1 (en) * 2005-12-05 2010-02-11 Yang Ran Method and System for Object Surveillance and Real Time Activity Recognition
CN101807245A (zh) * 2010-03-02 2010-08-18 天津大学 基于人工神经网络的多源步态特征提取与身份识别方法
CN103049741A (zh) * 2012-12-21 2013-04-17 中国科学院合肥物质科学研究院 基于足地作用力的步态特征提取方法及步态识别系统
CN103330565A (zh) * 2013-04-16 2013-10-02 北京航空航天大学 基于足底压力分布变化的人体步态识别装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100033574A1 (en) * 2005-12-05 2010-02-11 Yang Ran Method and System for Object Surveillance and Real Time Activity Recognition
CN101609507A (zh) * 2009-07-28 2009-12-23 中国科学技术大学 步态识别方法
CN101807245A (zh) * 2010-03-02 2010-08-18 天津大学 基于人工神经网络的多源步态特征提取与身份识别方法
CN103049741A (zh) * 2012-12-21 2013-04-17 中国科学院合肥物质科学研究院 基于足地作用力的步态特征提取方法及步态识别系统
CN103330565A (zh) * 2013-04-16 2013-10-02 北京航空航天大学 基于足底压力分布变化的人体步态识别装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106023255A (zh) * 2016-05-19 2016-10-12 浙江工商大学 基于运动的三维模型空域分割的方法
CN108304757A (zh) * 2017-06-16 2018-07-20 腾讯科技(深圳)有限公司 身份识别方法及装置
WO2018228218A1 (zh) * 2017-06-16 2018-12-20 腾讯科技(深圳)有限公司 身份识别方法、计算设备及存储介质
CN107578019A (zh) * 2017-09-13 2018-01-12 河北工业大学 一种视觉触觉融合的步态识别系统及识别方法
CN107578019B (zh) * 2017-09-13 2020-05-12 河北工业大学 一种视觉触觉融合的步态识别系统及识别方法
CN108798493A (zh) * 2018-04-25 2018-11-13 李绍辉 自动化可收起维修梯的使用方法
CN108798493B (zh) * 2018-04-25 2019-08-02 深圳市朗奥洁净科技股份有限公司 自动化可收起维修梯的使用方法

Similar Documents

Publication Publication Date Title
Yuan et al. Fingerprint liveness detection using an improved CNN with image scale equalization
CN109146921B (zh) 一种基于深度学习的行人目标跟踪方法
You et al. On hierarchical palmprint coding with multiple features for personal identification in large databases
CN101216884B (zh) 一种人脸认证的方法及系统
US20060222244A1 (en) Grouping items in video stream images into events
CN104299012A (zh) 一种基于深度学习的步态识别方法
CN107590473B (zh) 一种人脸活体检测方法、介质和相关装置
CN108182409A (zh) 活体检测方法、装置、设备及存储介质
Liu et al. One-class fingerprint presentation attack detection using auto-encoder network
CN101499134A (zh) 基于现场可编程门阵列的虹膜识别方法及系统
CN105354468A (zh) 一种基于多轴力平台步态分析的用户身份识别方法
CN110069965A (zh) 一种机器人身份识别方法
CN111860117A (zh) 一种基于深度学习的人体行为识别方法
CN113469143A (zh) 一种基于神经网络学习的手指静脉图像识别方法
Bureva et al. Generalized net model of biometric identification process
CN116631068A (zh) 一种基于深度学习特征融合的掌静脉活体检测方法
CN116612542A (zh) 基于多模态生物特征一致性的音视频人物识别方法及系统
CN115188031A (zh) 指纹识别方法、计算机程序产品、存储介质及电子设备
Yee et al. Apex frame spotting using attention networks for micro-expression recognition system
Kim et al. A study on user recognition using 2D ECG image based on ensemble networks for intelligent vehicles
Vasquez et al. Features extraction in images on finger veins with hybrid curves
Kaur et al. Enhanced Iris Recognition System–an Integrated Approach to Person Identification
Mjaaland The plateau: Imitation attack resistance of gait biometrics
CN108509889A (zh) 一种基于肤色分割的近景异常行为检测方法及装置
CN109670470A (zh) 行人关系识别方法、装置、系统及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20160224