CN106200911A - 一种基于双摄像头的体感控制方法、移动终端及系统 - Google Patents

一种基于双摄像头的体感控制方法、移动终端及系统 Download PDF

Info

Publication number
CN106200911A
CN106200911A CN201610502071.0A CN201610502071A CN106200911A CN 106200911 A CN106200911 A CN 106200911A CN 201610502071 A CN201610502071 A CN 201610502071A CN 106200911 A CN106200911 A CN 106200911A
Authority
CN
China
Prior art keywords
mobile terminal
dual camera
region
image
sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610502071.0A
Other languages
English (en)
Inventor
谢边
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi Wei Technology (hongkong) Co Ltd
Original Assignee
Chengdu Xike Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Xike Technology Co Ltd filed Critical Chengdu Xike Technology Co Ltd
Priority to CN201610502071.0A priority Critical patent/CN106200911A/zh
Publication of CN106200911A publication Critical patent/CN106200911A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Abstract

本发明公开了一种基于双摄像头的体感控制方法、移动终端及系统,所述的方法包括S1.移动终端通过双摄像头获取体感图像;S2.移动终端从体感图像中提取识别区域;S3.移动终端对识别区域进行分类,并判断每类识别区域的运动特征信息;S4.移动终端根据识别区域的类别和运动特征信息,产生控制移动终端的控制信号;S5.移动终端对控制信号进行响应,得到响应数据;S6.移动终端根据响应数据,生成显示信号;S7.移动终端根据显示信号,进行数据显示。本发明通过移动终端的双摄像头的体感图像采集,将体感图像进行处理转换得到控制信号,并对控制信号进行响应,实现了基于双摄像头的体感控制。

Description

一种基于双摄像头的体感控制方法、移动终端及系统
技术领域
本发明涉及一种基于双摄像头的体感控制方法、移动终端及系统。
背景技术
在家庭娱乐过程中,很多时候都会涉及到手机游戏的应用程序,传统的游戏方式均是通过物理输入方式(按键、触屏等),生成相应的按键值,坐标值信息,再将这些信息转换为控制指令,由游戏的应用程序执行(响应)控制指令,得到响应结果,并在手机中显示,从而达到控制游戏程序的目的,但是,在生活过程中,物理输入这种方式在面对复杂操作时越来越枯燥,效率很低。用户已经不满足于通过物理输入设备实现画面,程序或者数据的控制。
随着生活水平的提高,用户已经不满足于通过物理输入设备实现画面,程序或者数据的控制,用户更加希望通过体感来实现人机交互,以及对设备的控制。体感棒操作是目前一种常见的家庭娱乐体感交互手段。使用体感棒操作虽然能够让用户采用现实生活中常用的动作进行拟真交互,但需要购买体感棒作为一个额外的功能单一的感应器,提高了使用成本。同时,为保证操作准确性,体感棒操作通常在使用时通常需要较大的操作空间和大幅度的动作,极大限制了用户的使用场合和条件。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于双摄像头的体感控制方法、移动终端及系统,通过移动终端的双摄像头的体感图像采集,将体感图像进行处理转换得到控制信号,对移动终端进行控制,实现了基于双摄像头的体感控制。
本发明的目的是通过以下技术方案来实现的:一种基于双摄像头的体感控制方法,包括以下步骤:
S1.移动终端通过双摄像头获取体感图像;
S2.移动终端从体感图像中提取识别区域;
S3.移动终端对识别区域进行分类,并判断识别区域的运动特征信息;
S4.移动终端根据识别区域的类别和运动特征信息,产生控制移动终端的控制信号。
进一步地,所述方法还包括:
S5.移动终端对控制信号进行响应,得到响应数据;
S6.移动终端根据响应数据,生成显示信号;
S7.移动终端根据显示信号,进行数据显示。
进一步地,步骤S1中所述的体感图像包括用户手势图像和用户体态图像。
进一步地,所述的步骤S2包括以下子步骤:
对所述双摄像头所获取的体感图像进行匹配得到匹配图像;
根据立体视觉计算原理获取匹配图像的景深信息;
根据景深信息和匹配图像中像素点的目标颜色信息,提取出识别区域。
进一步地,所述的步骤S3包括以下子步骤:
移动终端对识别区域进行分类;
移动终端判断每类识别区域的运动特征信息。
步骤S3中对所述识别区域进行分类后得到的识别区域类型包括头部区域、手部区域,手臂区域、躯干区域和腿部区域。
进一步地,所述体感图像包括连续图像,对所述连续图像中的所述识别区域跟踪获得人体身体某部分的运动趋势作为运动特征信息。
所述体感图像也包括单个图像,对所述单个图像中的所述识别区域跟踪获得人体身体某部分的姿态特征作为运动特征信息。
进一步地,所述步骤S4中,所述控制信号的类型根据用户选择或由移动终端自行决定,所述控制信号包括按键信号,用户坐标信号,系统行为控制信号。
一种移动终端,包括:
双摄像头,用于获取体感图像;
识别模块,用于提取所述体感图像中的识别区域;
体感模块,用于对所述识别区域进行分类,并判断所述识别区域的运动特征信息;
控制转换模块,用于根据所述识别区域的类别和运动特征信息,生成控制信号。
进一步地,所述移动终端还包括:
控制响应模块,用于对控制信号进行响应,得到响应数据;
显示处理模块,根据响应数据,生成显示信号;
显示模块,用于根据显示信号,进行数据显示;
数据发送模块,用于向外部设备发送显示信号。
一种基于双摄像头的体感控制系统,包括:
移动终端,用于通过双摄像头获取体感图像,根据体感图像生成控制信号,对控制信号进行响应后,根据得到的响应数据,生成显示信号进行显示并向显示终端发送;具体地,该移动终端具有双摄像头,用于获取体感图像;识别模块,用于提取体感图像中的识别区域;体感模块,用于对识别区域进行分类,并判断每类识别区域的运动特征信息;控制转换模块,用于根据识别区域的运动特征信息,生成控制信号;控制响应模块,用于对控制信号进行响应,生成响应数据;显示处理模块,用于根据响应数据,生成显示信号;显示模块,用于根据显示信号,进行数据显示;数据发送模块,用于向显示终端发送显示信号。
显示终端,包括数据接收模块和终端显示模块;数据接收模块用于对移动终端发送的显示信号进行接收,终端显示模块用于将数据接收模块接收的数据在显示终端上进行实时显示。
本发明的有益效果是:针对现有技术的缺点,允许用户利用特定的动作和姿势,操控移动终端,进行交互;操作简单,指令多样,成本低;既避免了采用传统物理输入造成的低效和枯燥的问题,也避免了常见的体感操作中设备投入高,空间要求大等缺陷。
附图说明
图1为双目系统原理图;
图2为依据本发明一个实施例的双摄像头体感控制方法的流程图;
图3为依据本发明一个实施例的移动终端的架构示意图;
图4为依据本发明一个实施例的体感控制系统示意图。
具体实施方式
下面将详细描述本发明的具体实施例,应当注意,这里描述的实施例及附图只用于举例说明,并不用于限制本发明,在以下描述中,为了提供对本发明的透彻理解,阐述了大量特定细节,然而,对于本领域普通技术人员显而易见的是:不必采用这些特定细节来实行本发明,在其他实例中,为了避免混淆本发明,未具体描述公知的电路、系统、软件结构或方法。
在下文中,“平行双摄像头”一词是指存在两个位于同一平面上,镜头对准相同或相近方向使得视场存在至少部分重合关系的摄像头;“体感图像”可包括单个平面或立体照片,或者由多个连续的平面或立体照片构成的动态图像或视频。
基于双摄像头的计算机立体视觉技术,利用双摄像头视差的原理可以检测一定范围内的视场以内的目标的景深信息,如图1所示,为双摄像头组成的双目系统原理图,Z表示目标距离(景深信息),Z=B*f/d,B表示两个摄像头的光轴距离,f表示摄像头焦距;d表示图1中P点在两个摄像头成像平面的相差,d=(XR-XT)。
图2示出了一种基于平行双摄像头的体感控制方法,包括以下步骤:
S1.移动终端通过双摄像头获取体感图像;
S2.移动终端从体感图像中提取识别区域;
S3.移动终端对识别区域进行分类,并判断每类识别区域的运动特征信息;
S4.移动终端根据识别区域的类别和运动特征信息,产生用于控制移动终端的控制信号;
在一个实施例中,上述体感控制方法还包括:
S5.移动终端对控制信号进行响应,得到响应数据;
S6.移动终端根据响应数据,生成显示信号;
S7.移动终端根据显示信号,进行数据显示。
在一个实施例中,步骤S1中所述的体感图像可包括用户手势信息和用户体态信息,在其它实施例中体感图像可包含用户动作频率信息,动作变化信息等任何可被识别的动态或静态信息。
在一个实施例中,步骤S2包括以下子步骤:
对双摄像头所获取到的体感图像进行匹配获得匹配图像;
根据立体视觉计算原理获取匹配图像的景深信息;
根据景深信息和匹配图像中像素点的颜色信息,提取出识别区域。
在一个实施例中,步骤S3可包括以下子步骤:
移动终端对识别区域进行分类;
移动终端判断每类识别区域的运动特征信息。
对识别区域进行分类后得到的识别区域类型包括但不限于头部区域、手部区域,手臂区域、躯干区域和腿部区域。
在一个实施例中,体感图像可包括连续图像,对连续图像中的识别区域跟踪可以获得人体身体某部分的运动趋势信息作为运动特征信息,例如手臂向左右,上下,前后的运动趋势等。在另一个实施例中,体感区域还可以包括单个图像,对单个图像中的识别区域可以获得人体姿态信息作为的运动特征信息,人体姿态信息可包括手臂与躯干的相对位置,双手手指所成的形状等等。
步骤S4中产生的控制信号的类型可根据用户选择或由移动终端自行决定,包括但不限于按键信号,用户坐标信号,系统行为控制信号等等。
图3示出了根据本发明一个实施例的一种移动终端的架构示意图,包括:
双摄像头,用于获取体感图像;
识别模块,用于提取体感图像中的识别区域;
体感模块,用于对识别区域进行分类,并判断每类识别区域的运动特征信息;
控制转换模块,用于根据识别区域的类别和运动特征信息,生成控制信号;
在某些实施例中,该移动终端还可包括:
控制响应模块,用于对控制信号进行响应,得到响应数据;
显示处理模块,用于根据响应数据,生成显示信号;
显示模块,用于根据显示信号,进行数据显示;
数据发送模块,用于向外部设备发送显示信号。。
图4示出了根据本发明一个实施例的一种基于双摄像头的体感控制系统,包括:
移动终端,用于通过双摄像头获取体感图像,根据体感图像生成控制信号,对控制信号进行响应后,根据得到的响应数据,生成显示信号进行显示并向显示终端发送;
移动终端可具有平行双摄像头,用于获取体感图像;识别模块,用于提取体感图像中的识别区域;体感模块,用于对识别区域进行分类,并判断每类识别区域的运动特征信息;控制转换模块,用于根据识别区域的运动特征信息,生成控制信号;控制响应模块,用于对控制信号进行响应,生成响应数据;显示处理模块,用于根据响应数据,生成显示信号;显示模块,用于根据显示信号,进行数据显示;数据发送模块,用于向显示终端发送显示信号。
显示终端,包括数据接收模块和终端显示模块:数据接收模块,用于对移动终端发送的显示信号进行接收;终端显示模块,用于将数据接收模块接收的显示信号在显示终端上进行实时显示。
移动终端和显示终端可以是无线连接,移动终端的数据发送模块和显示终端的数据接收模块是相同类型的无线通讯模块,例如,蓝牙模块、WiFi模块、2G/3G/4G模块等。
移动终端和显示终端也可以是有线连接;有线连接方式包括HDMI、USB等。
进一步地,如果移动终端自身支持通过线缆与显示终端连接,则直接连接即可;若移动终端不具有线缆连接功能,可以为移动终端设置基座,通过基座与显示终端有线连接。此外,在某些实施例中,移动终端可以通过无线方式连接到显示终端,例如采用WiDi(无线显示)技术。
需要声明的是,上述发明内容及具体实施方式意在证明本发明所提供技术方案的实际应用,不应解释为对本发明保护范围的限定。本领域技术人员在本发明的精神和原理内,当可作各种修改、等同替换、或改进。本发明的保护范围以所附权利要求书为准。

Claims (13)

1.一种基于双摄像头的体感控制方法,其特征在于:包括以下步骤:
S1.移动终端通过双摄像头获取体感图像;
S2.移动终端从体感图像中提取识别区域;
S3.移动终端对识别区域进行分类,并判断识别区域的运动特征信息;
S4.移动终端根据识别区域的类别和运动特征信息,产生控制移动终端的控制信号。
2.根据权利要求1所述的一种基于双摄像头的体感控制方法,其特征在于,所述方法还包括:
S5.移动终端对控制信号进行响应,得到响应数据;
S6.移动终端根据响应数据,生成显示信号;
S7.移动终端根据显示信号,进行数据显示。
3.根据权利要求1所述的一种基于双摄像头的体感控制方法,其特征在于:步骤S1中所述的体感图像包括用户手势图像和用户体态图像。
4.根据权利要求1所述的一种基于双摄像头的体感控制方法,其特征在于:所述的步骤S2包括以下子步骤:
对所述双摄像头所获取的体感图像进行匹配得到匹配图像;
根据立体视觉计算原理获取匹配图像的景深信息;
根据景深信息和匹配图像中像素点的目标颜色信息,提取出识别区域。
5.根据权利要求1所述的一种基于双摄像头的体感控制方法,其特征在于:所述的步骤S3包括以下子步骤:
移动终端对识别区域进行分类;
移动终端判断每类识别区域的运动特征信息。
6.根据权利要求5所述的一种基于双摄像头的体感控制方法,其特征在于:对所述识别区域进行分类后得到的识别区域类型包括头部区域、手部区域,手臂区域、躯干区域和腿部区域。
7.根据权利要求1所述的一种基于双摄像头的体感控制方法,其特征在于:所述体感图像包括连续图像,对所述连续图像中的所述识别区域跟踪获得人体身体某部分的运动趋势作为运动特征信息。
8.根据权利要求1所述的一种基于双摄像头的体感控制方法,其特征在于:所述体感图像包括单个图像,对所述单个图像中的所述识别区域跟踪获得人体身体某部分的姿态特征作为运动特征信息。
9.根据权利要求1所述的一种基于双摄像头的体感控制方法,其特征在于:所述步骤S4中,所述控制信号的类型根据用户选择或由移动终端自行决定,所述控制信号包括按键信号,用户坐标信号,系统行为控制信号。
10.一种移动终端,其特征在于:包括:
双摄像头,用于获取体感图像;
识别模块,用于提取所述体感图像中的识别区域;
体感模块,用于对所述识别区域进行分类,并判断所述识别区域的运动特征信息;
控制转换模块,用于根据所述识别区域的类别和运动特征信息,生成控制信号。
11.如权利要求10所述的移动终端,其特征在于,所述移动终端还包括:
控制响应模块,用于对控制信号进行响应,得到响应数据;
显示处理模块,根据响应数据,生成显示信号;
显示模块,用于根据显示信号,进行数据显示;
数据发送模块,用于向外部设备发送显示信号。
12.一种基于双摄像头的体感控制系统,其特征在于:包括:
移动终端,用于通过双摄像头获取体感图像,根据体感图像生成控制信号,对控制信号进行响应后,根据得到的响应数据,生成显示信号进行显示并向显示终端发送;
显示终端,包括数据接收模块和终端显示模块;数据接收模块用于对移动终端发送的显示信号进行接收,终端显示模块用于将数据接收模块接收的数据在显示终端上进行实时显示。
13.根据权利要求12所述的体感控制系统,其特征在于,所述移动终端包括:
双摄像头,用于获取体感图像;
识别模块,用于提取体感图像中的识别区域;
体感模块,用于对识别区域进行分类,并判断每类识别区域的运动特征信息;
控制转换模块,用于根据识别区域的类别和运动特征信息,生成控制信号;
控制响应模块,用于对控制信号进行响应,生成响应数据;
显示处理模块,用于根据响应数据,生成显示信号;
显示模块,用于根据显示信号,进行数据显示;
数据发送模块,用于向移动终端发送显示信号。
CN201610502071.0A 2016-06-30 2016-06-30 一种基于双摄像头的体感控制方法、移动终端及系统 Pending CN106200911A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610502071.0A CN106200911A (zh) 2016-06-30 2016-06-30 一种基于双摄像头的体感控制方法、移动终端及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610502071.0A CN106200911A (zh) 2016-06-30 2016-06-30 一种基于双摄像头的体感控制方法、移动终端及系统

Publications (1)

Publication Number Publication Date
CN106200911A true CN106200911A (zh) 2016-12-07

Family

ID=57463816

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610502071.0A Pending CN106200911A (zh) 2016-06-30 2016-06-30 一种基于双摄像头的体感控制方法、移动终端及系统

Country Status (1)

Country Link
CN (1) CN106200911A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107272468A (zh) * 2017-08-01 2017-10-20 刘太龙 基于通信的电子安全保障平台
CN107871383A (zh) * 2017-08-01 2018-04-03 刘太龙 一种基于通信的电子安全保障方法
CN110083329A (zh) * 2019-04-24 2019-08-02 深圳传音通讯有限公司 终端调节方法及终端

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090167882A1 (en) * 2007-12-28 2009-07-02 Wistron Corp. Electronic device and operation method thereof
CN102799263A (zh) * 2012-06-19 2012-11-28 深圳大学 一种姿态识别方法及姿态识别控制系统
CN202584597U (zh) * 2012-05-15 2012-12-05 东华大学 一种多功能智能数码相框
CN103297079A (zh) * 2013-05-27 2013-09-11 张万年 无线显示终端
CN103927016A (zh) * 2014-04-24 2014-07-16 西北工业大学 一种基于双目视觉的实时三维双手手势识别方法及其系统
CN104077568A (zh) * 2014-06-23 2014-10-01 北京理工大学珠海学院 一种高精度的驾驶员行为识别与监控方法及系统
CN104517097A (zh) * 2014-09-24 2015-04-15 浙江大学 一种基于kinect的运动人体姿态识别方法
CN104898845A (zh) * 2015-06-12 2015-09-09 合肥市徽腾网络科技有限公司 一种基于移动终端的非接触式交互方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090167882A1 (en) * 2007-12-28 2009-07-02 Wistron Corp. Electronic device and operation method thereof
CN202584597U (zh) * 2012-05-15 2012-12-05 东华大学 一种多功能智能数码相框
CN102799263A (zh) * 2012-06-19 2012-11-28 深圳大学 一种姿态识别方法及姿态识别控制系统
CN103297079A (zh) * 2013-05-27 2013-09-11 张万年 无线显示终端
CN103927016A (zh) * 2014-04-24 2014-07-16 西北工业大学 一种基于双目视觉的实时三维双手手势识别方法及其系统
CN104077568A (zh) * 2014-06-23 2014-10-01 北京理工大学珠海学院 一种高精度的驾驶员行为识别与监控方法及系统
CN104517097A (zh) * 2014-09-24 2015-04-15 浙江大学 一种基于kinect的运动人体姿态识别方法
CN104898845A (zh) * 2015-06-12 2015-09-09 合肥市徽腾网络科技有限公司 一种基于移动终端的非接触式交互方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107272468A (zh) * 2017-08-01 2017-10-20 刘太龙 基于通信的电子安全保障平台
CN107871383A (zh) * 2017-08-01 2018-04-03 刘太龙 一种基于通信的电子安全保障方法
CN110083329A (zh) * 2019-04-24 2019-08-02 深圳传音通讯有限公司 终端调节方法及终端

Similar Documents

Publication Publication Date Title
KR101979669B1 (ko) 이미지 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말
CN106873778B (zh) 一种应用的运行控制方法、装置和虚拟现实设备
US9651782B2 (en) Wearable tracking device
CN110456907A (zh) 虚拟画面的控制方法、装置、终端设备及存储介质
CN110716645A (zh) 一种增强现实数据呈现方法、装置、电子设备及存储介质
CN111353930B (zh) 数据处理方法及装置、电子设备及存储介质
CN108712603B (zh) 一种图像处理方法及移动终端
US20160371888A1 (en) Interactive information display
US20220155884A1 (en) Rendering device and rendering method
CN104364733A (zh) 注视位置检测装置、注视位置检测方法和注视位置检测程序
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
CN110770688A (zh) 信息处理系统、信息处理方法及程序
US20220084303A1 (en) Augmented reality eyewear with 3d costumes
CN106200911A (zh) 一种基于双摄像头的体感控制方法、移动终端及系统
WO2019085519A1 (zh) 面部跟踪方法及装置
CN112689151A (zh) 直播方法、装置、计算机设备和存储介质
GB2525304B (en) Interactive information display
CN108765321A (zh) 拍照修复方法、装置、存储介质及终端设备
EP3088991B1 (en) Wearable device and method for enabling user interaction
WO2016185634A1 (ja) 情報処理装置
CN109816723A (zh) 投影控制方法、装置、投影交互系统及存储介质
CN112925413B (zh) 增强现实眼镜及其触控方法
KR20220088143A (ko) 증강 현실 콘텐츠를 제공하는 전자 장치 및 방법
CN116863460A (zh) 姿态识别、姿态识别模型的训练方法、装置、设备及介质
CN110389691A (zh) 应用三维场景计算机图形学原理的增强现实设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20170331

Address after: Two Lu Tian Hua high tech Zone of Chengdu City, Sichuan province 610041 No. 219 building 3 layer 12

Applicant after: Chengdu science and Technology Co., Ltd.

Address before: Two Lu Tian Hua high tech Zone of Chengdu City, Sichuan province 610041 No. 219 Tianfu Software Park C District 12 building 6 layer

Applicant before: Chengdu Xike Technology Co.,Ltd.

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20180823

Address after: Room 1701-7, 17 / F, Huashun Plaza, 11 Anxin street, Sha Tin, New Territories, Hongkong, China

Applicant after: Xi Wei Technology (Hongkong) Co., Ltd.

Address before: 610041 3, 12, 219 Tianhua two road, Chengdu high tech Zone, Sichuan

Applicant before: Chengdu science and Technology Co., Ltd.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20161207