CN106339089B - 一种人机交互动作识别系统及方法 - Google Patents

一种人机交互动作识别系统及方法 Download PDF

Info

Publication number
CN106339089B
CN106339089B CN201610764273.2A CN201610764273A CN106339089B CN 106339089 B CN106339089 B CN 106339089B CN 201610764273 A CN201610764273 A CN 201610764273A CN 106339089 B CN106339089 B CN 106339089B
Authority
CN
China
Prior art keywords
information
mode
image
recognition mode
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610764273.2A
Other languages
English (en)
Other versions
CN106339089A (zh
Inventor
叶付海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Keling multimedia Co.,Ltd.
Original Assignee
Wuhan Led Software Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Led Software Technology Co Ltd filed Critical Wuhan Led Software Technology Co Ltd
Priority to CN201610764273.2A priority Critical patent/CN106339089B/zh
Publication of CN106339089A publication Critical patent/CN106339089A/zh
Application granted granted Critical
Publication of CN106339089B publication Critical patent/CN106339089B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及人机交互技术领域,特别是涉及一种人机交互动作识别系统及方法。该方法包括通过切换键确定场景信息采集模式,所述场景信息采集模式包括人体移动识别模式、笔迹识别模式、手指识别模式以及雷达识别模式;将采集到的数据转化为图像信息,并将图像信息处理为灰度图;将灰度图进行分析处理,得到基于设备位图点的图像坐标信息;将所述图像坐标信息转化为屏幕坐标;根据所述屏幕坐标,将一个图像平面分割为一个以上的单元平面,记录所述单元平面四个角的点信息;通过仿射变换,将所述点信息映射到屏幕上;根据映射在屏幕上的点信息,对设备发出响应信息。解决现阶段人机交互动作识别系统不能集合多种采集设备对动作进行识别采集的问题。

Description

一种人机交互动作识别系统及方法
技术领域
本发明涉及人机交互技术领域,特别是涉及一种人机交互动作识别系统及方法。
背景技术
现在传统的人机交互动作识别系统通过摄像头、键盘、操纵杆中的采集信号,然后通过网络或者串口通信发送给计算机。但是,采用不同设备进行动作信息采集的话,只能通过不同系统完成。例如采用摄像头采集信息,对物体的移动信息、手指的点击信息、距离的检测信息或者手指的识别信息都是通过不同的系统完成的,而其分别采集到的信息都会传输给信息处理模块,但是其中采集到的信息很多都是相同的。因此,就会导致系统出现大量的冗余,操作和维护都非常复杂,并且维护成本很高。
发明内容
本发明的目的在于提供一种人机交互动作识别系统及方法,以解决现阶段人机交互动作识别系统不能集合多种采集设备对动作进行识别采集的问题。
本发明提供了一种人机交互动作识别系统,其包括:
S1:通过切换键确定场景信息采集模式,其中,所述场景信息采集模式包括人体移动识别模式、笔迹识别模式、手指识别模式以及雷达识别模式;
S2:将采集到的数据转化为图像信息,并将图像信息处理为灰度图;
S3:将灰度图进行分析处理,得到基于设备位图点的图像坐标信息;
S4:将所述图像坐标信息转化为屏幕坐标;
S5:根据所述屏幕坐标,将一个图像平面分割为一个以上的单元平面,记录所述单元平面四个角的点信息;
S6:通过仿射变换,将所述点信息映射到屏幕上;
S7:根据映射在屏幕上的点信息,对设备发出响应信息。
在一些实施例中,优选为,所述人体移动识别模式为通过红外摄像头采集显示面上的人的移动行为信息;所述笔迹识别模式为通过红外摄像头和红外笔或红外电子教鞭采集显示画上的书写信息;所述手指识别模式为通过红外摄像头采集显示面上的手指操作信息;所述雷达识别模式为通过雷达设备采集人手指的位置信息或者人站立的位置信息、以及移动行为信息。
在一些实施例中,优选为,所述人体移动识别模式采用红外灯进行补光。
在一些实施例中,优选为,所述S3为:根据所述场景信息采集模式,将灰度图进行背景减除处理、去噪处理、模糊处理、二值化处理和轮廓发现处理中的至少一种,并得到基于设备位图点的图像坐标信息。
在一些实施例中,优选为,所述S3包括:
将所述灰度图进行背景减除处理;
判断所述采集到的数据的采集模式;
若场景信息采集模式为人体移动识别模式、笔迹识别模式、手指识别模式,则进行去噪处理,否则,不进行;
进行模糊处理、二值化处理和轮廓发现处理;
得到基于设备位图点的图像坐标信息。
在一些实施例中,优选为,所述图像坐标信息包括设备位图点的坐标、轮廓大小、点出现或者停留的时间、点的ID信息。
在一些实施例中,优选为,所述S5包括:
根据所述屏幕坐标,将一个图像平面分割为一个以上的单元平面;
提取所述图像信息中交叠的图像数据;
将所述交叠的图像数据的单元平面记为同一单元平面;
记录所有单元平面四个角的点信息。
针对上述方法,本发明还公开了一种人机交互动作识别系统,其包括:依次连接的信息采集模块、信息分析模块、信息转换模块和信息处理模块;
所述信息采集模块用于图像信息的采集,并将所述图像信息处理为灰度图;所述信息采集模块包括红外采集设备和雷达采集设备;
所述信息分析模块用于将灰度图进行分析处理,以及输出基于设备位图点的图像坐标信息;
所述信息转换模块用于将所述图像坐标信息转化为屏幕坐标,以及将一个图像平面分割为一个以上的单元平面,记录所述单元平面四个角的点信息,并通过仿射变换将所述点信息映射到屏幕上;
所述信息处理模块用于根据映射在屏幕上的点信息,对设备发出响应信息。
在一些实施例中,优选为,所述摄像头采集设备包括红外摄像头、红外灯、红外笔、红外电子教鞭、红外激光器。
在一些实施例中,优选为,信息采集模块还包括切换键,所述切换键用于选择图像信息的采集设备。
在一些实施例中,优选为,所述信息分析模块包括背景减除单元、去噪单元、模糊单元、二值化单元和轮廓发现单元。
本发明实施例提供的人机交互动作识别方法及系统,与现有技术相比,可根据实际场景的需要,选择图像信息采集的采集模式,该采集模式包括人体移动识别模式、笔迹识别模式、手指识别模式以及雷达识别模式。因此,实现了一个交互系统就可以使用不同的图像信息采集设备,通过一套系统来管理不同的场景,并且可以切换摄像头和雷达2种采集设备。进而有效解决了现阶段人机交互动作识别系统不能集合多种采集设备对动作进行识别采集的问题。
附图说明
图1为本发明一个实施例中人机交互动作识别方法步骤示意图;
图2为本发明一个实施例中人机交互动作识别系统示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
针对现阶段人机交互动作识别系统不能集合多种采集设备对动作进行识别采集的问题,本发明提出了一种人机交互动作识别方法。如图1所示,该方法包括:
S1:通过切换键确定场景信息采集模式,其中,场景信息采集模式包括人体移动识别模式、笔迹识别模式、手指识别模式以及雷达识别模式;
S2:将采集到的数据转化为图像信息,并将图像信息处理为灰度图;
S3:将灰度图进行分析处理,得到基于设备位图点的图像坐标信息;
S4:将图像坐标信息转化为屏幕坐标;
S5:根据屏幕坐标,将一个图像平面分割为一个以上的单元平面,记录单元平面四个角的点信息;
S6:通过仿射变换,将点信息映射到屏幕上;
S7:根据映射在屏幕上的点信息,对设备发出响应信息。
针对4种不同的应用场景分别做了一套算法进行统一识别,因此一种场景确定为一种场景信息采集模式。人体移动识别模式为,将显示画面投射到显示面,可以是墙面或者地面,可以很清楚的识别每个人的移动,并将每个人的运动坐标转化为屏幕坐标传送出来,此时采用的是红外摄像头采集和红外灯进行补光。笔迹模式:通过红外笔在显示画面书写进行触发,书写产生的压力使得红外笔发出非可见的红外光,这个时候通过红外感应摄像头进行捕捉,将捕捉到的笔发光的信息转化为屏幕坐标传送出来,此时采用的是红外摄像头和红外笔或红外电子教鞭。手指模式:通过手指点击显示面,这个时候由于遮挡了红外激光器发出的平面光,产生了亮点,被红外摄像头识别,然后将摄像头采集到的坐标转化为屏幕坐标输出出来,此时用的设备是红外摄像头。雷达模式:可以精确识别到人手指的位置或者人站立的位置,范围从4M到80M之间都可以识别,识别点距离雷达的角度和距离可以被雷达检测出来,然后转化为图像信息,最后转化为屏幕坐标,交由计算机处理.此时采用的仅是雷达设备。
在上述S2中,采集到摄像头信息或者是雷达信息的数据之后,若需要将其转化为图像信息,则进行图像信息转化,然后将图像信息转化为灰度图。处理完之后,将灰度图继续传输处理,传输过程中,输入为图像的二进制数值。
在上述S3中,将灰度图进行分析处理为背景减除处理,去噪处理,模糊处理,二值化处理,轮廓发现处理输出手或者人体在设备图像中的坐标,由于对应不同的硬件,所以经过这些处理对应的参数不同。比如在背景减除处理,如果是移动识别,那么背景在不停的更新,如果是红外笔的识别,那么背景只有第一次使用的时候更新,如果是手的识别,那么背景在更新,但是没有移动识别的快,在比如去噪处理,如果是雷达模式,那么就不需要去噪,摄像头才需要去噪。这样输出出来的是基于设备位图点的信息,包括点的坐标,轮廓大小,点出现或者停留的时间,点的ID等信息。
上述S4和S5中,将图像坐标信息转化为屏幕坐标后,通过将1个大的平面分割为若干个单元平面,每个实际的单元平面的4个角在设备位图里面都有对应的4个角,然后通过仿射变换,将设备位图每一个点映射到屏幕上,如果有多个设备级联,就要处理多个设备位图交叠的部分,交叠的点只能算一次。
通过采集真实屏幕点的信息,然后针对设备产生响应,设备可以是鼠标信息,触摸屏信息,串口信息,网络信息,如果对应不同的游戏场景,那产生的信息也可能不同,发出的点的信息主要包括以下属性,点的坐标,是出现还是消失,一般出现对应按下,消失对应抬起,点的ID,看是哪个人或者哪个手指产生的,点持续的时间,点所在的区域,区域由用户指定。
针对上述人机交互动作识别方法,本发明还公开了一种人机交互动作识别系统,如图2所示,该系统包括依次连接的信息采集模块、信息分析模块、信息转换模块和信息处理模块。
信息采集模块用于图像信息的采集,并将图像信息处理为灰度图;信息采集模块包括红外采集设备和雷达采集设备;摄像头采集设备包括红外摄像头、红外灯、红外笔、红外电子教鞭、红外激光器。采集模块还包括切换键,切换键用于选择图像信息的采集设备。
信息分析模块用于将灰度图进行分析处理,以及输出基于设备位图点的图像坐标信息。信息分析模块包括背景减除单元、去噪单元、模糊单元、二值化单元和轮廓发现单元。信息分析模块的输入为图像的二进制数值,背景减除单元、去噪单元、模糊单元、二值化单元和轮廓发现单元分别对数据进行背景减除处理,去噪处理,模糊处理,二值化处理,轮廓发现处理。
信息转换模块用于将图像坐标信息转化为屏幕坐标,以及将一个图像平面分割为一个以上的单元平面,记录单元平面四个角的点信息,并通过仿射变换将点信息映射到屏幕上。
信息处理模块用于根据映射在屏幕上的点信息,对设备发出响应信息。
该人机交互动作识别系统可以针对不同的互动场景一键切换,则通过一套系统即可管理不同的场景,并且可以切换摄像头和雷达2种采集设备。用户在进行区域选择,游戏添加,屏幕校准与调整时,都只用操作一次,极大的方便了用户。在系统维护方面,每一个设备都通过外链不同的参数进行配置,维护简单方便,不容易出错,极大的提升了维护成本。并且,该人机交互动作识别系统可同其他需要行为识别的系统或设备联通使用,即通过该系统的安装及设置,就可以通过该系统识别出行为的操作信息(也包括位置信息),为其他系统设备提供行为操作信息。例如游戏体验方面,通过系统自带定时器播放不同的游戏,自动选择对应的响应方式,通过该系统就能够实现多个不同游戏的无缝切换。并且游戏内容还可以从网上下载对应的flash游戏,程序可以自动识别,极大的扩充了游戏的内容量。
该人机交互动作识别系统的原理同上述人机交互动作识别方法的原理相同,故不再做详细陈述。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种人机交互动作识别方法,其特征在于,包括:
S1:通过切换键确定场景信息采集模式,其中,所述场景信息采集模式包括人体移动识别模式、笔迹识别模式、手指识别模式以及雷达识别模式;
S2:将采集到的数据转化为图像信息,并将图像信息处理为灰度图;
S3:将灰度图进行分析处理,得到基于设备位图点的图像坐标信息;
S4:将所述图像坐标信息转化为屏幕坐标;
S5:根据所述屏幕坐标,将一个图像平面分割为一个以上的单元平面,记录所述单元平面四个角的点信息;
S6:通过仿射变换,将所述点信息映射到屏幕上;
S7:根据映射在屏幕上的点信息,对设备发出响应信息;
所述人体移动识别模式为通过红外摄像头采集显示面上的人的移动行为信息;所述笔迹识别模式为通过红外摄像头和红外笔、或红外摄像头和红外电子教鞭采集显示画上的书写信息;所述手指识别模式为通过红外摄像头采集显示面上的手指操作信息;所述雷达识别模式为通过雷达采集设备采集人手指的位置信息或者人站立的位置信息、以及移动行为信息。
2.如权利要求1所述的人机交互动作识别方法,其特征在于,所述人体移动识别模式采用红外灯进行补光。
3.如权利要求1所述的人机交互动作识别方法,其特征在于,所述S3为:根据所述场景信息采集模式,将灰度图进行背景减除处理、去噪处理、模糊处理、二值化处理和轮廓发现处理中的至少一种,并得到基于设备位图点的图像坐标信息。
4.如权利要求3所述的人机交互动作识别方法,其特征在于,所述S3包括:
将所述灰度图进行背景减除处理;
判断所述采集到的数据的采集模式;
若场景信息采集模式为人体移动识别模式、笔迹识别模式、手指识别模式,则进行去噪处理,否则,不进行;
进行模糊处理、二值化处理和轮廓发现处理;
得到基于设备位图点的图像坐标信息。
5.如权利要求1所述的人机交互动作识别方法,其特征在于,所述图像坐标信息包括设备位图点的坐标、轮廓大小、点出现的时间、点停留的时间或点的ID信息。
6.如权利要求1所述的人机交互动作识别方法,其特征在于,所述S5包括:
根据所述屏幕坐标,将一个图像平面分割为一个以上的单元平面;
提取所述图像信息中交叠的图像数据;
将所述交叠的图像数据的单元平面记为同一单元平面;
记录所有单元平面四个角的点信息。
7.一种人机交互动作识别系统,其特征在于,包括依次连接的信息采集模块、信息分析模块、信息转换模块和信息处理模块;
所述信息采集模块用于图像信息的采集,并将所述图像信息处理为灰度图;所述信息采集模块包括红外采集设备和雷达采集设备;
所述信息分析模块用于将灰度图进行分析处理,以及输出基于设备位图点的图像坐标信息;
所述信息转换模块用于将所述图像坐标信息转化为屏幕坐标,以及将一个图像平面分割为一个以上的单元平面,记录所述单元平面四个角的点信息,并通过仿射变换将所述点信息映射到屏幕上;
所述信息处理模块用于根据映射在屏幕上的点信息,对设备发出响应信息;
所述红外采集设备包括红外摄像头;所述信息采集模块还包括切换键,所述切换键用于选择场景信息采集模式,其中,所述场景信息采集模式包括人体移动识别模式、笔迹识别模式、手指识别模式以及雷达识别模式;所述人体移动识别模式为通过所述红外摄像头采集显示面上的人的移动行为信息;所述笔迹识别模式为通过所述红外摄像头和红外笔、或红外摄像头和红外电子教鞭采集显示画上的书写信息;所述手指识别模式为通过所述红外摄像头采集显示面上的手指操作信息;所述雷达识别模式为通过所述雷达采集设备采集人手指的位置信息或者人站立的位置信息、以及移动行为信息。
8.如权利要求7所述的人机交互动作识别系统,其特征在于,所述信息分析模块包括背景减除单元、去噪单元、模糊单元、二值化单元和轮廓发现单元。
CN201610764273.2A 2016-08-30 2016-08-30 一种人机交互动作识别系统及方法 Active CN106339089B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610764273.2A CN106339089B (zh) 2016-08-30 2016-08-30 一种人机交互动作识别系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610764273.2A CN106339089B (zh) 2016-08-30 2016-08-30 一种人机交互动作识别系统及方法

Publications (2)

Publication Number Publication Date
CN106339089A CN106339089A (zh) 2017-01-18
CN106339089B true CN106339089B (zh) 2019-06-28

Family

ID=57823332

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610764273.2A Active CN106339089B (zh) 2016-08-30 2016-08-30 一种人机交互动作识别系统及方法

Country Status (1)

Country Link
CN (1) CN106339089B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358229A (zh) * 2017-08-25 2017-11-17 马新禹 一种手写智能笔
WO2019172718A1 (en) 2018-03-09 2019-09-12 Samsung Electronics Co., Ltd. Electronic device and on-device method for enhancing user experience in electronic device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101183276A (zh) * 2007-12-13 2008-05-21 上海交通大学 基于摄像头投影仪技术的交互系统
CN103502911A (zh) * 2011-05-06 2014-01-08 诺基亚公司 使用多个传感器的手势识别
CN103927089A (zh) * 2013-01-11 2014-07-16 株式会社理光 控制交互用户界面对象的方法和装置
CN104094194A (zh) * 2011-12-09 2014-10-08 诺基亚公司 用于基于多个传感器信号的融合识别手势的方法和设备
CN104298354A (zh) * 2014-10-11 2015-01-21 河海大学 一种人机交互的手势识别方法
KR101558395B1 (ko) * 2014-09-22 2015-10-07 현대자동차 주식회사 차량용 곡면 디스플레이 시스템 및 그 제어 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101183276A (zh) * 2007-12-13 2008-05-21 上海交通大学 基于摄像头投影仪技术的交互系统
CN103502911A (zh) * 2011-05-06 2014-01-08 诺基亚公司 使用多个传感器的手势识别
CN104094194A (zh) * 2011-12-09 2014-10-08 诺基亚公司 用于基于多个传感器信号的融合识别手势的方法和设备
CN103927089A (zh) * 2013-01-11 2014-07-16 株式会社理光 控制交互用户界面对象的方法和装置
KR101558395B1 (ko) * 2014-09-22 2015-10-07 현대자동차 주식회사 차량용 곡면 디스플레이 시스템 및 그 제어 방법
CN104298354A (zh) * 2014-10-11 2015-01-21 河海大学 一种人机交互的手势识别方法

Also Published As

Publication number Publication date
CN106339089A (zh) 2017-01-18

Similar Documents

Publication Publication Date Title
CN102096471B (zh) 一种基于机器视觉的人机交互方法
JP2015222591A (ja) ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法
CN105988924A (zh) 一种非侵入式嵌入式软件图形用户界面自动化测试方法
CN110209273A (zh) 手势识别方法、交互控制方法、装置、介质与电子设备
TWI695311B (zh) 一種利用手勢模擬滑鼠操作的方法、裝置及終端
CN112506340B (zh) 设备控制方法、装置、电子设备及存储介质
WO2018000519A1 (zh) 一种基于投影的用户交互图标的交互控制方法及系统
KR20210116665A (ko) 불법 건축물 식별 방법, 장치, 설비 및 저장 매체
CN102508574A (zh) 基于投影屏幕的多点触控检测方法及多点触控系统
CN106663196A (zh) 视频中的计算机显著人物识别
Reddy et al. Virtual mouse control using colored finger tips and hand gesture recognition
CN103150020A (zh) 一种三维指控操作方法及系统
CN103105924B (zh) 人机交互方法和装置
CN102945078A (zh) 人机交互设备及人机交互方法
CN104331193A (zh) 一种红外精准多点触控平台
US11429985B2 (en) Information processing device calculating statistical information
CN111739069B (zh) 图像配准方法、装置、电子设备及可读存储介质
CN109839827B (zh) 一种基于全空间位置信息的手势识别智能家居控制系统
WO2018076182A1 (zh) 一种图像拍摄方法及装置
CN106339089B (zh) 一种人机交互动作识别系统及方法
CN103713755A (zh) 一种触摸识别装置及识别方法
CN108572734A (zh) 一种基于红外激光辅助成像的手势控制系统
KR102052449B1 (ko) 가상 마우스 시스템 및 그 제어 방법
Liang et al. Turn any display into a touch screen using infrared optical technique
Hartanto et al. Real time hand gesture movements tracking and recognizing system

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220613

Address after: 430000 room 02, 10 / F, building 02, Yinjiu science and Technology Industrial Park (phase II), No. 35, Guanggu Avenue, Guandong street, Donghu New Technology Development Zone, Wuhan City, Hubei Province 1002-4 (Wuhan area of the free trade zone)

Patentee after: Wuhan Keling multimedia Co.,Ltd.

Address before: 430000 No. 04, floor 8, building 5, qingjiangshan, No. 10, Guanggu Software Park Second Road, East Lake New Technology Development Zone, Wuhan, Hubei

Patentee before: WUHAN KLEADER SOFTWARE TECHNOLOGY CO.,LTD.