CN104915126A - 智能交互方法和系统 - Google Patents

智能交互方法和系统 Download PDF

Info

Publication number
CN104915126A
CN104915126A CN201510345110.6A CN201510345110A CN104915126A CN 104915126 A CN104915126 A CN 104915126A CN 201510345110 A CN201510345110 A CN 201510345110A CN 104915126 A CN104915126 A CN 104915126A
Authority
CN
China
Prior art keywords
destination object
video image
value
steering order
measuring position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510345110.6A
Other languages
English (en)
Other versions
CN104915126B (zh
Inventor
刘义强
许志明
陈环
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Laiyun Xincheng Technology Co.,Ltd.
Original Assignee
CHANGSHA ZHITIAN INFORMATION TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CHANGSHA ZHITIAN INFORMATION TECHNOLOGY Co Ltd filed Critical CHANGSHA ZHITIAN INFORMATION TECHNOLOGY Co Ltd
Priority to CN201510345110.6A priority Critical patent/CN104915126B/zh
Publication of CN104915126A publication Critical patent/CN104915126A/zh
Application granted granted Critical
Publication of CN104915126B publication Critical patent/CN104915126B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种智能交互方法和系统。智能交互方法包括:在测量位置通过非接触方式获取与机器设备进行交互的目标对象的视频图像;根据视频图像获取目标对象的多个部位,并采集目标对象的多个部位与测量位置的距离值;对根据目标对象的视频图像和距离值获取目标对象的动作状态;从预存的控制指令中读取与动作状态对应的控制指令,根据控制指令控制被控设备执行交互动作。上述智能交互方法实现了非接触式的交互,使得交互不受交互设备的接触性限制,提高了交互的效率。

Description

智能交互方法和系统
技术领域
本发明涉及交互技术领域,特别是涉及一种智能交互方法和系统。
背景技术
人机交互是用户与机器设备(如计算机)之间通过一定的方式进行的沟通方式,例如用户可通过鼠标、键盘和触摸屏等交互设备向计算机输入指令,计算机可以根据用户输入的指令进行相应的操作,即实现人机交互。
目前的人机交互方式为接触式交互,用户通过接触交互设备输入控制指令,计算机通过连接交互设备识别控制指令以实现人机交互。当交互设备的占用面积较大的时候,例如触摸屏的面积较大,用户不方便对大面积的交互设备进行操作,或者当计算机与交互设备之间通信断开的时候不能识别控制指令。因此,现有的接触式交互方法受到交互设备的接触性限制,效率不高。
发明内容
基于此,有必要针对上述问题,提供一种效率较高的智能交互方法和系统。
一种智能交互方法,包括如下步骤:
在测量位置通过非接触方式获取与机器设备进行交互的目标对象的视频图像;
根据所述视频图像获取所述目标对象的多个部位,并采集所述目标对象的多个部位与测量位置的距离值;
对根据所述目标对象的视频图像和所述距离值获取所述目标对象的动作状态;
从预存的控制指令中读取与所述动作状态对应的控制指令,根据所述控制指令控制被控设备执行交互动作。
一种智能交互系统,包括:
视频获取模块,用于在测量位置通过非接触方式获取与机器设备进行交互的目标对象的视频图像;
距离测量模块,用于根据所述视频图像获取所述目标对象的多个部位,并采集所述目标对象的多个部位与测量位置的距离值;
数据处理模块,用于根据所述目标对象的视频图像和所述距离值获取所述目标对象的动作状态;
设备控制模块,用于从预存的控制指令中读取与动作状态对应的控制指令,根据所述控制指令控制被控设备执行交互动作。
上述的一种智能交互方法和系统,通过非接触方式采集视频图像和采集根据视频图像获取的多个部位与测量位置之间的距离值,并根据视频图像和距离值获取目标对象的动作状态,读取与动作状态对应的控制指令以控制被控设备进行相应动作,实现了非接触式的交互,使得交互不受交互设备的限制,提高了交互的效率。
附图说明
图1为本发明智能交互方法的较佳实施例的流程图;
图2为一实施例中图1所示在测量位置通过非接触方式获取与机器设备进行交互的目标对象的视频图像的具体流程图;
图3为一实施例中图1所示根据目标对象的视频图像和距离值获取目标对象的动作状态的具体流程图;
图4为本发明智能交互系统的较佳实施例的模块示意图;
图5为一实施例中图4所示视频获取模块的具体单元图;
图6为一实施例中图4所示数据处理模块的具体单元图。
具体实施方式
参考图1,本发明一种智能交互方法,包括步骤S110至步骤S170。
S110:在测量位置通过非接触方式获取与机器设备进行交互的目标对象的视频图像。
具体地,非接触方式为摄像机采集视频的方式。目标对象可以与机器设备进行交互,例如人体。通过摄像机采集人体的视频图像,不需要额外的用于与目标对象接触的交互设备,提高了交互的便捷性。
S130:根据视频图像获取目标对象的多个部位,并采集目标对象的多个部位与测量位置的距离值。
其中一实施例中,步骤S130包括对视频图像进行预处理,并对预处理后的视频图像进行关键性区域的轮廓处理。通过轮廓分析,寻找目标对象的多个部位,如头部、双手、双腿、肘关节、膝关节、手指等。
具体地,预处理可以包括降噪处理和滤波处理。降噪处理可以消除图片中噪点,滤波处理可以根据不同的场景,通过腐蚀、膨胀、开运算、闭运算、顶帽等算法进行滤波处理,形成处理后的图片。通过预处理,提高了根据视频图像获取多个部位的准确度。
S150:根据目标对象的视频图像和距离值获取目标对象的动作状态。
动作状态指根据采集的视频图像得到的目标对象所处的动作,例如可以是左手画圈、跳跃或头部摆动等。
S170:从预存的控制指令中读取与动作状态对应的控制指令,根据控制指令控制被控设备执行交互动作。
预存的控制指令为对应不同的预设动作状态预存的控制指令。通过找出与步骤S150中获取的动作状态对应的预设动作,即可读取与动作状态对应的控制指令。
上述的一种智能交互方法,通过非接触方式采集视频图像和采集根据视频图像获取的多个部位与测量位置之间的距离值,并根据视频图像和距离值获取目标对象的动作状态,读取与动作状态对应的控制指令以控制被控设备进行相应动作,实现了非接触式的交互,使得交互不受交互设备的接触性限制,提高了交互的效率。
其中一实施例中,参考图2,步骤S110包括步骤S111至步骤S115。
S111:采集光线强度,判断光线强度是否大于或等于预设值。若否,则执行步骤S113,若是,则执行步骤S115。
S113:在测量位置采集目标对象的灰度图像,得到视频图像。即,当光线强度较小时,采集目标对象的灰度图像。在光线强度不够的情况下选择灰度图像,避免了因采光不好而导致的视频图像不清楚的问题,提高了清晰度。
S115:在测量位置采集目标对象的彩色图像,得到视频图像。即,在光线强度较大时,采集目标对象的彩色图像。在光线强度较佳的情况下选择彩色图像,提高了视频图像的视觉效果。
其中一实施例中,步骤S130中采集所述目标对象的多个部位与测量位置的距离值的步骤包括采用红外测距技术或者超声波测距技术采集目标对象的多个部位与测量位置的距离值。
其中一实施例中,参考图3,步骤S150包括步骤S151至步骤S157。
S151:每相隔设定的间隔时间,根据目标对象的视频图像获取该次间隔时间的一帧图像。具体地,设定的间隔时间可以为0.1秒。
S153:根据获取的一帧图像分别获取目标对象的多个部位的平行于水平方向的第一方向和垂直于水平方向的第二方向的值,以及获取对应于距离值的第三方向的值,第三方向与第一方向和第二方向相互垂直。
具体地,第一方向、第二方向和第三方向分别为获取的一帧图像的X轴、Y轴和Z轴,即获取多个部位的具体空间位置。
S155:将多个设定的间隔时间获取的第一方向、第二方向和第三方向的值以队列方式保存。
S157:根据队列中第一方向、第二方向和第三方向的值,判断目标对象的动作状态。具体可以是通过单位时间内(如1秒内)连续队列判断各个部位的动作轨迹,判断动作状态,如向左挥手,右手划圈等动作。
其中一实施例中,智能交互方法还包括:采集目标对象的语音信号;根据语音信号获取对应语音信号的控制指令;根据语音信号的控制指令控制被控设备执行交互动作。因此,智能交互方法还可以根据目标对象的语音信号进行交互动作,同样不需要额外的交互设备,可提高交互的便利性。
其中一实施例中,控制指令为数字信号指令和/或模拟电平信号指令。数字信号指令可以用于计算机直接执行,形成数字设备上的人机互动,如屏幕显示指令内容、播放音乐等。模拟电平信号指令可以通过将数字信号指令进行模式转换得到,用于实现电路设备上的人机互动,如可控制电路,如开关灯、空调、电子门等。
参考图4,一种智能交互系统,包括视频获取模块110、距离测量模块130、数据处理模块150和设备控制模块170。
视频获取模块110用于在测量位置通过非接触方式获取与机器设备进行交互的目标对象的视频图像。
具体地,非接触方式为摄像机采集视频的方式。目标对象可以是与机器设备进行交互的人体或者需要机器设备监测的物体。通过摄像机采集人体或物体的视频图像,不需要额外的用于与目标对象接触的交互设备,提高了交互的便捷性。
距离测量模块130用于根据视频图像获取目标对象的多个部位,并采集目标对象的多个部位与测量位置的距离值。
其中一实施例中,距离测量模块130可以对视频图像进行预处理,并对预处理后的视频图像进行关键性区域的轮廓处理。通过轮廓分析,寻找目标对象的多个部位,如头部、双手、双腿、肘关节、膝关节、手指等。
具体地,预处理可以包括降噪处理和滤波处理。降噪处理可以消除图片中的噪点,滤波处理可以根据不同的场景,通过腐蚀、膨胀、开运算、闭运算、顶帽等算法进行滤波处理,形成处理后的图片。通过预处理,提高了根据视频图像获取多个部位的准确度。
数据处理模块150用于根据目标对象的视频图像和距离值获取目标对象的动作状态。动作状态指根据采集的视频图像得到的目标对象所处的动作,例如可以是左手画圈、跳跃或头部摆动等。
设备控制模块170用于从预存的控制指令中读取与动作状态对应的控制指令,根据控制指令控制被控设备执行交互动作。预存的控制指令为对应不同的预设动作状态预存的控制指令。通过找出与数据处理模块150获取的动作状态对应的预设动作,即可读取与动作状态对应的控制指令。
上述的一种智能交互系统,通过视频获取模块110非接触方式采集视频图像和距离测量模块130采集根据视频图像获取的多个部位与测量位置之间的距离值,数据处理模块150根据视频图像和距离值获取目标对象的动作状态,设备控制模块170读取与动作状态对应的控制指令以控制被控设备进行相应动作,实现了非接触式的交互,使得交互不受交互设备的接触性限制,提高了交互的效率。
其中一实施例中,参考图5,视频获取模块110包括光线强度采集单元111、灰度图像处理单元113和彩色图像处理单元115。
光线强度采集单元111用于采集光线强度,判断光线强度是否大于或等于预设值。具体地,光线强度采集单元111可以采用光敏检测电路检测光线强度。
灰度图像处理单元113用于在光线强度小于预设值时,在测量位置采集目标对象的灰度图像,得到视频图像。在光线强度不够的情况下选择灰度图像,避免了因采光不好而导致的视频图像不清楚的问题,提高了清晰度。
彩色图像处理单元115用于在光线强度大于或等于预设值时,在测量位置采集目标对象的彩色图像,得到视频图像。在光线强度较佳的情况下选择彩色图像,提高了视频图像的视觉效果。
其中一实施例中,距离测量模块130可以采用红外测距技术或者超声波测距技术采集目标对象的多个部位与测量位置的距离值。具体地,距离测量模块130可以包括红外测距传感器和超声波测距传感器,当需要在室外进行距离测量时可以采用红外测距传感器,需要在室内进行距离测量时,可以采用超声波测距传感器。
其中一实施例中,参考图6,数据处理模块150包括第一获取单元151、第二获取单元153、队列存储单元155和动作判断单元157。
第一获取单元151用于每相隔设定的间隔时间,根据目标对象的视频图像获取该次间隔时间的一帧图像。具体地,设定的间隔时间可以为0.1秒。
第二获取单元153用于根据获取的一帧图像分别获取目标对象多个部位的平行于水平方向的第一方向和垂直于水平方向的第二方向的值,以及获取对应于距离值的第三方向的值,第三方向与第一方向和第二方向相互垂直。具体地,第一方向、第二方向和第三方向分别为获取的一帧图像的X轴、Y轴和Z轴,即获取多个部位的具体空间位置。
队列存储单元155用于将多个设定的间隔时间获取的第一方向、第二方向和第三方向的值以队列方式保存。
动作判断单元157用于根据队列中第一方向、第二方向和第三方向的值,判断目标对象的动作状态。具体可以是通过单位时间内(如1秒内)连续队列判断各个部位的动作轨迹,判断动作状态,如向左挥手,右手划圈等动作。
其中一实施例中,智能交互系统还包括语音处理模块(图未示),语音处理模块包括语音采集单元、控制获取单元和语音控制单元。语音采集单元用于采集目标对象的语音信号。控制获取单元用于根据语音信号获取对应语音信号的控制指令。语音控制单元用于根据语音信号的控制指令控制被控设备执行交互动作。因此,智能交互系统还可以根据目标对象的语音信号进行交互动作,同样不需要额外的交互设备,可提高交互的便利性。
其中一实施例中,控制指令为数字信号指令和/或模拟电平信号指令。数字信号指令可以用于计算机直接执行,形成数字设备上的人机互动,如屏幕显示指令内容、播放音乐等。模拟电平信号指令可以通过模数转换模块将数字信号指令进行模式转换得到,用于实现电路设备上的人机互动,如可控制电路,如开关灯、空调、电子门等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种智能交互方法,其特征在于,包括如下步骤:
在测量位置通过非接触方式获取与机器设备进行交互的目标对象的视频图像;
根据所述视频图像获取所述目标对象的多个部位,并采集所述目标对象的多个部位与测量位置的距离值;
根据所述目标对象的视频图像和所述距离值获取所述目标对象的动作状态;
从预存的控制指令中读取与所述动作状态对应的控制指令,根据所述控制指令控制被控设备执行交互动作。
2.根据权利要求1所述的智能交互方法,其特征在于,所述在测量位置通过非接触式方式获取与机器设备进行交互的目标对象的视频图像的步骤包括:
采集光线强度,判断所述光线强度是否大于或等于预设值;
若否,则在测量位置采集所述目标对象的灰度图像,得到所述视频图像;
若是,则在测量位置采集所述目标对象的彩色图像,得到所述视频图像。
3.根据权利要求1所述的智能交互方法,其特征在于,所述根据所述目标对象的视频图像和所述距离值获取所述目标对象的动作状态的步骤包括:
每相隔设定的间隔时间,根据所述目标对象的视频图像获取该次间隔时间的一帧图像;
根据所述获取的一帧图像分别获取所述目标对象的多个部位的平行于水平方向的第一方向和垂直于水平方向的第二方向的值,以及获取对应于所述距离值的第三方向的值,所述第三方向与所述第一方向和第二方向相互垂直;
将所述多个设定的间隔时间获取的第一方向、第二方向和第三方向的值以队列方式保存;
根据所述队列中第一方向、第二方向和第三方向的值,判断所述目标对象的动作状态。
4.根据权利要求1所述的智能交互方法,其特征在于,还包括:
采集所述目标对象的语音信号;
根据所述语音信号获取对应语音信号的控制指令;
根据所述语音信号的控制指令控制所述被控设备执行交互动作。
5.根据权利要求1所述的智能交互方法,其特征在于,所述采集所述目标对象的多个部位与测量位置的距离值的步骤包括:
采用红外测距技术或者超声波测距技术采集所述目标对象的多个部位与测量位置的距离值。
6.根据权利要求1所述的智能交互方法,其特征在于,所述控制指令为数字信号指令和/或模拟电平信号指令。
7.一种智能交互系统,其特征在于,包括:
视频获取模块,用于在测量位置通过非接触方式获取与机器设备进行交互的目标对象的视频图像;
距离测量模块,用于根据所述视频图像获取所述目标对象的多个部位,并采集所述目标对象的多个部位与测量位置的距离值;
数据处理模块,用于根据所述目标对象的视频图像和所述距离值获取所述目标对象的动作状态;
设备控制模块,用于从预存的控制指令中读取与动作状态对应的控制指令,根据所述控制指令控制被控设备执行交互动作。
8.根据权利要求7所述的智能交互系统,其特征在于,所述视频获取模块包括光线强度采集单元、灰度图像处理单元和彩色图像处理单元;
所述光线强度采集单元用于采集光线强度,判断所述光线强度是否大于或等于预设值;
所述灰度图像处理单元用于在所述光线强度小于所述预设值时,在测量位置采集所述目标对象的灰度图像,得到所述视频图像;
所述彩色图像处理单元用于在所述光线强度大于或等于所述预设值时,在测量位置采集所述目标对象的彩色图像,得到所述视频图像。
9.根据权利要求7所述的智能交互系统,其特征在于,所述数据处理模块包括:
第一获取单元,用于每相隔设定的间隔时间,根据所述目标对象的视频图像获取该次间隔时间的一帧图像;
第二获取单元,用于根据所述一帧图像分别获取所述目标对象多个部位的平行于水平方向的第一方向和垂直于水平方向的第二方向的值,以及获取对应于所述距离值的第三方向的值,所述第三方向与所述第一方向和第二方向相互垂直;
队列存储单元,用于将所述多个设定的间隔时间获取的第一方向、第二方向和第三方向的值以队列方式保存;
动作判断单元,用于根据所述队列中第一方向、第二方向和第三方向的值,判断所述目标对象的动作状态。
10.根据权利要求7所述的智能交互系统,其特征在于,还包括语音处理模块,所述语音处理模块包括语音采集单元、控制获取单元和语音控制单元;
所述语音采集单元用于采集所述目标对象的语音信号;
所述控制获取单元用于根据所述语音信号获取对应所述语音信号的控制指令;
所述语音控制单元用于根据所述语音信号的控制指令控制所述被控设备执行交互动作。
CN201510345110.6A 2015-06-19 2015-06-19 智能交互方法和系统 Active CN104915126B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510345110.6A CN104915126B (zh) 2015-06-19 2015-06-19 智能交互方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510345110.6A CN104915126B (zh) 2015-06-19 2015-06-19 智能交互方法和系统

Publications (2)

Publication Number Publication Date
CN104915126A true CN104915126A (zh) 2015-09-16
CN104915126B CN104915126B (zh) 2018-01-26

Family

ID=54084230

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510345110.6A Active CN104915126B (zh) 2015-06-19 2015-06-19 智能交互方法和系统

Country Status (1)

Country Link
CN (1) CN104915126B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106707834A (zh) * 2015-11-13 2017-05-24 杭州摩图科技有限公司 一种基于计算机视觉技术的遥控设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120163723A1 (en) * 2010-12-28 2012-06-28 Microsoft Corporation Classification of posture states
CN103167340A (zh) * 2013-04-03 2013-06-19 青岛歌尔声学科技有限公司 智能电视手势识别系统及其识别方法
CN103353935A (zh) * 2013-07-19 2013-10-16 电子科技大学 一种用于智能家居系统的3d动态手势识别方法
CN204129723U (zh) * 2014-09-25 2015-01-28 广州大学 一种基于Kinect体感交互的课堂多媒体教学装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120163723A1 (en) * 2010-12-28 2012-06-28 Microsoft Corporation Classification of posture states
CN103167340A (zh) * 2013-04-03 2013-06-19 青岛歌尔声学科技有限公司 智能电视手势识别系统及其识别方法
CN103353935A (zh) * 2013-07-19 2013-10-16 电子科技大学 一种用于智能家居系统的3d动态手势识别方法
CN204129723U (zh) * 2014-09-25 2015-01-28 广州大学 一种基于Kinect体感交互的课堂多媒体教学装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张晔等: "基于热释电红外传感器探测距离影响因素的研究", 《红外与毫米波学报》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106707834A (zh) * 2015-11-13 2017-05-24 杭州摩图科技有限公司 一种基于计算机视觉技术的遥控设备

Also Published As

Publication number Publication date
CN104915126B (zh) 2018-01-26

Similar Documents

Publication Publication Date Title
US8666115B2 (en) Computer vision gesture based control of a device
KR101761050B1 (ko) 인간-컴퓨터 자연스러운 3차원 손 제스처 기반 내비게이션 방법
CN103295028B (zh) 手势操作控制方法、装置及智能显示终端
US9405373B2 (en) Recognition apparatus
CN109074819A (zh) 基于操作-声音的多模式命令的优选控制方法及应用其的电子设备
CN102200830A (zh) 基于静态手势识别的非接触控制系统和控制方法
US20140049465A1 (en) Gesture operated control for medical information systems
WO2018000519A1 (zh) 一种基于投影的用户交互图标的交互控制方法及系统
US10366281B2 (en) Gesture identification with natural images
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
US20150234467A1 (en) Method and apparatus for gesture detection and display control
TWI528271B (zh) 多邊形手勢偵測及互動方法、裝置及電腦程式產品
CN105159446A (zh) 一种终端的单手操作方法和装置
US20140340498A1 (en) Using distance between objects in touchless gestural interfaces
JP2012027515A (ja) 入力方法及び入力装置
CN104819544B (zh) 一种空调器控制方法
WO2013078989A1 (zh) 人机交互操作指令的触发控制方法和系统
CN111656313A (zh) 屏幕显示切换方法、显示设备、可移动平台
US9880733B2 (en) Multi-touch remote control method
CN111986229A (zh) 视频目标检测方法、装置及计算机系统
KR101233793B1 (ko) 손 동작 인식을 이용한 가상 마우스 구동 방법
CN104423568A (zh) 显示画面的控制系统、输入装置及控制方法
CN104915126A (zh) 智能交互方法和系统
CN103870146A (zh) 一种信息处理方法及电子设备
CN103902202B (zh) 一种信息处理方法及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210902

Address after: Room 1002, building A3, jinruilugu Science Park, 28 Lutian Road, Changsha hi tech Development Zone, Changsha City, Hunan Province, 410000

Patentee after: Hunan Laiyun Xincheng Technology Co.,Ltd.

Address before: 410205 No. 705 and 706, building C3, Lugu Yuyuan, No. 27, Wenxuan Road, Changsha high tech Development Zone, Changsha, Hunan

Patentee before: CHANGSHA ZHITIAN INFORMATION TECHNOLOGY Co.,Ltd.