CN114217729B - 一种基于视觉识别的人机交互方法及系统 - Google Patents

一种基于视觉识别的人机交互方法及系统 Download PDF

Info

Publication number
CN114217729B
CN114217729B CN202111443022.1A CN202111443022A CN114217729B CN 114217729 B CN114217729 B CN 114217729B CN 202111443022 A CN202111443022 A CN 202111443022A CN 114217729 B CN114217729 B CN 114217729B
Authority
CN
China
Prior art keywords
input end
electrically connected
output end
conductive wire
machine interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111443022.1A
Other languages
English (en)
Other versions
CN114217729A (zh
Inventor
徐丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Hongtu Digital Technology Co ltd
Original Assignee
Guangzhou Hongtu Digital Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Hongtu Digital Technology Co ltd filed Critical Guangzhou Hongtu Digital Technology Co ltd
Priority to CN202111443022.1A priority Critical patent/CN114217729B/zh
Publication of CN114217729A publication Critical patent/CN114217729A/zh
Application granted granted Critical
Publication of CN114217729B publication Critical patent/CN114217729B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/266Arrangements to supply power to external peripherals either directly from the computer or under computer control, e.g. supply of power through the communication port, computer controlled power-strips

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及人机交互技术领域,具体是一种基于视觉识别的人机交互方法,包括一下方法:身份识别;距离检测;行为识别;图像处理;建模处理;控制触摸显示屏,包括底座和触摸显示屏,底座的顶部安装有支撑柱,支撑柱的内部通过螺栓安装有电动伸缩杆,电动伸缩杆的输出端安装有处理器,处理器的顶部焊接有安装座。本发明的有益效果能对使用者的手指移动信息准确采集和读取命令,能灵活使用设备,使得能有效的避免使用者其它手指误碰到其它按键,提高使用人机交互系统的精确度,提高操作和使用人机交互系统的便利性,能对使用者的人进行身份识别,同时能匹配相对应相关历史查询的记录。

Description

一种基于视觉识别的人机交互方法及系统
技术领域
本发明涉及人机交互技术领域,具体是一种基于视觉识别的人机交互方法及系统。
背景技术
人机交互、人机互动是一门研究系统与用户之间的交互关系的学问。系统可以是各种各样的机器,也可以是计算机化的系统和软件。人机交互界面通常是指用户可见的部分。用户通过人机交互界面与系统交流,并进行操作。小如收音机的播放按键,大至飞机上的仪表板,或发电厂的控制室。人机交互界面的设计要包含用户对系统的理解(即心智模型),那是为了系统的可用性或者用户友好性。学生用户利用某一手指(如食指)来点击学习页面(如纸质页面)上的某一内容 (如不会读的生字词)时,其它手指需要弯曲收起,以避免影响电子设备对学生用户所指内容的识别率和准确性。这种要求比较严苛,会降低学生用户的操作体验感;特别是,年纪较小的学生用户在实际使用过程中有可能多个手指伸开或手掌趴放在学习页面上,很容易影响电子设备对学生用户所指内容的识别率和准确性。
中国专利号CN107239139B提供一种基于正视的人机交互方法与系统,获取通过图像采集设备采集的用户与设备处于相对正视状态下的正视图像数据,采集用户当前图像数据,将当前采集的图像数据与正视图像数据比较,当一致时,通过计算机的视觉识别技术和语音识别技术识别用户行为和意图,根据预设用户的行为与意图与操作对应关系,控制设备执行与用户当前的行为与意图对应的操作。整个过程中,基于图像采集设备采集的图像数据进行正视判定,并以用户与设备的正视状态判定作为人机交互前提条件,整个人机交互过程自然,另外采用包括人脸识别、语音识别、手势识别、唇语识别、瞳孔识别以及虹膜识别的多种计算机的视觉识别技术和语音识别技术识别用户下一步动作,能够实现多样式人机交互。
现有的人机交互,不能相对较好的对使用者的手指移动信息准确采集和读取命令,不能灵活使用设备,使用者其它手指容易误碰到其它按键,导致使用人机交互系统的精确度相对较低,操作和使用人机交互系统相对不便利,不能对使用者的人进行身份识别,导致不能匹配相对应相关历史查询的记录的缺点,因此亟需研发一种基于视觉识别的人机交互方法及系统。
发明内容
针对上述问题,本发明旨在提供一种不能相对较好的对使用者的手指移动信息准确采集和读取命令,不能灵活使用设备,使用者其它手指容易误碰到其它按键,导致使用人机交互系统的精确度相对较低,操作和使用人机交互系统相对不便利的问题。
为实现该技术目的,本发明的方案是:一种基于视觉识别的人机交互方法,包括一下方法:
S1、身份识别:通过人脸识别摄像头对使用者的面貌进行采集图像,然后通过人脸识别模块进行对使用者的身份进行确认;
S2、距离检测:通过行为采集摄像头首先对使用者到触摸显示屏的距离进行检测,当达到对应距离时,进行下一步行为识别;
S3、行为识别:行为采集摄像头能对使用者手指的行为进行识别,然后通过人脸识别模块进行对行为进行识别处理;
S4、图像处理:行为识别处理之后通过图像处理模块对行为的动作进行图像处理;
S5、建模处理:图像处理之后通过三维坐标处理模块对多个图像进行快速的建模识别使用者的动作,然后做出动作指示的判断;
S6、控制触摸显示屏:在使用者手指移动的同时触摸显示屏上的鼠标键移动,使得使用者识别准确度更高。
一种基于视觉识别的人机交互系统,包括底座和触摸显示屏,所述底座的顶部安装有支撑柱,所述支撑柱的内部通过螺栓安装有电动伸缩杆,所述电动伸缩杆的输出端安装有处理器,所述处理器的顶部焊接有安装座,所述安装座的内侧通过螺栓安装有正反转电机,所述正反转电机的外部设置有防护壳,所述安装座的外部转动连接有转动架,且转动架的一侧固定在正反转电机的输出端上,所述转动架的顶部焊接有转动板,所述转动板的顶部焊接有放置架,所述放置架的一侧设置有防滑垫,所述触摸显示屏卡接在放置架上,所述触摸显示屏的顶部卡接有识别机构,所述识别机构包括有安装架,所述安装架的正面嵌入安装有人脸识别摄像头和行为采集摄像头,所述处理器包括有控制壳,所述控制壳的正面嵌入安装有操控按键,所述处理器的正面嵌入安装有扬声器,所述处理器的一侧嵌入安装有USB接口,所述处理器的一侧设置有开关,所述处理器的内部通过螺栓安装有电路板,所述电路板的正面焊接有主控芯片、驱动芯片、通信模块、图像处理模块、人脸识别模块、三维坐标处理模块、行为识别模块和距离处理模块。
作为优选,所述安装架的底部设置有卡接架,且安装架通过卡接架卡接在触摸显示屏的顶部。
作为优选,所述处理器的底部通过螺栓安装有导向杆,所述支撑柱的顶部开有导向孔,所述导向杆滑动插接在导向孔的内部。
作为优选,所述行为采集摄像头的输出端通过导电线与距离处理模块的输入端形成电性连接,所述距离处理模块的输出端通过导电线与行为识别模块的输入端形成电性连接,所述行为识别模块的输出端通过导电线与图像处理模块的输入端形成电性连接。
作为优选,所述图像处理模块的输出端通过导电线与三维坐标处理模块的输入端形成电性连接,所述三维坐标处理模块的输出端通过导电线与主控芯片的输入端形成电性连接。
作为优选,所述操控按键的输出端通过导电线与主控芯片的输入端形成电性连接,所述开关的输出端通过导电线与主控芯片的输入端形成电性连接,所述主控芯片的输出端通过导电线与驱动芯片的输入端形成电性连接。
作为优选,所述人脸识别摄像头的输出端通过导电线与人脸识别模块的输入端形成电性连接,所述人脸识别模块的输出端通过导电线与主控芯片的输入端形成电性连接。
作为优选,所述主控芯片的输出端和输入端分别均通过导电线与通信模块的输入端和输入端形成电性连接,所述通信模块的输出端和输入端分别均通过导电线与触摸显示屏的输入端和输入端形成电性连接。
作为优选,所述驱动芯片的输出端通过导电线与正反转电机的输入端形成电性连接,所述驱动芯片的输出端通过导电线与电动伸缩杆的输入端形成电性连接,所述驱动芯片的输出端通过导电线与扬声器的输入端形成电性连接
本发明的有益效果,(1)本发明采用的方法,采用图像处理模块、行为采集模块和三维坐标处理模块能对使用者的手指移动信息准确采集和读取命令,手势移动时触摸显示屏上的鼠标尖头移动,能灵活使用设备,使得能有效的避免使用者其它手指误碰到其它按键,提高使用人机交互系统的精确度。
(2)通过设置的行为采集摄像头和人脸识别摄像头,人脸识别摄像头能对使用者的人进行身份识别,同时能匹配相对应相关历史查询的记录,提高使用人机交互系统的效率,行为采集摄像头能对人操作触摸显示屏时进行信息采集,提高操作和使用人机交互系统的便利性。
(3)通过设置的电动伸缩杆和正反转电机,电动伸缩杆能带动处理器升降,处理器升降能带动放置架和触摸显示屏升降,满足不同身高的学生使用该系统,正反转电机能带动转动架转动,转动架转动带动放置架和触摸显示屏转动,使得该行为采集模块系统能够满足不同使用者的需求。
(4)通过设置的放置架、锂电池和USB接口,放置架用于对触摸显示屏进行卡接固定的,能提高触摸显示屏放置时的便利性和稳定性,锂电池能对触摸显示屏进行供电,提高触摸显示屏的待机时长, USB接口能对触摸显示屏进行供电,同时能使处理器、摄像头和触摸显示屏进行连接。
附图说明
图1是本发明的方法流程示意图;
图2是本发明的整体立体结构示意图;
图3是本发明的底座立体结构示意图;
图4是本发明的放置架立体结构示意图;
图5是本发明的电动伸缩杆立体结构示意图;
图6是本发明的控制器立体结构示意图;
图7是本发明的触摸显示屏立体结构示意图;
图8是本发明的主控芯片连接结构示意图;
图9是本发明的锂电池立体结构示意图;
图10是本发明的安装板结构示意图。
标注如下:1触摸显示屏、2底座、3识别机构、4支撑柱、5处理器、6安装座、7转动架、8转动板、9放置架、10防滑垫、11防护壳、12正反转电机、13电动伸缩杆、14导向孔、15导向杆、16 锂电池、17充电接口、18安装板、19安装孔、20安装架、21卡接架、22人脸识别摄像头、23行为采集摄像头、24控制壳、25扬声器、 26操控按键、27USB接口、28开关、29电路板、30主控芯片、31 驱动芯片、32通信模块、33图像处理模块、34人脸识别模块、35三维坐标处理模块、36行为采集模块、37距离处理模块。
具体实施方式
下面结合附图和具体实施例对本发明做进一步详细说明。
如图1-10所示,本发明所述的具体实施例为
实施例一
本发明通过改进在此提供一种基于视觉识别的人机交互方法,如图1-图8所示,包括一下方法:
S1、身份识别:通过人脸识别摄像头22对使用者的面貌进行采集图像,然后通过人脸识别模块34进行对使用者的身份进行确认;
S2、距离检测:通过行为采集摄像头23首先对使用者到触摸显示屏1的距离进行检测,当达到对应距离时,进行下一步行为识别;
S3、行为识别:行为采集摄像头23能对使用者手指的行为进行识别,然后通过人脸识别模块34进行对行为进行识别处理;
S4、图像处理:行为识别处理之后通过图像处理模块33对行为的动作进行图像处理;
S5、建模处理:图像处理之后通过三维坐标处理模块35对多个图像进行快速的建模识别使用者的动作,然后做出动作指示的判断;
S6、控制触摸显示屏:在使用者手指移动的同时触摸显示屏上的鼠标键移动,使得使用者识别准确度更高。
一种基于视觉识别的人机交互系统,包括底座2和触摸显示屏1,底座2的顶部安装有支撑柱4,支撑柱4的内部通过螺栓安装有电动伸缩杆13,电动伸缩杆13能带动处理器5升降,处理器5升降能带动放置架9和触摸显示屏1升降,满足不同身高的学生使用该系统,电动伸缩杆13的输出端安装有处理器5,处理器5的顶部焊接有安装座6,安装座6的内侧通过螺栓安装有正反转电机12,正反转电机 12能带动转动架7转动,转动架7转动带动放置架9和触摸显示屏1 转动,使得该行为采集模块系统能够满足不同使用者的需求,正反转电机12的外部设置有防护壳11,安装座6的外部转动连接有转动架 7,且转动架7的一侧固定在正反转电机12的输出端上,转动架7的顶部焊接有转动板8,转动板8的顶部焊接有放置架9,放置架9用于对触摸显示屏1进行卡接固定的,能提高触摸显示屏1放置时的便利性和稳定性,放置架9的一侧设置有防滑垫10,触摸显示屏1卡接在放置架9上,触摸显示屏1的顶部卡接有识别机构3,识别机构 3包括有安装架20,安装架20的正面嵌入安装有人脸识别摄像头22 和行为采集摄像头23,人脸识别摄像头22能对使用者的人进行身份识别,同时能匹配相对应相关历史查询的记录,提高使用人机交互系统的效率,行为采集摄像头23能对人操作触摸显示屏1时进行信息采集,提高操作和使用人机交互系统的便利性,处理器5包括有控制壳24,控制壳24的正面嵌入安装有操控按键26,处理器5的正面嵌入安装有扬声器25,处理器5的一侧嵌入安装有USB接口27,USB 接口27能对触摸显示屏1进行供电,同时能使处理器5、摄像头和触摸显示屏1进行连接,处理器5的一侧设置有开关28,处理器5 的内部通过螺栓安装有电路板29,电路板29的正面焊接有主控芯片30、驱动芯片31、通信模块32、图像处理模块33、人脸识别模块34、三维坐标处理模块35、行为识别模块36和距离处理模块37,采用图像处理模块、行为采集模块和三维坐标处理模块能对使用者的手指移动信息准确采集和读取命令,手势移动时触摸显示屏上的鼠标尖头移动,能灵活使用设备,使得能有效的避免使用者其它手指误碰到其它按键,提高使用人机交互系统的精确度。
进一步地,安装架20的底部设置有卡接架21,采用卡接架21 便于安装架20安装固定触摸显示屏1上,且安装架20通过卡接架 21卡接在触摸显示屏1的顶部。
进一步地,处理器5的底部通过螺栓安装有导向杆15,支撑柱4 的顶部开有导向孔14,导向杆15滑动插接在导向孔14的内部,导向杆15能对处理器5起到导向作用,提高处理器5升降时的稳定性。
进一步地,行为采集摄像头23的输出端通过导电线与距离处理模块37的输入端形成电性连接,距离处理模块37的输出端通过导电线与行为识别模块36的输入端形成电性连接,行为识别模块36的输出端通过导电线与图像处理模块33的输入端形成电性连接。
进一步地,图像处理模块33的输出端通过导电线与三维坐标处理模块35的输入端形成电性连接,三维坐标处理模块35的输出端通过导电线与主控芯片30的输入端形成电性连接。
进一步地,操控按键26的输出端通过导电线与主控芯片30的输入端形成电性连接,开关28的输出端通过导电线与主控芯片30的输入端形成电性连接,主控芯片30的输出端通过导电线与驱动芯片31 的输入端形成电性连接。
进一步地,人脸识别摄像头22的输出端通过导电线与人脸识别模块34的输入端形成电性连接,人脸识别模块34的输出端通过导电线与主控芯片30的输入端形成电性连接。
进一步地,主控芯片30的输出端和输入端分别均通过导电线与通信模块32的输入端和输入端形成电性连接,通信模块32的输出端和输入端分别均通过导电线与触摸显示屏1的输入端和输入端形成电性连接。
进一步地,驱动芯片31的输出端通过导电线与正反转电机12的输入端形成电性连接,驱动芯片31的输出端通过导电线与电动伸缩杆13的输入端形成电性连接,驱动芯片31的输出端通过导电线与扬声器25的输入端形成电性连接。
实施例二
如图9所示,本实施例为一种基于视觉识别的人机交互系统,其基本结构与实施例一基本相同。
本实施例与实施例一不同之处在于,底座2的底部焊接有安装板 18,安装板18便于将底座2通过螺栓固定安装到指定位置,提高底座2的稳定性,安装板18的顶部开有安装孔19。
实施例三
如图10所示,本实施例为一种基于视觉识别的人机交互系统,其基本结构与实施例一和二基本相同。
本实施例与实施例一不同之处在于,底座2的内部设置有锂电池16,锂电池16能对触摸显示屏1进行供电,提高触摸显示屏1的待机时长,底座2的一侧嵌入安装有充电接口17。
工作原理:通过人脸识别摄像头22对使用者的面貌进行采集图像,然后通过人脸识别模块34进行对使用者的身份进行确认,通过行为采集摄像头23首先对使用者到触摸显示屏1的距离进行检测,当达到对应距离时,进行下一步行为识别,行为采集摄像头23能对使用者手指的行为进行识别,然后通过人脸识别模块34进行对行为进行识别处理,行为识别处理之后通过图像处理模块33对行为的动作进行图像处理,图像处理之后通过三维坐标处理模块35对多个图像进行快速的建模识别使用者的动作,然后做出动作指示的判断,在使用者手指移动的同时触摸显示屏上的鼠标键移动,使得使用者识别准确度更高,采用USB接口27能对触摸显示屏1进行供电,同时能使处理器5、摄像头和触摸显示屏1进行连接,采用图像处理模块33、行为采集模块36和三维坐标处理模块35能对使用者的手指移动信息准确采集和读取命令,手势移动时触摸显示屏1上的鼠标尖头移动,能灵活使用设备,使得能有效的避免使用者其它手指误碰到其它按键,提高使用人机交互系统的精确度,采用人脸识别摄像头22能对使用者的人进行身份识别,同时能匹配相对应相关历史查询的记录,提高使用人机交互系统的效率,行为采集摄像头23能对人操作触摸显示屏1时进行信息采集,提高操作和使用人机交互系统的便利性,采用的电动伸缩杆13能带动处理器5升降,处理器5升降能带动放置架9和触摸显示屏1升降,满足不同身高的学生使用该系统,正反转电机能带动转动架7转动,转动架7转动带动放置架9和触摸显示屏1转动,使得该行为采集模块系统能够满足不同使用者的需求
(1)本发明采用的方法,采用图像处理模块、行为采集模块和三维坐标处理模块能对使用者的手指移动信息准确采集和读取命令,手势移动时触摸显示屏上的鼠标尖头移动,能灵活使用设备,使得能有效的避免使用者其它手指误碰到其它按键,提高使用人机交互系统的精确度。
(2)通过设置的行为采集摄像头和人脸识别摄像头,人脸识别摄像头能对使用者的人进行身份识别,同时能匹配相对应相关历史查询的记录,提高使用人机交互系统的效率,行为采集摄像头能对人操作触摸显示屏时进行信息采集,提高操作和使用人机交互系统的便利性。
(3)通过设置的电动伸缩杆和正反转电机,电动伸缩杆能带动处理器升降,处理器升降能带动放置架和触摸显示屏升降,满足不同身高的学生使用该系统,正反转电机能带动转动架转动,转动架转动带动放置架和触摸显示屏转动,使得该行为采集模块系统能够满足不同使用者的需求
以上所述,仅为本发明的较佳实施例,并不用以限制本发明,凡是依据本发明的技术实质对以上实施例所作的任何细微修改、等同替换和改进,均应包含在本发明技术方案的保护范围之内。

Claims (6)

1.一种基于视觉识别的人机交互系统,其特征在于:包括底座(2)和触摸显示屏(1),所述底座(2)的顶部安装有支撑柱(4),所述支撑柱(4)的内部通过螺栓安装有电动伸缩杆(13),所述电动伸缩杆(13)的输出端安装有处理器(5),所述处理器(5)的顶部焊接有安装座(6),所述安装座(6)的内侧通过螺栓安装有正反转电机(12),所述正反转电机(12)的外部设置有防护壳(11),所述安装座(6)的外部转动连接有转动架(7),且转动架(7)的一侧固定在正反转电机(12)的输出端上,所述转动架(7)的顶部焊接有转动板(8),所述转动板(8)的顶部焊接有放置架(9),所述放置架(9)的一侧设置有防滑垫(10),所述触摸显示屏(1)卡接在放置架(9)上,所述触摸显示屏(1)的顶部卡接有识别机构(3),所述识别机构(3)包括有安装架(20),所述安装架(20)的正面嵌入安装有人脸识别摄像头(22)和行为采集摄像头(23),所述处理器(5)包括有控制壳(24),所述控制壳(24)的正面嵌入安装有操控按键(26),所述处理器(5)的正面嵌入安装有扬声器(25),所述处理器(5)的一侧嵌入安装有USB接口(27),所述处理器(5)的一侧设置有开关(28),所述处理器(5)的内部通过螺栓安装有电路板(29),所述电路板(29)的正面焊接有主控芯片(30)、驱动芯片(31)、通信模块(32)、图像处理模块(33)、人脸识别模块(34)、三维坐标处理模块(35)、行为识别模块(36)和距离处理模块(37);
所述行为采集摄像头(23)的输出端通过导电线与距离处理模块(37)的输入端形成电性连接,所述距离处理模块(37)的输出端通过导电线与行为识别模块(36)的输入端形成电性连接,所述行为识别模块(36)的输出端通过导电线与图像处理模块(33)的输入端形成电性连接;
所述图像处理模块(33)的输出端通过导电线与三维坐标处理模块(35)的输入端形成电性连接,所述三维坐标处理模块(35)的输出端通过导电线与主控芯片(30)的输入端形成电性连接;
所述人脸识别摄像头(22)的输出端通过导电线与人脸识别模块(34)的输入端形成电性连接,所述人脸识别模块(34)的输出端通过导电线与主控芯片(30)的输入端形成电性连接。
2.根据权利要求1所述的一种基于视觉识别的人机交互系统,其特征在于:所述安装架(20)的底部设置有卡接架(21),且安装架(20)通过卡接架(21)卡接在触摸显示屏(1)的顶部。
3.根据权利要求1所述的一种基于视觉识别的人机交互系统,其特征在于:所述处理器(5)的底部通过螺栓安装有导向杆(15),所述支撑柱(4)的顶部开有导向孔(14),所述导向杆(15)滑动插接在导向孔(14)的内部。
4.根据权利要求1所述的一种基于视觉识别的人机交互系统,其特征在于:所述操控按键(26)的输出端通过导电线与主控芯片(30)的输入端形成电性连接,所述开关(28)的输出端通过导电线与主控芯片(30)的输入端形成电性连接,所述主控芯片(30)的输出端通过导电线与驱动芯片(31)的输入端形成电性连接。
5.根据权利要求1所述的一种基于视觉识别的人机交互系统,其特征在于:所述主控芯片(30)的输出端和输入端分别均通过导电线与通信模块(32)的输入端和输入端形成电性连接,所述通信模块(32)的输出端和输入端分别均通过导电线与触摸显示屏(1)的输入端和输入端形成电性连接。
6.根据权利要求1所述的一种基于视觉识别的人机交互系统,其特征在于:所述驱动芯片(31)的输出端通过导电线与正反转电机(12)的输入端形成电性连接,所述驱动芯片(31)的输出端通过导电线与电动伸缩杆(13)的输入端形成电性连接,所述驱动芯片(31)的输出端通过导电线与扬声器(25)的输入端形成电性连接。
CN202111443022.1A 2021-11-30 2021-11-30 一种基于视觉识别的人机交互方法及系统 Active CN114217729B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111443022.1A CN114217729B (zh) 2021-11-30 2021-11-30 一种基于视觉识别的人机交互方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111443022.1A CN114217729B (zh) 2021-11-30 2021-11-30 一种基于视觉识别的人机交互方法及系统

Publications (2)

Publication Number Publication Date
CN114217729A CN114217729A (zh) 2022-03-22
CN114217729B true CN114217729B (zh) 2024-06-04

Family

ID=80699108

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111443022.1A Active CN114217729B (zh) 2021-11-30 2021-11-30 一种基于视觉识别的人机交互方法及系统

Country Status (1)

Country Link
CN (1) CN114217729B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344816A (zh) * 2008-08-15 2009-01-14 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
CN102915112A (zh) * 2011-06-23 2013-02-06 奥美可互动有限责任公司 用于近距离动作跟踪的系统和方法
CN111291348A (zh) * 2020-03-19 2020-06-16 广州宏途教育网络科技有限公司 一种智能亲情电话终端及终端人脸识别处理方法
CN113055528A (zh) * 2021-03-11 2021-06-29 深圳市九码云科技有限公司 一种自动接听电话的智能终端

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295904B2 (en) * 2004-08-31 2007-11-13 International Business Machines Corporation Touch gesture based interface for motor vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344816A (zh) * 2008-08-15 2009-01-14 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
CN102915112A (zh) * 2011-06-23 2013-02-06 奥美可互动有限责任公司 用于近距离动作跟踪的系统和方法
CN111291348A (zh) * 2020-03-19 2020-06-16 广州宏途教育网络科技有限公司 一种智能亲情电话终端及终端人脸识别处理方法
CN113055528A (zh) * 2021-03-11 2021-06-29 深圳市九码云科技有限公司 一种自动接听电话的智能终端

Also Published As

Publication number Publication date
CN114217729A (zh) 2022-03-22

Similar Documents

Publication Publication Date Title
US20120069056A1 (en) Information display apparatus and information display program
CN102662462B (zh) 电子装置、手势识别方法及手势应用方法
EP2687954A2 (en) Method of executing functions of a terminal including pen recognition panel and terminal supporting the method
CN102135839B (zh) 一种终端及其输入方法
US20090160800A1 (en) Touch pad, method of operating the same, and notebook computer with the same
CN103809843A (zh) 一种在浏览器中调节显示屏亮度的方法和装置
CN103294194B (zh) 一种基于眼球跟踪的翻译方法及系统
TWI505155B (zh) 電容和電磁雙模觸摸屏的觸控方法及手持式電子設備
EP0513635B1 (en) Information processing apparatus for controlling window positions
CN102053768A (zh) 在触摸设备上实现文字编辑的装置和方法
CN106991394A (zh) 一种具有指纹识别功能的电子设备
CN104885051A (zh) 锚拖动触摸符号辨识
CN103164133A (zh) 触摸屏电子装置及其控制方法
CN108052249A (zh) 图标批量整理方法、装置及用户终端
KR20140105331A (ko) 터치 스크린 상에서 객체 디스플레이를 제어하는 휴대 단말 및 방법
CN107085469A (zh) 一种手势的识别方法及装置
CN101859177B (zh) 一种在智能电子装置上调用和操作应用程序的方法及装置
CN101124532A (zh) 计算机输入设备
CN114217729B (zh) 一种基于视觉识别的人机交互方法及系统
CN102109927A (zh) 一种红外触摸框的控制方法、系统及触摸屏设备
CN106951258A (zh) 一种移动终端的操作方法及移动终端
CN206674011U (zh) 一种后壳具有触摸板操作功能的智能手机
CN211742351U (zh) 一种书画练习装置和终端
CN104346086B (zh) 一种信息处理方法及电子设备
CN110058723A (zh) 一种书写方法、装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Country or region after: China

Address after: 510700 northwest of the first floor, building 6, No. 62, Nanxiang 1st Road, Huangpu District, Guangzhou, Guangdong (for office use only)

Applicant after: Guangzhou Hongtu Digital Technology Co.,Ltd.

Address before: 510663 northwest, 1st floor, building 6, No. 62, Nanxiang 1st Road, Huangpu District, Guangzhou City, Guangdong Province (office use only)

Applicant before: GUANGZHOU HONGTU EDUCATION NETWORK TECHNOLOGY Co.,Ltd.

Country or region before: China

GR01 Patent grant
GR01 Patent grant