CN110297540A - 一种人机交互装置及人机交互方法 - Google Patents

一种人机交互装置及人机交互方法 Download PDF

Info

Publication number
CN110297540A
CN110297540A CN201910540054.XA CN201910540054A CN110297540A CN 110297540 A CN110297540 A CN 110297540A CN 201910540054 A CN201910540054 A CN 201910540054A CN 110297540 A CN110297540 A CN 110297540A
Authority
CN
China
Prior art keywords
gesture
rotation
eyeball angle
eyeball
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910540054.XA
Other languages
English (en)
Inventor
彭立军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoboted (beijing) Technology Co Ltd
Original Assignee
Hoboted (beijing) Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoboted (beijing) Technology Co Ltd filed Critical Hoboted (beijing) Technology Co Ltd
Priority to CN201910540054.XA priority Critical patent/CN110297540A/zh
Publication of CN110297540A publication Critical patent/CN110297540A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Abstract

本发明公开了一种人机交互装置及人机交互方法,通过监控外部对象手势/眼球转动角度,采集手势动作/眼球转动角度并将监测到的手势动作/眼球转动角度转化成相应处理指令后进行加密并送云服务终端进行比对,然后根据云服务终端比对的结果决定是否控制互动执行模块以及多个显示设备进行行为反应;触发后实时行为反应交互,实时接收外部对象手势/眼球转动角度触发转化后的处理指令,并根据指令控制互动执行模块进行行为反应从而达到与外部对象实时交互的步骤,贴合人类使用习惯,适用范围广泛,可以广泛应用于各种需要人机交互的装置上。

Description

一种人机交互装置及人机交互方法
技术领域
本发明涉及一种较大范围,具体是一种人机交互装置及人机交互方法。
背景技术
进入智能时代,触摸屏技术越来越受到关注,广泛地应用于各个领域。触摸屏不仅消除了鼠标,给用户带来极大的方便之外,给人机交互这个领域,也带来了前所未有的发展。
目前除了手机、电脑等小型设备的触摸技术之外,更趋向于研究大尺寸的触摸屏。通常使用的雷达触控,其成本高、触控精度低;红外框触摸屏,由于本身的技术问题,另外,现有的交互方法大多只有手势交互,关于眼部交互的方法极少。
发明内容
本发明的目的在于提供一种人机交互装置及人机交互方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种人机交互装置,包括:
手势识别模块,用于监控外部对象手势,采集手势并将接收到的手势转化成相应处理指令后进行中央处理;
眼部识别模块,用于监控外部对象眼球转动角度,采集眼球转动角度并将接收到的眼球转动角度信息转化成相应处理指令后进行中央处理;
中央处理模块,用于实时接收手势识别模块、眼部识别模块发送来的外部对象手势、眼球转动角度,并将手势、眼球转动角度进行加密后送云服务终端进行比对,然后根据云服务终端比对的结果决定是否控制互动执行模块以及多个显示设备进行行为反应;
互动执行模块,用于接收中央处理模块的控制指令而后针对外部对象进行实时的行为反应;
移动客户端,安装有能够与中央处理模块双向无线通讯的应用软件,用于与中央处理模块通讯;
云服务终端,存储所有所述应用软件登陆的ID、密钥、方法参数名,以及与移动客户端、中央处理模块进行双向无线通讯,
多个显示设备,用于接收中央处理模块的控制指令而后有针对性的进行显示。
作为本发明进一步的方案:所述手势识别模块将识别出外部对象触控轨迹中符合特定轨迹的操作,从而快捷地执行某个功能。
作为本发明进一步的方案:所述眼部识别模块将识别出外部对象眼球转动角度中符合特定角度的操作,从而快捷地执行某个功能。
作为本发明进一步的方案:所述云服务终端包括:
手势/眼球转动角度模型库,用于存放预设手势/眼球转动角度模型;
手势/眼球转动角度信息库,用于存放预设的针对相应手势/眼球转动角度模型的特定处理指令;
特征提取单元,用于从手势/眼球转动角度中提取最反应其本质属性的信息;
识别搜索单元,用于根据手势/眼球转动角度的特征矢量流与预设的手势/眼球转动角度模型库中内容进行匹配,得到最适合该手势/眼球转动角度的特征的手势/眼球转动角度模型;
手势/眼球转动角度分析单元,用于基于预设的手势/眼球转动角度信息库,通过对搜索得到的手势/眼球转动角度模型进行分析,得到处理指令;
学习数据单元,用于存储学习期间得以进行的过程数据;
动作模式数据单元,用于预存学习期间所产生行为反应的动作模式。
作为本发明进一步的方案:所述多个显示设备之间能够进行数据交互,在数据交互过程中,从显示设备中确定一台设备为主屏,其他设备为副屏,主屏作为输入设备,副屏与主屏进行同步显示。
作为本发明再进一步的方案:一种人机交互方法,监控外部对象手势/眼球转动角度,采集手势动作/眼球转动角度并将监测到的手势动作/眼球转动角度转化成相应处理指令后进行加密并送云服务终端进行比对,然后根据云服务终端比对的结果决定是否控制互动执行模块以及多个显示设备进行行为反应;触发后实时行为反应交互,实时接收外部对象手势/眼球转动角度触发转化后的处理指令,并根据指令控制互动执行模块进行行为反应从而达到与外部对象实时交互的步骤。
与现有技术相比,本发明的有益效果是:本发明通过监控外部对象手势/眼球转动角度,采集手势动作/眼球转动角度并将监测到的手势动作/眼球转动角度转化成相应处理指令后进行加密并送云服务终端进行比对,然后根据云服务终端比对的结果决定是否控制互动执行模块以及多个显示设备进行行为反应;触发后实时行为反应交互,实时接收外部对象手势/眼球转动角度触发转化后的处理指令,并根据指令控制互动执行模块进行行为反应从而达到与外部对象实时交互的步骤,贴合人类使用习惯,适用范围广泛,可以广泛应用于各种需要人机交互的装置上。
附图说明
图1为人机交互装置的原理框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,一种人机交互装置,包括:
手势识别模块,用于监控外部对象手势,采集手势并将接收到的手势转化成相应处理指令后进行中央处理;
眼部识别模块,用于监控外部对象眼球转动角度,采集眼球转动角度并将接收到的眼球转动角度信息转化成相应处理指令后进行中央处理;
中央处理模块,用于实时接收手势识别模块、眼部识别模块发送来的外部对象手势、眼球转动角度,并将手势、眼球转动角度进行加密后送云服务终端进行比对,然后根据云服务终端比对的结果决定是否控制互动执行模块以及多个显示设备进行行为反应;
互动执行模块,用于接收中央处理模块的控制指令而后针对外部对象进行实时的行为反应;
移动客户端,安装有能够与中央处理模块双向无线通讯的应用软件,用于与中央处理模块通讯;
云服务终端,存储所有所述应用软件登陆的ID、密钥、方法参数名,以及与移动客户端、中央处理模块进行双向无线通讯,
多个显示设备,用于接收中央处理模块的控制指令而后有针对性的进行显示。
所述手势识别模块将识别出外部对象触控轨迹中符合特定轨迹的操作,从而快捷地执行某个功能。
所述眼部识别模块将识别出外部对象眼球转动角度中符合特定角度的操作,从而快捷地执行某个功能。
作为本发明进一步的方案:所述云服务终端包括:
手势/眼球转动角度模型库,用于存放预设手势/眼球转动角度模型;
手势/眼球转动角度信息库,用于存放预设的针对相应手势/眼球转动角度模型的特定处理指令;
特征提取单元,用于从手势/眼球转动角度中提取最反应其本质属性的信息;
识别搜索单元,用于根据手势/眼球转动角度的特征矢量流与预设的手势/眼球转动角度模型库中内容进行匹配,得到最适合该手势/眼球转动角度的特征的手势/眼球转动角度模型;
手势/眼球转动角度分析单元,用于基于预设的手势/眼球转动角度信息库,通过对搜索得到的手势/眼球转动角度模型进行分析,得到处理指令;
学习数据单元,用于存储学习期间得以进行的过程数据;
动作模式数据单元,用于预存学习期间所产生行为反应的动作模式。
所述多个显示设备之间能够进行数据交互,在数据交互过程中,从显示设备中确定一台设备为主屏,其他设备为副屏,主屏作为输入设备,副屏与主屏进行同步显示。
本发明的人机交互方法通过监控外部对象手势/眼球转动角度,采集手势动作/眼球转动角度并将监测到的手势动作/眼球转动角度转化成相应处理指令后进行加密并送云服务终端进行比对,然后根据云服务终端比对的结果决定是否控制互动执行模块以及多个显示设备进行行为反应;触发后实时行为反应交互,实时接收外部对象手势/眼球转动角度触发转化后的处理指令,并根据指令控制互动执行模块进行行为反应从而达到与外部对象实时交互的步骤,贴合人类使用习惯,适用范围广泛,可以广泛应用于各种需要人机交互的装置上。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (6)

1.一种人机交互装置,其特征在于,包括:
手势识别模块,用于监控外部对象手势,采集手势并将接收到的手势转化成相应处理指令后进行中央处理;
眼部识别模块,用于监控外部对象眼球转动角度,采集眼球转动角度并将接收到的眼球转动角度信息转化成相应处理指令后进行中央处理;
中央处理模块,用于实时接收手势识别模块、眼部识别模块发送来的外部对象手势、眼球转动角度,并将手势、眼球转动角度进行加密后送云服务终端进行比对,然后根据云服务终端比对的结果决定是否控制互动执行模块以及多个显示设备进行行为反应;
互动执行模块,用于接收中央处理模块的控制指令而后针对外部对象进行实时的行为反应;
移动客户端,安装有能够与中央处理模块双向无线通讯的应用软件,用于与中央处理模块通讯;
云服务终端,存储所有所述应用软件登陆的ID、密钥、方法参数名,以及与移动客户端、中央处理模块进行双向无线通讯,
多个显示设备,用于接收中央处理模块的控制指令而后有针对性的进行显示。
2.根据权利要求1所述的人机交互装置,其特征在于,所述手势识别模块将识别出外部对象触控轨迹中符合特定轨迹的操作,从而快捷地执行某个功能。
3.根据权利要求1-2任一项所述的人机交互装置,其特征在于,所述眼部识别模块将识别出外部对象眼球转动角度中符合特定角度的操作,从而快捷地执行某个功能。
4.根据权利要求1-3任一项所述的人机交互装置,其特征在于,所述云服务终端包括:
手势/眼球转动角度模型库,用于存放预设手势/眼球转动角度模型;
手势/眼球转动角度信息库,用于存放预设的针对相应手势/眼球转动角度模型的特定处理指令;
特征提取单元,用于从手势/眼球转动角度中提取最反应其本质属性的信息;
识别搜索单元,用于根据手势/眼球转动角度的特征矢量流与预设的手势/眼球转动角度模型库中内容进行匹配,得到最适合该手势/眼球转动角度的特征的手势/眼球转动角度模型;
手势/眼球转动角度分析单元,用于基于预设的手势/眼球转动角度信息库,通过对搜索得到的手势/眼球转动角度模型进行分析,得到处理指令;
学习数据单元,用于存储学习期间得以进行的过程数据;
动作模式数据单元,用于预存学习期间所产生行为反应的动作模式。
5.根据权利要求3所述的人机交互装置,其特征在于,所述多个显示设备之间能够进行数据交互,在数据交互过程中,从显示设备中确定一台设备为主屏,其他设备为副屏,主屏作为输入设备,副屏与主屏进行同步显示。
6.一种人机交互方法,其特征在于,监控外部对象手势/眼球转动角度,采集手势动作/眼球转动角度并将监测到的手势动作/眼球转动角度转化成相应处理指令后进行加密并送云服务终端进行比对,然后根据云服务终端比对的结果决定是否控制互动执行模块以及多个显示设备进行行为反应;触发后实时行为反应交互,实时接收外部对象手势/眼球转动角度触发转化后的处理指令,并根据指令控制互动执行模块进行行为反应从而达到与外部对象实时交互的步骤。
CN201910540054.XA 2019-06-12 2019-06-12 一种人机交互装置及人机交互方法 Pending CN110297540A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910540054.XA CN110297540A (zh) 2019-06-12 2019-06-12 一种人机交互装置及人机交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910540054.XA CN110297540A (zh) 2019-06-12 2019-06-12 一种人机交互装置及人机交互方法

Publications (1)

Publication Number Publication Date
CN110297540A true CN110297540A (zh) 2019-10-01

Family

ID=68028371

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910540054.XA Pending CN110297540A (zh) 2019-06-12 2019-06-12 一种人机交互装置及人机交互方法

Country Status (1)

Country Link
CN (1) CN110297540A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110979214A (zh) * 2019-12-27 2020-04-10 上海昶枫科技有限公司 汽车电子控制系统
CN111025999A (zh) * 2019-12-27 2020-04-17 上海昶枫科技有限公司 汽车电子控制器节能控制工艺
CN111045521A (zh) * 2019-12-27 2020-04-21 上海昶枫科技有限公司 汽车电子装置控制系统及控制方法
CN111143217A (zh) * 2019-12-27 2020-05-12 上海昶枫科技有限公司 汽车电子控制单元仿真系统
WO2023082952A1 (zh) * 2021-11-10 2023-05-19 华为技术有限公司 一种与电子设备进行交互的方法及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344816A (zh) * 2008-08-15 2009-01-14 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
US20130278837A1 (en) * 2012-04-23 2013-10-24 O2Micro Inc. Multi-Media Systems, Controllers and Methods for Controlling Display Devices

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344816A (zh) * 2008-08-15 2009-01-14 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
US20130278837A1 (en) * 2012-04-23 2013-10-24 O2Micro Inc. Multi-Media Systems, Controllers and Methods for Controlling Display Devices
CN103376891A (zh) * 2012-04-23 2013-10-30 凹凸电子(武汉)有限公司 多媒体系统,显示装置的控制方法及控制器

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110979214A (zh) * 2019-12-27 2020-04-10 上海昶枫科技有限公司 汽车电子控制系统
CN111025999A (zh) * 2019-12-27 2020-04-17 上海昶枫科技有限公司 汽车电子控制器节能控制工艺
CN111045521A (zh) * 2019-12-27 2020-04-21 上海昶枫科技有限公司 汽车电子装置控制系统及控制方法
CN111143217A (zh) * 2019-12-27 2020-05-12 上海昶枫科技有限公司 汽车电子控制单元仿真系统
WO2023082952A1 (zh) * 2021-11-10 2023-05-19 华为技术有限公司 一种与电子设备进行交互的方法及电子设备

Similar Documents

Publication Publication Date Title
CN110297540A (zh) 一种人机交互装置及人机交互方法
EP3628381A1 (en) Game picture display method and apparatus, storage medium and electronic device
CN108983636B (zh) 人机智能共生平台系统
CN104410883A (zh) 一种移动可穿戴非接触式交互系统与方法
CN103475754B (zh) 基于智能手表的个人信息交换装置及方法
WO2013139181A1 (zh) 一种用户交互系统和方法
CN104679627B (zh) 测试方法及装置
CN102789312A (zh) 一种用户交互系统和方法
US20130162519A1 (en) Cross-platform human input customization
CN106504748A (zh) 一种语音控制方法和装置
CN105976814A (zh) 头戴设备的控制方法和装置
WO2018010021A1 (en) Pointer control in a handheld computer by way of hid commands
Banerjee et al. Centralized framework for controlling heterogeneous appliances in a smart home environment
CN107943282A (zh) 一种基于增强现实和可穿戴设备的人机交互系统及方法
CN109828660B (zh) 一种基于增强现实的控制应用操作的方法及装置
CN113325952A (zh) 用于展示虚拟对象的方法、装置、设备、介质和产品
US20220375092A1 (en) Target object controlling method, apparatus, electronic device, and storage medium
WO2017215671A1 (zh) 接入设备的控制方法、装置及系统
JP2021043936A (ja) インタラクション方法、機器、システム、電子機器及び記憶媒体
WO2024055748A1 (zh) 一种头部姿态估计方法、装置、设备以及存储介质
KR101694011B1 (ko) 복수 응용 소프트웨어에 대한 음성 대화 방법 및 장치
CN107591153A (zh) 一种利用语音控制设备的方法
Vidakis et al. Multimodal natural user interaction for multiple applications: The gesture—Voice example
CN106940619A (zh) 一种输入界面调取方法及装置、用户设备
Preventis et al. Interact: Gesture recognition in the cloud

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20191001