CN109992101A - 一种非接触式交互的方法及装置、终端 - Google Patents

一种非接触式交互的方法及装置、终端 Download PDF

Info

Publication number
CN109992101A
CN109992101A CN201810002896.5A CN201810002896A CN109992101A CN 109992101 A CN109992101 A CN 109992101A CN 201810002896 A CN201810002896 A CN 201810002896A CN 109992101 A CN109992101 A CN 109992101A
Authority
CN
China
Prior art keywords
input unit
input
unit lattice
specified
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201810002896.5A
Other languages
English (en)
Inventor
马金峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Zhongxing New Software Co Ltd
Original Assignee
Xian Zhongxing New Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Zhongxing New Software Co Ltd filed Critical Xian Zhongxing New Software Co Ltd
Priority to CN201810002896.5A priority Critical patent/CN109992101A/zh
Publication of CN109992101A publication Critical patent/CN109992101A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种非接触式交互的方法及装置、终端,该方法包括:打开指定应用,选择输入单元格类型,对选定的各个输入单元格编辑对应动作;将所述输入单元格与指定输入装置上的输入区域进行关联;获取所述输入区域上的输入信息;执行所述输入信息所在区域对应的输入单元格对应的动作。该方案操作简单,成本低。

Description

一种非接触式交互的方法及装置、终端
技术领域
本发明实施例涉及但不限于通信技术领域,尤指一种非接触式交互的方法及装置、终端。
背景技术
非接触式人机交互是指交互对象与被交互对象通过非接触的方式进行通信,可以是无线方式的交互、也可以是有线方式的交互、亦可以是基于视觉解析方式的交互等。目前移动终端人机交互的方式主要通过触摸屏或者物理按键这种接触式的交互方式。虽然这种接触式的交互方式广泛使用,但在某些特殊场景下仍然不能满足用户的需求,比如瘫痪病人、高温试验箱测试中的人机交互场景等。另外基于终端传感器的体感交互、基于脑电波的电信号交互、基于机器视觉的动作图像识别的人机交互等新型人机交互方式在一定程度上可以弥补当前的触摸交互,但是各自又有其新的问题与缺点。
基于终端传感器的体感交互,利用终端自带的传感器,如加速度传感器、重力传感器、陀螺仪、光线传感器等通过感知其状态变化进行交互。但是这些交互本身所表达的交互指令数量是受限的、而且其很容易受到外来干扰使得交互体验很不自然。
基于机器视觉的动作图像识别人机交互方式,利用终端双摄像头采集交互对象的动作信息,并通过视频识别技术识别出特定动作并编译为控制指令来完成交互。但这种交互方法往往受光照、动作速度的不同造成很大的精度差异,且需要具有双摄像头的终端才能够采集到动作对象的景深信息,通用性差。
基于脑电波的人机交互方式,利用人脑对不同外界输入所产生的特定脑电波特征实现不同的控制指令,这种交互方式目前还不够成熟、且所使用的脑电波监控设备昂贵、操作复杂且不易携带。
发明内容
本发明实施例提供一种非接触式交互的方法及装置、终端,操作简单,成本低。
一种非接触式交互的方法,包括:
打开指定应用,选择输入单元格类型,对选定的各个输入单元格编辑对应动作;
将所述输入单元格与指定输入装置上的输入区域进行关联;
获取所述输入区域上的输入信息;
执行所述输入信息所在区域对应的输入单元格对应的动作。
可选地,所述输入单元格类型包括:输入单元格的形状和/或输入单元格的数量。
可选地,所述将所述输入单元格与指定输入装置上的输入区域进行关联,包括:
调动摄像头采集所述指定输入装置上绘制的输入单元格;
根据所述输入单元格类型分隔出有效输入单元格。
可选地,所述获取所述输入区域上的输入信息,包括:
在所述摄像头所采集的视频中检测到所述有效输入单元格中存在输入图案。
可选地,所述将所述输入单元格与指定输入装置上的输入区域进行关联,包括:
接收所述指定输入装置发送的输入区域的信息,将所述输入单元格与所述输入区域进行关联。
可选地,所述获取所述输入区域上的输入信息,包括:
接收所述指定输入装置发送的输入信息。
一种非接触式交互的装置,安装有指定应用,其中,包括:
设置模块,用于打开指定应用,选择输入单元格类型,对选定的各个输入单元格编辑对应动作;
处理模块,用于将所述输入单元格与指定输入装置上的输入区域进行关联;
获取模块,用于获取所述输入区域上的输入信息;
执行模块,用于执行所述输入信息所在区域对应的输入单元格对应的动作。
可选地,所述设置模块,选择的所述输入单元格类型包括:输入单元格的形状和/或输入单元格的数量。
可选地,所述处理模块,将所述输入单元格与指定输入装置上的输入区域进行关联,包括:调动摄像头采集所述指定输入装置上绘制的输入单元格;根据所述输入单元格类型分隔出有效输入单元格。
可选地,所述获取模块,获取所述输入区域上的输入信息,包括:在所述摄像头所采集的视频中检测到所述有效输入单元格中存在输入图案。
可选地,所述处理模块,将所述输入单元格与指定输入装置上的输入区域进行关联,包括:接收所述指定输入装置发送的输入区域的信息,将所述输入单元格与所述输入区域进行关联。
可选地,所述获取模块,接收所述指定输入装置发送的输入信息。
一种非接触式交互的装置,安装有指定应用,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现以下步骤:
打开指定应用,选择输入单元格类型,对选定的各个输入单元格编辑对应动作;
将所述输入单元格与指定输入装置上的输入区域进行关联;
获取所述输入区域上的输入信息;
执行所述输入信息所在区域对应的输入单元格对应的动作。
一种终端,包括上述的装置。
可选地,所述终端包括摄像头。
本发明实施例提供一种非接触式交互的方法及装置、终端,可以自动识别输入区域及输入单元格,并且可以通过图像算法修正输入单元格由于光照不均匀带来的识别误差,输入识别精度高。且本实施例的方法输入区域无需特殊面板、用户可以自定义输入区域及输入方格,成本低、使用方便。用户通过APP端可以自由编辑输入方格指令以实现不同交互,灵活性强。
附图说明
图1为本发明实施例的一种非接触式交互的方法的流程图;
图2为本发明实施例的一种非接触式交互的装置的示意图;
图3为本发明实施例的非接触式交互的系统的示意图;
图4为本发明实施例的指定应用的系统结构示意图;
图5为本发明实施例的指定应用设置的输入单元格的示意图;
图6为本发明实施例的绘制的输入单元格的示意图;
图7为本发明实施例的带有摄像头的终端进行非接触式交互的流程图;
图8为本发明实施例的指定输入装置上绘制的输入区域的示意图;
图9为本发明实施例的关联输入区域的输入单元格的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下文中将结合附图对本发明的实施例进行详细说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。
图1为本发明实施例的一种非接触式交互的方法的流程图,如图1所示,本实施例的方法包括:
步骤11、打开指定应用,选择输入单元格类型,对选定的各个输入单元格编辑对应动作;
步骤12、将所述输入单元格与指定输入装置上的输入区域进行关联;
步骤13、获取所述输入区域上的输入信息;
步骤14、执行所述输入信息所在区域对应的输入单元格对应的动作。
其中,所述输入单元格类型可以包括:输入单元格的形状和/或输入单元格的数量。
输入单元格的形状可以是任意形状,例如三角形、四边形、五边形、六边形及其的各种组合等。
在一实施例中,所述将所述输入单元格与指定输入装置上的输入区域进行关联,包括:
调动摄像头采集所述指定输入装置上绘制的输入单元格;
根据所述输入单元格类型分隔出有效输入单元格。
所述获取所述输入区域上的输入信息,包括:
在所述摄像头所采集的视频中检测到所述有效输入单元格中存在输入图案。
本实施例中,终端可以采用自带摄像头在特定APP(应用)控制下实时采集特定输入区域图像,然后通过图像识别算法提取输入区域并对区域内方格进行重新标定获取每个输入区域的坐标。
用户可以通过激光笔或者手指点击输入区域,终端摄像头采集图像通过图像处理技术识别出用户点击坐标对应的区域,然后根据APP编辑的对应输入区域指令实现相应动作,完成用户与终端的离线交互。
在一实施例中,所述将所述输入单元格与指定输入装置上的输入区域进行关联,包括:
接收所述指定输入装置发送的输入区域的信息,将所述输入单元格与所述输入区域进行关联。
所述获取所述输入区域上的输入信息,包括:
接收所述指定输入装置发送的输入信息。
本实施例中,与终端离线交互可以是具有通信功能的压感电子输入板。该电子压感输入板通过无线或有线方式与终端设备建立通信链接。当电子压感输入板感受到输入压力时将压力点坐标发送给终端APP,终端APP输入解析模块对输入点坐标进行解析获得输入点所属的输入区域,之后执行所属区域对应的动作。该替代方案可以完成同发明实施例中同样的离线交互效果。
本实施例的方法可以自动识别输入区域及输入单元格,并且可以通过图像算法修正输入单元格由于光照不均匀带来的识别误差,输入识别精度高。且本实施例的方法输入区域无需特殊面板、用户可以自定义输入区域及输入方格,成本低、使用方便。用户通过APP端可以自由编辑输入方格指令以实现不同交互,灵活性强。
图2为本发明实施例的一种非接触式交互的装置的示意图,如图2所示,本实施例的装置包括:
设置模块,用于打开指定应用,选择输入单元格类型,对选定的各个输入单元格编辑对应动作;
处理模块,用于将所述输入单元格与指定输入装置上的输入区域进行关联;
获取模块,用于获取所述输入区域上的输入信息;
执行模块,用于执行所述输入信息所在区域对应的输入单元格对应的动作。
在一实施例中,所述设置模块,选择的所述输入单元格类型包括:输入单元格的形状和/或输入单元格的数量。
在一实施例中,所述处理模块,将所述输入单元格与指定输入装置上的输入区域进行关联,包括:调动摄像头采集所述指定输入装置上绘制的输入单元格;根据所述输入单元格类型分隔出有效输入单元格。
在一实施例中,所述获取模块,获取所述输入区域上的输入信息,包括:在所述摄像头所采集的视频中检测到所述有效输入单元格中存在输入图案。
在一实施例中,所述处理模块,将所述输入单元格与指定输入装置上的输入区域进行关联,包括:接收所述指定输入装置发送的输入区域的信息,将所述输入单元格与所述输入区域进行关联。
在一实施例中,所述获取模块,接收所述指定输入装置发送的输入信息。
本实施例的装置可以实现非接触式交互的简单操作,成本低。
本实施例还提供一种非接触式交互的装置,安装有指定应用,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现以下步骤:
打开指定应用,选择输入单元格类型,对选定的各个输入单元格编辑对应动作;
将所述输入单元格与指定输入装置上的输入区域进行关联;
获取所述输入区域上的输入信息;
执行所述输入信息所在区域对应的输入单元格对应的动作。
本发明实施例还提供一种终端,包括上述的非接触式交互的装置。
图3为本发明实施例的非接触式交互的系统的示意图,如图3所示,本实施例的系统包括:输入装置01、辅助输入装置02、包括上述的非接触式交互的装置的终端10。
输入装置01,提供用户进行离线输入的操作区域,可以是一块纸板、黑板或者是电子绘版等,用户可以自由在该装置上进行输入区绘制、删除、修改等各种操作,以便根据终端10的设置完成输入区的绘制。
辅助输入装置02,用于提供用户与输入装置01进行交互的配件装置,对于输入装置01为纸板的情况,辅助输入装置02可以是激光笔、可擦除墨水笔等。用户通过辅助输入装置02,在输入装置01所示的输入区域,使光点落在相应的单元格内即完成用户的输入操作。根据输入装置01的不同选择,辅助输入装置02的选择不同,但最终只需要能够完成输入区单元格的标定即可。
上述的非接触式交互的装置的终端10,本终端设备作为被交互的对象提供硬件支持,通过APP的基于计算机视觉技术的处理来响应用户的操作。
本实施例的APP的系统结构如图4所示包括:输入区设置模块、输入单元格编辑模块、视频采集及处理模块、动作执行模块。
输入区设置模块,用于设定输入区内单元格的数量,比如2x2单元格,设定后APP端就会从采集到的视频帧中按照一定的算法分隔出输入装置01中输入区的2x2单元格子集。输入区设置模块完成APP所能够响应的单元格的设定。
输入单元格编辑模块,是对选定的单元格进行动作编辑,如图5中2x2单元格中的11单元格,用户可以手动点击该单元格并设置该单元格对应的动作比如Back,通过输入单元格编辑模块用户可以自定义对所选单元格设定不同的动作。
输入区设置模块和输入单元格编辑模块的组合相当于上文的设置模块。
视频采集及处理模块,调用终端摄像头实时获取输入装置的输入区视频,并对部分视频帧通过图像处理技术分隔出输入区单元格子集,如图6中2x2单元格子集11、12、21、22。同时对单元格子集区域进行输入点(M)坐标检测,并判断M点坐标所在单元格区域,如11单元格区域。
动作执行模块,接收视频采集及处理模块处理后的参数并执行编辑好的动作。
以下以一具体实施例对本实施例的方法进行详细的说明。
如图7所示,本实施例方法的包括以下步骤:
步骤101:在输入装置绘制输入区单元格。
在本实施例中,选择纸板作为输入装置,首先需要手动绘制输入单元格区域,绘制如图6中的3x3单元格区域,实际中可以采用黑色墨水笔绘制单元格输入区以便终端APP分隔输入子集。
步骤102:打开APP,进入设置模块选择输入单元格类型,对选定的各个单元格编辑对应动作。
打开终端APP,进入设置模块对输入单元格结构进行选择,例如,选择2x2单元格结构,每个单元格对应的编号为11、12、21、22。选定单元格结构后分别对上述四个编号的单元格进行动作编辑,比如11号单元格对应动作为BACK、12号为HOME、21号为RECENT、22号为POWER。原则上,所选择的单元格结构必须为步骤101中所绘制单元格的一个子集。
步骤103:返回主界面使摄像头覆盖输入单元格区域,点击开始交互实时进行视频采集。
完成步骤102后,返回到APP主界面,调整终端位置使输入装置所绘制单元格区域在视频画面的中央,之后点击开始交互按钮进行视频帧的采集。
步骤104:对采集到的视频帧运用图像处理技术分隔出输入子集并对输入单元格进行编号。
该步骤是对采集到的视频帧运用图像识别技术分隔出输入子集,分隔的原则是按照102中所设置的单元格结构为参数,首先识别出图像中的3x3输入单元格区域,如图8所示,之后按照从上到下,从左至右的方式从输入区中分离出2x2输入单元格子,如图9所示。
步骤105:检测输入子集内输入点坐标及其所在单元格编号。
该步骤检测2x2输入单元格子集区域中是否存在输入光点M及其坐标所在单元格区域,判断视频帧中是否有输入点,如果存在则转向步骤106,否则返回0。
步骤106:发送输入点所在单元格编号。
光点所在单元格编号发送给动作执行模块。
步骤107:执行单元格编号对应动作。
该过程是通过APP方式模拟调用终端动作接口,完成动作调用。如该实例中光点M所在单元格编号为11,APP会自动调用102中所编辑的BACK动作。
本实施例的方法具有以下优点:
动作识别精度高,通过绘制易于图像处理的例如四边形单元格,在进行输入点坐标定位时图像处理单元能够精准获取输入点所在单元格区域。
成本低,本实施例利用终端自带摄像头通过APP软件算法对输入视频进行动作识别而无需额外增加其他摄像头,且输入装置可以是纸板,激光笔等的组合,所以整个交互装置成本极低。
交互灵活,本实施例的用户可以自由编辑交互动作以达到不同的交互目的。
操作方式简单,本实施例主要通过设置APP端交互动作,在输入装置中绘制输入区域即可完成交互设置。之后通过激光笔点击输入区域单元格即可进行与终端设备的离线交互。
本实施例的方案应用于智能终端,如手机的非接触式交互,可以作为终端交互的一种补充交互方式应用于手机、平板电脑、智能家居设备等等。用户打开终端APP、选择输入区结构、设定输入单元格动作、绘制输入区等操作后即可通过点击输入区单元格,终端APP解析输入区域变化、响应对应动作从而完成与终端设备的非接触式交互。
本实施例的方案也可以应用于终端设备作为控制器,其他设备如投影仪、玩具汽车、智能家居设备等作为受控装置。用户点击输入区单元格、终端设备响应输入后去控制受控装置完成不同动作,如投影仪下一页、暂停,玩具汽车前进、转向,电视打开、关闭等。
本实施例的方案也可以应用于带摄像功能的智能设备,如智能投影仪。智能投影设备使用摄像头采集图像信息、处理单元对图像进行动作解析从而控制投影设备完成特定的操作。具体地,点击某个单元格后,智能投影设备投影特定图案。
本发明实施例中的输入装置中可以使用电子显示板,通过无线方式与终端进行通信。当用户在APP端设置好输入区结构后向电子显示板发送输入区绘制指令,电子板接收信号,绘制输入区单元格;该替代方案的优势是可以更加精确地绘制输入区单元格,使图像处理更加准确,从而提高动作识别的成功率。
本发明实施例中的输入装置及其辅助输入装置可以使用自带发光控制的电子绘板,该替代方案控制电子绘板绘制不同的图形,如三角形、四边形、五边形、六边形及其的各种组合来表示不同的动作。终端采用改进的图像处理算法解析不同的图形及其组合来表示不同个动作,使基于视频解析的交互更加灵活、更具可玩性。
本实施例中的输入装置,除可手动绘制输入区外,也可使用贴条方式完成输入区的绘制。具体地可以使用黑色贴条在输入装置,如白板、墙面等上组成具有单元格结构的输入区域。
本实施例中的辅助输入装置,亦可使用具有颜色特征的附件,具体地可以是红色纸贴、黑色磁吸等。
本发明实施例还提供了一种计算机可读存储介质,其存储有计算机可执行指令,所述计算机可执行指令被执行时实现所述一种非接触式交互的方法。
本领域普通技术人员可以理解上述方法中的全部或部分步骤可通过程序来指令相关硬件完成,所述程序可以存储于计算机可读存储介质中,如只读存储器、磁盘或光盘等。可选地,上述实施例的全部或部分步骤也可以使用一个或多个集成电路来实现。相应地,上述实施例中的各模块/单元可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。本发明不限制于任何特定形式的硬件和软件的结合。
以上仅为本发明的优选实施例,当然,本发明还可有其他多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (15)

1.一种非接触式交互的方法,包括:
打开指定应用,选择输入单元格类型,对选定的各个输入单元格编辑对应动作;
将所述输入单元格与指定输入装置上的输入区域进行关联;
获取所述输入区域上的输入信息;
执行所述输入信息所在区域对应的输入单元格对应的动作。
2.如权利要求1所述的方法,其特征在于:
所述输入单元格类型包括:输入单元格的形状和/或输入单元格的数量。
3.如权利要求1所述的方法,其特征在于:所述将所述输入单元格与指定输入装置上的输入区域进行关联,包括:
调动摄像头采集所述指定输入装置上绘制的输入单元格;
根据所述输入单元格类型分隔出有效输入单元格。
4.如权利要求3所述的方法,其特征在于:所述获取所述输入区域上的输入信息,包括:
在所述摄像头所采集的视频中检测到所述有效输入单元格中存在输入图案。
5.如权利要求1所述的方法,其特征在于:所述将所述输入单元格与指定输入装置上的输入区域进行关联,包括:
接收所述指定输入装置发送的输入区域的信息,将所述输入单元格与所述输入区域进行关联。
6.如权利要求5所述的方法,其特征在于:所述获取所述输入区域上的输入信息,包括:
接收所述指定输入装置发送的输入信息。
7.一种非接触式交互的装置,安装有指定应用,其特征在于,包括:
设置模块,用于打开指定应用,选择输入单元格类型,对选定的各个输入单元格编辑对应动作;
处理模块,用于将所述输入单元格与指定输入装置上的输入区域进行关联;
获取模块,用于获取所述输入区域上的输入信息;
执行模块,用于执行所述输入信息所在区域对应的输入单元格对应的动作。
8.如权利要求7所述的装置,其特征在于:
所述设置模块,选择的所述输入单元格类型包括:输入单元格的形状和/或输入单元格的数量。
9.如权利要求7所述的装置,其特征在于:
所述处理模块,将所述输入单元格与指定输入装置上的输入区域进行关联,包括:调动摄像头采集所述指定输入装置上绘制的输入单元格;根据所述输入单元格类型分隔出有效输入单元格。
10.如权利要求9所述的装置,其特征在于:
所述获取模块,获取所述输入区域上的输入信息,包括:在所述摄像头所采集的视频中检测到所述有效输入单元格中存在输入图案。
11.如权利要求7所述的装置,其特征在于:
所述处理模块,将所述输入单元格与指定输入装置上的输入区域进行关联,包括:接收所述指定输入装置发送的输入区域的信息,将所述输入单元格与所述输入区域进行关联。
12.如权利要求11所述的装置,其特征在于:
所述获取模块,接收所述指定输入装置发送的输入信息。
13.一种非接触式交互的装置,安装有指定应用,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现以下步骤:
打开指定应用,选择输入单元格类型,对选定的各个输入单元格编辑对应动作;
将所述输入单元格与指定输入装置上的输入区域进行关联;
获取所述输入区域上的输入信息;
执行所述输入信息所在区域对应的输入单元格对应的动作。
14.一种终端,其特征在于,包括如权利要求5-9任一项所述的装置。
15.如权利要求14所述的终端,其特征在于:
所述终端包括摄像头。
CN201810002896.5A 2018-01-02 2018-01-02 一种非接触式交互的方法及装置、终端 Withdrawn CN109992101A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810002896.5A CN109992101A (zh) 2018-01-02 2018-01-02 一种非接触式交互的方法及装置、终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810002896.5A CN109992101A (zh) 2018-01-02 2018-01-02 一种非接触式交互的方法及装置、终端

Publications (1)

Publication Number Publication Date
CN109992101A true CN109992101A (zh) 2019-07-09

Family

ID=67128849

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810002896.5A Withdrawn CN109992101A (zh) 2018-01-02 2018-01-02 一种非接触式交互的方法及装置、终端

Country Status (1)

Country Link
CN (1) CN109992101A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103105930A (zh) * 2013-01-16 2013-05-15 中国科学院自动化研究所 一种基于视频图像的非接触式智能输入方法及装置
CN103713807A (zh) * 2014-01-13 2014-04-09 联想(北京)有限公司 一种信息处理方法和装置
CN107025453A (zh) * 2017-03-31 2017-08-08 上海斐讯数据通信技术有限公司 一种非接触式数码输入装置及内容输入的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103105930A (zh) * 2013-01-16 2013-05-15 中国科学院自动化研究所 一种基于视频图像的非接触式智能输入方法及装置
CN103713807A (zh) * 2014-01-13 2014-04-09 联想(北京)有限公司 一种信息处理方法和装置
CN107025453A (zh) * 2017-03-31 2017-08-08 上海斐讯数据通信技术有限公司 一种非接触式数码输入装置及内容输入的方法

Similar Documents

Publication Publication Date Title
CN105487673B (zh) 一种人机交互系统、方法及装置
CN101477631B (zh) 图像中提取目标的方法、设备及人机交互系统
CN110456907A (zh) 虚拟画面的控制方法、装置、终端设备及存储介质
CN106201173B (zh) 一种基于投影的用户交互图标的交互控制方法及系统
US8648811B2 (en) Remote control system for electronic device and remote control method thereof
CN103365411A (zh) 信息输入设备、信息输入方法和计算机程序
CN106599853B (zh) 远程教学过程中进行形体姿态纠正的方法及其设备
CN104364733A (zh) 注视位置检测装置、注视位置检测方法和注视位置检测程序
CN106547356B (zh) 智能交互方法和装置
CN104813258A (zh) 数据输入装置
CN109839827B (zh) 一种基于全空间位置信息的手势识别智能家居控制系统
CN104460951A (zh) 一种人机交互方法
CN110164060B (zh) 一种用于娃娃机的手势控制方法、存储介质和娃娃机
CN103279188A (zh) 一种基于Kinect无接触性操作控制PPT的方法
CN108353129A (zh) 拍摄设备及其控制方法
CN103000054B (zh) 智能厨房烹饪教学机及其控制方法
CN114779932A (zh) 用户姿态识别方法、系统、设备及存储介质
WO2018006481A1 (zh) 一种移动终端的体感操作方法及装置
KR101100240B1 (ko) 멀티모달 상호작용을 이용한 로봇의 물체 학습 시스템 및 방법
CN112199015B (zh) 智能交互一体机及其书写方法、装置
CN109992101A (zh) 一种非接触式交互的方法及装置、终端
CN115393962A (zh) 动作识别方法、头戴显示设备和存储介质
CN105759552B (zh) 一种图像显示方法及电子设备
CN104375631A (zh) 一种基于移动终端的非接触式交互方法
KR101158016B1 (ko) 상체자세 및 손모양 검출 장치 및 그 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20190709