CN104951211A - 一种信息处理方法和电子设备 - Google Patents
一种信息处理方法和电子设备 Download PDFInfo
- Publication number
- CN104951211A CN104951211A CN201410111918.3A CN201410111918A CN104951211A CN 104951211 A CN104951211 A CN 104951211A CN 201410111918 A CN201410111918 A CN 201410111918A CN 104951211 A CN104951211 A CN 104951211A
- Authority
- CN
- China
- Prior art keywords
- operating body
- sensed parameter
- sensing unit
- parameters variation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种信息处理方法和电子设备,用于解决现有技术存在的用户与电子设备进行远距离和近距离交互时需要使用不同交互手势的技术问题,实现了远距离和近距离交互时使用同一种手势就能实现同样的交互的技术效果。通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的感应参数;基于所述感应参数确定所述操作体的参数变化,其中,所述参数变化表征所述操作体的从第一形态变化到不同于所述第一形态的第二形态;基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置;确定与所述第一输入动作对应的第一控制指令;响应所述第一控制指令,在所述映射位置显示第一图形交互界面。
Description
技术领域
本发明涉及电子技术领域,尤其涉及一种信息处理方法和电子设备。
背景技术
随着科学技术的不断发展,电子技术也得到了飞速的发展,电子产品的种类也越来越多,人们也享受到了科技发展带来的各种便利。现在人们可以通过各种类型的电子设备,享受随着科技发展带来的舒适生活。例如,触控技术使人们不再需要点击实体按键来控制电子设备,而远距离识别和交互技术更是让人们在没有接触电子设备的情况下仍然可以实现控制。
随着科学技术的不断发展,电子技术也得到了飞速的发展,电子产品的种类也越来越多,人们也享受到了科技发展带来的各种便利。现在人们可以通过各种类型的电子设备,享受随着科技发展带来的舒适生活。例如,触控技术使人们不再需要点击实体按键来控制电子设备,而远距离识别和交互技术更是让人们在没有接触电子设备的情况下仍然可以实现控制。
当用户在与电子设备进行远距离交互的过程中,为了打开电子设备中交互界面时,需要用户使用一个特定的手势,如挥手。当用户与电子设备进行近距离交互过程中,为了打开电子设备中交互界面时,又需要用户使用另外一个特定的手势,如在触控显示屏上点击对于交互界面的图标的手势。那么,为了能够与电子设备进行远距离和近距离的交互,用户需要记住两个不同的手势,当打开不同的交互界面需要不同的手势时,对于用户来说要记住不同的手势,显然是很不方便的。而且对于电子设备来说,针对不同的手势调用不同的处理机制来说处理效率也很低。
所以,在现有技术中,存在用户与电子设备进行远距离和近距离交互时需要使用不同的交互手势的技术问题。
发明内容
本申请提供了一种信息处理方法和电子设备,用于解决现有技术存在的用户与电子设备进行远距离和近距离交互时需要使用不同交互手势的技术问题,实现了远距离和近距离交互时使用同一种手势就能实现同样的交互的技术效果。
一方面,本申请提供了一种信息处理方法,应用于一电子设备,所述电子设备包括显示屏和图像采集装置,所述图像采集装置具有采集空间,所述采集空间位于所述显示屏之前,当操作体位于所述采集空间内时所述图像采集装置能够采集所述操作体的图像信息,所述方法包括:
通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的至少一个感应参数;
基于所述至少一个感应参数确定所述操作体的参数变化,其中,所述参数变化表征所述操作体的从第一形态变化到不同于所述第一形态的第二形态;
基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置;
确定与所述第一输入动作对应的第一控制指令;
响应所述第一控制指令,在所述映射位置显示第一图形交互界面。
可选的,所述通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的至少一个感应参数,具体为:
通过所述远距离交互感应单元获得至少一个第一感应参数;和/或
通过所述接触交互感应单元获得至少一个第二感应参数。
可选的,所述基于所述至少一个感应参数确定所述操作体的参数变化,具体为:
确定与所述远距离交互感应单元对应的第一处理机制;
基于所述第一处理机制确定所述至少一个第一感应参数的参数变化;和/或
确定与所述接触交互感应单元对应的不同于所述第一处理机制的第二处理机制;
基于所述第二处理机制确定所述至少一个第二感应参数的参数变化。
可选的,所述基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置,具体为:
基于所述至少一个第一感应参数的参数变化和/或至少一个第二感应参数的参数变化,确定所述第一输入操作;
基于第一感应参数的变化后的第一参数和/或第二感应参数的变化后的第二参数确定所述映射位置。
可选的,当所述操作体与所述显示单元的距离超过一阈值时,确定调用所述第一处理机制。
另一方面,本申请提供了一种电子设备,包括显示单元、远距离交互感应单元和接触交互感应单元,所述远距离交互感应单元的采集空间位于所述显示单元之前,所述电子设备还包括:
第一获得单元,用于通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的至少一个感应参数;
第一确定单元,用于基于所述至少一个感应参数确定所述操作体的参数变化,其中,所述参数变化表征所述操作体的从第一形态变化到不同于所述第一形态的第二形态;
第二确定单元,用于基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置;
第三确定单元,用于确定与所述第一输入动作对应的第一控制指令;
第一响应单元,用于响应所述第一控制指令,在所述映射位置显示第一图形交互界面。
可选的,所述第一获得单元,具体用于:
通过所述远距离交互感应单元获得至少一个第一感应参数;和/或
通过所述接触交互感应单元获得至少一个第二感应参数。
可选的,所述第一确定单元,具体用于:
确定与所述远距离交互感应单元对应的第一处理机制;
基于所述第一处理机制确定所述至少一个第一感应参数的参数变化;和/或
确定与所述接触交互感应单元对应的不同于所述第一处理机制的第二处理机制;
基于所述第二处理机制确定所述至少一个第二感应参数的参数变化。
可选的,所述第二确定单元,具体用于:
基于所述至少一个第一感应参数的参数变化和/或至少一个第二感应参数的参数变化,确定所述第一输入操作;
基于第一感应参数的变化后的第一参数和/或第二感应参数的变化后的第二参数确定所述映射位置。
可选的,当所述操作体与所述显示单元的距离超过一阈值时,确定调用所述第一处理机制。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
1、在本申请的技术方案中,首先通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的感应参数,然后基于所述感应参数确定所述操作体的参数变化,接着基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置,最后确定与所述第一输入动作对应的第一控制指令,响应所述第一控制指令,在所述映射位置显示第一图形交互界面,解决了现有技术存在的用户与电子设备进行远距离和近距离交互时需要使用不同交互手势的技术问题,实现了电子设备用户无论远距离或近距离交互,使用相同的输入操作就能够使电子设备在映射位置显示第一图形交互界面的技术效果。
附图说明
图1为本申请实施例一中的信息处理方法流程图;
图2为本申请实施例中一第一形态示意图;
图3为本申请实施例中一第二形态和第一图形交互界面示意图;
图4为本申请实施例中一第二输入操作示意图;
图5A-图5B为本申请实施例中第一图形交互界面和移动轨迹示意图;
图6A-图6B为本申请实施例中第二图形交互界面示意图;
图7为本申请实施例二中的电子设备结构示意图。
具体实施方式
本申请提供了一种信息处理方法和电子设备,用于解决现有技术存在的用户与电子设备进行远距离和近距离交互时需要使用不同交互手势的技术问题,实现了远距离和近距离交互时使用同一种手势就能实现同样的交互的技术效果。
为了解决上述技术问题,本申请实施例提供的技术方案总体思路如下:
通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的感应参数;
基于所述感应参数确定所述操作体的参数变化,其中,所述参数变化表征所述操作体的从第一形态变化到不同于所述第一形态的第二形态;
基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置;
确定与所述第一输入动作对应的第一控制指令;
响应所述第一控制指令,在所述映射位置显示第一图形交互界面。
在本申请的技术方案中,首先通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的感应参数,然后基于所述感应参数确定所述操作体的参数变化,接着基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置,最后确定与所述第一输入动作对应的第一控制指令,响应所述第一控制指令,在所述映射位置显示第一图形交互界面,解决了现有技术存在的用户与电子设备进行远距离和近距离交互时需要使用不同交互手势的技术问题,实现了电子设备用户无论远距离或近距离交互,使用相同的输入操作就能够使电子设备在映射位置显示第一图形交互界面的技术效果。
下面通过附图以及具体实施例对本发明技术方案做详细的说明,应当理解本申请实施例以及实施例中的具体特征是对本申请技术方案的详细的说明,而不是对本申请技术方案的限定,在不冲突的情况下,本申请实施例以及实施例中的技术特征可以相互组合。
在本申请实施例中,提供了一种信息处理方法及电子设备,在具体实施中,电子设备可以是智能电视,也可以是笔记本电脑或者是台式电脑,只要具有显示单元、远距离交互感应单元和接触交互感应单元即可,具体的,在本申请实施例中,将不作限制。在下面的描述中,将以智能电视为例,对本申请实施例中的信息处理方法及电子设备进行详细的描述。
实施例一:
在介绍本申请实施例的信息处理方法之前,先将本申请实施例的方法应用的电子设备的基本结构作一介绍,请参考图7,本申请实施例的电子设备包括显示屏和图像采集装置,所述图像采集装置具有采集空间,所述采集空间位于所述显示屏之前,当操作体位于所述采集空间内时所述图像采集装置能够采集所述操作体的图像信息,所述电子设备还包括:
第一获得单元1,用于通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的感应参数;
第一确定单元2,用于基于所述感应参数确定所述操作体的参数变化,其中,所述参数变化表征所述操作体的从第一形态变化到不同于所述第一形态的第二形态;
第二确定单元3,用于基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置;
第三确定单元4,用于确定与所述第一输入动作对应的第一控制指令;
第一响应单元5,用于响应所述第一控制指令,在所述映射位置显示第一图形交互界面。
下面,请参考图1,本申请实施例中的信息处理方法包括:
S1:通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的至少一个感应参数。
具体来讲,在本申请实施例中,远距离交互感应单元可以为图像采集单元,结构光采集单元等,而接触交互感应单元具体可以为触控显示单元,如电阻触控显示单元、电容触控显示单元或柔性屏显示单元,本申请所属技术人员可以根据实际需要来进行选择,本申请不作具体的限制。
在本申请实施例中,操作体可以是用户的身体的一部分,如手掌或手臂,本申请不做限制。下面假设本申请实施例中的操作体以用户的手掌为例来进行详细介绍。
由于在本申请实施例中,获得至少一个感应参数可以通过接触交互单元和/或远距离交互感应单元,那么,在本申请实施例中,步骤S1的具体实现过程就可以为:
通过所述远距离交互感应单元获得至少一个第一感应参数;和/或
通过所述接触交互感应单元获得至少一个第二感应参数。
具体来讲,在本申请实施例中,可以通过远距离交互感应单元获得至少一个第一感应参数。第一感应参数可以包括操作体形态、操作体位置以及操作体形态变化速率等。
假设远距离感应交互单元为图像采集单元,那么图像采集单元可以通过拍摄M个图像信息来获得至少一个第一感应参数。其中,M为大于等于2的整数,如2,3,42等,对于M的具体取值不申请不做具体限制。从M个图像信息中确定至少一个第一感应参数的方法可以是通过M帧图片,如4帧图片来识别操作体的形态、操作体位置以及操作体形态变化速率,也可以是通过拍摄的动态视频来确定操作体形态、操作体位置以及操作体形态变化速率。由于通过图像信息来确定图像中操作体的动作以及相关参数在现有技术中已有介绍,因此本申请在此就不再赘述了。
另外,在本申请实施例中,可以通过接触交互感应单元获得至少一个第二感应参数。第二感应参数可以包括操作体形态、操作体位置以及操作体形态变化速率等。
假设接触交互单元具体为触控显示单元,用户将操作体,如手掌或手指与触控显示单元接触,触控显示单元能够检测获得操作体在触控显示单元上的形态、操作体位置以及操作体形态变化速率等。由于通过触控来确定操作体的动作以及相关参数在现有技术中已有介绍,因此本申请在此就不再赘述了。
进一步,在本申请实施例中,电子设备也可以同时通过远距离交互感应单元和接触交互感应单元来同时获得至少一个第一感应参数和至少一个第二感应参数。也就是远距离交互感应单元和接触交互感应单元同时获得至少一个感应参数。例如当操作体,如用户的手掌在触控显示单元上进行操作时,触控显示单元能检测获得用户手掌在触控显示单元进行的触控操作的至少一个第二感应参数信息,同时设置在触控显示单元边缘的图像采集单元同时拍摄获得用户手掌的M个图像信息,来获得至少一个第一感应参数信息。
下面,执行步骤S2。
S2:基于所述至少一个感应参数确定所述操作体的参数变化。
在本申请实施例中,无论是通过远距离交互感应单元还是接触交互感应单元来或操作体的感应参数,由于在本申请实施例中,所获得的感应参数都是至少一个,如1个、29个或93个,那么电子设备就可以通过至少一个感应参数获得对应的参数变化,进一步就可以获得操作体所做的输入操作的连续变化过程。
进一步,在本申请实施例中,参数变化表征操作体从第一形态变化到不同于第一形态的第二形态,也就是说,操作体的输入操作是一个变化过程,而获得的参数变化正好表征了操作体从第一形态,也就是初始形态,变化到第二形态,也就是末尾形态的过程,假设操作体是用户的手,例如第一形态是用户手掌握拳,第二形态是手掌展开,或者第一形态是手掌握拳,第二形态是打开一其中一根手指,其余四指保持不变等,本申请所属技术人员可以根据实际需要来进行选择,本申请不作具体的限制。
由于在本申请实施例中可以通过远距离交互感应单元和/或接触交互感应单元获得至少一个感应参数,因此,下面将对基于第一感应参数和第二感应参数获得参数变化的过程进行详细介绍。
(1)远距离交互感应单元
当通过远距离交互感应单元获得至少一个第一感应参数后,为了获得第一感应参数的参数变化,所需执行的步骤包括:
1)确定与所述远距离交互感应单元对应的第一处理机制;
2)基于所述第一处理机制确定所述至少一个第一感应参数的参数变化。
首先,在本申请实施例中,当第一感应参数是通过远距离交互感应单元,假设是图像采集单元获得的时候,电子设备首先会确定与远距离交互感应单元对应的第一处理机制。
具体来讲,由于通过图像采集单元采集获得的是M个图像信息,因此为了能够对至少一个第一感应参数进行处理,从而获得参数变化,所以需要调用可以识别并处理至少一个第一感应参数的第一处理机制。第一处理机制可以是电子设备中一段特定的程序,也可以是基于远距离交互感应单元的处理插件,还可以是一个交互专用的软件,具体地本申请不做具体限制。
假设本申请实施例中的远距离交互感应单元是图像采集单元,M为3,图像采集单元获得第1个图像信息如图2所示,操作体为用户的手掌,在第1个图像信息中能够获得第一感应参数如图中操作体的位置为第一位置,操作体形态为手掌握拳;假设第2个图像信息为操作体的位置仍然是第一位置,操作体形态为拳头半开;假设第3个图像信息如图3所示,操作体的位置仍然是第一位置,操作体形态为手掌张开。那么,启动第一处理机制对上述三个第一感应信息进行处理,可以确定第一感应参数的参数变化过程为操作体在第一位置从握拳到展开的变化过程,且第一形态为握拳,第二形态为展开。
(2)接触交互感应单元
当通过接触交互感应单元获得至少一个第二感应参数后,为了获得第二感应参数的参数变化,所需执行的步骤包括:
1)确定与所述接触交互感应单元对应的不同于所述第一处理机制的第二处理机制;
2)基于所述第二处理机制确定所述至少一个第二感应参数的参数变化。
首先,在本申请实施例中,当第二感应参数是通过接触交互感应单元,假设是触控显示单元获得的时候,电子设备首先会确定与接触交互感应单元对应的第二处理机制。
具体来讲,由于通过触控显示单元采集获得的至少一个第二感应参数,因此为了能够对至少一个第二感应参数进行处理,从而获得参数变化,所以需要调用可以识别并处理至少一个第二感应参数的第二处理机制。由于第一感应参数和第二感应参数尽快获得的都是操作体相同的输入操作,但是第一感应参数和第二感应参数的并不完全相同,因此在本申请实施例中的第一处理机制和第二处理机制是不同的。进一步,第二处理机制可以是电子设备中一段特定的程序,也可以是基于接触交互感应单元的处理插件,还可以是一个交互专用的软件,具体地本申请不做具体限制。
假设本申请实施例中的接触交互感应单元是触控显示单元,操作体为用户的手掌,通过触控显示单元获得的第一个第二感应参数,分析获得,操作体的位置为第一位置,操作体形态为手掌握拳;假设分析第二个第二感应参数获得操作体的位置仍然是第一位置,操作体形态为拳头半开;假设分析第二个第二感应参数获得操作体的位置仍然是第一位置,操作体形态为手掌张开。那么,启动第二处理机制对上述三个第二感应信息进行处理,可以确定第二感应参数的参数变化过程为操作体在第一位置从握拳到展开的变化过程,且第一形态为握拳,第二形态为展开。
当然,由于在本申请实施例中可以同时通过远距离交互感应单元和接触交互感应单元来获得至少一个感应参数,也可以通过结合至少一个第一感应参数和至少一个第二感应参数来同时获得参数变化。例如通过上述3个图像信息和3个触控信息确定第二感应参数的参数变化过程为操作体在第一位置从握拳到展开的变化过程,且第一形态为握拳,第二形态为展开。
在确定了参数变化之后,执行步骤S3。
S3:基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置。
由于在本申请实施例中可以通过远距离交互感应单元和/或接触交互感应单元获得至少一个感应参数,因此,下面将对基于参数变化确定第一输出动作和映射位置的过程进行详细介绍。
(1)当通过远距离交互感应单元来获得至少一个第一感应参数时,步骤S3的具体实现过程为:
1)基于所述至少一个第一感应参数的参数变化,确定所述第一输入操作;
2)基于第一感应参数的变化后的第一参数确定所述映射位置。
具体来说,当至少一个感应参数的变化满足第一预设条件时,确定操作体的输入操作为第一输入操作,其中第一预设条件为操作体从第一形态变化到第二形态。
假设第一形态时手掌握拳,第二形态是手掌展开,那么当作为操作体的用户的手掌满足这样的第一预设条件时,第一判断结果就为是。当操作体第一形态满足手掌握拳时,但第二形态为打开一其中一根手指,其余四指保持不变,那么用户的第二形态并不满足手掌展开的条件,那么用户的输入操作也不满足第一预设条件。当操作体第一形态为打开一其中一根手指,其余四指保持不变,第二形态为手掌展开,那么第一形态并不满足握拳的条件,所以用户的输入操作也不满足第一预设条件。
当输入动作满足第一预设条件时,将输入操作作为第一输入操作。
进一步,基于第一感应参数的变化后的第一参数,也就是至少一个第一感应参数中的最后一个参数,或变化后停止变化的第一个参数确定操作体映射位置。操作体的映射位置取决于操作体实际位置到映射位置的映射关系。那么,为了更好地介绍本申请的方法,在本申请实施例中,假设映射关系具体为正面投影关系。具体来讲,当远距离交互感应单元就,如图像采集单元采集到操作体的图像信息后,将图像信息显示在显示单元上,那么就相当于将操作体正面投影在显示单元上,那么操作体在显示单元上的位置就是映射位置,如图2所示,假设映射位置为图中用户身体图像中的握拳手部的位置;或者是当显示单元具体为镜面显示屏时,显示单元能呈现操作体的第一虚像,相当于将操作体正面投影在显示单元表面,那么操作体在显示单元表面对应的位置就是显示单元上的映射位置,如图2所示,假设映射位置为图中用户身体图像中的握拳手部的位置。
(2)当通过接触交互感应单元来获得至少一个第二感应参数时,步骤S3的具体实现过程为:
1)基于所述至少一个第二感应参数的参数变化,确定所述第一输入操作;
2)基于第二感应参数的变化后的第二参数确定所述映射位置。
具体来说,当至少一个感应参数的变化满足第一预设条件时,确定操作体的输入操作为第一输入操作,其中第一预设条件为操作体从第一形态变化到第二形态。
假设第一形态时手掌握拳,第二形态是手掌展开,那么当作为操作体的用户的手掌满足这样的第一预设条件时,第一判断结果就为是。当操作体第一形态满足手掌握拳时,但第二形态为打开一其中一根手指,其余四指保持不变,那么用户的第二形态并不满足手掌展开的条件,那么用户的输入操作也不满足第一预设条件。当操作体第一形态为打开一其中一根手指,其余四指保持不变,第二形态为手掌展开,那么第一形态并不满足握拳的条件,所以用户的输入操作也不满足第一预设条件。
当输入动作满足第一预设条件时,将输入操作作为第一输入操作。
进一步,由于操作体是通过接触交互单元,如触控显示单元与电子设备交互的,那么,可以直接将接触位置作为映射位置,也可以按照一定的映射关系确定映射位置。如接触交互单元用户可接触的面积为宽3cm,长5cm的矩形区域,而显示单元为宽30cm,长50cm的矩形区域,以接触区域的左下角为接触坐标系的原点,以显示区域的左下角为显示坐标系的原点。接触交互感应单元简单到第一位置为(1cm,1cm),假设映射关系为1:10,那么可见操作体在显示单元上的映射位置为(10cm,10cm)。更多的例子就不再一一赘述了。
当然,由于在本申请实施例中可以同时通过远距离交互感应单元和接触交互感应单元来获得至少一个感应参数,那么在确定参数变化时,也可以同时根据第一感应参数的参数变化和第二感应参数的参数变化来确定第一输入动作和映射位置。例如通过上述的第一预设条件和映射关系,确定第一输入动作,并且确定映射位置在显示单元上如图3所述的位置。
下面,执行步骤S4。
S4:确定与所述第一输入动作对应的第一控制指令。
当电子设备确定用户的输入动作为第一输入动作时,那么第一输入动作就能够对应电子设备的一个指令。在本申请实施例中,获得第一输入动作对应的指令有几种方式,一种是电子设备在存储器中的指令表中查找第一输入动作对应的指令,然后生成查找到的指令;另一种是将第一输入动作作为一个触发操作,当识别第一输入动作时,第一输入动作就能够直接触发电子设备生成并执行第一控制指令。在具体实现过程中,本申请所属技术人员可以根据实际需要来进行选择,本申请不作具体的限制。
S5:响应所述第一控制指令,在所述映射位置显示第一图形交互界面。
在本申请实施例中,第一控制指令具体是用于控制显示单元在映射位置显示第一图形交互界面。具体来讲,第一图形交互界面可以是圆形,方形,或者环形,本申请所属技术人员可以根据实际需要来进行选择,本申请不作具体的限制。假设本申请实施例中的第一图形交互界面为如图3所示的弧形交互界面。进一步,为了能够方便用户使用,在本申请实施例中,第一图形交互界面显示在映射位置,如图3所示。这样,用户能够非常清楚地观看到第一图形交互界面。
在本申请的技术方案中,首先通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的感应参数,然后基于所述感应参数确定所述操作体的参数变化,接着基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置,最后确定与所述第一输入动作对应的第一控制指令,响应所述第一控制指令,在所述映射位置显示第一图形交互界面,解决了现有技术存在的用户与电子设备进行远距离和近距离交互时需要使用不同交互手势的技术问题,实现了电子设备用户无论远距离或近距离交互,使用相同的输入操作就能够使电子设备在映射位置显示第一图形交互界面的技术效果。
进一步,在本申请实施例中,当操作体与显示单元的距离超过一阈值时,确定调用第一处理机制。
具体来讲,在本申请实施例中,当操作体与显示单元的距离超过一阈值时,操作体可能已经不能接触接触交互感应单元了,也可能远距离交互感应单元,如图像采集单元能够同时检测到用户和操作体时,那么,此时确定调用第一处理机制。也就是说,此时不再调用接触交互感应单元对应的第二处理机制,从而能够有效提高电子设备的处理效率。
对于阈值的设定,可以是用户根据自己的习惯和需要来设置,如50cm,60cm等,也可以是电子设备中的默认值如50cm,60cm等,本申请所属技术人员可以根据实际需要来进行选择,本申请不作具体的限制。
进一步,在本申请实施例中,在映射位置显示第一图形交互界面后,用户可能还需要对第一图像交互界面中进行操作,如图4所示,用户可能会针对弧形交互界面中的右边的“相机”进行操作来进行拍摄等,那么,在本申请实施例还包括下述步骤:
(1)判断所述输入动作是否满足第二预设条件,获得第二判断结果,其中,所述第二预设条件为所述操作体以所述第二形态进行移动;
在本申请实施例中,在判断出来了输入动作满足第一预设条件后,还可以进一步判断输入动作是否满足第二预设条件。具体来讲,第二预设条件具体为操作体保持第二形容进行移动,如从左到右的移动或从上到下的移动,对于移动方向和移动距离在本申请实施例中本申请实施例中不做具体限制,只要操作体是保持第二形态进行的移动即可。
下面执行步骤(2)。
(2)当所述第二判断结果表示所述输入动作满足所述第二预设条件时,将所述输入动作作为第二输入动作。
具体来讲,在本申请实施例中,当操作体的输入动作保持第二形态进行了移动,那么就判断输入动作满足第二预设条件,第二判断结果为是。如第一形态是操作体打开一其中一根手指,其余四指弯曲指向手心,那么操作体就保持第二形态进行了一从上至下的移动,那么输入动作满足第二预设条件;如图3和图4所示,第二形态为手掌打开,操作体从图3中的位置向右移动到图4中的位置,则第二判断结果为是;若操作体在移动过程中没有保持第二形态,则判断输入操作不满足第二预设条件。
当输入操作满足第二预设条件时,就将输入动作中作为第二输入动作。
下面执行步骤(3)。
(3)基于所述第一图形交互界面以及所述第二输入操作的移动参数,生成并响应第二控制指令,以在所述映射位置显示第二图形交互界面。
在本申请实施例中,当将操作体的输入动作作为第二输入动作后,基于第一图形交互界面和第二输入动作的移动参数,电子设备就能生成并响应第二控制指令,以在映射位置显示第二交互界面。
具体来讲,对于步骤(3)中基于第一图形交互界面以及第二输入动作的移动参数来生成并响应第二控制指令的具体实现过程为:
1)获得所述第二输入动作的移动轨迹;
2)确定所述移动轨迹的移动方向为第一移动方向,并确定所述第一移动方向为所述移动参数;
3)基于所述移动参数,确定所述第一移动方向对应的N个数据对象中的第一数据对象;
4)根据所述第一数据对象确定所述第二控制指令。
具体来讲,在本申请实施例中,第一图像交互界面包括N个数据对象,如照片、短信、视频、游戏、日历等,N为正整数,如2,13,4等,对于具体的数据对象和N的取值,本申请不做限制。下面将以N为3为例进行介绍,第一图形交互界面中的3个数据对象如图5A和图5B所示,从左边开始依次为“音乐”、“信息”和“拍摄”对象。
首先,获得第二输入动作的移动轨迹。移动轨迹可以是直线,如图5A所示,也可以为曲线,如图5B所示,只有能够表示操作体的第二输入操作的移动情况即可,本申请所属技术人员可以根据实际需要来进行选择,本申请不作具体的限制。
在本申请实施例中,第二输入动作的移动轨迹可以是通过远距离交互感应单元来获得,也可以通过接触交互单元来获得,还可以同时通过远距离交互感应单元和接触交互感应单元来获得。
假设远距离交互感应单元为图像获得单元,通过图像获得单元获得的M个图像信息,可以获得M个图像信息,根据M个图像信息,获得第二输入操作的移动轨迹;假设接触交互单元为触控显示单元,那么触控显示单元可以获得第二输入操作的移动轨迹。
其次,确定移动轨迹的移动方向为第一移动方向,如从第一图形交互界面中心向外,并确定第一移动方向为所述移动参数。如图5A所示,就是将从第一图形交互界面中心向上的第一移动方向作为移动参数,而在图5B中,就是将从一图形交互界面中心向左的第一移动方向作为移动参数。当然,在具体实现过程中,随着N的增加和第一图形交互界面的不同,第一移动方向包括但不限于本申请实施例子中的两种情况,如与第一图形交互界面中垂线成30度的方向为第一移动方向等。
再次,基于移动参数,也就是根据第一移动方向,确定第一移动放大对应的第一数据对象。具体来讲,就是根据第一移动方向指向的N个数据对象中的数据对象来确定第一数据对象。比如在图5A中,第一移动方向指向“信息”数据对象,那么就确定第一数据对象为“信息”。
最后,在确定第一数据对象后,根据第一数据对象确定出第二控制指令。第二控制指令具体是打开第一数据对象对应的第二图像交互界面,如上文中“信息”对象,第二控制指令就可以是控制“信息”对应的第二交互界面,如图6A所示的“写信息”、“未读信息”等,假设第一数据对象“拍摄”时,那么第二交互界面如图6B所示。当然,对于第二交互界面本申请所属技术人员可以根据实际需要来进行选择,本申请不作具体的限制。
进一步,当移动方向不同时,那么就会确定出与第一数据对象不同的第二数据对象,如第一数据对象为“信息”,第二数据对象为“音乐”。所以,用户能够方便地通过不同的方向的移动来触发第二图形交互界面。
实施例二:
请参考图7,本申请实施例提供了一种电子设备,包括显示单元、远距离交互感应单元和接触交互感应单元,所述远距离交互感应单元的采集空间位于所述显示单元之前,所述电子设备还包括:
第一获得单元1,用于通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的至少一个感应参数;
第一确定单元2,用于基于所述至少一个感应参数确定所述操作体的参数变化,其中,所述参数变化表征所述操作体的从第一形态变化到不同于所述第一形态的第二形态;
第二确定单元3,用于基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置;
第三确定单元4,用于确定与所述第一输入动作对应的第一控制指令;
第一响应单元5,用于响应所述第一控制指令,在所述映射位置显示第一图形交互界面。
具体来讲,在本申请实施例中,第一获得单元1,具体用于:
通过所述远距离交互感应单元获得至少一个第一感应参数;和/或
通过所述接触交互感应单元获得至少一个第二感应参数。
具体来讲,在本申请实施例中,第一确定单元2,具体用于:
确定与所述远距离交互感应单元对应的第一处理机制;
基于所述第一处理机制确定所述至少一个第一感应参数的参数变化;和/或
确定与所述接触交互感应单元对应的不同于所述第一处理机制的第二处理机制;
基于所述第二处理机制确定所述至少一个第二感应参数的参数变化。
具体来讲,在本申请实施例中,第二确定单元3,具体用于:
基于所述至少一个第一感应参数的参数变化和/或至少一个第二感应参数的参数变化,确定所述第一输入操作;
基于第一感应参数的变化后的第一参数和/或第二感应参数的变化后的第二参数确定所述映射位置。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
具体来讲,本申请实施例中的信息处理方法对应的计算机程序指令可以被存储在光盘,硬盘,U盘等存储介质上,当存储介质中的与信息处理方法对应的计算机程序指令被一电子设备读取或被执行时,包括如下步骤:
通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的至少一个感应参数;
基于所述至少一个感应参数确定所述操作体的参数变化,其中,所述参数变化表征所述操作体的从第一形态变化到不同于所述第一形态的第二形态;
基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置;
确定与所述第一输入动作对应的第一控制指令;
响应所述第一控制指令,在所述映射位置显示第一图形交互界面。
可选的,所述存储介质中存储的与步骤通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的至少一个感应参数所述接触交互感应单元获得操作体的至少一个感应参数,对应的计算机指令在具体被执行过程中,具体包括如下步骤:
通过所述远距离交互感应单元获得至少一个第一感应参数;和/或
通过所述接触交互感应单元获得至少一个第二感应参数。
可选的,所述存储介质中存储的与步骤基于所述至少一个感应参数确定所述操作体的参数变化,对应的计算机指令在具体被执行过程中,具体包括如下步骤:
确定与所述远距离交互感应单元对应的第一处理机制;
基于所述第一处理机制确定所述至少一个第一感应参数的参数变化;和/或
确定与所述接触交互感应单元对应的不同于所述第一处理机制的第二处理机制;
基于所述第二处理机制确定所述至少一个第二感应参数的参数变化。
可选的,所述存储介质中存储的与步骤基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置,对应的计算机指令在具体被执行过程中,具体包括如下步骤:
基于所述至少一个第一感应参数的参数变化和/或至少一个第二感应参数的参数变化,确定所述第一输入操作;
基于第一感应参数的变化后的第一参数和/或第二感应参数的变化后的第二参数确定所述映射位置。
可选的,当所述操作体与所述显示单元的距离超过一阈值时,确定调用所述第一处理机制。显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种信息处理方法,应用于一电子设备,所述电子设备包括显示单元、远距离交互感应单元和接触交互感应单元,所述远距离交互感应单元的采集空间位于所述显示单元之前,所述方法包括:
通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的至少一个感应参数;
基于所述至少一个感应参数确定所述操作体的参数变化,其中,所述参数变化表征所述操作体的从第一形态变化到不同于所述第一形态的第二形态;
基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置;
确定与所述第一输入动作对应的第一控制指令;
响应所述第一控制指令,在所述映射位置显示第一图形交互界面。
2.如权利要求1所述的方法,其特征在于,所述通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的至少一个感应参数,具体为:
通过所述远距离交互感应单元获得至少一个第一感应参数;和/或
通过所述接触交互感应单元获得至少一个第二感应参数。
3.如权利要求2所述的方法,其特征在于,所述基于所述至少一个感应参数确定所述操作体的参数变化,具体为:
确定与所述远距离交互感应单元对应的第一处理机制;
基于所述第一处理机制确定所述至少一个第一感应参数的参数变化;和/或
确定与所述接触交互感应单元对应的不同于所述第一处理机制的第二处理机制;
基于所述第二处理机制确定所述至少一个第二感应参数的参数变化。
4.如权利要求3所述的方法,其特征在于,所述基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置,具体为:
基于所述至少一个第一感应参数的参数变化和/或至少一个第二感应参数的参数变化,确定所述第一输入操作;
基于第一感应参数的变化后的第一参数和/或第二感应参数的变化后的第二参数确定所述映射位置。
5.如权利要求1-4任一权项所述的方法,其特征在于,当所述操作体与所述显示单元的距离超过一阈值时,确定调用所述第一处理机制。
6.一种电子设备,包括显示单元、远距离交互感应单元和接触交互感应单元,所述远距离交互感应单元的采集空间位于所述显示单元之前,所述电子设备还包括:
第一获得单元,用于通过所述远距离交互感应单元和/或所述接触交互感应单元获得操作体的至少一个感应参数;
第一确定单元,用于基于所述至少一个感应参数确定所述操作体的参数变化,其中,所述参数变化表征所述操作体的从第一形态变化到不同于所述第一形态的第二形态;
第二确定单元,用于基于所述参数变化确定所述操作体的第一输入动作以及所述操作体在所述显示单元上的映射位置;
第三确定单元,用于确定与所述第一输入动作对应的第一控制指令;
第一响应单元,用于响应所述第一控制指令,在所述映射位置显示第一图形交互界面。
7.如权利要求6所述的电子设备,其特征在于,所述第一获得单元,具体用于:
通过所述远距离交互感应单元获得至少一个第一感应参数;和/或
通过所述接触交互感应单元获得至少一个第二感应参数。
8.如权利要求7所述的电子设备,其特征在于,所述第一确定单元,具体用于:
确定与所述远距离交互感应单元对应的第一处理机制;
基于所述第一处理机制确定所述至少一个第一感应参数的参数变化;和/或
确定与所述接触交互感应单元对应的不同于所述第一处理机制的第二处理机制;
基于所述第二处理机制确定所述至少一个第二感应参数的参数变化。
9.如权利要求8所述的电子设备,其特征在于,所述第二确定单元,具体用于:
基于所述至少一个第一感应参数的参数变化和/或至少一个第二感应参数的参数变化,确定所述第一输入操作;
基于第一感应参数的变化后的第一参数和/或第二感应参数的变化后的第二参数确定所述映射位置。
10.如权利要求6-9任一权项所述的电子设备,其特征在于,当所述操作体与所述显示单元的距离超过一阈值时,确定调用所述第一处理机制。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410111918.3A CN104951211B (zh) | 2014-03-24 | 2014-03-24 | 一种信息处理方法和电子设备 |
US14/494,726 US10222866B2 (en) | 2014-03-24 | 2014-09-24 | Information processing method and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410111918.3A CN104951211B (zh) | 2014-03-24 | 2014-03-24 | 一种信息处理方法和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104951211A true CN104951211A (zh) | 2015-09-30 |
CN104951211B CN104951211B (zh) | 2018-12-14 |
Family
ID=54165895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410111918.3A Active CN104951211B (zh) | 2014-03-24 | 2014-03-24 | 一种信息处理方法和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104951211B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110058681A (zh) * | 2019-03-08 | 2019-07-26 | 佛山市云米电器科技有限公司 | 一种移动式带屏设备的界面交互方法与系统 |
EP3998112A4 (en) * | 2019-07-18 | 2022-10-12 | Honor Device Co., Ltd. | APPLICATION EXECUTION METHOD AND ELECTRONIC DEVICE |
WO2023207226A1 (zh) * | 2022-04-24 | 2023-11-02 | 中兴通讯股份有限公司 | 操作界面的生成方法、控制方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020080494A1 (en) * | 2000-12-21 | 2002-06-27 | Meine Robert K. | Mirror information panel |
CN1860429A (zh) * | 2003-09-30 | 2006-11-08 | 皇家飞利浦电子股份有限公司 | 定义内容窗口在显示器上的位置、尺寸和/或内容的姿势 |
CN102457688A (zh) * | 2011-12-30 | 2012-05-16 | 四川长虹电器股份有限公司 | 一种电视音量和频道智能调节方法 |
US20130278499A1 (en) * | 2011-11-23 | 2013-10-24 | Glen J. Anderson | Gesture input with multiple views, displays and physics |
-
2014
- 2014-03-24 CN CN201410111918.3A patent/CN104951211B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020080494A1 (en) * | 2000-12-21 | 2002-06-27 | Meine Robert K. | Mirror information panel |
CN1860429A (zh) * | 2003-09-30 | 2006-11-08 | 皇家飞利浦电子股份有限公司 | 定义内容窗口在显示器上的位置、尺寸和/或内容的姿势 |
US20130278499A1 (en) * | 2011-11-23 | 2013-10-24 | Glen J. Anderson | Gesture input with multiple views, displays and physics |
CN102457688A (zh) * | 2011-12-30 | 2012-05-16 | 四川长虹电器股份有限公司 | 一种电视音量和频道智能调节方法 |
Non-Patent Citations (1)
Title |
---|
任海兵等: "基于视觉手势识别的研究-综述", 《电子学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110058681A (zh) * | 2019-03-08 | 2019-07-26 | 佛山市云米电器科技有限公司 | 一种移动式带屏设备的界面交互方法与系统 |
EP3998112A4 (en) * | 2019-07-18 | 2022-10-12 | Honor Device Co., Ltd. | APPLICATION EXECUTION METHOD AND ELECTRONIC DEVICE |
US11986726B2 (en) | 2019-07-18 | 2024-05-21 | Honor Device Co., Ltd. | Application running method and electronic device |
WO2023207226A1 (zh) * | 2022-04-24 | 2023-11-02 | 中兴通讯股份有限公司 | 操作界面的生成方法、控制方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN104951211B (zh) | 2018-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11048333B2 (en) | System and method for close-range movement tracking | |
KR101872426B1 (ko) | 깊이 기반 사용자 인터페이스 제스처 제어 | |
US9910498B2 (en) | System and method for close-range movement tracking | |
US8866781B2 (en) | Contactless gesture-based control method and apparatus | |
JP3777830B2 (ja) | コンピュータプログラム生成装置及びコンピュータプログラム生成方法 | |
TWI569171B (zh) | 手勢辨識 | |
US8839136B2 (en) | Method of controlling virtual object or view point on two dimensional interactive display | |
US9696882B2 (en) | Operation processing method, operation processing device, and control method | |
US20120105367A1 (en) | Methods of using tactile force sensing for intuitive user interface | |
CN105339872A (zh) | 电子设备和识别电子设备中的输入的方法 | |
JP2013037675A5 (zh) | ||
JP2012003742A (ja) | 入力装置、入力方法、プログラム及び記録媒体 | |
CN105117056A (zh) | 一种操作触摸屏的方法和设备 | |
KR101392936B1 (ko) | 사용자 맞춤형 인터페이스 시스템 및 그 구현 방법 | |
CN106796810A (zh) | 在用户界面上从视频选择帧 | |
JP2024520943A (ja) | キー機能実行方法、キー機能実行システム、キー機能実行装置、電子機器、及びコンピュータプログラム | |
CN104951211A (zh) | 一种信息处理方法和电子设备 | |
US11500453B2 (en) | Information processing apparatus | |
US10222866B2 (en) | Information processing method and electronic device | |
US9235338B1 (en) | Pan and zoom gesture detection in a multiple touch display | |
CN109739422B (zh) | 一种窗口控制方法、装置及设备 | |
CN108132721B (zh) | 生成拖动手势的方法、触控装置以及便携式电子设备 | |
Tsuchida et al. | TetraForce: a magnetic-based interface enabling pressure force and shear force input applied to front and back of a smartphone | |
CN104951051A (zh) | 一种信息处理方法和电子设备 | |
Procházka et al. | Mainstreaming gesture based interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |