CN106774829B - 一种对象控制方法和装置 - Google Patents

一种对象控制方法和装置 Download PDF

Info

Publication number
CN106774829B
CN106774829B CN201611026163.2A CN201611026163A CN106774829B CN 106774829 B CN106774829 B CN 106774829B CN 201611026163 A CN201611026163 A CN 201611026163A CN 106774829 B CN106774829 B CN 106774829B
Authority
CN
China
Prior art keywords
target object
function
trigger function
determining
limb
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611026163.2A
Other languages
English (en)
Other versions
CN106774829A (zh
Inventor
杜群
刘文龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201611026163.2A priority Critical patent/CN106774829B/zh
Publication of CN106774829A publication Critical patent/CN106774829A/zh
Application granted granted Critical
Publication of CN106774829B publication Critical patent/CN106774829B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例公开了一种对象控制装置,用于解决现有网页控制方式操作繁琐、无趣的问题。本发明实施例方法包括:侦测感应区域内的肢体动作,得到所述肢体动作的运动轨迹;根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能;控制所述目标对象执行与所述触发功能对应的操作。本发明实施例还提供一种对象控制方法。

Description

一种对象控制方法和装置
技术领域
本发明涉及信息技术应用控制领域,尤其涉及一种对象控制方法和装置。
背景技术
目前,用户了解银行业务的途径主要有两种,一种通过银行网页进行阅读了解,另一种则前往银行柜台或者拨打咨询热线进行咨询。然而,由于网页阅读和控制相对人工咨询而言比较繁琐和无趣,因此很多用户选择前往银行柜台或者拨打咨询热线进行咨询,大大增加了咨询工作人员的工作量,增大了银行业的人力成本。
因此,如何寻找一种灵动有趣的网页控制方式成为本领域技术人员亟需解决的问题。
发明内容
本发明实施例提供了一种对象控制方法和装置,能够使得网页的控制方式更加灵动有趣,提升用户对网页阅读的体验。
本发明实施例提供的一种对象控制方法,应用于网页页面,包括:
侦测感应区域内的肢体动作,得到所述肢体动作的运动轨迹;
根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能;
控制所述目标对象执行与所述触发功能对应的操作。
可选地,所述根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能之前,还包括:
计算所述运动轨迹的动作幅度值;
若所述动作幅度值超过预设的幅度阈值,则判定所述肢体动作为有效操作,并执行根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能的步骤。
可选地,在所述肢体动作为有效操作时,所述根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能具体包括:
从预设的功能集中选取与所述目标对象的对象类型对应的目标功能集;
从所述目标功能集中选取与所述运动轨迹的运动方向对应的触发功能;
将所述触发功能确定为所述目标对象的触发功能;
从预设的功能集中选取与所述运动轨迹的运动方向对应的目标功能集;
从所述目标功能集中选取与所述目标对象的对象类型对应的触发功能;
将所述触发功能确定为所述目标对象的触发功能。
可选地,所述目标对象包括在网页页面中基于增强现实技术显示的对象。
可选地,所述根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能之前,还包括:
将与所述肢体动作对应的对象确定为当前的目标对象。
本发明实施例提供的一种对象控制装置,应用于网页页面,包括:
肢体动作侦测模块,用于侦测感应区域内的肢体动作,得到所述肢体动作的运动轨迹;
触发功能确定模块,用于根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能;
控制模块,用于控制所述目标对象执行与所述触发功能对应的操作。
可选地,所述对象控制装置还包括:
幅度值计算模块,用于计算所述运动轨迹的动作幅度值;
有效操作判定模块,用于若所述动作幅度值超过预设的幅度阈值,则判定所述肢体动作为有效操作,并触发所述触发功能确定模块。
可选地,所述触发功能确定模块包括第一确定子模块或第二确定子模块;
所述第一确定子模块包括:
第一功能集选取单元,用于从预设的功能集中选取与所述目标对象的对象类型对应的目标功能集;
第一触发功能选取单元,用于从所述目标功能集中选取与所述运动轨迹的运动方向对应的触发功能;
第一功能确定单元,用于将所述触发功能确定为所述目标对象的触发功能;
所述第二确定子模块包括:
第二功能集选取单元,用于从预设的功能集中选取与所述运动轨迹的运动方向对应的目标功能集;
第二触发功能选取单元,用于从所述目标功能集中选取与所述目标对象的对象类型对应的触发功能;
第二功能确定单元,用于将所述触发功能确定为所述目标对象的触发功能。
可选地,所述目标对象包括在网页页面中基于增强现实技术显示的对象。
可选地,所述对象控制装置还包括:
目标对象确定模块,用于将与所述肢体动作对应的对象确定为当前的目标对象。
从以上技术方案可以看出,本发明实施例具有以下优点:
本发明实施例公开了一种应用于网页页面的对象控制方法,首先,侦测感应区域内的肢体动作,得到所述肢体动作的运动轨迹;然后,根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能;最后,控制所述目标对象执行与所述触发功能对应的操作。在本发明实施例中,用户可以通过肢体动作来控制网页(一种对象),根据肢体动作的运动轨迹和目标对象的对象类型来触发网页页面上的相应功能,使得网页的控制方式更加灵动有趣,提升用户对网页阅读的体验,从而减少柜台或热线咨询工作人员的工作量,降低咨询的人力成本。
附图说明
图1为本发明实施例中一种对象控制方法一个实施例流程图;
图2为图1对应实施例中一种对象控制方法的步骤102在一个应用场景下的具体处理流程示意图;
图3为图1对应实施例中一种对象控制方法的步骤102在另一个应用场景下的具体处理流程示意图;
图4为本发明实施例中一种对象控制装置第一个实施例结构图;
图5为本发明实施例中一种对象控制装置第二个实施例结构图;
图6为本发明实施例中一种对象控制装置第三个实施例结构图。
具体实施方式
本发明实施例提供了一种对象控制方法和装置,用于解决现有网页控制方式操作繁琐、无趣的问题。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,本发明实施例中一种对象控制方法一个实施例包括:
101、侦测感应区域内的肢体动作,得到所述肢体动作的运动轨迹;
本实施例中,可以侦测感应区域内的肢体动作,得到所述肢体动作的运动轨迹。上述的肢体动作可以是用户的手势,也可以是用户的身体姿势,例如点头、摇头等。
进一步地,可以通过摄像头获取用户输入的肢体动作,例如通过摄像头捕捉用户的手势,然后通过手势识别算法来计算用户手势的运动轨迹。可以理解的是,肢体动作的运动轨迹至少包括运动方向和动作幅度两种属性。本实施例中,特别地,可以通过浏览器的WebRTC(Web Real-Time Communication)捕捉用户通过摄像头输入的肢体动作。
102、根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能;
在获得所述肢体动作的运动轨迹之后,可以根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能。
可以理解的是,本实施例中的对象可以包括页面、页面上的图片和图形等。目标对象的对象类型可以根据实际情况具体设定其与触发功能之间的对应关系。对象类型可以包括多种,例如包括网页和网页中的触点图片,还可以将网页的对象类型继续细分为总览页和该总览页下的特定页等。
进一步地,在根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能之前,还可以包括:
11)计算所述运动轨迹的动作幅度值;
12)若所述动作幅度值超过预设的幅度阈值,则判定所述肢体动作为有效操作,并执行根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能的步骤。
可以理解的是,为了避免用户的小幅度动作引起系统的误判,在获得感应区域内肢体动作的运动轨迹时,应当判断该运动轨迹的动作幅度值是否超过预设的幅度阈值,若是,则可以认为用户使用该肢体动作来控制对象,反之,则应当忽略该运动轨迹。
上述的运动方向可以包括运动轨迹的矢量方向,比如“左右滑动”、“上下滑动”、“对角外扩或内缩”等。当目标功能集中存在与所述运动方向对应的功能时,则将该对应的功能确定为目标对象的触发功能。反之,若目标功能集中不存在与运动方向对应的功能,则无法确定该目标对应的触发功能,可以认为用户误操作或输入的肢体动作不正确,不对目标对象进行控制。
更进一步地,如图2所示,在所述肢体动作为有效操作时,所述根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能具体可以包括:
a1)从预设的功能集中选取与所述目标对象的对象类型对应的目标功能集;
a2)从所述目标功能集中选取与所述运动轨迹的运动方向对应的触发功能;
a3)将所述触发功能确定为所述目标对象的触发功能。
可以理解的是,本实施例中可以先通过目标对象的对象类型来选取对应的目标功能集,再根据运动轨迹从目标功能集中选取对应的功能作为触发功能。比如,假设目标对象为当前页面,当前页面为总览页(假设操作界面上存在多个可控制的总览页,每个总览页上存在多个可控制的特定页),则可以从预设功能集中选取与该总览页对应的目标功能集,该目标功能集包括:“页面切换”和“特定页切换”,其中“页面切换”与“左右滑动”的运动轨迹对应,“特定页切换”与“上下滑动”的运动轨迹对应。在确定该目标功能集之后,若该肢体动作的运动轨迹为“左右滑动”,则从该目标功能集中选取“页面切换”的功能作为触发功能;若该肢体动作的运动轨迹为“上下滑动”,则从该目标功能集中选取“特定页切换”的功能作为触发功能。
或者,如图3所示,所述根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能具体可以包括:
b1)从预设的功能集中选取与所述运动轨迹的运动方向对应的目标功能集;
b2)从所述目标功能集中选取与所述目标对象的对象类型对应的触发功能;
b3)将所述触发功能确定为所述目标对象的触发功能。
可以理解的是,本实施例中可以先通过肢体动作的运动轨迹来选取对应的目标功能集,再根据目标对象的对象类型从目标功能集中选取对应的功能作为触发功能。比如,假设目标对象为当前页面,当前页面为总览页(假设操作界面上存在多个可控制的总览页,每个总览页上存在多个可控制的特定页),肢体动作的运动轨迹为“上下滑动”,则可以从预设功能集中选取与“上下滑动”运动轨迹对应的目标功能集,该目标功能集包括:“分屏”和“特定页切换”,其中“分屏”与对象类型为“特定页”的目标对象对应,“特定页切换”与对象类型为“总览页”的目标对象对应。在确定该目标功能集之后,若该目标对象的对象类型为“特定页”,则从该目标功能集中选取“分屏”的功能作为触发功能;若该目标对象的对象类型为“总览页”,则从该目标功能集中选取“特定页切换”的功能作为触发功能。
本实施例中,进一步地,在根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能之前,还可以包括:将与所述肢体动作对应的对象确定为当前的目标对象。可以理解的是,本实施例中,可以预先建立肢体动作与对象之间的对应关系,比如,当前网页页面包括了总览页和总览页上的特定页,可以预先建立的对应关系包括:头部动作与总览页对应,手部动作与特定页对应。因此当侦测到感应区域内的肢体动作为头部动作时,则可以确定当前目标对象为总览页;当侦测到感应区域内的肢体动作为手部动作时,则可以确定当前目标对象为特定页。通过肢体动作进行目标对象的选定,进一步提高了操作的便捷性,无需用户通过额外的操作来选取对象。
进一步地,所述目标对象可以包括在网页页面中基于增强现实技术显示的对象,若当前的目标对象为基于增强现实技术显示的对象时,具体步骤可以包括:
1)获取用户在网页页面中选取的增强现实触发事件;
2)在所述增强现实触发事件触发后,显示基于增强现实技术的对象;
3)确定所述基于增强现实技术的对象为所述目标对象。
上述步骤1)中,用户可以在网页页面中选取某个增强现实触发事件,该增强现实触发事件可以是一张触点图片或者一个触发按钮,通过触发该增强现实触发事件来启动或显示基于增强现实技术的对象。需要说明的是,用户可以手动选择该增强现实触发事件,也可以通过肢体动作与对象之间的对应关系进行选取。
上述步骤2)中,该基于增强现实技术的对象可以是嵌入HTML页面中的AR触点图片。比如,在银行网站的HTML页面中,可以嵌入基于增强现实技术的银行卡图片,该银行卡图片在HTML页面中犹如嵌入了一张真实的银行卡片,带给用户更真实的使用体验,增加用户了解该银行卡信息的兴趣。
另外,本实施例中,若用户的操作界面上同时存在多个可控制的页面,还可以直接将当前页面确定为目标页面,也即目标对象。
103、控制所述目标对象执行与所述触发功能对应的操作。
在确定所述目标对象的触发功能之后,可以控制所述目标对象执行与所述触发功能对应的操作。
优选地,在对象为页面时,本实施例中所述触发功能可以包括“总览页切换”、“特定页切换”、“特定页翻页”、“分屏”、“页面放大”、“页面缩小”等功能。当目标对象为总览页,触发功能为“总览页切换”,则实现多个总览页之间的切换;当目标对象为总览页,触发功能为“特定页切换”,则实现同一个总览页上多个特定页之间的切换;当目标对象为特定页,触发功能为“特定页翻页”,则实现多个特定页之间的翻页操作;当目标对象为特定页,触发功能为“分屏”,则实现在特定页的页面上进行分屏;当目标对象为特定页,触发功能为“页面放大”,则实现对当前特定页的放大操作;当目标对象为特定页,触发功能为“页面缩小”,则实现对当前特定页的缩小操作;等等。
本实施例公开了一种应用于网页页面的对象控制方法,首先,侦测感应区域内的肢体动作,得到所述肢体动作的运动轨迹;然后,根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能;最后,控制所述目标对象执行与所述触发功能对应的操作。在本实施例中,用户可以通过肢体动作来控制网页(一种对象),根据肢体动作的运动轨迹和目标对象的对象类型来触发网页页面上的相应功能,使得网页的控制方式更加灵动有趣,提升用户对网页阅读的体验,从而减少柜台或热线咨询工作人员的工作量,降低咨询的人力成本。
为便于理解,根据图1所描述的实施例,下面以一个实际应用场景对本发明实施例中的一种对象控制方法进行描述:
在本应用场景中,HTML页面上嵌入有基于增强现实技术的多个总览页,每个总览页上设置有多个特定页。
用户打开终端上的HTML页面,终端的前置摄像头打开,用户通过手部动作在前置摄像头的拍摄区域内进行肢体动作的输入。首先,侦测到该肢体动作为手部动作时,可以确定与手部动作对应的HTML页面为目标对象。用户通过左右滑动手势切换总览页,通过上下滑动手势在总览页上选定特定页,在用户需要放大某个选定的特定页时,双手做出对角外扩的手势放大该特定页。此时,当前页面为特定页,用户可以通过左右滑动手势切换不同的特定页,通过上下滑动手势对当前特定页进行分屏,通过双手做出对角内缩的手势来缩小当前特定页,等等,使得用户操作页面更便捷、有趣。
上面主要描述了一种对象控制方法,下面将对一种对象控制装置进行详细描述。
图4示出了本发明实施例中一种对象控制装置第一个实施例结构图。
本实施例中,一种应用于网页页面的对象控制装置包括:
肢体动作侦测模块401,用于侦测感应区域内的肢体动作,得到所述肢体动作的运动轨迹;
触发功能确定模块402,用于根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能;
控制模块403,用于控制所述目标对象执行与所述触发功能对应的操作。
图5示出了本发明实施例中一种对象控制装置第二个实施例结构图,进一步地,所述对象控制装置还可以包括:
幅度值计算模块404,用于计算所述运动轨迹的动作幅度值;
有效操作判定模块405,用于若所述动作幅度值超过预设的幅度阈值,则判定所述肢体动作为有效操作,并触发所述触发功能确定模块。
进一步地,所述触发功能确定模块可以包括第一确定子模块或第二确定子模块;
所述第一确定子模块包括:
第一功能集选取单元,用于从预设的功能集中选取与所述目标对象的对象类型对应的目标功能集;
第一触发功能选取单元,用于从所述目标功能集中选取与所述运动轨迹的运动方向对应的触发功能;
第一功能确定单元,用于将所述触发功能确定为所述目标对象的触发功能;
所述第二确定子模块包括:
第二功能集选取单元,用于从预设的功能集中选取与所述运动轨迹的运动方向对应的目标功能集;
第二触发功能选取单元,用于从所述目标功能集中选取与所述目标对象的对象类型对应的触发功能;
第二功能确定单元,用于将所述触发功能确定为所述目标对象的触发功能。
图6示出了本发明实施例中一种对象控制装置第三个实施例结构图,进一步地,所述对象控制装置还可以包括:
目标对象确定模块406,用于将与所述肢体动作对应的对象确定为当前的目标对象。
进一步地,本实施例中,所述目标对象可以包括在网页页面中基于增强现实技术显示的对象。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (6)

1.一种对象控制方法,应用于网页页面,其特征在于,包括:
侦测感应区域内的肢体动作,包括:通过浏览器捕捉用户通过摄像头输入的肢体动作,得到所述肢体动作的运动轨迹;
将与所述肢体动作对应的对象确定为当前的目标对象,具体为:预先建立肢体动作与对象之间的对应关系,所述预先建立的对应关系包括:头部动作与总览页对应,手部动作与特定页对应;
根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能,包括:从预设的功能集中选取与所述运动轨迹的运动方向对应的目标功能集;从所述目标功能集中选取与所述目标对象的对象类型对应的触发功能;将所述触发功能确定为所述目标对象的触发功能;或从预设的功能集中选取与所述目标对象的对象类型对应的目标功能集;从所述目标功能集中选取与所述运动轨迹的运动方向对应的触发功能;将所述触发功能确定为所述目标对象的触发功能;所述对象类型包括总览页以及特定页;当侦测到感应区域内的肢体动作为头部动作时,则确定当前目标对象的对象类型为总览页;当侦测到感应区域内的肢体动作为手部动作时,则确定当前目标对象的对象类型为特定页;
控制所述目标对象执行与所述触发功能对应的操作。
2.根据权利要求1所述的对象控制方法,其特征在于,所述根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能之前,还包括:
计算所述运动轨迹的动作幅度值;
若所述动作幅度值超过预设的幅度阈值,则判定所述肢体动作为有效操作,并执行根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能的步骤。
3.根据权利要求1所述的对象控制方法,其特征在于,所述目标对象包括在网页页面中基于增强现实技术显示的对象。
4.一种对象控制装置,应用于网页页面,其特征在于,包括:
肢体动作侦测模块,用于侦测感应区域内的肢体动作,得到所述肢体动作的运动轨迹;所述侦测感应区域内的肢体动作,包括:通过浏览器捕捉用户通过摄像头输入的肢体动作;
目标对象确定模块,用于将与所述肢体动作对应的对象确定为当前的目标对象,具体为:预先建立肢体动作与对象之间的对应关系,所述预先建立的对应关系包括:头部动作与总览页对应,手部动作与特定页对应;
触发功能确定模块,用于根据所述运动轨迹和当前的目标对象的对象类型确定所述目标对象的触发功能;所述对象类型包括总览页以及特定页;所述触发功能确定模块包括第二确定子模块;所述第二确定子模块包括:第二功能集选取单元,用于从预设的功能集中选取与所述运动轨迹的运动方向对应的目标功能集;第二触发功能选取单元,用于从所述目标功能集中选取与所述目标对象的对象类型对应的触发功能;第二功能确定单元,用于将所述触发功能确定为所述目标对象的触发功能;所述触发功能确定模块还包括第一确定子模块;所述第一确定子模块包括:第一功能集选取单元,用于从预设的功能集中选取与所述目标对象的对象类型对应的目标功能集;第一触发功能选取单元,用于从所述目标功能集中选取与所述运动轨迹的运动方向对应的触发功能;第一功能确定单元,用于将所述触发功能确定为所述目标对象的触发功能;当侦测到感应区域内的肢体动作为头部动作时,则确定当前目标对象的对象类型为总览页;当侦测到感应区域内的肢体动作为手部动作时,则确定当前目标对象的对象类型为特定页;控制模块,用于控制所述目标对象执行与所述触发功能对应的操作。
5.根据权利要求4所述的对象控制装置,其特征在于,所述对象控制装置还包括:
幅度值计算模块,用于计算所述运动轨迹的动作幅度值;
有效操作判定模块,用于若所述动作幅度值超过预设的幅度阈值,则判定所述肢体动作为有效操作,并触发所述触发功能确定模块。
6.根据权利要求4所述的对象控制装置,其特征在于,所述目标对象包括在网页页面中基于增强现实技术显示的对象。
CN201611026163.2A 2016-11-14 2016-11-14 一种对象控制方法和装置 Active CN106774829B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611026163.2A CN106774829B (zh) 2016-11-14 2016-11-14 一种对象控制方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611026163.2A CN106774829B (zh) 2016-11-14 2016-11-14 一种对象控制方法和装置

Publications (2)

Publication Number Publication Date
CN106774829A CN106774829A (zh) 2017-05-31
CN106774829B true CN106774829B (zh) 2021-04-02

Family

ID=58970438

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611026163.2A Active CN106774829B (zh) 2016-11-14 2016-11-14 一种对象控制方法和装置

Country Status (1)

Country Link
CN (1) CN106774829B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108563327B (zh) * 2018-03-26 2020-12-01 Oppo广东移动通信有限公司 增强现实方法、装置、存储介质及电子设备
CN108509107A (zh) * 2018-03-26 2018-09-07 百度在线网络技术(北京)有限公司 应用功能信息显示方法、装置及终端设备
CN109872283A (zh) * 2019-01-18 2019-06-11 维沃移动通信有限公司 一种图像处理方法及移动终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102789312A (zh) * 2011-12-23 2012-11-21 乾行讯科(北京)科技有限公司 一种用户交互系统和方法
CN104536563A (zh) * 2014-12-12 2015-04-22 林云帆 一种电子设备控制方法及系统
CN105094317A (zh) * 2015-06-29 2015-11-25 百度在线网络技术(北京)有限公司 一种体感控制方法与装置
CN105975081A (zh) * 2016-05-24 2016-09-28 深圳市敢为软件技术有限公司 体感控制方法和装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9575561B2 (en) * 2010-12-23 2017-02-21 Intel Corporation Method, apparatus and system for interacting with content on web browsers
US20140157209A1 (en) * 2012-12-03 2014-06-05 Google Inc. System and method for detecting gestures
CN104898822B (zh) * 2014-03-03 2018-04-27 联想(北京)有限公司 一种控制方法及电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102789312A (zh) * 2011-12-23 2012-11-21 乾行讯科(北京)科技有限公司 一种用户交互系统和方法
CN104536563A (zh) * 2014-12-12 2015-04-22 林云帆 一种电子设备控制方法及系统
CN105094317A (zh) * 2015-06-29 2015-11-25 百度在线网络技术(北京)有限公司 一种体感控制方法与装置
CN105975081A (zh) * 2016-05-24 2016-09-28 深圳市敢为软件技术有限公司 体感控制方法和装置

Also Published As

Publication number Publication date
CN106774829A (zh) 2017-05-31

Similar Documents

Publication Publication Date Title
US10802581B2 (en) Eye-tracking-based methods and systems of managing multi-screen view on a single display screen
CN107395877B (zh) 一种终端防误触方法及终端
CN106406710B (zh) 一种录制屏幕的方法及移动终端
US20170160795A1 (en) Method and device for image rendering processing
KR101693951B1 (ko) 제스처 인식 방법 및 제스처 검출기
EP2750372A1 (en) Photographing device for producing composite image and method using the same
CN104123520A (zh) 二维码扫描方法及装置
CN104898996B (zh) 信息处理方法及电子设备
US20170163958A1 (en) Method and device for image rendering processing
CN106774829B (zh) 一种对象控制方法和装置
US20160048214A1 (en) Using distance between objects in touchless gestural interfaces
US20170310882A1 (en) Control apparatus, method of controlling the same and program
CN108390961B (zh) 触摸响应方法、装置、可读存储介质及移动终端
US10013623B2 (en) System and method for determining the position of an object displaying media content
CN107908331B (zh) 一种桌面图标的显示控制方法及电子设备
US9148537B1 (en) Facial cues as commands
CN111986229A (zh) 视频目标检测方法、装置及计算机系统
JPWO2019224866A1 (ja) 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
CN106851052B (zh) 一种控制方法及电子设备
JP2021196741A (ja) 画像処理装置、画像処理方法、及びプログラム
CN109547678B (zh) 一种处理方法、装置、设备及可读存储介质
CN104216624A (zh) 一种显示方法和电子设备
WO2013084179A1 (en) An apparatus responsive to at least zoom-in user input, a method and a computer program
CN106921826B (zh) 拍照模式的处理方法及装置
CN114089868A (zh) 触控操作方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant