CN104937525B - 使用滑动手势识别技术的内容操作 - Google Patents

使用滑动手势识别技术的内容操作 Download PDF

Info

Publication number
CN104937525B
CN104937525B CN201380071413.2A CN201380071413A CN104937525B CN 104937525 B CN104937525 B CN 104937525B CN 201380071413 A CN201380071413 A CN 201380071413A CN 104937525 B CN104937525 B CN 104937525B
Authority
CN
China
Prior art keywords
slip gesture
touch
user
content
definition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380071413.2A
Other languages
English (en)
Other versions
CN104937525A (zh
Inventor
R·S·曼诺夫
T·霍克
J·D·斯夸尔
C·K·谢伊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Swaprussian Co Ltd
Original Assignee
Somo Audience Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Somo Audience Corp filed Critical Somo Audience Corp
Publication of CN104937525A publication Critical patent/CN104937525A/zh
Application granted granted Critical
Publication of CN104937525B publication Critical patent/CN104937525B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/14Tree-structured documents
    • G06F40/143Markup, e.g. Standard Generalized Markup Language [SGML] or Document Type Definition [DTD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

一种在具有触摸输入显示器的用户装置上使用滑动手势识别来操作由承载服务器提供的内容的方法。该方法包括在承载服务器上存储内容,该内容与滑动手势识别模块结合以形成内容封装。滑动手势识别模块与内容的至少一个可显示内容元素相关联。该方法还包括在承载服务器处接收来自用户装置的对内容封装的请求,以及从承载服务器向用户装置发送该内容封装,以由在用户装置上运行的应用进行显示。如果确定了在至少一个可显示内容元素上已经出现滑动手势,则将定义的动作应用于该至少一个可显式内容元素。

Description

使用滑动手势识别技术的内容操作
相关申请的交叉引用
本申请要求在2013年7月1日提交的申请号为13/932898的美国专利申请,以及在2012年11月28日提交的名称为“CONTENT MANIPULATION USING SWIPE GESTURERECOGNITION TECHNOLOGY”、申请号为61/730899的美国临时专利申请的权益,这两个申请通过引用被全部包含于此。
技术领域
公开的实施例涉及使用滑动手势(swipe gesture)识别技术的内容操作。更具体地说,公开的实施例涉及通过在用户装置上使用滑动手势识别技术来对由承载服务器(hosting server)提供的基于互联网的内容进行操作的系统和方法。
背景技术
诸如智能手机、平板计算机、电子阅读器、支持触摸的便携式计算机和支持触摸的台式计算机之类的基于触摸屏幕的用户计算装置,通常被用于经由互联网从服务器请求内容。此类内容可包括广告(所述广告覆盖于显示的内容上直到由用户触摸该广告的特定部分),或者包括其他类型的显示窗口。必须被触摸以关闭广告的部分可以是在该广告一角处的小“X”。
在相对小的屏幕上,特别是在智能手机屏幕上,用户经常难以准确地触摸屏幕的指定部分来关闭广告。这可能导致用户无意地触摸广告的有效部分而不是关闭“按钮”,其可能反而导致意外地激活动画或者甚至意外地导航至不同的web页面。对于用户来说,这可能是非常令人沮丧和恼人的体验。
这种对广告客户的web页面的意外激活可增加广告客户的成本,因为可能基于特定的每点击成本(CPC)来为广告付费。因此,基于CPC为移动装置上的广告付费的广告商可发现,由于意外的点进,他们获得非常高的点进率(CTR)但是很低的投资回报(ROI)。这可能惹恼当前和潜在的客户,并且可导致负面的品牌认知,这对于大品牌来说是重要的问题。
发明内容
公开的实施例提供了用于实施滑动手势识别技术以操作由承载服务器向用户装置提供的基于互联网的内容的系统、方法和处理器指令。
在公开的系统和方法中,用户可具有计算装置,例如移动装置。移动装置可以是例如运行嵌入式移动软件块(如移动浏览器)的移动电话、平板计算机、家用设备。浏览器可做出对内容块的请求。通常在web页面上承载该内容并且经由互联网访问该内容。在这种情况下,web页面实际上从装置做出对承载该内容的服务器的请求。内容可包括广告和应用于该广告的行为。当服务器接收到内容请求时,其提供该内容、广告和某些相关信息的“封装”,需要此类滑动手势行为和技术封装来将该相关信息应用于请求的内容。可采用不同的方式来捆绑不同类型的广告,当其组合时并且特别是在与特定的内容块进行组装时,可能存在不同的滑动手势识别技术元素。一旦做出那些决定,服务器发送该捆绑,其至少包含滑动手势识别技术块和广告。
广告可来自于与内容服务器(即承载服务器)不同的服务器。内容服务器可能不具有对广告本身的访问权限。相反,内容服务器可以仅接收关于广告的足够的信息,以允许该内容服务器确定如何将滑动手势识别技术应用于用户装置上的广告。
在某些实施例中,由内容服务器接收的与广告相关的信息可以是期望应用滑动技术的特定内容封装的标识符,例如统一资源定位符(URL)。该信息还可以包括额外的内容数据,该数据可指示将如何在用户装置上显示广告,例如,该广告是全屏还是在页面底部的窗口栏。由内容服务器接收的信息可包括广告客户期望的呈现类型的特定细节,以及广告打算如何对检测到的滑动手势做出反应。可选地,广告客户可能仅想要已经出现滑动的一个指示,并且可在于用户装置上操作的软件中处理对该滑动的响应。
由内容服务器接收的与广告相关的信息提供其中将在用户装置上显示广告的上下文。该信息描述了对于滑动手势识别技术来说必要的特定行为、滑动技术是否需要包括呈现组件,以及如果需要则哪个呈现组件是必要的。
一旦组装了包含内容、广告信息和滑动手势识别技术(例如,以代码模块的形式)的封装,该封装被传送给用户装置。封装可以例如采用客户端类型脚本的形式,并且该脚本基于在用户装置级可用的信息做出决定。一旦滑动手势识别技术在用户装置上,其已经知道了广告内容的位置,以及关于将如何在用户装置上显示呈现的细节。因此,显示行为基于该封装。此外,滑动手势识别技术“爬”过内容页面的部分,并且找到打算呈现/控制的广告。如果该封装需要应用呈现组件,则其将在这一阶段应用呈现组件。滑动技术还将确定其需要在哪里开始侦听用户的手势,以便解释它们,以及决定用户是否意在执行滑动手势或者用户是否意在执行某个其他类型的操作,例如点击、拖曳或其他手势。
在已经完成上述准备并且已经做出所有相关决定之后,接着,滑动手势识别技术处于被动侦听模式下,在该模式下其等待用户触摸用户装置的屏幕。一旦用户触摸屏幕,例如,如果该触摸在将要应用滑动手势行为的屏幕的部分内,则系统将尝试解释该触摸是否应被认为是滑动手势。
因此,当用户触摸屏幕时,滑动手势识别技术“醒来”并且开始尝试针对触摸动作判断用户的意图是什么。该技术通过将行为分析应用于用户的手指移动的方式来完成该判断,例如,存在多少个手指、它们在哪个方向上移动、它们已移动的时间长度以及各种其他标准。在用户触摸屏幕之后,滑动技术记录手势以及用户与屏幕的交互。一旦用户将他的手指从屏幕移开,接着滑动技术停止收集触摸数据以及其已在后端进行的分析,并且开始基于触摸数据(例如触摸位置和时间数据)做出决定。
滑动手势识别技术分析用户在屏幕上用他的手指执行的触摸动作,并且确定这些动作是否构成系统被配置为寻找并且对其做出反应的这类滑动手势。如果系统确定触摸动作不相当于其正在寻找的滑动手势,则该系统可返回到被动“侦听”模式,在该模式下其等待进一步的触摸动作。
如果滑动手势识别技术检测到其正在“侦听”的特定滑动手势,则其将根据在用户装置上安装的封装的特定性质而采取不同的动作。在一般情况下,如果系统检测到真实的滑动手势,则其会用信号将该检测通知给恰好在侦听该手势的任何应用或实体。在某些实施例中,滑动手势识别技术还可以在用户装置上实现用户接口。在这种情况下,系统根据检测到滑动手势采取特定动作,例如,使得覆盖的可显示内容元素(如广告)消失,这可通过使广告以动画的方式从屏幕滑出而实现。在其中封装包含不具有显示处理部分的滑动手势识别技术的实施例中,则要求了将被应用的滑动手势识别的封装的部分(例如,由负责广告内容的实体编码的部分)随后负责基于接收的已出现滑动的指示采取适当的动作。
公开的实施例提供了用于执行下列操作的系统的方法:侦听触摸屏幕手势;确定检测到的手势是否恰当;以及接着保证系统警告需要知道该确定的应用;以便例如应用可将一些类型的动作应用于显示的广告。应用可以例如关闭覆盖广告、“滑过”广告到达由该广告标识的不同站点,或者使得广告启动动画或其他可执行元素。例如,如果广告关于软饮料,那么滑动手势可导致执行动画,该动画示出了正被倒入玻璃杯的饮料。因此,公开的实施例的一个方面是处理所有触摸屏幕数据以及解释如何执行用户交互的能力。
在某些实施例中,在检测到用户触摸屏幕之后,系统开始“侦听”滑动手势。系统可确定触摸是否在限定的区域(例如广告)上,并且还可以确定该系统是负责对滑动手势做出反应还是仅报告它。如果触摸不是在广告上,则系统可停止侦听,并且等待下一个检测到的触摸。如果触摸在广告上,则系统将捕获触摸数据(例如位置和时间),直到用户停止触摸屏幕。在该阶段,系统确定用户交互的模式是否应该被识别为滑动手势。如果不是,则系统返回休眠状态并且等待出现下一次触摸。如果确定了:例如手势足够长、在恰当的方向上,没有偏离其坐标太多并且具有适当的尺度,则该手势会被认为是真实的滑动手势。基于这一确定,可警告某些应用和/或可采取某些动作。根据从承载服务器传送给用户装置的封装的类型,采取的动作可以是隐藏广告,或者可以是仅警告应用并且接着等待下一个触摸事件。
在某些实施例中,滑动手势识别技术被例如附加到广告,并且作为结果的“封装”被传送给用户装置。该封装可包括作为其内容的部分的内容提供者(即负责广告内容的实体)的脚本组件。当在用户的装置上执行内容提供者的脚本时,使用该脚本的应用或者其他实体已经设置了某些信息,以使脚本知道其上下文。可能存在例如被称作“ABCD”的元素,该元素是将要附加滑动手势识别技术的广告。在元素ABCD内可存在子元素,该子元素具有向用户指示需要滑动手势的箭头(或其他符号),并且该箭头(或其他符号)将元素标识为系统需要监控滑动手势的特定区域。如果用户触摸该特定区域而不是滑过该区域,则该区域可转变为不同的颜色或者提供一些其他类型的指示。某些实施例被配置为在四个不同的方向上检测滑动手势。系统将保证滑动手势去往左、右、上或下。另一方面,不会识别对角线滑动。
关于核心滑动手势识别技术的上述“封装”可以是HTML文件,该HTML文件具有例如其中嵌入了用于充当应用编程接口(API)的脚本块(如JavaScript)的文本、图像和视频内容的组合。可在外部JavaScript库中定义滑动手势行为,其中由使用标准<script>标签(具有标识外部库的“src”属性)的广告内容引用该外部JavaScript库。由HTML内容中的脚本块将行为应用于任何HTML内容,其向滑动库指示关于下列信息:它们应该将自己附加到页面的哪些部分、哪些部分应被用于滑动手势检测,以及如果检测到滑动手势应完成什么动作。
在滑动广告被配置为同样提供用户体验的情况下,该过程是相同的。承载广告内容的服务器可返回HTML内容块,该HTML内容块包含滑动手势识别“用户体验”。以与上文所讨论的类似的方式(即,类似于其中滑动广告没被配置为自身提供用户体验的情况)来组合该HTML内容和广告内容,以及请求和配置滑动手势行为。这些提供用户体验的滑动广告中的每一个可以是预先组装的以及静态的HTML代码块,而不是对进入的请求进行动态反应的某事物。
在某些实施例中,内容(如web页面)可具有项目,其中可能想要跨该项目来跟踪滑动手势。这要求无论何时用户在特定区域上执行滑动手势,都通知滑动脚本。当用户在触摸屏幕时,滑动手势识别技术正在后端对触摸模式做出决定,以确定用户是否意在做出滑动手势。当检测到滑动手势时,系统警告已请求被通知的任何实体(例如应用或web页面HTML代码)。在一些实施例中,请求通知的实体可以是仅使用检测的行为本身的第三方。在一些实施例中,请求通知的实体将成为滑动广告封装,该封装为第三方应用提供一些行为支持和用户接口(UI)支持。
在某些实施例中,可在检测到滑动手势时通知所有实体。如果一个特定实体是已经在系统中注册的并且请求了综合封装的一个实体,则系统将响应于检测到的滑动手势来采取某些动作,例如,关闭或点进广告。系统可在检测到滑动手势时执行任何必要的动作,并且接着“拆除”侦听器(即触摸检测监控器),因为不再需要它们。这样做是为了避免耗尽用户装置或者减慢会话。
在其他实施例中,系统可采取适当的动作并且继续侦听滑动手势。例如,可能存在其中滑动手势用于启动动画的广告,如软饮料的广告,其中用户滑过苏打瓶,并且动画接着示出正被倒入玻璃瓶并且释放气泡的软饮料。在启动动画之后侦听器可维持原状,使得用户可反复启动该动画。
在一个方面,公开的发明提供了一种用于在具有触摸输入显示器的用户装置上使用滑动手势识别来操作由承载服务器提供的内容的方法。该方法包括在承载服务器上存储内容,该内容结合了滑动手势识别模块以形成内容封装,其中,滑动手势识别模块与内容的至少一个可显示内容元素相关联。该方法还包括在承载服务器处接收来自用户装置的对内容封装的请求,并且将内容封装从承载服务器发送到用户装置,以由在用户装置上运行的应用进行显示。
进一步地,关于公开的发明的这个方面,滑动手势识别模块被配置为当在用户装置上显示至少一个可显示的内容元素时,执行滑动手势识别。滑动手势识别包括接收来自用户装置的触摸输入显示器的触摸输入数据。滑动手势识别还包括使用滑动手势识别模块访问在承载服务器上或者第二服务器上存储的滑动手势确定模块,以分析触摸输入数据来确定在至少一个可显示内容元素上是否已经出现了滑动手势。滑动手势识别还包括:如果确定了在至少一个可显示内容元素上已经出现了滑动手势,则将定义的动作应用于该至少一个可显示的内容元素。
附图说明
在考虑了下面结合附图的具体实施方式后,上述和其他目的以及公开的主题的优点将显而易见,附图中相同的引用符号指示全文中相同的部分,并且其中:
图1是根据公开的发明在用户装置和承载服务器上执行的方法的流程图,该用户装置实施滑动手势识别技术以操作由承载服务器提供的基于互联网的内容;
图2是用于在用户装置上执行滑动手势识别和内容操作的方法的流程图;
图3是用于在用户装置上针对广告执行滑动手势识别和内容操作的方法的流程图;
图4A和4B是用于在用户装置上执行滑动手势识别的方法的流程图。
具体实施方式
图1示出了在用户装置和承载服务器上执行的用于操作显示的内容的方法。用户装置实施滑动手势识别技术,以操作由承载服务器提供的并且在用户装置上显示的内容。该技术可包括各种形式的滑动手势识别软件代码,例如,基于HTML的脚本、编译模块、插件、小应用程序、应用编程接口(API)等。
用户装置可以是任何类型的用户计算装置,例如,移动装置(如智能电话、平板计算机等)或者具有允许用户做出滑动手势的触摸屏幕或轨迹板型元件的个人计算机或便携式计算机。用户装置例如经由互联网向承载服务器发起内容请求105。该内容请求可以例如是定向到特定web页面的统一资源定位符(URL)的形式。
承载服务器在接收到内容请求后,准备被请求的内容110以发送给用户装置。内容的准备包括常规的方面,例如使用超文本标记语言(HTML)和插件(如脚本或其他可执行元素)构成web页面。准备好的内容还可以包括广告内容,该广告内容可包括从其他服务器检索的内容。如在下文中进一步详细描述的,内容的准备还包括嵌入滑动技术配置115,其指定了内容将如何对在用户装置上执行的滑动手势做出反应。接着内容以内容响应120的形式被发送给用户装置。
用户装置接收由承载服务器发送的内容响应并且将滑动技术附加到内容的元素130,该元素例如是当在用户装置上显示时覆盖该内容的广告。用户装置例如在触摸屏幕上显示该内容,并且等待检测到用户触摸该屏幕135。一旦检测到触摸,则用户装置开始执行手势输入140,即触摸数据输入和累积,其为确定检测到的触摸是否实际上是用户的滑动手势提供了基础。
在用户停止触摸屏幕145之后,用户装置开始解释检测到的手势并且应用结果动作150。例如,如果触摸屏幕被解释为真实的滑动手势,则可从显示移除覆盖的广告内容,例如,可将广告从其覆盖的内容上“清除”。滑动手势可导致各种其它类型的动作。例如,滑动手势可启动动画或者显示的内容的其他可执行方面。在结果动作之后,用户接着可与下面的(即“非滑动”)内容交互155。另一方面,如果触摸屏幕没有被解释为真实的滑动手势,则用户装置将再次等待用户触摸屏幕135。
图2从用户装置的角度示出了用于执行滑动手势识别和内容操作的方法。如上文讨论的,用户装置发起内容请求205,其被发送给承载服务器。接着用户装置等待来自承载服务器的内容响应210。在接收到内容之后,该内容被显示,且具有嵌入的滑动手势识别技术215。由用户装置执行的用于检测和识别真实滑动手势的剩余步骤为如上文中关于图1所描述的那样。这些步骤包括:用户触摸屏幕220、开始手势输入225、用户停止触摸屏幕230、解释手势和应用动作235,以及用户与非滑动内容交互240。
图3示出了在广告覆盖于其他显示内容(例如web页面)上的特定情况下,用于在用户装置上执行滑动手势识别和内容操作的方法。如上文所述,用户装置从承载服务器接收将被显示的内容,并且将滑动手势识别附加到内容305。接着,用户装置等待检测到用户触摸装置屏幕310。当检测到触摸,用户装置开始执行手势输入315,即触摸输数据输入和累积。
作为手势输入315的部分,用户装置确定该触摸是否在广告上320。换句话说,确定该触摸是否在定义的开始元素内,例如,在由广告“窗口”或其他显示的图形元素限定的区域内。如果在,则用户装置持续地捕获关于屏幕触摸的数据(例如,位置和时间数据)直到用户停止触摸屏幕330。另一方面,如果触摸未被确定为在广告上325,则停止滑动手势识别并且等待下一次用户触摸335。
在滑动手势完成之后,即在用户停止触摸装置330之后,接着执行分析以确定检测到的手势是否是真实的滑动手势。如在下文中进一步详细讨论的,该分析涉及将某些标准应用于在滑动检测期间收集的触摸数据,如位置和时间数据。如果确定了触摸数据(即触摸“模式”)满足所应用的标准340,则向“侦听”滑动的各个应用输出信号350。另一方面,如果滑动手势没被识别为滑动手势345,则用户装置等待下一次触摸355。
如果检测到真实的滑动手势,则执行在附加到广告的滑动技术中“注册”的定义的动作360。例如,注册的动作可以是关闭覆盖的广告窗口。注册的动作还可以涉及启动动画或其他可执行元素。可使用各种形式的软件代码来实现注册的动作,例如,使用基于HTML的脚本。
在某些实施例中,尽管可用信号向侦听应用通知检测到滑动手势,但可由应用自身来采取任何进一步的动作,而不是由附加到广告的滑动技术来采取动作。例如,广告可以是包括可执行元素的显示的内容的部分,例如用Adobe Flash写入的模块,并且该元素可在用信号通知滑动手势时,执行移除覆盖的广告的操作。在这种情况下,在用信号向侦听器通知已经出现滑动350之后,接着附加的滑动技术等待下一次触摸365而不是执行动作。
如果在检测到滑动350之后由附加的滑动技术来应用动作360,则可执行一个步骤,其中将滑动技术与广告分离并且停止其滑动检测功能370,或者可选地,该滑动技术可继续滑动检测并且等待下一次触摸375。
图4A和4B示出了用于在用户装置上执行滑动手势识别的方法。如上文讨论的,滑动手势识别以用户触摸用户装置的屏幕402开始。可以通过用户装置的传统触摸检测电子设备来检测该触摸并用信号将该触摸通知给滑动手势识别技术。检测到触摸屏幕可被称做“触摸开始事件”404。在检测到触摸开始事件后,一系列标准被应用于基础的触摸数据。触摸数据可例如包括关于屏幕被触摸的位置的位置和时间信息。
应用于触摸数据的第一标准可以是对于是否使用了多个手指来触摸屏幕的确定406。接着是对于滑动检测是否允许多个手指触摸的确定408,其是可基于定义的偏好(例如,由内容提供者设置的偏好)设置的参数。如果在所考虑的特定配置下不允许多手指触摸,则该过程接着分离触摸处理器和计时器,并且等待下一个触摸开始事件。
如果允许多手指滑动手势,则该过程确定是否存在定义的“开始元素”41,例如具有限定的区域(例如显示的窗口)的覆盖广告。如果存在,则该过程确定触摸是否在开始元素的界限内开始412。如果触摸在开始元素上开始(或者,如果没有配置开始元素)41,则该过程启动“触摸移动”事件414和“触摸结束”事件侦听器416,其为检测触摸屏幕的一个(或多个)手指的移动以及触摸结束的例程。可由用户装置的传统触摸屏幕检测系统用信号通知这些动作。可选地,可基于对基础的触摸位置和时间数据的处理来检测触摸移动事件。
在检测到触摸开始事件并且附加了触摸移动和触摸结束侦听器之后,接着启动计时器。如果经过的时间418超过确定的时间限制420而没有检测到触摸移动事件,则可分离触摸检测处理器和计时器422,并且该过程将等待下一次触摸。
另一方面,如在下列段落中描述的,如果在超过时间限制之前检测到触摸移动事件424,则将多个标准应用于触摸移动数据。
该过程确定在触摸移动事件期间是否触摸了任何定义的元素426。例如,限定覆盖广告的窗口可被定义为“目标元素”。接着,该过程确定在移动期间触摸的元素是否是目标元素428。如果触摸的元素不是目标元素,则该过程可根据定义是否要求在目标元素上保持触摸(即滑动手势)的参数,来分离触摸处理器和计时器430。另一方面,如果触摸的元素是目标元素,则不需要在该过程的该分支上进行进一步的处理。
该过程基于位置数据特别是最后的触摸移动数据,来计算触摸移动的方向432。该过程接着确定计算的方向是否与之前的触摸移动数据一致434。换句话说,该过程确定滑动手势是否在单个方向上持续。可通过例如基于内容提供者或用户的偏好将参数设置为期望值,来指定允许移动从直线或特定方向(例如,水平穿过屏幕)变化的程度。应注意,在该过程的这一阶段所应用的方向标准与关于之前的触摸移动数据集合的触摸移动数据集合相关。该标准用于过滤掉具有从一个数据集合到下一个数据集合(例如,一个触摸位置到下一个触摸位置)的方向变化的移动,其中该方向变化太明显以至于不能允许继续处理该特定的移动。如下文讨论的,进一步的标准集合可作为整体被应用于滑动手势。
该过程还根据最后的触摸移动数据确定距离436,并且可基于计算的距离计算移动的速度438。这允许应用各种参数,例如过滤掉如下滑动运动的参数:该滑动运动被认为太慢或太快以至于不可能是真实的滑动手势。正如本文讨论的所有参数,可基于内容提供者、用户或系统设计者的偏好或者它们的任何组合来预先设置该参数。
在将上文讨论的各种标准应用于触摸移动数据之后,记录该触摸移动数据440。更具体地说,被记录的触摸移动数据可以是屏幕位置,其中用户正沿该屏幕位置做出滑动手势。如上文讨论的,对触摸移动数据的记录受制于由所应用的标准进行的“过滤”。随着用户执行滑动手势,该记录处理继续,直到接收到触摸结束事件442,这意味着用户已经从触摸屏幕移开了用户的一个(或多个)手指。
在接收到触摸结束事件之后,该过程可确定是否配置了“结束元素”444,这意味着特定元素已被定义为滑动手势必须在其上结束的元素446。例如,如果正接近覆盖广告做出滑动手势,则可设置一个参数,该参数要求整个滑动在广告的区域(例如显示的窗口)内。如果触摸结束不在定义的结束元素上,则滑动手势识别过程可终止(即可分离触摸处理器和计时器,并且将等待下一次触摸)。
在应用了结束元素标准之后,接着解释触摸移动数据(即与滑动手势的大部分或全部相关的数据)448,以确定是否应该将该滑动手势认为是真实的滑动手势。这些标准可包括对于是否在定义的时间限制内执行滑动手势的确定450。可能还有对于在定义的目标元素外面是否存在太多触摸位置的确定452。可能有对于滑动手势是否覆盖定义的最小距离的确定(例如,相对于显示的内容,滑动手势是否足够长)454。
滑动手势标准还可以包括对于是否在定义的允许方向(例如水平穿过屏幕)上执行了滑动手势的确定456。该标准还可以包括对于移动的路线是否足够接近直线458以有资格作为真实滑动的确定。
如果滑动手势数据满足所有的所应用的标准,则识别该滑动手势并且发信号向“侦听”应用通知已经出现了滑动手势460。
用于实现上文讨论的算法的滑动手势识别技术(或“滑动技术”)包括可在“独立配置”下应用的以及可被捆绑为“滑动广告”或“滑动内容”封装的部分的“行为”集合。术语“行为”指的是用户接口检测和响应滑动手势以及由用户经由用户接口输入机制(例如触摸屏幕)发起的其他输入的方式,如在面向对象软件中所实现的。
在独立滑动技术配置下,通过诸如JavaScript、应用编程接口(API)的脚本来公布行为,即,使得该行为对程序员可用。这允许行为被配置为与web页面的任何元素交互,该元素例如是要显示的覆盖或弹出图像。程序员可将这些行为元素结合到被配置为向用户呈现内容的代码中。在这种情况下,程序员还包括诸如脚本的代码,以处理可经由API接收的各种类型的检测到的行为。
该API是通过JavaScript对象集合来实现的,该JavaScript对象集合被结合到用于在用户装置上呈现内容的HTML代码中。该API还包括引用外部JavaScript文件的标签,该外部JavaScript文件可驻留在承载服务器和/或控制的公共内容传送网络(CDN)上。特别地,该外部文件实现上文讨论的滑动手势识别算法,以便经由JavaScript对象提供滑动手势检测信息。
在捆绑配置下,行为元素和检测到的行为处理均被捆绑为滑动广告或滑动内容封装的部分。在这种配置下,滑动广告封装可以是包括用于访问外部脚本文件的标签的模块化系统,该外部脚本文件定义了响应于检测到的行为要采取的行为和动作。还可以由外部文件提供其他的功能,例如,与在用户装置上呈现内容的方式相关的功能。
由滑动广告或滑动内容封装提供的捆绑的功能允许程序员创建主要在HTML中作用的内容,而使用JavaScript对象和外部JavaScript引用来向用户呈现内容和滑动手势功能。例如,可通过使用HTML标签(例如,在图像标签周围的锚标签)在HTML文件中包括诸如广告的内容。接着,可由滑动广告封装访问该标记的内容以与滑动手势功能一起显示。
下文讨论的JavaScript对象通过提供在逻辑分组中指定的已知(即枚举)值的集合,支持滑动手势识别技术行为。当与滑动手势行为API函数交互时,可引用这些对象的成员以用作值。
下列对象提供了枚举的值,该值定义了要被认为是真正的滑动手势,检测到的手势必须具有直线轨迹的程度:
SoMo.Swipe.LineDetection
·严格(Strict)
·平均(Even)
·宽松(Loose)
下列对象提供了已知的值,该值定义了要被认为是真正的滑动手势,检测到的手势必须朝向的方向:
SoMo.Swipe.Direction
·上(Up)
·下(Down)
·左(Left)
·右(Right)
在API中以两个函数的形式公布了滑动手势检测功能,这两个函数相互协作以允许添加和移除针对给定页面元素(例如,覆盖或弹出图像)上的滑动手势的“观测器”。在添加滑动手势观测器时,可指定一组选项,其允许控制和微调检测算法。
对观测器添加函数的使用如下:
SoMo.Swipe.addSwipeObserver
·targetElementld-(可选)将对其应用滑动手势检测的文档对象模型(DOM)元素的标识符。如果未指定,则假定为当前文档。
·startElementld-(可选)要被认为是真正的滑动手势,滑动手势必须在其上开始的DOM元素的标识符。如果未指定,则不限制。
·endElementld-(可选)要被认为是真正的滑动手势,滑动手势必须在其上结束的DOM元素的标识符。如果未指定,则不限制。
·ignoreSwipeElementlds-(可选)不应参与滑动检测的DOM元素标识符的阵列。这些元素将不允许为滑动检测处理触摸事件。通常当主要意在接收另一手势时,为该选项指定元素,例如正被点击的广告图像。如果未指定,则使用正常事件处理来应用滑动检测。
·allowMultipleFingers-(可选)指示是否可用多个手指来执行滑动手势的布尔值。如果未指定,则假定为假(false)。
·maximumTouchesOffTarget-(可选)对于仍被认为是滑动的手势,允许在目标元素外面的手指触摸的总数。如果没指定,则不限制。
·minimumDistanceVertical-(可选)有效垂直滑动手势要求的最小距离,以像素为单位。如果未指定,则假定50像素的距离。
·minimumDistanceHorizontal-(可选)有效水平滑动手势要求的最小距离,以像素为单位。如果未指定,则假定50像素的距离。
·maximumMovelnterval-(可选)要记录有效滑动手势,可在手指移动之间经过的最大时间量,以毫秒为单位。如果未指定,则假定250毫秒的时距。
·maximumGesturelnterval-(可选)要被认为是滑动,可在手势的开始和结束触摸之间经过的最大时间量,以毫秒为单位。如果未指定,则假定1250毫秒的时距。
·lineDetection-(可选)应该应用的路线检测的严格性。其可采取SoMo.Swipe.LineDetection对象中的已知值的形式,或者表示在验证手势是直线时使用的容忍因子的浮点百分比值。如果未指定,则假定为已知的LineDirection.Even值。
·allowedDirections-(可选)方向的阵列,其中滑动手势可在该方向上执行以被认为有效。该阵列的成员将采取SoMo.Swipe.Direction对象中的已知值的形式。如果未指定,则假定为四个基本方向。
·swipeCallbacks-(可选)当检测到满足指定选项的滑动手势时,将调用的函数的阵列。期望该函数具有function(args)的签名,其中,args将是包含下列成员的对象:targetElement和direction,其中值分别为滑动手势被观测的DOM元素和手势的方向。该方向将被表示为来自SoMo.Swipe.Direction对象的已知值。
返回:
表示被分配给滑动观测器和应用于手势检测的选项集合的唯一句柄的对象。必须将该对象传递给removeSwipeObserver函数,以适当地停止观测滑动手势。
下面是使用SoMo.Swipe.addSwipeObserver对象的例子:
对观测器移除函数的使用如下:
removeSwipeObserver
参数:当调用addSwipeObserver时返回的选项集合。例如:
var handle=SoMo.Swipe.addSwipeObserver(options);
SoMo.Swipe.removeSwipeObserve(handle);
下文是以JavaScript接口定义或接口接触的形式对上文给出的对象定义的再声明,其定义了用于使用JavaScript对象的结构。该定义包括例如对路线检测和方向的将被用作对象的参数的某些值的枚举。
以下是滑动行为引用的示例,其可在HTML页面中出现:
<script type="text/javascript"src="http://ef2083a34f8ec9f817e8-64e501cf4fb3a4al44bedf4c4ec2f5da.r2.cf2.rackcdn.com/static/swipe-ads/somo-swipe-behaviors.js"></script>
以下是在HTML页面中包括的滑动内容单元(例如广告单元)的示例:
尽管已在本说明书和附图中示出和描述了示例实施例,但本领域技术人员应理解,可对所示的和/或描述的示例实施例做出改动而不背离它们的原则和精神。

Claims (24)

1.一种用于在具有触摸输入显示器的用户装置上使用滑动手势识别来操作由承载服务器提供的内容的方法,所述方法包括:
存储定向到内容的第一统一资源定位符,所述内容与滑动手势识别模块结合以在所述承载服务器上形成超文本标记语言(HTML)文档,其中所述滑动手势识别模块与HTML文档内的HTML标签和至少一个可显示内容元素以及标识符相关联,所述HTML标签包括所述第一统一资源定位符,所述至少一个可显示内容元素包括定向到在与所述第一统一资源定位符的位置不同的位置处存储的图像的第二统一资源定位符;
在所述承载服务器处经由定向到所述HTML文档的第三统一资源定位符接收来自所述用户装置的对所述HTML文档的请求;以及
将所述HTML文档从所述承载服务器发送给所述用户装置,以由在所述用户装置上运行的web浏览器进行显示,
其中,所述滑动手势识别模块被配置为当由所述web浏览器在所述用户装置上显示所述HTML文档时,在所述至少一个可显示内容元素上执行滑动手势识别,所述滑动手势识别包括:
接收来自所述用户装置的触摸输入显示器的触摸输入数据,
访问在所述承载服务器或者第二服务器上存储的滑动手势确定模块以分析所述触摸输入数据,从而确定在所述至少一个可显示内容元素上是否已经出现滑动手势,
如果基于对所述触摸输入数据的分析确定了在所述至少一个可显示内容元素上已经出现滑动手势,则将定义的动作应用于所述至少一个可显示内容元素,以及
如果基于对所述触摸输入数据的分析确定了在所述至少一个可显示内容元素上还没有出现滑动手势,则重复所述滑动手势识别而不将定义的动作应用于所述至少一个可显示内容元素。
2.根据权利要求1所述的方法,其中,所述至少一个可显示内容元素采用覆盖在其他显示的内容上的窗口的形式。
3.根据权利要求1所述的方法,其中,所述至少一个可显示内容元素采用被显示为形成其他显示的内容的部分的窗口的形式。
4.根据权利要求1所述的方法,其中,所述定义的动作包括消除所述至少一个可显示内容元素。
5.根据权利要求1所述的方法,其中,所述定义的动作包括激活所述第一统一资源定位符。
6.根据权利要求1所述的方法,其中,所述滑动手势识别模块包括包含脚本对象的应用编程接口(API)。
7.根据权利要求6所述的方法,其中,所述滑动手势识别模块包括用于响应于确定的滑动手势来控制触摸显示器的代码。
8.根据权利要求6所述的方法,其中,所述内容包括用于响应于确定的滑动手势来控制触摸显示器的代码。
9.根据权利要求1所述的方法,其中,使用在所述滑动手势识别模块中的外部脚本文件引用标签中的第三统一资源定位符来访问所述滑动手势确定模块。
10.根据权利要求1所述的方法,其中,所述滑动手势确定模块通过下列操作确定在所述至少一个可显示内容元素上是否已经出现滑动手势:
基于从所述用户装置的触摸输入显示器接收的触摸输入数据,检测用户触摸的开始位置;
确定是否已经定义了开始元素,所述开始元素指定了所述触摸屏幕的这样一个区域,触摸必须在所述区域中开始,以便将所述触摸确定为滑动手势;
如果已经定义了所述开始元素:
确定用户触摸的开始位置是否出现在定义的开始元素的界限内,以及
如果用户触摸的开始位置在定义的开始元素的界限内,则指示触摸移动事件,所述触摸移动事件发起所述触摸输入数据的累积,以便进行分析从而确定是否已经出现滑动手势,以及
如果用户触摸的开始位置不在定义的开始元素的界限内,则终止滑动手势确定;以及,
如果还没有定义所述开始元素,则指示触摸移动事件。
11.根据权利要求10所述的方法,还包括:
基于从所述用户装置的触摸输入显示器接收的触摸输入数据,检测用户触摸的结束位置;
确定是否已经定义了结束元素,所述结束元素指定了所述触摸屏幕的这样一个区域,触摸必须在所述结束元素指定的所述区域中结束,以便将所述触摸确定为滑动手势;
如果已经定义了所述结束元素:
确定用户触摸的结束位置是否出现在定义的结束元素的界限内,以及
如果用户触摸的结束位置在定义的结束元素的界限内,则指示触摸结束事件,所述触摸结束事件发起对累积的触摸输入数据的分析,以确定是否已经出现滑动手势,以及
如果用户触摸的结束位置不在定义的结束元素的界限内,则终止滑动手势确定;以及,
如果还没有定义所述结束元素,则指示触摸结束事件。
12.根据权利要求1所述的方法,其中,所述滑动手势确定模块包括定义容忍设置的参数,该参数指示允许所述触摸输入数据从直线变化并且仍然得到已经出现滑动手势的确定的程度。
13.一种存储用于使处理器执行方法的指令的非暂时性存储介质,所述方法用于在具有触摸输入显示器的用户装置上使用滑动手势识别来操作由承载服务器提供的内容,所述方法包括:
存储定向到内容的第一统一资源定位符,所述内容与滑动手势识别模块结合以在所述承载服务器上形成超文本标记语言(HTML)文档,其中所述滑动手势识别模块与HTML文档内的HTML标签和至少一个可显示内容元素以及标识符相关联,所述HTML标签包括所述第一统一资源定位符,所述至少一个可显示内容元素包括定向到在与所述第一统一资源定位符的位置不同的位置处存储的图像的第二统一资源定位符;
在所述承载服务器处经由定向到所述HTML文档的第三统一资源定位符接收来自所述用户装置的对所述HTML文档的请求;以及
将所述HTML文档从所述承载服务器发送给所述用户装置,以由在所述用户装置上运行的web浏览器进行显示,
其中,所述滑动手势识别模块被配置为当由所述web浏览器在所述用户装置上显示所述HTML文档时,在所述至少一个可显示内容元素上执行滑动手势识别,所述滑动手势识别包括:
接收来自所述用户装置的触摸输入显示器的触摸输入数据,
访问在所述承载服务器或者第二服务器上存储的滑动手势确定模块以分析所述触摸输入数据,从而确定在所述至少一个可显示内容元素上是否已经出现滑动手势,以及
如果基于对所述触摸输入数据的分析确定了在所述至少一个可显示内容元素上已经出现滑动手势,则将定义的动作应用于所述至少一个可显示内容元素,以及
如果基于对所述触摸输入数据的分析确定了在所述至少一个可显示内容元素上还没有出现滑动手势,则重复所述滑动手势识别而不将定义的动作应用于所述至少一个可显示内容元素。
14.根据权利要求13所述的存储介质,其中,所述至少一个可显示内容元素采用覆盖在其他显示的内容上的窗口的形式。
15.根据权利要求13所述的存储介质,其中,所述至少一个可显示内容元素采用被显示为形成其他显示的内容的部分的窗口的形式。
16.根据权利要求13所述的存储介质,其中,所述定义的动作包括消除所述至少一个可显示内容元素。
17.根据权利要求13所述的存储介质,其中,所述定义的动作包括激活所述第一统一资源定位符。
18.根据权利要求13所述的存储介质,其中,所述滑动手势识别模块包括包含脚本对象的应用编程接口(API)。
19.根据权利要求18所述的存储介质,其中,所述滑动手势识别模块包括用于响应于确定的滑动手势来控制触摸显示器的代码。
20.根据权利要求18所述的存储介质,其中,所述内容包括用于响应于确定的滑动手势来控制触摸显示器的代码。
21.根据权利要求13所述的存储介质,其中,使用在所述滑动手势识别模块中的外部脚本文件引用标签中的第三统一资源定位符来访问所述滑动手势确定模块。
22.根据权利要求13所述的存储介质,其中,所述滑动手势确定模块通过下列操作确定在所述至少一个可显示内容元素上是否已经出现滑动手势:
基于从所述用户装置的触摸输入显示器接收的触摸输入数据,检测用户触摸的开始位置;
确定是否已经定义了开始元素,所述开始元素指定了所述触摸屏幕的这样一个区域,触摸必须在所述区域中开始,以便将所述触摸确定为滑动手势;
如果已经定义了所述开始元素:
确定用户触摸的开始位置是否出现在定义的开始元素的界限内,以及
如果用户触摸的开始位置在定义的开始元素的界限内,则指示触摸移动事件,所述触摸移动事件发起所述触摸输入数据的累积,以便进行分析从而确定是否已经出现滑动手势,以及
如果用户触摸的开始位置不在定义的开始元素的界限内,则终止滑动手势确定;以及,
如果还没有定义所述开始元素,则指示触摸移动事件。
23.根据权利要求22所述的存储介质,还包括用于下列操作的指令:
基于从所述用户装置的触摸输入显示器接收的触摸输入数据,检测用户触摸的结束位置;
确定是否已经定义了结束元素,所述结束元素指定了所述触摸屏幕的这样一个区域,触摸必须在所述结束元素指定的所述区域中结束,以便将所述触摸确定为滑动手势;
如果已经定义了所述结束元素:
确定用户触摸的结束位置是否出现在定义的结束元素的界限内,以及
如果用户触摸的结束位置在定义的结束元素的界限内,则指示触摸结束事件,所述触摸结束事件发起对累积的触摸输入数据的分析,以确定是否已经出现滑动手势,以及
如果用户触摸的结束位置不在定义的结束元素的界限内,则终止滑动手势确定;以及,
如果还没有定义所述结束元素,则指示触摸结束事件。
24.根据权利要求13所述的存储介质,其中,所述滑动手势确定模块包括定义容忍设置的参数,该参数指示允许所述触摸输入数据从直线变化并且仍然得到已经出现滑动手势的确定的程度。
CN201380071413.2A 2012-11-28 2013-11-27 使用滑动手势识别技术的内容操作 Active CN104937525B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261730899P 2012-11-28 2012-11-28
US61/730899 2012-11-28
US13/932,898 US20140149916A1 (en) 2012-11-28 2013-07-01 Content manipulation using swipe gesture recognition technology
US13/932898 2013-07-01
PCT/US2013/072186 WO2014085555A1 (en) 2012-11-28 2013-11-27 Content manipulation using swipe gesture recognition technology

Publications (2)

Publication Number Publication Date
CN104937525A CN104937525A (zh) 2015-09-23
CN104937525B true CN104937525B (zh) 2018-01-23

Family

ID=50774456

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380071413.2A Active CN104937525B (zh) 2012-11-28 2013-11-27 使用滑动手势识别技术的内容操作

Country Status (7)

Country Link
US (6) US20140149916A1 (zh)
EP (1) EP2926227A4 (zh)
JP (1) JP6309020B2 (zh)
CN (1) CN104937525B (zh)
AU (1) AU2013352207A1 (zh)
CA (1) CA2892999A1 (zh)
WO (1) WO2014085555A1 (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014155196A1 (en) 2013-03-29 2014-10-02 Orange Method to unlock a screen using a touch input
US20140365319A1 (en) * 2013-06-10 2014-12-11 Google Inc. Mechanism for managing online content on touchscreen devices in the flow of an online publication
US10402060B2 (en) * 2013-06-28 2019-09-03 Orange System and method for gesture disambiguation
US10220304B2 (en) * 2013-10-14 2019-03-05 Microsoft Technology Licensing, Llc Boolean/float controller and gesture recognition system
KR102140294B1 (ko) * 2014-01-16 2020-07-31 삼성전자주식회사 전자 장치의 광고 방법 및 그 전자 장치
US11064008B2 (en) * 2014-05-05 2021-07-13 Usablenet Inc. Methods for facilitating a remote interface and devices thereof
CN104156139A (zh) * 2014-08-06 2014-11-19 广州三星通信技术研究有限公司 阻止链接广告页面的方法和装置
US10891690B1 (en) 2014-11-07 2021-01-12 Intuit Inc. Method and system for providing an interactive spending analysis display
US11442617B1 (en) * 2015-06-12 2022-09-13 Intuit, Inc. Committing data in electronic devices using swiping gestures
US10503264B1 (en) 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
CN106354392B (zh) * 2015-07-16 2019-06-28 阿里巴巴集团控股有限公司 网页操作方法及装置
US10360750B2 (en) * 2015-11-03 2019-07-23 Capital One Services, Llc Systems and methods for pattern generation and security features
US10530731B1 (en) 2016-03-28 2020-01-07 Snap Inc. Systems and methods for chat with audio and video elements
US20170310673A1 (en) * 2016-04-20 2017-10-26 Huami Inc. Security system with gesture-based access control
KR20190021724A (ko) * 2017-08-23 2019-03-06 삼성전자주식회사 보안성이 향상된 이미지 표시 방법 및 이를 수행하는 전자 장치
CN108280676A (zh) * 2018-01-04 2018-07-13 广州阿里巴巴文学信息技术有限公司 一种基于滑动视窗进行广告展示的方法、装置和终端设备
CN109309852B (zh) * 2018-11-06 2022-05-27 杨富山 视频广告处理方法、终端及介质
CN111046290A (zh) * 2019-12-13 2020-04-21 珠海格力电器股份有限公司 一种广告处理的方法、装置、电子设备及存储介质
CN112416236A (zh) * 2020-03-23 2021-02-26 上海幻电信息科技有限公司 基于web页面的手势封装、交互方法、设备和存储介质
CN111610855A (zh) * 2020-03-30 2020-09-01 北京爱接力科技发展有限公司 一种手势去广告的方法、装置、终端和计算机可读存储介质

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020062481A1 (en) 2000-02-25 2002-05-23 Malcolm Slaney Method and system for selecting advertisements
US7047503B1 (en) 2001-03-28 2006-05-16 Palmsource, Inc. Method and apparatus for the selection of records
US8261306B2 (en) 2001-12-11 2012-09-04 Koninklijke Philips Electronics N.V. System for and method of shopping through television
EP1779373A4 (en) 2004-08-16 2011-07-13 Maw Wai-Lin VIRTUAL KEYBOARD INPUT DEVICE
US8326775B2 (en) * 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7900225B2 (en) 2007-02-20 2011-03-01 Google, Inc. Association of ads with tagged audiovisual content
US20080225037A1 (en) 2007-03-15 2008-09-18 Basimah Khulusi Apparatus and method for truncating polyhedra
US8059101B2 (en) 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US8174502B2 (en) * 2008-03-04 2012-05-08 Apple Inc. Touch event processing for web pages
US8717305B2 (en) * 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8467991B2 (en) * 2008-06-20 2013-06-18 Microsoft Corporation Data services based on gesture and location information of device
US7996422B2 (en) 2008-07-22 2011-08-09 At&T Intellectual Property L.L.P. System and method for adaptive media playback based on destination
US8856690B2 (en) 2008-10-31 2014-10-07 Sprint Communications Company L.P. Associating gestures on a touch screen with characters
US8285499B2 (en) * 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9684521B2 (en) * 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8839155B2 (en) 2009-03-16 2014-09-16 Apple Inc. Accelerated scrolling for a multifunction device
US8566045B2 (en) * 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9485339B2 (en) 2009-05-19 2016-11-01 At&T Mobility Ii Llc Systems, methods, and mobile devices for providing a user interface to facilitate access to prepaid wireless account information
CN102033881A (zh) * 2009-09-30 2011-04-27 国际商业机器公司 用于识别网页中的广告的方法和系统
US8432368B2 (en) 2010-01-06 2013-04-30 Qualcomm Incorporated User interface methods and systems for providing force-sensitive input
EP2531969A4 (en) * 2010-02-01 2013-12-04 Jumptap Inc INTEGRATED ADVERTISING SYSTEM
US20110288913A1 (en) * 2010-05-20 2011-11-24 Google Inc. Interactive Ads
WO2011146141A1 (en) * 2010-05-21 2011-11-24 Telecommunication Systems, Inc. Personal wireless navigation system
US9110581B2 (en) * 2010-10-05 2015-08-18 Citrix Systems, Inc. Touch support for remoted applications
WO2012068551A1 (en) * 2010-11-18 2012-05-24 Google Inc. Surfacing off-screen visible objects
US20120130822A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Computing cost per interaction for interactive advertising sessions
US20120131454A1 (en) * 2010-11-24 2012-05-24 Siddharth Shah Activating an advertisement by performing gestures on the advertisement
US8660978B2 (en) * 2010-12-17 2014-02-25 Microsoft Corporation Detecting and responding to unintentional contact with a computing device
WO2012142055A1 (en) 2011-04-11 2012-10-18 Zinio, Llc Reader with enhanced user functionality
US10222974B2 (en) 2011-05-03 2019-03-05 Nokia Technologies Oy Method and apparatus for providing quick access to device functionality
US8751972B2 (en) * 2011-09-20 2014-06-10 Google Inc. Collaborative gesture-based input language
US9229568B2 (en) * 2011-09-30 2016-01-05 Oracle International Corporation Touch device gestures
US20140007018A1 (en) 2011-10-05 2014-01-02 Fooncrazy Corp Summation of tappable elements results/actions by swipe gestures
US8719734B2 (en) 2011-11-16 2014-05-06 Microsoft Corporation Two-stage swipe gesture recognition
US8954890B2 (en) 2012-04-12 2015-02-10 Supercell Oy System, method and graphical user interface for controlling a game
US20130275924A1 (en) 2012-04-16 2013-10-17 Nuance Communications, Inc. Low-attention gestural user interface
US20140026105A1 (en) 2012-07-18 2014-01-23 Research In Motion Limited Method and Apparatus Pertaining to a Gesture-Controlled Snooze Instruction
US9696879B2 (en) 2012-09-07 2017-07-04 Google Inc. Tab scrubbing using navigation gestures
US8487897B1 (en) 2012-09-12 2013-07-16 Google Inc. Multi-directional calibration of touch screens

Also Published As

Publication number Publication date
JP6309020B2 (ja) 2018-04-11
US20160202900A1 (en) 2016-07-14
CN104937525A (zh) 2015-09-23
CA2892999A1 (en) 2014-06-05
AU2013352207A1 (en) 2015-07-16
US11461536B2 (en) 2022-10-04
EP2926227A1 (en) 2015-10-07
US10089003B2 (en) 2018-10-02
US10831363B2 (en) 2020-11-10
US20210011600A1 (en) 2021-01-14
US20140149916A1 (en) 2014-05-29
JP2016502200A (ja) 2016-01-21
EP2926227A4 (en) 2016-08-03
US20190018566A1 (en) 2019-01-17
US20140304609A1 (en) 2014-10-09
WO2014085555A1 (en) 2014-06-05
US20140245164A1 (en) 2014-08-28
US9218120B2 (en) 2015-12-22

Similar Documents

Publication Publication Date Title
CN104937525B (zh) 使用滑动手势识别技术的内容操作
CN103930885B (zh) 测量网页渲染时间
WO2015188674A1 (en) Method and apparatus for displaying information content
US9870578B2 (en) Scrolling interstitial advertisements
US9275398B1 (en) Obtaining metrics for client-side display of content
EP1894081A2 (en) Web usage overlays for third-party web plug-in content
WO2016137917A1 (en) Interactive dynamic push notifications
WO2014040534A1 (en) Method and apparatus for manipulating and presenting images included in webpages
JP5563703B2 (ja) コンテンツ配信装置、コンテンツ配信方法、コンテンツ配信プログラム及び端末用プログラム
US11954171B2 (en) Frustration scores for flows, page views, webpages, sessions, and websites
US10838585B1 (en) Interactive content element presentation
US11954421B2 (en) Reducing data usage for rendering state changes
WO2023209638A1 (en) Determining zone identification reliability
US20230185444A1 (en) Multimedia information playback and apparatus, electronic device, and computer storage medium
US11887213B2 (en) Image cache for session replays of mobile applications
US20230350964A1 (en) Platform independent session player
US20240037575A1 (en) Product exposure metric
US11947899B2 (en) Determining text visibility during user sessions
US11947573B2 (en) Determining zone identification reliability
US11675867B1 (en) Retroactive and predefined text search
US20230199083A1 (en) Providing event streams and analytics for activity on web sites
US20240143137A1 (en) Interactive heatmaps for websites
WO2023209637A1 (en) Determining conditions for a set of webpages
WO2023209658A1 (en) Platform independent session player
WO2023119202A1 (en) Providing event streams and analytics for activity on web sites

Legal Events

Date Code Title Description
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200110

Address after: new jersey

Patentee after: Swaprussian Co., Ltd

Address before: new jersey

Patentee before: SOMO AUDIENCE CORP