CN106557158A - 触觉captcha - Google Patents
触觉captcha Download PDFInfo
- Publication number
- CN106557158A CN106557158A CN201610232788.8A CN201610232788A CN106557158A CN 106557158 A CN106557158 A CN 106557158A CN 201610232788 A CN201610232788 A CN 201610232788A CN 106557158 A CN106557158 A CN 106557158A
- Authority
- CN
- China
- Prior art keywords
- tactile
- user
- answer
- challenge
- captcha
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/316—User authentication by observing the pattern of computer usage, e.g. typical user behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/36—User authentication by graphic or iconic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2103—Challenge-response
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2133—Verifying human interaction, e.g., Captcha
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开一个方面涉及触觉CAPTCHA。具体公开了一种系统执行触觉挑战‑响应功能。该系统生成一个或多个触觉效果,将一个或多个触觉效果作为触觉挑战问题经由触觉输出设备提供给用户,并且从用户接收对应于触觉挑战问题的答案。然后,该系统基于人类感知模型确定答案是否对应于触觉挑战问题的正确答案。一种实施例预测触觉挑战问题的正确答案,比较正确答案与从用户接收到的答案,并且当答案匹配正确答案时,确定用户是人类。一种实施例在答案不匹配正确答案时重复生成、提供、接收、预测和比较。
Description
技术领域
一种实施例一般而言针对在线系统,并且更具体而言,针对确定用户的特点的在线系统。
背景技术
“触觉”涉及通过向用户施加触觉反馈效果(即,“触觉效果”)利用用户的触摸感觉的触感与力反馈技术,其中的触觉反馈效果诸如力、振动和运动。诸如移动设备、触摸屏设备和个人计算机的设备可以配置为生成触觉效果。一般而言,对能够生成触觉效果的嵌入式硬件(诸如致动器)的调用可以在设备的操作系统(“OS”)中被编程。这些调用规定要播放的触觉效果。例如,当用户利用例如按钮、触摸屏、控制杆、操纵杆、轮子或者某种其它控制装置与设备交互时,设备的OS可以通过控制电路系统向嵌入式硬件发送播放命令。然后,嵌入式硬件产生适当的触觉效果。
发明内容
一种实施例是执行触觉挑战-响应功能的系统。该系统生成一个或多个触觉效果、将这一个或多个触觉效果作为触觉挑战问题经由触觉输出设备提供给用户,并从用户接收对应于触觉挑战问题的答案。然后,该系统基于人类感知模型确定答案是否对应于触觉挑战问题的正确答案。一种实施例预测触觉挑战问题的正确答案,比较正确答案与从用户接收到的答案,并且当答案匹配正确答案时确定用户是人类。在一种实施例中,预测是基于人类感知模型、致动器响应或相对于用户的致动器位置当中一个或多个来执行的。当答案不匹配正确答案时,一种实施例重复生成、提供、接收、预测和比较。
附图说明
图1是根据本发明实施例的计算机服务器/系统的框图。
图2是根据本发明实施例、当执行触觉功能时图1的触觉全自动区分计算机和人类的公开图灵测试(“CAPTCHA”)模块的操作的流程图。
图3-5是根据本发明实施例、由触觉系统执行的触觉功能的流程图。
具体实施方式
一种实施例提供触觉全自动区分计算机和人类的公开图灵测试(“CAPTCHA”),以确定网站或在线服务的用户是人类还是自动化的。触觉CAPTCHA可以通过选择触觉任务来提供,对于这种触觉任务,人类用户的预期响应如果没有对应的触感感知知识是难以猜测的。人类用户的响应可以基于对人类感知、统计用户信息(例如,年龄、性别、职业,等等)、致动器特性和/或致动器是否在用户的范围内建模的功能来预测。所请求的用户响应可以经由用户界面(“UI”)、触觉输入设备或者能够从用户接收视觉、音频、触觉或任何其它输入的任何其它设备来接收。一种实施例还提供辅助触觉CAPTCHA,以收集关于触感感知的信息。另一实施例提供触觉CAPTCHA,以认证用户。相应地,各种实施例提供触觉挑战-响应机制,以获得关于用户的信息。
图1示出了根据本发明一种实施例的系统10的框图。在一种实施例中,系统10是移动设备的一部分,并且系统10为该移动设备提供触觉功能。在另一种实施例中,系统10是结合到以任何方式与用户接触的物体(例如,家具)中的设备的一部分,并且系统10为这种设备提供触觉功能。例如,在一种实施例中,系统10是可穿戴设备的一部分,并且系统10为该可穿戴设备提供触觉功能。可穿戴设备的例子包括腕带、头带、眼镜、戒指、腿带、集成到衣服中的阵列,或者用户可以穿戴在身体上或可以由用户持有的任何其它类型的设备。一些可穿戴设备可以是“触觉启用的”,这意味着它们包括生成触觉效果的机制。在另一种实施例中,系统10与设备(例如,移动设备或可穿戴设备)分离,并且远程地为设备提供触觉功能。
虽然被示为单个系统,但系统10的功能性可以实现为分布式系统。系统10包括用于传送信息的总线12或者其它通信机制,以及耦合到总线12的用于处理信息的处理器22。处理器22可以是任何类型的通用或专用处理器。系统10还包括用于存储信息和要由处理器22执行的指令的存储器14。存储器14可以包括随机存取存储器(“RAM”)、只读存储器(“ROM”)、诸如磁或光盘的静态储存器或者任何其它类型的计算机可读介质的任意组合。
计算机可读介质可以是可以被处理器22访问的任何可用介质并且可以包括易失性和非易失性介质两者、可移除和不可移除介质、通信介质以及存储介质。通信介质可以包括计算机可读指令、数据结构、程序模块或诸如载波或其它传输机制的调制数据信号中的其它数据,并且可以包括本领域中已知的任何其它形式的信息交付介质。存储介质可以包括RAM、闪存存储器、ROM、可擦除可编程只读存储器(“EPROM”)、电可擦除可编程只读存储器(“EEPROM”)、寄存器、硬盘、可移除盘、光盘只读存储器(“CD-ROM”),或者本领域中已知的任何其它形式的存储介质。
在一种实施例中,存储器14存储在被处理器22执行时提供功能的软件模块。在一种实施例中,模块包括为系统10以及移动设备的剩余部分提供操作系统功能的操作系统15。模块还包括提供触觉功能的触觉CAPTCHA模块16,如本文更详细公开的。在某些实施例中,触觉CAPTCHA模块16可以包括多个模块,其中每个模块提供用于提供触觉效果的具体个别功能。系统10通常包括一个或多个附加应用模块18,以包括附加的功能,诸如由Immersion公司提供的IntegratorTM软件。
在从远端源发送和/或接收数据的实施例中,系统10还包括通信设备20,诸如网络接口卡,以提供移动无线网络通信,诸如红外线、无线电、Wi-Fi或者蜂窝网络通信。在其它实施例中,通信设备20提供有线网络连接,诸如以太网连接或调制解调器。
处理器22还经由总线12耦合到显示器24,诸如液晶显示器(“LCD”),用于向用户显示图形表示或UI。显示器24可以是配置为从处理器22发送和接收信号的触摸敏感输入设备,诸如触摸屏,并且可以是多点触摸触摸屏。
在一种实施例中,系统10还包括致动器26。处理器22可以把与触觉效果关联的触觉信号发送到致动器26,致动器26又输出诸如振动触感触觉效果、静电摩擦触觉效果或者变形触觉效果的触觉效果。致动器26包括致动器驱动电路。致动器26可以是例如电动机、电磁致动器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质块电动机(“ERM”)、线性共振致动器(“LRA”)、压电致动器、高带宽致动器、电活性聚合物(“EAP”)致动器,等等。在备选实施例中,除致动器26之外,系统10还可以包括一个或多个附加的致动器(在图1中未示出)。作为替代或附加地,致动器26可以根据任何其它触觉技术,诸如热显示(例如,热/冷)、电触感刺激(即,电流对触感受体的刺激)、动觉反馈等等,操作。还有另一备选或附加实施例可以实现肌肉电刺激,诸如需要用户确定系统正在让他们做什么运动(一个或多个)和/或让他们感觉像做什么的任务。
致动器26是触觉输出设备的例子,其中触觉输出设备是被配置为响应于驱动信号而输出任何形式的触觉效果的设备,其中的触觉效果诸如振动触感触觉效果、静电摩擦触觉效果、变形触觉效果等等。相应地,在备选实施例中,致动器26可以被某种其它类型的触觉输出设备(未示出)代替,该触觉输出设备可以是非机械或非振动设备,诸如使用静电摩擦(“ESF”)或超声波表面摩擦(“USF”)的设备,利用超声波触觉换能器引起声辐射压力的设备,使用触觉基板和柔性或可变形表面或形状改变设备并可以附连到用户身体的设备,或者提供投射的触觉输出(诸如利用空气喷射的一股空气、基于激光的抛射物、基于声音的抛射物等等)的设备。
例如,一种实施例提供基于激光器的抛射物,其中激光能量电离在浓缩区域半空中的空气分子,以提供等离子体(正和负粒子的浓缩的混合物)。在一种实施例中,激光器可以是飞秒激光器,它以非常快和非常强烈的速度发射脉冲,并且激光越快,对于人类触摸更安全。抛射物可以作为触觉和交互式的全息图显示。当等离子体与用户皮肤接触时,用户可以感测在浓缩区域中被激励的空气分子的振动。用户皮肤上的感觉是由当用户与半空中的等离子体交互时产生的波引起的。相应地,触觉效果可以通过使用户经受这种浓缩区域而被提供给用户。作为替代或附加地,触觉效果可以通过使用户经受由定向声能生成的振动而被提供给用户。
另外,在其它备选实施例中,系统10可以不包括致动器26或任何其它触觉输出设备,并且与系统10分离的设备包括生成触觉效果的致动器或者另一触觉输出设备,并且系统10通过通信设备20把生成的触觉效果信号发送到那个设备。
在一种实施例中,系统10还包括扬声器28。处理器22可以将音频信号发送到扬声器28,而扬声器再输出音频效果。扬声器28可以是,例如,动态扩音器、电动力学扩音器、压电扩音器、磁致伸缩扩音器、静电扩音器、丝带和平面磁性扩音器、弯曲波扩音器、平板扩音器、海尔(heil)空气运动换能器、等离子体弧扬声器、数字式扩音器等等。在备选实施例中,除了扬声器28,系统10还可以包括一个或多个附加的扬声器(未在图1中示出)。另外,在其它备选实施例中,系统10可以不包括扬声器28,并且与系统10分离的设备包括输出音频效果的扬声器,并且系统10通过通信设备20向那个设备发送音频信号。
在一种实施例中,系统10还包括传感器30。传感器30可以被配置为检测能量的形式或者其它的物理特性,诸如但不限于声音、运动、加速度、生物信号、距离、流量、力/压力/应变/弯曲、湿度、线性位置、朝向/倾度、射频、旋转位置、旋转速度、开关的操纵、温度、振动、可见光强度等等。传感器30还可以被配置为把检测到的能量或者其它物理属性转换成电信号或者代表虚拟传感器信息的任何信号。传感器30可以是任何设备,诸如但不限于加速计、皮肤电反应传感器、电容传感器、霍尔效应传感器、红外线传感器、超声传感器、压力传感器、光纤传感器、屈曲传感器(或者弯曲传感器)、力敏感电阻器、负载传感器、LuSense CPS2 155、微型压力换能器、压电传感器、应变计、湿度计、线性位置触摸传感器、线性电位计(或者滑块)、线性可变差分变压器、指南针、测斜器、磁性标签(或者射频标识标签)、旋转编码器、旋转电位计、陀螺仪、通断开关、温度传感器(诸如温度计、热电偶、电阻温度检测器、热敏电阻、温度-换能集成电路等等)、麦克风、光度计、高度计、生物监测器、相机、光敏电阻器等等,或者输出心电图、脑电图、肌电图、眼电图、腭电图或任何其它电生理学输出的任何设备。
在备选实施例中,除了传感器30之外,系统10还可以包括一个或多个附加的传感器(图1中未示出)。在这些实施例的一些当中,处理器30和一个或多个附加传感器可以是传感器阵列的一部分,或者是传感器的某种其它类型的集合/布置。另外,在其它备选实施例中,系统10可以不包括传感器30,并且与系统10分离的设备包括检测能量形式或其它物理特性,并且将检测到的能量或其它物理特性转换成电信号或表示虚拟传感器信息的其它类型信号的传感器。然后,设备可以将转换后的信号通过通信设备20发送到系统10。
一般而言,CAPTCHA是自动化测试,用以确定网络上的用户(例如,互联网网站或任何在线服务的用户)是人还是自动化的“机器人”(即,是经web运行自动化任务的软件应用的网络/互联网机器人)。例如,CAPTCHA通常被用来验证在在线服务上创建帐户或请求定价信息的用户是真实的人而不是自动化的机器人。CAPTCHA通过要求用户执行任务来实现挑战-响应认证。例如,一些已知的系统使用视觉CAPTCHA并且要求用户执行可视任务,诸如键入在扭曲图像中显示的字母和数字。
一些已知的系统使用CAPTCHA请用户识别两个字母串,包括用于挑战-响应测试的已知串和用于收集信息的未知串。例如,reCAPTCHA系统使用第二个字母串来通过校正在光学字符识别(“OCR”)中的错误来改善扫描书籍的准确性。
使用视觉CAPTCHA的已知系统的一个缺点是计算机视觉算法在不断提高,迫使视觉CAPTCHA算法变得越来越复杂,使得它们可以提供容易让人执行但难以让计算机执行的视觉任务。其结果是,用户可能无法识别CAPTCHA的扭曲的词,并因此可能在能够正确地解答出一个之前请求多个词。
使用视觉CAPTCHA的已知系统的另一个缺点是视觉CAPTCHA是具有视觉障碍的用户无法访问的。一些已知的系统对有视觉障碍的用户使用备选CAPTCHA。例如,一些已知的系统为这样的用户提供基于音频的解决方案和/或要求其呼叫操作人员。
与已知系统相反,本发明的实施例实现触觉CAPTCHA。即,一些实施例提供触觉任务作为测试来确定网站或在线服务的用户是否是人类。用于提供触觉CAPTCHA的触觉效果可以通过已知是用户可访问或可用的或者在用户附近的任何设备产生的,这些设备诸如是智能电话、平板电脑、可穿戴设备、触觉鼠标或本文所描述的任何其它触觉设备或介质。另外,用于提供触觉CAPTCHA的触觉效果可以根据任何触觉操作原理,诸如振动、变形、挤压、敲击、摩擦、投射的触觉、或本文描述的任何其它触觉操作原理。
图2是根据本发明实施例的当执行触觉功能时图1的触觉CAPTCHA模块16的流程图。在一种实施例中,图2(以及下面的图3-5)的流程图的功能是由存储在存储器或者其它计算机可读或有形介质中并且由处理器执行的软件实现的。在其它实施例中,功能可以由硬件(例如,通过使用专用集成电路(“ASIC”)、可编程门阵列(“PGA”)、现场可编程门阵列(“FPGA”)等等)、或者硬件和软件的任意组合来执行。
在202,一个或多个触觉效果被生成,并且在204,这一个或多个触觉效果经由触觉输出设备作为触觉挑战问题被提供给用户。
在206,从用户接收对应于触觉挑战问题的答案,并且在208,基于人类感知模型确定答案是否对应于对触觉挑战问题的正确答案。在一种实施例中,人类感知模型是基于心理物理学,这是研究物理刺激和主观响应之间的联系的科学学科,如例如在“Measuring,estimating,and understanding the psychometric function:Acommentary,”Stanley A.Klein,Perception&Psychophysics,2001,63(8),1421-1455中所提供的。心理物理学允许作为物理刺激的参数的函数来预测用户在感知任务中的主观响应。主观响应可以是,例如,振动的一个或两个连续脉冲是否被人感知到。物理刺激的对应参数可以是,例如,两个脉冲之间的间隔。心理物理学一般研究感知的阈值,诸如检测阈值(例如,刺激在其变得可感知的点)以及鉴别阈值(例如,两个刺激可以被区分的点)。心理物理学结果常常是以心理测量函数的形式表示的,横轴表示刺激强度,并且纵轴测量观察者响应。心理测量函数通常具有S形。
在一种实施例中,答案是触觉反馈。在一种实施例中,触觉反馈是触觉任务或基于姿势的交互。在接收到答案后,一种实施例预测对触觉挑战问题的正确答案、比较正确答案与从用户接收到的答案,并在该答案匹配正确答案时确定用户是人类。在一种实施例中,预测是基于人类感知模型、致动器响应或相对于用户的致动器位置当中一个或多个来执行的。在一种实施例中,当答案不匹配正确答案时,生成、提供、接收、预测和比较被重复。
在一种实施例中,生成是响应于用户与网站的交互而被执行的,并且当答案匹配对应于触觉挑战问题的正确答案时用户被允许继续后续的交互。在一种实施例中,交互对应于用户的认证。
一种实施例还生成一个或多个辅助触觉效果、将一个或多个辅助触觉效果作为辅助触觉挑战问题经由触觉输出设备提供给用户,并且从用户接收对应于辅助触觉挑战问题的辅助答案。一种实施例使用辅助响应来调整一个或多个触觉效果当中至少一个或者一个或多个辅助触觉效果当中至少一个。一种实施例使用辅助响应来配置或更新人类感知模型。
在一种实施例中,从用户接收答案包括向用户提供多个答案选项并请求用户从多个答案选项中选择答案,其中这多个答案选项包括对触觉挑战问题的正确答案。在一种实施例中,多个答案选项包括多个图像、多个视频录像、多个音频录音或多个触觉效果当中至少其一。
一些备选或附加实施使用辅助触觉CAPTCHA来收集关于触感感知的信息。一般而言,收集关于触感感知的信息是由用户例如通过实验室设置中的受控实验进行测试来执行的。另外,某些应用(“app”)可以偶尔被发布,以便被多个用户在他们的设备上使用,以收集触觉感知信息。触觉效果也可以通过基于测量情感数据(例如,指示用户的情绪状态的数据,诸如心率、生物信号、面部特征等等)的传感器感测用户的情感状态(即,情感状态的表示,诸如高兴、悲伤、生气、愤怒等等)而被调整。但是,在一种实施例中,辅助触觉CAPTCHA可以被用来请用户回答提供先前未知/不可用的信息的辅助问题,并且所收集的信息可以被用来,例如,识别触觉效果如何在不同的平台上被感知并由此相应地改善触觉效果的调整。
在一种实施例中,所收集的信息可以被用来根据各种实施例调节触觉效果,如在美国申请No.13/792,754中所描述的,其内容被结合于此。例如,所收集的信息可以指示情感数据(例如,辅助触觉任务被提供给用户并请用户指示所述辅助触觉任务使他们感受如何)并因此可以被用来调整辅助触觉任务的触觉效果。例如,情感状态可以与表示期望由辅助触觉任务的触觉效果引起的情绪状态或情绪状态变化的预定义情感状态进行比较,并且触觉效果的一个或多个参数可以相应地被调节。
在一些实施例中,触觉CAPTCHA是通过选择触觉任务来提供的,对于这种触觉任务,人类用户的响应如果没有对应的触感感知知识是难以猜测的。例如,触觉CAPTCHA可以通过选择触觉任务来提供,使得给定被发送到致动器以产生触觉CAPTCHA的信号的知识,人类用户的响应如果没有人类感知的理解是难以猜测的。
一些备选或附加实施例防止攻击者检查发送到致动器以产生触觉CAPTCHA的信号。例如,一种实施例加密发送到致动器的信号波形,使得只有来自Immersion公司的可以检查信号并播放对应的触觉效果。在一种实施例中,致动器信号在被发送到接收设备/平台之前被编码。例如,代替发送信号波形,对应的代码被发送到接收设备/平台。然后,接收设备/平台解码该代码,以获得对应的波形信号并将该波形信号馈送到致动器。编码可以根据一组信号波形和一组数字之间的一对一映射。例如,三个脉冲的序列可以被映射到一个数字并且该数字可以被数字地传送到接收设备/平台,然后接收设备/平台可以基于查找表或函数将其映射回波形信号。在一种实施例中,波形信号可以首先根据脉冲编码调制(“PCM”)被数字化,然后被编码。在这种实施例中,在解码编码的数字化信号之后,它在接收设备/平台被解调回信号波形并馈送到致动器。
一种实施例还基于对统计用户信息(诸如年龄、性别、职业等)建模的功能预测人类用户的响应。在一种实施例中,这种用户信息被明确地收集(例如,通过在线表格)。作为替代或附加地,这种用户信息是通过使用本文参照图1的传感器30所描述的任何传感器来确定的。例如,在一种实施例中,用户的年龄和/或性别可以通过对通过相机捕获的图像应用计算机视觉和/或图像/模式识别算法来确定。在另一种实施例中,来自Courage+Khazaka electronic GmbH公司的Corneometer可以被用来通过执行皮肤水合测量来确定用户的皮肤的特性。一种实施例还对关于致动器特性以及它们是否在用户的范围内的可用信息建模。还有另一备选或附加实施例基于对环境和/或身体温度建模的功能预测人类用户的响应。例如,冷可以使人类用户的手指麻木并降低触觉敏感性。在这种实施例中,温度传感器可以被用来收集温度信息,如本文参照图1的传感器30所描述的。
在各种实施例中,用户可以被请求计数触觉效果的数量,确定通过触觉效果传达的情绪,挑选两种触觉效果中更强烈的,确定触觉效果是否与另一效果(例如,声音、视觉效果或另一触觉效果)同步,确定触觉效果是否匹配图像或声音,确定触觉效果是否已完全被播放、确定两个触觉效果是否相同,确定触觉效果是否与用户输入(例如,诸如按下按钮的动作)同步,发现平面上的物体(例如,使用ESF),确定视频轨道的触觉轨道是否匹配其内容,当感到触觉效果时执行动作等等。
一些备选或附加实施使用辅助触觉CAPTCHA来收集关于触觉效果的感知的信息。例如,一种实施例可以请用户回答两个问题或执行两个任务:其答案是已知的主任务,和其答案是未知的辅助任务。例如,一种实施例可以请求用户计数所播放的触觉效果的数量,然后询问效果是否匹配屏幕上显示的画面(例如,爆炸)。从而,本实施例首先基于触觉效果的计数确认该用户是人类,然后收集关于什么类型的效果与屏幕上显示的画面最匹配的信息(例如,什么触觉效果类型与爆炸最匹配)。
在一些备选或附加实施例中,辅助问题被配置为用于收集随后被用来生成可靠主问题的信息。例如,辅助问题可以收集关于频率对用户计数触觉效果的能力的效果的信息。这种信息可以稍后被用来确定当请求用户计数不同频率的触觉效果时预期什么答案,然后相应地生成未来的触觉CAPTCHA。在一些实施例中,整个CAPTCHA功能在用户设备上实现。但是,在一些备选实施例中,触觉效果可以在用户设备上提供,但对应的测试/验证和预测功能可以在云服务上执行。例如,在一种实施例中,由辅助问题收集的信息被传送到云服务,云服务基于来自多个用户的答案建立感知模型。
在一种实施例中,相同的触觉效果可以被用来既实现主触觉CAPTCHA又实现辅助触觉CAPTCHA。因此,这种实施例可以依赖于单组触觉效果来实现主和辅助触觉CAPTCHA功能。例如,一种实施例向用户提供触觉效果序列,然后请用户指示他们感觉到多少触觉效果以及什么情绪(例如,在可能选择列表当中的)最匹配该触觉效果。相应地,这种实施例可以已经具有,或者可以预测,对第一问题的答案(由此利用对第一问题的答案来确定用户是否是人类),同时利用对第二问题的答案来收集以前不知道的信息。
在一种实施例中,在识别CAPTCHA时犯错的用户可以重试多个不同CAPTCHA,以到达正确答案。在这种实施例中,为了改善用户的体验,触觉任务被选择使得高百分比的用户(例如,95%的用户)能够在第一次尝试时提供正确答案。因此,虽然一些用户仍然可能提供错误的答案并必须重试,但大多数用户可以在第一次尝试时提供正确答案。在一种实施例中,触觉任务被配置为使得用户的响应可以以足够的准确性进行预测,但并不需要是确定性的。
例如,在一种实施例中,触觉CAPTCHA可以请用户计数所播放的触觉效果的数量。致动器信号可以作为频率和强度的函数基于关于振动的感知阈值的心理物理数据,并且还基于使得两个振动脉冲被视为分离脉冲的两个振动脉冲之间的所需间隔,来产生。一般而言,人类对高于某个阈值的频率的振动是不敏感的,并且靠得太近的两个振动脉冲会被感知合并并且感觉就像单个脉冲。所需的信息可以从科学文献中或基于心理物理实验收集。例如,用户测试可以被执行,以确定两个脉冲之间的最小间隔,使得至少相当大百分比的用户(例如,95%的用户)可以正确地执行任务。信号也可以被混淆,使得正确答案难以由计算机确定。例如,可以加入具有低于感知阈值的强度的噪声或杂散脉冲。如果致动器将不能够产生或将扭曲振动(例如,处于致动器将衰减的频率的振动),一种实施例还可以使用致动器的知识并向致动器发送信号。相应地,人类用户将无法感觉到触觉效果并且因此将提供指示没有触觉效果的响应。但是,机器人将不能确定正确响应(即,不存在人类用户可感知的触觉效果),除非它也具有人类感知和致动器响应的复杂模型。
在一种提供请用户计数所播放的触觉效果的数量的触觉CAPTCHA的实施例中,人类感知模型被用来评估用户响应。人类感知模型可以提供基于一个或多个心理测量函数预测用户响应的功能。例如,对于对应于是否振动的一个或两个连续脉冲由被人类感知的主观反应的心理测量函数,x轴可以是两个脉冲之间的时间间隔的大小,而y轴可以是感觉到两个不同脉冲的概率。因此,这种心理测量函数可以被用来预测当用户被请求计数具有不同大小间隔的脉冲序列中不同效果的数量时提供不同计数的概率。例如,心理测量函数可以被抽象为阈值,诸如响应在其被分成50-50的点(即,50%的响应是正确的)。
在一些实施例中,人类感知模型可以是预测基于两个心理测量函数感知的脉冲数的算法:指示基于脉冲的幅度的检测阈值的心理测量函数,以及指示要感觉到两个不同脉冲所需的最小间隔的心理测量函数。在一些实施例中,这两个变量(即,幅度和间隔大小)可能不是独立的。例如,最小间隔大小可以依赖于幅度。因此,在一种实施例中,对于幅度的每一个值,实现指示间隔尺寸的不同心理测量函数。一种实施例还可以使用心理测量函数的多维版本。
一种实施例生成提供预期响应的期望分布的挑战。例如,挑战可以被选择为跨低于和高于对应心理测量函数中感知阈值的参数值(例如,幅度和间隔大小)的范围。在一种实施例中,如果答案总是在极值处(即,远离阈值)被挑选,则攻击者可能能够轻易地猜到答案。例如,对于额定在5V最大电压下操作的振动马达,显然当使用4.75V(或5V的95%)的幅度时将可感知到振动脉冲但当使用0.25V(或5V的5%)时无法感知。但是,如果没有人类感知的详细模型,那么当幅度在2.25V和2.75V之间(或5V的45%和55%之间)时将更难以猜测答案。相应地,在一种实施例中,参数值(例如,幅度和间隔大小)在对应阈值的附近选择,使得答案不容易被猜测。
在一种实施例中,触觉CAPTCHA可以请用户计数触觉效果的数量,但触觉信号被加密,使得只有来自Immersion公司的可以将其解密。相应地,攻击者不能直接分析信号并且只能基于加速计读数估计它。在这种实施例中,致动器信号可以被配置为使得攻击者的加速计读数难以解释(例如,通过添加噪声)。
一种实施例基于确定触觉效果是否与另一个效果,诸如视觉效果、另一触觉效果等,同步来提供触觉CAPTCHA。在一种实施例中,触觉CAPTCHA功能是通过与视频轨道同步地提供触觉轨道或者通过引入延迟使得触觉轨道被感知为不与视频轨道同步来实现的。延迟可以在触觉轨道或视频轨道任一者当中引入。然后,该实施例请用户指示触觉轨道是否与视频轨道同步。因此,人类用户的响应可以基于延迟是否被引入的先验知识来预测。但是,由于没有这种信息,攻击者(例如,机器人)可能无法猜测用户的答案。
一种备选或附加实施例使用触觉CAPTCHA来认证用户。触觉CAPTCHA可以基于特定用户的触感感知模型。例如,假设对于特定的触觉CAPTCHA,在不同用户的响应之间存在足够的差异,该实施例可以预测特定用户的响应并使用该信息来识别那个人。一种这样的实施例可以为支付系统实现触觉CAPTCHA。在这种实施例中,当用户尝试经网络进行支付时,向他们提供触觉挑战问题,以确定该用户是否被授权进行这种支付。如果用户提供与授权用户用于进行支付相关联的响应,则用户通过认证并且被允许进行支付。
在一种实施例中,例如,用户可以填写调查问卷,以便在他们的智能电话上创建帐户(例如,Gmail帐户)。当用户按下“下一步”按钮时,他们在他们的手机上感觉到三个振动脉冲并且弹出询问感觉到几次振动的问题。如果用户响应“三”,则提供帐户已创建的确认。
在一种实施例中,例如,用户可以写关于他们刚在博客上读过的文章的评论。当用户按下“发送”按钮时,视口(bullseye)出现在屏幕上,附带文字“当你感觉到触感效果时请点击”。如果用户在他们感觉到两个触觉效果时用他们的鼠标点击该视口,则他们的评论被接受并将出现在网站上。
在一种实施例中,例如,用户可以填表格来注册关于某个项目的电子邮件更新。在表格的结尾处向用户呈现问题,请他们将多个触觉效果匹配到多个图像。例如,用户可以被提供三个触觉效果且被请求将它们匹配到三个图像,包括爆炸、机枪和空白图像(对应于几乎让人察觉不到的触感效果)。如果用户在触觉效果和图像之间作出正确的指派,则该实施例确认用户是人类而不是机器人,因为用户没有感到对应于空白图像的触觉效果,并且同时该实施例识别出其它两个触觉效果中哪个更匹配爆炸或机枪。
一种实施例生成触觉挑战,提供允许用户提供响应的UI,并提供预测人类用户对触觉挑战的响应的模型。触觉挑战可以选自相同或不同类型/形式的多个触觉挑战。例如,一种实施例请用户计数所播放的触觉效果的数量。该实施例可以通过改变触觉效果的计数、其强度、它们之间的时间间距、添加到触觉效果的触觉噪声等等来改变挑战。这些参数可以在用户的答案可被预测的范围内变化。触觉效果可以利用任何可用的触觉设备向用户播放,诸如振动致动器、挤压可穿戴装置,等等。
然后,该实施例查询对所提供的触觉效果的响应。例如,一种实施例允许用户对触觉挑战提供响应。例如,智能电话可以在屏幕上显示对应的问题(例如,“你感觉到多少触觉效果?”),然后提供可以从用户接收答案的UI(例如,UI按钮,用于指示感知到的触觉效果的数量,诸如“1”、“2”、“超过5”,等等)。
实施例还评估用户响应。例如,一种实施例使用模型来预测用户的响应。例如,一种实施例可以使用人类感知模型和致动器响应来确定对触觉挑战的最有可能的答案。例如,给定触觉挑战中多个某些的触觉效果的强度和间距,一种实施例可以确定触觉效果有可能被感觉为一个长触感效果。在另一例子中,一种实施例可以确定某个触觉效果和/或添加到其的噪声的强度不足以影响致动器的响应,并且因此这种触觉效果不会对触觉效果的计数导致可感知的影响。相应地,如果用户响应不匹配预期的答案,则实施例确定用户可能是机器人并且可以可选地发出另一触觉挑战。
一种实施例还提供不知道其正确答案的辅助触觉挑战。然后,该实施例继续如本文参考各种实施例所描述的那样查询和评估用户响应,但是不使用用户答案来确定该用户是人类还是机器人。代替地,答案被收集,供以后分析。所收集的数据可以被分析(例如,通过使用人工智能算法)以识别对辅助挑战的预期答案。所收集的数据也可以被用来改善用户响应预测功能。例如,一种实施例可以知道时间间距对效果序列的可计数性的影响,但是会忽略脉冲强度的影响。因此,实施例可以使用辅助触觉挑战来识别强度对用户感知的影响,并且一旦已经收集到足以准确地预测用户响应的信息,就在主触觉挑战中集成这个参数。
一种实施例基于计数所播放的触觉效果的数量来实现触觉CAPTCHA,其中向用户呈现振动的多个脉冲并且要求指示他们感觉到多少。该实施例生成具有随机化特性的多个脉冲。特性可以包括,例如,每个脉冲的频率、每个脉冲的幅度、脉冲之间的间距,等等。一般而言,基于实验数据,最小幅度Amin对于让脉冲可感知是必要的,并且最小间距Dmin对于让两个连续脉冲被感觉到是分离脉冲是必要的。这些阈值可以依赖于各种因素,诸如脉冲的特性(例如,频率、持续时间等等)和/或用户的特性(例如,性别、年龄等等)。
在生成脉冲后,实施例确定人类在被提供脉冲时有可能感知到的计数。例如,实施例可以生成两个脉冲。如果没有一个脉冲具有大于或等于Amin的幅度,则感知到的计数被确定为“0”。如果两个脉冲都具有大于或等于Amin的幅度并且脉冲之间的间距大于或等于Dmin,则感知到的计数被确定为“2”。如果两个脉冲都具有大于或等于Amin的幅度并且脉冲之间的间距小于Dmin,则感知到的计数被确定为“1”。该实施例可以被递归应用,以便对任意数目的脉冲确定感知到的计数。
该实施例可以生成具有伪随机特性的两个脉冲,其中每个伪随机特性是基于伪随机数生成器函数(例如,生成具有与随机数序列类似的特性的数字序列的算法)和对应的范围生成的。用于生成伪随机特性的范围可以包括那个属性的将导致人类可感知的脉冲的值。作为替代,用于生成伪随机特性的范围还可以包括那个属性的将导致人类不可感知的脉冲的值。因此,所生成的脉冲可以是或可以不是人类可感知的,并且实施例基于对特性的可感知性的知识对所生成的脉冲执行感知效果计数。
图3是根据上面提到的实施例、用于效果计数的示例决策树的流程图。虽然图3的实施例基于两个脉冲实现触觉CAPTCHA,但是任何其它数量的脉冲可以类似地在备选或附加实施例中实现。
在302生成两个具有伪随机特性的脉冲。特性可以包括频率、幅度、间距等等。每个特性可以基于伪随机数生成函数和对应的范围生成。在304确定第一脉冲的幅度是否大于或等于Amin,如果否,则在306确定第二脉冲的幅度是否大于或等于Amin,如果否,则两个脉冲都不具有大于或等于Amin的幅度,因此在308,感知到的计数被确定为“0”。但是,如果在306确定第二脉冲的幅度大于或等于Amin,则仅一个脉冲具有大于或等于Amin的幅度,因此在310,感知到的计数被确定为“1”。
如果在304确定第一脉冲的幅度大于或等于Amin,则在312确定第二脉冲的幅度是否大于或等于Amin,如果否,则仅一个脉冲具有大于或等于Amin的幅度,因此在314感知到的计数被确定为“1”。
如果在312确定第二脉冲的幅度也大于或等于Amin,则在316确定脉冲之间的间距是否大于或等于Dmin,如果否,则两个脉冲都具有大于或等于Amin的幅度但脉冲之间的间距小于Dmin,因此在318,感知到的计数被确定为“1”。但是,如果在316确定脉冲之间的间距大于或等于Dmin,则在320,感知到的计数被确定为“2”。
在为所生成的脉冲序列确定感知到的计数后,这种脉冲序列可以作为触觉CAPTCHA被提供。如果用户识别出与感知到的计数相同的计数,则它们被认为是人类而不是机器人,如果否,则不同的触觉和/或其它类型的CAPTCHA可被提供给用户供重试。
一种实施例基于数据库实现触觉CAPTCHA,其中数据库将多个触觉挑战任务(例如,触觉效果)与多个先前识别出的对应响应关联。响应可以包括,例如,多个图像/声音/视频记录当中图像/声音/视频记录的选择。该实施例可以使用数据库中过去的响应信息来确定对触觉挑战问题的最有可能和最不可能的响应,然后至少将最有可能的响应作为选项提供给经受触觉挑战的用户。例如,一种实施例可以向用户提供触觉轨道并且询问他们该触觉轨道是否对应于视频广告并且匹配其内容。一种备选实施例可以通过使用过去的用户答案的数据库基于触觉效果实现触觉CAPTCHA。
图4是基于将情绪与触觉效果关联的数据库实现触觉CAPTCHA的实施例的流程图,其中向用户呈现触觉效果,然后请其从情绪列表中选择匹配的情绪。在402,从数据库随机选择触觉效果。在一种实施例中,数据库还可以包括关于当触觉效果向其呈现时不同情绪被实验参与者挑选的次数的信息。在一种实施例中,数据库还可以包括关于实验参与者和用于进行实验的设备的信息。
在404,基于在402所选的触觉效果查询数据库。查询还可以基于其它相关信息,诸如参与者的年龄和被使用的设备。然后,在406,不同情绪被人类选择的概率基于存储在数据库中的与各种情绪相关的信息来计算。在408,确定最有可能被选择的情绪。在410,确定最不可能被选择的多个情绪(例如,被用户选择的概率小于5%的四个情绪)。
在412,向用户提供触觉效果并请其从包括最有可能的情绪和最不可能的情绪或任何其它情绪的列表中选择情绪。如果用户识别出最有可能的情绪,则他们被认为是人类而不是机器人,如果没有,则不同的触觉和/或其它类型的CAPTCHA可以被提供给用户供重试。例如,方框402至412可以被重复,以便为用户提供再次基于传达情绪的不同触觉CAPTCHA。
图5是通过确定触觉效果是否与另一效果,诸如声音、视觉效果、另一触觉效果等,同步来实现触觉CAPTCHA的实施例的流程图。在502,选择触觉效果和对应的其它效果(例如,音频/视频信号)。在504,确定触觉效果与对应的其它效果之间的滞后。滞后可以在预先定义的限度内选择。在506,查询数据库或者使用数学模型来基于对应的其它效果确定滞后的可接受范围(例如,所使用的音频/视频效果)。在508,确定对应的其它效果是否将被感知为与触觉效果同步。在510,触觉效果和对应的其它效果被提供给用户并且请用户指示它们是否同步。如果用户提供了正确的答案,则他们被认为是人类而不是机器人,如果没有,则不同的触觉和/或其它类型CAPTCHA可以被提供给用户供重试。例如,方框502至510可以被重复,以便为用户提供再次基于触觉效果与另一效果同步的不同触觉CAPTCHA。
一种实施例实现要求用户提供对应的触觉响应/反馈的触觉CAPTCHA。在一种实施例中,触觉反馈可以包括动觉反馈,诸如主动和抵抗性力反馈。触觉反馈可以由本文所述的任何设备和/或传感器感测。例如,一种实施例可以为用户提供触觉挑战问题,然后要求用户作为响应而执行触觉任务,例如,轻击触觉输入设备达某个次数,提供基于姿势的交互输入达某个次数,等等。轻击可以由任何触摸屏感测,所述触摸屏诸如是压敏触摸屏、电容性触摸屏、电阻式触摸屏等,或者根据任何其它原理,诸如表面声波、表面电容、投射电容、互电容、自电容、红外线网格、红外线丙烯酸投射、光学成像、色散信号、声脉冲识别等等,操作的触摸屏。
在一种实施例中,触觉挑战问题可以是确定有多少振动被感知,并且对应的触觉响应可以是轻击触觉输入设备达相同或对应的次数(例如,如果用户感觉到一次振动则轻击两次,如果用户感觉到两次振动则轻击一次)或者执行基于姿势的交互达相同或对应的次数。一种备选实施例可以提供触觉挑战问题,然后请求用户执行某种类型的基于姿势的交互(例如,如果用户感觉到一个脉冲则按压,如果用户感觉到两个脉冲则挤捏,如果用户感觉到三个脉冲则摇晃,如果用户感觉到四个脉冲则执行特定模式的手指轨迹,等等)。在一些实施例中,触觉反馈选项可以包括不提供触觉反馈或提供具有某个延迟、持续时间、强度、频率等的某个触觉反馈。触觉反馈的定时参数可以基于系统定时器来测量。触觉反馈的强度可以基于加速计、压力传感器等来测量。
一种实施例实现用于可穿戴触觉设备的触觉CAPTCHA。例如,一种实施例经由可穿戴触觉设备提供要由穿戴该可穿戴设备的人类作出响应的触觉挑战问题。一种实施例中可以在提供触觉挑战问题之前首先确定可穿戴触觉设备是否被人类穿着。例如,一种实施例可以在提供触觉挑战问题之前首先收集/感测可穿戴设备的穿戴者的生物信号(例如,体温、脉搏、血压等等),并由此确定可穿戴设备确实被人类穿戴或使用。生物信号可以经由可穿戴设备本身或经由附连到或嵌入可穿戴设备中或在可穿戴设备附近的单独设备/传感器收集/感测。
在一种实施例中,在提供主触觉CAPTCHA之后,还可以提供一个或多个附加触觉CAPTCHA,以改善触觉CAPTCHA功能的准确性。例如,在向用户提供主触觉挑战并接收到响应之后,一种实施例向用户提供辅助触觉挑战,然后使用对主触觉挑战和辅助触觉挑战二者的响应来更好地估计用户是人类而不是机器人的可能性。一种实施例向用户提供触觉挑战序列并接收对每个挑战的各自响应。这种实施例继续该序列,直到确定用户是人类的可能性高于某个阈值(即,指示用户有可能是人类),或者直到失败的触觉挑战次数超过某个阈值(即,指示用户不可能是人类)。
如所公开的,实施例允许提供依赖于触摸感觉的CAPTCHA。在一些实施例中,触觉CAPTCHA还可以被配置为收集关于某些触觉效果如何被感知的附加信息(触感感知)或对用户进行认证。相应地,实施例给予最终用户依赖于触摸感觉提供各种挑战-响应功能的可能性。
几种实施例在本文中具体地示出和/或描述。但是,可以认识到的是,在不背离本发明的精神和预期范围的情况下,所公开的实施例的修改和变化被上述示教覆盖并且在所附权利要求的范围内。
Claims (15)
1.一种执行触觉挑战-响应功能的方法,包括:
生成一个或多个触觉效果;
将所述一个或多个触觉效果作为触觉挑战问题经由触觉输出设备提供给用户;
从用户接收对应于触觉挑战问题的答案;以及
基于人类感知模型,确定答案是否对应于触觉挑战问题的正确答案。
2.如权利要求1所述的方法,其中所述确定包括:
预测触觉挑战问题的正确答案;
比较正确答案与从用户接收到的答案;以及
当所述答案与正确答案相匹配时,确定用户是人类。
3.如权利要求2所述的方法,其中所述预测是基于人类感知模型、致动器响应、或相对于用户的致动器位置当中一个或多个来执行的。
4.如权利要求2所述的方法,还包括:
当所述答案与正确答案不匹配时,重复生成、提供、接收、预测和比较。
5.如权利要求1所述的方法,其中所述生成是响应于用户与网站的交互而被执行的,其中当答案与对应于触觉挑战问题的正确答案相匹配时用户被允许继续后续的交互。
6.如权利要求1所述的方法,其中交互对应于用户的认证。
7.如权利要求1所述的方法,还包括:
生成一个或多个辅助触觉效果;
将所述一个或多个辅助触觉效果作为辅助触觉挑战问题经由触觉输出设备提供给用户;以及
从用户接收对应于辅助触觉挑战问题的辅助答案。
8.如权利要求7所述的方法,还包括:
使用辅助答案来调整所述一个或多个触觉效果中的至少一个或者所述一个或多个辅助触觉效果中的至少一个。
9.如权利要求7所述的方法,还包括:
使用辅助答案来配置或更新人类感知模型。
10.如权利要求1所述的方法,其中所述答案是触觉反馈。
11.如权利要求10所述的方法,其中所述触觉反馈是触觉任务或基于姿势的交互。
12.如权利要求1所述的方法,其中接收包括:
向用户提供多个答案选项;以及
请求用户从所述多个答案选项中选择答案,其中所述多个答案选项包括触觉挑战问题的正确答案。
13.如权利要求12所述的方法,其中所述多个答案选项包括多个图像、多个视频记录、多个音频记录或多个触觉效果当中至少其一。
14.一种用于执行触觉挑战-响应功能的系统,包括用于执行如权利要求1-13中任一项所述的方法的各步骤的模块。
15.一种执行触觉挑战-响应功能的装置,包括:
触觉输出设备;和
处理器,被配置成:
生成一个或多个触觉效果;
将所述一个或多个触觉效果作为触觉挑战问题经由所述触觉输出设备提供给用户;
从用户接收对应于触觉挑战问题的答案;以及
基于人类感知模型,确定答案是否对应于触觉挑战问题的正确答案。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/865,373 | 2015-09-25 | ||
US14/865,373 US9990040B2 (en) | 2015-09-25 | 2015-09-25 | Haptic CAPTCHA |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106557158A true CN106557158A (zh) | 2017-04-05 |
Family
ID=55628905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610232788.8A Pending CN106557158A (zh) | 2015-09-25 | 2016-04-15 | 触觉captcha |
Country Status (5)
Country | Link |
---|---|
US (1) | US9990040B2 (zh) |
EP (1) | EP3147753A1 (zh) |
JP (1) | JP6566906B2 (zh) |
KR (1) | KR20170037486A (zh) |
CN (1) | CN106557158A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109040578A (zh) * | 2017-06-09 | 2018-12-18 | 意美森公司 | 具有多图像捕获能力的触觉启用设备 |
CN109725824A (zh) * | 2017-10-27 | 2019-05-07 | 伊姆西Ip控股有限责任公司 | 用于向存储系统中的盘阵列写入数据的方法和设备 |
CN110347253A (zh) * | 2019-06-28 | 2019-10-18 | 瑞声科技(新加坡)有限公司 | 致动器激励信号处理方法、装置、计算机设备及存储介质 |
CN111727431A (zh) * | 2018-02-14 | 2020-09-29 | 卡西欧计算机株式会社 | 电子设备、电子设备的控制方法及程序 |
CN112313647A (zh) * | 2018-08-06 | 2021-02-02 | 谷歌有限责任公司 | Captcha自动助理 |
Families Citing this family (108)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
KR102516577B1 (ko) | 2013-02-07 | 2023-04-03 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US9202352B2 (en) * | 2013-03-11 | 2015-12-01 | Immersion Corporation | Automatic haptic effect adjustment system |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
WO2015020942A1 (en) | 2013-08-06 | 2015-02-12 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
WO2015184186A1 (en) | 2014-05-30 | 2015-12-03 | Apple Inc. | Multi-command single utterance input method |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10585480B1 (en) * | 2016-05-10 | 2020-03-10 | Apple Inc. | Electronic device with an input device having a haptic engine |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
DE102017205878A1 (de) * | 2017-04-06 | 2018-10-11 | Bundesdruckerei Gmbh | Verfahren und System zur Authentifizierung |
US10417266B2 (en) * | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10594836B2 (en) * | 2017-06-30 | 2020-03-17 | Microsoft Technology Licensing, Llc | Automatic detection of human and non-human activity |
US11054932B2 (en) | 2017-09-06 | 2021-07-06 | Apple Inc. | Electronic device having a touch sensor, force sensor, and haptic actuator in an integrated module |
US11200303B2 (en) * | 2017-12-08 | 2021-12-14 | Apple Inc. | Audio accessibility assistance |
US10513322B2 (en) * | 2017-12-08 | 2019-12-24 | Navico Holding As | Foot pedal for a trolling motor assembly |
US10564796B2 (en) * | 2017-12-14 | 2020-02-18 | Mastercard International Incorporated | Haptic interaction |
US10877560B2 (en) * | 2017-12-22 | 2020-12-29 | Mastercard International Incorporated | Haptic feedback for authentication and security in computer systems |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11204648B2 (en) | 2018-06-12 | 2021-12-21 | Mastercard International Incorporated | Handshake to establish agreement between two parties in virtual reality |
US10791222B2 (en) * | 2018-06-21 | 2020-09-29 | Wells Fargo Bank, N.A. | Voice captcha and real-time monitoring for contact centers |
CN108875688B (zh) * | 2018-06-28 | 2022-06-10 | 北京旷视科技有限公司 | 一种活体检测方法、装置、系统及存储介质 |
US10936071B2 (en) | 2018-08-30 | 2021-03-02 | Apple Inc. | Wearable electronic device with haptic rotatable input |
US10966007B1 (en) | 2018-09-25 | 2021-03-30 | Apple Inc. | Haptic output system |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
KR102010360B1 (ko) * | 2018-10-08 | 2019-08-14 | 넷마블 주식회사 | 색각 이상 판단 장치 및 방법 |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11132432B2 (en) | 2018-10-29 | 2021-09-28 | Hewlett Packard Enterprise Development Lp | Tactile challenge-response testing for electronic devices |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11875372B2 (en) * | 2019-03-29 | 2024-01-16 | Fortunito, Inc. | Systems and methods for an interactive online platform |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US11636193B1 (en) * | 2020-05-06 | 2023-04-25 | Amazon Technologies, Inc. | Intuition-based challenges |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11024135B1 (en) | 2020-06-17 | 2021-06-01 | Apple Inc. | Portable electronic device having a haptic button assembly |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11751799B1 (en) * | 2023-02-08 | 2023-09-12 | Lanny Leo Johnson | Methods and systems for diagnosing cognitive conditions |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007096648A1 (en) * | 2006-02-23 | 2007-08-30 | The Queen's University Of Belfast | System and method for user authentication |
CN101622620A (zh) * | 2007-01-23 | 2010-01-06 | 卡内基梅隆大学 | 控制访问计算机系统和注释媒体文件的方法和装置 |
US20120246737A1 (en) * | 2011-03-24 | 2012-09-27 | AYaH, LLC | Method for generating a human likeness score |
CN103620523A (zh) * | 2010-12-29 | 2014-03-05 | 马科外科公司 | 用于提供大致上稳定的触觉的系统和方法 |
CN104635921A (zh) * | 2013-11-14 | 2015-05-20 | 意美森公司 | 触觉触发控制系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5699671B2 (ja) * | 2011-02-21 | 2015-04-15 | 株式会社リコー | 認証システム、認証方法、認証プログラム及び記録媒体 |
US20130007875A1 (en) * | 2011-06-30 | 2013-01-03 | Ebay, Inc. | Interactive CAPTCHA |
US20150254448A1 (en) | 2012-04-30 | 2015-09-10 | Google Inc. | Verifying Human Use of Electronic Systems |
US9202352B2 (en) | 2013-03-11 | 2015-12-01 | Immersion Corporation | Automatic haptic effect adjustment system |
EP3005036A4 (en) | 2013-06-07 | 2016-12-07 | Immersion Corp | UNLOCKING HAND HANDLE HANDLE |
US9722985B2 (en) * | 2014-05-01 | 2017-08-01 | Qualcomm Incorporated | Sensory output for image association |
US9723005B1 (en) * | 2014-09-29 | 2017-08-01 | Amazon Technologies, Inc. | Turing test via reaction to test modifications |
-
2015
- 2015-09-25 US US14/865,373 patent/US9990040B2/en not_active Expired - Fee Related
-
2016
- 2016-03-24 EP EP16162257.6A patent/EP3147753A1/en not_active Withdrawn
- 2016-04-05 JP JP2016075936A patent/JP6566906B2/ja not_active Expired - Fee Related
- 2016-04-06 KR KR1020160042061A patent/KR20170037486A/ko unknown
- 2016-04-15 CN CN201610232788.8A patent/CN106557158A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007096648A1 (en) * | 2006-02-23 | 2007-08-30 | The Queen's University Of Belfast | System and method for user authentication |
CN101622620A (zh) * | 2007-01-23 | 2010-01-06 | 卡内基梅隆大学 | 控制访问计算机系统和注释媒体文件的方法和装置 |
CN103620523A (zh) * | 2010-12-29 | 2014-03-05 | 马科外科公司 | 用于提供大致上稳定的触觉的系统和方法 |
US20120246737A1 (en) * | 2011-03-24 | 2012-09-27 | AYaH, LLC | Method for generating a human likeness score |
CN104635921A (zh) * | 2013-11-14 | 2015-05-20 | 意美森公司 | 触觉触发控制系统 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109040578A (zh) * | 2017-06-09 | 2018-12-18 | 意美森公司 | 具有多图像捕获能力的触觉启用设备 |
CN109725824A (zh) * | 2017-10-27 | 2019-05-07 | 伊姆西Ip控股有限责任公司 | 用于向存储系统中的盘阵列写入数据的方法和设备 |
US11775226B2 (en) | 2017-10-27 | 2023-10-03 | EMC IP Holding Company LLC | Methods and devices for writing data into a degraded array using a persistent cache |
CN111727431A (zh) * | 2018-02-14 | 2020-09-29 | 卡西欧计算机株式会社 | 电子设备、电子设备的控制方法及程序 |
CN111727431B (zh) * | 2018-02-14 | 2023-12-19 | 卡西欧计算机株式会社 | 电子设备和电子设备的控制方法 |
CN112313647A (zh) * | 2018-08-06 | 2021-02-02 | 谷歌有限责任公司 | Captcha自动助理 |
US12002474B2 (en) | 2018-08-06 | 2024-06-04 | Google Llc | Captcha automated assistant |
CN112313647B (zh) * | 2018-08-06 | 2024-06-11 | 谷歌有限责任公司 | Captcha自动助理 |
CN110347253A (zh) * | 2019-06-28 | 2019-10-18 | 瑞声科技(新加坡)有限公司 | 致动器激励信号处理方法、装置、计算机设备及存储介质 |
CN110347253B (zh) * | 2019-06-28 | 2022-04-01 | 瑞声科技(新加坡)有限公司 | 致动器激励信号处理方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20170090569A1 (en) | 2017-03-30 |
KR20170037486A (ko) | 2017-04-04 |
EP3147753A1 (en) | 2017-03-29 |
US9990040B2 (en) | 2018-06-05 |
JP2017062760A (ja) | 2017-03-30 |
JP6566906B2 (ja) | 2019-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106557158A (zh) | 触觉captcha | |
EP2778843B1 (en) | Automatic haptic effect adjustment system | |
US10416774B2 (en) | Automatic remote sensing and haptic conversion system | |
CN104049739B (zh) | 可佩戴触觉设备 | |
US9720515B2 (en) | Method and apparatus for a gesture controlled interface for wearable devices | |
CN104049795B (zh) | 基于接触物的触觉反馈生成 | |
CN107589782B (zh) | 用于可穿戴设备的姿势控制接口的方法和装置 | |
CN108874271A (zh) | 包括多个输入设备的电子设备及其控制方法 | |
CN110244850A (zh) | 使用分段和组合的触觉转换系统 | |
CN105745669A (zh) | 移动装置中的用户验证生物计量技术 | |
CN107111374A (zh) | 触觉效果的覆盖 | |
CN110096140A (zh) | 依据眼睛注视的触觉感觉 | |
CN105718048A (zh) | 自动和独有的触觉通知 | |
WO2018081416A1 (en) | Carpal tunnel informatic monitor | |
CN108304076B (zh) | 电子装置、视频播放应用的管理方法及相关产品 | |
CN207302171U (zh) | 门禁装置和汽车 | |
WO2012073733A1 (ja) | 提示装置、コミュニケーションシステム、および感性提示方法 | |
CN106873779B (zh) | 一种手势识别装置及手势识别方法 | |
US20230409114A1 (en) | Augmented tactile/haptic ring for metaverse | |
KR20180020594A (ko) | 생체정보 연동형 스마트보드 시스템 및 그 방법 | |
De Pra | Multi-sensory design, physical computing and experimental validation of virtual buttons and knobs for professional appliances | |
CN117348756A (zh) | 一种基于感觉增强的信息交互系统及方法 | |
WO2024068974A1 (en) | System for managing treatment of a patient by measuring emotional response | |
Philpott | Evaluation and optimization of a multi-point tactile renderer for virtual textures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170405 |
|
WD01 | Invention patent application deemed withdrawn after publication |