CN109716361A - 执行触摸运动预测的深度机器学习 - Google Patents

执行触摸运动预测的深度机器学习 Download PDF

Info

Publication number
CN109716361A
CN109716361A CN201780055187.7A CN201780055187A CN109716361A CN 109716361 A CN109716361 A CN 109716361A CN 201780055187 A CN201780055187 A CN 201780055187A CN 109716361 A CN109716361 A CN 109716361A
Authority
CN
China
Prior art keywords
user
motion prediction
neural network
prediction model
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780055187.7A
Other languages
English (en)
Other versions
CN109716361B (zh
Inventor
P-C.林
T-H.林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Priority to CN202311095727.8A priority Critical patent/CN117332812A/zh
Publication of CN109716361A publication Critical patent/CN109716361A/zh
Application granted granted Critical
Publication of CN109716361B publication Critical patent/CN109716361B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开提供了利用机器学习来执行用户输入运动预测的系统和方法。具体地,本公开的系统和方法可以包括并使用机器学习运动预测模型,该机器学习运动预测模型被训练为接收指示用户输入对象的运动的运动数据,并且响应于接收到运动数据而输出用户输入对象的预测的未来位置。用户输入对象可以是用户的手指或由用户操作的触笔。运动预测模型可以包括深度递归神经网络。

Description

执行触摸运动预测的深度机器学习
技术领域
本公开一般涉及机器学习。更具体地,本公开涉及执行用户输入运动预测的深度机器学习。
背景技术
用户可以使用用户输入对象(诸如,例如一个或多个手指、由用户操作的触笔或其他用户输入对象)向计算设备提供用户输入。具体地,在一个示例中,用户可以使用用户输入对象来触摸触敏显示屏或其他触敏组件。用户输入对象与触敏显示屏的交互使得用户能够向计算设备提供用户输入。
然而,在某些现有计算设备中,在触摸事件的结果显示在屏幕上之前,由触敏显示屏检测到的触摸事件必须经过相当大的处理堆栈。例如,触摸输入处理堆栈可以包括用于液晶显示器(Liquid Crystal Display,LCD)屏幕的固件、内核、渲染和垂直同步(VerticalSynchronization,V-Sync)的组合。处理堆栈还可以包括由消耗触摸输入的各个程序完成的软件处理。
处理堆栈的大小和复杂性引入了“触摸时延”的问题,其中在触摸事件发生时和设备似乎响应触摸事件时之间发生延迟。触摸时延是影响设备性能的重大挑战。
虽然利用更好的软件调度可以减少一些触摸时延,但是无论处理堆栈组织得有多好,存在用于处理触摸事件并且然后该触摸事件到达屏幕的最小时间量。
发明内容
本公开的实施例的方面和优点将在以下描述中部分阐述,或者可以从描述来学习,或者可以通过实施例的实践来学习。
本公开的一个示例方面针对一种预测用户输入对象的运动的计算机实施的方法。该方法包括由一个或多个计算设备获得与用户输入对象相关联的第一组运动数据。第一组运动数据描述用户输入对象随时间的位置。该方法包括由一个或多个计算设备将第一组运动数据输入到机器学习运动预测模型的递归神经网络中。该方法包括由一个或多个计算设备接收运动预测向量作为运动预测模型的输出,其中该运动预测向量描述用户输入对象的分别针对一个或多个未来时间的一个或多个预测的未来位置。
本公开的另一示例方面针对预测用户输入对象的运动的计算设备。该计算设备包括至少一个处理器。该计算设备包括机器学习运动预测模型,其中该机器学习运动预测模型包括递归神经网络。该运动预测模型被训练为接收指示用户输入对象的运动的运动数据,并且响应于接收到运动数据而输出用户输入对象的预测的未来位置。该计算设备包括存储指令的至少一个有形、非暂时性计算机可读介质,其中当该指令由至少一个处理器运行时,使得至少一个处理器获得与用户输入对象相关联的第一组运动数据。第一组运动数据描述用户输入对象随时间的位置。指令的运行使得至少一个处理器将第一组运动数据输入到运动预测模型的递归神经网络中。指令的运行使得至少一个处理器接收运动预测向量作为运动预测模型的输出,其中该运动预测向量描述用户输入对象的分别针对一个或多个未来时间的一个或多个预测的未来位置。指令的运行使得至少一个处理器执行与由运动预测向量描述的一个或多个预测的未来位置相关联的一个或多个动作。
本公开的另一示例方面针对包括用户计算设备的计算系统。该用户计算设备包括至少一个处理器和至少一个非暂时性计算机可读介质。该至少一个非暂时性计算机可读介质存储机器学习运动预测模型,其中该机器学习运动预测模型被配置为接收指示用户输入对象的运动的运动数据,并且响应于接收到运动数据而输出用户输入对象的预测的未来位置。运动预测模型由损失函数通过运动预测模型的反向传播来训练。损失函数包括描述一个或多个误差向量分别的一个或多个长度的第一和除以一个或多个真值向量分别的一个或多个长度的第二和的误差比。该至少一个非暂时性计算机可读介质存储当由至少一个处理器运行时,使得用户计算设备使用机器学习运动预测模型来获得用户输入对象的预测的未来位置的指令。
本公开的其他方面针对各种系统、装置、非暂时性计算机可读介质、用户界面和电子设备。
参考以下描述和所附权利要求,本公开的各种实施例的这些和其他特征、方面和优点将变得更好理解。并入本说明书并构成本说明书的一部分的附图图示了本公开的示例实施例,并与说明书一起用来解释相关原理。
附图说明
针对本领域普通技术人员之一的实施例的详细讨论在参考附图的说明书中阐述,其中:
图1描绘了根据本公开的示例实施例的示例计算系统的框图。
图2描绘了根据本公开的示例实施例的示例运动预测模型的框图。
图3描绘了根据本公开的示例实施例的示例运动预测模型的框图。
图4描绘了根据本公开的示例实施例的示例运动预测模型的框图。
图5描绘了根据本公开的示例实施例的预测用户输入对象的运动的示例方法的流程图。
图6描绘了根据本公开的示例实施例的训练运动预测模型的示例方法的流程图。
图7描绘了根据本公开的示例实施例的示例运动向量的图形示图。
图8描绘了根据本公开的示例实施例的示例运动向量的图形示图。
具体实施方式
概述
通常,本公开针对利用机器学习来执行用户输入运动预测的系统和方法。具体地,本公开的系统和方法可以包括并使用机器学习运动预测模型,其中该机器学习运动预测模型被训练为接收指示用户输入对象的运动的运动数据,并且响应于接收到运动数据而输出用户输入对象的预测的未来位置。例如,用户输入对象可以是用户的手指或由用户操作的触笔。
具体地,根据本公开的一方面,运动预测模型可以包括递归神经网络(例如,深度递归神经网络)。在一个示例中,用户计算设备可以获得描述用户输入对象随时间的位置的运动数据。计算设备可以将运动数据输入到运动预测模型的递归神经网络中,并且接收运动预测向量作为运动预测模型的输出。运动预测向量可以描述用户输入对象的分别针对一个或多个未来时间的一个或多个预测的未来位置。
计算设备可以使用由运动预测模型输出的运动预测向量来减少或甚至消除触摸时延。具体地,计算设备可以响应于或以其他方式基于用户输入对象的预测的未来位置来执行操作,从而消除等待接收用户输入动作的剩余部分并通过大的处理堆栈处理输入动作的剩余部分的需要。
为了提供示例,本公开的计算设备可以将描述与用户触摸动作的初始部分(例如,向左划动动作的初始部分)相关联的手指运动/位置的运动数据输入到运动预测模型的递归神经网络中。响应于接收到运动数据,运动预测模型可以预测与用户触摸动作的剩余部分(例如,向左划动动作的剩余部分)相关联的手指运动/位置。计算设备可以响应于预测的手指运动/位置而执行动作(例如,渲染其中所显示的对象已经被向左划动的显示屏)。这样,计算设备不需要等待并且然后处理用户触摸动作的剩余部分。因此,计算设备能够更快地响应触摸事件并减少触摸时延。例如,高质量运动预测可以使得触摸时延能够减少到人类用户不可感知的水平。
更具体地,本公开的方面适用于经由用户输入对象的运动接收用户输入的计算设备。示例用户输入对象包括用户的一个或多个手指、由用户操作的触笔或其他用户输入对象。具体地,在一个示例中,用户可以使用用户输入对象来触摸计算设备的触敏显示屏或其他触敏组件。用户输入对象相对于触敏显示屏的运动使得用户能够向计算设备提供用户输入。
具体地,计算设备可以生成或以其他方式获得描述用户输入对象随时间的位置的一组运动数据。例如,可以收集和处理从各种传感器(例如,触敏显示屏或其他用户输入组件)接收的数据,以生成一组运动数据。作为一个示例,一组运动数据可以包括对象位置和时间的一个或多个条目。例如,一组运动数据可以包括提供用户输入对象在x维和y维上的位置以及与每个位置相关联的时间戳的一个或多个条目。
作为另一示例,一组运动数据可以包括一个或多个条目,其中该一个或多个条目描述用户输入对象在x维和y维上的位置的改变,以及与每对x值的改变和y值的改变相关联的时间戳或时间的改变。在一些实施方式中,当检测到用户输入对象的附加运动时,一组运动数据被迭代地更新、刷新或生成。如上所述,一组运动数据可以输入到运动预测模型中,以获得关于用户输入对象的针对一个或多个未来时间的未来位置的预测。
在又一实施方式中,计算设备可以收集描述用户输入对象的附加数据,并且可以将这样的数据与一组运动数据一起输入到运动预测模型中。例如,可以收集关于触敏显示屏上的用户输入对象压力、触敏显示屏上的用户输入对象半径或其他用户输入对象参数的信息(例如,传感器数据),并且将其提供给运动预测模型,用于预测用户输入对象的未来位置。
根据本公开的另一方面,在一些实施方式中,运动预测模型包括两个阶段。在第一阶段中,计算设备将一组运动数据输入到递归神经网络(例如,长短期记忆(Long Short-Term Memory,LSTM)神经网络、门控递归单元(Gated Recurrent Unit,GRU)神经网络或其他形式的递归神经网络)中。响应于接收到一组运动数据,递归神经网络输出高维上下文向量。
在运动预测模型的第二阶段中,高维上下文向量输入到前馈神经网络中。此外,在一些实施方式中,计算设备将时间向量与高维上下文向量一起输入到前馈神经网络中。时间向量可以提供期望由运动预测模型预测的时间长度(例如10ms、20ms等)的列表。因此,时间向量可以描述用户输入对象的位置将被预测的一个或多个未来时间。响应于接收到高维上下文向量和时间向量,前馈网络可以输出描述用户输入对象的针对由时间向量描述的每个时间或时间长度的预测的未来位置的运动预测向量。例如,运动预测向量可以包括对于每个未来时间的x维和y维中的位置的一对值,或者对于每个未来时间的x维和y维中的改变的一对值。
使用如上所述的两阶段运动预测模型可以提供许多益处。作为一个示例,使用两阶段运动预测模型消除了与被包括在训练数据中的时间指示(例如,时间戳)与由模型在实际现场使用期间观察到的时间指示之间的差异相关联的问题。
在一些实施方式中,第二阶段的前馈网络可以用递归解码器神经网络代替。在其他实施方式中,上述两阶段混合运动预测模型可以用单个堆叠递归神经网络(例如,LSTM神经网络)代替。具体地,在这样的实施方式中,时间向量和一组运动数据都可以输入到递归神经网络中。响应于接收到时间向量和一组运动数据,递归神经网络可以输出运动预测向量。
在一些实施方式中,计算设备可以以在线方式将用户输入对象的运动数据馈送到递归神经网络中。例如,在现场使用期间,在从(多个)相关传感器(例如,触敏显示屏)接收到用户输入对象运动更新的每个实例中,最新的运动数据更新(例如,x、y和时间的改变的值)可以馈送到递归神经网络中。因此,当针对用户输入对象收集附加运动数据时,可以迭代地执行运动数据收集和运动预测。这样,使用递归神经网络提供的一个益处是有能力在如上所述的以在线方式输入新的运动更新时保持来自先前更新的上下文。
根据本公开的另一方面,可以使用新颖的损失函数在真值(ground-truth)运动数据上训练本文所述的运动预测模型。更具体地,训练计算系统可以使用包括用户输入对象的多组真值运动数据的训练数据集来训练运动预测模型。例如,训练数据集可以包括描述用户输入对象的大量先前观察到的运动轨迹的运动数据。
在一些实施方式中,为了训练运动预测模型,一组真值运动数据的第一部分输入到要被训练的运动预测模型中。响应于接收到这样的第一部分,运动预测模型输出预测一组真值运动数据的剩余部分的运动预测向量。
在这样的预测之后,训练计算系统可以应用或以其他方式确定将由运动预测模型输出的运动预测向量与运动预测模型试图预测的真值运动数据的剩余部分进行比较的损失函数。训练计算系统可以通过运动预测模型来反向传播(例如,通过执行沿时间的截断反向传播)损失函数。
具体地,根据本公开的一方面,在一些实施方式中,损失函数可以采取新颖的误差比的形式或者以其他方式包括新颖的误差比。误差比可以定义为一个或多个误差向量的长度的和除以试图被预测的一个或多个真值向量的长度的和。在其他实施方式中,可以使用和的平方而不是和本身。在一些实施方式中,训练计算系统可以一次性确定整个小批量训练数据的损失函数。
使用如本文所述的依赖于“平均值比”或“总和平均值”的误差比防止了除以如果单独考虑每个误差向量/真值向量组合将会出现的零误差,因为将会有其中真值向量为空或零的一些实例(例如,用户输入对象的零运动)。
使用本文所述的误差比还改进了运动预测模型的尺度不变性。例如,训练数据和/或现场使用数据中的一些或全部可以被格式化为以像素为单元(这通常取决于分辨率)描述运动或位置。因此,使用误差比使得能够进行单元不可知的训练。然而,在其他实施方式中,除了本文所述的误差比之外或替换本文所述的误差比,损失函数还可以包括其他误差测量。例如,替换的误差测量包括均方根误差、L1损失、L2损失或其他测量。
根据本公开的另一方面,在一些实施方式中,计算设备可以为同时向设备提供输入的两个或更多个用户输入对象中的每一个实施运动预测模型的单独实例。作为一个示例,如果用户使用两个手指来与触敏屏交互,则两个手指中的每一个的单独运动数据可以分别输入到两个单独的并行运动预测模型中。例如,每个模型可以为其对应的用户输入对象(例如,手指)的每个传入位置更新提供一个预测。
此外,在一些实施方式中,只要针对每个运动预测模型的对应的用户输入对象而接收到位置更新,每个运动预测模型就可以被保持。换句话说,在每个用户输入对象的使用期中,可以针对每个用户输入对象保持递归神经网络。例如,特定手指的“使用期”可以跨越手指与触敏屏接触的持续时间。在用户输入对象的使用期之后,计算设备可以清除与用于用户输入对象的运动预测模型的递归神经网络相关联的高速缓存。以这种方式,递归神经网络可以使用其内部存储器来更好地预测用户输入对象在用户输入对象的使用期内的运动。
根据本公开的另一方面,计算设备的应用、程序或其他组件(例如,手写识别应用)可以消耗运动预测向量或以其他方式被提供有运动预测向量。应用可以将用户输入对象的预测的未来位置视为用户输入对象似乎已经被移动到这样的预测的位置。例如,手写识别应用可以基于由运动预测向量提供的预测的未来位置来识别手写。因此,应用不需要等待用户输入动作的剩余部分被接收并通过大的处理堆栈来处理,从而减少了时延。
因此,本公开为触摸时延的技术问题提供了技术的、基于机器学习的解决方案。本公开的一个示例益处是改进了预测质量。具体地,本文所述的神经网络是极好的函数逼近器,并且与多项式相比提供了更丰富的预测能力。这样,如果恰当地训练,本公开的运动预测模型可以提供优异的预测精度。
除了减少的触摸时延之外,本公开可以带来许多附加技术益处,包括例如更平滑的手指跟踪、改进的手写识别、对用户可操纵对虚拟对象(例如,游戏内的对象)的更快和更精确的用户控制、以及在用户运动输入被提供给计算设备的场景中的许多其他益处。
本公开的另一示例技术益处是其相对低的存储器使用/要求。具体地,本文所述的神经网络有效地总结训练数据并将其压缩成紧凑形式(例如,神经网络本身)。这大大减少了存储和实施预测算法所需的存储器量。
本公开的另一示例技术益处是改进的可扩展性。具体地,通过神经网络对运动数据进行建模相对于开发手工运动预测算法而言大大减少了所需的研究时间。例如,对于手工运动预测算法,设计者将需要在数据上迭代该算法,并设计独特的方法来处理不同的场景。相比之下,为了使用如本文所述的神经网络,可以在适当的训练数据上训练网络,并且如果训练系统允许,这可以大规模地进行。此外,当新的训练数据可用时,可以很容易地修改神经网络。
现在参考附图,将进一步详细讨论本公开的示例实施例。
示例设备和系统
图1描绘了根据本公开的示例实施例的预测用户输入对象的运动的示例计算系统100。系统100包括通过网络180通信地耦合的用户计算设备102、机器学习计算系统130和训练计算系统150。
用户计算设备102可以是任何类型的计算设备,诸如,例如个人计算设备(例如,膝上型或台式)、移动计算设备(例如,智能手机或平板电脑)、游戏控制台或控制器、可穿戴计算设备、嵌入式计算设备或任何其他类型的计算设备。
用户计算设备102包括一个或多个处理器112和存储器114。一个或多个处理器112可以是任何合适的处理设备(例如,处理器核心、微处理器、ASIC、FPGA、控制器、微控制器等),并且可以是一个处理器或可操作地连接的多个处理器。存储器114可以包括一个或多个非暂时性计算机可读存储介质,诸如RAM、ROM、EEPROM、EPROM、闪存设备、磁盘等,以及其组合。存储器114可以存储数据116和由处理器112运行使得用户计算设备102执行操作的指令118。
用户计算设备102可以存储或包括一个或多个运动预测模型120。例如,一个或多个运动预测模型120可以通过网络180从机器学习计算系统130接收,存储在用户计算设备存储器114中,并且由一个或多个处理器112使用或以其他方式实施。在一些实施方式中,用户计算设备102可以实施单个运动预测模型120的多个并行实例(例如,以为多个用户输入对象执行并行运动预测)。
用户计算设备102还可以包括通过用户输入对象的运动接收用户输入的用户输入组件122。例如,用户输入组件122可以是对用户输入对象(例如,手指或触笔)的触摸敏感的触敏组件(例如,触敏显示屏或触摸板)。然而,用户输入组件122可以包括能够通过用户输入对象的运动接收用户输入的其他组件。例如,用户输入组件122可以通过计算机视觉系统跟踪用户输入对象的运动,其中该计算机视觉系统分析由设备102的相机或通过使用雷达(例如,微型雷达)收集的影像,以检测基于非触摸手势的用户输入。因此,用户输入对象相对于用户输入组件122的运动使得用户能够向计算设备102提供用户输入。
机器学习计算系统130包括一个或多个处理器132和存储器134。一个或多个处理器132可以是任何合适的处理设备(例如,处理器核心、微处理器、ASIC、FPGA、控制器、微控制器等),并且可以是一个处理器或可操作地连接的多个处理器。存储器134可以包括一个或多个非暂时性计算机可读存储介质,诸如RAM、ROM、EEPROM、EPROM、闪存设备、磁盘等,以及其组合。存储器134可以存储数据136和由处理器132运行使得机器学习计算系统130执行操作的指令138。
在一些实施方式中,机器学习计算系统130包括一个或多个服务器计算设备,或者以其他方式由一个或多个服务器计算设备实施。在机器学习计算系统130包括多个服务器计算设备的实例中,这样的服务器计算设备可以根据顺序计算架构、并行计算架构或其某个组合来操作。
机器学习计算系统130存储或以其他方式包括一个或多个机器学习运动预测模型140。例如,运动预测模型140可以是或可以以其他方式包括各种机器学习模型,诸如神经网络(例如,深度递归神经网络)或其他多层非线性模型。参考图2-图4讨论示例运动预测模型140。
机器学习计算系统130可以经由与通过网络180通信地耦合的训练计算系统150的交互来训练运动预测模型140。训练计算系统150可以与机器学习计算系统130分离,或者可以是机器学习计算系统130的一部分。
训练计算系统150包括一个或多个处理器152和存储器154。一个或多个处理器152可以是任何合适的处理设备(例如,处理器核心、微处理器、ASIC、FPGA、控制器、微控制器等),并且可以是一个处理器或可操作地连接的多个处理器。存储器154可以包括一个或多个非暂时性计算机可读存储介质,诸如RAM、ROM、EEPROM、EPROM、闪存设备、磁盘等,以及其组合。存储器154可以存储数据156和由处理器152运行使得训练计算系统150执行操作的指令158。在一些实施方式中,训练计算系统150包括一个或多个服务器计算设备,或者以其他方式由一个或多个服务器计算设备实施。
训练计算系统150可以包括模型训练器160,其中该模型训练器160使用各种训练或学习技术(诸如,例如向后传播(例如,沿时间的截断反向传播))训练存储在机器学习计算系统130处的机器学习模型140。模型训练器160可以执行许多泛化技术(例如,权重衰减、随机失活(dropout)等)以改进正被训练的模型的泛化能力。
具体地,模型训练器160可以基于一组训练数据142训练运动预测模型140。训练数据142可以包括真值运动数据(例如,描述所记录的用户输入对象路径、轨迹、位置或其他运动数据的真值向量)。在一些实施方式中,训练示例可以由用户计算设备102(例如,基于由用户计算设备102的用户执行的用户输入动作)提供。因此,在这样的实施方式中,提供给用户计算设备102的模型120可以由训练计算系统150在从用户计算设备102接收的用户特定运动数据上训练。
模型训练器160包括用于提供期望功能的计算机逻辑。模型训练器160可以以控制通用处理器的硬件、固件和/或软件来实施。例如,在一些实施方式中,模型训练器160包括存储在存储设备上、加载到存储器中并由一个或多个处理器运行的程序文件。在其他实施方式中,模型训练器160包括存储在有形计算机可读存储介质(诸如RAM硬盘、或光学或磁性介质)中的一组或多组计算机可运行指令。
网络180可以是任何类型的通信网络,诸如局域网(例如,内联网)、广域网(例如,因特网)或其某个组合,并且可以包括任何数量的有线或无线链路。一般来说,通过网络180的通信可以使用各种通信协议(例如,TCP/IP、HTTP、SMTP、FTP)、编码或格式(例如,HTML、XML)和/或保护方案(例如,VPN、安全HTTP、SSL),经由任何类型的有线和/或无线连接来承载。
图1图示了可以用于实施本公开的一个示例计算系统。也可以使用其他计算系统。例如,在一些实施方式中,用户计算设备可以包括模型训练器和训练数据集。在这样的实施方式中,运动预测模型可以在用户计算设备处被本地训练和使用。
示例运动预测模型
图2描绘了根据本公开的示例实施例的示例运动预测模型200。运动预测模型200包括递归神经网络202。例如,递归神经网络202可以是深度递归神经网络。例如,递归神经网络202可以是多层LSTM神经网络或多层GRU神经网络。
递归神经网络202可以接收用户输入对象的最近运动历史206作为输入。例如,最近的运动历史206可以采取位置更新的形式。最近的运动历史206可以描述用户输入对象随时间的位置。
作为一个示例,运动历史206可以包括对象位置和时间的一个或多个条目。例如,一组运动数据可以包括提供用户输入对象在x维和y维上的位置以及与每个位置相关联的时间戳的一个或多个条目。
作为另一示例,运动历史206可以包括一个或多个条目,其中该一个或多个条目描述用户输入对象在x维和y维上的位置的改变,以及与每对x值的改变和y值的改变相关联的时间戳或时间的改变。
在一些实施方式中,运动历史206以在线方式输入到递归神经网络202中。例如,在现场使用期间,在从(多个)相关传感器(例如,触敏显示屏)接收到用户输入对象运动更新206的每个实例中,最新的运动数据更新206(例如,x、y和时间的改变的值)可以馈送到递归神经网络202中。这样,由递归神经网络202提供的一个益处是有能力在如上所述的以在线方式输入新的运动更新206时保持来自先前更新206的上下文。
在又一实施方式中,描述用户输入对象的附加数据可以与运动历史206一起输入到递归神经网络202中。例如,可以收集关于触敏显示屏上的用户输入对象压力、触敏显示屏上的用户输入对象半径或其他用户输入对象参数的信息(例如,传感器数据),并且将其提供给递归神经网络202。
响应于接收到运动历史206,递归神经网络202可以输出高维上下文向量210。例如,高维上下文向量210可以具有超过一百维的特征。
运动预测模型200还包括前馈神经网络204。前馈神经网络204接收高维上下文向量210。此外,前馈神经网络204接收描述至少一个未来时间208的信息。例如,信息208可以是提供期望由运动预测模型200预测的时间长度(例如,10ms、20m、30m等)的列表的时间向量。
响应于接收到高维上下文向量210和至少一个未来时间208,前馈神经网络204输出运动预测向量212。运动预测向量212可以描述用户输入对象的针对至少一个未来时间208中的每一个未来时间的预测的未来位置。
作为另一示例,图3描绘了根据本公开的示例实施例的另一示例运动预测模型300。运动预测模型300包括递归神经网络302。递归神经网络302可以类似于图2的递归神经网络202。
然而,在图3的模型300中,递归神经网络302包括一个用户输入对象的最近运动历史304和描述至少一个未来时间306的信息。响应于接收到运动历史304和至少一个未来时间306,递归神经网络302输出运动预测向量308。运动预测向量308可以描述用户输入对象的针对至少一个未来时间306中的每一个未来时间的预测的未来位置。
作为又一示例,图4描绘了根据本公开的示例实施例的另一示例运动预测模型400。模型400高度类似于图2的模型200,如图2和图4所示的各种组件和数据的相同附图标记所指示的。然而,模型400包括递归解码器神经网络404,代替图2的模型200的前馈网络204。
示例方法
图5描绘了根据本公开的示例实施例的预测用户输入对象的运动的示例方法500的流程图。
在502处,计算设备获得与用户输入对象相关联的第一组运动数据。第一组运动数据可以描述用户输入对象随时间的位置。例如,可以收集和处理从各种传感器(例如,触敏显示屏或其他用户输入组件)接收的数据,以生成一组运动数据。作为一个示例,一组运动数据可以包括对象位置和时间的一个或多个条目。例如,一组运动数据可以包括提供用户输入对象在x维和y维上的位置以及与每个位置相关联的时间戳的一个或多个条目。
作为另一示例,一组运动数据可以包括一个或多个条目,其中该一个或多个条目描述用户输入对象在x维和y维上的位置的改变,以及与每对x值的改变和y值的改变相关联的时间戳或时间的改变。在一些实施方式中,当检测到用户输入对象的附加运动时,一组运动数据被迭代地更新、刷新或生成。因此,例如,可以在接收到位置更新时以迭代方式执行方法500。
在504处,计算设备将第一组运动数据输入到运动预测模型的递归神经网络中。在一些实施方式中,在504处,计算设备可以收集描述用户输入对象的附加数据,并且可以将这样的数据与一组运动数据一起输入到运动预测模型中。例如,可以收集关于触敏显示屏上的用户输入对象压力、触敏显示屏上的用户输入对象半径或其他用户输入对象参数的信息(例如,传感器数据),并且将其提供给运动预测模型,用于预测用户输入对象的未来位置。
在一些实施方式中,运动预测模型包括两个阶段。在第一阶段中,计算设备将一组运动数据输入到递归神经网络(例如,长短期记忆(LSTM)神经网络、门控递归单元(GRU)神经网络或其他形式的递归神经网络)中。响应于接收到一组运动数据,递归神经网络输出高维上下文向量。
在运动预测模型的第二阶段中,高维上下文向量输入到前馈神经网络中。此外,在一些实施方式中,计算设备将时间向量与高维上下文向量一起输入到前馈神经网络中。时间向量可以提供期望由运动预测模型预测的时间长度(例如10ms、20ms等)的列表。因此,时间向量可以描述用户输入对象的位置将被预测的一个或多个未来时间。
响应于接收到高维上下文向量和时间向量,前馈网络可以输出描述用户输入对象的针对由时间向量描述的每个时间或时间长度的预测的未来位置的运动预测向量。具体地,再次参考图5,在506处,计算设备接收运动预测向量作为运动预测模型的输出,其中该运动预测向量描述用户输入对象的分别针对一个或多个未来时间的一个或多个预测的未来位置。
在一些实施方式中,第二阶段的前馈网络可以用递归解码器神经网络代替。在其他实施方式中,上述两阶段混合运动预测模型可以用单个堆叠递归神经网络(例如LSTM神经网络)代替。具体地,在这样的实施方式中,在504处,时间向量和一组运动数据都可以输入到递归神经网络中。在506处,响应于接收到时间向量和一组运动数据,递归神经网络可以输出运动预测向量。
在一些实施方式中,在504处,计算设备可以以在线方式将用户输入对象的运动数据馈送到递归神经网络中。例如,在现场使用期间,在502处从(多个)相关传感器(例如,触敏显示屏)接收到用户输入对象运动更新的每个实例中,在504处,最新的运动数据更新(例如,x、y和时间的改变的值)可以馈送到递归神经网络中。因此,当针对用户输入对象收集附加运动数据时,可以迭代地执行在502处的运动数据收集和在504-506处的运动预测。这样,使用递归神经网络提供的一个益处是有能力在如上所述的以在线方式输入新的运动更新时保持来自先前更新的上下文。
在508处,计算设备执行由包括通过运动预测向量描述的一个或多个预测的未来位置的输入动作请求的一个或多个动作。例如,用户输入对象的预测的未来位置可以被视为其似乎由用户输入组件(例如,触敏显示屏)接收。因此,用户输入对象的预测的位置可以用于完成用户输入动作(例如,向左划动动作),该用户输入动作的初始部分由在502处获得的一组运动数据描述。因此,预测的未来用户输入对象位置可以对应于所请求的动作(例如,由向左划动所请求的计算动作),并且(多个)所请求的动作(例如,渲染显示屏,使得先前显示在屏幕上的项目已经被向左划动)可以在508处执行。
图6描绘了根据本公开的示例实施例的训练运动预测模型的示例方法600的流程图。具体地,根据本公开的另一方面,可以使用新颖的损失函数在真值运动数据上训练本文所述的运动预测模型。训练计算系统可以使用包括用户输入对象的多组真值运动数据的训练数据集来训练运动预测模型。例如,训练数据集可以包括描述用户输入对象的大量先前观察到的运动轨迹的运动数据。
作为示例,图7描绘了根据本公开的示例实施例的示例运动向量的图形示图。具体地,图7图示了一组真值运动数据,其中该一组真值运动数据包括四个真值运动向量:700、702、704和706。这些真值运动向量700、702、704和706可以形成可用于训练模型的一组真值运动数据。真值运动向量700、702、704和706可以描述先前观察到的用户输入对象轨迹/迹线。出于解释的目的提供图7作为一个简化示例,并且本公开不限于图7所示的示例。
再次参考图6,在602处,计算设备将一组真值运动数据的第一部分输入到运动预测模型中。例如,在602处,计算设备可以将第一真值运动向量700输入到运动预测模型中。提供第一真值运动向量700的输入仅作为示例。在其他实例中,在602处,可以输入多于一个真值运动向量。
响应于接收到这样的第一部分,运动预测模型输出预测一组真值运动数据的剩余部分的运动预测向量。因此,在604处,计算设备接收运动预测向量作为运动预测模型的输出。
作为示例,再次参考图7,响应于接收到第一真值运动向量700,运动预测模型可以输出识别用户输入对象的三个预测的未来位置的运动预测向量。这个运动预测向量由预测向量722、724和726共同图形地呈现。例如,第一预测的向量722从用户输入对象的最后已知位置延伸到用户输入对象的第一预测的未来位置;第二预测的向量724从第一预测的未来位置延伸到第二预测的未来位置;并且第三预测的向量726从第二预测的未来位置延伸到第三预测的未来位置。提供在运动预测向量中包括三个预测的未来位置仅作为一个示例。运动预测向量可以包括(例如,由输入时间向量引导的)任何数量(例如,一个或多个)的预测的未来位置。
再次参考图6,在606处,计算设备确定描述运动预测向量和一组真值运动数据的第二部分之间的差异的损失函数。例如,根据本公开的一方面,在一些实施方式中,损失函数可以采取新颖的误差比的形式或者以其他方式包括新颖的误差比。误差比可以定义为一个或多个误差向量的长度的和除以试图被预测的一个或多个真值向量的长度的和。在其他实施方式中,可以使用和的平方而不是和本身。在一些实施方式中,训练计算系统可以一次性确定整个小批量训练数据的损失函数。
作为示例,再次参考图7,可以基于预测向量722、724、726分别和对应的真值运动向量702、704和706之间的差异来分别定义一组误差向量742、744和746。继续该示例,误差比可以定义为向量742、744和746的长度的和除以向量702、704和706的长度的和。在一些实施方式中,针对整批训练数据来确定该误差比,而不仅仅是针对单对真值数据和运动预测向量。
使用如本文所述的依赖于“平均值比”或“总和平均值”的误差比防止了除以如果单独考虑每个误差向量/真值向量组合将会出现的零误差,因为将会有其中真值向量为空或零的一些实例(例如,用户输入对象的零运动)。
使用本文所述的误差比还改进了运动预测模型的尺度不变性。例如,训练数据和/或现场使用数据中的一些或全部可以被格式化为以像素为单元(这通常取决于分辨率)描述运动或位置。因此,使用误差比使得能够进行单元不可知的训练。然而,在其他实施方式中,除了本文所述的误差比之外或替换本文所述的误差比,损失函数还可以包括其他误差测量。例如,替换的误差测量包括均方根误差、L1损失、L2损失或其他测量。
再次参考图6,在608处,计算设备基于损失函数训练运动预测模型。例如,计算设备可以执行沿时间的截断向后传播,以通过运动预测模型反向传播损失函数。可以在608处可选地执行许多泛化技术(例如,权重衰减、随机失活等),以改进正被训练的模型的泛化能力。
已经在608处训练了模型之后,可以将该模型提供给用户计算设备并存储在用户计算设备处,用于在用户计算设备处预测用户输入对象的运动。更具体地,在602-608中描述的训练过程可以重复几次(例如,直到目标损失函数不再改进)以训练模型。
作为另一示例,图8描绘了根据本公开的示例实施例的示例运动向量的图形示图。具体地,图8示出了一组真值运动数据,其中该一组真值运动数据包括四个真值运动向量:800、802、804和806。这些真值运动向量800、802、804和806可以形成可用于训练模型的一组真值运动数据。真值运动向量800、802、804和806可以描述先前观察到的用户输入对象轨迹/迹线。出于解释的目的提供图8作为一个简化示例,并且本公开不限于图8所示的示例。
继续该示例,响应于接收到第一真值运动向量800,运动预测模型可以输出识别用户输入对象的三个预测的未来位置的运动预测向量。这个运动预测向量由预测向量822、824和826共同图形地呈现。例如,第一预测的向量822从用户输入对象的最后已知位置延伸到用户输入对象的第一预测的未来位置;第二预测的向量824从用户输入对象的最后已知位置延伸到第二预测的未来位置;并且第三预测的向量826从用户输入对象的最后已知位置延伸到第三预测的未来位置。提供在运动预测向量中包括三个预测的未来位置仅作为一个示例。运动预测向量可以包括(例如,由输入时间向量引导的)任何数量(例如,一个或多个)的预测的未来位置。
此外,一组误差向量842、844和846可以基于预测向量822、824、826分别和由真值运动向量802、804和806提供的对应的位置之间的差异来分别定义。继续该示例,误差比可以定义为向量842、844和846的长度的和除以向量802的长度、向量802+804的长度和向量802+804+806的长度的和。在一些实施方式中,针对整批训练数据来确定该误差比,而不仅仅是针对单对真值数据和运动预测向量。
附加公开
本文讨论的技术参考了服务器、数据库、软件应用和其他基于计算机的系统,以及采取的动作、和发送到及来自这样的系统的信息。基于计算机的系统的固有灵活性允许组件之间和组件中的任务和功能的各种可能的配置、组合以及划分。例如,本文讨论的过程可以使用单个设备或组件、或者组合工作的多个设备或组件来实施。数据库和应用可以在单个系统上实施,也可以跨多个系统分布。分布式组件可以顺序或并行操作。
虽然已经针对本主题的各种具体示例实施例详细描述了本主题,但是每个示例通过解释而不是限制本公开来提供。本领域技术人员在得到对上述内容的理解后,可以容易地做出这样的实施例的变更、变化和等同物。因此,本发明并不排除包括将对本领域普通技术人员显而易见的对本主题的这样的修改、变化和/或添加。例如,作为一个实施例的一部分图示或描述的特征可以与另一实施例一起使用,以产生又一实施例。因此,意图是本公开覆盖这样的变更、变化和等同物。
具体地,尽管图5和图6出于图示和讨论的目的分别描述了以特定顺序执行的步骤,但是本公开的方法不限于特定图示的顺序或布置。在不偏离本公开的范围的情况下,方法500和600的各个步骤可以以各种方式省略、重新布置、组合和/或调整。

Claims (24)

1.一种预测用户输入对象的运动的计算机实施的方法,该方法包括:
由一个或多个计算设备获得与用户输入对象相关联的第一组运动数据,所述第一组运动数据描述用户输入对象随时间的位置;
由一个或多个计算设备将第一组运动数据输入到机器学习运动预测模型的递归神经网络中;以及
由一个或多个计算设备接收运动预测向量作为运动预测模型的输出,其中所述运动预测向量描述用户输入对象的分别针对一个或多个未来时间的一个或多个预测的未来位置。
2.根据权利要求1所述的计算机实施的方法,其中,由一个或多个计算设备获得与用户输入对象相关联的第一组运动数据包括由一个或多个计算设备获得与用户的手指或由用户操作的触笔相关联的第一组运动数据,所述第一组运动数据描述手指或触笔相对于触敏屏的运动。
3.根据权利要求1或2所述的计算机实施的方法,其中,由一个或多个计算设备将第一组运动数据输入到运动预测模型的机器学习递归神经网络中包括由一个或多个计算设备将第一组运动数据输入到运动预测模型的机器学习长短期记忆(LSTM)神经网络中。
4.根据权利要求1-3中任一项所述的计算机实施的方法,还包括:
由一个或多个计算设备接收高维上下文向量作为递归神经网络的输出;以及
由一个或多个计算设备将高维上下文向量和描述一个或多个未来时间的时间向量输入到运动预测模型的前馈神经网络中;
其中,由一个或多个计算设备接收运动预测向量作为运动预测模型的输出包括由一个或多个计算设备接收运动预测向量作为前馈神经网络的输出。
5.根据权利要求1-3中任一项所述的计算机实施的方法,还包括:
由一个或多个计算设备接收高维上下文向量作为递归神经网络的输出;以及
由一个或多个计算设备将高维上下文向量和描述一个或多个未来时间的时间向量输入到运动预测模型的递归解码器神经网络中;
其中,由一个或多个计算设备接收运动预测向量作为运动预测模型的输出包括由一个或多个计算设备接收运动预测向量作为递归解码器神经网络的输出。
6.根据权利要求1-3中任一项所述的计算机实施的方法,其中:
由一个或多个计算设备将第一组运动数据输入到机器学习递归神经网络中包括由一个或多个计算设备将第一组运动数据和描述一个或多个未来时间的时间向量输入到递归神经网络中;以及
由一个或多个计算设备接收运动预测向量作为运动预测模型的输出包括由一个或多个计算设备接收运动预测向量作为递归神经网络的输出。
7.根据前述权利要求中任一项所述的计算机实施的方法,其中,由一个或多个计算设备获得与用户输入对象相关联的第一组运动数据包括:
由一个或多个计算设备获得第一组运动数据,其中所述第一组运动数据提供描述用户输入对象在x维中的位置的改变的至少一个值、描述用户输入对象在y维中的位置的改变的至少一个值、以及描述时间的改变的至少一个值;或者
由一个或多个计算设备获得第一组运动数据,其中所述第一组运动数据提供描述用户输入对象在x维中的至少两个位置的至少两个值、描述用户输入对象在y维中的至少两个位置的至少两个值、以及描述至少两个时间的至少两个值。
8.根据前述权利要求中任一项所述的计算机实施的方法,还包括:
由一个或多个计算设备基于一组训练数据训练运动预测模型;
其中,由一个或多个计算设备训练运动预测模型包括由一个或多个计算设备通过运动预测模型反向传播损失函数;并且
其中,损失函数包括描述一个或多个误差向量分别的一个或多个长度的第一和除以一个或多个真值向量分别的一个或多个长度的第二和的误差比。
9.根据前述权利要求中任一项所述的计算机实施的方法,其中:
由一个或多个计算设备获得第一组运动数据包括由一个或多个计算设备迭代地获得分别更新用户输入对象随时间的位置的多个运动更新;
由一个或多个计算设备将第一组运动数据输入到递归神经网络包括由一个或多个计算设备迭代地将多个运动更新中的每一个运动更新在它们被迭代地获得时输入到递归神经网络中;以及
由一个或多个计算设备接收运动预测向量作为运动预测模型的输出包括由一个或多个计算设备迭代地接收多个运动预测向量作为运动预测模型的输出。
10.根据前述权利要求中任一项所述的计算机实施的方法,还包括:
当确定用户输入对象已经停止提供用户输入时,由一个或多个计算设备清除与递归神经网络相关联的高速缓存。
11.一种响应来自用户输入对象的触摸输入的计算机实施的方法,所述触摸输入在触敏设备处被接收,所述方法包括根据权利要求1至10中任一项所述的方法预测用户输入对象的运动,其中所述第一组运动数据基于在触敏设备处接收的触摸输入,并且所述方法还包括根据所述运动预测向量执行一个或多个操作。
12.一种被配置为执行前述权利要求中任一项所述的方法的装置。
13.一种计算机可读指令,其中当所述计算机可读指令由计算装置运行时,使得权利要求1至11中任一项所述的方法被执行。
14.一种预测用户输入对象的运动的计算设备,所述计算设备包括:
至少一个处理器;
机器学习运动预测模型,包括递归神经网络,其中所述运动预测模型被训练为接收指示用户输入对象的运动的运动数据,并且响应于接收到运动数据而输出用户输入对象的预测的未来位置;以及
存储指令的至少一个有形、非暂时性计算机可读介质,其中当所述指令由至少一个处理器运行时,使得至少一个处理器:
获得与用户输入对象相关联的第一组运动数据,所述第一组运动数据描述用户输入对象随时间的位置;
将第一组运动数据输入到运动预测模型的递归神经网络中;
接收运动预测向量作为运动预测模型的输出,其中所述运动预测向量描述用户输入对象的分别针对一个或多个未来时间的一个或多个预测的未来位置;和
执行与由运动预测向量描述的一个或多个预测的未来位置相关联的一个或多个动作。
15.根据权利要求14所述的计算设备,其中,第一组运动数据与用户的手指或由用户操作的触笔相关联,并且其中第一组运动数据描述手指或触笔相对于触敏屏的运动。
16.根据权利要求14或15所述的计算设备,其中,递归神经网络包括长短期记忆(LSTM)神经网络。
17.根据权利要求14至16中任一项所述的计算设备,其中:
运动预测模型还包括被配置为接收递归神经网络的输出的前馈神经网络,其中所述递归神经网络的输出包括高维上下文向量;
指令的运行还使得至少一个处理器将描述一个或多个未来时间的时间向量与高维上下文向量一起输入到运动预测模型的前馈神经网络中;
所述至少一个处理器接收运动预测向量作为前馈神经网络的输出。
18.根据权利要求14至16中任一项所述的计算设备,其中:
运动预测模型还包括被配置为接收递归神经网络的输出的递归解码器神经网络,其中所述递归神经网络的输出包括高维上下文向量;
指令的运行还使得至少一个处理器将描述一个或多个未来时间的时间向量与高维上下文向量一起输入到运动预测模型的递归解码器神经网络中;
所述至少一个处理器接收运动预测向量作为递归解码器神经网络的输出。
19.根据权利要求14至16中任一项所述的计算设备,其中:
指令的运行还使得至少一个处理器将描述一个或多个未来时间的时间向量与第一组运动数据一起输入到递归神经网络中;
所述至少一个处理器接收运动预测向量作为递归神经网络的输出。
20.根据权利要求14至19中任一项所述的计算设备,其中:
运动预测模型由损失函数通过运动预测模型的反向传播来训练;并且
损失函数包括描述一个或多个误差向量分别的一个或多个长度的第一和除以一个或多个真值向量分别的一个或多个长度的第二和的误差比。
21.一种计算系统,包括:
用户计算设备,所述用户计算设备包括:
至少一个处理器;以及
至少一种非暂时性计算机可读介质,存储:
机器学习运动预测模型,被配置为接收指示用户输入对象的运动的运动数据,并且响应于接收到运动数据而输出用户输入对象的预测的未来位置,运动预测模型由损失函数通过运动预测模型的反向传播来训练,所述损失函数包括描述一个或多个误差向量分别的一个或多个长度的第一和除以一个或多个真值向量分别的一个或多个长度的第二和的误差比;以及
指令,其中当所述指令由所述至少一个处理器运行时,使得用户计算设备使用机器学习运动预测模型来获得用户输入对象的预测的未来位置。
22.根据权利要求21所述的计算系统,其中,运动预测模型包括递归神经网络。
23.根据权利要求21或22所述的计算系统,还包括:
训练计算系统,其通过运动预测模型反向传播损失函数以训练运动预测模型。
24.根据权利要求21至23中任一项所述的计算系统,其中,用户计算设备包括被配置为接收来自用户输入对象的触摸输入的触敏设备,其中所述运动数据基于所述触摸输入,并且其中指令在被运行时还使得用户计算设备根据用户输入对象的预测的未来位置来执行一个或多个操作。
CN201780055187.7A 2016-09-08 2017-08-17 执行触摸运动预测的深度机器学习 Active CN109716361B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311095727.8A CN117332812A (zh) 2016-09-08 2017-08-17 执行触摸运动预测的深度机器学习

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/259,917 US10514799B2 (en) 2016-09-08 2016-09-08 Deep machine learning to perform touch motion prediction
US15/259,917 2016-09-08
PCT/US2017/047300 WO2018048598A1 (en) 2016-09-08 2017-08-17 Deep machine learning to perform touch motion prediction

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202311095727.8A Division CN117332812A (zh) 2016-09-08 2017-08-17 执行触摸运动预测的深度机器学习

Publications (2)

Publication Number Publication Date
CN109716361A true CN109716361A (zh) 2019-05-03
CN109716361B CN109716361B (zh) 2023-09-15

Family

ID=59714158

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201780055187.7A Active CN109716361B (zh) 2016-09-08 2017-08-17 执行触摸运动预测的深度机器学习
CN202311095727.8A Pending CN117332812A (zh) 2016-09-08 2017-08-17 执行触摸运动预测的深度机器学习

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202311095727.8A Pending CN117332812A (zh) 2016-09-08 2017-08-17 执行触摸运动预测的深度机器学习

Country Status (5)

Country Link
US (2) US10514799B2 (zh)
EP (2) EP3510529B1 (zh)
CN (2) CN109716361B (zh)
DE (1) DE202017105184U1 (zh)
WO (1) WO2018048598A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110865767A (zh) * 2019-11-20 2020-03-06 深圳传音控股股份有限公司 应用程序的运行方法、装置、设备及存储介质
WO2020228489A1 (zh) * 2019-05-16 2020-11-19 腾讯科技(深圳)有限公司 基于视觉的触觉测量方法、装置、芯片及存储介质
CN113496268A (zh) * 2020-04-08 2021-10-12 北京图森智途科技有限公司 一种轨迹预测方法和装置
CN114224577A (zh) * 2022-02-24 2022-03-25 深圳市心流科技有限公司 智能假肢的训练方法、装置、电子设备、智能假肢及介质

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699185B2 (en) * 2017-01-26 2020-06-30 The Climate Corporation Crop yield estimation using agronomic neural network
EP3613014B1 (en) 2017-04-21 2023-10-18 Zenimax Media Inc. Player input motion compensation by anticipating motion vectors
KR20200010640A (ko) * 2018-06-27 2020-01-31 삼성전자주식회사 모션 인식 모델을 이용한 자체 운동 추정 장치 및 방법, 모션 인식 모델 트레이닝 장치 및 방법
WO2020039273A1 (en) * 2018-08-21 2020-02-27 Sage Senses Inc. Method, system and apparatus for touch gesture recognition
CN110890930B (zh) 2018-09-10 2021-06-01 华为技术有限公司 一种信道预测方法、相关设备及存储介质
US11514585B2 (en) * 2018-09-17 2022-11-29 Nokia Solutions And Networks Oy Object tracking
TWI719591B (zh) * 2019-08-16 2021-02-21 緯創資通股份有限公司 物件追蹤方法及其電腦系統
US11717748B2 (en) * 2019-11-19 2023-08-08 Valve Corporation Latency compensation using machine-learned prediction of user input
GB2591765B (en) * 2020-02-04 2023-02-08 Peratech Holdco Ltd Classifying mechanical interactions
CN113448482A (zh) * 2020-03-25 2021-09-28 华为技术有限公司 触控屏的滑动响应控制方法及装置、电子设备
JP7163545B2 (ja) 2020-03-30 2022-11-01 東芝情報システム株式会社 タッチパネル装置及びタッチパネル用プログラム
CN114418159B (zh) * 2021-10-29 2023-01-03 中国科学院宁波材料技术与工程研究所 肢体运动轨迹及其预测误差的预测方法、系统和电子装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609130A (zh) * 2010-12-29 2012-07-25 微软公司 计算设备中的触摸事件预期
US20140204036A1 (en) * 2013-01-24 2014-07-24 Benoit Schillings Predicting touch input
CN105159890A (zh) * 2014-06-06 2015-12-16 谷歌公司 使用神经网络产生输入序列的表示
CN105518708A (zh) * 2015-04-29 2016-04-20 北京旷视科技有限公司 用于验证活体人脸的方法、设备和计算机程序产品
US20160189027A1 (en) * 2014-12-24 2016-06-30 Google Inc. Augmenting neural networks to generate additional outputs
CN105787582A (zh) * 2015-12-24 2016-07-20 清华大学 股票风险预测方法和装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4752906A (en) 1986-12-16 1988-06-21 American Telephone & Telegraph Company, At&T Bell Laboratories Temporal sequences with neural networks
JP2676397B2 (ja) 1989-01-05 1997-11-12 株式会社エイ・ティ・アール視聴覚機構研究所 動的システムの運動軌道生成方法
US5105468A (en) 1991-04-03 1992-04-14 At&T Bell Laboratories Time delay neural network for printed and cursive handwritten character recognition
US5412754A (en) 1992-06-30 1995-05-02 At&T Corp. Reverse time delay neural network for pattern generation
US5742702A (en) 1992-10-01 1998-04-21 Sony Corporation Neural network for character recognition and verification
US5930781A (en) 1992-10-27 1999-07-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Neural network training by integration of adjoint systems of equations forward in time
US5812698A (en) 1995-05-12 1998-09-22 Synaptics, Inc. Handwriting recognition system and method
US6038338A (en) 1997-02-03 2000-03-14 The United States Of America As Represented By The Secretary Of The Navy Hybrid neural network for pattern recognition
US6610917B2 (en) 1998-05-15 2003-08-26 Lester F. Ludwig Activity indication, external source, and processing loop provisions for driven vibrating-element environments
US20120056846A1 (en) 2010-03-01 2012-03-08 Lester F. Ludwig Touch-based user interfaces employing artificial neural networks for hdtp parameter and symbol derivation
US20130009896A1 (en) 2011-07-09 2013-01-10 Lester F. Ludwig 3d finger posture detection and gesture recognition on touch surfaces
US8194926B1 (en) 2011-10-05 2012-06-05 Google Inc. Motion estimation for mobile device user interaction
US9224090B2 (en) 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US20130297539A1 (en) 2012-05-07 2013-11-07 Filip Piekniewski Spiking neural network object recognition apparatus and methods
US8487896B1 (en) * 2012-06-27 2013-07-16 Google Inc. Systems and methods for improving image tracking based on touch events
US9678506B2 (en) * 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9248834B1 (en) 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609130A (zh) * 2010-12-29 2012-07-25 微软公司 计算设备中的触摸事件预期
US20140204036A1 (en) * 2013-01-24 2014-07-24 Benoit Schillings Predicting touch input
CN105159890A (zh) * 2014-06-06 2015-12-16 谷歌公司 使用神经网络产生输入序列的表示
US20160189027A1 (en) * 2014-12-24 2016-06-30 Google Inc. Augmenting neural networks to generate additional outputs
CN105518708A (zh) * 2015-04-29 2016-04-20 北京旷视科技有限公司 用于验证活体人脸的方法、设备和计算机程序产品
CN105787582A (zh) * 2015-12-24 2016-07-20 清华大学 股票风险预测方法和装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020228489A1 (zh) * 2019-05-16 2020-11-19 腾讯科技(深圳)有限公司 基于视觉的触觉测量方法、装置、芯片及存储介质
CN110865767A (zh) * 2019-11-20 2020-03-06 深圳传音控股股份有限公司 应用程序的运行方法、装置、设备及存储介质
CN113496268A (zh) * 2020-04-08 2021-10-12 北京图森智途科技有限公司 一种轨迹预测方法和装置
CN114224577A (zh) * 2022-02-24 2022-03-25 深圳市心流科技有限公司 智能假肢的训练方法、装置、电子设备、智能假肢及介质

Also Published As

Publication number Publication date
CN109716361B (zh) 2023-09-15
DE202017105184U1 (de) 2018-01-03
EP3510529B1 (en) 2023-12-27
US11740724B2 (en) 2023-08-29
US10514799B2 (en) 2019-12-24
WO2018048598A1 (en) 2018-03-15
EP4369159A1 (en) 2024-05-15
US20180067605A1 (en) 2018-03-08
US20200089366A1 (en) 2020-03-19
EP3510529A1 (en) 2019-07-17
CN117332812A (zh) 2024-01-02

Similar Documents

Publication Publication Date Title
CN109716361A (zh) 执行触摸运动预测的深度机器学习
US20230367809A1 (en) Systems and Methods for Geolocation Prediction
CN110325949A (zh) 用于预测触摸解释的多任务机器学习
Suma Computer vision for human-machine interaction-review
Zhao et al. A spatial-temporal attention model for human trajectory prediction.
CN110832433B (zh) 基于传感器的组件激活
CN109690576A (zh) 在多个机器学习任务上训练机器学习模型
CN110503074A (zh) 视频帧的信息标注方法、装置、设备及存储介质
CN110362226A (zh) 使用触摸屏设备确定用户利手和定向
KR20180064371A (ko) 다수의 객체 입력을 인식하기 위한 시스템 및 그 방법 및 제품
US20220051004A1 (en) Image processing method, apparatus, device and storage medium
Mehrotra et al. Deep sequential models for task satisfaction prediction
Tu et al. Efficient monocular depth estimation for edge devices in internet of things
KR102198920B1 (ko) 온라인 학습을 이용한 객체 트래킹을 위한 방법 및 시스템
CN114139637B (zh) 多智能体信息融合方法、装置、电子设备及可读存储介质
CN109858615A (zh) 具有记忆的低通递归神经网络系统
CN114202123A (zh) 业务数据预测方法、装置、电子设备及存储介质
Lee Implementation of an interactive interview system using hand gesture recognition
KR102324634B1 (ko) 모바일 앱 사용자의 빅데이터 분석 모델 실시간 생성을 위한 딥러닝 오차 최소화 시스템 및 그 제어방법
CN118051143A (zh) 一种平板电脑误触监测方法、系统、装置及介质
US11755149B1 (en) Systems and methods for using statistical inference to enhance the precision of sparsified capacitive-touch and other human-interface devices
Kushnirenko et al. Active stylus input latency compensation on touch screen mobile devices
Huang et al. Clustering-based multi-touch algorithm framework for the tracking problem with a large number of points
Wibisono A training gesture-based-scroll visual artificial intelligence and measuring its effectiveness using hidden-markov modeling methods
Moder et al. Deep Learning Approach for Estimating a Human Pose on a Mobile Device

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant