CN111190530A - 移动终端中基于虚拟人物的人机交互方法及移动终端 - Google Patents

移动终端中基于虚拟人物的人机交互方法及移动终端 Download PDF

Info

Publication number
CN111190530A
CN111190530A CN201811359954.6A CN201811359954A CN111190530A CN 111190530 A CN111190530 A CN 111190530A CN 201811359954 A CN201811359954 A CN 201811359954A CN 111190530 A CN111190530 A CN 111190530A
Authority
CN
China
Prior art keywords
virtual character
touch
view
mobile terminal
touch operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811359954.6A
Other languages
English (en)
Inventor
李静
张强
赵晓芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Mobile Communications Technology Co Ltd
Original Assignee
Hisense Mobile Communications Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hisense Mobile Communications Technology Co Ltd filed Critical Hisense Mobile Communications Technology Co Ltd
Priority to CN201811359954.6A priority Critical patent/CN111190530A/zh
Publication of CN111190530A publication Critical patent/CN111190530A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种移动终端中基于虚拟人物的人机交互方法及移动终端,其中方法包括如下步骤:监听虚拟人物的触控视图中是否接收到触控操作;若虚拟人物的触控视图中接收到触控操作,则在虚拟人物的显示视图中展示所述虚拟人物执行与所述触控操作对应的动作的动画界面。本方案能够通过虚拟人物的触控视图接收用户的触控操作,并通过虚拟人物的显示视图展示相应的动画界面,从而实现用户与虚拟人物的有效互动,提高人机交互的趣味性。

Description

移动终端中基于虚拟人物的人机交互方法及移动终端
技术领域
本公开涉及移动终端技术领域,尤其涉及一种移动终端中基于虚拟人物的人机交互方法及移动终端。
背景技术
虚拟人物是通过数字技术和计算机技术模拟出来的与真实人体类似的三维模型,它具有真实人体的几何特性与人物特性。随着触控技术的发展成熟,基于虚拟人物的人机交互越来越广泛的应用于智能移动终端中。
目前,虚拟人物通常显示于触控屏幕的最上方,通过识别和响应用户的交互指令,来实现一定的启动、搜索、查找等功能。但是,现有的虚拟人物通常处于静止显示状态,人机交互界面单一,与用户的互动缺少趣味性。
发明内容
本发明实施例中提供了一种移动终端中基于虚拟人物的人机交互方法及移动终端,以解决现有技术中虚拟人物趣味性不足的问题。
第一方面,本发明提供了一种移动终端中基于虚拟人物的人机交互方法,包括:
监听虚拟人物的触控视图中是否接收到触控操作;
若是,则在虚拟人物的显示视图中展示所述虚拟人物执行与所述触控操作对应的动作的动画界面。
第二方面,本发明还提供了一种计算机存储介质,所述计算机存储介质中存储有计算机程序代码,当所述计算机程序代码在处理器上运行时,使得所述处理器执行上述方法。
第三方面,本发明还提供了一种移动终端,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序,以实现上述方法。
本申请的有益效果如下:
本发明提供了一种移动终端中基于虚拟人物的人机交互方法及移动终端,其中方法包括如下步骤:监听虚拟人物的触控视图中是否接收到触控操作;若是,则在虚拟人物的显示视图中展示所述虚拟人物执行与所述触控操作对应的动作的动画界面。本方案能够通过虚拟人物的触控视图接收用户的触控操作,并通过虚拟人物的显示视图展示相应的动画界面,从而实现用户与虚拟人物的有效互动,提高人机交互的趣味性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种移动终端中基于虚拟人物的人机交互方法的流程图;
图2为本申请实施例提供的一种虚拟人物尺寸的示意图;
图3为本申请实施例提供的一种步骤S200的流程图;
图4为本申请实施例提供的一种虚拟人物触控视图的示意图;
图5为本申请实施例提供的另一种步骤S200的流程图;
图6为本申请实施例提供的一种移动终端的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本申请中,针对虚拟人物设置有显示视图和触控视图,所述显示视图用于显示所述虚拟人物,所述触控视图用于监听所述触控区域内的触控操作。触控视图的窗口属性设定为可触碰TOUCHABLE,并对该触控视图设定触碰监听OnTouchListener,以便监听用户发送的触控操作。显示视图的窗口属性设为不可触碰即NOT_TOUCHABLE,即不接收用户触碰屏幕的事件。
为了提高虚拟人物的可见性和可操作性,本实施例中,虚拟人物的显示视图和触控视图均位于显示桌面的最上层。例如,可将显示视图和触控视图的窗口等级设置为TYPE_PHONE等级或者TYPE_SYSTEM_ALERT等级等,显示视图和触控视图的窗口等级也可以不同,二者等级高低可根据实际需求设定。
请参考图1,所示为本申请实施例提供的一种移动终端中基于虚拟人物的人机交互方法的流程图。由图1可见,所述方法包括如下步骤:
步骤S100:监听虚拟人物的触控视图中是否接收到触控操作。若在虚拟人物的触控区域内接收到触控操作,则执行步骤S200。
步骤S200:在虚拟人物的显示视图中展示所述虚拟人物执行与所述触控操作对应的动作的动画界面。
本实施例中,操作系统将触控操作转化为触控指令,解析出其中携带的指令信息,该指令信息可包含需要调用的虚拟人物的动作接口,不同的动作接口对应着不同的动作画面,通过调用动作接口即可展示虚拟人物不同的动画界面。动作接口可用字符串表示,不同的动作接口对应不同的展示动作,如动作接口11对应虚拟人物从屏幕上方跳下进入屏幕的动作,动作接口12对应虚拟人物说话的动作,动作接口13对应虚拟人物转身离开的动作。
本方案能够通过虚拟人物的触控视图接收用户的触控操作,并通过虚拟人物的显示视图展示相应的动画界面,从而实现用户与虚拟人物的有效互动,提高人机交互的趣味性。
请参考图2,所示为本申请实施例提供的一种虚拟人物尺寸的示意图。由图2可见,本申请其他实施例中,虚拟人物的预设尺寸为(contentWidth,contentHeight),其中,contentWidth为虚拟人物在屏幕X轴方向上的长度,contentHeight为虚拟人物在屏幕Y轴方向上的长度。虚拟人物底部边缘的中点M相对于以显示屏幕左上角为原点(0,0)的坐标为M(modelX,modelY),通过虚拟人物的预设尺寸和中点M的坐标可以计算出虚拟人物左上角L点的初始位置坐标为(modelX-contentWidth/2,modelY-contentHeight)。当虚拟人物接收触控操作进行滑动或者缩放时,相对应的移动L点的位置坐标、修改虚拟人物尺寸或者同时同时移动L点的位置坐标和修改虚拟人物尺寸。
通常情况下,虚拟人物的所覆盖的显示位置均应设置为可触控区域,这样,当用户点击虚拟人物的任一位置时,均能够得到虚拟人物有效的触控响应。由此,本实施例中,所述触控视图的初始尺寸大于或等于虚拟人物的预设尺寸(contentWidth,contentHeight),并且,在虚拟人物执行移动、缩放等操作后,触控视图的尺寸应始终大于或等于所述虚拟人物在所述显示视图中保持静止状态时的尺寸,这样,能够确保触控视图始终有效、全面的监听用户的触控操作,从而确保用户与虚拟人物交互的流畅性。
为了使得触控视图在虚拟人物位置和尺寸发生变化后,能够始终有效、准确的监听用户的触控操作,在可选的一种实施方式中,触控视图在屏幕上的位置与所述虚拟人物在屏幕上的位置始终相同。由于虚拟人物初始位置L点的坐标为(modelX-contentWidth/2,modelY-contentHeight),相对应的,则触控视图的初始大小为(proxyWidth,proxyHeight),proxyWidth=contentWidth,proxyHeight=contentHeight。触控视图的初始位置为(proxyX,proxyY),其中,proxyX=modelX-contentWidth/2,proxyY=modelY-contentHeight。当虚拟人物执行滑动、缩放等用户指令后,虚拟人物根据接收到的指令要求移动至目标位置,虚拟人物由初始位置L点移动至L’点。此时,移动终端可将触控视图也同步调整至虚拟人物所在的目标位置,即将触控视图由初始位置调整至L’点,以确保触控视图能够始终有效、准确的监听用户的触控操作。
虚拟人物显示视图的尺寸通常由渲染引擎预先设定,通常在设定后不易更改,而为了增强趣味性,虚拟人物的大小和位置需要随着场景APP做适应性变化,在此场景下,在可选的一种实施方式中,为了满足虚拟人物的渲染要求,以及虚拟人物在显示、移动方面的灵活性,本实施例中,显示视图的尺寸与屏幕的尺寸相同,以使虚拟人物能够在终端屏幕上的任意位置进行显示和移动。本实施例中,请参考图3,所示为本申请实施例提供的一种步骤S200的流程图。由图3可见,步骤S200可包括如下步骤:
步骤S211:确定所述触控操作在所述触控视图中的触控位置。
步骤S212:根据所述触控位置确定显示视图中所述虚拟人物的部位。
请参考图4,所示为本申请实施例提供的一种虚拟人物触控视图的示意图。由图4可见,本实施例中触控视图为矩形,其尺寸大于虚拟人物的尺寸,触控视图的长度为虚拟人物在长度方向上的最大距离,触控视图的宽度为虚拟人物在宽度方向上的最大距离。目前,虚拟人物通常为基于3D模型建立的人物形象,本申请其他实施例中,触控视图的尺寸和位置也可以完全与虚拟人物相一致。
本实施例中,可将矩形触控视图划分为不同的人物部位,并记录不同人物部位的坐标范围。图4中不同的网格代表不同的人物部位,本实施例将触控视图自上而下划分为头部区域、腹部区域和腿部区域。例如,系统获取到用户点击虚拟人物的触控位置为(touchX,touchY),根据该触控位置(touchX,touchY)与不同人物部位的坐标范围的对比结果,即可识别出用户的触控位置对应的人物部位,进而在显示视图中展示所述虚拟人物执行与所述部位对应的动作的动画界面。
当然,其他实施例中,也可以根据虚拟人物各个部位的占比来识别触控操作对应的触控部位。例如,系统获取到用户点击虚拟人物的触控位置为(touchX,touchY),当前坐标是以移动终端屏幕左上角为原点识别的坐标位置,为了便于识别虚拟人物的人物部位,本实施例将该坐标转换为以虚拟人物左上角为原点的坐标transX=touchX-modelX+contentWidth/2,tansY=touchy-modelY+contentHeight/2)。按照自上而下的顺序,当虚拟人物的头部在触控视图占比为1/4,虚拟人物的腹部在触控视图占比为2/4,虚拟人物的腿部在触控视图占比为1/4的场景下,则当0<tansY<=contentHeight/4时,用户点击的是虚拟人物的头部,当contentHeight/4<tansY<=2*contentHeight/4时,用户点击的是虚拟人物的腹部,以此类推。
步骤S213:在所述显示视图中展示所述虚拟人物执行与所述部位对应的动作的动画界面。
长按操作或点击操作不同触控子区域时,调用相应动作接口执行不同的动作,如用户点击虚拟人物的头部时,可调用动作接口让虚拟人物身体向后仰展示头被击打的动作,用户点击虚拟人物的腹部时,可调用动作接口让虚拟人物做出怕痒的动作向后缩腹部并用双手挥动阻挡,表情做出被抓痒时哈哈笑的表情,用户点击虚拟人物的腿部时,可调用动作接口让虚拟人物迅速抬起被点击的脚并微微跳起,脸上出现惊讶的表情。
请参考图5,所示为本申请实施例提供的另一种步骤S200的流程图。由图5可见,步骤S200可包括如下步骤:
步骤S221:确定所述触控操作的操作类型。所述操作类型为以下任意一种:单击、双击、滑动、长按。
本实施例中,触控操作的类型包括滑动操作、长按操作和点击操作。由于滑动、长按和单击、双击操作完成后,系统均会收到抬起事件,并在接收到抬起事件后响应指令操作。本方案通过监测按下事件和抬起事件的触控位置、触控时间来识别触控操作的类型。
具体的,可通过检测触控操作的时间和位移来确定所述触控操作的操作类型,具体的:
获取按下事件对应的初始位置和按下时间,以及抬起事件对应的目标位置和抬起时间。
用户在按压显示屏幕时,生成按下事件,在抬起时生成抬起事件,用户在抬起时,手指可能因滑动产生位移,在此场景下,系统接收到抬起事件时,难以区分触控操作的类型是点击操作还是滑动操作,造成后续指令响应的混乱。因此,本实施例通过检测所述目标位置与所述初始位置之间的距离是否大于预设阈值来识别滑动操作。
若所述目标位置与所述初始位置之间的距离大于预设阈值,则确认所述触控操作为滑动操作。本实施例中,预设阈值包括X方向的第一阈值,以及Y方向的第二阈值,当虚拟人物在X方向移动的距离大于第一阈值或Y方向移动的距离大于第二阈值时,确认所述触控操作为滑动操作。例如,第一阈值和第二阈值均为10,虚拟人物的初始位置为(100,720),第一触控操作的目标位置为(800,450),则第一触控操作后虚拟人物移动的距离大于预设阈值,第一触控操作属于滑动操作。具体的实施方式为:在系统接收到按下事件时,即开始实时检测虚拟人物的位移变化,只要当虚拟人物的位移在X方向或Y方向大于预设阈值时,即可将系统预设的用于标记滑动操作的标识参数赋值为目标值,以便系统接收到抬起操作时,确定该操作为滑动操作,排除用户误操作的可能性。本实施例中,标识参数定义一个布尔型的变量isClick,其初始的预设值为true,当检测到虚拟人物的位移满足条件后,将其赋值为目标值,即赋值为false。系统接收到抬起操作时,如果检测到变量isClick的值为false,则表明该触控操作为滑动操作。
又如,虚拟人物的初始位置为(100,720),第二触控操作的目标位置为(97,721),则第二触控操作后虚拟人物移动的距离小于预设阈值,第二触控操作不属于滑动操作。那么为了进一步识别第二触控操作的类型,需要进一步检测所述第二触控操作的按下时间与所述抬起时间的差值是否大于预设差值,若所述时间差值大于预设差值,则确认所述触控操作为长按操作。例如,第二触控操作的按下时间与所述抬起时间的差值为5S,预设差值为3S,则表明用户发出的是长按的触控操作。
又如,第二触控操作的按下时间与所述抬起时间的差值为1S,则第二触控操作的按下时间与所述抬起时间的差值小于预设差值,表明用户发出的不是长按的触控操作,而是点击操作。为了进一步识别第二触控操作为单击操作或双击操作,需要判断在预设时间段内接收到的点击次数。例如,系统在接收到第二触控操作后的0.5S内,又接收到一次点击操作,则说明第二触控操作属于双击操作,否则,第二触控操作则属于单击操作。
步骤S222:在显示视图中展示所述虚拟人物执行与所述操作类型对应的动作的动画界面。
本发明实施例还提供了一种计算机存储介质,所述计算机存储介质中存储有计算机程序代码,当所述计算机程序代码在处理器上运行时,使得所述处理器执行上述方法。
本发明实施例还提供了一种移动终端,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序,以实现上述方法。
请参考图6,所示为本申请实施例提供的一种移动终端的示意图。由图6可见,该移动终端700,其结构可包括:至少一个处理器(processor)701、内存(memory)702、外围设备接口(peripheralinterface)703、输入/输出子系统(I/Osubsystem)704、电力线路705和通信线路706。
在图6中,箭头表示能进行计算机系统的构成要素间的通信和数据传送,且其可利用高速串行总线(high-speed serial bus)、并行总线(parallelbus)、存储区域网络(SAN,Storage Area Network)和/或其他适当的通信技术而实现。
内存702可包括操作系统712和人机交互例程722。例如,内存702可包括高速随机存取存储器(high-speed random access memory)、磁盘、静态随机存取存储器(SPAM)、动态随机存取存储器(DRAM)、只读存储器(ROM)、闪存或非挥发性内存。内存702可存储用于操作系统712和人机交互例程722的程序编码,也就是说可包括移动终端700的动作所需的软件模块、指令集架构或其之外的多种数据。此时,处理器701或外围设备接口706等其他控制器与内存702的存取可通过处理器701进行控制。
外围设备接口703可将移动终端700的输入和/或输出外围设备与处理器701和内存702相结合。并且,输入/输出子系统704可将多种输入/输出外围设备与外围设备接口706相结合。电力线路705可向终端设备的电路元件的全部或部分供给电力。例如,电力线路705可包括如电力管理系统、电池或交流(AC)之一个以上的电源、充电系统、电源故障检测电路(power failuredetection circuit)、电力变换器或逆变器、电力状态标记符或用于电力生成、管理、分配的任意其他电路元件。通信线路706可利用至少一个接口与其他计算机系统进行通信。
处理器701通过施行存储在内存702中的软件模块或指令集架构可执行控制装置700的多种功能且处理数据。也就是说,处理器701通过执行基本的算术、逻辑以及计算机系统的输入/输出演算,可构成为处理计算机程序的命令。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置及系统实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上仅是本发明的具体实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (9)

1.一种移动终端中基于虚拟人物的人机交互方法,其特征在于,包括:
监听虚拟人物的触控视图中是否接收到触控操作;
若是,则在虚拟人物的显示视图中展示所述虚拟人物执行与所述触控操作对应的动作的动画界面。
2.根据权利要求1所述的方法,其特征在于,所述在虚拟人物的显示视图中展示所述虚拟人物执行与所述触控操作对应的动作的动画界面,包括:
确定所述触控操作在所述触控视图中的触控位置;
根据所述触控位置确定显示视图中所述虚拟人物的部位;
在所述显示视图中展示所述虚拟人物执行与所述部位对应的动作的动画界面。
3.根据权利要求1所述的方法,其特征在于,所述在虚拟人物的显示视图中展示所述虚拟人物执行与所述触控操作对应的动作的动画界面,包括:
确定所述触控操作的操作类型;
在显示视图中展示所述虚拟人物执行与所述操作类型对应的动作的动画界面。
4.根据权利要求3所述的方法,其特征在于,所述操作类型为以下任意一种:单击、双击、滑动、长按。
5.根据权利要求1所述的方法,其特征在于,所述触控视图在屏幕上的位置与所述虚拟人物在屏幕上的位置始终相同。
6.根据权利要求1所述的方法,其特征在于,所述触控视图的尺寸大于或等于所述虚拟人物在所述显示视图中保持静止状态时的尺寸。
7.根据权利要求1-6中任一项所述的方法,其特征在于,所述显示视图的尺寸与屏幕的尺寸相同。
8.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有计算机程序代码,当所述计算机程序代码在处理器上运行时,使得所述处理器执行如权利要求1-7中任意一项所述的方法。
9.一种移动终端,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序,以实现如权利要求1-7中任意一项所述的方法。
CN201811359954.6A 2018-11-15 2018-11-15 移动终端中基于虚拟人物的人机交互方法及移动终端 Pending CN111190530A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811359954.6A CN111190530A (zh) 2018-11-15 2018-11-15 移动终端中基于虚拟人物的人机交互方法及移动终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811359954.6A CN111190530A (zh) 2018-11-15 2018-11-15 移动终端中基于虚拟人物的人机交互方法及移动终端

Publications (1)

Publication Number Publication Date
CN111190530A true CN111190530A (zh) 2020-05-22

Family

ID=70708973

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811359954.6A Pending CN111190530A (zh) 2018-11-15 2018-11-15 移动终端中基于虚拟人物的人机交互方法及移动终端

Country Status (1)

Country Link
CN (1) CN111190530A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115883814A (zh) * 2023-02-23 2023-03-31 阿里巴巴(中国)有限公司 实时视频流的播放方法、装置及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105144286A (zh) * 2013-03-14 2015-12-09 托伊托克有限公司 用于交互的虚拟人物对话的系统和方法
CN108491147A (zh) * 2018-04-16 2018-09-04 青岛海信移动通信技术股份有限公司 一种基于虚拟人物的人机交互方法及移动终端
CN108600071A (zh) * 2018-04-16 2018-09-28 青岛海信移动通信技术股份有限公司 一种虚拟人物的分享方法及移动终端

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105144286A (zh) * 2013-03-14 2015-12-09 托伊托克有限公司 用于交互的虚拟人物对话的系统和方法
CN108491147A (zh) * 2018-04-16 2018-09-04 青岛海信移动通信技术股份有限公司 一种基于虚拟人物的人机交互方法及移动终端
CN108600071A (zh) * 2018-04-16 2018-09-28 青岛海信移动通信技术股份有限公司 一种虚拟人物的分享方法及移动终端

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115883814A (zh) * 2023-02-23 2023-03-31 阿里巴巴(中国)有限公司 实时视频流的播放方法、装置及设备

Similar Documents

Publication Publication Date Title
US9766707B2 (en) Method for using the GPU to create haptic friction maps
US10430068B2 (en) Method for displaying interface content and user equipment
CN107678664A (zh) 一种终端界面切换、手势处理的方法、装置及终端
CN105573538B (zh) 滑动断线补偿方法及电子设备
CN111475097B (zh) 一种笔迹选择方法、装置、计算机设备和存储介质
CN108064368A (zh) 柔性显示设备的控制方法及装置
CN104063128B (zh) 一种信息处理方法及电子设备
CN110377215B (zh) 模型展示方法、装置及终端设备
CN109753179B (zh) 用户操作指令的处理方法及手写阅读设备
JP2023527529A (ja) インタラクティブ情報処理方法、装置、端末、およびプログラム
CN110850982B (zh) 基于ar的人机交互学习方法、系统、设备及存储介质
EP4268913A1 (en) Position adjustment method and apparatus for operation controls, and terminal, and storage medium
CN112416236A (zh) 基于web页面的手势封装、交互方法、设备和存储介质
US10345932B2 (en) Disambiguation of indirect input
CN105739771B (zh) 一种显示界面管理方法、装置及终端
JP2016095716A (ja) 情報処理装置、情報処理方法、ならびに、プログラム
CN109298809A (zh) 一种触控动作识别方法、装置及终端设备
CN107092433B (zh) 触控一体机的触摸控制方法及装置
CN111190530A (zh) 移动终端中基于虚拟人物的人机交互方法及移动终端
CN113311981A (zh) 擦除方法、装置、智能终端及计算机可读存储介质
CN110248023B (zh) 智能终端控制方法、装置、设备和介质
CN110083290B (zh) 一种处理翻页的方法和设备
CN111744181A (zh) 游戏中信息的显示方法、装置、游戏客户端及介质
CN110658976A (zh) 一种触控轨迹显示方法及电子设备
CN107656691A (zh) 一种侧边栏的显示方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200522

RJ01 Rejection of invention patent application after publication