CN110310639A - 一种互动表情的实现方法及终端 - Google Patents

一种互动表情的实现方法及终端 Download PDF

Info

Publication number
CN110310639A
CN110310639A CN201910654751.8A CN201910654751A CN110310639A CN 110310639 A CN110310639 A CN 110310639A CN 201910654751 A CN201910654751 A CN 201910654751A CN 110310639 A CN110310639 A CN 110310639A
Authority
CN
China
Prior art keywords
phonetic order
expression
interacting
interaction
expression sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910654751.8A
Other languages
English (en)
Other versions
CN110310639B (zh
Inventor
江涛
陈江煌
王传强
祖可峰
林智雄
林鎏娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian Star Net eVideo Information Systems Co Ltd
Original Assignee
Fujian Star Net eVideo Information Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian Star Net eVideo Information Systems Co Ltd filed Critical Fujian Star Net eVideo Information Systems Co Ltd
Priority to CN201910654751.8A priority Critical patent/CN110310639B/zh
Publication of CN110310639A publication Critical patent/CN110310639A/zh
Application granted granted Critical
Publication of CN110310639B publication Critical patent/CN110310639B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开一种互动表情的实现方法及终端,获取语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系;当监听到语音指令集中的语音指令时,触发对应互动表情序列的对应步骤进行显示;结合语音识别技术,实现了一种新的互动表情的触发方式,不仅提高了互动表情触发的灵活性与丰富性,而且能够在用户无意识的情况下触发互动表情,给予用户惊喜,提高用户体验。

Description

一种互动表情的实现方法及终端
技术领域
本发明涉及互动表情处理领域,尤其涉及一种互动表情的实现方法及终端。
背景技术
随着社交软件的不断发展与应用,社交软件的用户之间已经不再满足于简单的文件和普通表情的交互,为了提高社交软件用户之间的互动体验,使得表情更加丰富个性,互动表情得到了越来越多的应用,QQ、微信、快手等热门社交软件都有互动表情的应用。
但是,现有互动表情的触发都需要用户手动点击触发或者通过协议触发,也就是说,如果要进行互动表情的触发,都需要在用户有感知的情况下才能完成,不仅造成用户操作上的繁琐,也影响用户的体验。同时,现有的互动表情一般一次已经完成所有的互动,例如,当用户看到别人发送的好笑发言时,则回复一个笑脸的互动表情,这样一次就已经完成了互动表情的互动,用户体验效果一般。
发明内容
本发明所要解决的技术问题是:提供一种互动表情的实现方法及终端,能够实现用户与互动表情的多级互动,提高用户体验。
为了解决上述技术问题,本发明采用的一种技术方案为:
一种互动表情的实现方法,包括步骤:
获取语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系;
当监听到语音指令集中的语音指令时,触发对应互动表情序列的对应步骤进行显示。
为了解决上述技术问题,本发明采用的另一种技术方案为:
一种互动表情的实现终端,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的一种互动表情的实现方法的步骤。
本发明的有益效果在于:对语音输入进行监听,当识别到预设的语音指令时,根据语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系,触发对应互动表情序列的对应步骤进行显示,结合语音识别技术,实现了一种新的互动表情的触发方式,不仅提高了互动表情触发的灵活性与丰富性,而且采用互动表情序列,用户可对同一事件实现与互动表情的多级互动,给予用户惊喜,提高用户体验。
附图说明
图1为本发明实施例的一种互动表情的实现方法的步骤流程图;
图2为本发明实施例的语音指令与互动表情的对应关系的示意图;
图3为本发明实施例的一种互动表情的实现终端的结构示意图;
标号说明:
1、一种互动表情的实现终端;2、存储器;3、处理器。
具体实施方式
为详细说明本发明的技术内容、所实现目的及效果,以下结合实施方式并配合附图予以说明。
请参照图1,一种互动表情的实现方法,包括步骤:
获取语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系;
当监听到语音指令集中的语音指令时,触发对应互动表情序列的对应步骤进行显示。
从上述描述可知,本发明的有益效果在于:对语音输入进行监听,当识别到预设的语音指令时,根据语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系,触发对应互动表情序列的对应步骤进行显示,结合语音识别技术,实现了一种新的互动表情的触发方式,不仅提高了互动表情触发的灵活性与丰富性,而且采用互动表情序列,用户可对同一事件实现与互动表情的多级互动,给予用户惊喜,提高用户体验。
进一步的,所述当监听到语音指令集中的语音指令时,触发对应互动表情序列的对应步骤进行显示包括:
所述语音指令集包括触发语音指令和互动语音指令,
当监听到语音指令集中的触发语音指令时,触发对应互动表情序列的对应步骤进行显示;
继续监听语音指令,当监听到语音指令集中的互动语音指令时,触发对应互动表情序列的对应步骤进行显示。
由上述描述可知,在互动表情序列的显示过程中,能够进一步基于特定的语音输入显示对应的互动表情序列的对应步骤,解决了现有技术中互动表情一旦被触发显示后,便无法干预后续的显示的缺陷,能够在互动表情的显示过程中与之进行交互互动,用户能够参与到互动表情的显示,提高用户的参与度,进一步提高用户体验,
进一步的,所述互动表情序列显示的过程中,所述互动语音指令的识别以及对应互动表情序列的对应步骤显示的次数为一次或多次。
由上述描述可知,在互动表情被触发显示后,在其显示过程中,能够进一步根据语音指令的识别显示互动表情序列的其他对应步骤,并且语音指令的识别和对应的互动表情序列的对应步骤的显示可以一次或多次,提高了在互动表情序列显示过程中与互动表情互动的灵活性,并且能够不断地进行交互,使得整个互动表情的显示过程更加丰富和富有层次感,进一步提高用户体验。
进一步的,所述触发互动表情序列的对应步骤显示包括:
将监听到语音指令通知给H5页面,通过H5页面根据所述对应关系显示与所述语音指令对应的互动表情序列对应的步骤,所述互动表情序列对应的步骤通过H5页面实现。
由上述描述可知,目前的互动表情一般采用gif、帧动画、alpha通道视频等方式实现,采用这些方式,互动表情在显示之后无法再进一步逻辑控制,无法设置互动表情显示有逻辑关系,例如无法控制互动表情显示的前后顺序,无法实现多个连续的互动表情完成一个事件,因此无法实现互动表情序列的显示方式;通过H5实现的互动表情,赋予了能够在互动表情显示过程中与之交互的能力,基于此,当在互动表情序列第一步骤显示的过程中,当识别到进一步的交互语音指令时,能够将识别结果通知H5,通过H5根据传递的识别结果控制对应的H5互动表情序列对应步骤的显示,H5页面可以继续接收语音指令,实现交互效果,通过H5简便快捷地实现与互动表情序列的互动。
进一步的,所述互动表情序列采用webm格式的视频显示。
进一步的,显示webm视频格式的互动表情序列包括:
获取webm格式的互动表情视频中透明通道的数据;
将所述透明通道的数据进行显示。
由上述描述可知,目前的互动表情若采用gif、帧动画的方式实现,当需要实现效果复杂的互动表情时,需大量的图片资料,影响处理及显示效率;若采用alpha通道实现互动表情,则需要对alpha显示的视频做特殊处理(需对上层RGB显示层及下层透明通道层进行叠加处理,生成ARGB视频才能实现透明显示),且H5页面不支持alpha通道视频,而通过webm格式视频的应用,能够实现透明视频的效果,并且H5页面支持webm格式的视频直接播放,并自带透明通道,无需进一步处理;将H5页面与webm格式的视频进行结合,这样互动表情可直接叠加在其他视频上显示,例如,可将互动表情叠加在歌曲MV视频上进行显示,歌曲MV视频未被互动表情完全遮挡,实现叠加效果,从而能够在MV之上实现互动表情的效果,方便互动表情与各种MV视频的叠加,并且通过视频的方式实现动画效果,相较于gif/帧动画方式更加的细腻,使得效果更加绚丽。
进一步的,所述获取语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个展示步骤的对应关系包括:
从云端下载互动表情序列的配置信息,所述配置信息包括语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个展示步骤的对应关系;
解析所述配置信息,保存所述语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个展示步骤的对应关系。由上述描述可知,预先在云端设置互动表情的配置信息,然后再从云端下载解析,统一在云端进行配置再下载,提高了配置的高效性和灵活性。
进一步的,所述获取语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个展示步骤的对应关系之后还包括:
根据所述配置信息,注册所述语音指令集中的各语音指令的监听事件,将所述监听事件通知给语音识别进程。
由上述描述可知,根据配置信息确定与互动表情序列对应的各语音指令,然后注册对应的监听事件,仅监听与预设语音指令对应的语音输入,保证了资源的合理利用。
请参照图2,一种互动表情的实现终端,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时分别实现上述的互动表情的实现方法的步骤。
实施例一
请参照图1,一种互动表情的实现方法,其中,互动表情可以包括魔法表情等能够给与用户互动感的表情,具体包括步骤:
获取语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系;
具体的,事先在云端配置互动表情的配置信息,配置信息包括语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系,所述互动表情包括普通互动表情,也包括H5实现的互动表情;
机顶盒从云端下载互动表情的配置信息,解析配置信息,获取并保存所述语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系,其中,语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系如图2所示,从图中可以看到,当互动表情序列具体为魔法表情序列时,语音指令集1与魔法表情序列1是有对应关系,并且语音指令集1中包含了多个语音指令,每个语音指令分别与魔法表情序列中的每个显示步骤对应;
当监听到语音指令集中的语音指令时,触发对应互动表情序列的对应步骤进行展示。
本实施例提供了互动表情一种新的触发方式,在进行触发时,可以触发普通互动表情,也可以触发H5实现的互动表情,本实施提供的基于语音触发互动表情的方式可以应用于任何需要使用互动表情的场景,比如各种社交软件:qq、微信等,也可以应用于与用户交互的各种视频场景中,比如KTV场景,在进行K歌的过程中,当识别到特定的语音时,可以在歌曲MV上触发显示对应的互动表情序列,所述语音可以是用户通过麦克风输入的非歌曲语音输入,也可以是歌曲输入,还可以是MV上本身自带的音乐信息,比如当识别到有“生日快乐”的语音输入时,则在MV上显示对应的互动表情序列的第一步骤,如“生日快乐”的表情显示。
优选的,所述互动表情序列采用webm格式的视频显示,在进行互动表情序列显示时,获取webm格式的互动表情视频中透明通道的数据,将所述透明通道的数据进行显示,从而实现在MV视频上透明的传输。
实施例二
本实施例与实施例一不同在于,所述当监听到语音指令集中的语音指令时,触发对应互动表情序列的对应步骤进行显示包括:
所述语音指令集包括触发语音指令和互动语音指令,
当监听到语音指令集中的触发语音指令时,触发对应互动表情序列的对应步骤进行显示;
继续监听语音指令,当监听到语音指令集中的互动语音指令时,触发对应互动表情序列的对应步骤进行显示;
所述互动表情序列显示的过程中,所述互动语音指令的识别以及对应互动表情序列的对应步骤显示的次数为一次或多次;
也就是说,在魔法表示被触发显示的过程中,可以进行多次的互动,基于语音识别技术实现了完整的互动表情的显示过程,既包括触发过程,也包括连续多次的互动过程;
所述触发互动表情序列的对应步骤显示包括:
将监听到语音指令通知给H5页面,通过H5页面根据所述对应关系显示与所述语音指令对应的互动表情序列对应的步骤,所述互动表情序列对应的步骤通过H5页面实现,具体可以通过js将监听到语音指令通知给H5页面;
其中,触发通过H5实现的互动表情序列的显示的实现过程为:当识别到语音指令时,将语音指令对应的互动表情序列的对应步骤加载到H5页面上,机顶盒调用H5页面进行显示;
其中,机顶盒可以采用安卓系统,安卓系统与H5之间有连接接口,安卓系统能够基于其与H5之间的连接口通过js控制H5的逻辑,比如控制视频何时播放,基于此,就能够控制H5中的互动表情序列的对应步骤的播放时机,从而实现了在互动表情序列被触发显示的过程中,借助H5进一步实现与互动表情序列的多级互动。
一个具体的例子如下:
接收到“生日快乐”的语音指令时,判定“生日快乐”该语音指令为“生日快乐”语音指令集的触发语音指令,则触发“生日快乐”语音指令集对应的互动表情序列开始显示,即H5页面加载礼盒动画的互动表情(即互动表情序列的第一显示步骤)并进行显示;当继续接收到“打开礼盒”的互动语音指令(第一互动语音指令),H5页面加载打开礼盒动画效果的互动表情(即互动表情序列的第二显示步骤)并进行显示;当继续接收到“鲜花”的互动语音指令(第二互动语音指令),H5页面加载打开礼盒后显示鲜花动画效果的互动表情(即互动表情序列的第三显示步骤)并显示;这样页面上就实现多级互动的效果。所有互动语音指令按事件发生顺序编号;其中,在互动表情序列被触发后进一步的实现与用户交互的第一互动语音指令和第二互动语音指令可以是展示事件发展顺序的交互语音指令。也就是说,在该应用场景中,必要接收到“打开礼盒”的互动语音指令(第一互动语音指令),后面继续接收到“鲜花”的互动语音指令(第二互动语音指令)时,才能继续展示互动表情的相应显示步骤。若在“生日快乐”语音指令后,先接收到“鲜花”的互动语音指令,则无法显示“鲜花”对应的互动表情的相应显示步骤。
在其他应用场景中,在互动表情序列被触发后进一步的实现与用户交互的第一互动语音指令和第二互动语音指令还可以是事件并行发生的互动语音指令。例如,当接收到“打开礼盒”的互动语音指令(第一互动语音指令)后,后续若接收到“鲜花”的互动语音指令(第二互动语音指令),则界面显示鲜花该互动表情的相应显示步骤;若此时未接收“鲜花”的互动语音指令,而是接收到“戒指”的互动语音指令(第三互动语音指令),则界面也显示戒指该互动表情的相应显示步骤。也就是说,“鲜花”的互动语音指令和“戒指”互动语音指令为并行的互动语音指令。
本实施例通过H5页面实现的互动表情实现了在对互动表情触发显示之后,在互动表情的显示过程中还能够进一步与互动表情进行交互,并且能够实现多次交互。
实施例三
本实施例与实施例一或实施例二不同在于,所述获取语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系之后还包括:
根据所述配置信息,注册所述语音指令集中的各语音指令的监听事件,将所述监听事件通知给语音识别进程;
具体的,对于触发互动表情序列的显示步骤显示的过程,则该监听事件为触发事件,而对于在互动表情序列的显示步骤已显示,与互动表情序列进一步互动的过程,则该监听事件为互动事件;
当语音识别进程识别到语音指令为某语音指令集的触发语音时,则将识别到语音指令的事件通知互动表情处理进程;
互动表情处理进程接收到识别的语音指令的事件时,并且判断当前有没有对应的互动表情序列显示,若有,则可知该事件为触发事件,则直接显示相关联的互动表情序列的显示步骤,例如,麦克风输入“生日快乐”,语音识别进程将之识别为事件“birthday”的触发语音指令,互动表情处理进程根据接收到的“birthday”事件后,判断当前有没有对应的互动表情序列,若有,则触发显示该事件对应的互动表情序列的显示步骤;
当互动表情序列的显示步骤在显示过程中,语音识别进程识别到另一语音指令时,将识别到另一语音指令的事件通知互动表情处理进程;
互动表情处理进程接收到识别的语音指令的事件时,判断是互动表情序列其中一显示步骤对应的语音指令,则可知该事件为互动事件,则通过js将该事件通知给H5,H5根据传递过来的识别到另一语音指令的结果的互动事件作出相应的逻辑判断,显示对应的互动表情序列的显示步骤,实现不同的表情效果,例如,接收到“生日快乐”的触发语音指令,H5页面加载对应互动表情序列的礼盒动画的显示步骤并进行显示;当继续接收到“鲜花”的互动语音指令,H5页面加载礼盒打开并显示鲜花动画效果的互动表情序列显示步骤并显示;当继续接收到“戒指”的互动语音指令,H5页面加载礼盒打开并显示戒指动画效果的互动表情序列显示步骤并显示。
实施例四
请参照图2,一种互动表情的实现终端1,包括存储器2、处理器3以及存储在所述存储器2上并可在所述处理器3上运行的计算机程序,所述处理器3执行所述计算机程序时实现实施例一至三中任一个实施例中的方法步骤。
综上所述,本发明提供的一种互动表情的实现方法及终端,基于语音识别触发互动表情的显示,并且通过H5实现互动表情,能够在互动表情的显示过程中,进一步基于语音识别显示另一个互动表情,实现在互动表情的显示过程中用户与之进行交互,实现了丰富的互动表情的显示过程,提高了用户体验,同时使用webm格式的视频来实现互动表情,能够在H5上实现透明视频的效果,能够在MV之上实现互动表情的效果,适用于各种娱乐场景,比如KTV等,提高了互动表情的适用性。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等同变换,或直接或间接运用在相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (9)

1.一种互动表情的实现方法,其特征在于,包括步骤:
获取语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系;
当监听到语音指令集中的语音指令时,触发对应互动表情序列的对应步骤进行显示。
2.根据权利要求1所述的一种互动表情的实现方法,其特征在于,所述当监听到语音指令集中的语音指令时,触发对应互动表情序列的对应步骤进行显示包括:
所述语音指令集包括触发语音指令和互动语音指令;
当监听到语音指令集中的触发语音指令时,触发对应互动表情序列的对应步骤进行显示;
继续监听语音指令,当监听到语音指令集中的互动语音指令时,触发对应互动表情序列的对应步骤进行显示。
3.根据权利要求1所述的一种互动表情的实现方法,其特征在于,所述互动表情序列显示的过程中,所述互动语音指令的识别以及对应互动表情序列的对应步骤显示的次数为一次或多次。
4.根据权利要求1所述的一种互动表情的实现方法,其特征在于,所述触发互动表情序列的对应步骤显示包括:
将监听到语音指令通知给H5页面,通过H5页面根据所述对应关系显示与所述语音指令对应的互动表情序列对应的步骤,所述互动表情序列对应的步骤通过H5页面实现。
5.根据权利要求1至4中任一项所述的一种互动表情的实现方法,其特征在于,所述互动表情序列采用webm格式的视频显示。
6.根据权利要求4所述的一种互动表情的实现方法,其特征在于,显示webm视频格式的互动表情序列包括:
获取webm格式的互动表情视频中透明通道的数据;
将所述透明通道的数据进行显示。
7.根据权利要求1所述的一种互动表情的实现方法,其特征在于,所述获取语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系包括:
从云端下载互动表情序列的配置信息,所述配置信息包括语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系;
解析所述配置信息,保存所述语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系。
8.根据权利要求7所述的一种互动表情的实现方法,其特征在于,所述获取语音指令集与互动表情序列的对应关系以及语音指令集中各语音指令与互动表情序列的每个显示步骤的对应关系之后还包括:
根据所述配置信息,注册所述语音指令集中的各语音指令的监听事件,将所述监听事件通知给语音识别进程。
9.一种互动表情的实现终端,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任意一项所述的一种互动表情的实现方法的步骤。
CN201910654751.8A 2019-07-19 2019-07-19 一种互动表情的实现方法及终端 Active CN110310639B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910654751.8A CN110310639B (zh) 2019-07-19 2019-07-19 一种互动表情的实现方法及终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910654751.8A CN110310639B (zh) 2019-07-19 2019-07-19 一种互动表情的实现方法及终端

Publications (2)

Publication Number Publication Date
CN110310639A true CN110310639A (zh) 2019-10-08
CN110310639B CN110310639B (zh) 2021-10-26

Family

ID=68080812

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910654751.8A Active CN110310639B (zh) 2019-07-19 2019-07-19 一种互动表情的实现方法及终端

Country Status (1)

Country Link
CN (1) CN110310639B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111785035A (zh) * 2020-07-13 2020-10-16 上海仙豆智能机器人有限公司 车辆互动方法及装置、电子设备、存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104786911A (zh) * 2015-04-15 2015-07-22 上海电机学院 一种基于语音控制的车载表情显示系统及方法
CN104978758A (zh) * 2015-06-29 2015-10-14 世优(北京)科技有限公司 基于用户创作的图像的动画视频生成方法和装置
CN106357506A (zh) * 2016-08-30 2017-01-25 北京北信源软件股份有限公司 一种即时通讯中表情流消息的处理方法
US20190221208A1 (en) * 2018-01-12 2019-07-18 Kika Tech (Cayman) Holdings Co., Limited Method, user interface, and device for audio-based emoji input

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104786911A (zh) * 2015-04-15 2015-07-22 上海电机学院 一种基于语音控制的车载表情显示系统及方法
CN104978758A (zh) * 2015-06-29 2015-10-14 世优(北京)科技有限公司 基于用户创作的图像的动画视频生成方法和装置
CN106357506A (zh) * 2016-08-30 2017-01-25 北京北信源软件股份有限公司 一种即时通讯中表情流消息的处理方法
US20190221208A1 (en) * 2018-01-12 2019-07-18 Kika Tech (Cayman) Holdings Co., Limited Method, user interface, and device for audio-based emoji input

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111785035A (zh) * 2020-07-13 2020-10-16 上海仙豆智能机器人有限公司 车辆互动方法及装置、电子设备、存储介质

Also Published As

Publication number Publication date
CN110310639B (zh) 2021-10-26

Similar Documents

Publication Publication Date Title
CN106227335B (zh) 预习讲义与视频课程的交互学习方法及应用学习客户端
WO2020083021A1 (zh) 视频录制方法、视频播放方法、装置、设备及存储介质
CN111683263B (zh) 直播指导方法、装置、设备及计算机可读存储介质
CN111124123A (zh) 基于虚拟机器人形象的语音交互方法及装置、车载设备智能控制系统
CN104777911B (zh) 一种基于全息技术的智能交互方法
CN107340865A (zh) 多模态虚拟机器人交互方法和系统
CN109637548A (zh) 基于声纹识别的语音交互方法及装置
CN111049996A (zh) 多场景语音识别方法及装置、和应用其的智能客服系统
CN105740010B (zh) 一种开机方法及终端设备
CN105898557A (zh) 一种语音弹幕的生成、播放方法及其装置、客户端
CN106817596B (zh) 作用于媒体采集装置的特效处理方法及装置
CN109712644A (zh) 基于语音识别情绪变化控制led显示效果的方法、用于控制led显示效果的装置及系统
WO2018095195A1 (zh) 一种包装盒定制方法及装置
CN110310639A (zh) 一种互动表情的实现方法及终端
CN105487871B (zh) 一种在智能终端上运行应用程序的方法和装置
CN111124229A (zh) 通过语音交互实现网页动画控制的方法、系统及浏览器
US20170171266A1 (en) Method and electronic device based on android platform for multimedia resource play
CN102135902B (zh) Flash游戏的控制方法
CN111107283B (zh) 一种信息显示方法、电子设备及存储介质
CN112306450A (zh) 信息处理方法、装置
CN104915208B (zh) 应用程序头图显示控制方法和装置
CN110600021A (zh) 室外智能语音交互方法、装置和系统
CN110413916A (zh) 用于呈现题目页面的方法和装置
US11580974B2 (en) Method for exiting a voice skill, apparatus, device and storage medium
CN112118414B (zh) 视频会话方法、电子设备以及计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant