CN113938739B - 信息显示方法、装置、电子设备及存储介质 - Google Patents
信息显示方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113938739B CN113938739B CN202111057571.5A CN202111057571A CN113938739B CN 113938739 B CN113938739 B CN 113938739B CN 202111057571 A CN202111057571 A CN 202111057571A CN 113938739 B CN113938739 B CN 113938739B
- Authority
- CN
- China
- Prior art keywords
- information
- volume
- text information
- voice
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 230000000694 effects Effects 0.000 claims abstract description 189
- 230000002452 interceptive effect Effects 0.000 claims abstract description 71
- 230000003993 interaction Effects 0.000 claims abstract description 41
- 238000006243 chemical reaction Methods 0.000 claims abstract description 19
- 230000008451 emotion Effects 0.000 claims description 40
- 238000004590 computer program Methods 0.000 claims description 10
- 230000009191 jumping Effects 0.000 claims description 9
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 7
- 230000009286 beneficial effect Effects 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 239000013598 vector Substances 0.000 description 7
- 101150054987 ChAT gene Proteins 0.000 description 6
- 101100203187 Mus musculus Sh2d3c gene Proteins 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了信息显示方法、装置、电子设备及存储介质,属于信息显示技术领域。其中,一种信息显示方法包括:接收互动方发送的文本信息及相应的音量信息;其中,文本信息基于互动方输入的语音信息转换而得;基于音量信息确定文本信息的显示效果;基于显示效果显示文本信息。本申请的实施将基于音量信息确定的显示效果作用于文本信息的显示中,有利于提高文本信息的表达能力,以及提高用户互动的积极性。
Description
技术领域
本申请涉及信息显示的技术领域,具体而言,本申请涉及一种信息显示方法和装置,一种电子设备,以及一种计算机可读存储介质。
背景技术
在一些互动的场景中,如在视频弹幕交互的场景中,用户可以使用语音输入,将说话的内容转换成文字,发出文字弹幕。然而文字仅能表达语义,难以让互动方直观地感知用户的情绪,降低了用户间通过文字交流互动的积极性。
发明内容
本申请的目的旨在提供一种信息显示方法、装置、电子设备及存储介质,以解决上述的至少一个技术问题。本申请实施例所提供的方案具体如下:
第一方面,本申请提供了一种信息显示方法,应用于第一客户端,包括:
接收互动方发送的文本信息及相应的音量信息;其中,所述文本信息基于所述互动方输入的语音信息转换而得;
基于所述音量信息确定所述文本信息的显示效果;
基于所述显示效果显示所述文本信息。
结合第一方面,本申请在第一方面的第一种实施方式中,所述接收互动方发送的文本信息及相应的音量信息,包括以下任一项:
接收在直播视频播放时至少一个互动方发送的文本信息及相应的音量信息;
响应于即时通讯的互动操作,接收至少一个互动方发送的文本信息及相应的音量信息。
结合第一方面的第一种实施方式,本申请在第一方面的第二种实施方式中,所述基于所述音量信息确定所述文本信息的显示效果,包括以下任一项:
确定所述直播视频的画面内容满足触发以动画展示文本的条件,基于所述音量信息和所述直播视频的画面内容确定文本信息的显示效果;
确定所述即时通讯预设时间段内的互动信息满足触发以动画展示文本的条件,基于所述音量信息和互动信息确定文本信息的显示效果;
接收到所述文本信息相应的音量信息时,显示以动画展示文本的触发控件;响应于对所述触发控件的触发操作,基于所述音量信息确定文本信息的显示效果。
结合第一方面或第一方面的第二种实施方式,本申请在第一方面的第三种实施方式中,所述音量信息包括所述语音信息的平均音量值、音量极值和情绪标签中的至少一项;
所述显示效果包括与震动幅度相关的第一效果、与文本格式相关的第二效果、与展示时间或次数相关的第三效果中的至少一项;
所述第一效果包括跳动效果、水波纹效果、配置有多个预设震动等级的震动效果中的至少一项;
所述基于所述音量信息确定所述文本信息的显示效果,包括以下任一项:
基于所述平均音量值和/或情绪标签确定所述文本信息对应的震动等级;
基于所述音量极值确定所述文本信息的水波纹效果或跳动效果。
第二方面,本申请提供了一种信息显示方法,应用于第二客户端,包括:
响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定所述语音信息相应的音量信息;
上传所述文本信息与音量信息,以使互动方获取所述文本信息与音量信息后,基于所述音量信息确定所述文本信息的显示效果,并基于所述显示效果显示所述文本信息。
结合第二方面,本申请在第二方面的第一种实施方式中,所述响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定所述语音信息相应的音量信息,包括:
响应于语音信息的开始输入操作,实时采集语音信息并间隔预设时间记录语音音量值;
响应于语音信息的结束输入操作,将实时采集得到的语音信息转换为文本信息,并基于所述语音音量值和语音信息中的至少一种确定所述语音信息相应的音量信息。
结合第二方面的第一种实施方式,本申请在第二方面的第二种实施方式中,所述基于所述语音音量值和语音信息中的至少一种确定所述语音信息相应的音量信息,包括以下至少一项:
基于记录所得的所有语音音量值,计算得到所述语音信息的平均音量值;
在所有语音音量值中分别取预设数值个音量值最大和最小的语音音量值作为表征语音信息的音量极值;
识别所述语音信息和文本信息中的至少一种,确定所述语音信息对应的情绪标签;所述识别语音信息包括对所述语音信息中的音量、音调、音高、音节中的至少一项进行分析;所述识别文本信息包括确定所述文本信息中的至少一个词与至少一个预设标签的对应关系。
第三方面,本申请提供了一种信息显示装置,应用于第一客户端,包括:
接收模块,用于接收互动方发送的文本信息及相应的音量信息;其中,所述文本信息基于所述互动方输入的语音信息转换而得;
确定模块,用于基于所述音量信息确定所述文本信息的显示效果;
显示模块,用于基于所述显示效果显示所述文本信息。
结合第三方面,本申请在第三方面的第一种实施方式中,接收模块用于执行接收互动方发送的文本信息及相应的音量信息时,具体用于执行以下任一项:
接收直播视频播放时至少一个互动方发送的文本信息及相应的音量信息;
响应于即时通讯的互动操作,接收至少一个互动方发送的文本信息及相应的音量信息。
结合第三方面的第一种实施方式,本申请在第三方面的第二种实施方式中,确定模块用于执行基于所述音量信息确定所述文本信息的显示效果时,具体用于执行以下任一项:
确定所述直播视频的画面内容满足触发以动画展示文本的条件,基于所述音量信息和所述直播视频的画面内容确定文本信息的显示效果;
确定所述即时通讯预设时间段内的互动信息满足触发以动画展示文本的条件,基于所述音量信息和互动信息确定文本信息的显示效果;
接收到所述文本信息相应的音量信息时,显示以动画展示文本的触发控件;响应于对所述触发控件的触发操作,基于所述音量信息确定文本信息的显示效果。
结合第三方面或第一方面的第二种实施方式,本申请在第三方面的第三种实施方式中,所述音量信息包括所述语音信息的平均音量值、音量极值和情绪标签中的至少一项;
所述显示效果包括与震动幅度相关的第一效果、与文本格式相关的第二效果、与展示时间或次数相关的第三效果中的至少一项;
所述第一效果包括跳动效果、水波纹效果、配置有多个预设震动等级的震动效果中的至少一项;
确定模块用于执行基于所述音量信息确定所述文本信息的显示效果时,具体用于执行以下任一项:
基于所述平均音量值和/或情绪标签确定所述文本信息对应的震动等级;
基于所述音量极值确定所述文本信息的水波纹效果或跳动效果。
第四方面,本申请提供了一种信息显示装置,应用于第二客户端,包括:
转换模块,用于响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定所述语音信息相应的音量信息;
上传模块,用于上传所述文本信息与音量信息,以使互动方获取所述文本信息与音量信息后,基于所述音量信息确定所述文本信息的显示效果,并基于所述显示效果显示所述文本信息。
结合第四方面,本申请在第四方面的第一种实施方式中,转换模块用于执行响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定所述语音信息相应的音量信息时,具体用于:
响应于语音信息的开始输入操作,实时采集语音信息并间隔预设时间记录语音音量值;
响应于语音信息的结束输入操作,将实时采集得到的语音信息转换为文本信息,并基于所述语音音量值和语音信息中的至少一种确定所述语音信息相应的音量信息。
结合第四方面的第一种实施方式,本申请在第四方面的第二种实施方式中,转换模块用于执行基于所述语音音量值和语音信息中的至少一种确定所述语音信息相应的音量信息时,具体用于执行以下至少一项:
基于记录所得的所有语音音量值,计算得到所述语音信息的平均音量值;
在所有语音音量值中分别取预设数值个音量值最大和最小的语音音量值作为表征语音信息的音量极值;
识别所述语音信息和文本信息中的至少一种,确定所述语音信息对应的情绪标签;所述识别语音信息包括对所述语音信息中的音量、音调、音高、音节中的至少一项进行分析;所述识别文本信息包括所述文本信息中的至少一个词与至少一个预设标签的对应关系。
第五方面,本申请提供了一种电子设备,该电子设备包括存储器和处理器;存储器中存储有计算机程序;处理器,用于在运行计算机程序时,执行第一方面和第二方面所提供的方法。
第六方面,本申请提供了一种计算机可读存储介质,该存储介质中存储有计算机程序,计算机程序在被处理器运行时,执行第一方面和第二方面所提供的方法。
与现有技术相比,本申请提供的技术方案的有益效果如下:
本申请应用于第一客户端的信息显示方法中,接收到互动方发送的文本信息及相应的音量信息,其中,文本信息是基于互动方输入的语音信息转换而得;也即音量信息也与语音信息相应;进而基于音量信息确定文本信息的显示效果,并基于显示效果显示文本信息。本申请应用于第二客户端的信息显示方法中,响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定语音信息相应的音量信息;进而上传文本信息与音量信息,以使互动方获取到文本信息和音量信息后,可以基于音量信息确定文本信息的显示效果,并基于显示效果显示文本信息。本申请方案的实施将基于音量信息确定的显示效果作用于文本信息的显示中,有利于提高文本信息的表达能力,以及提高用户互动的积极性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1为本申请的一种实施例提供的信息显示方法的流程图;
图2为本申请的一种实施例提供的信息显示方法的流程图;
图3a为本申请的一种实施例提供的运行环境示意图;
图3b为本申请的一种实施例提供的显示效果示意图;
图4为本申请的一种实施例提供的信息显示装置的结构示意图;
图5为本申请的一种实施例提供的信息显示装置的结构示意图;
图6为本申请提供的一种电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
为了更好的理解及说明本申请实施例所提供的方案,下面首先对本申请所涉及的相关技术进行说明。
信息显示:将待显示的信息在指定的时间、指定的设备上,基于预设的画面表现形式进行显示。在本申请中,可以是指针对用户发送的由语音信息转换而来的文本信息的显示。
下面对信息显示的相关技术中,存在的一些技术问题进行说明。
在一些互动的场景中,如在视频弹幕交互的场景中,用户可以使用语音输入,将说话的内容转换成文字,发出文字弹幕。然而文字仅能表达语义,难以让互动方直观地感知用户的情绪,降低了用户间通过文字交流互动的积极性。
为了解决上述问题中的至少一个,本申请提供了一种信息显示方法及相关设备,其中,该方法的实施将基于音量信息确定的显示效果作用于文本信息的显示中,有利于提高文本信息的表达能力,以及提高用户互动的积极性。
为使本申请的目的、技术方案和优点更加清楚,下面将结合具体地实施例和附图对本申请的各可选的实施方式及本申请实施例的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
下面将结合附图,对本申请的实施例进行描述。图1中示出了本申请实施例提供的一种应用于第一客户端的信息显示方法,该方法具体可以由本申请实施例提供的电子设备执行,具体地电子设备可以是终端,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。具体地,该方法包括以下步骤S101-S103:
步骤S101:接收互动方发送的文本信息及相应的音量信息;其中,所述文本信息基于所述互动方输入的语音信息转换而得。
其中,互动方可以是指发送文本信息的用户;在一些场景中,互动方可以是指使用第一客户端的用户进行互动的其他用户;如,在即时通讯场景中,用户A使用第一客户端与用户B进行私聊的互动时,互动方可以是指用户B;如在视频弹幕交互的场景中,用户A使用第一客户端播放直播视频时查看其它用户发送的弹幕时,互动方可以是指其它用户。在另一些场景中,互动方还可以是指使用第一客户端的用户;如在视频弹幕交互的场景中,用户A使用第一客户端在播放直播视频时发送弹幕并查看该弹幕,则互动方可以是指用户A。
其中,语音信息是语言符号系统的载体,在本申请中可以是指互动方通过语音输入的方式输入的信息,具体可以是互动方说话时发出的声音。
其中,文本信息基于语音信息转换而得的信息,该转换过程可以采用语音识别技术进行。文本信息除了可以包括通过语音转换得到的文字(可以适应不同语言,如普通话、粤语、英语、法语等)以外,还可以包括根据对语音的内容理解和停顿智能匹配的标点符号。具体地,可以采用系统API(Application Programming Interface,应用程序接口)实时将采集到的语音转换成文字。其中,API是一些预先定义的接口(如函数、HTTP接口),或者是指软件系统不同组成部分衔接的约定。
其中,音量信息可以是指与语音信息相关的信息,如基于语音信息得到的信息,如音量值、互动方的情绪信息等。具体地,音量信息、文本信息、语音信息三者相互映射。
其中,接收文本信息及相应的音量信息的处理节点可以是互动方发出最新的文本信息及相应的音量信息。在一些场景中,接收的处理节点可以是视频弹幕交互中服务器下发更新的弹幕,也可以是即时通讯中服务器下发互动方发出的互动信息。
步骤S102:基于所述音量信息确定所述文本信息的显示效果。
其中,显示效果可以是动画、特效等,还可以是文本显示的颜色、透明度、亮度等。在本申请中,可以通过音量信息确定出作用于文本信息的显示效果,如通过音量信息确定文本信息显示的透明度,或者通过音量信息确定文本信息显示时同步展示的动画/特效,或者通过音量信息确定文本信息显示时采用的动画(如震动显示文本信息)。
步骤S103:基于所述显示效果显示所述文本信息。
其中,基于显示效果显示文本信息可以是在文本信息原有显示形式的基础上叠加显示效果,也可以是直接采用显示效果显示文本信息;如显示效果可以是一种上下震动的动画,作用于文本信息上。
下面结合具体的场景及一些可行的可视化操作对本申请提供的信息显示方法作进一步的说明。
在一实施例中,步骤S101中接收互动方发送的文本信息及相应的音量信息,包括以下步骤A1-A2中的任一项:
步骤A1:接收在直播视频播放时至少一个互动方发送的文本信息及相应的音量信息。
其中,在直播视频播放时,提供一种弹幕功能,互动方可以通过发送弹幕的形式在观看直播视频的同时与其他互动方进行互动和表达个人情感、观点等。
具体地,由于在视频弹幕交互的场景中,可能具有多个互动方发送弹幕,且每一互动方均可以发送多条弹幕,因此,可能接收到多条文本信息,每一条文本信息具有各自对应的音量信息。
步骤A2:响应于即时通讯的互动操作,接收至少一个互动方发送的文本信息及相应的音量信息。
其中,互动操作可以包括进入私聊或群聊的交互页面的操作;在即时通讯的场景中,若当前并非处于即时通讯的交互页面时,如处于播放直播视频的页面时,接收到互动方发送的互动信息,可以在播放直播视频的页面显示提示控件,用户可以通过触发该提示控件进入即时通讯的交互页面。
具体地,由于在即时通讯的场景中,一般基于接收交互信息的时间依序进行信息的显示,因此,在本申请实施例中,步骤A2可以是指接收当前时间点对应的文本信息及各文本信息分别相应的音量信息。
在一实施例中,考虑到本申请提供的信息显示方法是基于音量信息确定出的显示效果显示文本信息的,为提高显示效果与应用场景的融合度,降低显示效果与用户界面所显示内容的冲突性,本申请实施例将基于音量信息确定文本信息的显示效果的步骤,设置为响应于满足触发条件和/或用户的触发操作执行;具体地,步骤S102中基于所述音量信息确定所述文本信息的显示效果,包括以下步骤B1-B3中的任一项:
步骤B1:确定所述直播视频的画面内容满足触发以动画展示文本的条件,基于所述音量信息和所述直播视频的画面内容确定文本信息的显示效果。
具体地,在接收到文本信息以及相应的音量信息后,将启动对直播视频画面内容的检测操作,实时检测当前的直播视频的画面内容是否满足触发以动画展示文本的条件。其中,可以预设当画面内容中出现预设元素时视为满足触发条件。如针对足球赛事的直播视频,可以设定当出现足球射进龙门、头球、远距离传球的画面内容时满足触发条件。
具体地,可以预先配置不同的画面内容对应于不同的显示效果,不同的音量信息对应于不同的显示效果。可选地,可以分别设置显示效果与画面内容、音量信息的映射关系,也可以设置显示效果、画面内容、音量信息三者之间的映射关系。
下面结合表1举例说明步骤B1的执行情况:
表1
如表1所示,存在一种音量信息可以对应于一种显示效果的情况(音量信息A对应于显示效果1),也存在多种音量信息均对应于一种显示效果的情况(音量信息B、C和D均对应于显示效果2);针对直播视频的画面内容,存在多种画面内容对应于一种显示效果的情况,也存在一种画面内容对应于一种显示效果的情况。在基于音量信息和直播视频的画面内容确定文本信息的显示效果时,可以存在以下几种情况:
(1)基于音量信息与直播视频的画面内容分别对应的显示效果的交集作为文本信息的显示效果。具体地,若当前音量信息为A,画面内容为b,则取显示效果2为文本信息的显示效果;若当前音量信息为A,画面内容为e,则两者分别对应的显示效果不存在交集,则确定的文本信息的显示效果为空,即不生成任何显示效果。
(2)基于音量信息与直播视频的画面内容分别对应的显示效果的并集作为文本信息的显示效果。具体地,若当前音量信息为A,画面内容为b,则取显示效果2为文本信息的显示效果;若当前音量信息为A,画面内容为e,则取显示效果1和3作为文本信息的显示效果,即叠加两种显示效果进行文本信息的显示。
步骤B2:确定所述即时通讯预设时间段内的互动信息满足触发以动画展示文本的条件,基于所述音量信息和互动信息确定文本信息的显示效果。
具体地,在接收到文本信息以及相应的音量信息时,获取当前时间点之间的预设时间段内的互动信息进行检测,判断即时通讯预设时间段内的互动信息是否满足触发以动画展示文本的条件。其中,预设时间段可以基于即时通讯的互动情况进行设置,如接收到文本信息以及相应的音量信息对应的时间点之前持续存在信息交互(互动的双方或多方持续进行信息发送和接收)的时间段,如当前时间点之前3min内持续存在信息交互,则以该3min作为预设时间段;若当前时间点之前10min(某一设定时间)以上持续存在信息交互,考虑到计算的复杂性,可以仅取10min作为预设时间段。其中,对互动信息的检测可以采用语义分析技术进行,检测预设时间段内的互动信息是否存在预设目标词相近似的词,若存在,则确定满足触发条件。具体地,若互动信息对应的词向量与预设目标词对应的词向量之间的相似度大于或等于预设相似度阈值,则可以确定满足触发条件。可选地,互动信息可以包括文本信息、表情包等,若预设时间段内的互动信息包括表情包时,可以基于表情包所属类别确定是否满足触发条件。
具体地,基于音量信息和互动信息确定文本信息的显示效果时,可以采用如上述步骤B1中基于音量信息和直播视频的画面内容确定文本信息的显示效果的处理逻辑。
步骤B3:接收到所述文本信息相应的音量信息时,显示以动画展示文本的触发控件;响应于对所述触发控件的触发操作,基于所述音量信息确定文本信息的显示效果。
具体地,相对于相关技术的处理,本申请在接收文本信息时,还可以接收到与文本信息相应的音量信息;若当前在接收文本信息的同时接收到相应的音量信息时,可以在用户界面显示以动画展示文本的触发控件,用户可以通过触发该控件主动触发生成文本信息显示时对应的显示效果。
可选地,在显示触发控件到接收到对该触发控件的触发操作之间,可能由于用户对功能的不熟悉或个人需求的犹豫,期间的时间可能较长,为避免由于触发操作的延时,导致文本信息的延时显示,在本申请实施例中,还可以在显示以动画展示文本的触发控件的同时同步显示文本信息,并在响应于对触发控件的触发操作时,在原有文本信息显示的基础上叠加基于音量信息确定的文本信息的显示效果进行显示。
在一实施例中,所述音量信息包括所述语音信息的平均音量值、音量极值和情绪标签中的至少一项;其中,关于确定平均音量值、音量极值以及情绪标签的具体过程将在后续实施例中进行说明。所述显示效果包括与震动幅度相关的第一效果、与文本格式相关的第二效果、与展示时间或次数相关的第三效果中的至少一项。
其中,所述第一效果包括跳动效果(如图3b中的效果1所示)、水波纹效果(如图3b中的效果2所示)、配置有多个预设震动等级的震动效果中的至少一项。
在一可行的实施例中,步骤S102中基于所述音量信息确定所述文本信息的显示效果,包括以下步骤C1-C2中的任一项:
步骤C1:基于所述平均音量值和/或情绪标签确定所述文本信息对应的震动等级。
具体地,本申请实施例基于设定的音量值范围设定配置有多个预设震动等级的震动效果。
其中,可以理解的是,一条文本信息对应于一个平均音量值,因此每一条文本信息具有各自对应的震动等级。
可选地,当在同一时间点显示多条文本信息时,为提高显示效果所能表达的用户进行语音输入时的情绪,可以基于不同文本信息的平均音量值进行震动效果的震动等级设定,如平均音量值越高对应于震动越剧烈的震动效果,也即设定平均音量值与震动剧烈的程度呈正向关系。
可选地,一条文本信息可以对应于一种情绪标签,本申请实施例可以预先设定不同的情绪标签所对应的震动效果的震动等级。
具体地,通过平均音量值和情绪标签共同确定文本信息对应的震动等级,可以进一步提高显示效果所能表达互动方说话情绪的准确性。当基于平均音量值与情绪标签两者共同确定文本信息对应的震动等级时,考虑到平均音量值和情绪标签分别对应的震动等级可能不同,可以取较高的震动等级作为所对应文本信息的震动等级,以提高采用震动效果进行文本信息显示的显示效果,提高用户间互动的积极性。
步骤C2:基于所述音量极值确定所述文本信息的水波纹效果或跳动效果。
其中,音量极值包括音量最大值(可以包括一个或多个)和音量最小值(可以包括一个或多个),在一条由语音信息转换而得文本信息中,其对应的音量极值可以包括多个音量最大值和音量最小值,该多个音量值基于时间戳进行排序,举例说明:基于时间戳进行排序的音量极值可以如下:音量最大值A、音量最小值B、音量最大值D、音量最小值G、音量最大值H。
具体地,基于音量极值确定文本信息的跳动效果时,当一条文本信息为ABCDEFG时,结合上述音量极值的例子,可以确定出如图3b中效果1所示的跳动效果。其中,由于B对应为音量最小值,也即从B开始下一对应的跳动节点为音量最大值,而下一音量最大值为D,则C将被视为音量最小值B与音量最大值D之间的过渡;由于D对应为音量最大值,也即从D开始下一对应的跳动节点为音量最小值,而下一音量最小值为G,则E和F将被视为音量最大值D和音量最小值G之间的过渡。
具体地,基于音量极值确定文本信息的水波纹效果时,该水波纹效果可以是动态水波纹效果。首先,可以采用如下公式(1)所示的函数方程:
y=Asin(wx+b)+h
......公式(1)
其中,w影响周期(该周期可以根据需求设定,可以设定为用于展示文本信息的容器view的总宽度),A影响振幅,h影响y的位置,b为初相;x对应为各音量极值对应的时间戳。
根据上述函数方程可以得到每一个波纹上点的坐标,进而将水波纹进行平移,即将水波纹上的点不断的移动,不断地重新绘制水波纹,即可基于音量极值生成动态水波纹效果。
其中,与文本格式相关的第二效果可以包括基于字体、字号、字形、颜色、透明度、底纹颜色等其中一种或多种组合形成的文本信息显示时的文本效果。举例说明:如预设平均音量值用于设置字号、音量极大值用于设置颜色、音量极小值用于设置透明度、情绪标签用于设置字体和字形等,则可以基于平均音量值、音量极值和情绪标签中的至少一种确定文本信息时所采用的文本格式。如文本信息为“这个传球神了”,则可以基于平均音量值设置字号为五号(基于平均音量值与预设音量范围值的比对确定);音量极大值对应于“神”字,则可以设置“神”字显示所用的颜色与其他字不同;音量极小值对应于“了”字,则可以设置“了”字显示所用的透明度高于其他字;情绪标签对应于情绪高昂的类型,则可以设置字体为楷体、字形加粗。
其中,与展示时间或次数相关的第三效果中,展示时间可以是指文本信息在用户界面出现的时间,如在视频弹幕交互的场景,展示时间可以是指文本信息以静态形式在用户界面展示时的持续时间,也可以是指文本信息以动态形式(如从用户界面最后侧至最左侧滑动)在用户界面展示所用的时间;可以理解的是,以动态形式展示时,展示时间越短,文本信息滑动的速度越快;在滑动速度大于预设速度的情况下,可以同步启动增加同一文本信息展示次数的功能模块;如当滑动速度大于第一预设速度时,可以在同一展示时间的基础上,增加至少一次展示次数;如可以是在同一时间,用户界面的不同位置,同步若干条相同的文本信息;也可以是以循环展示的方式展示相同的文本信息。
在一些可行的实施例中,为提高用户采用本申请实施例提供的信息显示方法进行文本信息显示的积极性,可以设定在一些特定的场景中,设置基于显示效果显示文本信息的概率(用户账户的等级越高,可以采用显示效果显示文本信息的概率越高)、随机性等。如在视频弹幕交互场景中,为降低满屏的弹幕均同时震动给用户视觉带来的不适感,可以设定随机抽取预设概率的弹幕采用显示效果进行显示。
本申请实施例还提供一种应用于第二客户端的信息显示方法,该方法具体可以由本申请实施例提供的电子设备执行,具体地电子设备可以是终端,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。具体地,如图2所示,该方法包括以下步骤S201-S202:
步骤S201:响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定所述语音信息相应的音量信息。
其中,用户在第二客户端上可以触发进行语音信息的输入,基于该输入操作,可以调用音频数据的采集设备进行语音信息的采集,采集结束可以实时进行语音信息的转换。
在一实施例中,步骤S201中响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定所述语音信息相应的音量信息,包括以下步骤D1-D2:
步骤D1:响应于语音信息的开始输入操作,实时采集语音信息并间隔预设时间记录语音音量值。
其中,语音信息的开始输入操作可以是长按或者点击语音输入控件,进而第二客户端响应于该操作,实施调用音频数据采集设备和定时器进行语音信息的采集和音量值的采集。在本申请实施例中,考虑到语音输入的过程中,所对应的音量数据如波形数据是离散的,因此,可以通过设置一个定时器进行语音输入过程中音量值的采集,如每隔0.1秒记录一次用户说话的音量。
步骤D2:响应于语音信息的结束输入操作,将实时采集得到的语音信息转换为文本信息,并基于所述语音音量值确定所述语音信息相应的音量信息。
其中,语音信息的结束输入操作可以是松开或者点击语音输入控件,进而第二客户端响应于该操作,结束音频数据的采集并实时进行语音信息的转换,获得转换后的文本信息,同时基于记录所得的所有音量值进行处理可以获得用户当前进行语音输入的音量信息。
在一实施例中,步骤D2中基于所述语音音量值确定所述语音信息相应的音量信息,包括以下步骤D21-D23中的至少一项:
步骤D21:基于记录所得的所有语音音量值,计算得到所述语音信息的平均音量值。
具体地,可以将每次记录的音量值求和后除以记录的次数,得到当前语音信息对应的平均音量值。
步骤D22:在所有语音音量值中分别取预设数值个音量值最大和最小的语音音量值作为表征语音信息的音量极值。
具体地,可以采用以下其中一种方式进行音量极值的提取:
(1)以语音信息的总时长设定预设数值个时间范围,在每个时间内取音量极大值和音量极小值。
(2)将所有语音音量值进行排序,获取排序在前以及在后的预设数值个音量极大值和音量极小值。
步骤D23:识别语音信息和文本信息中的至少一种,确定所述语音信息对应的情绪标签。
具体地,步骤D23可以采用机器学习方法实施。机器学习(Machine Learning)是一门多领域交叉学科,它涉及到概率论、统计学、计算机科学以及软件工程。机器学习是指一套工具或方法,凭借这套工具和方法,利用历史数据对机器进行“训练”进而“学习”到某种模式或规律,并建立预测未来结果的模型。本申请实施例可以采用机器学习相关算法进行语音信息的分类、回归和聚类,并确定出当前采集的语音信息所对应的情绪标签。
下面以聚类模型为例对步骤D23中识别语音信息的处理过程进行说明:
聚类是将数据集分成组或类,形成的聚类在同一类中的数据非常相似,而不同类中的数据差异非常明显。在预构建的聚类模型中生成有4个情绪类别(仅作为例子说明,在本申请中并不限定聚类的类别数量)的聚类结果,当将语音音量值和文本信息作为模型的输入数据时,可以计算语音信息与各聚类的欧几里得距离,可以包括类内距离与类间距离,进而可以确定出语音信息对应于哪一情绪类别,针对每一情绪类别可以采用相应的标签作为输出的聚类结果数据,如最终输出语音信息的情绪标签。
可选地,在进行语音信息的识别时,可以基于音量、音调、音高和音节中的至少一个维度对语音信息进行分析,
下面针对识别文本信息的处理过程进行说明。
具体地识别文本信息包括确定文本信息中的至少一个词与至少一个预设标签的对应关系。其中,可以采用相关技术对文本信息进行分词处理,得到至少一个分词,进而基于各个分词与预设标签的对应关系,确定出文本信息对应的至少一个情绪标签。
另外,考虑到语料库所涵盖的词的数据量非常大的,难以做到一一对应不同的词预设不同的情绪标签,且采用此类方法所确定的情绪标签的准确度不高,因此,本申请实施例还可以针对文本信息的词向量序列确定相关语义后,基于语义与预设标签的对应关系确定文本信息对应的情绪标签。对此,可以采用自然语言处理技术确定文本信息所表达的语义,其可以包括针对单一词向量的语义,也可以包括各词向量与其他词向量相关的语义(如任意两个词向量交叉后所能表达的语义),在该基础上,可以结合权重和概率等信息确定文本信息所表达的唯一语义。
步骤S202:上传所述文本信息与音量信息,以使互动方获取所述文本信息与音量信息后,基于所述音量信息确定所述文本信息的显示效果,并基于所述显示效果显示所述文本信息。
其中,第二客户端可以将文本信息与音量信息上传至服务器,进而互动方可以通过第一客户端从服务器获取文本信息与音量信息,进而第一客户端可以基于音量信息确定文本信息的显示效果,并基于显示效果显示文本信息。
下面结合图3a给出可行的应用例。
在一些应用场景中,如视频弹幕交互的场景中,第一客户端与第二客户端可以视为同一客户端,也可以视为不同的客户端。
下面针对当第一客户端与第二客户端为同一客户端的场景进行说明:
用户A正在通过直播间观看足球赛事并同时开启弹幕交互功能,在观看的过程中,用户A通过语音输入的方式发出文字弹幕,终端100在响应于用户A语音信息的输入操作后,将获取到的语音信息转换为文本信息并确定出语音信息相应的音量信息后,通过网络300向服务器200上传文本信息以及相应的音量信息。进而,在弹幕信息显示的过程中,终端100可以从服务器200中获取各用户发送的文字弹幕(包括用户A自身上传的信息,也即步骤S101中的互动方包括其他发送弹幕的用户和用户A),进而终端100可以基于音量信息确定文本信息的显示效果,并基于显示效果通过弹幕的形式显示文本信息。
下面针对第一客户端与第二客户端为不同客户端的场景进行说明:
用户1正在通过直播间观看游戏直播赛事并同时开启弹幕交互功能,在观看的过程中,若有其他用户N(应用第二客户端,对应终端100-N)发送弹幕,则用户1所应用的第一客户端(对应终端100-1)可以通过网络300接收服务器200下发的互动方发送的文本信息及相应的音量信息,其中文本信息基于互动方输入的语音信息转换而得,进而终端100-1基于音量信息确定文本信息的显示效果,并基于显示效果通过弹幕的形式显示文本信息。
在一些应用场景中,如即时通讯的场景中,第一客户端与第二客户端可以视为不同的客户端。
具体地,用户1与用户N采用某一即时通讯程序进行聊天,用户1应用第一客户端,用户N应用第二客户端,则在用户N通过语音输入的方式发送聊天消息时,第二客户端响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定语音信息相应的音量信息,进而第二客户端所在的终端100-N将文本信息与音量信息通过网络300上传至服务器200;此时,第一客户端所对应的终端100-1可以通过网络300接收服务器200下发的互动方(用户N)发送的文本信息及相应的音量信息,进而第一客户端基于音量信息确定文本信息的显示效果,并基于显示效果在聊天框中显示文本信息。
其中,用户N可以包括至少一个用户。
对应于本申请所提供应用于第一客户端的信息显示方法,本申请实施例还提供了一种信息显示装置400,其结构示意图如图4中所示,该信息显示装置400包括:接收模块401,确定模块402和显示模块403。
其中,接收模块401,用于接收互动方发送的文本信息及相应的音量信息;其中,所述文本信息基于所述互动方输入的语音信息转换而得;确定模块402,用于基于所述音量信息确定所述文本信息的显示效果;显示模块403,用于基于所述显示效果显示所述文本信息。
可选地,接收模块401用于执行接收互动方发送的文本信息及相应的音量信息时,具体用于执行以下任一项:
接收在直播视频播放时至少一个互动方发送的文本信息及相应的音量信息;
响应于即时通讯的互动操作,接收至少一个互动方发送的文本信息及相应的音量信息。
可选地,确定模块402用于执行基于所述音量信息确定所述文本信息的显示效果时,具体用于执行以下任一项:
确定所述直播视频的画面内容满足触发以动画展示文本的条件,基于所述音量信息和所述直播视频的画面内容确定文本信息的显示效果;
确定所述即时通讯预设时间段内的互动信息满足触发以动画展示文本的条件,基于所述音量信息和互动信息确定文本信息的显示效果;
接收到所述文本信息相应的音量信息时,显示以动画展示文本的触发控件;响应于对所述触发控件的触发操作,基于所述音量信息确定文本信息的显示效果。
可选地,所述音量信息包括所述语音信息的平均音量值、音量极值和情绪标签中的至少一项;所述显示效果包括与震动幅度相关的第一效果、与文本格式相关的第二效果、与展示时间或次数相关的第三效果中的至少一项;其中,所述第一效果包括跳动效果、水波纹效果、配置有多个预设震动等级的震动效果中的至少一项;确定模块402用于执行基于所述音量信息确定所述文本信息的显示效果时,具体用于执行以下任一项:
基于所述平均音量值和/或情绪标签确定所述文本信息对应的震动等级;
基于所述音量极值确定所述文本信息的水波纹效果或跳动效果。
对应于本申请所提供应用于第二客户端的信息显示方法,本申请实施例还提供了一种信息显示装置500,其结构示意图如图5中所示,该信息显示装置500包括:转换模块501,和上传模块502。
其中,转换模块501,用于响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定所述语音信息相应的音量信息;上传模块502用于上传所述文本信息与音量信息,以使互动方获取所述文本信息与音量信息后,基于所述音量信息确定所述文本信息的显示效果,并基于所述显示效果显示所述文本信息。
可选地,转换模块501用于执行响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定所述语音信息相应的音量信息时,具体用于:
响应于语音信息的开始输入操作,实时采集语音信息并间隔预设时间记录语音音量值;
响应于语音信息的结束输入操作,将实时采集得到的语音信息转换为文本信息,并基于所述语音音量值和语音信息中的至少一种确定所述语音信息相应的音量信息。
可选地,转换模块501用于执行基于所述语音音量值和语音信息中的至少一种确定所述语音信息相应的音量信息时,具体用于执行以下至少一项:
基于记录所得的所有语音音量值,计算得到所述语音信息的平均音量值;
在所有语音音量值中分别取预设数值个音量值最大和最小的语音音量值作为表征语音信息的音量极值;
识别所述语音信息和文本信息中的至少一种,确定所述语音信息对应的情绪标签;所述识别语音信息包括对所述语音信息中的音量、音调、音高、音节中的至少一项进行分析;所述识别文本信息包括确定所述文本信息中至少一个词与至少一个预设标签的对应关系。
本申请实施例的装置可执行本申请的实施例所提供的方法,其实现原理相类似,本申请各实施例中的装置中的各模块所执行的动作是与本申请各实施例中的方法中的步骤相对应的,对于装置的各模块的详细功能描述具体可以参见前文中所示的对应的方法中的描述,此处不再赘述。
本申请还提供了一种电子设备,该电子设备包括存储器和处理器;其中,存储器中存储有计算机程序;处理器用于在运行计算机程序时,执行本申请任一可选实施例中所提供的方法。
本申请还提供了一种计算机可读存储介质,该存储介质中存储有计算机程序,计算机程序在被处理器运行时,执行本申请任一可选实施例中所提供的方法。
作为一可选方案,图6示出了本申请实施例适用的一种电子设备的结构示意图,如图6所示,该电子设备600可以包括处理器601和存储器603。其中,处理器601和存储器603相连,如通过总线602相连。可选地,电子设备600还可以包括收发器604。需要说明的是,实际应用中收发器604不限于一个,该电子设备600的结构并不构成对本申请实施例的限定。
处理器601可以是CPU(Central Processing Unit,中央处理器),通用处理器,DSP(Digital Signal Processor,数据信号处理器),ASIC(Application SpecificIntegrated Circuit,专用集成电路),FPGA(Field Programmable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器601也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线602可包括一通路,在上述组件之间传送信息。总线602可以是PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA(ExtendedIndustry Standard Architecture,扩展工业标准结构)总线等。总线602可以分为地址总线、数据总线、控制总线等。为便于表示,图6中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器603可以是ROM(Read Only Memory,只读存储器)或可存储静态信息和指令的其他类型的静态存储设备,RAM(Random Access Memory,随机存取存储器)或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM(Electrically ErasableProgrammable Read Only Memory,电可擦可编程只读存储器)、CD-ROM(Compact DiscReadOnly Memory,只读光盘)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
存储器603用于存储执行本申请方案的应用程序代码,并由处理器601来控制执行。处理器601用于执行存储器603中存储的应用程序代码(计算机程序),以实现前述任一方法实施例所示的内容。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种信息显示方法,应用于第一客户端,其特征在于,包括:
接收互动方发送的文本信息及相应的音量信息;其中,所述文本信息基于所述互动方输入的语音信息转换而得;
基于所述音量信息确定所述文本信息的显示效果;
基于所述显示效果显示所述文本信息;
其中,所述基于所述音量信息确定所述文本信息的显示效果,包括以下任一项:
确定直播视频的画面内容满足触发以动画展示文本的条件,基于所述音量信息与所述直播视频的画面内容分别对应的显示效果的交集或并集作为所述文本信息的显示效果;预先配置有不同的所述直播视频的画面内容对应于不同的显示效果,不同的所述音量信息对应于不同的显示效果;
确定即时通讯预设时间段内的互动信息满足触发以动画展示文本的条件,基于所述音量信息和互动信息确定文本信息的显示效果;
接收到所述文本信息相应的音量信息时,显示以动画展示文本的触发控件;响应于对所述触发控件的触发操作,基于所述音量信息确定所述文本信息的显示效果。
2.根据权利要求1所述的方法,其特征在于,所述接收互动方发送的文本信息及相应的音量信息,包括以下任一项:
接收在所述直播视频播放时至少一个互动方发送的文本信息及相应的音量信息;
响应于所述即时通讯的互动操作,接收至少一个互动方发送的文本信息及相应的音量信息。
3.根据权利要求1或2中任一项所述的方法,其特征在于,
所述音量信息包括所述语音信息的平均音量值、音量极值和情绪标签中的至少一项;
所述显示效果包括与震动幅度相关的第一效果、与文本格式相关的第二效果、与展示时间或次数相关的第三效果中的至少一项;
其中,所述第一效果包括跳动效果、水波纹效果、配置有多个预设震动等级的震动效果中的至少一项;
所述基于所述音量信息确定所述文本信息的显示效果,包括以下任一项:
基于所述平均音量值和/或情绪标签确定所述文本信息对应的震动等级;
基于所述音量极值确定所述文本信息的水波纹效果或跳动效果。
4.一种信息显示方法,应用于第二客户端,其特征在于,包括:
响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定所述语音信息相应的音量信息;
上传所述文本信息与音量信息,以使互动方获取所述文本信息与音量信息后,基于所述音量信息确定所述文本信息的显示效果,并基于所述显示效果显示所述文本信息;
其中,所述文本信息的显示效果,基于以下任一项确定:
当直播视频的画面内容满足触发以动画展示文本的条件时,所述文本信息的显示效果基于所述音量信息与直播视频的画面内容分别对应的显示效果的交集或并集确定所得;不同的所述直播视频的画面内容对应于不同的显示效果,不同的所述音量信息对应于不同的显示效果;
当即时通讯预设时间段内的互动信息满足触发以动画展示文本的条件时,所述文本信息的显示效果基于所述音量信息和互动信息确定所得;
当接收到所述文本信息相应的音量信息,显示以动画展示文本的触发控件时;响应于对所述触发控件的触发操作,所述文本信息的显示效果基于所述音量信息确定所得。
5.根据权利要求4所述的方法,其特征在于,所述响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定所述语音信息相应的音量信息,包括:
响应于语音信息的开始输入操作,实时采集语音信息并间隔预设时间记录语音音量值;
响应于语音信息的结束输入操作,将实时采集得到的语音信息转换为文本信息,并基于所述语音音量值和语音信息中的至少一种确定所述语音信息相应的音量信息。
6.根据权利要求5所述的方法,其特征在于,所述基于所述语音音量值和语音信息中的至少一种确定所述语音信息相应的音量信息,包括以下至少一项:
基于记录所得的所有语音音量值,计算得到所述语音信息的平均音量值;
在所有语音音量值中分别取预设数值个音量值最大和最小的语音音量值作为表征语音信息的音量极值;
识别所述语音信息和文本信息中的至少一种,确定所述语音信息对应的情绪标签;所述识别语音信息包括对所述语音信息中的音量、音调、音高、音节中的至少一项进行分析;所述识别文本信息包括确定所述文本信息中至少一个词与至少一个预设标签的对应关系。
7.一种信息显示装置,应用于第一客户端,其特征在于,应用于权利要求1所述的方法,包括:
接收模块,用于接收互动方发送的文本信息及相应的音量信息;其中,所述文本信息基于所述互动方输入的语音信息转换而得;
确定模块,用于基于所述音量信息确定所述文本信息的显示效果;
显示模块,用于基于所述显示效果显示所述文本信息。
8.一种信息显示装置,应用于第二客户端,其特征在于,应用于权利要求4所述的方法,包括:
转换模块,用于响应于语音信息的输入操作,将获取到的语音信息转换为文本信息,并确定所述语音信息相应的音量信息;
上传模块,用于上传所述文本信息与音量信息,以使互动方获取所述文本信息与音量信息后,基于所述音量信息确定所述文本信息的显示效果,并基于所述显示效果显示所述文本信息。
9.一种电子设备,其特征在于,包括存储器和处理器;
所述存储器中存储有计算机程序;
所述处理器,用于在运行所述计算机程序时,执行权利要求1至6任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质中存储有计算机程序,所述计算机程序在被处理器运行时,执行权利要求1至6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111057571.5A CN113938739B (zh) | 2021-09-09 | 2021-09-09 | 信息显示方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111057571.5A CN113938739B (zh) | 2021-09-09 | 2021-09-09 | 信息显示方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113938739A CN113938739A (zh) | 2022-01-14 |
CN113938739B true CN113938739B (zh) | 2024-04-19 |
Family
ID=79275565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111057571.5A Active CN113938739B (zh) | 2021-09-09 | 2021-09-09 | 信息显示方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113938739B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109474845A (zh) * | 2018-09-14 | 2019-03-15 | 咪咕音乐有限公司 | 弹幕控制方法、弹幕处理服务器以及计算机可读存储介质 |
CN110379430A (zh) * | 2019-07-26 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 基于语音的动画显示方法、装置、计算机设备及存储介质 |
CN110446115A (zh) * | 2019-07-22 | 2019-11-12 | 腾讯科技(深圳)有限公司 | 直播互动方法、装置、电子设备及存储介质 |
CN112261456A (zh) * | 2020-10-15 | 2021-01-22 | 浙江同花顺智能科技有限公司 | 一种语音弹幕的显示方法、装置、设备及存储介质 |
CN112347395A (zh) * | 2019-08-07 | 2021-02-09 | 阿里巴巴集团控股有限公司 | 特效展示方法、装置、电子设备及计算机存储介质 |
-
2021
- 2021-09-09 CN CN202111057571.5A patent/CN113938739B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109474845A (zh) * | 2018-09-14 | 2019-03-15 | 咪咕音乐有限公司 | 弹幕控制方法、弹幕处理服务器以及计算机可读存储介质 |
CN110446115A (zh) * | 2019-07-22 | 2019-11-12 | 腾讯科技(深圳)有限公司 | 直播互动方法、装置、电子设备及存储介质 |
CN110379430A (zh) * | 2019-07-26 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 基于语音的动画显示方法、装置、计算机设备及存储介质 |
CN112347395A (zh) * | 2019-08-07 | 2021-02-09 | 阿里巴巴集团控股有限公司 | 特效展示方法、装置、电子设备及计算机存储介质 |
CN112261456A (zh) * | 2020-10-15 | 2021-01-22 | 浙江同花顺智能科技有限公司 | 一种语音弹幕的显示方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113938739A (zh) | 2022-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104735468B (zh) | 一种基于语义分析将图像合成新视频的方法及系统 | |
US11670015B2 (en) | Method and apparatus for generating video | |
CN110968736B (zh) | 视频生成方法、装置、电子设备及存储介质 | |
CN110837579A (zh) | 视频分类方法、装置、计算机以及可读存储介质 | |
JP2021192222A (ja) | 動画インタラクティブ方法と装置、電子デバイス、コンピュータ可読記憶媒体、及び、コンピュータプログラム | |
CN110868635B (zh) | 视频处理方法、装置、电子设备及存储介质 | |
CN113453040B (zh) | 短视频的生成方法、装置、相关设备及介质 | |
JP7394809B2 (ja) | ビデオを処理するための方法、装置、電子機器、媒体及びコンピュータプログラム | |
CN111372141B (zh) | 表情图像生成方法、装置及电子设备 | |
WO2022089170A1 (zh) | 字幕区域识别方法、装置、设备及存储介质 | |
CN112541957A (zh) | 动画生成方法、装置、电子设备以及计算机可读介质 | |
US10650814B2 (en) | Interactive question-answering apparatus and method thereof | |
CN113392270A (zh) | 视频处理方法、装置、计算机设备以及存储介质 | |
CN111225236A (zh) | 生成视频封面的方法、装置、电子设备以及计算机可读存储介质 | |
CN113923462A (zh) | 视频生成、直播处理方法、设备和可读介质 | |
CN111491187A (zh) | 视频的推荐方法、装置、设备及存储介质 | |
WO2023045635A1 (zh) | 多媒体文件的字幕处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
CN111539897A (zh) | 用于生成图像转换模型的方法和装置 | |
CN114339450A (zh) | 视频评论生成方法、系统、设备及存储介质 | |
CN112843681B (zh) | 虚拟场景控制方法、装置、电子设备及存储介质 | |
CN112637692B (zh) | 互动方法、装置、设备 | |
CN113938739B (zh) | 信息显示方法、装置、电子设备及存储介质 | |
CN111353070A (zh) | 视频标题的处理方法、装置、电子设备及可读存储介质 | |
CN114283422A (zh) | 一种手写字体生成方法、装置、电子设备和存储介质 | |
CN112331209B (zh) | 一种语音转文本的方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |