CN113014853A - 互动信息处理方法、装置、电子设备及存储介质 - Google Patents

互动信息处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113014853A
CN113014853A CN202010366928.7A CN202010366928A CN113014853A CN 113014853 A CN113014853 A CN 113014853A CN 202010366928 A CN202010366928 A CN 202010366928A CN 113014853 A CN113014853 A CN 113014853A
Authority
CN
China
Prior art keywords
target
interaction
interactive
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010366928.7A
Other languages
English (en)
Other versions
CN113014853B (zh
Inventor
陈可蓉
韩晓
赵立
杨晶生
史寅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202010366928.7A priority Critical patent/CN113014853B/zh
Priority to EP21796877.5A priority patent/EP4124025A4/en
Priority to JP2022564172A priority patent/JP7462070B2/ja
Priority to PCT/CN2021/088044 priority patent/WO2021218680A1/zh
Publication of CN113014853A publication Critical patent/CN113014853A/zh
Priority to US17/883,877 priority patent/US20220391058A1/en
Application granted granted Critical
Publication of CN113014853B publication Critical patent/CN113014853B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本公开实施例公开了一种互动信息处理方法、装置、电子设备及存储介质,该方法包括:在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中。本公开实施例的技术方案,通过设置筛选条件,能够对用户实时互动过程中的互动信息记录进行有效筛选,并区别进行显示,使得交互的用户能够有选择性的获取互动信息,从而提高交互效率。

Description

互动信息处理方法、装置、电子设备及存储介质
技术领域
本公开实施例涉及计算机数据处理技术领域,尤其涉及一种互动信息处理方法、装置、电子设备及存储介质。
背景技术
目前,基于互联网的多媒体会议或视频直播等实时互动应用场景中,服务器可以获取部分用户的语音信息,所有用户所发表的文字信息,并对语音信息和文字信息处理后进行播放和显示。
在实际应用过程中,若用户A未理解用户B的发言信息时,需要查询与用户B相对应的发言信息以及操作信息,即存在了解目标用户在当前互动中所发表的言论信息以及操作信息的需求。
但是,基于现有技术无法获取与目标用户关联的关联信息并显示,即无法获取目标用户的发言信息,从而无法确认目标用户所表达的核心思想,极大的降低了互动中的信息交互效率。
发明内容
本公开实施例提供了一种互动信息处理方法、装置、电子设备及存储介质,以实现对互动场景下信息的有效处理和展示,以提高交流效率。
第一方面,本公开实施例提供了一种互动信息处理方法,包括:
在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;
基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;
将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中。
第二方面,本公开实施例还提供了一种互动信息处理装置,包括:
互动信息记录模块,用于在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;
互动信息筛选模块,用于基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;
互动信息区别显示模块,用于将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中。
第三方面,本公开实施例还提供了一种电子设备,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本公开任意实施例所提供的互动信息处理方法。
第四方面,本公开实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本公开任意实施例所提供的互动信息处理方法。
本公开实施例的技术方案,通过设置筛选条件,能够对用户实时互动过程中的互动信息记录进行有效筛选,并区别进行显示,使得交互的用户能够有选择性的获取互动信息,从而提高交互效率。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例一所提供的一种互动信息处理方法的流程示意图;
图2为本公开实施例二所提供的一种互动信息处理方法的流程示意图;
图3为本公开实施例三所提供的一种互动信息处理方法的流程示意图;
图4为本公开实施例四所提供的一种互动信息处理方法的流程示意图;
图5为本公开实施例五所提供的一种互动信息处理装置的结构示意图;
图6为本公开实施例六所提供的一种互动信息处理方法的结构示意图;
图7为本公开实施例七所提供的一种电子设备结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
实施例一
图1为本公开实施例一所提供的一种互动信息处理方法的流程示意图,本公开实施例适用于在互联网所支持的实时互动应用场景中,对用户所交互信息的处理和展示。该方法可以由互动信息处理装置来执行,该装置可以通过软件和/或硬件的形式实现,可选的,通过电子设备来实现,该电子设备可以是移动终端、PC端或服务端等。实时互动应用场景通常可由客户端和服务端来配合实现,本实施例所提供的方法,可以由客户端来执行,也可以由服务端来执行,或两者配合执行。
如图1所示,该方法包括:
S110、在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;
具体的,实时互动界面为实时互动应用场景中的任意交互界面。实时互动应用场景可通过互联网和计算机手段实现,例如通过原生程序或web程序等实现的交互应用程序。在实时交互界面中,可允许多个用户以各种形式的互动行为来进行交互,例如输入文字、语音、视频、或内容对象的共享等互动行为。由此,可基于有用户的互动行为数据产生互动信息记录。互动行为数据可包括互动行为所涉及的各种数据,例如互动行为类型、以及互动行为所涉及的具体内容等。产生互动信息记录的操作,可以由各个客户端自行处理产生,也可以由服务端统一基于各用户的互动行为数据产生并推送给客户端获得。
S120、基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;
具体的,目标筛选条件可以通过用户手动输入或自动方式来产生。目标筛选条件是能够对互动信息记录进行区分的任意条件,例如,互动行为的类型、内容、时间、或用户等均可作为筛选条件。
通常,每个客户端所属用户的关注信息不同,则各客户端的目标筛选条件可以不同。每个客户端可以基于本地的目标筛选条件对互动信息记录进行筛选。或者,也可以是服务端获得各个客户端各自的目标筛选条件后,对互动信息记录进行不同的筛选处理,再将筛选后的目标互动信息推送给对应的客户端。
S130、将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中。
具体的,互动信息记录,可以在实时互动界面的目标区域中进行显示。目标区域例如可以是主交互区域周边的区域,可以顶部、底部或侧边等。例如,在视频会议场景下,视频交互窗口是主交互区域,占据屏幕2/3的区域,则展示互动信息记录的区域可以是侧边的1/3区域中的某个子区域。
互动信息记录中可包括多种元素,元素是与用户的互动行为数据对应的,例如发言者的文字字幕中,发言者姓名、文字字幕等均为不同元素;在共享行为中,共享者、共享内容的类型、共享的具体内容等均为不同元素。
当筛选获得目标互动信息时,目标互动信息本身也是互动信息记录中的一个或多个元素,在显示时,可以与其他元素区别显示,从而突出筛选后的目标互动信息,让用户可能更直观、便捷地发现目标互动信息。区别显示可以是仅显示目标互动信息而不显示其他元素,或者也可以是以颜色、字体、背景图案等显示格式来区别显示。
本实施例的技术方案,通过设置筛选条件,能够对用户实时互动过程中的互动信息记录进行有效筛选,并区别进行显示,使得交互的用户能够有选择性的获取互动信息,从而提高交互效率。
本公开实施例的技术方案,适用于各种实时互动应用场景中,特别是多媒体实时互动场景中。所述实时互动界面例如可以是视频会议交互界面、视频直播交互界面或群聊交互界面。这些实时互动场景的互动行为的形式可以是一种或多种,例如包括文字、语音、视频、白板和共享内容等。在多媒体实时互动场景中,由于互动行为是实时滚动的,展示速度快、展示停留时间短、也存在展示方式用户不熟悉的问题,所以优选能够将互动行为数据转换为静态的互动信息记录来作为辅助展示。静态互动信息记录可以通过文字、图片等方式来记录多媒体互动数据。
在本公开实施例中,所述互动行为数据可以包括用户语音数据和/或用户操作行为数据;所述互动信息记录的内容包括用户语音数据识别出的文本数据和/或用户操作行为的类型与内容。文本数据相当于用户语音的字幕文本。
其中,用户操作行为可以有多种,典型的用户操作行为数据可以包括共享行为和共享内容。共享行为即为一种操作类型,所述共享行为为将共享内容呈现至各个用户。所述共享内容包括共享文档、共享屏幕和/或网页链接等。操作行为类型和共享内容,均可以转化为互动信息记录。本领域技术人员可以理解,在多媒体实时互动应用场景中,用户操作行为不限于共享内容,例如还可以包括白板书写等行为。
实施例二
图2为本公开实施例二所提供的一种互动信息处理方法的流程示意图。本实施例以前述实施例为基础,对确定目标筛选条件的方式和内容提供了具体可选方案。本实施例的方法具体包括:
S210、在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;
S220、通过所述实时交互界面的筛选控件或搜索控件,获取用户输入的目标筛选条件;
其中,所述筛选控件包括筛选列表、条件输入框和选项标签中的至少一个。
可选的,所述目标筛选条件包括下述条件中的至少一个:内容关键字、语音数据的发言用户、发言用户活跃度等级、操作行为类型、和操作行为内容对象。
其中,内容关键字可以是针对各种元素的内容的,例如,发言者姓名、发言者的发言内容文本、或共享内容的文本等。语音数据的发言用户是从用户维度确定的筛选条件,可以仅关注某个或某几个发言者的发言内容,例如仅关注主持人。发言用户活跃度等级也是从用户维度确定的筛选条件,发言用户活跃度一般是指用户实施互动行为的活跃度,可以是一种互动行为或几种互动行为的频率、数量或质量。例如,活跃度的评价指标可以是:单位时间内发言次数、共享内容的次数、发言内容的长短、实质含义有效性等。可以按照量化指标确定各发言用户的活跃度等级,从而可以有选择性的关注高活跃度等级的发言用户。操作行为类型是从互动行为的类型维度确定的筛选条件,使用户能够有选择性的突出获取到某一类或几类操作行为的信息记录,例如仅获取共享内容的互动信息。操作行为内容对象是从互动行为对象维度确定的筛选条件,例如,共享行为的内容对象是文档的可以被单独筛选出来展示。
在本实施例中,目标筛选条件可以由用户手动输入来确定,具体是可以通过实时交互界面上设置的筛选控件或搜索控件来获取。具体的,以语音数据的发言用户为例,可以将所有发言用户,以筛选列表的形式展示,供用户点击来筛选。以内容关键字为例,可以提供搜索控件,如搜索输入栏,供用户输入内容关键字来确定目标筛选条件。以发言用户活跃度等级为例,可以通过多个活跃度等级的选项标签或条件输入框的形式来展示,供用户选择。
筛选控件的内容可根据实时交互过程或交互信息记录的内容来动态产生。例如,随着发言用户的增加或减少,可增减发言用户的筛选列表;可根据互动行为类型的增加,而增加可供筛选的操作行为类型的标签选项等。
S230、基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;
S240、将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中。
本实施例的技术方案,可以在实时互动界面中提供丰富的控件,供用户便捷的输入目标筛选条件。
实施例三
图3为本公开实施例三所提供的一种互动信息处理方法的流程示意图。本实施例以前述实施例为基础,提供了另一种确定目标筛选条件的具体实现方式。
该方法包括:
S310、在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;
S320、当检测到设定触发条件时,确定目标筛选条件;
在本实施例中,可选是通过设定触发条件的方式,可自动确定目标筛选条件,从而可进一步减少用户手动参与的程度,为用户提供智能化的服务。
所述触发条件可以按照需求从多种维度进行设置,例如可包括如下至少一种:在互动过程中的预设时间点、检测到用户语音数据中包括指示性语音数据、以及各发言用户所使用的语种类型与当前客户端的语种类型存在差异。
预设时间点可以是绝对时间点或相对时间点。绝对时间点可以是在几点几分的时间来触发确定目标筛选条件。相对时间点,例如可以是间隔设定时长触发一次对目标筛选条件的确定。
检测到用户语音数据中包括指示性语音数据,是指可通过用户语音指示的方式来触发目标筛选条件的确定。指示性语音数据可以是设定词语的明确指令,也可以是通过意图识别的方式确定用户存在筛选意图。设定词语的明确指令,可以是设定语句结构的指令,例如,“我想看XX用户的发言文本”。意图识别在可以更智能的确定用户的筛选意图,例如,“我听不清XX用户”,说明存在查看XX用户发言内容的筛选意图,则可以触发确定目标筛选条件。
发言用户所使用的语种类型存在差异,具体是对于互动语音存在多语种的情况。例如,某个客户端的用户采用中文发言,那么其可能对其他用户的英语发言不能听懂和理解,则需要特别关注与其语种类型不同的发言内容,由此需要触发目标筛选条件。对于任一客户端而言,该客户端有可能被一个用户使用,也可以被多个用户同时使用,则该客户端所对应发言用户所使用的语种类型可能是一种或几种。当某个客户端识别到非本端发言用户的发言语种,与本端发言用户的语种类型存在差异,则可以认为存在触发条件,本端发言者可能需要筛选其他差异语种的发言内容来重点查看。差异语种是指与本端发言用户的语种类型不同的语种,例如,本端发言用户的语种类型为中文,那么与中文不同的语种均可以称为差异语种。
S330、基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;
S340、将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中。
在上述技术方案中,优选的是,当检测到设定触发条件时,确定目标筛选条件可以具体包括:在用户实时互动过程中,基于已采集的互动行为数据检测到设定触发条件时,确定目标筛选条件。即,通过互动行为数据来确定是否存在触发条件,用户的互动行为数据通常带有用户对哪些信息需要关注的需求可能性或意图。所以,基于互动行为数据来确定触发条件,能够更准确的为用户确定目标筛选条件。
进一步,确定目标筛选条件可以具体包括:基于已采集的互动行为数据确定目标筛选条件。即互动行为数据不仅可以确定是否存在确定目标筛选条件的触发条件,还可以用于确定目标筛选条件的内容。
可选的,基于互动行为数据确定触发条件和/或确定目标筛选条件可包括多种情况。例如,所述在用户实时互动过程中,基于已采集的互动行为数据检测到设定触发条件时,确定目标筛选条件,包括下述至少一项:
第一、基于已采集的互动行为数据,确定各个用户的当前活跃度值,基于所述当前活跃度值确定目标筛选条件;
例如,可基于互动行为数据,确定用户的当前活跃度值,而后,可以在用户的当前活跃度值达到预设标准时,将当前活跃度值高于预设活跃度值的用户作为目标筛选条件。从而达到仅显示活跃用户互动内容的效果。设定标准例如为,活跃度等级为高级的用户为N~M个,N和M均为设定的正整数。
第二、基于已采集的互动行为数据,确定各个用户的语种类型,基于所述语种类型,确定目标筛选条件;
语种类型有可能使得用户存在交流障碍,由此可基于语种类型来确定目标筛选条件,具体可以包括:
基于所述互动行为数据中的语音数据,确定与每个用户相对应的当前语种类型并将与当前语种类型不同的其它语种类型作为目标筛选条件;或,
采集各个客户端预先设置的目标语种类型,将与所述目标语种类型不同的其它语种类型作为目标筛选条件。
上述操作,可以由各个客户端针对本端的发言用户来进行他端用户语种的识别和筛选。
由此,基于已采集的互动行为数据,确定各个用户的语种类型之前,还可包括:根据各个用户的语音数据进行声纹识别,以确定所述语音数据的所属发言用户。通常,客户端会有对应的客户端账号或客户端ID,从而区分不同客户端。但是当某个客户端同时有多个用户在一起参会发言时,则多个用户无法通过客户端ID进行区分。由此,可以进一步针对各个用户的语音数据进行声纹识别,每个人的语音具有独特的声纹,可据此区分不同的用户。而后可标记为客户端ID-用户A、客户端ID-用户B,从而区分相同客户端下的不同发言用户。
第三、基于已采集的互动行为数据,确定互动行为数据的实质含义,基于所述互动行为数据实质含义的有效性,确定目标筛选条件。
互动行为数据的实质含义,可以体现在语义或行为结果意义方面。通过语音或文本方式输入的信息,可识别其自然语义,对无有效自然语义的信息可视为数据实质含义无效,相应的,具有有效语义的信息可视为数据实质含义有效,若检测到数据实质含义有效,则可以触发确定目标筛选条件,可以将有效的信息作为筛选对象,即,有效的互动信息为筛选保留对象。需要说明的是,有效性的判断依据,可以根据具体的互动场景,以及互动过程中的实际需求来设置或确定。例如,视频会议中,同一客户端多个用户的私下聊天,声音模糊导致无法有效识别,则可确定此类消息为无效信息,相应的,此类消息之外的信息作为有效信息。对于行为结果意义,可体现在用户的某些操作行为是否能够达到实际的行为结果。例如,用户进行了错误内容的共享后又迅速撤回,则此类互动行为没有构成有效的行为结果,可视为互动信息无效。若用户进行了文档分享操作,并针对分享内容进行了具体解释或者进一步阐述,则此类互动行为构成了有效的行为结果,可以将此类操作作为互动信息有效,此时可以触发确定目标筛选条件,也就是说,保留有实质含义的互动行为数据。
本公开实施例的技术方案,能够通过用户的互动行为数据,自动的确定目标筛选条件的产生时间和内容,使得筛选操作更加的智能化,可以在尽量少干扰用户互动的情况下,为用户区别显示重点关注的互动信息。
实施例四
图4为本公开实施例四所提供的一种互动信息处理方法的流程示意图。本实施例以前述实施例为基础,进一步提供了对目标互动信息进行区别显示的方式。该方法包括:
S410、在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;
S420、基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;
S430、将所述目标互动信息以对应显示方式,与所述互动记录中的其它元素区别显示在实时互动界面的目标区域中;
其中,所述显示方式与所述目标筛选条件中的筛选类型相对应。
本实施例中,对于目标互动信息可选地采用了与目标筛选条件的筛选类型对应的显示方式。因此,可进一步通过显示方式来突出体现目标互动信息的所属筛选类型,增强信息显示的直观性。不同筛选所对应的几种显示方式举例如下:
例如,所述目标筛选条件中的筛选类型包括在搜索控件中输入的筛选条件,则所述将所述目标互动信息以对应显示方式,与所述互动记录中的其它元素区别显示在实时互动界面的目标区域中,具体包括:
将所述目标互动信息以区别于其他互动信息记录内容的显示方式,与所述互动信息记录的内容一并显示在实时互动界面的目标区域中。
在该方式中,通过搜索的方式来筛选的目标互动信息,用户可能关注信息内容本身,也可能关注互动信息在全部信息中的位置和上下文。由此,可将目标互动信息与其他信息一起显示,但将目标互动信息以特殊的显示方式区别显示。
所述显示方式可包括下述至少一种:
将所述目标互动信息在所述互动信息记录内容中高亮显示;
以遮光罩方式覆盖全部或部分其他互动信息记录内容;所述遮光罩为半透明状态;
将所述目标互动信息按照预设字体显示。
当然,任何其他能够将目标互动信息进行区别的显示方式都可以适用。
再例如,所述目标筛选条件中的筛选类型包括在筛选控件中输入的筛选条件,则将所述目标互动信息以对应显示方式,与所述互动记录中的其它元素区别显示在实时互动界面的目标区域中,可以具体包括:
将所述目标互动信息和其他互动信息记录内容,在所述实时互动界面的不同目标区域中进行显示。
上述方式中,将目标互动信息与其他元素放置于不同区域进行显示。例如,可以将整体的互动信息记录展示区域划分为两个以上的子区域,一个子区域可显示筛选的共享内容,另一个子区域显示语音数据的文本。或者,可以基于筛选,仅保留目标互动信息的显示,而屏蔽其他元素的显示,从而也使得目标互动信息区别于其他元素进行了显示。
实施例五
图5为本公开实施例五所提供的一种互动信息处理装置的结构示意图。本实施例所提供的互动信息处理装置可以采用硬件和/或软件的方式实现,用于在用户基于应用软件进行实时互动的应用场景中,进行互动信息的筛选和显示。该互动信息处理装置可集成于客户端中,或者也可以集成于服务端,为各个客户端提供业务服务。
如图5所示,该互动信息处理装置包括:互动信息记录模块510、互动信息筛选模块520和互动信息区别显示模块530。其中,互动信息记录模块510,用于在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;互动信息筛选模块520,用于基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;互动信息区别显示模块530,用于将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中。
本公开实施例的技术方案,通过设置筛选条件,能够对用户实时互动过程中的互动信息记录进行有效筛选,并区别进行显示,使得交互的用户能够有选择性的获取互动信息,从而提高交互效率。
在本公开实施例中,该方法适用于用户实时互动应用场景,尤为适用于用户以各种多媒体形式进行互动的多媒体实时互动应用场景,该应用场景由基于互联网技术的应用软件来实现。实时互动界面是多媒体实时互动应用场景中的任意交互界面,例如可以是视频会议交互界面、视频直播交互界面或群聊交互界面等。
所述互动行为数据可以包括用户语音数据和/或用户操作行为数据;所述互动信息记录的内容包括用户语音数据识别出的文本数据和/或用户操作行为的类型与内容。
具体的,所述用户操作行为数据可以包括共享行为和共享内容,所述共享行为为将共享内容呈现至各个用户,所述共享内容包括共享文档、共享屏幕和/或网页链接。
目标筛选条件是对互动信息记录进行筛选的任意维度条件,例如所述目标筛选条件可以包括下述条件中的至少一个:内容关键字、语音数据的发言用户、发言用户活跃度等级、操作行为类型、和操作行为内容对象。
目标筛选条件的确定方式有多种,具体的,该装置可进一步包括:
控件获取模块,用于通过所述实时交互界面的筛选控件或搜索控件,获取用户输入的目标筛选条件;其中,所述筛选控件包括筛选列表、条件输入框和选项标签中的至少一个。
通过控件,可供用户自主输入目标筛选条件,直接体现用户的筛选意图。
实施例六
图6为本公开实施例六所提供的一种互动信息处理装置的结构示意图。本实施例在前述实施例的基础上,进一步提供了筛选条件确定的一种具体实现方式。
该装置包括:互动信息记录模块610、互动信息筛选模块620和互动信息区别显示模块630,并进一步包括条件触发模块640,用于基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息之前,当检测到设定触发条件时,确定目标筛选条件。
本实施例能够基于设定触发条件,来自动触发目标筛选条件的获取,或者还可以进一步自动确定目标筛选条件的内容。
可选的,所述触发条件包括如下至少一种:在互动过程中的预设时间点、检测到用户语音数据中包括指示性语音数据、以及发言用户所使用的语种类型存在差异等。
上述基础上,该条件触发模块具体可用于在用户实时互动过程中,基于已采集的互动行为数据检测到设定触发条件时,确定目标筛选条件。
可选的,该条件触发模块具体可包括下述至少一个功能单元:
活跃度确定单元,用于基于已采集的互动行为数据,确定各个用户的当前活跃度值,基于所述当前活跃度值确定目标筛选条件;
语种确定单元,用于基于已采集的互动行为数据,确定各个用户的语种类型,基于所述语种类型,确定目标筛选条件;
语义确定单元,用于基于已采集的互动行为数据,确定互动行为数据的实质含义,基于所述互动行为数据实质含义的有效或无效,确定目标筛选条件。
其中,活跃度确定单元可具体用于将当前活跃度值高于预设活跃度值的用户作为目标筛选条件。
其中,语种确定单元可具体用于基于所述互动行为数据中的语音数据,确定与每个用户相对应的当前语种类型并将与当前语种类型不同的其它语种类型作为目标筛选条件;或,采集各个客户端预先设置的目标语种类型,将与所述目标语种类型不同的其它语种类型作为目标筛选条件。
进一步的,该装置还可以包括声纹识别模块,用于基于已采集的互动行为数据,确定各个用户的语种类型之前,根据各个用户的语音数据进行声纹识别,以确定所述语音数据的所属发言用户。
在上述方案的基础上,当确定目标互动信息后,可通过各种不同方式来进行区别显示。
可选的,互动信息区别显示模块可具体用于:将所述目标互动信息以对应显示方式,与所述互动记录中的其它元素区别显示在实时互动界面的目标区域中;其中,所述显示方式与所述目标筛选条件中的筛选类型相对应。
互动信息区别显示模块还可更具体的用于:将所述目标互动信息以区别于其他互动信息记录内容的显示方式,与所述互动信息记录的内容一并显示在实时互动界面的目标区域中。
或者,互动信息区别显示模块可更具体的用于:将所述目标互动信息和其他互动信息记录内容,在所述实时互动界面的不同目标区域中进行显示。
上述方案中,所述显示方式包括下述至少一种:
将所述目标互动信息在所述互动信息记录内容中高亮显示;
以遮光罩方式覆盖全部或部分其他互动信息记录内容;所述遮光罩为半透明状态;
将所述目标互动信息按照预设字体显示。
本公开实施例所提供的互动信息处理装置可执行本公开任意实施例所提供的互动信息处理方法,具备执行方法相应的功能模块和有益效果。
值得注意的是,上述装置所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本公开实施例的保护范围。
实施例七
下面参考图7,其示出了适于用来实现本公开实施例的电子设备(例如图7中的终端设备或服务器)700的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图7示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置706加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置706;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置706被安装,或者从ROM702被安装。在该计算机程序被处理装置701执行时,执行本公开实施例的方法中限定的上述功能。
本公开实施例提供的电子设备与上述实施例提供的互动信息处理方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见上述实施例,并且本实施例与上述实施例具有相同的有益效果。
实施例八
本公开实施例八提供了一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述实施例所提供的互动信息处理方法。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;
基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;
将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元/模块的名称在某种情况下并不构成对该单元本身的限定,例如,待发送用户确定模块还可以被描述为“用户确定模块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,【示例一】提供了一种互动信息处理方法,该方法包括:
在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;
基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;
将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中。
根据本公开的一个或多个实施例,【示例二】提供了一种互动信息处理方法,还包括:
可选的,所述用户操作行为数据包括共享行为和共享内容,所述共享行为为将共享内容呈现至各个用户,所述共享内容包括共享文档、共享屏幕和/或网页链接。
根据本公开的一个或多个实施例,【示例三】提供了一种互动信息处理方法,还包括:
可选的,所述互动行为数据包括用户语音数据和/或用户操作行为数据;所述互动信息记录的内容包括用户语音数据识别出的文本数据和/或用户操作行为的类型与内容。
根据本公开的一个或多个实施例,【示例四】提供了一种互动信息处理方法,还包括:
可选的,所述目标筛选条件包括下述条件中的至少一个:内容关键字、语音数据的发言用户、发言用户活跃度等级、操作行为类型、和操作行为内容对象。
根据本公开的一个或多个实施例,【示例五】提供了一种互动信息处理方法,还包括:
可选的,目标筛选条件通过如下方式确定:
通过所述实时交互界面的筛选控件或搜索控件,获取用户输入的目标筛选条件;
其中,所述筛选控件包括筛选列表、条件输入框和选项标签中的至少一个。
根据本公开的一个或多个实施例,【示例六】提供了一种互动信息处理方法,还包括:
可选的,基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息之前,还包括:
当检测到设定触发条件时,确定目标筛选条件。
根据本公开的一个或多个实施例,【示例七】提供了一种互动信息处理方法,还包括:
可选的,所述触发条件包括如下至少一种:在互动过程中的预设时间点、检测到用户语音数据中包括指示性语音数据、以及发言用户所使用的语种类型存在差异。
根据本公开的一个或多个实施例,【示例八】提供了一种互动信息处理方法,还包括:
可选的,所述当检测到设定触发条件时,确定目标筛选条件,包括:
在用户实时互动过程中,基于已采集的互动行为数据检测到设定触发条件时,确定目标筛选条件。
根据本公开的一个或多个实施例,【示例九】提供了一种互动信息处理方法,还包括:
可选的,所述在用户实时互动过程中,基于已采集的互动行为数据检测到设定触发条件时,确定目标筛选条件,包括下述至少一项:
基于已采集的互动行为数据,确定各个用户的当前活跃度值,基于所述当前活跃度值确定目标筛选条件;
基于已采集的互动行为数据,确定各个用户的语种类型,基于所述语种类型,确定目标筛选条件;
基于已采集的互动行为数据,确定互动行为数据的实质含义,基于所述互动行为数据实质含义的有效或无效,确定目标筛选条件。
根据本公开的一个或多个实施例,【示例十】提供了一种互动信息处理方法,还包括:
可选的,所述基于所述当前活跃度值确定目标筛选条件,包括:
将当前活跃度值高于预设活跃度值的用户作为目标筛选条件。
根据本公开的一个或多个实施例,【示例十一】提供了一种互动信息处理方法,还包括:
可选的,所述基于已采集的互动行为数据,确定各个用户的语种类型,基于所述语种类型,确定目标筛选条件,包括:
基于所述互动行为数据中的语音数据,确定与每个用户相对应的当前语种类型并将与当前语种类型不同的其它语种类型作为目标筛选条件;或,
采集各个客户端预先设置的目标语种类型,将与所述目标语种类型不同的其它语种类型作为目标筛选条件。
根据本公开的一个或多个实施例,【示例十二】提供了一种互动信息处理方法,还包括:
可选的,基于已采集的互动行为数据,确定各个用户的语种类型之前,还包括:
根据各个用户的语音数据进行声纹识别,以确定所述语音数据的所属发言用户。
根据本公开的一个或多个实施例,【示例十三】提供了一种互动信息处理方法,还包括:
可选的,所述将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中,包括:
将所述目标互动信息以对应显示方式,与所述互动记录中的其它元素区别显示在实时互动界面的目标区域中;其中,所述显示方式与所述目标筛选条件中的筛选类型相对应。
根据本公开的一个或多个实施例,【示例十四】提供了一种互动信息处理方法,还包括:
可选的,所述目标筛选条件中的筛选类型包括在搜索控件中输入的筛选条件,所述将所述目标互动信息以对应显示方式,与所述互动记录中的其它元素区别显示在实时互动界面的目标区域中,包括:
将所述目标互动信息以区别于其他互动信息记录内容的显示方式,与所述互动信息记录的内容一并显示在实时互动界面的目标区域中。
根据本公开的一个或多个实施例,【示例十五】提供了一种互动信息处理方法,还包括:
可选的,所述目标筛选条件中的筛选类型包括在筛选控件中输入的筛选条件,所述将所述目标互动信息以对应显示方式,与所述互动记录中的其它元素区别显示在实时互动界面的目标区域中,包括:
将所述目标互动信息和其他互动信息记录内容,在所述实时互动界面的不同目标区域中进行显示。
根据本公开的一个或多个实施例,【示例十六】提供了一种互动信息处理方法,还包括:
可选的,所述显示方式包括下述至少一种:
将所述目标互动信息在所述互动信息记录内容中高亮显示;
以遮光罩方式覆盖全部或部分其他互动信息记录内容;所述遮光罩为半透明状态;
将所述目标互动信息按照预设字体显示。
根据本公开的一个或多个实施例,【示例十七】提供了一种互动信息处理方法,还包括:
可选的,所述实时互动界面是视频会议交互界面、视频直播交互界面或群聊交互界面。
根据本公开的一个或多个实施例,【示例十八】提供了一种互动信息处理装置,该装置包括:
互动信息记录模块,用于在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;
互动信息筛选模块,用于基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;
互动信息区别显示模块,用于将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中。
根据本公开的一个或多个实施例,提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本公开任意实施例所提供的互动信息处理方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (20)

1.一种互动信息处理方法,其特征在于,包括:
在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;
基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;
将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中。
2.根据权利要求1所述的方法,其特征在于,所述互动行为数据包括用户语音数据和/或用户操作行为数据;所述互动信息记录的内容包括用户语音数据识别出的文本数据和/或用户操作行为的类型与内容。
3.根据权利要求2所述的方法,其特征在于,所述用户操作行为数据包括共享行为和共享内容,所述共享行为为将共享内容呈现至各个用户,所述共享内容包括共享文档、共享屏幕和/或网页链接。
4.根据权利要求2所述的方法,其特征在于,所述目标筛选条件包括下述条件中的至少一个:内容关键字、语音数据的发言用户、发言用户活跃度等级、操作行为类型、和操作行为内容对象。
5.根据权利要求1-4任一所述的方法,其特征在于,目标筛选条件通过如下方式确定:
通过所述实时交互界面的筛选控件或搜索控件,获取用户输入的目标筛选条件;
其中,所述筛选控件包括筛选列表、条件输入框和选项标签中的至少一个。
6.根据权利要求1-4任一所述的方法,其特征在于,基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息之前,还包括:
当检测到设定触发条件时,确定目标筛选条件。
7.根据权利要求6所述的方法,其特征在于,所述触发条件包括如下至少一种:在互动过程中的预设时间点、检测到用户语音数据中包括指示性语音数据、以及发言用户与当前客户端的语种类型存在差异。
8.根据权利要求7所述的方法,其特征在于,所述当检测到设定触发条件时,确定目标筛选条件,包括:
在用户实时互动过程中,基于已采集的互动行为数据检测到设定触发条件时,确定目标筛选条件。
9.根据权利要求8所述的方法,其特征在于,所述在用户实时互动过程中,基于已采集的互动行为数据检测到设定触发条件时,确定目标筛选条件,包括下述至少一项:
基于已采集的互动行为数据,确定各个用户的当前活跃度值,基于所述当前活跃度值确定目标筛选条件;
基于已采集的互动行为数据,确定各个用户的语种类型,基于所述语种类型,确定目标筛选条件;
基于已采集的互动行为数据,确定互动行为数据的实质含义,基于所述互动行为数据实质含义的有效性,确定目标筛选条件。
10.根据权利要求9所述的方法,其特征在于,所述基于所述当前活跃度值确定目标筛选条件,包括:
将当前活跃度值高于预设活跃度值的用户作为目标筛选条件。
11.根据权利要求9所述的方法,其特征在于,所述基于已采集的互动行为数据,确定各个用户的语种类型,基于所述语种类型,确定目标筛选条件,包括:
基于所述互动行为数据中的语音数据,确定与每个用户相对应的当前语种类型并将与当前语种类型不同的其它语种类型作为目标筛选条件;或,
采集各个客户端预先设置的目标语种类型,将与所述目标语种类型不同的其它语种类型作为目标筛选条件。
12.根据权利要求9所述的方法,其特征在于,基于已采集的互动行为数据,确定各个用户的语种类型之前,还包括:
根据各个用户的语音数据进行声纹识别,以确定所述语音数据的所属发言用户。
13.根据权利要求1-4任一所述的方法,其特征在于,所述将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中,包括:
将所述目标互动信息以对应显示方式,与所述互动记录中的其它元素区别显示在实时互动界面的目标区域中;其中,所述显示方式与所述目标筛选条件中的筛选类型相对应。
14.根据权利要求13所述的方法,其特征在于,所述目标筛选条件中的筛选类型包括在搜索控件中输入的筛选条件,所述将所述目标互动信息以对应显示方式,与所述互动记录中的其它元素区别显示在实时互动界面的目标区域中,包括:
将所述目标互动信息以区别于其他互动信息记录内容的显示方式,与所述互动信息记录的内容一并显示在实时互动界面的目标区域中。
15.根据权利要求13所述的方法,其特征在于,所述目标筛选条件中的筛选类型包括在筛选控件中输入的筛选条件,所述将所述目标互动信息以对应显示方式,与所述互动记录中的其它元素区别显示在实时互动界面的目标区域中,包括:
将所述目标互动信息和其他互动信息记录内容,在所述实时互动界面的不同目标区域中进行显示。
16.根据权利要求13所述的方法,其特征在于,所述显示方式包括下述至少一种:
将所述目标互动信息在所述互动信息记录内容中高亮显示;
以遮光罩方式覆盖全部或部分其他互动信息记录内容;所述遮光罩为半透明状态;
将所述目标互动信息按照预设字体显示。
17.根据权利要求1-4任一所述的方法,其特征在于,所述实时互动界面是视频会议交互界面、视频直播交互界面或群聊交互界面。
18.一种互动信息处理装置,其特征在于,包括:
互动信息记录模块,用于在用户基于实时互动界面进行互动的过程中,基于用户的互动行为数据产生互动信息记录;
互动信息筛选模块,用于基于目标筛选条件,从所述互动信息记录中筛选出与所述目标筛选条件相对应的目标互动信息;
互动信息区别显示模块,用于将所述目标互动信息与所述互动信息记录中的其它元素区别显示在实时互动界面的目标区域中。
19.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-17中任一所述的互动信息处理方法。
20.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-17中任一所述的互动信息处理方法。
CN202010366928.7A 2020-04-30 2020-04-30 互动信息处理方法、装置、电子设备及存储介质 Active CN113014853B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202010366928.7A CN113014853B (zh) 2020-04-30 2020-04-30 互动信息处理方法、装置、电子设备及存储介质
EP21796877.5A EP4124025A4 (en) 2020-04-30 2021-04-19 METHOD AND DEVICE FOR PROCESSING INTERACTION INFORMATION, ELECTRONIC DEVICE AND STORAGE MEDIUM
JP2022564172A JP7462070B2 (ja) 2020-04-30 2021-04-19 インタラクション情報処理方法、装置、電子デバイス及び記憶媒体
PCT/CN2021/088044 WO2021218680A1 (zh) 2020-04-30 2021-04-19 互动信息处理方法、装置、电子设备及存储介质
US17/883,877 US20220391058A1 (en) 2020-04-30 2022-08-09 Interaction information processing method and apparatus, electronic device and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010366928.7A CN113014853B (zh) 2020-04-30 2020-04-30 互动信息处理方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113014853A true CN113014853A (zh) 2021-06-22
CN113014853B CN113014853B (zh) 2022-11-11

Family

ID=76383556

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010366928.7A Active CN113014853B (zh) 2020-04-30 2020-04-30 互动信息处理方法、装置、电子设备及存储介质

Country Status (5)

Country Link
US (1) US20220391058A1 (zh)
EP (1) EP4124025A4 (zh)
JP (1) JP7462070B2 (zh)
CN (1) CN113014853B (zh)
WO (1) WO2021218680A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979754A (zh) * 2022-04-11 2022-08-30 北京高途云集教育科技有限公司 一种信息显示方法、装置、设备以及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116149520B (zh) * 2023-04-23 2023-07-21 深圳市微克科技有限公司 一种智能手表交互界面智能处理方法、系统及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160094866A1 (en) * 2014-09-29 2016-03-31 Amazon Technologies, Inc. User interaction analysis module
CN105488116A (zh) * 2015-11-20 2016-04-13 珠海多玩信息技术有限公司 一种基于在线直播的消息显示方法及客户端
CN105632498A (zh) * 2014-10-31 2016-06-01 株式会社东芝 生成会议记录的方法、装置和系统
CN107645686A (zh) * 2017-09-22 2018-01-30 广东欧珀移动通信有限公司 信息处理方法、装置、终端设备及存储介质
CN108881789A (zh) * 2017-10-10 2018-11-23 北京视联动力国际信息技术有限公司 一种基于视频会议的数据交互方法和装置
CN110851745A (zh) * 2019-10-28 2020-02-28 腾讯科技(深圳)有限公司 信息处理方法、装置、存储介质及电子设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000284876A (ja) 1999-03-31 2000-10-13 Sony Corp 表示制御装置および表示制御方法、並びに媒体
JP2009194857A (ja) 2008-02-18 2009-08-27 Sharp Corp 通信会議システム、通信装置、通信会議方法、コンピュータプログラム
JP5014449B2 (ja) * 2010-02-26 2012-08-29 シャープ株式会社 会議システム、情報処理装置、会議支援方法、情報処理方法、及びコンピュータプログラム
US20110246172A1 (en) * 2010-03-30 2011-10-06 Polycom, Inc. Method and System for Adding Translation in a Videoconference
JP5751627B2 (ja) 2011-07-28 2015-07-22 国立研究開発法人産業技術総合研究所 音声データ書き起こし用webサイトシステム
US8756500B2 (en) * 2011-09-20 2014-06-17 Microsoft Corporation Dynamic content feed filtering
US9007448B2 (en) * 2012-02-03 2015-04-14 Bank Of America Corporation Video-assisted customer experience
US9590929B2 (en) * 2013-04-11 2017-03-07 International Business Machines Corporation Directed message notification in chat sessions
JP6233798B2 (ja) * 2013-09-11 2017-11-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation データを変換する装置及び方法
CN104615593B (zh) * 2013-11-01 2017-09-29 北大方正集团有限公司 微博热点话题自动检测方法及装置
CN104679405B (zh) * 2015-02-06 2019-05-14 深圳市金立通信设备有限公司 一种终端
CN106375865B (zh) * 2016-09-20 2020-10-27 腾讯科技(深圳)有限公司 一种基于社交信息的弹幕交互方法、系统及终端
CN107911646B (zh) * 2016-09-30 2020-09-18 阿里巴巴集团控股有限公司 一种会议分享、生成会议记录的方法及装置
US11412012B2 (en) * 2017-08-24 2022-08-09 Re Mago Holding Ltd Method, apparatus, and computer-readable medium for desktop sharing over a web socket connection in a networked collaboration workspace
JP6914154B2 (ja) 2017-09-15 2021-08-04 シャープ株式会社 表示制御装置、表示制御方法及びプログラム
US10250401B1 (en) * 2017-11-29 2019-04-02 Palantir Technologies Inc. Systems and methods for providing category-sensitive chat channels
US20200167699A1 (en) * 2018-11-26 2020-05-28 Tickitin Experiences LLC Event management and coordination platform
CN110392312B (zh) * 2019-06-14 2022-02-22 北京字节跳动网络技术有限公司 群聊构建方法、系统、介质和电子设备
US11269591B2 (en) * 2019-06-19 2022-03-08 International Business Machines Corporation Artificial intelligence based response to a user based on engagement level
US11146700B2 (en) * 2020-01-27 2021-10-12 Kyocera Document Solutions Inc. Image forming apparatus and communication system that utilize group chat function
US10819532B1 (en) * 2020-03-27 2020-10-27 Ringcentral, Inc. System and method for determining a source and topic of content for posting in a chat group

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160094866A1 (en) * 2014-09-29 2016-03-31 Amazon Technologies, Inc. User interaction analysis module
CN105632498A (zh) * 2014-10-31 2016-06-01 株式会社东芝 生成会议记录的方法、装置和系统
CN105488116A (zh) * 2015-11-20 2016-04-13 珠海多玩信息技术有限公司 一种基于在线直播的消息显示方法及客户端
CN107645686A (zh) * 2017-09-22 2018-01-30 广东欧珀移动通信有限公司 信息处理方法、装置、终端设备及存储介质
CN108881789A (zh) * 2017-10-10 2018-11-23 北京视联动力国际信息技术有限公司 一种基于视频会议的数据交互方法和装置
CN110851745A (zh) * 2019-10-28 2020-02-28 腾讯科技(深圳)有限公司 信息处理方法、装置、存储介质及电子设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979754A (zh) * 2022-04-11 2022-08-30 北京高途云集教育科技有限公司 一种信息显示方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
EP4124025A4 (en) 2023-09-20
EP4124025A1 (en) 2023-01-25
US20220391058A1 (en) 2022-12-08
JP7462070B2 (ja) 2024-04-04
CN113014853B (zh) 2022-11-11
JP2023523230A (ja) 2023-06-02
WO2021218680A1 (zh) 2021-11-04

Similar Documents

Publication Publication Date Title
WO2022068533A1 (zh) 互动信息处理方法、装置、设备及介质
CN113259740A (zh) 一种多媒体处理方法、装置、设备及介质
CN111753558B (zh) 视频翻译方法和装置、存储介质和电子设备
US20220391058A1 (en) Interaction information processing method and apparatus, electronic device and storage medium
CN112163102B (zh) 搜索内容匹配方法、装置、电子设备及存储介质
CN113014854B (zh) 互动记录的生成方法、装置、设备及介质
US20200234008A1 (en) Information processing method and device
CN113010698B (zh) 多媒体的交互方法、信息交互方法、装置、设备及介质
CN113889113A (zh) 分句方法、装置、存储介质及电子设备
CN112667118A (zh) 显示历史聊天消息的方法、设备以及计算机可读介质
CN112380365A (zh) 一种多媒体的字幕交互方法、装置、设备及介质
CN115080816B (zh) 摘要信息生成与搜索结果展示方法、装置、设备和介质
CN109889921B (zh) 一种具备交互功能的音视频创建、播放方法及装置
JP2024506495A (ja) 議事録の処理方法、装置、機器及び媒体
CN113111648B (zh) 信息的处理方法、装置、终端和存储介质
CN112416963B (zh) 搜索内容的匹配方法、装置、电子设备及存储介质
CN113886612A (zh) 一种多媒体浏览方法、装置、设备及介质
CN115547330A (zh) 基于语音交互的信息展示方法、装置和电子设备
CN115756683A (zh) 一种画面展示方法、装置、存储介质及电子设备
CN115379136A (zh) 特效道具处理方法、装置、电子设备及存储介质
CN115599266A (zh) 一种收藏管理方法、装置、设备及介质
CN113033190B (zh) 字幕生成方法、装置、介质及电子设备
CN112163104B (zh) 搜索目标内容的方法、装置、电子设备及存储介质
CN113552984A (zh) 文本提取方法、装置、设备及介质
CN114063795A (zh) 一种交互方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant