CN112601170B - 声音信息处理方法及装置、计算机存储介质、电子设备 - Google Patents
声音信息处理方法及装置、计算机存储介质、电子设备 Download PDFInfo
- Publication number
- CN112601170B CN112601170B CN202011442860.2A CN202011442860A CN112601170B CN 112601170 B CN112601170 B CN 112601170B CN 202011442860 A CN202011442860 A CN 202011442860A CN 112601170 B CN112601170 B CN 112601170B
- Authority
- CN
- China
- Prior art keywords
- anchor
- information
- sound
- audience
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 46
- 238000003672 processing method Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000006243 chemical reaction Methods 0.000 claims description 33
- 230000004044 response Effects 0.000 claims description 9
- 230000009471 action Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 25
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000001960 triggered effect Effects 0.000 description 7
- 210000005069 ears Anatomy 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4398—Processing of audio elementary streams involving reformatting operations of audio signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/007—Two-channel systems in which the audio signals are in digital form
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Stereophonic System (AREA)
Abstract
本公开属于互联网技术领域,涉及一种声音信息处理方法及装置、计算机存储介质、电子设备。该方法包括:获取观众标识在图形用户界面中的观众位置信息,并获取主播标识在图形用户界面中的主播位置信息;根据观众位置信息和主播位置信息确定主播标识相对于观众标识的方位信息;获取与主播标识对应的主播声音信息,并利用方位信息转化主播声音信息得到立体声音信息。在本公开中,一方面,使得声音具有了立体的效果,增强了用户的现实体验感,提升了用户的体验度;另一方面,对声音的立体效果可以进行灵活的改变,丰富了声音信息处理的应用场景,增加了使用声音信息处理方法的趣味性。
Description
技术领域
本公开涉及互联网技术领域,尤其涉及一种声音信息处理方法与声音信息处理装置、计算机可读存储介质及电子设备。
背景技术
随着互联网技术的发展,网络直播成为了一种新的获取信息以及娱乐的方式。并且随着网络直播用户的增多,网络直播的方式也变的多种多样。常见的网络直播的方式有视频直播以及语音直播。其中,语音直播是一种纯音频的直播方式,用户通过收听主播声音来获取信息以达到娱乐的效果。
在相关技术中,用户收听的主播声音不具有立体感。但是在自然界中,获取的声音都是具有立体感的声音。显然,用户感知到的声音效果和自然界中的声音效果相差甚远,无法带给用户现实体验感,进而降低了用户的体验度。
鉴于此,本领域亟需开发一种新的声音信息处理方法及装置。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种声音信息处理方法、声音信息处理装置、计算机可读存储介质及电子设备,进而至少在一定程度上克服由于相关技术的限制而导致的语音直播中观众收听的声音不具有立体感的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本发明实施例的第一个方面,提供一种声音信息处理方法,应用于具有图形用户界面的终端,所述方法包括:获取观众标识在所述图形用户界面中的观众位置信息,并获取主播标识在所述图形用户界面中的主播位置信息;根据所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息;获取与所述主播标识对应的主播声音信息,并利用所述方位信息转化所述主播声音信息得到立体声音信息。
在本发明的一种示例性实施例中,所述获取观众标识在所述图形用户界面中的观众位置信息,并获取主播标识在所述图形用户界面中的主播位置信息,包括:在所述图形用户界面上提供一声音转化控件;响应作用于所述声音转化控件上的第一触发操作,获取观众标识在所述图形用户界面中的观众位置信息以及主播标识在所述图形用户界面中的主播位置信息。
在本发明的一种示例性实施例中,所述根据所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息,包括:若所述主播位置信息有多个,确定所述主播标识有多个;将多个所述主播标识显示在所述观众标识外周,并根据所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息。
在本发明的一种示例性实施例中,所述将多个所述主播标识信息显示在所述观众标识外周,包括:获取与多个所述主播标识对应的多个优先级信息,并对所述多个优先级信息进行比较得到信息比较结果;根据所述信息比较结果将多个所述主播标识显示在所述观众标识外周。
在本发明的一种示例性实施例中,所述根据所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息,包括:响应作用于所述主播标识的第二触发操作,调整所述主播位置信息;根据所述观众位置信息和调整后的所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息。
在本发明的一种示例性实施例中,所述根据所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息,包括:响应作用于所述观众标识的第三触发操作,调整所述观众位置信息;根据调整后的所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息。
在本发明的一种示例性实施例中,所述利用所述方位信息转化所述主播声音信息得到立体声音信息,包括:获取所述主播声音信息的声音属性信息,并根据声音属性信息更新所述方位信息;利用更新后的所述方位信息转化所述主播声音信息得到立体声音信息。
根据本发明实施例的第二个方面,提供一种声音信息处理装置,所述装置包括:获取模块,被配置为获取观众标识在所述图形用户界面中的观众位置信息,并获取主播标识在所述图形用户界面中的主播位置信息;确定模块,被配置为根据所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息;转化模块,被配置为获取与所述主播标识对应的主播声音信息,并利用所述方位信息转化所述主播声音信息得到立体声音信息。
根据本发明实施例的第三个方面,提供一种电子设备,包括:处理器和存储器;其中,存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现上述任意示例性实施例的声音信息处理方法。
根据本发明实施例的第四个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意示例性实施例中的声音信息处理方法。
由上述技术方案可知,本发明示例性实施例中的声音信息处理方法、声音信息处理装置、计算机存储介质及电子设备至少具备以下优点和积极效果:
在本公开的示例性实施例提供的方法及装置中,一方面,在具有图形用户界面的终端上确定主播位置信息相对于观众位置信息的方位信息,并根据方位信息将主播声音信息转化为立体声音信息,使得声音具有立体感,增强了用户的现实体验感,提升了用户的体验度;另一方面,通过响应第二触发操作以及第三触发操作对声音的立体效果可以进行灵活的改变,丰富了声音信息处理的应用场景,增加了使用声音信息处理方法的趣味性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出本公开实施例中声音信息处理方法的流程示意图;
图2示意性示出本公开实施例中在图形用户界面中获取观众位置信息以及主播位置信息的流程示意图;
图3示意性示出本公开实施例中确定多个主播位置信息相对于观众位置信息的方位信息的流程示意图;
图4示意性示出本公开实施例中将多个主播信息显示在观众标识外周的流程示意图;
图5示意性示出本公开实施例中根据观众位置信息和主播位置信息确定方位信息的流程示意图;
图6示意性示出本公开实施例中根据观众位置信息和主播位置信息确定方位信息的流程示意图;
图7示意性示出本公开实施例中利用方位信息转化主播声音信息得到立体声音信息的流程示意图;
图8示意性示出本公开示例性实施例中应用场景下未在声音转化控件上进行触发操作时的直播界面示意图;
图9示意性示出本公开示例性实施例中应用场景下触发声音转化控件后的直播界面示意图;
图10示意性示出本公开示例性实施例中应用场景下观众滑动主播标识控件的直播界面示意图;
图11示意性示出本公开实施例中一种声音信息处理装置的结构示意图;
图12示意性示出本公开实施例中一种用于声音信息处理方法的电子设备;
图13示意性示出本公开实施例中一种用于声音信息处理方法的计算机可读存储介质。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
本说明书中使用用语“一个”、“一”、“该”和“所述”用以表示存在一个或多个要素/组成部分/等;用语“包括”和“具有”用以表示开放式的包括在内的意思并且是指除了列出的要素/组成部分/等之外还可存在另外的要素/组成部分/等;用语“第一”和“第二”等仅作为标记使用,不是对其对象的数量限制。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。
针对相关技术中存在的问题,本公开提出了一种声音信息处理方法。图1示出了声音信息处理方法的流程示意图,应用于具有图形用户界面的终端,如图1所示,声音信息处理方法至少包括以下步骤:
步骤S110.获取观众标识在图形用户界面中的观众位置信息,并获取主播标识在图形用户界面中的主播位置信息。
步骤S120.根据观众位置信息和主播位置信息确定主播标识相对于观众标识的方位信息。
步骤S130.获取与主播标识对应的主播声音信息,并利用方位信息转化主播声音信息得到立体声音信息。
在本公开的示例性实施例提供的方法及装置中,一方面,在具有图形用户界面的终端上确定主播位置信息相对于观众位置信息的方位信息,并根据方位信息将主播声音信息转化为立体声音信息,使得声音具有立体感,增强了用户的现实体验感,提升了用户的体验度;另一方面,通过响应第二触发操作以及第三触发操作对声音的立体效果可以进行灵活的改变,丰富了声音信息处理的应用场景,增加了使用声音信息处理方法的趣味性。
下面对声音信息处理方法的各个步骤进行详细说明。
在步骤S110中,获取观众标识在图形用户界面中的观众位置信息,并获取主播标识在图形用户界面中的主播位置信息。
在本公开的示例性实施例中,图形用户界面指的是采用图形方式显示的计算机操作用户界面。
在图形用户界面中允许用户使用鼠标等输入设备操纵屏幕上的图标或菜单选项、命令、调用文件、启动程序以及其他一些日常任务。
图形用户界面可以是在电脑终端上的图形用户界面,也可以是在手机终端上的图形用户界面,还可以是在平板电脑终端上图形用户界面,还可以是在具有折叠屏的终端上的图形用户界面,本示例性实施例对此不做特殊限定。
除此之外,图形用户界面可以是主播端的图形用户界面,也可以是观众端的图形用户界面,还可以是维持直播间秩序的主持人端的图形用户界面,本示例性实施例对此不做特殊限制。
观众标识指的是可以唯一代表观众的标识。观众标识可以是观众的头像,也可以是观众的昵称,还可以是观众的身份标识号,本示例性实施例对此不做特殊限定。
主播标识指的是可以唯一代表主播的标识,主播标识可以是主播的头像,也可以是主播的昵称,还可以是主播的主播身份标识号,本示例性实施例对此不做特殊限定。
观众位置指的是观众标识在图形用户界面中的显示位置。
具体的,观众位置包括观众所在图形用户界面上的位置的横坐标以及观众所在图形用户界面上的位置的纵坐标。并且,观众位置可以是相对于图形用户界面坐下角的位置,也可以是相对于图形用户界面右下角的位置,还可以是相对于图形用户界面左上角的位置,还可以是相对于图形用户界面右上角的位置,还可以是相对于图形用户界面中任意一点的位置,本示例性实施例对此不做特殊限定。
主播位置指的是主播标识在图形用户界面中的显示位置。
具体的,主播位置包括主播所在图形用户界面上的位置的横坐标以及主播所在图形用户界面上的位置的纵坐标。并且,主播位置可以是相对于图形用户界面坐下角的位置,也可以是相对于图形用户界面右下角的位置,还可以是相对于图形用户界面左上角的位置,还可以是相对于图形用户界面右上角的位置,还可以相对于图形用户界面中任意一点的位置,本示例性实施例对此不做特殊限定。
值得说明的是,主播位置信息和用户位置信息必须是相对于用户界面中同一点的位置信息。
举例而言,当用户使用手机进入某语音直播间时,图形用户界面指的就是在手机显示屏中显示的直播界面。观众标识指的是代表观众的观众头像,主播标识指的是代表主播的主播头像。
观众位置信息指的是相对于直播界面左下角,用来显示观众头像的位置信息。主播位置信息指的是相对于直播界面左下角,用来显示主播头像的位置信息。
在可选的实施例中,图2示出了在图形用户界面中获取观众位置信息以及主播位置信息的流程示意图,如图2所示,该方法至少包括以下步骤:在步骤S210中,在图形用户界面上提供一声音转化控件。
控件指的是可以被触发的一个在图形用户界面上的图形。
控件可以是被用户触发的,也可以是被观众触发的,还可以是维持直播间秩序的主持人触发的,本示例性实施例对此不做特殊限定。
声音转化控件指的是标识着声音转化信息的一个在图形用户界面上的图形。其中,声音转化信息指的是可以帮助用户识别声音转化控件的信息。
声音转化控件可以是一个正方形的控件,也可以是一个长方形的控件,还可以是一个圆形的控件,还可以是一个多边形的控件,本示例性实施例对此不做特殊限定。
除此之外,声音转化信息可以是文字信息,可以是图形信息,本示例性实施例对此不做特殊限定。
举例而言,当用户使用手机进入某语音直播间时,声音转化控件可以是在直播界面的右下角的一个长方形的图形,在这个图形上显示了声音开启的字样,声音开启就是帮助用户识别声音转化控件的信息。
在步骤S220中,响应作用于声音转化控件上的第一触发操作,获取观众标识在图形用户界面中的观众位置信息以及主播标识在图形用户界面中的主播位置信息。
第一触发操作指的是在图形用户界面中作用于声音转化控件上的一个操作。
第一触发操作可以是用户用手进行的点击操作,还可以是用户用手进行的长按操作,还可以是用户用手进行的双击操作,本示例性实施例对此不做特殊限定。
除此之外,第一触发操作还可以是用户使用某种触发媒介进行的操作,可以是借助鼠标进行的操作,还可以是借助触控笔进行的操作,本示例性实施例对此不做特殊限制。
举例而言,用户进入语音直播间,点击直播界面左下角的声音转化控件后将启动声音转化功能,此时观众位置信息和主播位置信息可能会发生改变。在发生改变之后获取到的观众头像的显示位置为观众位置信息,获取到的主播头像的显示位置为主播位置信息。
在本示例性实施例中,一方面,在进入直播间后可以直接获取主播位置信息和观众位置信息,以便用户进入直播间后可以直接收听到主播发出的立体声音信息;另一方面,需要通过响应于声音转化控件上的触发操作开启声音转化功能才可获取主播位置信息和观众位置信息,以便用户根据自身需求将主播声音信息转化成立体声音信息,增加了声音信息处理方法的灵活度,扩大了声音信息处理方法的使用场景。
在步骤S120中,根据观众位置信息和主播位置信息确定主播标识相对于观众标识的方位信息。
在本公开的示例性实施例中,方位信息指的是主播标识相对于观众标识的方位信息。
举例而言,用户进入某语音直播间后,观众位置信息可以是一个二维坐标,例如为(50,50),主播A的主播位置信息可以是(60, 70)。
确定与观众位置信息对应的横坐标信息为50,确定与观众位置信息对应的纵坐标信息为50。确定与主播A的主播位置信息对应的主播横坐标为60,确定的与主播A的主播位置信息对应的主播纵坐标为70。
将主播横坐标60与观众横坐标50进行比较得出主播横坐标大于观众横坐标的比较结果,将主播纵坐标70与观众纵坐标50进行比较得出主播纵坐标大于观众纵坐标的比较结果。基于此,可以得出观众头像在主播头像的右上方。此时右上方就是主播头像相对于观众头像的方位信息。
除此之外,方位信息还可以用正南方、正北方、正西方以及正东方的形式来表示,还可以使用东南方、东北方、西北方以及西南方的形式表示,还可以使用东偏北30°、东偏南10°、西偏北15°以及西偏南20°的形式来表示,本示例性实施例对此不做特殊解释。
在可选的实施例中,图3示出了确定多个主播位置信息相对于观众位置信息的方位信息的流程示意图,如图3所示,该方法至少包括以下步骤:在步骤S310中,若主播位置信息有多个,确定主播标识有多个。
如果获取的主播位置信息为多个主播位置信息,对应的主播标识信息也具有多个。
举例而言,用户进入某语音直播间后,获取到了4个主播位置信息,对应的在这个4个主播位置信息上显示着4个主播头像。
在步骤S320中,将多个主播标识显示在观众标识外周,并根据观众位置信息和主播位置信息确定主播标识相对于观众标识的方位信息。
其中,外周是相对的,有外周的存在就有中心的存在。
所以,若以观众标识的显示位置为中心,那么在图形用户界面上除去观众标识的显示位置的任何一个位置都可以看做是相对于观众标识的外周。
基于此,直播标识可以显示在图形用户界面上除去观众标识的显示位置的任何一个位置。
举例而言,观众进入某语音直播间后,获取到4个主播位置信息和用户位置信息(50,50)。用户可以通过触发声音转化控件开启声音转化功能。在声音转化功能开启后,确定4个观众头像,并以观众位置信息为中心,在图形用户界面除去(50,50)之外确定4 个位置信息作为4个主播头像的显示位置。
根据4个主播头像的显示位置和观众位置信息确定4个主播头像相对于观众头像的方位信息。
在可选的实施例中,图4示出了将多个主播信息显示在观众标识外周的流程示意图,如图4所示,该方法至少包括以下步骤:在步骤S410中,获取与多个主播标识对应多个优先级信息,并对多个优先级信息进行比较得到信息比较结果。
其中,优先级信息指的是与主播头像具有对应关系的一种信息。
优先级信息可以是主播的主播等级信息,也可以是主播所在直播间历史观看人数的信息,还可以是主播的受打赏程度的信息,本示例性实施例对此不做特殊限定。
举例而言,观众进入到某语音直播间,在语音直播间中存在5 个主播头像。通过这5个主播头像可以确定到对应的主播,进而获得主播对应的主播等级信息。
对获取到的5个主播等级信息A、B、C、B以及D进行比较,可以得到信息比较结果。
在步骤S420中,根据信息比较结果将多个主播标识显示在观众标识外周。
按照信息比较的结果将多个主播标识显示在观众标识外周。
举例而言,观众进入到某语音直播间,得到的信息比较结果为 A主播的主播等级信息大于B主播的主播等级信息,B主播的主播等级信息大于D主播的主播等级信息,D主播的主播等级信息大于 C主播的主播等级信息。
将A主播的主播头像、B主播的主播头像、C主播的主播头像以及D主播的主播头像按照距离观众头像近到远的程度显示在观众头像的外周。
在可选的实施例中,图5示出了根据观众位置信息和主播位置信息确定方位信息的流程示意图,如图5所示,该方法至少包括以下步骤:在步骤S510中,响应作用于主播标识的第二触发操作,调整主播位置信息。
第二触发操作指的是在图形用户界面中用于调整主播标识的操作。
第二触发操作可以是用户用手进行的滑动操作,可以是用户用手进行的点击操作,还可以是主播用手进行的滑动操作,还可以是主播用手进行的点击操作,还可以是维持直播间秩序的主持人用手进行的滑动操作,还可以是维持直播间秩序的主持人用手进行的点击操作,本示例性实施例对此不做特殊限定。
除此之外,第二触发操作还可以是借助于某种触发媒介进行的操作,可以是借助鼠标进行的触发操作,还可以是借助触控笔进行的触发操作,本示例性实施例对此不做特殊限制。
并且,第二触操作可以是沿着某固定轨迹进行的触发操作,也可以是不沿着某固定轨迹进行的触发操作,本示例性实施例对此不做特殊限定。
举例而言,观众进入某语音直播间,在观众位置信息外周存在 3个主播位置信息,分别显示着A主播的主播头像、B主播的主播头像以及C主播的主播头像。
观众可以通过滑动操作将A主播头像从A主播位置信息处调整到B主播位置信息处。
在步骤S520中,根据观众位置信息和调整后的主播位置信息确定主播标识相对于观众标识的方位信息。
当通过第二触发操作对主播位置信息调整后,需要重新获取调整后的主播位置信息,并根据调整后的主播位置信息和观众位置信息确定方位信息。
举例而言,观众进入某语音直播间,在观众位置信息外周存在 3个主播位置信息,分别显示着A主播的主播头像、B主播的主播头像以及C主播的主播头像。
观众可以通过滑动操作将A主播头像从A主播位置信息处调整到B主播位置信息处。
此时,A主播相对于观众位置信息的方位信息需要根据调整后的A主播位置信息和观众位置信息来确定。
在可选的实施例中,图6示出了根据观众位置信息和主播位置信息确定方位信息的流程示意图,如图6所示,该方法至少包括以下步骤:在步骤S610中,响应作用于观众标识的第三触发操作,调整观众位置信息。
第三触发操作指的是在图形用户界面中用于调整观众标识的操作。
第三触发操作可以是用户用手进行的滑动操作,可以是用户用手进行的点击操作,还可以是主播用手进行的滑动操作,还可以是主播用手进行的点击操作,还可以是维持直播间秩序的主持人用手进行的滑动操作,还可以是维持直播间秩序的主持人用手进行的点击操作,本示例性实施例对此不做特殊限定。
除此之外,第三触发操作还可以是借助于某种触发媒介进行的操作,可以是借助鼠标进行的操作,还可以是借助触控笔进行的操作,本示例性实施例对此不做特殊限制。
并且,第三触操作可以是沿着某固定轨迹进行的触发操作,也可以是不沿着某固定轨迹进行的触发操作,本示例性实施例对此不做特殊限定。
举例而言,观众进入某语音直播间,在观众位置信息外周存在 3个主播位置信息,分别显示着A主播的主播头像、B主播的主播头像以及C主播的主播头像。
观众可以通过滑动操作将观众位置信息向A主播位置信息方位调整一段距离。
在步骤S620中,根据调整后的观众位置信息和主播位置信息确定主播标识相对于观众标识的方位信息。
当通过第三触发操作对观众位置信息调整后,需要重新获取调整后的观众位置信息,并根据调整后的观众位置信息和主播位置信息确定方位信息。
举例而言,观众进入某语音直播间,在观众位置信息外周存在 3个主播位置信息,分别显示着A主播的主播头像、B主播的主播头像以及C主播的主播头像。
观众可以通过滑动操作将观众头像向靠近A主播头像位置信息的方位调整一段距离,并获取到调整后的观众位置信息。
此时,A主播头像相对于观众头像的方位信息需要根据调整后的观众位置信息和A主播位置信息来确定;B主播头像相对于观众头像的方位信息需要根据调整后的观众位置信息和B主播位置信息来确定;C主播头像相对于观众头像的方位信息需要根据调整后的观众位置信息和主播位置信息来确定。
在本公开的实施例中,通过响应第二触发操或第三触发操作可以对主播声音的立体效果进行灵活的改变,丰富了声音信息处理方法的应用场景,增加了使用声音信息处理方法的趣味性。
在步骤S130中,获取与主播标识对应的主播声音信息,并利用方位信息转化主播声音信息得到立体声音信息。
在本公开的示例性实施例中,主播声音信息指的是不具有立体感的主播声音信息。
立体声音信息指更贴近于自然界中听到的,具有立体感的声音。收听者可以根据立体声音信息感知声源相对于收听者的方位。
举例而言,观众进入某直播间,在观众位置信息外周存在3个主播位置信息,分别显示着A主播的主播头像、B主播的主播头像以及C主播的主播头像。
获取到A主播头像在观众头像的右上方,B主播头像在观众头像的正上方,C主播头像在观众头像的正后方。
根据获取的3个方位信息将A主播的主播声音信息转化为具有右上方立体感的立体声音信息;将B主播的主播声音转化为具有正上方立体感的立体声音信息;将C主播的主播声音信息转化为具有正后方立体感的立体声音信息。
在可选的实施例中,图7示出了利用方位信息转化主播声音信息得到立体声音信息的流程示意图,如图7所示,该方法至少包括以下步骤:在步骤S710中,获取主播声音信息的声音属性信息,并根据声音属性信息更新方位信息。
其中,声音属性信息指的与主播声音信息具有关系的一种信息。
属性信息可以是主播的音调信息,可以是主播的音色信息,也可以是主播的音量信息,本示例性实施例对此不做特殊限定。
举例而言,观众进入某语音直播间,在观众位置信息外周存在 3个主播位置信息,分别显示着A主播的主播头像、B主播的主播头像以及C主播的主播头像。
其中A主播的主播头像在观众头像的正右方,B主播的主播头像在观众头像的右上方,C主播的主播头像在观众头像的正上方。
若获取的主播声音属性信息为音调信息,且A主播的音调信息为1000美(mel),B主播的音调信息为500美(mel),C主播的音调信息为1500美(mel)。
将音调小的主播声音调整到观众的耳朵附近,将音调大的主播声音调整到距离观众耳朵远的位置,依据这样的调整模式可以提升用户的体验度。
基于此,将B主播头像的方位信息更新为观众头像的正右方,将A主播头像的方位信息更新为观众头像的右上方,将C主播头像的方位信息更新为观众头像的正上方。
在步骤S720中,利用更新后的方位信息转化主播声音信息得到立体声音信息。
若主播头像相对于观众头像的方位信息发生了更新,利用更新后的方位信息调整主播声音信息得到立体声音信息。
举例而言,观众进入某语音直播间,在观众位置信息外周存在 3个主播位置信息,分别显示着A主播的主播头像、B主播的主播头像以及C主播的主播头像。
其中,A主播的主播头像在观众头像的正右方,B主播的主播头像在观众头像的右上方,C主播的主播头像在观众头像的正上方。
若获取的主播声音属性信息为音调信息,且A主播的音调信息为1000美(mel),B主播的音调信息为500美(mel),C主播的音调信息为1500美(mel)。
将音调小的主播声音调整到观众的耳朵附近,将音调大的主播声音调整到距离观众耳朵远的位置,依据这样的调整模式可以提升用户的体验度。
基于此,将B主播头像的方位信息更新为观众头像的正右方,将A主播头像的方位信息更新为观众头像的右上方,对C主播头像的方位信息不做更新。
根据更新后的2个方位信息将A主播的主播声音信息转化为具有右上方立体感的立体声音信息,将B主播的主播声音转化为具有右上方立体感的立体声音信息。
在本公开的示例性实施例提供的方法及装置中,一方面,在具有图形用户界面的终端上确定主播位置信息相对于观众位置信息的方位信息,并根据方位信息将主笔声音信息转化为立体声音信息,使得声音具有立体的效果,增强了用户的现实体验感,提升了用户的体验度;另一方面,通过响应第二触发操作以及第三触发操作可以对声音的立体效果进行灵活的改变,丰富了声音信息处理的应用场景,增加了使用声音信息处理方法的趣味性。
下面结合一应用场景对本公开实施例中的声音信息处理方法做出详细说明。
图8示出了在语音直播场景下未在声音转化控件上进行触发操作时的直播界面示意图,如图8所示,其中,界面800为未触发声音转化控件时的直播界面,文字810为直播间的名字,控件820为观众头像控件,控件830、控件840、控件850以及控件860分别为主播A的主播头像控件、主播B的主播头像控件、主播C的主播头像控件以及主播D的主播头像控件,控件870为维持直播间秩序的主持人头像控件,控件880为声音转化控件。
当观众没有触发声音转化控件时,声音转化功能还未开启。此时,可以听到与A主播头像对应的主播声音信息,与B主播头像对应的主播声音信息,与C主播头像对应的主播声音信息以及与D主播头像对应的主播声音信息。值得说明的是,此时观众收听到的主播声音信息为不具有立体感的声音信息。
图9示出了在语音直播场景下触发声音转化控件后的直播界面示意图,如图9所示,界面900为触发声音转化控件后的直播界面,控件910为观众头像控件,控件920、控件930、控件940以及控件 950分别为主播A的主播头像控件、主播B的主播头像控件、主播 C的主播头像控件以及主播D的主播头像控件,轨迹960为主播头像可以显示的位置轨迹。
显然,在图9中观众控件和主播控件的在直播界面中的显示位置发生了变化。
当观众触发直播界面中的声音转化控件时,首先在用户界面中确定一个位置作为观众头像的观众位置信息,例如界面900中坐标为(50,50)的位置,然后在观众头像的外周显示主播头像。
值得说明的是,若只存在一个主播,这一个主播对应的主播头像的主播位置信息可以是观众位置信息外周的任何一个地方。
若存在多个主播,需要在观众位置信息外周确定多个位置作为多个主播头像的主播位置信息。
例如在图9中,首先在观众头像外围确定一个可以显示主播头像的显示轨迹,然后获取主播的个数为4个。以主播正右方与显示轨迹的交点为起点,间隔均匀的确定可以显示主播头像的四个位置,分别在观众头像的正上方、观众头像的正右方、观众头像的正下方以及观众头像的正左方。
然后获取4个主播的主播等级信息。其中A主播的主播等级信息大于C直播的主播等级信息,C主播的主播等级信息大于D主播的主播等级信息,D主播的主播等级信息大于B主播的主播等级信息。
由于观众头像正右方和观众头像正左方的位置收听效果最好,观众头像正上方和观众头像正下方的收听效果较差。所以,将A主播头像显示在观众头像的正右方,将C主播头像显示在观众头像的正左方,将D主播头像显示在观众头像的正上方,将B主播头像显示在观众头像的正下方。
此时,获取的观众位置信息为观众头像中心点的位置信息为(50, 50)、获取的主播位置信息分别为A主播头像中心点的位置信息(70, 50)、B主播头像中心点的位置信息(50,30)、C主播头像中心点的位置信息(30,50)以及D主播头像中心点的位置信息(50,70)。
将观众横坐标50与主播横坐标70、50、30、50进行比较得出横坐标比较结果,将观众纵坐标50与主播纵坐标50、30、50、70 进行比较得出纵坐标比较结果。
基于此,可以得出A主播头像在观众头像的正右方、B主播头像在观众头像的正下方、C主播头像在观众头像的正左方以及D主播头像在观众头像的正上方的4个方位信息。
基于方位信息将A主播的声音信息转化为具有正右方立体感的立体声音信息,将B主播的声音信息转化为具有正下方立体感的立体声音信息,将C主播的声音信息转化为具有正左方立体感的立体声音信息,将D主播的声音信息转化为具有正上方立体感的立体声音信息。
如图10为观众滑动主播标识控件过程中的直播界面示意图,其中,界面1000为观众滑动主播控件过程中的直播界面。
此时,用户将D主播头像通过滑动行为滑动至A主播头像处。并且响应于滑动触发操作调整主播位置信息。
经过调整后可能出现的结果有两种。在第一种中,用户将D主播头像通过滑动行为滑动至A主播头像处。比较D主播的主播等级与A主播的主播等级。若D主播的主播等级大于A主播的主播等级,将D主播头像覆盖在A主播头像上显示在观众头像的正右方;若A主播的主播等级大于D主播的主播等级,将A主播头像覆盖在D主播头像上显示在观众头像的正右方。
并且,调整D主播的主播位置信息为(70,50)。然后按照D 主播头像相当于观众头像的方位信息将D主播的具有正上方立体感的声音信息转化具有正右方立体感的声音信息。
在第二种中,用户将D主播头像通过滑动行为滑动至A主播头像处。此时将D主播头像的主播位置信息和A主播头像的主播位置信息进行调换,调换后的D主播的主播位置信息为(70,50),调换后的A主播的主播位置信息为(50,70)。
基于此,按照D主播头像相当于观众头像的方位信息将D主播的具有正上方立体感的声音信息转化为具有正右方立体感的声音信息,按照A主播头像相当于观众头像的方位信息将A主播的具有正右方立体感的声音信息转化为具有正上方立体感的声音信息。
除此之外,在触发声音转换控件后,还可以根据A主播、B主播、C主播以及D主播的音调信息对主播的位置信息进行调整。
例如A主播的音调信息为1000美(mel),B主播的音调信息为500美(mel),C主播的音调信息为1500美(mel),D主播的音调信息为2000美(mel)。
将音调小的主播声音调整到观众的耳朵附近,将音调大的主播声音调整到距离观众耳朵远的位置可以提升用户的体验度。
基于此,将B主播头像的方位信息更新为观众头像的正右方,将A主播头像的方位信息更新为观众头像的正左方,将C主播头像的方位信息更新为观众头像的正上方,将D主播头像的方位信息更新为观众头像的正后方。
在本应用场景中,一方面,在直播界面上确定主播位置信息相对于观众位置信息的方位信息,并根据方位信息将主播声音信息转化为立体声音信息,使得主播声音具有立体的效果,增强了观众的现实体验感,提升了观众的体验度;另一方面,通过响应作用于主播头像上的触发操作,可以对主播声音的立体效果进行灵活的改变,丰富了声音信息处理的应用场景,增加了使用声音信息处理方法的趣味性。
此外,在本公开的示例性实施例中,还提供一种声音信息的处理装置。图11示出了声音信息处理装置的结构示意图,如图11所示,声音信息的处理装置1100可以包括:获取模块1110、确定模块 1120和转化模块1130。其中:
获取模块1110,被配置为获取观众标识在图形用户界面中的观众位置信息,并获取主播标识在图形用户界面中的主播位置信息;确定模块1120,被配置为根据观众位置信息和主播位置信息确定主播标识相对于观众标识的方位信息;转换模块1130,被配置为获取与主播标识对应的主播声音信息,并利用方位信息转化主播声音信息得到立体声音信息。
上述声音信息的处理装置1100的具体细节已经在对应的声音信息处理方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及声音信息处理装置1100 的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
下面参照图12来描述根据本发明的这种实施例的电子设备1200。图12显示的电子设备1200仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图12所示,电子设备1200以通用计算设备的形式表现。电子设备1200的组件可以包括但不限于:上述至少一个处理单元1210、上述至少一个存储单元1220、连接不同系统组件(包括存储单元 1220和处理单元1210)的总线1230、显示单元1240。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1210执行,使得所述处理单元1210执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施例的步骤。
存储单元1220可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)1221和/或高速缓存存储单元1222,还可以进一步包括只读存储单元(ROM)1223。
存储单元1220还可以包括具有一组(至少一个)程序模块1225 的程序/使用工具1224,这样的程序模块1225包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包含网络环境的现实。
总线1230可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1200也可以与一个或多个外部设备1270(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1200交互的设备通信,和/或与使得该电子设备1200能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1250 进行。并且,电子设备1200还可以通过网络适配器1260与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1260通过总线1230与电子设备1200的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1200使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID 系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施例的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施例中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施例的步骤。
参考图13所示,描述了根据本发明的实施例的用于实现上述方法的程序产品1300,其可以采用便携式紧凑盘只读存储器(CD-ROM) 并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
Claims (9)
1.一种声音信息处理方法,应用于具有图形用户界面的终端,其特征在于,所述方法包括:
获取观众标识在所述图形用户界面中的观众位置信息,并获取主播标识在所述图形用户界面中的主播位置信息;
根据所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息;
获取与所述主播标识对应的主播声音信息,获取所述主播声音信息的声音属性信息,并根据所述声音属性信息更新所述方位信息;
利用更新后的所述方位信息转化所述主播声音信息得到立体声音信息。
2.根据权利要求1所述的声音信息处理方法,其特征在于,所述获取观众标识在所述图形用户界面中的观众位置信息,并获取主播标识在所述图形用户界面中的主播位置信息,包括:
在所述图形用户界面上提供一声音转化控件;
响应作用于所述声音转化控件上的第一触发操作,获取观众标识在所述图形用户界面中的观众位置信息以及主播标识在所述图形用户界面中的主播位置信息。
3.根据权利要求1所述的声音信息处理方法,其特征在于,所述根据所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息,包括:
若所述主播位置信息有多个,确定所述主播标识有多个;
将多个所述主播标识显示在所述观众标识外周,并根据所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息。
4.根据权利要求3所述的声音信息处理方法,其特征在于,所述将多个所述主播标识信息显示在所述观众标识外周,包括:
获取与多个所述主播标识对应的多个优先级信息,并对所述多个优先级信息进行比较得到信息比较结果;
根据所述信息比较结果将多个所述主播标识显示在所述观众标识外周。
5.根据权利要求1所述的声音信息处理方法,其特征在于,所述根据所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息,包括:
响应作用于所述主播标识的第二触发操作,调整所述主播位置信息;
根据所述观众位置信息和调整后的所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息。
6.根据权利要求1所述的声音信息处理方法,其特征在于,所述根据所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息,包括:
响应作用于所述观众标识的第三触发操作,调整所述观众位置信息;
根据调整后的所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息。
7.一种声音信息处理装置,应用于具有图形用户界面的终端,其特征在于,包括:
获取模块,被配置为获取观众标识在所述图形用户界面中的观众位置信息,并获取主播标识在所述图形用户界面中的主播位置信息;
确定模块,被配置为根据所述观众位置信息和所述主播位置信息确定所述主播标识相对于所述观众标识的方位信息;
更新模块,被配置为获取与所述主播标识对应的主播声音信息,获取所述主播声音信息的声音属性信息,并根据所述声音属性信息更新所述方位信息;
转化模块,被配置为利用更新后的所述方位信息转化所述主播声音信息得到立体声音信息。
8.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器被配置为经由执行所述可执行指令来执行权利要求1-6中的任意一项所述的声音信息处理方法。
9.一种计算机可读存储介质,其上存储计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-6中的任意一项所述的声音信息处理方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110817398.8A CN113490136B (zh) | 2020-12-08 | 2020-12-08 | 声音信息处理方法及装置、计算机存储介质、电子设备 |
CN202011442860.2A CN112601170B (zh) | 2020-12-08 | 2020-12-08 | 声音信息处理方法及装置、计算机存储介质、电子设备 |
US18/246,686 US12022149B2 (en) | 2020-12-08 | 2021-12-02 | Method for processing sound information, and non-transitory computer storage medium and electronic device |
PCT/CN2021/135175 WO2022121778A1 (zh) | 2020-12-08 | 2021-12-02 | 声音信息处理方法及装置、计算机存储介质、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011442860.2A CN112601170B (zh) | 2020-12-08 | 2020-12-08 | 声音信息处理方法及装置、计算机存储介质、电子设备 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110817398.8A Division CN113490136B (zh) | 2020-12-08 | 2020-12-08 | 声音信息处理方法及装置、计算机存储介质、电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112601170A CN112601170A (zh) | 2021-04-02 |
CN112601170B true CN112601170B (zh) | 2021-09-07 |
Family
ID=75192071
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011442860.2A Active CN112601170B (zh) | 2020-12-08 | 2020-12-08 | 声音信息处理方法及装置、计算机存储介质、电子设备 |
CN202110817398.8A Active CN113490136B (zh) | 2020-12-08 | 2020-12-08 | 声音信息处理方法及装置、计算机存储介质、电子设备 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110817398.8A Active CN113490136B (zh) | 2020-12-08 | 2020-12-08 | 声音信息处理方法及装置、计算机存储介质、电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US12022149B2 (zh) |
CN (2) | CN112601170B (zh) |
WO (1) | WO2022121778A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12022149B2 (en) | 2020-12-08 | 2024-06-25 | Guangzhou Boguan Telecommunication Technology Co., Ltd. | Method for processing sound information, and non-transitory computer storage medium and electronic device |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5894320A (en) * | 1996-05-29 | 1999-04-13 | General Instrument Corporation | Multi-channel television system with viewer-selectable video and audio |
US7526790B1 (en) * | 2002-03-28 | 2009-04-28 | Nokia Corporation | Virtual audio arena effect for live TV presentations: system, methods and program products |
JP4546151B2 (ja) * | 2004-05-26 | 2010-09-15 | 株式会社日立製作所 | 音声コミュニケーション・システム |
US20070263823A1 (en) * | 2006-03-31 | 2007-11-15 | Nokia Corporation | Automatic participant placement in conferencing |
CN201294599Y (zh) * | 2008-10-16 | 2009-08-19 | 比亚迪股份有限公司 | 一种视频显示控制装置及移动电话 |
US20130120371A1 (en) * | 2011-11-15 | 2013-05-16 | Arthur Petit | Interactive Communication Virtual Space |
US20140328505A1 (en) * | 2013-05-02 | 2014-11-06 | Microsoft Corporation | Sound field adaptation based upon user tracking |
CN103347199B (zh) * | 2013-06-28 | 2016-09-14 | 亿览在线网络技术(北京)有限公司 | 一种音频直播方法及系统 |
US10469947B2 (en) * | 2014-10-07 | 2019-11-05 | Nokia Technologies Oy | Method and apparatus for rendering an audio source having a modified virtual position |
US9787846B2 (en) * | 2015-01-21 | 2017-10-10 | Microsoft Technology Licensing, Llc | Spatial audio signal processing for objects with associated audio content |
EP3254478B1 (en) * | 2015-02-03 | 2020-02-26 | Dolby Laboratories Licensing Corporation | Scheduling playback of audio in a virtual acoustic space |
US10231073B2 (en) * | 2016-06-17 | 2019-03-12 | Dts, Inc. | Ambisonic audio rendering with depth decoding |
EP3343349B1 (en) * | 2016-12-30 | 2022-06-15 | Nokia Technologies Oy | An apparatus and associated methods in the field of virtual reality |
KR102409376B1 (ko) * | 2017-08-09 | 2022-06-15 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
CA3168578A1 (en) * | 2018-04-09 | 2019-10-17 | Dolby International Ab | Methods, apparatus and systems for three degrees of freedom (3dof+) extension of mpeg-h 3d audio |
US11622219B2 (en) * | 2019-07-24 | 2023-04-04 | Nokia Technologies Oy | Apparatus, a method and a computer program for delivering audio scene entities |
CN112601170B (zh) * | 2020-12-08 | 2021-09-07 | 广州博冠信息科技有限公司 | 声音信息处理方法及装置、计算机存储介质、电子设备 |
-
2020
- 2020-12-08 CN CN202011442860.2A patent/CN112601170B/zh active Active
- 2020-12-08 CN CN202110817398.8A patent/CN113490136B/zh active Active
-
2021
- 2021-12-02 WO PCT/CN2021/135175 patent/WO2022121778A1/zh active Application Filing
- 2021-12-02 US US18/246,686 patent/US12022149B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12022149B2 (en) | 2020-12-08 | 2024-06-25 | Guangzhou Boguan Telecommunication Technology Co., Ltd. | Method for processing sound information, and non-transitory computer storage medium and electronic device |
Also Published As
Publication number | Publication date |
---|---|
US12022149B2 (en) | 2024-06-25 |
WO2022121778A1 (zh) | 2022-06-16 |
CN112601170A (zh) | 2021-04-02 |
CN113490136B (zh) | 2023-01-10 |
CN113490136A (zh) | 2021-10-08 |
US20230370672A1 (en) | 2023-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109618177B (zh) | 视频处理方法、装置、电子设备及计算机可读存储介质 | |
CN108847214B (zh) | 语音处理方法、客户端、装置、终端、服务器和存储介质 | |
EP4068795A1 (en) | Method and apparatus for displaying multimedia resources, device and storage medium | |
CN111324252B (zh) | 直播平台中的显示控制方法及装置、存储介质及电子设备 | |
WO2023071917A1 (zh) | 虚拟对象互动方法、装置、存储介质及计算机程序产品 | |
CN114143572B (zh) | 直播交互方法、装置、存储介质、电子设备 | |
CN111949782A (zh) | 一种信息推荐方法和服务设备 | |
KR101639301B1 (ko) | 온라인 코딩 학습 방법, 서버 및 그 시스템 | |
US20170185422A1 (en) | Method and system for generating and controlling composite user interface control | |
CN114225400A (zh) | 弹幕处理方法及装置、存储介质、电子设备 | |
CN112601170B (zh) | 声音信息处理方法及装置、计算机存储介质、电子设备 | |
CN112073787B (zh) | 显示设备及首页显示方法 | |
CN114374853A (zh) | 内容展示方法、装置、计算机设备和存储介质 | |
CN109874026B (zh) | 数据处理方法与装置、存储介质、电子设备 | |
CN111836083A (zh) | 显示设备及屏幕发声方法 | |
CN112714331B (zh) | 信息提示方法和装置、存储介质、电子设备 | |
CN112929685B (zh) | Vr直播间的互动方法、装置、电子设备和存储介质 | |
CN113419650A (zh) | 一种数据移动方法、装置、存储介质及电子设备 | |
JP6586717B1 (ja) | コンテンツ提供システム及びプログラム | |
CN114023358B (zh) | 对话小说的音频生成方法、电子设备及存储介质 | |
CN112035195B (zh) | 应用界面的展示方法、装置、电子设备及存储介质 | |
JP6644232B1 (ja) | コンテンツ提供システム及びプログラム | |
CN118093815A (zh) | 电子设备、意图识别方法、意图识别装置及存储介质 | |
EP3690647A1 (en) | Display apparatus and method for providing a user interface | |
CN114237465A (zh) | 弹幕处理方法及装置、存储介质、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |