CN112071326A - 音效处理方法和装置 - Google Patents
音效处理方法和装置 Download PDFInfo
- Publication number
- CN112071326A CN112071326A CN202010926470.6A CN202010926470A CN112071326A CN 112071326 A CN112071326 A CN 112071326A CN 202010926470 A CN202010926470 A CN 202010926470A CN 112071326 A CN112071326 A CN 112071326A
- Authority
- CN
- China
- Prior art keywords
- sound source
- user
- sound
- effect processing
- relative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000694 effects Effects 0.000 title claims abstract description 120
- 238000003672 processing method Methods 0.000 title claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 115
- 238000000034 method Methods 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 11
- 210000005069 ears Anatomy 0.000 claims description 6
- 230000005236 sound signal Effects 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims 1
- 238000007654 immersion Methods 0.000 abstract description 6
- 230000009286 beneficial effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/54—Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0091—Means for obtaining special acoustic effects
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6063—Methods for processing data by generating or executing the game program for sound processing
- A63F2300/6081—Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/021—Background music, e.g. for video sequences, elevator music
- G10H2210/026—Background music, e.g. for video sequences, elevator music for games, e.g. videogames
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Stereophonic System (AREA)
Abstract
本申请公开了音效处理方法和装置:获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息;基于相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理;将音效处理后的声源信号反馈给用户。该实施方式使得用户获取到的虚拟环境中的声源物体的声音更加真实,有助于提升用户的沉浸体验。
Description
技术领域
本申请涉及虚拟现实技术领域,具体涉及音频处理领域,尤其涉及一种音效处理方法和装置。
背景技术
VR(Virtual Reality,虚拟现实),具体指综合利用计算机图形系统和各种现实及控制等接口设备,在计算机上生成的、可交互的三维环境中提供沉浸感觉的技术。当前虚拟现实技术在游戏中得到广泛的推广和应用,在射击、解谜、角色扮演等游戏都有涉及。
在现有的VR场景中可通过增强现实实现视觉的完美模拟实现,而虚拟现实场景中的声音则常通过外放的形式实现,虽可实现环境和声音的融合,但用户的沉浸体验较差。
发明内容
本申请实施例提供了一种音效处理方法、装置、设备以及存储介质。
第一方面,本申请实施例提供了一种音效处理方法,该方法包括:获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息;基于相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,得到音效处理后的声源信号,音效处理后的声源信号用于表征声源信号到达用户人耳的声音信号;将音效处理后的声源信号反馈给用户。
在一些实施例中,相对方位信息包括:相对位置和人脸朝向,以及基于相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,包括:响应用户相对于其他至少一个声源物体的相对位置和/或人脸朝向发生变化,对相对方位信息进行更新;基于更新后的相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理。
在一些实施例中,基于相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,包括:分别计算与每一个相对方位信息相对应的头相关单位冲击响应HRIR和与该相对方位信息相对应的声源物体的声源信号的卷积。
在一些实施例中,声源物体的数量为多个,以及基于相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,包括:基于相对方位信息,对每一个声源物体的声源信号进行音效处理,将对每一个声源物体的声源信号进行音效处理后的声源信号进行叠加。
在一些实施例中,声源物体包括:其他用户,以及获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息,包括:获取用户在预设的虚拟环境中相对至少一个满足预设条件的其他用户的相对方位信息,预设条件包括:其他用户的人脸朝向用户。
第二方面,本申请实施例提供了一种音效处理装置,该装置包括:获取模块,被配置成获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息;处理模块,被配置成基于相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,得到音效处理后的声源信号,音效处理后的声源信号用于表征声源信号到达用户人耳的声音信号;反馈模块,被配置成将音效处理后的声源信号反馈给用户。
在一些实施例中,相对方位信息包括:相对位置和人脸朝向,以及处理模块进一步配置成:响应用户相对于其他至少一个声源物体的相对位置和/或人脸朝向发生变化,对所述相对方位信息进行更新;基于更新后的相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理。
在一些实施例中,处理模块进一步配置成:分别计算与每一个相对方位信息相对应的头相关单位冲击响应HRIR和与该相对方位信息相对应的声源物体的声源信号的卷积。
在一些实施例中,声源物体的数量为多个,以及处理模块进一步配置成:基于相对方位信息,对每一个声源物体的声源信号进行音效处理;将对每一个声源物体的声源信号进行音效处理后的声源信号进行叠加。
在一些实施例中,声源物体包括:其他用户,以及获取模块进一步配置成:获取用户在预设的虚拟环境中相对至少一个满足预设条件的其他用户的相对方位信息,预设条件包括:其他用户的人脸朝向用户。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被该一个或多个处理器执行,使得一个或多个处理器实现如第一方面的任一实施例的音效处理方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面的任一实施例的音效处理方法。
本申请通过获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息;基于相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理;将音效处理后的声源信号反馈给用户,使得用户获取到的虚拟环境中的声源物体的声音可根据相对方位信息的不同而不同,进而使得获取的声音更加真实,有助于提升用户的沉浸体验。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其他特征将通过以下的说明书而变得容易理解。
附图说明
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的音效处理方法的一个实施例的流程图;
图3根据本申请的音效处理方法的一个实施例的示意图;
图4是根据本申请的音效处理方法的一个应用场景的示意图;
图5是根据本申请的音效处理方法的又一个实施例的流程图;
图6是根据本申请的音效处理装置的一个实施例的示意图;
图7是适于用来实现本申请实施例的服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的音效处理方法的实施例的音效处理平台的系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种具有定位功能的应用,例如,GPS定位、蓝牙定位应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有定位功能的各种电子设备,包括但不限于蓝牙耳机、手机及具有定位功能的眼镜。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供音效处理服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如,获取终端设备101、102、103相对其他至少一个声源物体的相对方位信息,基于相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,将音效处理后的声源信号反馈给用户。
需要说明的是,本申请实施例所提供的音效处理方法一般由服务器105执行,相应地,音效处理装置一般设置于服务器105中。
需要指出的是,终端设备101、102、103中也可以安装有音效处理类应用,终端设备101、102、103也可以基于相对方位信息进行音效处理,此时,音效处理方法也可以由终端设备101、102、103执行,相应地,音效处理装置也可以设置于终端设备101、102、103中。此时,示例性系统架构100也可以不包括服务器105和网络104。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供音效处理服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示出了可以应用于本申请的音效处理方法的实施例的流程示意图200。音效处理方法包括以下步骤:
步骤201,获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息。
在本实施例中,执行主体可以获取用户在预设的虚拟环境中相对其他一个或多个声源物体的相对方位信息。其中,相对方位信息可以是用户相对其他声源物体的相对位置信息,可以是用户相对其他声源物体的人脸朝向信息,也可以是用户相对其他声源物体的位置信息和人脸朝向信息,本申请对此不作限定。
这里,声源物体可以是预设的虚拟环境中的虚拟声源物体,也可以是虚拟环境中的其他用户,本申请对此不作限定。
此外,执行主体获取相对方位信息的方式可以包括多种,例如,执行主体可以获取用户在虚拟环境中相对所有声源物体的相对方位信息,也可以进获取直接获取用户用户在虚拟环境中相对满足预设条件的声源物体的相对方位信息。其中,预设条件可以根据经验、实际需求和具体的应用场景确定,本申请对此不做限定。
具体地,声源物体包括其他用户,执行主体还可以通过设置声源信号获取模式来确定是否仅获取用户相对满足预设条件的其他用户的相对方位信息。其中,声源信号获取模式可以包括开放模式和隐私模式等,若声源信号获取模式为开放模式,则执行主体可以获取用户相对全部的其他用户的相对方位信息,进而将其他用户的声源信号进行处理后反馈给用户;若获取方式为隐私模式,则执行主体仅获取用户相对满足预设条件的其他用户的相对方位信息。
需要指出的是,执行主体可直接获取用户相对其他声源物体的相对方位信息,也可以分别获取用户和其他声源物体在预设坐标系的方位信息,根据用户和其他声源物体的方位信息确定相对方位信息,本申请对此不作限定。
具体地,由于通常情况下,虚拟现实的环境为固定空间,执行主体可以直接根据上述固定空间创建一个直角坐标系。其中,直角坐标系的原点可以根据经验、具体的应用场景和实际需求进行设定,本申请对此不作限定,具体地,若虚拟现实环境为一个房间,则可以以房间的角点为原点。
进一步地,执行主体可以获取用户在预设的直角坐标系的方位信息以及声源物体的方位信息,其中,方位信息可以包括声源物体在预设的直角坐标系中的位置信息和人脸朝向信息,并根据上述用户的方位信息和其他声源物体的方位信息确定用户在预设的直角坐标系中相对其他至少一个声源物体的相对方位信息。
其中,用户在预设的直角坐标系中的方位信息可以采用现有技术或未来发展技术中的定位设备获得,例如,蓝牙耳机、具有定位功能的眼镜等等。
具体地,执行主体可以通过向用户佩戴的蓝牙耳机发送测向信号和定位信号来确定用户在预设的直角坐标系的方位信息。
此外,虚拟环境中虚拟声源物体的方位信息可以是人工预先设定的方位信息。
在一些可选的方式中,获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息,包括:获取用户在预设的虚拟环境中相对至少一个满足预设条件的其他用户的相对方位信息。
在本实现方式中,在虚拟环境中,除存在当前用户外,还存在其他用户,则执行主体可以获取当前用户相对至少一个其他用户的相对方位信息。
这里,执行主体可以仅获取当前用户相对其他至少一个满足预设条件的用户的相对方位信息。其中,预设条件可以是其他用户的人脸朝向当前用户,即执行主体仅获取当前用户相对人脸朝向当前用户的其他用户的相对方位信息。
需要指出的是,当前用户的人脸可以朝向任意方向。
其中,执行主体判断其他用户的人脸是否朝向当前用户的方式可以包括多种。
具体地,如图3所示,虚拟环境中包括用户A301,其他用户B302和其他用户C303,用户A301、其他用户B302、其他用户C303均佩戴有用于定位的蓝牙耳机。执行主体可以首先根据用户A301的左耳蓝牙耳机304和右耳蓝牙耳机305的坐标确定左耳蓝牙耳机304和右耳蓝牙耳机305连线中点位置M的坐标,根据其他用户B302的左耳蓝牙耳机306和右耳蓝牙耳机307的坐标确定左耳蓝牙耳机306和右耳蓝牙耳机307连线中点位置N的坐标,根据其他用户C303的左耳蓝牙耳机308和右耳蓝牙耳机309的坐标确定左耳蓝牙耳机308和右耳蓝牙耳机309连线中点位置P的坐标。然后,执行主体进一步判断其他用户B302和其他用户C303相对用户A301的人脸朝向。
执行主体可计算连线MN与用户B302的左耳蓝牙耳机304的坐标和右耳蓝牙耳机305的坐标连线的夹角与90°的差值,判断上述差值是否小于等于预设角度值,例如,10°,若小于等于10°,则确定其他用户B的人脸朝向用户A。
进一步地,执行主体可采用上述方式判断其他用户C303的人脸是否朝向用户A301,若连线MP与用户C303的左耳蓝牙耳机304和右耳蓝牙耳机的连线的夹角与90°的差值大于10°,则确定其他用户C的人脸未朝向用户A。
从以上也可以看出,虽然其他用户C离用户A更近,但其他用户C的人脸未朝向用户A,即其他用户C不满足预设的条件,则用户A无法接收到用户C的音效处理后的声源信号。
该实现方式通过获取用户在预设的虚拟环境中相对至少一个满足预设条件的其他用户的相对方位信息,使得用户获取声源信号的针对性,同时提升了声源信号获取的可靠性和有效性。
步骤202,基于相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,得到音效处理后的声源信号。
在本实施例中,执行主体在获取到用户相对其他至少一个声源物体的相对方位信息之后,可以根据用户相对其他每一个声源物体的相对方位信息,采用预设的音效处理算法对其他每一个声源物体中的声源信号进行音效处理,得到音效处理后的声源信号。这里,音效处理后的声源信号主要用于表征声源信号到达用户双耳的声音信号,即双耳信号。
这里,预设的音效处理算法可以采用现有技术或未来发展技术中的音效处理算法,例如,HRTF(Head Related Transfer Function,头相关变换函数)算法,基于HRIR的合成算法等等,本申请对此不作限定。
其中,HRTF是一种音效定位算法,对应时域的HRIR(Head Related ImpulseResponses,头相关单位冲击响应),在基于双耳听觉的空间声像呈现中,HRIR是基础。它假定声源到人耳的声传输路径是一个线性时不变系统,因此可以用单位冲击响应来描述。
在一些可选的方式中,基于相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,包括:分别计算与每一个相对方位信息相对应的头相关单位冲击响应HRIR和与该相对方位信息相对应的声源物体的声源信号的卷积。
在本实现方式中,执行主体可以直接计算与每一个相对方位信息相对应的头相关单位冲击响应HRIR和与该相对方位信息相对应的声源物体的声源信号的卷积,得到双耳信号以呈现空间方位感。
其中,由于HRIR主要通过声学测量得到,而测量方位总是对应空间方位点和一定精度的时间采样,因此,为保障获得的双耳信号的精度,需测量足够密集的空间方位点,且采样率足够高。
该实现方式通过直接计算与每一个相对方位信息相对应的头相关单位冲击响应HRIR和与该相对方位信息相对应的声源物体的声源信号的卷积,得到音效处理后的声源信号,提高了获取音效处理信号的效率。
在一些可选的方式中,声源物体的数量为多个,基于相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,包括:基于相对方位信息,对每一个声源物体的声源信号进行音效处理;将对每一个声源物体的声源信号进行音效处理后的声源信号进行叠加。
在本实现方式中,若声源物体的数量为多个,则音效处理后的声源信号可以为将对多个声源物体的声源信号各自进行音效处理后的声源信号进行叠加。进一步地,执行主体将叠加后的声源信号反馈给用户,即将对各声源物体的声源信号进行音效处理后的声源信号同时反馈给用户。
该实现方式通过将对各个声源物体的声源信号进行音效处理后的声源信号进行叠加,得到叠加后的声源信号,并将叠加后的声源信号反馈给用户,提升了反馈给用户的声音的真实性,有助于进一步提升用户的沉浸体验。
步骤203,将音效处理后的声源信号反馈给用户。
在本实施例中,执行主体可以将上述音效处理后的声源信号分别通过音频播放设备反馈给用户,也可以将上述音效处理后的声源信号进行叠加后通过音频播放设备反馈给用户,本申请对此不作限定。
其中,音频播放设备可以是现有技术或未来发展技术中的用于将声源信号变换为声音的设备,例如,耳机、手机、音箱等等,本申请对此不作限定。
继续参见图4,图4是根据本实施例的音效处理方法的应用场景的一个示意图。
在图4的应用场景中,在一个具体的示例中,在一个预设的虚拟环境中,根据虚拟环境所对应的固定空间设置一个直角坐标系401,执行主体402可设置与坐标系的原点。此时,虚拟环境中存在用户403和声源物体404、405。首先执行主体402可通过用户403佩戴的定位设备,例如,左蓝牙耳机406和右蓝牙耳机407,确定用户在直角坐标系中的方位信息,同时获取声源物体404、405的方位信息,进而确定出用户403相对声源物体404的方位信息和用户403相对声源物体405的方位信息。进一步地,执行主体402根据上述相对方位信息以及预设的音效定位算法对上述声源物体404的声源信号和声源物体405的声源信号分别进行音效处理,得到音效处理后的声源信号,最后,将音效处理后声源信号通过音频播放设备,例如,蓝牙耳机反馈给用户。
本公开的实施例提供的音效处理方法,通过获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息;基于相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理;将音效处理后的声源信号反馈给用户,使得用户获取到的虚拟环境中的声源物体的声音更加真实,有助于提升用户的沉浸体验。
进一步参考图5,其示出了音效处理方法的又一个实施例的流程500。在本实施例中,相对方位信息包括:相对位置和人脸朝向,本实施例的音效处理方法的流程500,可包括以下步骤:
步骤501,获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息。
在本实施例中,步骤501的实现细节和技术效果,可以参考对步骤201的描述,在此不再赘述。
步骤502,响应用户相对于其他至少一个声源物体的相对位置和/或人脸朝向发生变化,对相对方位信息进行更新。
在本实施例中,若用户相对声源物体的位置和/或人脸朝向发生变化,则执行主体可以将变化后的用户相对声源物体的位置和/或人脸朝向信息作为更新后的相对方位信息。
这里,用户相对声源物体的位置和/或人脸朝向发生变化,可以是用户的位置和/或人脸朝向发生变化导致的,也可以是声源物体的位置和/或人脸朝向发生变化导致的,本申请对此不作限定。
例如,用户正在一个虚拟环境中进行一场射击游戏,虚拟环境中存在声源物体A,执行主体首先根据用户佩戴的定位设备获取的用户的方位信息以及声源物体A的方位信息确定相对方位信息,若此时,用户转换人脸方向和/或离开当前位置,声源物体A的方位信息保持不变,则用户与声源物体A的相对方位信息发生变化,进而根据声源物体A的方位信息和变化后的用户的方位信息,确定更新后的相对方位信息。
又例如,用户正在一个虚拟环境中观看一场表演,虚拟环境中存在声源物体B,表演过程中,用户的位置和人脸朝向保持不变,声源物体B的位置和/或人脸朝向发生变化,则用户与声源物体B的相对方位信息发生变化,进而根据用户的方位信息和变化后的声源物体B的方位信息,确定更新后的相对方位信息。
步骤503,基于更新后的相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理。
在本实施例中,执行主体在获取到更新后的相对方位信息之后,可以根据更新后的相对方位信息采用预设的音效处理算法对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理。
具体地,用户正在一个虚拟环境中进行一场射击游戏,虚拟环境中存在声源物体C和声源物体D,用户初始位置位于声源物体C和声源物体D连线中间的位置且人脸朝向声源物体D,若用户离开当前位置沿声源物体C和声源物体D连线运动到距离声源物体D较近的新的位置,人脸朝向不变,则执行主体基于用户新的位置对相对方位信息进行更新,得到更新后的相对方位信息,并进一步根据相对方位信息确定对声源物体C的声源信号和对声源物体D的声源信号进行音效处理后的声源信号。此时,由于用户远离声源物体C靠近声源物体D,故声源物体C的音效处理后的声源信号较初始位置用户听到的声源信号变小,虚拟声源物体D的音效处理后的声源信号较初始位置用户听到的声源信号变大。
步骤504,将音效处理后的声源信号反馈给用户。
在本实施例中,步骤504的实现细节和技术效果,可以参考对步骤203的描述,在此不再赘述。
本申请的上述实施例,通过响应用户相对于其他至少一个声源物体的相对位置和/或人脸朝向发生变化,对所述相对方位信息进行更新;基于更新后的相对方位信息,对所述其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,并将音效处理后的声源信号反馈给用户,使得用户在移动位置或变换人脸方向时,用户体验到的声音也会随着位置或人脸方向的变化而变化,如同虚拟空间物体发出的声音,进一步提升了用户的沉浸体验。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种音效处理装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的音效处理装置600包括:获取模块601、处理模块602和反馈模块603。
其中,获取模块601,可被配置成获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息。
处理模块602,可被配置成基于所述相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,得到音效处理后的声源信号,音效处理后的声源信号用于表征声源信号到达用户人耳的声音信号。
反馈模块603,可被配置成将音效处理后的声源信号反馈给用户。
在本实施例的一些可选的方式中,相对方位信息包括:相对位置和人脸朝向,以及所述处理模块进一步配置成:响应用户相对于其他至少一个声源物体的相对位置和/或人脸朝向发生变化,对相对方位信息进行更新;基于更新后的相对方位信息,对其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理。
在本实施例的一些可选的方式中,处理模块进一步配置成:分别计算与每一个相对方位信息相对应的头相关单位冲击响应HRIR和与该相对方位信息相对应的声源物体的声源信号的卷积。
在本实施例的一些可选的方式中,声源物体的数量为多个,以及所述处理模块进一步配置成:基于相对方位信息,对每一个声源物体的声源信号进行音效处理;将对每一个声源物体的声源信号进行音效处理后的声源信号进行叠加。
在本实施例的一些可选的方式中,声源物体包括:其他用户,以及获取模块进一步配置成:获取用户在预设的虚拟环境中相对至少一个满足预设条件的其他用户的相对方位信息,预设条件包括:其他用户的人脸朝向所述用户。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图7所示,是根据本申请实施例的音效处理方法的电子设备的框图。
700是根据本申请实施例的音效处理方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的音效处理方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的音效处理方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的音效处理方法对应的程序指令/模块(例如,附图6所示的获取模块601、处理模块602和获取模块603)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的音效处理方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储音效处理的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至音效处理的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
音效处理方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与直播视频流的质量监控的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,有效提升了用户的沉浸体验。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (12)
1.一种音效处理方法,所述方法包括:
获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息;
基于所述相对方位信息,对所述其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,得到音效处理后的声源信号,所述音效处理后的声源信号用于表征声源信号到达用户人耳的声音信号;
将所述音效处理后的声源信号反馈给用户。
2.根据权利要求1所述的方法,其特征在于,所述相对方位信息包括:相对位置和人脸朝向,以及所述基于所述相对方位信息,对所述其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,包括:
响应用户相对于其他至少一个声源物体的相对位置和/或人脸朝向发生变化,对所述相对方位信息进行更新;
基于更新后的相对方位信息,对所述其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理。
3.根据权利要求1或2任一所述的方法,其特征在于,所述基于所述相对方位信息,对所述其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,包括:
分别计算与每一个相对方位信息相对应的头相关单位冲击响应HRIR和与该相对方位信息相对应的声源物体的声源信号的卷积。
4.根据权利要求1所述的方法,其特征在于,所述声源物体的数量为多个,以及所述基于所述相对方位信息,对所述其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,包括:
基于所述相对方位信息,对每一个声源物体的声源信号进行音效处理;
将对每一个声源物体的声源信号进行音效处理后的声源信号进行叠加。
5.根据权利要求1所述的方法,其特征在于,所述声源物体包括:其他用户,以及获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息,包括:
获取用户在预设的虚拟环境中相对至少一个满足预设条件的其他用户的相对方位信息,所述预设条件包括:所述其他用户的人脸朝向所述用户。
6.一种音效处理装置,所述装置包括:
获取模块,被配置成获取用户在预设的虚拟环境中相对其他至少一个声源物体的相对方位信息;
处理模块,被配置成基于所述相对方位信息,对所述其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理,得到音效处理后的声源信号,所述音效处理后的声源信号用于表征声源信号到达用户人耳的声音信号;
反馈模块,被配置成将所述音效处理后的声源信号反馈给用户。
7.根据权利要求6所述的装置,其特征在于,所述相对方位信息包括:相对位置和人脸朝向,以及所述处理模块进一步配置成:
响应用户相对于其他至少一个声源物体的相对位置和/或人脸朝向发生变化,对所述相对方位信息进行更新;
基于更新后的相对方位信息,对所述其他至少一个声源物体中的每一个声源物体的声源信号进行音效处理。
8.根据权利要求6或7任一所述的装置,其特征在于,所述处理模块进一步配置成:
分别计算与每一个相对方位信息相对应的头相关单位冲击响应HRIR和与该相对方位信息相对应的声源物体的声源信号的卷积。
9.根据权利要求6所述的装置,其特征在于,所述声源物体的数量为多个,以及所述处理模块进一步配置成:
基于所述相对方位信息,对每一个声源物体的声源信号进行音效处理;
将对每一个声源物体的声源信号进行音效处理后的声源信号进行叠加。
10.根据权利要求6所述的装置,其特征在于,所述声源物体包括:其他用户,以及所述获取模块进一步配置成:
获取用户在预设的虚拟环境中相对至少一个满足预设条件的其他用户的相对方位信息,所述预设条件包括:所述其他用户的人脸朝向所述用户。
11.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010926470.6A CN112071326A (zh) | 2020-09-07 | 2020-09-07 | 音效处理方法和装置 |
KR1020210117937A KR20220032498A (ko) | 2020-09-07 | 2021-09-03 | 음향 효과 처리 방법 및 장치 |
US17/468,072 US11997470B2 (en) | 2020-09-07 | 2021-09-07 | Method and apparatus for processing sound effect |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010926470.6A CN112071326A (zh) | 2020-09-07 | 2020-09-07 | 音效处理方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112071326A true CN112071326A (zh) | 2020-12-11 |
Family
ID=73662789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010926470.6A Pending CN112071326A (zh) | 2020-09-07 | 2020-09-07 | 音效处理方法和装置 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20220032498A (zh) |
CN (1) | CN112071326A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113821190A (zh) * | 2021-11-25 | 2021-12-21 | 广州酷狗计算机科技有限公司 | 音频播放方法、装置、设备及存储介质 |
CN114630145A (zh) * | 2022-03-17 | 2022-06-14 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种多媒体数据合成方法、设备及存储介质 |
CN114816074A (zh) * | 2022-05-20 | 2022-07-29 | 三星电子(中国)研发中心 | 信息生成方法和装置 |
WO2023173285A1 (zh) * | 2022-03-15 | 2023-09-21 | 深圳市大疆创新科技有限公司 | 音频处理方法、装置、电子设备及计算机可读存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105183421A (zh) * | 2015-08-11 | 2015-12-23 | 中山大学 | 一种虚拟现实三维音效的实现方法及系统 |
CN105487657A (zh) * | 2015-11-24 | 2016-04-13 | 小米科技有限责任公司 | 声音响度的确定方法及装置 |
CN107182021A (zh) * | 2017-05-11 | 2017-09-19 | 广州创声科技有限责任公司 | Vr电视中的动态空间虚拟声处理系统及处理方法 |
CN109254752A (zh) * | 2018-09-25 | 2019-01-22 | Oppo广东移动通信有限公司 | 3d音效处理方法及相关产品 |
CN109416585A (zh) * | 2016-07-15 | 2019-03-01 | 高通股份有限公司 | 虚拟、增强及混合现实 |
CN110187766A (zh) * | 2019-05-31 | 2019-08-30 | 北京猎户星空科技有限公司 | 一种智能设备的控制方法、装置、设备及介质 |
CN110267166A (zh) * | 2019-07-16 | 2019-09-20 | 上海艺瓣文化传播有限公司 | 一种基于双耳效应的虚拟声场实时交互系统 |
CN110270094A (zh) * | 2019-07-17 | 2019-09-24 | 珠海天燕科技有限公司 | 一种游戏中音频控制的方法及装置 |
CN110335603A (zh) * | 2019-07-12 | 2019-10-15 | 四川长虹电器股份有限公司 | 应用于电视场景的多模态交互方法 |
CN111070214A (zh) * | 2018-10-18 | 2020-04-28 | Lg电子株式会社 | 机器人 |
CN111370004A (zh) * | 2018-12-25 | 2020-07-03 | 阿里巴巴集团控股有限公司 | 人机交互方法、语音处理方法及设备 |
-
2020
- 2020-09-07 CN CN202010926470.6A patent/CN112071326A/zh active Pending
-
2021
- 2021-09-03 KR KR1020210117937A patent/KR20220032498A/ko unknown
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105183421A (zh) * | 2015-08-11 | 2015-12-23 | 中山大学 | 一种虚拟现实三维音效的实现方法及系统 |
CN105487657A (zh) * | 2015-11-24 | 2016-04-13 | 小米科技有限责任公司 | 声音响度的确定方法及装置 |
CN109416585A (zh) * | 2016-07-15 | 2019-03-01 | 高通股份有限公司 | 虚拟、增强及混合现实 |
CN107182021A (zh) * | 2017-05-11 | 2017-09-19 | 广州创声科技有限责任公司 | Vr电视中的动态空间虚拟声处理系统及处理方法 |
CN109254752A (zh) * | 2018-09-25 | 2019-01-22 | Oppo广东移动通信有限公司 | 3d音效处理方法及相关产品 |
CN111070214A (zh) * | 2018-10-18 | 2020-04-28 | Lg电子株式会社 | 机器人 |
CN111370004A (zh) * | 2018-12-25 | 2020-07-03 | 阿里巴巴集团控股有限公司 | 人机交互方法、语音处理方法及设备 |
CN110187766A (zh) * | 2019-05-31 | 2019-08-30 | 北京猎户星空科技有限公司 | 一种智能设备的控制方法、装置、设备及介质 |
CN110335603A (zh) * | 2019-07-12 | 2019-10-15 | 四川长虹电器股份有限公司 | 应用于电视场景的多模态交互方法 |
CN110267166A (zh) * | 2019-07-16 | 2019-09-20 | 上海艺瓣文化传播有限公司 | 一种基于双耳效应的虚拟声场实时交互系统 |
CN110270094A (zh) * | 2019-07-17 | 2019-09-24 | 珠海天燕科技有限公司 | 一种游戏中音频控制的方法及装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113821190A (zh) * | 2021-11-25 | 2021-12-21 | 广州酷狗计算机科技有限公司 | 音频播放方法、装置、设备及存储介质 |
CN113821190B (zh) * | 2021-11-25 | 2022-03-15 | 广州酷狗计算机科技有限公司 | 音频播放方法、装置、设备及存储介质 |
WO2023173285A1 (zh) * | 2022-03-15 | 2023-09-21 | 深圳市大疆创新科技有限公司 | 音频处理方法、装置、电子设备及计算机可读存储介质 |
CN114630145A (zh) * | 2022-03-17 | 2022-06-14 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种多媒体数据合成方法、设备及存储介质 |
CN114816074A (zh) * | 2022-05-20 | 2022-07-29 | 三星电子(中国)研发中心 | 信息生成方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20220032498A (ko) | 2022-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112071326A (zh) | 音效处理方法和装置 | |
CN111466124B (zh) | 用于渲染用户的视听记录的方法,处理器系统和计算机可读介质 | |
JP4854736B2 (ja) | 没入型オーディオ通信 | |
US20150223005A1 (en) | 3-dimensional audio projection | |
CN107168518B (zh) | 一种用于头戴显示器的同步方法、装置及头戴显示器 | |
US20240155302A1 (en) | Emoji that indicates a location of binaural sound | |
US10496360B2 (en) | Emoji to select how or where sound will localize to a listener | |
US9781538B2 (en) | Multiuser, geofixed acoustic simulations | |
CN111050271B (zh) | 用于处理音频信号的方法和装置 | |
EP3574662B1 (en) | Ambisonic audio with non-head tracked stereo based on head position and time | |
US11711664B2 (en) | Moving an emoji to move a location of binaural sound | |
US20220394414A1 (en) | Sound effect optimization method, electronic device, and storage medium | |
CN114296843A (zh) | 人机接口设备的延迟确定 | |
US11997470B2 (en) | Method and apparatus for processing sound effect | |
JP2022518105A (ja) | 人工現実に基づくユーザグループ | |
CN112927718B (zh) | 感知周围环境的方法、装置、终端和存储介质 | |
JP7166983B2 (ja) | 端末およびプログラム | |
US20230041038A1 (en) | Using bluetooth / wireless hearing aids for personalized hrtf creation | |
CN117768831A (zh) | 音频处理方法和系统 | |
CN115278468A (zh) | 声音输出方法、装置、电子设备及计算机可读存储介质 | |
AU2012202422B2 (en) | Immersive Audio Communication | |
CN115529534A (zh) | 声音信号的处理方法、装置、智能头戴设备及介质 | |
CN116421971A (zh) | 空间音频信号的生成方法及装置、存储介质、电子设备 | |
JP2021072010A (ja) | 制御プログラム、制御方法、情報処理端末、および、制御システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |