CN113810837A - 一种显示装置的同步发声控制方法及相关设备 - Google Patents
一种显示装置的同步发声控制方法及相关设备 Download PDFInfo
- Publication number
- CN113810837A CN113810837A CN202010545905.2A CN202010545905A CN113810837A CN 113810837 A CN113810837 A CN 113810837A CN 202010545905 A CN202010545905 A CN 202010545905A CN 113810837 A CN113810837 A CN 113810837A
- Authority
- CN
- China
- Prior art keywords
- sound
- audio data
- dynamic target
- display
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/162—Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F9/00—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R19/00—Electrostatic transducers
- H04R19/005—Electrostatic transducers using semiconductor materials
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R19/00—Electrostatic transducers
- H04R19/02—Loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/12—Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/02—Spatial or constructional arrangements of loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/307—Frequency adjustment, e.g. tone control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/003—Mems transducers or their use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/15—Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Stereophonic System (AREA)
Abstract
本发明公开了一种显示装置的同步发声控制方法及相关设备,将待播放的视频的码流数据分解为图像数据和音频数据,图像数据最终发送至显示面板进行图像显示;对相邻两个图像帧对应的图像数据进行对比,确定出发生变化的动态目标,并对动态目标进行图像识别,从而确定出该动态图像是否为发声物体,在确定出发声的动态目标之后,将音频数据发送到发声的动态目标所属的显示区域内的发声装置,驱动发声装置匹配动态图像进行同步发声,由此达到对显示图像进行定位发声的效果。
Description
技术领域
本发明涉及显示技术领域,尤其涉及一种显示装置的同步发声控制方法及相关设备。
背景技术
随着显示技术的不断发展,使用者不仅对显示器的画面显示效果具有更高要求,对于显示器的他用感受提出越来越高的要求。在新一代的显示技术中将显示与发声同步驱动,从而带来显示位置同步发声的更加真实的使用感受。
目前显示与发声同步方案是将发声装置摆放到显示器的不同位置,对播放的片源进行提前制作,针对不同的发声装置进行录音,再将显示位置信息和发声信息对应关系编码在音频信号中。在进行播放时驱动对应的发声装置进行发声,由此来模拟显示与发声同步的场景。
然而目前的方案发声位置只能趋近与视频中的影像区域,无法真实还原视频和音频同步。且在发声装置和显示器需提前制作视频和音频匹配信号才能达成音频视频同时效果。除此之外,外置发声装置占用的空间和成本更多,传输延迟较大,无法完全匹配视频刷新频率。
发明内容
本发明提供了一种显示装置,用以实现音频匹配动态图像进行同步发声,达到对显示图像进行定位发声的效果。
第一方面,本发明提供一种显示装置的同步发声控制方法,所述显示装置包括:显示面板及集成于所述显示装置内部的多个发声装置;所述显示面板划分为多个显示区域,每个所述显示区域内集成至少一个所述发声装置;所述同步发声控制方法包括:
接收待播放视频的码流数据;
将所述码流数据分解为图像数据和音频数据;
对相邻两个图像帧对应的图像数据进行对比,确定动态目标的位置;
对所述动态目标进行图像识别,确定出发声的动态目标;
驱动所述显示面板显示所述图像数据,驱动所述发声的动态目标所属的显示区域对应的发声装置播放所述音频数据与所述显示面板的显示图像进行同步发声。
在一种可能的实现方式中,在本发明提供的上述方法中,所述确定动态目标的位置,包括:
对相邻两个图像帧对应的图像数据做差值处理,将图像数据的差值大于第一阈值的区域图像作为所述动态目标;
将图像数据的差值大于第一阈值的区域图像的位置作为所述动态目标的位置。
在一种可能的实现方式中,在本发明提供的上述方法中,在所述确定所述动态目标的位置之后,还包括:
检测所述动态目标的类型。
在一种可能的实现方式中,在本发明提供的上述方法中,所述驱动所述发声的动态目标所属的显示区域对应的发声装置播放所述音频数据,包括:
对所述音频数据进行频域变换,提取所述音频数据的频率特征;
将提取出的所述频率特征与所述动态目标的类型进行匹配;
在所述频率特征与所述动态目标的类型相匹配时,驱动所述动态目标所属的显示区域对应的发声装置播放与所述动态目标的类型相匹配的音频数据。
在一种可能的实现方式中,在本发明提供的上述方法中,在所述频率特征与所述动态目标的类型不匹配时,确定所述音频数据中是否包含声道信息;所述声道信息对应所述显示面板的部分显示区域;
在所述音频数据中包含声道信息时,驱动所述声道信息对应的显示区域内的所有发声装置同时播放所述音频数据;
在所述音频数据中不包含声道信息时,驱动所有的发声装置同时播放所述音频数据。
在一种可能的实现方式中,在本发明提供的上述方法中,所述将提取出的所述频率特征与所述动态目标的类型进行匹配,包括:
根据预先确定的发声类型与频率特征的对应表,对所述频率特征与所述动态目标的类型进行匹配。
在一种可能的实现方式中,在本发明提供的上述方法中,所述驱动所述动态目标所属的显示区域内的发声装置播放所述音频数据,包括:
确定所述动态目标的位置与所述动态目标所属的显示区域内的发声装置的位置偏差是否大于第二阈值;
在所述动态目标的位置与所述动态目标所属的显示区域内的发声装置的位置偏差小于或等于所述第二阈值时,驱动所述动态目标所属的显示区域对应的发声装置播放所述音频数据;
在所述动态目标的位置与所述动态目标所属的显示区域内的发声装置的位置偏差大于所述第二阈值时,根据预设规则驱动与所述动态目标的位置相邻的至少两个发声装置播放所述音频数据。
在一种可能的实现方式中,在本发明提供的上述方法中,所述预设规则为双耳时延差效应规则和双耳强度差效应规则。
在一种可能的实现方式中,在本发明提供的上述方法中,还包括:
在所述图像数据中未检测到动态目标时,确定所述音频数据中是否包含声道信息;所述声道信息对应所述显示面板的部分显示区域;
在所述音频数据中包含声道信息时,驱动所述声道信息对应的显示区域内的所有发声装置同时播放所述音频数据;
在所述音频数据中不包含声道信息时,驱动所有的发声装置同时播放所述音频数据。
第二方面,本发明实施例提供一种显示装置,包括:图像处理器,与所述图像处理器通讯连接的现场可编辑门阵列,分别与所述现场可编辑门阵列通讯连接的显示面板和数模转换器,以及与所述数模转换器连接的发声装置;
所述显示面板划分为多个显示区域,每个所述显示区域内集成至少一个所述发声装置;
所述图像处理器,用于接收待播放视频的码流数据,将所述码流数据分解为图像数据和音频数据发送所述现场可编辑门阵列;
所述现场可编辑门阵列,用于将图像数据发送显示面板;对相邻两个图像帧对应的图像数据进行对比,确定动态目标的位置;对所述动态目标进行图像识别,确定出发声的动态目标,将所述音频数据发送与所述发声的动态目标所属的显示区域对应的发声装置所连接的数模转换器;
所述数模转换器,用于将接收的所述音频数据进行数模转换处理,并将数模转换后的音频数据发送连接的所述发声装置;
所述发声装置,用于接收所述音频数据进行音频播放;
所述显示面板,用于接收所述图像数据进行图像显示。
在一种可能的实现方式中,在本发明提供的上述显示装置中,所述显示面板为主动发光型显示面板;
所述发声装置为微型扬声器,所述微型扬声器位于所述显示面板背离显示面的一侧,所述显示面板对应所述微型扬声器的位置具有开孔;
或者,所述发声装置为激励器,所述激励器贴附于所述显示面板背离显示面的一侧;
或者,所述发声装置为微机电系统发声器,所述微机电系统发声器位于所述显示面板的显示面一侧,所述微机电系统发声器位于像素单元之间的间隔位置。
在一种可能的实现方式中,在本发明提供的上述显示装置中,所述现场可编辑门阵列串行驱动各所述发声装置,或者,所述现场可编辑门阵列并行驱动各所述发声装置。
第三方面,本发明实施例提供一种可读性存储介质,所述可读性存储介质存储有显示装置的可执行指令,所述可执行指令用于使所述显示装置执行上述任一方法。
本发明有益效果如下:
本发明提供的显示装置的同步发声控制方法及相关设备,通过将待播放的视频的码流数据分解为图像数据和音频数据,图像数据最终发送至显示面板进行图像显示;对相邻两个图像帧对应的图像数据进行对比,确定出发生变化的动态目标,并对动态目标进行图像识别,从而确定出该动态目标是否为发声物体,在确定出发声的动态目标之后,将音频数据发送到发声的动态目标所属的显示区域内的发声装置,驱动发声装置匹配动态图像进行同步发声,由此达到对显示图像进行定位发声的效果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,显而易见地,下面所介绍的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的显示装置的俯视结构示意图之一;
图2为本发明实施例提供的显示装置的俯视结构示意图之二;
图3为本发明实施例提供的显示装置的俯视结构示意图之三;
图4为本发明实施例提供的显示装置的同步发声控制方法的流程图;
图5为本发明实施例提供的第一时刻的图像帧的示意图;
图6为本发明实施例提供的第二时刻的图像帧的示意图;
图7为本发明实施例提供的动态目标与发声装置的位置关系示意图;
图8为本发明实施例提供的双耳延迟效应的原理示意图;
图9为本发明实施例提供的显示装置的结构示意图;
图10为本发明实施例提供的发声装置的串行驱动的示意图;
图11为本发明实施例提供的发声装置的并行驱动的示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更为明显易懂,下面将结合附图和实施例对本发明做进一步说明。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的实施方式;相反,提供这些实施方式使得本发明更全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的结构,因而将省略对它们的重复描述。本发明中所描述的表达位置与方向的词,均是以附图为例进行的说明,但根据需要也可以做出改变,所做改变均包含在本发明保护范围内。本发明的附图仅用于示意相对位置关系不代表真实比例。
现阶段使用的传统显示器只能显示图像,不能发出声音,所以需要外置发声装置配合显示器进行发声。随着大尺寸显示屏以及拼接屏的发展趋势,显示位置同步发声可以带来更加真实的使用感受,这就需要外置更多的发声装置,使得外置发声装置占用的空间的成本上升。
目前显示与发声同步方案是将发声装置摆放到显示器的不同位置,对播放的片源进行提前制作,针对不同的发声装置进行录音,再将显示位置信息和发声信息对应关系编码在音频信号中。在进行播放时驱动对应的发声装置进行发声,由此来模拟显示与发声同步的场景。
然而目前的方案发声位置只能趋近与视频中的影像区域,无法真实还原视频和音频同步。且在发声装置和显示器提前制作视频和音频匹配信号才能达成音频视频同时效果。
有鉴于此,本发明实施例提供一种显示装置,该显示装置将发声装置微缩化,且将微缩发声装置集成于显示装置内部,阵列分布于显示装置的各显示分区内,显示分区内的发声装置可以被单独驱动发声,使得不同的显示位置可以同步匹配发声装置进行发声,达到音频视频同步的效果,带来更加真实的使用感受。
图1-图3分别为本发明实施例提供的显示装置的俯视结构示意图。
参照图1-图3,本发明实施例中的显示装置包括:显示面板100以及集成于显示装置内部的多个发声装置20。本发明实施例中的显示面板划分为多个显示区域s,每个显示区域s内集成至少一个发声装置20。
本发明实施例对显示区域的划分可以采用多种方式。如图1所示,可以将显示面板平均划分为多个尺寸一致的显示区域s,在每个显示区域s内集成至少一个发声装置20。
或者,如图2所示,也可以将显示面板划分为不均匀的显示区域s。由于显示装置在中心位置显示图像呈现的内容较多,而在边缘位置显示图像所呈现的内容较少,因此可以将显示面板中心位置划分成较多数量的显示区域s,对显示区域s进行细化;而在边缘位置划分成较少数量的显示区域s。
除此之外,如图3所示,显示区域s不仅可以划分成如图1和图2所示的矩形,也可以划分为如图3所示的圆形或环形。同样地,采用非规则图形划分显示区域时,可以根据实现的图像显示细节的呈现对显示区域进行划分。
在具体实施时,可以根据实际需要对显示区域进行合理划分,只要每个显示区域s内集成至少一个发声装置20即可。
本发明实施例将发声装置集成在显示装置中,避免外置发声装置占用更大的空间。同时可以对显示区域内的发声装置进行单独驱动,由此可以对显示画面进行定位发声,实现视频和音频的同步驱动。
基于本发明实施例提供的上述显示装置,本发明实施例还提供一种显示装置的同步发声控制方法。图4为本发明实施例提供的显示装置的同步发声控制方法的流程图,如图4所示,该方法包括:
S10、接收待播放视频的码流数据;
S20、将码流数据分解为图像数据和音频数据;
S30、对相邻两个图像帧对应的图像数据进行对比,确定动态目标的位置;
S40、对动态目标进行图像识别,确定出发声的动态目标;
S50、驱动显示面板显示图像数据,驱动发声的动态目标所属的显示区域对应的发声装置播放音频数据与显示面板的显示图像进行同步发声。
本发明实施例提供的上述同步发声控制方法中,首先将待播放的视频的码流数据分解为图像数据和音频数据,图像数据最终发送至显示面板进行图像显示,而音频数据则发送到动态目标所对应的显示区域内的发声装置进行同步发声。
本发明实施例对相邻两个图像帧对应的图像数据进行对比,确定出发生变化的动态目标,并对动态目标进行图像识别,从而确定出该动态目标是否为发声的动态图像。可理解的是,在显示图像中一般会存在场景和主要角色等内容,通常场景的变化可能并不会发出声音,场景中的角色在运动时才会发出声音。因此,本发明实施例在确定出动态目标之后,还需要对动态目标进行图像识别,确定出该动态目标是否为发声的动态目标。
在确定出发声的动态目标之后,将音频数据发送到发声的动态目标所属的显示区域内的发声装置,驱动发声装置匹配动态图像进行同步发声,由此达到对显示图像进行定位发声的效果。
在实际应用过程中,还可能出现显示图像中未检测出动态目标,但是在该时段有背景声音的情况,那么此时可以确定音频数据是否包含声道信息,如果包含声道信息则按照声道信息驱动对应区域内的发声装置发声,如果不包含声道信息则驱动所有的发声装置同时播放音频数据,由此简化驱动流程。
具体地,在上述的步骤S30中,确定动态目标的位置,包括:
对相邻两个图像帧对应的图像数据做差值处理,将图像数据的差值大于第一阈值的区域图像作为动态目标;
将图像数据的差值大于第一阈值的区域图像的位置作为动态目标的位置。
设在ti时刻的图像帧为f(x,y,ti),在tj时刻的图像帧为f(x,y,tj),则两个图像帧的差值可以表示为:
其中,T表示上述第一阈值,该第一阈值反应出两个图像帧的变化程度,当两个图像帧的差值大于第一阈值T时,则认为两个图像帧之间有差异;当两个图像帧的差值小于或等于第一阈值T时,则认为两个图像帧之间无差异。
通过上述的差值计算还可以确定出大于第一阈值T的区域图像的坐标(x,y),由此可以确定出图像产生变化的动态目标及其位置。
在确定出动态目标的位置之后,对动态目标进行图像识别,由此可以确定出动态目标的类型,从而判断其是否为发声的动态目标。例如,经过图像识别确定动态目标为人物时,则可以确定动态目标是可以发声的;而如果确定出的动态目标为云朵等背景图像,则可以确定动态目标是不发声的。
在确定了动态目标的位置之后,本发明实施例提供的上述方法还包括:
确定动态目标的类型。
本发明实施例在显示装置可以在数据库中存储多种发声物体的图像,这样通过对动态目标的图像识别,与数据库中的数据进行比对,可以识别出动态目标的类型。除上述实现方式之外,显示装置也可以先对动态目标进行图像识别,再联网查找识别结果的类型。
在本发明实施例中,发声类型可以包括人声、弦乐、木管、铜管、打击乐以及不良声源等。不同类型的发声物体的音色和发声频率并不相同,那么在匹配显示图像中的动态目标时,发声频率需要与动态目标的所属类型相互匹配。
具体地,在上述的步骤S50中,驱动动态目标所属的显示区域对应的发声装置播放音频数据,包括:
对音频数据进行频域变换,提取音频数据的频率特征;
将提取出的频率特征与动态目标的类型进行匹配;
在频率特征与动态目标的类型相匹配时,驱动动态目标所属的显示区域对应的发声装置播放与动态目标的类型相匹配的音频数据。
本发明实施例对音频数据进行傅里叶变换,傅里叶变换可以采用以下公式:
在将音频数据进行傅里叶变换之后,可以提取出音频数据的频率变化,由于发声物体的类型对应着固有的发声频率,因此可以将音频数据中不同的频率特征与各类型发声物体的发声频率进行匹配,当匹配成功时,则由图像中的动态目标所属显示区域对应的发声装置播放对应的音频数据。而当音频数据的频率特征与检测到的动态目标的类型不匹配时,则说明音频数据中的提取出的频率特征并不是检测到的动态目标,此时可以驱动所有的发声装置同时发声,由此简化发声装置的驱动流程。
举例来说,图5为本发明实施例提供的第一时刻的图像帧的示意图,图6为本发明实施例提供的第二时刻的图像帧的示意图。
图5和图6为Δt1时段内的两个图像帧的显示图像,对图像数据进行对比之后,检测出图像中的动态目标为人物的嘴部,通过图像识别可以确定检测出的人物为发声的动态目标,那么动态目标的发声类型即为人声。
而后通过对音频数据进行频率变换后,确定Δt1时段内的音频频率对应属于人物发声的固有频率范围(如60Hz-600Hz),此时说明动态目标的类型和音频数据的频率特征相互匹配,由此驱动人物的嘴部所在的显示区域s1内的发声装置201在Δt1时段内播放对应的音频数据,以使人物在讲话时,人物的嘴部所在的显示区域同步发声。
在另一种应用场景中,在图像数据中检测到的动态目标可能不至一个,那么在对音频数据进行频率转换之后,需要针对每个动态目标的类型均进行频率匹配,这样可以使动态目标所在区域发出与之匹配的声音。
举例来说,如果在图像数据中检测到两个动态目标均为人物的嘴部,在进行图像识别之后可以确定两个动态目标分别为一个男性和一个女性,那么就需要将频率特征与男性声音频率相匹配的对应的音频数据发送到男性的嘴部所属显示区域内的发声装置,将频率特征与女性声音频率相匹配的对应的音频数据发送到女性的嘴部所属显示区域内的发声装置,再对照图像数据和音频数据的时间轴分别驱动上述两个显示区域内的发声装置进行发声,由此可以实现在显示男性动态画面时匹配男性的音频发声,在显示女性动态画面时匹配女性的音频发声。
在本发明实施例中,将提取出的频率特征与动态目标的类型进行匹配,具体包括:
根据预先确定的发声类型与频率特征的对应表,对频率特征与动态目标的类型进行匹配。
本发明实施例在显示装置的数据库或内存中存储有发声类型与频率特征的对应表,该对应表中包含了针对不同的发声类型所对应的频率特征,上述频率特征可以为频率值等特征。那么在将音频数据进行频率转换处理之后,可以提取出其在不同时段所对应的频率特征,将这些频率特征与预先存储的对应表进行匹配时,则可以查表特征频率特征所对应的发声类型。
以下表为例,预先存储的发声类型包括人声、弦乐、木管、铜管、打击乐以及不良声源等,不同的发声类型所对应的频率值范围如下表所示:
由上表可以看出,不同类型的发声物体对应着不同的特定的频率范围,且对频率进行调整可以影响发声物体的音色。上表仅用于示意发声物体类型与频率范围的对应关系,在实际应用中,上表也可以设计为不同的形式,在此不做限定。
本发明实施例在驱动发声装置播放音频数据之前还会考虑发声装置与动态目标的位置关系,以达到更加真实的定位发声效果。
在另一种可能出现的情况中,音频数据的频率特征可能与动态目标的类型不匹配,此时如果驱动动态目标内所属显示区域内的发声装置发声,则可能出现发声物体与发出的声音不匹配的情况。
针对上述情形,本发明实施例采用另外一种发声策略,即在频率特征与动态目标的类型不匹配时,确定音频数据是否包含声道信息,并且根据声道信息来驱动发声装置进行发声。
具体地,音频数据的声道信息通常包括左声道和右声道,或者包括左声道、中声道和右声道。
如果音频数据的声道信息只包括左声道和右声道时,则可以将显示装置内的所有发声装置由显示面的中线分开,中线左侧的所有发声装置对应于左声道,中线右侧的所有发声装置对应右声道。那么当检测出音频数据中的声道信息为左声道时,则此时输出的音频为左声道的音频,此时可驱动中线以左的显示区域内的所有发声装置进行发声;当检测出音频数据中的声道信息为右声道时,则此时输出的音频为右声道的音频,此时可驱动中线以右的显示区域内的所有发声装置进行发声。
同理,如果音频数据的声道信息包括左声道、中声道和右声道时,则可以将显示装置内的所有发声装置分成左中右三部分,左侧的所有发声装置对应于左声道,中间部分的所有发声装置对应于中声道,右侧的所有发声装置对应右声道。那么当检测出音频数据中的声道信息为左声道时,则此时输出的音频为左声道的音频,此时可驱动左侧显示区域内的所有发声装置进行发声;当检测出音频数据中的声道信息为中声道时,则此时输出的音频为中声道的音频,此时可驱动中间区域的显示区域内的所有发声装置进行发声;当检测出音频数据中的声道信息为右声道时,则此时输出的音频为右声道的音频,此时可驱动右侧显示区域内的所有发声装置进行发声。
本发明实施例中的同步发声控制方法不仅考虑到动态目标与发声装置的匹配,还对动态目标与发声装置之间的位置关系考量,由此提升发声装置的同步的准确程度。
具体地,在上述步骤S50中,驱动动态目标所属的显示区域内的发声装置播放音频数据,包括:
确定动态目标的位置与动态目标所属的显示区域内的发声装置的位置偏差是否大于第二阈值;
在动态目标的位置与动态目标所属的显示区域内的发声装置的位置偏差小于或等于第二阈值时,驱动动态目标所属的显示区域对应的发声装置播放音频数据;
在动态目标的位置与动态目标所属的显示区域内的发声装置的位置偏差大于第二阈值时,根据预设规则驱动与动态目标的位置相邻的至少两个发声装置播放音频数据。
本发明实施例为了使定位发声的效果更加真实,需要驱动与发声的动态目标最近的发声装置进行发声。如果动态目标与发声装置的位置偏差较大,则无法达到准确定位发声的效果,因此本发明实施例根据显示区域的划分以及实际分辨率的要求确定动态目标与发声装置之间位置偏差的阈值,即上述第二阈值,当动态目标与所属显示区域内的发声装置的位置偏差小于或等于第二阈值时,则说明两者位置接近,可以驱动动态目标所属显示区域内的发声装置发声;而当动态目标与所属显示区域内的发声装置的位置偏差大于第二阈值,则说明两者距离较远,直接驱动态目标所属显示区域内的发声装置发声效果并不理想。
图7为本发明实施例提供的动态目标与发声装置的位置关系示意图,如图7所示,当动态目标a的位置位于显示区域s2的边缘且靠近显示区域s3时,动态目标a的位置与显示区域s2内的发声装置202的位置相距较远,同时动态目标a的位置与显示区域s3内的发声装置203的位置相距同样较远,此时无论驱动发声装置202还是驱动发声装置203发声均不能达到理想的效果。
有鉴于此,本发明实施例可以按照预设的规则同时驱动与动态目标a相邻的至少两个发声装置202和203进行发声,通过算法模拟出趋于真实的发声效果。在具体实施时,可以根据双耳时延差效应规则和双耳强度差效应规则设计动态目标相邻的发声装置进行发声。
图8为本发明实施例提供的双耳延迟效应的原理示意图。其中,A和B分别表示人的双耳位置,S表示发声装置的位置,图中的其它线条为辅助线,用于表示各位置之间的长度或角度关系。
双耳延迟效应可以表示为:
由上式可以计算出双耳延迟差,那么对不同的发声装置配合不同的发声音量,通过驱动动态目标附近的至少两个发声装置以设定的延迟差以及不同的发声强度进行发声,可以真实还原显示图像的定位发声。
本发明实施例的另一方面,提供了一种显示装置,图9为本发明实施例提供的显示装置的结构示意图,如图9所示,显示装置包括:图像处理器30,与图像处理器30通讯连接的现场可编辑门阵列40,分别与现场可编辑门阵列40通讯连接的显示面板100和数模转换器50,以及与数模转换器50连接的发声装置20。
本发明实施例中的显示面板为主动发光型显示面板,显示面板自发光,不需要设置背光模组,有利于减薄显示装置的厚度。
本发明实施例中的发声装置20可以采用多种形式。在一种可实施的方式中,发声装置20采用集成在显示面板背离显示面一侧的微型扬声器,微型扬声器阵列排布。将显示面板安装微型扬声器的位置进行打孔,有利于声音的传导。
在另一种可实施的方式中,发声装置20采用激励器,激励器贴附于显示面板背离显示面的一侧。显示面板中的膜层以及保护玻璃等作为振膜,激励器带动显示面板震动进行发声。一个显示区域可以设置多个激励器同时工作,由此达成更高的声音响度。
在另一种可实施的方式中,发声装置20采用微机电系统(Micro-Electro-Mechanical System,简称MEMS)发声器,微机电系统发声器设置于显示面板的显示面一侧,与像素单元位于显示面板的同一侧,由于微机电系统发声器尺寸较小,可将其设置于像素单元之间的间隔位置。
上述的每个发声装置20分别连接一个数模转换器50,音频数据通过数模转换器50的数模转换之后再传输到对应的发声装置20。每个发声装置20均可以单独驱动。
如图1-图3所示,显示面板100划分为多个显示区域s,每个显示区域s内集成至少一个发声装置20。其中:
图像处理器30,用于接收待播放视频的码流数据,将码流数据分解为图像数据和音频数据发送现场可编辑门阵列40;
现场可编辑门阵列40,用于将图像数据发送显示面板100;对相邻两个图像帧对应的图像数据进行对比,确定动态目标的位置;对动态目标进行图像识别,确定出发声的动态目标,将音频数据发送与发声的动态目标所属的显示区域对应的发声装置所连接的数模转换器50;
数模转换器50,用于将接收的音频数据进行数模转换处理,并将数模转换后的音频数据发送连接的发声装置20;
发声装置20,用于接收音频数据进行音频播放;
显示面板100,用于接收图像数据进行图像显示。
在具体实施时,图像处理器30先对接收的码流数据进行解码和放大处理,再将处理后的码流数据分解为图像数据和音频数据发送给现场可编辑门阵列40。现场可编辑门阵列40可以对图像数据进行检测和识别,同时可以对音频数据进行频率变换等处理,现场可编辑门阵列40还用于对音频数据进行标识,该标识与数模转换器50相对应,将带有标识的音频数据发送到数模转换器50之后,数模转换器50可以对与之对应的音频数据进行数模转换,且与图像数据采用相同的时间轴进行音频播放。
具体地,显示面板100连接时序控制器,现场可编辑门阵列40通过将图像数据发送到时序控制器,由时序控制器控制显示面板进行图像显示。与此同时,现场可编辑门阵列40还对图像数据进行对比,确定出动态目标的位置,通过对动态目标进行图像识别,可以确定出动态目标是否为发声物体,当确定出发声的动态目标的位置之后,即确定了发声的动态目标所属的显示区域。现场可编辑门阵列40对音频数据进行频率变换,由频率的特征变化来匹配动态目标的类型,与动态目标所对应的音频数据的频率与动态目标的类型相互匹配时,即可将音频数据发送到动态目标所属显示区域内的发声装置连接的数模转换器50,由数模转换器50对音频数据进行数模转换,驱动该显示区域内的发声装置20与动态目标进行同步发声。
在实际应用过程中,如果现场可编辑门阵列40在显示图像中未检测出动态目标,则确定音频数据中是否包含声道信息;在音频数据中包含声道信息时,则将音频数据发送给声道信息对应的显示区域内的所有发声装置20连接的数模转换器50,从而驱动该显示区域内的发声装置20进行发声;在音频数据中不包含声道信息时,则将音频数据发送给所有的发声装置20对应的数模转换器50,从而驱动所有的发声装置20进行发声。
在本发明实施例中,现场可编辑门阵列40,具体用于对相邻两个图像帧对应的图像数据做差值处理,将图像数据的差值大于第一阈值的区域图像作为动态目标;将图像数据的差值大于第一阈值的区域图像的位置作为动态目标的位置。
在确定了动态目标的位置之后,现场可编辑门阵列40需要将动态目标与已知数据进行匹配,确定动态目标为哪一种发声物体,由此确定出动态目标的类型。
在确定了动态目标的类型之后,现场可编辑门阵列40,具体用于对音频数据进行频域变换,提取音频数据的频率特征;将提取出的频率特征与动态目标的类型进行匹配;在频率特征与动态目标的类型相匹配时,将音频数据发送给动态目标所属的显示区域对应的发声装置对应的数模转换器50,以使该显示区域内的发声装置20播放与动态目标的类型相匹配的音频数据;在频率特征与动态目标的类型不匹配时,确定音频数据中是否包含声道信息;在音频数据中包含声道信息时,则将音频数据发送给声道信息对应的显示区域内的所有发声装置20连接的数模转换器50,从而驱动该显示区域内的发声装置20进行发声;在音频数据中不包含声道信息时,则将音频数据发送给所有的数模转换器50,从而驱动所有的发声装置20同时播放音频数据。
在本发明实施例中,现场可编辑门阵列40在发送音频数据给数模转换器50之前,还需要确定动态目标与发声装置之间的位置关系。现场可编辑门阵列40,具体用于确定动态目标的位置与动态目标所属的显示区域内的发声装置的位置偏差是否大于第二阈值;在动态目标的位置与动态目标所属的显示区域内的发声装置的位置偏差小于或等于第二阈值时,将音频数据发送给动态目标所属的显示区域对应的发声装置对应的数模转换器,从而驱动发声装置播放音频数据;在动态目标的位置与动态目标所属的显示区域内的发声装置的位置偏差大于第二阈值时,则根据预设规则将音频数据发送至与动态目标的位置相邻的至少两个发声装置对应的数模转换器50,以驱动动态目标附近的至少两个发声装置20播放音频数据,以还原真实的发声位置。
在本发明实施例中,如图10所示,现场可编辑门阵列40可以采用串行驱动的方式驱动各发声装置20。现场可编辑门阵列40可通过一个接口将音频数据发送出来,各数模转换器50根据音频数据中的对应标识读取相应的数据进行数模转换,从而驱动对应的发声装置20发声。采用串行驱动的方式可以节省接口,分时将音频数据发送给不同的数模转换器50。
或者,如图11所示,现场可编辑门阵40还可以采用列并行驱动的方式驱动各发声装置20。每个发声装置20对应的数模转换器50分别与现场可编辑门阵40的一个接口连接,接收发声装置对应的音频数据。采用并行驱动的方式现场可编辑门阵40可以同时输出信号,具有较快的响应速度。
在实际应用中,可以根据实际需要选用不同的驱动方式对发声装置进行驱动,在此不做限定。
基于同一发明构思,本发明实施例还提供一种可读性存储介质,该可读性存储介质存储有显示装置的可执行指令,可执行指令用于使显示装置执行上述任一方法。
在具体的实施过程中,可读性存储介质可以包括:通用串行总线闪存盘USB、移动硬盘、只读存储器ROM、随机存取存储器RAM、磁碟或者光盘等各种可以存储程序代码的存储介质。
本发明实施例的技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得显示装置执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:通用串行总线闪存盘(universal serialbus flash drive)、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例将发声装置集成在显示装置中,避免外置发声装置占用更大的空间。同时可以对显示区域内的发声装置进行单独驱动,由此可以对显示画面进行定位发声,实现视频和音频的同步驱动。
本发明实施例首先将待播放的视频的码流数据分解为图像数据和音频数据,图像数据最终发送至显示面板进行图像显示,而音频数据则根据图像显示发送到显示图像所对应的显示区域内的发声装置进行同步发声。
本发明实施例对相邻两个图像帧对应的图像数据进行对比,确定出发生变化的动态目标,并对动态目标进行图像识别,从而确定出该动态目标是否为发声物体,在确定出发声的动态目标之后,将音频数据发送到发声的动态目标所属的显示区域内的发声装置,驱动发声装置匹配动态图像进行同步发声,由此达到对显示图像进行定位发声的效果。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (13)
1.一种显示装置的同步发声控制方法,其特征在于,所述显示装置包括:显示面板及集成于所述显示装置内部的多个发声装置;所述显示面板划分为多个显示区域,每个所述显示区域内集成至少一个所述发声装置;所述同步发声控制方法包括:
接收待播放视频的码流数据;
将所述码流数据分解为图像数据和音频数据;
对相邻两个图像帧对应的图像数据进行对比,确定动态目标的位置;
对所述动态目标进行图像识别,确定出发声的动态目标;
驱动所述显示面板显示所述图像数据,驱动所述发声的动态目标所属的显示区域对应的发声装置播放所述音频数据与所述显示面板的显示图像进行同步发声。
2.如权利要求1所述的方法,其特征在于,所述确定动态目标的位置,包括:
对相邻两个图像帧对应的图像数据做差值处理,将图像数据的差值大于第一阈值的区域图像作为所述动态目标;
将图像数据的差值大于第一阈值的区域图像的位置作为所述动态目标的位置。
3.如权利要求2所述的方法,其特征在于,在所述确定所述动态目标的位置之后,还包括:
检测所述动态目标的类型。
4.如权利要求3所述的方法,其特征在于,所述驱动所述发声的动态目标所属的显示区域对应的发声装置播放所述音频数据,包括:
对所述音频数据进行频域变换,提取所述音频数据的频率特征;
将提取出的所述频率特征与所述动态目标的类型进行匹配;
在所述频率特征与所述动态目标的类型相匹配时,驱动所述动态目标所属的显示区域对应的发声装置播放与所述动态目标的类型相匹配的音频数据。
5.如权利要求4所述的方法,其特征在于,所述方法还包括:
在所述频率特征与所述动态目标的类型不匹配时,确定所述音频数据中是否包含声道信息;所述声道信息对应所述显示面板的部分显示区域;
在所述音频数据中包含声道信息时,驱动所述声道信息对应的显示区域内的所有发声装置同时播放所述音频数据;
在所述音频数据中不包含声道信息时,驱动所有的发声装置同时播放所述音频数据。
6.如权利要求4所述的方法,其特征在于,所述将提取出的所述频率特征与所述动态目标的类型进行匹配,包括:
根据预先确定的发声类型与频率特征的对应表,对所述频率特征与所述动态目标的类型进行匹配。
7.如权利要求1-6任一项所述的方法,其特征在于,所述驱动所述动态目标所属的显示区域内的发声装置播放所述音频数据,包括:
确定所述动态目标的位置与所述动态目标所属的显示区域内的发声装置的位置偏差是否大于第二阈值;
在所述动态目标的位置与所述动态目标所属的显示区域内的发声装置的位置偏差小于或等于所述第二阈值时,驱动所述动态目标所属的显示区域对应的发声装置播放所述音频数据;
在所述动态目标的位置与所述动态目标所属的显示区域内的发声装置的位置偏差大于所述第二阈值时,根据预设规则驱动与所述动态目标的位置相邻的至少两个发声装置播放所述音频数据。
8.如权利要求7所述的方法,其特征在于,所述预设规则为双耳时延差效应规则和双耳强度差效应规则。
9.如权利要求1-6任一项所述的方法,其特征在于,还包括:
在所述图像数据中未检测到动态目标时,确定所述音频数据中是否包含声道信息;所述声道信息对应所述显示面板的部分显示区域;
在所述音频数据中包含声道信息时,驱动所述声道信息对应的显示区域内的所有发声装置同时播放所述音频数据;
在所述音频数据中不包含声道信息时,驱动所有的发声装置同时播放所述音频数据。
10.一种显示装置,其特征在于,包括:图像处理器,与所述图像处理器通讯连接的现场可编辑门阵列,分别与所述现场可编辑门阵列通讯连接的显示面板和数模转换器,以及与所述数模转换器连接的发声装置;
所述显示面板划分为多个显示区域,每个所述显示区域内集成至少一个所述发声装置;
所述图像处理器,用于接收待播放视频的码流数据,将所述码流数据分解为图像数据和音频数据发送所述现场可编辑门阵列;
所述现场可编辑门阵列,用于将图像数据发送显示面板;对相邻两个图像帧对应的图像数据进行对比,确定动态目标的位置;对所述动态目标进行图像识别,确定出发声的动态目标,将所述音频数据发送与所述发声的动态目标所属的显示区域对应的发声装置所连接的数模转换器;
所述数模转换器,用于将接收的所述音频数据进行数模转换处理,并将数模转换后的音频数据发送连接的所述发声装置;
所述发声装置,用于接收所述音频数据进行音频播放;
所述显示面板,用于接收所述图像数据进行图像显示。
11.如权利要求10所述的显示装置,其特征在于,所述显示面板为主动发光型显示面板;
所述发声装置为微型扬声器,所述微型扬声器位于所述显示面板背离显示面的一侧,所述显示面板对应所述微型扬声器的位置具有开孔;
或者,所述发声装置为激励器,所述激励器贴附于所述显示面板背离显示面的一侧;
或者,所述发声装置为微机电系统发声器,所述微机电系统发声器位于所述显示面板的显示面一侧,所述微机电系统发声器位于像素单元之间的间隔位置。
12.如权利要求10所述的显示装置,其特征在于,所述现场可编辑门阵列串行驱动各所述发声装置,或者,所述现场可编辑门阵列并行驱动各所述发声装置。
13.一种可读性存储介质,其特征在于,所述可读性存储介质存储有显示装置的可执行指令,所述可执行指令用于使所述显示装置执行如权利要求1-8任一项的所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010545905.2A CN113810837B (zh) | 2020-06-16 | 2020-06-16 | 一种显示装置的同步发声控制方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010545905.2A CN113810837B (zh) | 2020-06-16 | 2020-06-16 | 一种显示装置的同步发声控制方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113810837A true CN113810837A (zh) | 2021-12-17 |
CN113810837B CN113810837B (zh) | 2023-06-06 |
Family
ID=78944370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010545905.2A Active CN113810837B (zh) | 2020-06-16 | 2020-06-16 | 一种显示装置的同步发声控制方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113810837B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114416014A (zh) * | 2022-01-05 | 2022-04-29 | 歌尔科技有限公司 | 屏幕发声方法、装置、显示设备及计算机可读存储介质 |
CN114827686A (zh) * | 2022-05-09 | 2022-07-29 | 维沃移动通信有限公司 | 录制数据处理方法、装置及电子设备 |
WO2023230886A1 (zh) * | 2022-05-31 | 2023-12-07 | 京东方科技集团股份有限公司 | 音频控制方法、控制装置、驱动电路以及可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372576A (zh) * | 2016-08-23 | 2017-02-01 | 南京邮电大学 | 一种基于深度学习的智能室内入侵检测方法及系统 |
CN109194999A (zh) * | 2018-09-07 | 2019-01-11 | 深圳创维-Rgb电子有限公司 | 一种实现声音与图像同位的方法、装置、设备及介质 |
CN109194796A (zh) * | 2018-07-09 | 2019-01-11 | Oppo广东移动通信有限公司 | 屏幕发声方法、装置、电子装置及存储介质 |
CN109862293A (zh) * | 2019-03-25 | 2019-06-07 | 深圳创维-Rgb电子有限公司 | 终端喇叭的控制方法、设备及计算机可读存储介质 |
CN109960961A (zh) * | 2017-12-14 | 2019-07-02 | 中国电信股份有限公司 | 行人识别方法和装置 |
US20200092668A1 (en) * | 2010-03-23 | 2020-03-19 | Dolby Laboratories Licensing Corporation | Methods, apparatus and systems for audio reproduction |
-
2020
- 2020-06-16 CN CN202010545905.2A patent/CN113810837B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200092668A1 (en) * | 2010-03-23 | 2020-03-19 | Dolby Laboratories Licensing Corporation | Methods, apparatus and systems for audio reproduction |
CN106372576A (zh) * | 2016-08-23 | 2017-02-01 | 南京邮电大学 | 一种基于深度学习的智能室内入侵检测方法及系统 |
CN109960961A (zh) * | 2017-12-14 | 2019-07-02 | 中国电信股份有限公司 | 行人识别方法和装置 |
CN109194796A (zh) * | 2018-07-09 | 2019-01-11 | Oppo广东移动通信有限公司 | 屏幕发声方法、装置、电子装置及存储介质 |
CN109194999A (zh) * | 2018-09-07 | 2019-01-11 | 深圳创维-Rgb电子有限公司 | 一种实现声音与图像同位的方法、装置、设备及介质 |
CN109862293A (zh) * | 2019-03-25 | 2019-06-07 | 深圳创维-Rgb电子有限公司 | 终端喇叭的控制方法、设备及计算机可读存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114416014A (zh) * | 2022-01-05 | 2022-04-29 | 歌尔科技有限公司 | 屏幕发声方法、装置、显示设备及计算机可读存储介质 |
CN114827686A (zh) * | 2022-05-09 | 2022-07-29 | 维沃移动通信有限公司 | 录制数据处理方法、装置及电子设备 |
WO2023230886A1 (zh) * | 2022-05-31 | 2023-12-07 | 京东方科技集团股份有限公司 | 音频控制方法、控制装置、驱动电路以及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113810837B (zh) | 2023-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113810837B (zh) | 一种显示装置的同步发声控制方法及相关设备 | |
US9913054B2 (en) | System and method for mapping and displaying audio source locations | |
TWI687915B (zh) | 動態電視牆及其影音播放方法 | |
CN1747533A (zh) | 视听系统及其调谐方法 | |
WO2022001451A1 (zh) | 显示装置、发声控制方法及发声控制装置 | |
CN107168518B (zh) | 一种用于头戴显示器的同步方法、装置及头戴显示器 | |
US11341947B2 (en) | System and method for musical performance | |
JP2022521244A (ja) | ハイブリッドスピーカ及びコンバータ | |
WO2019069743A1 (ja) | オーディオコントローラ、超音波スピーカ、及び、オーディオシステム | |
KR102348658B1 (ko) | 표시장치 및 그 구동 방법 | |
US11743676B2 (en) | Information processing apparatus, information processing method, and program | |
CN112929739A (zh) | 发声控制方法、装置、电子设备和存储介质 | |
CN114416014A (zh) | 屏幕发声方法、装置、显示设备及计算机可读存储介质 | |
CN106534964B (zh) | 一种语速调节方法和装置 | |
Brice | Multimedia and virtual reality engineering | |
WO2023230886A1 (zh) | 音频控制方法、控制装置、驱动电路以及可读存储介质 | |
WO2024122322A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN115442549B (zh) | 电子设备的发声方法及电子设备 | |
CN114842690B (zh) | 语言课程的发音互动方法、系统、电子设备和存储介质 | |
Filimowicz | An audiovisual colocation display system | |
KR20190002003A (ko) | 음성 합성 방법 및 장치 | |
WO2023084933A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20240064486A1 (en) | Rendering method and related device | |
CN118786478A (zh) | 数据输出方法、程序、数据输出装置以及电子乐器 | |
McDonnell | Development of Open Source tools for creative and commercial exploitation of spatial audio |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |