CN114615536A - 显示设备及音效处理方法 - Google Patents
显示设备及音效处理方法 Download PDFInfo
- Publication number
- CN114615536A CN114615536A CN202210177868.3A CN202210177868A CN114615536A CN 114615536 A CN114615536 A CN 114615536A CN 202210177868 A CN202210177868 A CN 202210177868A CN 114615536 A CN114615536 A CN 114615536A
- Authority
- CN
- China
- Prior art keywords
- sound effect
- effect processing
- audio
- mode
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000694 effects Effects 0.000 title claims abstract description 196
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 257
- 230000005236 sound signal Effects 0.000 claims abstract description 37
- 238000012216 screening Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 24
- 230000004044 response Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 14
- 230000003993 interaction Effects 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000001914 filtration Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- RJWLAIMXRBDUMH-ULQDDVLXSA-N N-Acetylleucyl-leucyl-methioninal Chemical compound CSCC[C@@H](C=O)NC(=O)[C@H](CC(C)C)NC(=O)[C@H](CC(C)C)NC(C)=O RJWLAIMXRBDUMH-ULQDDVLXSA-N 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- GOLXNESZZPUPJE-UHFFFAOYSA-N spiromesifen Chemical compound CC1=CC(C)=CC(C)=C1C(C(O1)=O)=C(OC(=O)CC(C)(C)C)C11CCCC1 GOLXNESZZPUPJE-UHFFFAOYSA-N 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/4363—Adapting the video stream to a specific local network, e.g. a Bluetooth® network
- H04N21/43632—Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
- H04N21/43635—HDMI
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4398—Processing of audio elementary streams involving reformatting operations of audio signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4781—Games
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本申请提供一种显示设备及音效处理方法,所述方法可以在接收到用于输出音频信号的控制指令后,检测当前音频输出模式,并根据音频输出模式获取不同数据格式的音频数据。在音效处理环节,如果音频输出模式为低延迟模式,则对音频数据执行第一类音效处理,以减少音效处理时间;如果音频输出模式为普通模式,则对音频数据执行第二类音效处理,以提高音效品质。所述方法可以通过改变外接设备输出的声音编码格式,减少音频数据的解码时间,同时通过减少后级音效处理环节的非必要处理项,减少音效处理时间,改善低延迟模式下的音画同步效果,解决音画不同步的问题。
Description
技术领域
本申请涉及显示设备技术领域,尤其涉及一种显示设备及音效处理方法。
背景技术
显示设备是指能够输出具体显示画面的终端设备,它可以基于Internet应用技术,具备开放式操作系统与控制器,拥有开放式应用平台,可实现双向人机交互功能,集影音、娱乐、数据等多种功能于一体的电视产品,用于满足用户多样化和个性化需求。
显示设备上还设有外部装置接口,显示设备可以通过外部装置接口连接外接设备,以接收外接设备发送的音视频数据,并对音视频数据进行播放。例如,显示设备上可以设有高清多媒体接口(High Definition Multimedia Interface,HDMI),主机等外接设备可以通过HDMI接口连接显示设备,并向显示设备输出游戏画面,以利用显示设备的大屏幕对游戏画面进行展示,获得更好的游戏体验。
在游戏模式下,显示设备需要降低画面显示延迟,即进入画面低延迟模式,以使显示画面可以迅速响应用户的游戏操作。但是,由于游戏模式下还需要对游戏声音进行特定的音效处理,因此在显示设备启用画面低延迟模式后,声音相对于画面具有滞后,产生音画不同步的问题。
发明内容
本申请提供了一种显示设备及音效处理方法,以解决传统显示设备在画面低延迟模式下音画不同步的问题。
一方面,本申请提供一种显示设备,包括:显示器、外部装置接口以及控制器。其中,所述显示器被配置为显示用户界面;所述外部装置接口被配置为连接外接设备;所述控制器被配置为执行以下程序步骤:
获取用于输出音频信号的控制指令;
响应于所述控制指令,检测当前音频输出模式,所述音频输出模式为普通模式或低延迟模式;
从所述外接设备接收音频数据,所述音频数据的数据格式由所述外接设备根据所述音频输出模式确定;
如果所述音频输出模式为普通模式,对所述音频数据执行第一类音效处理;
如果所述音频输出模式为低延迟模式,对所述音频数据执行第二类音效处理,所述第一类音效处理的处理时间大于所述第二类音效处理的处理时间。
另一方面,本申请还提供一种音效处理方法,应用于第一方面提供的显示设备,所述音效处理方法包括以下步骤:
获取用于输出音频信号的控制指令;
响应于所述控制指令,检测当前音频输出模式,所述音频输出模式为普通模式或低延迟模式;
从所述外接设备接收音频数据,所述音频数据的数据格式由所述外接设备根据所述音频输出模式确定;
如果所述音频输出模式为普通模式,对所述音频数据执行第一类音效处理;
如果所述音频输出模式为低延迟模式,对所述音频数据执行第二类音效处理,所述第一类音效处理的处理时间大于所述第二类音效处理的处理时间。
由以上技术方案可知,本申请提供的显示设备及音效处理方法,可以在接收到用于输出音频信号的控制指令后,检测当前音频输出模式,并根据音频输出模式获取不同数据格式的音频数据。在音效处理环节,如果音频输出模式为低延迟模式,则对音频数据执行第一类音效处理,以减少音效处理时间;如果音频输出模式为普通模式,则对音频数据执行第二类音效处理,以提高音效品质。所述方法可以通过改变外接设备输出的声音编码格式,减少音频数据的解码时间,同时通过减少后级音效处理环节的非必要处理项,减少音效处理时间,改善低延迟模式下的音画同步效果,解决音画不同步的问题。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中显示设备应用场景结构示意图;
图2为本申请实施例中显示设备硬件配置示意图;
图3为本申请实施例中显示设备与外接设备连接关系示意图;
图4为本申请实施例中连接接口形式示意图;
图5为本申请实施例中根据识别标识获取音视频数据的流程示意图;
图6为本申请实施例中图像设置界面示意图;
图7为本申请实施例中显示模式菜单示意图;
图8为本申请实施例中自动快速游戏响应数据传递关系图;
图9为本申请实施例中显示设备音效处理流程示意图;
图10为本申请实施例中信号源切换界面示意图;
图11为本申请实施例中检测音频输出模式的流程示意图;
图12为本申请实施例中接收音频数据的流程示意图;
图13为本申请实施例中不同模式下音频输出流程图;
图14为本申请实施例中音效处理方法流程示意图。
具体实施方式
为使本申请的目的和实施方式更加清楚,下面将结合本申请示例性实施例中的附图,对本申请示例性实施方式进行清楚、完整地描述,显然,描述的示例性实施例仅是本申请一部分实施例,而不是全部的实施例。
需要说明的是,本申请中对于术语的简要说明,仅是为了方便理解接下来描述的实施方式,而不是意图限定本申请的实施方式。除非另有说明,这些术语应当按照其普通和通常的含义理解。
本申请中说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”等是用于区别类似或同类的对象或实体,而不必然意味着限定特定的顺序或先后次序,除非另外注明。应该理解这样使用的用语在适当情况下可以互换。
术语“包括”和“具有”以及他们的任何变形,意图在于覆盖但不排他的包含,例如,包含了一系列组件的产品或设备不必限于清楚地列出的所有组件,而是可包括没有清楚地列出的或对于这些产品或设备固有的其它组件。
本申请实施方式提供的显示设备可以具有多种实施形式,例如,可以是电视、激光投影设备、显示器(monitor)、电子白板(electronic bulletin board)、电子桌面(electronic table)等。
图1为根据实施例中显示设备与控制装置之间操作场景的示意图。如图1所示,用户可通过控制设备300或控制装置100操作显示设备200。
在一些实施例中,控制装置100可以是遥控器,遥控器和显示设备的通信包括红外协议通信或蓝牙协议通信,及其他短距离通信方式,通过无线或有线方式来控制显示设备200。用户可以通过遥控器上按键、语音输入、控制面板输入等输入用户指令,来控制显示设备200。
在一些实施例中,也可以使用控制设备300(如移动电话、平板电脑、计算机、笔记本电脑等)以控制显示设备200。例如,使用在控制设备300上运行的应用程序控制显示设备200。
在一些实施例中,显示设备200可以不使用上述的控制设备300或控制装置100接收指令,而是通过触摸或者手势等接收用户的控制。
在一些实施例中,显示设备200还可以采用除了控制装置100和控制设备300之外的方式进行控制,例如,可以通过显示设备200设备内部配置的获取语音指令的模块直接接收用户的语音指令控制,也可以通过显示设备200设备外部设置的语音控制设备来接收用户的语音指令控制。
在一些实施例中,显示设备200还与服务器400进行数据通信。可允许显示设备200通过局域网(LAN)、无线局域网(WLAN)和其他网络进行通信连接。服务器400可以向显示设备200提供各种内容和互动。服务器400可以是一个集群,也可以是多个集群,可以包括一类或多类服务器。
如图2所示,显示设备200可以包括调谐解调器210、通信器220、检测器230、外部装置接口240、控制器250、显示器260、音频输出接口270、存储器、供电电源、用户接口中的至少一种。
在一些实施例中,控制器250可以包括处理器,视频处理器,音频处理器,图形处理器,RAM,ROM,用于输入/输出的第一接口至第n接口。
显示器260可以包括以下组件,即:用于呈现画面的显示屏组件;驱动图像显示的驱动组件;用于接收源自控制器250输出的图像信号,进行显示视频内容、图像内容以及菜单操控界面的组件以及用户操控UI界面的组件等。
显示器260可为液晶显示器、OLED显示器、以及投影显示器,还可以为一种投影装置和投影屏幕。
通信器220是用于根据各种通信协议类型与外部设备或服务器进行通信的组件。例如:通信器可以包括Wifi模块,蓝牙模块,有线以太网模块等其他网络通信协议芯片或近场通信协议芯片,以及红外接收器中的至少一种。显示设备200可以通过通信器220与外部控制设备100或服务器400建立控制信号和数据信号的发送和接收。
用户接口,可用于接收控制装置100(如:红外遥控器等)的控制信号。
检测器230用于采集外部环境或与外部交互的信号。例如,检测器230包括光接收器,用于采集环境光线强度的传感器;或者,检测器230包括图像采集器,如摄像头,可以用于采集外部环境场景、用户的属性或用户交互手势,再或者,检测器230包括声音采集器,如麦克风等,用于接收外部声音。
外部装置接口240可以包括但不限于如下:高清多媒体接口接口(HDMI)、模拟或数据高清分量输入接口(分量)、复合视频输入接口(CVBS)、USB输入接口(USB)、RGB端口等任一个或多个接口。也可以是上述多个接口形成的复合性的输入/输出接口。
调谐解调器210通过有线或无线接收方式接收广播电视信号,以及从多个无线或有线广播电视信号中解调出音视频信号,如以及EPG数据信号。在一些实施例中,控制器250和调谐解调器210可以位于不同的分体设备中,即调谐解调器210也可在控制器250所在的主体设备的外置设备中,如外置机顶盒等。
控制器250,通过存储在存储器上中各种软件控制程序,来控制显示设备的工作和响应用户的操作。控制器250控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器260上显示UI对象的用户命令,控制器250便可以执行与由用户命令选择的对象有关的操作。
在一些实施例中,控制器250包括中央处理器(Central Processing Unit,CPU),视频处理器,音频处理器,图形处理器(Graphics Processing Unit,GPU),RAM RandomAccess Memory,RAM),ROM(Read-Only Memory,ROM),用于输入/输出的第一接口至第n接口,通信总线(Bus)等中的至少一种。
在本申请实施例中,显示设备200连接外接设备500是指建立通信连接,而建立通信连接的显示设备200和外接设备500分别作为接收端(Sink端)和发送端(source端)。例如,如图3所示,外接设备500可以是游戏设备,在用户使用游戏设备过程中,能够针对游戏过程实时输出视频数据和音频数据,并将视频数据和音频数据发送给显示设备200,以通过显示设备200将视频数据和音频数据输出为视频画面和声音。此时,游戏设备作为发送端,而显示设备200作为接收端。
发送端与接收端之间,可以通过特定接口实现通信连接,从而传递数据。为此,在发送端和接收端上都应设有同一种接口规范和功能的数据接口。例如,如图4所示,在显示设备200和外接设备500上都均设有高清多媒体接口(High Definition MultimediaInterface,HDMI)。在使用过程中,用户可以将HDMI接口数据线的两端分别插在显示设备200和外接设备500上,并在启动外接设备500和显示设备200后,设定显示设备200的信号源为HDMI接口,从而实现显示设备200与外接设备500之间的数据传输。
需要说明的是,为了实现显示设备200与外接设备500之间的通信连接,显示设备200与外接设备500之间还可以采用其他的连接方式。具体的连接方式可以是有线的连接方式,如DVI(Digital Visual Interface)、VGA(Video Graphics Array)、USB(UniversalSerial Bus)等;也可以是无线的连接方式,如无线局域网、蓝牙连接、红外连接等。不同的通信连接方式可以采用不同的信息传递协议,例如采用HDMI接口实现连接时,可以采用HDMI协议进行数据传输。
显示设备200和外接设备500之间传递的数据可以为音视频数据。例如,显示设备200可以通过HDMI接口连接游戏盒子等游戏设备。用户进行游戏操作时,游戏设备可以通过运行游戏相关应用程序,输出视频数据和音频数据。视频数据和音频数据可以通过HDMI协议发送给显示设备200,并通过显示设备200的屏幕和扬声器进行输出,播放游戏设备的视频和音频。
外接设备500可以在连接显示设备200以后,基于特定的标准进行数据传递,以使显示设备200可以与外接设备500之间建立进行相互识别并建立数据传输通道。例如,如图5所示,根据HDMI接口协议指定的传输规则,显示设备200可以基于扩展显示器识别数据(Extended Display Identification Data,EDID)与外接设备500建立连接,并实现相互识别和控制。
在一些实施例中,显示设备200可以通过EDID向外接设备500发送当前支持的音视频数据解码功能,以使外接设备500可以根据显示设备200对音视频数据解码功能的支持情况,发送音视频数据。为了便于描述,在本申请实施例中,可以将外接设备500向显示设备200发送的音频数据和视频数据统称为音视频数据。显然,音视频数据是由外接设备500通过运行特定的应用程序生成。例如,当外接设备500为游戏设备时,视频数据对应游戏画面,音频数据对应游戏音效。游戏画面可以通过视频数据的方式发送给显示设备200,游戏音效则通过音频数据的方式发送给显示设备200。
建立的数据传输通道除用于传递视频数据和音频数据外,还可以用于传递识别信息。识别信息可以包括显示设备200的识别标识和外接设备500的识别标识。例如,外接设备500可以向显示设备200发送视频数据和音频数据的同时,接收显示设备200发送的EDID信息。在接收到EDID信息后,外接设备500可以在EDID信息中读取当前显示设备200的识别标识,以通过识别标识确定显示设备200支持的音视频解码功能。
显然,对于不同硬件配置的显示设备200,其对应支持的音视频解码能力是不同的。例如,对于音频数据,当显示设备200具有独立的音频处理芯片时,可以通过音频处理芯片对外接设备500发送的音频数据进行解码,并进行数字化影院系统(Digital TheaterSystem,DTS)、杜比(dobly)等音效处理。而对于没有独立音频处理芯片的显示设备200,则一般获取音频脉冲编码调制(Pulse Code Modulation,PCM)数据或线型脉冲编码调制(Linear Pulse Code Modulation,LPCM)数据,并在解码后直接输出音频。
对于部分连接显示设备200的外接设备500,由于其在使用中需要快速完成画面和声音的响应,因此显示设备200可以在这类外接设备500运行时,提供低延迟模式。例如,当外接设备500为游戏设备,且游戏设备运行要求响应速度较快的动作类、射击类、竞速类游戏时,用户期望在执行游戏交互操作后的极短时间内,显示设备200应能够呈现对应的游戏画面变化以及播放游戏音效。此时,显示设备200可以进入低延迟模式,即显示设备200可以通过关闭部分非必要的画质处理程序,直接通过bypass(旁路)的方式将视频数据进行解码输出,以及时呈现在显示设备200的屏幕上。其中,旁路功能是一种通过特定的触发状态让两个设备直接在物理上导通的传输方式。在两个设备之间建立旁路功能连接后,传输的数据无需再进行封包处理,source端设备可以直接将原始数据传输到sink端设备,提高传输效率。
低延迟模式可以作为一种播放模式内置在显示设备200的操作系统内,以供用户选择启用或禁用。例如,在显示设备200的操作系统中,可以内置图像模式控制程序,该控制程序可以通过具体的模式调节界面进行用户交互。即如图6所示,在模式调节界面中,可以在控制菜单中设置模式选项,用户可以通过点击普通模式选项或低延迟模式选项,设定显示设备200的图像输出模式。
需要说明的是,所述普通模式和低延迟模式在实际应用中可以根据操作系统风格或显示设备200的类型设定为不同具体模式名称。例如,如图7所示,普通模式也可以称为:生动模式(Vivid)、标准模式(Standard)、节能模式(Energy Saving)、剧场模式,包括白天模式(Theater Day)和夜晚模式(Theater Night)、制片人模式(Filmmaker)等。低延迟模式也可以称为游戏模式(Game)、快速响应模式(Rapid Response)等。
在一些实施例中,低延迟模式可以有多种进入方式。例如,如图8所示,用户选择可以通过图像模式调节界面,选中游戏模式选项控制显示设备200进入低延迟模式。用户还可以在显示设备200的设置界面中选择开启快速游戏响应(Instant Game Response)开关,即设置为“on”控制显示设备200进入低延迟模式。用户还可以在设置界面的快速游戏响应响应中设置为自动,即Instant Game Response=auto,则在显示设备200检测到片源信息中包含自动低延迟模式(Auto Low Latency Mode,ALLM)标志位时,控制显示设备200进入低延迟模式。
对于启用低延迟模式的显示设备200,其可以快速完成画面渲染,将用户交互操作与画面呈现时间差控制在合理的延迟时间内。在显示不同类型的画面时,对画面延迟的需求也不同。例如,游戏设备可以当显示射击类、动作类等游戏画面时,一般要求交互操作与画面呈现时间差小于或等于16ms,以保证游戏画面的实时响应,提高用户的游戏体验。而当显示休闲类游戏画面时,则在交互操作与画面呈现时间差在小于或等于100ms的范围内都是可以被允许的。
由于部分显示设备200中还可能内置有音效处理模块,音效处理模块能够对显示设备200接收到音频数据进行处理,调整音频数据中的部分参数,以获得适应特定场景的音效。这些音效处理过程也同样会消耗一定的时间,即产生音画不同步的问题。例如,当显示设备200的图像模式处于低延迟模式时,视频数据通过bypass输出,减少延迟时间。则相对而言,音频数据的处理速度会慢于视频数据的处理速度,使得音视频数据的播放时间差在120-150ms范围内,即声音滞后图像150ms左右,明显超出人类的主观感受范围。
为了缓解音画不同步的问题,在一些实施例中,显示设备200可以采用“快等慢”的原则,将先处理完的音频数据或视频数据延迟输出,待另一种数据完成处理后,再同步进行播放。例如,在低延迟模式下,显示设备200需要延后图像处理,即缓存图像数据,等待声音数据,来实现声音和图像的同步。
但是,基于“快等慢”原则进行的音画同步方式,会增加交互动作和显示画面(或播放音效)之间的响应时间,例如,低延迟模式对图像延迟的要求为小于或等于16ms,则在0-16ms的范围内进行延迟等待调节的意义不大,不能有效缓解音画不同步的问题。而再延长等待时间,则使得图像延迟时间超过16ms,无法达到低延迟效果。而且,于快等慢原则进行的音画同步方式,缓存图像的成本较高。图像数据根据不同的格式,每帧图像占用的内存不一样,格式越高,占用内存越大。以4K视频为例,4k视频的每帧图像约30MB的数据量,则通过缓存图像数据的方法,根据人眼的生理结构,低于15帧,人眼可感受到视觉暂留,因此最低需要缓存8帧,就需要240M以上的内存容量,很多显示设备200的内存容量无法支持。
为了改善上述响应时间过长和内存要求过大,同时缓解音画不同步的问题,在本申请的部分实施例中还提供一种音效处理方法,所述音效处理方法应用于显示设备200。为了满足所述音效处理方法是实施,显示设备200需要具有一定的硬件支持。即显示设备200包括显示器260、外部装置接口240以及控制器250。其中,显示器260用于通过用户界面显示外接设备500发送的音频数据对应的画面,外部装置接口240则用于连接外接设备500的输出模块510,以获得音视频数据。如图9所示,控制器250用于执行所述音效处理方法对应的程序步骤,具体包括以下内容:
获取用于输出音频信号的控制指令。在本申请实施例中,用于输出音频信号的控制指令是指控制显示设备200输出外接设备500发送的音频信号的控制指令。因此,用于输出音频信号的控制指令可以通过用户的手动输入,也可以由显示设备200通过对当前运行状态的判断自动生成。
在一些实施例中,用户可以通过切换显示设备200的信号源为外接设备500,输入用于输出音频信号的控制指令。例如,当显示设备200显示控制主页界面时,用户可以通过控制装置100上的方向键控制焦点光标移动,选中控制主页界面中的信号源控件。选中信号源界面后,显示设备200可以弹出信号源列表窗口,其中包括连接显示设备200的所有外接设备500名称和网络名称。如图10所示,用户再控制焦点光标进行移动,待焦点光标移动至“游戏机”选项位置,按下确认键,则控制显示设备200的信号源为外接设备500,即输入用于输出音频信号的控制指令。
显然,用户还可以通过其他交互方式,控制显示设备200进行信号源切换,即通过其他交互方式输入用于输出音频信号的控制指令。例如,在控制装置100上可以设有信号源按键,用户可以通过信号源按键控制显示设备200在任意界面切换至信号源选择界面,以选中外接设备500作为信号源。而对于支持触控交互操作的显示设备200,用户可以通过触摸交互,选中信号源选项,以及在信号源选择界面中选中外接设备500对应的选项。此外,对于支持语音交互的显示设备200,用户可以通过输入诸如“切换信号源至游戏机”、“我想玩游戏”的语音内容,触发显示设备200进行信号源切换,从而获取用于输出音频信号的控制指令。
在一些实施例中,显示设备200可以在检测到外接设备500接入时,自动生成用于输出音频信号的控制指令。例如,在显示设备200运行过程中,用户在显示设备200的HDMI接口插入游戏盒子等外接设备500时,由于显示设备200支持热插拔操作,因此可以检测到有外接设备500连接,此时显示设备200可以自动进行信号源切换,即生成用于输出音频信号的控制指令。从而接收游戏盒子发送的音视频数据以进行播放,等同于显示设备200获取用于输出音频信号的控制指令。
此外,显示设备200可以在检测到外接设备500有音视频数据输入时,自动生成用于输出音频信号的控制指令。即显示设备200可以实时监测各接口的数据输入情况,当任意接口有音视频数据输入时,可以触发显示设备200显示提示界面,提示用户可以进行信号源切换。此时,如果用户确定进行信号源切换,则显示设备200生成用于输出音频信号的控制指令。
在获取用于输出音频信号的控制指令后,显示设备200可以响应于该控制指令,检测当前音频输出模式。其中,所述音频输出模式为普通模式或低延迟模式中的一种。普通模式下的显示设备200可以按照默认的音效处理方式,对外接设备500发送的音频数据进行音效处理,以提高外接设备500的音频输出质量。低延迟模式下显示设备200可以快速响应外接设备500的输出操作,即在接收到音频数据或视频数据时,可以快速对数据执行播放,以降低音频输出与交互动作的延迟时间,提高响应速度。
由于用户在实际应用中可以手动设置显示设备200的音频输出模式,因此显示设备200可以根据用户设定的状态检测当前音频输出模式。如图11所示,在一些实施例中,显示设备200可以在用户输入用于输出音频信号的控制指令后,获取显示设备200的声音低延迟开关状态。根据用户的设置,低延迟开关状态可以包括开启状态、关闭状态以及自动状态中的一种。如果声音低延迟开关状态为开启状态,则确定音频输出模式为低延迟模式;如果声音低延迟开关状态为关闭状态,则确定音频输出模式为普通模式。
例如,用户可以通过显示设备200上的按键或显示设备200配套的控制装置100上的按键,调出设置菜单界面。并通过方向键控制设置菜单界面上的焦点光标进行移动。当用户将焦点光标移动至低延迟模式选项,并按下“确认键”以后,开启显示设备200的低延迟模式,即设置低延迟开关状态为开启,并存储在备份数据中。此时显示设备200可以在备份数据中更新声音低延迟开关状态。
在一些实施例中,如果声音低延迟开关状态为自动状态,获取图像低延迟开关状态,以及根据图像低延迟开关状态设置当前音频输出模式。显示设备200的画面低延迟模式和声音低延迟模式可以统一配置在一种模式中,即低延迟模式。则在用户选择开启或关闭低延迟模式时,显示设备200可以同时启用画面低延迟模式和声音低延迟模式。画面低延迟模式和声音低延迟模式也可以是相互独立的两种模式,并支持用户进行分别设定。例如,两种低延迟模式可以分别在不同的设置菜单或界面中,即画面低延迟模式选项可以在图像设置选项的下级菜单中,而声音低延迟模式则在声音设置选项的下级菜单中。
因此,当声音低延迟开关状态为自动状态时,显示设备200可以先获取外接设备500发送的音视频数据;并从音视频数据中提取片源信息,其中,片源信息为按照显示设备200和外接设备500之间的传输协议建立的信息性数据内容,可以用于传递显示设备200和外接设备500的各自运行状态和控制指令,实现协同控制。即片源信息中包括自动低延迟模式标志位。再读取自动低延迟模式标志位的状态值,显然,所述状态值由外接设备500根据当前音视频数据输出要求设定。如果状态值为开启,标记音频输出模式为低延迟模式;如果状态值为关闭,标记音频输出模式为普通模式。
例如,用户可以在设置界面的快速游戏响应中设置为自动,则在显示设备200读取到快速游戏响应设置为自动状态后,可以通过接收外接设备500发送的音视频数据,并从音视频数据中提取片源信息。片源信息中可以包括游戏类型、游戏设备的设置状态、传输协议等参数位,其中,根据外接设备500的设定,片源信息中游戏设备的设置状态可以包括ALLM标志位。则显示设备200可以通过读取ALLM标志位,如果ALLM标志位的值为表示游戏设备已开启自动低延迟模式的状态值时,即ALLM=true,则确定外接设备500需求为开启低延迟模式。因此显示设备200可以自动进入低延迟模式,即设置低延迟开关状态为开启,并存储在备份数据中。同理,显示设备200可以在备份数据中更新声音低延迟开关状态。
在检测音频输出模式后,显示设备200可以从外接设备500接收音频数据,其中,音频数据的数据格式可以由外接设备根据音频输出模式确定。即在一些实施例中,显示设备200还可以将音频输出模式发送给外接设备500,以使外接设备500可以根据音频输出模式设定发送的音频数据的数据格式。
如图12所示,显示设备200可以先获取当前音频输出模式的检测结果,即确定当前音频输出模式为普通模式或低延迟模式。如果音频输出模式为低延迟模式,则可以设置第一识别标识,其中,第一识别标识用于触发外接设备发送第一音频数据。再将第一识别标识发送给外接设备500,以触发外接设备500可以向显示设备200发送适应低延迟模式的第一音频数据。因此,显示设备200可以在将第一识别标识发送给外接设备500后,接收外接设备500根据第一识别标识发送的第一音频数据。
例如,外接设备500通过EDID识别显示设备200时,EDID对应的识别数据中可以包括识别标识对应的参数位。外接设备500通过读取参数位上的具体数据值,可以获得显示设备200支持的数据处理情况。则其中,用于表示当前显示设备200支持PCM、LPCM等第一类音效处理的标识为第一识别标识;用于表示当前显示设备200支持DTS、dobly等第二类音效处理的标识为第二识别标识。
对于,PCM、LPCM等第一类音效处理,其对于音频数据的要求较低,如只需包含内容音频或第一类的均衡处理即可,而DTS、dobly等第二类音效处理,则其对于音频数据的要求较高,在包含内容音频的同时,还带有环境音、方位音等音效音频,使得显示设备200对第二音频的音效处理时间比第一音频的音效处理时间更长,不利于实现低延迟模式。因此,在本实施例中,显示设备200可以在启动低延迟模式后,对EDID对应的识别数据进行修改,即对EDID数据中用于表征HDMI RX接口的数据表项更改为支持32kHz、44.1kHz和48kHz等LPCM形式,使识别标识对应的参数位设置为PCM、LPCM等第一类音效对应的第一识别标识。
由于EDID等识别标识所在的识别数据一般通过协议数据形式发送给外接设备500,因此,在一些实施例中,显示设备200可以从与外部装置接口240对应的协议数据中提取初始标识配置文件,即提取未修改为第一识别标识时记载识别标识的文件。再对初始标识配置文件中的识别标识内容进行读取,如果初始标识配置文件中的识别标识为第二识别标识,即告知外接设备500当前显示设备200支持第二类音效处理,外接设备500向显示设备200发送第二类音效处理算法适应的音频数据。此时,显示设备200可以删除初始标识配置文件,并创建更新标识配置文件。其中,更新标识配置文件的识别标识为第一识别标识,即告知外接设备500当前显示设备200支持低级音效处理。再将更新标识配置文件添加至协议数据中,以使外接设备500向显示设备200发送低级音效处理算法适应的音频数据。
例如,在未启动低延迟模式时,显示设备200发送给外接设备500的协议数据中包括识别标识为支持DTS音效的协议数据,则外接设备500可以向显示设备200发送DTS音效对应的音频数据。当显示设备200检测到用户启动低延迟模式后,显示设备200可以将协议数据中的初始标识配置文件删除,再创建识别标识为支持PCM音效处理的更新标识配置文件,以使外接设备500可以向显示设备200发送PCM音频数据,减少显示设备200对音频数据的处理时间。
同理,如果显示设备200的当前音频输出模式为普通模式,则可以设置第二识别标识。其中,第二识别标识用于触发外接设备发送第二音频数据,第二音频数据的音效处理时间大于第一音频数据的音效处理时间。再将第二识别标识发送给外接设备500,以便接收外接设备500根据第二识别标识发送的第二音频数据。
可见,为了适应低延迟模式,显示设备200可以在检测到用户开启低延迟模式后,通过修改显示设备200的识别标识,使外接设备500可以根据显示设备200的识别标识调整输送的音频数据格式,使得显示设备200可以接收到音效处理时间较短的音频数据,降低音频输出与用户交互之间的延迟,改善音画同步性能。例如,当外接设备500向显示设备200发送LPCM音频数据时,显示设备200可以在音效处理时,省略掉全部或部分音频解析(AudioParser)、解码(Decoder)、以及PCM音频序列(PCM First Input First Output,PCM FIFO)等环节,减少音频处理时间。
由于在低延迟模式下,显示设备200输出音频信号的时效对于用户体验的影响更大,因此在显示设备200检测到用户开启低延迟模式后,显示设备200可以对音频数据的音效处理策略进行进一步调整,即在从外接设备500处接收到音频数据后,显示设备200可以针对不同音频输出模式,对接收到的音频数据执行不同的音效处理方式。如果音频输出模式为低延迟模式,对音频数据执行第一类音效处理;如果音频输出模式为普通模式,对音频数据执行第二类音效处理。显然,第二类音效处理的处理时间大于第一类音效处理的处理时间。
在一些实施例中,显示设备200可以在接收到音频数据后,对接收到的音频数据进行解码,以获得音频信号。再根据不同的音频输出模式,调用不同的音效处理算法,对音频信号进行调节处理,即启动音效处理进程。如果显示设备200的当前音频输出模式为低延迟模式,则可以调用第一类音效处理算法,以及按照第一类音效处理算法对音频信号执行调节处理;如果显示设备200的当前音频输出模式为普通模式,则可以调用第二类音效处理算法,以及按照第二类音效处理算法对音频信号执行调节处理,以分别获得不同的音效的音频数据。最后,显示设备200可以对调节处理后的音频信号进行播放,完成音频输出。
例如,在低延迟模式下,显示设备200接收到的LPCM数据也需要进行一些音效处理,其中,部分音效处理为第一类的音效处理,如均衡处理、左右声道处理等芯片基础音效处理。部分音效处理为第二类的音效处理,如杜比音效进程(dobly audio processing)、数字化影院模拟音效处理进程(DTS virtual X processing)等。由于第二类音效处理会延长音频数据的输出时间,因此在检查到当前音频输出模式为低延迟模式时,显示设备200可以禁用第二类音效处理进程,即禁用杜比音效进程、DTS进程等,仅保留芯片基础音效处理(SOC sound effect)进程,降低音频输出延迟。
而在普通模式下,显示设备200接收到的DTS数据需要进行音效处理,即显示设备200可以先对接收到的DTS音效的音频数据进行解码,得到音频信号。再调用第二类音效处理进程DTS virtual X processing,并将音频信号通过DTS virtual X processing进行处理,使DTS virtual X processing可以对音频信号中的音效音频进行处理,提高或缩小部分声道的音量、调整音色等,从而改善音频信号的输出品质,获得影院效果。
可见,上述实施例提供的音效处理方法可以在显示设备200处于不同的音频输出模式下,获取不同数据格式的音频数据,同时针对不同音效输出模式下获取的音频数据,可以采用不同的音效处理方式。因此,如图13所示,显示设备200可以在低延迟模式下,使用芯片基础音效处理代替高级音效处理,进一步减小声音处理时间。经实际应用检测,声音低延迟模式下采用上述音效处理方式,可以使声音延迟维持在50ms以内,保证用户主观感受上音画是同步的。
显示设备200支持的第一类音效处理可以包括多个音效处理项,例如均衡处理、声道处理等。而对于不同音频格式版本和片源类型,所需要的第一类音效处理项目是不同的。因此,在一些实施例中,显示设备200还可以在对音频数据执行第一类音效处理时,根据音频格式版本、片源类型以及每个音效处理项的处理时长,对基础音效处理进程中的处理项目进行进一步筛选。
即显示设备200可以获取当前支持的基础处理项目集合,其中,基础处理项目集合中的音效处理项为第一类音效处理的音效处理项。再通过解析音频数据,以获得音频数据的当前格式版本。由于不同的音频格式版本需求的音效处理形式不同,因此在获取当前格式版本后,可以根据当前格式版本需求的音效处理项,在基础处理项目集合中筛选出必要音效处理项,再通过调用所述必要音效处理项对应的音效处理算法,并使用所述必要音效处理项对应的音效处理算法对音频数据执行音效处理。
例如,对于PCM数据的第一类音效处理可以包括单声道(Mono)、双声道(Stereo)、5.1声道、7.1声道等音效处理项目,即形成基础处理项目集合。对于较低版本的PCM数据,只支持单声道或双声道音效处理,而较高版本的PCM数据则可以支持5.1声道、7.1声道音效处理。因此,显示设备200在获取音频数据后,通过解析音频数据对应的PCM版本,当解析到PCM格式版本为低版本时,可对基础音效处理项目集合中的处理项目进行筛选,以获得必要音效处理项单声道或双声道音效,从而仅启用单声道或双声道音效处理方式对音频数据进行第一类音效处理。
需要说明的是,在筛选必要音频处理项的过程中,显示设备200还可以对自身硬件配置进行检测,确定音频输出模块对应的硬件配置情况。例如,当显示设备200仅具有但扬声器时,音频输出仅需要单声道信号即可,因此显示设备200还可以在必要音频处理项中筛选出单声道处理项目,以启动单声道处理项对音频数据进行音效处理。
由于不同片源类型的音视频数据时,对音效处理的需求不同,因此在一些实施例中,显示设备200还可以根据片源类型对基础处理项目集合中的音效处理项进行筛选。其中,所述片源类型用于表示外接设备500向显示设备200发送的音视频数据类型,当外接设备500处于不同的运行状态时,显示设备200可以接收到不同的音视频数据类型。片源类型可以在显示设备200初次获取音视频数据时,过读取音视频数据的信息数据获得,也可以通过对音视频数据执行图像处理,并根据图像处理结果进行识别获得。
为了实现基于片源类型的音效处理项筛选过程,显示设备200可以在获取当前显示设备支持的基础处理项目集合后,获取外接设备500发送的片源信息。再从片源信息中读取外接设备的当前片源类型,从而根据当前片源类型在基础处理项目集合中筛选出非必要音效处理项,以禁用非必要音效处理项对应的音效处理算法。
例如,当外接设备500为游戏设备,且运行休闲类游戏时,由于声音方位对用户体验的影响较小,因此为了快速响应,实现声音信号的输出,显示设备200可以仅采用单声道模式进行音效处理。此时,双声道音效处理项、5.1声道音效处理项以及7.1声道音效处理项对于当前的休闲类游戏对应的片源类型均属于非必要音效处理项,因此,显示设备200可以禁用这些音效处理项,仅使用单声道模式进行音效处理,以提高音效响应速度,降低音频输出延迟。
需要说明的是,在对基础处理项目集合中的音效处理项进行筛选的过程中,显示设备200可以仅根据音频数据格式版本,或者仅根据片源类型进行筛选,也可以同时根据音频数据的格式版本和片源类型进行筛选。例如,显示设备200可以先根据音频数据的格式版本进行一次筛选,筛选出必要的音频处理项。再从必要的音频处理项中匹配适应当前片源类型的音效处理项,从而通过两次筛选后的音效处理项进行最终的音效处理。
在筛选出音频处理项以后,如果输出响应时间仍在合理的范围内,并维持在较小的响应延迟状态下时,显示设备200可以还通过启用附加音效处理项的方式,在必要音效处理项的基础上,进一步启用能够提升音效品质,并对输出延迟影响较小的音效处理项。
在一些实施例中,显示设备200可以在获取当前显示设备支持的基础处理项目集合后,获取基础处理项目集合中每个音效处理项的平均处理时长。其中,平均处理时长可以通过对显示设备200的性能统计获得,也可以根据当前显示设备200的硬件配置以及每个音效处理项的算法复杂程度进行推算获得。
在获取平均处理时长后,显示设备200可以根据平均处理时长在基础处理项目集合中筛选出附加音效处理项。调用附加音效处理项对应的音效处理算法,并使用附加音效处理项对应的音效处理算法对音频数据执行音效处理,以在允许延迟范围内,提高输出音频的音质。
其中,所述附加音效处理项为平均处理时长小于或等于剩余时长阈值的音效处理项。而剩余时长阈值根据必要处理项的总时长与预设允许延迟计算获得。例如,在低延迟模式下,用户允许的声音输出最大延迟为15ms,即在对音频数据进行解码后的15ms内输出音频。则经过基于音频数据的格式版本和/或片源类型等参数进行筛选后,确定的必要音频处理项为单声道模式音效处理,该必要音频处理项的处理时长为5ms,则可以计算获得剩余时长阈值为15ms。
此时,显示设备200可以在筛选出必要音频处理项后的基础处理项目集合中确定平均处理时长小于15ms的基础音频处理项作为附加音效处理项,即均衡处理(平均处理时长为8ms)。因此,显示设备200在启用必要音频处理项单声道模式处理项后,还可以启用均衡处理项,以在允许的低延迟状态下,提升音频数据的输出音质。
基于上述音效处理方法,在本申请的部分实施例中还提供一种显示设备200。所述显示设备200包括:显示器260、外部装置接口240以及控制器250。其中,所述显示器260被配置为显示用户界面;所述外部装置接口被配置为连接外接设备;如图14所示,所述控制器250被配置为执行以下程序步骤:
获取用于输出音频信号的控制指令;
响应于所述控制指令,检测当前音频输出模式,所述音频输出模式为普通模式或低延迟模式;
从所述外接设备接收音频数据,所述音频数据的数据格式由所述外接设备根据所述音频输出模式确定;
如果所述音频输出模式为低延迟模式,对所述音频数据执行第一类音效处理;
如果所述音频输出模式为普通模式,对所述音频数据执行第二类音效处理,所述第二类音效处理的处理时间大于所述第一类音效处理的处理时间。
由以上技术方案可知,上述实施例提供的显示设备200,可以在接收到用于输出音频信号的控制指令后,检测当前音频输出模式,并根据音频输出模式获取不同数据格式的音频数据。在音效处理环节,如果音频输出模式为低延迟模式,则对音频数据执行第一类音效处理,以减少音效处理时间;如果音频输出模式为普通模式,则对音频数据执行第二类音效处理,以提高音效品质。所述显示设备200可以通过改变外接设备500输出的声音编码格式,减少音频数据的解码时间,同时通过减少后级音效处理环节的非必要处理项,减少音效处理时间,改善低延迟模式下的音画同步效果,解决音画不同步的问题。
本申请提供的实施例之间的相似部分相互参见即可,以上提供的具体实施方式只是本申请总的构思下的几个示例,并不构成本申请保护范围的限定。对于本领域的技术人员而言,在不付出创造性劳动的前提下依据本申请方案所扩展出的任何其他实施方式都属于本申请的保护范围。
Claims (10)
1.一种显示设备,其特征在于,包括:
显示器;
外部装置接口,被配置为连接外接设备;
控制器,被配置为:
获取用于输出音频信号的控制指令;
响应于所述控制指令,检测当前音频输出模式,所述音频输出模式为普通模式或低延迟模式;
从所述外接设备接收音频数据,所述音频数据的数据格式由所述外接设备根据所述音频输出模式确定;
如果所述音频输出模式为低延迟模式,对所述音频数据执行第一类音效处理;
如果所述音频输出模式为普通模式,对所述音频数据执行第二类音效处理,所述第二类音效处理的处理时间大于所述第一类音效处理的处理时间。
2.根据权利要求1所述的显示设备,其特征在于,所述控制器被进一步配置为:
检测当前音频输出模式的步骤中,获取显示设备的声音低延迟开关状态,所述低延迟开关状态包括开启状态、关闭状态以及自动状态中的一种;
如果声音低延迟开关状态为开启状态,标记所述音频输出模式为低延迟模式;
如果声音低延迟开关状态为关闭状态,标记所述音频输出模式为普通模式;
如果声音低延迟开关状态为自动状态,获取图像低延迟开关状态,以及根据图像低延迟开关状态设置当前音频输出模式。
3.根据权利要求2所述的显示设备,其特征在于,所述控制器被进一步配置为:
根据图像低延迟开关状态设置当前音频输出模式的步骤中,如果所述图像低延迟开关状态为自动状态,获取所述外接设备发送的音视频数据;
从所述音视频数据中提取片源信息,所述片源信息中包括自动低延迟模式标志位;
读取所述自动低延迟模式标志位的状态值,所述状态值由所述外接设备根据当前音视频数据输出要求设定;
如果所述状态值为开启,标记所述音频输出模式为低延迟模式;
如果所述状态值为关闭,标记所述音频输出模式为普通模式。
4.根据权利要求1所述的显示设备,其特征在于,所述控制器被进一步配置为:
从所述外接设备接收音频数据的步骤中,获取音频输出模式的检测结果;
如果所述音频输出模式为低延迟模式,设置第一识别标识,所述第一识别标识用于触发所述外接设备发送第一音频数据;
将所述第一识别标识发送给所述外接设备;
接收所述外接设备根据所述第一识别标识发送的第一音频数据。
5.根据权利要求4所述的显示设备,其特征在于,所述控制器被进一步配置为:
如果所述音频输出模式为普通模式,设置第二识别标识,所述第二识别标识用于触发所述外接设备发送第二音频数据,所述第二音频数据的音效处理时间大于所述第一音频数据的音效处理时间;
将所述第二识别标识发送给所述外接设备;
接收所述外接设备根据所述第二识别标识发送的第二音频数据。
6.根据权利要求1所述的显示设备,其特征在于,所述控制器被进一步配置为:
对所述音频数据执行第一类音效处理的步骤中,获取当前显示设备支持的基础处理项目集合,所述基础处理项目集合中的音效处理项为所述第一类音效处理的音效处理项;
解析所述音频数据,以获得所述音频数据的当前格式版本;
在所述基础处理项目集合中筛选出所述当前格式版本的必要音效处理项;
调用所述必要音效处理项对应的音效处理算法,以使用所述必要音效处理项对应的音效处理算法对所述音频数据执行音效处理。
7.根据权利要求6所述的显示设备,其特征在于,所述控制器被进一步配置为:
在获取当前显示设备支持的基础处理项目集合的步骤后,获取所述外接设备发送的片源信息;
从所述片源信息中读取所述外接设备的当前片源类型;
根据所述当前片源类型在所述基础处理项目集合中筛选出非必要音效处理项;
禁用所述非必要音效处理项对应的音效处理算法。
8.根据权利要求6所述的显示设备,其特征在于,所述控制器被进一步配置为:
在获取当前显示设备支持的基础处理项目集合的步骤后,获取所述基础处理项目集合中每个音效处理项的平均处理时长;
在所述基础处理项目集合中筛选出附加音效处理项,所述附加音效处理项为平均处理时长小于或等于剩余时长阈值的音效处理项,所述剩余时长阈值根据所述必要处理项的总时长与预设允许延迟计算获得;
调用所述附加音效处理项对应的音效处理算法,以使用所述附加音效处理项对应的音效处理算法对所述音频数据执行音效处理。
9.根据权利要求1所述的显示设备,其特征在于,所述控制器被进一步配置为:
对音频数据执行基础音效处理的步骤中,解码所述音频数据,以获得音频信号;
调用基础音效处理算法,以及按照所述基础音效处理算法对所述音频信号执行调节处理;
播放调节处理后的音频信号。
10.一种音效处理方法,其特征在于,应用于显示设备,所述音效处理方法包括:
获取用于输出音频信号的控制指令;
响应于所述控制指令,检测当前音频输出模式,所述音频输出模式为普通模式或低延迟模式;
从外接设备接收音频数据,所述音频数据的数据格式由所述外接设备根据所述音频输出模式确定;
如果所述音频输出模式为低延迟模式,对所述音频数据执行第一类音效处理;
如果所述音频输出模式为普通模式,对所述音频数据执行第二类音效处理,所述第二类音效处理的处理时间大于所述第一类音效处理的处理时间。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210177868.3A CN114615536B (zh) | 2022-02-25 | 2022-02-25 | 显示设备及音效处理方法 |
PCT/CN2022/135925 WO2023160100A1 (zh) | 2022-02-25 | 2022-12-01 | 显示设备、外接设备、音频播放及音效处理方法 |
CN202280067562.0A CN118077209A (zh) | 2022-02-25 | 2022-12-01 | 显示设备、外接设备、音频播放及音效处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210177868.3A CN114615536B (zh) | 2022-02-25 | 2022-02-25 | 显示设备及音效处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114615536A true CN114615536A (zh) | 2022-06-10 |
CN114615536B CN114615536B (zh) | 2024-05-28 |
Family
ID=81859721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210177868.3A Active CN114615536B (zh) | 2022-02-25 | 2022-02-25 | 显示设备及音效处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114615536B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115914456A (zh) * | 2023-03-01 | 2023-04-04 | 荣耀终端有限公司 | 音频处理方法、电子设备及计算机可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104240738A (zh) * | 2014-08-28 | 2014-12-24 | 杰发科技(合肥)有限公司 | 一种音效设置方法及电子装置 |
CN110096250A (zh) * | 2018-01-31 | 2019-08-06 | 北京金山云网络技术有限公司 | 一种音频数据处理方法、装置、电子设备及存储介质 |
CN111885415A (zh) * | 2020-07-24 | 2020-11-03 | 海信视像科技股份有限公司 | 一种音频数据快速输出方法及显示设备 |
CN112669859A (zh) * | 2019-10-16 | 2021-04-16 | Oppo广东移动通信有限公司 | 一种通信模式控制方法及装置 |
CN113727179A (zh) * | 2021-08-31 | 2021-11-30 | Vidaa美国公司 | 显示设备及显示设备兼容外置设备的方法 |
CN114006890A (zh) * | 2021-10-26 | 2022-02-01 | 深圳Tcl新技术有限公司 | 一种数据传输方法、设备及存储介质和终端设备 |
-
2022
- 2022-02-25 CN CN202210177868.3A patent/CN114615536B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104240738A (zh) * | 2014-08-28 | 2014-12-24 | 杰发科技(合肥)有限公司 | 一种音效设置方法及电子装置 |
CN110096250A (zh) * | 2018-01-31 | 2019-08-06 | 北京金山云网络技术有限公司 | 一种音频数据处理方法、装置、电子设备及存储介质 |
CN112669859A (zh) * | 2019-10-16 | 2021-04-16 | Oppo广东移动通信有限公司 | 一种通信模式控制方法及装置 |
CN111885415A (zh) * | 2020-07-24 | 2020-11-03 | 海信视像科技股份有限公司 | 一种音频数据快速输出方法及显示设备 |
CN113727179A (zh) * | 2021-08-31 | 2021-11-30 | Vidaa美国公司 | 显示设备及显示设备兼容外置设备的方法 |
CN114006890A (zh) * | 2021-10-26 | 2022-02-01 | 深圳Tcl新技术有限公司 | 一种数据传输方法、设备及存储介质和终端设备 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115914456A (zh) * | 2023-03-01 | 2023-04-04 | 荣耀终端有限公司 | 音频处理方法、电子设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114615536B (zh) | 2024-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110022495B (zh) | 一种移动终端向显示设备推送媒体文件的方法及显示设备 | |
CN114302195B (zh) | 一种显示设备、外接设备以及播放控制方法 | |
CN111757171A (zh) | 一种显示设备及音频播放方法 | |
WO2021042655A1 (zh) | 一种音画同步处理方法及显示设备 | |
WO2022073392A1 (zh) | 图像显示方法及显示设备 | |
CN110213657B (zh) | 一种开机方法及智能电视 | |
CN111899680A (zh) | 一种显示设备及其设置方法 | |
US11550527B2 (en) | Media file processing method for display device and display device | |
CN114615536B (zh) | 显示设备及音效处理方法 | |
WO2022078065A1 (zh) | 显示设备资源播放方法及显示设备 | |
US11962865B2 (en) | Display apparatus and process method for display apparatus | |
CN113687811A (zh) | 一种音频信号输出控制方法及显示设备 | |
CN114615529A (zh) | 显示设备、外接设备及音频播放方法 | |
CN111263223A (zh) | 一种媒体音量调节方法及显示设备 | |
WO2022088899A1 (zh) | 显示设备、显示设备与外接音响的通信方法及外接音响音频输出方法 | |
CN113542860A (zh) | 一种蓝牙设备声音输出方法及显示设备 | |
WO2023160100A1 (zh) | 显示设备、外接设备、音频播放及音效处理方法 | |
CN114071056B (zh) | 视频数据显示方法及显示设备 | |
WO2022001424A1 (zh) | 一种显示设备 | |
WO2022105410A1 (zh) | 一种显示设备及其设备参数的记忆方法、恢复方法 | |
US20230262286A1 (en) | Display device and audio data processing method | |
CN113115105B (zh) | 一种显示设备及配置wisa扬声器的提示方法 | |
WO2022078166A1 (zh) | 一种蓝牙设备类型切换方法及显示设备 | |
CN116095403A (zh) | 一种智能设备及显示方法 | |
CN113115085A (zh) | 一种视频播放方法及显示设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |