CN111479154A - 音画同步的实现设备、方法及计算机可读存储介质 - Google Patents

音画同步的实现设备、方法及计算机可读存储介质 Download PDF

Info

Publication number
CN111479154A
CN111479154A CN202010258428.1A CN202010258428A CN111479154A CN 111479154 A CN111479154 A CN 111479154A CN 202010258428 A CN202010258428 A CN 202010258428A CN 111479154 A CN111479154 A CN 111479154A
Authority
CN
China
Prior art keywords
image
processing
signal
audio
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010258428.1A
Other languages
English (en)
Other versions
CN111479154B (zh
Inventor
陈俊宁
程志
初德进
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Visual Technology Co Ltd
Original Assignee
Hisense Visual Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hisense Visual Technology Co Ltd filed Critical Hisense Visual Technology Co Ltd
Priority to CN202010258428.1A priority Critical patent/CN111479154B/zh
Publication of CN111479154A publication Critical patent/CN111479154A/zh
Application granted granted Critical
Publication of CN111479154B publication Critical patent/CN111479154B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4331Caching operations, e.g. of an advertisement for later insertion during playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal

Abstract

本公开提供的音画同步的实现设备、方法及计算机可读存储介质,包括:显示器,用于根据图像信号呈现视频信息;扬声器,用于根据音频信号播放与视频信息对应的音频信息;处理器,被配置为:获取初始图像信号对应的处理方式,根据处理方式确定图像延迟;其中,通过上述处理方式对初始图像信号进行处理得到图像信号;根据图像延迟设置音频信号对应的音频播放参数,以使显示器呈现的视频信息与扬声器播放的音频信息同步。本公开提供的方案中,可以根据初始图像信号的处理方式确定图像延迟,再根据图像延迟控制音频信号播放的时机,从而能够使图像信号、音频信号被同步播放,避免由于对初始图像信号处理耗时较长,导致二者播放不同步的问题。

Description

音画同步的实现设备、方法及计算机可读存储介质
技术领域
本公开涉及视频处理技术,尤其涉及一种音画同步的实现设备、方法及计算机可读存储介质。
背景技术
目前,电视机等显示设备是常见的家用电器。显示设备能够接收多种类型的信号,并进行视频播放,比如有线信号、卫星信号、模拟信号、网络信号等。
在进行视频播放过程中,信号被解析为图像和音频这两部分。显示设备分别对图像和音频进行处理,处理后的图像信号被输出至显示器,被处理后的音频信号被输出至扬声器,从而实现视频的播放。
其中,由于显示设备对图像部分的处理耗时比对音频部分的处理耗时要长,导致显示设备输出画面与音频不同步的问题。
发明内容
本公开提供一种音画同步的实现设备、方法及计算机可读存储介质,以解决现有技术中,由于显示设备对图像部分的处理耗时比对音频部分的处理耗时要长,导致显示设备输出画面与音频不同步的问题。
本公开的第一个方面是提供一种音画同步的实现设备,包括:
显示器,用于根据图像信号呈现视频信息;
扬声器,用于根据音频信号播放与所述视频信息对应的音频信息;
处理器,被配置为:
获取初始图像信号对应的处理方式,根据所述处理方式确定图像延迟;其中,通过所述处理方式对所述初始图像信号进行处理得到所述图像信号;
根据所述图像延迟设置所述音频信号对应的音频播放参数,以使所述显示器呈现的所述视频信息与所述扬声器播放的所述音频信息同步。
本公开的另一个方面是提供一种音画同步的实现方法,应用于音画同步的实现设备,所述设备包括显示器、扬声器,所述显示器用于根据图像信号呈现画面,所述扬声器用于根据音频信号播放音频信息;
所述方法包括:
获取初始图像信号对应的处理方式,根据所述处理方式确定图像延迟;其中,通过所述处理方式对所述初始图像信号进行处理得到所述图像信号;
根据所述图像延迟设置所述音频信号对应的音频播放参数,以使所述显示器呈现的所述视频信息与所述扬声器播放的所述音频信息同步。
本公开的又一个方面是提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行以实现如上述第一方面所述的音画同步的实现方法。
本公开提供的音画同步的实现设备、方法及计算机可读存储介质的技术效果是:
本公开提供的音画同步的实现设备、方法及计算机可读存储介质,包括:显示器,用于根据图像信号呈现视频信息;扬声器,用于根据音频信号播放与视频信息对应的音频信息;处理器,被配置为:获取初始图像信号对应的处理方式,根据处理方式确定图像延迟;其中,通过上述处理方式对初始图像信号进行处理得到图像信号;根据图像延迟设置音频信号对应的音频播放参数,以使显示器呈现的视频信息与扬声器播放的音频信息同步。本公开提供的方案中,可以根据初始图像信号的处理方式确定图像延迟,再根据图像延迟控制音频信号播放的时机,从而能够使图像信号、音频信号被同步播放,避免由于对初始图像信号处理耗时较长,导致二者播放不同步的问题。
附图说明
图1为本申请一示例性实施例示出的音画同步的实现设备的结构图;
图2为本申请另一示例性实施例示出的音画同步的实现设备的结构图;
图3为本申请第一示例性实施例示出的画质处理流程的示意图;
图4为本申请第二示例性实施例示出的画质处理流程的示意图;
图5为本申请第三示例性实施例示出的画质处理流程的示意图;
图6为本申请一示例性实施例示出的音画同步的实现方法的流程图;
图7为本申请另一示例性实施例示出的音画同步的实现方法的流程图。
具体实施方式
电视机可以通过多种方式接收信号,比如通过有线、卫星、网络等方式接收信号。再将信号拆解为图像部分和音频部分。
对于图像部分,电视机对其进行画质处理后,再输出到显示器。对于音频部分,电视机对其进行音效处理后,再输出到扬声器。
画质处理过程主要包括:亮度、对比度、色度、色调、清晰度、图像降噪、动态对比度、伽玛、色温、白平衡、色彩校正、亮度动态范围、运动画面补偿等多个方面的处理过程。音效处理过程主要包括DTS(数字剧院音效系统,Digital Theater System)音效、ATMOS(Dolby Atmos/X-DMAX,杜比全景声)音效、GEQ(Graphic Equalizer,图示均衡器)处理、PEQ(Parametric Equalizer,参量均衡器)处理等。
其中,进行画质处理的过程要比进行音效处理的耗时长,导致输出的图像具有一定延迟,进而造成电视机输出的音画不同步的问题。本申请提供的方案中,预先根据图像处理方式确定图像处理所需时长,再通过该时长配置音频的输出时机,进而能够达到音画同步输出的效果。
图1为本申请一示例性实施例示出的音画同步的实现设备的结构图。
如图1所示,本实施例提供的音画同步的实现设备包括:
显示器11、扬声器12、处理器13。
具体的,显示器11能够根据图像信号显示视频信息,扬声器12能够根据音频信号播放与视频信息对应的音频信息。
其中,本实施例提供的音画同步的实现设备例如可以是显示设备,比如可以是电视机,该电视机可以是单屏电视机,还可以是双屏电视机。
进一步的,处理器13具体被配置为:
获取初始图像信号对应的处理方式,根据处理方式确定图像延迟;其中,通过处理方式对初始图像信号进行处理得到图像信号。设备在接收到信号后,可以通过其中的信号处理模块对信号进行音视频分离处理,从而得到该信号对应的初始图像信号和初始音频信号。例如,可以将一帧信号分离出一帧初始图像信号和一帧初始音频信号。具体的信号分离手段可以采用现有技术中已有的方式。设备中的图像处理模块可以对初始图像信号进行处理,音频处理模块可以对初始音频信号进行处理,从而得到适合显示器和扬声器的图像信号以及音频信号。
图像处理模块对初始图像信号处理完毕之后,可以将得到的图像信号发送给显示器,音频处理模块在对初始音频信号处理完毕之后,可以将得到的音频信号发送给扬声器,从而使显示器能够基于接收的图像信号播放视频,扬声器能够基于接收的音频信号播放音频。预期的效果是设备的显示器和扬声器能够同时播放该图像信号和音频信号,从而达到音画同步的效果。
但是,在一些场景下,设备对初始图像信号和初始音频信号进行处理所耗费的时长不同,就会导致处理器向显示器和扬声器发送视频信号和音频信号的时间不同步,进而导致显示器和扬声器无法同时播放根据同一信号得到的图像信号和音频信号。
为了解决这一问题,处理器被配置为:
获取初始图像信号对应的处理方式,根据处理方式确定图像延迟。
其中,设备中可以设置用于对初始图像信号进行处理的图像处理模块,初始图像信号被输入到图像处理模块,图像处理模块能够输出对应的图像信号,该图像信号被发送到显示器进行播放。
具体的,设备中可以设置用于对初始音频信号进行处理的音频处理模块,初始音频信号被输入到音频处理模块,音频处理模块能够输出对应的音频信号,该音频信号被发送到扬声器进行播放。
在实际应用中,图像处理模块对初始图像信号进行处理的时长,与音频处理模块对初始音频信号进行处理的时长不同,就会导致显示器播放的画面与扬声器播放的音频不同步的问题。
因此,本实施例提供的音画同步的实现设备中,处理器可以获取对初始图像信号进行处理的处理方式,再根据具体的图像处理方式确定在对初始图像信号进行处理的过程中产生的图像延迟。
其中,图像处理模块对初始图像信号进行处理的方式与信号本身属性有关。例如,若图像信号是逐行扫描的格式,则不需要进行去隔行的处理操作,若图像信号是隔行扫描格式,则需要对通信信号进行去隔行的操作。再例如,若图像信号的分辨率1080,则需要对其进行图像放大的处理,才能够作为8k画质进行输出。若图像信号的分辨率时2160,则不需要对其进行图像放大的处理,就能够作为8k画质进行输出。
因此,可以先获取初始图像信号对应的图像信息,再根据图像信息确定初始图像信号对应的处理方式。
具体的,在处理器或者图像处理模块内部可以设置图像处理逻辑,但是对于不同的图像信息,具体的处理逻辑又不完全一致,因此,可以基于预先设置的处理逻辑确定当前需要播放的初始图像信号的处理方式。可以根据具体的处理方式确定图像延迟,比如处理方式中包括5个具体的步骤,那么可以将这5个具体的步骤的耗时之和,作为图像延迟。
具体的,图像处理模块对初始图像信号进行处理的过程还可以包括插帧、scaler(缩放)、清晰度处理、降噪处理等,图像处理模块可以以不同的工作模式对图像信号进行处理。工作模式不同,其对相同初始图像信号处理时产生的耗时也不同。
进一步的,具体的工作模式可以由用户进行设置,例如,用户可以通过遥控器对音画同步的实现设备进行设置,调整音画同步的实现设备的工作模式,工作模式可以包括PCMode、VD Mode_Frc_OFF以及VD Mode_Frc_ON。
实际应用时,图像处理模块对图像信号的处理产生的延迟,还与图像帧率有关。因此,还可以获取初始图像信号对应的图像帧率,并结合音画同步的实现设备的工作模式共同确定一图像延迟。
此后,可以根据图像延迟设置音频信号对应的音频播放参数,以使显示器呈现的视频信息与扬声器播放的音频信息同步。
其中,本实施例提供的音画同步的实现设备中,处理器可以根据确定的图像延迟设置音频播放参数,通过音频播放参数来调整音频信号的播放时机。
例如,一种方式中,若图像延迟为Nms,则可以设置一音频播放参数,使得音频信号能够在进行音效处理后的Nms被播放。另一种方式中,图像延迟可以用于表征对初始图像信号被处理得到图像信号的时长,假设对初始音频信号进行处理耗时为Mms,则还可以在初始音频信号被处理完毕后的(N-M)ms播放音频信号。
具体的,音频播放参数还可以包括缓存大小,通过调整缓存大小调整音频信号的播放时机。比如,在缓存存满数据之后,播放该缓存中存储的音频数据,则可以根据图像延迟设置缓存大小,比如设置Nms音频数据需要占用的缓存大小。
进一步的,根据图像延迟设置音频播放参数,能够基于图像延迟确定音频信号的播放时机,进而使二者被同步播放。
本实施例提供的设备能够实现音画同步。
本实施例提供的音画同步的实现设备,包括:显示器,用于根据图像信号呈现视频信息;扬声器,用于根据音频信号播放与视频信息对应的音频信息;处理器,被配置为:获取初始图像信号对应的处理方式,根据处理方式确定图像延迟;其中,通过处理方式对初始图像信号进行处理得到图像信号;根据图像延迟设置音频信号对应的音频播放参数,以使显示器呈现的视频信息与扬声器播放的音频信息同步。本实施例提供的设备中,可以根据初始图像信号的处理方式确定图像延迟,再根据图像延迟控制音频信号播放的时机,从而能够使图像信号、音频信号被同步播放,避免由于对初始图像信号处理耗时较长,导致二者播放不同步的问题。
图2为本申请另一示例性实施例示出的音画同步的实现设备的结构图。
如图2所示,本申请提供的音画同步的实现设备,还包括:
信号分离模块21、图像处理模块22、音频处理模块23。
其中,信号分离模块21分别与图像处理模块22、音频处理模块23连接。
信号分离模块21还可以与处理器13连接。
具体的,可以由设备中的信号分离模块21对信号进行音视频分离处理,从而得到该信号对应的初始图像信号和初始音频信号。例如,可以将一帧信号分离出一帧初始图像信号和一帧初始音频信号。具体的信号分离手段可以采用现有技术中已有的方式。
进一步的,信号分离模块21可以将分离得到的初始图像信号发送给图像处理模块22,还可以将初始音频信号发送给音频处理模块23。
实际应用时,图像处理模块22可以对接收的初始图像信号进行画质处理,得到图像信号。具体的处理流程可以预先设置,比如可以根据初始图像信号的属性选择不同的处理流程,还可以根据设备的工作模式选择不同的处理流程。
图像处理模块22还可以将得到的图像信号传输至显示器11,以使显示器11根据接收的图像信号呈现画面。
其中,音频处理模块23可以对接收的初始音频信号进行音质处理,得到音频信号。音频处理模块23还可以将得到的音频信号传输至扬声器12,以使扬声器12根据接收的音频信号播放音频。
具体的,图像处理模块22中可以包括主芯片221,处理器被具体配置为:
获取主芯片对初始图像信号进行画质处理的处理流程,根据处理流程确定第一图像延迟。
可选的,主芯片例如可以是SOC芯片(System-on-a-Chip,把系统都做在一个芯片上)。
在一种实施方式中,可以根据图像处理模块22中的主芯片221对初始图像信号处理时产生的延迟,来确定图像延迟。
其中,在主芯片221中可以设置用于处理初始图像信号的处理流程,初始图像信号的属性不同,所采用的处理流程也不同。因此,处理器13可以从主芯片221中读取初始图像信号的图像信息,并根据图像信息确定具体的画质处理流程,再根据具体的处理流程确定对初始图像信号进行处理时产生的第一图像延迟。
处理流程中可以包括多个操作,基于该处理流程对初始图像信号进行处理时,可以通过其中的操作步骤依次对初始图像信号进行处理。比如共包括5个操作,通过操作1对初始图像信号进行处理输出一处理后的图像信号,再利用操作2对处理后的图像信号进行处理,并再输出处理后的图像信号,再利用操作3对处理后的图像信号进行处理,直到通过操作5对图像信号进行处理,可以将这一过程看作是流水线式的,通过多个操作对信号进行流水线式的处理后,才能够得到用于输出至显示器的图像信号。
进一步的,处理器13获取的初始图像信息包括扫描格式时,可以根据扫描格式确定处理流程中是否包括去隔行操作。
初始图像信号可以是逐行扫描格式的,也可以是隔行扫描的。去隔行是将隔行扫描的图像转换成逐行扫描的图像,可以消除或者极大地减少隔行扫描的缺点。若一初始图像信号对应的扫描格式本身是逐行扫描的,那么不需要对其进行去隔行处理。反之,则需要对其进行去隔行处理。
例如,一初始图像信号A是逐行扫描的格式,另一初始图像信号B是隔行扫描的格式,其他图像信息一致,那么对信号A的处理流程中不包括去隔行操作,而信号B的处理流程包括去隔行操作,这就使得对信号A处理的耗时会短于对信号B处理的耗时。
其中,处理器13获取的图像信息包括分辨率时,可以根据分辨率确定处理流程中包括的图像缩放处理次数。
具体的,若初始图像信号对应的分辨率较高,则经过的缩放处理会较少,若初始图像信号的分辨率较低,则经过的缩放处理会较多。因此,分辨率较高的初始图像信号所需的图像缩放处理次数较少。
对初始图像信号进行处理的流程不同,该处理过程所消耗的时间也不同。具体可以根据处理流程中包括的处理步骤确定实际所需耗时。
处理器13获取的图像信息还可以包括初始图像信号的帧率,处理器还可以根据处理流程确定图像缓存帧数;并根据图像缓存帧数、图像信号的帧率,确定第一图像延迟。
进一步的,处理流程中包括的各个操作,都可以具有对应的图像缓存子帧数。例如,在处理流程中包括去隔行功能,则可以获取去隔行功能对应的缓存子帧数。
实际应用时,可以在主芯片221中预先设置各个操作对应的缓存子帧数。在需要确定画质处理流程对应的图像缓存帧数时,可以读取画质处理流程中各个操作对应的图像缓存子帧数,再将这些子帧数相加,得到图像缓存帧数。
主芯片221对初始图像信号进行处理时产生的图像延迟的主要原因是读取处理帧以及后几帧的耗时。主芯片主要对图像进行一帧一帧的处理,在处理当前帧的时候会读取后几帧的数据,根据当前帧以及后几帧的数据,对当前帧进行处理,然后将再对下一帧数据进行处理。由于处理过程中需要读取后几帧的数据,因此会产生相应耗时。因此,本实施例提供的设备中,可以根据图像缓存帧数、初始图像信号的帧率,确定第一图像延迟,具体可以利用下式进行计算:
第一图像延迟=1/帧率×1000×图像缓存帧数。
下面以详细的实施例说明初始图像信号的图像信息不同时,主芯片221对图像信号进行处理的流程之间的区别。
图3为本申请第一示例性实施例示出的画质处理流程的示意图。
当输入主芯片221的图像信号的分辨率为1080,帧率为50或60,扫描格式为隔行扫描时,处理流程如图3所示。
初始图像信号分别需要经过IP、HDR、IP Scaler、TNR、DEI、Scaler1、AR、SR、Scaler2、4K SR、TNR、Scaler3、8K Sharpness、Color、DP的操作。可以认为每个操作都被封装到一个操作模块中,即一初始图像信号需要经过上述多个操作模块的处理,才能够被输出至显示器11进行显示。
其中,IP为输入的信号源。
HDR是指高动态范围图像(High-Dynamic Range,简称HDR),相比普通的图像,可以提供更多的动态范围和图像细节。
IP SCALER:缩放功能,主要目的有两个:1使得图像符合显示区域的大小2.生成对应图像的缩略图。
TNR:动态图像降噪单元,数字图像在数字化和传输过程中常受到成像设备和外界环境噪声干扰等影响,称为含噪图像或者噪声图像。减少数字图像中噪声的过程为图像降噪。
DEI:去隔行功能,去隔行就是把隔行扫描的图像转换成逐行扫描的图像,可以消除或者极大地减少隔行扫描的缺点。
AR:该模块主要用于静止图片降噪处理。
SR:超解像技术。
4KSR:4k的超解像技术。
Scaler1模块主要进行将图像放大成FHD(全高清)。
Scaler2模块主要进行将图像放大成UHD(超高清)。
Scaler3模块主要进行将图像放大成8K。
8k Sharness:主要用于图像清晰度处理。
Color:主要用于图像颜色处理。
DP:是display processor(显示处理器),作用是生成给屏输出的Vsync(帧同步信号)、Hsync(行同步信号)等信号。
在这个例子中,图像信号的扫描格式为隔行扫描,因此,需要执行去隔行操作。且其分辨率为1080,若希望输出8K画面,则需要对其进行多次的图像放大处理。
图4为本申请第二示例性实施例示出的画质处理流程的示意图。
当输入主芯片221的初始图像信号的分辨率为1080,帧率为24或25或30,扫描格式为逐行扫描时,画质处理流程如图4所示。
图像信号分别需要经过IP、HDR、IP Scaler、TNR、Scaler1、AR、SR、Scaler2、4K SR、TNR、Scaler3、8K Sharpness、Color、DP的操作。可以认为每个操作都被封装到一个操作模块中,即一初始图像信号需要经过上述多个操作模块的处理,才能够被输出至显示器11进行显示。
图5为本申请第三示例性实施例示出的画质处理流程的示意图。
当输入主芯片221的初始图像信号的分辨率为2160,帧率为50或60,扫描格式为逐行扫描时,画质处理流程如图5所示。
初始图像信号分别需要经过IP、HDR、IP Scaler、Scaler、8K Sharpness、Color、DP的操作。可以认为每个操作都被封装到一个操作模块中,即一初始图像信号需要经过上述多个操作模块的处理,才能够被输出至显示器11进行显示。
分辨率为2160、帧率为50/60的图像信号本身的分辨率属于4k,因此不需要过多的图像处理就可以输出到显示器,因此主芯片221对其进行处理产生的延迟比分辨率为1080的少。
通过试验比对,主芯片221对上述三种不同的图像信号进行处理产生的延迟如下表所示:
输入 帧率 输出 帧率 Normal
1080i60 60 2160p60 60 帧数延迟 5.67帧
延迟时间 94.5ms
1080p30 30 2160p60 60 帧数延迟 3.835帧
延迟时间 127.83ms
2160p60 60 2160p60 60 帧数延迟 3.67帧
延迟时间 61.17ms
i表示隔行扫描格式,p表示逐行扫描格式。
在一种实施方式中,处理器13可以直接将确定的第一图像延迟作为主芯片221对初始图像信号进行处理所产生的延迟,并基于第一图像延迟设置音频播放参数。
在另一种实施方式中,处理器13还可以结合第一图像延迟以及下面确定的第二图像延迟共同设置音频播放参数。
可选的,所述图像处理模块22中还可以包括从芯片222。处理器13还可以获取从芯片的工作模式,根据工作模式确定第二图像延迟。
其中,图像处理模块22中可以包括主芯片221和从芯片222。主芯片221对初始图像信号进行初步处理后,可以将得到的信号输出至从芯片222中,由从芯片222对信号进行后续处理,并将处理得到的图像信号输出至显示器11,使得显示器11呈现画面。
例如,对于双屏设备来说,图像处理模块22中可以设置一个主芯片221和两个从芯片222,主芯片221和从芯片222可以用于对初始图像信号进行处理,得到图像信号。主芯片221例如可以是SOC芯片(System-on-a-Chip,把系统都做在一个芯片上)。主芯片221能够对初始图像信号进行一部分处理,并将处理后的信号输出到两个从芯片222中,从芯片222例如是FRC(Frame Rate Conversion)芯片。两个从芯片222分别对接收的信号进行处理,并将处理后的图像信号发送给显示器进行显示。此处的显示器实体可以为一块屏幕,其能够显示两路从芯片222输出的信号。例如,在8k电视机中可以采用这样的信号处理流程。
再例如,对于单屏设备来说,图像处理模块22中可以只设置一主芯片,通过主芯片对初始图像信号进行处理,并将处理后的图像信号发送到显示器。此外,有一些单屏设备中,图像处理模块22中也可以设置主芯片与从芯片,例如设置一个主芯片和一个从芯片,基于这两个芯片处理后的图像信号被输出至显示器进行显示。
具体的,处理器13可以先确定第一图像延迟,也可以先确定第二图像延迟,还可以同时确定这两个图像延迟。
若图像处理模块22设置有主芯片221以及从芯片222,并通过这两个芯片对初始图像信号进行处理,则可以分别获取二者对初始图像信号处理的方式,并根据这两种方式确定图像延迟,若只通过主芯片221对初始图像信号进行画质处理,则可以只获取主芯片221对初始图像信号处理的方式,并根据该方式确定图像延迟。
若电视机中通过主芯片221和从芯片222对初始图像信号进行处理,则可以将第一图像延迟和第二图像延迟相加,得到最终的图像总延迟。
其中,若设置有从芯片222,则从芯片222能够接收主芯片221输出的信号,并对其进行处理。从芯片222对接收的信号进行处理产生的延迟,主要是由于其工作模式不同而产生的。
具体的,从芯片222分为三种工作模式,分别为PC Mode、VDMode_Frc_OFF以及VDMode_Frc_ON。工作模式为PC Mode时,缓存帧数为0.7,工作模式为VD Mode_Frc_OFF时,缓存帧数为3.2,工作模式为VDMode_Frc_ON时,缓存帧数为4.7。
进一步的,处理器获取图像信号对应的图像信息还可以包括初始图像信号对应的帧率。可以结合帧率、工作模式确定第二图像延迟。
实际应用时,可以采用下式确定第二图像延迟:
第二图像延迟=1/帧率×工作模式对应的缓存帧数×1000。
在一种实施方式中,可以直接将确定的第二图像延迟作为从芯片222对信号进行处理所产生的延迟,并基于第二图像延迟设置音频播放参数。
在另一种实施方式中,可以结合第一图像延迟、第二图像延迟设置音频播放参数。可以将第一图像延迟与第二图像延迟的和确定为图像总延迟。
例如,一音画同步的实现设备的图像处理模块22中设置有主芯片221以及从芯片222,且初始图像信号通过主芯片221和从芯片222的处理后,被输出到显示器。这种情况下,可以分别确定主芯片221对初始图像信号进行处理产生的第一图像延迟,以及从芯片222对接收的信号进行处理产生的第二图像延迟,再根据第一图像延迟、第二图像延迟确定图像总延迟。
确定出图像延迟之后,处理器可以根据确定的图像延迟设置用于存储音频信号的缓存空间的大小,以使显示器呈现的视频信息与扬声器播放的音频信息同步。
进一步的,若仅根据第一图像延迟设置音频播放参数,则可以根据第一图像延迟设置音频数据的缓存大小;若仅根据第二图像延迟设置音频播放参数,则可以根据第二图像延迟设置音频数据的缓存大小;若结合第一图像延迟和第二图像延迟设置音频播放参数,则可以根据中图像总延迟设置音频数据的缓存大小。实际应用时,设置的缓存大小用于调整音频处理模块中存储音频信号的空间,该音频信号可以是对初始音频信号进行音效处理后得到的。当缓存中存储的音频信号达到缓存大小时,可以输出音频信号到扬声器进行播放。例如,设置的缓存大小为P,则当音频信号大小达到P之后,扬声器会播放该音频信号。
其中,可以根据图像延迟确定一缓存大小,例如,图像延迟为90ms,则可以将缓存大小设置为播放时长为90ms的音频信号对应的大小,或者可以将缓存大小设置为播放时长为(90-t)ms的音频数据对应的大小,t为对初始音频信号进行音效处理的时长。音效处理时长可以基于音画同步的设备中音频处理模块设置的音效处理流程进行确定。
具体的,通过图像延迟来确定用于存储音频信号的缓存空间的大小,能够根据图像输出至显示器的时间调整对应的音频播放时机,进而达到音画同步的输出效果。
当上述缓存空间中存储的音频信号达到上述大小时,音频处理模块23向扬声器12输出音频信号,具体可以采用先进先出的方式向扬声器12输出信号,即先进入缓存空间中的信号被优先输出至扬声器12。
图6为本申请一示例性实施例示出的音画同步的实现方法的流程图。
如图6所示,本申请提供的音画同步的实现方法,应用于音画同步的实现设备,所述设备包括显示器、扬声器,所述显示器用于根据图像信号呈现画面,所述扬声器用于根据音频信号播放音频信息;
所述方法包括:
步骤601,获取初始图像信号对应的处理方式,根据所述处理方式确定图像延迟;其中,通过所述处理方式对所述初始图像信号进行处理得到所述图像信号;
步骤602,根据所述图像延迟设置所述音频信号对应的音频播放参数,以使所述显示器呈现的所述视频信息与所述扬声器播放的所述音频信息同步。
本实施例提供的音画同步的实现方法,应用于音画同步的实现设备,设备包括显示器、扬声器,显示器用于根据图像信号呈现画面,扬声器用于根据音频信号播放音频信息;方法包括:获取初始图像信号对应的处理方式,根据处理方式确定图像延迟;其中,通过处理方式对初始图像信号进行处理得到图像信号;根据图像延迟设置音频信号对应的音频播放参数,以使显示器呈现的视频信息与扬声器播放的音频信息同步。本实施例提供的方法中,可以根据初始图像信号的处理方式确定图像延迟,再根据图像延迟控制音频信号播放的时机,从而能够使图像信号、音频信号被同步播放,避免由于对初始图像信号处理耗时较长,导致二者播放不同步的问题。
本实施例提供的音画同步的实现装置的具体原理和实现方式与图1所示的实施例类似,此处不再赘述。
图7为本申请另一示例性实施例示出的音画同步的实现方法的流程图。
如图7所示,本申请提供的音画同步的实现方法,应用于音画同步的实现设备,所述设备包括显示器、扬声器,所述显示器用于根据图像信号呈现画面,所述扬声器用于根据音频信号播放音频信息;
方法包括:
步骤701,对输入信号进行分离处理,得到所述输入信号对应的所述初始图像信号、初始音频信号。
步骤702A,对所述初始图像信号进行处理得到所述图像信号。
步骤702B,对所述初始音频信号进行处理得到所述音频信号。
步骤703A,获取主芯片对所述初始图像信号进行画质处理的处理流程,根据所述处理流程确定第一图像延迟。
可选的,可以获取所述初始图像信号对应的图像信息,根据所述图像信息确定所述处理流程。
可选的,所述图像信息包括扫描格式时,根据所述扫描格式确定所述处理流程中是否包括去隔行操作;
所述图像信息包括分辨率时,根据所述分辨率确定所述处理流程中包括的图像缩放处理次数。
可选的,所述图像信息还包括所述初始图像信号的帧率;
所述根据所述处理流程确定第一图像延迟,包括:
根据所述处理流程确定图像缓存帧数;
根据所述图像缓存帧数、所述图像信号的帧率,确定所述第一图像延迟。
可选的,根据处理流程中各个操作对应的图像缓存子帧数,确定所述图像缓存帧数。
步骤703B,获取从芯片的工作模式,根据所述工作模式确定第二图像延迟。
可选的,所述图像信息还包括所述初始图像信号的帧率;
所述根据所述工作模式确定第二图像延迟,包括:
根据所述工作模式、所述帧率确定所述第二图像延迟。
步骤704,根据所述第一图像延迟、所述第二图像延迟确定图像总延迟。
步骤705,根据所述图像延迟设置用于存储音频信号的缓存空间的大小,以使所述显示器呈现的所述视频信息与所述扬声器播放的所述音频信息同步。
其中,通过所述处理方式对所述初始图像信号进行处理得到所述图像信号。
具体的,当上述缓存空间中存储的音频信号达到上述大小时,向扬声器输出音频信号,具体可以采用先进先出的方式向扬声器输出信号,即先进入缓存空间中的信号被优先输出至扬声器。本实施例还提供一种计算机可读存储介质,其上存储有计算机程序,
所述计算机程序被处理器执行以实现如上所述的任一种音画同步的实现方法。
本实施例还提供一种计算机程序,包括程序代码,当计算机运行所述计算机程序时,所述程序代码执行如上所述的任一种音画同步的实现方法。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (23)

1.一种音画同步的实现设备,其特征在于,包括:
显示器,用于根据图像信号呈现视频信息;
扬声器,用于根据音频信号播放与所述视频信息对应的音频信息;
处理器,被配置为:
获取初始图像信号对应的处理方式,根据所述处理方式确定图像延迟;其中,通过所述处理方式对所述初始图像信号进行处理得到所述图像信号;
根据所述图像延迟设置所述音频信号对应的音频播放参数,以使所述显示器呈现的所述视频信息与所述扬声器播放的所述音频信息同步。
2.根据权利要求1所述的设备,其特征在于,还包括信号分离模块、图像处理模块、音频处理模块;
所述信号分离模块分别与所述图像处理模块、所述音频处理模块连接,用于对输入信号进行分离处理,得到所述输入信号对应的所述初始图像信号、初始音频信号,并将所述初始图像信号发送给所述图像处理模块,将所述初始音频信号发送给所述音频处理模块;
所述图像处理模块与所述显示器连接,用于对所述初始图像信号进行处理得到所述图像信号,并将所述图像信号输出至所述显示器;
所述音频处理模块与所述扬声器连接,用对所述初始音频信号进行处理得到所述音频信号,并将所述音频信号输出至所述扬声器。
3.根据权利要求2所述的设备,其特征在于,所述图像处理模块包括主芯片;
所述处理器被具体配置为:
获取所述主芯片对所述初始图像信号进行画质处理的处理流程,根据所述处理流程确定第一图像延迟。
4.根据权利要求2所述的设备,其特征在于,所述图像处理模块包括从芯片;
所述处理器被具体配置为:
获取所述从芯片的工作模式,根据所述工作模式确定第二图像延迟。
5.根据权利要求2所述的设备,其特征在于,所述图像处理模块包括主芯片、从芯片;
所述处理器被具体配置为:
获取所述主芯片对所述初始图像信号进行画质处理的处理流程,根据所述处理流程确定第一图像延迟;
获取所述从芯片的工作模式,根据所述工作模式确定第二图像延迟;
根据所述第一图像延迟、所述第二图像延迟确定图像总延迟。
6.根据权利要求3或5所述的设备,其特征在于,所述处理器被具体配置为获取所述初始图像信号对应的图像信息,根据所述图像信息确定所述处理流程。
7.根据权利要求6所述的设备,其特征在于,所述处理器被具体配置为:
所述图像信息包括扫描格式时,根据所述扫描格式确定所述处理流程中是否包括去隔行操作;
所述图像信息包括分辨率时,根据所述分辨率确定所述处理流程中包括的图像缩放处理次数。
8.根据权利要求7所述的设备,其特征在于,所述图像信息还包括所述初始图像信号的帧率;
所述处理器被具体配置为:
根据所述处理流程确定图像缓存帧数;
根据所述图像缓存帧数、所述图像信号的帧率,确定所述第一图像延迟。
9.根据权利要求8所述的设备,其特征在于,所述处理器被具体配置为:
根据处理流程中各个操作对应的图像缓存子帧数,确定所述图像缓存帧数。
10.根据权利要求4或5所述的设备,其特征在于,
所述图像信息还包括所述初始图像信号的帧率;
所述处理器被具体配置为:根据所述工作模式、所述帧率确定所述第二图像延迟。
11.根据权利要求1-5、7-9任一项所述的设备,其特征在于,所述处理器被具体配置为:根据所述图像延迟设置用于存储音频信号的缓存空间的大小。
12.一种音画同步的实现方法,其特征在于,应用于音画同步的实现设备,所述设备包括显示器、扬声器,所述显示器用于根据图像信号呈现画面,所述扬声器用于根据音频信号播放音频信息;
所述方法包括:
获取初始图像信号对应的处理方式,根据所述处理方式确定图像延迟;其中,通过所述处理方式对所述初始图像信号进行处理得到所述图像信号;
根据所述图像延迟设置所述音频信号对应的音频播放参数,以使所述显示器呈现的所述视频信息与所述扬声器播放的所述音频信息同步。
13.根据权利要求12所述的方法,其特征在于,还包括:
对输入信号进行分离处理,得到所述输入信号对应的所述初始图像信号、初始音频信号;
对所述初始图像信号进行处理得到所述图像信号;
对所述初始音频信号进行处理得到所述音频信号。
14.根据权利要求13所述的方法,其特征在于,所述获取初始图像信号对应的处理方式,根据所述处理方式确定图像延迟,包括:
获取主芯片对所述初始图像信号进行画质处理的处理流程,根据所述处理流程确定第一图像延迟。
15.根据权利要求13所述的方法,其特征在于,所述获取初始图像信号对应的处理方式,根据所述处理方式确定图像延迟,包括:
获取从芯片的工作模式,根据所述工作模式确定第二图像延迟。
16.根据权利要求13所述的方法备,其特征在于,所述获取初始图像信号对应的处理方式,根据所述处理方式确定图像延迟,包括:
获取主芯片对所述初始图像信号进行画质处理的处理流程,根据所述处理流程确定第一图像延迟;
获取从芯片的工作模式,根据所述工作模式确定第二图像延迟;
根据所述第一图像延迟、所述第二图像延迟确定图像总延迟。
17.根据权利要求14或16所述的方法,其特征在于,所述获取主芯片对所述初始图像信号进行画质处理的处理流程,包括:
获取所述初始图像信号对应的图像信息,根据所述图像信息确定所述处理流程。
18.根据权利要求17所述的方法,其特征在于,所述根据所述图像信息确定所述处理流程,包括:
所述图像信息包括扫描格式时,根据所述扫描格式确定所述处理流程中是否包括去隔行操作;
所述图像信息包括分辨率时,根据所述分辨率确定所述处理流程中包括的图像缩放处理次数。
19.根据权利要求18所述的方法,其特征在于,所述图像信息还包括所述初始图像信号的帧率;
所述根据所述处理流程确定第一图像延迟,包括:
根据所述处理流程确定图像缓存帧数;
根据所述图像缓存帧数、所述图像信号的帧率,确定所述第一图像延迟。
20.根据权利要求19所述的方法,其特征在于,所述根据所述处理流程确定图像缓存帧数,包括:
根据处理流程中各个操作对应的图像缓存子帧数,确定所述图像缓存帧数。
21.根据权利要求15或16所述的方法,其特征在于,所述图像信息还包括所述初始图像信号的帧率;
所述根据所述工作模式确定第二图像延迟,包括:
根据所述工作模式、所述帧率确定所述第二图像延迟。
22.根据权利要求12-16、18-20任一项所述的方法,其特征在于,所述根据所述图像延迟设置所述音频信号对应的音频播放参数,包括:
根据所述图像延迟设置用于存储音频信号的缓存空间的大小。
23.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,
所述计算机程序被处理器执行以实现如权利要求12-22任一种所述的方法。
CN202010258428.1A 2020-04-03 2020-04-03 音画同步的实现设备、方法及计算机可读存储介质 Active CN111479154B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010258428.1A CN111479154B (zh) 2020-04-03 2020-04-03 音画同步的实现设备、方法及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010258428.1A CN111479154B (zh) 2020-04-03 2020-04-03 音画同步的实现设备、方法及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN111479154A true CN111479154A (zh) 2020-07-31
CN111479154B CN111479154B (zh) 2022-03-22

Family

ID=71750537

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010258428.1A Active CN111479154B (zh) 2020-04-03 2020-04-03 音画同步的实现设备、方法及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN111479154B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112135081A (zh) * 2020-09-11 2020-12-25 Oppo广东移动通信有限公司 模式控制方法、装置、插帧芯片以及电子设备
CN112860211A (zh) * 2021-01-28 2021-05-28 成都极米科技股份有限公司 确定时延的方法、装置、终端与存储介质
CN113453052A (zh) * 2021-06-22 2021-09-28 海信视像科技股份有限公司 音画同步方法及显示设备
CN114302021A (zh) * 2021-04-30 2022-04-08 海信视像科技股份有限公司 显示设备和音画同步方法
CN114339345A (zh) * 2020-09-29 2022-04-12 京东方科技集团股份有限公司 一种应用于音视频信号的源端同步装置及同步方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1901656A (zh) * 2005-07-19 2007-01-24 日本电气视象技术株式会社 视频和音频重放设备及方法、输出时刻改变设备及方法
JP2007221421A (ja) * 2006-02-16 2007-08-30 Onkyo Corp 映像音声再生システムおよびこれを構成するavセンターならびにモニター
CN101047777A (zh) * 2006-03-31 2007-10-03 索尼株式会社 视频和音频处理系统、视频处理装置、音频处理装置、输出装置以及控制该系统的方法
CN101080933A (zh) * 2004-12-15 2007-11-28 皇家飞利浦电子股份有限公司 使音频与延迟的视频同步
CN104902317A (zh) * 2015-05-27 2015-09-09 青岛海信电器股份有限公司 音视频同步方法及装置
CN105376628A (zh) * 2014-08-27 2016-03-02 深圳Tcl新技术有限公司 音视频信号同步方法和装置
CN105744358A (zh) * 2016-03-18 2016-07-06 青岛海信电器股份有限公司 视频播放的处理方法及装置
US20180310047A1 (en) * 2016-08-30 2018-10-25 Boe Technology Group Co., Ltd. Method and Apparatus for Synchronizing Audio and Video Signals
CN109167890A (zh) * 2018-08-22 2019-01-08 青岛海信电器股份有限公司 一种音画同步方法和装置及显示设备
CN109379619A (zh) * 2018-11-20 2019-02-22 青岛海信电器股份有限公司 音画同步方法及装置
US20190090028A1 (en) * 2009-12-18 2019-03-21 Joseph F. Kirley Distributing Audio Signals for an Audio/Video Presentation
CN109698971A (zh) * 2019-01-15 2019-04-30 青岛海信电器股份有限公司 一种数据处理方法及装置
CN110418183A (zh) * 2019-08-05 2019-11-05 北京字节跳动网络技术有限公司 音视频同步方法、装置、电子设备及可读介质

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101080933A (zh) * 2004-12-15 2007-11-28 皇家飞利浦电子股份有限公司 使音频与延迟的视频同步
CN1901656A (zh) * 2005-07-19 2007-01-24 日本电气视象技术株式会社 视频和音频重放设备及方法、输出时刻改变设备及方法
JP2007221421A (ja) * 2006-02-16 2007-08-30 Onkyo Corp 映像音声再生システムおよびこれを構成するavセンターならびにモニター
CN101047777A (zh) * 2006-03-31 2007-10-03 索尼株式会社 视频和音频处理系统、视频处理装置、音频处理装置、输出装置以及控制该系统的方法
US20070230913A1 (en) * 2006-03-31 2007-10-04 Sony Corporation Video and audio processing system, video processing apparatus, audio processing apparatus, output apparatus, and method of controlling the system
US20190090028A1 (en) * 2009-12-18 2019-03-21 Joseph F. Kirley Distributing Audio Signals for an Audio/Video Presentation
CN105376628A (zh) * 2014-08-27 2016-03-02 深圳Tcl新技术有限公司 音视频信号同步方法和装置
CN104902317A (zh) * 2015-05-27 2015-09-09 青岛海信电器股份有限公司 音视频同步方法及装置
CN105744358A (zh) * 2016-03-18 2016-07-06 青岛海信电器股份有限公司 视频播放的处理方法及装置
US20180310047A1 (en) * 2016-08-30 2018-10-25 Boe Technology Group Co., Ltd. Method and Apparatus for Synchronizing Audio and Video Signals
CN109167890A (zh) * 2018-08-22 2019-01-08 青岛海信电器股份有限公司 一种音画同步方法和装置及显示设备
CN109379619A (zh) * 2018-11-20 2019-02-22 青岛海信电器股份有限公司 音画同步方法及装置
CN109698971A (zh) * 2019-01-15 2019-04-30 青岛海信电器股份有限公司 一种数据处理方法及装置
CN110418183A (zh) * 2019-08-05 2019-11-05 北京字节跳动网络技术有限公司 音视频同步方法、装置、电子设备及可读介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘丽霞等: "基于FFMPEG解码的音视频同步实现", 《计算机工程与设计》 *
孙剑峰: "高清电视节目制作系统音频延时设计及声画同步调整", 《数字传媒研究》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112135081A (zh) * 2020-09-11 2020-12-25 Oppo广东移动通信有限公司 模式控制方法、装置、插帧芯片以及电子设备
CN112135081B (zh) * 2020-09-11 2022-10-28 Oppo广东移动通信有限公司 模式控制方法、装置、插帧芯片以及电子设备
CN114339345A (zh) * 2020-09-29 2022-04-12 京东方科技集团股份有限公司 一种应用于音视频信号的源端同步装置及同步方法
CN112860211A (zh) * 2021-01-28 2021-05-28 成都极米科技股份有限公司 确定时延的方法、装置、终端与存储介质
CN112860211B (zh) * 2021-01-28 2022-12-27 成都极米科技股份有限公司 确定时延的方法、装置、终端与存储介质
CN114302021A (zh) * 2021-04-30 2022-04-08 海信视像科技股份有限公司 显示设备和音画同步方法
CN113453052A (zh) * 2021-06-22 2021-09-28 海信视像科技股份有限公司 音画同步方法及显示设备

Also Published As

Publication number Publication date
CN111479154B (zh) 2022-03-22

Similar Documents

Publication Publication Date Title
CN111479154B (zh) 音画同步的实现设备、方法及计算机可读存储介质
KR101554685B1 (ko) 비디오 프로세싱을 기술하기 위한 방법, 장치 및 머신 판독가능 매체
US6337716B1 (en) Receiver for simultaneously displaying signals having different display formats and/or different frame rates and method thereof
JP5317825B2 (ja) 画像処理装置及び画像処理方法
US7423693B2 (en) Video delay stabilization system and method
US8830403B1 (en) Image processing device and image processing method
JP2006033851A (ja) 多次元映像フォーマットの変換装置及びその方法
JP2011507415A (ja) ビデオ送信側装置及びビデオ受信側装置を有するシステムにおけるビデオ処理の調整
JPH1075430A (ja) ビデオデータ処理装置およびビデオデータ表示装置
US8593575B2 (en) Video display apparatus for shortened-delay processing of a video signal and video processing method
US7187417B2 (en) Video signal processing apparatus that performs frame rate conversion of a video signal
JP2005045787A (ja) プログレッシブ及びインターレースビデオ信号の両方を生成するビデオ信号処理装置
US7202911B2 (en) Method and/or circuit for implementing a zoom in a video signal
US20080136966A1 (en) Frame Synchronizer, Synchronization Method of Frame Synchronizer, Image Processing Apparatus, and Frame Synchronization Program
JP2001022335A (ja) 映像表示制御方法、映像表示処理システム、映像表示処理装置
KR100385975B1 (ko) 비디오 포맷 변환장치 및 방법
JP4332312B2 (ja) 映像信号処理装置、映像表示装置並びに映像信号処理方法
JP2002500480A (ja) 24Hzソース・ビデオ表示のためのフォーマット及びフレーム・レート変換
US7391469B2 (en) Method and apparatus for video decoding and de-interlacing
WO2022137326A1 (ja) 映像音響合成装置、方法及びプログラム
WO2023017577A1 (ja) 映像信号を合成する装置、方法及びプログラム
JPS5985185A (ja) テレビジヨン受信装置
JP2002185980A (ja) マルチフォーマット記録再生装置
JP5207866B2 (ja) 映像信号処理方法、映像信号処理装置
JP3128034B2 (ja) 画像合成装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant