CN112073795A - 视频数据处理方法、装置及显示设备 - Google Patents

视频数据处理方法、装置及显示设备 Download PDF

Info

Publication number
CN112073795A
CN112073795A CN201910721816.6A CN201910721816A CN112073795A CN 112073795 A CN112073795 A CN 112073795A CN 201910721816 A CN201910721816 A CN 201910721816A CN 112073795 A CN112073795 A CN 112073795A
Authority
CN
China
Prior art keywords
chip
signal
video
video image
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910721816.6A
Other languages
English (en)
Other versions
CN112073795B (zh
Inventor
初德进
李慧娟
孙龙
姜俊厚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Visual Technology Co Ltd
Original Assignee
Hisense Visual Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hisense Visual Technology Co Ltd filed Critical Hisense Visual Technology Co Ltd
Priority to PCT/CN2020/094303 priority Critical patent/WO2020248886A1/zh
Priority to CN202080007439.0A priority patent/CN113287322B/zh
Publication of CN112073795A publication Critical patent/CN112073795A/zh
Application granted granted Critical
Publication of CN112073795B publication Critical patent/CN112073795B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本申请提供了一种视频数据处理方法、装置及显示设备,在第一芯片在将视频层信号与图形层信号叠加生成视频图像信号前,先对图形层信号对应的图形层的透明度进行检测,并且检测其为透明层时,则将指示第二芯片对该视频图像信号中叠加图形层的区域进行运动补偿处理的指示信息以及该视频图像信号一同发送给第二芯片。这样,第二芯片便会根据该指示信息对该视频图像信号对应的全部图像区域进行运动补偿处理,并将处理后的信号输出到显示屏进行显示,进而可以有效避免当视频图像信号含有图形层信号时,关闭运动补偿处理功能所带来的显示画面质量降低的问题。

Description

视频数据处理方法、装置及显示设备
技术领域
本申请实施例涉及显示技术。更具体地讲,涉及视频数据处理方法、装置及显示设备。
背景技术
当前,由于显示设备可以为用户提供诸如音频、视频、图片等的播放画面,受到用户的广泛关注。近年来,用户对显示设备的功能需求与日俱增。例如,用户想要通过显示设备观看高清的有线电视,有的时候用户想要通过显示设备观看网络电视。
双硬件显示设备可以同时满足用户的上述需求,通常双硬件显示设备包括两个芯片,分别为A芯片(又称为第一芯片),以及,N芯片(又称为第二芯片)。A芯片用于接收网络电视。A芯片的视频信号可以来自网络也可以来自USB,通常,网络电视的视频信号包含图形层信号,以及,视频层信号。通常图形层信号,以及,视频层信号分别发送至A芯片,A芯片直接将信号混合叠加处理成HDMI视频信号发送给N芯片。为了保证播放出来的画面流畅,N芯片需要对接收到的HDMI视频信号进行画质处理。
例如,通常采用的MEMC(Motion Estimate and Motion Compensation,运动估计及运动补偿)技术。该技术又被称为运动补偿技术,即通过数字插帧的方式,将普通的24/25Hz刷新率的视频信号提升至50/60Hz,借助MEMC实现图像帧之间的过渡,使图像帧之间的过渡更加平滑,进而消除运动抖动和运动拖尾的现象,改善电视对运动画面的显示。但是,但若但是N芯片接收到的HDMI视频信号为视频层信号叠加频道信息列表、或由第三方应用程序创建的作为OSD(On Screen Display,屏幕菜单式调节方式)图形层信号时,若继续采用运动补偿技术,运动矢量即为视频信号与图形层信号叠加的运动矢量,这样,运动补偿帧中的图形层信号与前后两帧图形层信号相比,必存在像素点的移动,由于图形层常为静止画面,此时便会出现图形层画面被撕裂的现象,因此,此时N芯片需要关闭运动补偿。然而,在很多情况下,例如当第三方应用程序进行视频播放时会创建一个透明的图层叠加在视频层图像之上,而透明图层并不会影响动态图像处理功能。
因此,需要提供一种视频数据处理方法,以使N芯片可以根据其所接收的HDMI视频信号中图形层信号的实际情况,更好的启用或关闭运动补偿,以提高电视输出画面质量。
发明内容
针对上述问题,本申请实施例提供了一种视频数据处理方法、装置及显示设备。
根据本申请实施例的第一方面,提供了一种视频数据处理方法,应用于显示设备中,所述显示设备包括第一芯片、第二芯片和显示屏,所述方法包括:
所述第一芯片在将视频层信号与图形层信号叠加生成视频图像信号前,检测所述图形层信号对应的图形层是否为透明层;
响应于所述图形层信号对应的图形层为透明层,则所述第一芯片将第一指示信息以及所述视频图像信号发送给第二芯片,其中,所述第一指示信息用于指示所述第二芯片对所述视频图像信号中叠加所述图形层的区域进行运动补偿处理;
所述第二芯片将运动补偿后的视频图像信号输出到所述显示屏进行显示。
根据本申请实施例的第二方面,提供了一种视频数据处理装置,其中该装置分别设置在第一芯片和第二芯片中,主要包括存储器和处理器,其中:所述存储器,用于存储程序代码;所述处理器,用于读取所述存储器中存储的程序代码,并且,设置在第一芯片中的处理器可以执行:在将视频层信号与图形层信号叠加生成视频图像信号前,检测所述图形层信号对应的图形层是否为透明层,响应于所述图形层信号对应的图形层为透明层,将第一指示信息以及所述视频图像信号发送给第二芯片的方法;设置在第二芯片中的处理器可以执行:根据所述第一指示信息,对所述视频图像信号中叠加所述图形层的区域进行运动补偿处理并将运动补偿后的视频图像信号输出到所述显示屏进行显示;其中,所述第一指示信息用于指示所述第二芯片对所述视频图像信号中叠加所述图形层的区域进行运动补偿处理。
根据本申请实施例的第三方面,提供了一种显示设备,主要包括第一芯片、第二芯片和显示屏,其中:
所述第一芯片被配置为:在将视频层信号与图形层信号叠加生成视频图像信号前,检测所述图形层信号对应的图形层是否为透明层,响应于所述图形层信号对应的图形层为透明层,将第一指示信息以及所述视频图像信号发送给第二芯片,其中,所述第一指示信息用于指示所述第二芯片对所述视频图像信号中叠加所述图形层的区域进行运动补偿处理;
所述第二芯片被配置为:根据所述第一指示信息,对所述视频图像信号中叠加所述图形层的区域进行运动补偿处理并将运动补偿后的视频图像信号输出到所述显示屏进行显示。
由上述实施例可见,本申请实施例提供的视频数据处理方法、装置及显示设备,在第一芯片在将视频层信号与图形层信号叠加生成视频图像信号前,先对图形层信号对应的图形层的透明度进行检测,并且检测其为透明层时,则将指示第二芯片对该视频图像信号中叠加图形层的区域进行运动补偿处理的指示信息以及该视频图像信号一同发送给第二芯片。这样,第二芯片便会根据该指示信息对该视频图像信号对应的全部图像区域进行运动补偿处理,并将处理后的信号输出到显示屏进行显示,进而可以有效避免当视频图像信号含有图形层信号时,关闭运动补偿处理功能所带来的显示画面质量降低的问题。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1中示例性示出了根据实施例中显示设备与控制装置之间操作场景的示意图;
图2中示例性示出了根据实施例中控制装置100的硬件配置框图;
图3中示例性示出了根据实施例中显示设备200的硬件配置框图;
图4中示例性示出了根据图3显示设备200的硬件架构框图;
图5中示例性示出了根据实施例中显示设备200的功能配置示意图;
图6a中示例性示出了根据实施例中显示设备200中软件配置示意图;
图6b中示例性示出了根据实施例中显示设备200中应用程序的配置示意图;
图7中示例性示出了根据实施例中显示设备200中用户界面的示意图;
图8中示例性示出了一种视频数据处理方法的流程示意图;
图9中示例性示出了第一芯片对视频层信号和图形层信号的处理流程示意图;
图10中示例性示出了帧画面的示意图;
图11中示例性示出了帧画面的示意图;
图12中示例性示出了帧画面的示意图;
图13中示例性示出了另一种视频数据处理方法的流程示意图。
具体实施方式
为使本申请示例性实施例的目的、技术方案和优点更加清楚,下面将结合本申请示例性实施例中的附图,对本申请示例性实施例中的技术方案进行清楚、完整地描述,显然,所描述的示例性实施例仅是本申请一部分实施例,而不是全部的实施例。
本申请涉及的显示终端包含至少两个系统级芯片,为了便于理解,在此,对多芯片结构的显示终端进行介绍。
为便于用户使用,显示设备上通常会设置各种外部装置接口,以便于连接不同的外设设备或线缆以实现相应的功能。而在显示设备的接口上连接有高清晰度的摄像头时,如果显示设备的硬件系统没有接收源码的高像素摄像头的硬件接口,那么就会导致无法将摄像头接收到的数据呈现到显示设备的显示屏上。
并且,受制于硬件结构,传统显示设备的硬件系统仅支持一路硬解码资源,且通常最大仅能支持4K分辨率的视频解码,因此当要实现边观看网络电视边进行视频聊天时,为了不降低网络视频画面清晰度,就需要使用硬解码资源(通常是硬件系统中的GPU)对网络视频进行解码,而在此情况下,只能采取由硬件系统中的通用处理器(例如CPU)对视频进行软解码的方式处理视频聊天画面。
采用软解码处理视频聊天画面,会大大增加CPU的数据处理负担,当CPU的数据处理负担过重时,可能会出现画面卡顿或者不流畅的问题。进一步的,受制于CPU的数据处理能力,当采用CPU软解码处理视频聊天画面时,通常无法实现多路视频通话,当用户想要再同一聊天场景同时与多个其他用户进行视频聊天时,会出现接入受阻的情况。
基于上述各方面的考虑,为克服上述缺陷,本申请公开了一种双硬件系统架构,以实现多路视频聊天数据(至少一路本地视频)。
下面首先结合附图对本申请所涉及的概念进行说明。在此需要指出的是,以下对各个概念的说明,仅为了使本申请的内容更加容易理解,并不表示对本申请保护范围的限定。
本申请各实施例中使用的术语“模块”,可以是指任何已知或后来开发的硬件、软件、固件、人工智能、模糊逻辑或硬件或/和软件代码的组合,能够执行与该元件相关的功能。
本申请各实施例中使用的术语“遥控器”,是指电子设备(如本申请中公开的显示设备)的一个组件,该组件通常可在较短的距离范围内无线控制电子设备。该组件一般可以使用红外线和/或射频(RF)信号和/或蓝牙与电子设备连接,也可以包括WiFi、无线USB、蓝牙、动作传感器等功能模块。例如:手持式触摸遥控器,是以触摸屏中用户界面取代一般遥控装置中的大部分物理内置硬键。
本申请各实施例中使用的术语“手势”,是指用户通过一种手型的变化或手部运动等动作,用于表达预期想法、动作、目的/或结果的用户行为。
本申请各实施例中使用的术语“硬件系统”,可以是指由集成电路(IntegratedCircuit,IC)、印刷电路板(Printed circuit board,PCB)等机械、光、电、磁器件构成的具有计算、控制、存储、输入和输出功能的实体部件。在本申请各个实施例中,硬件系统通常也会被称为主板(motherboard)或芯片。
图1中示例性示出了根据实施例中显示设备与控制装置之间操作场景的示意图。如图1所示,用户可通过控制装置100来操作显示设备200。
其中,控制装置100可以是遥控器100A,其可与显示设备200之间通过红外协议通信、蓝牙协议通信、紫蜂(ZigBee)协议通信或其他短距离通信方式进行通信,用于通过无线或其他有线方式来控制显示设备200。用户可以通过遥控器上按键、语音输入、控制面板输入等输入用户指令,来控制显示设备200。如:用户可以通过遥控器上音量加减键、频道控制键、上/下/左/右的移动按键、语音输入按键、菜单键、开关机按键等输入相应控制指令,来实现控制显示设备200的功能。
控制装置100也可以是智能设备,如移动终端100B、平板电脑、计算机、笔记本电脑等,其可以通过本地网(LAN,Local Area Network)、广域网(WAN,Wide Area Network)、无线局域网((WLAN,Wireless Local Area Network)或其他网络与显示设备200之间通信,并通过与显示设备200相应的应用程序实现对显示设备200的控制。例如,使用在智能设备上运行的应用程序控制显示设备200。该应用程序可以在与智能设备关联的屏幕上通过直观的用户界面(UI,User Interface)为用户提供各种控制。
示例的,移动终端100B与显示设备200均可安装软件应用,从而可通过网络通信协议实现二者之间的连接通信,进而实现一对一控制操作的和数据通信的目的。如:可以使移动终端100B与显示设备200建立控制指令协议,将遥控控制键盘同步到移动终端100B上,通过控制移动终端100B上用户界面,实现控制显示设备200的功能;也可以将移动终端100B上显示的音视频内容传输到显示设备200上,实现同步显示功能。
如图1所示,显示设备200还可与服务器300通过多种通信方式进行数据通信。在本申请各个实施例中,可允许显示设备200通过局域网、无线局域网或其他网络与服务器300进行通信连接。服务器300可以向显示设备200提供各种内容和互动。
示例的,显示设备200通过发送和接收信息,以及电子节目指南(EPG,ElectronicProgram Guide)互动,接收软件程序更新,或访问远程储存的数字媒体库。服务器300可以是一组,也可以是多组,可以是一类或多类服务器。通过服务器300提供视频点播和广告服务等其他网络服务内容。
显示设备200,一方面讲,可以是液晶显示器、OLED(Organic Light EmittingDiode)显示器、投影显示设备;另一方面讲,显示设备被可以是智能电视或显示器和机顶盒组成的显示系统。具体显示设备类型,尺寸大小和分辨率等不作限定,本领技术人员可以理解的是,显示设备200可以根据需要做性能和配置上的一些改变。
显示设备200除了提供广播接收电视功能之外,还可以附加提供计算机支持功能的智能网络电视功能。示例的包括,网络电视、智能电视、互联网协议电视(IPTV)等。在一些实施例中,显示设备可以不具备广播接收电视功能。
如图1所述,显示设备上可以连接或设置有摄像头,用于将摄像头拍摄到的画面呈现在本显示设备或其他显示设备的显示界面上,以实现用户之间的交互聊天。具体的,摄像头拍摄到的画面可在显示设备上全屏显示、半屏显示、或者显示任意可选区域。
作为一种可选的连接方式,摄像头通过连接板与显示器后壳连接,固定安装在显示器后壳的上侧中部,作为可安装的方式,可以固定安装在显示器后壳的任意位置,能保证其图像采集区域不被后壳遮挡即可,例如,图像采集区域与显示设备的显示朝向相同。
作为另一种可选的连接方式,摄像头通过连接板或者其他可想到的连接器可升降的与显示后壳连接,连接器上安装有升降马达,当用户要使用摄像头或者有应用程序要使用摄像头时,再升出显示器之上,当不需要使用摄像头时,其可内嵌到后壳之后,以达到保护摄像头免受损坏。
作为一种实施例,本申请所采用的摄像头可以为1600万像素,以达到超高清显示目的。在实际使用中,也可采用比1600万像素更高或更低的摄像头。
当显示设备上安装有摄像头以后,显示设备不同应用场景所显示的内容可得到多种不同方式的融合,从而达到传统显示设备无法实现的功能。
示例性的,用户可以在边观看视频节目的同时,与至少一位其他用户进行视频聊天。视频节目的呈现可作为背景画面,视频聊天的窗口显示在背景画面之上。形象的,可以称该功能为“边看边聊”。
可选的,在“边看边聊”的场景中,在观看直播视频或网络视频的同时,跨终端的进行至少一路的视频聊天。
另一示例中,用户可以在边进入教育应用学习的同时,与至少一位其他用户进行视频聊天。例如,学生在学习教育应用程序中内容的同时,可实现与老师的远程互动。形象的,可以称该功能为“边学边聊”。
另一示例中,用户在玩纸牌游戏时,与进入游戏的玩家进行视频聊天。例如,玩家在进入游戏应用参与游戏时,可实现与其他玩家的远程互动。形象的,可以称该功能为“边看边玩”。
可选的,游戏场景与视频画面进行融合,将视频画面中人像进行抠图,显示在游戏画面中,提升用户体验。
可选的,在体感类游戏中(如打球类、拳击类、跑步类、跳舞类等),通过摄像头获取人体姿势和动作,肢体检测和追踪、人体骨骼关键点数据的检测,再与游戏中动画进行融合,实现如体育、舞蹈等场景的游戏。
另一示例中,用户可以在K歌应用中,与至少一位其他用户进行视频和语音的交互。形象的,可以称该功能为“边看边唱”。优选的,当至少一位用户在聊天场景进入该应用时,可多个用户共同完成一首歌的录制。
另一个示例中,用户可在本地打开摄像头获取图片和视频,形象的,可以称该功能为“照镜子”。
在另一些示例中,还可以再增加更多功能或减少上述功能。本申请对该显示设备的功能不作具体限定。
图2中示例性示出了根据示例性实施例中控制装置100的配置框图。如图2所示,控制装置100包括控制器110、通信器130、用户输入/输出接口140、存储器190、供电电源180。
控制装置100被配置为可控制所述显示设备200,以及可接收用户的输入操作指令,且将操作指令转换为显示设备200可识别和响应的指令,起到用户与显示设备200之间交互中介作用。如:用户通过操作控制装置100上频道加减键,显示设备200响应频道加减的操作。
在一些实施例中,控制装置100可是一种智能设备。如:控制装置100可根据用户需求安装控制显示设备200的各种应用。
在一些实施例中,如图1所示,移动终端100B或其他智能电子设备,可在安装操控显示设备200的应用之后,起到控制装置100类似功能。如:用户可以通过安装应用,在移动终端100B或其他智能电子设备上可提供的图形用户界面的各种功能键或虚拟按钮,以实现控制装置100实体按键的功能。
控制器110包括处理器112、RAM113和ROM114、通信接口以及通信总线。控制器110用于控制控制装置100的运行和操作,以及内部各部件之间通信协作以及外部和内部的数据处理功能。
通信器130在控制器110的控制下,实现与显示设备200之间控制信号和数据信号的通信。如:将接收到的用户输入信号发送至显示设备200上。通信器130可包括WIFI模块131、蓝牙模块132、NFC模块133等通信模块中至少一种。
用户输入/输出接口140,其中,输入接口包括麦克风141、触摸板142、传感器143、按键144等输入接口中至少一者。如:用户可以通过语音、触摸、手势、按压等动作实现用户指令输入功能,输入接口通过将接收的模拟信号转换为数字信号,以及数字信号转换为相应指令信号,发送至显示设备200。
输出接口包括将接收的用户指令发送至显示设备200的接口。在一些实施例中,可以是红外接口,也可以是射频接口。如:红外信号接口时,需要将用户输入指令按照红外控制协议转化为红外控制信号,经红外发送模块进行发送至显示设备200。再如:射频信号接口时,需将用户输入指令转化为数字信号,然后按照射频控制信号调制协议进行调制后,由射频发送端子发送至显示设备200。
在一些实施例中,控制装置100包括通信器130和输出接口中至少一者。控制装置100中配置通信器130,如:WIFI、蓝牙、NFC等模块,可将用户输入指令通过WIFI协议、或蓝牙协议、或NFC协议编码,发送至显示设备200.
存储器190,用于在控制器110的控制下存储驱动和控制控制装置100的各种运行程序、数据和应用。存储器190,可以存储用户输入的各类控制信号指令。
供电电源180,用于在控制器110的控制下为控制装置100各元件提供运行电力支持。可以电池及相关控制电路。
图3中示例性示出了根据示例性实施例中显示设备200中硬件系统的硬件配置框图。
在采用双硬件系统架构时,硬件系统的机构关系可以图3所示。为便于表述以下将双硬件系统架构中的一个硬件系统称为第一硬件系统或A系统、A芯片,并将另一个硬件系统称为第二硬件系统或N系统、N芯片。A芯片包含A芯片的控制器及通过各类接口与A芯片的控制器相连的各类模块,N芯片则包含N芯片的控制器及通过各类接口与N芯片的控制器相连的各类模块。A芯片及N芯片中可以各自安装有相对独立的操作系统,A芯片的操作系统和N芯片的操作系统可以通过通信协议相互通信,示例性的:A芯片的操作系统的framework层和N芯片的操作系统的framework层可以进行通信进行命令和数据的传输,从而使显示设备200中存在两个在独立但又存在相互关联的子系统。
如图3所示,A芯片与N芯片之间可以通过多个不同类型的接口实现连接、通信及供电。A芯片与N芯片之间接口的接口类型可以包括通用输入输出接口(General-purposeinput/output,GPIO)、USB接口、HDMI接口、UART接口等。A芯片与N芯片之间可以使用这些接口中的一个或多个进行通信或电力传输。例如图3所示,在双硬件系统架构下,可以由外接的电源(power)为N芯片供电,而A芯片则可以不由外接电源,而由N芯片供电。
除用于与N芯片进行连接的接口之外,A芯片还可以包含用于连接其他设备或组件的接口,例如图3中所示的用于连接摄像头(Camera)的MIPI接口,蓝牙接口等。
类似的,除用于与N芯片进行连接的接口之外,N芯片还可以包含用于连接显示屏TCON(Timer Control Register)的VBY接口,用于连接功率放大器(Amplifier,AMP)及扬声器(Speaker)的i2S接口;以及IR/Key接口,USB接口,Wifi接口,蓝牙接口,HDMI接口,Tuner接口等。
下面结合图4对本申请双硬件系统架构进行进一步的说明。需要说明的是图4仅仅是对本申请双硬件系统架构的一个示例性说明,并不表示对本申请的限定。在实际应用中,两个硬件系统均可根据需要包含更多或更少的硬件或接口。
图4中示例性示出了根据图3显示设备200的硬件架构框图。如图4所示,显示设备200的硬件系统可以包括A芯片和N芯片,以及通过各类接口与A芯片或N芯片相连接的模块。
N芯片可以包括调谐解调器220、通信器230、外部装置接口250、控制器210、存储器290、用户输入接口、视频处理器260-1、音频处理器260-2、显示器280、音频输出接口272、供电电源。在其他实施例中N芯片也可以包括更多或更少的模块。
其中,调谐解调器220,用于对通过有线或无线方式接收广播电视信号,进行放大、混频和谐振等调制解调处理,从而从多个无线或有线广播电视信号中解调出用户所选择电视频道的频率中所携带的音视频信号,以及附加信息(例如EPG数据信号)。根据电视信号广播制式不同,调谐解调器220的信号途径可以有很多种,诸如:地面广播、有线广播、卫星广播或互联网广播等;以及根据调制类型不同,所述信号的调整方式可以数字调制方式,也可以模拟调制方式;以及根据接收电视信号种类不同,调谐解调器220可以解调模拟信号和/或数字信号。
调谐解调器220,还用于根据用户选择,以及由控制器210控制,响应用户选择的电视频道频率以及该频率所携带的电视信号。
在其他一些示例性实施例中,调谐解调器220也可在外置设备中,如外置机顶盒等。这样,机顶盒通过调制解调后输出电视音视频信号,经过外置装置接口250输入至显示设备200中。
通信器230是用于根据各种通信协议类型与外部设备或外部服务器进行通信的组件。例如:通信器230可以包括WIFI模块231,蓝牙通信协议模块232,有线以太网通信协议模块233,及红外通信协议模块等其他网络通信协议模块或近场通信协议模块。
显示设备200可以通过通信器230与外部控制设备或内容提供设备之间建立控制信号和数据信号的连接。例如,通信器可根据控制器的控制接收遥控器100的控制信号。
外部装置接口250,是提供N芯片控制器210和A芯片及外部其他设备间数据传输的组件。外部装置接口可按照有线/无线方式与诸如机顶盒、游戏装置、笔记本电脑等的外部设备连接,可接收外部设备的诸如视频信号(例如运动图像)、音频信号(例如音乐)、附加信息(例如EPG)等数据。
其中,外部装置接口250可以包括:高清多媒体接口(HDMI)端子251、复合视频消隐同步(CVBS)端子252、模拟或数字分量端子253、通用串行总线(USB)端子254、红绿蓝(RGB)端子(图中未示出)等任一个或多个。本申请不对外部装置接口的数量和类型进行限制。
控制器210,通过运行存储在存储器290上的各种软件控制程序(如操作系统和/或各种应用程序),来控制显示设备200的工作和响应用户的操作。
如图4所示,控制器210包括只读存储器RAM213、随机存取存储器ROM214、图形处理器216、CPU处理器212、通信接口218、以及通信总线。其中,RAM213和ROM214以及图形处理器216、CPU处理器212、通信接口218通过总线相连接。
ROM213,用于存储各种系统启动的指令。如在收到开机信号时,显示设备200电源开始启动,CPU处理器212运行ROM中系统启动指令,将存储在存储器290的操作系统拷贝至RAM214中,以开始运行启动操作系统。当操作系统启动完成后,CPU处理器212再将存储器290中各种应用程序拷贝至RAM214中,然后,开始运行启动各种应用程序。
图形处理器216,用于产生各种图形对象,如:图标、操作菜单、以及用户输入指令显示图形等。包括运算器,通过接收用户输入各种交互指令进行运算,根据显示属性显示各种对象。以及包括渲染器,产生基于运算器得到的各种对象,进行渲染的结果显示在显示器280上。
CPU处理器212,用于执行存储在存储器290中操作系统和应用程序指令。以及根据接收外部输入的各种交互指令,来执行各种应用程序、数据和内容,以便最终显示和播放各种音视频内容。
在一些示例性实施例中,CPU处理器212,可以包括多个处理器。所述多个处理器中可包括一个主处理器以及多个或一个子处理器。主处理器,用于在预加电模式中执行显示设备200一些操作,和/或在正常模式下显示画面的操作。多个或一个子处理器,用于执行在待机模式等状态下的一种操作。
通信接口,可包括第一接口218-1到第n接口218-n。这些接口可以是经由网络被连接到外部设备的网络接口。
控制器210可以控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器280上显示UI对象的用户命令,控制器210便可以执行与由用户命令选择的对象有关的操作。
其中,所述对象可以是可选对象中的任何一个,例如超链接或图标。与所选择的对象有关操作,例如:显示连接到超链接页面、文档、图像等操作,或者执行与图标相对应程序的操作。用于选择UI对象用户命令,可以是通过连接到显示设备200的各种输入装置(例如,鼠标、键盘、触摸板等)输入命令或者与由用户说出语音相对应的语音命令。
存储器290,包括存储用于驱动和控制显示设备200的各种软件模块。如:存储器290中存储的各种软件模块,包括:基础模块、检测模块、通信模块、显示控制模块、浏览器模块、和各种服务模块等。
其中,基础模块是用于显示设备200中各个硬件之间信号通信、并向上层模块发送处理和控制信号的底层软件模块。检测模块是用于从各种传感器或用户输入接口中收集各种信息,并进行数模转换以及分析管理的管理模块。
例如:语音识别模块中包括语音解析模块和语音指令数据库模块。显示控制模块是用于控制显示器280进行显示图像内容的模块,可以用于播放多媒体图像内容和UI界面等信息。通信模块,是用于与外部设备之间进行控制和数据通信的模块。浏览器模块,是用于执行浏览服务器之间数据通信的模块。服务模块,是用于提供各种服务以及各类应用程序在内的模块。
同时,存储器290还用于存储接收外部数据和用户数据、各种用户界面中各个项目的图像以及焦点对象的视觉效果图等。
用户输入接口,用于将用户的输入信号发送给控制器210,或者,将从控制器输出的信号传送给用户。示例性的,控制装置(例如移动终端或遥控器)可将用户输入的诸如电源开关信号、频道选择信号、音量调节信号等输入信号发送至用户输入接口,再由用户输入接口转送至控制器;或者,控制装置可接收经控制器处理从用户输入接口输出的音频、视频或数据等输出信号,并且显示接收的输出信号或将接收的输出信号输出为音频或振动形式。
在一些实施例中,用户可在显示器280上显示的图形用户界面(GUI)输入用户命令,则用户输入接口通过图形用户界面(GUI)接收用户输入命令。或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户输入接口通过传感器识别出声音或手势,来接收用户输入命令。
视频处理器260-1,用于接收视频信号,根据输入信号的标准编解码协议,进行解压缩、解码、缩放、降噪、帧率转换、分辨率转换、图像合成等视频数据处理,可得到直接在显示器280上显示或播放的视频信号。
示例的,视频处理器260-1,包括解复用模块、视频解码模块、图像合成模块、帧率转换模块、显示格式化模块等。
其中,解复用模块,用于对输入音视频数据流进行解复用处理,如输入MPEG-2,则解复用模块进行解复用成视频信号和音频信号等。
视频解码模块,用于对解复用后的视频信号进行处理,包括解码和缩放处理等。
图像合成模块,如图像合成器,其用于将图形生成器根据用户输入或自身生成的GUI信号,与缩放处理后视频图像进行叠加混合处理,以生成可供显示的图像信号。
帧率转换模块,用于对输入视频的帧率进行转换,如将输入的24Hz、25Hz、30Hz、60Hz视频的帧率转换为60Hz、120Hz或240Hz的帧率,其中,输入帧率可以与源视频流有关,输出帧率可以与显示器的更新率有关。输入有通常的格式采用如插帧方式实现。
显示格式化模块,用于将帧率转换模块输出的信号,改变为符合诸如显示器显示格式的信号,如将帧率转换模块输出的信号进行格式转换以输出RGB数据信号。
显示器280,用于接收源自视频处理器260-1输入的图像信号,进行显示视频内容和图像以及菜单操控界面。显示器280包括用于呈现画面的显示器组件以及驱动图像显示的驱动组件。显示视频内容,可以来自调谐解调器220接收的广播信号中的视频,也可以来自通信器或外部设备接口输入的视频内容。显示器220,同时显示显示设备200中产生且用于控制显示设备200的用户操控界面UI。
以及,根据显示器280类型不同,还包括用于驱动显示的驱动组件。或者,倘若显示器280为一种投影显示器,还可以包括一种投影装置和投影屏幕。
音频处理器260-2,用于接收音频信号,根据输入信号的标准编解码协议,进行解压缩和解码,以及降噪、数模转换、和放大处理等音频数据处理,得到可以在扬声器272中播放的音频信号。
音频输出接口270,用于在控制器210的控制下接收音频处理器260-2输出的音频信号,音频输出接口可包括扬声器272,或输出至外接设备的发生装置的外接音响输出端子274,如:外接音响端子或耳机输出端子等。
在其他一些示例性实施例中,视频处理器260-1可以包括一个或多个芯片组成。音频处理器260-2,也可以包括一个或多个芯片组成。
以及,在其他一些示例性实施例中,视频处理器260-1和音频处理器260-2,可以为单独的芯片,也可以与控制器210一起集成在一个或多个芯片中。
供电电源,用于在控制器210控制下,将外部电源输入的电力为显示设备200提供电源供电支持。供电电源可以包括安装显示设备200内部的内置电源电路,也可以是安装在显示设备200外部的电源,如在显示设备200中提供外接电源的电源接口。
与N芯片相类似,如图4所示,A芯片可以包括控制器310、通信器330、检测器340、存储器390。在某些实施例中还可以包括视频处理器360、用户输入接口、音频处理器、显示器、音频输出接口。在某些实施例中,也可以存在独立为A芯片供电的供电电源。
通信器330是用于根据各种通信协议类型与外部设备或外部服务器进行通信的组件。例如:通信器330可以包括WIFI模块331,蓝牙通信协议模块332,有线以太网通信协议模块333,及红外通信协议模块等其他网络通信协议模块或近场通信协议模块。
A芯片的通信器330和N芯片的通信器230也有相互交互。例如,N芯片硬件系统内的WiFi模块231用于连接外部网络,与外部服务器等产生网络通信。A芯片硬件系统内的WiFi模块331用于连接至N芯片的WiFi模块231,而不与外界网络等产生直接连接,A芯片通过N芯片连接外部网络。因此,对于用户而言,一个如上述实施例中的显示设备至对外显示一个WiFi账号。
检测器340,是显示设备A芯片用于采集外部环境或与外部交互的信号的组件。检测器340可以包括光接收器342,用于采集环境光线强度的传感器,可以通过采集环境光来自适应显示参数变化等;还可以包括图像采集器341,如相机、摄像头等,可以用于采集外部环境场景,以及用于采集用户的属性或与用户交互手势,可以自适应变化显示参数,也可以识别用户手势,以实现与用户之间互动的功能。
外部装置接口350,提供控制器310与N芯片或外部其他设备间数据传输的组件。外部装置接口可按照有线/无线方式与诸如机顶盒、游戏装置、笔记本电脑等的外部设备连接。
控制器310,通过运行存储在存储器390上的各种软件控制程序(如用安装的第三方应用等),以及与N芯片的交互,来控制显示设备200的工作和响应用户的操作。
如图4所示,控制器310包括只读存储器ROM313、随机存取存储器RAM314、图形处理器316、CPU处理器312、通信接口318、以及通信总线。其中,ROM313和RAM314以及图形处理器316、CPU处理器312、通信接口318通过总线相连接。
ROM313,用于存储各种系统启动的指令。CPU处理器312运行ROM中系统启动指令,将存储在存储器390的操作系统拷贝至RAM314中,以开始运行启动操作系统。当操作系统启动完成后,CPU处理器312再将存储器390中各种应用程序拷贝至RAM314中,然后,开始运行启动各种应用程序。
CPU处理器312,用于执行存储在存储器390中操作系统和应用程序指令,和与N芯片进行通信、信号、数据、指令等传输与交互,以及根据接收外部输入的各种交互指令,来执行各种应用程序、数据和内容,以便最终显示和播放各种音视频内容。
通信接口,可包括第一接口318-1到第n接口318-n。这些接口可以是经由网络被连接到外部设备的网络接口,也可以是经由网络被连接到N芯片的网络接口。
控制器310可以控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器280上显示UI对象的用户命令,控制器210便可以执行与由用户命令选择的对象有关的操作。
图形处理器316,用于产生各种图形对象,如:图标、操作菜单、以及用户输入指令显示图形等。包括运算器,通过接收用户输入各种交互指令进行运算,根据显示属性显示各种对象。以及包括渲染器,产生基于运算器得到的各种对象,进行渲染的结果显示在显示器280上。
A芯片的图形处理器316与N芯片的图形处理器216均能产生各种图形对象。区别性的,若应用1安装于A芯片,应用2安装在N芯片,当用户在应用1的界面,且在应用1内进行用户输入的指令时,由A芯片图形处理器316产生图形对象。当用户在应用2的界面,且在应用2内进行用户输入的指令时,由N芯片的图形处理器216产生图形对象。
图5中示例性示出了根据示例性实施例中显示设备的功能配置示意图。
如图5所示,A芯片的存储器390和N芯片的存储器290分别用于存储操作系统、应用程序、内容和用户数据等,在A芯片的控制器310和N芯片的控制器210的控制下执行驱动显示设备200的系统运行以及响应用户的各种操作。A芯片的存储器390和N芯片的存储器290可以包括易失性和/或非易失性存储器。
对于N芯片,存储器290,具体用于存储驱动显示设备200中控制器210的运行程序,以及存储显示设备200内置各种应用程序,以及用户从外部设备下载的各种应用程序、以及与应用程序相关的各种图形用户界面,以及与图形用户界面相关的各种对象,用户数据信息,以及各种支持应用程序的内部数据。存储器290用于存储操作系统(OS)内核、中间件和应用等系统软件,以及存储输入的视频数据和音频数据、及其他用户数据。
存储器290,具体用于存储视频处理器260-1和音频处理器260-2、显示器280、通信接口230、调谐解调器220、输入/输出接口等驱动程序和相关数据。
在一些实施例中,存储器290可以存储软件和/或程序,用于表示操作系统(OS)的软件程序包括,例如:内核、中间件、应用编程接口(API)和/或应用程序。示例性的,内核可控制或管理系统资源,或其它程序所实施的功能(如所述中间件、API或应用程序),以及内核可以提供接口,以允许中间件和API,或应用访问控制器,以实现控制或管理系统资源。
示例的,存储器290,包括广播接收模块2901、频道控制模块2902、音量控制模块2903、图像控制模块2904、显示控制模块2905、音频控制模块2906、外部指令识别模块2907、通信控制模块2908、光接收模块2909、电力控制模块2910、操作系统2911、以及其他应用程序2912、浏览器模块等等。控制器210通过运行存储器290中各种软件程序,来执行诸如:广播电视信号接收解调功能、电视频道选择控制功能、音量选择控制功能、图像控制功能、显示控制功能、音频控制功能、外部指令识别功能、通信控制功能、光信号接收功能、电力控制功能、支持各种功能的软件操控平台、以及浏览器功能等各类功能。
存储器390,包括存储用于驱动和控制显示设备200的各种软件模块。如:存储器390中存储的各种软件模块,包括:基础模块、检测模块、通信模块、显示控制模块、浏览器模块、和各种服务模块等。由于存储器390与存储器290的功能比较相似,相关之处参见存储器290即可,在此就不再赘述。
示例的,存储器390,包括图像控制模块3904、音频控制模块2906、外部指令识别模块3907、通信控制模块3908、光接收模块3909、操作系统3911、以及其他应用程序3912、浏览器模块等等。控制器210通过运行存储器290中各种软件程序,来执行诸如:图像控制功能、显示控制功能、音频控制功能、外部指令识别功能、通信控制功能、光信号接收功能、电力控制功能、支持各种功能的软件操控平台、以及浏览器功能等各类功能。
区别性的,N芯片的外部指令识别模块2907和A芯片的外部指令识别模块3907可识别不同的指令。
示例性的,由于摄像头等图像接收设备与A芯片连接,因此,A芯片的外部指令识别模块3907可包括图形识别模块3907-1,图形识别模块3907-1内存储有图形数据库,摄像头接收到外界的图形指令时,与图形数据库中的指令进行对应关系,以对显示设备作出指令控制。而由于语音接收设备以及遥控器与N芯片连接,因此,N芯片的外部指令识别模块2907可包括语音识别模块2907-2,语音识别模块2907-2内存储有语音数据库,语音接收设备等接收到外界的语音指令或时,与语音数据库中的指令进行对应关系,以对显示设备作出指令控制。同样的,遥控器等控制装置100与N芯片连接,由按键指令识别模块2907-3与控制装置100进行指令交互。
图6a中示例性示出了根据示例性实施例中显示设备200中软件系统的配置框图。
对N芯片,如图6a中所示,操作系统2911,包括用于处理各种基础系统服务和用于实施硬件相关任务的执行操作软件。
一些实施例中,部分操作系统内核可以包含一系列软件,用以管理显示设备硬件资源,并为其他程序或软件代码提供服务。
其他一些实施例中,部分操作系统内核可包含一个或多个设备驱动器,设备驱动器可以是操作系统中的一组软件代码,帮助操作或控制显示设备关联的设备或硬件。驱动器可以包含操作视频、音频和/或其他多媒体组件的代码。示例的,包括显示器、摄像头、Flash、WiFi和音频驱动器。
其中,可访问性模块2911-1,用于修改或访问应用程序,以实现应用程序的可访问性和对其显示内容的可操作性。
通信模块2911-2,用于经由相关通信接口和通信网络与其他外设的连接。
用户界面模块2911-3,用于提供显示用户界面的对象,以供各应用程序访问,可实现用户可操作性。
控制应用程序2911-4,用于控制进程管理,包括运行时间应用程序等。
事件传输系统2914,可在操作系统2911内或应用程序2912中实现。一些实施例中,一方面在在操作系统2911内实现,同时在应用程序2912中实现,用于监听各种用户输入事件,将根据各种事件指代响应各类事件或子事件的识别结果,而实施一组或多组预定义的操作的处理程序。
其中,事件监听模块2914-1,用于监听用户输入接口输入事件或子事件。
事件识别模块2914-2,用于对各种用户输入接口输入各类事件的定义,识别出各种事件或子事件,且将其传输给处理用以执行其相应一组或多组的处理程序。
其中,事件或子事件,是指显示设备200中一个或多个传感器检测的输入,以及外界控制设备(如控制装置100等)的输入。如:语音输入各种子事件,手势识别的手势输入子事件,以及控制装置的遥控按键指令输入的子事件等。示例的,遥控器中一个或多个子事件包括多种形式,包括但不限于按键按上/下/左右/、确定键、按键按住等中一个或组合。以及非实体按键的操作,如移动、按住、释放等操作。
界面布局管理模块2913,直接或间接接收来自于事件传输系统2914监听到各用户输入事件或子事件,用于更新用户界面的布局,包括但不限于界面中各控件或子控件的位置,以及容器的大小或位置、层级等与界面布局相关各种执行操作。
由于A芯片的操作系统3911与N芯片的操作系统2911的功能比较相似,相关之处参见操作系统2911即可,在此就不再赘述。
如图6b中所示,显示设备的应用程序层包含可在显示设备200执行的各种应用程序。
N芯片的应用程序层2912可包含但不限于一个或多个应用程序,如:视频点播应用程序、应用程序中心、游戏应用等。A芯片的应用程序层3912可包含但不限于一个或多个应用程序,如:直播电视应用程序、媒体中心应用程序等。需要说明的是,A芯片和N芯片上分别包含什么应用程序是根据操作系统和其他设计确定的,本发明无需对A芯片和N芯片上所包含的应用程序做具体的限定和划分。
直播电视应用程序,可以通过不同的信号源提供直播电视。例如,直播电视应用程可以使用来自有线电视、无线广播、卫星服务或其他类型的直播电视服务的输入提供电视信号。以及,直播电视应用程序可在显示设备200上显示直播电视信号的视频。
视频点播应用程序,可以提供来自不同存储源的视频。不同于直播电视应用程序,视频点播提供来自某些存储源的视频显示。例如,视频点播可以来自云存储的服务器端、来自包含已存视频节目的本地硬盘储存器。
媒体中心应用程序,可以提供各种多媒体内容播放的应用程序。例如,媒体中心,可以为不同于直播电视或视频点播,用户可通过媒体中心应用程序访问各种图像或音频所提供服务。
应用程序中心,可以提供储存各种应用程序。应用程序可以是一种游戏、应用程序,或某些和计算机系统或其他设备相关但可以在显示设备中运行的其他应用程序。应用程序中心可从不同来源获得这些应用程序,将它们储存在本地储存器中,然后在显示设备200上可运行。
图7中示例性示出了根据示例性实施例中显示设备200中用户界面的示意图。如图7所示,用户界面包括多个视图显示区,示例的,第一视图显示区201和播放画面202,其中,播放画面包括布局一个或多个不同项目。以及用户界面中还包括指示项目被选择的选择器,可通过用户输入而移动选择器的位置,以改变选择不同的项目。
需要说明的是,多个视图显示区可以呈现不同层级的显示画面。如,第一视图显示区可呈现视频聊天项目内容,第二视图显示区可呈现应用层项目内容(如,网页视频、VOD展示、应用程序画面等)。
可选的,不同视图显示区的呈现存在优先级区别,优先级不同的视图显示区之间,视图显示区的显示优先级不同。如,系统层的优先级高于应用层的优先级,当用户在应用层使用获取选择器和画面切换时,不遮挡系统层的视图显示区的画面展示;以及,根据用户的选择使应用层的视图显示区的大小和位置发生变化时,系统层的视图显示区的大小和位置不受影响。
也可以呈现相同层级的显示画面,此时,选择器可以在第一视图显示区和第二视图显示区之间做切换,以及当第一视图显示区的大小和位置发生变化时,第二视图显示区的大小和位置可随及发生改变。
由于A芯片及N芯片中可能分别安装有独立的操作系统,从而使显示设备200中存在两个在独立但又存在相互关联的子系统。例如,A芯片和N均可以独立安装有安卓(Android)及各类APP,使得每个芯片均可以实现一定的功能,并且使A芯片和N芯片协同实现某项功能。
在实际应用的过程中,第一芯片(在本申请实施例示出的技术方案也称之为A芯片)和第二芯片(在本申请实施例示出的技术方案也称之为N芯片)均可用于接收视频信号。其中视频信号包括:来源于网络媒体的网络视频信号、来源于自广电网络的有线视频信号和预先存储的本地视频信号。在具体的应用过程中,第一芯片用于接收网络视频信号以及本地视频信号。第二芯片用于接收第一芯片传输的网络视频信号本地视频信号以及有线视频信号。
以第一芯片用于接收网络视频信号为例。通常,网络视频信号包括:视频层信号。第一芯片中设置有图形层信号发生器,第一芯片在接收网络视频信号的同时,图形层信号发生器根据需求产生相应的图形层信号,此时,第一芯片同时存在视频层信号和图形层信号。第一芯片需要将视频层信号和图形层信号发送至第二芯片。第二芯片将视频层信号和图形层信号处理后发送至显示设备的显示屏上展示。为了保证播放出来的画面流畅,第二芯片通常需要对接收到的视频信号进行图像处理,例如:运动补偿处理。
在运动补偿的过程中,由于视频层信号都是具有一定的运动矢量的信号,运动补偿技术若只作用于视频层信号,会将视频层信号更流畅、无明显的抖动现象。但是,若第二芯片接收到的信号为视频层信号与图形层信号叠加生成的视频图像信号,由于运动补偿帧中的图形层信号与前后两帧图形层信号相比,必存在像素点的移动。而根据HDMI协议,视频层信号和图形层信号无法在HDMI通道下同时传输,因此第一芯片会将视频层信号以及图形层信号混合后,按照HDMI协议编码成视频图像信号再发送给第二芯片。这样,第二芯片便不能区分其接收到的视频图像信号是否包含有图形层信号,如果继续对上述包含有图形层信号的视频图像信号进行运动补偿处理,便会出现图形层信号对应区域的画面被撕裂的现象。因此,可以采用的一种解决方式为:如果存在图形层时信时,第一芯片向第二芯片发送关闭运动补偿的指示消息,相应的,第二芯片对接收的视频图像信号不再进行运动补偿处理。但是,现有的第三方应用程序在全屏播放视频时,会创建一个透明的图形层叠加在视频层图像之上,此时若直接将运动补偿功能完全关闭,便会出现输出画面抖动严重的现象。
针对上述问题,本实施例提供了一种视频数据处理方法应用于显示设备中,该显示设备包括第一芯片、第二芯片和显示屏。图8中示例性示出了一种视频数据处理方法的流程示意图。如图8所示,该方法主要包括如下步骤:
S101:第一芯片在将视频层信号与图形层信号叠加生成视频图像信号前,检测所述图形层信号对应的图形层是否为透明层。
本实施例中,视频层信号可以是视频信号也可以是图像信号。图9中示例性示出了第一芯片对视频层信号和图形层信号的处理流程示意图。如图9所示,第一芯片用于接收视频层信号,其中,视频层信号可以为来源于网络媒体或本地媒体的视频信号,也可以为来源于网络媒体或本地媒体的图像信号,具体的,可以包括网络电影、电视剧、新闻、综艺节目、广告等视频节目;还包括自拍Dv短片、视频聊天、视频游戏等视频节目。
本实施例中,图形层信号也称之为OSD(Object Sequence Diagram,屏幕菜单式调节方式)。图形层信号来源于第一芯片内部设置的图形层信号发生器。OSD层信号主要包括用户设置、提示菜单以及第三方应用图层等,在安卓系统中,是由surface finger服务(也可称之为图形层信号发生器)来控制实现的。每个OSD层信号可以称为一个surface,每个surface都具有内容、大小、位置坐标以及透明度这些基本元素。第一芯片在基本元素中确定图形层信号的位置信息,其中所述位置信息为surface的尺寸信息和位置坐标信息分别对应基本元素的大小和位置坐标。
其中,基本元素基于视频层信号帧画面生成,举例说明:视频层信号帧画面的分辨率为1920*1080,图形层信号的位置信息以每帧画面的左上角为原点进行划定。具体的,请参阅图10,其中,图10示出的帧画面分辨率1920*1080,帧画面的左上角为B原点进行划定,图形层画面的左上角为A点。A点相对于B点的相对位置坐标为(m,n)。图形层画面的尺寸信息为(w,h),相应的位置信息为(m,n,w,h)。
基于第一芯片的上述信号处理过程,当图形层信号发生器有surface输出时,在将视频层信号与图形层信号叠加生成视频图像信号前,通过在所述图形层信号截取图形层图片帧;然后,根据对该图形层图片帧中像素点的像素值的分析结果,判断所述图形层信号对应的图形层是否为透明层。例如,通过检测该图形层图片帧中各像素点的像素值是否均为0,即各像素点的像素值均满足R=0、B=0且G=0时,则说明该图形层信号对应的图形层为透明层,但并不限于该检测方式,还可以采用其它方式、如分区域检测等。
如果所述图形层信号对应的图形层为透明层,则执行步骤S102,否则,则执行步骤S104。
S102:响应于所述图形层信号对应的图形层为透明层,则所述第一芯片将第一指示信息以及所述视频图像信号发送给第二芯片,其中,所述第一指示信息用于指示所述第二芯片对所述视频图像信号中叠加所述图形层的区域进行运动补偿处理。
本实施例中,第一芯片通过HDMI通道与第二芯片相连接,并且在HDMI数据传输协议中,音视频信号采用分时复用的方式进行数据传输,无法单独传输OSD层信号与视频层的信号。因此,本实施例中,第一芯片将视频层信号与图形层信号叠加得到的视频图像信号,通过HDMI通道发送给所述第二芯片。具体的,第一芯片将图形层信号和视频层信号叠加后转化成符合HDMI协议的视频图像信号,视频图像信号以HDMI数据包的形式存在。其中,视频图像信号的编码方式和视频层信号的编码方式不同。
另外,可以将第一指示信息可以添加至预留的HDMI信息包(packet,或称为InfoFrame Type code)中并发送至第二芯片。如采用HDMI协议中的SPD(source productdescription,产品来源说明)、NVBI(NTSC VBI)这两个预留的信息包,并且此两个信息包在每个图像帧率都会发送,因此,本实施例将第一指示信息添加至HDMI信息包中,可以实时传送每帧视频图像信号的图形层信息。当然,在具体实施过程中,该第一指示信息还可以为空白信息,即不在HDMI信息包添加关于图形层的信息。
在一些实施例中,第一芯片和第二芯片可以通过一种传输方式连接,该传输方式无法支持图形层信号和视频层信号的同时传输,需要将图形层信号和视频层信号编码成一路视频信号。
S103:所述第二芯片对所述视频图像信号进行运动补偿,生成运动补偿后的视频图像信号。
这样,第二芯片会根据该第一指示信息对接收到的视频图像信号中所述位置信息对应的区域的图像进行运动补偿处理、并且除所述位置信息对应的区域以外的图像也继续进行运动补偿,即对视频图像信号对应的全部图像区域均进行运动补偿处理,得到运动补偿后的视频图像信号,并继续执行步骤S107。因此,第二芯片可以准确的获知图形层信号对应的图形层是否为透明度状态,并进行相应的处理,可以有效避免当存在图形层信号时,直接关闭运动补偿处理功能所带来的输出画面质量降低的问题。
S104:响应于所述图形层信号对应的图形层不是透明层,则所述第一芯片将第二指示信息和所述视频图像信号发送给第二芯片。其中,所述第二指示信息中包括图形层信号对应的图形层的位置信息。
第一芯片将在surface的基本元素确定图形层信号的大小和位置坐标作为图形层的位置信息,并将该位置信息添加至第二指示信息中,然后将第二指示信息与视频图像信号一同通过HDMI通道发送至第二芯片。其中,第二指示信息可以通过预留HDMI信息包发送给第二芯片。然后,所述第二芯片接收到该第二指示信息和视频图像信号,可以按照步骤S104中所示的方式进行图像处理。
S105:所述第二芯片对所述视频图像信号中除所述位置信息对应的区域以外的图像进行运动补偿、对所述视频图像信号中所述位置信息对应的区域的图像不进行运动补偿。
具体的,第二芯片根据接收到的位置信息,确定图形层信号在所述视频图像信号中对应的第一区域,确定所述视频图像信号中第一区域之外的第二区域;对所述第二区域的图像进行运动补偿。
其中,第一区域的确定过程可以继续参阅图10。第一芯片发送的位置信息为(m,n,w,h),其中,图形层信号的画面尺寸信息为(w,h),位置坐标信息(m,n)。第二芯片根据位置坐标信息(m,n)确定图形层信号的画面的位置,然后根据图形层信号的画面的尺寸信息为(w,h)确定图形层信号的画面在视频图像信号的帧画面占用的区域即为第一区域,然后,在视频图像信号的帧画面去除图形层信号的画面在视频图像信号的帧画面占用的区域剩余的区域即为第二区域,对所述第二区域的图像进行运动补偿。当然,第一芯片所发送的位置信息除了采用上述方式外,还可以为两个对角顶点的位置坐标信息等方式。
进一步的,对第二区域的图像进行运动补偿的过程具体为:第二芯片中的运动补偿模块经过滤掉图形层信号的画面占用的区域(第一区域)对应的像素点,不进行此区域的运动矢量计算及插入补偿帧,对第二区域的像素点进行运动补偿。
可见,本实施例中第一芯片首先确定图形层信号的位置信息,并将图形层信号和视频层信号叠加后转化为成视频图像信号,然后,将所述位置信息连通视频图像信号一同以HDMI数据包形式发送给第二芯片。第二芯片对所述视频图像信号中除所述位置信息对应的区域以外的图像进行运动补偿,第二芯片将运动补偿后的图像和图形层信号的图像进行拼接以生成待显示图像。在当前帧视频画面与上一帧(或下一帧)视频画面之间插入该混合后补偿帧,进而,可以避免图形层信号在运动补偿过程中被撕裂问题的出现。
在实际应用的过程中,位置信息对应的第一区域是基于第一芯片接收的视频层信号的分辨率(在本实施例中也称之为输入分辨率)生成的。第二区域的是基于显示屏的分辨率(在本申请实施例中也称之为显示分辨率)计算。在视频播放的过程中,时常伴随着输入分辨率与显示分辨率不一致的情况。例如:一个网络视频的输入分辨率为1920*1080,但是,显示屏性能的不同,相应的显示分辨率也不同。4K显示屏的显示分辨率为3840*2160。FHD(Full High Definition)显示屏的显示分辨率一般只能达1920*1080。如果N芯片与FHD(Full High Definition)显示屏,便出现输入分辨率与显示分辨率不一致的情况。通常,输入分辨率与显示分辨率不一致会导致第二区域计算结果的不准确性。
下面结合具体实施例对输入分辨率与显示分辨率不一致将会导致的问题作以详细的说明。对于4K显示屏而言,如果网络视频的输入分辨率为1920*1080,第一芯片发送的位置信息为(0,0,20,30),相应的,图形层信号的画面的尺寸信息为(20,30),位置坐标信息(0,0)。在分辨率为1920*1080的视频信号中图形层信号的画面的尺寸信息为(20,30)。但是,视频播放的过程中,需要将视频信号分辨率转化为显示屏分辨率。转化后的帧画面的分辨率为3840*2160。此时在3840*2160分辨率的帧画面上根据图形层信号的画面的尺寸信息为(20,30),以及,位置坐标信息(0,0)来确定第二区域显然是不准确的。
为了保证第二区域的准确性。可以在运动补偿之前,根据视频层信号的分辨率与所述显示屏的分辨率之间的对应关系,对第一芯片发送的位置信息进行缩放处理,然后根据缩放处理后的位置信息,确定第二区域。也可以,确定所述位置信息在所述视频图像信号中对应的第一区域;所述第二芯片确定所述视频图像信号中第一区域之外的第二区域;然后基于视频层信号的分辨率与所述显示屏的分辨率之间的对应关系与所述显示屏的分辨率之间的对应关系,对于第二区域进行缩放处理。
第一种可能性第二芯片首先判断视频层信号的分辨率与显示屏的分辨率是否一致;如果不一致第二芯片根据显示屏的分辨率与视频层信号的分辨率之间的对应关系,对该位置信息和视频图像信号进行缩放处理,生成调整后的位置信息和调整后的视频图像信号,对调整后的视频图像信号除所述调整后的位置信息对应的区域以外图像进行运动补偿。
下面结合具体实例对第二区域的计算方法作以详细的说明。在一实施例中第二芯片与4K显示屏相连接。对于一网络视频信号而言,图形层信号的尺寸信息为(w,h),位置信息(m,n),第一芯片生成的位置信息为(m,n,w,h);第一芯片发送(m,n,w,h)至第二芯片。显示屏的分辨率为3840*2160,视频信号的分辨率1920*1080,第二芯片计算出显示屏分辨率与视频信号分辨率之间的对应关系为2倍。第二芯片基于2倍的对应关系,对第二视频信号的帧画面放大处理,生成帧画面的分辨率为3840*2160。第二芯片基于2倍的对应关系对(m,n,w,h)放大两倍处理,生成处理后的位置信息(2m,2n,2w,2h);第二芯片根据新的位置坐标信息(2m,2n)确定图形层信号的帧画面的位置,然后根据新的尺寸信息为(2w,2h),确定位置信息在帧画面(帧画面与显示屏分辨率一致)占用的区域,然后,在帧画面去除处理后的位置信息对应的区域在帧画面占用的区域为第一区域,剩余的区域即为第二区域。
最后,第二芯片对第二区域对应的图像进行运动补偿。
对于第二种情况,第二芯片确定所述位置信息在所述视频图像信号中对应的第一区域;所述第二芯片确定所述视频图像信号中第一区域之外的第二区域;第二芯片判断视频层信号的分辨率与所述显示屏的分辨率是否一致;如果不一致,根据所述显示屏的分辨率与视频层信号的分辨率之间的对应关系,则对所述第二区域进行缩放处理。
下面结合具体实例对第二区域的缩放过程作以详细的说明。在一实施例中第二芯片与4K显示屏相连接。对于一网络视频信号而言,第一芯片图形层信号的画面的尺寸信息为(w,h),位置坐标信息(m,n),第一芯片生成的位置信息为(m,n,w,h);第一芯片发送(m,n,w,h)至第二芯片;第二芯片确定在所述位置信息在视频图像信号中对应的第一区域;确定所述视频图像信号中除第一区域之外的第二区域;第二芯片计算出显示屏分辨率与视频信号分辨率之间的对应关系为2倍;第二芯片对第二区域放大2倍处理。具体的缩放过程可以参阅图11以及图12,其中图11中,区域1为放大处理前的第一区域,区域2为放大处理前的第二区域,图12中区域3为放大处理后的第二区域。
最后,第二芯片对放大处理后的第二区域对应的图像进行运动补偿。
采用本申请实施例示出的技术方案可避免由于视频层信号的分辨率与所述显示屏的分辨率不一致造成动补偿区域计算结果不准确问题的出现。
S106:第二芯片将运动补偿后的第二区域的图像和第一区域的图像进行拼接以生成运动补偿后的视频图像信号。
将计算得到的补偿帧与OSD层对应区域混合得到运动补偿后的视频图像信号,然后,在当前帧视频画面与上一帧(或下一帧)视频画面之间插入该混合后补偿帧。进而,可以在解决中OSD层信号被运动补偿处理技术撕裂的同时,还能更好的通过运动补偿技术解决视频信号的卡顿与抖动问题。
S107:所述第二芯片将运动补偿后的视频图像信号输出到所述显示屏进行显示。
进一步的,针对第三方应用所创建的透明的图形层通常是一个全屏的透明图形层,因此,为了减少对图像层进行像素分析的数据处理量,本实施例还提供了另一种视频数据处理方法,应用于显示设备中,该显示设备包括第一芯片、第二芯片和显示屏。图13中示例性示出了另一种视频数据处理方法的流程示意图。如图13所示,该方法主要包括如下步骤:
S201:第一芯片在将视频层信号与图形层信号叠加生成视频图像信号前,获取所述图形层信号中的位置信息。
第一芯片在surface的基本元素中获取图形层信号的位置信息,其中,所述位置信息可以包括surface的尺寸信息和位置坐标信息。
S202:根据所述位置信息,判断所述图形层信号对应的图形层在所述视频层信号所对应的视频层中的相对面积是否大于预设面积值。
根据该位置信息,计算图形层信号对应的图形层在视频层信号所对应的视频层中的相对面积,然后将该相对面积与预设面积值进行比较,如果大于预设面积值,则说明图形层信号对应的图形层可能为第三方应用所创建的透明图形层,进而执行步骤S203,否则,则执行步骤S206。另外,上述预设面积值可以根据视频层信号的分辨率确定。
S203:响应于所述相对面积大于预设面积值,则检测所述图形层信号对应的图形层是否为透明层。
如果所述图形层信号对应的图形层为透明层,则执行步骤S204,否则,则执行步骤S206。
S204:响应于所述图形层信号对应的图形层为透明层,则所述第一芯片将第一指示信息以及所述视频图像信号发送给第二芯片,其中,所述第一指示信息用于指示所述第二芯片对所述视频图像信号中叠加所述图形层的区域进行运动补偿处理。
S205:所述第二芯片对所述视频图像信号进行运动补偿,生成运动补偿后的视频图像信号。
第二芯片对接收到的视频图像信号对应的整个图像均进行运动补偿处理,得到运动补偿后的视频图像信号,并继续执行步骤S209。
S206:所述第一芯片将第二指示信息和所述视频图像信号发送给第二芯片。其中,所述第二指示信息中包括图形层信号对应的图形层的位置信息。
即如果图形层信号对应的图形层在所述视频层信号所对应的视频层中的相对面积不大于预设面积值,以及,图形层信号对应的图形层不是透明层时,均执行该步骤,以指示第二芯片对接收到的视频图像信号进行分区域处理,即执行步骤S207和S208中的方法,以实现在解决OSD层信号被运动补偿处理技术撕裂的同时,还能更好的通过运动补偿技术解决视频信号的卡顿与抖动问题的效果。
S207:所述第二芯片对所述视频图像信号中除所述位置信息对应的区域以外的图像进行运动补偿、对所述视频图像信号中所述位置信息对应的区域的图像不进行运动补偿。
S208:第二芯片将运动补偿后的第二区域的图像和第一区域的图像进行拼接以生成运动补偿后的视频图像信号。
S209:所述第二芯片将运动补偿后的视频图像信号输出到所述显示屏进行显示。
基于与上述方法同样的构思,本实例还提供了一种视频数据处理装置,其中该装置分别设置在第一芯片和第二芯片中,主要包括存储器和处理器,其中:所述存储器,用于存储程序代码;所述处理器,用于读取所述存储器中存储的程序代码,并且,设置在第一芯片和第二芯片中的处理器可以执行上述第一实施例和第二实施例中的方法。
基于与上述方法和装置同样的构思,本实施例还提供了一种显示设备,该显示设备主要包括第一芯片、第二芯片和显示屏,其中:
所述第一芯片被配置为:在将视频层信号与图形层信号叠加生成视频图像信号前,检测所述图形层信号对应的图形层是否为透明层,响应于所述图形层信号对应的图形层为透明层,将第一指示信息以及所述视频图像信号发送给第二芯片,其中,所述第一指示信息用于指示所述第二芯片对所述视频图像信号中叠加所述图形层的区域进行运动补偿处理;
所述第二芯片被配置为:根据所述第一指示信息,对所述视频图像信号中叠加所述图形层的区域进行运动补偿处理并将运动补偿后的视频图像信号输出到所述显示屏进行显示。
可选择的,所述第一芯片被配置为:响应于所述图形层信号对应的图形层不是透明层,则所述第一芯片将第二指示信息和所述视频图像信号发送给第二芯片。其中,所述第二指示信息中包括所述图形层信号对应的图形层的位置信息。
所述第二芯片被配置为:对所述视频图像信号中除所述位置信息对应的区域以外的图像进行运动补偿、对所述视频图像信号中所述位置信息对应的区域的图像不进行运动补偿。
可选择的,在所述显示设备中,所述第一芯片和所述第二芯片通过HDMI数据线相连接,所述第一芯片被配置为:将视频层信号与图形层信号叠加后生成符合HDMI协议的视频图像信号,以及,通过所述HDMI通道将所述视频图像信号发送给所述第二芯片。
可选择的,所述第二芯片被配置为:确定所述位置信息在所述视频图像信号中对应的第一区域;确定所述视频图像信号中第一区域之外的第二区域;对所述第一区域内的图像不进行运动补偿,对所述第二区域的图像进行运动补偿。
可选择的,所述第二芯片被配置为:将运动补偿后的第二区域的图像和第一区域的图像进行拼接以生成运动补偿后的视频图像信号。
可选择的,所述第二芯片被配置为:根据所述显示屏的分辨率与视频图像信号的分辨率之间的对应关系,对所述第一区域及所述第二区域进行缩放处理,生成调整后的第一区域和调整后的第二区域;对所述调整后的第一区域内的图像不进行运动补偿,对所述调整后的第二区域的图像进行运动补偿。
可选择的,所述第二芯片被配置为:根据所述显示屏的分辨率与所述视频图像信号的分辨率之间的对应关系,对所述位置信息和视频图像信号进行缩放处理,生成调整后的位置信息和调整后的视频图像信号;对所述调整后的视频图像信号中除所述调整后的位置信息对应的区域以外的图像进行运动补偿,对所述调整后的视频图像信号中所述调整后的位置信息对应的区域的图像进行运动补偿。
可选择的,所述第一芯片被配置为:在检测所述图形层信号对应的图形层是否为透明层之前,先获取所述图形层信号中的位置信息;根据所述位置信息,判断所述图形层信号对应的图形层在所述视频层信号所对应的视频层中的相对面积是否大于预设面积值;响应于所述相对面积大于预设面积值,则检测所述图形层信号对应的图形层是否为透明层;响应于所述相对面积不大于预设面积值,则所述第一芯片将包含所述位置信息的第二指示信息和所述视频图像信号发送给第二芯片;其中,所述第二指示信息中的位置信息,用于指示所述第二芯片对所述视频图像信号中除所述位置信息对应的区域以外的图像进行运动补偿、对所述视频图像信号中所述位置信息对应的区域的图像不进行运动补偿。
可选择的,所述第一芯片被配置为:在所述图形层信号,截取图形层图片帧;根据对所述图形层图片帧中像素点的像素值的分析结果,判断所述图形层信号对应的图形层是否为透明层。
需要说明的是上述实施例提供的视频数据处理方法及装置,不仅适用于上述双芯片电视还可以适用于其它单芯片的显示设备。
基于本申请中示出的示例性实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。此外,虽然本申请中公开内容按照示范性一个或几个实例来介绍,但应理解,可以就这些公开内容的各个方面也可以单独构成一个完整技术方案。
应当理解,本申请中说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,例如能够根据本申请实施例图示或描述中给出那些以外的顺序实施。
此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖但不排他的包含,例如,包含了一系列组件的产品或设备不必限于清楚地列出的那些组件,而是可包括没有清楚地列出的或对于这些产品或设备固有的其它组件。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。楚地列出的或对于这些产品或设备固有的其它组件。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (10)

1.一种视频数据处理方法,其特征在于,应用于显示设备中,所述显示设备包括第一芯片、第二芯片和显示屏,所述方法包括:
所述第一芯片在将视频层信号与图形层信号叠加生成视频图像信号前,检测所述图形层信号对应的图形层是否为透明层;
响应于所述图形层信号对应的图形层为透明层,则所述第一芯片将第一指示信息以及所述视频图像信号发送给第二芯片,其中,所述第一指示信息用于指示所述第二芯片对所述视频图像信号中叠加所述图形层的区域进行运动补偿处理;
所述第二芯片将运动补偿后的视频图像信号输出到所述显示屏进行显示。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于所述图形层信号对应的图形层不是透明层,则所述第一芯片将第二指示信息和所述视频图像信号发送给第二芯片;
其中,所述第二指示信息中包括所述图形层信号对应的图形层的位置信息,用于指示所述第二芯片对所述视频图像信号中除所述位置信息对应的区域以外的图像进行运动补偿、对所述视频图像信号中所述位置信息对应的区域的图像不进行运动补偿。
3.根据权利要求1或2所述的方法,其特征在于,在所述显示设备中,所述第一芯片和所述第二芯片通过HDMI数据线相连接,所述第一芯片将视频层信号与图形层信号叠加生成视频图像信号包括:
所述第一芯片将视频层信号与图形层信号叠加后生成符合HDMI协议的视频图像信号;
所述第一芯片将所述视频图像信号发送给第二芯片包括:
所述第一芯片通过所述HDMI通道将所述视频图像信号发送给所述第二芯片。
4.根据权利要求2所述的方法,其特征在于,所述第二芯片对所述视频图像信号中除所述位置信息对应的区域以外的图像进行运动补偿、对所述视频图像信号中所述位置信息对应的区域的图像不进行运动补偿,包括:
所述第二芯片确定所述位置信息在所述视频图像信号中对应的第一区域;
所述第二芯片确定所述视频图像信号中第一区域之外的第二区域;
所述第二芯片对所述第一区域内的图像不进行运动补偿,对所述第二区域的图像进行运动补偿。
5.根据权利要求4所述的方法,其特征在于,在所述第二芯片对所述第一区域内的图像不进行运动补偿,对所述第二区域的图像进行运动补偿之后,所述方法还包括:
所述第二芯片将运动补偿后的第二区域的图像和第一区域的图像进行拼接以生成运动补偿后的视频图像信号。
6.根据权利要求4所述的方法,其特征在于,响应于视频图像信号的分辨率与所述显示设备的显示屏分辨率不一致,所述第二芯片对所述第一区域内的图像不进行运动补偿,对所述第二区域的图像进行运动补偿,包括:
第二芯片根据所述显示屏的分辨率与视频图像信号的分辨率之间的对应关系,对所述第一区域及所述第二区域进行缩放处理,生成调整后的第一区域和调整后的第二区域;
第二芯片对所述调整后的第一区域内的图像不进行运动补偿,对所述调整后的第二区域的图像进行运动补偿。
7.根据权利要求2所述的方法,其特征在于,响应于视频图像信号的分辨率与所述显示设备的显示屏分辨率不一致,所述第二芯片对所述视频图像信号中除所述位置信息对应的区域以外的图像进行运动补偿、对所述视频图像信号中所述位置信息对应的区域的图像不进行运动补偿,包括:
所述第二芯片根据所述显示屏的分辨率与所述视频图像信号的分辨率之间的对应关系,对所述位置信息和视频图像信号进行缩放处理,生成调整后的位置信息和调整后的视频图像信号;
第二芯片对所述调整后的视频图像信号中除所述调整后的位置信息对应的区域以外的图像进行运动补偿,对所述调整后的视频图像信号中所述调整后的位置信息对应的区域的图像进行运动补偿。
8.根据权利要求1所述的方法,其特征在于,检测所述图形层信号对应的图形层是否为透明层之前,所述方法还包括:
获取所述图形层信号中的位置信息;
根据所述位置信息,判断所述图形层信号对应的图形层在所述视频层信号所对应的视频层中的相对面积是否大于预设面积值;
响应于所述相对面积大于预设面积值,则检测所述图形层信号对应的图形层是否为透明层;
响应于所述相对面积不大于预设面积值,则所述第一芯片将包含所述位置信息的第二指示信息和所述视频图像信号发送给第二芯片;
其中,所述第二指示信息中的位置信息,用于指示所述第二芯片对所述视频图像信号中除所述位置信息对应的区域以外的图像进行运动补偿、对所述视频图像信号中所述位置信息对应的区域的图像不进行运动补偿。
9.根据权利要求1或8所述的方法,其特征在于,所述检测所述图形层信号对应的图形层是否为透明层,包括:
在所述图形层信号,截取图形层图片帧;
根据对所述图形层图片帧中像素点的像素值的分析结果,判断所述图形层信号对应的图形层是否为透明层。
10.一种显示设备,其特征在于,包括第一芯片、第二芯片和显示屏,其中:
所述第一芯片被配置为:在将视频层信号与图形层信号叠加生成视频图像信号前,检测所述图形层信号对应的图形层是否为透明层,响应于所述图形层信号对应的图形层为透明层,将第一指示信息以及所述视频图像信号发送给第二芯片,其中,所述第一指示信息用于指示所述第二芯片对所述视频图像信号中叠加所述图形层的区域进行运动补偿处理;
所述第二芯片被配置为:根据所述第一指示信息,对所述视频图像信号中叠加所述图形层的区域进行运动补偿处理并将运动补偿后的视频图像信号输出到所述显示屏进行显示。
CN201910721816.6A 2019-06-10 2019-08-06 视频数据处理方法、装置及显示设备 Active CN112073795B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/CN2020/094303 WO2020248886A1 (zh) 2019-06-10 2020-06-04 图像处理方法及显示设备
CN202080007439.0A CN113287322B (zh) 2019-06-10 2020-06-04 图像处理方法及显示设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910498648 2019-06-10
CN2019104986489 2019-06-10

Publications (2)

Publication Number Publication Date
CN112073795A true CN112073795A (zh) 2020-12-11
CN112073795B CN112073795B (zh) 2021-10-01

Family

ID=73657906

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910721816.6A Active CN112073795B (zh) 2019-06-10 2019-08-06 视频数据处理方法、装置及显示设备

Country Status (1)

Country Link
CN (1) CN112073795B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113190306A (zh) * 2021-04-12 2021-07-30 沈阳中科创达软件有限公司 显示层级的切换方法、装置、设备及存储介质
CN113246859A (zh) * 2021-05-28 2021-08-13 深圳天联星科技有限公司 具有驾驶辅助系统警示的电子后视镜
CN115695889A (zh) * 2022-09-30 2023-02-03 聚好看科技股份有限公司 显示设备及悬浮窗显示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737358A (zh) * 2011-02-25 2012-10-17 奥多比公司 用于硬件加速媒体回放的独立分层内容
CN106210852A (zh) * 2016-07-07 2016-12-07 青岛海信电器股份有限公司 一种终端静态图层信息检测方法及终端
US20170069129A1 (en) * 2015-09-04 2017-03-09 Arm Limited Graphics processing systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737358A (zh) * 2011-02-25 2012-10-17 奥多比公司 用于硬件加速媒体回放的独立分层内容
US20170069129A1 (en) * 2015-09-04 2017-03-09 Arm Limited Graphics processing systems
CN106210852A (zh) * 2016-07-07 2016-12-07 青岛海信电器股份有限公司 一种终端静态图层信息检测方法及终端

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113190306A (zh) * 2021-04-12 2021-07-30 沈阳中科创达软件有限公司 显示层级的切换方法、装置、设备及存储介质
CN113190306B (zh) * 2021-04-12 2024-02-20 沈阳中科创达软件有限公司 显示层级的切换方法、装置、设备及存储介质
CN113246859A (zh) * 2021-05-28 2021-08-13 深圳天联星科技有限公司 具有驾驶辅助系统警示的电子后视镜
CN115695889A (zh) * 2022-09-30 2023-02-03 聚好看科技股份有限公司 显示设备及悬浮窗显示方法

Also Published As

Publication number Publication date
CN112073795B (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
CN113330736B (zh) 一种显示器及图像处理方法
CN112073797B (zh) 一种音量调节方法及显示设备
CN112073788B (zh) 视频数据处理方法、装置及显示设备
CN110708581B (zh) 显示设备及呈现多媒体屏保信息的方法
CN112399243A (zh) 一种播放方法及显示设备
CN112073795B (zh) 视频数据处理方法、装置及显示设备
CN112073662A (zh) 一种显示设备
CN112073774A (zh) 一种画质处理方法及显示设备
CN112463267A (zh) 在显示设备屏幕上呈现屏保信息的方法及显示设备
CN112073789B (zh) 一种声音处理法及显示设备
CN112073769A (zh) 显示设备及应用共同显示的方法
CN113448529A (zh) 显示设备和音量调节方法
CN112995733A (zh) 一种显示设备、设备发现方法及存储介质
CN112073666B (zh) 一种显示设备的电源控制方法及显示设备
CN112073777B (zh) 一种语音交互方法及显示设备
CN112073808B (zh) 一种色彩空间切换方法及显示装置
CN112399245A (zh) 一种播放方法及显示设备
CN112073776A (zh) 语音控制方法及显示设备
CN112073773A (zh) 一种屏幕互动方法、装置及显示设备
CN112071338A (zh) 一种录音控制方法、装置和显示设备
CN113287322B (zh) 图像处理方法及显示设备
CN112073796B (zh) 一种图像运动补偿方法及显示设备
WO2020248886A1 (zh) 图像处理方法及显示设备
CN112399223B (zh) 一种改善莫尔条纹现象的方法及显示设备
CN112073772B (zh) 基于双系统的按键无缝传递方法及显示设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant