CN112055256A - 一种全景图像的图像处理方法及显示设备 - Google Patents

一种全景图像的图像处理方法及显示设备 Download PDF

Info

Publication number
CN112055256A
CN112055256A CN202010974748.7A CN202010974748A CN112055256A CN 112055256 A CN112055256 A CN 112055256A CN 202010974748 A CN202010974748 A CN 202010974748A CN 112055256 A CN112055256 A CN 112055256A
Authority
CN
China
Prior art keywords
image
image block
decoded
fragment
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010974748.7A
Other languages
English (en)
Other versions
CN112055256B (zh
Inventor
任子健
史东平
吴连朋
王宝云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Hisense Media Network Technology Co Ltd
Original Assignee
Qingdao Hisense Media Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Hisense Media Network Technology Co Ltd filed Critical Qingdao Hisense Media Network Technology Co Ltd
Priority to CN202010974748.7A priority Critical patent/CN112055256B/zh
Publication of CN112055256A publication Critical patent/CN112055256A/zh
Application granted granted Critical
Publication of CN112055256B publication Critical patent/CN112055256B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本申请实施例示出的一种全景图像的图像处理方法及显示设备,显示设备利用采用双线性差值采样法,对每个片元在所述解码后的第一图像块对应的像素点进行采样,其中,所述第一图像块为将每个第二图像块的边界向邻近的所述第二图像块方向扩展1个像素得到图像块。本申请中,片元的颜色值是基于片元与第一图像块的对应关系采样的得到的,因此,在对片元的颜色值采样的过程中,即使片元的位置位于第二图像块的边界,所述片元的周围仍被多个连续的像素点包围,基于该片元的周围像素点的像素点采样得到的片元对应位置的颜色值连续性较好,不会出现拼接缝隙的问题,用户体验感较好。

Description

一种全景图像的图像处理方法及显示设备
技术领域
本申请涉及显示设备技术领域,尤其涉及一种全景图像的图像处理方法及显示设备。
背景技术
全景图像是基于360度全景图像而发展延伸而来的一种新型的多媒体形式,它通过将一系列静态的全景图像连续播放而转化成动态的全景图像。全景图像一般是使用专业的全景摄像机进行全方位360度拍摄拼接而成,使用软件将各个方位的视频图像进行拼合,然后使用专门的播放器进行播放,将平面视频投影为360度全景模式,呈现给观赏者水平方向360度、垂直方向180度全包围的空间视域。观赏者可以通过头部动作、眼球运动、遥控器控制等方式与视频内容进行互动,从而得到身临其境般的体验。作为一种新型异构多媒体业务,全景图像业务流含有音频、视频、文本、交互、控制信令等多种数据类型,具有多样化的QoS(Quality of Service)需求。
近年来,为了降低全景图像传输对带宽的要求,减少数据冗余,提高可支持的视频分辨率,在全景图像传输方面多采用FOV传输方案。FOV传输方案是基于视角进行有差别传输全景图像画面的方案,主要关注当前视角区域画面的高质量传输,实现上一般对全景图像在空间进行分割,再执行多码率编码生成若干视频流,终端根据用户视点位置而传输相应分块的视频流,最后终端解码视频流合并分块呈现给用户。FOV传输方案由于对带宽要求低,策略灵活,是学术界较为关注的方向。由于FOV传输方案将全景图像切割为若干分块,因此在全景图像播放时需要同时加载位于不同空间区域的多路码流,会不可避免的产生拼接缝隙,如何准确、高质量的解决这些缝隙是一个比较复杂的问题。
发明内容
本申请的目的在于提供一种全景图像的图像处理方法及显示设备,以解决现有技术存在的问题。
本申请实施例第一方面示出一种显示设备,解码装置,被配置为解码服务器下发的视频块集合,得到解码后图像块,所述视频块集合中包含多个与视点位置相匹配的图像块;颜色值生成装置,被配置为采用双线性差值采样法,对每个片元在所述解码后图像块中对应位置的像素点进行采样得到颜色值,如果被采样的片元对应位置位于所述图像块的边界,按照所述片元临近像素点的采样方式进行采样;渲染装置,被配置为根据所述颜色值渲染待展示图像中每个像素点。
本申请实施例示出的显示设备,颜色值生成装置采用双线性差值采样法,采样解码后图像块中每个片元对应的颜色值,如果被采样的片元对应的位置位于所述图像块的边界,按照所述片元临近像素点的采样方式进行采样。可见采用本申请实施例提供的显示设备,可以避免图像块片与图像块接壤处出现拼接缝隙问题的出现,提升用户的体验感。
本申请实施例第二方面示出一种显示设备,包括:解码装置,被配置为解码服务器下发的视频块集合,得到解码后第一图像块,所述视频块集合中包含多个与视点位置相匹配的第一图像块;所述第一图像块为将每个第二图像块的边界向邻近的所述第二图像块方向扩展1个像素得到图像块,所述第二图像块为全景图像数据按照预置规则切割后得到的图像块;颜色值生成装置,被配置为采用双线性差值采样法,对每个片元对应位置在所述解码后第一图像块中对应的像素点进行采样;渲染装置,被配置为根据所述颜色值渲染待展示图像中每个像素点。
本申请实施例示出的显示设备,利用采用双线性差值采样法,对每个片元在所述解码后的第一图像块对应的像素点进行采样得到颜色值,其中,所述第一图像块为将每个第二图像块的边界向邻近的所述第二图像块方向扩展1个像素得到图像块。本申请中片元的颜色值是基于片元与第一图像块的对应关系采样的得到的,因此,在片元的颜色值采样过程中,即使片元的位置位于第二图像块的边界,所述片元的周围仍被多个连续的像素点包围,基于该片元的周围像素点的像素点采样得到的片元对应位置的颜色值连续性较好,不会出现拼接缝隙的问题,用户体验感较好。
本申请实施例第三方面提供一种全景图像的图像处理方法,包括:解码装置,解码服务器下发的视频块集合,得到解码后图像块,所述视频块集合中包含多个与视点位置相匹配的图像块;采用双线性差值采样法,对每个片元在所述解码后图像块中对应位置的像素点进行采样,如果被采样的片元对应位置位于所述图像块的边界,按照所述片元临近像素点的采样方式进行采样;根据所述颜色值渲染待展示图像中每个像素点。
本申请实施例示出的方法,颜色值生成装置采用双线性差值采样法,读取解码后图像块中每个片元对应位置的颜色值,如果被采样的片元对应的位置位于所述图像块的边界,按照所述片元临近像素点的采样方式进行采样。可见采用本申请实施例提供的显示设备,可以避免图像块片与图像块接壤处出现拼接缝隙问题的出现,提升用户的体验感。
本申请实施例第四方面提供一种全景图像的图像处理方法,包括:
解码服务器下发的视频块集合,得到解码后第一图像块,所述视频块集合中包含多个与视点位置相匹配的第一图像块;所述第一图像块为将每个第二图像块的边界向邻近的所述第二图像块方向扩展1个像素得到图像块,所述第二图像块为全景图像数据按照预置规则切割后得到的图像块;采用双线性差值采样法,对每个片元对应位置在所述解码后第一图像块中对应的像素点进行采样;根据所述颜色值渲染待展示图像中每个像素点。
本申请实施例示出的方法,利用采用双线性差值采样法,对每个片元在所述解码后的第一图像块对应的像素点进行采样,其中,所述第一图像块为将每个第二图像块的边界向邻近的所述第二图像块方向扩展1个像素得到图像块。本申请中,片元的颜色值是基于片元与第一图像块的对应关系采样的得到的,因此,在对片元的颜色值采样的过程中,即使片元的位置位于第二图像块的边界,所述片元的周围仍被多个连续的像素点包围,基于该片元的周围像素点的像素点采样得到的片元对应位置的颜色值连续性较好,不会出现拼接缝隙的问题,用户体验感较好。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例示出的显示设备与控制装置之间操作场景的示意图;
图2为本申请实施例示出的图1中控制装置100的硬件配置框图;
图3为本申请实施例示出的图1中显示设备200的硬件配置框图;
图4为本申请实施例示出的显示设备200存储器中操作系统的架构配置框图;
图5为根据一可行性实施例示出的分块后的全景图像;
图6为根据一可行性实施例示出的显示设备的示意图;
图7为根据一可行性实施例示出的显示设备的作业流程图;
图8为根据一可行性实施例示出的图像块的示意图;
图9A为根据一可行性实施例示出的全景图像;
图9B为根据一可行性实施例示出的图像块;
图10为根据一可行性实施例示出的图像块对应坐标系的示意图;
图11为根据一可行性实施例示出的图像块的示意图;
图12为根据一可行性实施例示出的渲染后的待展示图像;
图13为根据一可行性实施例示出的渲染后的图像;
图14为根据一可行性实施例示出的显示设备的作业流程图;
图15A为根据一些可行性实施例提供的对待解码图像数据的示意图;
图15B为根据一些可行性实施例提供的对待解码图像数据的示意图;
图15C为根据一些可行性实施例提供的对待解码图像数据的示意图;
图16为根据一些可行性实施例提供的对待解码图像数据的示意图;
图17为根据一可行性实施例示出的显示设备的作业流程图;
图18为根据一可行性实施例示出的切割后的全景图像的示意图;
图19为根据一可行性实施例示出的第一图像块的示意图;
图20为根据一可行性实施例示出的第二图像块的示意图;
图21为根据一可行性实施例示出的第一图像块的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1中示例性示出了显示设备与控制装置之间操作场景的示意图。如图1所示,控制装置100和显示设备200之间可以有线或无线方式进行通信。
其中,控制装置100被配置为控制显示设备200,其可接收用户输入的操作指令,且将操作指令转换为显示设备200可识别和响应的指令,起着用户与显示设备200之间交互的中介作用。如:用户通过操作控制装置100上频道加减键,显示设备200响应频道加减的操作。
控制装置100可以是遥控器100A,包括红外协议通信或蓝牙协议通信,及其他短距离通信方式等,通过无线或其他有线方式来控制显示设备200。用户可以通过遥控器上按键、语音输入、控制面板输入等输入用户指令,来控制显示设备200。如:用户可以通过遥控器上音量加减键、频道控制键、上/下/左/右的移动按键、语音输入按键、菜单键、开关机按键等输入相应控制指令,来实现控制显示设备200的功能。
控制装置100也可以是智能设备,如移动显示设备100B、平板电脑、计算机、笔记本电脑,遥控手柄等。例如,使用在智能设备上运行的应用程序控制显示设备200。该应用程序通过配置可以在与智能设备关联的屏幕上,通过直观的用户界面(User Interface,UI)为用户提供各种控制。
示例性的,移动显示设备100B可与显示设备200安装软件应用,通过网络通信协议实现连接通信,实现一对一控制操作的和数据通信的目的。如:可以使移动显示设备100B与显示设备200建立控制指令协议,通过操作移动显示设备100B上提供的用户界面的各种功能键或虚拟按钮,来实现如遥控器100A布置的实体按键的功能。也可以将移动显示设备100B上显示的音视频内容传输到显示设备200上,实现同步显示功能。
显示设备200可提供广播接收功能和计算机支持功能的网络电视功能。显示设备可以实施为,数字电视、网络电视、互联网协议电视(IPTV)等。
显示设备200,可以是液晶显示器、有机发光显示器、投影设备,头戴式显示设备。具体显示设备类型、尺寸大小和分辨率等不作限定。
显示设备200还与服务器300通过多种通信方式进行数据通信。这里可允许显示设备200通过局域网(LAN)、无线局域网(WLAN)和其他网络进行通信连接。服务器300可以向显示设备200提供各种内容和互动。示例的,显示设备200可以发送和接收信息,例如:接收电子节目指南(Electronic Program Guide,EPG)数据、接收软件程序更新、或访问远程储存的数字媒体库。服务器300可以一组,也可以多组,可以一类或多类服务器。通过服务器300提供视频点播和广告服务等其他网络服务内容。
图2中示例性示出了控制装置100的配置框图。如图2所示,控制装置100包括控制器110、存储器120、通信器130、用户输入接口140、输出接口150、供电电源160。
控制器110包括RAM(Random Access Memory,随机存取存储器)111、ROM(Read-Only Memory,只读存储器)112、处理器113、通信接口以及通信总线。控制器110用于控制控制装置100的运行和操作,以及内部各部件之间的通信协作、外部和内部的数据处理功能。
示例性的,当检测到用户按压在遥控器100A上布置的按键的交互或触摸在遥控器100A上布置的触摸面板的交互时,控制器110可控制产生与检测到的交互相应的信号,并将该信号发送到显示设备200。
存储器120,用于在控制器110的控制下存储驱动和控制控制装置100的各种运行程序、数据和应用。存储器120,可以存储用户输入的各类控制信号指令。
通信器130在控制器110的控制下,实现与显示设备200之间控制信号和数据信号的通信。如:控制装置100经由通信器130将控制信号(例如触摸信号或按钮信号)发送至显示设备200上,控制装置100可经由通信器130接收由显示设备200发送的信号。通信器130可以包括红外模块131(红外信号接口)、射频信号接口132和蓝牙模块133。例如:红外信号接口时,需要将用户输入指令按照红外控制协议转化为红外控制信号,经红外发送模块进行发送至显示设备200。再如:射频信号接口时,需将用户输入指令转化为数字信号,然后按照射频控制信号调制协议进行调制后,由射频发送端子发送至显示设备200。
用户输入接口140,可包括麦克风141、触摸板142、传感器143、按键144等中至少一者,从而用户可以通过语音、触摸、手势、按压等将关于控制显示设备200的用户指令输入到控制装置100。
输出接口150,通过将用户输入接口140接收的用户指令输出至显示设备200,或者,输出由显示设备200接收的图像或语音信号。这里,输出接口150可以包括LED接口151、产生振动的振动接口152、输出声音的声音输出接口153和输出图像的显示器154等。例如,遥控器100A可从输出接口150接收音频、视频或数据等输出信号,并且将输出信号在显示器154上显示为图像形式、在声音输出接口153输出为音频形式或在振动接口152输出为振动形式。
供电电源160,用于在控制器110的控制下为控制装置100各元件提供运行电力支持。形式可以为电池及相关控制电路。
图3中示例性示出了显示设备200的硬件配置框图。如图3所示,显示设备200中可以包括调谐解调器210、通信器220、检测器230、外部装置接口240、控制器250、存储器260、用户接口265、视频处理器270、显示器275、音频处理器280、音频输出接口285、供电电源290。
调谐解调器210,通过有线或无线方式接收广播电视信号,可以进行放大、混频和谐振等调制解调处理,用于从多个无线或有线广播电视信号中解调出用户所选择的电视频道的频率中所携带的音视频信号,以及附加信息(例如EPG数据)。
调谐解调器210,可根据用户选择,以及由控制器250控制,响应用户选择的电视频道的频率以及该频率所携带的电视信号。
调谐解调器210,根据电视信号的广播制式不同,可以接收信号的途径有很多种,诸如:地面广播、有线广播、卫星广播或互联网广播等;以及根据调制类型不同,可以数字调制方式或模拟调制方式;以及根据接收电视信号的种类不同,可以解调模拟信号和数字信号。
在其他一些示例性实施例中,调谐解调器210也可在外部设备中,如外部机顶盒等。这样,机顶盒通过调制解调后输出电视信号,经过外部装置接口240输入至显示设备200中。
通信器220,是用于根据各种通信协议类型与外部设备或外部服务器进行通信的组件。例如显示设备200可将内容数据发送至经由通信器220连接的外部设备,或者,从经由通信器220连接的外部设备浏览和下载内容数据。通信器220可以包括WIFI模块221、蓝牙模块222、有线以太网模块223等网络通信协议模块或近场通信协议模块,从而通信器220可根据控制器250的控制接收控制装置100的控制信号,并将控制信号实现为WIFI信号、蓝牙信号、射频信号等。
检测器230,是显示设备200用于采集外部环境或与外部交互的信号的组件。检测器230可以包括声音采集器231,如麦克风,可以用于接收用户的声音,如用户控制显示设备200的控制指令的语音信号;或者,可以采集用于识别环境场景类型的环境声音,实现显示设备200可以自适应环境噪声。
在其他一些示例性实施例中,检测器230,还可以包括图像采集器232,如相机、摄像头等,可以用于采集外部环境场景,以自适应变化显示设备200的显示参数;以及用于采集用户的属性或与用户交互手势,以实现显示设备与用户之间互动的功能。
在其他一些示例性实施例中,检测器230,还可以包括光接收器(图中未示出),用于采集环境光线强度,以自适应显示设备200的显示参数变化等。
在其他一些示例性实施例中,检测器230,还可以包括温度传感器(图中未示出),如通过感测环境温度,显示设备200可自适应调整图像的显示色温。示例性的,当温度偏高的环境时,可调整显示设备200显示图像色温偏冷色调;当温度偏低的环境时,可以调整显示设备200显示图像色温偏暖色调。
外部装置接口240,是提供控制器250控制显示设备200与外部设备间数据传输的组件。外部装置接口240可按照有线/无线方式与诸如机顶盒、游戏装置、笔记本电脑等外部设备连接,可接收外部设备的诸如视频信号(例如运动图像)、音频信号(例如音乐)、附加信息(例如EPG)等数据。
其中,外部装置接口240可以包括:HDMI(High Definition MultimediaInterface,高清多媒体接口)端子241、CVBS(Composite Video Blanking and Sync,复合视频消隐同步)端子242、分量(模拟或数字)端子243、USB(Universal Serial Bus,通用串行总线)端子244、组件(Component)端子(图中未示出)、红绿蓝(RGB)端子(图中未示出)等任一个或多个。
控制器250,通过运行存储在存储器260上的各种软件控制程序(如操作系统和各种应用程序),来控制显示设备200的工作和响应用户的操作。
如图3所示,控制器250包括RAM(随机存取存储器)251、ROM(只读存储器)252、图像处理器253、CPU处理器254、通信接口255以及通信总线256。其中,RAM251、ROM252以及图像处理器253、CPU处理器254和通信接口255通过通信总线256相连接。
ROM252,用于存储各种系统启动指令。如在接收到开机信号时,显示设备200电源开始启动,CPU处理器254运行ROM252中的系统启动指令,将存储在存储器260的操作系统拷贝至RAM251中,以开始运行启动操作系统。当操作系统启动完成后,CPU处理器254再将存储器260中各种应用程序拷贝至RAM251中,然后,开始运行启动各种应用程序。
图像处理器253,用于产生各种图形对象,如图标、操作菜单、以及用户输入指令显示图形等。图像处理器253可以包括运算器,用于通过接收用户输入各种交互指令进行运算,进而根据显示属性显示各种对象;以及包括渲染器,用于产生基于运算器得到的各种对象,将进行渲染的结果显示在显示器275上。
CPU处理器254,用于执行存储在存储器260中的操作系统和应用程序指令。以及根据接收的用户输入指令,来执行各种应用程序、数据和内容的处理,以便最终显示和播放各种音视频内容。
在一些示例性实施例中,CPU处理器254,可以包括多个处理器。多个处理器可包括一个主处理器以及多个或一个子处理器。主处理器,用于在显示设备预加载模式中执行显示设备200的一些初始化操作,和/或,在正常模式下显示画面的操作。多个或一个子处理器,用于执行在显示设备待机模式等状态下的一种操作。
通信接口255,可包括第一接口、第二接口到第n接口。这些接口可以是经由网络被连接到外部设备的网络接口。
控制器250可以控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器275上显示的GUI(Graphical User Interface,图形用户界面)对象的用户输入命令,控制器250便可以执行与由用户输入命令选择的对象有关的操作。
其中,该对象可以是可选对象中的任何一个,例如超链接或图标。该与所选择的对象有关的操作,例如显示连接到超链接页面、文档、图像等操作,或者执行与对象相对应的程序的操作。该用于选择GUI对象的用户输入命令,可以是通过连接到显示设备200的各种输入装置(例如,鼠标、键盘、触摸板等)输入命令或者与由用户说出语音相对应的语音命令。
存储器260,用于存储驱动和控制显示设备200运行的各种类型的数据、软件程序或应用程序。存储器260可以包括易失性和/或非易失性存储器。而术语“存储器”包括存储器260、控制器250的RAM251和ROM252、或显示设备200中的存储卡。
在一些实施例中,存储器260具体用于存储驱动显示设备200中控制器250的运行程序;存储显示设备200内置的和用户从外部设备下载的各种应用程序;存储用于配置由显示器275提供的各种GUI、与GUI相关的各种对象及用于选择GUI对象的选择器的视觉效果图像等数据。
在一些实施例中,存储器260具体用于存储调谐解调器210、通信器220、检测器230、外部装置接口240、视频处理器270、显示器275、音频处理器280等的驱动程序和相关数据,例如从外部装置接口接收的外部数据(例如音视频数据)或用户接口接收的用户数据(例如按键信息、语音信息、触摸信息等)。
在一些实施例中,存储器260具体存储用于表示操作系统(operating system,OS)的软件和/或程序,这些软件和/或程序可包括,例如:内核、中间件、应用编程接口(Application Programming Interface,API)和/或应用程序。示例性的,内核可控制或管理系统资源,以及其它程序所实施的功能(如所述中间件、API或应用程序);同时,内核可以提供接口,以允许中间件、API或应用程序访问控制器,以实现控制或管理系统资源。
在一些实施例中,显示设备100可以没有控制设备,其通过自身的控制输入组件进行输入操作的接收。图4中示例性示出了显示设备200存储器中操作系统的架构配置框图。该操作系统架构从上到下依次是应用层、中间件层和内核层。
应用层,系统内置的应用程序以及非系统层的应用程序都是属于应用层。负责与用户进行直接交互。应用层可包括多个应用程序,如设置应用程序、电子帖应用程序、媒体中心应用程序等。这些应用程序可被实现为Web应用,其基于WebKit引擎来执行,具体可基于HTML5、层叠样式表(CSS)和JavaScript来开发并执行。
这里,HTML,全称为超文本标记语言(HyperText Markup Language),是一种用于创建网页的标准标记语言,通过标记标签来描述网页,HTML标签用以说明文字、图形、动画、声音、表格、链接等,浏览器会读取HTML文档,解释文档内标签的内容,并以网页的形式显示出来。
CSS,全称为层叠样式表(Cascading Style Sheets),是一种用来表现HTML文件样式的计算机语言,可以用来定义样式结构,如字体、颜色、位置等的语言。CSS样式可以直接存储与HTML网页或者单独的样式文件中,实现对网页中样式的控制。
JavaScript,是一种应用于Web网页编程的语言,可以插入HTML页面并由浏览器解释执行。其中Web应用的交互逻辑都是通过JavaScript实现。JavaScript可以通过浏览器,封装JavaScript扩展接口,实现与内核层的通信,
中间件层,可以提供一些标准化的接口,以支持各种环境和系统的操作。例如,中间件层可以实现为与数据广播相关的中间件的多媒体和超媒体信息编码专家组(Multimedia and Hypermedia Experts Group,MHEG),还可以实现为与外部设备通信相关的中间件的DLNA(Digital Living Network Alliance,数字生活网络联盟)中间件,还可以实现为提供显示设备内各应用程序所运行的浏览器环境的中间件等。
内核层,提供核心系统服务,例如:文件管理、内存管理、进程管理、网络管理、系统安全权限管理等服务。内核层可以被实现为基于各种操作系统的内核,例如,基于Linux操作系统的内核。
内核层也同时提供系统软件和硬件之间的通信,为各种硬件提供设备驱动服务,例如:为显示器提供显示驱动程序、为摄像头提供摄像头驱动程序、为遥控器提供按键驱动程序、为WIFI模块提供WiFi驱动程序、为音频输出接口提供音频驱动程序、为电源管理(Power Management,PM)模块提供电源管理驱动等。
在一些实施例中,显示设备可以使用其他架构的软件系统。
用户接口265,接收各种用户交互。具体的,用于将用户的输入信号发送给控制器250,或者,将从控制器250的输出信号传送给用户。示例性的,遥控器100A可将用户输入的诸如电源开关信号、频道选择信号、音量调节信号等输入信号发送至用户接口265,再由用户接口265转送至控制器250;或者,遥控器100A可接收经控制器250处理从用户接口265输出的音频、视频或数据等输出信号,并且显示接收的输出信号或将接收的输出信号输出为音频或振动形式。
在一些实施例中,用户可在显示器275上显示的图形用户界面(GUI)输入用户命令,则用户接口265通过GUI接收用户输入命令。确切的说,用户接口265可接收用于控制选择器在GUI中的位置以选择不同的对象或项目的用户输入命令。
或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户接口265通过传感器识别出声音或手势,来接收用户输入命令。
视频处理器270,用于接收外部的视频信号,根据输入信号的标准编解码协议,进行解压缩、解码、缩放、降噪、帧率转换、分辨率转换、图像合成等视频数据处理,可得到直接在显示器275上显示或播放的视频信号。
示例的,视频处理器270,包括解复用模块、视频解码模块、图像合成模块、帧率转换模块、显示格式化模块等。
其中,解复用模块,用于对输入音视频数据流进行解复用处理,如输入MPEG-2流(基于数字存储媒体运动图像和语音的压缩标准),则解复用模块将其进行解复用成视频信号和音频信号等。
视频解码模块,用于对解复用后的视频信号进行处理,包括解码和缩放处理等。
图像合成模块,如图像合成器,其用于将图形生成器根据用户输入或自身生成的GUI信号,与缩放处理后视频图像进行叠加混合处理,以生成可供显示的图像信号。
帧率转换模块,用于对输入视频的帧率进行转换,如将输入的60Hz视频的帧率转换为120Hz或240Hz的帧率,通常的格式采用如插帧方式实现。
显示格式化模块,用于将帧率转换模块输出的信号,改变为符合诸如显示器显示格式的信号,如将帧率转换模块输出的信号进行格式转换以输出RGB数据信号。
显示器275,用于接收源自视频处理器270输入的图像信号,进行显示视频内容、图像以及菜单操控界面。显示视频内容,可以来自调谐解调器210接收的广播信号中的视频内容,也可以来自通信器220或外部装置接口240输入的视频内容。显示器275,同时显示显示设备200中产生且用于控制显示设备200的用户操控界面UI。
以及,显示器275可以包括用于呈现画面的显示屏组件以及驱动图像显示的驱动组件。或者,倘若显示器275为一种投影显示器,还可以包括一种投影装置和投影屏幕。
音频处理器280,用于接收外部的音频信号,根据输入信号的标准编解码协议,进行解压缩和解码,以及降噪、数模转换、和放大处理等音频数据处理,得到可以在扬声器286中播放的音频信号。
示例性的,音频处理器280可以支持各种音频格式。例如MPEG-2、MPEG-4、高层音频编码(AAC)、高效AAC(HE-AAC)等格式。
音频输出接口285,用于在控制器250的控制下接收音频处理器280输出的音频信号,音频输出接口285可包括扬声器286,或输出至外接设备的发生装置的外接音响输出端子287,如耳机输出端子。
在其他一些示例性实施例中,视频处理器270可以包括一个或多个芯片组成。音频处理器280,也可以包括一个或多个芯片组成。
以及,在其他一些示例性实施例中,视频处理器270和音频处理器280,可以为单独的芯片,也可以与控制器250一起集成在一个或多个芯片中。
供电电源290,用于在控制器250的控制下,将外部电源输入的电力为显示设备200提供电源供电支持。供电电源290可以是安装在显示设备200内部的内置电源电路,也可以是安装在显示设备200外部的电源。
在一些实施例中,显示设备100或控制设备200中的组件可以根据需求增加或删除。
本说明书中各个实施例之间相同相似的部分互相参照即可。
在全景图像FOV传输技术方案中,需要对全景图像进行分块处理,图5为根据一可行性实施例示出的分块后的全景图像。可以看出服务器可以将全景图像切成100个图像块。当服务器接收到显示设备发送的播放请求时,服务器下发视频块集合至显示设备,所述视频块集合中包含多个与视点位置相匹配的图像块。
显示设备对接收到的图像块进行拼接。由于图像块的传输过程中受到带宽,网络稳定性等多封面因素影响,因此,显示设备接收到图像块的顺序是混乱的,采用双线性插值采样法读取图像边界像素点的像素值时,会出现偏差视觉上看起来就形成了一条缝隙。对最近点采样来说不存在这样的问题,但最近点采样的渲染结果效果较差,不够平滑,颗粒感明显。
基于上述技术问题,本申请实施例示出一种显示设备,具体的可以参阅图6及图7,图6为根据一可行性实施例示出的显示设备的示意图,图7为根据一可行性实施例示出的显示设备的作业流程图。可以看出,显示设备包括解码装置11、颜色值生成装置12及渲染装置13。
解码装置被配置为执行步骤S101解码服务器下发的视频块集合,得到解码后图像块,所述视频块集合中包含多个与视点位置相匹配的图像块。
本申请实施例中,全景图像作用于球面上可以呈现给观赏者水平方向360度、垂直方向180度全包围的空间视域。球面上均匀分布多个顶点,每个顶点称之为片元,每个片元的在球面上对应的坐标UV0,UV0也可称之为所述片元在全景图像中对应的UV坐标;但是,最终的图像需要在显示设备上显示,由于显示设备的显示区域有限,通常只能显示部分球面对应的图像。通常显示区域由用户的视点位置以及显示设备的视场角所决定。
每个显示设备的视场角是一个定量,因此,服务器可以预先将显示设备的视场角存储。当该显示设备发送播放请求时,服务器可以直接调取该显示设备对应的视场角。
用户处于不同的观看姿态时,用户对应的视点位置不同,因此,在视频播放的过程中,显示设备需要实时的捕捉视点位置。显示设备捕捉视点位置的实现方式可以采用本领域惯用的方法,例如:动作捕捉的方式、眼球追踪的方式、肌电模拟的方式、手势跟踪的方式、方向追踪的方式、语音交互的方式、传感器的方式等。在此申请人并不对视点位置的获取方式进行限定,在实际应用的过程中凡是可以实现获取视点位置的但是均可应用在本申请是实施例示出的技术方案中。
本申请中服务器可以预先将视点位置和视点位置对应的视频块集合的映射关系作为配置文件存储在预置列表内,当显示设备进行全景视频播放时,显示设备发送播放请求至服务器,所述播放请求至少包括捕捉到的视点位置。服务器基于所述视点位置调取并下发相应的视频块集合。
本申请中解码装置是指一个能够对接收到的音视频数据(其中,音视频数据包括上述的视频块集合和音频数据)进行解压缩的程序或者设备,以将外接传输的音视频数据转换为可以被识别的格式,得到解码后图像块。
颜色值生成装置,被配置为执行步骤S102采用双线性差值采样法,被配置为采用双线性差值采样法,对每个片元在所述解码后图像块中对应位置的像素点进行采样得到颜色值,如果被采样的片元对应位置位于所述图像块的边界,按照所述片元临近像素点的采样方式进行采样;
举例说明,图8为根据一可行性实施例示出的图像块的示意图。每个图像块对应多个片元。图8示例性的标注几个片元。对于片元A1而言,片元A1对应的位置的临近像素点分别为像素点B1、像素点C1、像素点D1及像素点E1。片元A1的对应的颜色值可以采用如下公式采样:PA1=(PB1+PC1+PD1+PE1)/4,其中,PA1为采样得到的片元A1的颜色值,PB1为像素点B1的原始颜色值,PC1为像素点C1的原始颜色值,PD1为像素点D1的原始颜色值,PE1为像素点E1的原始颜色值。
在一可行性实施例在中,可以根据需求为片元A1的临近像素点的颜色值加权,然后根据加权后的颜色值采样片元A1的对应的颜色值。
对于片元F1而言,片元F1的临近像素点分别为像素点G1、像素点H1。由于片元F1对应的位置位于图像块的边界,因此片元F1的颜色值可以采用如下公式采样:PF1=PI1=(PJ1+PK1+PG1+PH1)/4。其中,PF1为采样得到的片元F1的颜色值;I1为片元F1对应位置临近像素点,PI1为采样得到的片元I1的颜色值,PG1为读取到像素点G1的原始颜色值;PH1为读取到像素点H1的原始颜色值;PJ1为读取到像素点J1的原始颜色值;PK1为读取到像素点K1的原始颜色值。
可选择的,所述颜色值生成装置可以采用如下方式确定片元对应的位置是否位于图像块的边界。
所述颜色值生成装置被进一步配置为根据所述UV0计算UV1,所述UV1为所述片元对应的位置在图像块中的UV坐标值;
举例说明,在一可行性实施例中,一全景图像的像素值为(1920*1080),具体的可以参阅图9A,图9A为根据一可行性实施例示出的全景图像,在所述全景图像中每个片元的UV0已知。
如果将该全景图像切割为2*2的图像块,每个图像块包含的像素值分别为(960*540);图像块中每个像素点的UV0坐标是已知的。根据UV0即可计算片元对应的位置在图像块中的UV坐标值UV1(U1,V1)。
举例说明,图9A示出的全景图像中片元A的UV0(961/1920,541/1080);该片元A位于图像块4内。图9B为图9A中图像块4的示意图,其中,片元的UV1((961-960)/960,1)。
其他片元的UV1的计算过程参阅上述过程,在此便不赘述。
当U1<1/W时,所述片元对应于的位置位于图像块的边界;和/或,当U1>(W-1)/W时,所述片元对应于的位置位于图像块的边界;和/或,当V1>1/H时,所述片元对应于的位置位于图像块的边界;和/或,当V1<(H-1)/H时,所述片元对应于的位置位于图像块的边界,所述W为解码后图像块横向上包含的像素点的个数,所述H为解码后图像块纵向上包含的像素点的个数。
具体的,本申请中颜色值生成装置可以为每个解码后图像块建立UV坐标系,图10为根据一可行性实施例示出的图像块对应坐标系的示意图。其中图像块包含W*H个像素点。当U1<1/W时,说明当前片元采样位置位于解码后图像块的左侧边界,具体的,可以参阅图11中的片元A2;图11为根据一可行性实施例示出的图像块的示意图;可以采用片元A2右侧临近的像素点、上临近的像素点片元及下临近的片元临近像素点的像素值采样该片元的颜色值。当V1>1/H时,说明当前片元采样位置位于图像块的下边界,具体的可以参阅图11中的片元A3;可以采用片元A3右侧临近的像素点片元、上临近的像素点片元及左临近的像素点片元临近周围像素点的像素值采样该片元的颜色值。当U1>(W-1)/W时,说明当前片元采样位置位于图像块的左边界,具体的,可以参阅图11中的片元A4,可以采用片元A4左侧临近像素点的片元、上临近像素点的片元及下临近像素点的片元临近周围像素点的像素值采样该片元的颜色值。当V1<(H-1)/H时,说明当前片元采样位置位于图像块的上边界,具体的可以参阅图11中的像素点A5,可以采用片元A5左侧临近像素点的片元、下临近像素点的片元及右临近像素点的片元临近周围像素点的像素值采样该片元的颜色值。
举例说明,在一可行性实施例中,解码后图像块包含的像素为(1024*512),当U1<1/1024时,说明当前片元采样位置位于图像块的左边界;当U1>(1024-1)/1024时,说明当前片元采样位置位于图像块的右边界;当V1>(512-1)/512时,说明当前片元采样位置位于图像块的下边界,V1<1/512时,说明当前片元采样位置位于图像块的上边界。
渲染装置,被配置为执行步骤S103被配置为根据所述颜色值渲染待展示图像中每个像素点。
其中,渲染的过程可以采用本领域惯用的渲染手段,在此申请人不予赘述。
本申请中待展示图像为显示在显示器上,用于展示给用户观看的图像。
图12为根据一可行性实施例示出的渲染后的待展示图像。可以看出待展示图像对多个图像块采样而成,每个图像块的位置关系由该图像块的UV0所决定。
本申请实施例示出的显示设备,颜色值生成装置采用双线性差值采样法,对解码后图像块中每个片元对应位置的像素点进行采样得到颜色值,如果被采样的片元对应的位置位于所述图像块的边界,按照所述片元临近像素点的采样方式进行采样。可见采用本申请实施例提供的显示设备,可以避免图像块片与图像块接壤处出现拼接缝隙问题的出现,提升用户的体验感。
由于图像块的传输过程中受到带宽,网络稳定性等多封面因素影响,因此,每个图像块达到显示器的时间可以能存在差异。为了保证显示设备视频播放过程的流畅度,显示设备需要设定一个预置时间。所述预置时间可以根据实际情况设定,例如在一可行性实施例中预置时间可以是30ms。
举例说明,在一可行性实施例中,服务器调取与视点位置相匹配的图像块共计8块。服务器传输8个图像块至显示设备,由于受到网络带宽等因影响,8个图像块到达显示设备的时间不同,进一步的,在传输的过程中也可能出现图像块丢失的情况。显示设备在发送视点位置的时间之后的30ms共接收6个图像块,显示设备终止等待其他2个图像块的传输,对已接收到的6个图像块进行后续的像素点读取、渲染等操作。
在上述实施示出的方案中,可能存在图像块缺失的问题。在一可行性实施例中,响应于显示设备发送的视频位置,所述服务器下发的数据包括视频块集合和下采样的全景图像;在拼接所述待展示图像数据的过程中,如果缺失图像块,在所述下采样的全景图像中筛选出与所述缺失图像块相匹配的下采样区域;利用所述图像块和所述下采样区域拼接所述待展示图像数据。
举例说明,在一可行性实施例中,服务器调取与视点位置相匹配的图像块共计8块,分别为:图像块10、图像块11、图像块12、图像块13、图像块18、图像块19、图像块20、图像块21。服务器传输8个图像块以及下采样的全景图像至显示设备,显示设备在发送视点位置的时间之后的30ms共接收6个图像块及下采样的全景图像。6个图像块分别为:图像块11、图像块12、图像块13、图像块18、图像块19、图像块21。由于展示图像数据中缺失图像块10及图像块20,显示设备在所述下采样的全景图像中筛选出与所述缺失图像块相匹配的下采样区域10及下采样区域20,显示设备分别对片元对应位置的像素点进行采样,然后根据颜色值渲染待展示图像数据中每个像素点,最终得到的渲染后的图像可以参阅图13。
通常服务器下发的视频块集合中包含多个图像块,如果显示设备分别对每个图像块进行解码操作的话,显示设备会耗费大量的界面时间,进而影响视频播放的流畅度。为了提升显示设备的解码速率,在一可行性实施例中,可以在显示设备中设置有拼接装置。本实施例显示设备的作业流程图可以参阅图14;
拼接装置,被配置为执行步骤S1011将在预置时间内接收到的图像块,拼接成待解码图像数据;
本申请实施例示出的方案,在拼接的过程中可以按照接收到图像块的时间顺序将接收到的图像块拼接成待解码图像数据。
举例说明,在一可行性实施例中,在预置时间内显示设备接收到的图像块分别为:图像块10、图像块12、图像块20、图像块18、图像块19。拼接装置,按照接收到图像块的时间顺序将接收到的图像块拼接成待解码图像数据,本申请并不对待解码图像数据的形状作以限定,图15A及图15B为根据一些可行性实施例提供的对待解码图像数据的示意图。
显示设备每次接收到的图像块的数量不同,相应的拼接成待解码图像数据的像素也存在一定的差异。对不同像素的待解码图像数据进行解码需要占用解码装置不同的系统资源,这就会导致解码装置频繁的调整资源的占用情况,影响解码装置运行的稳定性。为了提升解码装置运行的稳定性,在一可行性实施例中,可以通过“图像块填充的方式”保证每次拼接成待解码图像数据的像素值恒定。
具体的实现方式如下,设定拼接成待解码图像数据的像素值为P,相应的拼接成待解码图像数据包含预置数量个图像块。如果在预置时间内接收到的图像块的数量小于预置数量,将任意一图像块多次填充,以保证拼接成待解码图像数据的像素值恒定。
举例说明,在一可行性实施例中,拼接成待解码图像数据包含9个图像块。在预置时间内显示设备接收到的图像块分别为:图像块10、图像块12、图像块20、图像块18、图像块19。在预置时间内接收到的图像块的数量小于9,拼接装置将图像块19多次填充,最终得到拼接成待解码图像数据可以参阅图15C。
本实施例中,颜色值生成装置可以计算图像块在待解码图像数据中的UV坐标UV2,其中,UV2可以是将每个视频块作为一个单位,UV2可以是每个视频块相对于待解码图像数据的UV坐标;也可以是将每个像素作为一个单位,UV2为每个视频块中固定位置对应像素点相对于待解码图像数据的UV坐标,固定位置可以是左上角,可以是右上角等。在像素值采样的过程中,颜色值生成装置可以基于UV1和UV2,计算出UV3(换算UV坐标),基于UV3在待解码图像数据中采样得到片元的颜色值。最终,渲染装置基于所述片元像素值渲染出待展示图像。
换算UV坐标的计算过程具体为:请参阅图16,图16为根据一可行性实施例示出的待解码图像数据的示意图,A在图像块10中的U1为0.25,A在待解码图像数据的U2为0.5,可以引入一个UV3(U3,V3),U3=U2+σU,σU为U1在待解码图像数据换算得到的值,例如待解码图像数据的横向上包含4个图像块,σU为U1*1/4=0.0625;U3=0.5+0.0625;
可见本实施例中,如果在预置时间内接收到的图像块的数量小于预置数量,拼接装置将任意一图像块多次填充,以保证拼接成待解码图像数据的像素值恒定。后续解码装置在解码接成待解码图像数据的过程中占用资源恒定,解码装置运行的稳定性。
所述解码装置,还被配置为解码所述待解码图像数据,得到解码后图像块。
综上,本实施例示出的显示设备,在上述显示设备的基础上添加了拼接装置,所述拼接装置将在预置时间内接收到的图像块,拼接成待解码图像数据;后续,对于一帧图像解码装置仅需对拼接成待解码图像数据进行解,相应的降低了解码装置的解码次数,缩短了解码时间,提升了视频播放的流畅度。
显示设备对接收到的图像块进行拼接。由于图像块的传输过程中受到带宽,网络稳定性等多封面因素影响,因此,显示设备接收到图像块的顺序是混乱的,采用双线性插值采样法采样图像边界像素点的像素值时,会出现偏差视觉上看起来就形成了一条缝隙。对最近点采样来说不存在这样的问题,但最近点采样的渲染结果效果较差,不够平滑,颗粒感明显。
基于上述技术问题,本申请实施例示出一种显示设备,显示设备的结构框图可以继续参阅图6,显示设备的作业流程图可以参阅图17。
解码装置被配置为执行步骤S201解码服务器下发的视频块集合,得到解码后图像块块,所述视频块集合中包含多个与视点位置相匹配的第一图像块;所述第一图像块为将每个第二图像块的边界向邻近的所述第二图像块方向扩展1个像素得到图像块,所述第二图像块为全景图像数据按照预置规则切割后得到的图像块;
图18为根据一可行性实施例示出的划分后的全景图像的示意图,可以看出全景图像被均等切割成32个第二图像块。将每个第二图像块的边界向邻近的所述第二图像块方向扩展N个像素得到第一图像块。举例说明,对于第二图像块(图像块8)而言,将图像块8的边界向邻近的所述图像块8方向N个像素得到图像块(第一图像块)可以参阅图19。N可以根据需求设定,在一些实施例中N可以是1,也可以是2、3等。
颜色值生成装置,被配置为执行步骤S202颜色值生成装置被配置为采用双线性差值采样法,对每个片元对应位置在所述解码后的第一图像块的像素点进行采样得到颜色值;
像素值的采样方法可以参阅上述实施例,在此便不赘述。
渲染装置被配置为执行步骤S203被配置为根据所述颜色值渲染待展示图像中每个像素点。
渲染过程可以采用本领域惯用渲染方法,在此申请人不予以限定。
本申请实施例示出的显示设备,利用采用双线性差值采样法,对每个片元在所述解码后的第一图像块对应的像素点进行采样,其中,所述第一图像块为将每个第二图像块的边界向邻近的所述第二图像块方向扩展1个像素得到图像块。本申请中,片元的颜色值是基于片元与第一图像块的对应关系采样的得到的,因此,在对片元的颜色值像素点进行采样的过程中,即使片元的位置位于第二图像块的边界,所述片元的周围仍被多个连续的像素点包围,基于该片元的周围像素点的颜色值采样得到片元对应位置的颜色值连续性较好,不会出现拼接缝隙的问题,用户体验感较好。
可选择的,所述显示设备还包括:拼接装置,被配置为将在预置时间内接收到的第一图像块,拼接成待解码图像数据;所述解码装置,还被配置为解码所述待解码图像数据,得到解码后图像块。
可选择的,所述拼接装置被进一步配置为:如果在预置时间内接收到的第一图像块的数量小于预置数量,将任意一第一图像块多次填充,以保证拼接成待解码图像数据的像素值恒定。
可选择的,在一可行性实施例中可以采用以下的方法计算片元在第一图像块内的UV坐标UV2
具体的,在一可行性实施例中,片元在第二图像块内的UV坐标分别为UV1(U1,V1),其中,UV1的计算过程可以参阅上述实施例在此不赘述;所述颜色值生成装置被进一步配置为根据如下公式计算UV2(U2,V2);
U2=(W×U1+1)/(W+2),V2=(H×V1+1)/(H+2)。
如图18所示,我们可以通过W×U1计算出当前片元采样位置在实线框范围内横向第几个像素处,同理可以通过H×V1计算出当前片元采样位置在实线范围内纵向第几个像素处。因此,W×U1+1则为当前片元采样位置在第一图像块(虚线框)内横向第几个像素处;H×V1+1则为当前片元采样位置在第一图像块(虚线框)内纵向第几个像素处。
我们把当前片元在第一图像块(虚线框)内的局部UV坐标记作UV2(U2,V2)。则U2=(W×U1+1)/(W+2),V2=(H×V1+1)/(H+2)。
举例说明,在一可行性实施例中,第二图像块内横向有5个片元,纵向有5个片元,具体的可以参阅图19,其中每个片元UV1坐标值分别为图20示出的坐标值/5,UV1(1/5,1/5),(1/5,2/5),(1/5,3/5)……(5/5,5/5)。
采用上述计算公式计算片元在第一图像块内UV坐标别为UV2(2/7,2/7),(2/7,3/7),(2/7,4/7)……(6/7,6/7),具体的可以参阅图21其中个像素点UV2坐标值分别为图21示出的坐标值/7。
本实施例中,颜色值生成装置可以计算第一图像块在待解码图像数据中的UV坐标UV3,其中,可以将每个视频块作为一个单位,UV3为每个视频块相对于待解码图像数据的UV坐标;UV3也可以将每个像素作为一个单位,UV3为每个视频块中固定位置对应像素点相对于待解码图像数据的UV坐标,固定位置可以是左上角,可以是右上角等。在像素值采样的过程中,颜色值生成装置可以基于UV3和UV2,计算出UV4(换算UV坐标),基于UV4在待解码图像数据中采样得到片元的颜色值。最终,渲染装置基于所述片元像素值渲染出待展示图像。其中,对该片元的颜色值像素点进行采样的过程可以参阅上述实施例在此便不赘述。其中,换算UV坐标的计算方法可以参阅上述实施例,在此便不赘述。
本申请实施例第三方面提供一种全景图像的图像处理方法,包括:解码装置,解码服务器下发的视频块集合,得到解码后图像块,所述视频块集合中包含多个与视点位置相匹配的图像块;采用双线性差值采样法,对每个片元在所述解码后图像块中对应位置的像素点进行采样,如果被采样的片元对应位置位于所述图像块的边界,按照所述片元临近像素点的采样方式进行采样;根据所述颜色值渲染待展示图像中每个像素点
本申请实施例示出的方法,颜色值生成装置采用双线性差值采样法,采样解码后图像块中每个片元对应的颜色值,如果被采样的片元对应的位置位于所述图像块的边界,按照所述片元临近像素点的采样方式进行采样。可见采用本申请实施例提供的显示设备,可以避免图像块片与图像块接壤处出现拼接缝隙问题的出现,提升用户的体验感。
本申请实施例第四方面提供一种全景图像的图像处理方法,包括:
解码服务器下发的视频块集合,得到解码后第一图像块,所述视频块集合中包含多个与视点位置相匹配的第一图像块;所述第一图像块为将每个第二图像块的边界向邻近的所述第二图像块方向扩展1个像素得到图像块,所述第二图像块为全景图像数据按照预置规则切割后得到的图像块;采用双线性差值采样法,对每个片元对应位置在所述解码后第一图像块中对应的像素点进行采样得到颜色值;根据所述颜色值渲染待展示图像中每个像素点。
本申请实施例示出的方法,利用采用双线性差值采样法,计算对每个片元在所述解码后的第一图像块对应的像素点进行采样,其中,所述第一图像块为将每个第二图像块的边界向邻近的所述第二图像块方向扩展1个像素得到图像块。本申请中,片元的颜色值是基于片元与第一图像块的对应关系采样的得到的,因此,在计算对片元的颜色值时采样的过程中,即使片元的位置位于第二图像块的边界,所述片元的周围仍被多个连续的像素点包围,基于该片元的周围像素点的颜色值计算出的采样得到的片元对应位置的颜色值连续性较好,不会出现拼接缝隙的问题,用户体验感较好。
本申请实施例还提供一种芯片,与存储器相连或者包括存储器,用于读取并执行所述存储器中存储的软件程序,本申请实施例提供的方法。
本申请实施例还提供一种计算机程序产品,计算机程序产品包括一个或多个计算机程序指令。在计算机加载和执行计算机程序指令时,全部或部分地产生按照本申请上述各个实施例的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络或者其他可编程装置。当其在计算机上运行时,使得计算机执行本申请实施例提供的方法。
在本实施例还提供一种计算机可读存储介质,该计算机可读存储介质计算机存储介质可存储有计算机程序指令,当程序指令被执行时,可实现本申请上述各实施例的图像处理方法的全部步骤。计算机可读存储介质包括磁盘、光盘、只读存储记忆体ROM或随机存储记忆体RAM等。
在上述实施例中,可以全部或部分通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现,本实施例不予限制。
本领域技术任何还可以了解到本申请列出的各种说明性逻辑块(illustrativelogical block)和步骤(step)可以通过电子硬件、电脑软件,或两者的结合进行实现。这样的功能是通过硬件还是软件来实现取决于特定的应用和整个系统的设计要求。本领域技术人员可以对于每种特定的应用,可以使用各种方法实现的功能,但这种实现不应被理解为超出本申请保护的范围。
本申请中所描述的各种说明性的逻辑单元和电路可以通过通用处理器,数字信号处理器,专用集成电路(ASIC),现场可编程门阵列(FPGA)或其它可编程逻辑装置,离散门或晶体管逻辑,离散硬件部件,或上述任何组合的设计来实现或操作所描述的功能。通用处理器可以为微处理器,可选地,该通用处理器也可以为任何传统的处理器、控制器、微控制器或状态机。处理器也可以通过计算装置的组合来实现,例如数字信号处理器和微处理器,多个微处理器,一个或多个微处理器联合一个数字信号处理器核,或任何其它类似的配置来实现。
本申请中所描述的方法或算法的步骤可以直接嵌入硬件、处理器执行的软件单元、或者这两者的结合。软件单元可以存储于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动磁盘、CD-ROM或本领域中其它任意形式的存储媒介中。示例性地,存储媒介可以与处理器连接,以使得处理器可以从存储媒介中读取信息,并可以向存储媒介存写信息。可选地,存储媒介还可以集成到处理器中。处理器和存储媒介可以设置于ASIC中,ASIC可以设置于UE中。可选地,处理器和存储媒介也可以设置于UE中的不同的部件中。
应理解,在本申请的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请的实施过程构成任何限定。

Claims (12)

1.一种显示设备,其特征在于,包括:
解码装置,被配置为解码服务器下发的视频块集合,得到解码后图像块,所述视频块集合中包含多个与视点位置相匹配的图像块;
颜色值生成装置,被配置为采用双线性差值采样法,对每个片元在所述解码后图像块中对应位置的像素点进行采样得到颜色值,如果被采样的片元对应位置位于所述图像块的边界,按照所述片元临近像素点的采样方式进行采样;
渲染装置,被配置为根据所述颜色值渲染待展示图像中每个像素点。
2.根据权利要求1所述的显示设备,其特征在于,还包括:
拼接装置,被配置为将在预置时间内接收到的图像块,拼接成待解码图像数据;
所述解码装置,还被配置为解码所述待解码图像数据,得到解码后图像块。
3.根据权利要求2所述的显示设备,其特征在于,所述拼接装置被进一步配置为:
如果在预置时间内接收到的图像块的数量小于预置数量,将任意一图像块多次填充,以保证拼接成待解码图像数据的像素值恒定。
4.根据权利要求1-3任一项所述的显示设备,其特征在于,所述颜色值生成装置被进一步配置为:
根据所述UV0,计算UV1,所述UV0为所述片元在全景图像中对应的UV坐标,所述UV1为所述片元对应的位置在图像块中的UV坐标值;
当U1<1/W时,所述片元对应于的位置位于图像块的边界;
和/或,当U1>(W-1)/W时,所述片元对应的位置位于所述图像块的边界;
和/或,当V1>(H-1)/H时,所述片元对应的位置位于所述图像块的边界;
和/或,当V1<1/H时,所述片元对应的位置位于所述图像块的边界;所述像素点为边界像素点,所述W为解码后图像块纵向上包含像素点个数,H为解码后图像块横向上包含像素点个数。
5.根据权利要求4所述的显示设备,其特征在于,所述服务器下发的数据包括视频块集合和下采样的全景图像;
在拼接所述待展示图像数据的过程中,如果缺失图像块,在所述下采样的全景图像中筛选出与所述缺失图像块相匹配的下采样区域;
利用所述图像块和所述下采样区域采样,得到颜色值。
6.根据权利要求5所述的显示设备,其特征在于,
计算片元对应的第一图像块在待解码图像数据中的UV坐标UV2
基于所述UV1及UV2,计算出换算UV坐标;
基于所述换算UV坐标在待解码图像数据中采样得到片元的颜色值。
7.一种显示设备,其特征在于,包括:
解码装置,被配置为解码服务器下发的视频块集合,得到解码后第一图像块,所述视频块集合中包含多个与视点位置相匹配的第一图像块;所述第一图像块为将每个第二图像块的边界向邻近的所述第二图像块方向扩展1个像素得到图像块,所述第二图像块为全景图像数据按照预置规则切割后得到的图像块;
颜色值生成装置,被配置为采用双线性差值采样法,对每个片元对应位置在所述解码后第一图像块中对应的像素点进行采样得到颜色值;
渲染装置,被配置为根据所述颜色值渲染待展示图像中每个像素点。
8.根据权利要求7所述的显示设备,其特征在于,还包括:
拼接装置,被配置为将在预置时间内接收到的第一图像块,拼接成待解码图像数据;
所述解码装置,还被配置为解码所述待解码图像数据,得到解码后图像块。
9.根据权利要求7所述的显示设备,其特征在于,所述拼接装置被进一步配置为:
如果在预置时间内接收到的第一图像块的数量小于预置数量,将任意一第一图像块多次填充,以保证拼接成待解码图像数据的像素值恒定。
10.根据权利要求9所述的显示设备,其特征在于,所述颜色值生成装置被进一步配置为:
根据所述UV0,计算UV1(U1,V1);UV0为所述片元在全景图像中对应的UV坐标,UV1为所述片元在第二图像块中对应的UV坐标;
根据如下公式计算UV2(U2,V2),所述UV2为片元在第一图像块内的UV坐标;
U2=(W×U1+1)/(W+2),V2=(H×V1+1)/(H+2),W为第二图像块横向包含像素的数量,H为第二图像块纵向包含像素的数量;
计算片元对应的第一图像块在待解码图像数据中的UV坐标UV3
基于UV3及UV2,计算出换算UV坐标;
基于所述换算UV坐标在待解码图像数据中采样得到片元的颜色值。
11.一种全景图像的图像处理方法,其特征在于,包括:
解码服务器下发的视频块集合,得到解码后图像块,所述视频块集合中包含多个与视点位置相匹配的图像块;
采用双线性差值采样法,对每个片元在所述解码后图像块中对应位置的像素点进行采样得到颜色值,如果被采样的片元对应位置位于所述图像块的边界,按照所述片元临近像素点的采样方式进行采样;
根据所述颜色值渲染待展示图像中每个像素点。
12.一种全景图像的图像处理方法,其特征在于,包括:
解码服务器下发的视频块集合,得到解码后第一图像块,所述视频块集合中包含多个与视点位置相匹配的第一图像块;所述第一图像块为将每个第二图像块的边界向邻近的所述第二图像块方向扩展1个像素得到图像块,所述第二图像块为全景图像数据按照预置规则切割后得到的图像块;
采用双线性差值采样法,对每个片元对应位置在所述解码后第一图像块中对应的像素点进行采样得到颜色值;
根据所述颜色值渲染待展示图像中每个像素点。
CN202010974748.7A 2020-09-16 2020-09-16 一种全景图像的图像处理方法及显示设备 Active CN112055256B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010974748.7A CN112055256B (zh) 2020-09-16 2020-09-16 一种全景图像的图像处理方法及显示设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010974748.7A CN112055256B (zh) 2020-09-16 2020-09-16 一种全景图像的图像处理方法及显示设备

Publications (2)

Publication Number Publication Date
CN112055256A true CN112055256A (zh) 2020-12-08
CN112055256B CN112055256B (zh) 2023-03-24

Family

ID=73604540

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010974748.7A Active CN112055256B (zh) 2020-09-16 2020-09-16 一种全景图像的图像处理方法及显示设备

Country Status (1)

Country Link
CN (1) CN112055256B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112509135A (zh) * 2020-12-22 2021-03-16 北京百度网讯科技有限公司 元素标注方法、装置、设备、存储介质及计算机程序产品
CN113206992A (zh) * 2021-04-20 2021-08-03 聚好看科技股份有限公司 一种转换全景视频投影格式的方法及显示设备
CN114051089A (zh) * 2021-10-12 2022-02-15 聚好看科技股份有限公司 一种全景视频中投放资源的方法及显示设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102055989A (zh) * 2009-11-04 2011-05-11 克里斯蒂数字系统美国有限公司 拼接显示系统及其改进
CN104867108A (zh) * 2014-02-20 2015-08-26 联想(北京)有限公司 一种图像处理的方法及电子设备
CN106204456A (zh) * 2016-07-18 2016-12-07 电子科技大学 全景视频序列运动估计越界折叠搜索方法
CN107948547A (zh) * 2017-12-29 2018-04-20 北京奇艺世纪科技有限公司 全景视频拼接的处理方法、装置及电子设备
CN109996072A (zh) * 2018-01-03 2019-07-09 华为技术有限公司 视频图像的处理方法及装置
CN111062895A (zh) * 2019-11-29 2020-04-24 宁波永新光学股份有限公司 一种基于多视场分割的显微图像复原方法
CN111260675A (zh) * 2020-01-21 2020-06-09 武汉大学 一种图像真实边界高精度提取方法及系统
JP2020108031A (ja) * 2018-12-27 2020-07-09 Kddi株式会社 動画像復号装置、動画像復号方法及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102055989A (zh) * 2009-11-04 2011-05-11 克里斯蒂数字系统美国有限公司 拼接显示系统及其改进
CN104867108A (zh) * 2014-02-20 2015-08-26 联想(北京)有限公司 一种图像处理的方法及电子设备
CN106204456A (zh) * 2016-07-18 2016-12-07 电子科技大学 全景视频序列运动估计越界折叠搜索方法
CN107948547A (zh) * 2017-12-29 2018-04-20 北京奇艺世纪科技有限公司 全景视频拼接的处理方法、装置及电子设备
CN109996072A (zh) * 2018-01-03 2019-07-09 华为技术有限公司 视频图像的处理方法及装置
JP2020108031A (ja) * 2018-12-27 2020-07-09 Kddi株式会社 動画像復号装置、動画像復号方法及びプログラム
CN111062895A (zh) * 2019-11-29 2020-04-24 宁波永新光学股份有限公司 一种基于多视场分割的显微图像复原方法
CN111260675A (zh) * 2020-01-21 2020-06-09 武汉大学 一种图像真实边界高精度提取方法及系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112509135A (zh) * 2020-12-22 2021-03-16 北京百度网讯科技有限公司 元素标注方法、装置、设备、存储介质及计算机程序产品
CN112509135B (zh) * 2020-12-22 2023-09-29 北京百度网讯科技有限公司 元素标注方法、装置、设备、存储介质及计算机程序产品
CN113206992A (zh) * 2021-04-20 2021-08-03 聚好看科技股份有限公司 一种转换全景视频投影格式的方法及显示设备
CN114051089A (zh) * 2021-10-12 2022-02-15 聚好看科技股份有限公司 一种全景视频中投放资源的方法及显示设备
CN114051089B (zh) * 2021-10-12 2023-09-15 聚好看科技股份有限公司 一种全景视频中投放资源的方法及显示设备

Also Published As

Publication number Publication date
CN112055256B (zh) 2023-03-24

Similar Documents

Publication Publication Date Title
CN111698551B (zh) 一种内容显示方法及显示设备
CN112565839B (zh) 投屏图像的显示方法及显示设备
CN112055256B (zh) 一种全景图像的图像处理方法及显示设备
CN111447502A (zh) Epg用户界面的显示方法及显示设备
CN113395558A (zh) 一种显示设备及显示画面旋转适配方法
CN111277911B (zh) 一种全景视频的图像处理方法、显示设备及服务器
CN114793294A (zh) 一种显示设备及开机动画显示方法
CN111629249B (zh) 一种开机图片的播放方法及显示设备
CN113556593B (zh) 一种显示设备及投屏方法
CN111654743B (zh) 音频播放方法及显示设备
CN111107428A (zh) 一种双路媒体流数据的播放方法及显示设备
CN111246309A (zh) 在显示设备中显示频道列表的方法及显示设备
CN112565861A (zh) 一种显示设备
CN111857502A (zh) 一种图像显示方法及显示设备
CN111212293A (zh) 一种图像处理方法及显示设备
CN111417027A (zh) 网页视频全屏播放切换小窗口播放的方法及显示设备
CN113347413A (zh) 一种窗口位置检测方法及显示设备
CN113395554A (zh) 显示设备
CN113115092A (zh) 一种显示设备及详情页展示方法
CN111314739B (zh) 一种图像处理方法、服务器及显示设备
CN111885415B (zh) 一种音频数据快速输出方法及显示设备
CN113556590B (zh) 一种投屏视频流有效分辨率检测方法及显示设备
CN113573118B (zh) 一种视频画面旋转方法及显示设备
CN111405329B (zh) 显示设备及epg用户界面显示的控制方法
CN113115093B (zh) 一种显示设备及详情页展示方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant