CN111212293A - 一种图像处理方法及显示设备 - Google Patents

一种图像处理方法及显示设备 Download PDF

Info

Publication number
CN111212293A
CN111212293A CN202010031660.1A CN202010031660A CN111212293A CN 111212293 A CN111212293 A CN 111212293A CN 202010031660 A CN202010031660 A CN 202010031660A CN 111212293 A CN111212293 A CN 111212293A
Authority
CN
China
Prior art keywords
display
image
coordinate values
value
image processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010031660.1A
Other languages
English (en)
Inventor
任子健
史东平
任传政
吴连朋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Hisense Media Network Technology Co Ltd
Juhaokan Technology Co Ltd
Original Assignee
Qingdao Hisense Media Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Hisense Media Network Technology Co Ltd filed Critical Qingdao Hisense Media Network Technology Co Ltd
Priority to CN202010031660.1A priority Critical patent/CN111212293A/zh
Publication of CN111212293A publication Critical patent/CN111212293A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本申请实施例示出一种图像处理方法及显示设备,所述方法首先图像处理器依次读取显示器显示范围内球面所有顶点的三维坐标值,所述球面为全景帧图像在三维场景内的载体;而后,所述图像处理器根据所述三维坐标值计算出相应顶点的UV坐标值;再后,所述图像处理器根据所述UV坐标值,在全景帧图像中读取相应顶点的颜色值;再后,所述图像处理器根据所述颜色值渲染相应的顶点得到渲染后的图像。最后,显示器显示所述渲染后的图像。

Description

一种图像处理方法及显示设备
技术领域
本申请涉及显示设备技术领域,尤其涉及一种图像处理方法及显示设备。
背景技术
全景视频是基于360度全景图像而发展延伸而来的一种新型的多媒体形式,它通过将一系列静态的全景图像连续播放而转化成动态的全景视频。全景视频一般是使用专业的全景摄像机进行全方位360度拍摄拼接而成,使用软件将各个方位的视频图像进行拼合,然后使用专门的播放器进行播放,将平面视频投影为360度全景模式,呈现给观赏者水平方向360度、垂直方向180度全包围的空间视域。观赏者可以通过头部动作、眼球运动、遥控器控制等方式与视频内容进行互动,从而得到身临其境般的体验。作为一种新型异构多媒体业务,全景视频业务流含有音频、视频、文本、交互、控制信令等多种数据类型,具有多样化的QoS(Quality of Service)需求。
在全景视频播放时,需要将矩形图像重新映射到球面显示播放,常规的做法是在渲染引擎中按照某种规则绘制一个球体,在球体的网格数据中存储了每个顶点对应的UV坐标,在进行视频渲染时,会根据每个顶点的UV坐标在对应的视频图像中找到相应位置的颜色值赋值给该顶点,最后进行渲染结果显示。
本申请的目的在于提供一种新的全景视频得图像处理方法。
发明内容
本申请的目的在于提供一种图像处理方法及显示设备。
本申请实施例第一方面示出一种图像处理方法,应用于显示设备,所述显示设备具有图像处理器和显示器,所述方法包括:
所述图像处理器依次读取显示器显示范围内球面所有顶点的三维坐标值,所述球面为全景帧图像在三维场景内的载体;
所述图像处理器根据所述三维坐标值计算出相应顶点的UV坐标值;
所述图像处理器根据所述UV坐标值,在全景帧图像中读取相应顶点的颜色值;
所述图像处理器根据所述颜色值渲染相应的顶点得到渲染后的图像。
本申请实施例第二方面示出一种显示设备,包括:
图像处理器被配置为,依次读取显示器显示范围内球面所有顶点的三维坐标值,所述球面为全景帧图像在三维场景内的载体;根据所述三维坐标值计算出相应顶点的UV坐标值根据所述UV坐标值,在全景帧图像中读取相应顶点的颜色值;所述图像处理器根据所述颜色值渲染相应的顶点得到渲染后的图像;
显示器被配置为,显示所述渲染后的图像。
本申请实施例示出一种图像处理方法及显示设备,所述方法,应用于显示设备,所述显示设备至少包括:视频解码器、图像处理器和显示设备。具体的图像处理过程为:首先视频解码器将接收到的全景视频解码得到全景图像集合,所述全景图像集合包含多个全景帧图像。然后,视频解码器输出所述全景帧图像至图像处理器。而后,所述图像处理器依次读取显示器显示范围内球面所有顶点的三维坐标值,所述球面为全景帧图像在三维场景内的载体;再后,所述图像处理器根据所述三维坐标值计算出相应顶点的UV坐标值;再后,所述图像处理器根据所述UV坐标值在全景帧图像中读取相应顶点的颜色值;再后,所述图像处理器根据所述颜色值渲染相应的顶点得到渲染后的图像。最后,显示器显示所述渲染后的图像。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例示出的显示设备与控制装置之间操作场景的示意图;
图2为本申请实施例示出的图1中控制装置100的硬件配置框图;
图3为本申请实施例示出的图1中显示设备200的硬件配置框图;
图4为本申请实施例示出的显示设备200存储器中操作系统的架构配置框图;
图5为本申请实施例示出一种图像处理方法的流程图;
图6为本申请实施例示出全景帧图像所形成的三维球体的示意图;
图7为本申请实施例示出三维坐标系的结构简图;
图8为本申请实施例示出矩形网格示意图;
图9为本申请实施例示出将全景帧图像代入矩形网格中得到的效果图;
图10a为将全景帧图像代入“球面由内部展开”得到的矩形网格的效果图;
图10b为将全景帧图像代入“球面由外部展开”得到的矩形网格的效果图;
图11为本申请实施例示出的显示设备结构简图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1中示例性示出了显示设备与控制装置之间操作场景的示意图。如图1所示,控制装置100和显示设备200之间可以有线或无线方式进行通信。
其中,控制装置100被配置为控制显示设备200,其可接收用户输入的操作指令,且将操作指令转换为显示设备200可识别和响应的指令,起着用户与显示设备200之间交互的中介作用。如:用户通过操作控制装置100上频道加减键,显示设备200响应频道加减的操作。
控制装置100可以是遥控器100A,包括红外协议通信或蓝牙协议通信,及其他短距离通信方式等,通过无线或其他有线方式来控制显示设备200。用户可以通过遥控器上按键、语音输入、控制面板输入等输入用户指令,来控制显示设备200。如:用户可以通过遥控器上音量加减键、频道控制键、上/下/左/右的移动按键、语音输入按键、菜单键、开关机按键等输入相应控制指令,来实现控制显示设备200的功能。
控制装置100也可以是智能设备,如移动终端100B、平板电脑、计算机、笔记本电脑等。例如,使用在智能设备上运行的应用程序控制显示设备200。该应用程序通过配置可以在与智能设备关联的屏幕上,通过直观的用户界面(User Interface,UI)为用户提供各种控制。
示例性的,移动终端100B可与显示设备200安装软件应用,通过网络通信协议实现连接通信,实现一对一控制操作的和数据通信的目的。如:可以使移动终端100B与显示设备200建立控制指令协议,通过操作移动终端100B上提供的用户界面的各种功能键或虚拟按钮,来实现如遥控器100A布置的实体按键的功能。也可以将移动终端100B上显示的音视频内容传输到显示设备200上,实现同步显示功能。
显示设备200可提供广播接收功能和计算机支持功能的网络电视功能。显示设备可以实施为,数字电视、网络电视、互联网协议电视(IPTV)等。
显示设备200,可以是液晶显示器、有机发光显示器、投影设备。具体显示设备类型、尺寸大小和分辨率等不作限定。
显示设备200还与服务器300通过多种通信方式进行数据通信。这里可允许显示设备200通过局域网(LAN)、无线局域网(WLAN)和其他网络进行通信连接。服务器300可以向显示设备200提供各种内容和互动。示例的,显示设备200可以发送和接收信息,例如:接收电子节目指南(Electronic Program Guide,EPG)数据、接收软件程序更新、或访问远程储存的数字媒体库。服务器300可以一组,也可以多组,可以一类或多类服务器。通过服务器300提供视频点播和广告服务等其他网络服务内容。
图2中示例性示出了控制装置100的配置框图。如图2所示,控制装置100包括控制器110、存储器120、通信器130、用户输入接口140、输出接口150、供电电源160。
控制器110包括RAM(Random Access Memory,随机存取存储器)111、ROM(Read-Only Memory,只读存储器)112、处理器113、通信接口以及通信总线。控制器110用于控制控制装置100的运行和操作,以及内部各部件之间的通信协作、外部和内部的数据处理功能。
示例性的,当检测到用户按压在遥控器100A上布置的按键的交互或触摸在遥控器100A上布置的触摸面板的交互时,控制器110可控制产生与检测到的交互相应的信号,并将该信号发送到显示设备200。
存储器120,用于在控制器110的控制下存储驱动和控制控制装置100的各种运行程序、数据和应用。存储器120,可以存储用户输入的各类控制信号指令。
通信器130在控制器110的控制下,实现与显示设备200之间控制信号和数据信号的通信。如:控制装置100经由通信器130将控制信号(例如触摸信号或按钮信号)发送至显示设备200上,控制装置100可经由通信器130接收由显示设备200发送的信号。通信器130可以包括红外模块131(红外信号接口)、射频信号接口132和蓝牙模块133。例如:红外信号接口时,需要将用户输入指令按照红外控制协议转化为红外控制信号,经红外发送模块进行发送至显示设备200。再如:射频信号接口时,需将用户输入指令转化为数字信号,然后按照射频控制信号调制协议进行调制后,由射频发送端子发送至显示设备200。
用户输入接口140,可包括麦克风141、触摸板142、传感器143、按键144等中至少一者,从而用户可以通过语音、触摸、手势、按压等将关于控制显示设备200的用户指令输入到控制装置100。
输出接口150,通过将用户输入接口140接收的用户指令输出至显示设备200,或者,输出由显示设备200接收的图像或语音信号。这里,输出接口150可以包括LED接口151、产生振动的振动接口152、输出声音的声音输出接口153和输出图像的显示器154等。例如,遥控器100A可从输出接口150接收音频、视频或数据等输出信号,并且将输出信号在显示器154上显示为图像形式、在声音输出接口153输出为音频形式或在振动接口152输出为振动形式。
供电电源160,用于在控制器110的控制下为控制装置100各元件提供运行电力支持。形式可以为电池及相关控制电路。
图3中示例性示出了显示设备200的硬件配置框图。如图3所示,显示设备200中可以包括调谐解调器210、通信器220、检测器230、外部装置接口240、控制器250、存储器260、用户接口265、视频处理器270、显示器275、音频处理器280、音频输出接口285、供电电源290。
调谐解调器210,通过有线或无线方式接收广播电视信号,可以进行放大、混频和谐振等调制解调处理,用于从多个无线或有线广播电视信号中解调出用户所选择的电视频道的频率中所携带的音视频信号,以及附加信息(例如EPG数据)。
调谐解调器210,可根据用户选择,以及由控制器250控制,响应用户选择的电视频道的频率以及该频率所携带的电视信号。
调谐解调器210,根据电视信号的广播制式不同,可以接收信号的途径有很多种,诸如:地面广播、有线广播、卫星广播或互联网广播等;以及根据调制类型不同,可以数字调制方式或模拟调制方式;以及根据接收电视信号的种类不同,可以解调模拟信号和数字信号。
在其他一些示例性实施例中,调谐解调器210也可在外部设备中,如外部机顶盒等。这样,机顶盒通过调制解调后输出电视信号,经过外部装置接口240输入至显示设备200中。
通信器220,是用于根据各种通信协议类型与外部设备或外部服务器进行通信的组件。例如显示设备200可将内容数据发送至经由通信器220连接的外部设备,或者,从经由通信器220连接的外部设备浏览和下载内容数据。通信器220可以包括WIFI模块221、蓝牙模块222、有线以太网模块223等网络通信协议模块或近场通信协议模块,从而通信器220可根据控制器250的控制接收控制装置100的控制信号,并将控制信号实现为WIFI信号、蓝牙信号、射频信号等。
检测器230,是显示设备200用于采集外部环境或与外部交互的信号的组件。检测器230可以包括声音采集器231,如麦克风,可以用于接收用户的声音,如用户控制显示设备200的控制指令的语音信号;或者,可以采集用于识别环境场景类型的环境声音,实现显示设备200可以自适应环境噪声。
在其他一些示例性实施例中,检测器230,还可以包括图像采集器232,如相机、摄像头等,可以用于采集外部环境场景,以自适应变化显示设备200的显示参数;以及用于采集用户的属性或与用户交互手势,以实现显示设备与用户之间互动的功能。
在其他一些示例性实施例中,检测器230,还可以包括光接收器(图中未示出),用于采集环境光线强度,以自适应显示设备200的显示参数变化等。
在其他一些示例性实施例中,检测器230,还可以包括温度传感器(图中未示出),如通过感测环境温度,显示设备200可自适应调整图像的显示色温。示例性的,当温度偏高的环境时,可调整显示设备200显示图像色温偏冷色调;当温度偏低的环境时,可以调整显示设备200显示图像色温偏暖色调。
外部装置接口240,是提供控制器250控制显示设备200与外部设备间数据传输的组件。外部装置接口240可按照有线/无线方式与诸如机顶盒、游戏装置、笔记本电脑等外部设备连接,可接收外部设备的诸如视频信号(例如运动图像)、音频信号(例如音乐)、附加信息(例如EPG)等数据。
其中,外部装置接口240可以包括:HDMI(High Definition MultimediaInterface,高清多媒体接口)端子241、CVBS(Composite Video Blanking and Sync,复合视频消隐同步)端子242、分量(模拟或数字)端子243、USB(Universal Serial Bus,通用串行总线)端子244、组件(Component)端子(图中未示出)、红绿蓝(RGB)端子(图中未示出)等任一个或多个。
控制器250,通过运行存储在存储器260上的各种软件控制程序(如操作系统和各种应用程序),来控制显示设备200的工作和响应用户的操作。
如图3所示,控制器250包括RAM(随机存取存储器)251、ROM(只读存储器)252、图像处理器253、CPU处理器254、通信接口255以及通信总线256。其中,RAM251、ROM252以及图像处理器253、CPU处理器254和通信接口255通过通信总线256相连接。
ROM252,用于存储各种系统启动指令。如在接收到开机信号时,显示设备200电源开始启动,CPU处理器254运行ROM252中的系统启动指令,将存储在存储器260的操作系统拷贝至RAM251中,以开始运行启动操作系统。当操作系统启动完成后,CPU处理器254再将存储器260中各种应用程序拷贝至RAM251中,然后,开始运行启动各种应用程序。
图像处理器253,用于产生各种图形对象,如图标、操作菜单、以及用户输入指令显示图形等。图像处理器253可以包括运算器,用于通过接收用户输入各种交互指令进行运算,进而根据显示属性显示各种对象;以及包括渲染器,用于产生基于运算器得到的各种对象,将进行渲染的结果显示在显示器275上。
CPU处理器254,用于执行存储在存储器260中的操作系统和应用程序指令。以及根据接收的用户输入指令,来执行各种应用程序、数据和内容的处理,以便最终显示和播放各种音视频内容。
在一些示例性实施例中,CPU处理器254,可以包括多个处理器。多个处理器可包括一个主处理器以及多个或一个子处理器。主处理器,用于在显示设备预加载模式中执行显示设备200的一些初始化操作,和/或,在正常模式下显示画面的操作。多个或一个子处理器,用于执行在显示设备待机模式等状态下的一种操作。
通信接口255,可包括第一接口、第二接口到第n接口。这些接口可以是经由网络被连接到外部设备的网络接口。
控制器250可以控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器275上显示的GUI(Graphical User Interface,图形用户界面)对象的用户输入命令,控制器250便可以执行与由用户输入命令选择的对象有关的操作。
其中,该对象可以是可选对象中的任何一个,例如超链接或图标。该与所选择的对象有关的操作,例如显示连接到超链接页面、文档、图像等操作,或者执行与对象相对应的程序的操作。该用于选择GUI对象的用户输入命令,可以是通过连接到显示设备200的各种输入装置(例如,鼠标、键盘、触摸板等)输入命令或者与由用户说出语音相对应的语音命令。
存储器260,用于存储驱动和控制显示设备200运行的各种类型的数据、软件程序或应用程序。存储器260可以包括易失性和/或非易失性存储器。而术语“存储器”包括存储器260、控制器250的RAM251和ROM252、或显示设备200中的存储卡。
在一些实施例中,存储器260具体用于存储驱动显示设备200中控制器250的运行程序;存储显示设备200内置的和用户从外部设备下载的各种应用程序;存储用于配置由显示器275提供的各种GUI、与GUI相关的各种对象及用于选择GUI对象的选择器的视觉效果图像等数据。
在一些实施例中,存储器260具体用于存储调谐解调器210、通信器220、检测器230、外部装置接口240、视频处理器270、显示器275、音频处理器280等的驱动程序和相关数据,例如从外部装置接口接收的外部数据(例如音视频数据)或用户接口接收的用户数据(例如按键信息、语音信息、触摸信息等)。
在一些实施例中,存储器260具体存储用于表示操作系统(operating system,OS)的软件和/或程序,这些软件和/或程序可包括,例如:内核、中间件、应用编程接口(ApplicationProgramming Interface,API)和/或应用程序。示例性的,内核可控制或管理系统资源,以及其它程序所实施的功能(如所述中间件、API或应用程序);同时,内核可以提供接口,以允许中间件、API或应用程序访问控制器,以实现控制或管理系统资源。
图4中示例性示出了显示设备200存储器中操作系统的架构配置框图。该操作系统架构从上到下依次是应用层、中间件层和内核层。
应用层,系统内置的应用程序以及非系统级的应用程序都是属于应用层。负责与用户进行直接交互。应用层可包括多个应用程序,如设置应用程序、电子帖应用程序、媒体中心应用程序等。这些应用程序可被实现为Web应用,其基于WebKit引擎来执行,具体可基于HTML5、层叠样式表(CSS)和JavaScript来开发并执行。
这里,HTML,全称为超文本标记语言(HyperText Markup Language),是一种用于创建网页的标准标记语言,通过标记标签来描述网页,HTML标签用以说明文字、图形、动画、声音、表格、链接等,浏览器会读取HTML文档,解释文档内标签的内容,并以网页的形式显示出来。
CSS,全称为层叠样式表(Cascading Style Sheets),是一种用来表现HTML文件样式的计算机语言,可以用来定义样式结构,如字体、颜色、位置等的语言。CSS样式可以直接存储与HTML网页或者单独的样式文件中,实现对网页中样式的控制。
JavaScript,是一种应用于Web网页编程的语言,可以插入HTML页面并由浏览器解释执行。其中Web应用的交互逻辑都是通过JavaScript实现。JavaScript可以通过浏览器,封装JavaScript扩展接口,实现与内核层的通信。
中间件层,可以提供一些标准化的接口,以支持各种环境和系统的操作。例如,中间件层可以实现为与数据广播相关的中间件的多媒体和超媒体信息编码专家组(Multimedia and Hypermedia Experts Group,MHEG),还可以实现为与外部设备通信相关的中间件的DLNA(Digital Living Network Alliance,数字生活网络联盟)中间件,还可以实现为提供显示设备内各应用程序所运行的浏览器环境的中间件等。
内核层,提供核心系统服务,例如:文件管理、内存管理、进程管理、网络管理、系统安全权限管理等服务。内核层可以被实现为基于各种操作系统的内核,例如,基于Linux操作系统的内核。
内核层也同时提供系统软件和硬件之间的通信,为各种硬件提供设备驱动服务,例如:为显示器提供显示驱动程序、为摄像头提供摄像头驱动程序、为遥控器提供按键驱动程序、为WIFI模块提供WiFi驱动程序、为音频输出接口提供音频驱动程序、为电源管理(Power Management,PM)模块提供电源管理驱动等。
用户接口265,接收各种用户交互。具体的,用于将用户的输入信号发送给控制器250,或者,将从控制器250的输出信号传送给用户。示例性的,遥控器100A可将用户输入的诸如电源开关信号、频道选择信号、音量调节信号等输入信号发送至用户接口265,再由用户接口265转送至控制器250;或者,遥控器100A可接收经控制器250处理从用户接口265输出的音频、视频或数据等输出信号,并且显示接收的输出信号或将接收的输出信号输出为音频或振动形式。
在一些实施例中,用户可在显示器275上显示的图形用户界面(GUI)输入用户命令,则用户接口265通过GUI接收用户输入命令。确切的说,用户接口265可接收用于控制选择器在GUI中的位置以选择不同的对象或项目的用户输入命令。
或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户接口265通过传感器识别出声音或手势,来接收用户输入命令。
视频处理器270,用于接收外部的视频信号,根据输入信号的标准编解码协议,进行解压缩、解码、缩放、降噪、帧率转换、分辨率转换、图像合成等视频数据处理,可得到直接在显示器275上显示或播放的视频信号。
示例的,视频处理器270,包括解复用模块、视频解码模块、图像合成模块、帧率转换模块、显示格式化模块等。
其中,解复用模块,用于对输入音视频数据流进行解复用处理,如输入MPEG-2流(基于数字存储媒体运动图像和语音的压缩标准),则解复用模块将其进行解复用成视频信号和音频信号等。
视频解码模块,用于对解复用后的视频信号进行处理,包括解码和缩放处理等。
图像合成模块,如图像合成器,其用于将图形生成器根据用户输入或自身生成的GUI信号,与缩放处理后视频图像进行叠加混合处理,以生成可供显示的图像信号。
帧率转换模块,用于对输入视频的帧率进行转换,如将输入的60Hz视频的帧率转换为120Hz或240Hz的帧率,通常的格式采用如插帧方式实现。
显示格式化模块,用于将帧率转换模块输出的信号,改变为符合诸如显示器显示格式的信号,如将帧率转换模块输出的信号进行格式转换以输出RGB数据信号。
显示器275,用于接收源自视频处理器270输入的图像信号,进行显示视频内容、图像以及菜单操控界面。显示视频内容,可以来自调谐解调器210接收的广播信号中的视频内容,也可以来自通信器220或外部装置接口240输入的视频内容。显示器275,同时显示显示设备200中产生且用于控制显示设备200的用户操控界面UI。
以及,显示器275可以包括用于呈现画面的显示屏组件以及驱动图像显示的驱动组件。或者,倘若显示器275为一种投影显示器,还可以包括一种投影装置和投影屏幕。
音频处理器280,用于接收外部的音频信号,根据输入信号的标准编解码协议,进行解压缩和解码,以及降噪、数模转换、和放大处理等音频数据处理,得到可以在扬声器286中播放的音频信号。
示例性的,音频处理器280可以支持各种音频格式。例如MPEG-2、MPEG-4、高级音频编码(AAC)、高效AAC(HE-AAC)等格式。
音频输出接口285,用于在控制器250的控制下接收音频处理器280输出的音频信号,音频输出接口285可包括扬声器286,或输出至外接设备的发生装置的外接音响输出端子287,如耳机输出端子。
在其他一些示例性实施例中,视频处理器270可以包括一个或多个芯片组成。音频处理器280,也可以包括一个或多个芯片组成。
以及,在其他一些示例性实施例中,视频处理器270和音频处理器280,可以为单独的芯片,也可以与控制器250一起集成在一个或多个芯片中。
供电电源290,用于在控制器250的控制下,将外部电源输入的电力为显示设备200提供电源供电支持。供电电源290可以是安装在显示设备200内部的内置电源电路,也可以是安装在显示设备200外部的电源。
上述显示设备可以用于全景视频的播放,其中,全景视频是基于360度全景图像而发展延伸而来的一种新型的多媒体形式,它通过将一系列静态的全景图像连续播放而转化成动态的全景视频。在全景视频播放的过程中需要将全景视频包含的序列图逐帧正确地渲染到二维的显示器上在全景视频播放时,需要将矩形图像重新映射到球面显示播放,常规的做法是在渲染引擎中按照某种规则绘制一个球体,在球体的网格数据中存储了每个顶点对应的UV坐标,在进行视频渲染时,会根据每个顶点的UV坐标在对应的视频图像中找到相应位置的颜色值赋值给该顶点,最后进行渲染结果显示。
本申请实施例意在提供一种新的图像处理方法,所述处理方法用户全景视频的渲染,所述方法应用于显示设备,所述显示设备至少包括:视频解码器、图像处理器和显示设备。具体的,请参阅图5所述方法包括:
S101所述视频解码器将接收到的全景视频解码得到全景图像集合,所述全景图像集合包含多个全景帧图像,并将所述全景视频发送至图像处理器;
本申请中全景视频是基于360度全景图像而发展延伸而来的一种新型的多媒体形式,它通过将一系列静态的全景图像连续播放而转化成动态的全景视频。本申请实施例中的全景视频可以是本地视频也可以是在线视频。
本申请中视频解码器是指一个能够对接收到的音视频数据进解压缩的程序或者设备,以将外接传输的音视频数据转换为可以被图像处理器识别的格式。进一步的,用视频数据会因为录制和保存的介质、格式等存在差异,使用和每种格式相应的播放设备就比较麻烦,视频解码器可以将接收到的各种格式的视频数据转化为被图像处理器识别的格式。
具体应用到本申请实施例示出的方案中,视频解码器将接收到的全景视频解码得到全景帧图像集合,所述全景图像集合包含多个全景帧图像。将所述全景帧图像作用于球面便可以呈现给观赏者水平方向360度、垂直方向180度全包围的空间视域,其中,所述球面为全景帧图像在三维场景内的载体。
S102所述图像处理器依次读取显示器显示范围内球面所有顶点的三维坐标值,所述球面为全景帧图像在三维场景内的载体;
本申请中图像处理器(Graphics Processing Unit,GPU),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。
通常,全景帧图像要想达到呈现给观赏者水平方向360度、垂直方向180度全包围的空间视域的效果,需要一个球型的载体来辅助全景帧图像呈现给观赏者水平方向360度、垂直方向180度全包围的空间视域的效果。
本申请实施例中,全景帧图像作用于球面上可以呈现给观赏者水平方向360度、垂直方向180度全包围的空间视域。但是,最终的视频需要在显示器上显示,由于显示屏的显示区域有限,通常只能显示部分球面对应的图像。因此,在本申请实施例中图像处理器仅需对于显示器显示范围内球面所有顶点进行处理。具体应用到本申请实施例示出的技术方案中,图像处理器仅需读取显示器显示范围内球面所有顶点的三维坐标值。
其中,所述三维坐标值所在的坐标系的原点为所述上述球面的球心。图6为根据一优选实施例示出的球面的示意图。所述球面上包括经度线和纬度线。所述经度线的范围是[-π,π],所述纬度线的范围是[-π/2,π/2]。本申请实施例示出的方案中以图6示出的球面的球心为坐标原点构建三维坐标系。具体的三维坐标系可以参阅图7。在图7示出的三维坐标系中所述球面的0度经线位于X坐标轴的正向延长线上,所述球面的90度经线位于Z坐标轴的正向延长线上,所述球面的中心轴与所述Y坐标轴重合。
图像处理器读取显示器显示范围内球面所有顶点在上述坐标系中的三维坐标值。
S103所述图像处理器根据所述三维坐标值计算出相应顶点的UV坐标值。
在一优选实施例中,所述UV坐标值的计算过程可以为:(1)图像处理器将所述三维坐标值通过映射计算得到相应顶点的经纬度坐标值;(2)图像处理器根据所述经纬度坐标值计算出相应顶点的UV坐标值。
具体的计算过程为:请继续参阅图7,对于图7中坐标系中显示器显示范围内球面上任意一个顶点P而言,顶点P三个坐标分量分别为Px、Py和Pz。顶点P在XZ平面上的垂点为P0,P0在X轴上的垂点为P1,取与X轴正方向相交的经线为0度经线,图中Lon为P点的经度值,Lat为P点的纬度值。本实施例中可以设atan为反正切函数,其取值范围为[-π,π],可以设asin为反正弦函数,其取值为[0,π/2],则Lon和Lat计算如下:
Lon=atan(P0P1/OP1);
Lat=asin(P0P/OP);
即:
Lon=atan(Pz/Px);
lat=asin(Py);
其中,lon为显示器显示范围内球面上任意一顶点的经度值,lat为显示器显示范围内球面上任意一顶点的经度值。
通过上述计算公式,可以得到显示器显示范围内球面上每个顶点的经纬度坐标值。
可选择,为了方便计算也可以预先将各顶点的三维坐标值做归一化处理。然后根据归一化处理后的结果计算出相应的经纬度坐标值。
本申请实施例示出的技术方案中,经纬度坐标值与UV坐标值的转换过程如下:将上述球面以0度经线为中心由内部展开得到矩形网格。所述矩形网格的结构可以参阅图8。图中,矩形网格的最左侧经线值为-π,矩形网格的最右侧经线值为π,矩形网格的最上侧纬线值为π/2,矩形网格的最下侧纬线值为-π/2。
将全景帧图像代入上述矩形网格中得到的结果如图9所示。图中,全景帧图像的最左侧水平方向上的坐标值0,全景帧图像的最右侧水平方向上的坐标值1,全景帧图像的最上侧竖直方向上的坐标值1,全景帧图像的最下侧竖直方向上的坐标值0。根据全景帧图像和矩形网格的对应关系可以将经纬度坐标值转换为UV坐标值。所述经纬度坐标值与所述UV坐标值的转换关系式为:
U=(π+lon)/2π;
V=(π/2-lat)/π;
即:
U=1/2+lon/2π;
V=1/2-lat/π;
其中,U为显示器显示范围内球面上任意一顶点水平方向上的坐标值,V显示器显示范围内球面上任意一顶点垂直方向上的坐标值。
值得注意的是,本申请示出的技术方案将球面以0度经线为中心,由内部展开为2:1的矩形网格,并将全景帧图像代入展开的矩形网格中,实现UV坐标值与经纬度坐标值的转换。将球面由内向外展开得到的矩形网格和将球面由外向内展开得到的矩形网格的在经度方向上的坐标呈镜像关系。相应的,将全景帧图像分别代入上述两种矩形网格所得到的图像在水平方向上也呈镜像关系。
具体的,图10a为将全景帧图像代入“球面由内部展开”得到的矩形网格的效果图。图10b为将全景帧图像代入“球面由外部展开”得到的矩形网格的效果图。10a示出的效果图真实的还原了各顶点所处的位置,将采用此方法最终渲染出来的图像呈现给用户,可以提高用户的体验感。相比较之下,如果将全景帧图像代入由外部展开得到的矩形网格中,最终得到的效果图各个顶点所处的位置与顶点真实的位置左右是相反的。基于此本申请实施例示出的技术方案采用由内向外展开方式将球面展开。
S104所述图像处理器根据所述UV坐标值,在全景帧图像中读取相应顶点的颜色值;
S105所述图像处理器根据所述颜色值渲染相应的顶点得到渲染后的图像;
具体的渲染过程:下面以绘制一座雪山为例来说明图像处理器渲染流水线的工作流程,首先,图像处理器根据计算得到的显示器显示范围内的相应顶点的UV坐标值,在全景帧图像上查找所述UV坐标值对应的颜色值。然后,图像处理器基于所述颜色值对应的顶点进行上色和渲染。而后由图像处理器内部的ROP完成像素到帧缓冲区的输出,帧缓冲区中的数据经过D/A输出到显示器上以后,就可以看到绘制完成的雪山图像了。
由以上技术方案可以看出,本申请实施例示出一种图像处理方法,所述方法应用于显示设备,所述显示设备至少包括:视频解码器、图像处理器和显示设备。具体的图像处理处理过程为:首先视频解码器将接收到的全景视频解码得到全景图像集合,所述全景图像集合包含多个全景帧图像。然后,所述图像处理器依次读取显示器显示范围内球面所有顶点的三维坐标值,所述球面为全景帧图像在三维场景内的载体;再后,所述图像处理器根据所述三维坐标值计算出相应顶点的UV坐标值;再后,所述图像处理器根据所述UV坐标值,在全景帧图像中读取相应顶点的颜色值;再后,所述图像处理器根据所述颜色值渲染相应的顶点得到渲染后的图像。最后,显示器显示所述渲染后的图像。
与常规方法直接从球面的网格数据中读取理UV坐标值的做法不同,本发明通过球体每个顶点数据计算球面到二维图像平面的映射结果,从而获取准确的UV坐标值,进一步保证最终视频渲染播放的质量。
本申请实施例第二方面示出一种显示设备,具体的,可以参阅图11所述显示设备处理器和包括:
视频解码器11被配置为依次读取显示器显示范围内球面所有顶点的三维坐标值,所述球面为全景帧图像在三维场景内的载体;根据所述三维坐标值计算出相应顶点的UV坐标值根据所述UV坐标值,在全景帧图像中读取相应顶点的颜色值;所述图像处理器根据所述颜色值渲染相应的顶点得到渲染后的图像。
显示器13被配置为显示所述渲染后的图像。
可选择的,所述图像处理器还被配置为所述图像处理器将所述三维坐标值通过映射计算得到相应顶点的经纬度坐标值;
所述图像处理器根据所述经纬度坐标值计算出相应顶点的UV坐标值。
可选择的,根据如下公式得到相应顶点的经纬度坐标值,其中,所述纬度坐标值包括经度值和纬度值:
Lon=atan(z/x);
lat=asin(y);
其中,x,y,z分别为显示器显示范围内球面上任意一顶点的三维坐标值,lon为显示器显示范围内球面上任意一顶点的经度值,lat为显示器显示范围内球面上任意一顶点的经度值。
可选择的,所述图像处理器还被配置为,将所述球面以0度经线为中心,由内部展开得到矩形网格,所述矩形网格的长为2π,所述矩形网格的宽为π;
所述图像处理器还被配置为,将所述全景帧图像代入所述矩形网格得到所述全景帧图像与所述矩形网格的对应关系;
所述图像处理器还被配置为,根据所述对应关系将经纬度坐标值转换为UV坐标值。
可选择的,所述经纬度坐标值与所述UV坐标值的转换关系式为:
U=(π+lon)/2π;
V=(π/2-lat)/π;
其中,U为显示器显示范围内球面上任意一顶点水平方向上的坐标值,V显示器显示范围内球面上任意一顶点垂直方向上的坐标值。
所述图像处理器还被配置为,将所述球面以0度经线为中心,由内部展开得到矩形网格,所述矩形网格的长为2π,所述矩形网格的宽为π;
所述图像处理器还被配置为,将所述全景帧图像代入所述矩形网格得到所述全景帧图像与所述矩形网格的对应关系;
所述图像处理器还被配置为,根据所述对应关系将经纬度坐标值转换为UV坐标值。
本申请实施例示出的显示设备以上从球面顶点(顶点)计算、坐标变换、帧图像采样到最终渲染的整个过程与图像处理器12渲染管线流程非常吻合。因此,可以运用图像处理器12编程中使用的着色单元语言,对图像处理器12渲染管线的流程进行修改,将顶点计算、坐标变换过程在顶点着色单元中执行,将图像采样和渲染过程在像素着色单元中执行。这样整个算法流程即可在图像处理器12中进行,可以极大的提高全景视频渲染播放的效率,从而降低全景视频渲染的MTP时延(Motion To Photons,指从用户开始运动至看到图像时的时延),减少用户使用VR头盔进行全景视频交互体验时的眩晕感。
本申请实施例示出的技术方案可以结合的着色器语言可以是但不限于GLSL(OpenGL Shading Language,OpenGL的着色器语言)、HLSL(High Level Shader Language,微软DirectX的着色器语言)、CG(C for Graphics,由微软和NVIDIA共同提出的着色器语言)、Unity3D Shader(Unity3D的着色器语言)。
本说明书中各个实施例之间相同相似的部分互相参照即可。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,并不构成对本发明保护范围的限定。本发明的真正范围和精神由所附的权利要求指出。

Claims (10)

1.一种图像处理方法,其特征在于,应用于显示设备,所述显示设备至少包括图像处理器和显示器,所述方法包括:
所述图像处理器依次读取显示器显示范围内球面所有顶点的三维坐标值,所述球面为全景帧图像在三维场景内的载体;
所述图像处理器根据所述三维坐标值计算出相应顶点的UV坐标值;
所述图像处理器在所述全景帧图像中读取所述UV坐标值对应的颜色值;
所述图像处理器根据所述颜色值渲染相应的顶点得到渲染后的图像。
2.根据权利要求1所述的方法,其特征在于,所述根据三维坐标值计算出相应顶点的UV坐标值的步骤包括:
所述图像处理器将所述三维坐标值通过映射计算得到相应顶点的经纬度坐标值;
所述图像处理器根据所述经纬度坐标值计算出相应顶点的UV坐标值。
3.根据权利要求2所述的方法,其特征在于,根据如下公式计算得到相应顶点的经纬度坐标值,其中所述纬度坐标值包括:经度值和纬度值;
Lon=atan(z/x);
lat=asin(y);
其中,x,y,z分别为显示器显示范围内球面上任意一顶点的坐标值,lon为显示器显示范围内球面上任意一顶点的经度值,lat为显示器显示范围内球面上任意一顶点的经度值。
4.根据权利要求2所述的方法,其特征在于,所述根据经纬度坐标值计算出相应顶点的UV坐标值的步骤包括:
所述图像处理器将所述球面以0度经线为中心由内部展开得到矩形网格,所述矩形网格的长为2π,所述矩形网格的宽为π;
所述图像处理器将所述全景帧图像代入所述矩形网格,得到所述全景帧图像与所述矩形网格的对应关系;
所述图像处理器根据所述对应关系,将经纬度坐标值转换为UV坐标值。
5.根据权利要求4所述的方法,其特征在于,所述经纬度坐标值与所述UV坐标值的转换关系式为:
U=(π+lon)/2π;
V=(π/2-lat)/π;
其中,U为显示器显示范围内球面上任意一顶点水平方向上的坐标值,V显示器显示范围内球面上任意一顶点垂直方向上的坐标值。
6.一种显示设备,其特征在于,包括:
视频解码器被配置为将接收到的全景视频解码得全景帧图像,输出所述全景帧图像;
图像处理器被配置为依次读取显示器显示范围内球面所有顶点的三维坐标值,所述球面为全景帧图像在三维场景内的载体;根据所述三维坐标值计算出相应顶点的UV坐标值根据所述UV坐标值,在全景帧图像中读取相应顶点的颜色值;所述图像处理器根据所述颜色值渲染相应的顶点得到渲染后的图像;
显示器被配置为显示所述渲染后的图像。
7.根据权利要求6所述的显示设备,其特征在于,
所述图像处理器还被配置为所述图像处理器将所述三维坐标值通过映射计算得到相应顶点的经纬度坐标值;
所述图像处理器根据所述经纬度坐标值计算出相应顶点的UV坐标值。
8.根据权利要求7所述的显示设备,其特征在于,根据如下公式得到相应顶点的经纬度坐标值,其中,所述纬度坐标值包括经度值和纬度值:
Lon=atan(z/x);
lat=asin(y);
其中,x,y,z分别为显示器显示范围内球面上任意一顶点的三维坐标值,lon为显示器显示范围内球面上任意一顶点的经度值,lat为显示器显示范围内球面上任意一顶点的经度值。
9.根据权利要求7所述的显示设备,其特征在于,
所述图像处理器还被配置为将所述球面以0度经线为中心,由内部展开得到矩形网格,所述矩形网格的长为2π,所述矩形网格的宽为π;
所述图像处理器还被配置为将所述全景帧图像代入所述矩形网格得到所述全景帧图像与所述矩形网格的对应关系;
所述图像处理器还被配置为,根据所述对应关系将经纬度坐标值转换为UV坐标值。
10.根据权利要求9所述的显示设备,其特征在于,所述经纬度坐标值与所述UV坐标值的转换关系式为:
U=(π+lon)/2π;
V=(π/2-lat)/π;
其中,U为显示器显示范围内球面上任意一顶点水平方向上的坐标值,V显示器显示范围内球面上任意一顶点垂直方向上的坐标值。
CN202010031660.1A 2020-01-13 2020-01-13 一种图像处理方法及显示设备 Pending CN111212293A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010031660.1A CN111212293A (zh) 2020-01-13 2020-01-13 一种图像处理方法及显示设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010031660.1A CN111212293A (zh) 2020-01-13 2020-01-13 一种图像处理方法及显示设备

Publications (1)

Publication Number Publication Date
CN111212293A true CN111212293A (zh) 2020-05-29

Family

ID=70789025

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010031660.1A Pending CN111212293A (zh) 2020-01-13 2020-01-13 一种图像处理方法及显示设备

Country Status (1)

Country Link
CN (1) CN111212293A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112218132A (zh) * 2020-09-07 2021-01-12 聚好看科技股份有限公司 一种全景视频图像显示方法及显示设备
CN112565736A (zh) * 2020-11-25 2021-03-26 聚好看科技股份有限公司 一种全景视频显示方法及显示设备
CN112672131A (zh) * 2020-12-07 2021-04-16 聚好看科技股份有限公司 一种全景视频图像显示方法及显示设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101938599A (zh) * 2009-06-30 2011-01-05 爱国者全景(北京)网络科技发展有限公司 生成互动的动态全景影像的方法
CN107871304A (zh) * 2017-11-29 2018-04-03 中国科学技术大学 基于球面环切和仿射变换的全景视频帧矩形映射方法
CN108282694A (zh) * 2017-01-05 2018-07-13 阿里巴巴集团控股有限公司 全景视频渲染方法、装置及电子设备
CN108470379A (zh) * 2017-02-23 2018-08-31 株式会社理光 三维图像融合方法和装置
CN108734791A (zh) * 2018-03-30 2018-11-02 北京奇艺世纪科技有限公司 全景视频的处理方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101938599A (zh) * 2009-06-30 2011-01-05 爱国者全景(北京)网络科技发展有限公司 生成互动的动态全景影像的方法
CN108282694A (zh) * 2017-01-05 2018-07-13 阿里巴巴集团控股有限公司 全景视频渲染方法、装置及电子设备
CN108470379A (zh) * 2017-02-23 2018-08-31 株式会社理光 三维图像融合方法和装置
CN107871304A (zh) * 2017-11-29 2018-04-03 中国科学技术大学 基于球面环切和仿射变换的全景视频帧矩形映射方法
CN108734791A (zh) * 2018-03-30 2018-11-02 北京奇艺世纪科技有限公司 全景视频的处理方法和装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112218132A (zh) * 2020-09-07 2021-01-12 聚好看科技股份有限公司 一种全景视频图像显示方法及显示设备
CN112218132B (zh) * 2020-09-07 2022-06-10 聚好看科技股份有限公司 一种全景视频图像显示方法及显示设备
CN112565736A (zh) * 2020-11-25 2021-03-26 聚好看科技股份有限公司 一种全景视频显示方法及显示设备
CN112672131A (zh) * 2020-12-07 2021-04-16 聚好看科技股份有限公司 一种全景视频图像显示方法及显示设备
CN112672131B (zh) * 2020-12-07 2024-02-06 聚好看科技股份有限公司 一种全景视频图像显示方法及显示设备

Similar Documents

Publication Publication Date Title
CN111200746B (zh) 显示设备处于待机状态时被唤醒的方法及显示设备
CN111246266A (zh) 一种显示设备及旋转时ui显示方法
CN113395558B (zh) 一种显示设备及显示画面旋转适配方法
CN111447502A (zh) Epg用户界面的显示方法及显示设备
CN112565839A (zh) 投屏图像的显示方法及显示设备
CN112055256B (zh) 一种全景图像的图像处理方法及显示设备
CN111212293A (zh) 一种图像处理方法及显示设备
CN111857502B (zh) 一种图像显示方法及显示设备
CN111277911B (zh) 一种全景视频的图像处理方法、显示设备及服务器
CN111107428A (zh) 一种双路媒体流数据的播放方法及显示设备
CN111629249B (zh) 一种开机图片的播放方法及显示设备
CN111654743B (zh) 音频播放方法及显示设备
CN111176603A (zh) 一种用于显示设备的图像显示方法及显示设备
CN111246309A (zh) 在显示设备中显示频道列表的方法及显示设备
CN111343492B (zh) 一种浏览器在不同图层的显示方法及显示设备
CN112565861A (zh) 一种显示设备
CN111432257A (zh) 一种显示设备开启屏幕保护的方法及显示设备
CN111954043B (zh) 一种信息栏显示方法及显示设备
CN113347413A (zh) 一种窗口位置检测方法及显示设备
CN113395554A (zh) 显示设备
CN111314739B (zh) 一种图像处理方法、服务器及显示设备
CN111885415B (zh) 一种音频数据快速输出方法及显示设备
CN113573118B (zh) 一种视频画面旋转方法及显示设备
CN113115093B (zh) 一种显示设备及详情页展示方法
CN114501087A (zh) 一种显示设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200529

RJ01 Rejection of invention patent application after publication