CN109327699A - 一种图像的处理方法、终端和服务器 - Google Patents

一种图像的处理方法、终端和服务器 Download PDF

Info

Publication number
CN109327699A
CN109327699A CN201710645108.XA CN201710645108A CN109327699A CN 109327699 A CN109327699 A CN 109327699A CN 201710645108 A CN201710645108 A CN 201710645108A CN 109327699 A CN109327699 A CN 109327699A
Authority
CN
China
Prior art keywords
subregion
latitude
image
sub
longitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710645108.XA
Other languages
English (en)
Other versions
CN109327699B (zh
Inventor
宋翼
谢清鹏
邸佩云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CN201710645108.XA priority Critical patent/CN109327699B/zh
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to JP2019571623A priority patent/JP6984841B2/ja
Priority to AU2018311589A priority patent/AU2018311589B2/en
Priority to PCT/CN2018/081177 priority patent/WO2019024521A1/zh
Priority to EP18841334.8A priority patent/EP3633993A4/en
Priority to BR112020002235-7A priority patent/BR112020002235A2/pt
Priority to CA3069034A priority patent/CA3069034C/en
Priority to RU2020108306A priority patent/RU2764462C2/ru
Priority to SG11201913824XA priority patent/SG11201913824XA/en
Priority to KR1020207001630A priority patent/KR102357137B1/ko
Publication of CN109327699A publication Critical patent/CN109327699A/zh
Priority to PH12020500047A priority patent/PH12020500047A1/en
Priority to US16/739,568 priority patent/US11032571B2/en
Application granted granted Critical
Publication of CN109327699B publication Critical patent/CN109327699B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • G06T3/067Reshaping or unfolding 3D tree structures onto 2D planes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • H04N21/2393Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Instructional Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例提供一种图像的处理方法、终端和服务器,涉及媒体标准和媒体应用技术领域,能够解决图像采样时,采用经纬图均匀划分图像造成编码传输时编码效率低以及带宽浪费的问题。其方法为:对待处理图像的经纬图或球面图进行横向划分和纵向划分,以得到经纬图或球面图的各个子区域,其中,横向划分的划分位置为预先设定的纬度,纵向划分的划分位置由纬度确定,相邻的横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,纵向划分间隔为相邻的纵向划分的划分位置间的距离;对得到的各个子区域的图像进行编码。本申请实施例用于图像的Tile‑wise编码传输。

Description

一种图像的处理方法、终端和服务器
技术领域
本申请涉及媒体标准和媒体应用技术领域,尤其涉及一种图像的处理方法、终端和服务器。
背景技术
在视频应用中,虚拟现实(virtual reality,VR)/360度全景视频正在兴起,给人们带来了新的观看方式和视觉体验,同时也带来了新的技术挑战。360度全景视频由多个摄像机对物体进行多角度拍摄,支持多角度播放。其图像信号可以虚拟为一种球面信号,如图1所示,球面中不同位置的球面图像信号可以表示不同的视角内容。然而,虚拟的球面图像信号无法直观被人眼所见,因此需要将三维的球面图像信号表示为二维平面图像信号,例如通过经纬图、立方体等表述形式表示。这些表示形式实际上是将球面图像信号通过某种映射方式映射到二维的图像上,使其变为人眼所能直观看到的图像信号,最常用的直观图像格式为经纬图。该图像的采集方式是,水平方向上根据经度角对球面图像信号均匀采样,垂直方向上根据纬度角进行均匀采样,以地球的球面图像信号为例,其获得的二维映射图像如图2所示。
在VR应用中,球面图像信号为360度全景图像,而人眼的视角范围通常约为120度,因此人眼视角下看到的有效球面信号约为全景信号的22%。VR终端设备(如VR眼镜)可支持的单视角大约在90度至110度之间,能获得较好的用户观看体验。然而,由于用户观看图像时单个视角内的图像内容信息占整幅全景图像的小部分,视角外的图像信息对用户来说并没做任何使用,若将所有全景图像进行传输,会造成不必要的带宽浪费。因此,在全景视频基于视角的视频编码(viewport dependent video coding,VDC)的编码传输技术中,将整个视频中的图像进行划分,并根据用户的当前视角选择需要进行传输的图像子区域,从而达到节省带宽的目的。
上述全景视频VR编码传输技术可以包括2种:1)单独使用Tile-wise编码传输方式;2)全景图像编码与Tile-wise编码传输方式混合编码传输。其中,Tile-wise编码传输方式,是指将图像序列划分为一些图像子区域,分别将所有子区域进行独立编码,生成单个或多个码流。其中,在针对经纬图进行均匀划分方式中,包括将经纬图在宽高方向均匀划分为多个Tile,在客户端,当用户观看某一视角的图像时,客户端根据用户视角位置计算该视角在图像上所覆盖的范围,并根据该范围获得图像所需传输的Tile信息,包括Tile在图像中的位置和尺寸等,从服务端请求这些Tile对应的码流进行传输,从而在客户端对当前视角进行渲染和显示。但是,采用经纬图进行划分时,在赤道附近图像的采样率较高,在两极部分图像的采样率较低,即赤道附近的图像像素冗余度较低,两极部分的图像像素冗余度较高,而且越往高纬度其冗余度越大,如果采用经纬图进行均匀划分,并未考虑到经纬图在不同纬度下的像素冗余度问题,对每个图像块以相同的条件在相同分辨率下进行编码传输,编码效率低,也会对传输带宽的浪费较大。
发明内容
本申请实施例提供一种图像的处理方法、终端和服务器,能够解决图像采样时,采用经纬图均匀划分图像造成编码传输时编码效率低以及带宽浪费的问题。
第一方面,提供一种图像的处理方法,应用于服务器,包括:对待处理图像的经纬图或球面图进行横向划分和纵向划分,以得到经纬图或球面图的各个子区域,其中,横向划分的划分位置为预先设定的纬度,纵向划分的划分位置由纬度确定,相邻的横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,纵向划分间隔为相邻的纵向划分的划分位置间的距离;对得到的各个子区域的图像进行编码。这样,相对于现有技术对经纬图按照相同的划分间隔进行均匀划分的方式中,均匀划分时划分的细致的特性导致的编码效率低,编码后传输时占用的带宽大的问题,本申请这种不同纬度之间按照至少两种纵向划分间隔进行纵向划分的方式,避免如现有技术中均匀划分细致的特征,本申请可以按照多种纵向划分间隔纵向划分,能够使得图像的子区域有多种大小,划分间隔越大,子区域越大,编码时的编码效率得到提升,编码后服务器向终端传输码流时的占用的带宽减小。
在一种可能的设计中,纵向划分的划分位置由纬度确定包括:纵向划分的划分位置所处的纬度越高,纵向划分间隔越大。这样由于子区域所在的纬度的不同,纬度高的子区域越大,划分越粗略,可以使得编码传输效率得到提升,传输带宽减小。
在一种可能的设计中,在对得到的各个子区域的图像进行编码之前,该方法还包括:对子区域的图像按照第一采样间隔在横向进行采样;其中,子区域所对应的纬度越高,第一采样间隔越大;对得到的各个子区域的图像进行编码,包括:对采样后的各个子区域的图像进行编码。由于经纬图赤道附近的图像的像素冗余度低,两极部分的图像的像素冗余度高,如果每个子区域在相同分辨率下进行编码传输,对传输带宽浪费大,另外,解码端像素冗余高,会使得解码端对于解码能力要求高,解码速度低。而本申请在可以在编码前进行横向采样,且横向采样时,子区域对应的纬度越高,第一采样间隔越大,即对高纬度的子区域在横向进行下采样,也即压缩采样,能够使得高纬度的子区域在编码前传输的图像像素冗余度降低,达到减小带宽的目的,同时下采样使得需要编码传输的像素值减少,使得解码端对于解码能力的要求降低,解码复杂度下降,从而使得解码速度得到提升。
在一种可能的设计中,在对得到的各个子区域的图像进行编码之前,该方法还包括:对子区域的图像按照第二采样间隔在纵向进行采样。其中,第二采样间隔可以是与采样前子区域的间隔相同,即在纵向保持原采样,也可以比采样前子区域的间隔小,即在纵向整体进行下采样,同理,也可以使得编码传输的带宽较小,解码端解码时的复杂度降低,解码速度得到提升。
在一种可能的设计中,当子区域由对待处理图像的球面图进行横向划分和纵向划分得到时,在对子区域的图像按照第一采样间隔在横向进行采样之前,该方法还包括:将子区域的图像按照预设尺寸映射为二维平面图像;对子区域的图像按照第一采样间隔在横向进行采样,包括:对子区域的图像映射的二维平面图像按照第一采样间隔在横向进行采样。也就是说,如果服务器从拍摄设备采集到的是球面图时,可以先将球面图的子区域图像映射到二维的经纬图,而后对经纬图进行下采样,这样假设服务器从拍摄设备直接采集到球面信号,就可以直接对球面图划分子区域,而后将球面图的子区域映射到经纬图,再对经纬图进行下采样。
在一种可能的设计中,在对采样后的各个子区域的图像进行编码之前,该方法还包括:调整采样后的各个子区域的位置,使得调整后的各个子区域的图像拼接成的图像的横向边缘对齐,且纵向边缘对齐。这样,在拼接后的图像中可以按顺序对子区域进行编号,以根据各个子区域的编号方便对服务器和终端对各个子区域进行传输处理。
在一种可能的设计中,对采样后的各个子区域的图像进行编码包括:对拼接成的图像分片(Tile)进行编码。这样可以生成单个码流进行保存,或者将该单个码流进行切割后获得多个子区域进行保存。
在一种可能的设计中,在对得到的各个子区域的图像进行编码之后,该方法还包括:对通过编码获得的各个子区域的图像对应的码流进行独立封装,并且编码各个子区域的位置信息;其中,编码后的所有子区域的位置信息与所有子区域的码流存在于一个轨迹中;或者,编码后的每个子区域的位置信息与码流存在于各自的轨迹中;或者,编码后的所有子区域的位置信息存在于媒体呈现描述(MPD);或者,编码后的所有子区域的位置信息存在于私有文件中,且私有文件的地址存在于MPD中;或者,编码后的每个子区域的位置信息存在于每个子区域的码流的辅助增强信息(SEI)中。
在一种可能的设计中,当子区域由对待处理图像的经纬图进行横向划分和纵向划分得到时,采样后的各个子区域形成采样后的经纬图,位置信息包括子区域在经纬图中的位置以及尺寸大小,以及子区域在采样后的经纬图中的位置以及尺寸大小;或者,位置信息包括子区域在经纬图中的位置以及尺寸大小,以及子区域在拼接成的图像中的位置以及尺寸大小;或者,当子区域由对待处理图像的球面图进行横向划分和纵向划分得到时,采样后的各个子区域形成采样后的球面图,位置信息包括子区域在球面图的图像中的位置以及经纬度范围,以及子区域在采样后的球面图的图像中的位置以及尺寸大小;或者,位置信息包括子区域在球面图图像中的位置以及经纬度范围,以及子区域在拼接成的图像中的位置以及尺寸大小。这样,终端可以根据子区域的位置以及尺寸大小在播放显示时进行图像渲染和呈现。
在一种可能的设计中,私有文件还包括用于表征用户视点与用户视点的视角覆盖的子区域的编号的对应关系的信息。对于终端来说,当终端确定用户视点时,就可以直接根据该对应关系确定该视点的视角覆盖的子区域,以根据该子区域的码流进行解码显示,可以提升终端解码时的解码速度。
在一种可能的设计中,私有文件还包括用于表征用户视角覆盖的子区域中需优先显示的子区域个数的信息、需优先显示的子区域编号的信息、次优先显示的子区域编号的信息以及不显示的子区域编号的信息。这样,当存在某些原因,例如网络不稳定导致所有的子区域码流无法完全获取或不需要完全获取时,终端可以优先获取离视点近的子区域的图像进行优先显示,而摒弃不作优先显示的子区域的图像数据。
在一种可能的设计中,经纬图包括左眼对应的经纬图和右眼对应的经纬图;在对待处理图像的经纬图或球面图进行横向划分和纵向划分之前,该方法还包括:将左眼对应的经纬图与右眼对应的经纬图进行分割;对待处理图像的经纬图或球面图进行横向划分和纵向划分,包括:对左眼对应的经纬图进行横向划分和纵向划分,以及对右眼对应的经纬图进行横向划分和纵向划分。这样,对于3D视频图像来说,也可以按照本申请的子区域划分方式,减小带宽以及提升编码传输时的效率。
在一种可能的设计中,该方法还包括:将通过编码获得的各个子区域的图像对应的码流发送给终端;或者,接收终端发送的视角信息,根据视角信息获取视角信息对应的子区域,将视角信息对应的子区域的码流发送给终端;或者,接收终端发送的子区域的编号,将子区域的编号对应的码流发送给终端。也即,终端可以从本地获取所需子区域的图像对应的码流,也可以从是服务器根据视角信息确定子区域后,将子区域对应的码流发送给终端,也可以是终端确定所需的子区域的编号后通知服务器,服务器将子区域对应的码流发送给终端,可以降低服务器的计算负载。
在一种可能的设计中,经纬图为360度全景视频图像的经纬图,或360度全景视频图像的经纬图的一部分;或球面图为360度全景视频图像的球面图,或360度全景视频图像的球面图的一部分。也即,本申请对子区域的划分方式也可以适用于180度半全景视频图像的划分,进而降低180度半全景视频图像传输时的带宽和提升编码传输效率。
第二方面,提供一种图像的处理方法,应用于终端,包括:确定全景图像各个子区域的位置信息;根据确定的各个子区域的位置信息,确定当前视角覆盖的子区域在全景图像中的位置信息,并确定子区域的第一采样间隔;根据确定的当前视角覆盖的子区域位置信息,获取当前视角覆盖的子区域对应的码流;对码流进行解码,以得到当前视角覆盖的子区域的图像;根据确定的当前视角覆盖的子区域的位置信息以及第一采样间隔对解码后的图像进行重采样,并对重采样后的图像进行播放。于是,采样间隔可以随子区域的位置变化,不会如现有技术中子区域是均匀划分,解码时按照既定的采样间隔解码呈现图像,本申请终端可以根据不同的采样间隔重采样图像进行显示,可以提升解码端图像的显示速度。
在一种可能的设计中,确定全景图像各个子区域的位置信息包括:接收服务器发送的第一信息,第一信息包括全景图像的各个子区域的轨迹以及各个子区域的码流,轨迹包括全景图像的所有子区域的位置信息;根据轨迹,得到全景图像中的各个子区域的位置信息。
在一种可能的设计中,确定全景图像中各个子区域的位置信息包括:接收服务器发送的媒体呈现描述(MPD),其中,MPD包括各个子区域的位置信息,或者,MPD中包括私有文件的地址,且私有文件包括各个子区域的位置信息;解析MPD,以获取各个子区域的位置信息。
在一种可能的设计中,子区域的位置信息存在于子区域对应的码流的辅助增强信息(SEI)中。
在一种可能的设计中,获取当前视角覆盖的子区域对应的码流,包括:从终端的存储器中获取当前视角覆盖的子区域对应的码流;或者,向服务器请求获取当前视角覆盖的子区域对应的码流。
在一种可能的设计中,向服务器请求获取当前视角覆盖的子区域对应的码流,包括:将指示当前视角的信息发送给服务器,接收服务器发送的当前视角覆盖的子区域对应的码流;或者,按照终端与服务器预设的协议,从服务器获取当前视角覆盖的子区域对应的码流,协议包括视角与该视角覆盖的子区域的对应关系,这样可以根据该对应关系提升终端从服务获取子区域对应的码流的速度。
在一种可能的设计中,确定子区域的第一采样间隔,包括:确定预设的采样间隔为第一采样间隔;或者,从服务器接收第一采样间隔;或者,根据从服务器接收到的各个子区域的位置信息获取第一采样间隔,即各个子区域的位置信息不同时,对应的第一采样间隔也可以不同。
第三方面,提供一种图像的处理方法,应用于服务器,包括:保存全景图像的经纬图或球面图的各个子区域的图像对应的码流,子区域根据对全景图像的经纬图或球面图进行横向划分和纵向划分得到,其中,横向划分的划分位置为预先设定的纬度,纵向划分的划分位置由纬度确定,相邻的横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,纵向划分间隔为相邻的纵向划分的划分位置间的距离;向终端发送终端请求的保存的各个子区域的图像对应的码流中当前视角覆盖的子区域的码流。这样,该服务器保存的各个子区域的图像对应的码流在传输给终端时,由于本申请不同纬度之间按照至少两种纵向划分间隔进行纵向划分子区域的方式,可以避免如现有技术中均匀划分细致的特征,本申请可以按照多种纵向划分间隔纵向划分,能够使得图像的子区域有多种大小,划分间隔越大,子区域越大,编码时的编码效率得到提升,编码后服务器向终端传输码流时的占用的带宽减小。
在一种可能的设计中,保存于服务器的子区域对应的图像在被编码之前,被按照第一采样间隔在横向进行采样;其中,子区域所对应的纬度越高,第一采样间隔越大;或者,被按照第二采样间隔在纵向进行采样。这样
第四方面,提供一种服务器,包括:划分单元,用于对待处理图像的经纬图或球面图进行横向划分和纵向划分,以得到经纬图或球面图的各个子区域,其中,横向划分的划分位置为预先设定的纬度,纵向划分的划分位置由纬度确定,相邻的横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,纵向划分间隔为相邻的纵向划分的划分位置间的距离;编码单元,用于对得到的各个子区域的图像进行编码。
在一种可能的设计中,纵向划分的划分位置由纬度确定包括:纵向划分的划分位置所处的纬度越高,纵向划分间隔越大。
在一种可能的设计中,还包括采样单元,用于:对子区域的图像按照第一采样间隔在横向进行采样;其中,子区域所所对应的纬度越高,第一采样间隔越大;编码单元用于:对采样后的各个子区域的图像进行编码。
在一种可能的设计中,采样单元还用于:对子区域的图像按照第二采样间隔在纵向进行采样。
在一种可能的设计中,采样单元还用于:将子区域的图像按照预设尺寸映射为二维平面图像;采样单元,用于:对子区域的图像映射的二维平面图像按照第一采样间隔在横向进行采样。
在一种可能的设计中,还包括拼接单元,用于:调整采样后的各个子区域的位置,使得调整后的各个子区域的图像拼接成的图像的横向边缘对齐,且纵向边缘对齐。
在一种可能的设计中,编码单元用于:对拼接成的图像分片(Tile)进行编码。
在一种可能的设计中,还包括封装单元,用于:对通过编码获得的各个子区域的图像对应的码流进行独立封装,并且编码各个子区域的位置信息;其中,编码后的所有子区域的位置信息与所有子区域的码流存在于一个轨迹中;或者,编码后的每个子区域的位置信息与码流存在于各自的轨迹中;或者,编码后的所有子区域的位置信息存在于媒体呈现描述(MPD);或者,编码后的所有子区域的位置信息存在于私有文件中,且私有文件的地址存在于MPD中;或者,编码后的每个子区域的位置信息存在于每个子区域的码流的辅助增强信息(SEI)中。
在一种可能的设计中,当子区域由对待处理图像的经纬图进行横向划分和纵向划分得到时,采样后的各个子区域形成采样后的经纬图,位置信息包括子区域在经纬图中的位置以及尺寸大小,以及子区域在采样后的经纬图中的位置以及尺寸大小;或者,位置信息包括子区域在经纬图中的位置以及尺寸大小,以及子区域在拼接成的图像中的位置以及尺寸大小;或者,当子区域由对待处理图像的球面图进行横向划分和纵向划分得到时,采样后的各个子区域形成采样后的球面图,位置信息包括子区域在球面图的图像中的位置以及经纬度范围,以及子区域在采样后的球面图的图像中的位置以及尺寸大小;或者,位置信息包括子区域在球面图图像中的位置以及经纬度范围,以及子区域在拼接成的图像中的位置以及尺寸大小。
在一种可能的设计中,私有文件还包括用于表征用户视点与用户视点的视角覆盖的子区域的编号的对应关系的信息。
在一种可能的设计中,私有文件还包括用于表征用户视角覆盖的子区域中需优先显示的子区域个数的信息、需优先显示的子区域编号的信息、次优先显示的子区域编号的信息以及不显示的子区域编号的信息。
在一种可能的设计中,经纬图包括左眼对应的经纬图和右眼对应的经纬图;划分单元,用于:将左眼对应的经纬图与右眼对应的经纬图进行分割;划分单元用于:对左眼对应的经纬图进行横向划分和纵向划分,以及对右眼对应的经纬图进行横向划分和纵向划分。
在一种可能的设计中,还包括传输单元,用于:将通过编码获得的各个子区域的图像对应的码流发送给终端;或者,接收终端发送的视角信息,根据视角信息获取视角信息对应的子区域,将视角信息对应的子区域的码流发送给终端;或者,接收终端发送的子区域的编号,将子区域的编号对应的码流发送给终端。
在一种可能的设计中,经纬图为360度全景视频图像的经纬图,或360度全景视频图像的经纬图的一部分;或球面图为360度全景视频图像的球面图,或360度全景视频图像的球面图的一部分。
第五方面,提供一种终端,包括:获取单元,用于确定全景图像各个子区域的位置信息;获取单元还用于,根据确定的各个子区域的位置信息,确定当前视角覆盖的子区域在全景图像中的位置信息,并确定子区域的第一采样间隔;获取单元,还用于根据确定的当前视角覆盖的子区域位置信息,获取当前视角覆盖的子区域对应的码流;解码单元,用于对码流进行解码,以得到当前视角覆盖的子区域的图像;重采样单元,用于根据确定的当前视角覆盖的子区域的位置信息以及第一采样间隔对解码后的图像进行重采样;播放单元,用于重采样后的图像进行播放。
在一种可能的设计中,获取用于:接收服务器发送的第一信息,第一信息包括全景图像的各个子区域的轨迹以及各个子区域的码流,轨迹包括全景图像的所有子区域的位置信息;获取单元,还用于根据轨迹,得到全景图像中的各个子区域的位置信息。
在一种可能的设计中,获取用于:接收服务器发送的媒体呈现描述(MPD),其中,MPD包括各个子区域的位置信息,或者,MPD中包括私有文件的地址,且私有文件包括各个子区域的位置信息;解析MPD,以获取各个子区域的位置信息。
在一种可能的设计中,子区域的位置信息存在于子区域对应的码流的辅助增强信息(SEI)中。
在一种可能的设计中,获取单元用于:从终端的存储器中获取当前视角覆盖的子区域对应的码流;或者,向服务器请求获取当前视角覆盖的子区域对应的码流。
在一种可能的设计中,获取单元用于:将指示当前视角的信息发送给服务器,接收服务器发送的当前视角覆盖的子区域对应的码流;或者,按照终端与服务器预设的协议,从服务器获取当前视角覆盖的子区域对应的码流,协议包括视角与该视角覆盖的子区域的对应关系。
在一种可能的设计中,获取单元用于:确定预设的采样间隔为第一采样间隔;或者,从服务器接收第一采样间隔。
第六方面,提供一种服务器,包括:存储单元,用于保存全景图像的经纬图或球面图的各个子区域的图像对应的码流,子区域根据对全景图像的经纬图或球面图进行横向划分和纵向划分得到,其中,横向划分的划分位置为预先设定的纬度,纵向划分的划分位置由纬度确定,相邻的横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,纵向划分间隔为相邻的纵向划分的划分位置间的距离;传输单元,用于向终端发送终端请求的保存的各个子区域的图像对应的码流中当前视角覆盖的子区域的码流。
在一种可能的设计中,保存于服务器的子区域对应的图像在被编码之前,被按照第一采样间隔在横向进行采样;其中,子区域所对应的纬度越高,第一采样间隔越大;或者,被按照第二采样间隔在纵向进行采样。也就是说,对高纬度的子区域在横向进行下采样,也即压缩采样,能够使得高纬度的子区域在编码前传输的图像像素冗余度降低,达到减小带宽的目的,同时下采样使得需要编码传输的像素值减少,使得解码端对于解码能力的要求降低,解码复杂度下降,从而使得解码速度得到提升。
又一方面,本申请实施例提供了一种计算机存储介质,用于储存为上述服务器所用的计算机软件指令,其包含用于执行上述方面所设计的程序。
又一方面,本申请实施例提供了一种计算机存储介质,用于储存为上述终端所用的计算机软件指令,其包含用于执行上述方面所设计的程序。
又一方面,本申请实施例提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述各方面的方法。
本申请实施例提供一种图像的处理方法、终端和服务器,包括:对待处理图像的经纬图或球面图进行横向划分和纵向划分,以得到经纬图或球面图的各个子区域,其中,横向划分的划分位置为预先设定的纬度,纵向划分的划分位置由纬度确定,相邻的横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,纵向划分间隔为相邻的纵向划分的划分位置间的距离;对得到的各个子区域的图像进行编码。这样,相对于现有技术对经纬图按照相同的划分间隔进行均匀划分的方式中,均匀划分时划分的细致的特性导致的编码效率低,编码后传输时占用的带宽大的问题,本申请这种不同纬度之间按照至少两种纵向划分间隔进行纵向划分的方式,避免如现有技术中均匀划分细致的特征,本申请可以按照多种纵向划分间隔纵向划分,能够使得图像的子区域有多种大小,划分间隔越大,子区域越大,编码时的编码效率得到提升,编码后服务器向终端传输码流时的占用的带宽减小。
附图说明
图1为本申请实施例提供的一种360度全景图像信号的示意图;
图2为本申请实施例提供的一种360度全景图像信号的示意图转化为经纬图的示意图;
图3为本申请实施例提供的一种网络架构的示意图;
图4为本申请实施例提供的一种图像的处理方法的流程示意图;
图5为本申请实施例提供的一种经纬图划分为42个子区域时的示意图;
图6为本申请实施例提供的一种经纬图划分为50个子区域时的示意图;
图7为本申请实施例提供的一种图像的处理方法的流程示意图;
图8为本申请实施例提供的一种经纬图中的视点区域的示意图;
图9为本申请实施例提供的一种视角覆盖的子区域的示意图;
图10为本申请实施例提供的一种图像的处理方法的流程示意图;
图11为本申请实施例提供的一种终端解码显示过程的示意图;
图12为本申请实施例提供的一种3D经纬图的子区域的划分示意图;
图13为本申请实施例提供的一种180°半全景视频的经纬图横向划分的方式的示意图;
图14为本申请实施例提供的一种3D180°半全景视频的经纬图的子区域划分方式的示意图;
图15为本申请实施例提供的一种图像的处理方法的流程示意图;
图16为本申请实施例提供的一种球面全景信号中进行划分并获得图像子区域的方法的示意图;
图17A为本申请实施例提供的一种图像的处理方法的流程示意图;
图17为本申请实施例提供的一种服务器的结构示意图;
图18为本申请实施例提供的一种服务器的结构示意图;
图19为本申请实施例提供的一种服务器的结构示意图;
图20为本申请实施例提供的一种终端的结构示意图;
图21为本申请实施例提供的一种终端的结构示意图;
图22为本申请实施例提供的一种终端的结构示意图;
图23为本申请实施例提供的一种服务器的结构示意图;
图24为本申请实施例提供的一种服务器的结构示意图;
图25为本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为了便于理解,示例地给出了部分与本申请相关概念的说明以供参考。如下所示:
全景视频:指VR全景视频,也可以称为360度全景视频或360视频,是一种用多个摄像机进行全方位360度进行拍摄的视频,用户在观看视频的时候,可以随意调节视频上下左右进行观看。
3D全景视频:指3D格式的VR全景视频,该视频包括两路360度全景视频,一路用于左眼显示,一路用于右眼显示,两路视频在同一帧中为左眼和右眼显示的内容有些许差异,使用户在观看时出现3D效果。
经纬图:即等距柱状投影图(Equirectangular Projection,ERP)。全景图像格式的一种,将球面信号按照等经度间隔和等纬度间隔均匀采样映射获得的能够用于保存和传输的二维全景图像。该图像的横纵坐标可以用经纬度来表示,宽度方向上可用经度表示,跨度为360°;高度方向上可用纬度表示,跨度为180°。
视频解码(video decoding):将视频码流按照特定的语法规则和处理方法恢复成重建图像的处理过程。
视频编码(video encoding):将图像序列压缩成码流的处理过程。
视频编码(video coding):video encoding和video decoding的统称,中文译名和video encoding相同。
Tile:指视频编码标准,即高效视频编码(High Efficiency Video Coding,HEVC)中针对待编码图像进行划分所得到的方块形编码区域,一帧图像可划分为多个Tile,多个Tile共同组成该帧图像。每个Tile可以独立编码。本申请中的Tile可以是应用了运动受限的Tile集合(motion-constrained tile sets,MCTS)技术的Tile。
MCTS:运动受限的Tile集合,是针对Tile的一种编码技术,该技术在编码时对Tile内部的运动矢量加以限制,使得图像序列中相同位置的Tile在时域上不会参考该Tile区域位置以外的图像像素,因此时域上各个Tile可以独立解码。
子图像(sub-picture):对整幅图像进行划分,获得原图像的一部分称为该图像的子图像。本申请中的子图像可以是形状为方形的子图像。
图像子区域:本申请中的图像子区域可以作为Tile或者子图像的统称,可以简称为子区域。
VDC:基于视角的视频编码,是针对全景视频编码的一种编码传输技术,即基于用户在终端所观看到的视角进行编码传输的方法。
Tile-wise编码:视频编码的一种方式,将图像序列划分为多个图像子区域,分别将所有子区域进行独立编码,生成单个或多个码流的过程。本申请中的Tile-wise编码可以是VDC中的Tile-wise编码。
track:可以译为“轨迹”,是指一系列有时间属性的按照国际标准化组织(International Standardization Organization,ISO)基本媒体文件格式(ISO basemedia file format,ISOBMFF)的封装方式的样本,比如视频track,即视频样本,是视频编码器编码每一帧后产生的码流,按照ISOBMFF的规范对所有的视频样本进行封装产生样本。
box:可以译为“盒子”,在标准中是指面向对象的构建块,由唯一的类型标识符和长度定义。在某些规范中可以称为“原子”,包括MP4的第一个定义。box是构成ISOBMFF文件的基本单元,box可以包含其他的box。
辅助增强信息(supplementary enhancement information,SEI),是视频编解码标准(h.264,h.265)中定义的一种网络接入单元(Network Abstract Layer Unit,NALU)的类型。
MPD:标准ISO/IEC 23009-1中规定的一种文档,在该文档中包含了客户端构造超文本传输协议(HTTP,HyperText Transfer Protocol,HTTP)-统一资源定位符(UniformResource Locator,URL)的元数据。在MPD中包含一个或者多个周期(period)元素,每个period元素包含有一个或者多个自适应集(adaptationset),每个adaptationset中包含一个或者多个表示(representation),每个representation中包含一个或者多个分段,客户端根据MPD中的信息选择表达,并构建分段的HTTP-URL。
ISO基本媒体文件格式:是由一系列的box组成,在box中可以包含其他的box。在这些box中包含元数据box和媒体数据box,元数据box(moov box)中包含的是元数据,媒体数据box(mdat box)中包含的是媒体数据。元数据的box和媒体数据的box可以是在同一个文件中,也可以是在分开的文件中。
本申请实施例可以用于在全景视频或部分全景视频编码前的处理,以及编码后的码流进行封装的过程,在服务器和终端中都有涉及相应的操作和处理。
如图3所示,本申请的网络架构可以包括服务器31和终端32。与服务器31通信的还包括拍摄设备33,该拍摄设备可以用于拍摄360度全景视频,将视频传输给服务器31。服务器可以对全景视频进行编码前处理,而后进行编码或转码操作,再将编码后的码流封装为可传输的文件,将文件传输到终端或内容分发网络。服务器还可以根据终端反馈的信息(例如用户视角等),选择需要传输的内容进行信号传输。终端32可以为VR眼镜、手机、平板电脑、电视以及电脑等可以连接网络的电子设备。终端32可以接收服务器31发送的数据,并进行码流解封装以及解码显示等。
本申请为了解决图像处理时,采用经纬图均匀划分图像造成编码传输的带宽浪费和解码端解码能力以及速度受限的问题,可以提供一种图像的处理方法,该方法可以为基于多个图像子区域的经纬图Tile-wise划分与处理方法以及相对应的编码传输和解码呈现方式。在本申请实施例中,约定经纬图横向经度范围为0至360°,纵向纬度范围为-90°至90°。负数度数表示南纬,正数度数表示北纬。如图4所示,该方法可以包括:
编码前处理:
401、服务器待处理图像的经纬图进行横向划分,横向划分的划分位置为预先设定的纬度。
该图像可以是视频的多个序列图像。
以服务器根据拍摄设备采集到的视频得到该视频的经纬图如图5(a)所示为例,服务器在经纬图纵向上的纬度-60°、-30°、0°、30°以及60°处划纬度线,横向切分该经纬图,图5(a)中以X表示纬度值,经纬图赤道处为纬度0°,在北纬90°与南纬-90°之间,北纬30°以及60°横向划分经纬图,南纬-60°以及-30°横向划分经纬图,横向划分间隔为30°。划分间隔也可以理解为划分步长。
402、服务器对待处理图像经纬图进行纵向划分,纵向划分的划分位置由纬度确定,相邻的横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,纵向划分间隔为相邻的纵向划分的划分位置间的距离,得到经纬图的各个子区域。
一种可实现的方式中,纵向划分时,经纬图南纬部分,不同纬度之间的纵向划分间隔可以不同,南纬部分和北纬部分相应纬度之间的纵向划分间隔可以相同。纵向划分的划分位置所处的纬度越高,纵向划分间隔可以越大,也可以存在不同纬度之间纵向划分间隔相同的情况。
例如,对于横向划分的划分位置,南纬部分的纬度范围-90°至-60°以及北纬部分的纬度范围60°至90°之间的子图像,可以以经度120°为纵向划分间隔,纵向划分该子图像获得3个子区域;对于纬度范围-60°至-30°以及30°至60°之间的子图像,以经度60°为纵向划分间隔,纵向划分子图像获得6个子区域;对于纬度范围-30°至0°以及0°至30°之间的子图像,以经度30°为纵向划分间隔,纵向划分该子图像获得12个子区域。这样,对整个经纬图的子区域划分完成,共获得了42个子区域,如图5(a)所示。纵向划分间隔包括经度120°、经度60°以及经度30°。
另一种可实现的方式中,与上述方式中对子图像的划分方式不同,将经纬图可以划分为50个子区域。示例性地,对于纬度范围-90°至-60°之间以及60°至90°之间的子图像,不进行纵向划分,保持单个子区域;对于纬度范围-60°至-30°之间以及30°至60°之间的子图像,以经度30°为纵向划分间隔,纵向划分该子图像获得12个子区域;对于纬度范围-30°至0°之间以及0°至30°之间的子图像,以经度30°为纵向划分间隔,纵向划分子图像获得12个子区域。这样,对整个经纬图的子区域划分完成,获得50个子区域,如图6(a)图所示。划分步长包括经度30°以及经度0°。划分步长为经度0°即表示对子图像不进行纵向划分。
403、服务器对得到的各个子区域的图像进行编码。
这样,本申请这种不同纬度之间按照至少两种纵向划分间隔进行纵向划分的方式,相对于均匀划分时划分的细致的特性,导致的编码效率低,编码后传输时占用的带宽大的问题,本申请可避免如现有技术中划分细致的特征,可以按照多种纵向划分间隔纵向划分经纬图,能够使得子区域划分有多种大小,纵向划分间隔越大,子区域越大,例如可以是纵向划分的划分位置所处的纬度越高时,纵向划分间隔越大,子区域越大,编码时的编码效率得到提升,编码后服务器向终端传输码流时的占用的带宽减小。
进一步的,现有的对经纬图进行均匀划分的方式,对于解码端,即对于终端来说,终端得到的冗余像素较多,使得终端对最大解码能力的要求也会增加,解码速度也会有很大挑战,针对该问题,本申请还可以通过对进行非均匀划分后的子区域的像素进行去冗余度处理,即下采样,这样需要编码传输的像素点减少,解码端要求的最大解码能力降低,可以使得解码复杂度下降,提高解码器的解码速度。因此,如图7所示,本申请的实施方法在上述步骤403之前,还可以包括:
404、服务器对子区域的图像在纵向进行原采样,或对子区域的图像按照第二采样间隔在纵向进行采样。
例如对图5(a)或图6(a)所示的经纬图划分后的各个子区域来说,原采样可以理解为对各个子区域的图像纵向保持不变,不进行缩放处理,或者不进行处理。按照第二采样间隔进行采样,例如在纵向对各个子区域整体进行下采样,也可以理解为在纵向按照既定给的子区域高度进行采样。
405、服务器对子区域的图像按照第一采样间隔在横向进行采样,子区域所对应的纬度越高,第一采样间隔越大。
第一采样间隔和第二采样间隔可以是在服务器侧预设的,第一采样间隔和第二采样间隔可以相同,也可以不同。第一采样间隔可以理解为缩放系数的倒数,即每多个像素点采样一个像素点,以得到缩放后的图像。
例如对于图5(a)所示的经纬图来说,对于纬度范围-90°至-60°以及纬度范围60°至90°之间的子图像,横向进行下采样,第一采样间隔为4,即每4个像素点采样一个像素点,缩放系数为1/4;对于纬度范围-60°至-30°以及纬度范围30°至60°之间的子图像,同样进行横向下采样,缩放系数为1/2;对于纬度范围-30°至0°以及0°至30°之间的子图像,不进行横向缩放。最终得到的采样后的图像如图5(b)所示。需要说明的是,图5(b)即为将图5(a)纵向保持不变时,只将横向进行下采样时采样后的图像。该举例中,在横向采样时第一采样间隔与纬度成正比,也就是说,对于北纬图像部分,子区域对应的纬度越高,第一采样间隔越大,同样,对于南纬图像部分,纬度越高,第一采样间隔越大。南纬图像部分和北纬图像部分,相同的纬度对应的采样间隔相同。
再例如,对于图6(a)所示的经纬图来说,相比图5(b)中纵向进行下采样后的示意图,经纬图进行划分和缩放后的子区域大小在不同的纬度之间也可以为非均匀大小,这样可以突破图5(b)中缩放后的子区域大小为相同大小的限制,使得服务器在编码传输时的编码传输效率得到提升。具体来说,对于图6(a)所示的经纬图,对于纬度范围-90°至-60°以及纬度范围60°至90°之间的子图像,纵向不变,横向按照采样间隔进行下采样,缩放系数为1/4;对于纬度范围-60°至-30°以及30°至60°之间的子图像,同样保持纵向不变,进行横向下采样,缩放系数7/12;对于纬度范围-30°至0°以及0°至30°之间的子图像,不进行缩放,即纵向和横向都不进行缩放处理,最终得到的缩放图像如图6(b)所示。
可选的,由于缩放后的经纬图为不规则图像,如图5(b)和图6(b)所示,本申请还可以将缩放后的子区域进行重新摆放组合,形成预设图像,因此,该方法还可以包括:
406、服务器调整采样后的各个子区域的位置,使得调整后各个子区域的图像拼接成的图像的横向边缘对齐,且纵向边缘对齐。
例如对于图5(b)所示的经纬图来说,调整位置后的图像可以如图5(c)所示。
步骤403可以替换为:
407、服务器对采样后的各个子区域的图像进行编码。
例如对于上述进行子区域划分和缩放后得到的图5(b)中的42个子区域,或者对于重新组合后的图5(c)中的42个子区域来说,对于可以对每个子区域进行编码。这里可以包括两种编码方式:(1)子图像编码方式,即对每个子图像序列进行独立编码,生成42个子码流,即每个子图像对应一个码流。该子图像可以为上述子区域,即对该42个子区域分别进行独立编码,得到每个子区域对应的码流;(2)将整幅图像进行分片(Tile)模式编码,编码时可以使用MCTS技术,生成该整幅图像的单个码流进行保存,或者将单个码流进行切割后获得42个子码流进行保存。这里的整幅图像可以是将源经纬图进行采样缩放后的图像,如图5(b),也可以是将采样缩放后的图像进行重新组合后的规则图像,如图5(c)。
在对图像进行编码之后,服务器还需要对编码后得到的每个子区域的码流进行封装,因此,该方式还可以包括:
408、服务器对编码获得的各个子区域的图像对应的码流进行独立封装,并且编码各个子区域的位置信息。
服务器可以将所有子区域的码流独立封装在一个轨迹,即track中,例如封装在tile track中,也可以封装在各自对应的track中。子区域的位置信息可以理解为子区域划分方式的描述信息,编码后的所有子区域的位置信息与所有子区域的码流可以存在于一个track中;或者,编码后的每个子区域的位置信息与码流存在于各自的track中;或者,编码后的所有子区域的位置信息存在于媒体呈现描述(MPD);或者,编码后的所有子区域的位置信息可以存在于私有文件中,且私有文件的地址存在于MPD中;或者,编码后的每个子区域的位置信息存在于每个子区域的码流的辅助增强信息(SEI)中。本申请对于子区域位置信息的保存方式不做限定。
当子区域由对待处理图像的经纬图进行横向划分和纵向划分得到时,采样后的各个子区域形成采样后的经纬图,位置信息包括子区域在经纬图中的位置以及尺寸大小,以及子区域在采样后的经纬图中的位置以及尺寸大小;或者,位置信息包括子区域在经纬图中的位置以及尺寸大小,以及子区域在拼接成的图像中的位置以及尺寸。其中,尺寸大小可以包括宽和高。
下面对上述子区域的位置信息的各种保存方式分别进行说明。
方式一、对于所有子区域的位置信息保存在一个track中,可以是在拼接后的图像的track中添加所有子区域划分方式的描述信息,例如在拼接后的图像的track中的moovbox中增加下述语法:
RectRegionPacking(i):表示描述的是第i个子区域的划分信息。
proj_reg_width[i],proj_reg_height[i]:描述了采样后的图像中第i个子区域在源图像,即未采样前的经纬图(例如5(a))中的对应的宽高,例如描述的是图5(b)中的子区域在图5(a)中对应的宽高,比如对于宽x高,即3840x1920的经纬图,图5(b)中左上角第一个子区域在源图像中的宽和高是(1280,320)。
proj_reg_top[i],proj_reg_left[i]:描述了采样后的图像第i个子区域的左上角像素在源图像中的对应位置,例如描述的是图5(b)中的子区域左上点在图5(a)中对应的位置,比如图5(b)中左上角第一个子区域在源图像中的位置是(0,0)。该位置是以源图像的左上角为(0,0)坐标获取的。
transform_type[i]:描述了采样后的图像中第i个子区域从对应源图像位置经过的变换,比如第i个子区域是源图像中对应区域经过不变换/90度旋转/180度旋转/270度旋转/水平镜像/水平镜像后90度旋转/水平镜像后180度旋转/水平镜像后270度旋转获得的。
packed_reg_width[i],packed_reg_height[i]:描述了采样后的图像中第i个子区域在组合之后的规则图像中的宽和高,也就是图5(c)中的子区域的宽高。比如图5(b)中左上角第1个子区域在组合之后的规则图像中的宽和高为(320,320)。需要说明的是,当上述步骤406不执行时,子区域组合之后的图像为图5(b),则该宽高指的是在图像5(b)中的宽高。
packed_reg_top[i],packed_reg_left[i]:描述了采样后的图像中第i个子区域的左上角像素在子区域组合后的规则图像中的相对位置,也就是图5(c)中的各子区域的左上点位置。需要说明的是,当上述步骤406不执行时,子区域组合之后的图像为图5(b),则该位置指的是在图像5(b)中的位置。
方式二:在各个子区域的位置信息保存在各自对应的track中时,可以在tiletrack中描述相应的子区域的划分方式,具体可以在tile track中的moov box中增加下述语法:
track_x,track_y:描述了当前track的子区域的左上角像素在子区域组合后的规则图像中的位置,也就是图5(c)中当前子区域的左上点位置。
track_width,track_height:描述了当前track的子区域在子区域组合后的规则图像中的宽和高,也就是图5(c)中当前子区域的宽和高;
composition_width,composition_height:描述了子区域组合后的规则图像的宽和高,也就是图5(c)中图像宽和高。
proj_tile_x,proj_tile_y:描述了当前track的子区域的左上角像素在源图像中的位置,也就是图5(a)中当前子区域的左上点位置。
proj_tile_width,proj_tile_height:描述了当前track的子区域在源图像中的宽高,也就是图5(a)中当前子区域的宽和高;
proj_width,proj_height:描述了源图像宽和高,也就是图5(a)中图像宽和高。
方式三、所有子区域的位置信息保存在MPD中,即在MPD中描述子区域的划分方式。
MPD中的语法可以为:
在该方式三的语法中,<value="0,1280,0,1280,320,3840,1920"/>的语义如下:第一个0表示源标识,有相同源标识的表示同源,即表示同一个源图像;“1280,0”表示当前表示中的子区域的左上位置在源图像中的坐标;“1280,320”表示当前表示中的子区域的宽和高;“3840,1920”表示源图像宽和高。
在上述MPD中是采用2D图像的方式描述子区域表示所对应的码流中的图像在源视频图像中的位置。可选的,子区域在源图像中的位置还可以采用球面坐标表示,比如将上述value中的信息转化为球面信息比如value=“0,0,30,0,120,30”,具体语义如下:第一个0表示源标识,源标识值相同的表示同源;“0,30,0”表示子区域对应的区域的中心点在球面上的坐标(偏航角,俯仰角,旋转角);“120,30”表示子区域的宽高角度。
方式四:所有子区域的位置信息保存在私有文件中,且私有文件的地址保存在MPD中。即通过MPD中指定文件链接的方式,将保存子区域划分的描述信息的私有文件的地址写入MPD中。
语法可以如下:
在方式四中,将子区域的划分信息以私有文件tile_info.dat保存。该文件中保存的子区域划分信息的数据可由用户指定,这里不做限定,比如说保存的内容可以按如下的一种方式:
(文件<tile_info.dat>内容)
unsigned int(16)tile_num;
unsigned int(32)pic_width;
unsigned int(32)pic_height;
unsigned int(32)comp_width;
unsigned int(32)comp_height;
unsigned int(32)tile_pic_width[];
unsigned int(32)tile_pic_height[];
unsigned int(32)tile_comp_width[];
unsigned int(32)tile_comp_height[];
其中各数据表示的含义如下:
tile_num:表示划分的子区域个数。
pic_width:表示源图像宽度,即图5(a)中图像的宽度。
pic_height:表示源图像高度,即图5(a)中图像的高度。
comp_width:表示子区域组合后的规则图像的宽度,即图5(c)中图像的宽度。
comp_height:表示子区域组合后的规则图像的高度,即图5(c)中图像的高度。
tile_pic_width[]:数组,表示的是各个子区域在源图像中的宽度,元素个数应为tile_num值。
tile_pic_height[]:数组,表示的是各个子区域在源图像中的高度,元素个数应为tile_num值。
tile_comp_width[]:数组,表示的是各个子区域在子区域组合后的规则图像中的宽度,元素个数应为tile_num值。
tile_comp_height[]:数组,表示的是各个子区域在子区域组合后的规则图像中的高度,元素个数应为tile_num值。
方式四中通过指定新的Essential Property属性Tile@value,将私有文件的统一资源定位符(Uniform Resource Locator,URL)写入MPD中。Tile@value属性描述可以如表1。当终端进行视频内容请求时,通过解析该元素获取私有文件,从而获得子区域划分方式和位置等信息。
表1在"urn:mpeg:dash:tile:2014"中Tile@value属性描述
Tile@value Description
information specifies information of tiles
方式五:各个子区域的位置信息保存在各个子区域的码流的辅助增强信息SEI中。也就是,通过将子区域的位置信息写入码流的SEI来传输子区域的划分方式。基于子区域在图像中的划分信息SEI语法元素中的一种设置可以如表2所示。
表2基于子区域划分信息的SEI语法元素
总SEI语法
子区域划分信息SEI语法
表2中,针对SEI类型加入新类型155,表示当前码流为子区域码流,并加入信息tile_wise_mapping_info(payloadSize),包含的语法元素含义如下:
src_pic_width表示源图像宽,即图5(a)中图像宽度。
src_pic_height表示源图像高,即图5(a)中图像高度。
src_tile_x表示当前子区域的左上角在源图像上的横向坐标,即当前子区域在图5(a)中的横坐标。
src_tile_y表示当前子区域的左上角在源图像上的纵向坐标,即当前子区域在图5(a)中的纵坐标。
src_tile_width表示当前子区域在源图像上的宽度。
src_tile_height表示当前子区域在源图像上的高度。
packed_pic_width表示子区域组合后的规则图像的宽,即图5(c)中图像宽度。
packed_pic_height表示子区域组合后的规则图像的高,即图5(c)中图像高度。
packed_tile_x表示当前子区域的左上角在组合后的规则图像上的横向坐标,即当前子区域在图5(c)中的横坐标。
packed_tile_y表示当前子区域的左上角在组合后的规则图像上的纵向坐标,即当前子区域在图5(c)中的纵坐标。
packed_tile_width表示当前子区域在组合后的规则图像上的宽度。
packed_tile_height表示当前子区域在组合后的规则图像上的高度。
此外,本申请还可以对上述方式四进行扩展,在MPD中也可以通过新的元素指定保存子区域的位置信息的私有文件的URL。
扩展方式四:通过MPD中指定文件链接的方式,将保存子区域划分信息的私有文件地址写入MPD中。语法可以为:
在扩展方式四中,将子区域的位置信息以私有文件tile_info.dat保存,添加语法元素<UserdataList>(见表3),包含UserdataURL元素,将该私有文件写入MPD中。当终端进行视频内容请求时,通过解析<UserdataList>获取该私有文件,来获得子区域的划分方式和位置等信息。
表3语法元素ExtentdataList描述
对于上述方式四中进行子区域划分方式的描述信息还可以进行扩展,该扩展针对传输的私有文件tile_info.dat中的内容,添加关于用户视角与所需子区域的关系表,使终端能够更快地请求对应的子区域码流。即私有文件还可以包括用于表征用户视点与用户视点的视角覆盖的子区域的编号的对应关系的信息。
在本例中,针对私有文件tile_info.dat,关于子区域划分的信息内容不变,添加关于用户视角与所需子区域的关系表,及用户视点与用户视点的视角覆盖的子区域的编号的对应关系。比如,保存的内容可以按如下的一种方式:
(文件<tile_info.dat>内容)
unsigned int(16)tile_num;
unsigned int(32)pic_width;
unsigned int(32)pic_height;
unsigned int(32)comp_width;
unsigned int(32)comp_height;
unsigned int(32)tile_pic_width[];
unsigned int(32)tile_pic_height[];
unsigned int(32)tile_comp_width[];
unsigned int(32)tile_comp_height[];
unsigned int(16)deg_step_latitude;
unsigned int(16)deg_step_longitude;
unsigned int(32)view_tile_num;
unsigned int(16)viewport_table[][];
其中,相对于方式四中新增的数据为deg_step_latitude,deg_step_longitude,view_tile_num,viewport_table[][],数据表示的含义如下:
deg_step_latitude:纬度方向上划分的视点区域步长,该步长将纬度范围-90°至90°划分为多个视点区域。视点区域指的是某个视点在经纬图上所属的区域范围,在相同视点区域内,终端获得的覆盖该视点区域的图像子区域码流是相同的。如图8所示,整个经纬图被划分为9个视点区域,视点1和视点2均属于第5个视点区域,且图8中标出了视点区域5中心的视点。在视点区域5范围内的所有视点,对应的视角覆盖范围都将计算为中心视点对应视角所覆盖的范围。
deg_step_longitude:经度方向上划分的视点区域步长,该步长将经度范围0°至360°划分为多个视点区域。deg_step_latitude与deg_step_longitude共同决定了视点区域个数。
view_tile_num:单个视角在变化时,所能覆盖的最大子区域个数。
viewport_table[][]:数组,用于保存某个视点区域与所覆盖该视点区域的图像子区域编号之间的关系表,表中数据总个数应为视点区域个数乘以view_tile_num。
关于数据表viewport_table[][],一种示例保存方式如下所示:
viewport_table[100][18]={
1,2,3,4,5,6,7,8,9,10,13,16,19,0,0,0,0,0,
1,2,3,4,5,6,7,8,9,12,15,18,21,0,0,0,0,0,
5,6,7,13,14,15,16,25,26,27,28,35,36,37,0,0,0,0,
}
该表视点区域个数为100,view_tile_num=18。数据表中每一行的18个数代表某个视点的视角对应覆盖的子区域编号,编号为0表示该视角只需要少于18个子区域就能覆盖,空余值被填0,比如图9所示视点位于纬度0°经度150°的视角,对应覆盖的子区域为编号5,6,7,13,14,15,16,25,26,27,28,35,36,37的子区域,在数据表中的值则表示为5,6,7,13,14,15,16,25,26,27,28,35,36,37,0,0,0,0。这样,终端获得这些值之后,只需要根据当前视点找到对应表中的子区域编号,不需要进行计算即可直接根据对应关系请求这些编号对应的子区域码流进行解码呈现,加快了终端的处理速度。
基于上述私有文件包括用户视点与用户视点的视角覆盖的子区域的编号的对应关系,本申请实施例还可以在上述私有文件tile_info.dat中加入针对视角的优化呈现的标记数据;相对应的,数据表viewport_table[][]中数据的排列可以以优化的形式出现,即越靠近当前视点的子区域,其子区域的编号出现在当前视点对应行靠前位置。
在本例中,私有文件还包括用于表征用户视角覆盖的子区域中需优先显示的子区域个数的信息、需优先显示的子区域编号的信息、次优先显示的子区域编号的信息以及不显示的子区域编号的信息。针对私有文件tile_info.dat,保存的内容可以按如下的一种方式:
(文件<tile_info.dat>内容)
unsigned int(16)tile_num;
unsigned int(32)pic_width;
unsigned int(32)pic_height;
unsigned int(32)comp_width;
unsigned int(32)comp_height;
unsigned int(32)tile_pic_width[];
unsigned int(32)tile_pic_height[];
unsigned int(32)tile_comp_width[];
unsigned int(32)tile_comp_height[];
unsigned int(16)deg_step_latitude;
unsigned int(16)deg_step_longitude;
unsigned int(32)view_tile_num;
unsigned int(16)priority_view_tile_num;
unsigned int(16)viewport_table[][];
其中,相对于新增的数据为priority_view_tile_num,数据表示的含义为:当前视点下需优先显示的子区域个数。对应的,viewport_table[][]表中数据排列进行修改,将靠近当前视点的子区域放置在当前视点对应行的前面,如下所示:
viewport_table[100][18]={
1,2,3,4,5,6,7,8,9,10,13,16,19,0,0,0,0,0,
1,2,3,4,5,6,7,8,9,12,15,18,21,0,0,0,0,0,
14,15,26,27,13,6,16,28,36,25,5,7,35,37,0,0,0,0,
}
如该表所示,对应于图9所示视点位于纬度0°经度150°的视角,将其在表中的数据更改为14,15,26,27,13,6,16,28,36,25,5,7,35,37,0,0,0,0,离视点较近的子区域编号14,15,26,27放在前面,较远的子区域编号13,6,16,28,36,25放在中间,最远的子区域编号5,7,35,37放置最后。离视点近的子区域优先显示,离视点较远的子区域不作优先显示,可以次优先显示。这样做的好处在于,当存在某些原因(比如网络不稳定)导致所有的子区域码流无法完全获取或不需要完全获取时,可优先获取离视点近的子区域进行优先显示,而摒弃不作优先显示的图像子区域数据。
在上述服务器经过编码前处理、编码以及封装的过程之后,终端可以获取封装后的码流进行解码显示。因此,如图10所示,本申请实施例方法还可以包括:
101、终端确定全景图像各个子区域的位置信息。
一种可能的实现方式中,终端可以接收服务器发送的第一信息,该第一信息包括全景图像的各个子区域的track以及各个子区域的码流,track包括全景图像的所有子区域的位置信息;终端根据track解析得到全景图像中各个子区域的位置信息。该track可以是上述方式一中的拼接后的图像的track,终端可以通过解析拼接后的图像的track中的RectRegionPacking(i)中定义的语法解析出所有子区域的位置信息。
或者,对于子区域的位置信息来说,终端可以按照上述对于保存子区域的位置信息的方式二,各个子区域的位置信息保存在各自子区域对应的轨迹,即tiletrack中,终端可以通过解析每个tiletrack中的SubPictureCompositionBox中定义的区域解析出当前子区域的位置信息。
或者,终端可以通过接收服务器发送的MPD,MPD包括各个子区域的位置信息,或MPD中包括私有文件的地址,且私有文件包括各个子区域的位置信息,终端解析MPD,以获取各个子区域的位置信息。
或者,终端可以在先获取到各个子区域对应的码流的情况下,子区域的位置信息存在与子区域对应的SEI中。也就是说,终端在请求所需的子区域的码流时,就可以根据该码流中的SEI获取子区域的位置信息。
102、终端根据确定的各个子区域的位置信息,确定当前视角覆盖的子区域在全景图像中的位置信息。
例如,终端就可以根据视角和视角覆盖的子区域的位置信息的匹配关系,获取当前视角覆盖的子区域在全景图像中的位置信息。
103、终端确定子区域的第一采样间隔。
终端可以确定预设的采样间隔为第一采样间隔,或者,终端从服务器接收第一采样间隔,或者,终端可以根据从服务器接收到的各个子区域的位置信息获取第一采样间隔,即,各个子区域的位置信息与第一采样间隔可以存在预设的计算规则,以获取每个子区域对应的第一采样间隔。该计算规则可以是源图像中该子区域的位置信息中的尺寸大小与拼接后的图像中的子区域的位置信息中的尺寸大小的比例,即为第一采样间隔。
104、终端根据确定的当前视角覆盖的子区域位置信息,获取当前视角覆盖的子区域对应的码流。
如果所有子区域的码流保存在终端本地,终端可以从终端的存储器中直接获取当前视角覆盖的子区域的码流。
或者,终端向服务器请求获取当前视角覆盖的子区域对应的码流。示例性的,终端可以将指示当前视角的信息发送给服务器,服务器可以根据当前视角和当前视角能够覆盖的子区域的位置信息获取当前视角覆盖的子区域,而后将终端所需的当前视角覆盖的子区域对应的码流发送给终端,例如服务器可以将要传输的子区域码流拼接后的码流发送给终端。或者,终端可以根据当前视角和当前视角覆盖的子区域的位置信息获取当前视角覆盖的子区域后,可以将当前视角覆盖的子区域的编号发送给服务器,服务器可以根据编号将终端所需的子区域的码流发送给终端。或者,终端可以按照终端与服务器预设的协议,从服务器获取当前视角覆盖的子区域对应的码流,协议包括视角与该视角覆盖的子区域的对应关系。本申请对于终端获取所需码流的方式不做限定。
105、终端对码流进行解码,以得到当前视角覆盖的子区域的图像。
由于服务器对经纬图进行了横向和纵向划分以及纵向进行下采样处理,即对子区域中的像素进行了去冗余度处理,使得要传输的子区域的像素冗余度降低,像素值减少,那么对于解码端终端来说,在获取到当前视角覆盖的子区域的码流时,可以使得对该解码能力要求降低,解码的复杂度下降,从而使得解码速度得到提升。
106、终端根据确定的当前视角覆盖的子区域的位置信息以及第一采样间隔对解码后的图像进行重采样。
107、终端对重采样后的图像进行播放。
如图11所示,假设用户请求需显示的视角对应的子区域为图11(d)所示,根据计算获得的所需子区域如图11(b)所示,终端可以根据子区域的编号与码流的对应关系获取所需子区域对应的码流,包括编号为1、3、4、5、6、15、19、20、21、22、23、24、34、35、36以及37的子码流,如图11(c)所示,进而,终端对这些子码流解码后,可以根据位置信息以及第一采样间隔对解码后的图像进行重采样,而后对重采样后的图像进行播放,如图11(d)。
上述编码前的处理、编码以及终端部分均是以2D经纬图为例进行说明的,本申请实施例还可以用于3D经纬图进行编码传输的过程,3D经纬图序列的两路信号可以分别进行处理。可以理解的是,要呈现3D视觉效果的情况下,与服务器进行通信的拍摄设备可以包括两组,一组拍摄设备用于获取左眼的全景视频,另一组拍摄设备用于获取右眼的全景视频。这样,3D经纬图的子区域的划分可以如图12所示。左眼的经纬图为图12上半部分,右眼的经纬图为图12下半部分。左眼对应的经纬图可以和右眼对应的经纬图拼接在一起,为一张经纬图,也可以是分开的,为两张经纬图。服务器可以将左眼对应的经纬图与右眼对应的经纬图进行分割,以便对左眼对应的经纬图进行横向划分和纵向划分,以及对右眼对应的经纬图进行横向划分和纵向划分。
其中,3D经纬图左眼经纬图的横向划分可以参考步骤401的实现方式,右眼经纬图的横向划分也可以参考步骤401的实现方式,在此不赘述。
3D经纬图左眼经纬图的横向纵向划分可以参考步骤402的实现方式,右眼经纬图的纵向划分也可以参考步骤402的实现方式,在此不赘述。
3D经纬图左眼经纬图的各个子区域的采样可以参考步骤404至405的实现方式,右眼经纬图的各个子区域的采样也可以参考步骤404至405的实现方式,在此不赘述。
于是,最终获得的左眼经纬图中42个子区域,以及右眼经纬图中42个子区域,共84个子区域。
对于3D经纬图划分和采样后的图像中每个子区域的编码方式可以由多种,这里列举三种可能的方式。第一种,将每个子区域作为一个子图像,从原图像中划分开,并对每个子图像序列进行独立编码,生成84个子码流。第二种:将整幅图像进行分子区域模式编码(HEVC标准支持),生成单个码流进行保存,或者将该单个码流进行切割后获得84个子码流进行保存。第三种:将左眼经纬图和右眼经纬图在相同位置对应部分的子区域作为一组子区域,对二者进行图像拼接后进行独立编码,生成42个子码流。
封装过程可以参考上述方式一至方式五,此处不再赘述。
针对3D经纬图视频,终端对视频内容的解码过程与上述对于2D经纬图不同的是:这里的当前视角覆盖的子区域的位置信息包括左眼图像子区域和右眼图像子区域位置信息。
当前视角覆盖的子区域的码流包括左眼经纬图中子区域的码流和右眼经纬图中子区域的码流。当前视角的值可以取左眼的视角点值,也可以取右眼的视角点值,在此不做限制。重采样时是针对当前视角左眼覆盖的子区域的图像进行重采样,以及当前视角右眼覆盖的子区域的图像进行重采样,并对所需左眼子区域和右眼子区域进行渲染和显示。
上述方法过程还可以应用于360度全景视频的经纬图,此外,该经纬图还可以为360度全景视频图像的经纬图的一部分,例如该经纬图的划分方式还可以应用于180°半全景视频的图像的经纬图的划分。180°半全景视频是指经度范围180°包含全景视频一半内容的全景视频。
如图13(a)所示,对于180°半全景视频的经纬图横向划分的方式可以参考上述步骤401,对于纵向划分,与上述步骤402的可实现的方式不同的可以是,对于纬度范围-90°至-60°以及60°至90°之间的子图像,可以不进行纵向划分,保持单个子区域;对于纬度范围-60°至-30°以及30°至60°之间的子图像,以经度60°为纵向划分间隔,纵向划分该子图像获得3个子区域;对于纬度范围-30°至0°以及0°至30°之间的子图像,以经度30°为纵向划分间隔,纵向划分该子图像获得6个子区域。这样,对整个180°半全景视频的经纬图的子区域划分完成,共获得了20个子区域。
对于180°半全景视频的经纬图的子区域也可以进行下采样后再进行编码,与上述步骤404的实现方式可以相同,与上述步骤405的实现方式不同的可以是,以图13(a)为例,对于纬度范围-90°至-60°以及60°至90°之间的子图像,纵向不变,横向进行下采样,缩放系数为1/6;对于纬度范围-60°至-30°以及30°至60°之间的子图像,同样地,纵向不变,横向进行下采样,缩放系数为1/2;对于纬度范围-30°至0°以及0°至30°之间的子图像,不进行缩放。最终得到的缩放图像可以如图13(b)图所示。
上述对于180°半全景视频的经纬图的子区域划分方式,也可以应用于3D180°半全景视频的经纬图的子区域划分,与360°全景视频同理,3D180°半全景视频的经纬图也包括左眼的180°半全景视频的经纬图和右眼的180°半全景视频的经纬图。左眼的经纬图和右眼的经纬图可以拼接在一起,如图14所示,左眼的经纬图为图14的左半部分,右眼的经纬图为图14的右半部分,服务器可以先将左眼的经纬图和右眼的经纬图进行分割,如图14中的虚线所示。而后,将左眼的经纬图按照与180°半全景视频的经纬图的划分方式进行划分,并将右眼的经纬图同样按照与180°半全景视频的经纬图的划分方式进行划分,最终获得左眼的经纬图对应的20个子区域,右眼的经纬图对应的20个子区域,共40个子区域。
上述过程中,服务器可以根据拍摄设备拍摄的视频信号获取的是全景视频或半全景视频对应的经纬图,本申请实施例中的服务器还可以提供一种直接在球面全景信号中进行划分并获得图像子区域的方法。由于源图像是球面信号图,或者称为球面图,在码流封装方式,子区域划分方式也有所改变。在本实施例中,球面区域以经纬度的方式指定信号位置,约定经度范围为0至360°,纬度范围为-90°至90°(负数度数表示南纬,正数度数表示北纬)。
因此,本申请实施例提供一种图像的处理方法,如图15所示,包括:
1501、服务器对待处理图像的球面图进行横向划分,横向划分的划分位置为预先设定的纬度。
示例性的,服务器可以分别在球面上纬度为-60°,-30°,0°,30°以及60°处划纬度线,横向切分球面图。如图16(a)所示。
1502、服务器对待处理图像球面图进行纵向划分,纵向划分的划分位置由纬度确定,相邻的横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,纵向划分间隔为相邻的纵向划分的划分位置间的距离,得到经纬图的各个子区域。
例如,可以在球面图上对于纬度范围-90°至-60°以及60°至90°之间的球面区域,以经度120°为纵向划分间隔,以经度线纵向划分球面图获得3个球面子区域;对于纬度范围-60°至-30°以及30°至60°之间的球面区域,以经度60°为纵向划分间隔,以经度线纵向划分球面获得6个球面子区域;对于纬度范围-30°至0°以及0°至30°之间的球面区域,以经度30°为纵向划分间隔,纵向划分球面图获得12个球面子区域。这样,对整个球面图的子区域划分完成,共获得了42个子区域,如图16(a)图所示。
1503、服务器对各个子区域的图像进行采样。
服务器可以先将子区域的图像按照预设尺寸映射到二维平面图像,这样就可以按照上述对经纬图的各个子区域按照第一采样间隔和第二采样间隔进行采样。
从三维的球面图映射到二维的经纬图的实现方式可以为:对球面图划分后的子区域的图像,在纵向按照预设尺寸高度进行均匀采样,在横向按照预设尺寸宽度进行均匀采样。而后,就可以对均匀采样后各个子区域的图像按照第一采样间隔在横向进行采样,纵向保持按照第二采样间隔进行采样。
示例性的,在将球面上所有子区域对应16图(a)的子区域进行图像信号映射,使得球面图上的每个子区域对应映射图像即二维的经纬图中的一个子区域,并对经纬图进行下采样。从球面信号到子区域图像的映射方法很多,这里不做限制,其中一种方式可以为:纬度方向上,对于各个球面子区域,球面信号按照图16(b)子区域图像预设尺寸高度进行均匀映射,均匀映射可以理解为均匀采样。经度方向上,对于纬度范围-90°至-60°以及60°至90°之间的子球面区域,球面信号按照以纬度方向采样率的1/4进行下采样映射,即缩放系数为1/4;对于纬度范围-60°至-30°以及30°至60°之间的子球面区域,球面信号按照以纬度方向采样率的1/2进行下采样映射,即缩放系数为1/2;对于纬度范围-30°至0°以及0°至30°之间的子球面区域,球面信号按照以纬度方向的相同采样率进行映射,即缩放系数为1。最终得到的采样后的经纬图的图像如图16(b)图所示。
1504、服务器调整采样后的各个子区域的位置,使得调整后的各个子区域的图像拼接成的图像的横向边缘对齐,且纵向边缘对齐。例如如图16(c)所示。步骤1504也可以选择不执行。
1505、服务器对拼接成的图像分Tile进行编码。
步骤1505的实现方式可以参见上述步骤407,这里不再赘述。
对于球面图的图像处理方法中,对各个子区域码流的封装方式可以与上述步骤408的方式相同,对子区域的位置信息的各种保存方式也可以相同,不同的是,当子区域由对待处理图像的球面图进行横向划分和纵向划分得到时,采样后的各个子区域形成采样后的球面图,位置信息包括子区域在球面图的图像中的位置以及经纬度范围,以及子区域在采样后的球面图的图像中的位置以及尺寸大小;或者,位置信息包括子区域在球面图图像中的位置以及经纬度范围,以及子区域在拼接成的图像中的位置以及尺寸大小。针对上述子区域划分方式描述进行变量语义修改如下:
方式一中修改如下语义:
proj_reg_width[i],proj_reg_height[i]:描述了第i个子区域在源图像,即球面图中的对应经纬度范围,也就是图16(b)中的子区域在图16(a)中对应的经纬度范围,比如图16(b)左上角第一个子区域在源图像中的经纬度范围是(120°,30°)。
proj_reg_top[i],proj_reg_left[i]:描述了第i个子区域的左上角像素在球面图中的对应位置,以经纬度表示,也就是图16(b)中的子区域左上点在图16(a)中对应的位置,比如上述第一个子区域在球面图中的位置是(0°,90°)。
方式二中修改如下语义:
proj_tile_width,proj_tile_height:描述了当前track的子区域在球面图中的经纬度范围,也就是图16(a)中当前子区域的经纬度范围;
proj_width,proj_height:描述了球面图经纬度范围,比如360°全景球面经纬度范围为(360°,180°)。
方式四中对于私有文件tile_info.dat内容,修改如下语义:
pic_width:表示球面图经度范围。
pic_height:表示球面图纬度范围。
tile_pic_width[]:数组,表示的是各个子区域在球面图中的经度范围,元素个数应为tile_num值。
tile_pic_height[]:数组,表示的是各个子区域在球面图中的纬度范围,元素个数应为tile_num值。
方式五中修改如下语义:
src_pic_width表示球面图经度范围,即图16(a)中球面图经度范围。
src_pic_height表示球面图纬度范围,即图16(a)中球面图像纬度范围。
src_tile_width表示当前子区域在球面图上的经度范围。
src_tile_height表示当前子区域在球面图上的纬度范围。
这样,本申请相对于对经纬图均匀划分的方式,这种非均匀的划分方式以及对图像进行缩放的方式,图像冗余度降低,可以使得tile-wise编码传输效率有较大提升。同时,也降低了终端解码器所需的最大解码能力,可以使得更高分辨率的源图像在现有解码能力下进行编码传输呈现成为可能。以均匀划分6×3为例,需要传输的像素占比最高达到55.6%,如果源图像的分辨率为4K(4096×2048),则解码器能力需达到约4K×1K。而使用本申请所述方法,传输的像素占比最高可以为25%,如果源图像的分辨率为4K(4096x2048),则解码器解码能力需2Kx1K。并且,该性能提高了解码与播放的速度,本申请方案相对于均匀划分方案解码播放处理效率更高。
本申请实施例还提供一种图像的处理方法,应用于服务器,如图17A,包括:
17A1、服务器保存全景图像的经纬图或球面图的各个子区域的图像对应的码流,子区域根据对全景图像的经纬图或球面图进行横向划分和纵向划分得到,其中,横向划分的划分位置为预先设定的纬度,纵向划分的划分位置由纬度确定,相邻的横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,纵向划分间隔为相邻的纵向划分的划分位置间的距离。
17A2、服务器向终端发送终端请求的保存的各个子区域的图像对应的码流中当前视角覆盖的子区域的码流。
其中,保存于服务器的子区域对应的图像在被编码之前,被按照第一采样间隔在横向进行采样;其中,子区域所对应的纬度越高,第一采样间隔越大;或者,被按照第二采样间隔在纵向进行采样。采样的具体实现方式可以参照上述实施例中的说明。
也就是说,本实施例中的服务器可以保存以上实施例中服务器对图像处理后的各个子区域的图像对应的码流,由于上述实施例中服务器对图像的处理采用的子区域划分方式以及采样过程,可以使得传输码流时的占用的带宽减小,解码端对于解码能力的要求降低,解码复杂度下降,解码速度得到提升,本实施例中的服务器在传输码流时占用的带宽相对现有技术会减小,终端的解码速度得到提升。
上述主要从各个网元之间交互的角度对本申请实施例提供的方案进行了介绍。可以理解的是,各个网元,例如服务器、终端等为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对服务器和终端等进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
在采用对应各个功能划分各个功能模块的情况下,图17示出了上述实施例中所涉及的服务器的一种可能的结构示意图,服务器17包括:划分单元1701,编码单元1702,采样单元1703、拼接单元1704、封装单元1705以及传输单元1706。划分单元1701可以用于支持服务器执行图4中的过程401、402,编码单元1702可以用于支持服务器执行图4中的过程403,图7中的过程407。采样单元1703可以用于支持服务器执行图7中的过程404、405,拼接单元1704用于支持服务器执行图7中的过程406,封装单元1705可以用于支持服务器执行图7中的过程408。其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
在采用集成的单元的情况下,图18示出了上述实施例中所涉及的服务器的一种可能的结构示意图。服务器18包括:处理模块1802和通信模块1803。处理模块1802用于对服务器的动作进行控制管理,例如,处理模块1802用于支持服务器执行图4中的过程401、402,403、404、405、406、407以及408,和/或用于本文所描述的技术的其它过程。通信模块1803用于支持服务器与其他网络实体的通信,例如与终端之间的通信。服务器还可以包括存储模块1801,用于存储服务器的程序代码和数据。
其中,处理模块1802可以是处理器或控制器,例如可以是中央处理器(CentralProcessing Unit,CPU),通用处理器,数字信号处理器(Digital Signal Processor,DSP),专用集成电路(Application-SpecificIntegrated Circuit,ASIC),现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。所述处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等等。通信模块13803可以是收发器、收发电路或通信接口等。存储模块1801可以是存储器。
当处理模块1802为处理器,通信模块1803为收发器,存储模块1801为存储器时,本申请实施例所涉及的服务器可以为图19所示的服务器。
参阅图19所示,该服务器19包括:处理器1912、收发器1913、存储器1911以及总线1914。其中,收发器1913、处理器1912以及存储器1911通过总线1914相互连接;总线1914可以是外设部件互连标准(Peripheral Component Interconnect,PCI)总线或扩展工业标准结构(Extended Industry Standard Architecture,EISA)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图19中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
在采用对应各个功能划分各个功能模块的情况下,图20示出了上述实施例中所涉及的终端的一种可能的结构示意图,终端20包括:获取单元2001,解码单元2002,重采样单元2003以及播放单元2004。获取单元2001用于支持终端执行图10中的过程101、102、103、104,解码单元2002用于支持终端执行图10中的过程105,重采样单元2003用于支持终端执行图10中的过程106,播放单元2004用于支持终端执行图10中的过程107。其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
在采用集成的单元的情况下,图21示出了上述实施例中所涉及的终端的一种可能的结构示意图。终端21包括:处理模块2102和通信模块2103。处理模块2102用于对终端的动作进行控制管理,例如,处理模块2102用于支持终端执行图10中的过程101-106,和/或用于本文所描述的技术的其它过程。通信模块2103用于支持终端与其他网络实体的通信,例如与服务器之间的通信。终端还可以包括存储模块2101,用于存储终端的程序代码和数据,还包括显示模块2104,用于支持终端执行图10中的过程107。
其中,处理模块2102可以是处理器或控制器,例如可以是CPU,通用处理器,DSP,ASIC,FPGA或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。所述处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等等。通信模块2103可以是收发器、收发电路或通信接口等。存储模块2101可以是存储器。显示模块2104可以是显示器等。
当处理模块2102为处理器,通信模块2103为收发器,存储模块2101为存储器,显示模块2104为显示器时,本申请实施例所涉及的终端可以为图22所示的终端。
参阅图22所示,该终端22包括:处理器2212、收发器2213、存储器2211、显示器2215以及总线2214。其中,收发器2213、处理器2212、显示器2215以及存储器2211通过总线2214相互连接;总线2214可以是PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图22中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
在采用对应各个功能划分各个功能模块的情况下,图23示出了上述实施例中所涉及的服务器的一种可能的结构示意图,服务器23包括:存储单元2301,传输单元2302,存储单元2301用于支持服务器执行图17A中的过程17A1,传输单元2302用于支持服务器执行图17A中的过程17A2。其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
在采用集成的单元的情况下,图24示出了上述实施例中所涉及的服务器的一种可能的结构示意图。服务器24包括:存储模块2402和通信模块2403。存储模块2402,用于存储服务器的程序代码和数据,例如该程序用于执行图17A中的过程17A1,通信模块2403用于执行图17A中的过程17A2。
当通信模块2403为收发器,存储模块2401为存储器时,本申请实施例所涉及的服务器可以为图25所示的终端。
参阅图25所示,该服务器25包括:收发器2511、存储器2512以及总线2513。其中,收发器2511、存储器2512通过总线2513相互连接;总线2513可以是PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图25中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
结合本申请公开内容所描述的方法或者算法的步骤可以硬件的方式来实现,也可以是由处理器执行软件指令的方式来实现。软件指令可以由相应的软件模块组成,软件模块可以被存放于随机存取存储器(Random Access Memory,RAM)、闪存、只读存储器(ReadOnly Memory,ROM)、可擦除可编程只读存储器(Erasable Programmable ROM,EPROM)、电可擦可编程只读存储器(Electrically EPROM,EEPROM)、寄存器、硬盘、移动硬盘、只读光盘(CD-ROM)或者本领域熟知的任何其它形式的存储介质中。一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。另外,该ASIC可以位于核心网接口设备中。当然,处理器和存储介质也可以作为分立组件存在于核心网接口设备中。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本申请所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。计算机可读介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。
以上所述的具体实施方式,对本申请的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本申请的具体实施方式而已,并不用于限定本申请的保护范围,凡在本申请的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本申请的保护范围之内。

Claims (46)

1.一种图像的处理方法,应用于服务器,其特征在于,包括:
对待处理图像的经纬图或球面图进行横向划分和纵向划分,以得到所述经纬图或所述球面图的各个子区域,其中,所述横向划分的划分位置为预先设定的纬度,所述纵向划分的划分位置由纬度确定,相邻的所述横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,所述纵向划分间隔为相邻的所述纵向划分的划分位置间的距离;
对所述得到的各个子区域的图像进行编码。
2.根据权利要求1所述的方法,其特征在于,所述纵向划分的划分位置由纬度确定包括:所述纵向划分的划分位置所处的纬度越高,所述纵向划分间隔越大。
3.根据权利要求1或2所述的方法,其特征在于,在所述对所述得到的各个子区域的图像进行编码之前,所述方法还包括:
对所述子区域的图像按照第一采样间隔在横向进行采样;其中,所述子区域所对应的纬度越高,所述第一采样间隔越大;
所述对所述得到的各个子区域的图像进行编码,包括:
对所述采样后的各个子区域的图像进行编码。
4.根据权利要求3所述的方法,其特征在于,在对所述得到的各个子区域的图像进行编码之前,所述方法还包括:
对所述子区域的图像按照第二采样间隔在纵向进行采样。
5.根据权利要求3或4所述的方法,其特征在于,当所述子区域由对所述待处理图像的球面图进行横向划分和纵向划分得到时,在所述对所述子区域的图像按照第一采样间隔在横向进行采样之前,所述方法还包括:
将所述子区域的图像按照预设尺寸映射为二维平面图像;
所述对所述子区域的图像按照第一采样间隔在横向进行采样,包括:
对所述子区域的图像映射的二维平面图像按照所述第一采样间隔在横向进行采样。
6.根据权利要求3至5任一项所述的方法,其特征在于,在所述对所述采样后的各个子区域的图像进行编码之前,所述方法还包括:
调整所述采样后的各个子区域的位置,使得所述调整后的各个子区域的图像拼接成的图像的横向边缘对齐,且纵向边缘对齐。
7.根据权利要求6所述的方法,其特征在于,所述对所述采样后的各个子区域的图像进行编码包括:
对所述拼接成的图像分片(Tile)进行编码。
8.根据权利要求1-7任一项所述的方法,其特征在于,在所述对所述得到的各个子区域的图像进行编码之后,所述方法还包括:
对通过所述编码获得的各个子区域的图像对应的码流进行独立封装,并且编码所述各个子区域的位置信息;其中,所述编码后的所有所述子区域的位置信息与所有所述子区域的码流存在于一个轨迹中;或者,所述编码后的每个所述子区域的位置信息与码流存在于各自的轨迹中;或者,所述编码后的所有所述子区域的位置信息存在于媒体呈现描述(MPD);或者,所述编码后的所有所述子区域的位置信息存在于私有文件中,且所述私有文件的地址存在于MPD中;或者,所述编码后的每个所述子区域的位置信息存在于所述每个子区域的码流的辅助增强信息(SEI)中。
9.根据权利要求8所述的方法,其特征在于,当所述子区域由对所述待处理图像的经纬图进行横向划分和纵向划分得到时,所述采样后的各个子区域形成采样后的经纬图,所述位置信息包括所述子区域在所述经纬图中的位置以及尺寸大小,以及所述子区域在所述采样后的经纬图中的位置以及尺寸大小;或者,所述位置信息包括所述子区域在所述经纬图中的位置以及尺寸大小,以及所述子区域在所述拼接成的图像中的位置以及尺寸大小;或者,当所述子区域由对所述待处理图像的球面图进行横向划分和纵向划分得到时,所述采样后的各个子区域形成采样后的球面图,所述位置信息包括所述子区域在所述球面图的图像中的位置以及经纬度范围,以及所述子区域在所述采样后的球面图的图像中的位置以及尺寸大小;或者,所述位置信息包括所述子区域在所述球面图图像中的位置以及经纬度范围,以及所述子区域在所述拼接成的图像中的位置以及尺寸大小。
10.根据权利要求8或9所述的方法,其特征在于,所述私有文件还包括用于表征用户视点与所述用户视点的视角覆盖的子区域的编号的对应关系的信息。
11.根据权利要求8至10任一项所述的方法,其特征在于,所述私有文件还包括用于表征所述用户视角覆盖的子区域中需优先显示的子区域个数的信息、所述需优先显示的子区域编号的信息、次优先显示的子区域编号的信息以及不显示的子区域编号的信息。
12.根据权利要求1至11任一项所述的方法,其特征在于,所述经纬图包括左眼对应的经纬图和右眼对应的经纬图;
在所述对待处理图像的经纬图或球面图进行横向划分和纵向划分之前,所述方法还包括:
将所述左眼对应的经纬图与所述右眼对应的经纬图进行分割;
所述对待处理图像的经纬图或球面图进行横向划分和纵向划分,包括:
对所述左眼对应的经纬图进行所述横向划分和所述纵向划分,以及对所述右眼对应的经纬图进行所述横向划分和所述纵向划分。
13.根据权利要求9至12任一项所述的方法,其特征在于,所述方法还包括:
将所述通过所述编码获得的各个子区域的图像对应的码流发送给终端;
或者,接收终端发送的视角信息,根据所述视角信息获取所述视角信息对应的子区域,将所述视角信息对应的子区域的码流发送给所述终端;
或者,接收终端发送的子区域的编号,将所述子区域的编号对应的码流发送给所述终端。
14.根据权利要求1-13任一项所述的方法,其特征在于,
所述经纬图为360度全景视频图像的经纬图,或所述360度全景视频图像的经纬图的一部分;或
所述球面图为360度全景视频图像的球面图,或所述360度全景视频图像的球面图的一部分。
15.一种图像的处理方法,应用于终端,其特征在于,包括:
确定全景图像各个子区域的位置信息;
根据所述确定的各个子区域的位置信息,确定当前视角覆盖的子区域在所述全景图像中的位置信息;
确定子区域的第一采样间隔;
根据所述确定的当前视角覆盖的子区域位置信息,获取所述当前视角覆盖的子区域对应的码流;
对所述码流进行解码,以得到所述当前视角覆盖的子区域的图像;
根据所述确定的当前视角覆盖的子区域的位置信息以及所述第一采样间隔对所述解码后的图像进行重采样,并对所述重采样后的图像进行播放。
16.根据权利要求15所述的方法,其特征在于,所述确定全景图像各个子区域的位置信息,包括:
接收服务器发送的第一信息,所述第一信息包括所述全景图像的各个子区域的轨迹以及所述各个子区域的码流,所述轨迹包括所述全景图像的所有子区域的位置信息;
根据所述轨迹,得到所述全景图像中的各个子区域的位置信息。
17.根据权利要求15所述的方法,其特征在于,所述确定全景图像中各个子区域的位置信息,包括:
接收服务器发送的媒体呈现描述(MPD),其中,所述MPD包括所述各个子区域的位置信息,或者,所述MPD中包括私有文件的地址,且所述私有文件包括所述各个子区域的位置信息;
解析所述MPD,以获取所述各个子区域的位置信息。
18.根据权利要求15所述的方法,其特征在于,所述子区域的位置信息存在于所述子区域对应的码流的辅助增强信息(SEI)中。
19.根据权利要求15-18任一项所述的方法,其特征在于,所述获取所述当前视角覆盖的子区域对应的码流,包括:
从所述终端的存储器中获取所述当前视角覆盖的子区域对应的码流;
或者,向服务器请求获取所述当前视角覆盖的子区域对应的码流。
20.根据权利要求19所述的方法,其特征在于,所述向服务器请求获取所述当前视角覆盖的子区域对应的码流,包括:
将指示所述当前视角的信息发送给所述服务器,接收所述服务器发送的所述当前视角覆盖的子区域对应的码流;
或者,按照所述终端与所述服务器预设的协议,从所述服务器获取所述当前视角覆盖的子区域对应的码流,所述协议包括视角与该视角覆盖的子区域的对应关系。
21.根据权利要求16至20任一项所述的方法,其特征在于,所述确定子区域的第一采样间隔,包括:
确定预设的采样间隔为所述第一采样间隔;
或者,从所述服务器接收所述第一采样间隔;
或者,根据从所述服务器接收到的所述各个子区域的位置信息获取所述第一采样间隔。
22.一种图像的处理方法,应用于服务器,其特征在于,包括:
保存全景图像的经纬图或球面图的各个子区域的图像对应的码流,所述子区域根据对所述全景图像的经纬图或球面图进行横向划分和纵向划分得到,其中,所述横向划分的划分位置为预先设定的纬度,所述纵向划分的划分位置由纬度确定,相邻的所述横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,所述纵向划分间隔为相邻的所述纵向划分的划分位置间的距离;
向终端发送所述终端请求的所述保存的各个子区域的图像对应的码流中当前视角覆盖的子区域的码流。
23.根据权利要求22所述的方法,其特征在于,所述保存于所述服务器的子区域对应的图像在被编码之前,被按照第一采样间隔在横向进行采样;其中,所述子区域所对应的纬度越高,所述第一采样间隔越大;
或者,
被按照第二采样间隔在纵向进行采样。
24.一种服务器,其特征在于,包括:
划分单元,用于对待处理图像的经纬图或球面图进行横向划分和纵向划分,以得到所述经纬图或所述球面图的各个子区域,其中,所述横向划分的划分位置为预先设定的纬度,所述纵向划分的划分位置由纬度确定,相邻的所述横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,所述纵向划分间隔为相邻的所述纵向划分的划分位置间的距离;
编码单元,用于对所述得到的各个子区域的图像进行编码。
25.根据权利要求24所述的服务器,其特征在于,所述纵向划分的划分位置由纬度确定包括:所述纵向划分的划分位置所处的纬度越高,所述纵向划分间隔越大。
26.根据权利要求24或25所述的服务器,其特征在于,还包括采样单元,用于:
对所述子区域的图像按照第一采样间隔在横向进行采样;其中,所述子区域所所对应的纬度越高,所述第一采样间隔越大;
所述编码单元用于:
对所述采样后的各个子区域的图像进行编码。
27.根据权利要求26所述的服务器,其特征在于,所述采样单元还用于:
对所述子区域的图像按照第二采样间隔在纵向进行采样。
28.根据权利要求26或27所述的服务器,其特征在于,所述采样单元还用于:
将所述子区域的图像按照预设尺寸映射为二维平面图像;
对所述子区域的图像映射的二维平面图像按照所述第一采样间隔在横向进行采样。
29.根据权利要求26至28任一项所述的服务器,其特征在于,还包括拼接单元,用于:
调整所述采样后的各个子区域的位置,使得所述调整后的各个子区域的图像拼接成的图像的横向边缘对齐,且纵向边缘对齐。
30.根据权利要求29所述的服务器,其特征在于,所述编码单元用于:
对所述拼接成的图像分片(Tile)进行编码。
31.根据权利要求24-30任一项所述的服务器,其特征在于,还包括封装单元,用于:
对通过所述编码获得的各个子区域的图像对应的码流进行独立封装,并且编码所述各个子区域的位置信息;其中,所述编码后的所有所述子区域的位置信息与所有所述子区域的码流存在于一个轨迹中;或者,所述编码后的每个所述子区域的位置信息与码流存在于各自的轨迹中;或者,所述编码后的所有所述子区域的位置信息存在于媒体呈现描述(MPD);或者,所述编码后的所有所述子区域的位置信息存在于私有文件中,且所述私有文件的地址存在于MPD中;或者,所述编码后的每个所述子区域的位置信息存在于所述每个子区域的码流的辅助增强信息(SEI)中。
32.根据权利要求31所述的服务器,其特征在于,当所述子区域由对所述待处理图像的经纬图进行横向划分和纵向划分得到时,所述采样后的各个子区域形成采样后的经纬图,所述位置信息包括所述子区域在所述经纬图中的位置以及尺寸大小,以及所述子区域在所述采样后的经纬图中的位置以及尺寸大小;或者,所述位置信息包括所述子区域在所述经纬图中的位置以及尺寸大小,以及所述子区域在所述拼接成的图像中的位置以及尺寸大小;或者,当所述子区域由对所述待处理图像的球面图进行横向划分和纵向划分得到时,所述采样后的各个子区域形成采样后的球面图,所述位置信息包括所述子区域在所述球面图的图像中的位置以及经纬度范围,以及所述子区域在所述采样后的球面图的图像中的位置以及尺寸大小;或者,所述位置信息包括所述子区域在所述球面图图像中的位置以及经纬度范围,以及所述子区域在所述拼接成的图像中的位置以及尺寸大小。
33.根据权利要求31或32所述的服务器,其特征在于,所述私有文件还包括用于表征用户视点与所述用户视点的视角覆盖的子区域的编号的对应关系的信息。
34.根据权利要求32至33任一项所述的服务器,其特征在于,所述私有文件还包括用于表征所述用户视角覆盖的子区域中需优先显示的子区域个数的信息、所述需优先显示的子区域编号的信息、次优先显示的子区域编号的信息以及不显示的子区域编号的信息。
35.根据权利要求24至34任一项所述的方法,其特征在于,所述经纬图包括左眼对应的经纬图和右眼对应的经纬图;
所述划分单元用于:
将所述左眼对应的经纬图与所述右眼对应的经纬图进行分割;
对所述左眼对应的经纬图进行所述横向划分和所述纵向划分,以及对所述右眼对应的经纬图进行所述横向划分和所述纵向划分。
36.根据权利要求32至35任一项所述的服务器,其特征在于,还包括传输单元,用于:
将所述通过所述编码获得的各个子区域的图像对应的码流发送给终端;
或者,接收终端发送的视角信息,根据所述视角信息获取所述视角信息对应的子区域,将所述视角信息对应的子区域的码流发送给所述终端;
或者,接收终端发送的子区域的编号,将所述子区域的编号对应的码流发送给所述终端。
37.根据权利要求24-36任一项所述的服务器,其特征在于,
所述经纬图为360度全景视频图像的经纬图,或所述360度全景视频图像的经纬图的一部分;或
所述球面图为360度全景视频图像的球面图,或所述360度全景视频图像的球面图的一部分。
38.一种终端,其特征在于,包括:
获取单元,用于确定全景图像各个子区域的位置信息;
所述获取单元还用于,根据所述确定的各个子区域的位置信息,确定当前视角覆盖的子区域在所述全景图像中的位置信息,并确定子区域的第一采样间隔;
所述获取单元,还用于根据所述确定的当前视角覆盖的子区域位置信息,获取所述当前视角覆盖的子区域对应的码流;
解码单元,用于对所述码流进行解码,以得到所述当前视角覆盖的子区域的图像;
重采样单元,用于根据所述确定的当前视角覆盖的子区域的位置信息以及所述第一采样间隔对所述解码后的图像进行重采样;
播放单元,用于所述重采样后的图像进行播放。
39.根据权利要求38所述的终端,其特征在于,所述获取单元用于:
接收服务器发送的第一信息,所述第一信息包括所述全景图像的各个子区域的轨迹以及所述各个子区域的码流,所述轨迹包括所述全景图像的所有子区域的位置信息;
根据所述轨迹,得到所述全景图像中的各个子区域的位置信息。
40.根据权利要求38所述的终端,其特征在于,所述获取单元用于:
接收服务器发送的媒体呈现描述(MPD),其中,所述MPD包括所述各个子区域的位置信息,或者,所述MPD中包括私有文件的地址,且所述私有文件包括所述各个子区域的位置信息;
所述获取单元还用于:解析所述MPD,以获取所述各个子区域的位置信息。
41.根据权利要求38所述的终端,其特征在于,所述子区域的位置信息存在于所述子区域对应的码流的辅助增强信息(SEI)中。
42.根据权利要求38-41任一项所述的终端,其特征在于,所述获取单元用于:
从所述终端的存储器中获取所述当前视角覆盖的子区域对应的码流;
或者,向服务器请求获取所述当前视角覆盖的子区域对应的码流。
43.根据权利要求42所述的终端,其特征在于,所述获取单元用于:
将指示所述当前视角的信息发送给所述服务器,接收所述服务器发送的所述当前视角覆盖的子区域对应的码流;
或者,按照所述终端与所述服务器预设的协议,从所述服务器获取所述当前视角覆盖的子区域对应的码流,所述协议包括视角与该视角覆盖的子区域的对应关系。
44.根据权利要求39至43任一项所述的终端,其特征在于,所述获取单元用于:
确定预设的采样间隔为所述第一采样间隔;
或者,从所述服务器接收所述第一采样间隔;
或者,根据从所述服务器接收到的所述各个子区域的位置信息获取所述第一采样间隔。
45.一种服务器,其特征在于,包括:
存储单元,用于保存全景图像的经纬图或球面图的各个子区域的图像对应的码流,所述子区域根据对所述全景图像的经纬图或球面图进行横向划分和纵向划分得到,其中,所述横向划分的划分位置为预先设定的纬度,所述纵向划分的划分位置由纬度确定,相邻的所述横向划分的划分位置所构成的区域中至少存在两种纵向划分间隔,所述纵向划分间隔为相邻的所述纵向划分的划分位置间的距离;
传输单元,用于向终端发送所述终端请求的所述保存的各个子区域的图像对应的码流中当前视角覆盖的子区域的码流。
46.根据权利要求45所述的服务器,其特征在于,所述保存于所述服务器的子区域对应的图像在被编码之前,被按照第一采样间隔在横向进行采样;其中,所述子区域所对应的纬度越高,所述第一采样间隔越大;
或者,被按照第二采样间隔在纵向进行采样。
CN201710645108.XA 2017-07-31 2017-07-31 一种图像的处理方法、终端和服务器 Active CN109327699B (zh)

Priority Applications (12)

Application Number Priority Date Filing Date Title
CN201710645108.XA CN109327699B (zh) 2017-07-31 2017-07-31 一种图像的处理方法、终端和服务器
SG11201913824XA SG11201913824XA (en) 2017-07-31 2018-03-29 Image processing method, terminal, and server
PCT/CN2018/081177 WO2019024521A1 (zh) 2017-07-31 2018-03-29 一种图像的处理方法、终端和服务器
EP18841334.8A EP3633993A4 (en) 2017-07-31 2018-03-29 IMAGE PROCESSING METHOD, TERMINAL, AND SERVER
BR112020002235-7A BR112020002235A2 (pt) 2017-07-31 2018-03-29 método de processamento de imagens, terminal, e servidor
CA3069034A CA3069034C (en) 2017-07-31 2018-03-29 Image processing method, terminal, and server
JP2019571623A JP6984841B2 (ja) 2017-07-31 2018-03-29 イメージ処理方法、端末およびサーバ
AU2018311589A AU2018311589B2 (en) 2017-07-31 2018-03-29 Image processing method, terminal, and server
KR1020207001630A KR102357137B1 (ko) 2017-07-31 2018-03-29 이미지 처리 방법, 단말기, 및 서버
RU2020108306A RU2764462C2 (ru) 2017-07-31 2018-03-29 Сервер, оконечное устройство и способ обработки изображений
PH12020500047A PH12020500047A1 (en) 2017-07-31 2020-01-06 Image processing method, terminal and server
US16/739,568 US11032571B2 (en) 2017-07-31 2020-01-10 Image processing method, terminal, and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710645108.XA CN109327699B (zh) 2017-07-31 2017-07-31 一种图像的处理方法、终端和服务器

Publications (2)

Publication Number Publication Date
CN109327699A true CN109327699A (zh) 2019-02-12
CN109327699B CN109327699B (zh) 2021-07-16

Family

ID=65232513

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710645108.XA Active CN109327699B (zh) 2017-07-31 2017-07-31 一种图像的处理方法、终端和服务器

Country Status (12)

Country Link
US (1) US11032571B2 (zh)
EP (1) EP3633993A4 (zh)
JP (1) JP6984841B2 (zh)
KR (1) KR102357137B1 (zh)
CN (1) CN109327699B (zh)
AU (1) AU2018311589B2 (zh)
BR (1) BR112020002235A2 (zh)
CA (1) CA3069034C (zh)
PH (1) PH12020500047A1 (zh)
RU (1) RU2764462C2 (zh)
SG (1) SG11201913824XA (zh)
WO (1) WO2019024521A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111212267A (zh) * 2020-01-16 2020-05-29 聚好看科技股份有限公司 一种全景图像的分块方法及服务器
CN111314739A (zh) * 2020-02-17 2020-06-19 聚好看科技股份有限公司 一种图像处理方法、服务器及显示设备
CN111813875A (zh) * 2019-04-11 2020-10-23 浙江宇视科技有限公司 地图点位信息处理方法、装置及服务器
CN113553452A (zh) * 2021-06-16 2021-10-26 浙江科技学院 一种基于虚拟现实的空间性域名处理方法及装置
CN113630622A (zh) * 2021-06-18 2021-11-09 中图云创智能科技(北京)有限公司 全景视频图像处理方法、服务端、目标设备、装置和系统
CN114026878A (zh) * 2019-05-23 2022-02-08 Vid拓展公司 基于视频的点云流
CN114760522A (zh) * 2020-12-29 2022-07-15 阿里巴巴集团控股有限公司 数据处理方法、装置和设备

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102598082B1 (ko) * 2016-10-28 2023-11-03 삼성전자주식회사 영상 표시 장치, 모바일 장치 및 그 동작방법
US11546402B2 (en) * 2019-01-04 2023-01-03 Tencent America LLC Flexible interoperability and capability signaling using initialization hierarchy
WO2020198164A1 (en) * 2019-03-26 2020-10-01 Pcms Holdings, Inc. System and method for multiplexed rendering of light fields
CN114375583A (zh) * 2019-07-23 2022-04-19 Pcms控股公司 用于自适应小透镜光场传输和渲染的系统和方法
CN116347183A (zh) * 2020-06-04 2023-06-27 腾讯科技(深圳)有限公司 一种沉浸媒体的数据处理方法及相关装置
CN113347403B (zh) * 2021-04-19 2023-10-27 浙江大学 一种图像处理方法及装置
CN114268835B (zh) * 2021-11-23 2022-11-01 北京航空航天大学 一种低传输流量的vr全景视频时空切片方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337708B1 (en) * 1996-06-24 2002-01-08 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images
CN105872546A (zh) * 2016-06-13 2016-08-17 上海杰图软件技术有限公司 一种实现全景图像压缩存储的方法和系统
CN106063277A (zh) * 2014-03-03 2016-10-26 奈克斯特Vr股份有限公司 用于对内容进行流传输的方法和装置
CN106530216A (zh) * 2016-11-05 2017-03-22 深圳岚锋创视网络科技有限公司 全景影像文件处理方法及系统
CN106899840A (zh) * 2017-03-01 2017-06-27 北京大学深圳研究生院 全景图像映射方法
WO2017116952A1 (en) * 2015-12-29 2017-07-06 Dolby Laboratories Licensing Corporation Viewport independent image coding and rendering

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5298201B2 (ja) * 2008-10-07 2013-09-25 テレフオンアクチーボラゲット エル エム エリクソン(パブル) メディアコンテナファイル
US10136143B2 (en) * 2012-12-07 2018-11-20 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US10244253B2 (en) * 2013-09-13 2019-03-26 Qualcomm Incorporated Video coding techniques using asymmetric motion partitioning
EP3092806A4 (en) * 2014-01-07 2017-08-23 Nokia Technologies Oy Method and apparatus for video coding and decoding
US9628822B2 (en) * 2014-01-30 2017-04-18 Qualcomm Incorporated Low complexity sample adaptive offset encoding
GB2524249B (en) 2014-03-17 2021-01-20 Sony Interactive Entertainment Inc Image Processing
GB2525170A (en) * 2014-04-07 2015-10-21 Nokia Technologies Oy Stereo viewing
JP6642427B2 (ja) 2014-06-30 2020-02-05 ソニー株式会社 情報処理装置および方法
US10462480B2 (en) * 2014-12-31 2019-10-29 Microsoft Technology Licensing, Llc Computationally efficient motion estimation
WO2016140082A1 (ja) * 2015-03-05 2016-09-09 ソニー株式会社 画像処理装置および画像処理方法
CN106375760B (zh) * 2016-10-11 2019-04-19 上海国茂数字技术有限公司 一种全景视频多边形采样方法及装置
US10574886B2 (en) * 2017-11-02 2020-02-25 Thermal Imaging Radar, LLC Generating panoramic video for video management systems

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337708B1 (en) * 1996-06-24 2002-01-08 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images
CN106063277A (zh) * 2014-03-03 2016-10-26 奈克斯特Vr股份有限公司 用于对内容进行流传输的方法和装置
WO2017116952A1 (en) * 2015-12-29 2017-07-06 Dolby Laboratories Licensing Corporation Viewport independent image coding and rendering
CN105872546A (zh) * 2016-06-13 2016-08-17 上海杰图软件技术有限公司 一种实现全景图像压缩存储的方法和系统
CN106530216A (zh) * 2016-11-05 2017-03-22 深圳岚锋创视网络科技有限公司 全景影像文件处理方法及系统
CN106899840A (zh) * 2017-03-01 2017-06-27 北京大学深圳研究生院 全景图像映射方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GEERT VAN DER AUWERA,ET AL.: "AHG8: Equatorial cylindrical projection for 360-degree video", 《JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11》 *
MATT YU,ET AL.: "Content Adaptive Representations of Omnidirectional Videos for Cinematic Virtual Reality", 《IMMERSIVE ME"15》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111813875A (zh) * 2019-04-11 2020-10-23 浙江宇视科技有限公司 地图点位信息处理方法、装置及服务器
CN111813875B (zh) * 2019-04-11 2024-04-05 浙江宇视科技有限公司 地图点位信息处理方法、装置及服务器
CN114026878A (zh) * 2019-05-23 2022-02-08 Vid拓展公司 基于视频的点云流
CN114026878B (zh) * 2019-05-23 2024-04-19 Vid拓展公司 基于视频的点云流
CN111212267A (zh) * 2020-01-16 2020-05-29 聚好看科技股份有限公司 一种全景图像的分块方法及服务器
CN111314739A (zh) * 2020-02-17 2020-06-19 聚好看科技股份有限公司 一种图像处理方法、服务器及显示设备
CN111314739B (zh) * 2020-02-17 2022-05-17 聚好看科技股份有限公司 一种图像处理方法、服务器及显示设备
CN114760522A (zh) * 2020-12-29 2022-07-15 阿里巴巴集团控股有限公司 数据处理方法、装置和设备
CN113553452A (zh) * 2021-06-16 2021-10-26 浙江科技学院 一种基于虚拟现实的空间性域名处理方法及装置
CN113630622A (zh) * 2021-06-18 2021-11-09 中图云创智能科技(北京)有限公司 全景视频图像处理方法、服务端、目标设备、装置和系统
CN113630622B (zh) * 2021-06-18 2024-04-26 中图云创智能科技(北京)有限公司 全景视频图像处理方法、服务端、目标设备、装置和系统

Also Published As

Publication number Publication date
RU2764462C2 (ru) 2022-01-17
EP3633993A4 (en) 2020-06-24
AU2018311589A1 (en) 2020-02-20
RU2020108306A3 (zh) 2021-08-26
CA3069034A1 (en) 2019-02-07
WO2019024521A1 (zh) 2019-02-07
JP6984841B2 (ja) 2021-12-22
KR102357137B1 (ko) 2022-02-08
SG11201913824XA (en) 2020-01-30
RU2020108306A (ru) 2021-08-26
US20200154138A1 (en) 2020-05-14
US11032571B2 (en) 2021-06-08
BR112020002235A2 (pt) 2020-07-28
CN109327699B (zh) 2021-07-16
KR20200019718A (ko) 2020-02-24
JP2020529149A (ja) 2020-10-01
PH12020500047A1 (en) 2020-09-28
EP3633993A1 (en) 2020-04-08
CA3069034C (en) 2024-05-28
AU2018311589B2 (en) 2022-12-22

Similar Documents

Publication Publication Date Title
CN109327699A (zh) 一种图像的处理方法、终端和服务器
CN108702528B (zh) 发送360视频的方法、接收360视频的方法、发送360视频的设备和接收360视频的设备
CN109691094B (zh) 发送全向视频的方法、接收全向视频的方法、发送全向视频的装置和接收全向视频的装置
KR102191875B1 (ko) 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치
CN109076255B (zh) 发送、接收360度视频的方法及设备
KR102277267B1 (ko) 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치
JP2019024197A (ja) ビデオの符号化・復号の方法、装置、およびコンピュータプログラムプロダクト
EP4287637A1 (en) Information processing method and apparatus
US20190364261A1 (en) Method for transmitting 360-degree video, method for receiving 360-degree video, apparatus for transmitting 360-degree video and apparatus for receiving 360-degree video
WO2023029858A1 (zh) 点云媒体文件的封装与解封装方法、装置及存储介质
WO2023061131A1 (zh) 媒体文件封装方法、装置、设备及存储介质
CN110637463B (zh) 360度视频处理方法
WO2021176133A1 (en) An apparatus, a method and a computer program for volumetric video
CN114374675B (zh) 媒体文件的封装方法、媒体文件的解封装方法及相关设备
CN115086635B (zh) 多视角视频的处理方法、装置、设备及存储介质
CN115567756A (zh) 基于视角的vr视频系统和处理方法
WO2023016293A1 (zh) 自由视角视频的文件封装方法、装置、设备及存储介质
WO2023024843A1 (zh) 媒体文件封装与解封装方法、设备及存储介质
WO2023024841A1 (zh) 点云媒体文件的封装与解封装方法、装置及存储介质
CN113497928B (zh) 一种沉浸媒体的数据处理方法及相关设备
WO2023024839A1 (zh) 媒体文件封装与解封装方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant