WO2012148238A2 - 무선 통신 시스템에서의 데이터 전송률 조절 방법 및 장치 - Google Patents

무선 통신 시스템에서의 데이터 전송률 조절 방법 및 장치 Download PDF

Info

Publication number
WO2012148238A2
WO2012148238A2 PCT/KR2012/003351 KR2012003351W WO2012148238A2 WO 2012148238 A2 WO2012148238 A2 WO 2012148238A2 KR 2012003351 W KR2012003351 W KR 2012003351W WO 2012148238 A2 WO2012148238 A2 WO 2012148238A2
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
pixels
dropped
image data
data
Prior art date
Application number
PCT/KR2012/003351
Other languages
English (en)
French (fr)
Other versions
WO2012148238A3 (ko
Inventor
박성범
사오후아이롱
권혁춘
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN201280032637.8A priority Critical patent/CN103636228A/zh
Priority to JP2014508298A priority patent/JP2014519224A/ja
Priority to US14/114,284 priority patent/US20140082685A1/en
Priority to EP12777485.9A priority patent/EP2704433A4/en
Publication of WO2012148238A2 publication Critical patent/WO2012148238A2/ko
Publication of WO2012148238A3 publication Critical patent/WO2012148238A3/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/10Flow control between communication endpoints
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64784Data processing by the network
    • H04N21/64792Controlling the complexity of the content stream, e.g. by dropping packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/16Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
    • H04W28/18Negotiating wireless communication parameters
    • H04W28/22Negotiating communication rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/23Bit dropping

Definitions

  • the present invention relates to wireless communication, and more particularly, to communication for transmitting video data.
  • connection setup and channel bandwidth allocation are performed before a video stream is transmitted. Sufficient bandwidth may be allocated and it is desirable to allow the video stream to be transmitted after completing control of the stream configuration. However, sufficient channel bandwidth may not be secured by other transmissions in progress in the same channel.
  • the quality of the wireless channel changes dynamically with time. In particular, in a 60 GHz band wireless channel in which beamformed transmission is performed, the channel may be affected by human movement.
  • pixel dropping is performed on pixel blocks constituting uncompressed image data based on a reference distance between pixels, thereby reducing a data rate in the process of transmitting image data.
  • a method and apparatus for receiving uncompressed image data on which pixel drop is performed and reconstructing dropped pixels for each pixel block are provided. Also provided is a computer readable recording medium having recorded thereon a program for executing the method on a computer.
  • the data rate may be adjusted based on the environment and bandwidth of the wireless channel.
  • FIG. 1 is a block diagram of a data rate control system for transmitting image data through a wireless channel according to an embodiment of the present invention.
  • FIG. 2 is a more detailed block diagram of the system of FIG. 1 in accordance with an embodiment of the present invention.
  • FIG. 3 illustrates an example of a two-dimensional uncompressed image frame of pixels according to an embodiment of the present invention.
  • 4 to 16 are diagrams illustrating an example of adjusting a data rate by dropping at least one pixel progressively for each pixel block with respect to image data according to an embodiment of the present invention.
  • 17 is a flowchart illustrating a step of adjusting a data rate step by step when a wireless transmitter transmits image data according to an embodiment of the present invention.
  • FIG. 18 is a flowchart illustrating a method of receiving, by a wireless receiver, image data whose data rate is adjusted, and restoring the image data, in accordance with an embodiment of the present invention.
  • a method of wirelessly transmitting image data includes: dropping at least one pixel per pixel block constituting the image data to reduce the data rate of the image data, and data of some pixels And transmitting the dropped video data.
  • a pixel block is composed of one or more spatially adjacent pixels, and the dropping of at least one pixel may be performed by using the BlockMode field of the image data. And dropping at least one pixel based on the information on the size.
  • dropping at least one pixel may include dropping pixels in stages in order to further reduce a data rate based on a bandwidth of a wireless channel through which image data is transmitted. It further includes.
  • the step of dropping a pixel step by step it characterized in that the step of changing at least one of the size of the pixel block and the number of pixels to be dropped step by step.
  • the dropping of the pixel may include dropping from the pixel having the farthest reference distance from the initial pixel included in the pixel block.
  • the dropping of the pixel may include dropping selected pixels at equal positions in the pixel block.
  • the transmitting may include classifying a plurality of pixel drop modes hierarchically according to the position and number of dropped pixels, and the position and number of dropped pixels. And transmitting the indexing information indicating the corresponding pixel drop mode together with the image data.
  • a method of wirelessly receiving image data includes receiving image data in which data values of some pixels are dropped, and reconstructing dropped pixels with reference to the data values of the received pixels. Include.
  • reconstructing dropped pixels may be performed by referring to a pixel having a reference distance closest to a pixel to be reconstructed within a pixel block including the pixel to be reconstructed.
  • the step of receiving characterized in that for receiving the indexing information for the position and the number of the dropped pixels with the image data.
  • restoring the dropped pixels may include restoring the dropped pixels with reference to indexing information.
  • the wireless transmitter for transmitting the image data wirelessly the pixel drop module for dropping at least one pixel per pixel block constituting the image data, in order to reduce the data rate of the image data, and It includes a data transmission module for transmitting the image data dropped some pixels.
  • a wireless receiver for wirelessly receiving image data includes a data receiving module for receiving image data in which data values of some pixels are dropped, and a dropped pixel with reference to the data values of the received pixels. And a pixel reconstruction module for reconstructing them.
  • a computer readable recording medium having recorded thereon a program for executing the method for solving the above technical problem in a computer is provided.
  • ... unit means a unit for processing at least one function or operation, which is implemented in hardware or software or a combination of hardware and software. Can be.
  • the image data to be transmitted and received includes a plurality of pixels which are image information.
  • WiGig Wireless Gigabit Alliance
  • uncompressed video data whose data rate is dynamically adjusted based on the available bandwidth of a wireless channel is called WSP (WiGig Spatial Processing) format.
  • Information on whether uncompressed image data is in WSP format may be included in a feature list field of a transmitted packet.
  • the WSP format may be applied to 3D image data as well as 2D image data.
  • FIG. 1 is a block diagram illustrating a wireless communication system for transmitting image data from a wireless transmitter 11 to a wireless receiver 12 via a wireless channel 10 according to an embodiment of the present invention.
  • the transmitted image data may be in WSP format.
  • the image input module 13 may provide information including the uncompressed image to the transmitter 14 through various wired or wireless interfaces.
  • the video input module 13 may be, for example, a video decoder or an uncompressed HD video recorder.
  • the transmitter 14 may use a millimeter wave (mmWave) radio technology to deliver image data to the receiver 15 in the wireless receiver 12 via the wireless channel 10.
  • mmWave millimeter wave
  • Other wireless technologies such as Ultra Wide Band (UWB) or 802.11n may be used for lower picture formats such as 480p.
  • the receiver 15 of the wireless receiver 12 may provide the received information to the image reproduction module 16 through another wired or wireless interface.
  • the image reproduction module 16 may be, for example, an HDTV, a monitor, a projector, or the like.
  • the wireless transmitter 11 may drop information on selected pixels among data values of a plurality of pixels included in the image data in order to generate the data rate adjusted image data.
  • the pixel drop module 110 included in the transmitter 14 progressively drops the pixel if the data rate of the transmitted image data is not low enough compared to the environment or bandwidth of the wireless channel 10. It is possible to lower the data rate.
  • the wireless transmitter 11 may further include a data transmission module 120 for transmitting the image data of which data rate is adjusted to the wireless receiver 12 through the wireless channel 10.
  • the receiver 15 included in the wireless receiver 12 includes a pixel drop module (or a pixel drop module) for restoring the image data before the data transmission rate and the data transmission rate for the wireless communication are adjusted so as to correspond to the wireless transmitter 11. And a pixel reconstruction module 140 that regressively performs the operation of 110.
  • FIG. 2 is a diagram illustrating an example in which image data is transmitted by adjusting a data rate in a wireless communication system including a wireless channel 10 according to an embodiment of the present invention.
  • the video input module 13 of the wireless transmitter 11 may include an application & protocol adaptation layer (PAL) layer that continuously streams the video stream to the MAC layer 14M in the transmitter 14.
  • the MAC layer 14M may packetize the video stream into MAC packets and transmit the packets to the physical (PHY) layer 14P for transmission to the wireless receiver 12 via the wireless channel 10.
  • PAL application & protocol adaptation layer
  • the PHY layer 15P in the receiver 15 may receive the packets and provide the packets to the MAC layer 15M.
  • the MAC layer 15M may provide image information to the image reproducing module 16 after depacketizing the packets.
  • the video reproduction module 16 may include an application & PAL layer.
  • the image input module 13 may be used. Generate video packets from the provided video stream.
  • a pixel block represented by N ⁇ M may mean a set of adjacent image pixels having N pixel rows and M pixel columns.
  • the pixels in the pixel block may be separated and positioned in different pixel partitions, respectively.
  • FIG 3 shows an example of a two-dimensional uncompressed image frame 20 of a plurality of pixels 21.
  • the position can be expressed as ..).
  • the 2 ⁇ 2 pixel block 22 is used to map the plurality of pixels 21 to four pixel partitions 23 (partition 0, partition 1, partition 2, partition 3, respectively).
  • the pixel partitions 23 are inserted into packets at the MAC layer 14M of the transmitter 14 and transmitted to the radio receiver 12 via the radio channel 10 via the transmitter PHY layer 14P. Packets received at the receiver PHY layer 15P of the receiver 15 may be depacketized at the MAC layer 15M.
  • Pixels within the same pixel block generally have similar values.
  • high resolution images such as 1920x1080
  • pixels in a 4x4 pixel block generally have similar values, and 8x8 may be too large as the size of the pixel block.
  • the pixels included in the pixel block may be spatially related.
  • the bandwidth of the actually allocated wireless channel 10 can accommodate the data rate required for the video stream transmitted from the video input module 13, all pixels in the pixel block 22 The data value of is sent. However, if the bandwidth of the wireless channel 10 cannot accommodate the required data rate, progressive rate adaptation is performed to lower the data rate.
  • the step rate adjustment may include a progressive pixel dropping (PPDR) process.
  • PPDR progressive pixel dropping
  • PPDT progressive pixel differential transformation
  • the circular symbol ' ⁇ ' represents an original pixel value that is not difference-converted
  • the triangle symbol ' ⁇ ' represents a result of performing a stepwise pixel difference conversion process. That is, in FIG. 4, the Y00 pixel is a pixel to which the difference transformation is not performed, and the remaining pixels represented by the triangular symbols show only the difference value between the adjacent pixels according to the arrow direction. That is, in the case of the Y01 pixel, only the difference value from the Y00 pixel is encoded, and the Y02 pixel represents the result of encoding only the difference value from the Y01 pixel.
  • the original pixel value is transmitted as it is without a separate conversion process, and the remaining pixels except the initial pixel in the pixel block 22 are arranged in the direction of the arrow direction as shown from the Y00 pixel. Only the difference value from the previous reference pixel may be transmitted as the pixel value through the conversion process.
  • the pixel difference conversion process may be performed before the stepwise pixel drop process, and only the stepped pixel drop process may be performed without the pixel difference conversion process.
  • the pixels being dropped are the difference values from neighboring pixels rather than the original value, whereas in the latter case, the original values of the pixels are dropped.
  • one or more pixel partitions may be dropped step by step in order to reduce data rate for uncompressed image data and maintain stability and acceptability of image quality in the wireless transmitter.
  • the wireless transmitter can evenly select the pixels to drop within each image data (or image frame).
  • a pixel drop process may be defined by a pixel dropping mode.
  • the number of k pixels dropped in the N ⁇ M pixel block 22 including columns and M rows may be referred to.
  • a pixel to be dropped may be selected based on a reference distance from the initial pixel, which is the first pixel in pixel block 22.
  • the initial pixel which is the first pixel in the pixel block 22, may mean the Y00 pixel having the fastest order of columns and rows in the pixel block 22. That is, the initial pixel means a pixel in which the original pixel value is transmitted without any additional conversion process, and the remaining pixels except for the initial pixel in the pixel block 22 are transferred from the initial pixel through the aforementioned pixel difference conversion process. Only the difference value with the reference pixel may be transmitted as the pixel value.
  • Each pixel represented by has a reference distance of i + j from an initial pixel of Y00.
  • the reference distance may also be expressed as the number of arrows connecting the selected pixel and the initial pixel.
  • This reference distance can be used to determine the order of pixels to drop within pixel block 22.
  • the Y77 pixel the pixel having the farthest reference distance from the initial pixel Y00 pixel, is dropped first. In this way, dropping the target pixel reduces the effect on other pixels related to the image quality at the receiving end.
  • the pixel in the column direction may be dropped first. This will be described again with reference to FIG. 9.
  • FIG. 4 illustrates an example of an 8x8: 1 pixel drop mode according to an embodiment of the present invention.
  • the image data except for the dropped pixels may be packetized and transmitted to the wireless receiver through a wireless channel.
  • the wireless receiver may receive and depacketize packetized video data. Subsequently, information about the pixel drop mode included in the image data may be obtained to recover the dropped pixels.
  • the pixel drop mode information about the dropped pixel may be index information for the pixel drop mode represented by NxM: k, and may be information about the size of the pixel block and the number of dropped pixels.
  • the pixel reconstruction module restores the data by referring to the data value of the pixel closest to the pixel to be reconstructed. do. That is, when the Y77 pixel is dropped in the pixel block 22, the pixel value of Y77 may be restored by referring to the data value of the Y76 pixel.
  • the pixel block 22 may be reconstructed by referring to the data values of pixels adjacent in the column direction. That is, although two pixels closest to the spatial location of Y77 are Y76 and Y67, Y77 may be restored by referring to Y76, which is a pixel adjacent in the column direction.
  • Such a pixel restoration order is represented by arrows in FIGS. 4 to 16, and the arrows may refer to reference pixels referred to in the process of restoring the dropped pixels, respectively.
  • Y76-> Y77 may mean that the Y77 pixel is restored with reference to Y76.
  • the pixel block 22 is composed of four columns and eight rows, one pixel is dropped per pixel block 22, and two pixels are dropped on an 8x8 pixel basis.
  • Y (4i + 3) (8j + 7) pixels are dropped. That is, among the pixels shown in FIG. 5, Y37 and Y77 pixels are dropped. In the upper pixel block 22, the Y37 pixel having the farthest reference distance from the initial pixel Y00 is dropped. Although not shown in FIG. 5, in the lower pixel block, Y77 pixels having a reference distance farthest from the initial pixel Y40 are dropped.
  • a process of dropping the Y37 pixel may be performed step by step after the output according to the 8x8: 1 pixel drop mode illustrated in FIG. 4. That is, when the data rate according to the 8x8: 1 pixel drop mode is not sufficiently low compared to the bandwidth, the data rate may be further lowered according to the 4x8: 1 pixel drop mode.
  • a stepwise pixel drop process may be performed by changing from the first pixel drop mode represented by N1xM1: k1 to the second pixel drop mode represented by N2xM2: k2.
  • the number of pixels dropped in the image data may be increased through values satisfying N1> N2, M1> M2, and k1 ⁇ k2.
  • the second pixel drop mode may be selected by fixing one of the columns N and the rows M and changing the other.
  • a stepwise pixel drop process may be performed by changing from a 2x2: 3 pixel drop mode to a 4x4: 13 pixel drop mode. That is, in performing the pixel drop process in stages, the method of changing the pixel drop mode is not limited to the above description, and the pixel drop mode may be changed in stages through various methods.
  • Y (4i + 3) (4j + 3) pixels are dropped for each pixel block 22 in the drop process.
  • the 4x4: 1 pixel drop mode may be continuously performed.
  • the Y33 pixel may reconstruct the image data by referring to the Y32 pixel and the Y73 pixel to the Y72 pixel.
  • the Y37 pixel and the Y77 pixel have been described with reference to FIG. 5.
  • Y (2i + 1) (4j + 3) pixels are dropped for each pixel block 22. (8 pixels are dropped on an 8x8 basis) For example, pixels such as Y13, Y17, Y33, and Y37 are dropped.
  • Y (2i + 1) (4j + 2) pixels which are pixels having a closest reference distance to the dropped pixel, are referred to. That is, Y13 may be restored by referring to Y12, Y17 to Y16, Y33 to Y32, and Y37 to Y36.
  • Y (2i + 1) (2j + 1) pixels are dropped.
  • the reconstruction process is performed by referring to the Y (2i + 1) (2j) pixels, respectively.
  • the dropped pixels Y31 may be restored by referring to Y30, Y71 to Y70, Y17 to Y16, and Y57 to Y56.
  • a 2 ⁇ 2: 2 pixel drop mode is illustrated and illustrates a process in which half of the plurality of pixels are dropped.
  • a 2x2: 2 pixel drop mode may be performed.
  • Y (2i) (2j + 1) and Y (2i + 1) (2j + 1) pixels are dropped.
  • Y10, Y12, Y34, Y36, etc. are applicable.
  • the pixels with the furthest reference distance from the initial pixel included in the pixel block 22 are Y (2i) (2j + 1) pixels and Y (2i + 1) (2j) pixels (the reference distance from the initial pixel ' 2 '), Y (2i) (2j + 1) pixels, which are pixels adjacent to the initial pixel in the column direction, are dropped. That is, Y01 and Y10 exist in the pixel having the closest reference distance to the Y00 pixel, and Y01 having the reference distance in the column direction may be dropped first.
  • Y (2i) (2j + 1) pixels are reconstructed with reference to Y (2i) (2j) pixels, respectively, and in FIG. 8 for Y (2i + 1) (2j + 1) pixels. As described above, it is reconstructed with reference to the Y (2i + 1) (2j) pixels. For example, Y03 may be restored by referring to Y02, Y47 to Y46, and Y63 to Y62.
  • a 2 ⁇ 2: 3 pixel drop mode is shown, with Y (2i + 1) (2j) pixels being dropped in addition to the dropped pixels in the 2 ⁇ 2: 2 pixel drop mode of FIG. 9.
  • Y (2i) (2j + 1), Y (2i + 1) (2j + 1), and Y (2i + 1) (2j) pixels are all reconstructed with reference to Y (2i) (2j) pixels. That is, since only Y (2i) (2j) pixels corresponding to the initial pixels among the four pixels included in the 2x2 pixel block 22 remain undropped, all three dropped pixels are the initial pixels Y. It is reconstructed with reference to (2i) (2j) pixels.
  • Y23, Y32, and Y33 pixels are all dropped, and all three pixels may be restored by referring to Y22, which is a non-dropped pixel, in the pixel block 22 during the restoration process.
  • the 4x4: 13 pixel drop mode illustrated in FIG. 11 may be considered to be an extension of the 2x2: 1 pixel drop mode of FIG. 8.
  • Y (4i + 2) (4j + 2) pixels are dropped in addition to the dropped pixels in the 2 ⁇ 2: 3 pixel drop mode of FIG.
  • the Y (4i + 2) (4j + 2) pixels are reconstructed with reference to the Y (4i + 2) (4j) pixels, and the remaining dropped pixels are reconstructed in the 2x2: 3 pixel drop mode described with reference to FIG. 10. Same as the process.
  • Y (2i) (2j + 1), Y (2i + 1) (2j + 1), and Y (2i + 1) (2j) pixels are reconstructed with reference to Y (2i) (2j) pixels, respectively.
  • Y (4i + 2) (4j + 2) pixels have been restored with reference to Y (4i + 2) (4j) pixels, as a result, Y (4i + 2) (4j + 3) and Y (4i + 3).
  • Y (4j + 3) (4j + 2) pixels are all reconstructed with reference to Y (4i + 2) (4j) pixels.
  • the pixels reconstructed with reference to the Y24 pixel may be reconstructed with reference to the Y24 pixel as well as the Y26, Y27, Y36, and Y37 pixels as well as Y25, Y34 and Y35.
  • Y (4i) (4j + 2) pixels are dropped as in FIG. 9. That is, two pixels having a reference distance furthest from the initial pixel are Y (4i) (4j + 2) and Y (4i + 2) (4j), but Y (4i), which is a pixel adjacent to the initial pixel in the column direction. (4j + 2) pixels are dropped first. Dropped Y (4i) (4j + 2) pixels are reconstructed with reference to Y (4i) (4j) pixels, respectively, and the reconstruction process for the remaining pixels is as described with reference to FIGS. 10 and 11. However, as in FIG.
  • the Y02 pixel is dropped, the Y02, Y03, Y12, and Y13 pixels are also restored with reference to Y00 along with the Y01, Y10, and Y11 pixels. Meanwhile, the Y21, Y22, Y23, Y30, Y31, Y32, and Y33 pixels may be reconstructed with reference to the Y20 pixel.
  • the 4x4: 15 pixel drop mode is shown.
  • Y (4i + 2) (4j) pixels are dropped.
  • FIG. 5 is a 4x8: 1 pixel drop mode (two drops at 8x8)
  • FIG. 6 is a 4x4: 1 pixel drop mode (four drops at 8x8)
  • FIG. 7 is a 2x4: 1 pixel drop mode ( 8 drops at 8x8)
  • FIG. 8 is a 2x2: 1 pixel drop mode (16 drops at 8x8)
  • FIG. 9 is a 2x2: 2 pixel drop mode (32 drops at 8x8)
  • FIG. 10 is a 2x2: 3 pixel drop mode (48 drops at 8x8)
  • FIG. 11 is a 4x4: 13 pixel drop mode (52 drops at 8x8)
  • FIG. 12 is a 4x4: 14 pixel drop mode (56 drops at 8x8)
  • FIG. 13 is a 4x4: 15 pixel drop Mode (60 drops at 8x8)
  • FIG. 14 is an 8x8: 61 pixel drop mode (61 drops at 8x8)
  • FIG. 15 is an 8x8: 62 pixel drop mode (62 drops at 8x8)
  • FIG. 16 is 8x8: 63 pixels
  • the drop modes (63 drops at 8x8) are shown respectively.
  • the pixel drop process may be performed step by step in the direction of lowering the data rate. That is, it may be performed stepwise in a direction in which the number of pixels dropped in the image data increases.
  • the 2x2: 2 pixel drop mode (32 drops at 8x8) shown in FIG. 9 may be performed before the 4x4: 15 pixel drop mode (60 drops at 8x8).
  • each of the pixel drop modes may be continuously performed in a direction of decreasing data rate. That is, the image data in which the number of pixels determined by the pixel drop mode is dropped may be used as an input for performing the next pixel drop mode. For example, image data dropping four 8x8 references according to the 4x4: 1 pixel drop mode shown in FIG. 6 is input for dropping eight 8x8 references according to the 2x4: 1 pixel drop mode shown in FIG. 7. Can be used as data.
  • each pixel drop mode may be classified based on the number and position of pixels dropped in the pixel block, and information about a pixel to which each dropped pixel is to be recovered is referred to. Can also be classified together.
  • the dropped pixels are Y01 and Y11 pixels in the wireless receiver, and can be restored by referring to the Y00 and Y10 pixels, respectively.
  • the Dropping Index which is indexing information for indicating the position and number of pixels dropped in the pixel block, includes a size of a pixel block, a format of a pixel difference transformation, Various settings may be made according to a combination of a color format of the image data and other additional information.
  • the adjustment of the data rate with pixel drop can be done at any time in the reverse order as the condition of the radio channel improves or if a higher data rate is possible.
  • the pixels dropped in each pixel block 22 are selected based on two criteria. First, the pixels to be dropped are selected to be evenly distributed in the image data (or image frame) in order to minimize image degradation. Secondly, the pixel farthest from the initial pixel in the pixel block constituting the pixel block is selected to be dropped first.
  • FIG. 17 is a flowchart illustrating a step-by-step data rate adjustment method in the wireless transmitter 11 (FIG. 1) according to an embodiment of the present invention.
  • a clock is transmitted from the wireless transmitter 11, the image input module 13, the transmitter 14, the pixel drop module 110, and the data transmission module 120 shown in FIGS. 1 and 2. It consists of steps that are thermally processed.
  • FIG. 18 is a flowchart illustrating a method of restoring image data received by the wireless receiver 12 according to an exemplary embodiment.
  • the receiver 15 in the wireless receiver 12, the receiver 15, the data receiving module 130, the pixel reconstruction module 140, and the image reproducing module 16 shown in FIGS. 1 and 2. It consists of steps that are processed in time series. Therefore, even if omitted below, it can be seen that the above descriptions with respect to the components shown in FIGS. 1 and 2 also apply to the flowcharts shown in FIGS. 17 and 18.
  • the wireless transmitter selects a pixel block size for image data.
  • the size of the pixel block may be determined according to the capacity of the memory buffer of the wireless receiver, the format of the image data, and the type of the content.
  • Information about the size of the selected pixel block may be obtained using the BlockMode field of the image data transmitted through the wireless channel.
  • step 320 it is determined whether sufficient bandwidth is available for transmitting the image data. If available, proceed to step 350; if not, proceed to step 330.
  • the wireless transmitter drops at least one pixel per pixel block.
  • a reference distance from the initial pixel included in the pixel block may drop from the farthest pixel.
  • step 340 it is determined whether the data rate at which one or more pixels transmit the dropped image data is small enough relative to the available bandwidth. If small enough, go to step 350; otherwise, go to step 330. That is, if the data rate is not low enough, the pixel drop process may be further performed step by step. The data rate may be lowered by changing the pixel drop mode in a direction in which the number of dropped pixels increases.
  • the pixel-dropped image data is packetized and transmitted to the wireless receiver through a wireless channel.
  • information about the pixel drop mode, the size of the pixel block, and the number of dropped pixels may be hierarchically classified, and the result may be indexed to transmit the indexing information along with the image data packet.
  • steps 320 to 340 may be performed by an application of the wireless transmitter 11 and the PAL layer 13 (or an audio video control layer (AVC)). Certain tasks such as packetization may also be associated with the MAC layer 14M of the wireless transmitter 11.
  • AVC audio video control layer
  • FIG. 18 shows a flowchart of a method of receiving image data and reconstructing pixels at a wireless receiver 12 in accordance with an embodiment of the present invention.
  • the wireless receiver receives a data packet transmitted over a wireless channel.
  • Received packets can be depacketized
  • the wireless transmitter checks whether there are dropped pixels through a pixel drop process. In this case, the indexing information transmitted in operation 350 of FIG. 17 may be obtained and confirmed. If present, the process proceeds to step 430, if not present, the process ends.
  • the dropped pixels may be reconstructed by obtaining information about the size of the pixel block, the number of dropped pixels, and the pixels to be referred to from the indexing information.
  • This reconstruction process is a reversal process that proceeds in the reverse order of the pixel drop process. That is, based on the number of dropped pixels and the size of the pixels, the dropped pixels may be reconstructed with reference to the pixel having the closest reference distance to the dropped pixels.
  • step 430 may be performed at the application & PAL layer 16 (or AVC layer) in the wireless receiver 12.
  • Depacketizing in step 410 may be performed by a depacketizing module included in the MAC layer 15M of the wireless receiver 12.
  • the above-described methods may be written as a program executable on a computer, and may be implemented in a general-purpose digital computer operating the program using a computer readable medium.
  • the structure of the data used in the above-described method can be recorded on the computer-readable medium through various means.
  • Program storage devices that may be used to describe storage devices that include executable computer code for performing the various methods of the present invention should not be understood to include transient objects, such as carrier waves or signals. do.
  • the computer readable medium includes a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.), an optical reading medium (eg, a CD-ROM, a DVD, etc.).
  • the data rate in transmitting image data through a wireless channel, can be adjusted step by step according to the available bandwidth.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Quality & Reliability (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

영상 데이터의 데이터 전송률을 감소시키기 위하여, 영상 데이터를 구성하는 픽셀 블록들 마다 적어도 하나의 픽셀을 드랍하고, 일부 픽셀이 드랍된 영상 데이터를 송신하는 데이터 송신 방법 및 장치, 일부 픽셀의 데이터 값이 드랍된 영상 데이터를 수신하고, 수신된 픽셀들의 데이터 값을 참조하여 드랍된 픽셀들을 복원하는 데이터 수신 방법 및 장치가 개시된다.

Description

무선 통신 시스템에서의 데이터 전송률 조절 방법 및 장치
본 발명은, 무선 통신에 관한 것이며, 구체적으로는 영상 데이터를 전송하는 통신에 관한 것이다.
영상의 해상도가 증가함에 따라 HD 영상을 사용하는 전자 장치들의 수가 증가하고 있다. 종래에 대부분의 장치들은 장치들간에 데이터 전송이 가능하도록 수 Gbps 근방의 대역폭이 가능한 HD 영상을 작은 크기로 압축한다. 그러나, 이와 같은 영상의 압축 및 압축 복원에 있어서 일부 영상 정보가 소실되거나 픽쳐의 화질이 열화될 수 있다.
이와 같은 무선 통신 시스템에서는 영상 스트림이 전송되기 전에 연결 설정 및 채널 대역폭 할당이 수행된다. 충분한 대역폭이 할당될 수 있고, 스트림 구성에 대한 제어를 완료한 뒤 영상 스트림이 전송되도록 하는 것이 바람직하다. 그러나, 동일한 채널내에서 진행중인 다른 전송에 의하여 충분한 채널 대역폭이 확보되지 못할 수 있다. 또한, 무선 채널의 품질은 시간에 따라 동적으로 변한다. 특히, 빔 형성(beamformed)된 전송이 수행되는 60 GHz 대역 무선 채널에서는, 사람의 움직임에 의해서도 채널이 영향을 받을 수 있다.
무선 통신 시스템에 있어서, 비압축 영상 데이터에 대하여 데이터 전송률을 조절하여 전송하고, 수신된 영상 데이터에 포함된 픽셀들을 복원하기 위한 기술적 과제가 존재한다.
본 발명에서는, 비압축 영상 데이터를 구성하는 픽셀 블록들에 대하여, 픽셀 간의 참조 거리에 기초하여 픽셀 드랍(pixel dropping)을 수행함으로써, 영상 데이터를 전송하는 과정에서 데이터 전송률(data rate)을 감소시키는 방법 및 장치가 제공된다.
또한, 픽셀 드랍이 수행된 비압축 영상 데이터를 수신하고, 픽셀 블록 마다 드랍된 픽셀들을 복원하는 방법 및 장치가 제공된다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.
상술한 바에 따르면, 비압축 영상 데이터를 전송함에 있어서, 무선 채널의 환경 및 대역폭에 기초하여 데이터 전송률을 조절할 수 있게 된다.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 본 발명의 일 실시 예와 관련하여, 무선 채널을 통하여 영상 데이터를 전송하기 위한 데이터 전송률 조절 시스템에 관한 블록도를 나타낸다.
도 2는 본 발명의 일 실시 예에 따른 도 1의 시스템에 대한 블록도를 더 상세히 나타낸다.
도 3은 본 발명의 일 실시 예에 따른 픽셀들의 2차원적인 비압축 영상 프레임에 관한 예시를 도시한다.
도 4 내지 도 16은, 본 발명의 일 실시 예와 관련된 영상 데이터에 대하여, 픽셀 블록 마다 적어도 하나의 픽셀을 단계적으로(progressively) 드랍하여 데이터 전송률을 조절하는 예시를 도시하는 도면이다.
도 17은, 본 발명의 일 실시 예에 따라 무선 송신기가 영상 데이터를 전송할 때, 단계적으로 데이터 전송률을 조절하는 과정을 도시한 흐름도이다.
도 18은, 본 발명의 일 실시 예와 관련하여, 무선 수신기가 데이터 전송률이 조절된 영상 데이터를 수신하고, 영상 데이터를 복원하는 도시한 흐름도이다.
상기 기술적 과제를 해결하기 위하여 영상 데이터를 무선으로 송신하는 방법은, 영상 데이터의 데이터 전송률을 감소시키기 위하여, 영상 데이터를 구성하는 픽셀 블록들 마다 적어도 하나의 픽셀을 드랍하는 단계, 및 일부 픽셀의 데이터 값이 드랍된 영상 데이터를 송신하는 단계를 포함한다.
상기 기술적 과제를 해결하기 위한 일 실시 예에 의하면, 픽셀 블록은 공간적으로 인접한 하나 이상의 픽셀들로 구성되며, 적어도 하나의 픽셀을 드랍하는 단계는, 영상 데이터의 BlockMode 필드를 이용하여 획득된 픽셀 블록의 크기에 대한 정보에 기초하여, 적어도 하나의 픽셀을 드랍하는 단계인 것을 특징으로 한다.
상기 기술적 과제를 해결하기 위한 일 실시 예에 의하면, 적어도 하나의 픽셀을 드랍하는 단계는, 영상 데이터가 송신되는 무선 채널의 대역폭에 기초하여 데이터 전송률을 추가적으로 감소시키기 위하여, 단계적으로 픽셀을 드랍하는 단계를 더 포함한다.
상기 기술적 과제를 해결하기 위한 일 실시 예에 의하면, 단계적으로 픽셀을 드랍하는 단계는, 픽셀 블록의 크기 및 드랍되는 픽셀의 개수 중 적어도 하나를 단계적으로 변경하며 드랍하는 단계인 것을 특징으로 한다.
상기 기술적 과제를 해결하기 위한 일 실시 예에 의하면, 픽셀을 드랍하는 단계는, 픽셀 블록에 포함된 초기 픽셀과의 참조 거리가 가장 먼 픽셀부터 드랍하는 것을 특징으로 한다.
상기 기술적 과제를 해결하기 위한 일 실시 예에 의하면, 픽셀을 드랍하는 단계는, 픽셀 블록 내에서 균등한 위치에서 선택된 픽셀들을 드랍하는 단계인 것을 특징으로 한다.
상기 기술적 과제를 해결하기 위한 일 실시 예에 의하면, 송신하는 단계는, 복수 개의 픽셀 드랍 모드를, 드랍되는 픽셀의 위치 및 개수에 따라 계층적으로 분류하는 단계, 및 드랍된 픽셀의 위치 및 개수에 대응되는 픽셀 드랍 모드를 나타내는 인덱싱 정보를 영상 데이터와 함께 전송하는 단계를 포함하는 것을 특징으로 한다.
상기 기술적 과제를 해결하기 위하여 영상 데이터를 무선으로 수신하는 방법은, 일부 픽셀의 데이터 값이 드랍된 영상 데이터를 수신하는 단계, 수신된 픽셀들의 데이터 값을 참조하여, 드랍된 픽셀들을 복원하는 단계를 포함한다.
상기 기술적 과제를 해결하기 위한 일 실시 예에 의하면, 드랍된 픽셀들을 복원하는 단계는, 복원할 픽셀을 포함하는 픽셀 블록 내에서, 복원할 픽셀과의 참조 거리가 가장 가까운 픽셀을 참조하여 복원한다.
상기 기술적 과제를 해결하기 위한 일 실시 예에 의하면, 수신하는 단계는, 드랍된 픽셀의 위치 및 개수에 대한 인덱싱 정보를 영상 데이터와 함께 수신하는 것을 특징으로 한다.
상기 기술적 과제를 해결하기 위한 일 실시 예에 의하면, 드랍된 픽셀들을 복원하는 단계는, 드랍된 픽셀들을 복원하는 단계는, 인덱싱 정보를 참조하여, 드랍된 픽셀들을 복원하는 단계인 것을 특징으로 한다.
상기 기술적 과제를 해결하기 위하여, 영상 데이터를 무선으로 송신하는 무선 송신기는, 영상 데이터의 데이터 전송률을 감소시키기 위하여, 영상 데이터를 구성하는 픽셀 블록들 마다 적어도 하나의 픽셀을 드랍하는 픽셀 드랍 모듈, 및 일부 픽셀이 드랍된 영상 데이터를 송신하는 데이터 송신 모듈을 포함한다.
상기 기술적 과제를 해결하기 위하여, 영상 데이터를 무선으로 수신하는 무선 수신기는, 일부 픽셀의 데이터 값이 드랍된 영상 데이터를 수신하는 데이터 수신 모듈, 및 수신된 픽셀들의 데이터 값을 참조하여, 드랍된 픽셀들을 복원하는 픽셀 복원 모듈을 포함한다.
상기 기술적 과제를 해결하기 위한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.
발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "...모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
이하에서, 송수신되는 영상 데이터는 영상 정보인 복수 개의 픽셀들을 포함한다. WiGig(Wireless Gigabit Alliance) 표준 규격에 의하면, 무선 채널의 사용 가능한 대역폭에 기초하여 데이터 전송률이 동적으로 조절되는 비압축 영상 데이터를 WSP(WiGig Spatial Processing) 포맷이라고 명명하고 있다. 비압축 영상 데이터가 WSP 포맷인지에 대한 정보는, 전송되는 패킷의 피쳐 리스트 필드(FeatureList field)에 포함될 수 있다. WSP 포맷은, 2D 영상 데이터뿐만 아니라 3D 영상 데이터에도 적용될 수 있다.
이하에서는 도면을 참조하여 본 발명의 실시 예 들을 상세히 설명한다.
도 1은 본 발명의 일 실시 예에 따라, 무선 채널(10)을 통하여 무선 송신기(11)로부터 무선 수신기(12)로 영상 데이터를 전송하기 위한 무선 통신 시스템을 도시하는 블록도이다. 전송되는 영상 데이터는, WSP 포맷일 수 있다.
무선 송신기(11)에서 영상 입력 모듈(13)은 비압축 영상을 포함하는 정보를 여러 가지 종류의 유선 또는 무선 인터페이스를 통하여 송신부(14)에 제공할 수 있다. 영상 입력 모듈(13)은, 예를 들면 영상 디코더 또는 비압축 HD 영상 기록부가 될 수 있다.
송신부(14)는 무선 채널(10)을 통하여 영상 데이터를 무선 수신기(12)내의 수신부(15)로 전달하기 위하여 밀리미터 파(mmWave) 무선 기술을 사용할 수 있다. 480p와 같은 더 낮은 영상 포맷을 위해서 UWB(Ultra Wide Band) 또는 802.11n과 같은 다른 무선 기술이 사용될 수도 있다.
무선 수신기(12)의 수신부(15)는 수신된 정보를 또다른 유선 또는 무선 인터페이스를 통하여 영상 재생 모듈(16) 에 제공할 수 있다. 영상 재생 모듈(16)은, 예를 들어 HDTV, 모니터, 프로젝터 등이 될 수 있다.
무선 송신기(11)는, 데이터 전송률 조절된 영상 데이터를 생성하기 위하여, 영상 데이터에 포함되는 복수 개의 픽셀들에 대한 데이터 값 중, 선택된 픽셀들의 정보를 드랍(drop)할 수 있다. 송신부(14)에 포함된 픽셀 드랍 모듈(110)은, 전송되는 영상 데이터의 데이터 전송률(data rate)이 무선 채널(10)의 환경 또는 대역폭에 비하여 충분히 낮지 않다면, 단계적으로(progressively) 픽셀 드랍 과정을 수행하여 데이터 전송률을 낮출 수 있다.
무선 송신기(11)는, 데이터 전송률이 조절된 영상 데이터를 무선 채널(10)을 통하여 무선 수신기(12)로 전송하는 데이터 송신 모듈(120)을 더 포함할 수 있다.
무선 수신기(12)에 포함되는 수신부(15)는, 무선 송신기(11)와 대응되도록, 무선 통신을 위한 데이터 수신 모듈(130) 및 데이터 전송률이 조절되기 전의 영상 데이터를 복원하기 위하여 픽셀 드랍 모듈(110)의 작업을 역행적으로(regressively) 수행하는 픽셀 복원 모듈(140)을 포함할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 무선 채널(10)을 포함하는 무선 통신 시스템에 있어서, 데이터 전송률을 조절하여 영상 데이터를 전송하는 실시 예를 더 상세히 도시한 도면이다.
무선 송신기(11)의 영상 입력 모듈(13)은, 영상 스트림을 송신부(14)내의 MAC 계층(14M)으로 계속하여 스트리밍하는 어플리케이션 & PAL(Protocol Adaptation Layer) 계층을 포함할 수 있다. MAC 계층(14M)은 영상 스트림을 MAC 패킷들로 패킷화하고, 무선 채널(10)을 통하여 무선 수신기(12)로 전송하기 위하여 패킷들을 물리(PHY)계층(14P)으로 전송할 수 있다.
무선 수신기(12)에서, 수신부(15)내의 PHY 계층(15P)은 패킷들을 수신하고, 패킷들을 MAC 계층(15M)에 제공할 수 있다. MAC 계층(15M)은 패킷들을 디패킷화(depacketizing) 한 후 영상 재생 모듈(16)에 영상 정보를 제공할 수 있다. 영상 재생 모듈(16)은, 어플리케이션 & PAL 계층을 포함할 수 있다.
본 발명의 일 실시 예에 따르면, 무선 송신기(11)의 MAC 계층(14M)에서는 픽셀 분할(partitioning)을 위한 픽셀 블록(pixel block)의 크기 및 형태에 기초하여, 영상 입력 모듈(13)에 의하여 제공된 영상 스트림으로부터 영상 패킷들을 생성한다. NxM으로 표현되는 픽셀 블록은, N 개의 픽셀 열(row)과 M 개의 픽셀 행(column)을 갖는 인접한 영상 픽셀들의 집합을 의미할 수 있다. 영상 패킷들을 생성하는 과정에서, 픽셀 블록 내의 픽셀들은 분리되어 서로 다른 픽셀 파티션들에 각각 위치할 수 있다.
도 3은, 복수 개의 픽셀(21)들의 2차원적인 비압축 영상 프레임(20)의 예시를 도시한다. 복수 개의 픽셀들(21)은 그림상으로 심볼(symbol) 'O'에 의하여 표현되며, 각각의 픽셀들(21)은 배치되는 열과 행에 따라 Yij(i, j=0, 1, 2, ...)로 그 위치가 표현될 수 있다.
본 실시 예에서, 2x2 픽셀 블록(22)은 복수 개의 픽셀(21)들을 네 개의 픽셀 파티션들(23)(각각, 파티션0, 파티션1, 파티션2, 파티션3)에 맵핑 시키는데 사용된다. 픽셀 파티션들(23)은 송신부(14)의 MAC 계층(14M)에서 패킷들에 삽입되며, 송신부 PHY 계층(14P)를 거쳐 무선 채널(10)을 통하여 무선 수신기(12)로 전송된다. 수신부(15)의 수신부 PHY 계층(15P)에서 수신된 패킷들은 MAC 계층(15M)에서 디패킷화(depacketize) 될 수 있다.
픽셀 블록(22)의 크기는 무선 수신기(12)의 메모리 버퍼의 용량, 영상 데이터의 포맷 및 컨텐츠의 종류에 따라 결정될 수 있다. 예를 들어, 칩(chip) 내의 버퍼 용량의 제한에 의하여 8 개의 열(row)들의 영상 데이터가 버퍼링 된다면, 최대 픽셀 블록 크기는 8xM(M=1, 2, 3, ...)이 될 수 있다. 컨텐츠의 종류, 영상의 해상도 및 포맷 또한 픽셀 블록(22) 크기의 선택에 영향을 미칠 수 있다. 일 실시 예에 의하면, 픽셀 블록(22)의 크기에 대한 정보는, 무선 채널(10)을 통해 전송되는 영상 데이터의 BlockMode 필드에 저장될 수 있다.
동일한 픽셀 블록 내의 픽셀들은 일반적으로 유사한 값을 갖는다. 1920x1080과 같은 고해상도 영상에서는, 8x8 픽셀 블록 내의 픽셀들이 매우 유사한 값을 갖는 것이 일반적이다. 그러나, 800x600과 같은 더 낮은 해상도를 갖는 영상에서는 일반적으로 4x4 픽셀 블록 내의 픽셀들이 유사한 값을 가지며, 8x8은 픽셀 블록의 크기로써 너무 클 수도 있다. 픽셀 블록에 포함되는 픽셀들은 공간적으로 연관될 수 있다.
본 발명의 일 실시 예에 따르면, 실제로 할당된 무선 채널(10)의 대역폭이 영상 입력 모듈(13)로부터 전송되는 영상 스트림에 요구되는 데이터 전송률을 수용할 수 있다면, 픽셀 블록(22)내의 모든 픽셀의 데이터 값이 전송된다. 그러나, 무선 채널(10)의 대역폭이 요구되는 데이터 전송률을 수용할 수 없다면, 데이터 전송률을 낮추기 위하여 단계적인 레이트 조절(progressive rate adaptation)이 수행된다.
일 실시 예에서, 단계적인 레이트 조절은, 단계적인 픽셀 드랍(PPDR, progressive pixel dropping) 과정을 포함할 수 있다. 일 실시 예에 의하면, 단계적인 픽셀 드랍 과정 이외에도 단계적인 픽셀 차 변환(PPDT, Progressive Pixel Differential Transformation) 과정이 수행될 수 있다.
이하에서는, 도 4 내지 도 16을 통해 단계적인 픽셀 드랍 과정을 이용하여 영상 데이터의 데이터 전송률을 조절하는 과정에 대해 자세히 설명한다.
도 4 내지 도 16에서, 원형의 심볼 '○'은 차 변환 되지 않은 원래의 픽셀 값을 나타내며, 삼각형 심볼 '△'은 단계적인 픽셀 차 변환 과정이 수행된 결과를 나타낸다. 즉, 도 4에서 Y00 픽셀은 차 변환이 수행되지 않은 픽셀이고, 삼각형 심볼로 표현되는 나머지 픽셀들은 화살표 방향에 따라 근접한 픽셀과의 차이 값 만을 부호화한 결과를 나타낸다. 즉, Y01 픽셀의 경우, Y00 픽셀과의 차이 값 만을 부호화한 결과이며, Y02 픽셀은 Y01 픽셀과의 차이 값 만을 부호화한 결과를 나타낸다. 즉, Y00 픽셀은, 별도의 변환 과정 없이 원 픽셀의 값이 그대로 전송되고, 픽셀 블록(22) 내의 초기 픽셀을 제외한 나머지 픽셀들은 Y00 픽셀로부터 도시된 바와 같은 화살표 방향 순서에 따라, 전술한 픽셀 차 변환 과정을 통해 이전 참조 픽셀과의 차이 값 만이 픽셀 값으로 전송될 수 있다.
픽셀 차 변환을 통해서, 각각의 픽셀의 원래 값 대신, 근접한 픽셀과의 차이 값 만을 전송할 수 있게 되고, 영상 데이터를 전송하는데에 필요한 데이터 전송률을 줄일 수 있게 된다.
이러한 픽셀 차 변환 과정은, 단계적인 픽셀 드랍 과정에 앞서서 수행될 수 있으며, 픽셀 차 변환 과정 없이 단계적인 픽셀 드랍 과정만이 수행될 수도 있다. 전자의 경우, 드랍되는 픽셀들은 원래의 값이 아닌 근접한 픽셀과의 차이 값이지만, 후자의 경우, 픽셀의 원래 값들이 드랍된다.
본 발명의 일 실시 예에 따르면 무선 송신기에서 비압축 영상 데이터에 대하여 데이터 전송률을 감소시키고 영상 품질의 안정성 및 수용 가능성을 유지하기 위하여, 하나 또는 그 이상의 픽셀 파티션들을 단계적으로 드랍할 수 있다. 영상 품질을 수용가능 하도록 유지하고 수신단에서의 픽셀 복구 및 에러 복원을 용이하게 하기 위하여, 무선 송신기는 드랍할 픽셀들을 각각의 영상 데이터(또는, 영상 프레임) 내에서 균등하게 선택할 수 있다.
도 4에 의하면, 본 발명의 일 실시 예 따른 픽셀 드랍 과정은, 픽셀 드랍 모드(pixel dropping mode)에 의해 정의될 수 있다. 각각의 픽셀 드랍 모드는, NxM:k 로 표현될 수 있으며(N, M=1, 2, 3, ..., k=1, 2, 3, ...) 영상 프레임(20)내의 N개의 열과 M개의 행으로 구성되는 NxM 크기의 픽셀 블록(22)에서 드랍되는 k 개의 픽셀수를 의미할 수 있다.
각각의 픽셀 드랍 모드에서는, 픽셀 블록(22) 내의 첫 번째 픽셀인 초기 픽셀로부터의 참조 거리에 기초하여 드랍되는 픽셀이 선택될 수 있다. 픽셀 블록(22) 내의 첫 번째 픽셀인 초기 픽셀은, 픽셀 블록(22) 내에서 열과 행의 순서가 가장 빠른 Y00 픽셀을 의미할 수 있다. 즉, 초기 픽셀은, 별도의 변환 과정 없이 원 픽셀의 값이 그대로 전송되는 픽셀을 의미하며, 픽셀 블록(22) 내에서 초기 픽셀을 제외한 나머지 픽셀들은 초기 픽셀로부터 전술한 픽셀 차 변환 과정을 통해 이전 참조 픽셀과의 차이 값 만이 픽셀 값으로 전송될 수 있다.
참조 거리(reference distance)는, 선택된 픽셀이 픽셀 블록(22) 내의 초기 픽셀 로부터 공간적으로 인접한 거리를 의미할 수 있다. 즉, 픽셀 블록(22) 내에서 열과 행의 위치에 따라 Yij (i=0, 1, 2, ..., N-1)(j=0, 1, 2, ..., M-1)로 표현되는 각각의 픽셀들은, Y00 인 초기 픽셀로부터 i+j 만큼의 참조 거리를 가진다. 또 다른 실시 예에 의하면, 참조 거리는 선택된 픽셀과 초기 픽셀을 연결하는 화살표의 개수로도 표현될 수 있다.
예를 들면, 도 4의 Y03 픽셀은, 초기 픽셀인 Y00으로부터 0+3=3 만큼의 참조 거리를 가지며, 가장 오른쪽 하단의 Y77 픽셀은, 7+7=14 만큼의 참조 거리를 가진다. 이러한 참조 거리는, 픽셀 블록(22) 내에서 드랍할 픽셀의 순서를 결정하는 데에 이용될 수 있다.
도 4에 도시된 실시 예를 살펴보면, 초기 픽셀인 Y00 픽셀로부터 참조 거리가 가장 먼 픽셀인 Y77 픽셀이 제일 먼저 드랍된다. 이러한 방법에 따라 목표 픽셀을 드랍하는 것이 수신단에서의 영상 화질과 관련된 다른 픽셀에 미치는 영향을 감소시킨다.
일 실시 예에 의하면, 픽셀 블록(22) 내에서 초기 픽셀과의 참조 거리가 가장 먼 픽셀이 두 개인 경우, 열 방향의 픽셀을 먼저 드랍할 수 있다. 이에 대해서는 도 9에서 다시 살펴본다.
도 4는 본 발명의 일 실시 예에 따른 8x8:1 픽셀 드랍 모드에 관한 일 예를 나타내며, 픽셀 블록(22)의 크기는 8x8이고 드랍되는 픽셀의 개수는 k=1이다. 따라서, 8x8:1 픽셀 드랍 모드에서는 복수 개의 픽셀들 중에서 픽셀 Y(8i+7)(8j+7)가 드랍된다. 즉, 본 실시 예에서는 N=8, M=8, k=1이며 각각의 8x8 픽셀 블록 내의 Y(8i+7)(8j+7)로 지칭되는 픽셀들이 드랍된다. 즉, 64 개의 픽셀들을 포함하는 픽셀 블록 마다 1개의 픽셀이 드랍된다.
픽셀 드랍 과정을 통해 데이터 전송률이 대역폭에 비해 충분히 작아지면, 드랍된 픽셀들을 제외한 영상 데이터는 패킷화되어(packetized), 무선 채널을 통해 무선 수신기로 전송될 수 있다.
이하에서는, 8x8:1 픽셀 드랍 모드에 따라 수신된 영상 데이터를 복원하는 방법에 대해 자세히 설명한다. 무선 수신기는, 패킷화된 영상 데이터를 수신하고, 디패킷화(depacketizing) 할 수 있다. 이어서, 영상 데이터에 포함된 픽셀 드랍 모드에 관한 정보를 획득하여, 드랍된 픽셀들을 복원할 수 있다. 드랍된 픽셀에 관한 픽셀 드랍 모드 정보는, NxM:k 로 나타나는 픽셀 드랍 모드에 대한 인덱스 정보일 수 있으며, 픽셀 블록의 크기 및 드랍되는 픽셀의 개수에 대한 정보일 수 있다.
도 4에 도시된 8x8:1 픽셀 드랍 모드에 의해 64개 픽셀 마다 1개의 픽셀이 드랍된 데이터가 수신되면, 픽셀 복원 모듈은 복원할 픽셀과의 참조 거리가 가장 가까운 픽셀의 데이터 값을 참조하여 복원한다. 즉, 픽셀 블록(22) 에서 Y77 픽셀이 드랍된 경우, Y76 픽셀의 데이터 값을 참조하여 Y77의 픽셀 값을 복원할 수 있다.
픽셀 블록(22) 내에서 초기 픽셀과의 참조 거리가 동일한 픽셀이 두 개인 경우, 열 방향으로 근접한 픽셀의 데이터 값을 참조하여 복원할 수 있다. 즉, Y77 과 공간적인 위치가 가장 가까운 두 픽셀은 Y76 과 Y67이 있으나, 열 방향으로 근접한 픽셀인 Y76을 참조하여 Y77이 복원될 수 있다.
이러한 픽셀 복원 순서는, 도 4 내지 도 16에서 화살표로 표현되며, 화살표는 각각 드랍된 픽셀을 복원하는 과정에서 참조하는 참조 픽셀을 의미할 수 있다. 예를 들어, Y76 -> Y77은, Y76을 참조하여 Y77 픽셀이 복원되는 것을 의미할 수 있다.
도 5에서는, 4x8:1 픽셀 드랍 모드를 도시하며, 드랍 과정과 복원 과정에 대하여 자세히 살펴본다. 픽셀 블록(22)은 4개의 열과 8개의 행으로 구성되며, 픽셀 블록(22) 마다 1개의 픽셀이 드랍되어 8x8 개의 픽셀 기준으로는 2개의 픽셀이 드랍된다.
4x8:1 픽셀 드랍 모드에 있어서, Y(4i+3)(8j+7) 픽셀들이 드랍된다. 즉, 도 5에 도시된 픽셀들 중에서는 Y37 및 Y77 픽셀들이 드랍된다. 위쪽 픽셀 블록(22)에서는, 초기 픽셀인 Y00으로부터 가장 먼 참조 거리를 가지는 Y37 픽셀이 드랍된다. 도 5에 도시되지는 않았으나, 아래쪽 픽셀 블록에서는, 초기 픽셀인 Y40으로부터 가장 먼 참조 거리를 가지는 Y77 픽셀이 드랍된다.
이러한 4x8:1 픽셀 드랍 모드에 따른 픽셀 드랍 과정은, 도 4에 도시된 8x8:1 픽셀 드랍 모드에 따른 출력에 이어서 Y37 픽셀을 드랍하는 과정이 단계적으로 수행될 수도 있다. 즉, 8x8:1 픽셀 드랍 모드에 따른 데이터 전송률이 대역폭에 비해 충분히 낮지 않은 경우, 이어서 4x8:1 픽셀 드랍 모드에 따라 추가적으로 데이터 전송률을 낮출 수 있다.
다시 말해서, 픽셀 드랍 모드에 따라 픽셀을 드랍한 결과 여전히 대역폭이 충분하지 않다면, 무선 송신기는 픽셀 드랍 모드를 변경할 수 있다. 즉, N1xM1:k1로 표현되는 제1 픽셀 드랍 모드에서, N2xM2:k2로 표현되는 제2 픽셀 드랍 모드로 변경하여 단계적인 픽셀 드랍 과정이 수행될 수 있다.
일 실시 예에 의하면, N1>N2, M1>M2, k1<k2 를 만족하는 값을 통해, 영상 데이터에서 드랍되는 픽셀의 개수를 증가시킬 수 있다. 또 다른 실시 예에 의하면, 열(N) 및 행(M) 중 어느 하나를 고정시키고, 다른 하나를 변경하여 제2 픽셀 드랍 모드를 선택할 수 있다. 다시 후술하겠지만, 2x2:3 픽셀 드랍 모드에서 4x4:13 픽셀 드랍 모드로 변경하여 단계적 픽셀 드랍 과정을 수행할 수도 있다. 즉, 단계적으로 픽셀 드랍 과정을 수행하는 데에 있어서, 픽셀 드랍 모드를 변경하는 방법은 상술한 내용에 한정되지 않으며, 여러 가지 방법을 통해 픽셀 드랍 모드가 단계적으로 변경될 수 있다.
이어서, 4x8:1 픽셀 드랍 모드에 따라 데이터 전송률이 조절된 데이터를 복원하는 과정을 살펴보면, Y37 픽셀과 가장 가까운 참조 거리를 가지는 Y36 및 Y27 픽셀들 중에서, 열 방향으로 근접한 픽셀인 Y36 을 참조하여 Y37이 복원될 수 있다. Y77 픽셀도 대해서도 마찬가지로, Y76을 참조하여 복원될 수 있다.
도 6에서 도시하는 4x4:1 픽셀 드랍 모드를 살펴보면, 드랍 과정에서는 픽셀 블록(22) 마다 Y(4i+3)(4j+3) 픽셀들이 각각 드랍된다. 앞서 설명한 바와 같이, 8x4:1 픽셀 드랍 모드로부터 데이터 전송률을 충분히 낮추지 못한 경우, 연속적으로 4x4:1 픽셀 드랍 모드가 수행될 수도 있다. 복원 과정에서는, Y33 픽셀은 Y32 픽셀을, Y73 픽셀은 Y72픽셀을 참조하여 영상 데이터를 복원할 수 있다. Y37 픽셀과 Y77 픽셀에 대해서는 도 5에서 살펴본 바와 같다.
도 7에서 도시하는 2x4:1 픽셀 드랍 모드를 살펴보면, 각각의 픽셀 블록(22) 마다 Y(2i+1)(4j+3) 픽셀들이 드랍된다. (8x8 기준으로는 8개의 픽셀이 드랍된다) 예를 들면, Y13, Y17, Y33, Y37 등의 픽셀들이 드랍된다.
이어서, 복원 과정에서는 드랍된 픽셀과의 참조 거리가 가장 가까운 픽셀들인 Y(2i+1)(4j+2) 픽셀들이 각각 참조된다. 즉, Y13은 Y12를, Y17은 Y16을, Y33은 Y32를, Y37은 Y36을 각각 참조하여 복원될 수 있다.
도 8에서 도시하는 2x2:1 픽셀 드랍 모드에 따르면, Y(2i+1)(2j+1) 픽셀들이 드랍된다. 복원 과정에서는, 각각 Y(2i+1)(2j) 픽셀들이 참조되어 복원 과정이 수행된다. 도면에 도시된 예를 통해 살펴보면, 드랍된 픽셀인 Y31은 Y30을, Y71은 Y70을, Y17은 Y16을, Y57은 Y56을 각각 참조하여 복원될 수 있다.
도 9에서는, 2x2:2 픽셀 드랍 모드가 도시되며, 복수 개의 픽셀 중 절반의 픽셀이 드랍되는 과정을 도시한다. 앞서 설명한 내용과 마찬가지로, 도 8의 2x2:1 픽셀 드랍 모드에 추가하여, 2x2:2 픽셀 드랍 모드가 수행될 수 있다.
픽셀 드랍 과정에 있어서는, Y(2i)(2j+1) 및 Y(2i+1)(2j+1) 픽셀들이 드랍된다. 예를 들어, Y10, Y12, Y34, Y36 등이 해당된다. 픽셀 블록(22)에 포함된 초기 픽셀로부터 참조 거리가 가장 먼 픽셀은 Y(2i)(2j+1) 픽셀 및 Y(2i+1)(2j) 픽셀들이 있는데 (각각 초기 픽셀로부터의 참조 거리 '2'), 초기 픽셀과 열 방향으로 근접한 픽셀인 Y(2i)(2j+1) 픽셀이 드랍된다. 즉, Y00 픽셀과 참조 거리가 가장 가까운 픽셀은 Y01 및 Y10이 존재하는데, 열 방향의 참조 거리가 가까운 Y01이 먼저 드랍될 수 있다.
픽셀 복원 과정에 있어서, Y(2i)(2j+1) 픽셀들은 각각 Y(2i)(2j) 픽셀들을 참조하여 복원되고, Y(2i+1)(2j+1) 픽셀들에 대해서는 도 8에서 살펴본 바와 같이 Y(2i+1)(2j) 픽셀들을 참조하여 복원된다. 예를 들면, Y03은 Y02를, Y47은 Y46을, Y63은 Y62를 각각 참조하여 복원될 수 있다.
도 10에서는, 2x2:3 픽셀 드랍 모드가 도시되며, 도 9의 2x2:2 픽셀 드랍 모드에서 드랍된 픽셀들에 추가하여 Y(2i+1)(2j) 픽셀들이 드랍된다. 2x2:3 픽셀 드랍 모드에 따라 드랍된 픽셀들을 복원하는 과정에서, Y(2i)(2j+1), Y(2i+1)(2j+1), 및 Y(2i+1)(2j) 픽셀들은 모두 Y(2i)(2j) 픽셀들을 참조하여 복원된다. 즉, 2x2 크기의 픽셀 블록(22)에 포함되는 4개의 픽셀들 중 초기 픽셀에 해당하는 Y(2i)(2j) 픽셀 만이 드랍되지 않고 남아있기 때문에, 드랍된 3개의 픽셀들은 모두 초기 픽셀인 Y(2i)(2j) 픽셀을 참조하여 복원된다.
예를 들면, Y23, Y32, Y33 픽셀은 모두 드랍되며, 복원 과정에서 픽셀 블록(22)에서 드랍되지 않은 픽셀인 Y(22)를 참조하여 세 픽셀 모두 복원될 수 있다.
도 11에 도시된 4x4:13 픽셀 드랍 모드는, 도 8의 2x2:1 픽셀 드랍 모드를 확장한 형태로 생각할 수 있다. 도 10의 2x2:3 픽셀 드랍 모드에서 드랍된 픽셀들에 추가하여 Y(4i+2)(4j+2) 픽셀들이 드랍된다. 복원 과정에서는, Y(4i+2)(4j+2) 픽셀들은 Y(4i+2)(4j) 픽셀들을 참조하여 복원되며, 나머지 드랍된 픽셀들은 도 10에서 살펴본 2x2:3 픽셀 드랍 모드의 복원 과정과 동일하다. 즉, Y(2i)(2j+1), Y(2i+1)(2j+1), 및 Y(2i+1)(2j) 픽셀들은 각각 Y(2i)(2j) 픽셀들을 참조하여 복원된다. 다만, Y(4i+2)(4j+2) 픽셀들이 Y(4i+2)(4j) 픽셀들을 참조하여 복원되었으므로, 결과적으로 Y(4i+2)(4j+3), Y(4i+3)(4j+3), 및 Y(4j+3)(4j+2) 픽셀들은 모두 Y(4i+2)(4j) 픽셀을 참조하여 복원된다.
도 11에 도시된 예시를 통해 살펴보면, Y26이 드랍되기 때문에, Y27, Y36, Y37은 Y36을 참조하여 복원될 수 없다. 따라서, 드랍되지 않은 픽셀들 중 가장 가까운 참조 거리를 갖는 Y24픽셀을 참조하여 복원될 수 있다. 즉, Y24픽셀을 참조하여 복원되는 픽셀들은, Y25, Y34, Y35뿐만 아니라, Y26, Y27, Y36, Y37 픽셀 또한 Y24 픽셀을 참조하여 복원될 수 있다.
도 12에 도시된 4x4:14 픽셀 드랍 모드에 있어서도 도 9와 마찬가지로, Y(4i)(4j+2) 픽셀들이 드랍된다. 즉, 초기 픽셀로부터 가장 먼 참조 거리를 가지는 픽셀이 Y(4i)(4j+2) 및 Y(4i+2)(4j) 로 2개이나, 초기 픽셀과 열 방향으로 근접한 픽셀인 Y(4i)(4j+2) 픽셀이 먼저 드랍된다. 드랍된 Y(4i)(4j+2) 픽셀들은 각각 Y(4i)(4j) 픽셀들을 참조하여 복원되며, 나머지 픽셀에 대한 복원 과정은 도 10 및 도 11에서 살펴본 바와 같다. 다만, 도 11과 마찬가지로 Y(4i)(4j+2) 픽셀들이 Y(4i)(4j) 픽셀들을 참조하여 복원되므로, 결과적으로 Y(4i+1)(4j+2), Y(4i+1)(4j+3), 및 Y(4i)(4j+3) 픽셀들은 모두 Y(4i)(4j) 픽셀들을 참조하여 복원된다.
예를 들면, Y02 픽셀이 드랍되므로, Y02, Y03, Y12, Y13 픽셀들도 Y01, Y10, Y11 픽셀과 함께 Y00을 참조하여 복원된다. 한편, Y21, Y22, Y23, Y30, Y31, Y32, Y33 픽셀들은 모두 Y20 픽셀을 참조하여 복원될 수 있다.
도 13에서는, 4x4:15 픽셀 드랍 모드를 도시한다. 4x4:15 픽셀 드랍 모드에서는, Y(4i+2)(4j) 픽셀들이 드랍된다. 복원 과정에서, Y(4i+2)(4j) 픽셀들은 초기 픽셀인 Y(4i)(4j) 픽셀을 참조하여 복원되며, 4x4 크기의 픽셀 블록(22)에서 초기 픽셀만이 드랍되지 않았으므로, 15개의 픽셀은 모두 초기 픽셀인 Y(4i)(4j) 픽셀을 참조하여 복원된다. 즉, 16개의 Yij(i, j=4, 5, 6, 7) 픽셀 중에서, Y44 픽셀을 제외한 나머지 15개의 픽셀들은 모두 Y44 픽셀을 참조하여 복원될 수 있다.
도 14 내지 도 16에 도시된 내용은, 상술한 도 11 내지 13의 내용을 4x4의 픽셀 블록(22)을 8x8 로 확장한 형태이다. 픽셀 드랍 과정 및 복원 과정은, 앞서 설명한 내용과 동일한 순서에 따라 수행될 수 있다.
이상의 도 5 내지 도 16에서는, 본 발명의 일 실시 예에 따른 픽셀 드랍 모드에 따라, 데이터 전송률을 감소시키는 여러 가지 픽셀 드랍 모드를 자세히 살펴보았다. 각각의 도면에 대하여, 도 5는 4x8:1 픽셀 드랍 모드(8x8 기준 2개 드랍), 도 6은 4x4:1 픽셀 드랍 모드(8x8 기준 4개 드랍), 도 7는 2x4:1 픽셀 드랍 모드(8x8 기준 8개 드랍), 도 8은 2x2:1 픽셀 드랍 모드(8x8 기준 16개 드랍), 도 9는 2x2:2 픽셀 드랍 모드(8x8 기준 32개 드랍), 도 10은 2x2:3 픽셀 드랍 모드(8x8 기준 48개 드랍), 도 11은 4x4:13 픽셀 드랍 모드(8x8 기준 52개 드랍), 도 12는 4x4:14 픽셀 드랍 모드(8x8 기준 56개 드랍), 도 13은 4x4:15 픽셀 드랍 모드(8x8 기준 60개 드랍), 도 14는 8x8:61 픽셀 드랍 모드(8x8 기준 61개 드랍), 도 15는 8x8:62 픽셀 드랍 모드(8x8 기준 62개 드랍), 도 16는 8x8:63 픽셀 드랍 모드(8x8 기준 63개 드랍)를 각각 도시한다.
앞서 설명한 바와 같이, 데이터 전송률이 대역폭에 비해 충분히 낮지 않은 경우, 데이터 전송률을 낮추는 방향으로 단계적으로 픽셀 드랍 과정이 수행될 수 있다. 즉, 영상 데이터에서 드랍되는 픽셀들의 개수가 증가하는 방향으로 단계적으로 수행될 수 있다. 예를 들면, 도 9에 도시된 2x2:2 픽셀 드랍 모드(8x8 기준 32개 드랍)가 도 13은 4x4:15 픽셀 드랍 모드(8x8 기준 60개 드랍) 보다 먼저 수행될 수 있다.
본 발명의 일 실시 예에 의하면, 각각의 픽셀 드랍 모드들은 데이터 전송률이 감소하는 방향으로 연속적으로 수행될 수 있다. 즉, 픽셀 드랍 모드에 의해 결정된 개수의 픽셀들이 드랍된 영상 데이터는, 다음 픽셀 드랍 모드를 수행하기 위한 입력으로 사용될 수 있다. 예를 들면, 도 6에 도시된 4x4:1 픽셀 드랍 모드에 따라 8x8 기준 4개를 드랍한 영상 데이터는, 도 7에 도시된 2x4:1 픽셀 드랍 모드에 따라 8x8 기준 8개를 드랍하기 위한 입력 데이터로 사용될 수 있다.
도 4 내지 도 16과 관련하여 이상에서 살펴본 내용에 따라, 픽셀 블록의 크기 및 드랍되는 픽셀의 개수는 계층적으로 분류될 수 있다. 즉, 아래의 표 1과 같이, 각각의 픽셀 드랍 모드는, 픽셀 블록 내에서 드랍되는 픽셀의 개수 및 위치에 기초하여 분류될 수 있고, 각각의 드랍된 픽셀들이 복원되기 위하여 참조할 픽셀에 대한 정보도 함께 분류될 수 있다.
표 1
Figure PCTKR2012003351-appb-T000001
위 표 1과 같이, 복원시 참조할 픽셀에 대한 정보는, 픽셀 블록의 크기, 드랍된 픽셀의 개수 및 위치에 따라서 복수 개의 드랍핑 모드로 분류될 수 있다. 예를 들어, 2x2 픽셀 블록에서 각각 Y00, Y10을 참조하여 예측되는 Y01, Y11 픽셀을 드랍하는 경우, 무선 송신기는 이러한 드랍되는 픽셀 Y01, Y11을 나타내는 인덱싱 정보로서 Dropping Index=2 를 전송할 수 있다.
이러한 인덱싱 정보를 기초로, 무선 수신기에서는 드랍된 픽셀들이 Y01, Y11 픽셀임을 알 수 있으며, 각각 Y00, Y10 픽셀을 참조하여 복원할 수 있게 된다.
전술한 표 1은 하나의 일 실시 예에 불과하며, 픽셀 블록 내에서 드랍되는 픽셀의 위치 및 개수를 나타내기 위한 인덱싱 정보인 Dropping Index는, 픽셀 블록의 크기, 픽셀 차 변환의 포맷(format), 영상 데이터의 컬러 포맷(color format), 및 다른 부가 정보 등의 조합에 따라 다양하게 설정될 수 있다.
본 발명의 또 다른 실시 예에 따라, 단계적인 픽셀 차 변환(PPDT) 과정이 단계적인 픽셀 드랍(PPDU) 과정 이전에 수행된 경우, 드랍되는 픽셀이 픽셀 차 변환시 다른 픽셀에 대한 차이 값을 계산하는데 참조 픽셀로써 사용된다면, 드랍 과정동안 차이 값을 다시 계산한다. 예를 들어, 2x2:2 픽셀 드랍 모드(도 9)에서 Y10 픽셀이 드랍되면, Y20 픽셀의 값이 Y20-Y10에서부터 Y20-Y00으로 변경되고, Y20 픽셀에 대하여 D=(Y10-Y00)+(Y20-Y10)=Y20-Y00 에 해당하는 재 계산이 수행되며, D가 Y20 픽셀의 데이터를 대체한다. 픽셀 드랍이 수반되는 데이터 전송률의 조절은, 무선 채널의 상태가 개선되거나 더 높은 데이터 전송률이 가능해지면 반대 순서로도 언제든지 진행될 수 있다.
본 발명의 일 실시 예에 따른 픽셀 드랍 모드에서, 각각의 픽셀 블록(22)내에서 드랍되는 픽셀들은 두 가지 기준에 기초하여 선택된다. 먼저, 드랍되는 픽셀들은 영상 화질 저하를 최소화하기 위하여, 영상 데이터(또는, 영상 프레임) 내에 균등하게 분포되도록 선택된다. 두 번째로, 픽셀 블록을 구성하는 픽셀 블록 내의 초기 픽셀로부터 참조 거리가 가장 먼 픽셀이 먼저 드랍되도록 선택된다.
본 발명의 일 실시 예에 따른 픽셀 복원 과정에 있어서, 0차 보간법(0-th order interpolation), 이중 선형 보간법(bilinear interpolation), 및 바이큐빅 보간법(bicubic interpolation) 등의 여러 가지 방법이 활용될 수 있다.
도 17은 본 발명의 일 실시 예에 따른 무선 송신기(11, 도 1)에서 단계적인 데이터 전송률 조절 방법의 흐름도를 도시한다. 도 17에 도시된 흐름도에서는, 도 1 및 도 2에 도시된 무선 송신기(11), 영상 입력 모듈(13), 송신부(14), 픽셀 드랍 모듈(110), 및 데이터 송신 모듈(120)에서 시계열적으로 처리되는 단계들로 구성된다.
도 18에서는, 본 발명의 일 실시 예에 따른 무선 수신기(12)에서 수신한 영상 데이터를 복원하는 방법의 흐름도를 도시한다. 도 18에 도시된 흐름도에서도 마찬가지로, 도 1 및 도 2에 도시된 무선 수신기(12), 수신부(15), 데이터 수신 모듈(130), 픽셀 복원 모듈(140), 및 영상 재생 모듈(16) 에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도, 도 1 및 도 2에서 도시된 구성들에 관하여 이상에서 기술된 내용은 도 17 및 도 18에 도시된 흐름도에도 적용됨을 알 수 있다.
도 17의 단계 310에서, 무선 송신기는 영상 데이터에 대한 픽셀 블록 크기를 선택한다. 픽셀 블록의 크기는 무선 수신기의 메모리 버퍼의 용량, 영상 데이터의 포맷 및 컨텐츠의 종류에 따라 결정될 수 있다. 선택된 픽셀 블록의 크기에 대한 정보는, 무선 채널을 통해 전송되는 영상 데이터의 BlockMode 필드를 이용하여 획득될 수 있다.
단계 320에서, 영상 데이터를 전송하는 데에 필요한 충분한 대역폭이 사용 가능한지 여부를 결정한다. 사용 가능하다면 단계 350으로 진행하고, 사용 불가능 하다면 단계 330으로 진행한다.
단계 330에서, 무선 송신기는 픽셀 블록 마다 적어도 하나의 픽셀을 드랍한다. 픽셀을 드랍하는 과정에서, 픽셀 블록에 포함된 초기 픽셀과의 참조 거리가 가장 먼 픽셀부터 드랍할 수 있다.
단계 340에서, 하나 이상의 픽셀이 드랍된 영상 데이터를 전송하는 데이터 전송률이, 사용 가능한 대역폭에 비해 충분히 작은지 결정한다. 충분히 작다면, 단계 350으로 진행하고, 그렇지 않으면 단계 330으로 진행한다. 즉, 데이터 전송률이 충분히 낮지 않다면, 단계적으로 픽셀 드랍 과정을 더 수행할 수 있다. 드랍되는 픽셀의 개수가 증가하는 방향으로 픽셀 드랍 모드를 변경하여 데이터 전송률을 더 낮출 수 있다.
단계 350에서, 픽셀이 드랍된 영상 데이터를 패킷화하고, 무선 채널을 통하여 무선 수신기로 전송한다. 이 과정에서, 픽셀 드랍 모드, 픽셀 블록의 크기 및 드랍된 픽셀의 개수에 대한 정보를 계층적으로 분류하고, 그 결과를 인덱싱하여 인덱싱 정보를 영상 데이터 패킷과 함께 전송할 수 있다.
도 17에서 살펴본 여러 가지 단계에 있어서, 단계 320 내지 단계 340은, 무선 송신기(11)의 어플리케이션 및 PAL 계층(13)(또는 오디오 비디오 제어 계층(AVC, Audio Video Control))에서 수행될 수 있다. 패킷화와 같은 특정 작업들 또한 무선 송신기(11)의 MAC 계층(14M)과 관련될 수 있다.
도 18은, 본 발명의 일 실시예에 따른 무선 수신기(12)에서 영상 데이터를 수신하고 픽셀들을 복원하는 방법의 흐름도를 도시한다.
단계 410에서, 무선 수신기는 무선 채널을 통해 전송되는 데이터 패킷을 수신한다. 수신된 패킷은, 디패킷화 될 수 있다
단계 420에서, 무선 송신기에서 픽셀 드랍 과정 등을 통해 드랍된 픽셀이 있는지를 확인한다. 이때, 도 17의 단계 350에서 전송한 인덱싱 정보를 획득하여 확인할 수 있다. 존재하는 경우, 단계 430으로 진행하고, 존재하지 않으면, 프로세스가 종료된다.
단계 430에서, 인덱싱 정보로부터 픽셀 블록의 크기 및 드랍된 픽셀의 개수, 참조할 픽셀들에 대한 정보를 획득하여, 드랍된 픽셀들을 복원할 수 있다. 이러한 복원 과정은, 픽셀 드랍 과정의 반대 순서로 진행되는 역행적인 과정이다. 즉, 드랍된 픽셀의 개수 및 픽셀의 크기를 기초로, 드랍된 픽셀과 가장 가까운 참조 거리를 갖는 픽셀을 참조하여 드랍된 픽셀을 복원할 수 있다.
도 18의 여러 단계에 있어서, 단계 430은 무선 수신기(12)내의 어플리케이션 &PAL 계층(16)(또는 AVC 계층)에서 수행될 수 있다. 단계 410의 디패킷타이징은 무선 수신기(12)의 MAC 계층(15M)에 포함된 디패킷타이징 모듈에 의하여 수행될 수 있다.
한편, 상술한 방법들은, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 코드를 포함하는 저장 디바이스를 설명하기 위해 사용될 수 있는 프로그램 저장 디바이스들은, 반송파(carrier waves)나 신호들과 같이 일시적인 대상들은 포함하는 것으로 이해되지는 않아야 한다. 상기 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함한다.
상술한 방법 및 장치에 따르면, 영상 데이터를 무선 채널로 전송함에 있어서, 사용 가능한 대역폭에 따라 단계적으로 데이터 전송률을 조절할 수 있게 된다.
본원 발명의 실시 예 들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 방법들은 한정적인 관점이 아닌 설명적 관점에서 고려되어야 한다. 본 발명의 범위는 발명의 상세한 설명이 아닌 특허청구 범위에 나타나며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (23)

  1. 영상 데이터를 무선으로 송신하는 방법에 있어서,
    상기 영상 데이터의 데이터 전송률을 감소시키기 위하여, 상기 영상 데이터를 구성하는 픽셀 블록들 마다 적어도 하나의 픽셀을 드랍하는 단계; 및
    일부 픽셀이 드랍된 상기 영상 데이터를 송신하는 단계를 포함하는 데이터 송신 방법.
  2. 제1항에 있어서,
    상기 픽셀 블록은 공간적으로 인접한 하나 이상의 픽셀들을 포함하며,
    상기 적어도 하나의 픽셀을 드랍하는 단계는, 상기 영상 데이터의 BlockMode 필드를 이용하여 획득된 상기 픽셀 블록의 크기에 대한 정보에 기초하여, 적어도 하나의 픽셀을 드랍하는 단계인 데이터 송신 방법.
  3. 제1항에 있어서,
    상기 적어도 하나의 픽셀을 드랍하는 단계는, 상기 영상 데이터가 송신되는 무선 채널의 대역폭에 기초하여 상기 데이터 전송률을 추가적으로 감소시키기 위하여, 단계적으로 픽셀을 드랍하는 단계를 더 포함하는 데이터 송신 방법.
  4. 제3항에 있어서,
    상기 단계적으로 픽셀을 드랍하는 단계는, 상기 픽셀 블록의 크기 및 드랍되는 픽셀의 개수 중 적어도 하나를 단계적으로 변경하며 드랍하는 단계인 데이터 송신 방법.
  5. 제3항에 있어서,
    상기 픽셀을 드랍하는 단계는, 상기 픽셀 블록에 포함된 초기 픽셀과의 참조 거리가 가장 먼 픽셀부터 드랍하는 단계인 데이터 송신 방법.
  6. 제3항에 있어서,
    상기 픽셀을 드랍하는 단계는, 상기 픽셀 블록 내에서 균등한 위치에서 선택된 픽셀들을 드랍하는 단계인 데이터 송신 방법.
  7. 제1항에 있어서,
    상기 송신하는 단계는, 복수 개의 픽셀 드랍 모드를, 드랍되는 픽셀의 위치 및 개수에 따라 계층적으로 분류하는 단계; 및
    상기 드랍된 픽셀의 위치 및 개수에 대응되는 픽셀 드랍 모드를 나타내는 인덱싱 정보를 상기 영상 데이터와 함께 전송하는 단계를 포함하는 데이터 송신 방법.
  8. 영상 데이터를 무선으로 수신하는 방법에 있어서,
    일부 픽셀의 데이터 값이 드랍된 영상 데이터를 수신하는 단계; 및
    수신된 픽셀들의 데이터 값을 참조하여, 드랍된 픽셀들을 복원하는 단계를 포함하는 데이터 수신 방법.
  9. 제8항에 있어서,
    상기 드랍된 픽셀들을 복원하는 단계는, 복원할 픽셀을 포함하는 픽셀 블록 내에서, 상기 복원할 픽셀과의 참조 거리가 가장 가까운 픽셀을 참조하여 복원하는 단계인 데이터 수신 방법.
  10. 제8항에 있어서,
    상기 수신하는 단계는, 드랍된 픽셀의 위치 및 개수에 대한 인덱싱 정보를 상기 영상 데이터와 함께 수신하는 단계인 데이터 수신 방법.
  11. 제8항에 있어서,
    상기 드랍된 픽셀들을 복원하는 단계는, 상기 인덱싱 정보를 참조하여, 드랍된 픽셀들을 복원하는 단계인 데이터 수신 방법.
  12. 영상 데이터를 무선으로 송신하는 무선 송신기에 있어서,
    상기 영상 데이터의 데이터 전송률을 감소시키기 위하여, 상기 영상 데이터를 구성하는 픽셀 블록들 마다 적어도 하나의 픽셀을 드랍하는 픽셀 드랍 모듈; 및
    일부 픽셀이 드랍된 상기 영상 데이터를 송신하는 데이터 송신 모듈을 포함하는 무선 송신기.
  13. 제12항에 있어서,
    상기 픽셀 블록은 공간적으로 인접한 하나 이상의 픽셀들을 포함하며,
    상기 픽셀 드랍 모듈은 상기 영상 데이터의 BlockMode 필드를 이용하여 획득된 상기 픽셀 블록의 크기에 대한 정보에 기초하여, 적어도 하나의 픽셀을 드랍하는 무선 송신기.
  14. 제12항에 있어서,
    상기 픽셀 드랍 모듈은, 상기 영상 데이터가 송신되는 무선 채널의 대역폭에 기초하여 상기 데이터 전송률을 추가적으로 감소시키기 위하여, 단계적으로 픽셀을 드랍하는 무선 송신기.
  15. 제13항에 있어서,
    상기 픽셀 드랍 모듈은, 픽셀 블록의 크기 및 드랍되는 픽셀의 개수 중 적어도 하나를 단계적으로 변경하며 드랍하는 무선 송신기.
  16. 제14항에 있어서,
    상기 픽셀 드랍 모듈은, 픽셀 블록에 포함된 초기 픽셀과의 참조 거리가 가장 먼 픽셀부터 드랍하는 무선 송신기.
  17. 제14항에 있어서,
    상기 픽셀 드랍 모듈은, 상기 픽셀 블록 내에서 균등한 위치에서 선택된 픽셀들을 드랍하는 무선 송신기.
  18. 제12항에 있어서,
    상기 데이터 송신 모듈은, 복수 개의 픽셀 드랍 모드를, 드랍되는 픽셀의 위치 및 개수에 따라 계층적으로 분류하고, 상기 드랍된 픽셀의 위치 및 개수에 대응되는 픽셀 드랍 모드를 나타내는 인덱싱 정보를 상기 영상 데이터와 함께 전송하는 무선 송신기.
  19. 영상 데이터를 무선으로 수신하는 무선 수신기에 있어서,
    일부 픽셀의 데이터 값이 드랍된 영상 데이터를 수신하는 데이터 수신 모듈; 및
    수신된 픽셀들의 데이터 값을 참조하여, 드랍된 픽셀들을 복원하는 픽셀 복원 모듈을 포함하는 무선 수신기.
  20. 상기 픽셀 복원 모듈은, 복원할 픽셀을 포함하는 픽셀 블록 내에서, 상기 복원할 픽셀과의 참조 거리가 가장 가까운 픽셀을 참조하여 복원하는 무선 수신기.
  21. 상기 데이터 수신 모듈은, 드랍된 픽셀의 위치 및 개수에 대한 인덱싱 정보를 상기 영상 데이터와 함께 수신하는 무선 수신기.
  22. 상기 픽셀 복원 모듈은, 상기 인덱싱 정보를 참조하여, 드랍된 픽셀들을 복원하는 무선 수신기.
  23. 제1항 내지 제11항 중 어느 하나의 항에 기재된 방법을 구현하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
PCT/KR2012/003351 2011-04-28 2012-04-30 무선 통신 시스템에서의 데이터 전송률 조절 방법 및 장치 WO2012148238A2 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201280032637.8A CN103636228A (zh) 2011-04-28 2012-04-30 用于调整无线通信系统中的数据发送速率的方法和设备
JP2014508298A JP2014519224A (ja) 2011-04-28 2012-04-30 無線通信システムにおけるデータ伝送率調節方法及び装置
US14/114,284 US20140082685A1 (en) 2011-04-28 2012-04-30 Method and apparatus for adjusting data transmission rate in a wireless communication system
EP12777485.9A EP2704433A4 (en) 2011-04-28 2012-04-30 METHOD AND APPARATUS FOR ADJUSTING DATA TRANSMISSION RATE IN WIRELESS COMMUNICATION SYSTEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161479979P 2011-04-28 2011-04-28
US61/479,979 2011-04-28

Publications (2)

Publication Number Publication Date
WO2012148238A2 true WO2012148238A2 (ko) 2012-11-01
WO2012148238A3 WO2012148238A3 (ko) 2013-01-10

Family

ID=47072960

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/003351 WO2012148238A2 (ko) 2011-04-28 2012-04-30 무선 통신 시스템에서의 데이터 전송률 조절 방법 및 장치

Country Status (6)

Country Link
US (1) US20140082685A1 (ko)
EP (1) EP2704433A4 (ko)
JP (1) JP2014519224A (ko)
KR (1) KR101439851B1 (ko)
CN (1) CN103636228A (ko)
WO (1) WO2012148238A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018038433A1 (en) * 2016-08-23 2018-03-01 Samsung Electronics Co., Ltd. Apparatus, system on chip, and method for transmitting video image

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105611290B (zh) * 2015-12-28 2019-03-26 惠州Tcl移动通信有限公司 一种基于移动终端的无线传输图片的处理方法和系统
US10075671B2 (en) * 2016-09-26 2018-09-11 Samsung Display Co., Ltd. System and method for electronic data communication
CN106897979B (zh) * 2017-03-31 2020-08-25 联想(北京)有限公司 图像处理方法及系统、电子设备
CN111064962B (zh) * 2019-12-31 2022-02-15 广州市奥威亚电子科技有限公司 一种视频传输系统和方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01183981A (ja) * 1988-01-18 1989-07-21 Nec Corp 画像信号帯域圧縮方式
US5335295A (en) * 1991-05-08 1994-08-02 International Business Machines Corporation System and method for scaling a digital image
US5850264A (en) * 1994-06-30 1998-12-15 Intel Corporation Pseudo interlacing in digital video
US5574572A (en) * 1994-09-07 1996-11-12 Harris Corporation Video scaling method and device
US5621660A (en) * 1995-04-18 1997-04-15 Sun Microsystems, Inc. Software-based encoder for a software-implemented end-to-end scalable video delivery system
US6233017B1 (en) * 1996-09-16 2001-05-15 Microsoft Corporation Multimedia compression system with adaptive block sizes
US5838387A (en) * 1996-12-20 1998-11-17 Intel Corporation Digital video scaling engine
US6154489A (en) * 1998-03-30 2000-11-28 Motorola, Inc. Adaptive-rate coded digital image transmission
US6553153B1 (en) * 1998-12-03 2003-04-22 Chips And Technologies, Llc. Method and apparatus for reducing video data
EP1243141B1 (en) * 1999-12-14 2011-10-19 Scientific-Atlanta, LLC System and method for adaptive decoding of a video signal with coordinated resource allocation
WO2002015571A1 (en) * 2000-08-14 2002-02-21 Corporate Media Partners D/B/A Americast System and method for displaying advertising in an interactive program guide
US6892246B2 (en) * 2001-06-13 2005-05-10 Alan N. Cooper Computer system and method for storing video data
US7239414B2 (en) * 2001-11-08 2007-07-03 Matsushita Electric Industrial Co., Ltd. Data processing control apparatus, data processing control method and system thereof
US6573941B1 (en) * 2002-04-22 2003-06-03 Thomson Licensing Sa Low bit rate compression format conversion for improved resolution
US20030235250A1 (en) * 2002-06-24 2003-12-25 Ankur Varma Video deblocking
EP1503593A2 (en) * 2003-07-30 2005-02-02 Sony Corporation Demultiplexer for MXF metadata
US7817856B2 (en) * 2004-07-20 2010-10-19 Panasonic Corporation Video processing device and its method
US7561620B2 (en) * 2004-08-03 2009-07-14 Microsoft Corporation System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding
WO2006020560A2 (en) * 2004-08-09 2006-02-23 Nielsen Media Research, Inc Methods and apparatus to monitor audio/visual content from various sources
CA2594118C (en) * 2004-12-08 2015-07-21 Imagine Communications Ltd. Distributed statistical multiplexing of multi-media
WO2008005007A1 (en) * 2006-06-29 2008-01-10 Thomson Licensing Adaptive pixel-based filtering
US8175041B2 (en) * 2006-12-14 2012-05-08 Samsung Electronics Co., Ltd. System and method for wireless communication of audiovisual data having data size adaptation
KR20090004659A (ko) * 2007-07-02 2009-01-12 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
US8332896B2 (en) * 2007-07-05 2012-12-11 Coherent Logix, Incorporated Transmission of multimedia streams to mobile devices with cross stream association
TWI360920B (en) * 2008-07-29 2012-03-21 Wistron Corp Antenna module and an electronic device having the
KR101030683B1 (ko) * 2008-10-31 2011-04-22 연세대학교 산학협력단 비디오 데이터 인터페이스 장치 및 방법
US9369759B2 (en) * 2009-04-15 2016-06-14 Samsung Electronics Co., Ltd. Method and system for progressive rate adaptation for uncompressed video communication in wireless systems
FR2954036B1 (fr) * 2009-12-11 2012-01-13 Thales Sa Procede et systeme pour la determination de parametres de codage sur des flux a resolution variable

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None
See also references of EP2704433A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018038433A1 (en) * 2016-08-23 2018-03-01 Samsung Electronics Co., Ltd. Apparatus, system on chip, and method for transmitting video image

Also Published As

Publication number Publication date
EP2704433A2 (en) 2014-03-05
KR101439851B1 (ko) 2014-09-12
EP2704433A4 (en) 2015-03-04
US20140082685A1 (en) 2014-03-20
JP2014519224A (ja) 2014-08-07
WO2012148238A3 (ko) 2013-01-10
KR20120122986A (ko) 2012-11-07
CN103636228A (zh) 2014-03-12

Similar Documents

Publication Publication Date Title
WO2012161556A2 (ko) 무선 통신 시스템에서의 데이터 전송률 조절 방법 및 장치
WO2010120068A2 (en) Method and system for progressive rate adaptation for uncompressed video communication in wireless systems
US8854540B2 (en) Signal transmission apparatus, signal transmission method, signal reception apparatus, signal reception method, and signal transmission system
US9456232B2 (en) Signal processing apparatus, signal processing method, program, and signal transmission system
US20130010187A1 (en) Signal transmitting device, signal transmitting method, signal receiving device, signal receiving method, and signal transmission system
WO2012148238A2 (ko) 무선 통신 시스템에서의 데이터 전송률 조절 방법 및 장치
WO2011139035A2 (en) Method and system for chroma partitioning and rate adaptation for uncompressed video transmission in wireless networks
WO2011037406A2 (en) Method and system for wireless communication of audio in wireless networks
JP6620955B2 (ja) 信号処理装置、信号処理方法、プログラム、及び、信号伝送システム
US20120293710A1 (en) Signal transmission apparatus, signal transmission method, signal reception apparatus, signal reception method, and signal transmission system
JP6729573B2 (ja) 信号処理装置、信号処理方法、プログラム、及び、信号伝送システム
WO2011142566A2 (en) Method and apparatus for processing video frame by using difference between pixel values
US20130057712A1 (en) Signal transmitting device, signal transmitting method, signal receiving device, signal receiving method and signal transmitting system
US20120307144A1 (en) Signal transmission apparatus, signal transmission method, signal reception apparatus, signal reception method, and signal transmission system
JP7068787B2 (ja) 映像信号送信装置
JP2017130865A (ja) 映像信号送信装置、映像信号受信装置及び映像信号送受信システム
JP3982390B2 (ja) データ伝送方法及び装置
WO2012026729A2 (en) Method and apparatus for generating uncompressed video data packet

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12777485

Country of ref document: EP

Kind code of ref document: A2

ENP Entry into the national phase

Ref document number: 2014508298

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14114284

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2012777485

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012777485

Country of ref document: EP