KR100968106B1 - 중복 데이터 인코딩 방법 및 장치 - Google Patents
중복 데이터 인코딩 방법 및 장치 Download PDFInfo
- Publication number
- KR100968106B1 KR100968106B1 KR1020087010084A KR20087010084A KR100968106B1 KR 100968106 B1 KR100968106 B1 KR 100968106B1 KR 1020087010084 A KR1020087010084 A KR 1020087010084A KR 20087010084 A KR20087010084 A KR 20087010084A KR 100968106 B1 KR100968106 B1 KR 100968106B1
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- multimedia data
- data
- encoding
- video
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 247
- 238000012545 processing Methods 0.000 claims abstract description 64
- 238000013139 quantization Methods 0.000 claims abstract description 35
- 230000008859 change Effects 0.000 claims description 35
- 239000010410 layer Substances 0.000 description 210
- 230000008569 process Effects 0.000 description 176
- 238000010586 diagram Methods 0.000 description 46
- 230000007704 transition Effects 0.000 description 40
- 239000013598 vector Substances 0.000 description 38
- 238000001514 detection method Methods 0.000 description 33
- 230000000007 visual effect Effects 0.000 description 31
- 230000002123 temporal effect Effects 0.000 description 28
- 239000000872 buffer Substances 0.000 description 26
- 238000007906 compression Methods 0.000 description 26
- 230000006835 compression Effects 0.000 description 26
- 230000003044 adaptive effect Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 21
- 238000004422 calculation algorithm Methods 0.000 description 20
- 238000001914 filtration Methods 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 17
- 230000002457 bidirectional effect Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 230000002441 reversible effect Effects 0.000 description 13
- 230000009471 action Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 8
- 241000023320 Luma <angiosperm> Species 0.000 description 7
- 238000012952 Resampling Methods 0.000 description 7
- 230000006978 adaptation Effects 0.000 description 7
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 7
- 238000007781 pre-processing Methods 0.000 description 7
- 230000009467 reduction Effects 0.000 description 7
- 230000035945 sensitivity Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000006872 improvement Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000015556 catabolic process Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000012856 packing Methods 0.000 description 5
- 239000002356 single layer Substances 0.000 description 5
- 239000002775 capsule Substances 0.000 description 4
- 238000006731 degradation reaction Methods 0.000 description 4
- 238000005562 fading Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- NGVDGCNFYWLIFO-UHFFFAOYSA-N pyridoxal 5'-phosphate Chemical compound CC1=NC=C(COP(O)(O)=O)C(C=O)=C1O NGVDGCNFYWLIFO-UHFFFAOYSA-N 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 230000001364 causal effect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000002688 persistence Effects 0.000 description 3
- 238000000638 solvent extraction Methods 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000013078 crystal Substances 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000011112 process operation Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 102100037812 Medium-wave-sensitive opsin 1 Human genes 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000003874 inverse correlation nuclear magnetic resonance spectroscopy Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000002910 structure generation Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/40—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/114—Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/115—Selection of the code volume for a coding unit prior to coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/142—Detection of scene cut or scene change
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/149—Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/154—Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/18—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/192—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
- H04N19/194—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/36—Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/65—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/87—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/89—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234309—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
- H04N21/2353—Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
- H04N21/2389—Multiplex stream processing, e.g. multiplex stream encrypting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/147—Scene change detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/21—Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0117—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
- H04N7/012—Conversion between an interlaced and a progressive signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0112—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards corresponding to a cinematograph film standard
- H04N7/0115—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards corresponding to a cinematograph film standard with details on the detection of a particular field or frame pattern in the incoming video signal, e.g. 3:2 pull-down pattern
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Library & Information Science (AREA)
- Physics & Mathematics (AREA)
- Algebra (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Detection And Prevention Of Errors In Transmission (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
콘텐츠 정보를 사용하여 멀티미디어 데이터를 인코딩하는 장치 및 방법이 설명된다. 멀티미디어 데이터를 처리하는 방법은 멀티미디어 데이터의 콘텐츠 정보를 획득하는 단계, 및 인코딩된 비트스트림을 형성하도록 멀티미디어 데이터를 인코딩하는 단계를 포함하고, 상기 인코딩 단계는 콘텐츠 정보에 기초하여 인트라 코딩된 데이터의 적어도 하나의 중복 블록을 인코딩된 비트스트림 내에 삽입하는 단계를 포함한다. 몇몇 양태에서, 인코딩 단계는 멀티미디어 데이터를 베이스 계층과 인핸스먼트 계층으로 인코딩하는 단계를 포함하고, 인트라 코딩된 데이터는 베이스 계층에 대한 양자화 파라미터를 사용하여 인코딩된다. 다른 양태에서, 인트라 코딩된 데이터는 인핸스먼트 계층에 대한 양자화 파라미터를 사용하여 인코딩된다.
멀티미디어 데이터, 콘텐츠 정보, 비트스트림, 양자화 파라미터, 중복 블록
Description
35 U.S.C. §119 에 따른 우선권 주장
본 특허 출원은 (a) 2005 년 9 월 27 일 출원된 발명의 명칭이 "A VIDEO TRANSCODER FOR REAL-TIME STREAMING AND MOBILE BROADCAST APPLICATIONS" 인 미국 가출원 제 60/721,416 호, (b) 2006 년 4 월 4 일 출원된 발명의 명칭이 "A VIDEO TRANSCODER FOR REAL-TIME STREAMING AND MOBILE BROADCAST APPLICATIONS" 인 미국 가출원 60/789,377 호, (c) 2005 년 10 월 17 일 출원된 발명의 명칭이 "METHOD AND APPARATUS FOR SPATIO-TEMPORAL DEINTERLACING AIDED BY MOTION COMPENSATION FOR FIELD-BASED VIDEO" 인 미국 가출원 제 60/727,643 호, (d) 2005 년 10 월 17 일 출원된 발명의 명칭이 "METHOD AND APPARATUS FOR SHOT DETECTION IN VIDEO STREAMING" 인 미국 가출원 제 60/727,644 호, (e) 2005 년 10 월 17 일 출원된 발명의 명칭이 "A METHOD AND APPARAUTS FOR USING AN ADAPTIVE GOP STRUCTURE IN VIDEO STREAMING" 인 미국 가출원 제 60/727,640 호, (f) 2005 년 10 월 24 일 출원된 발명의 명칭이 INVERSE TELECINE ALGORITHM BASED ON STATE MACHINE" 인 미국 가출원 제 60/730,145 호, 및 (g) 2006 년 4 월 3 일 출원된 발명의 명칭이 "SPATIO-TEMPORAL DEINTERLACING AIDED BY MOTION COMPRESSION FOR FIELD-BASED MULTIMEDIA DATA" 인 미국 가출원 제 60/789,048 호에 대한 우선권을 주장한다. 이들 7 개의 가출원 모두는 본원의 양수인에게 양도되며, 본원에서 명확하게 참조로서 병합하고 있다.
동시 계속 중인 특허 출원에 대한 참조
본 특허 출원은, 2006 년 3 월 10 일 출원된 발명의 명칭이 "CONTENT CLASSIFICATION FOR MULTIMEDIA PROCESSING" 인 미국 특허 출원 제 11/373,577 호에 관한 것으로, 이 특허 출원은 본원의 양수인에게 양도되며, 본원에서 명확하게 참조로서 병합하고 있다.
배경
분야
본 특허 출원은 실시간 스트리밍용 비디오 데이터의 비디오 트랜스코딩을 위한 장치 및 방법에 관한 것으로, 더욱 상세하게는, 이동 방송 애플리케이션에서 실시간 스트리밍용 비디오 데이터를 트랜스코딩하는 것에 관한 것이다.
배경
대역폭 자원과 이용 가능한 대역폭의 변화성이 제한되기 때문에, 무선 비디오 스트리밍 및 비디오 전화통신과 같은 다수의 멀티미디어 애플리케이션에서는 효율적인 비디오 압축이 유용하다. MPEG-4 (ISO/IEC), H.264 (ITU) 또는 유사한 비디오 코딩과 같은 일정 비디오 코딩 표준은 무선 방송과 같은 애플리케이션에 아주 적합한 고효율 코딩을 제공한다. 일반적으로, 예를 들어, 디지털 TV 프리젠테이션과 같은 몇몇 멀티미디어 데이터는 MPEG-2 와 같은 다른 표준에 따라 코딩된다. 따라서, 트랜스코더를 사용하여, 한 표준 (예를 들어, MPEG-2) 에 따라 코 딩된 멀티미디어 데이터를 무선 방송 전에 다른 표준 (예를 들어, H.264) 으로 트랜스코딩하거나 변환하게 된다.
개선 비율 최적화된 코덱 (improvements rate optimized codec) 은 에러 내성, 에러 복구 및 스케일러빌리티에 있어서 이점을 제공할 수 있다. 또한, 멀티미디어 데이터 자체로부터 결정된 정보를 사용하면, 에러 내성, 에러 복구 및 스케일러빌리티를 비롯한 인코딩에 대한 추가적인 개선을 제공할 수 있다. 따라서, 멀티미디어 데이터의 고효율 처리 및 압축을 제공하고, 멀티미디어 데이터 자체로부터 결정된 정보를 사용하고, 스케일러블 (scalable) 하고, 에러를 복원하며, 멀티미디어 정보를 스트리밍하는 이동 방송을 비롯한 다수의 멀티미디어 데이터 애플리케이션에서 사용되는 트랜스코더에 대한 요구가 존재한다.
개요
설명되고 도시된 각각의 독창적인 콘텐츠 기반 트랜스코딩 장치 및 방법은 몇몇 양태를 갖고, 그 단 하나의 양태도 자신의 바람직한 속성에 대해 단독으로 책임지지 않는다. 이하, 본 개시내용의 범위를 제한함 없이, 더 현저한 특징을 간략히 설명할 것이다. 이러한 설명을 고려한 후에, 특히, "상세한 설명" 으로 지칭되는 섹션을 읽은 후에, 이러한 콘텐츠 구동 트랜스코딩의 특징이 멀티미디어 데이터 처리 장치 및 방법에 대한 개선을 어떻게 제공하는지를 이해할 것이다.
본원에서 설명되는 독창적인 양태는 인코더 (예를 들어, 트랜스코더에서 사용되는 인코더) 의 여러 모듈 또는 컴포넌트에서, 또한 멀티미디어 데이터를 인코딩하는 여러 방법에 대해 콘텐츠 정보를 사용하는 것에 관한 것이다. 트랜스코 더는 콘텐츠 정보를 사용하여 멀티미디어 데이터를 트랜스코딩하는 것을 조정할 수 있다. 콘텐츠 정보는, 예를 들어, 비디오와 함께 수신되는 메타데이터와 같이, 다른 소스로부터 수신될 수 있다. 트랜스코더는 여러 상이한 처리 동작을 통해 콘텐츠 정보를 생성하도록 구성될 수 있다. 몇몇 양태에서, 트랜스코더는 멀티미디어 데이터의 콘텐츠 분류를 생성하고, 그 다음에, 이 콘텐츠 분류는 하나 이상의 인코딩 프로세스에서 사용된다. 몇몇 양태에서, 콘텐츠 구동 트랜스코더는 멀티미디어 데이터의 공간 및 시간 콘텐츠 정보를 결정할 수 있고, 채널에 걸쳐 콘텐츠 인식 균일 (content-aware uniform) 품질을 위한 콘텐츠 정보와, 콘텐츠 분류 기반 압축/비트 할당을 사용할 수 있다.
몇몇 양태에서는, 멀티미디어 데이터의 콘텐츠 정보 (예를 들어, 메타데이터, 콘텐츠 메트릭 및/또는 콘텐츠 분류) 가 얻어지거나 계산되고, 그 다음에, 인코딩을 위한 멀티미디어 데이터의 처리에서 사용하기 위해 트랜스코더의 컴포넌트에 제공된다. 예를 들어, 전처리기는 장면 전환 검출, IVTC (inverse telecine) 수행, 디인터레이싱, 모션 보상 및 잡음 억제 (예를 들어, 2D 웨이브렛 변환), 및 공간-시간 잡음 저감 (예를 들어, 아티팩트 제거, 디링잉, 디블록킹 및/또는 디노이징) 에 대한 일정 콘텐츠 정보를 사용할 수 있다. 또한, 몇몇 양태에서, 전처리기는, SD (standard definition) 에서 QVGA (Quarter Video Graphics Array) 로 다운샘플링 시, 적절한 "안전 (safe)" 및 "액션 핸들링 (action handling)" 영역을 결정하는 것과 같이, 공간 해상도 다운샘플링에 대한 콘텐츠 정보를 사용할 수 있다.
몇몇 양태에서는, 인코더가 콘텐츠 정보를 계산하도록 구성되는 콘텐츠 분류 모듈을 포함한다. 그 인코더는 콘텐츠 분류를 사용하여, 각 MB 에 대한 QP (quantization parameter) 를 결정하는데 있어서 비트 레이트 제어 (예를 들어, 비트 할당) 를 수행하고, 컬러 ME (motion estimation) 의 수행, MV (motion vector) 예측의 수행과, 베이스 계층과 인핸스먼트 계층을 제공하는데 있어서의 스케일러빌리티를 수행하며, 또한, 콘텐츠 분류를 사용하여, 예를 들어, 적응 인트라 리프레시나 경계 정렬 프로세스를 비롯한 예측 계층 구성과 에러 내성 방식에 영향을 줌으로써, 그리고, 인핸스먼트 계층에서 중복 I-프레임 데이터를 제공함으로써 에러 내성을 수행한다. 몇몇 양태에서, 트랜스코더는 채널에 걸쳐 최적 멀티미디어 데이터 품질을 유지하기 위해 데이터 멀티플렉서와 함께 콘텐츠 분류를 사용한다. 몇몇 양태에서, 인코더는 콘텐츠 분류 정보를 사용하여, I-프레임이 인코딩된 데이터에 주기적으로 나타나도록 함으로써, 고속 채널 스위칭을 허용할 수 있다. 또한, 이러한 구현은, 랜덤 액세스 스위칭과 에러 내성 (예를 들어, 콘텐츠 분류에 기초함) 이 예측 계층 구성을 통해 효과적으로 결합하여 에러에 대한 견고성을 증가시키면서 코딩 효율을 개선할 수 있도록, 에러 내성을 위해 인코딩된 데이터에서 필요할 수도 있는 I-블록을 사용할 수도 있다.
일 양태에서, 멀티미디어 데이터를 처리하는 방법은 멀티미디어 데이터의 콘텐츠 정보를 획득하는 단계, 및 인코딩된 비트스트림을 형성하도록 멀티미디어 데이터를 인코딩하는 단계를 포함하고, 상기 인코딩 단계는 콘텐츠 정보에 기초하여 인트라 코딩된 데이터의 적어도 하나의 중복 블록을 인코딩된 비트스트림 내에 삽 입하는 단계를 포함한다. 몇몇 양태에서, 콘텐츠 정보는 콘텐츠 분류를 포함한다. 콘텐츠 분류는 멀티미디어 데이터의 복잡도에 기초할 수 있다. 또한, 멀티미디어 데이터의 복잡도는 공간 복잡도, 시간 복잡도, 또는 공간 복잡도와 시간 복잡도 모두를 포함할 수 있다. 몇몇 양태에서, 삽입된 인트라 코딩된 데이터의 중복 블록의 양은 멀티미디어 데이터의 복잡도에 반비례한다. 예시적인 양태는, 인트라 코딩된 데이터가 인트라 코딩된 데이터의 중복 블록의 적어도 하나의 프레임을 포함하고, 인트라 코딩된 데이터의 중복 블록의 적어도 하나의 프레임이 I-프레임을 포함하고, 인트라 코딩된 데이터의 적어도 하나의 중복 프레임이 채널 변경 프레임을 포함하고/하거나, 인트라 코딩된 데이터의 적어도 하나의 중복 블록이 I-프레임의 사실상 모든 프레임을 포함하는 예를 포함한다. 인코딩 단계는 멀티미디어 데이터를 베이스 계층과 인핸스먼트 계층으로 인코딩하는 단계를 포함할 수 있고, 인트라 코딩된 데이터는 베이스 계층에 대한 양자화 파라미터 또는 인핸스먼트 계층에 대한 양자화 파라미터를 사용하여 인코딩된다.
다른 양태에서, 멀티미디어 데이터를 처리하는 장치는 멀티미디어 데이터의 콘텐츠 정보를 획득하는 수단, 및 인코딩된 비트스트림을 형성하도록 멀티미디어 데이터를 인코딩하는 수단을 포함하고, 상기 인코딩 수단은 콘텐츠 정보에 기초하여 인트라 코딩된 데이터의 적어도 하나의 중복 블록을 인코딩된 비트스트림 내에 삽입하는 수단을 포함한다.
또 다른 양태에서, 멀티미디어 데이터를 처리하는 장치는 멀티미디어 데이터의 콘텐츠 정보를 획득하도록 구성된 콘텐츠 분류기, 및 인코딩된 비트스트림을 형 성하기 위해 멀티미디어 데이터를 인코딩하도록 구성된 인코더를 포함하고, 상기 인코더는 콘텐츠 정보에 기초하여 인트라 코딩된 데이터의 적어도 하나의 중복 블록을 인코딩된 비트스트림 내에 삽입하는 수단을 포함한다.
또 다른 양태에서, 프로세서는, 멀티미디어 데이터의 콘텐츠 정보를 획득하고, 인코딩된 비트스트림을 형성하도록 멀티미디어 데이터를 인코딩하도록 구성되고, 상기 멀티미디어 데이터를 인코딩하는 것은, 콘텐츠 정보에 기초하여 인트라 코딩된 데이터의 적어도 하나의 중복 블록을 인코딩된 비트스트림 내에 삽입하는 것을 포함한다.
또 다른 양태에서, 머신 판독가능 매체는, 실행 시, 머신으로 하여금, 멀티미디어 데이터의 콘텐츠 정보를 획득하게 하는 명령들, 및 인코딩된 비트스트림을 형성하도록 멀티미디어 데이터를 인코딩하게 하는 명령들을 포함하고, 상기 인코딩하게 하는 명령들은 콘텐츠 정보에 기초하여 인트라 코딩된 데이터의 적어도 하나의 중복 블록을 인코딩된 비트스트림 내에 삽입하게 하는 명령들을 포함한다.
도면의 간단한 설명
도 1a 는 상이한 비디오 포맷 간의 트랜스코딩을 위한 트랜스코더를 포함한 미디어 방송 시스템의 블록도이다.
도 1b 는 멀티미디어 데이터를 인코딩하고, 인코딩된 제 1 데이터 그룹과 인코딩된 제 2 데이터 그룹을 제공하도록 구성된 인코더의 블록도이다.
도 1c 는 멀티미디어 데이터를 인코딩하도록 구성된 프로세서의 블록도이다.
도 2 는 도 1 의 시스템의 트랜스코더의 일 예의 블록도이다.
도 3 은 도 2 의 트랜스코더에서 사용되는 파서 (parser) 의 동작을 도시한 흐름도이다.
도 4 는 도 2 의 트랜스코더에서 사용되는 디코더의 동작을 도시한 흐름도이다.
도 5 는 도 2 의 트랜스코더에 의해 수행되는 동작 순서를 도시한 시스템 타이밍도이다.
도 6 은 도 2 의 트랜스코더에서 사용될 수도 있는 전처리기의 동작 및 기능 순서를 도시한 흐름도이다.
도 7 은 도 2 의 트랜스코더에서 사용될 수도 있는 예시적인 2-패스 인코더의 블록도이다.
도 8 은 콘텐츠 분류와 텍스처 및 모션 값을 연관시키는 방법의 일 양태를 도시한 분류 차트의 일 예를 도시한다.
도 9 는 도 7 의 인코더에서 사용되는 것과 같은 콘텐츠 분류에 대한 예시적인 동작을 도시한 흐름도이다.
도 10 은 도 7 의 인코더에서 사용되는 것과 같은 레이트 제어의 동작을 도시한 흐름도이다.
도 11 은 도 7 의 인코더에서 사용되는 것과 같은 예시적인 모션 추정기의 동작을 도시한 흐름도이다.
도 12 는 도 7 의 인코더에서 사용되는 것과 같은 예시적인 모드 결정 인코더 기능의 동작을 도시한 흐름도이다.
도 13 은 도 7 의 인코더에서 사용되는 스케일러빌리티를 달성하는 예시적인 동작을 도시한 흐름도이다.
도 14 는 예를 들어, 도 7 의 인코더에서 일어나는 것과 같은 레이트 왜곡 데이터 흐름을 일으키는 예시적인 동작을 도시한 흐름도이다.
도 15 는 인코딩 복잡도, 할당된 비트 및 인간 시각 품질 간의 관계를 도시한 그래프이다.
도 16 은 비선형 장면 검출 공식을 도시한 그래프이다.
도 17a 는 에러 내성을 위해 인코딩된 데이터에 중복 데이터를 삽입하도록 멀티미디어 데이터를 인코딩하는 프로세스의 흐름도로서, 여기서, 인코딩은 콘텐츠 정보에 기초한다.
도 17b 는 도 17a 에 도시된 프로세스 (1700) 를 수행할 수 있는 인코딩 장치 (1710) 의 블록도이다.
도 18 은 모션 추정/보상을 사용한 디인터레이싱 프로세스를 도시한 도면이다.
도 19 는 멀티미디어 통신 시스템의 블록도이다.
도 20 은 인핸스먼트 계층과 베이스 계층에서 비디오 비트스트림의 구성을 도시한 도면이다.
도 21 은 비디오 프레임 경계에 슬라이스를 정렬시킨 것을 도시한 도면이다.
도 22 는 예측 계층 구성을 도시한 블록도이다.
도 23 은 콘텐츠 정보에 기초하여 멀티미디어 데이터를 인코딩하는 방법을 도시한 프로세스 흐름도이다.
도 24 는 콘텐츠 정보 레벨에 기초하여 데이터 경계를 정렬시키도록 멀티미디어 데이터를 인코딩하는 방법을 도시한 프로세스 흐름도이다.
도 25 는 데이터 프레임의 안전한 액션 영역과 안전한 타이틀 영역을 도시한 그래프이다.
도 26 은 데이터 프레임의 안전한 액션 영역을 도시한 그래프이다.
도 27 은 멀티미디어 콘텐츠 정보에 기초한 적응 인트라 리프레시를 사용하여 멀티미디어 데이터를 인코딩하는 프로세스를 도시한 프로세스 흐름도이다.
도 28 은 멀티미디어 콘텐츠 정보에 기초한 중복 I 프레임을 사용하여 멀티미디어 데이터를 인코딩하는 프로세스를 도시한 프로세스 흐름도이다.
도 29 는 현재 프레임과 이전 프레임 MVp 간, 또한 현재 프레임과 다음 프레임 MVn 간 모션 보상 벡터를 도시한다.
도 30 은 샷 검출을 도시한 프로세스 흐름도이다.
도 31 은 베이스 및 인핸스먼트 계층을 인코딩하는 것을 도시한 프로세스 흐름도이다.
도 32 는 매크로블록을 인코딩하는 것을 개략적으로 도시한다.
도 33 은 베이스 계층과 인핸스먼트 계층을 인코딩하는 모듈을 개략적으로 도시한다.
도 34 는 베이스 계층과 인핸스먼트 계층 계수 선택 프로세스의 일 예를 도시한다.
도 35 는 베이스 계층과 인핸스먼트 계층 계수 선택 프로세스의 다른 예를 도시한다.
도 36 은 베이스 계층과 인핸스먼트 계층 계수 선택 프로세스의 다른 예를 도시한다.
도 37 은 콘텐츠 정보에 기초하여 멀티미디어 데이터를 인코딩하는 것을 도시한 프로세스 흐름도이다.
도 38 은 역 텔레시네 프로세스에서 가능한 시스템 결정을 도시한 도면이다.
도 39 는 디블록킹 프로세스에 의해 필터링되는 매크로블록에서의 경계를 도시한다.
도 40 은 공간-시간 디인터레이싱 프로세스를 도시한 도면이다.
도 41 은 1-D 다상 (poly-phase) 리샘플링의 일 예를 도시한다.
도 42 는 비디오 스트리밍에서 적응 GOP 구조의 일 예를 도시한 흐름도이다.
필요에 따라, 도면 중 몇몇 그림에서 동일 참조 부호는 동일 구성요소를 지칭한다는 것에 주목하자.
상세한 설명
다음 상세한 설명은 본 개시내용에서 논의되는 일정 양태에 관한 것이다. 그러나, 본 발명은 다수의 상이한 방법으로 구현될 수 있다. 본 명세서에서, "하나의 양태" 또는 "일 양태" 에 대한 참조는 그 양태와 관련하여 설명되는 특정 특징, 구조 또는 특성이 적어도 일 양태에 포함되는 것을 의미한다. 본 명세서의 여러 위치에서, "일 양태에서", "일 양태에 따르면", 또는 "몇몇 양태에서" 와 같은 구의 사용은 반드시 모두 동일한 양태를 지칭하는 것은 아니고, 기타 양태를 제외한 서로 별개의 또는 다른 양태를 지칭하는 것도 아니다. 또한, 몇몇 양태에 의해 구현될 수도 있지만 다른 양태에 의해서는 구현될 수 없는 다양한 특징이 설명되어 있다. 이와 유사하게, 몇몇 양태에 대한 요건이 될 수도 있지만 다른 양태에 대한 요건은 될 수 없는 다양한 요건이 설명된다.
다음 설명은 본 발명의 예의 완전한 이해를 제공하는 상세를 포함한다. 그러나, 당업자라면, 일 예 또는 양태에 따른 프로세스 또는 디바이스의 모든 상세가 본원에 설명되거나 도시되어 있지 않더라도, 그 예를 실시할 수도 있다는 것을 이해할 수 있다. 예를 들어, 전기 컴포넌트는 본 발명의 예를 너무 상세히 설명하여 불명확하게 하지 않도록 그 전기 컴포넌트의 모든 전기 접속 또는 모든 전기 소자를 도시하지 않은 블록도로 도시될 수도 있다. 다른 경우에는, 그러한 컴포넌트, 기타 구조 및 기술을 도시하여, 본 발명의 예를 더 상세히 설명할 수도 있다.
본 개시내용은 인코딩되는 멀티미디어 데이터의 콘텐츠 정보를 사용하여 인코딩 및 트랜스코딩 장치 및 방법을 제어하는 것에 관한 것이다. (멀티미디어 데이터의) "콘텐츠 정보" 또는 "콘텐츠" 는 멀티미디어 데이터의 콘텐츠 관련 정보를 의미하는 광범위한 용어이고, 예를 들어, 메타데이터, 멀티미디어 데이터로부터 계산된 메트릭 및 예를 들어, 콘텐츠 분류와 같은 하나 이상의 메트릭과 연관된 콘텐츠 관련 정보를 포함할 수 있다. 콘텐츠 정보는 특정 애플리케이션에 따라 인코더에 제공되거나 인코더에 의해 결정될 수 있다. 콘텐츠 정보는 장면 전환 검출, 시간 처리 (temporal processing), 공간-시간 잡음 저감, 다운샘플링, 양자화를 위한 비트 레이트 결정, 스케일러빌리티, 에러 내성, 방송 채널에 걸쳐 최적 멀티미디어 유지 및 고속 채널 스위칭을 포함한, 다양한 양태의 멀티미디어 데이터 인코딩에 사용될 수 있다. 이들 양태 중 하나 이상을 사용하면, 트랜스코더는 멀티미디어 데이터의 처리를 조정하고, 콘텐츠 관련 인코딩된 멀티미디어 데이터를 생성할 수 있다. 또한, 트랜스코딩 양태를 설명하는 본원의 설명 및 도면은 인코딩 양태 및 디코딩 양태에 적용 가능할 수 있다.
트랜스코더 장치 및 방법은 한 포맷에서 다른 포맷으로 트랜스코딩하는 것에 관한 것으로, 예시적인 몇몇 양태에 따르면, 무선 채널을 통해 이동 디바이스로 송신하기 위해 MPEG-2 비디오를 인핸스드, 스케일러블 H.264 포맷으로 트랜스코딩하는 것과 관련하여 본원에 구체적으로 설명되어 있다. 그러나, MPEG-2 비디오를 H.264 포맷으로 트랜스코딩하는 것에 대한 설명은 본 발명의 범위를 한정하기 위한 것이 아니라, 본 발명의 몇몇 양태를 예시하기 위한 것일 뿐이다. 개시된 장치 및 방법은 랜덤 액세스 및 레이어링 기능을 사용하여 에러 내성 인코딩을 지원하는 고효율 아키텍처를 제공하고, 또한, MPEG-2 및 H.264 이외의 비디오 포맷을 트랜스코딩 및/또는 인코딩하는 것에 적용 가능할 수 있다.
본원에서 사용되는 "멀티미디어 데이터" 또는 단순히 "멀티미디어" 는 비디오 데이터 (오디오 데이터를 포함할 수 있음), 오디오 데이터, 또는 비디오 데이터와 오디오 데이터 모두를 포함하는 광범위한 용어이다. 본원에서 광범위한 용어로서 사용되는 "비디오 데이터" 또는 "비디오" 는 프레임 기반 또는 필드 기반 데이터를 지칭하는 광범위한 용어로서, 이 데이터는 하나 이상의 이미지 또는 이미지 관련 시퀀스, 텍스트 포함 (containing text), 이미지 정보 및/또는 오디오 데이터를 포함하고, 달리 지정되지 않는 한, 멀티미디어 데이터 (예를 들어, 그 용어는 서로 교환 가능하게 사용될 수 있음) 를 지칭하는데 사용될 수 있다.
이하, 멀티미디어 데이터를 인코딩하기 위해 콘텐츠 정보를 사용할 수 있는 여러 트랜스코더 컴포넌트의 예와 프로세스의 예를 설명한다.
도 1a 는 멀티미디어 데이터 방송 시스템 (100) 의 몇몇 양태의 데이터 흐름을 도시한 블록도이다. 시스템 (100) 에서, 멀티미디어 데이터 제공자 (106) 는 인코딩된 멀티미디어 데이터 (104) 를 트랜스코더 (200) 에 통신한다. 인코딩된 멀티미디어 데이터 (104) 는 트랜스코더 (200) 에 의해 수신되고, 이 트랜스코더 (200) 는 블록 (110) 에서 멀티미디어 데이터 (104) 를 미가공 멀티미디어 데이터로 처리한다. 블록 (110) 에서의 처리는 인코딩된 멀티미디어 데이터 (104) 를 디코딩 및 파싱하고, 또한 멀티미디어 데이터를 처리하여 다른 포맷으로 인코딩하기 위해 준비하는 것이다. 디코딩된 멀티미디어 데이터는 블록 (112) 으로 제공되어, 멀티미디어 데이터를 소정의 멀티미디어 포맷 또는 표준으로 인코딩한다. 일단 멀티미디어 데이터가 인코딩되면, 블록 (114) 에서, 예를 들어, 무선 방송 시스템 (예를 들어, 셀룰러 전화 방송 네트워크) 을 통해, 또는 다른 통신 네트워크를 통해 송신을 위해 준비된다. 몇몇 양태에서, 수신된 멀티미디어 데이터 (104) 는 MPEG-2 표준에 따라 인코딩되었다. 트랜스코딩된 멀티미디어 데이터 (104) 가 인코딩된 후에, 트랜스코더 (200) 는 멀티미디어 데이터를 H.264 표준으로 인코딩한다.
도 1b 는 도 1a 의 블록 (110 및 112) 에서의 처리를 수행하도록 구성될 수 있는 트랜스코더 (130) 의 블록도이다. 트랜스코더 (130) 는 멀티미디어 데이터를 수신하고, 멀티미디어 데이터를 패킷화된 기본 스트림 (예를 들어, 서브타이틀, 오디오, 메타데이터, "미가공" 비디오, CC 데이터 및 프리젠테이션 타임스탬프) 으로 디코딩 및 파싱하고, 원하는 포맷으로 인코딩하며, 추후 처리 또는 송신을 위해 인코딩된 데이터를 제공하도록 구성될 수 있다. 트랜스코더 (130) 는 인코딩된 데이터를 2 개 이상의 데이터 그룹, 예를 들어, 인코딩된 제 1 데이터 그룹과 인코딩된 제 2 데이터 그룹 (이는 계층적 인코딩으로 지칭됨) 으로 제공하도록 구성될 수 있다. 양태들의 몇몇 예에서, 계층적 인코딩 방식에 따라 여러 데이터 그룹 (또는 계층) 은 상이한 품질 레벨로 인코딩될 수 있고, 제 1 데이터 그룹에서 인코딩된 데이터가 제 2 데이터 그룹에서 인코딩된 데이터보다 낮은 품질 (예를 들어, 표시 시, 낮은 시각 품질 레벨) 을 갖도록 포맷될 수 있다.
도 1c 는 멀티미디어 데이터를 트랜스코딩하도록 구성될 수 있으며, 도 1a 의 블록 (110 및 112) 으로 도시된 처리의 일부 또는 모두를 수행하도록 구성될 수 있는 프로세서 (140) 의 블록도이다. 프로세서 (140) 는 디코딩, 파싱, 전처리 (preprocessing) 및 인코딩을 비롯한, 본원에 설명된 트랜스코딩 프로세스 중 하나 이상을 수행하는 모듈 (124a...n) 을 포함할 수 있고, 처리를 위해 콘텐츠 정보를 사용할 수 있다. 또한, 프로세서 (140) 는 내부 메모리 (122) 를 포함하고, 다른 디바이스를 통해 직접 또는 간접으로 외부 메모리 (120) 와 통신하도록 구성될 수 있다. 또한, 프로세서 (140) 는, 멀티미디어 데이터를 수신하며, 제 1 데이터 그룹에서 인코딩된 데이터 및 제 2 데이터 그룹에서 인코딩된 데이터와 같은 인코딩된 데이터를 제공하는 것을 비롯한, 프로세서 (140) 외부의 하나 이상의 디바이스와 통신하도록 구성된 통신 모듈 (126) 을 포함한다. 양태들의 몇몇 예에서, 계층적 인코딩 방식에 따라 여러 데이터 그룹 (또는 계층) 은 상이한 품질 레벨로 인코딩될 수 있고, 제 1 데이터 그룹에서 인코딩된 데이터가 제 2 데이터 그룹에서 인코딩된 데이터보다 낮은 품질 (예를 들어, 표시 시, 낮은 시각 품질 레벨을 제공함) 을 갖도록 포맷될 수 있다.
트랜스코더 (130) 또는 (트랜스코딩을 위해 구성된) 전처리기 (140), 그 컴포넌트 및 거기에 포함된 프로세스는 하드웨어, 소프트웨어, 펌웨어, 미들웨어, 마이크로코드 또는 그 임의의 조합으로 구현될 수 있다. 예를 들어, 파서, 디코더, 전처리기 또는 인코더는 자립형 컴포넌트일 수도 있고, 하드웨어, 펌웨어, 미들웨어로서 다른 디바이스의 컴포넌트에 통합될 수도 있고, 또는 프로세서 상에서 실행되는 마이크로코드 또는 소프트웨어에 구현될 수도 있고, 또는 그 조합일 수도 있다. 소프트웨어, 펌웨어, 미들웨어 또는 마이크로코드에 구현 시, 모션 보상, 샷 분류 및 인코딩 프로세스를 수행하는 프로그램 코드 또는 코드 세그먼트는 저장 매체와 같은 머신 판독가능 매체에 저장될 수도 있다. 코드 세그먼트는 절차, 함수, 서브프로그램, 프로그램, 루틴, 서브루틴, 모듈, 소프트웨어 패키지, 클래스, 또는 명령, 데이터 구조 또는 프로그램 명령문의 임의의 조합을 표현할 수도 있다. 코드 세그먼트는 정보, 데이터, 인수 (argument), 파라미터 또는 메 모리 콘텐츠를 송수신함으로써 다른 코드 세그먼트 또는 하드웨어 회로에 연결될 수도 있다.
트랜스코더
아키텍처의 예시적인 예
도 2 는 도 1 의 멀티미디어 방송 시스템 (100) 에 도시된 트랜스코더 (200) 에 사용될 수도 있는 트랜스코더의 일 예의 블록도를 도시한다. 트랜스코더 (200) 는 아래에 상세히 설명되는 파서/디코더 (202), 전처리기 (226), 인코더 (228) 및 동기화 계층 (240) 을 포함한다. 본원에 설명되는 바와 같이, 트랜스코더 (200) 는 트랜스코딩 프로세스의 하나 이상의 양태에 대한 멀티미디어 데이터 (104) 의 콘텐츠 정보를 사용하도록 구성된다. 콘텐츠 정보는, 멀티미디어 메타데이터를 통해 트랜스코더 (200) 외부에 있는 소스로부터 얻어질 수 있고, 또는 트랜스코더에 의해, 예를 들어, 전처리기 (226) 에 의해 또는 인코더 (228) 에 의해 계산될 수 있다. 도 2 에 도시된 컴포넌트는 하나 이상의 트랜스코딩 프로세스에 대한 콘텐츠 정보를 사용하는 트랜스코더에 포함될 수 있는 컴포넌트를 예시하는 것이다. 특정 구현에서는, 트랜스코더 (200) 의 컴포넌트 중 하나 이상을 제외할 수도 있고, 또는 추가 컴포넌트를 포함시킬 수도 있다. 또한, 프로세스 또는 디바이스의 모든 상세가 본원에 설명되지는 않더라도, 당업자라면 본 발명을 실시할 수 있도록, 트랜스코더 및 트랜스코딩 프로세스의 부분이 설명된다.
도 5 는 트랜스코더 (200) 의 여러 컴포넌트 및/또는 프로세스 동작의 시간 관계를 그림으로 도시한 타이밍도를 도시한다. 도 5 에 도시된 바와 같이, MPEG-2 비디오와 같은 인코딩된 스트리밍 비디오 (104; 인코딩된 멀티미디어 데이 터) 는 파서 (205; 도 2) 에 의해 임의의 시간 0 에서 처음 수신된다. 그 다음에, 예를 들어, 디코더 (241) 와 함께 파서 (205) 에 의해, 비디오 스트림이 파싱되고 (501), 디멀티플렉싱되고 (502) 되며 디코딩된다 (503). 도시된 바와 같이, 이들 프로세스는 전처리기 (226; 도 2) 에 처리 데이터의 스트림 출력을 제공하도록, 약간의 타이밍 오프셋으로 동시에 일어날 수 있다. 시점 T1 (504) 에서, 일단 전처리기 (226) 가 처리 결과의 출력을 시작하기에 충분한 데이터를 디코더 (214) 로부터 수신하면, 나머지 처리 단계는 사실상 순차적으로 이루어지는데, 제 1 패스 인코딩 (505), 제 2 패스 인코딩 (506) 및 재인코딩 (507) 은, 전처리 후에 시점 Tf (508) 에서 재인코딩이 완료될 때까지 순서대로 일어난다.
본원에 설명된 트랜스코더 (200) 는 다양한 멀티미디어 데이터를 트랜스코딩하도록 구성될 수 있고, 트랜스코딩되는 멀티미디어 데이터의 타입에 관계없이 다수의 프로세스가 적용된다. 본원에 제공된 몇몇 예가 특히 MPEG-2 데이터를 H.264 데이터로 트랜스코딩하는 것에 관한 것이지만, 이들 예는 본 개시내용을 그러한 데이터에 한정하기 위한 것은 아니다. 아래에 설명되는 인코딩 양태는 임의의 적당한 멀티미디어 데이터 표준을 다른 적당한 멀티미디어 데이터 표준으로 트랜스코딩하는 것에 적용될 수 있다.
파서/디코더
도 2 를 다시 참조하면, 파서/디코더 (202) 는 멀티미디어 데이터 (104) 를 수신한다. 파서/디코더 (202) 는 멀티미디어 데이터 (104) 를 수신하고 그 데 이터를 비디오 기본 스트림 (206; video elementary stream; video ES), 오디오 ES (208), PTS (210; presentation time stamp) 및 서브타이틀 (212) 과 같은 다른 데이터로 파싱하는 전송 스트림 파서 ("parser") (205) 를 포함한다. ES 는 단일 비디오 또는 오디오 인코더로부터 한 가지 타입의 데이터 (비디오 또는 오디오) 를 전달한다. 예를 들어, 비디오 ES 는 시퀀스 헤더 및 그 시퀀스의 모든 서브파트를 포함한 데이터 시퀀스에 대한 비디오 데이터를 포함한다. 패킷화된 기본 스트림, 또는 PES 는 패킷으로 만들어진 단일 ES 로 이루어지고, 통상, 그 각각은 추가된 패킷 헤더로 시작한다. PES 스트림은 하나의 소스로부터, 예를 들어, 하나의 비디오 또는 오디오 인코더로부터 한 가지 타입의 데이터만을 포함한다. PES 패킷은 전송 패킷의 고정 패킷 길이에 대응하지 않는 가변 길이를 갖고, 전송 패킷보다 훨씬 더 길어질 수도 있다. 전송 패킷이 PES 스트림으로 형성될 때, PES 헤더는 전송 패킷 헤더 바로 다음에, 전송 패킷 페이로드의 시작에 위치할 수 있다. 나머지 PES 패킷 콘텐츠는, PES 패킷 모두를 사용할 때까지, 연속하는 전송 패킷의 페이로드를 채운다. 최종 전송 패킷은 예를 들어, 바이트 (예를 들어, 바이트 = 0xFF (모두 1)) 를 채움으로써, 고정 길이까지 채워질 수 있다.
파서 (205) 는 본원에 도시된 파서/디코더 (202) 의 부분인 디코더 (214) 에 비디오 ES (206) 를 통신한다. 다른 구성에서는, 파서 (205) 와 디코더 (214) 가 별개의 컴포넌트이다. PTS (210) 는 트랜스코더 PTS 생성기 (215) 에 송신되고, 이 트랜스코더 PTS 생성기 (215) 는 트랜스코더 (200) 로부터 방송 시스템에 송신되는 데이터를 배열하는데 사용되는 트랜스코더 (200) 에 고유한 별개의 프리 젠테이션 타임스탬프를 생성할 수 있다. 트랜스코더 PTS 생성기 (215) 는 트랜스코더 (200) 의 동기화 계층 (240) 에 데이터를 제공하여 데이터 방송의 동기화를 조정하도록 구성될 수 있다.
도 3 은 상술한 여러 패킷화된 기본 스트림의 파싱 아웃 시, 파서 (205) 가 따를 수도 있는 프로세스 (300) 의 일 예의 흐름도를 도시한다. 멀티미디어 데이터 (104) 가 콘텐츠 제공자 (106) 로부터 수신될 때 (도 1), 블록 (302) 에서 프로세스 (300) 는 시작한다. 파서 (205) 의 초기화가 수행되는 블록 (304) 으로 프로세스 (300) 가 진행한다. 초기화는 독립적으로 생성된 취득 커맨드 (306) 에 의해 트리거될 수도 있다. 예를 들어, 파서 (205) 와 독립적이며 외부에서 수신된 TV-스케줄 및 채널 라인업 정보에 기초하는 프로세스는 취득 커맨드 (306) 을 생성할 수도 있다. 또한, 실시간 전송 스트림 (TS) 버퍼 디스크립터 (308) 를 입력하여, 초기화와 메인 처리 모두를 도울 수도 있다.
블록 (304) 에 도시된 바와 같이, 초기화는 커맨드 구문 검증을 취득하는 것, 제 1 패스 PSI/PSIP/SI (program specific information/program and system information protocol/system information) 처리를 수행하는 것, 특히 취득 커맨드 또는 PSI/PSIP/SI 일관성 검증에 관련된 처리를 수행하는 것, 각 PES 에 대한 PES 버퍼를 할당하는 것 및 (예를 들어, 원하는 취득 시작 인스턴트와의 정렬을 위한) 타이밍을 설정하는 것을 포함할 수 있다. PES 버퍼는 파싱된 ES 데이터를 유지하고, 각각의 파싱된 ES 데이터를 대응하는 오디오 디코더 (216), 테스트 인코더 (220), 디코더 (214) 또는 트랜스코더 PTS 생성기 (215) 에 통신한다.
초기화 후에, 수신된 멀티미디어 데이터 (104) 의 메인 처리를 위한 블록 (310) 으로 프로세스 (300) 가 진행한다. 블록 (310) 에서의 처리는, 들어오는 멀티미디어 데이터가 적절한 PES 버퍼 내에 전달되도록, 타깃 패킷 식별자 (packet identifier; PID) 필터링, 연속적인 PSI/PSIP/SI 감시 및 처리, 및 (예를 들어, 원하는 취득 지속기간을 달성하기 위한) 타이밍 프로세스를 포함할 수 있다. 블록 (310) 에서 멀티미디어 데이터 처리의 결과로서, PES 버퍼의 프로그램 디스크립터 및 인디케이션인 "판독 (read)" 이 생성되어, 아래에서 설명하는 바와 같이, 디코더 (214; 도 2) 와 인터페이싱할 것이다.
블록 (310) 후에, 프로세스 (300) 가 블록 (314) 으로 진행하여, 타이머 인터럽트의 생성 및 PES 버퍼 소비에 따른 PES 버퍼의 비움을 비롯한, 파싱 동작의 종료가 일어난다. 오디오, 비디오 및 서브타이틀 스트림과 같은 그 디스크립터에서 인용된 프로그램의 모든 관련 기본 스트림에 대해 PES 버퍼가 존재할 것이라는 것에 주목하자.
다시 도 2 를 참조하면, 파서 (205) 는 트랜스코더 구현에 대응하는 오디오 디코더 (216) 에 오디오 ES (208) 를 송신하고, 인코딩된 텍스트 (216) 를 동기화 계층 (240) 에 제공하며, 오디오 정보를 디코딩한다. 서브타이틀 정보 (212) 는 텍스트 인코더 (220) 에 전달된다. 또한, 디코더 (214) 로부터의 CC (closed captioning) 데이터 (218) 는 텍스트 인코더 (220) 에 제공되고, 이 텍스트 인코더 (220) 는 서브타이틀 정보 (212) 와 CC 데이터 (218) 를 트랜스코더 (200) 에 의해 영향을 받은 포맷으로 인코딩한다.
또한, 파서/디코더 (202) 는 디코더 (214) 를 포함하고, 이 디코더 (214) 는 비디오 ES (206) 를 수신한다. 디코더 (214) 는 비디오 데이터와 연관된 메타데이터를 생성할 수 있고, 인코딩된 비디오 패킷화 기본 스트림을 미가공 비디오 (224) 로 (예를 들어, 표준 화질 포맷으로) 디코딩하며, 비디오 ES 스트림 내의 비디오 CC 데이터를 처리한다.
도 4 는 디코더 (214) 에 의해 수행될 수 있는 디코딩 프로세스 (400) 의 일 예를 도시한 흐름도를 도시한다. 블록 (402) 에서, 프로세스 (400) 는 비디오 기본 스트림 데이터 (206) 의 입력으로 시작한다. 프로세스 (400) 는 디코더가 초기화되는 블록 (404) 으로 진행한다. 초기화는 비디오 시퀀스 헤더 (VSH) 의 검출, 제 1 패스 VSH, 비디오 시퀀스 (VS) 및 VS 디스플레이 확장 처리 (비디오 포맷, 색 프라이머리 및 행렬 계수를 포함) 의 수행 및 데이터 버퍼를 할당하여 디코딩된 영상, 관련 메타데이터 및 CC 데이터를 각각 버퍼링하는 것을 비롯한, 다수의 작업을 포함할 수도 있다. 또한, 파서 (205) 에 의해 제공되는 비디오 PES 버퍼 '판독' 정보 (406) 가 입력된다 (예를 들어, 이는 도 3 의 블록 (310) 에서 프로세서 (300) 에 의해 생성될 수 있음).
블록 (404) 에서 초기화 후에, 프로세스 (400) 는 비디오 ES 의 메인 처리가 디코더 (214) 에 의해 수행되는 블록 (408) 으로 진행한다. 메인 처리는 새로운 데이터 가용도에 대한 비디오 PES 버퍼 '판독' 정보 또는 "인터페이스" 의 폴링 (polling), 비디오 ES 의 디코딩, 영상 경계에서 화소 데이터의 재구성 및 저장, 비디오와 a/v 의 동기화, 영상 경계에서 메타데이터의 생성 및 저장, 및 영상 경계 에서 CC 데이터의 저장을 포함한다. 메인 처리 (408) 의 결과 블록 (410) 은 시퀀스 디스크립터, 디코딩된 영상 버퍼 디스크립터, 메타데이터 버퍼 디스크립터 및 CC 데이터 버퍼 디스크립터의 생성을 포함한다.
메인 처리 (408) 후에, 프로세스 (400) 는 종료 프로세스를 수행하는 블록 (412) 으로 진행한다. 종료 프로세스는 소정의 임계값보다 큰 특정 지속기간 동안 새로운 데이터가 발생하지 않음, 시퀀스 종료 코드의 검출 및/또는 명시적 종료 신호의 검출을 비롯한, 종료 조건을 결정하는 것을 포함할 수 있다. 종료 프로세스는, 아래에 설명되는 전처리기에 의해, CC 데이터 버퍼의 소비에 따라 디코딩된 영상, 관련 메타데이터 및 CC 데이터 버퍼의 비움을 더 포함할 수 있다. 프로세스 (400) 는 블록 (414) 에서 종료하고, 그 블록 (414) 에서, 비디오 ES 가 입력으로서 수신되기를 대기하는 상태에 들어갈 수 있다.
전처리기
도 2, 또한 더 상세하게는 도 6 은 하나 이상의 전처리 동작에 대한 콘텐츠 정보를 사용할 수 있는 전처리기 (226) 의 예시적인 양태를 도시한다. 전처리기 (226) 는 파서/디코더 (202) 로부터 메타데이터 (222) 와 디코딩된 "미가공" 비디오 데이터 (224) 를 수신한다. 전처리기 (226) 는 비디오 데이터 (224) 와 메타데이터 (222) 에 대한 일정 타입의 처리를 수행하고, 처리된 멀티미디어 (예를 들어, 베이스 계층 기준 프레임, 인핸스먼트 계층 기준 프레임, 대역폭 정보, 콘텐츠 정보) 와 비디오를 인코더 (228) 에 제공하도록 구성된다. 그러한 멀티미디어 데이터의 전처리는 데이터의 시각적인 명료도, 안티-에일리어싱 (anti- aliasing), 및 압축 효율을 개선할 수 있다. 통상, 전처리기 (226) 는 파서 디코더 (202) 내의 디코더 (214) 에 의해 제공된 비디오 시퀀스를 수신하고, 이 비디오 시퀀스를 인코더 (228) 에 의한 추후 처리 (예를 들어, 인코딩) 를 위한 순차 비디오 시퀀스로 변환한다. 몇몇 양태에서, 전처리기 (226) 는 역 텔레시네, 디인터레이싱, 필터링 (예를 들어, 아티팩트 제거, 디링잉, 디블록킹 및 디노이징), 리사이징 (예를 들어, 표준 화질에서 QVGA (Quarter Video Graphics Array) 로의 공간 해상도 다운샘플링) 및 GOP 구조 생성 (예를 들어, 계산 복잡도 맵 생성, 장면 전환 검출 및 페이드/플래시 검출) 을 비롯한, 다수의 동작을 위해 구성될 수 있다.
전처리기 (226) 는 디코더로부터의 메타데이터를 사용하여 전처리 동작 중 하나 이상에 영향을 줄 수 있다. 메타데이터는 멀티미디어 데이터의 콘텐츠 ("콘텐츠 정보") 를 설명하거나 분류하는 것과 관련된 정보를 포함할 수 있고, 특히, 메타데이터는 콘텐츠 분류를 포함할 수 있다. 몇몇 양태에서, 메타데이터는 인코딩 동작에 필요한 콘텐츠 정보를 포함하지 않는다. 이와 같은 경우에, 전처리기 (226) 는 콘텐츠 정보를 결정하고 전처리 동작에 대한 콘텐츠 정보를 사용하고/하거나 예를 들어, 디코더 (228) 와 같은 트랜스코더 (200) 의 다른 컴포넌트에 콘텐츠 정보를 제공하도록 구성될 수 있다. 몇몇 양태에서, 전처리기 (226) 는 그와 같은 콘텐츠 정보를 사용하여, GOP 분할에 영향을 주고, 적당한 타입의 필터링을 결정하고/하거나 인코더에 통신되는 인코딩 파라미터를 결정할 수 있다.
도 6 은 전처리기 (226) 에 포함될 수 있는 여러 프로세스 블록의 예시적인 예를 도시하고, 전처리기 (226) 에 의해 수행될 수 있는 처리를 도시한다. 본 예에서, 전처리기 (226) 는 메타데이터와 비디오 (222, 224) 를 수신하고, (처리된) 메타데이터와 비디오를 포함한 출력 데이터 (614) 를 인코더 (228) 에 제공한다. 통상, 3 가지 타입의 비디오가 수신될 수도 있다. 첫째로, 수신된 비디오는 디인터레이싱을 필요로 하지 않는 순차 비디오일 수 있다. 둘째로, 비디오 데이터는 24 fps 영화 시퀀스로부터 변환된 인터레이스된 비디오, 텔레시네된 비디오일 수 있고, 이 경우에는, 역 텔레시네 동작이 필요할 수도 있다. 셋째로, 그 비디오는 텔레시네되지 않은 인터레이싱된 비디오일 수 있다. 전처리기 (226) 는 아래에서 설명되는 이들 타입의 비디오를 처리할 수 있다.
블록 (601) 에서, 전처리기 (226) 는 수신된 비디오 데이터 (222, 224) 가 순차 비디오인지를 결정한다. 몇몇 경우에, 이러한 결정은, 메타데이터가 그러한 정보를 포함하는 경우에 메타데이터로부터, 또는 비디오 데이터 자체를 처리하여 결정될 수 있다. 예를 들어, 아래에 설명되는 역 텔레시네 프로세스는, 수신된 비디오 (222) 가 순차 비디오인지를 결정할 수 있다. 순차 비디오인 경우에, 프로세스는 백색 가우스 잡음과 같은 잡음을 줄이기 위해 비디오에 대해 필터링 (예를 들어, 디노이저 (denoiser)) 동작이 수행되는 블록 (607) 으로 진행한다. 비디오 데이터 (222, 224) 가 순차 비디오가 아닌 경우에, 블록 (601) 에서, 프로세스는 블록 (604) 의 위상 검출기 (604) 로 진행한다.
위상 검출기 (604) 는 텔레시네에서 시작한 비디오와 표준 방송 포맷에서 시작한 비디오를 구별한다. 비디오가 텔레시네되었다는 결정이 이루어지면, 위상 검출기 (604) 에 존재하는 "예" 결정 경로), 텔레시네된 비디오는 역 텔레시네 (606) 에서 그 원래 포맷으로 리턴된다. 중복 프레임이 식별 및 제거되고, 동일 비디오 프레임으로부터 얻어진 필드는 완전한 이미지로 재구성된다. 재구성된 영화 이미지의 시퀀스가 1 초의 1/24 의 일정한 간격으로 사진 기록되기 때문에, GOP 분할기 (612) 또는 디코더 (228) 에서 수행되는 모션 추정 프로세스는 불규칙한 시간축을 갖는 텔레시네된 데이터보다는 역 텔레시네된 이미지를 사용하여 더 정확해진다.
일 양태에 따르면, 위상 검출기 (604) 는 비디오 프레임의 수신 후에 일정 결정을 행한다. 이들 결정은 (ⅰ) 텔레시네 출력으로부터의 현재 비디오와 3:2 풀 다운 위상이 도 38 에 도시된 5 개의 위상 P0, P1, P2, P3 및 P4 중 하나인지 여부와, (ⅱ) 그 비디오가 통상의 NTSC 로서 생성되었다는 것을 포함한다. 그 결정은 위상 P5 로서 지칭된다. 이들 결정은 도 2 에 도시된 위상 검출기 (604) 의 출력으로서 나타난다. "예" 로 표시된 위상 검출기 (604) 로부터의 경로는 역 텔레시네 (606) 를 작동시키는데, 이는, 정확한 풀 다운 위상이 제공되어, 동일 사진 이미지로부터 형성된 필드를 분류하여 그들을 결합시킬 수 있다는 것을 나타낸다. 이와 유사하게, "아니오" 로 표시된 위상 검출기 (604) 로부터의 경로는 디인터레이서 (605) 를 작동시켜, 외관 NTSC 프레임을 최적 처리를 위한 필드로 분리한다. 위상 검출기 (604) 는 상이한 타입의 비디오를 어느 때라도 수신할 수 있기 때문에 연속하여 비디오 프레임을 분석할 수 있다. 일 예로서, NTSC 표준에 따르는 비디오가 광고로서 비디오 내에 삽입될 수도 있다. 역 텔 레시네 후에, 결과로서 생성된 순차 비디오는 백색 가우스 잡음을 줄이는데 사용될 수 있는 디노이저 (필터) (607) 로 송신된다.
통상의 NTSC 비디오가 인식되는 경우에 (위상 검출기 (601) 로부터 "아니오" 경로인 경우에), 통상의 NTSC 비디오는 압축을 위해 디인터레이서 (605) 에 송신된다. 디인터레이서 (605) 가 인터레이싱된 필드를 순차 비디오로 변환한 후에, 디노이징 동작을 순차 비디오에 대해 수행할 수 있다. 디인터레이싱 처리의 일 예시적인 예는 아래에 설명되어 있다.
텔레비전과 같은 통상의 아날로그 비디오 디바이스는 인터레이싱 방식으로 비디오를 렌더링하는데, 즉, 그러한 디바이스는 홀수 주사선 (홀수 필드) 와, 짝수 주사선 (짝수 필드) 를 송신한다. 신호 샘플링 관점에서, 이는 다음 수학식에 의해 설명된 패턴에 있어서 공간-시간 서브샘플링과 등가이다.
여기서, Θ 는 원래 프레임 영상을 나타내고, F 는 인터레이싱된 필드를 나타내며, (x, y, n) 은 각각 화소의 수평, 수직 및 시간 위치를 나타낸다.
일반성을 잃지 않으면서, 본 개시내용 전체에서 n = 0 이 짝수 필드인 것으로 가정하여, 상기 수학식 1 을 다음 식과 같이 단순화할 수 있다.
수평 차원에서는 데시메이션 (decimation) 이 수행되지 않기 때문에, 서브샘플링 패턴은 다음 n ~ y 좌표에서 도시될 수 있다.
디인터레이서의 목적은 인터레이싱된 비디오 (필드 시퀀스) 를 인터레이싱되지 않은 순차 프레임 (프레임 시퀀스) 으로 변환하기 위한 것이다. 즉, 짝수 및 홀수 필드를 보간하여, 완전한 프레임 영상을 "복원" 하거나 생성하기 위한 것이다. 이는 수학식 3 에 표현될 수 있다.
여기서, F i 는 손실된 화소에 대한 디인터레이싱 결과를 나타낸다.
도 40 은 Wmed 필터링과 모션 추정을 사용하여 인터레이싱된 멀티미디어 데이터로부터 순차 프레임을 생성하는 디인터레이서 (605) 의 일 양태의 몇몇 양태를 도시한 블록도이다. 도 40 의 상부는 현재 필드, 2 개의 이전 필드 (PP 필드 및 P 필드), 및 2 개의 후속 필드 (다음 필드 및 다음 다음 필드) 로부터의 정보 사용하여 생성될 수 있는 모션 세기 맵 (4002) 을 도시한다. 모션 세기 맵 (4002) 은 현재 프레임을 2 개 이상의 상이한 모션 레벨로 분류 또는 분할하고, 아 래에서 더 상세히 설명되는 공간-시간 필터링에 의해 생성될 수 있다. 몇몇 양태에서, 모션 세기 맵 (4002) 은 아래 수학식 4 내지 수학식 8 을 참조하여 설명되는 것과 같이 정적 영역, 슬로우 모션 영역 및 패스트 모션 영역을 식별하도록 생성된다. 예를 들어, Wmed 필터 (4004) 와 같은 공간-시간 필터는 모션 세기 맵에 기초한 기준을 사용하여 인터레이싱된 멀티미디어 데이터를 필터링하고, 공간-시간 임시 디인터레이싱된 프레임을 생성한다. 몇몇 양태에서, Wmed 필터링 프로세스는, [-1, 1] 의 수평 근방, [-3, 3] 의 수직 근방 및 도 40 에 도시된 5 개의 필드 (PP 필드, P 필드, 현재 필드, 다음 필드, 다음 다음 필드) 에 의해 표현되는 5 개의 인접 필드의 시간 근방을 수반하고, Z-1 은 일 필드의 지연을 나타낸다. 현재 필드와 관련하여, 다음 필드와 P 필드는 넌패리티 (non-parity) 필드이고, PP 필드와 다음 다음 필드는 패리티 필드이다. 공간-시간 필터링에 사용되는 "근방" 은 필터링 동작 동안에 실제로 사용되는 필드와 화소의 공간 및 시간 위치를 지칭하고, 예를 들어, 도 6 및 도 7 에서 도시된 것과 같은 "애퍼처 (aperture)" 로서 도시될 수 있다.
또한, 디인터레이서 (605) 는 Wmed 필터 (4004) 에 의해 생성되는 공간-시간 임시 디인터레이싱된 프레임을 필터링하도록 구성된 디노이저 (4006; 디노이징 필터) 를 포함할 수 있다. 공간-시간 임시 디인터레이싱된 프레임을 디노이징함으로써, 특히 소스 인터레이싱된 멀티미디어 데이터가 백색 잡음에 의해 오염되는 경우에 후속 모션 검색 프로세스를 더 정확하게 한다. 또한, Wmed 영상에서 짝 수 행과 홀수 행 간의 에일리어스를 적어도 부분적으로 제거할 수 있다. 디노이저 (4006) 는 웨이브렛 축소 및 웨이브렛 위너 피터 기반 디노이저를 비롯한 다양한 필터로서 구현될 수 있다. 디노이저 필터는, 모션 보상 정보를 사용하여 더 처리하기 전에, 후보 Wmed 프레임에서 잡음을 제거하는데 사용될 수 있고, Wmed 프레임에 존재하는 잡음을 제거할 수 있으며, 신호의 주파수 콘텐츠에 관계없이 존재하는 신호를 보유할 수 있다. 웨이브렛 필터를 포함한 다양한 타입의 디노이징 필터를 사용할 수 있다. 웨이브렛은 공간과 스케일링 영역 모두에서 주어진 신호를 국부화하는데 사용되는 함수 클래스이다. 웨이브렛의 기초가 되는 기본 사상은, 웨이브렛 표현에서의 작은 변화가 그에 대응하여 원래 신호에서 작은 변화를 생성하도록, 상이한 스케일 또는 해상도로 신호를 분석한다는 것이다.
또한, 웨이브렛 축소 또는 웨이브렛 위너 필터는 디노이저로서 적용될 수 있다. 웨이브렛 축소는 잡음 신호를 웨이브렛 변환하고, 그 다음에, 큰 계수에 영향을 주지 않으면서 작은 웨이브렛 계수를 0 (또는 작은 값) 으로 축소하는 것으로 이루어진다. 끝으로, 역 변환을 수행하여 추정된 신호를 취득한다.
디노이징 필터링은 잡음 환경에서 모션 보상의 정확도를 향상시킨다. 웨이브렛 축소 디노이징은 웨이브렛 변환 영역의 축소를 수반할 수 있고, 통상 3 개의 단계를 포함한다: 선형 순방향 웨이브렛 변환, 비선형 축소 디노이징 및 선형 역 웨이브렛 변환. 위너 필터는 추가적인 잡음 및 블러링에 의해 저하되는 이미지를 개선하는데 사용될 수 있는 MSE-최적 필터이다. 일반적으로, 그러한 필터는, 당해 기술분야에서 공지되어 있으며, 예를 들어, 상기 참조한 "Ideal spatial adaptation by wavelet shrinkage" 에서 설명되어 있고, "S. P. Ghael, A. M. Sayeed 및 R. G. Baraniuk 에 의한 "Improvement Wavelet denoising via empirical Wiener filtering" (Proceedings of SPIE, vol. 3169, pp. 389-399, San Diego, 1997 년 7 월) 에 설명되어 있으며, 그 전체를 본원에서 명확히 참조로서 병합하고 있다.
몇몇 양태에서, 디노이징 필터는 이원직교 3 차 B-스플라인 웨이브렛 필터의 일 양태에 기초한다. 그러한 일 필터는, 다음 순방향 및 역방향 변환에 의해 정의될 수 있다:
디노이징 필터를 적용하면, 잡음 환경에서 모션 보상의 정확도를 증가시킬 수 있다. 그러한 필터의 구현은 그 전체를 본원에서 명확히 참조로서 병합하고 있는 "Ideal spatial adaptation by wavelet shrinkage" (D.L. Donoho 및 I.M. Johnstone, Biometrika, vol. 8, pp. 425-455, 1994 년) 에 더 설명되어 있다.
도 40 의 하부는 인터레이싱된 멀티미디어 데이터의 모션 정보 (예를 들어, 모션 벡터 후보, 모션 추정, 모션 보상) 를 결정하는 일 양태를 도시한다. 특 히, 도 40 은, 선택된 프레임의 모션 보상된 임시 순차 프레임을 생성한 후에, Wmed 임시 프레임과 결합하여 결과로서 생성된 "최종" 순차 프레임 (디인터레이싱된 현재 프레임 (4014) 으로서 도시됨) 을 형성하는데 사용되는 모션 추정 및 모션 보상 방식을 도시한다. 몇몇 양태에서, 인터레이싱된 멀티미디어 데이터의 모션 벡터 (MV) 후보 (또는 추정) 는 외부 모션 추정기로부터 디인터레이서에 제공되고, 양방향 모션 추정기 및 보상기 (4018; ME/MC) 에 대한 시작점을 제공하는데 사용된다. 몇몇 양태에서, MV 후보 선택기 (4022) 는 예를 들어, 디인터레이싱된 이전 프레임 (4020) 내의 블록과 같은 이전 처리된 블록의 MV 와 같은 처리 중인 블록의 MV 후보를 위한 근방 블록에 대해 미리 결정된 MV 를 사용한다. 모션 보상은 이전 디인터페이싱된 프레임 (70) 과 다음 (예를 들어, 장래) Wmed 프레임 (4008) 에 기초하여, 양방향으로 행해질 수 있다. 현재 Wmed 프레임 (4010) 과 모션 보상된 (MC) 현재 프레임 (4016) 은 결합기 (4012) 에 의해 병합 또는 결합된다. 결과로서 디인터레이싱된 현재 프레임 (4014), 즉, 순차 프레임은 다시 ME/MC (4018) 에 제공되어 디인터레이싱된 이전 프레임 (4020) 으로서 사용되고, 또한 후속 처리를 위해 디인터레이서 (605) 외부로 통신된다.
Wmed + MC 디인터레이싱 방식을 사용하여, 인트라 필드 보간으로부터 인터 필드 보간을 포함한 디인터레이싱 예측 방식을 분리하는 것이 가능하다. 즉, 공간-시간 Wmed 필터링은 주로 인트라 필드 보간 목적으로 사용될 수 있지만, 인터 필드 보간은 모션 보상 동안에 수행될 수 있다. 이는, Wmed 결과의 피크 신호 대 잡음비를 줄이지만, 정확하지 않은 인터 필드 예측 모드 결정으로부터의 불량 화소가 Wmed 필터링 프로세스에서 제거될 것이므로, 모션 보상 후의 시각 품질은 더 만족스럽게 적용된다.
적절한 역 텔레시네 또는 디인터레이싱 처리 후에, 블록 (608) 에서, 순차 비디오는 에일리어스 억제 및 리샘플링 (예를 들어, 리사이징) 을 위해 처리된다. 몇몇 리샘플링 양태에서, 다상 리샘플러는 영상 크기 리사이징을 위해 구현된다. 다운샘플링의 일 예에서, 원래 영상과 리사이징된 영상 간의 비율은 p/q 일 수 있고, 여기서, p 와 q 는 비교적 프라임 정수이다. 총 위상 수는 p 이다. 몇몇 양태에서 다상 필터의 차단 주파수는 약 0.5 의 리사이징 계수에 대해 0.6 이다. 차단 주파수는 리사이징된 시퀀스의 고주파수 응답을 향상시키기 위해 리사이징 비율과 정확히 일치하지 않아도 된다. 이로 인해, 반드시 약간의 에일리어싱을 허용하게 된다. 그러나, 인간의 눈이 흐릿하며 에일리어싱 없는 영상보다는 뚜렷하지만 덜 에일리어싱된 영상을 선호한다는 것이 널리 공지되어 있다.
도 41 은 다상 리샘플링의 일 예를 도시하는 것으로서, 리사이징 비율이 3/4 인 경우의 위상을 도시한다. 또한, 도 41 에 도시된 차단 주파수는 3/4 이다. 도 41 에서 원래 화소는 수직축에 대해 도시되어 있다. 또한, sinc 함수는 그 수직축을 중심으로 도시되어 필터 파형을 나타낸다. 차단 주파수가 리샘플링 비율과 정확히 동일하게 선택되었기 때문에, sinc 함수의 영점은 리사이징 후의 화소 위치와 겹치고, 도 41 에는 교차하는 것으로 도시되어 있다. 리사이징 후의 화소 값을 찾기 위해, 그 기여는 다음 식에서 표현된 원래 화소로부터 합계될 수 있다.
여기서, f c 는 차단 주파수이다. 상기 1-D 다상 필터는 수평 차원과 수직 차원 모두에 적용될 수 있다.
리샘플링 (리사이징) 의 다른 양태는 오버스캔을 설명한다. NTSC 텔레비전 신호에 있어서, 이미지는 486 개의 주사선을 갖고, 디지털 비디오에서 각 주사선 상에 720 개의 화소를 갖는다. 그러나, 사이즈와 화면 포맷 간의 불일치 때문에 텔레비전에서 전체 이미지 모두를 볼 수 있는 것은 아니다. 볼 수 없는 이미지 부분은 오버스캔으로 지칭된다.
방송사업자가 가능한 한 많은 텔레비전이 볼 수 있는 영역에 유용한 정보를 두는 것을 돕기 위해, SMPTE (Society of Motion Picture & Television Engineers) 는 안전한 액션 영역과 안전한 타이틀 영역으로 지칭되는 액션 프레임의 특정 크기를 정의하였다. Specifications for Safe Action and Safe Title Areas Test Pattern for Television Systems 에 대한 SMPTE 권고 실무 RP 27.3-1989 년 참조. 안전 액션 영역은 "모든 중요한 액션이 일어나야 하는" 영역으로서 SMPTE 에 의해 정의된다. 안전 타이틀 영역은 "가정용 텔레비전 수상기 대부분에서 가시성을 확보하도록 모든 유용한 정보가 제한될 수 있는" 영역으로서 정의된다.
예를 들어, 도 25 를 참조하면, 안전 액션 영역 (2510) 은 화면의 중심 90% 을 차지하고, 모든 주위에서 5 % 경계를 준다. 안전 타이틀 영역 (2505) 은 화면의 중심 80% 를 차지하고, 10% 경계를 준다. 이하, 도 26 을 참조하면, 안전 타이틀 영역이 너무 작기 때문에, 이미지에 더 많은 콘텐츠를 추가하기 위해, 몇몇 지국은 백색 장방형 윈도우 (2615) 내에 있는 안전 액션 영역 안으로 텍스트를 밀어 넣을 것이다.
통상, 흑색 경계는 오버스캔에서 보일 수도 있다. 예를 들어, 도 26 에서, 흑색 경계는 이미지의 상부 측 (2620) 과 하부 측 (2625) 에 나타난다. 이들 흑색 경계는 오버스캔에서 제거될 수 있는데, 그 이유는, H.264 비디오가 모션 추정에서 경계 확장을 사용하기 때문이다. 확장된 흑색 경계는 나머지를 증가시킨다. 대략, 그 경계가 2% 만큼 줄어들 수 있고, 그 다음에, 리사이징을 행할 수 있다. 그에 따라, 리사이징을 위한 필터를 생성할 수 있다. 절단 (truncation) 을 행하여 다상 다운샘플링 전에 오버스캔을 제거할 수 있다.
다시 도 6 을 참조하면, 그 다음에, 순차 비디오는 디블록킹 및 디링잉 동작을 수행하는 블록 (610) 으로 진행한다. 2 가지 타입의 아티팩트인 "블록킹" 과 "링잉" 은 비디오 압축 애플리케이션에서 보통 일어난다. 블록킹 아티팩트는, 압축 알고리즘이 각 프레임을 블록 (예를 들어, 8×8 개의 블록) 으로 분할하기 때문에, 일어난다. 각 블록은 얼마간의 작은 에러를 갖도록 재구성되고, 블록 에지에서의 에러는 인접 블록 에지에서의 에러와 종종 대조를 이루어 블록 경계를 볼 수 있게 한다. 이와는 달리, 링잉 아티팩트는, 이미지 특징의 에지 주위의 왜곡으로서 나타난다. 링잉 아티팩트는, 인코더가 고주파수 DCT 계수를 양 자화하는데 있어서 너무 많은 정보를 버리기 때문에, 일어난다. 몇몇 예시적인 예에서, 디블록킹과 디링잉 모두는 저역 통과 FIR (finite impulse response) 필터를 사용하여 이들 보이는 아티팩트를 숨길 수 있다.
디블록킹 처리의 일 예에서, 디블록킹 필터는, 프레임 경계에 있는 에지와 디블록킹 필터 프로세스가 디세이블되는 임의의 에지를 제외하고는, 모든 4×4 개의 블록 에지에 적용될 수 있다. 이러한 필터링 프로세스는 매크로블록 주소가 증가하는 순서로 처리되는 프레임 내의 모든 매크로블록과 함께 프레임 구성 프로세스의 완료 후에 매크로블록 기반으로 수행될 것이다. 각각의 매크로블록마다, 우선, 수직 에지가 좌측에서 우측으로 필터링된 다음에, 수평 에지가 상부에서 하부로 필터링된다. 도 39 에 도시된 바와 같이, 루마 디블록킹 필터 프로세스는 4개의 16-샘플 에지에 대해 수행되고, 각각의 크로마 컴포넌트에 대한 디블록킹 필터 프로세스는 수평 방향과 수직 방향에 대해 2 개의 8-샘플 에지에 대해 수행된다. 이전 매크로블록에 대한 디블록킹 프로세스 동작에 의해 이미 수정되었을 수도 있는 현재 매크로블록의 위와 좌측에 있는 샘플 값은 현재 매크로블록에 대한 디블록킹 필터 프로세스에 대한 입력으로서 사용될 것이고, 또한 현재 매크로블록의 필터링 동안에 수정될 수도 있다. 수직 에지의 필터링 동안에 수정된 샘플 값은 동일 매크로블록에 대한 수평 에지의 필터링을 위한 입력으로서 사용될 수 있다. 디블록킹 프로세스는 루마 및 크로마 컴포넌트에 대해 개별적으로 호출될 수 있다.
디링잉 프로세스의 일 예에서, 2-D 필터는 에지 근방 영역을 평활화하는데 적응 가능하게 적용될 수 있다. 에지 화소는 블러링을 피하기 위해 필터링을 거의 하지 않거나 전혀 하지 않는다.
GOP
분할기
디블록킹과 디링잉 후에, 순차 비디오는 GOP 분할기 (612) 에 의해 처리된다. GOP 포지셔닝은 샷 변화 검출, 복잡도 맵 생성 (예를 들어, 시간, 공간 대역폭 맵) 및 적응 GOP 분할을 포함할 수 있다. 이들은 아래에 각각 설명되어 있다.
A. 장면 전환 검출
샷 검출은, GOP (group of picture) 내의 프레임이 장면 전환이 일어난 데이터를 나타나는 때를 결정하는 것에 관한 것이다. 일반적으로, GOP 내에서, 프레임은 임의의 2 개 또는 3 개의 (또는 그 이상) 인접 프레임에서 상당한 변화를 갖지 않거나 느린 변화 또는 빠른 변화일 수도 있다. 물론, 이들 장면 전환 분류는 또한 필요한 경우 특정 애플리케이션에 따라 더 큰 변화 레벨로 분류될 수 있다.
샷 또는 장면 전환 검출은 효율적인 비디오 인코딩에 있어서 중요하다. 통상, GOP 가 상당히 변하지 않고 있는 경우에는, 다수의 예측 프레임이 비디오를 충분히 인코딩한 다음에, GOP 의 시작에서 I-프레임이 일어나므로, 후속 디코딩 및 비디오 디스플레이는 시각적으로 허용 가능하다. 그러나, 장면이 갑작스럽게 또는 느리게 변하고 있을 때에는, 그 다음에 디코딩된 시각적으로 허용 가능한 결과를 생성하기 위해 추가적인 I-프레임과 덜 예측적인 인코딩 (P-프레임과 B-프레 임) 을 필요로 할 수도 있다.
이하, 기존 인코딩 시스템의 성능을 개선하는 샷 검출과 인코딩 시스템 및 방법을 설명한다. 그러한 양태는 전처리기 (226) 의 GOP 분할기 (612) 에 구현될 수 있고, 또는 전처리기 유무에 관계없이 동작할 수도 있는 인코더 디바이스에 포함될 수 있다 (도 7). 그러한 양태는, 갑작스런 장면 전환이 일어났는지, 장면이 느리게 변하고 있는지, 또는 비디오 인코딩을 특히 복잡하게 할 수 있는 장면 내의 카메라 플래시라이트가 존재하는지를 결정하기 위해, 비디오 데이터의 인접 프레임 간의 통계적 비교를 포함한 통계치 (또는 메트릭) 를 사용한다. 그 통계치는 전처리기로부터 얻어질 수 있고, 그 다음에, 인코딩 디바이스로 송신되거나, (예를 들어, 모션 보상을 수행하도록 구성된 프로세서에 의해) 인코딩 디바이스에서 생성될 수 있다. 결과로서 생성된 통계치는 장면 전환 검출 결정을 돕는다. 트랜스코딩을 행하는 시스템에서는, 종종 적당한 전처리기 또는 구성 가능한 프로세서가 존재한다. 전처리기가 모션 보상 활용 디인터레이싱을 수행하는 경우에, 모션 보상 통계치를 사용할 수 있고, 즉시 사용 가능하다. 그러한 시스템에서, 샷 검출 알고리즘은 시스템 복잡도를 약간 증가시킬 수도 있다.
본원에 설명된 샷 검출기의 예시적인 예는 이전 프레임, 현재 프레임 및 다음 프레임으로부터의 통계치를 사용하기만 하면 되므로, 매우 낮은 지연시간을 갖는다. 샷 검출기는 갑작스러운 장면 전환, 크로스페이딩 (cross-fading) 과 기타 느린 장면 전환, 및 카메라 플래시라이트를 비롯한 몇몇 상이한 타입의 샷 이벤트를 구별한다. 인코더에서 상이한 전략으로 상이한 타입의 샷 이벤트를 결정 함으로써, 인코딩 효율과 시각 품질이 향상된다.
장면 전환 검출은 고정 간격으로 I-프레임을 삽입함으로써 지능적으로 비트를 보전하기 위한 임의의 비디오 코딩 시스템에 사용될 수 있다. 몇몇 양태에서, (예를 들어, 메타데이터에 통합되거나 전처리기 (226) 에 의해 계산되는) 전처리기에 의해 얻어진 콘텐츠 정보는 장면 전환 검출에 사용될 수 있다. 예를 들어, 콘텐츠 정보에 따라, 아래에 설명되는 임계값 및 기타 기준은 상이한 타입의 비디오 콘텐츠에 대해 동적으로 조절될 수도 있다.
통상, 비디오 인코딩은 구조화된 GOP (group of picture) 에 대해 작용한다. 통상, GOP 는 인트라 코딩된 프레임 (I-프레임) 에서 시작하고, 일련의 P (예측) 또는 B (양방향) 프레임이 뒤따른다. 통상, I-프레임은 프레임을 디스플레이하는데 필요한 모든 데이터를 저장할 수 있고, B-프레임은 이전 및 다음 프레임의 데이터에 의존하며 (예를 들어, 단지 이전 프레임으로부터 변경된 데이터를 포함하거나, 다음 프레임의 데이터와 상이함), P-프레임은 이전 프레임으로부터 변경된 데이터를 포함한다. 통상의 사용 시, I-프레임은 인코딩된 비디오에서 P-프레임과 B-프레임이 산재된다. 크기 (예를 들어, 프레임을 인코딩하는데 사용되는 비트 수) 면에서, 통상, I-프레임은 P-프레임보다 훨씬 더 크고, 또한, P-프레임은 B-프레임보다 크다. 효율적인 인코딩, 송신 및 디코딩 처리를 위해, GOP 의 길이는 큰 I- 프레임으로부터의 유효 손실을 줄이기에 충분히 길어야 하고, 인코더와 디코더 간의 부정합, 또는 채널 손상을 해결하기에 충분히 짧아야 한다. 또한, P 프레임 내의 매크로블록 (MB) 은 동일한 이유로 인트라 코딩될 수 있다.
종종 불필요한 I-프레임을 고정 간격으로 삽입하는 대신에, 비디오 인코더에 대해 장면 전환 검출을 사용하여, GOP 길이에 기초하여 적절한 GOP 길이를 결정하고, I-프레임을 삽입할 수 있다. 통상, 실제 스트리밍 비디오 스트림에서, 통신 채널은 비트 에러나 패킷 손실에 의해 손상된다. I 프레임 또는 I MB 를 어느 곳에 배치해야 하는지는 디코딩된 시각 품질과 시청 경험에 상당히 영향을 줄 수도 있다. 하나의 인코딩 방식은 나란히 배열된 이전 영상 또는 영상 부분으로부터 상당한 변화를 가질 수도 있는 영상 또는 영상 부분에 대한 인트라 코딩된 프레임을 사용하는 것이다. 통상, 이들 영역은 모션 추정을 사용하여 효과적ㆍ효율적으로 예측될 수 없고, 그러한 영역이 인터 프레임 코딩 기술 (예를 들어, B-프레임과 P-프레임을 사용하여 인코딩하는 기술) 에서 면제된다면, 인코딩은 더 효율적으로 행해질 수 있다. 채널 손상의 문맥에서, 이들 영역은 에러 전파의 영향을 받을 가능성이 있는데, 이러한 에러 전파는 인트라 프레임 인코딩에 의해 감소 또는 제거 (또는 거의 제거됨) 될 수 있다.
GOP 비디오의 일부는 2 개 이상의 카테고리로 분류될 수 있고, 여기서, 각 영역은 특정 구현에 의존할 수도 있는 상이한 인트라 프레임 인코딩 기준을 가질 수 있다. 일 예로서, 비디오는 3 개의 카테고리로 분류될 수 있다: 갑작스런 장면 전환, 크로스페이딩과 기타 느린 장면 전환, 및 카메라 플래시라이트.
갑작스런 장면 전환은 통상, 카메라 동작에 의해 발생하는 이전 프레임과 상당히 상이한 프레임을 포함한다. 이들 프레임의 콘텐츠가 이전 프레임의 콘텐츠와 상이하기 때문에, 갑작스런 장면 전환은 I 프레임으로서 인코딩되어야 한다.
크로스페이딩과 기타 느린 장면 전환은, 통상 카메라 샷의 컴퓨터 처리에 의해 발생하는 느린 장면 전환을 포함한다. 2 개의 상이한 장면의 점진적인 블렌딩은 사람 눈에 더 즐겁게 보일 수도 있지만, 비디오 코딩하는데 있어서 어려움을 제공한다. 모션 보상은 이들 프레임의 비트레이트를 효과적으로 줄일 수 있고, 이들 프레임에 대해 더 많은 인트라 MB 가 갱신될 수 있다.
카메라 플래시라이트 또는 카메라 플래시 이벤트는, 프레임 콘텐츠가 카메라 플래시를 포함하는 경우에 발생한다. 그러한 플래시는 지속 기간이 비교적 짧고 (예를 들어, 일 프레임), 매우 밝아서, 플래시를 표현하는 프레임 내의 화소는 인접 프레임 상의 대응하는 영역에 비해 상당히 높은 휘도를 나타낸다. 카메라 플래시라이트는 영상의 휘도를 갑자기 또한 신속히 시프트한다. 통상, 카메라 플래시라이트의 지속 기간은 보통 44 ms 로 규정되어 있는 HVS (human vision system) 의 시간 마스킹 지속 기간보다 짧다. 사람 눈은 이들 짧은 밝기 버스트의 품질에 민감하지 않으므로, 덜 세분화되어 인코딩될 수 있다. 플래시라이트 프레임이 모션 보상을 사용하여 효과적으로 처리될 수 없고 추후 프레임에 대한 좋지 않은 예측 후보이기 때문에, 이들 프레임의 덜 세분화된 인코딩은 추후 프레임의 인코딩 효율을 줄이지 않는다. 플래시라이트로서 분류된 장면은 "인위적인" 고휘도 때문에 다른 프레임을 예측하는데 사용되지 않아야 하고, 같은 이유로 다른 프레임은 이들 프레임을 예측하는데 효과적으로 사용될 수 없다. 일단 식별되면, 이들 프레임이 비교적 높은 처리량을 필요로 할 수도 있기 때문에, 이들 프레임을 제거할 수 있다. 하나의 옵션은 카메라 플래시라이트 프레임을 제거 하고, 그 대신에 DC 계수를 인코딩하는 것이다: 그러한 솔루션은 간단하고, 계산상 빠르고 많은 비트를 절약한다.
상기 내용 중 임의의 내용이 프레임이 검출되는 것으로 분류하면, 샷 이벤트가 선언된다. 샷 검출은 인코딩 품질을 개선하는데 유용할 뿐만 아니라, 비디오 콘텐츠 검색 및 인덱싱을 식별하는 것을 도울 수도 있다. 이하, 장면 검출 프로세스의 일 예시적인 양태가 설명된다. 본 예에 따르면, 우선, 샷 검출 프로세스는 샷 검출을 위해 처리중인 선택된 프레임에 대한 정보, 또는 메트릭을 계산한다. 메트릭은 비디오의 양방향 모션 추정 및 보상으로부터의 정보, 및 기타 휘도 기반 메트릭을 포함할 수 있다.
양방향 모션 추정/보상을 수행하기 위해, 비디오 시퀀스는, 프레임들 중 2 개의 프레임, 즉, 프레임들 중 가장 인접한 이웃 프레임인, 과거의 한 프레임 및 장래의 한 프레임의 블록과 현재 프레임의 모든 8×8 블록을 정합시키는 양방향 모션 보상기를 사용하여 전처리될 수 있다. 모션 보상기는 모든 블록마다 모션 벡터와 차이 메트릭을 생성한다. 도 29 는 과거 프레임 (P) 및 장래 (또는 다음) 프레임 (N) 에 현재 프레임 (C) 의 화소를 정합시키는 일 예를 도시한 도면으로서, 정합된 화소에 대한 모션 벡터 (과거 모션 벡터 (MVP) 및 장래 모션 벡터 (MVN)) 를 도시한다. 통상, 양방향 모션 벡터 생성 및 관련 인코딩의 일반적인 설명은 도 32 를 참조하여 아래에 설명된다.
양방향 모션 정보 (예를 들어, 대응하는 인접 프레임에서 (가장 정합되는) MB 를 식별하는 모션 정보) 를 결정한 후에, 다음 프레임 및 이전 프레임과 현재 프레임을 다양하게 비교함으로써, (예를 들어, GOP 분할기 (612) 내의 모션 보상기 또는 다른 적당한 컴포넌트에 의해) 추가 메트릭을 생성할 수 있다. 모션 보상기는 모든 블록마다 차이 메트릭을 생성할 수 있다. 차이 메트릭은 SSD (sum of square difference) 또는 SAD (sum of absolute difference) 일 수 있다. 일반성을 잃지 않으면서, 본원에서 SAD 는 일 예로서 사용된다.
모든 프레임에 대해, "콘트라스트비" 로도 지칭되는 SAD 비는 다음 수학식과 같이 계산된다.
여기서, SAD P 및 SAD N 은 각각 순방향 및 역방향 차이 메트릭의 절대 차이의 합이다. 분모는 "divide-by-zero" 에러를 방지하기 위해 작은 양의 수 ε 을 포함한다는 것에 주목해야 한다. 또한, 분자는 분모에 있는 "1" 의 영향과 균형을 맞추기 위해 ε 을 포함한다. 예를 들어, 이전 프레임, 현재 프레임 및 다음 프레임이 동일하면, 모션 검색은 SADP = SADN = 0 이라는 결과를 나타낼 것이다. 이러한 경우에, 상기 계산은 "0" 또는 무한대 대신에 γ = 1 이라는 결과를 생성한다.
휘도 히스토그램은 모든 프레임에 대해 계산될 수 있다. 통상, 멀티미디 어 이미지는 8 비트의 휘도 깊이 (예를 들어, "빈 (bin)" 의 개수) 를 갖는다. 몇몇 양태에 따른 휘도 히스토그램을 계산하는데 사용되는 휘도 깊이는 그 히스토그램을 얻기 위해 16 으로 설정될 수 있다. 다른 양태에서, 휘도 깊이는 처리되는 데이터 타입, 가용 계산 전력 또는 기타 소정의 기준에 따를 수도 있는 적절한 개수로 설정될 수 있다. 몇몇 양태에서, 휘도 깊이는 데이터 콘텐츠와 같은 계산되거나 수신된 메트릭에 기초하여 동적으로 설정될 수 있다.
아래 수학식은 휘도 히스토그램 차이 (람다) 를 계산하는 일 예를 도시한다:
여기서, Npi 는 이전 프레임에 대한 i 번째 빈 내의 블록 개수이고, NCi 는 현재 프레임에 대한 i 번째 빈 내의 블록 개수이며, N 은 일 프레임 내의 총 블록 개수이다. 이전 및 현재 프레임의 휘도 히스토그램 차이가 완전히 다르면 (또는 공통 원소를 갖지 않으면), λ = 2 이다.
이러한 정보를 사용하여, 프레임 차이 메트릭 (D) 은 다음 식과 같이 계산된다:
프레임 차이 메트릭이 수학식 9 에 도시된 기준을 만족하는 경우에, 선택된 (현재) 프레임은 갑작스런 장면 전환 프레임으로서 분류된다.
여기서, A 는 애플리케이션에 따라 선택된 상수이고, T 1 은 임계값이다.
시뮬레이션이 나타내는 일 예에서, A = 1 및 T1 = 5 로 설정하면, 양호한 검출 성능이 달성된다. 현재 프레임이 갑작스런 장면 전환 프레임이면, γC 는 커야하고, γP 는 작아야 한다. 메트릭이 문맥의 액티비티 레벨로 정규화되도록, 단지 γC 만을 사용하는 대신에 비율 를 사용할 수 있다.
상기 기준은 휘도 히스토그램 차이 람다 (λ) 를 비선형으로 사용한다는 것에 주목하자. 도 16 은 λ*(2λ+1) 이 볼록 함수인 것을 도시한다. λ 가 작으면 (예를 들어, 0 에 가까우면), 프리엠퍼시스를 거의 갖지 않는다. λ 가 커지면, 볼록 함수에 의해 더 많은 엠퍼시스가 수행된다. 이러한 프리엠퍼시스를 사용하여, 1.4 보다 큰 임의의 λ 에 대해, 임계값 T1 이 5 로 설정되면, 갑작스 런 장면 전환이 검출된다.
일정 수의 연속 프레임에 대해, 장면 세기 메트릭 D 가 수학식 10 에 표현된 기준을 만족하면, 현재 프레임이 크로스페이딩 또는 느린 장면 전환인 것으로 결정된다.
여기서, T 1 은 위에서 사용된 동일 임계값이고, T 2 는 다른 임계값이다.
통상, 플래시라이트 이벤트로 인해, 휘도 히스토그램이 더 밝은 쪽으로 이동하게 된다. 이러한 예시적인 양태의 카메라에서는, 휘도 히스토그램 통계치를 사용하여, 현재 프레임이 카메라 플래시라이트를 포함하는지를 결정한다. 수학식 11 및 수학식 12 에 나타낸 바와 같이, 샷 검출 프로세스는, 현재 프레임 마이너스의 휘도가 이전 프레임의 휘도보다 일정 임계값 T 3 만큼 큰지를 결정할 수 있고, 현재 프레임의 휘도가 다음 프레임의 휘도보다 임계값 T 3 만큼 큰지를 결정할 수 있다.
상기 기준을 만족하지 않으면, 현재 프레임은 카메라 플래시라이트를 포함한 것으로서 분류되지 않는다. 상기 기준을 만족하면, 아래 수학식에 표현된 바와 같이, 샷 검출 프로세스는 역방향 차이 메트릭 SAD P 와 순방향 차이 메트릭 SAD N 이 일정 임계값 T4 보다 큰지를 결정한다.
여기서, 는 현재 프레임의 평균 휘도이고, 는 이전 프레임의 평균 휘도이고, 은 다음 프레임의 평균 휘도이며, SADP 및 SADN 은 현재 프레임과 연관된 순방향 및 역방향 차이 메트릭이다.
샷 검출 프로세스는, 우선 현재 프레임의 휘도가 이전 프레임의 휘도와 다음 프레임의 휘도보다 큰지를 결정함으로써 카메라 플래시 이벤트를 결정한다. 현재 프레임의 휘도가 이전 프레임의 휘도와 다음 프레임의 휘도보다 크지 않으면, 그 프레임은 카메라 플래시 이벤트가 아니고, 현재 프레임의 휘도가 이전 프레임의 휘도와 다음 프레임의 휘도보다 크면, 카메라 플래시 이벤트일 수도 있다. 그 다음에, 샷 검출 프로세스는 역방향 차이 메트릭이 임계값 T3 보다 큰지 여부와, 순 방향 차이 메트릭이 임계값 T4 보다 큰지 여부를 평가할 수 있고, 이들 양 조건을 만족하면, 샷 검출 프로세스는 카메라 플래시라이트를 갖는 것으로서 현재 프레임을 분류한다. 상기 기준을 만족하지 않으면, 그 프레임은 어떤 타입의 샷 이벤트로 분류되지 않고, 또는 그 프레임에 대해 수행되는 인코딩을 식별하는 디폴트 분류 (예를 들어, 드롭 프레임, I-프레임으로 인코딩됨) 가 주어질 수 있다.
상기와 같이, T1, T2, T3 및 T4 에 대한 몇몇 예시적인 값이 존재한다. 통상, 이들 임계값은 샷 검출의 특정 구현의 테스팅을 통해 선택된다. 몇몇 양태에서, 임계값 T1, T2, T3 및 T4 중 하나 이상은 미리 정해지고, 그러한 값은 인코딩 디바이스에서 샷 분류기 내에 통합된다. 몇몇 양태에서, 임계값 T1, T2, T3 및 T4 중 하나 이상은 샷 분류기에 공급된 정보 (예를 들어, 메타데이터) 의 사용에 기초하여 또는 샷 분류기 자체에 의해 계산된 정보에 기초하여 처리 동안에 (예를 들어, 동적으로) 설정될 수 있다.
통상, 샷 검출 정보를 사용한 비디오 인코딩은 인코더에서 수행되지만, 본원에서는 샷 검출 개시내용의 완전성을 위해 설명된다. 도 30 을 참조하면, 인코딩 프로세스 (301) 는 샷 검출 정보를 사용하여, 프레임 시퀀스에서 검출된 샷에 기초하여 비디오를 인코딩할 수 있다. 프로세스 (301) 는 블록 (303) 으로 진행하고, 현재 프레임이 갑작스런 장면 전환으로서 분류되는지를 알기 위해 검사한다. 현재 프레임이 갑작스런 장면 전환으로서 분류되면, 블록 (305) 에서, 현 재 프레임을 I-프레임으로서 분류할 수 있고, GOP 경계를 결정할 수 있다. 현재 프레임이 갑작스런 장면 전환으로서 분류되지 않으면, 프로세스 (301) 는 블록 (307) 으로 진행하고, 즉, 블록 (309) 에서 현재 프레임이 느리게 변하는 장면의 일부로서 분류되면, 현재 프레임과 느리게 변하는 장면 내의 다른 프레임을 예측 프레임 (예를 들어, P-프레임 또는 B-프레임) 으로서 인코딩할 수 있다. 그 다음에, 프로세스 (301) 는 블록 (311) 으로 진행하여, 현재 프레임이 카메라 플래시를 포함한 플래시라이트 장면으로서 분류되는지를 검사한다. 현재 프레임이 플래시라이트 장면으로서 분류되면, 블록 (313) 에서, 현재 프레임은 예를 들어, 그 프레임에 대한 DC 계수 제거 또는 인코딩과 같은 특별한 처리에 대해 식별될 수 있고, 현재 프레임이 플래시라이트 장면으로서 분류되지 않으면, 현재 프레임의 어떤 분류도 이루어지지 않고, 현재 프레임을 다른 기준에 따라 인코딩할 수 있는데, I-프레임으로 인코딩하거나 드롭할 수 있다.
상술한 양태에서, 압축될 프레임과 그 인접한 2 개의 프레임 간의 차이 양은 프레임 차이 메트릭 D 에 의해 표시된다. 상당한 양의 단방향 휘도 변화가 검출되면, 이는 프레임에서 크로스페이딩 효과를 나타낸다. 크로스페이딩이 더 현저해지면, B-프레임을 사용함으로써 더 많은 이득을 달성할 수 있다. 몇몇 양태에서, 수정된 프레임 차이 메트릭은 아래 수학식에 표현된 것과 같이 사용된다.
여기서, 및 은 각각 현재 프레임과 이전 프레임 간의 루마 차이 및 현재 프레임과 다음 프레임 간의 루마 차이이고, 는 구현에 따라 정규 실험에서 결정될 수 있는 상수를 나타내며, 는 0 과 1 사이의 값을 갖는 가중 변수이다.
B. 대역폭 맵 생성
또한, 전처리기 (226; 도 6) 는 멀티미디어 데이터를 인코딩하는데 사용될 수 있는 대역폭 맵을 생성하도록 구성될 수 있다. 몇몇 양태에서는, 그 대신에, 인코더 (228; 도 7) 내의 콘텐츠 분류 모듈 (712) 이 대역폭 맵을 생성한다.
인간 시각 품질 V 는 인코딩 복잡도 C 와 할당된 비트 B (또한, 대역폭으로도 지칭됨) 모두의 함수일 수 있다. 도 15 는 이러한 관계를 도시한 그래프이다. 인코딩 복잡도 메트릭 C 는 인간 시각 관점으로 공간 및 시간 주파수를 고려한다. 사람 눈에 더 민감한 왜곡의 경우에는, 이에 대응하여 복잡도 값이 높아진다. 통상, V 는 C 에 따라 단조 감소하고 있고, B 에 따라 단조 증가하는 것으로 가정할 수 있다.
일정한 시각 품질을 달성하기 위해, 인코딩될 i 번째 물체 (프레임 또는 MB) 에는 바로 아래 2 개의 수학식에 표현된 기준을 만족하는 대역폭 Bi 가 할당된다.
바로 위에 있는 2 개의 수학식에서, Ci 는 i 번째 물체의 인코딩 복잡도이고, B 는 전체 가용 대역폭이며, V 는 일 물체에 대해 달성된 시각 품질이다. 인간 시각 품질은 일 수학식으로 공식화하는 것이 어렵다. 따라서, 상기 수학식 세트는 정확히 정해지지 않는다. 그러나, 3-D 모델이 모든 변수에서 연속적인 것으로 가정하면, 대역폭 비율 은 (C, V) 쌍 근방 내에서 변하지 않는 것으로서 취급될 수 있다. 대역폭 비율 는 아래 표현된 수학식에서 정해진다.
그 다음에, 비트 할당은 다음 수학식에서 표현된 것과 같이 정해질 수 있다:
인코딩 복잡도는 인간 시각 감도 (공간과 시간 모두) 에 의해 영향을 받는다. 지로드의 인간 시각 모델은 공간 복잡도를 규정하는데 사용될 수 있는 모델의 일 예이다. 이러한 모델은 로컬 공간 주파수와 주위 조명을 고려한다. 그 결과로서 생성된 메트릭은 Dcsat 로 지칭된다. 프로세스 내의 전처리 시점에서는, 영상이 인트라 코딩되는지 인터 코딩되는지 여부가 알려지지 않고, 양쪽에 대한 대역폭 비율이 생성된다. 비트는 상이한 비디오 물체의 간의 비율에 따라 할당된다. 인트라 코딩된 영상의 경우에, 대역폭 비율은 다음 수학식으로 표현된다.
상기 수학식에서, 는 매크로블록의 평균 휘도 성분이고, 는 휘도 제곱과 그 다음에 오는 항에 대한 가중 계수이며, 는 를 보장하는 정규화 계수이다. 예를 들어, 에 대한 값은 양호한 시각 품질을 달성한다. 콘텐츠 정보 (예를 들어, 콘텐츠 분류) 를 사용하여, 특정 비디오 콘텐츠에 대한 양호한 시각 품질 레벨에 대응하는 값으로 를 설정할 수 있다. 일 예에서, 비디오 콘텐츠가 "토킹 헤즈 (talking head)" 뉴스 방송을 포함하면, 정보 이미지 또는 비디오의 표시 가능 부분이 오디오 부분보다 덜 중요한 것으로 간주될 수도 있기 때문에, 시각 품질 레벨을 더 낮게 설정할 수도 있고, 더 적은 비트를 할당하여 데이터를 인코딩할 수 있다. 다른 예에서, 비디오 콘텐츠가 스포츠 이벤트를 포함하면, 표시된 이미지가 시청자에게 더 중요할 수도 있기 때문에, 콘텐츠 정보를 사용하여, 높은 시각 품질 레벨에 대응하는 값으로 를 설정할 수도 있으므로, 더 많은 비트를 할당하여 데이터를 인코딩할 수 있다.
이러한 관계를 이해하기 위해서는, 인코딩 복잡도에 따라 대역폭을 대수적으로 할당한다는 것에 주목해야 한다. 휘도 제곱 항 은, 크기가 더 큰 계수가 인코딩을 위해 더 많은 비트를 사용한다는 사실을 나타낸다. 로그가 음의 값을 얻는 것을 방지하기 위해, 괄호 내의 항에 1 을 더한다. 또한, 다른 밑을 갖는 로그를 사용할 수도 있다.
시간 복잡도는 프레임 차이 메트릭의 측정에 의해 결정되고, 이는 절대 차이의 합 (SAD) 으로서 프레임 차이 메트릭과 함께 모션 양 (예를 들어, 모션 벡터) 을 고려하여 2 개의 연속 프레임 간의 차이를 측정한다.
인터 코딩된 영상에 대한 비트 할당은 시간 복잡도뿐만 아니라 공간 복잡도도 고려할 수 있다. 이는 아래 수학식으로 표현된다:
상기 수학식에서, MVP 와 MVN 은 현재 MB 에 대한 순방향 및 역방향 모션 벡터이다 (도 29 참조). 인트라 코딩된 대역폭 공식 내의 은 제곱 차이의 합 (SSD) 에 의해 대체된다. 상기 수학식에서 의 역할을 이해하기 위해서는, 인간 시각 시스템의 다음 특성에 주목해야 한다: 평탄하고 예측 가능한 모션 (작은 ) 을 경험한 영역은 주의를 끌고, 통상, 사람 눈이 쫓아갈 수 있으며, 정지 영역보다 임의의 더 많은 왜곡을 허용할 수 있다. 그러나, 빠르거나 예측할 수 없는 모션 (큰 ) 을 경험한 영역은 사람 눈이 쫓아갈 수 없고, 상당한 양자화를 허용할 수 있다. 실험은 이 양호한 시각 품질을 달성하는 것을 나타낸다.
C. 적응
GOP
분할
또한, 전처리기 (226) 에 의해 수행될 수도 있는 처리의 다른 예시적인 예에서, 도 6 의 GOP 분할기 (612) 는 함께 코딩된 영상 그룹의 구성을 적응 변경할 수 도 있고, MPEG2 를 사용한 일 예를 참조하여 설명된다. 몇몇 오래된 비디오 압축 표준 (예를 들어, MPEG2) 은 GOP 가 일정한 구조를 갖는 것을 필요로 하지 않지만, 일 구조가 부과될 수 있다. MPEG2 시퀀스는 항상 I 프레임으로 시작하는데, 즉, 이전 영상을 참조함 없이 인코딩된 프레임으로 시작한다. 통상, MPEG2 GOP 포맷은 I 프레임 다음에 오는 P 또는 예측 영상의 GOP 내의 간격을 고정함으로써 인코더에서 사전에 조정된다. P 프레임은 이전 I 또는 P 영상에서 부분적으로 예측된 영상이다. 시작 I 프레임과 그 다음에 오는 P 프레임 간의 프레임은 B-프레임으로서 인코딩된다. "B" 프레임 (B 는 양방향을 나타냄) 은 이전 및 다음 I 또는 P 영상을 개별적으로 또는 동시에 기준으로서 사용할 수 있다. 평균적으로 I 프레임을 인코딩하는데 필요한 비트 수는 P 프레임을 인코딩하는데 필요한 비트 수를 초과한다; 이와 마찬가지로, 평균적으로 P 프레임을 인코딩하는데 필요한 비트 수는 B-프레임을 인코딩하는데 필요한 비트 수를 초과한다. 스킵된 프레임은, 만약 사용되더라도, 그 표현에 어떤 비트도 필요로 하지 않을 것이다.
P 및 B-프레임 사용에 기초가 되는 개념인, 최근의 압축 알고리즘에서 비디오를 표현하는데 필요한 데이터 레이트를 줄이도록 프레임을 스킵하는 것은 시간 중복을 제거하는 것이다. 시간 중복이 높으면, 즉, 영상 간에 변화가 거의 없으면, 먼저 디코딩된 I 또는 P 영상이 다른 P 또는 B 영상을 디코딩하기 위한 기준으로서 나중에 사용되기 때문에, P, B 또는 스킵된 영상의 사용은 비디오 스트림을 효율적으로 표현한다.
적응 GOP 분할은 이러한 개념을 적응적으로 사용하는 것에 기초한다. 프레임 간의 차이는 양자화되고, 양자화된 차이에 대해 적당한 테스트를 수행한 후에 I, P, B 또는 스킵된 프레임에 의해 영상을 표현하려는 결정이 자동으로 이루어진다. 적응 구조는 고정된 GOP 구조에서는 이용 가능하지 않은 이점을 갖는다. 고정된 구조는 콘텐츠에서 변화가 거의 발생하지 않은 확률을 무시할 것이고, 적응 절차로 인해, 훨씬 많은 B-프레임이 각각의 I 와 P 사이에, 또는 2 개의 P 프레임 사이에 삽입되는 것을 허용함으로써, 프레임 시퀀스를 충분히 표현하는데 필요한 비트 수를 줄일 것이다. 이와 반대로, 비디오 콘텐츠의 변화가 아주 큰 경우에는, 예측 프레임과 기준 프레임 간의 차이가 너무 크기 때문에, P 프레임의 효율이 많이 감소할 것이다. 이들 조건 하에서는, 물체 정합 (matching objects) 이 모션 검색 영역 밖으로 나갈 수도 있고, 또는 물체 정합 간의 유사성이 카메라 앵글의 변화로 인한 왜곡 때문에 감소한다. 이때, P 프레임 또는 I 프레임 및 그 인접한 P 프레임은 서로 더 가까워지도록 선택되어야 하고, 더 적은 B-프레임을 삽입해야 한다. 고정된 GOP 는 그 조정을 행할 수 없다.
본원에 개시된 시스템에서, 이들 조건은 자동으로 감지된다. GOP 구조는 유연하고, 콘텐츠에서의 이들 변화에 적응하도록 이루어진다. 본 발명의 시스템은 프레임 차이 메트릭을 평가하는데, 이는, 동일한 부가적인 거리 특성을 사용하여 프레임 간의 거리 측정으로서 간주될 수 있다. 개념상, 프레임 간 거리가 d12 및 d23 인 프레임 F1, F2 및 F3 이 주어지면, F1 과 F3 간의 거리는 적어도 d12 + d23 으로서 간주된다. 프레임 할당은 이러한 거리 유사 메트릭에 기초하여 이루어진다.
GOP 분할기는 영상 타입을 수신되는 그대로 프레임에 할당함으로써 동작한다. 영상 타입은 각 블록을 코딩하는데 필요할 수도 있는 예측 방법을 나타낸다.
I-영상은 다른 영상을 참조함 없이 코딩된다. I-영상이 그 자체로 동작하기 때문에, 이는 디코딩을 시작할 수 있는 데이터 스트림 내의 액세스 포인트를 제공한다. 그 전 프레임까지의 "거리" 가 장면 전환 임계값을 초과하면, 프레임에 I 인코딩 타입이 할당된다.
P-영상은 모션 보상된 예측에 대해 이전 I 또는 P 영상을 사용할 수 있다. P-영상은 인코딩 기준으로서 예측되는 블록에서 변위될 수도 있는 이전 필드 또는 프레임 내의 블록을 사용한다. 기준 블록을 고려 중인 블록에서 제거한 후에, 통상, 공간 중복의 제거를 위한 이산 코사인 변환을 사용하여, 나머지 블록을 인코딩한다. 일 프레임과 P 프레임에 할당된 마지막 프레임 간의 "거리" 가 통상 제 1 임계값보다 낮은 제 2 임계값을 초과하면, 그 프레임에 P 인코딩 타입이 할당된다.
상술한 바와 같이, B-프레임 영상은 모션 보상을 위해 이전 및 다음 P- 또는 I-영상을 사용할 수 있다. B 영상 내의 블록은 순방향, 역방향 또는 양방향 예측될 수 있다; 또는 그 블록은 다른 프레임을 참조함 없이 인트라 코딩될 수 있다. H.264 에서, 기준 블록은 32 개 프레임으로부터의 32 개 블록의 선형 조합일 수 있다. 그 프레임을 I 또는 P 타입이 되도록 할당할 수 없는 경우에는, 그 프레임과 바로 이전 프레임 간의 "거리" 가 통상 제 2 임계값보다 낮은 제 3 임계값보다 크면, 그 프레임을 B 타입이 되도록 할당한다.
프레임을 인코딩되는 B-프레임이 되도록 할당할 수 없는 경우에는, "스킵 프레임" 상태를 할당한다. 그 프레임이 사실상 이전 프레임의 사본이기 때문에, 이러한 프레임을 스킵할 수 있다.
표시 순서로 인접 프레임 간의 거리를 양자화하는 메트릭의 평가는 이러한 처리에서 가장 먼저 일어나는 부분이다. 이러한 메트릭은 상기 참조되는 거리이다; 이를 사용하여, 모든 프레임은 그 적절한 타입에 대해 평가된다. 따라서, I 및 인접한 P, 또는 2 개의 연속적인 P 프레임 간의 간격이 변할 수 있다. 메트릭 계산은 블록 기반 모션 보상기를 사용하여 비디오 프레임을 처리함으로써 시작하고, 일 블록은 통상 16 × 16 화소로 이루어진 비디오 압축의 기본 단위이지만, 8 × 8, 4 × 4 및 8 × 16 과 같은 다른 블록 크기도 가능하다. 2 개의 디인터레이싱된 필드로 이루어진 프레임의 경우에, 모션 보상은 필드 단위로 행해질 수 있고, 기준 블록에 대한 검색은 프레임보다는 필드에서 일어나게 된다. 현재 프레임의 첫 번째 필드 내의 블록의 경우에, 순방향 기준 블록은 그 다음에 오는 프레임의 필드에서 발견된다; 이와 마찬가지로, 역방향 기준 블록은 현재 필드 바로 앞에 오는 프레임의 필드에서 발견된다. 현재 블록은 보상된 필드 내에 모아진다. 이러한 프로세스는 프레임의 두 번째 필드에서 계속된다. 2 개의 보상된 필드를 조합하여 순방향 및 역방향 보상된 프레임을 형성한다.
역 텔레시네 (606) 에서 생성된 프레임의 경우에는, 단지 재구성된 필름 프레임만 있기 때문에, 기준 블록에 대한 검색은 프레임 단위로만 행해진다. 2 개의 기준 블록 및 2 개의 차이인, 순방향 및 역방향이 발견되어, 또한 순방향 역방향 보상된 프레임으로 된다. 요약하면, 모션 보상기는 모든 블록에 대해 모션 벡터와 차이 메트릭을 생성한다; 그러나, 일 블록은 디인터레이서 (605) 의 출력인 경우에 NTSC 필드의 일부이고, 역 텔레시네의 출력이 처리되는 경우에 필름 프레임의 일부이다. 그 메트릭의 차이는, 순방향 또는 역방향 차이가 평가되고 있는지 여부에 따라, 이전 필드 또는 프레임에서 또는 그 바로 다음에 오는 필드 또는 프레임에서, 고려 중인 필드 또는 프레임과 그 최적 정합 블록 간에 평가된다는 것에 주목하자. 단지 휘도 값만이 이러한 계산 내에 입력된다.
이와 같이, 모션 보상 단계는 2 개의 차이 세트를 생성한다. 이들 차이 세트는, 적절한 때에 바로 앞에 있는 프레임과 바로 뒤에 있는 프레임에서 선택된 기준 블록 내의 휘도 값과 휘도의 현재 값 블록 간에 존재한다. 각각의 순방향 및 각각의 역방향 차이의 절대값은 각 화소에 대해 결정되고, 그 각각은 전체 프레임에 걸쳐 개별적으로 더해진다. 일 프레임을 포함하는 디인터레이싱된 NTSC 필드가 처리될 때, 양쪽 필드는 2 개의 덧셈에 포함된다. 이러한 방법으로, SADP 및 SADN, 순방향 및 역방향 차이의 절대값 합이 구해진다.
모든 프레임에 대해, SAD 비율은 다음 관계식을 사용하여 계산된다.
여기서, SADP 및 SADN 은 각각 순방향 및 역방향 차이의 절대값 합이다. 작은 양의 실수 ε 를 분자에 더하여 "divide-by-zero" 에러를 방지한다. 유사한 ε 항을 분모에 더하여, 또한 SADP 또는 SADN 이 0 에 가까워질 때, γ 의 감도를 줄인다.
다른 양태에서, 그 차이는 SSD (sum of squared difference) 일 수 있고, SAD (sum of absolute difference), 또는 SATD 일 수 있는데, 여기서, 화소 값 블록은, 블록 요소 내의 차이를 취하기 전에 2 차원 이산 코사인 변환을 적용함으로써 변환된다. 그 합은 액티브 비디오의 영역에 대해 평가되지만, 다른 양태에서는 더 작은 영역을 사용할 수도 있다.
또한, 수신된 것과 같은 (모션 보상되지 않은) 모든 프레임의 휘도 히스토그램이 계산된다. 히스토그램은, 이용 가능한 경우에, DC 계수, 즉, 2 개의 2 차원 이산 코사인 변환을 휘도 값 블록에 적용한 결과인 16 × 16 계수 어레이 내의 (0, 0) 계수에 대해 작용한다. 이와 마찬가지로, 16 × 16 블록 내의 256 개 휘도 값의 평균 값을 히스토그램에서 사용할 수도 있다. 휘도 깊이가 8 비트인 이미지의 경우에, 빈의 수는 16 으로 설정된다. 다음 메트릭은 히스토그램 차이를 평가한다.
이들 중간 결과를 모아서, 다음과 같은 현재 프레임 차이 메트릭을 형성한다.
여기서, 는 현재 프레임에 기초한 SAD 비율이고, 는 이전 프레임에 기초한 SAD 비율이다. 장면이 평활한 모션을 갖고, 그 루마 히스토그램이 거의 변하지 않으면, 이다. 현재 프레임이 갑작스런 장면 전환을 표시하면, 는 커질 것이고, 는 작아져야 한다. 만을 사용하는 대신에 비율을 사용하여, 문맥의 액티비티 레벨로 메트릭을 정규화한다.
도 42 는 프레임에 압축 타입을 할당하는 프로세스를 도시한다. 수학식 19 에서 규정된 현재 프레임 차이인 D 는 프레임 할당과 관련하여 이루어진 결정에 대한 기준이다. 결정 블록 (4202) 이 나타내는 바와 같이, 고려 중인 프레임이 시퀀스 내의 첫 번째 프레임인 경우에, "예" 로 표시된 결정 경로가 블록 (4206) 다음에 옴으로써, 그 프레임이 I 프레임인 것으로 선언한다. 블록 (4208) 에서 누적된 프레임 차이가 0 으로 설정되고, (블록 (4210) 에서) 프로세스는 시작 블록으로 리턴한다. 고려 중인 프레임이 시퀀스 내의 첫 번째 프레임이 아니면, 그 결정이 이루어진 블록 (4202) 다음에 "아니오" 로 표시된 결정 경로가 오고, 테스트 블록 (4204) 에서, 현재 프레임 차이가 장면 전환 임계값에 대해 테스팅된다. 현재 프레임 차이가 그 임계값보다 큰 경우에는, "예" 로 표시된 결정 경로가 블록 (4206) 으로 진행하여, 또 I-프레임을 할당하게 된다.
현재 프레임 차이가 장면 전환 임계값보다 작은 경우에, "아니오" 경로는 블록 (4212) 으로 진행하여, 현재 프레임 차이에 누적된 프레임 차이가 더해진다. 결정 블록 (4214) 에서 흐름도를 통해 계속하여, 누적된 프레임 차이는 임계값 t 와 비교되는데, 이는 일반적으로 장면 전환 임계값보다 작다. 누적된 프레임 차이가 t 보다 큰 경우에, 제어는 블록 (4216) 으로 이동하고, 그 프레임에는 P 프레임이 할당된다; 그 다음에, 단계 (4218) 에서, 누적된 프레임 차이는 0 으로 리셋된다. 누적된 프레임 차이가 t 보다 작은 경우에, 제어는 블록 (4214) 에서 블록 (4220) 으로 이동한다. 여기에서, 현재 프레임 차이가 τ 와 비교되는데, 이는 t 보다 작다. 현재 프레임 차이가 τ 보다 작은 경우에, 블록 (4222) 에서 그 프레임은 스킵될 것으로 할당되고, 그 다음에, 프로세스가 리턴한다; 현재 프레임 차이가 τ 보다 큰 경우에, 블록 (4226) 에서 그 프레임은 B-프레임이 되도록 할당된다.
인코더
다시 도 2 를 참조하면, 트랜스코더 (200) 는 전처리기 (226) 로부터 처리된 메타데이터와 미가공 비디오를 수신하는 인코더 (228) 를 포함한다. 메타데이터는 소스 비디오 (104) 에서 원래 수신된 임의의 정보와 전처리기 (226) 에 의해 계산된 임의의 정보를 포함할 수 있다. 인코더 (228) 는 제 1 패스 인코더 (230), 제 2 패스 인코더 (232) 및 재인코더 (234) 를 포함한다. 또한, 인코더 (228) 는 전처리기 (226) 뿐만 아니라 제 1 패스 인코더 (230), 재인코더 (234) 에도 제 2 패스 인코더 (232) 로부터의 정보 (예를 들어, 메타데이터, 에러 내성 정보, 콘텐츠 정보, 인코딩된 비트레이트 정보, 베이스 계층과 인핸스먼트 계층 균형 정보 및 양자화 정보) 를 제공할 수 있는 트랜스코더 컨트롤 (231) 로부터 입력을 수신한다. 인코더 (228) 는 예를 들어, 콘텐츠 분류 모듈 (712; 도 7) 에 의해 인코더 (228) 자체에 의해 생성되는 콘텐츠 정보 및/또는 전처리기 (226) 로부터 수신된 콘텐츠 정보를 사용하여 수신된 비디오를 인코딩한다.
도 7 은 도 2 에 도시된 인코더 (228) 에 사용될 수도 있는 예시적인 2-패스 인코더에 포함될 수 있는 기능 모듈의 블록도를 도시한다. 도 7 에는 기능 블록의 여러 양태가 도시되어 있지만, 도 7 및 본원의 설명은 인코더에 통합될 수 있는 모든 기능을 반드시 다루는 것은 아니다. 따라서, 이하, 그 기능 모듈의 일정 양태는 아래의 베이스 및 인핸스먼트 계층 인코딩의 설명 다음에 설명된다.
베이스 계층 및
인핸스먼트
계층 인코딩
인코더 (228) 는 SNR 스케일러블 인코더일 수 있고, 이는 전처리기 (226) 로 부터의 미가공 비디오와 메타데이터를 인코딩된 제 1 데이터 그룹 (또한, 베이스 계층으로 지칭됨) 와 인코딩된 하나 이상의 추가 데이터 그룹 (또한, 인핸스먼트 계층으로 지칭됨) 으로 인코딩할 수 있다. 인코딩 알고리즘은 베이스 계층 및 인핸스먼트 계층 계수를 생성하는데, 이들 계수는, 디코딩 시, 양쪽 계층을 디코딩에 사용할 수 있을 때 디코더에서 결합될 수도 있다. 양쪽 계층을 이용할 수 없는 경우에, 베이스 계층의 인코딩은 베이스 계층이 단일 계층으로서 디코딩되는 것을 허용한다.
도 31 을 참조하여 이와 같은 다층 인코딩 프로세스의 일 양태를 설명한다. 블록 (321) 에서, I 프레임은 완전히 인트라 코딩된 매크록블록 (인트라 코딩된 MB) 으로 인코딩된다. H.264 에서, I 프레임 내의 인트라 코딩된 MB 는 완전히 이용된 공간 예측으로 인코딩되어, 상당한 양의 코딩 이득을 제공한다. 2 개의 서브모드가 존재한다: 인트라 4 × 4 및 인트라 16 × 16. 베이스 계층이 공간 예측에 의해 제공된 코딩 이득을 이용하려면, 인핸스먼트 계층을 인코딩 및 디코딩 하기 전에 베이스 계층을 인코딩 및 디코딩해야 한다. I 프레임의 2 패스 인코딩 및 디코딩이 사용된다. 베이스 계층에서, 베이스 계층 양자화 파라미터 는 덜 세분화된 양자화 스텝 크기를 변환 계수에 제공한다. 원래 프레임과 재구성된 베이스 계층 프레임 간의 화소 단위 차이는 인핸스먼트 계층에서 인코딩될 것이다. 인핸스먼트 계층은 양자화 파라미터 를 사용하여, 더 미세한 양자화 스텝 크기를 제공한다. 도 2 의 인코더 (228) 와 같은 인코딩 수단 은 블록 (321) 에서 인코딩을 수행할 수 있다.
블록 (323) 에서, 인코더는 처리되는 GOP 에서 P 및/또는 B-프레임에 대한 베이스 계층 데이터와 인핸스먼트 계층 데이터를 인코딩한다. 인코더 (228) 와 같은 인코딩 수단은 블록 (323) 에서 인코딩을 수행할 수 있다. 블록 (325) 에서, 인코딩 프로세스는 인코딩할 P 또는 B-프레임이 더 있는지를 검사한다. SNR 스케일러블 인코더 (228) 와 같은 인코딩 수단은 행동 (325) 을 수행할 수 있다. P 또는 B-프레임이 더 남아 있는 경우에는, GOP 내의 모든 프레임을 인코딩하는 것을 종료할 때까지, 단계 (323) 를 반복한다. P 및 B-프레임은 인터 코딩된 매크로블록 (인터 코딩된 MB) 으로 이루어져 있지만, 아래에서 설명되는 바와 같이, P 및 B-프레임에 인트라 코딩된 MB 가 존재할 수 있다.
디코더가 베이스 계층과 인핸스먼트 계층 데이터를 구별하기 위해, 인코더 (228) 는 블록 (327) 에서 오버헤드 정보를 인코딩한다. 오버헤드 정보의 타입은, 예를 들어, 계층 수를 식별하는 데이터, 베이스 계층으로서 계층을 식별하는 데이터, 인핸스먼트 계층으로서 계층을 식별하는 데이터, 계층 간 상호 관계 (예를 들어, 계층 2 는 베이스 계층 1 에 대한 인핸스먼트 계층이고, 또는 계층 3 은 인핸스먼트 계층 2 에 대한 인핸스먼트 계층임) 를 식별하는 데이터, 또는 인핸스먼트 계층 스트링 내의 최종 인핸스먼트 계층으로서 계층을 식별하는 데이터를 포함할 수 있다. 오버헤드 정보는 별개의 데이터 메시지에 관련되거나 포함되는 베이스 및/또는 인핸스먼트 계층 데이터와 접속되는 헤더에 포함될 수 있다. 도 2 의 인코더 (228) 와 같은 인코딩 수단은 블록 (327) 에서 프로세스를 수행할 수 있다.
단일 계층 디코딩을 갖기 위해, 역 양자화 전에 2 개 계층의 계수를 결합한다. 따라서, 2 개 계층의 계수는 인터랙티브 방식으로 생성되어야 한다; 그렇지 않은 경우에는, 상당한 양의 오버헤드가 발생할 수 있다. 오버헤드가 증가하는 하나의 이유는 베이스 계층 인코딩과 인핸스먼트 계층 인코딩이 상이한 시간 기준을 사용할 수 있기 때문이다. 양쪽 계층을 이용할 수 있을 때 역양자화 전에 디코더에서 결합될 수 있는 베이스 계층과 인핸스먼트 계층 계수를 생성하기 위한 알고리즘이 요구된다. 이와 동시에, 인핸스먼트 계층을 이용할 수 없거나 디코더가 예를 들어, 전원 절약과 같은 이유 때문에 인핸스먼트 계층을 디코딩하지 않기로 결정하는 경우에, 그 알고리즘은 허용 가능한 베이스 계층 비디오를 제공해야 한다. 이하, 그러한 프로세스의 일 예시적인 예의 상세는 바로 다음에 오는 표준 예측 코딩의 간단한 설명 문맥에서 더 설명된다.
P-프레임 (또는 임의의 인터 코딩된 섹션) 은 현재 영상 내의 영역과 기준 영상 내의 최적 정합 예측 영역 간의 시간 중복을 이용할 수 있다. 기준 프레임 내의 최적 정합 예측 영역의 위치는 모션 벡터에서 인코딩될 수 있다. 현재 영역과 최적 정합 기준 예측 영역 간의 차이는 나머지 에러 (또는 예측 에러) 로서 공지되어 있다.
도 32 는 예를 들어, MPEG-4 에 따른 P-프레임 구성 프로세스의 일 예를 도시한다. 프로세스 (331) 는 도 31 의 블록 (323) 에서 일어날 수 있는 예시적인 프로세스를 더 상세히 도시한다. 프로세스 (331) 는 5 × 5 매크로블록으로 이루어진 현재 영상 (333) 을 포함하는데, 본 예에 따른 매크로블록의 수는 임의적이다. 매크로블록은 16 × 16 화소로 이루어진다. 화소는 8 비트 휘도 값 (Y) 과 2 개의 8 비트 색차 값 (Cr 및 Cb) 에 의해 규정될 수 있다. MPEG 에 따르면, Y, Cr 및 Cb 성분은 4:2:0 포맷으로 저장될 수 있는데, Cr 및 Cb 성분은 X 및 Y 방향으로 2 만큼 다운샘플링된다. 따라서, 각각의 매크로블록은 256 개의 Y 성분, 64 개의 Cr 성분 및 64 개의 Cb 성분으로 이루어질 것이다. 현재 영상 (333) 의 매크로블록 (335) 은 현재 프레임 (333) 과 상이한 시점에서 기준 영상 (337) 으로부터 예측된다. 기준 영상 (337) 에서 검색을 행하여, Y, Cr 및 Cb 값의 관점에서, 인코딩되는 현재 매크로블록 (335) 과 가장 가까운 최적 정합 매크로블록 (339) 의 위치를 찾는다. 기준 영상 (337) 에서 최적 정합 매크로블록 (339) 의 위치는 모션 벡터 (341) 에 인코딩된다. 기준 영상 (337) 은, 현재 영상 (323) 의 구성 전에 디코더가 재구성하게 될 I-프레임 또는 P 프레임일 수 있다. 현재 매크로블록 (335) 에서 최적 정합 매크로블록 (339) 을 빼면 (Y, Cr 및 Cb 성분 각각의 차이가 계산됨), 나머지 에러 (343) 가 된다. 나머지 에러 (343) 는 2D 이산 코사인 변환 (345; DCT) 을 사용하여 인코딩된 후에, 양자화된다 (347). 양자화 (347) 를 수행하여, 예를 들어, 고주파수 계수에 더 적은 비트를 할당하면서 저주파수 계수에 더 많은 비트를 할당함으로써 공간 압축을 제공할 수 있다. 정보를 식별하는 기준 영상 (333) 및 모션 벡터 (341) 와 함께, 나머지 에러 (343) 의 양자화된 계수는 현재 매크로블록 (335) 을 표현한 인코딩된 정보이다. 인코딩된 정보는 추후 사용을 위해 메모리에 저장되거나, 예를 들어, 에러 정정 또는 이미지 인핸스먼트를 위해 조작되거나, 또는 네트워크 (349) 를 통해 송신될 수 있다.
인코딩된 모션 벡터 (341) 와 함께, 나머지 에러 (343) 의 인코딩된 양자화된 계수를 사용하여, 후속하는 모션 추정 및 보상을 위한 기준 프레임의 일부로서 사용되는 인코더에서 현재 매크로블록 (335) 을 재구성할 수 있다. 인코더는 이러한 P 프레임 재구성을 위해 디코더의 절차를 에뮬레이션할 수 있다. 디코더의 에뮬레이션으로 인해, 인코더와 디코더 모두가 동일 기준 영상과 함께 작업하게 된다. 이때, 추후 인터 코딩을 위해 인코더에서 행해지는지, 또는 디코더에서 행해지는지 여부에 관계없이, 재구성 프로세스가 제공된다. P 프레임의 재구성은 기준 프레임 (또는 참조되고 있는 영상이나 프레임의 일부) 이 재구성된 후에 시작할 수 있다. 인코딩되어 양자화된 계수를 역양자화 (351) 한 후에, 2D IDCT (Inverse DCT) 를 수행 (353) 하면, 나머지 에러 (355) 가 디코딩되거나 재구성된다. 인코딩된 모션 벡터 (341) 를 디코딩하고, 이를 사용하여, 미리 재구성된 기준 영상 (337) 에서 미리 재구성된 최적 정합 매크로블록 (357) 의 위치를 찾는다. 그 다음에, 재구성된 나머지 에러 (355) 를 재구성된 최적 정합 매크로블록 (357) 에 추가하여, 재구성된 매크로블록 (359) 을 형성한다. 재구성된 매크로블록 (359) 은 메모리에 저장되거나, 다른 재구성된 매크로블록과 함께 하나의 영상으로 또는 독립적으로 표시되거나, 또는 이미지 인핸스먼트를 위해 더 처리될 수 있다.
B-프레임 (또는 양방향 예측을 사용하여 코딩된 임의의 섹션) 은 현재 영상 내의 영역, 이전 영상 내의 최적 정합 예측 영역 및 후속 영상 내의 최적 정합 예측 영역 간의 시간 중복을 이용할 수 있다. 후속 최적 정합 예측 영역과 이전 최적 정합 예측 영역을 결합하여, 결합된 양방향 예측 영역을 형성한다. 현재 영상 영역과 최적 정합 결합된 양방향 예측 영역 간의 차이는 나머지 에러 (또는 예측 에러) 이다. 후속 기준 영상 내의 최적 정합 예측 영역과 이전 기준 영상 내의 최적 정합 예측 영역의 위치는 2 개의 모션 벡터에 인코딩될 수 있다.
도 33 은 인코더 (228) 에 의해 수행될 수 있는 베이스 계층 및 인핸스먼트 계층 계수의 인코딩을 위한 인코더 프로세스의 일 예를 도시한다. 베이스 및 인핸스먼트 계층을 인코딩하여 SNR 스케일러블 비트스트림을 제공한다. 도 33 은 도 31 의 단계 (323) 에서 행해지는 것과 같은 인터 MB 나머지 에러 계수를 인코딩하는 일 예를 도시한다. 그러나, 유사한 방법을 사용하여, 인트라 MB 계수를 인코딩할 수도 있다. 도 2 의 인코더 컴포넌트 (228) 와 같은 인코딩 수단은 도 33 에 도시된 프로세스와 도 32 의 단계 (323) 를 수행할 수 있다. (인코딩될) 원래 비디오 데이터 (406) (본 예에서, 비디오 데이터는 루마 및 크로마 정보를 포함함) 는 베이스 계층 최적 정합 매크로블록 루프 (302) 와 인핸스먼트 계층 최적 정합 매크로블록 루프 (365) 에 입력된다. 양 루프 (363 및 365) 의 목적은 각각 덧셈기 (367 및 369) 에서 계산되는 나머지 에러를 최소화하는 것이다. 루프 (363 및 365) 는 도시된 바와 같이 동시에 수행될 수 있고, 또는 순차적으로 수행될 수 있다. 루프 (363 및 365) 는, 최적 정합 매크로블록과 원래 데이터 (361) 간의 나머지 에러를 최소화하는 최적 정합 매크로블록을 식별하도 록, 기준 프레임을 포함한 버퍼 (371 및 373) 검색 논리를 각각 포함한다 (버퍼 (371 및 373) 는 동일 버퍼일 수 있음). 통상 베이스 계층 루프 (363) 가 인핸스먼트 계층 루프 (365) 보다 덜 세분화된 양자화 스텝 크기 (QP 값이 더 높음) 를 사용할 것이므로, 루프 (363 및 365) 의 나머지 에러는 상이할 것이다. 변환 블록 (375 및 377) 은 각 루프의 나머지 에러를 변환한다.
그 다음에, 변환된 계수는 선택기 (379) 에서 베이스 계층과 인핸스먼트 계층 계수 내에 파싱된다. 아래에 설명하는 바와 같이, 선택기 (379) 의 파싱은 몇몇 형태를 취할 수 있다. 파싱 기술의 하나의 공통 특징은 인핸스먼트 계층 계수 가 베이스 계층 계수 에 대해 차분 세분화 (differential refinement) 되도록 계산된다는 것이다. 베이스 계층에 대해 세분화되도록 인핸스먼트 계층을 계산함으로써, 디코더가 단독으로 베이스 계층 계수를 디코딩하여 이미지의 적당한 표현을 가질 수 있고, 또는 베이스 및 인핸스먼트 계층 계수를 결합하여 이미지의 표현을 세분화할 수 있다. 그 다음에, 선택기 (379) 에 의해 선택된 계수를 양자화기 (381 및 383) 에 의해 양자화한다. 양자화된 계수 및 (각각 양자화기 (381 및 383) 를 사용하여 계산됨) 는 메모리에 저장될 수 있고, 또는 네트워크를 통해 디코더로 송신될 수 있다.
디코더에서 매크로블록의 재구성을 정합시키기 위해, 역양자화기 (385) 는 베이스 계층 나머지 에러 계수를 역양자화한다. 역양자화된 나머지 에러 계수는 버퍼 (371) 에서 찾은 최적 정합 매크로블록으로 역변환 (387) 및 가산 (389) 되어, 재구성된 매크로블록이 디코더에서 재구성될 매크로블록과 정합하게 된다. 양자화기 (383), 역양자화기 (391), 역변환기 (393), 덧셈기 (397) 및 버퍼 (373) 는 베이스 계층 루프 (363) 에서 행해진 것과 유사한 계산을 인핸스먼트 루프 (365) 에서 수행한다. 또한, 덧셈기 (393) 를 사용하여, 인핸스먼트 계층의 재구성에 사용되는 역양자화된 인핸스먼트 계층 및 베이스 계층 계수를 결합한다. 통상, 인핸스먼트 계층 양자화기 및 역양자화기는 베이스 계층보다 미세한 양자화기 스텝 크기 (QP 가 낮음) 를 이용할 것이다.
도 34, 도 35 및 도 36 은 도 33 의 선택기 (379) 에서 사용될 수 있는 베이스 계층 및 인핸스먼트 계층 계수 선택 프로세스의 예를 도시한다. 도 2 의 인코더 (228) 와 같은 선택 수단은 도 34, 도 35 및 도 36 에 도시된 프로세스를 수행할 수 있다. 도 34 를 예로 들면, 변환된 계수는 다음 수학식에 표현된 바와 같이 베이스 및 인핸스먼트 계층 계수 내에 파싱된다.
여기서, "min" 함수는 2 개의 인수 (argument) 의 수학적인 최소 또는 최소 크기일 수 있다. 수학식 25 는 블록 (401) 으로서 도시되어 있고, 수학식 26 은 도 34 의 덧셈기 (510) 로서 도시되어 있다. 수학식 26 에서, 는 베이스 계층 양자화기 (381) 를 나타내고, 는 베이스 계층의 역양자화기 (385) 를 나타낸다. 수학식 26 은 인핸스먼트 계층 계수를 수학식 25 를 사용하여 계산된 베이스 계층 계수의 차분 세분화로 변환한다.
덧셈기 (407) 는 다음 2 개의 수학식에 도시된 것과 같은 인핸스먼트 계층 계수를 계산한다:
도 36 은 베이스 계층 및 인핸스먼트 계층 선택기 (379) 의 다른 예를 도시한다. 본 예에서, 베이스 계층 계수는 변하지 않고, 인핸스먼트 계층 계수는 양자화/역양자화된 베이스 계층 계수 및 원래 인핸스먼트 계층 계수 간의 차이와 같다.
베이스 및 인핸스먼트 계층 나머지 에러 계수 외에도, 디코더는 어떻게 MB 가 인코딩되는지를 식별하는 정보를 필요로 한다. 도 2 의 인코더 컴포넌트 (228) 와 같은 인코딩 수단은 오버헤드 정보를 인코딩할 수 있고, 이 오버헤드 정보는 예를 들어, MB 맵과 같은 인트라 코딩 및 인터 코딩된 부분의 맵을 포함할 수 있으며, 이 MB 맵에서, 매크로블록 (또는 서브 매크로블록) 은 인트라 코딩되거나 인터 코딩된 것으로서 식별된다 (또한, 예를 들어, 순방향, 역방향 또는 양방향을 비롯한 어느 타입의 인터 코딩인지가 식별되고, 인터 코딩된 부분이 어느 프레임(들)을 참조하는지가 식별됨). 예시적인 양태에서, MB 맵과 베이스 계층 계수는 베이스 계층에서 인코딩되고, 인핸스먼트 계층 계수는 인핸스먼트 계층에서 인코딩된다.
P-프레임 및 B-프레임은 인터 MB 뿐만 아니라 인트라 코딩된 MB 도 포함할 수 있다. 하이브리드 비디오 인코더가 RD (rate distortion) 최적화를 사용하여 P 또는 B-프레임 내의 일정 매크로블록을 인트라 코딩된 MB 로서 인코딩하기로 결정하는 것이 일반적이다. 인트라 코딩된 MB 가 인핸스먼트 계층 인터 MB 에 의존하지 않는 단일 계층 디코딩을 갖기 위해, 임의의 인접한 인터 MB 가 베이스 계층 인트라 코딩된 MB 의 공간 예측에 사용되지 않는다. 베이스 계층 P 또는 B-프레임에서 인트라 코딩된 MB 의 경우에, 계산 복잡도가 인핸스먼트 계층 디코딩 동안에 불변 상태를 유지하기 위해서는, 인핸스먼트 계층에서의 세분화를 스킵할 수 있다.
P 또는 B-프레임 내의 인트라 코딩된 MB 는 인터 MB 보다 많은 비트를 필요로 할 수도 있다. 이러한 이유로, P 또는 B-프레임 내의 인트라 코딩된 MB 는 더 높은 QP 로 베이스 계층 품질에서만 인코딩될 수 있다. 이로 인해, 비디오 품질이 약간 저하되지만, 상술한 바와 같이 베이스 및 인핸스먼트 계층에서 인터 MB 계수를 사용하여 나중 프레임에서 세분화되면, 이러한 저하를 인식할 수 없을 것이다. 2 가지 이유 때문에 이러한 저하를 인식할 수 없게 된다. 첫 번째 이유는 HVS (human visual system) 의 특징 때문이고, 다른 이유는 인터 MB 가 인트라 MB 를 세분화한다는 사실 때문이다. 제 1 프레임과 제 2 프레임 간에 위치가 변하는 물체의 경우에, 제 1 프레임 내의 몇몇 화소는 제 2 프레임에서 볼 수 없게 되고 (숨겨질 정보), 제 2 프레임 내의 몇몇 화소는 제 1 프레임 동안에 볼 수 있게 된다 (알려진 정보). 사람 눈은 알려진 정보와 숨겨질 시각 정보에 민감하지 않다. 알려진 정보의 경우에는, 낮은 품질로 인코딩되더라도, 사람 눈이 그 차이를 구별하지 못할 수도 있다. 동일 정보가 다음 P 프레임에 남아 있으면, 인핸스먼트 계층이 낮은 QP 를 갖기 때문에, 인핸스먼트 계층에서 다음 P 프레임이 그 동일 정보를 세분화할 수 있는 가능성이 클 것이다.
P 또는 B-프레임에서 인트라 코딩된 MB 를 도입하는 다른 일반적인 기술은 인트라 리프레시 (Intra Refresh) 로 공지되어 있다. 이 경우에, 표준 R-D 최적화는 MB 가 인터 코딩된 MB 일 것을 요구하더라도, 몇몇 MB 는 인트라 코딩된 MB 로서 코딩된다. 베이스 계층에 포함된 이들 인트라 코딩된 MB 는 또는 를 사용하여 인코딩될 수 있다. 가 베이스 계층에 사용되면, 인핸스먼트 계층에서는 어떤 세분화도 필요하지 않다. 가 베이스 계층에 사용되면, 세분화를 필요로 할 수도 있지만, 그렇지 않은 경우에는, 인핸스먼트 계층에서, 품질 저하를 인식할 수 있을 것이다. 코딩 효율 면에서 인터 코딩이 인트라 코딩보다 효율적이므로, 인핸스먼트 계층에서의 이들 세분화는 인터 코딩될 것이다. 이와 같이, 베이스 계층 계수는 인핸스먼트 계층에 사용되지 않을 것이다. 따라서, 새로운 연산을 도입함 없이 인핸스먼트 계층에서 품질이 개선된다.
B-프레임은 B-프레임이 제공하는 높은 압축 품질 때문에 인핸스먼트 계층에서 일반적으로 사용된다. 그러나, B-프레임은 P 프레임의 인트라 코딩된 MB 를 참조할 필요가 있을 수도 있다. B-프레임의 화소가 인핸스먼트 계층 품질로 인코딩되지 않는다면, 상술한 바와 같이, P 프레임 인트라 코딩된 MB 의 낮은 품질 때문에 너무 많은 비트를 필요로 할 수도 있다. 상술한 바와 같이, HVS 의 품질을 이용함으로써, B-프레임 MB 는 P 프레임의 낮은 품질로 인트라 코딩된 MB 를 참조하여 낮은 품질로 인코딩될 수 있다.
P 또는 B-프레임에서 인트라 코딩된 MB 의 한 가지 극단적인 경우는, P 또는 B-프레임 내의 모든 MB 가 인코딩되는 비디오의 장면 전환의 존재로 인해 인트라 모드에서 인코딩되는 경우이다. 이 경우에는, 전체 프레임을 베이스 계층 품질로 코딩할 수 있고, 인핸스먼트 계층에서는 어떤 세분화도 이루어지지 않는다. B-프레임에서 장면 전환이 일어나는 경우에, B-프레임이 인핸스먼트 계층에서 인코딩될 뿐이라고 가정하면, B-프레임은 베이스 계층 품질로 인코딩되거나 단순히 드롭될 수 있다. 장면 전환이 P 프레임에서 일어나면, 어떤 변화도 필요로 하지 않지만, P 프레임을 드롭하거나 베이스 계층 품질에서 인코딩할 수 있다. 스케일러블 계층 인코딩은 발명의 명칭이 "SCALABLE VIDEO CODING WITH TWO LAYER ENCODING AND SINGLE LAYER DECODING" 인 동시 계속 중인 미국 특허 출원 [대리인 docket/ref. no. 050078] 에 더 설명되어 있고, 이는 본원의 양수인이 소유하고 있으며 그 전체를 본원에서 참조로서 병합하고 있다.
인코더 제 1 패스 부분
도 7 은 도 2 의 인코더 (228) 의 예시적인 예를 도시한다. 도시된 블록은 인코더 (228) 에 포함될 수 있는 여러 인코더 처리를 도시한다. 본 예에서, 인코더 (228) 는 경계선 (704) 위의 제 1 패스 부분 (706) 및 경계선 (704) 아래의 제 2 패스 부분 (706; 도 2 의 제 2 패스 인코더와 재인코더 (234) 의 기능을 포함함) 을 포함한다.
인코더 (228) 는 전처리기 (226) 로부터 메타데이터 및 미가공 비디오를 수신한다. 메타데이터는, 비디오 콘텐츠 정보에 관련된 메타데이터를 비롯한, 전처리기 (226) 에 의해 수신 또는 계산되는 임의의 메타데이터를 포함할 수 있다. 인코더 (228) 의 제 1 패스 부분 (702) 은 제 1 패스 인코딩 (702) 에 포함될 수 있는 예시적인 프로세스를 도시하는데, 이는 그 기능과 관련하여 아래에 설명되어 있다. 당업자라면, 그러한 기능이 여러 형태 (예를 들어, 하드웨어, 소프트웨 어, 펌웨어 또는 그 조합) 로 수록될 수 있다는 것을 알 수 있다.
도 7 은 AIR (adaptive intra refresh) 모듈을 도시한다. AIR 모듈 (710) 은 메타데이터에 기초하여 I-프레임을 인스턴스화하는 I-프레임 인스턴스화 모듈 (708) 에 대한 입력을 제공한다. 또한, 제 1 패스 부분 (702) 은 메타데이터 및 비디오를 수신하고 비디오 관련 콘텐츠 정보를 결정하도록 구성된 콘텐츠 분류 모듈 (712) 을 포함할 수 있다. 콘텐츠 정보는 레이트 제어 비트 할당 모듈 (714) 에 제공될 수 있고, 또한 이 레이트 제어 비트 할당 모듈 (714) 은 메타데이터와 비디오를 수신한다. 레이트 제어 비트 할당 모듈 (714) 은 레이트 비트 제어 정보를 결정하고, 이 정보를 모드 결정 모듈 (715) 에 제공한다. 콘텐츠 정보와 비디오는 인트라 모델 (왜곡) 모듈 (716) 에 제공될 수 있고, 이 인트라 모델 (왜곡) 모듈 (716) 은 인트라 코딩 왜곡 정보를 모드 결정 모듈 (715) 및 베이스 및 인핸스먼트 계층에 대한 스케일러빌리티 레이트 왜곡 모듈 (718) 에 제공한다. 비디오 및 메타데이터는 모션 추정 (왜곡) 모듈 (720) 에 제공되어, 인터 코딩 왜곡 정보를 베이스 및 인핸스먼트 계층에 대한 스케일러빌리티 레이트 왜곡 모듈 (718) 에 제공한다. 베이스 및 인핸스먼트 계층에 대한 스케일러빌리티 레이트 왜곡 모듈 (718) 은 모션 추정 모듈 (720) 및 인트라 모델 왜곡 모듈 (716) 로부터의 왜곡 추정을 사용하여 스케일러빌리티 레이트 왜곡 정보를 결정하고, 이 정보를 모드 결정 모듈 (715) 에 제공한다. 또한, 모드 결정 모듈 (715) 은 슬라이스/MB 순서화 모듈 (722) 로부터 입력을 수신한다. 슬라이스/MB 순서화 모듈 (722) 은 (제 2 패스 부분 (706) 에 도시된) 에러 내성 모듈 (740) 로부터 입력 을 수신하고, 에러 내성을 위한 액세스 유닛 경계를 갖는 비디오의 독립적으로 인코딩 가능한 부분 (슬라이스) 을 정렬하는 것에 대한 정보를 모드 결정 모듈 (715) 에 제공한다. 모드 결정 모듈 (715) 은 그 입력에 기초하여 모드 정보를 인코딩하는 것을 결정하고, "최적" 코딩 모드를 제 2 패스 부분 (706) 에 제공한다. 이하, 그러한 제 1 패스 부분 (702) 인코딩의 몇몇 예에 대한 예시적인 설명을 제공한다.
상술한 바와 같이, 콘텐츠 분류 모듈 (712) 은 전처리기 (226) 에 의해 공급된 메타데이터와 미가공 비디오를 수신한다. 몇몇 예에서, 전처리기 (226) 는 멀티미디어 데이터로부터 콘텐츠 정보를 계산하고, 콘텐츠 정보를 콘텐츠 분류 모듈 (712) 에 (메타데이터 형식으로) 제공하는데, 이 콘텐츠 분류 모듈 (712) 은 콘텐츠 정보를 사용하여, 멀티미디어 데이터에 대한 콘텐츠 분류를 결정할 수 있다. 몇몇 다른 양태에서, 콘텐츠 분류 모듈 (712) 은 멀티미디어 데이터로부터 여러 콘텐츠 정보를 결정하도록 구성되고, 또한 콘텐츠 분류를 결정하도록 구성될 수 있다.
콘텐츠 분류 모듈 (712) 은 여러 타입의 콘텐츠를 갖는 비디오에 대해 상이한 콘텐츠 분류를 결정하도록 구성될 수 있다. 상이한 콘텐츠 분류로 인해, 예를 들어, 양자화 파라미터, 모션 추정, 스케일러빌리티, 에러 내성을 결정하고, 채널 전체에서 최적 멀티미디어 데이터 품질을 유지하며, 고속 채널 스위칭 방식 (예를 들어, I-프레임으로 하여금 고속 채널 스위칭을 주기적으로 허용하도록 강제하는 방식) 을 위한 비트 레이트 (예를 들어, 비트 할당) 을 결정하는 것과 같이, 멀 티미디어 데이터를 인코딩하는 양태에 따라, 상이한 파라미터가 사용될 수 있다. 일 예에 따르면, 인코더 (228) 는 콘텐츠 분류에 기초하여 R-D (rate-distortion) 최적화와 비트 레이트 할당을 결정하도록 구성된다. 콘텐츠 분류를 결정함으로써, 멀티미디어 데이터를 콘텐츠 분류에 기초하여 원하는 비트 레이트에 대응하는 소정의 품질 레벨로 압축할 수 있게 된다. 또한, 멀티미디어 데이터의 콘텐츠를 분류함으로써 (예를 들어, 인간 시각 시스템에 기초하여 콘텐츠 분류를 결정함으로써), 수신 장치의 디스플레이 상에서 전달되는 멀티미디어 데이터의 결과로서 생성된 인식 가능한 품질은 비디오 콘텐츠에 의존하게 된다.
콘텐츠 분류 모듈 (712) 이 콘텐츠를 분류하기 위해 경험하는 절차의 일 예로서, 도 9 는 콘텐츠 분류 모듈 (712) 이 동작할 수도 있는 예시적인 프로세스를 도시한 프로세스 (900) 를 도시한다. 도시된 바와 같이, 프로세스 (900) 는, 콘텐츠 분류 모듈 (712) 이 미가공 멀티미디어 데이터와 메타데이터를 수신하는 입력 블록 (902) 에서 시작한다. 그 다음에, 프로세스 (900) 는, 콘텐츠 분류 모듈 (712) 이 멀티미디어 데이터의 공간 정보와 시간 정보를 결정하는 블록 (904) 으로 진행한다. 몇몇 양태에서, 공간 및 시간 정보는 공간 및 시간 마스킹 (예를 들어, 필터링) 에 의해 결정된다. 공간 및 시간 정보는 장면 전환 데이터 및 MV (motion vector) 평활화를 포함한 메타데이터에 기초하여 결정될 수 있다. 그 다음에, 프로세스 (900) 는 공간 복잡도, 시간 복잡도 및 감도 추정을 수행하는 블록 (912) 으로 진행한다. 그 다음에, 프로세스 (900) 는, 블록 (904 및 912) 에서 결정된 공간, 시간 및 감도 데이터의 결과에 기초하여 멀티미디어 데이터의 콘텐츠를 분류하는 블록 (916) 으로 진행한다. 또한, 블록 (916) 에서, 특정 R-D (rate-distortion) 곡선을 선택할 수 있고/있거나 R-D 곡선을 갱신할 수 있다. 그 다음에, 프로세스 (900) 는 출력 블록 (918) 으로 진행하고, 이 블록 (918) 에서, 출력은 공간 및 시간 액티비티 (예를 들어, 콘텐츠 분류) 를 나타내는 복잡도-왜곡 맵 또는 값, 및/또는 선택된 R-D 곡선을 포함할 수 있다. 다시 도 7 을 참조하면, 상술한 바와 같이, 콘텐츠 분류 모듈 (712) 은 레이트 제어 비트 할당 모듈 (714), 인트라 모델 (왜곡) 모듈 (716), 또한 I-프레임 인스턴스화 모듈 (708) 에 출력을 제공한다.
콘텐츠 정보
아래에 더 설명되는 바와 같이, 콘텐츠 분류 모듈 (712) 은 공간 복잡도, 시간 복잡도, 콘트라스트비 값, 표준 편차 및 프레임 차이 메트릭을 비롯한 다양한 콘텐츠 관련 메트릭을 포함한 다양한 콘텐츠 정보를 멀티미디어 데이터로부터 계산하도록 구성될 수 있다.
콘텐츠 분류 모듈 (712) 은 멀티미디어 데이터의 공간 복잡도 및 시간 복잡도를 결정하고, 또한 공간 복잡도에 대한 텍스처 값과 시간 복잡도에 대한 모션 값을 연관시키도록 구성될 수 있다. 콘텐츠 분류 모듈 (712) 은 전처리기 (226) 로부터 인코딩되는 멀티미디어 데이터의 콘텐츠 관련 전처리된 콘텐츠 정보를 수신하고, 또는 다른 방법으로는, 전처리기 (226) 는 콘텐츠 정보를 계산하도록 구성될 수 있다. 상술한 바와 같이, 콘텐츠 정보는, 예를 들어, 하나 이상의 값, 콘트라스트비 값, MV (motion vector) 및 SAD (sum of absolute difference) 를 포함할 수 있다.
일반적으로, 멀티미디어 데이터는 하나 이상의 이미지 시퀀스, 또는 프레임을 포함한다. 각 프레임은 처리를 위해 화소 블록으로 분해될 수 있다. 공간 복잡도는 일반적으로 프레임 내의 공간 상세 레벨의 측정을 설명하는 광의의 용어이다. 대체로 단조롭거나 변하지 않거나 약하게 변하는 휘도 및 색차 영역을 갖는 장면은 낮은 공간 복잡도를 가질 것이다. 공간 복잡도는 비디오 데이터의 텍스처와 연관된다. 본 양태에서, 공간 복잡도는, 로컬 공간 주파수 및 주위 조명의 함수로서 각 블록에 대해 계산되는 인간 시각 감도 메트릭 ( 로 지칭됨) 에 기초한다. 당업자라면, 시각 이미지의 공간 주파수 패턴과 조명 및 콘트라스트 특성을 사용하는 기술은 인간 시각 시스템을 이용한다는 알 수 있다. 다수의 감도 메트릭이 인간 시각 시스템의 원근적 제한을 이용하는 것으로서 공지되어 있고, 본원에 설명된 방법과 함께 사용될 수 있다.
시간 복잡도는 프레임 시퀀스 내의 프레임 간에 참조되는 것과 같은 멀티미디어 데이터의 모션 레벨 측정을 설명하는데 일반적으로 사용되는 광의의 용어이다. 모션이 거의 없거나 전혀 없는 장면 (예를 들어, 비디오 데이터의 프레임 시퀀스) 은 낮은 시간 복잡도를 갖는다. 시간 복잡도는 각 매크로블록에 대해 계산될 수 있고, 값, 모션 벡터 및 한 프레임과 다른 프레임 (예를 들어, 기준 프레임) 간의 절대 화소 차이의 합에 기초할 수 있다.
프레임 차이 메트릭은 예측기와 현재 매크로블록 간의 SAD (sum of absolute difference) 로서 표현된 나머지 에너지와 함께 모션 양 (예를 들어, 모션 벡터 또는 MV) 을 고려하여 2 개의 연속 프레임 간의 차이 측정을 제공한다. 또한, 프레임은 양방향 또는 단방향 예측 효율의 측정을 제공한다.
모션 보상된 디인터레이싱을 수행할 수도 있는 전처리기로부터 수신된 모션 정보에 기초하는 프레임 차이 메트릭의 일 예는 다음과 같다. 디인터레이서가 양방향 모션 추정을 수행하므로, 양방향 모션 벡터와 SAD 정보를 이용할 수 있게 된다. 각 매크로블록에 대한 SAD_MV 에 의해 표현된 프레임 차이는 다음과 같이 구할 수 있다.
프레임 차이를 추정하는 다른 접근법은 수학식 6 내지 수학식 8 을 참조하여 위에 설명되어 있다. SAD 비율 (또는 콘트라스트비) 는 수학식 6 에서 상술한 것과 같이 계산될 수 있다. 또한, 모든 프레임의 휘도 히스토그램이 결정될 수 있고, 히스토그램 차이 λ 는 수학식 7 로부터 계산된다. 프레임 차이 D 는 수학식 8 에 도시된 것과 같이 계산될 수 있다.
일 예시적인 예에서, 콘트라스트비와 프레임 차이 메트릭은 다음 방식으로 이용되어 비디오 콘텐츠 분류를 얻음으로써, 주어진 비디오 시퀀스의 특징을 신뢰성 있게 예측할 수 있다. 본원에는 인코더 (228) 에서 일어나는 것으로서 설명되어 있지만, 전처리기 (226) 는 콘텐츠 분류 (또는 다른 콘텐츠 정보) 를 결정하고, 메타데이터를 통해 콘텐츠 분류를 인코더 (228) 에 전달하도록 구성될 수도 있다. 아래 예에서 설명된 프로세스는 R-D 곡선 기반 분석으로부터 얻어진 분류와 유사하게, 콘텐츠를 8 개의 가능한 클래스로 분류한다. 분류 프로세스는 각 슈퍼프레임에 대해서 장면 복잡도와 그 슈퍼프레임 내의 장면 전환 발생 횟수에 따라 0 과 1 사이의 범위에 있는 값을 출력한다. 전처리기 내의 콘텐츠 분류 모듈은 각 슈퍼프레임에 대해 다음 (1) 내지 (5) 의 단계를 실행하여, 프레임 콘트라스트와 프레임 차이 값으로부터 콘텐츠 분류 메트릭을 얻을 수 있다.
1. 매크로블록 콘트라스트 값으로부터 평균 프레임 콘트라스트와 프레임 콘트라스트 편차 계산
2. 시뮬레이션으로부터 얻어진 값 (이 값은 각각 40 과 5 임) 을 사용하여 프레임 콘트라스트와 프레임 차이 값 정규화
3. 예를 들어, 다음과 같은 일반화된 수학식을 사용하여 콘텐츠 분류 메트릭 계산:
여기서, CCW1, CCW2, CCW3 및 CCW4 는 가중 계수이다. 본 예에서, CCW1 에 대해 0.2 의 값이 선택되고, CCW2 에 대해 0.9 의 값이 선택되고, CCW3 에 대해 0.1 의 값이 선택되며, CCW4 의 값에 대해 -0.00009 의 값이 선택된다.
4. 슈퍼프레임 내의 장면 전환 횟수 결정. 일반적으로, 슈퍼프레임은 특정 기간에 표시될 수 있는 영상 또는 프레임 그룹을 지칭한다. 통상, 그 기간은 일 초이다. 몇몇 양태에서, 슈퍼프레임은 30 개의 프레임 (30/fps 비디오의 경우) 을 포함한다. 다른 양태에서, 슈퍼프레임은 24 개의 프레임을 포함한다 (24/fps 비디오). 장면 전환 횟수에 따라, 다음 경우 중 하나의 경우가 실행된다.
(a) 장면 전환 없음 : 슈퍼프레임에서 어떤 장면 전환도 없는 경우에, 메트릭은 다음 수학식에 표현된 것과 같은 프레임 차이 값에만 전적으로 의존한다.
(b) 단일 장면 전환 : 슈퍼프레임에서 단일 장면 전환이 관찰되는 경우에, 아래에 표현된 것과 같이, 디폴트 수학식을 사용하여 메트릭을 계산할 것이다:
(c) 2 개의 장면 전환 : 주어진 슈퍼프레임에서 최대 2 개의 장면 전환이 존 재하는 것으로 관찰되는 경우에는, 다음 수학식에 표현된 바와 같이, 첫 번째 슈퍼프레임이 나중 슈퍼프레임보다 어쨌든 빨리 리프레시될 것이므로, 마지막 슈퍼프레임에는 첫 번째 슈퍼프레임보다 큰 가중치가 주어진다 :
(d) 3 개 이상의 장면 전환: 주어진 슈퍼프레임이 3 개보다 많은 (예를 들어, N 개의) I 프레임을 갖는 것으로 관찰되는 경우에는, 다음 수학식에 표현된 바와 같이, 마지막 I 프레임에는 더 큰 가중치가 주어지고, 모든 다른 I 프레임에는 0.05 의 가중치가 주어진다.
5. 프레임 차이 평균이 0.05 보다 작은 낮은 모션 변경의 경우에는 메트릭에 대해 보정을 사용할 수도 있다. 0.33 의 오프셋 (CCOFFSET) 은 CCMetric 에 더해질 것이다.
콘텐츠 분류 모듈 (712) 은 값, 모션 벡터 및/도는 절대 차이의 합을 사용하여, 매크로블록에 대한 공간 복잡도를 나타내는 값 (또는 지정된 비디오 데 이터량) 을 결정한다. 시간 복잡도는 프레임 차이 메트릭의 측정에 의해 결정된다 (2 개의 연속 프레임 간의 차이는 모션 벡터와 함께 모션량, 및 프레임 간의 절대 차이의 합을 고려함).
몇몇 양태에서, 콘텐츠 분류 모듈 (712) 은 대역폭 맵을 생성하도록 구성될 수 있다. 예를 들어, 전처리기 (226) 가 대역폭 맵을 생성하지 않으면, 대역폭 맵 생성은 콘텐츠 분류 모듈 (712) 에 의해 수행될 수 있다.
텍스처
및
모션
값 결정
멀티미디어 데이터 내의 각 매크로블록에 대해, 콘텐츠 분류 모듈 (712) 은 공간 복잡도를 텍스처 값과 연관시키고, 시간 복잡도를 모션 값과 연관시킨다. 텍스처 값은 멀티미디어 데이터의 휘도 값에 관한 것으로서, 낮은 텍스처 값은 데이터의 인접 화소의 휘도 값의 변화가 작은 것을 나타내고, 높은 텍스처 값은 데이터의 인접 화소의 변화가 큰 것을 나타낸다. 일단 텍스처와 모션 값이 계산되면, 콘텐츠 분류 모듈 (712) 은 모션과 텍스처 정보 모두를 고려함으로써 콘텐츠 분류를 결정한다. 콘텐츠 분류 모듈 (712) 은 분류된 비디오 데이터의 텍스처를 상대 텍스처 값, 예를 들어, "낮은" 텍스처, "중간" 텍스처, 또는 "높은" 텍스처와 연관시키고, 이는 일반적으로 매크로블록의 휘도 값의 복잡도를 나타낸다. 또한, 콘텐츠 분류 모듈 (712) 은 분류된 비디오 데이터에 대해 계산된 모션 값을 상대 모션 값, 예를 들어, "낮은" 모션, "중간" 모션, 또는 "높은" 모션과 연관시키고, 이는 일반적으로 매크로블록의 모션량을 나타낸다. 다른 양태에서는, 더 많거나 적은 모션 및 텍스처 카테고리를 사용할 수 있다. 그러면, 콘텐츠 분류 메트릭은 연관된 텍스처 및 모션 값을 고려함으로써 결정된다.
도 8 은 어떻게 텍스처 및 모션 값이 콘텐츠 분류와 연관되는지를 도시한 분류 차트의 일 예를 도시한다. 당업자라면, 예를 들어, 룩업 테이블 또는 데이터베이스에서 그러한 분류 차트를 구현하는 다수의 방법을 알 수 있다. 분류 차트는 비디오 데이터 콘텐츠의 소정의 평가에 기초하여 생성된다. 비디오 데이터 분류를 결정하기 위해, (x 축에서) "낮은", "중간", 또는 "높은" 텍스처 값은 (y 축에서) "낮은", "중간", 또는 "높은" 모션 값과 상호 참조된다. 교차 블록에 표시된 콘텐츠 분류는 비디오 데이터에 할당된다. 예를 들어, "높은" 텍스처 값과 "중간" 모션 값은 "7" 이라는 분류를 생성한다. 도 8 은 본 예에서 8 개의 상이한 콘텐츠 분류와 연관되는 상대 텍스처 및 모션 값의 여러 조합을 도시한다. 몇몇 다른 양태에서는, 더 많거나 적은 분류를 사용할 수 있다. 콘텐츠 분류의 예시적인 양태의 추가 설명은, 2006 년 3 월 10 일 출원된 발명의 명칭이 "Content Classification for Multimedia Processing" 인 동시 계속 중인 미국 특허 출원 번호 제 11/373,577 호에 개시되어 있고, 상기 출원은 본원의 양수인에게 양도되고 본원에서 명확히 참조로서 병합하고 있다.
레이트
제어 비트 할당
본원에서 상술한 바와 같이, 인코딩 알고리즘에서 멀티미디어 데이터 콘텐츠를 사용하여, 인식 가능한 비디오 품질을 일정하게 유지하면서 비트 관리를 효과적으로 개선할 수 있다. 예를 들어, 장면 전환 검출, 인코딩 비트 레이트 할당 제어 및 FRUC (frame rate up conversion) 를 위한 알고리즘에서 분류 메트릭을 사 용할 수 있다. 코덱 (COmpressor/DECompressor; CODEC) 시스템 및 디지털 신호 처리 알고리즘은 일반적으로 비디오 데이터 통신에서 사용되고, 대역폭을 절약하도록 구성될 수 있지만, 품질과 대역폭 절약 간에 절충이 존재한다. 최적 코덱은 비디오 품질을 최소로 저하시키면서 최대의 대역폭 절약을 제공한다.
예시적인 일 예에서, 레이트 제어 비트 할당 모듈 (714) 은 콘텐츠 분류를 사용하여, 비트 레이트 (예를 들어, 멀티미디어 데이터를 인코딩하는데 할당된 비트 수) 를 결정하고, 인코더 (228) 의 다른 프로세스 및 컴포넌트에 의한 사용을 위해 메모리 내에 비트 레이트를 저장한다. 비디오 데이터의 분류로부터 결정된 비트 레이트는 일관된 품질 레벨로 멀티미디어 데이터를 제공하면서 대역폭을 절약하는 것을 도울 수 있다. 일 양태에서는, 8 개의 상이한 콘텐츠 분류 각각과 상이한 비트 레이트를 연관시킬 수 있고, 그 다음에, 그 비트 레이트를 사용하여 멀티미디어 데이터를 인코딩한다. 결과로서 생성된 효과는, 멀티미디어 데이터의 상이한 콘텐츠 분류에 인코딩을 위한 상이한 수의 비트가 할당되지만, 디스플레이 상에 표시될 때 인식된 품질이 유사하거나 일관된다는 것이다.
일반적으로, 더 높은 콘텐츠 분류를 갖는 멀티미디어 데이터는 더 높은 레벨의 모션 및/또는 텍스처를 나타내고, 인코딩 시 더 많은 비트가 할당된다. 더 낮은 분류 (적은 텍스처와 모션을 나타냄) 를 갖는 멀티미디어 데이터는 더 적은 비트가 할당된다. 특정 콘텐츠 분류를 갖는 멀티미디어 데이터의 경우, 비트 레이트는 멀티미디어 데이터를 보기 위한 선택된 타깃의 인식된 품질 레벨에 기초하여 결정될 수 있다. 멀티미디어 데이터 품질의 결정은 인간 뷰잉 (human viewing) 과 멀티미디어 데이터의 그레이딩 (grading) 에 의해 결정될 수 있다. 몇몇 다른 양태에서, 멀티미디어 데이터 품질의 추정은 예를 들어, 신호 대 잡음비 알고리즘을 사용하는 자동 테스트 시스템에 의해 행해질 수 있다. 일 양태에서, (예를 들어, 5 개의) 표준 품질 레벨 세트 및 각각의 특정 품질 레벨을 달성하는데 필요한 대응 비트 레이트는 각각의 콘텐츠 분류의 멀티미디어 데이터에 대해 미리 결정된다. 품질 레벨 세트를 결정하기 위해, 특정 콘텐츠 분류의 멀티미디어 데이터는, 일정 비트 레이트를 사용한 인코딩 시, 멀티미디어 데이터의 시각적으로 인식된 멀티미디어 데이터 품질의 수치 표시를 제공하는 MOS (Mean Opinion Score) 를 생성함으로써 평가될 수 있다. MOS 는 1 내지 5 의 범위에 있는 단일 숫자로서 표현될 수 있고, 여기서, 1 은 가장 낮게 인식된 품질이고, 5 는 가장 높게 인식된 품질이다. 다른 양태에서, MOS 는 5 개보다 많은 품질 레벨을 갖거나 5 개보다 적은 품질 레벨을 가질 수 있고, 각 품질 레벨의 상이한 설명을 사용할 수 있다.
멀티미디어 데이터 품질의 결정은 인간 뷰잉과 멀티미디어 데이터의 그레이딩에 의해 결정될 수 있다. 몇몇 다른 양태에서, 멀티미디어 데이터 품질의 추정은 예를 들어, 신호 대 잡음비 알고리즘을 사용하는 자동 테스트 시스템에 의해 행해질 수 있다. 일 양태에서, (예를 들어, 5 개의) 표준 품질 레벨 세트 및 각각의 특정 품질 레벨을 달성하는데 필요한 대응 비트 레이트는 각 콘텐츠 분류의 멀티미디어 데이터에 대해 미리 결정된다.
일정 콘텐츠 분류의 멀티미디어 데이터에 대한 비트 레이트와 시각적으로 인 식된 품질 레벨 간의 관계를 이해하는 것은 타깃 (예를 들어, 원하는) 품질 레벨을 선택함으로써 결정될 수 있다. 비트 레이트를 결정하는데 사용되는 타깃 품질 레벨은 미리 선택되거나, 사용자에 의해 선택되거나, 자동 프로세스 또는 사용자나 다른 프로세스로부터의 입력을 필요로 하는 반자동 프로세스를 통해 선택되거나, 또는 소정의 기준에 기초하여 인코딩 디바이스나 시스템에 의해 동적으로 선택될 수 있다. 타깃 품질 레벨은 예를 들어, 인코딩 애플리케이션 타입, 또는 멀티미디어 데이터를 수신하는 클라이언트 디바이스 타입에 기초하여 선택될 수 있다.
도 7 에 도시된 예에서, 레이트 제어 비트 할당 모듈 (714) 은 콘텐츠 분류 모듈 (712) 로부터 데이터를 수신하고, 또한 전처리기 (226) 로부터 메타데이터를 직접 수신한다. 레이트 제어 비트 할당 모듈 (714) 은 인코더 (228) 의 제 1 패스 부분에 상주하고, 레이트 제어 미세 조정 모듈 (738) 은 제 2 패스 부분 (706) 에 상주한다. 이러한 2-패스 레이트 제어 양태는, 제 1 패스 (레이트 제어 비트 할당 모듈 (714)) 가 하나의 슈퍼프레임 룩어헤드 (look-ahead) 를 사용하여 문맥 적응 비트 할당을 수행 (예를 들어, 256 kbps 의 장기간 평균 비트 레이트 타깃팅) 하며 피크 레이트를 제한하고, 제 2 패스 (레이트 제어 미세 조정 모듈 (738)) 가 2-계층 스케일러빌리티에 대해 제 1 패스 결과를 세분화하며 레이트 적응을 수행하도록 구성된다. 레이트 제어는 4 개의 레벨에 대해 작용한다: (1) GOP 레벨 - I, P, B 및 F 프레임의 비트 분포를 GOP 내에서 균일하지 않게 제어함; (2) 슈퍼프레임 레벨 - 최대 슈퍼프레임 크기에 대한 하드 리미트 (hard limit) 를 제어함; (3) 프레임 레벨 - 콘텐츠 정보 (예를 들어, 콘텐츠 분류) 에 기초하는, 멀티미디어 데이터 프레임의 공간 및 시간 복잡도에 따라 비트 요건을 제어함; 및 (4) 매크로블록 레벨 - 콘텐츠 정보 (예를 들어, 콘텐츠 분류) 에 기초하는, 공간 및 시간 복잡도 맵에 기초하여 매크로블록의 비트 할당을 제어함.
도 10 에는 레이트 제어 모듈 (714) 의 동작의 예시적인 흐름도가 도시되어 있다. 도 10 에 도시된 바와 같이, 프로세스 (1000) 는 입력 블록 (1002) 에서 시작한다. 레이트 제어 모듈 (714) 은 여러 입력을 수신하지만, 그 모든 입력이 반드시 도 7 에 도시되어 있는 것은 아니다. 예를 들어, 입력 정보는 전처리기 (226) 로부터의 메타데이터, 타깃 비트레이트, 인코더 버퍼 크기 (또는, 등가물로서, 레이트 제어에 대한 최대 지연 시간), 초기 레이트 제어 지연 및 프레임 레이트 정보를 포함할 수 있다. 추가 입력 정보는, 예를 들어, (장면 전환 정보를 비롯한) GOP 의 최대 슈퍼프레임 크기, 길이 및 P/B-프레임 분포, 필요한 베이스 및 인핸스먼트 계층의 배열, 장래 30 프레임 동안 GOP 내의 영상에 대한 복잡도-왜곡 메트릭을 비롯한, GOP (group of pictures) 레벨의 입력을 포함할 수 있다. 다른 입력 정보는, (콘텐츠 분류 모듈 (712) 로부터 수신된) 현재 영상에 대한 복잡도-왜곡 맵, 양자화 파라미터 (QP), 및 (슬라이딩 윈도우에 맞는) 과거 30 프레임의 비트 브레이크다운을 비롯한, 영상 레벨의 입력을 포함한다. 끝으로, 매크로블록 (MB) 레벨의 입력 정보는, 에를 들어, 기준 영상에서 수집된 매크로블록 (MB) 의 MAD (mean absolute difference), 및 (스킵 여부에 관계없이) 양자화 후의 매크로블록의 CBP (coded block pattern) 를 포함한다.
블록 (1002) 에서의 입력 후에, 프로세스 (1000) 는 비트스트림을 인코딩하 기 위한 초기화 블록 (1004) 으로 진행한다. 이와 동시에, 버퍼 초기화 (1006) 가 수행된다. 다음으로, 블록 (1008) 에 도시된 바와 같이 GOP 가 초기화되고, GOP 비트 할당 (1010) 이 초기화의 일부로서 수신된다. GOP 초기화 후에, 흐름은 블록 (1012) 으로 진행하여, 슬라이스가 초기화된다. 이러한 초기화는 블록 (1014) 에 도시된 바와 같이 헤더 비트의 갱신을 포함한다. 블록 (1004, 1008 및 1012) 의 초기화가 수행된 후에, 블록 (1016) 에 의해 도시된 바와 같이, 기본 유닛 또는 매크로블록 (MB) 에 대한 레이트 제어 (RC) 가 실행된다. 블록 (1016) 에서 매크로블록의 레이트 제어 결정의 일부로서, 인코더 (228) 에서 인터페이스를 통해 입력이 수신된다. 이들 입력은 매크로블록 (MB) 비트 할당 (1018), 2 차 모델 파라미터의 갱신 (1020) 및 중앙값으로부터의 중앙값 절대 편차 ("MAD", 견고한 분산 추정) 파라미터 (1022) 의 갱신을 포함할 수 있다. 그 다음에, 프로세스 (1000) 는 하나의 영상을 인코딩한 후의 동작을 실행하는 블록 (1024) 으로 진행한다. 블록 (1026) 에 의해 도시된 바와 같이, 이러한 절차는 버퍼 파라미터의 갱신을 수신하는 것을 포함한다. 그 다음에, 프로세스 (1000) 는, 출력 블록 (1028) 으로 진행하고, 도 7 에 도시된 바와 같이, 레이트 제어 모듈 (714) 은 모드 결정 모듈 (715) 에 의해 사용되는 각 매크로블록 (MB) 에 대한 양자화 파라미터 (QP) 를 출력한다.
모션
추정
모션 추정 모듈 (720) 은 전처리기 (226) 로부터 메타데이터와 미가공 비디오의 입력을 수신하고, 블록 크기, 모션 벡터, 왜곡 메트릭 및 기준 프레임 식별자 를 포함할 수 있는 출력을 모드 결정 모듈 (715) 에 제공한다. 도 11 은 모션 추정 모듈 (720) 의 예시적인 동작을 도시한다. 도시된 바와 같이, 프로세스 (1100) 는 입력 (1102) 으로 시작한다. 프레임 레벨에서, 모션 추정 모듈 (720) 은 기준 프레임 ID 및 모션 벡터의 입력을 수신한다. 매크로블록 레벨에서, 입력 (1102) 은 입력 화소 및 기준 프레임 화소를 포함한다. 프로세스 (1100) 는, 컬러 모션 추정 (ME) 및 모션 벡터 예측이 수행되는 단계 (1104) 로 진행한다. 이러한 프로세스를 실행하기 위해, MPEG-2 모션 벡터, 루마 모션 벡터 (MV) (1106), 모션 벡터 평활화 (1108) 및 비인과적 모션 벡터 (1110) 를 비롯한 여러 입력이 수신된다. 다음으로, 프로세스 (1100) 는, 16 진 또는 다이아몬드 검색 방법과 같은, 모션 벡터 검색 알고리즘 또는 방법론이 수행되는 블록 (1112) 으로 진행한다. 블록 (1112) 에서의 처리에 대한 입력은 블록 (1114) 에 의해 도시된 바와 같이, SAD (sum of absolute difference), SSD (sum of squared difference) 및/또는 다른 메트릭을 포함할 수도 있다. 일단 모션 벡터 검색이 수행되면, 프로세스 (1100) 는 종료 블록 (1116) 으로 진행하여, 종료 처리가 수행된다. 그 다음에, 프로세스 (100) 는 출력 블록 (1118) 에서 종료하고, 이 출력 블록 (1118) 은 블록 크기, 모션 벡터 (MV), 왜곡 메트릭 및 기준 프레임 식별자의 출력을 생성한다.
베이스 및
인핸스먼트
계층에 대한
스케일러빌리티
R-D
도 13 은 스케일러빌리티 R-D 모듈 (718) 에 의해 수행될 수 있는 스케일러빌리티 프로세스 (1300) 의 예시적인 흐름도를 도시한다. 프로세스 (1300) 는 시작 블록 (1302) 에서 시작하고, 블록 (1304) 으로 진행하여, 스케일러빌리티 R-D 모듈 (718) 이 모션 추정 모듈 (720) 로부터 입력을 수신하고 모션 추정을 수행한다. 모션 추정은 블록 (1306) 에 의해 표시된 바와 같이, 베이스 계층 기준 프레임, 인핸스먼트 계층 기준 프레임 및 코딩될 원래 프레임의 입력에 의존한다. 그러한 정보는 GOP 분할기 (612) 에 의해 계산될 수 있고, 예를 들어, 메타데이터를 통해 스케일러빌리티 R-D 모듈 (718) 에 전달될 수 있다. 프로세스 (1300) 는 블록 (1308) 으로 진행하여, 베이스 계층 데이터와 인핸스먼트 계층 데이터의 스케일러빌리티 정보를 결정한다. 그 다음에, 블록 (1310) 에 도시된 바와 같이, 베이스 계층 인코딩이 수행되고, 그 다음에, 블록 (1312) 에서 인핸스먼트 계층 인코딩이 수행된다. 블록 (1314) 에 도시된 바와 같이, 인핸스먼트 계층의 인코딩은 층간 예측에 대한 베이스 계층 코딩 결과를 입력으로서 사용하므로, 베이스 계층 인코딩 후에 임시로 수행된다. 이는, 발명의 명칭이 "SCALABLE VIDEO CODING WITH TWO LAYER ENCODING AND SINGLE LAYER DECODING" 인 동시 계속 중인 미국 특허 출원 [Attorney docket/ref. no. 050078] 에 더 설명되어 있다. 인코딩이 완료된 후에, 프로세스 (1300) 는 블록 (1316) 에서 종료한다.
슬라이스/매크로블록 순서화
또한, 제 1 패스 부분 (702) 은 슬라이스/매크로블록 순서화 모듈 (722) 을 포함하고, 이 슬라이스/매크로블록 순서화 모듈 (722) 은 제 2 패스 부분 내의 에러 내성 모듈 (740) 로부터 입력을 수신하고, 슬라이스 정렬 정보를 모드 결정 모듈 (715) 에 제공한다. 슬라이스는 독립적으로 디코딩 가능하게 (엔트로피 디 코딩) 코딩된 비디오 데이터의 청크이다. 액세스 유닛 (AU) 은 정확히 하나의 프라이머리 코딩된 영상을 항상 포함하는 NAL 유닛 세트를 각각 포함한 코딩된 비디오 프레임이다. 프라이머리 코딩된 영상 외에도, 액세스 유닛은 하나 이상의 중복 코딩된 영상 또는 코딩된 영상의 슬라이스 또는 슬라이스 데이터 분할을 포함하지 않는 다른 NAL 유닛을 포함할 수도 있다. 액세스 유닛의 디코딩은 디코딩된 영상을 항상 생성한다.
프레임은 최고 시간 다이버시티를 제공하는 물리 계층 패킷 (TDM 캡슐로 지칭됨) 의 시분할 다중화 블록일 수 있다. 슈퍼프레임은 하나의 시간 단위 (예를 들어, 1 초) 에 대응하고, 4 개의 프레임을 포함한다. 슬라이스 및 AU 경계를 시간 영역 내의 프레임 경계와 정렬시킴으로써, 손상된 데이터를 가장 효율적으로 분리 및 한정하게 된다. 딥 페이드 동안에, TDM 캡슐 내의 연속 데이터 대부분은 에러에 의해 영향을 받는다. 시간 다이버시티 때문에, 나머지 TDM 캡슐은 손상되지 않을 확률이 높다. 손상되지 않은 데이터를 이용하여, 손실된 데이터를 복원하고, 영향을 받은 TDM 캡슐로부터 손실된 데이터를 은폐할 수 있다. 유사한 논리는, 데이터 심벌이 변조하는 주파수 서브캐리어 내의 분리를 통해 주파수 다이버시티를 달성하는 주파수 영역 다중화 (FDM) 에 적용된다. 또한, 유사 논리는 (송신기 및 수신기 안테나에서의 분리를 통하는) 공간 다이버시티와, 무선 네트워크에서 종종 적용되는 다른 형태의 다이버시티에 적용된다.
슬라이스 및 AU 를 프레임에 정렬시키기 위해서는, 외부 코드 (FEC) 코드 블록 생성과 MAC 계층 캡슐화도 또한 정렬되어야 한다. 도 20 은 코딩된 비디오 데이터 또는 비디오 스트림을 슬라이스와 AU 로 구성한 것을 도시한다. 코딩된 비디오는 예를 들어, 계층적 비디오 코딩이 적용되는 베이스 계층 비트스트림과 인핸스먼트 계층 비트스트림과 같은 하나 이상의 비트스트림으로 구성될 수도 있다.
도 20 에 도시된 바와 같이, 비디오 비트스트림은 프레임 1 (2005), 프레임 3 (2010) 및 프레임 M (2015) 단위로 AU 를 포함한다. 도시된 바와 같이, AU 는 슬라이스 1 (2020), 슬라이스 2 (2025) 및 슬라이스 N (2030) 단위로 데이터 슬라이스를 포함한다. 각각의 슬라이스 시작은 시작 코드에 의해 식별되고, 네트워크 적응에 제공된다. 일반적으로, I-프레임 또는 인트라 코딩된 AU 는 크고, 그 다음에 P-프레임 또는 순방향 예측 프레임이 오고, 그 다음에 B-프레임이 온다. AU 를 다수의 슬라이스로 코딩함으로써, 슬라이스 전체에서 공간 예측이 제한되며 슬라이스 헤더 또한 오버헤드에 기여하기 때문에, 코딩된 비트레이트의 관점에서 상당한 오버헤드 비용을 발생시킨다. 슬라이스 경계가 재동기화 지점이기 때문에, PLP 가 손상된 이후에, 연속적인 물리 계층 패킷을 슬라이스에 제한함으로써, 에러를 제어하고, PLP 내의 슬라이스에 에러가 제한되지만, PLP 가 다수의 슬라이스 또는 다수의 슬라이스의 부분을 포함하면, 에러가 PLP 내의 모든 슬라이스 또는 슬라이스 부분에 영향을 미칠 것이다.
통상 I-프레임이 예를 들어, 수십 kbits 정도로 크기 때문에, 다수의 슬라이스로 인한 오버헤드는 전체 I-프레임 크기 또는 전체 비트레이트의 큰 비율이 아니다. 또한, 인트라 코딩된 AU 내에 더 많은 슬라이스를 가짐으로써, 더 양호하고 더 빈번한 재동기화를 가능하게 하고, 더 효율적인 공간 에러 은폐를 가능하게 한다. 또한, P 및 B-프레임이 I-프레임에서 예측되기 때문에, I-프레임은 비디오 비트스트림에서 가장 중요한 정보를 전달할 수 있다. 또한, I-프레임은 채널 획득을 위한 랜덤 액세스 포인트로서 기능을 한다.
이하, 도 21 을 참조하면, I-프레임을 프레임 경계와 정렬시키고, 또한 I AU 를 갖는 슬라이스를 프레임 경계와 신중히 정렬시킴으로써, 가장 효율적인 에러 제어, 에러 보호 (프레임 1 (2105) 에 속한 하나의 슬라이스가 손실되더라도, 프레임 2 (2110) 가 프레임 1 (2105) 로부터 상당한 시간이 분리되므로 프레임 2 (2110) 에 속하는 슬라이스가 손상되지 않을 확률이 높기 때문임) 를 가능하게 하고, 재동기화 및 에러 은폐를 통해 에러 내성을 수행할 수 있다.
통상 P-프레임이 몇 kbits 정도의 크기를 갖기 때문에, P-프레임의 슬라이스 및 정수 개의 P-프레임을 프레임 경계에 정렬시킴으로써, (I-프레임과 유사한 이유로) 치명적인 효율 손실 없이 에러 내성을 가능하게 한다. 시간 에러 은폐는 그러한 양태에서 사용될 수 있다. 다른 방법으로는, 연속적인 P-프레임을 분산시켜 상이한 프레임에서 도착하게 함으로써, P-프레임 간에 시간 다이버시티를 추가하는데, 이는 시간 은폐가 미리 재구성된 I 또는 P 프레임으로부터의 모션 벡터 및 데이터에 기초하기 때문이다. B-프레임은 매우 작은 (수백 비트) 프레임부터 매우 큰 (몇천 비트) 프레임까지 존재할 수 있다. 따라서, 치명적인 효율 손실 없이 에러 내성을 달성하기 위해서는, 정수 개의 B-프레임을 프레임 경계에 정렬시키는 것이 바람직하다.
모드
결정 모듈
도 12 는 모드 결정 모듈 (715) 의 동작의 몇몇 예를 도시한다. 도시된 예와 같이, 프로세스 (1200) 는 입력 블록 (1202) 에서 시작한다. 일 예시적인 에에서, 모드 결정 모듈 (715) 에 대한 여러 정보 입력은 슬라이스 타입, Intra 4x4cost, Intra 16x16cost, IntraUV 8x8cost, IntraY 16x16 Mode, IntraUV Mode, MVD (motion vector data), QP (quantization parameters), SpPredMB4x4Y, SpPredMB16x16Y, SpPredMB8x8u, SpPredMB8x8V, 레이트 왜곡 플래그, 미가공 YMB 화소, 미가공 UMB 화소 및 미가공 VMB 화소를 포함한다. 그 다음에, 프로세스 (1200) 는 인코딩 초기화 블록 (1204) 로 진행하여, 블록 (1206) 에 의해 표시된 것과 같이 인코더 초기화를 명령하는 입력 신호 또는 인터페이스에 의해 개시될 수 있다. 그 초기화는 허용된 모드 설정 (skip, direct 포함), 모드 가중치 설정 (필요에 따라, 디폴트는 모든 노드에 대해 동일한 가중치일 것임), 및 버퍼 설정을 포함할 수 있다. 초기화 후에, 프로세스 (1200) 는 블록 (1028) 으로 진행하여, 각각의 허용된 모드에 대한 매크로블록 (MB) 모드 비용 계산, 가중 인자로 각각의 MB 모드 비용 가중화 및 최소 MB 모드 비용 모드 선택을 비롯한, 모드 결정을 위한 메인 처리가 수행된다. 블록 (1210 및 1212) 에 도시된 바와 같이, 이들 동작과 관련된 입력은 모션 추정 (예를 들어, MVD 및 예측), 및 공간 예측 (예를 들어, 모든 인트라 비용 및 예측) 을 포함한다. 블록 (1214) 에서 엔트로피 인코딩이 모드 결정 모듈 (715) 과 인터페이싱하여, 그 중에서 특히 압축 레이트를 향상시킨다. 프로세스 (1200) 는 블록 (1216) 으로 진행하여, 버퍼를 갱신함으로써, 인코더 제 2 패스 부분 (706) 으로 정보를 전달한다. 끝으로, 프로세스 (1200) 는 블록 (1218) 으로 진행하여, 인코더 제 2 패스 부분 (706) 으로 "최적" 인코딩 모드를 전달할 수 있다.
인코더 제 2 패스 부분
다시 도 7 을 참조하면, 인코더 (228) 의 제 2 패스 부분 (706) 은 인코딩의 제 2 패스를 수행하기 위한 제 2 패스 인코더 모듈 (232) 을 포함한다. 제 2 패스 인코더 (232) 는 모드 결정 모듈 (715) 로부터의 출력을 수신한다. 제 2 패스 인코더 (232) 는 MC/변환 양자화 모듈 (726) 및 ZZ (Zig Zag)/엔트로피 인코더 (728) 를 포함한다. 제 2 패스 인코더 (232) 의 결과는 스케일러빌리티 모듈 (730) 과 비트스트림 패킹 모듈 (731) 에 출력되고, 또한, (도 2 에 도시된) 동기화 계층 (240) 을 통해 트랜스코더 (200) 가 송신하기 위해 인코딩된 베이스 및 인핸스먼트 계층에 출력된다. 도 2 에 도시된 바와 같이, 제 2 패스 인코더 (232) 와 재인코더 (234) 로부터의 베이스 및 인핸스먼트 계층은 동기화 계층 (240) 에 의해 모아져, 베이스 및 인핸스먼트 계층, 데이터 PES (244; 예를 들어, CC 및 다른 텍스트 데이터) 및 오디오 PES (246) 를 비롯한 패킷화된 PES (242) 로 된다는 것에 주목하자. 오디오 인코더 (236) 는 디코딩된 오디오 정보 (218) 를 수신하고, 또한, 그 정보를 인코딩하여 인코딩된 정보 (238) 를 동기화 계층 (240) 에 출력한다는 것에 주목하자.
재인코더
다시 도 7 을 참조하면, 인코더 제 2 패스 부분 (706) 은 또한 도 2 의 재인코더 (234) 에 대응하는 재인코더 (234) 를 포함한다. 또한, 재인코더 (234) 는 제 1 패스 부분 (702) 의 출력을 수신하고, MC/변환 양자화 (726) 및 ZZ/엔트로피 코딩 (728) 부분을 포함한다. 또한, 스케일러빌리티 모듈 (730) 은 재인코더 (234) 에 출력한다. 재인코더 (234) 는 결과로서 생성된 베이스 및 인핸스먼트 계층을 재인코딩으로부터 비트스트림 패킹 모듈 (731) 로 출력하여, 동기화 장치 (예를 들어, 도 2 에 도시된 동기화 계층 (240)) 로 송신한다. 또한, 도 7 의 인코더 (228) 예는, 비트스트림 패킹 피드백을 제 2 패스 인코더 (232) 내의 MC/변환 양자화 모듈 (234) 과 재인코더 (234) 내의 ZZ/엔트로피 모듈 (736) 모두에 제공하여, (예를 들어, 압축 효율을 증가시키는 것과 같이) 제 2 패스 인코딩을 조정하는 것을 돕는 레이트 제어 미세 조정 모듈 (738) 을 포함한다.
에러 내성 모듈
또한, 도 7 에 도시된 인코더 (228) 는 제 2 패스 부분 (706) 에 에러 내성 모듈 (740) 을 포함한다. 에러 내성 모듈 (740) 은 비트스트림 패킹 모듈 (730) 및 슬라이스/MB 순서화 모듈 (722) 과 통신한다. 에러 내성 모듈 (740) 은 전처리기 (228) 로부터 메타데이터를 수신하고, 예를 들어, 슬라이스 및 액세스 유닛을 프레임 경계에 정렬시키는 방식, 예측 계층 구성 및 적응 인트라 리프레시와 같은 에러 내성 방식을 선택한다. 에러 내성 방식의 선택은 메타데이터에서 수신된 정보에 기초하여 행해질 수 있고, 또는 비트스트림 패킹 모듈 (731) 및 슬라이스/MB 순서화 모듈 (722) 로부터 에러 내성 모듈에 전달된 정보로부터 행해질 수 있다. 에러 내성 모듈 (740) 은 제 1 패스 부분 (702) 내의 슬라이스/매크로블록 (MB) 순서화 모듈에 정보를 제공하여, 선택된 에러 내성 프로세스를 구현한 다. 에러가 발생하기 쉬운 환경을 통한 비디오 송신은, 뷰잉 사용자에게 더 명확하며 에러로 덜 채워진 데이터를 표시할 수 있는 에러 내성 전략 및 알고리즘을 사용할 수 있다. 아래의 에러 내성 설명은 현재 또는 장래 애플리케이션, 전송 및 물리 계층 또는 다른 기술의 임의의 하나 또는 그 조합에 적용될 수 있다. 효과적인 에러 견고성 알고리즘은 낮은 대기 시간 및 높은 처리량과 같은 통신 시스템의 원하는 특성과 관련하여 OSI 계층 간의 에러 감응 특성과 에러 보호 능력의 이해를 완전하게 한다. 에러 내성 처리는 예를 들어, 멀티미디어 데이터의 콘텐츠 분류와 같은 멀티미디어 데이터의 콘텐츠 정보에 기초할 수 있다. 주요 이점 중 하나는 페이딩 및 다경로 채널 에러로부터의 복구성이다. 아래에 설명되는 에러 내성 접근법은 특히, 인코더 (228) 내에 (예를 들어, 더욱 상세하게는, 에러 내성 모듈 (740) 및 슬라이스/MB 순서화 모듈 (722) 내에) 통합될 수 있으며, 에러가 발생하기 쉬운 환경에서의 데이터 통신으로 일반적으로 확장될 수 있는 프로세스에 관한 것이다.
에러 내성
예측 기반 하이브리드 압축 시스템의 경우에, 인트라 코딩된 프레임은 임의의 시간 예측 없이 독립하여 코딩된다. 인터 코딩된 프레임은 과거 프레임 (P-프레임) 과 장래 프레임 (B-프레임) 으로부터 임시로 예측될 수 있다. 최적 예측기는 (하나 이상의) 기준 프레임에서 검색 프로세스를 통해 식별될 수 있고, SAD 와 같은 왜곡 측정을 사용하여 최적 정합을 식별한다. 현재 프레임의 예측 코딩된 영역은 예를 들어, 세그먼테이션을 통해 물체로서 식별되는 화소 그룹 또는 가변 크기 및 형상 (16x16, 32x32, 8x4 등) 을 갖는 블록일 수 있다.
통상, 시간 예측은 다수의 프레임 (예를 들어, 10 개 내지 수십 개 프레임) 에 대해 확장되고, 프레임이 I-프레임으로서 코딩될 때에 종료하며, GOP 는 통상 I-프레임 주파수에 의해 규정된다. 최대 코딩 효율의 경우에, GOP 는 장면이고, 예를 들어, GOP 경계는 장면 경계와 정렬되고, 장면 전환 프레임은 I-프레임으로서 코딩된다. 낮은 모션 시퀀스는 비교적 정적인 배경을 포함하고, 모션은 일반적으로 전경 물체에 제한된다. 그러한 낮은 모션 시퀀스의 콘텐츠 예는 뉴스 및 기상 예보 프로그램을 포함하고, 가장 많이 시청되는 콘텐츠의 30% 이상이 이러한 성질을 갖는다. 낮은 모션 시퀀스에서, 대부분의 영역은 인터 코딩되고, 예측된 프레임은 중간 예측된 프레임을 통해 다시 I-프레임을 참조한다.
도 22 를 참조하면, I-프레임 내의 인트라 코딩된 블록 (2205) 은 코딩된 프레임 (또는 AU) P1 내의 인터 코딩된 블록 (2210) 에 대한 예측기이다. 본 예에서, 이들 블록 영역은 배경의 정지 부분이다. 연속적인 시간 예측을 통해, 에러에 대한 인트라 코딩된 블록 (2205) 의 감도가 상승하는데, 그 이유는 인트라 코딩된 블록 (2205) 이 "양호한" 예측기이기 때문이다 (또한, 이는 그 "중요성" 이 더 높다는 것을 의미함). 또한, 인트라 코딩된 블록 (2205) 은, 예측 체인으로 지칭되는 이러한 시간 예측 체인에 의해, (도 22 의 예에서 장면 지속 기간 동안에) 디스플레이에서 더 길게 계속된다.
예측 계층 구성은 부모가 위 (인트라 코딩된 블록 (2205)) 에 있으며 자식이 아래에 있는 이러한 중요성 레벨 또는 영속성 측정에 기초하여 생성된 블록 트리로 서 규정된다. P1 에서 인터 코딩된 블록 (2215) 은 계층 구성의 제 2 레벨에 있다는 것에 주목하자. 리프는 예측 체인을 종료하는 블록이다.
예측 계층 구성은 콘텐츠 타입 (예를 들어, 단지 뉴스뿐만 아니라 음악과 스포츠) 에 관계없이 비디오 시퀀스에 대해 생성될 수 있고, 예측 기반 비디오 (및 데이터) 압축에 일반적으로 적용 가능하다 (이는 본원에 설명된 모든 양태에 적용 가능함). 일단 예측 계층 구성이 확립되면, 아래에 설명되는 적응 인트라 리프레시와 같은 에러 내성 알고리즘은 더 효과적으로 적용될 수 있다. 중요성 측정은 예를 들어, 은폐 동작을 통해 에러로부터 주어진 블록의 복구성에 기초할 수 있고, 적응 인트라 리프레시를 적용하여 에러에 대한 코딩된 비트스트림의 복원성을 향상시킬 수 있다. 중요성 추정은, 블록이 예측기 (또한, 영속성 메트릭으로 지칭됨) 로서 사용되는 횟수에 기초할 수 있다. 또한, 영속성 메트릭을 사용하여 예측 에러 전파를 저지함으로써 코딩 효율을 개선한다. 또한, 영속성 메트릭은 중요성이 더 높아진 블록에 대한 비트 할당을 증가시킨다.
적응
인트라
리프레시
적응 인트라 리프레시는 멀티미디어 데이터의 콘텐츠 정보에 기초할 수 있는 에러 내성 기술이다. 인트라 리프레시 프로세스에서는, 몇몇 MB 를 인트라 코딩하지만, 표준 R-D 최적화는 몇몇 MB 가 인터 코딩된 MB 이어야 한다는 것을 요구할 것이다. AIR 는 모션 가중된 인트라 리프레시를 사용하여 P 또는 B-프레임에서 인트라 코딩된 MB 를 도입한다. 베이스 계층에 포함된 이들 인트라 코딩된 MB 는 또는 를 사용하여 인코딩될 수 있다. 가 베이스 계층에 사용되면, 인핸스먼트 계층에서는 어떤 세분화도 행해지지 않아야 한다. 가 베이스 계층에 사용되면, 세분화가 적절할 수도 있지만, 그렇지 않은 경우에는, 인핸스먼트 계층에서, 품질 저하를 인식할 수 있을 것이다. 코딩 효율 면에서 인터 코딩이 인트라 코딩보다 효율적이기 때문에, 인핸스먼트 계층에서의 이들 세분화는 인터 코딩될 것이다. 이러한 방법으로, 베이스 계층 계수는 인핸스먼트 계층에 사용되지 않을 것이고, 그 품질은 새로운 연산을 도입함 없이 인핸스먼트 계층에서 개선된다.
몇몇 양태에서, 적응 인트라 리프레시는 모션 가중된 방식 대신에, 또는 모션 가중된 방식에 더하여 멀티미디어 데이터의 콘텐츠 정보 (예를 들어, 콘텐츠 분류) 에 기초할 수 있다. 예를 들어, 콘텐츠 분류가 비교적 높은 경우에는 (예를 들어, 장면이 높은 공간 및 시간 복잡도를 갖는 경우에는), 적응 인트라 리프레시가 P 또는 B-프레임 내에 비교적 많은 인트라 코딩된 MB 를 도입할 수 있다. 다른 방법으로는, 콘텐츠 분류가 비교적 낮은 경우에는 (낮은 공간 및/또는 시간 복잡도를 갖는 덜 동적인 장면을 나타내는 경우에는), 적응 인트라 리프레시가 P 및 B-프레임에 인트라 코딩된 더 적은 MB 를 도입할 수 있다. 에러 내성을 개선하기 위한 그러한 메트릭 및 방법은 무선 멀티미디어 통신 환경에서 적용될 수 있을 뿐만 아니라, 통상적으로 (예를 들어, 그래픽 렌더링에서) 데이터 압축 및 멀티미디어 처리에서도 적용될 수 있다.
채널 변경 프레임
본원에서 규정되는 것과 같은 채널 변경 프레임 (CSF) 은 고속 채널 획득 및 이에 따른 방송 멀티플렉스에서 스트림 간의 고속 채널 변경을 위해 방송 스트림 내의 적당한 위치에 삽입된 랜덤 액세스 프레임을 설명하는 광의의 용어이다. 채널 변경 프레임은 또한 에러 견고성을 증가시키는데, 그 이유는, 프라이머리 프레임이 잘못 송신되는 경우에 사용될 수 있는 중복 데이터를 채널 변경 프레임이 제공하기 때문이다. 통상, I-프레임 또는 H.264 내의 순차 디코더 리프레시 프레임과 같은 순차 I-프레임은 랜덤 액세스 포인트로서 기능을 한다. 그러나, 빈번한 I-프레임으로 인해 (또는, 짧은 GOP (이는 장면 지속 기간보다 짧음) 로 인해), 압축 효율이 상당히 떨어진다. 에러 내성을 위해 인트라 코딩 블록이 필요할 수도 있기 때문에, 예측 계층 구성을 통해 랜덤 액세스와 에러 내성을 효과적으로 결합하여, 에러에 대한 견고성을 증가시키면서 코딩 효율을 향상시킬 수 있다.
랜덤 액세스 스위칭 및 에러 견고성의 개선은 동시에 달성될 수 있고, 콘텐츠 분류와 같은 콘텐츠 정보에 기초할 수 있다. 낮은 모션 시퀀스의 경우에는, 예측 체인이 길고, 슈퍼프레임 또는 장면을 재구성하는데 필요한 정보의 상당 부분이 장면 시작에서 일어난 I-프레임에 포함된다. 채널 에러는 버스티 (bursty) 하는 경향이 있고, 페이드가 일어나고 FEC 및 채널 코딩이 실패하면, 상당한 나머지 에러가 발생하여, 은폐가 실패한다. 이는 특히 낮은 모션 (및 이에 따른 낮은 비트 레이트) 시퀀스의 경우에 심하게 되는데, 그 이유는, 코딩된 데이터 양이 비디오 비트스트림 내에서 양호한 시간 다이버시티를 제공하기에 충분하지 않기 때문이고, 또한 이들 낮은 모션 시퀀스가 재구성에 유용한 모든 비트를 렌더링하는 고도로 압축 가능한 시퀀스이기 때문이다. 높은 모션 시퀀스는 콘텐츠 성질 때문에 에러에 더 견고하다 - 모든 프레임에서 더 많은 새로운 정보는 독립적으로 디코딩 가능하며 원래 에러에 대한 복원성 더 뛰어난 코딩된 인트라 블록의 수를 증가시킨다. 예측 계층 구성에 기초한 적응 인트라 리프레시는 높은 모션 시퀀스에 대해 높은 성능을 달성하지만, 낮은 모션 시퀀스의 경우에는 성능 개선이 현저하지 않다. 따라서, 대부분의 I-프레임을 포함한 채널 변경 프레임은 낮은 모션 시퀀스에 대한 양호한 다이버시티 소스가 된다. 슈퍼프레임에서 에러가 발생하면, 예측으로 인해 손실된 정보를 복구하며 에러 내성이 달성되는 CSF 로부터 연속적인 프레임에서의 디코딩이 시작한다.
비교적 높은 콘텐츠 분류 (예를 들어, 6 내지 8) 를 갖는 시퀀스와 같은 높은 모션 시퀀스의 경우에, CSF 는 SF 에서 지속되는 블록으로 이루어질 수 있다 - 이들 블록은 양호한 예측기이다. CSF 의 모든 다른 영역은 코딩될 필요가 없는데, 그 이유는, 이들 영역이 짧은 예측 체인을 갖는 블록이기 때문이다 (이는, 이들 블록이 인트라 블록으로 종료된다는 것을 의미함). 따라서, CSF 는 에러 발생 시 예측으로 인해 손실된 정보로부터 계속 복구하는 기능을 한다. 낮은 모션 시퀀스에 대한 CSF 는 I-프레임의 크기와 동등하고, CSF 는 더 큰 양자화를 통해 더 낮은 비트 레이트에서 코딩될 수 있지만, 높은 모션 시퀀스에 대한 CSF 는 대응하는 I-프레임보다 훨씬 작다.
예측 계층 구성에 기초한 에러 내성은 스케일러빌리티와 잘 작용할 수 있고, 매우 효율적인 계층적 코딩을 달성할 수 있다. 물리 계층 기술에서 계층형 변조를 지원하는 스케일러빌리티는 비디오 비트스트림을 특정 대역폭 비율로 데이터 분할하는 것을 필요로 할 수도 있다. 이들 비율이 항상 (예를 들어, 최소 오버헤드를 갖는) 최적 스케일러빌리티에 대한 이상적인 비율인 것은 아니다. 몇몇 양태에서는, 1:1 대역폭 비율을 갖는 2-계층 스케일러빌리티가 사용된다. 비디오 비트스트림을 같은 크기의 2-계층으로 분할하는 것이, 낮은 모션 시퀀스의 경우에는 효율적이지 않을 수도 있다. 낮은 모션 시퀀스의 경우에, 모든 헤더 및 메타데이터 정보를 포함한 베이스 계층은 인핸스먼트 계층보다 크다. 그러나, 낮은 모션 시퀀스에 대한 CSF 가 더 크기 때문에, 그 CSF 는 인핸스먼트 계층 내의 나머지 대역폭에서 잘 맞게 된다.
높은 모션 시퀀스는 1:1 데이터 분할을 최소 오버헤드로 달성할 수 있도록 충분한 나머지 정보 (residual information) 를 갖는다. 또한, 그러한 시퀀스에 대한 채널 변경 프레임은 높은 모션 시퀀스의 경우에 훨씬 작아진다. 따라서, 예측 계층 구성에 기초한 에러 내성은 높은 모션 시퀀스의 경우에도 스케일러빌리티와 잘 작용할 수 있다. 중간 정도의 모션 클립에 대해 상술한 개념을 확장하는 것은, 이들 알고리즘의 설명에 기초하여 가능하고, 통상, 제안된 개념은 비디오 코딩에 적용된다.
멀티플렉서
몇몇 인코더 양태에서, 멀티플렉서는 인코더에 의해 생성된 다수의 멀티미디 어 스트림을 인코딩하는데 사용될 수 있고, 방송용으로 인코딩된 비트를 준비하는데 사용될 수 있다. 예를 들어, 도 2 에 도시된 인코더 (228) 의 예시적인 양태에서, 동기화 계층 (240) 은 멀티플렉서를 포함한다. 멀티플렉서는 비트 레이트 할당 제어를 제공하도록 구현될 수도 있다. 추정된 복잡도가 멀티플렉서에 제공될 수 있고, 그 다음에, 이 멀티플렉서는 이들 비디오 채널에 대해 예상되는 인코딩 복잡도에 따라 멀티플렉싱된 비디오 채널 그룹에 대해 가용 대역폭을 할당할 수 있고, 또한, 멀티플렉싱된 비디오 스트림의 그룹에 대한 대역폭이 비교적 일정하더라도 특정 채널의 품질이 비교적 일정한 상태를 유지할 수도 있도록 해준다. 이로 인해, 채널 그룹 내의 채널이 비교적 일정한 비트 레이트와 가변 시각 품질을 갖기 보다는, 가변 비트 레이트와 비교적 일정한 시각 품질을 갖게 된다.
도 18 은 다수의 멀티미디어 스트림 또는 채널 (1802) 을 인코딩하는 시스템을 도시한 블록도이다. 멀티미디어 스트림 (1802) 은 각각의 인코더 (1804) 에 의해 인코딩되고, 이 인코더 (1804) 는 멀티플렉서 (1806; MUX) 와 통신하고 있고, 또한, 이 멀티플렉서 (1806) 는 송신 매체 (1808) 와 통신하고 있다. 예를 들어, 멀티미디어 스트림 (1802) 은 뉴스 채널, 스포츠 채널, 영화 채널 등과 같은 여러 콘텐츠 채널에 대응할 수 있다. 인코더 (1804) 는 멀티미디어 스트림 (1802) 을 시스템에 지정된 인코딩 포맷으로 인코딩한다. 비디오 스트림의 인코딩 환경에서 설명되지만, 개시된 기술의 원리 및 이점은 예를 들어, 오디오 스트림을 비롯한 멀티미디어 스트림에 일반적으로 적용 가능하다. 인코딩된 멀티미 디어 스트림은 멀티플렉서 (1806) 에 제공되고, 이 멀티플렉서 (1806) 는 여러 인코딩된 멀티미디어 스트림을 결합하고, 결합된 스트림을 송신을 위한 송신 매체 (1808) 에 송신한다.
송신 매체 (1808) 는 DirecTV® 와 같은 디지털 위성 통신, 디지털 케이블, 유무선 인터넷 통신, 광 네트워크, 셀 전화 네트워크 등과 같은 여러 매체에 대응할 수 있지만, 이에 한정되는 것은 아니다. 송신 매체 (1808) 는 예를 들어, 무선 주파수 (RF) 에 대한 변조를 포함할 수 있다. 통상, 스펙트럼 제약으로 인해, 송신 매체는 제한된 대역폭을 갖고, 멀티플렉서 (1806) 로부터 송신 매체로의 데이터는 비교적 일정한 비트 레이트 (constant bit rate; CBR) 로 유지된다.
통상의 시스템에서, 멀티플렉서 (1806) 의 출력에서 일정한 비트 레이트 (CBR) 를 사용하기 위해서는, 멀티플렉서 (1806) 에 입력되는 인코딩된 멀티미디어 또는 비디오 스트림이 또한 CBR 일 것을 요구할 수도 있다. 배경기술에서 설명한 바와 같이, 비디오 콘텐츠 인코딩 시, CBR 을 사용하면, 가변 시각 품질로 되므로, 일반적으로 바람직하지 않다.
도시된 시스템에서, 인코더 (1804) 중 2 개 이상의 인코더는 입력 데이터의예상 인코딩 복잡도를 전달한다. 이에 응답하여, 인코더 (1804) 중 하나 이상의 인코더는 멀티플렉서 (1806) 로부터 적응 비트 레이트 제어를 수신할 수도 있다. 이로 인해, 인코더 (1804) 는, 준-가변 (quasi-variable) 비트 레이트 방식으로 그 비디오 프레임에 대해 더 높은 비트 레이트 또는 더 높은 대역폭 (더 많은 프레임당 비트) 을 수신하도록 비교적 복잡한 비디오를 인코딩할 수 있을 것이 다. 이로 인해, 멀티미디어 스트림 (1802) 은 일정한 시각 품질로 인코딩될 수 있다. 비교적 복잡한 비디오를 인코딩하는 특정 인코더 (1804) 에 의해 사용되는 여분 대역폭은, 인코더가 일정한 비트 레이트로 동작하도록 구현되었다면 다른 비디오 스트림 (1804) 을 인코딩하는데 사용되었을 비트로부터 발생한다. 이로 인해, 멀티플렉서 (1806) 의 출력이 일정한 비트 레이트 (CBR) 로 유지된다.
개개의 멀티미디어 스트림 (1802) 이 비교적 "버스티" 하지만 (즉, 사용되는 대역폭에서 변하지만), 다수의 비디오 스트림의 누적 합은 덜 버스티할 수 있다. 덜 복잡한 비디오를 인코딩하는 채널로부터의 비트 레이트는, 예를 들어, 멀티플렉서 (1806) 에 의해, 비교적 복잡한 비디오를 인코딩하는 채널에 재할당될 수 있고, 이로 인해, 결합된 비디오 스트림의 시각 품질을 전체로서 향상시킬 수 있다.
인코더 (1804) 는 함께 인코딩 및 멀티플렉싱되는 비디오 프레임 세트의 복잡도 인디케이션을 멀티플렉서 (1806) 에 제공한다. 멀티플렉서 (1806) 의 출력은 송신 매체 (1808) 에 지정된 비트 레이트보다 높지 않은 출력을 제공해야 한다. 복잡도 인디케이션은 상술한 콘텐츠 분류에 기초하여 선택된 품질 레벨을 제공할 수 있다. 멀티플렉서 (1806) 는 복잡도 인디케이션을 분석하고, 할당된 개수의 비트 또는 대역폭을 여러 인코더 (1804) 에 제공하고, 인코더 (1804) 는 이러한 정보를 사용하여 그 비디오 프레임 세트를 인코딩한다. 이로 인해, 비디오 프레임 세트가 개별적으로 가변 비트 레이트일 수 있고, 또한 일정한 비트 레이트를 그룹으로서 달성할 수 있다.
또한, 통상 임의의 일반적인 압축기에서 품질 기반 멀티미디어 압축을 가능 하게 하는데 있어서 콘텐츠 분류가 사용될 수 있다. 본원에서 설명되는 콘텐츠 분류와 그 방법 및 장치는 임의의 멀티미디어 데이터의 품질 기반 및/또는 콘텐츠 기반 멀티미디어 처리에서 사용될 수도 있다. 일 예로서, 본원에서 설명되는 콘텐츠 분류와 그 방법 및 장치가 통상 임의의 일반적인 압축기에서 멀티미디어를 압축하는데 사용된다. 다른 예로서, 보간, 리샘플링, 인핸스먼트, 복원 및 프리젠테이션 동작과 같은 임의의 압축해제기 또는 디코더 또는 후처리기에서 압축해제 또는 디코딩하는 것이 있다.
이하, 도 19 를 참조하면, 통상적인 비디오 통신 시스템은 통신 네트워크에 의해 접속된 비디오 인코더 및 비디오 디코더로 이루어진 비디오 압축 시스템을 포함한다. 무선 네트워크는 에러가 발생하기 쉬운 네트워크의 한 클래스이고, 여기서, 통신 채널은 경로 손실 외에도 이동 시나리오에서 로그 정규 페이딩 또는 섀도잉 (shadowing) 및 다경로 페이딩을 나타낸다. 채널 에러를 해결하고, 애플리케이션 계층 데이터에 대한 신뢰성 있는 통신을 제공하기 위해, RF 변조기는 컨벌루셔널 또는 터보 코딩과 같은 채널 코딩 및 인터리버를 비롯한 순방향 에러 정정을 포함한다.
비디오 압축은 소스 비디오의 중복을 감소시키고, 코딩된 비디오 데이터의 각 비트에서 전달되는 정보 양을 증가시킨다. 이로 인해, 심지어 코딩된 비디오의 더 작은 부분이 손실된 경우에도 품질에 대한 영향을 증가시킨다. 비디오 압축 시스템에 고유한 공간 및 시간 예측은 손실을 악화시키고, 에러를 전파시켜 재구성된 비디오에서 아티팩트를 볼 수 있게 된다. 비디오 인코더에서의 에러 내성 알고리즘 및 비디오 디코더에서의 에러 복구 알고리즘은 비디오 압축 시스템의 에러 견고성을 향상시킨다.
통상, 비디오 압축 시스템은 그 기초가 되는 네트워크를 알지 못한다. 그러나, 에러가 발생하기 쉬운 네트워크의 경우에, 링크/물리 계층에서 FEC 및 채널 코딩을 사용하여 애플리케이션 계층 내의 에러 보호 알고리즘을 통합 또는 정렬시키는 것이 매우 바람직하고, 시스템의 에러 성능을 향상시키는데 있어서 최고 효율을 제공한다.
도 14 는 프레임을 인코딩하는 인코더 (228) 에서 발생할 수 있는 레이트-왜곡 데이터 흐름의 일 예를 도시한다. 프로세스 (1400) 는 시작 블록 (1402) 에서 시작하고, 결정 블록 (1404) 으로 진행하여, (예를 들어, 메타데이터를 통해) 전처리기 (226) 로부터 장면 전환 검출기 입력 (1410) 을 수신하고, 에러 내성 입력 (1406) 을 획득한다. 그 정보가 선택된 프레임이 I 프레임인 것을 나타내면, 프로세스는 그 프레임을 인트라 코딩한다. 그 정보가 선택된 프레임이 P 또는 B 프레임인 것을 나타내면, 프로세스는 인트라 코딩 및 모션 추정 (인터) 코딩을 사용하여 그 프레임을 인코딩한다.
블록 (1404) 의 조건에 대해 긍정 조건이 일어난 후에, 프로세스 (1400) 는 준비 블록 (1414) 으로 진행하여, R-D 곡선에 기초하여 레이트 R 을 R = Rqual 인 값, 즉, 원하는 타깃 품질로 설정한다. 이러한 설정은 R-D 곡선을 포함한 데이터 블록 (1416) 으로부터 수신된다. 그 다음에, 프로세스 (1400) 는 블록 (1418) 으로 진행하여, 블록 (1420) 의 콘텐츠 분류 프로세스로부터의 이미지/비디 오 액티비티 정보 (예를 들어, 콘텐츠 분류) 에 기초하여 레이트 제어 비트 할당 을 수행한다.
또한, 레이트 제어 비트 할당 블록 (1418) 은 블록 (1422) 에서의 모션 추정을 위해 사용된다. 또한, 모션 추정 (1422) 은 전처리기 (1412) 로부터 메타데이터의 입력, 블록 (1424) 으로부터 모션 벡터 평활화 (MPEG-2 + 이력) 및 블록 (1426) 으로부터 다수의 기준 프레임 (인과적 + 비인과적 매크로블록 MB) 을 수신할 수 있다. 그 다음에, 프로세스 (1400) 는 블록 (1428) 으로 진행하여, 인트라 코딩된 모드에 대한 레이트 계산을 레이트 제어 비트 할당 에 대해 결정한다. 그 다음에, 프로세스 (1400) 는 블록 (1430) 으로 진행하여, 모드 및 양자화 파라미터를 결정한다. 블록 (1430) 의 모드 결정은 모션 추정 블록 (1422) 입력, 에러 내성 (1406) 입력 및 스케일러빌리티 R-D 에 기초하여 이루어지고, 이는 블록 (1432) 에서 결정된다. 일단 모드가 결정되면, 흐름은 블록 (1432) 으로 진행한다. 블록 (1430) 으로부터 블록 (1432) 으로의 흐름은, 데이터가 인코더의 제 1 패스로부터 제 2 패스 부분으로 전달될 때에 일어난다는 것에 주목하자.
블록 (1432) 에서, 인코더 (228) 의 제 2 패스에 의해 변환 및 양자화가 수행된다. 변환/양자화 프로세스는 블록 (1444) 으로 표시된 바와 같이 조정 또는 미세 조정된다. 이러한 변환/양자화 프로세스는 레이트 제어 미세 조정 모듈 (도 7) 에 의해 영향을 받을 수도 있다. 그 다음에, 프로세스 (1400) 는 지 그재그 소팅 및 엔트로피 코딩을 위한 블록 (1434) 으로 진행하여 인코딩된 베이스 계층을 생성한다. 지그재그 소팅은 양자화된 데이터를 인코딩에 효과적인 포맷으로 준비한다. 엔트로피 코딩은 일련의 비트 코드를 사용하여 일련의 가능한 심벌을 표현하는 압축 기술이다. 또한, 도 31 내지 도 36 을 참조하여 상술한 바와 같이, 변환/양자화 블록 (1432) 의 인핸스먼트 계층 결과는 덧셈기 (1436) 에 송신되고, 이 덧셈기 (1436) 는 베이스 계층을 빼고, 그 결과를 인핸스먼트 계층을 위한 ZZ/엔트로피 코더 (1438) 에 송신한다. 또한, 물론, 레이트 제어에 의해 사용되는 비트 레이트의 장단기 이력을 결정하는 동작 및 트루 레이트의 콘텐츠 분류 (1420) 를 갱신하기 위해 인핸스먼트 계층이 피드백된다 (라인 (1440) 의 트루 레이트 갱신 참조).
도 17a 는 에러 내성을 위해 인코딩된 데이터에 중복 데이터를 삽입하도록 멀티미디어 데이터를 인코딩하는 프로세스의 흐름도로서, 여기서, 인코딩은 콘텐츠 정보에 기초한다. 프로세스 (1700) 는 도 17b 에 도시된 장치, 및 트랜스코더 (200) 를 비롯한 본원에 개시된 다른 컴포넌트에 의해 수행될 수 있다. 프로세스 (1700) 가 시작하여, 블록 (1702) 에서, 멀티미디어 데이터의 콘텐츠 정보를 획득한다. 이는, 콘텐츠 분류 모듈, 즉, 멀티미디어 데이터의 콘텐츠 정보를 획득하는 모듈 (1712; 도 17b) 또는 도 7 의 콘텐츠 분류기 (712) 와 같은 다른 컴포넌트에 의해 수행될 수 있다. 그 다음에, 프로세스 (1700) 는 블록 (1704) 으로 진행하여, 멀티미디어 데이터를 인코딩하여 인코딩된 비트스트림을 형성하고, 인코딩은 콘텐츠 정보에 기초하여 인트라 코딩된 데이터의 적어도 하나의 중복 블 록을 인코딩된 비트스트림 내에 삽입하는 것을 포함한다. 이는, 인코딩 수단, 즉, 멀티미디어 데이터를 인코딩하는 모듈 (1714; 도 17b) 에 수행될 수 있고, 또는 다른 예에서는 트랜스코더 (200) 에 의해 수행될 수 있다 (도 7). 데이터 경계를 시간 경계와 정렬시킴으로써, 에러 내성을 가질 수 있다. 콘텐츠 분류는 멀티미디어 데이터의 복잡도에 기초할 수 있고, 멀티미디어 데이터의 복잡도는 공간 복잡도 및 시간 복잡도를 포함한다. 삽입된 중복 데이터의 양은 멀티미디어 데이터의 복잡도에 반비례한다. 인트라 코딩된 데이터는 중복 데이터의 적어도 하나의 프레임을 포함할 수 있고, 중복 데이터의 적어도 하나의 프레임은 I-프레임, 또는 I-프레임의 사실상 모든 프레임을 포함한다. 또한, 인트라 코딩된 데이터의 적어도 하나의 중복 프레임은 채널 변경 프레임을 포함할 수 있다.
도 17b 는 도 17a 에 도시된 프로세스 (1700) 를 수행할 수 있는 인코딩 장치 (1710) 의 블록도이다. 장치 (1710) 는 멀티미디어 데이터 (1712) 의 콘텐츠 정보를 획득하는 모듈과 같은 콘텐츠 분류 수단을 포함할 수 있다. 콘텐츠 분류 수단의 예는 도 7 을 참조하여 도시 및 설명되어 있다 (예를 들어, 콘텐츠 분류 모듈 (714)). 몇몇 양태에서, 콘텐츠 분류 수단은 전처리기, 인코더 또는 트랜스코더에 통합될 수 있다. 또한, 장치 (1710) 는 인코딩 수단 (1714) 을 포함하고, 이 인코딩 수단 (1714) 은 시간 영역에서 데이터 경계를 프레임 경계와 정렬시키도록 멀티미디어 데이터를 인코딩하는 모듈이고, 도 17a 의 블록 (1704) 에서 설명된 인코딩을 수행할 수 있다. 그러한 기능은 인코더 또는 트랜스코더에 포함될 수 있다. 또한, 예를 들어, 트랜스코더 (200) 는 도 17a 의 블록 (1704) 에서 설명된 인코딩을 수행할 수 있는 인코딩 수단을 포함한다.
도 23, 도 24, 도 27 및 도 28 은, 멀티미디어 데이터를 인코딩하는 방법을 예시하며 본원에 설명된 양태를 구현하는 프로세스 흐름도이다. 도 23 은 콘텐츠 정보에 기초하여 멀티미디어 데이터를 인코딩하는 프로세스 (2300) 를 도시한 프로세스 흐름도이다. 블록 (2305) 에서, 프로세스 (2300) 는 인코딩된 멀티미디어 데이터를 수신하고, 블록 (2310) 에서, 프로세스 (2300) 는 멀티미디어 데이터를 디코딩한다. 블록 (2315) 에서, 프로세스 (2300) 는 디코딩된 멀티미디어 데이터와 연관된 콘텐츠 정보를 결정한다. 블록 (2320) 에서, 프로세스 (2300) 는 콘텐츠 정보에 기초하여 멀티미디어 데이터를 인코딩한다.
도 24 는 콘텐츠 정보 레벨에 기초하여 데이터 경계를 정렬시키도록 멀티미디어 데이터를 인코딩하는 프로세스 (2400) 를 도시한 프로세스 흐름도이다. 블록 (2405) 에서, 프로세스 (2400) 는 멀티미디어 데이터와 연관된 콘텐츠 정보를 얻는데, 이는 예를 들어, 도 7 에 도시된 콘텐츠 분류 모듈 (712) 또는 전처리기 (226) 에 의해 행해질 수 있다. 블록 (2410) 에서, 프로세스 (2400) 는 콘텐츠 정보에 기초하여 데이터 경계를 정렬시키도록 멀티미디어 데이터를 인코딩한다. 예를 들어, 슬라이스 경계와 액세스 유닛 경계는 인코딩된 멀티미디어 데이터의 콘텐츠 분류에 기초하여 프레임 경계와 정렬된다. 그 다음에, 후속 처리 및/또는 이동 디바이스로의 송신을 위해 인코딩된 데이터를 이용할 수 있고, 프로세스 (2400) 는 종료한다.
도 27 은 콘텐츠 정보에 기초한 적응 인트라 리프레시 방식을 사용하여 데이 터를 인코딩하는 프로세스 (2700) 를 도시한 프로세스 흐름도이다. 프로세스 (2700) 시작 시, 멀티미디어 데이터는 획득되어 있다. 블록 (2705) 에서, 프로세스 (2700) 는 멀티미디어 데이터의 콘텐츠 정보를 얻는다. 상술한 바와 같이, 콘텐츠 정보의 획득은, 예를 들어, 전처리기 (226) 또는 콘텐츠 분류 모듈 (712) 에 의해 수행될 수 있다. 프로세스 (2700) 는 블록 (2710) 으로 진행하고, 이 블록 (2710) 에서, 적응 인트라 리프레시 에러 내성 방식을 사용하여 멀티미디어 데이터를 인코딩하는데, 적응 인트라 리프레시 에러 내성 방식은 콘텐츠 정보에 기초하고 있다. 블록 (2710) 의 기능은 인코더 (228) 에 의해 수행될 수 있다. 인코딩된 데이터는 후속 처리 및 송신을 위해 이용 가능하게 되고, 그 다음에, 프로세스 (2700) 는 종료한다.
도 28 은 멀티미디어 콘텐츠 정보에 기초한 중복 I 프레임을 사용하여 멀티미디어 데이터를 인코딩하는 프로세스를 도시한 프로세스 흐름도이다. 프로세스 (2800) 시작 시, 처리를 위해 멀티미디어 데이터를 이용할 수 있다. 블록 (2805) 에서, 프로세스 (2800) 는 멀티미디어 데이터의 콘텐츠 정보를 얻는다. 상술한 바와 같이, 이는 예를 들어, 전처리기 (226) 및/또는 인코더 (228) 에 의해 행해질 수 있다. 블록 (2810) 에서, 프로세스 (2800) 는 콘텐츠 정보에 기초하여 하나 이상의 추가 I-프레임을 인코딩된 데이터 내에 삽입하도록 멀티미디어 데이터를 인코딩한다. 이는, 에러 내성 방식과 관련하여 상술한 바와 같이 인코더 (228) 에 의해 행해져서, 사용된 에러 내성 방식에 따라 베이스 계층 또는 인핸스먼트 계층 내에 I-프레임을 삽입할 수 있다. 블록 (2810) 다음에, 후속 처리 및/또는 이동 디바이스로의 송신을 위해 인코딩된 데이터를 이용할 수 있다.
본원에 설명된 방법은 당업자에게 공지된 다양한 통신 하드웨어, 프로세서 및 시스템 상에 구현될 수도 있다는 것에 주목해야 한다. 예를 들어, 클라이언트가 본원에 설명된 것과 같이 동작하기 위한 일반 요건은, 클라이언트가 콘텐츠 및 정보를 표시하는 디스플레이, 클라이언트의 동작을 제어하는 프로세서 및 클라이언트의 동작 관련 데이터 및 프로그램을 저장하는 메모리를 갖는 것이다. 일 양태에서, 클라이언트는 셀룰러 전화기이다. 다른 양태에서, 클라이언트는 통신 기능을 갖는 핸드헬드 컴퓨터이다. 또 다른 양태에서, 클라이언트는 통신 기능을 갖는 개인용 컴퓨터이다. 또한, GPS 수신기와 같은 하드웨어를 클라이언트에 통합하여, 여러 양태를 구현할 수도 있다. 본원에 개시된 양태와 관련하여 설명된 여러 예시적인 논리, 논리 블록, 모듈 및 회로는 범용 프로세서, DSP (digital signal processor), ASIC (application specific integrated circuit), FPGA (field programmable gate array) 또는 다른 프로그램 가능 논리 디바이스, 이산 게이트 또는 트랜지스터 논리, 이산 하드웨어 컴포넌트, 또는 본원에 설명된 기능을 수행하도록 설계된 그 임의의 조합을 사용하여 구현 또는 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 다른 방법으로는, 범용 프로세서는 임의의 통상적인 프로세서, 컨트롤러, 마이크로컨트롤러, 또는 상태 머신일 수도 있다. 또한, 프로세서는 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서, DSP 코어와 함께 하나 이상의 마이크로프로세서, 또는 임의의 다른 그러한 구성과 같은 컴퓨팅 디바이스의 조합으로서 구현될 수도 있 다.
본원에 개시된 양태와 관련하여 설명된 여러 예시적인 논리, 논리 블록, 모듈 및 회로는 범용 프로세서, DSP (digital signal processor), ASIC (application specific integrated circuit), FPGA (field programmable gate array) 또는 다른 프로그램 가능 논리 디바이스, 이산 게이트 또는 트랜지스터 논리, 이산 하드웨어 컴포넌트, 또는 본원에 설명된 기능을 수행하도록 설계된 그 임의의 조합을 사용하여 구현 또는 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 다른 방법으로는, 범용 프로세서는 임의의 통상적인 프로세서, 컨트롤러, 마이크로컨트롤러, 또는 상태 머신일 수도 있다. 또한, 프로세서는 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서, DSP 코어와 함께 하나 이상의 마이크로프로세서, 또는 임의의 다른 그러한 구성과 같은 컴퓨팅 디바이스의 조합으로서 구현될 수도 있다.
본원에 개시된 방법 및 장치는 한 포맷으로 인코딩된 비디오 데이터를 다른 포맷으로 인코딩된 비디오 데이터로 트랜스코딩하는 것을 제공하는데, 여기서, 인코딩은 비디오 데이터의 콘텐츠에 기초하고 있고, 인코딩은 에러에 대한 복원성이 있다. 본원에 개시된 예와 관련하여 설명된 방법 또는 알고리즘은 하드웨어에 직접, 프로세서에 의해 실행되는 소프트웨어 모듈, 펌웨어 또는 이들 중 2 개 이상의 조합으로 수록될 수도 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPORM 메모리, 레지스터, 하드 디스크, 착탈식 디스크, CD-ROM 또는 당해 기술분야에서 공지된 임의의 다른 형태의 저장 매체에 상 주할 수도 있다. 예시적인 저장 매체는 프로세서에 연결되어, 프로세서가 저장 매체로부터 정보를 판독하고, 저장 매체에 정보를 기입할 수 있도록 한다. 다른 방법으로는, 저장 매체는 프로세서와 일체로 형성될 수도 있다. 프로세서 및 저장 매체는 ASIC 에 상주할 수도 있다. ASIC 은 사용자 단말기에 상주할 수도 있다. 다른 방법으로는, 프로세서와 저장 매체는 사용자 단말기에서 이산 컴포넌트로서 상주할 수도 있다.
상술한 예는 단지 예시적인 것으로서, 당업자라면 본원에 설명된 본 발명의 개념에서 일탈함이 없이 상술한 예를 다양하게 사용하고, 상술한 예로부터 다양하게 진보를 달성할 수도 있다. 당업자라면 이들 예의 여러 변형을 쉽게 알 수도 있고, 본원에 규정된 일반적인 원리는 본원에 설명된 신규한 양태의 사상 및 범위로부터 일탈함이 없이 예를 들어, 인스턴스 메시징 서비스 또는 임의의 일반적인 무선 데이터 통신 애플리케이션에서, 다른 예에 적용될 수도 있다. 따라서, 본 개시내용의 범위는 본원에 도시된 예에 한정되는 것이 아니라, 본원에 개시된 신규한 특징 및 원리와 일치하는 가장 넓은 범위가 주어진다. 본원에서 "예시적" 이란 단어는 오로지 "예, 실례, 예증으로서 기능을 하는 것" 을 의미하기 위해 사용될 뿐이다. "예시적" 인 것으로서 본원에 설명된 임의의 예는 다른 예보다 반드시 바람직하거나 유익한 것으로서 해석되지 않아야 한다. 따라서, 본원에 개시된 신규한 양태는 다음 청구항의 범위에 의해서만 규정되어야 한다.
Claims (31)
- 멀티미디어 데이터를 처리하는 방법으로서,멀티미디어 데이터의 콘텐츠 정보를 획득하는 단계; 및인코딩된 비트스트림을 형성하도록 상기 멀티미디어 데이터를 인코딩하는 단계를 포함하고,상기 인코딩 단계는 상기 콘텐츠 정보에 기초하여 인트라 코딩된 (intra-coded) 데이터의 적어도 하나의 중복 블록을 상기 인코딩된 비트스트림 내에 삽입하는 단계를 포함하는, 멀티미디어 데이터 처리 방법.
- 제 1 항에 있어서,상기 콘텐츠 정보는 콘텐츠 분류 (classification) 를 포함하는, 멀티미디어 데이터 처리 방법.
- 제 2 항에 있어서,상기 콘텐츠 분류는 상기 멀티미디어 데이터의 복잡도에 기초하는, 멀티미디어 데이터 처리 방법.
- 제 3 항에 있어서,상기 멀티미디어 데이터의 복잡도는 공간 복잡도와 시간 복잡도를 포함하는, 멀티미디어 데이터 처리 방법.
- 제 3 항에 있어서,삽입된 인트라 코딩된 데이터의 중복 블록의 양은 상기 멀티미디어 데이터의 복잡도에 반비례하는, 멀티미디어 데이터 처리 방법.
- 제 1 항에 있어서,상기 인트라 코딩된 데이터는 인트라 코딩된 데이터의 중복 블록의 적어도 하나의 프레임을 포함하는, 멀티미디어 데이터 처리 방법.
- 제 6 항에 있어서,상기 인트라 코딩된 데이터의 중복 블록의 적어도 하나의 프레임은 I-프레임을 포함하는, 멀티미디어 데이터 처리 방법.
- 제 6 항에 있어서,상기 인트라 코딩된 데이터의 적어도 하나의 중복 프레임은 채널 변경 프레임을 포함하는, 멀티미디어 데이터 처리 방법.
- 제 1 항에 있어서,상기 인트라 코딩된 데이터의 적어도 하나의 중복 블록은 I-프레임의 사실상 모든 프레임을 포함하는, 멀티미디어 데이터 처리 방법.
- 제 1 항에 있어서,상기 인코딩 단계는 상기 멀티미디어 데이터를 베이스 계층과 인핸스먼트 계층으로 인코딩하는 단계를 포함하고,상기 인트라 코딩된 데이터는 상기 베이스 계층에 대한 양자화 파라미터를 사용하여 인코딩되는, 멀티미디어 데이터 처리 방법.
- 제 1 항에 있어서,상기 인코딩 단계는 상기 멀티미디어 데이터를 베이스 계층과 인핸스먼트 계층으로 인코딩하는 단계를 포함하고,상기 인트라 코딩된 데이터는 상기 인핸스먼트 계층에 대한 양자화 파라미터를 사용하여 인코딩되는, 멀티미디어 데이터 처리 방법.
- 멀티미디어 데이터를 처리하는 장치로서,멀티미디어 데이터의 콘텐츠 정보를 획득하도록 구성된 콘텐츠 분류기 (content classifier); 및인코딩된 비트스트림을 형성하기 위해, 상기 멀티미디어 데이터를 인코딩하도록 구성된 인코더를 포함하고,상기 인코더는 상기 콘텐츠 정보에 기초하여 인트라 코딩된 (intra-coded) 데이터의 적어도 하나의 중복 블록을 상기 인코딩된 비트스트림 내에 삽입하는 수단을 포함하는, 멀티미디어 데이터 처리 장치.
- 멀티미디어 데이터를 처리하는 장치로서,멀티미디어 데이터의 콘텐츠 정보를 획득하는 수단; 및인코딩된 비트스트림을 형성하도록 상기 멀티미디어 데이터를 인코딩하는 수단을 포함하고,상기 인코딩 수단은 상기 콘텐츠 정보에 기초하여 인트라 코딩된 (intra-coded) 데이터의 적어도 하나의 중복 블록을 상기 인코딩된 비트스트림 내에 삽입하는 수단을 포함하는, 멀티미디어 데이터 처리 장치.
- 제 13 항에 있어서,상기 콘텐츠 정보는 콘텐츠 분류 (classification) 를 포함하는, 멀티미디어 데이터 처리 장치.
- 제 14 항에 있어서,상기 콘텐츠 분류는 상기 멀티미디어 데이터의 복잡도에 기초하는, 멀티미디어 데이터 처리 장치.
- 제 15 항에 있어서,상기 멀티미디어 데이터의 복잡도는 공간 복잡도와 시간 복잡도를 포함하는, 멀티미디어 데이터 처리 장치.
- 제 15 항에 있어서,삽입된 인트라 코딩된 데이터의 중복 블록의 양은 상기 멀티미디어 데이터의 복잡도에 반비례하는, 멀티미디어 데이터 처리 장치.
- 제 13 항에 있어서,상기 인트라 코딩된 데이터는 인트라 코딩된 데이터의 중복 블록의 적어도 하나의 프레임을 포함하는, 멀티미디어 데이터 처리 장치.
- 제 18 항에 있어서,상기 인트라 코딩된 데이터의 중복 블록의 적어도 하나의 프레임은 I-프레임을 포함하는, 멀티미디어 데이터 처리 장치.
- 제 18 항에 있어서,상기 인트라 코딩된 데이터의 적어도 하나의 중복 프레임은 채널 변경 프레임을 포함하는, 멀티미디어 데이터 처리 장치.
- 제 13 항에 있어서,상기 인트라 코딩된 데이터의 적어도 하나의 중복 블록은 I-프레임의 사실상 모든 프레임을 포함하는, 멀티미디어 데이터 처리 장치.
- 제 13 항에 있어서,상기 인코딩 수단은 상기 멀티미디어 데이터를 베이스 계층과 인핸스먼트 계층으로 인코딩하는 수단을 포함하고,상기 인트라 코딩된 데이터는 상기 베이스 계층에 대한 양자화 파라미터를 사용하여 인코딩되는, 멀티미디어 데이터 처리 장치.
- 제 13 항에 있어서,상기 인코딩 수단은 상기 멀티미디어 데이터를 베이스 계층과 인핸스먼트 계층으로 인코딩하는 수단을 포함하고,상기 인트라 코딩된 데이터는 상기 인핸스먼트 계층에 대한 양자화 파라미터를 사용하여 인코딩되는, 멀티미디어 데이터 처리 장치.
- 프로세서로서,멀티미디어 데이터의 콘텐츠 정보를 획득하고; 및인코딩된 비트스트림을 형성하도록 상기 멀티미디어 데이터를 인코딩하도록 구성되고,상기 멀티미디어 데이터를 인코딩하는 것은 상기 콘텐츠 정보에 기초하여 인트라 코딩된 데이터의 적어도 하나의 중복 블록을 상기 인코딩된 비트스트림 내에 삽입하는 것을 포함하는, 프로세서.
- 제 24 항에 있어서,상기 콘텐츠 정보는 콘텐츠 분류 (classification) 를 포함하는, 프로세서.
- 제 25 항에 있어서,상기 콘텐츠 분류는 상기 멀티미디어 데이터의 복잡도에 기초하는, 프로세서.
- 제 26 항에 있어서,상기 멀티미디어 데이터의 복잡도는 공간 복잡도와 시간 복잡도를 포함하는, 프로세서.
- 머신 판독가능 매체로서,실행 시, 머신으로 하여금,멀티미디어 데이터의 콘텐츠 정보를 획득하게 하는 명령들; 및인코딩된 비트스트림을 형성하도록 상기 멀티미디어 데이터를 인코딩하게 하는 명령들을 포함하고,상기 인코딩하게 하는 명령들은 상기 콘텐츠 정보에 기초하여 인트라 코딩된 데이터의 적어도 하나의 중복 블록을 상기 인코딩된 비트스트림 내에 삽입하게 하는 명령들을 포함하는, 머신 판독가능 매체.
- 제 28 항에 있어서,상기 콘텐츠 정보는 콘텐츠 분류 (classification) 를 포함하는, 머신 판독가능 매체.
- 제 29 항에 있어서,상기 콘텐츠 분류는 상기 멀티미디어 데이터의 복잡도에 기초하는, 머신 판독가능 매체.
- 제 30 항에 있어서,상기 멀티미디어 데이터의 복잡도는 공간 복잡도와 시간 복잡도를 포함하는, 머신 판독가능 매체.
Applications Claiming Priority (14)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US72141605P | 2005-09-27 | 2005-09-27 | |
US60/721,416 | 2005-09-27 | ||
US72764305P | 2005-10-17 | 2005-10-17 | |
US72764005P | 2005-10-17 | 2005-10-17 | |
US72764405P | 2005-10-17 | 2005-10-17 | |
US60/727,640 | 2005-10-17 | ||
US60/727,643 | 2005-10-17 | ||
US60/727,644 | 2005-10-17 | ||
US73014505P | 2005-10-24 | 2005-10-24 | |
US60/730,145 | 2005-10-24 | ||
US78904806P | 2006-04-03 | 2006-04-03 | |
US60/789,048 | 2006-04-03 | ||
US78937706P | 2006-04-04 | 2006-04-04 | |
US60/789,377 | 2006-04-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080066719A KR20080066719A (ko) | 2008-07-16 |
KR100968106B1 true KR100968106B1 (ko) | 2010-07-06 |
Family
ID=37719458
Family Applications (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020087010079A KR100989534B1 (ko) | 2005-09-27 | 2006-09-27 | 콘텐츠 정보를 사용하여 멀티미디어 트랜스코딩을 조정하는콘텐츠 구동 트랜스코더 |
KR1020107019260A KR101197508B1 (ko) | 2005-09-27 | 2006-09-27 | 콘텐츠 정보에 기초한 스케일러빌리티 기술 |
KR1020107014583A KR101242292B1 (ko) | 2005-09-27 | 2006-09-27 | 콘텐츠 정보를 사용하여 멀티미디어 트랜스코딩을 조정하는 콘텐츠 구동 트랜스코더 |
KR1020127021981A KR101326443B1 (ko) | 2005-09-27 | 2006-09-27 | 콘텐츠 정보에 기초한 스케일러빌리티 기술 |
KR1020087010082A KR20080066717A (ko) | 2005-09-27 | 2006-09-27 | 콘텐츠 정보에 기초한 스케일러빌리티 기술 |
KR1020087010083A KR100988753B1 (ko) | 2005-09-27 | 2006-09-27 | 데이터를 시간 영역 경계와 정렬시키는 방법 및 장치 |
KR1020087010084A KR100968106B1 (ko) | 2005-09-27 | 2006-09-27 | 중복 데이터 인코딩 방법 및 장치 |
Family Applications Before (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020087010079A KR100989534B1 (ko) | 2005-09-27 | 2006-09-27 | 콘텐츠 정보를 사용하여 멀티미디어 트랜스코딩을 조정하는콘텐츠 구동 트랜스코더 |
KR1020107019260A KR101197508B1 (ko) | 2005-09-27 | 2006-09-27 | 콘텐츠 정보에 기초한 스케일러빌리티 기술 |
KR1020107014583A KR101242292B1 (ko) | 2005-09-27 | 2006-09-27 | 콘텐츠 정보를 사용하여 멀티미디어 트랜스코딩을 조정하는 콘텐츠 구동 트랜스코더 |
KR1020127021981A KR101326443B1 (ko) | 2005-09-27 | 2006-09-27 | 콘텐츠 정보에 기초한 스케일러빌리티 기술 |
KR1020087010082A KR20080066717A (ko) | 2005-09-27 | 2006-09-27 | 콘텐츠 정보에 기초한 스케일러빌리티 기술 |
KR1020087010083A KR100988753B1 (ko) | 2005-09-27 | 2006-09-27 | 데이터를 시간 영역 경계와 정렬시키는 방법 및 장치 |
Country Status (14)
Country | Link |
---|---|
US (6) | US9113147B2 (ko) |
EP (9) | EP2293570A1 (ko) |
JP (9) | JP2009510937A (ko) |
KR (7) | KR100989534B1 (ko) |
CN (2) | CN102724498B (ko) |
AR (3) | AR056100A1 (ko) |
AT (1) | ATE524926T1 (ko) |
AU (1) | AU2006294509B2 (ko) |
BR (1) | BRPI0616426A2 (ko) |
CA (2) | CA2805916A1 (ko) |
IL (1) | IL190457A0 (ko) |
NO (1) | NO20081605L (ko) |
TW (4) | TWI376952B (ko) |
WO (4) | WO2007038725A2 (ko) |
Families Citing this family (453)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7068729B2 (en) * | 2001-12-21 | 2006-06-27 | Digital Fountain, Inc. | Multi-stage code generator and decoder for communication systems |
US6307487B1 (en) | 1998-09-23 | 2001-10-23 | Digital Fountain, Inc. | Information additive code generator and decoder for communication systems |
US7425545B2 (en) | 2001-07-25 | 2008-09-16 | Isis Pharmaceuticals, Inc. | Modulation of C-reactive protein expression |
DE10218812A1 (de) * | 2002-04-26 | 2003-11-20 | Siemens Ag | Generische Datenstrombeschreibung |
US9240810B2 (en) * | 2002-06-11 | 2016-01-19 | Digital Fountain, Inc. | Systems and processes for decoding chain reaction codes through inactivation |
EP2355360B1 (en) * | 2002-10-05 | 2020-08-05 | QUALCOMM Incorporated | Systematic encoding and decoding of chain reaction codes |
US8179954B2 (en) | 2007-10-30 | 2012-05-15 | Sony Corporation | Odd interleaving only of an odd-even interleaver when half or less data subcarriers are active in a digital video broadcasting (DVB) standard |
JP4414904B2 (ja) * | 2004-04-16 | 2010-02-17 | 株式会社エヌ・ティ・ティ・ドコモ | 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム |
WO2005112250A2 (en) * | 2004-05-07 | 2005-11-24 | Digital Fountain, Inc. | File download and streaming system |
US7801383B2 (en) * | 2004-05-15 | 2010-09-21 | Microsoft Corporation | Embedded scalar quantizers with arbitrary dead-zone ratios |
EP1754378A1 (en) * | 2004-05-25 | 2007-02-21 | Koninklijke Philips Electronics N.V. | Method and device for encoding digital video data |
BRPI0512816A (pt) | 2004-07-01 | 2008-04-08 | Qualcomm Inc | método e equipamento para utilizar técnicas de conversão ascendente de taxa de quadro em codificação de vìdeo escalonável |
CN101189882B (zh) | 2004-07-20 | 2012-08-01 | 高通股份有限公司 | 用于视频压缩的编码器辅助帧率上变换(ea-fruc)的方法和装置 |
US8553776B2 (en) | 2004-07-21 | 2013-10-08 | QUALCOMM Inorporated | Method and apparatus for motion vector assignment |
US7512182B2 (en) * | 2004-08-30 | 2009-03-31 | General Instrument Corporation | Method and apparatus for performing motion compensated temporal filtering in video encoding |
US7271749B2 (en) * | 2004-09-14 | 2007-09-18 | Hewlett-Packard Development Company, L.P. | Context-based denoiser that simultaneously updates probabilities for multiple contexts |
US8868555B2 (en) * | 2006-07-31 | 2014-10-21 | Ricoh Co., Ltd. | Computation of a recongnizability score (quality predictor) for image retrieval |
US8780957B2 (en) * | 2005-01-14 | 2014-07-15 | Qualcomm Incorporated | Optimal weights for MMSE space-time equalizer of multicode CDMA system |
TW200704200A (en) * | 2005-03-10 | 2007-01-16 | Qualcomm Inc | Content classification for multimedia processing |
EP1884028A2 (en) | 2005-05-11 | 2008-02-06 | QUALCOMM Incorporated | A method and apparatus for unified error concealment framework |
US8422546B2 (en) | 2005-05-25 | 2013-04-16 | Microsoft Corporation | Adaptive video encoding using a perceptual model |
US9113147B2 (en) | 2005-09-27 | 2015-08-18 | Qualcomm Incorporated | Scalability techniques based on content information |
KR20070038396A (ko) * | 2005-10-05 | 2007-04-10 | 엘지전자 주식회사 | 영상 신호의 인코딩 및 디코딩 방법 |
US20070206117A1 (en) * | 2005-10-17 | 2007-09-06 | Qualcomm Incorporated | Motion and apparatus for spatio-temporal deinterlacing aided by motion compensation for field-based video |
US8948260B2 (en) * | 2005-10-17 | 2015-02-03 | Qualcomm Incorporated | Adaptive GOP structure in video streaming |
US8654848B2 (en) | 2005-10-17 | 2014-02-18 | Qualcomm Incorporated | Method and apparatus for shot detection in video streaming |
US20070171280A1 (en) * | 2005-10-24 | 2007-07-26 | Qualcomm Incorporated | Inverse telecine algorithm based on state machine |
US7734053B2 (en) * | 2005-12-06 | 2010-06-08 | Fujitsu Limited | Encoding apparatus, encoding method, and computer product |
JP2007174196A (ja) * | 2005-12-21 | 2007-07-05 | Toshiba Corp | 情報処理装置、制御方法およびプログラム |
US7693219B2 (en) * | 2006-01-04 | 2010-04-06 | Freescale Semiconductor, Inc. | System and method for fast motion estimation |
US7965774B2 (en) * | 2006-01-06 | 2011-06-21 | International Business Machines Corporation | Method for visual signal extrapolation or interpolation |
US9270414B2 (en) * | 2006-02-21 | 2016-02-23 | Digital Fountain, Inc. | Multiple-field based code generator and decoder for communications systems |
FR2898757A1 (fr) * | 2006-03-14 | 2007-09-21 | Canon Kk | Procede et dispositif d'adaptation d'une frequence temporelle d'une sequence d'images video |
US9131164B2 (en) * | 2006-04-04 | 2015-09-08 | Qualcomm Incorporated | Preprocessor method and apparatus |
US8750387B2 (en) | 2006-04-04 | 2014-06-10 | Qualcomm Incorporated | Adaptive encoder-assisted frame rate up conversion |
US8634463B2 (en) | 2006-04-04 | 2014-01-21 | Qualcomm Incorporated | Apparatus and method of enhanced frame interpolation in video compression |
US8130828B2 (en) * | 2006-04-07 | 2012-03-06 | Microsoft Corporation | Adjusting quantization to preserve non-zero AC coefficients |
US20070237237A1 (en) * | 2006-04-07 | 2007-10-11 | Microsoft Corporation | Gradient slope detection for video compression |
US7995649B2 (en) | 2006-04-07 | 2011-08-09 | Microsoft Corporation | Quantization adjustment based on texture level |
US7974340B2 (en) * | 2006-04-07 | 2011-07-05 | Microsoft Corporation | Adaptive B-picture quantization control |
US8059721B2 (en) * | 2006-04-07 | 2011-11-15 | Microsoft Corporation | Estimating sample-domain distortion in the transform domain with rounding compensation |
US8503536B2 (en) * | 2006-04-07 | 2013-08-06 | Microsoft Corporation | Quantization adjustments for DC shift artifacts |
US8548063B2 (en) * | 2006-04-13 | 2013-10-01 | Broadcom Corporation | Video receiver providing video attributes with video data |
US8711925B2 (en) * | 2006-05-05 | 2014-04-29 | Microsoft Corporation | Flexible quantization |
US7971129B2 (en) | 2006-05-10 | 2011-06-28 | Digital Fountain, Inc. | Code generator and decoder for communications systems operating using hybrid codes to allow for multiple efficient users of the communications systems |
US20100211690A1 (en) * | 2009-02-13 | 2010-08-19 | Digital Fountain, Inc. | Block partitioning for a data stream |
US9432433B2 (en) * | 2006-06-09 | 2016-08-30 | Qualcomm Incorporated | Enhanced block-request streaming system using signaling or block creation |
US9386064B2 (en) * | 2006-06-09 | 2016-07-05 | Qualcomm Incorporated | Enhanced block-request streaming using URL templates and construction rules |
US9380096B2 (en) | 2006-06-09 | 2016-06-28 | Qualcomm Incorporated | Enhanced block-request streaming system for handling low-latency streaming |
US9209934B2 (en) | 2006-06-09 | 2015-12-08 | Qualcomm Incorporated | Enhanced block-request streaming using cooperative parallel HTTP and forward error correction |
US9178535B2 (en) * | 2006-06-09 | 2015-11-03 | Digital Fountain, Inc. | Dynamic stream interleaving and sub-stream based delivery |
US9419749B2 (en) | 2009-08-19 | 2016-08-16 | Qualcomm Incorporated | Methods and apparatus employing FEC codes with permanent inactivation of symbols for encoding and decoding processes |
US7659897B1 (en) * | 2006-06-30 | 2010-02-09 | Nvidia Corporation | System, method, and computer program product for video benchmarking |
KR100841317B1 (ko) * | 2006-07-14 | 2008-06-26 | 엘지전자 주식회사 | 텔레비젼의 시스템 구동과 관련된 소프트웨어를 송수신하는 방법 및 그 장치 |
KR20080008137A (ko) * | 2006-07-19 | 2008-01-23 | 삼성전자주식회사 | 영상 복원 장치 및 방법 |
KR20080032947A (ko) * | 2006-10-12 | 2008-04-16 | 삼성전자주식회사 | 디지털 방송 데이터 처리 방법 및 장치 |
US9872045B2 (en) * | 2006-10-16 | 2018-01-16 | Conversant Wireless Licensing S.A R.L. | Method, electronic device, system, computer program product and circuit assembly for reducing error in video coding |
WO2008050220A1 (en) * | 2006-10-25 | 2008-05-02 | Nokia Corporation | Layered coded streaming control for unicast/mbms interaction |
US20080144505A1 (en) * | 2006-11-03 | 2008-06-19 | Michael Anthony Isnardi | Method and Apparatus for Bitrate Reduction |
US20080107108A1 (en) * | 2006-11-03 | 2008-05-08 | Nokia Corporation | System and method for enabling fast switching between psse channels |
US20080115175A1 (en) * | 2006-11-13 | 2008-05-15 | Rodriguez Arturo A | System and method for signaling characteristics of pictures' interdependencies |
US20090180546A1 (en) * | 2008-01-09 | 2009-07-16 | Rodriguez Arturo A | Assistance for processing pictures in concatenated video streams |
US8875199B2 (en) * | 2006-11-13 | 2014-10-28 | Cisco Technology, Inc. | Indicating picture usefulness for playback optimization |
US9961372B2 (en) * | 2006-12-08 | 2018-05-01 | Nxp Usa, Inc. | Adaptive disabling of deblock filtering based on a content characteristic of video information |
US9445128B2 (en) | 2006-12-08 | 2016-09-13 | Freescale Semiconductor, Inc. | System and method of determining deblocking control flag of scalable video system for indicating presentation of deblocking parameters for multiple layers |
US9571902B2 (en) | 2006-12-13 | 2017-02-14 | Quickplay Media Inc. | Time synchronizing of distinct video and data feeds that are delivered in a single mobile IP data network compatible stream |
EP2177010B1 (en) | 2006-12-13 | 2015-10-28 | Quickplay Media Inc. | Mobile media platform |
US9124650B2 (en) * | 2006-12-13 | 2015-09-01 | Quickplay Media Inc. | Digital rights management in a mobile environment |
US8892761B1 (en) | 2008-04-04 | 2014-11-18 | Quickplay Media Inc. | Progressive download playback |
US8238278B2 (en) | 2007-01-08 | 2012-08-07 | Hellosoft, Inc. | Hardware-based beacon processing |
US8243638B2 (en) | 2007-01-08 | 2012-08-14 | Hellosoft, Inc. | Passive listening in wireless communication |
US7792141B2 (en) * | 2007-01-08 | 2010-09-07 | Hellosoft, Inc. | Hardware-centric medium access control (MAC) device |
US8184943B2 (en) | 2007-01-08 | 2012-05-22 | Apple Inc. | Transport controls for a media device |
US9760146B2 (en) * | 2007-01-08 | 2017-09-12 | Imagination Technologies Limited | Conditional activation and deactivation of a microprocessor |
US20080174662A1 (en) * | 2007-01-23 | 2008-07-24 | Won-Gue Choi | System and method for digital type wireless monitoring |
US20080181298A1 (en) * | 2007-01-26 | 2008-07-31 | Apple Computer, Inc. | Hybrid scalable coding |
US8238424B2 (en) | 2007-02-09 | 2012-08-07 | Microsoft Corporation | Complexity-based adaptive preprocessing for multiple-pass video compression |
US8553757B2 (en) * | 2007-02-14 | 2013-10-08 | Microsoft Corporation | Forward error correction for media transmission |
JP4847890B2 (ja) * | 2007-02-16 | 2011-12-28 | パナソニック株式会社 | 符号化方式変換装置 |
US8767834B2 (en) * | 2007-03-09 | 2014-07-01 | Sharp Laboratories Of America, Inc. | Methods and systems for scalable-to-non-scalable bit-stream rewriting |
US8498335B2 (en) * | 2007-03-26 | 2013-07-30 | Microsoft Corporation | Adaptive deadzone size adjustment in quantization |
US8243797B2 (en) | 2007-03-30 | 2012-08-14 | Microsoft Corporation | Regions of interest for quality adjustments |
RU2479937C2 (ru) * | 2007-03-30 | 2013-04-20 | Сони Корпорейшн | Устройство и способ обработки информации |
US8566695B2 (en) | 2007-03-30 | 2013-10-22 | Sandisk Technologies Inc. | Controlling access to digital content |
US8442337B2 (en) | 2007-04-18 | 2013-05-14 | Microsoft Corporation | Encoding adjustments for animation content |
US8582647B2 (en) * | 2007-04-23 | 2013-11-12 | Qualcomm Incorporated | Methods and systems for quality controlled encoding |
WO2008137432A2 (en) * | 2007-05-01 | 2008-11-13 | Dyyno | Sharing of information and formatting information for transmission over a communication network |
WO2008136623A1 (en) * | 2007-05-04 | 2008-11-13 | Electronics And Telecommunications Research Institute | Method and apparatus for providing high-quality multimedia service in dmb system |
US8396082B2 (en) * | 2007-06-05 | 2013-03-12 | Core Wireless Licensing S.A.R.L. | Time-interleaved simulcast for tune-in reduction |
US8331438B2 (en) * | 2007-06-05 | 2012-12-11 | Microsoft Corporation | Adaptive selection of picture-level quantization parameters for predicted video pictures |
JP2009010586A (ja) * | 2007-06-27 | 2009-01-15 | Fujitsu Microelectronics Ltd | トランスコーダおよびトランスコード方法 |
US9426522B2 (en) * | 2007-07-10 | 2016-08-23 | Qualcomm Incorporated | Early rendering for fast channel switching |
US8958486B2 (en) * | 2007-07-31 | 2015-02-17 | Cisco Technology, Inc. | Simultaneous processing of media and redundancy streams for mitigating impairments |
US8804845B2 (en) * | 2007-07-31 | 2014-08-12 | Cisco Technology, Inc. | Non-enhancing media redundancy coding for mitigating transmission impairments |
EP2373050A3 (en) * | 2007-08-09 | 2012-10-10 | Cisco Technology, Inc. | Preserving captioning through video transcoding |
JP2009055416A (ja) * | 2007-08-28 | 2009-03-12 | Nec Corp | 映像再符号化方法、映像再符号化装置及び映像再符号化プログラム |
US8023562B2 (en) * | 2007-09-07 | 2011-09-20 | Vanguard Software Solutions, Inc. | Real-time video coding/decoding |
RU2010114256A (ru) * | 2007-09-12 | 2011-10-20 | Диджитал Фаунтин, Инк. (Us) | Формирование и передача исходной идентификационной информации для обеспечения надежного обмена данными |
MY162861A (en) * | 2007-09-24 | 2017-07-31 | Koninl Philips Electronics Nv | Method and system for encoding a video data signal, encoded video data signal, method and system for decoding a video data signal |
WO2009045682A2 (en) * | 2007-09-28 | 2009-04-09 | Athanasios Leontaris | Treating video information |
US8351643B2 (en) | 2007-10-05 | 2013-01-08 | Dolby Laboratories Licensing Corporation | Media fingerprints that reliably correspond to media content |
EP2213097A2 (en) * | 2007-10-16 | 2010-08-04 | Cisco Technology, Inc. | Conveyance of concatenation properties and picture orderness in a video stream |
KR100939435B1 (ko) * | 2007-10-29 | 2010-01-28 | 에스케이 텔레콤주식회사 | 영상 분석 장치 및 방법 |
US8514939B2 (en) * | 2007-10-31 | 2013-08-20 | Broadcom Corporation | Method and system for motion compensated picture rate up-conversion of digital video using picture boundary processing |
WO2009067155A2 (en) * | 2007-11-16 | 2009-05-28 | Thomson Licensing | System and method for encoding video |
KR20090050994A (ko) | 2007-11-16 | 2009-05-20 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
WO2009071115A1 (en) * | 2007-12-03 | 2009-06-11 | Nokia Corporation | A packet generator |
US8218086B2 (en) * | 2007-12-11 | 2012-07-10 | Ericsson Television Inc. | Flash detection |
US8718388B2 (en) | 2007-12-11 | 2014-05-06 | Cisco Technology, Inc. | Video processing with tiered interdependencies of pictures |
FR2925819A1 (fr) * | 2007-12-21 | 2009-06-26 | Thomson Licensing Sas | Procede de codage double passe par macrobloc |
US8594191B2 (en) * | 2008-01-03 | 2013-11-26 | Broadcom Corporation | Video processing system and transcoder for use with layered video coding and methods for use therewith |
US8750390B2 (en) * | 2008-01-10 | 2014-06-10 | Microsoft Corporation | Filtering and dithering as pre-processing before encoding |
US8237863B2 (en) * | 2008-01-12 | 2012-08-07 | Huaya Microelectronics | Adaptive gain and offset control in a digital video decoder |
TWI357263B (en) | 2008-02-22 | 2012-01-21 | Novatek Microelectronics Corp | Method and related device for converting transport |
US8045810B2 (en) | 2008-02-28 | 2011-10-25 | Research In Motion Limited | Method and system for decoding encoded images and reducing the size of said images |
KR101656091B1 (ko) * | 2008-03-10 | 2016-09-08 | 톰슨 라이센싱 | 효율성과 주관적 품질의 개선을 지원하는 예측 프레임 선택을 위한 방법 및 장치 |
US8276182B2 (en) * | 2008-03-13 | 2012-09-25 | Microsoft Corporation | Television content from multiple sources |
US8189933B2 (en) * | 2008-03-31 | 2012-05-29 | Microsoft Corporation | Classifying and controlling encoding quality for textured, dark smooth and smooth video content |
EP2107811A1 (en) * | 2008-03-31 | 2009-10-07 | British Telecmmunications public limited campany | Encoder |
FR2929736A1 (fr) * | 2008-04-02 | 2009-10-09 | Thomson Licensing Sas | Procede de detection de changement de scene dans une sequence d'images video. |
US20090262838A1 (en) * | 2008-04-21 | 2009-10-22 | Qualcomm Incorporated | Method and apparatus for encoding transmission data blocks for enhanced switching performance |
US8249142B2 (en) * | 2008-04-24 | 2012-08-21 | Motorola Mobility Llc | Method and apparatus for encoding and decoding video using redundant encoding and decoding techniques |
US8325800B2 (en) | 2008-05-07 | 2012-12-04 | Microsoft Corporation | Encoding streaming media as a high bit rate layer, a low bit rate layer, and one or more intermediate bit rate layers |
US8379851B2 (en) | 2008-05-12 | 2013-02-19 | Microsoft Corporation | Optimized client side rate control and indexed file layout for streaming media |
US8179983B2 (en) * | 2008-05-20 | 2012-05-15 | Broadcom Corporation | Video processing system with layered video coding for fast channel change and methods for use therewith |
US7925774B2 (en) | 2008-05-30 | 2011-04-12 | Microsoft Corporation | Media streaming using an index file |
US8897359B2 (en) | 2008-06-03 | 2014-11-25 | Microsoft Corporation | Adaptive quantization for enhancement layer video coding |
WO2009152450A1 (en) | 2008-06-12 | 2009-12-17 | Cisco Technology, Inc. | Picture interdependencies signals in context of mmco to assist stream manipulation |
US8699578B2 (en) | 2008-06-17 | 2014-04-15 | Cisco Technology, Inc. | Methods and systems for processing multi-latticed video streams |
US8971402B2 (en) | 2008-06-17 | 2015-03-03 | Cisco Technology, Inc. | Processing of impaired and incomplete multi-latticed video streams |
US8705631B2 (en) * | 2008-06-17 | 2014-04-22 | Cisco Technology, Inc. | Time-shifted transport of multi-latticed video for resiliency from burst-error effects |
DE102008029102A1 (de) * | 2008-06-20 | 2009-12-24 | Micronas Gmbh | Audio- und/oder Video-Datenverarbeitungsvorrichtung, Kommunikations- oder Datennetz zum Umkodieren von Audio- und/oder Video-Daten bzw. Verfahren zum Dekodieren von Audio- und/oder Video-Daten |
US20090315980A1 (en) * | 2008-06-24 | 2009-12-24 | Samsung Electronics Co., | Image processing method and apparatus |
KR101539935B1 (ko) * | 2008-06-24 | 2015-07-28 | 삼성전자주식회사 | 3차원 비디오 영상 처리 방법 및 장치 |
WO2009157707A2 (en) * | 2008-06-24 | 2009-12-30 | Samsung Electronics Co,. Ltd. | Image processing method and apparatus |
US20090317062A1 (en) * | 2008-06-24 | 2009-12-24 | Samsung Electronics Co., Ltd. | Image processing method and apparatus |
WO2009158550A2 (en) * | 2008-06-25 | 2009-12-30 | Cisco Technology, Inc. | Support for blocking trick mode operations |
US8724705B2 (en) * | 2008-06-26 | 2014-05-13 | Telefonaktiebolaget Lm Ericsson (Publ) | Detecting repetition in digital video |
JP4996554B2 (ja) * | 2008-06-30 | 2012-08-08 | 株式会社東芝 | 画像高画質化装置、方法およびプログラム |
TWI425440B (zh) * | 2008-07-03 | 2014-02-01 | Nvidia Corp | 複合多重樣本/超樣本抗頻疊 |
JP4986243B2 (ja) * | 2008-07-04 | 2012-07-25 | Kddi株式会社 | メディアストリームの階層数を制御する送信装置、方法及びプログラム |
US20100232521A1 (en) * | 2008-07-10 | 2010-09-16 | Pierre Hagendorf | Systems, Methods, and Media for Providing Interactive Video Using Scalable Video Coding |
US8108361B2 (en) * | 2008-07-31 | 2012-01-31 | Microsoft Corporation | Efficient column based data encoding for large-scale data storage |
US9571856B2 (en) * | 2008-08-25 | 2017-02-14 | Microsoft Technology Licensing, Llc | Conversion operations in scalable video encoding and decoding |
WO2010025458A1 (en) * | 2008-08-31 | 2010-03-04 | Mitsubishi Digital Electronics America, Inc. | Transforming 3d video content to match viewer position |
US8509315B1 (en) * | 2008-09-23 | 2013-08-13 | Viasat, Inc. | Maintaining synchronization of compressed data and associated metadata |
US8913668B2 (en) * | 2008-09-29 | 2014-12-16 | Microsoft Corporation | Perceptual mechanism for the selection of residues in video coders |
US8457194B2 (en) * | 2008-09-29 | 2013-06-04 | Microsoft Corporation | Processing real-time video |
JP5201408B2 (ja) * | 2008-09-30 | 2013-06-05 | ソニー株式会社 | フレーム周波数変換装置、フレーム周波数変換方法、その方法を実行するためのプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体並びに動きベクトル検出装置及び予測係数生成装置 |
US8265140B2 (en) * | 2008-09-30 | 2012-09-11 | Microsoft Corporation | Fine-grained client-side control of scalable media delivery |
WO2010038212A2 (en) * | 2008-10-01 | 2010-04-08 | Nxp B.V. | Embedded video compression for hybrid contents |
KR20100046584A (ko) * | 2008-10-27 | 2010-05-07 | 삼성전자주식회사 | 영상 디코딩 방법, 영상 출력 방법, 영상 처리 방법 및 그 장치 |
US9407925B2 (en) * | 2008-10-30 | 2016-08-02 | Vixs Systems, Inc. | Video transcoding system with quality readjustment based on high scene cost detection and method for use therewith |
US8787447B2 (en) * | 2008-10-30 | 2014-07-22 | Vixs Systems, Inc | Video transcoding system with drastic scene change detection and method for use therewith |
KR101279573B1 (ko) | 2008-10-31 | 2013-06-27 | 에스케이텔레콤 주식회사 | 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치 |
EP2347599B1 (en) * | 2008-11-04 | 2015-02-25 | Telefonaktiebolaget L M Ericsson (publ) | Method and system for determining a quality value of a video stream |
EP2356812B1 (en) * | 2008-11-12 | 2015-06-10 | Cisco Technology, Inc. | Processing of a video program having plural processed representations of a single video signal for reconstruction and output |
US8374462B2 (en) * | 2008-11-14 | 2013-02-12 | Seiko Epson Corporation | Content-aware image and video resizing by anchor point sampling and mapping |
US20100128181A1 (en) * | 2008-11-25 | 2010-05-27 | Advanced Micro Devices, Inc. | Seam Based Scaling of Video Content |
JP5277257B2 (ja) * | 2008-12-03 | 2013-08-28 | 株式会社日立製作所 | 動画像復号化方法および動画像符号化方法 |
US8051223B1 (en) * | 2008-12-09 | 2011-11-01 | Calos Fund Limited Liability Company | System and method for managing memory using multi-state buffer representations |
US8542732B1 (en) | 2008-12-23 | 2013-09-24 | Elemental Technologies, Inc. | Video encoder using GPU |
US20100161779A1 (en) * | 2008-12-24 | 2010-06-24 | Verizon Services Organization Inc | System and method for providing quality-referenced multimedia |
TW201026065A (en) * | 2008-12-26 | 2010-07-01 | Ind Tech Res Inst | Method for packing bitstream of scalable video coding |
US8903191B2 (en) * | 2008-12-30 | 2014-12-02 | Intel Corporation | Method and apparatus for noise reduction in video |
KR20100084115A (ko) * | 2009-01-15 | 2010-07-23 | 한국전자통신연구원 | 방송 서비스 제공 방법 및 장치 |
CN104780384B (zh) | 2009-01-29 | 2018-01-16 | 杜比实验室特许公司 | 解码视频帧的序列的方法、编码多视图帧的序列的方法 |
CN102356637B (zh) * | 2009-01-30 | 2017-02-22 | 汤姆森特许公司 | 深度图的编码 |
KR20100094709A (ko) * | 2009-02-19 | 2010-08-27 | (주)휴맥스 | 부호화/복호화 방법 및 장치 |
US20100218232A1 (en) * | 2009-02-25 | 2010-08-26 | Cisco Technology, Inc. | Signalling of auxiliary information that assists processing of video according to various formats |
US20100254453A1 (en) * | 2009-04-02 | 2010-10-07 | Qualcomm Incorporated | Inverse telecine techniques |
US8687685B2 (en) | 2009-04-14 | 2014-04-01 | Qualcomm Incorporated | Efficient transcoding of B-frames to P-frames |
EP2422522A1 (en) | 2009-04-20 | 2012-02-29 | Dolby Laboratories Licensing Corporation | Directed interpolation and data post-processing |
US8346984B2 (en) * | 2009-05-05 | 2013-01-01 | Jeffrey Huang | Apparatus and method for intelligent analysis of device compatibility and adaptive processing of multimedia data |
US8949883B2 (en) | 2009-05-12 | 2015-02-03 | Cisco Technology, Inc. | Signalling buffer characteristics for splicing operations of video streams |
US20100309987A1 (en) * | 2009-06-05 | 2010-12-09 | Apple Inc. | Image acquisition and encoding system |
US8345070B2 (en) * | 2009-06-10 | 2013-01-01 | Himax Media Solutions, Inc. | Apparatus and method for frame rate up conversion |
TWI400942B (zh) * | 2009-06-17 | 2013-07-01 | Himax Media Solutions Inc | 畫面速率轉換之裝置及方法 |
US8279926B2 (en) | 2009-06-18 | 2012-10-02 | Cisco Technology, Inc. | Dynamic streaming with latticed representations of video |
US8942215B2 (en) | 2010-07-15 | 2015-01-27 | Dejero Labs Inc. | System and method for transmission of data from a wireless mobile device over a multipath wireless router |
US9756468B2 (en) | 2009-07-08 | 2017-09-05 | Dejero Labs Inc. | System and method for providing data services on vehicles |
US10165286B2 (en) * | 2009-07-08 | 2018-12-25 | Dejero Labs Inc. | System and method for automatic encoder adjustment based on transport data |
KR20110017719A (ko) | 2009-08-14 | 2011-02-22 | 삼성전자주식회사 | 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
TWI392373B (zh) * | 2009-09-04 | 2013-04-01 | Nat Univ Chung Cheng | The Method of Reverse Conversion and Sub - sampling of Low Computational Complexity |
CN102025892A (zh) * | 2009-09-16 | 2011-04-20 | 索尼株式会社 | 镜头转换检测方法及装置 |
US9917874B2 (en) | 2009-09-22 | 2018-03-13 | Qualcomm Incorporated | Enhanced block-request streaming using block partitioning or request controls for improved client-side handling |
KR101418101B1 (ko) | 2009-09-23 | 2014-07-16 | 에스케이 텔레콤주식회사 | 저주파수 성분을 고려한 영상 부호화/복호화 방법 및 장치 |
US8340191B2 (en) * | 2009-09-25 | 2012-12-25 | General Instrument Corporation | Transcoder from first MPEG stream to second MPEG stream |
JP2011109469A (ja) * | 2009-11-18 | 2011-06-02 | Canon Inc | コンテンツ受信装置及びコンテンツ受信装置の制御方法 |
CN105739209B (zh) * | 2009-11-30 | 2022-05-27 | 株式会社半导体能源研究所 | 液晶显示设备、用于驱动该液晶显示设备的方法 |
TW201121335A (en) * | 2009-12-02 | 2011-06-16 | Sunplus Core Technology Co Ltd | Method and apparatus for adaptively determining compression modes to compress frames |
KR101902933B1 (ko) * | 2009-12-16 | 2018-10-01 | 한국전자통신연구원 | 영상 부호화/복호화 장치 및 방법 |
US8638851B2 (en) * | 2009-12-23 | 2014-01-28 | Apple Inc. | Joint bandwidth detection algorithm for real-time communication |
WO2011100347A2 (en) | 2010-02-09 | 2011-08-18 | Vanguard Software Solutions, Inc. | Video sequence encoding system and algorithms |
WO2011099254A1 (ja) * | 2010-02-15 | 2011-08-18 | パナソニック株式会社 | データ処理装置及びデータ符号化装置 |
CN102783167B (zh) * | 2010-03-05 | 2015-10-14 | 三星电子株式会社 | 基于文件格式生成和再现自适应流的方法和装置 |
JP2011199414A (ja) * | 2010-03-17 | 2011-10-06 | Toshiba Corp | 素材収録装置及び素材収録方法 |
TW201134223A (en) * | 2010-03-29 | 2011-10-01 | Univ Nat Taiwan | Perceptual video encoding system and circuit thereof |
WO2011120221A1 (en) * | 2010-03-31 | 2011-10-06 | Intel Corporation | Power efficient motion estimation techniques for video encoding |
JP5553663B2 (ja) * | 2010-03-31 | 2014-07-16 | 日立コンシューマエレクトロニクス株式会社 | 映像送信装置、映像受信装置、映像伝送システム |
KR102166520B1 (ko) | 2010-04-13 | 2020-10-16 | 지이 비디오 컴프레션, 엘엘씨 | 샘플 영역 병합 |
RS64605B1 (sr) | 2010-04-13 | 2023-10-31 | Ge Video Compression Llc | Kodiranje videa primenom podele sa više stabala na slikama |
BR122020007923B1 (pt) | 2010-04-13 | 2021-08-03 | Ge Video Compression, Llc | Predição interplano |
NO2991355T3 (ko) * | 2010-04-13 | 2018-04-14 | ||
US20110255596A1 (en) * | 2010-04-15 | 2011-10-20 | Himax Technologies Limited | Frame rate up conversion system and method |
US20110255594A1 (en) * | 2010-04-15 | 2011-10-20 | Soyeb Nagori | Rate Control in Video Coding |
TWI428024B (zh) * | 2010-05-06 | 2014-02-21 | Himax Media Solutions Inc | 提升圖框速率的系統與方法 |
CA2798008C (en) | 2010-05-06 | 2015-10-20 | Nippon Telegraph And Telephone Corporation | Method for controlling video encoding if a decoder underflow condition is detected |
BR112012028184A2 (pt) * | 2010-05-07 | 2016-08-02 | Nippon Telegraph & Telephone | método de controle de codificação de vídeo, aparelho de codificação de vídeo e programa de codificação de vídeo |
RU2527740C2 (ru) | 2010-05-12 | 2014-09-10 | Ниппон Телеграф Энд Телефон Корпорейшн | Способ управления кодированием видео, устройство кодирования видео и программа кодирования видео |
US20110280311A1 (en) | 2010-05-13 | 2011-11-17 | Qualcomm Incorporated | One-stream coding for asymmetric stereo video |
US9693110B2 (en) | 2010-06-03 | 2017-06-27 | Cox Communications, Inc | Dynamic content stream management |
JP5625512B2 (ja) * | 2010-06-09 | 2014-11-19 | ソニー株式会社 | 符号化装置、符号化方法、プログラム、および記録媒体 |
EP2395505A1 (en) * | 2010-06-11 | 2011-12-14 | Thomson Licensing | Method and apparatus for searching in a layered hierarchical bit stream followed by replay, said bit stream including a base layer and at least one enhancement layer |
US9591374B2 (en) | 2010-06-30 | 2017-03-07 | Warner Bros. Entertainment Inc. | Method and apparatus for generating encoded content using dynamically optimized conversion for 3D movies |
US10326978B2 (en) | 2010-06-30 | 2019-06-18 | Warner Bros. Entertainment Inc. | Method and apparatus for generating virtual or augmented reality presentations with 3D audio positioning |
US8917774B2 (en) * | 2010-06-30 | 2014-12-23 | Warner Bros. Entertainment Inc. | Method and apparatus for generating encoded content using dynamically optimized conversion |
US8755432B2 (en) | 2010-06-30 | 2014-06-17 | Warner Bros. Entertainment Inc. | Method and apparatus for generating 3D audio positioning using dynamically optimized audio 3D space perception cues |
US8930562B2 (en) | 2010-07-20 | 2015-01-06 | Qualcomm Incorporated | Arranging sub-track fragments for streaming video data |
US9596447B2 (en) | 2010-07-21 | 2017-03-14 | Qualcomm Incorporated | Providing frame packing type information for video coding |
US9398308B2 (en) | 2010-07-28 | 2016-07-19 | Qualcomm Incorporated | Coding motion prediction direction in video coding |
US9456015B2 (en) | 2010-08-10 | 2016-09-27 | Qualcomm Incorporated | Representation groups for network streaming of coded multimedia data |
US8533166B1 (en) * | 2010-08-20 | 2013-09-10 | Brevity Ventures LLC | Methods and systems for encoding/decoding files and transmission thereof |
US20120057640A1 (en) * | 2010-09-02 | 2012-03-08 | Fang Shi | Video Analytics for Security Systems and Methods |
RU2010144450A (ru) * | 2010-10-29 | 2012-05-10 | ЭлЭсАй Корпорейшн (US) | Оценка движения для видео транскодера |
US9432678B2 (en) * | 2010-10-30 | 2016-08-30 | Hewlett-Packard Development Company, L.P. | Adapting a video stream |
US9066102B2 (en) | 2010-11-17 | 2015-06-23 | Qualcomm Incorporated | Reference picture list construction for generalized P/B frames in video coding |
US8891831B2 (en) * | 2010-12-14 | 2014-11-18 | The United States Of America, As Represented By The Secretary Of The Navy | Method and apparatus for conservative motion estimation from multi-image sequences |
US9547911B2 (en) | 2010-12-14 | 2017-01-17 | The United States Of America, As Represented By The Secretary Of The Navy | Velocity estimation from imagery using symmetric displaced frame difference equation |
US9832540B2 (en) * | 2010-12-15 | 2017-11-28 | Hulu, LLC | Method and apparatus for hybrid transcoding of a media program |
US8842723B2 (en) * | 2011-01-03 | 2014-09-23 | Apple Inc. | Video coding system using implied reference frames |
GB2487200A (en) | 2011-01-12 | 2012-07-18 | Canon Kk | Video encoding and decoding with improved error resilience |
US9307262B2 (en) * | 2011-01-13 | 2016-04-05 | Texas Instruments Incorporated | Methods and systems for facilitating multimedia data encoding utilizing configured buffer information |
ES2967302T3 (es) * | 2011-01-14 | 2024-04-29 | Sun Patent Trust | Aparato de codificación y decodificación de imágenes |
WO2012100117A1 (en) * | 2011-01-21 | 2012-07-26 | Thomson Licensing | System and method for enhanced remote transcoding using content profiling |
US8548057B2 (en) | 2011-01-25 | 2013-10-01 | Microsoft Corporation | Video coding redundancy reduction |
CA2825929A1 (en) * | 2011-01-28 | 2012-08-02 | Eye IO, LLC | Adaptive bit rate control based on scenes |
US10165274B2 (en) * | 2011-01-28 | 2018-12-25 | Eye IO, LLC | Encoding of video stream based on scene type |
BR112013020071A2 (pt) * | 2011-01-28 | 2016-10-25 | Eye Io Llc | métodos e aparelhos para codificação de sequência de video baseada em tipos de cena |
US8751565B1 (en) | 2011-02-08 | 2014-06-10 | Google Inc. | Components for web-based configurable pipeline media processing |
JP5837621B2 (ja) * | 2011-02-11 | 2015-12-24 | インターデイジタル パテント ホールディングス インコーポレイテッド | コンテンツの配信および受信の方法および装置 |
US9866877B2 (en) * | 2011-03-08 | 2018-01-09 | Cox Communications, Inc. | Transparent scalable video coding |
GB2488829A (en) * | 2011-03-10 | 2012-09-12 | Canon Kk | Encoding and decoding image data |
US8644383B2 (en) * | 2011-03-10 | 2014-02-04 | Microsoft Corporation | Mean absolute difference prediction for video encoding rate control |
GB2488830B (en) * | 2011-03-10 | 2015-07-29 | Canon Kk | Method and device for encoding image data and method and device for decoding image data |
US20120260185A1 (en) * | 2011-04-11 | 2012-10-11 | Google Inc. | Path length selector |
US8620933B2 (en) | 2011-04-11 | 2013-12-31 | Google Inc. | Illustrating cross channel conversion paths |
US8510326B2 (en) | 2011-04-11 | 2013-08-13 | Google Inc. | Priority dimensional data conversion path reporting |
KR101894420B1 (ko) * | 2011-04-15 | 2018-09-03 | 에스케이플래닛 주식회사 | 적응적 비디오 트랜스코딩 방법 및 시스템 |
US8681866B1 (en) | 2011-04-28 | 2014-03-25 | Google Inc. | Method and apparatus for encoding video by downsampling frame resolution |
US20120281748A1 (en) * | 2011-05-02 | 2012-11-08 | Futurewei Technologies, Inc. | Rate Control for Cloud Transcoding |
US9106787B1 (en) | 2011-05-09 | 2015-08-11 | Google Inc. | Apparatus and method for media transmission bandwidth control using bandwidth estimation |
CN105187838A (zh) | 2011-05-31 | 2015-12-23 | Jvc建伍株式会社 | 动图像解码装置、动图像解码方法、接收装置及接收方法 |
GB2491589B (en) | 2011-06-06 | 2015-12-16 | Canon Kk | Method and device for encoding a sequence of images and method and device for decoding a sequence of image |
KR20120138319A (ko) * | 2011-06-14 | 2012-12-26 | 삼성전자주식회사 | 멀티미디어 데이터 특징 정보를 이용하여 멀티미디어 서비스 데이터 패킷을 송신하는 방법 및 장치 |
US9686543B2 (en) * | 2011-06-15 | 2017-06-20 | Electronics And Telecommunications Research Institute | Method for coding and decoding scalable video and apparatus using same |
EP2536143B1 (en) * | 2011-06-16 | 2015-01-14 | Axis AB | Method and a digital video encoder system for encoding digital video data |
AP3858A (en) * | 2011-06-30 | 2016-10-31 | Ericsson Telefon Ab L M | Reference picture signalling |
US9369723B2 (en) * | 2011-07-14 | 2016-06-14 | Comcast Cable Communications, Llc | Preserving image quality in temporally compressed video streams |
US8655907B2 (en) | 2011-07-18 | 2014-02-18 | Google Inc. | Multi-channel conversion path position reporting |
KR20130011994A (ko) * | 2011-07-22 | 2013-01-30 | 삼성전자주식회사 | 송신 장치, 수신 장치 및 그 송수신 방법 |
US8959450B2 (en) | 2011-08-22 | 2015-02-17 | Google Inc. | Path explorer visualization |
US9253233B2 (en) | 2011-08-31 | 2016-02-02 | Qualcomm Incorporated | Switch signaling methods providing improved switching between representations for adaptive HTTP streaming |
US9131245B2 (en) * | 2011-09-23 | 2015-09-08 | Qualcomm Incorporated | Reference picture list construction for video coding |
US9456212B2 (en) * | 2011-09-30 | 2016-09-27 | Broadcom Corporation | Video coding sub-block sizing based on infrastructure capabilities and current conditions |
CN103907136A (zh) * | 2011-10-01 | 2014-07-02 | 英特尔公司 | 用于视频代码转换中的集成后处理和预处理的系统、方法和计算机程序产品 |
US20130083859A1 (en) * | 2011-10-04 | 2013-04-04 | General Instrument Corporation | Method to match input and output timestamps in a video encoder and advertisement inserter |
US9253508B2 (en) | 2011-11-04 | 2016-02-02 | Futurewei Technologies, Inc. | Differential pulse code modulation intra prediction for high efficiency video coding |
US9432704B2 (en) * | 2011-11-06 | 2016-08-30 | Akamai Technologies Inc. | Segmented parallel encoding with frame-aware, variable-size chunking |
KR20130050149A (ko) | 2011-11-07 | 2013-05-15 | 오수미 | 인터 모드에서의 예측 블록 생성 방법 |
JP2013102297A (ja) * | 2011-11-07 | 2013-05-23 | Canon Inc | 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム |
JP2013102295A (ja) * | 2011-11-07 | 2013-05-23 | Canon Inc | 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム |
US10277915B2 (en) | 2011-11-07 | 2019-04-30 | Qualcomm Incorporated | Signaling quantization matrices for video coding |
JP5871628B2 (ja) | 2011-11-07 | 2016-03-01 | キヤノン株式会社 | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
WO2013074964A1 (en) | 2011-11-16 | 2013-05-23 | Vanguard Software Solutions, Inc. | Video compression for high efficiency video coding |
US9277230B2 (en) * | 2011-11-23 | 2016-03-01 | Qualcomm Incorporated | Display mode-based video encoding in wireless display devices |
TWI448125B (zh) * | 2011-11-25 | 2014-08-01 | Ind Tech Res Inst | 多媒體檔案分享方法及系統 |
US9589540B2 (en) | 2011-12-05 | 2017-03-07 | Microsoft Technology Licensing, Llc | Adaptive control of display refresh rate based on video frame rate and power efficiency |
US9008177B2 (en) | 2011-12-12 | 2015-04-14 | Qualcomm Incorporated | Selective mirroring of media output |
KR101651027B1 (ko) * | 2011-12-23 | 2016-08-24 | 인텔 코포레이션 | 콘텐츠 적응적 고정밀 매크로블록 레이트 제어 |
MX338055B (es) | 2012-01-19 | 2016-04-01 | Vid Scale Inc | Metodo y aparato para señalizacion y construccion de listas de imagenes de referencia de codificacion de video. |
KR20190097306A (ko) * | 2012-01-19 | 2019-08-20 | 브이아이디 스케일, 인크. | 시청 조건에 대한 적응을 지원하는 비디오 전송 방법 및 시스템 |
US9538200B2 (en) | 2012-01-19 | 2017-01-03 | Qualcomm Incorporated | Signaling of deblocking filter parameters in video coding |
US20130208809A1 (en) * | 2012-02-14 | 2013-08-15 | Microsoft Corporation | Multi-layer rate control |
US9386267B1 (en) * | 2012-02-14 | 2016-07-05 | Arris Enterprises, Inc. | Cooperative transcoding to multiple streams |
US9241167B2 (en) * | 2012-02-17 | 2016-01-19 | Microsoft Technology Licensing, Llc | Metadata assisted video decoding |
WO2013129822A1 (ko) | 2012-02-27 | 2013-09-06 | 세종대학교산학협력단 | 영상 부호화와 복호화 장치 및 영상을 부호화와 복호화하는 방법 |
KR20130098122A (ko) | 2012-02-27 | 2013-09-04 | 세종대학교산학협력단 | 영상 부호화/복호화 장치 및 영상을 부호화/복호화하는 방법 |
KR102071577B1 (ko) * | 2012-03-20 | 2020-01-30 | 삼성전자주식회사 | 트리 구조의 부호화 단위에 기초한 스케일러블 비디오 부호화 방법 및 그 장치, 트리 구조의 부호화 단위에 기초한 스케일러블 비디오 복호화 방법 및 그 장치 |
US9031378B2 (en) * | 2012-04-03 | 2015-05-12 | Via Technologies, Inc. | Method of managing multiple wireless video traffic and electronic device thereof |
WO2013150838A1 (ja) * | 2012-04-05 | 2013-10-10 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
ES2951398T3 (es) * | 2012-04-12 | 2023-10-20 | Jvckenwood Corp | Construcción de listas de candidatos a fusión |
US9071842B2 (en) | 2012-04-19 | 2015-06-30 | Vixs Systems Inc. | Detection of video feature based on variance metric |
US20130279882A1 (en) | 2012-04-23 | 2013-10-24 | Apple Inc. | Coding of Video and Audio with Initialization Fragments |
US9042441B2 (en) | 2012-04-25 | 2015-05-26 | At&T Intellectual Property I, Lp | Apparatus and method for media streaming |
US9185429B1 (en) | 2012-04-30 | 2015-11-10 | Google Inc. | Video encoding and decoding using un-equal error protection |
JPWO2013164922A1 (ja) * | 2012-05-02 | 2015-12-24 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
EP2670151A1 (en) * | 2012-05-28 | 2013-12-04 | Tektronix Inc. | Heuristic method for drop frame detection in digital baseband video |
US9532080B2 (en) * | 2012-05-31 | 2016-12-27 | Sonic Ip, Inc. | Systems and methods for the reuse of encoding information in encoding alternative streams of video data |
EP3767961B1 (en) * | 2012-06-12 | 2023-03-29 | Coherent Logix, Inc. | A distributed architecture for encoding and delivering video content |
US9749645B2 (en) | 2012-06-22 | 2017-08-29 | Microsoft Technology Licensing, Llc | Coded-block-flag coding and derivation |
US8949240B2 (en) * | 2012-07-03 | 2015-02-03 | General Instrument Corporation | System for correlating metadata |
US9420289B2 (en) | 2012-07-09 | 2016-08-16 | Qualcomm Incorporated | Most probable mode order extension for difference domain intra prediction |
US9516309B2 (en) | 2012-07-09 | 2016-12-06 | Qualcomm Incorporated | Adaptive difference domain spatial and temporal reference reconstruction and smoothing |
US9030571B2 (en) * | 2012-07-11 | 2015-05-12 | Google Inc. | Abstract camera pipeline for uniform cross-device control of image capture and processing |
BR112014031122A2 (pt) * | 2012-07-17 | 2017-06-27 | Thomson Licensing | avaliação de qualidade de vídeo em um nível de fluxos de bits |
US9357195B2 (en) | 2012-08-16 | 2016-05-31 | Qualcomm Incorporated | Inter-view predicted motion vector for 3D video |
EP2901257A4 (en) * | 2012-09-28 | 2016-06-22 | Nokia Technologies Oy | DEVICE FOR DISPLAYING ANIMATED IMAGES IN COMBINATION WITH A TOUCH OUTPUT |
WO2014047881A1 (en) * | 2012-09-28 | 2014-04-03 | Intel Corporation | Inter-layer intra mode prediction |
US9979960B2 (en) | 2012-10-01 | 2018-05-22 | Microsoft Technology Licensing, Llc | Frame packing and unpacking between frames of chroma sampling formats with different chroma resolutions |
US9355613B2 (en) | 2012-10-09 | 2016-05-31 | Mediatek Inc. | Data processing apparatus for transmitting/receiving compression-related indication information via display interface and related data processing method |
WO2014058280A1 (ko) | 2012-10-12 | 2014-04-17 | 한국전자통신연구원 | 영상의 부호화/복호화 방법 및 이를 이용하는 장치 |
US9661340B2 (en) * | 2012-10-22 | 2017-05-23 | Microsoft Technology Licensing, Llc | Band separation filtering / inverse filtering for frame packing / unpacking higher resolution chroma sampling formats |
US10708335B2 (en) * | 2012-11-16 | 2020-07-07 | Time Warner Cable Enterprises Llc | Situation-dependent dynamic bit rate encoding and distribution of content |
US9106922B2 (en) | 2012-12-19 | 2015-08-11 | Vanguard Software Solutions, Inc. | Motion estimation engine for video encoding |
TWI669950B (zh) * | 2012-12-21 | 2019-08-21 | 日商新力股份有限公司 | 影像處理裝置及方法 |
TWI478554B (zh) * | 2013-01-08 | 2015-03-21 | Altek Semiconductor Corp | 影像雜訊消除方法及其產生移動向量資料結構之方法 |
US9172740B1 (en) | 2013-01-15 | 2015-10-27 | Google Inc. | Adjustable buffer remote access |
KR101812218B1 (ko) * | 2013-01-18 | 2018-01-30 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 데이터스트림들 중에서 동기화된 시작 심벌 식별자들을 갖는 적어도 두 개의 데이터스트림으로부터의 심벌들을 갖는 소스 블록들을 사용하는 순방향 오류 정정 |
US9311692B1 (en) | 2013-01-25 | 2016-04-12 | Google Inc. | Scalable buffer remote access |
US9225979B1 (en) | 2013-01-30 | 2015-12-29 | Google Inc. | Remote access encoding |
US9357210B2 (en) | 2013-02-28 | 2016-05-31 | Sonic Ip, Inc. | Systems and methods of encoding multiple video streams for adaptive bitrate streaming |
US9350990B2 (en) | 2013-02-28 | 2016-05-24 | Sonic Ip, Inc. | Systems and methods of encoding multiple video streams with adaptive quantization for adaptive bitrate streaming |
US9743097B2 (en) * | 2013-03-01 | 2017-08-22 | Qualcomm Incorporated | Spatial motion vector scaling for scalable video coding |
US9607003B2 (en) | 2013-03-14 | 2017-03-28 | Massachusetts Institute Of Technology | Network coded storage with multi-resolution codes |
GB2513112B (en) * | 2013-04-08 | 2020-01-08 | Snell Advanced Media Ltd | Video sequence processing |
US9462283B2 (en) * | 2013-04-18 | 2016-10-04 | Spotlight Technologies Ltd. | Efficient compression of Bayer images |
WO2014172708A1 (en) * | 2013-04-19 | 2014-10-23 | Polaris Sensor Technologies, Inc. | Pedestrian right of way monitoring and reporting system and method |
US9191705B1 (en) * | 2013-05-01 | 2015-11-17 | Google Inc. | Managing media quality |
US9710894B2 (en) * | 2013-06-04 | 2017-07-18 | Nvidia Corporation | System and method for enhanced multi-sample anti-aliasing |
DE102013211571B4 (de) | 2013-06-19 | 2016-02-11 | Opticom Dipl.-Ing. Michael Keyhl Gmbh | Konzept zur bestimmung der qualität eines mediadatenstroms mit variierender qualität-zu-bitrate |
US9578342B2 (en) * | 2013-06-24 | 2017-02-21 | Dialogic Corporation | Rate control algorithm for scalable video encoding with disposable P-frames |
US9501360B2 (en) * | 2013-07-01 | 2016-11-22 | International Business Machines Corporation | Rebuilding data while reading data in a dispersed storage network |
US10133635B2 (en) | 2013-07-01 | 2018-11-20 | International Business Machines Corporation | Low-width vault in distributed storage system |
KR101586367B1 (ko) * | 2013-08-07 | 2016-01-18 | 주식회사 더블유코퍼레이션 | 단일 소스를 통한 다채널 대체광고 처리 및 스케줄 관리 방법 |
KR20150029592A (ko) | 2013-09-10 | 2015-03-18 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
EP3055998A1 (en) * | 2013-10-11 | 2016-08-17 | Telefonaktiebolaget LM Ericsson (publ) | Method and arrangement for video transcoding using mode or motion or in-loop filter information |
ITMI20131710A1 (it) | 2013-10-15 | 2015-04-16 | Sky Italia S R L | "sistema di cloud encoding" |
US20150117515A1 (en) * | 2013-10-25 | 2015-04-30 | Microsoft Corporation | Layered Encoding Using Spatial and Temporal Analysis |
US9609338B2 (en) | 2013-10-25 | 2017-03-28 | Microsoft Technology Licensing, Llc | Layered video encoding and decoding |
GB2521352B (en) * | 2013-12-16 | 2015-11-04 | Imagination Tech Ltd | Encoder configuration |
US9967558B1 (en) | 2013-12-17 | 2018-05-08 | Google Llc | Adaptive motion search control for variable block size partitions in video coding |
US20150189222A1 (en) * | 2013-12-30 | 2015-07-02 | Google Inc. | Content-adaptive chunking for distributed transcoding |
CN106105235B (zh) * | 2014-01-09 | 2020-04-10 | 三星电子株式会社 | 在多媒体传输系统中发送媒体数据相关信息的方法和装置 |
JP6344800B2 (ja) * | 2014-01-09 | 2018-06-20 | 株式会社日立国際電気 | 画像処理装置及び動画像伝送方法 |
US20150215621A1 (en) * | 2014-01-30 | 2015-07-30 | Qualcomm Incorporated | Rate control using complexity in video coding |
KR101858212B1 (ko) * | 2014-02-10 | 2018-05-16 | 인터디지탈 패튼 홀딩스, 인크 | 역 텔레시네 필터 |
US20170017665A1 (en) * | 2014-03-07 | 2017-01-19 | Remote Media, Llc | Virtual File System and Method with Bi-Directional Media File Synchronization |
CN106170988A (zh) | 2014-03-13 | 2016-11-30 | 凡瑞斯公司 | 使用嵌入式代码的交互式内容获取 |
US9992500B2 (en) * | 2014-03-18 | 2018-06-05 | Intel Corporation | Techniques for evaluating compressed motion video quality |
KR102249147B1 (ko) * | 2014-03-29 | 2021-05-07 | 삼성전자주식회사 | 복합 네트워크에서 멀티미디어 데이터 관련 정보를 송수신하기 위한 장치 및 방법과 그 구조 |
US10560514B2 (en) * | 2014-03-29 | 2020-02-11 | Samsung Electronics Co., Ltd. | Apparatus and method for transmitting and receiving information related to multimedia data in a hybrid network and structure thereof |
US9374604B2 (en) | 2014-03-31 | 2016-06-21 | Arris Enterprises, Inc. | Adaptive streaming transcoder synchronization |
CN105264896A (zh) * | 2014-05-08 | 2016-01-20 | 华为终端有限公司 | 一种视频质量检测的方法及装置 |
US9794313B2 (en) | 2014-05-09 | 2017-10-17 | Cisco Technology, Inc. | Methods and systems to facilitate synchronization of multiple media streams |
US9392272B1 (en) * | 2014-06-02 | 2016-07-12 | Google Inc. | Video coding using adaptive source variance based partitioning |
US10664687B2 (en) * | 2014-06-12 | 2020-05-26 | Microsoft Technology Licensing, Llc | Rule-based video importance analysis |
EP3163882B1 (en) | 2014-06-30 | 2019-08-07 | Sony Corporation | Information processing device and method |
US9787986B2 (en) * | 2014-06-30 | 2017-10-10 | Intel Corporation | Techniques for parallel video transcoding |
EP3183882A4 (en) | 2014-08-20 | 2018-07-04 | Verance Corporation | Content management based on dither-like watermark embedding |
JP6497874B2 (ja) | 2014-08-28 | 2019-04-10 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
KR102190233B1 (ko) | 2014-10-06 | 2020-12-11 | 삼성전자주식회사 | 영상 처리 장치 및 이의 영상 처리 방법 |
DE102014220428A1 (de) * | 2014-10-08 | 2016-04-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Einstellen von Datenraten in einem Videokamerasystem |
US10264269B2 (en) | 2014-10-13 | 2019-04-16 | Apple Inc. | Metadata hints to support best effort decoding for green MPEG applications |
US20160127728A1 (en) * | 2014-10-30 | 2016-05-05 | Kabushiki Kaisha Toshiba | Video compression apparatus, video playback apparatus and video delivery system |
US9311735B1 (en) * | 2014-11-21 | 2016-04-12 | Adobe Systems Incorporated | Cloud based content aware fill for images |
FR3030977B1 (fr) * | 2014-12-19 | 2017-01-27 | Sagemcom Broadband Sas | Procede d'annonce de services dans un reseau de communication |
MX2017008666A (es) * | 2015-01-05 | 2017-11-17 | Arris Entpr Llc | Uso de estadisticas del filtro temporal de movimiento compensado (mctf) para deteccion de cambio de escena cuando ocurre una atenuacion, disolucion o corte. |
US9854201B2 (en) | 2015-01-16 | 2017-12-26 | Microsoft Technology Licensing, Llc | Dynamically updating quality to higher chroma sampling rate |
US9749646B2 (en) | 2015-01-16 | 2017-08-29 | Microsoft Technology Licensing, Llc | Encoding/decoding of high chroma resolution details |
KR102553320B1 (ko) * | 2015-03-05 | 2023-07-10 | 한국전자통신연구원 | 레이어드 디비전 멀티플렉싱을 이용한 방송 신호 프레임 생성 장치 및 방송 신호 프레임 생성 방법 |
KR102553316B1 (ko) | 2015-03-06 | 2023-07-10 | 한국전자통신연구원 | 레이어드 디비전 멀티플렉싱을 이용한 방송 신호 프레임 생성 장치 및 방송 신호 프레임 생성 방법 |
KR101754527B1 (ko) * | 2015-03-09 | 2017-07-06 | 한국항공우주연구원 | 패킷 부호화 장치 및 방법 |
US9936203B2 (en) * | 2015-04-13 | 2018-04-03 | Qualcomm Incorporated | Complex region detection for display stream compression |
US10284849B2 (en) | 2015-04-13 | 2019-05-07 | Qualcomm Incorporated | Quantization parameter (QP) calculation for display stream compression (DSC) based on complexity measure |
US10356428B2 (en) | 2015-04-13 | 2019-07-16 | Qualcomm Incorporated | Quantization parameter (QP) update classification for display stream compression (DSC) |
US10244255B2 (en) | 2015-04-13 | 2019-03-26 | Qualcomm Incorporated | Rate-constrained fallback mode for display stream compression |
KR102553322B1 (ko) * | 2015-04-20 | 2023-07-10 | 한국전자통신연구원 | 레이어드 디비전 멀티플렉싱을 이용한 방송 신호 프레임 생성 장치 및 방송 신호 프레임 생성 방법 |
US10735773B2 (en) * | 2015-06-04 | 2020-08-04 | Apple Inc. | Video coding techniques for high quality coding of low motion content |
WO2016209132A1 (en) * | 2015-06-25 | 2016-12-29 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and system for encoding an input video stream into a compressed output video stream with parallel encoding |
US9955191B2 (en) | 2015-07-01 | 2018-04-24 | At&T Intellectual Property I, L.P. | Method and apparatus for managing bandwidth in providing communication services |
US10133934B2 (en) * | 2015-09-30 | 2018-11-20 | Apple Inc. | Systems and methods for post processing time-lapse videos |
KR101780444B1 (ko) * | 2015-10-29 | 2017-09-21 | 삼성에스디에스 주식회사 | 영상 신호의 노이즈 제거 방법 |
CN105306934A (zh) * | 2015-11-10 | 2016-02-03 | 深圳市云宙多媒体技术有限公司 | 一种低复杂度片源的编码方法及系统 |
RU2610686C1 (ru) * | 2015-11-17 | 2017-02-14 | федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный университет имени С.А. Есенина" | Способ адаптивной передачи информации по каналу связи в реальном времени и система для его осуществления |
GB2544800A (en) * | 2015-11-27 | 2017-05-31 | V-Nova Ltd | Adaptive bit rate ratio control |
CN105898531A (zh) * | 2015-12-07 | 2016-08-24 | 乐视云计算有限公司 | 视频缓存文件的封装方法和系统 |
WO2017105391A1 (en) * | 2015-12-14 | 2017-06-22 | Arris Enterprises, Inc. | A method to encode video with close multiple scene changes |
US10652298B2 (en) * | 2015-12-17 | 2020-05-12 | Intel Corporation | Media streaming through section change detection markers |
US10368074B2 (en) | 2016-03-18 | 2019-07-30 | Microsoft Technology Licensing, Llc | Opportunistic frame dropping for variable-frame-rate encoding |
JP6168671B1 (ja) * | 2016-03-24 | 2017-07-26 | 株式会社日立国際電気 | 映像切替装置を備えた符号化装置および映像切替検知方法を含む符号化方法 |
US10958695B2 (en) * | 2016-06-21 | 2021-03-23 | Google Llc | Methods, systems, and media for recommending content based on network conditions |
US10491963B1 (en) * | 2016-06-28 | 2019-11-26 | Amazon Technologies, Inc. | Use video codecs to deliver images |
US10440366B2 (en) * | 2016-07-01 | 2019-10-08 | Intel Corporation | Method and system of video coding using content based metadata |
US10686969B2 (en) * | 2016-07-08 | 2020-06-16 | NETFLIX Inc. | Detecting shot changes in a video |
WO2018012366A1 (ja) * | 2016-07-13 | 2018-01-18 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 復号装置、符号化装置、復号方法及び符号化方法 |
US10931980B2 (en) | 2016-07-19 | 2021-02-23 | Electronics And Telecommunications Research Institute | Method and apparatus for providing 360 degree virtual reality broadcasting service |
WO2018016879A1 (ko) * | 2016-07-19 | 2018-01-25 | 한국전자통신연구원 | 360도 가상현실 방송 서비스 제공 방법 및 장치 |
US10367865B2 (en) | 2016-07-28 | 2019-07-30 | Verizon Digital Media Services Inc. | Encodingless transmuxing |
WO2018023554A1 (en) * | 2016-08-04 | 2018-02-08 | SZ DJI Technology Co., Ltd. | System and methods for bit rate control |
US10708666B2 (en) * | 2016-08-29 | 2020-07-07 | Qualcomm Incorporated | Terrestrial broadcast television services over a cellular broadcast system |
US10368080B2 (en) | 2016-10-21 | 2019-07-30 | Microsoft Technology Licensing, Llc | Selective upsampling or refresh of chroma sample values |
US10565305B2 (en) * | 2016-11-18 | 2020-02-18 | Salesforce.Com, Inc. | Adaptive attention model for image captioning |
CN114115609A (zh) | 2016-11-25 | 2022-03-01 | 株式会社半导体能源研究所 | 显示装置及其工作方法 |
US10121337B2 (en) * | 2016-12-30 | 2018-11-06 | Axis Ab | Gaze controlled bit rate |
US10123020B2 (en) | 2016-12-30 | 2018-11-06 | Axis Ab | Block level update rate control based on gaze sensing |
US10715814B2 (en) * | 2017-02-23 | 2020-07-14 | Netflix, Inc. | Techniques for optimizing encoding parameters for different shot sequences |
US10199270B2 (en) | 2017-05-25 | 2019-02-05 | Globalfoundries Inc. | Multi-directional self-aligned multiple patterning |
US10701364B2 (en) * | 2017-10-26 | 2020-06-30 | Google Llc | Golden-frame group structure design using stillness detection |
KR102480310B1 (ko) * | 2017-11-06 | 2022-12-23 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US10798399B1 (en) * | 2017-12-11 | 2020-10-06 | Amazon Technologies, Inc. | Adaptive video compression |
CN108875525A (zh) * | 2018-01-04 | 2018-11-23 | 北京旷视科技有限公司 | 行为预测方法、装置、系统和存储介质 |
MX2020007969A (es) * | 2018-01-29 | 2020-10-28 | Vid Scale Inc | Conversión de velocidad ascendente de fotogramas con complejidad baja. |
CN108460523B (zh) * | 2018-02-12 | 2020-08-21 | 阿里巴巴集团控股有限公司 | 一种风控规则生成方法和装置 |
US10593257B2 (en) | 2018-03-15 | 2020-03-17 | Samsung Display Co., Ltd. | Stress profile compression |
TW201942870A (zh) | 2018-04-03 | 2019-11-01 | 香港商科科串流股份有限公司 | 位元率優化系統及方法 |
MX2020010474A (es) | 2018-04-05 | 2021-01-08 | Ericsson Telefon Ab L M | Informacion de control de enlace lateral de varias etapas. |
US10880550B2 (en) * | 2018-04-06 | 2020-12-29 | Comcast Cable Communications, Llc | Systems and methods for compressing video |
KR102495915B1 (ko) * | 2018-04-30 | 2023-02-03 | 삼성전자 주식회사 | 스토리지 장치 및 상기 스토리지 장치를 포함하는 서버 |
US10630748B1 (en) * | 2018-05-01 | 2020-04-21 | Amazon Technologies, Inc. | Video-based encoder alignment |
US10958987B1 (en) | 2018-05-01 | 2021-03-23 | Amazon Technologies, Inc. | Matching based on video data |
US10630990B1 (en) | 2018-05-01 | 2020-04-21 | Amazon Technologies, Inc. | Encoder output responsive to quality metric information |
US10522108B2 (en) * | 2018-05-23 | 2019-12-31 | Qualcomm Incorporated | Optimized histogram reads for efficient display post processing and improved power gains |
US20210377330A1 (en) * | 2018-10-22 | 2021-12-02 | Radiant Communications Corporation | Low-latency video internet streaming for management and transmission of multiple data streams |
US11272185B2 (en) * | 2018-10-31 | 2022-03-08 | Ati Technologies Ulc | Hierarchical measurement of spatial activity for text/edge detection |
CN109286825B (zh) * | 2018-12-14 | 2021-04-30 | 北京百度网讯科技有限公司 | 用于处理视频的方法和装置 |
US11166028B2 (en) * | 2019-02-01 | 2021-11-02 | Comcast Cable Communications, Llc | Methods and systems for providing variable bitrate content |
US11019374B2 (en) | 2019-02-04 | 2021-05-25 | Netflix, Inc. | Techniques for efficiently performing subsequence-based encoding for a media title |
WO2020185471A1 (en) * | 2019-03-08 | 2020-09-17 | Beijing Dajia Internet Information Technology Co., Ltd. | Video coding for handling different picture sizes |
CN112954329B (zh) | 2019-03-11 | 2022-08-26 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
CN113728633B (zh) | 2019-04-01 | 2022-12-20 | 北京字节跳动网络技术有限公司 | 对基于历史的运动矢量预测使用插值滤波器 |
US11276419B2 (en) | 2019-07-30 | 2022-03-15 | International Business Machines Corporation | Synchronized sound generation from videos |
JP7359942B2 (ja) | 2019-08-20 | 2023-10-11 | 北京字節跳動網絡技術有限公司 | 映像処理における代替の補間フィルタの選択的使用 |
KR20210022841A (ko) | 2019-08-21 | 2021-03-04 | (주)코위 | 멀티플렉서와 psip 생성기를 이용한 다중 출력 인코더 |
US11132944B2 (en) | 2019-09-18 | 2021-09-28 | Samsung Display Co., Ltd. | Unbiased iterative compression on additive data using dither |
JP7370047B2 (ja) | 2019-10-29 | 2023-10-27 | 株式会社ニッキ | エンジンの失火診断検出方法 |
CN112788198B (zh) * | 2019-11-11 | 2024-04-23 | 株式会社理光 | 摄影装置、传送系统及方法、记录介质和计算机装置 |
EP3829169B1 (en) * | 2019-11-29 | 2021-10-13 | Axis AB | Method for intra refresh encoding of a plurality of image frames using convex and concave distribution functions |
US11843772B2 (en) * | 2019-12-06 | 2023-12-12 | Ati Technologies Ulc | Video encode pre-analysis bit budgeting based on context and features |
US11284074B2 (en) * | 2019-12-20 | 2022-03-22 | Intel Corporation | Cross-channel look ahead rate control for multi-channel video encoding |
JP2021103875A (ja) * | 2019-12-25 | 2021-07-15 | キヤノン株式会社 | 画像符号化装置及び画像復号装置、並びにそれらの制御方法及びプログラム、及び、撮像装置 |
US11962781B2 (en) * | 2020-02-13 | 2024-04-16 | Ssimwave Inc. | Video encoding complexity measure system |
CN113411584A (zh) * | 2020-03-17 | 2021-09-17 | 北京三星通信技术研究有限公司 | 视频编解码的方法和装置 |
TWI747236B (zh) * | 2020-04-17 | 2021-11-21 | 倚天酷碁股份有限公司 | 音源訊號調整方法及電子裝置 |
CN111680548A (zh) * | 2020-04-27 | 2020-09-18 | 哈尔滨工程大学 | 一种小波在线去噪的无失真边界延拓方法 |
CN111310744B (zh) * | 2020-05-11 | 2020-08-11 | 腾讯科技(深圳)有限公司 | 图像识别方法、视频播放方法、相关设备及介质 |
US11388415B2 (en) * | 2020-05-12 | 2022-07-12 | Tencent America LLC | Substitutional end-to-end video coding |
WO2022073596A1 (en) * | 2020-10-07 | 2022-04-14 | Telefonaktiebolaget Lm Ericsson (Publ) | A system and method to minimize repetitive flashes in streaming media content |
EP3985974B1 (en) | 2020-10-13 | 2023-05-10 | Axis AB | An image processing device, a camera and a method for encoding a sequence of video images |
CN117529922A (zh) * | 2021-06-29 | 2024-02-06 | 夏普株式会社 | 用于在多维数据的编码中压缩特征数据的系统和方法 |
US20230215255A1 (en) * | 2022-01-04 | 2023-07-06 | Google Llc | Batch Size Adjustment Using Latency-Critical Event Recognition |
US20240073423A1 (en) * | 2022-08-24 | 2024-02-29 | Synamedia Vividtec Holdings, Inc. | Content-Adaptive Encoder Configuration |
CN116260973B (zh) * | 2023-03-31 | 2024-03-19 | 北京百度网讯科技有限公司 | 一种时域滤波方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030073254A (ko) * | 2002-03-09 | 2003-09-19 | 삼성전자주식회사 | 시공간적 복잡도를 고려한 적응적 동영상 부호화 방법 및그 장치 |
KR20040046320A (ko) * | 2002-11-27 | 2004-06-05 | 엘지전자 주식회사 | 동영상 부호화 방법 |
Family Cites Families (290)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US674474A (en) * | 1901-02-04 | 1901-05-21 | Henry D Schutte | Placket-closure. |
DE3375355D1 (en) | 1982-07-21 | 1988-02-25 | Mathys Marthinus Venter | Implement for depositing an agricultural material in the soil |
FR2646047B1 (fr) | 1989-04-13 | 1995-08-04 | Telediffusion Fse | Procede et installation de codage et de transmission d'images animees sous forme numerique a bas debit |
JP2909239B2 (ja) | 1991-03-27 | 1999-06-23 | 株式会社東芝 | 高能率符号化記録再生装置 |
JP3189292B2 (ja) | 1991-05-09 | 2001-07-16 | 松下電器産業株式会社 | 走査線補間装置 |
JP2861518B2 (ja) * | 1991-09-03 | 1999-02-24 | 日本電気株式会社 | 適応多重化方式 |
KR0121328B1 (ko) | 1991-12-13 | 1997-11-17 | 사또오 후미오 | 디지탈 신호 기록 재생 장치 |
IT1252546B (it) | 1991-12-18 | 1995-06-19 | Alcatel Italia | Metodo e sistema per adattare il ciclo di frequenza di refresh alla complessita' dell'immagine |
JPH05344492A (ja) | 1992-06-11 | 1993-12-24 | Ricoh Co Ltd | フレーム間予測符号化方式 |
US5289276A (en) * | 1992-06-19 | 1994-02-22 | General Electric Company | Method and apparatus for conveying compressed video data over a noisy communication channel |
JP2611607B2 (ja) | 1992-06-29 | 1997-05-21 | 日本ビクター株式会社 | シーンチェンジ検出装置 |
FR2700090B1 (fr) | 1992-12-30 | 1995-01-27 | Thomson Csf | Procédé de désentrelacement de trames d'une séquence d'images animées. |
JP2979900B2 (ja) | 1993-05-26 | 1999-11-15 | 日本ビクター株式会社 | 記録媒体 |
EP0627853B1 (en) | 1993-06-03 | 2000-11-15 | Matsushita Electric Industrial Co., Ltd. | Picture reproduction apparatus and picture decoding apparatus |
JP3844490B2 (ja) | 1993-07-19 | 2006-11-15 | ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | ビデオ画像におけるエラー検出検出方法および検出装置 |
CA2127151A1 (en) | 1993-09-21 | 1995-03-22 | Atul Puri | Spatially scalable video encoding and decoding |
US5991502A (en) | 1993-10-04 | 1999-11-23 | Matsushita Electric Industrial Co., Ltd. | Optical recording device which calculates distances between I-frames and records I-frame addresses in a sector |
AU681185B2 (en) | 1993-10-22 | 1997-08-21 | Sony Corporation | apparatus and method for recording and reproducing digital video data |
JP3173257B2 (ja) | 1993-11-09 | 2001-06-04 | 松下電器産業株式会社 | 符号化方法と符号化装置 |
JP2734953B2 (ja) | 1993-12-16 | 1998-04-02 | 日本電気株式会社 | Cdma受信装置 |
JP2839132B2 (ja) | 1993-12-17 | 1998-12-16 | 日本電信電話株式会社 | 映像カット点検出方法及び装置 |
US5642294A (en) | 1993-12-17 | 1997-06-24 | Nippon Telegraph And Telephone Corporation | Method and apparatus for video cut detection |
US5446491A (en) * | 1993-12-21 | 1995-08-29 | Hitachi, Ltd. | Multi-point video conference system wherein each terminal comprises a shared frame memory to store information from other terminals |
JP3149303B2 (ja) | 1993-12-29 | 2001-03-26 | 松下電器産業株式会社 | デジタル画像符号化方法及びデジタル画像復号化方法 |
US5592226A (en) | 1994-01-26 | 1997-01-07 | Btg Usa Inc. | Method and apparatus for video data compression using temporally adaptive motion interpolation |
US6798834B1 (en) | 1996-08-15 | 2004-09-28 | Mitsubishi Denki Kabushiki Kaisha | Image coding apparatus with segment classification and segmentation-type motion prediction circuit |
JPH0846969A (ja) * | 1994-07-26 | 1996-02-16 | Mitsubishi Electric Corp | 映像信号符号化方式 |
KR100213015B1 (ko) | 1994-03-31 | 1999-08-02 | 윤종용 | 양자화 방법 및 회로 |
US6091460A (en) | 1994-03-31 | 2000-07-18 | Mitsubishi Denki Kabushiki Kaisha | Video signal encoding method and system |
US5508752A (en) * | 1994-04-12 | 1996-04-16 | Lg Electronics Inc. | Partial response trellis decoder for high definition television (HDTV) system |
JPH07298272A (ja) * | 1994-04-28 | 1995-11-10 | Canon Inc | 映像符号化装置 |
US5706386A (en) | 1994-05-24 | 1998-01-06 | Sony Corporation | Image information recording method and apparatus, image information reproducing method and apparatus and editing method and system |
WO1995035628A1 (en) | 1994-06-17 | 1995-12-28 | Snell & Wilcox Limited | Video compression |
US5521644A (en) | 1994-06-30 | 1996-05-28 | Eastman Kodak Company | Mechanism for controllably deinterlacing sequential lines of video data field based upon pixel signals associated with four successive interlaced video fields |
KR100213018B1 (ko) | 1994-07-30 | 1999-08-02 | 윤종용 | 동화상 부호화장치 |
JP3755155B2 (ja) | 1994-09-30 | 2006-03-15 | ソニー株式会社 | 画像符号化装置 |
JPH0918782A (ja) | 1995-06-29 | 1997-01-17 | Sony Corp | 映像信号処理方法及び装置 |
MY115648A (en) | 1995-08-23 | 2003-08-30 | Sony Corp | Encoding/decoding fields of predetermined field polarity apparatus and method |
JPH0974566A (ja) * | 1995-09-04 | 1997-03-18 | Sony Corp | 圧縮符号化装置及び圧縮符号化データの記録装置 |
EP0847199B1 (en) | 1995-09-29 | 1999-04-28 | Matsushita Electric Industrial Co., Ltd. | Method, disc and device for encoding seamless-connection of telecine-converted video data |
JPH09130732A (ja) | 1995-11-01 | 1997-05-16 | Matsushita Electric Ind Co Ltd | シーンチェンジ検出方法および動画像編集装置 |
US5835163A (en) | 1995-12-21 | 1998-11-10 | Siemens Corporate Research, Inc. | Apparatus for detecting a cut in a video |
US5682204A (en) | 1995-12-26 | 1997-10-28 | C Cube Microsystems, Inc. | Video encoder which uses intra-coding when an activity level of a current macro-block is smaller than a threshold level |
US5821991A (en) | 1996-02-28 | 1998-10-13 | C-Cube Microsystems, Inc. | Method and apparatus for inverse telecine process by correlating vectors of pixel differences |
US5929902A (en) | 1996-02-28 | 1999-07-27 | C-Cube Microsystems | Method and apparatus for inverse telecine processing by fitting 3:2 pull-down patterns |
US6157674A (en) | 1996-03-21 | 2000-12-05 | Sony Corporation | Audio and video data transmitting apparatus, system, and method thereof |
GB9607645D0 (en) | 1996-04-12 | 1996-06-12 | Snell & Wilcox Ltd | Processing of video signals prior to compression |
JPH09284770A (ja) | 1996-04-13 | 1997-10-31 | Sony Corp | 画像符号化装置および方法 |
JPH1013826A (ja) | 1996-06-21 | 1998-01-16 | Sony Corp | 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、画像送信装置、画像受信装置、並びに記録媒体 |
US7095874B2 (en) | 1996-07-02 | 2006-08-22 | Wistaria Trading, Inc. | Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data |
US6643506B1 (en) | 1996-08-07 | 2003-11-04 | Telxon Corporation | Wireless software upgrades with version control |
US5793895A (en) | 1996-08-28 | 1998-08-11 | International Business Machines Corporation | Intelligent error resilient video encoder |
KR100389893B1 (ko) | 1996-11-09 | 2003-09-19 | 삼성전자주식회사 | 영상 특성 분류법을 이용한 영상 부호화 장치 |
FR2756399B1 (fr) | 1996-11-28 | 1999-06-25 | Thomson Multimedia Sa | Procede et dispositif de compression video pour images de synthese |
US6553068B1 (en) | 1997-03-12 | 2003-04-22 | Matsushita Electric Industrial Co., Ltd. | Video signal coding method and device adapted to control code amounts according to the characteristics of pictures |
JPH10313463A (ja) | 1997-03-12 | 1998-11-24 | Matsushita Electric Ind Co Ltd | 映像信号符号化方法及び符号化装置 |
US6333950B1 (en) | 1997-04-18 | 2001-12-25 | Canon Kabushiki Kaisha | Encoding apparatus and method and computer readable recording medium in which encoding program has been recorded |
JP3679606B2 (ja) | 1997-04-18 | 2005-08-03 | キヤノン株式会社 | 符号化装置及び方法並びに符号化プログラムが記録されたコンピュータ可読記録媒体 |
JP3588970B2 (ja) * | 1997-04-30 | 2004-11-17 | ソニー株式会社 | 信号符号化方法、信号符号化装置、信号記録媒体及び信号伝送方法 |
FR2764156B1 (fr) | 1997-05-27 | 1999-11-05 | Thomson Broadcast Systems | Dispositif de pretraitement pour codage mpeg ii |
US5864369A (en) * | 1997-06-16 | 1999-01-26 | Ati International Srl | Method and apparatus for providing interlaced video on a progressive display |
US6012091A (en) * | 1997-06-30 | 2000-01-04 | At&T Corporation | Video telecommunications server and method of providing video fast forward and reverse |
KR100226722B1 (ko) * | 1997-07-30 | 1999-10-15 | 구자홍 | 동영상 움직임 벡터 추정 방법 |
US5978029A (en) | 1997-10-10 | 1999-11-02 | International Business Machines Corporation | Real-time encoding of video sequence employing two encoders and statistical analysis |
US6574211B2 (en) * | 1997-11-03 | 2003-06-03 | Qualcomm Incorporated | Method and apparatus for high rate packet data transmission |
US5956026A (en) | 1997-12-19 | 1999-09-21 | Sharp Laboratories Of America, Inc. | Method for hierarchical summarization and browsing of digital video |
US6115499A (en) | 1998-01-14 | 2000-09-05 | C-Cube Semiconductor Ii, Inc. | Repeat field detection using checkerboard pattern |
US6175650B1 (en) | 1998-01-26 | 2001-01-16 | Xerox Corporation | Adaptive quantization compatible with the JPEG baseline sequential mode |
WO1999043157A1 (en) | 1998-02-19 | 1999-08-26 | Motorola Inc. | System and method for non-causal encoding of video information for improved streaming thereof |
JP3649370B2 (ja) | 1998-02-25 | 2005-05-18 | 日本ビクター株式会社 | 動き補償符号化装置及び動き補償符号化方法 |
JP3738939B2 (ja) | 1998-03-05 | 2006-01-25 | Kddi株式会社 | 動画像のカット点検出装置 |
EP0946054B1 (en) | 1998-03-09 | 2005-06-08 | Sony International (Europe) GmbH | Weighted median filter interpolator |
US6895048B2 (en) | 1998-03-20 | 2005-05-17 | International Business Machines Corporation | Adaptive encoding of a sequence of still frames or partially still frames within motion video |
US6538688B1 (en) * | 1998-07-02 | 2003-03-25 | Terran Interactive | Method and apparatus for performing an automated inverse telecine process |
JP2000032474A (ja) | 1998-07-08 | 2000-01-28 | Sharp Corp | 動画像符号化装置 |
JP2000059774A (ja) | 1998-08-06 | 2000-02-25 | Nippon Telegr & Teleph Corp <Ntt> | 映像符号化制御装置 |
US6580829B1 (en) | 1998-09-25 | 2003-06-17 | Sarnoff Corporation | Detecting and coding flash frames in video data |
KR20010099660A (ko) | 1998-09-29 | 2001-11-09 | 매클린토크 샤운 엘 | 고품위 텔레비전 인코더에서 장면변화의 검출 및화면코딩타입의 조정을 행하기 위한 방법 및 장치 |
JP3921841B2 (ja) * | 1998-10-16 | 2007-05-30 | ソニー株式会社 | 信号処理装置および方法、ならびに、記録装置、再生装置および記録再生装置 |
JP2000209553A (ja) | 1998-11-13 | 2000-07-28 | Victor Co Of Japan Ltd | 情報信号記録装置及び再生装置 |
US6297848B1 (en) | 1998-11-25 | 2001-10-02 | Sharp Laboratories Of America, Inc. | Low-delay conversion of 3:2 pulldown video to progressive format with field averaging |
JP3260713B2 (ja) | 1998-12-21 | 2002-02-25 | 日本電気株式会社 | 無線基地局のプログラムダウンロード方式 |
US6618507B1 (en) | 1999-01-25 | 2003-09-09 | Mitsubishi Electric Research Laboratories, Inc | Methods of feature extraction of video sequences |
JP3588564B2 (ja) | 1999-03-31 | 2004-11-10 | 株式会社東芝 | 映像データ記録装置 |
US6724819B1 (en) | 1999-04-02 | 2004-04-20 | Matsushitas Electric Industrial Co., Ltd. | Moving picture transmission apparatus, moving picture reception apparatus, and moving picture data record medium |
JP3591712B2 (ja) | 1999-04-02 | 2004-11-24 | 松下電器産業株式会社 | 動画送信装置及び動画受信装置 |
JP2000295626A (ja) | 1999-04-08 | 2000-10-20 | Mitsubishi Electric Corp | 多段画像符号化装置 |
US6325805B1 (en) | 1999-04-23 | 2001-12-04 | Sdgi Holdings, Inc. | Shape memory alloy staple |
JP2002543714A (ja) | 1999-04-30 | 2002-12-17 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Bフレーム・エンコーディング・モードを有するビデオ・エンコーディング方法 |
JP4287538B2 (ja) | 1999-04-30 | 2009-07-01 | パナソニック株式会社 | 画像信号切替方法及び装置並びにこれを用いたデジタル撮像カメラ及び監視システム |
GB2352350B (en) | 1999-07-19 | 2003-11-05 | Nokia Mobile Phones Ltd | Video coding |
JP3669619B2 (ja) * | 1999-09-06 | 2005-07-13 | 富士通株式会社 | 無線端末装置のソフトウェア更新方法及びその装置 |
DE19951324C2 (de) * | 1999-10-20 | 2003-07-17 | Atotech Deutschland Gmbh | Verfahren und Vorrichtung zum elektrolytischen Behandeln von elektrisch leitfähigen Oberflächen von gegeneinander vereinzelten Platten- und Folienmaterialstücken sowie Anwendung des Verfahrens |
US6370672B1 (en) | 1999-11-01 | 2002-04-09 | Lsi Logic Corporation | Determining the received data rate in a variable rate communications system |
GB2359918A (en) | 2000-03-01 | 2001-09-05 | Sony Uk Ltd | Audio and/or video generation apparatus having a metadata generator |
US6639943B1 (en) | 1999-11-23 | 2003-10-28 | Koninklijke Philips Electronics N.V. | Hybrid temporal-SNR fine granular scalability video coding |
JP2001169251A (ja) | 1999-12-03 | 2001-06-22 | Sony Corp | 記録装置および方法、ならびに、再生装置および方法 |
US7116717B1 (en) | 1999-12-15 | 2006-10-03 | Bigband Networks, Inc. | Method and system for scalable representation, storage, transmission and reconstruction of media streams |
US7093028B1 (en) | 1999-12-15 | 2006-08-15 | Microsoft Corporation | User and content aware object-based data stream transmission methods and arrangements |
US6449002B1 (en) | 1999-12-21 | 2002-09-10 | Thomson Licensing S.A. | Truncated metric for NTSC interference rejection in the ATSC-HDTV trellis decoder |
JP2001045494A (ja) | 2000-01-01 | 2001-02-16 | Mitsubishi Electric Corp | 画像符号化装置 |
US6912528B2 (en) | 2000-01-18 | 2005-06-28 | Gregg S. Homer | Rechargeable media distribution and play system |
JP2001204026A (ja) | 2000-01-21 | 2001-07-27 | Sony Corp | 画像情報変換装置及び方法 |
IL134182A (en) | 2000-01-23 | 2006-08-01 | Vls Com Ltd | Method and apparatus for visual lossless pre-processing |
US6600836B1 (en) * | 2000-01-28 | 2003-07-29 | Qualcomm, Incorporated | Quality based image compression |
EP1169866A1 (en) * | 2000-02-01 | 2002-01-09 | Koninklijke Philips Electronics N.V. | Video encoding with a two step motion estimation for p-frames |
US6574279B1 (en) | 2000-02-02 | 2003-06-03 | Mitsubishi Electric Research Laboratories, Inc. | Video transcoding using syntactic and semantic clues |
US6542546B1 (en) | 2000-02-02 | 2003-04-01 | Mitsubishi Electric Research Laboratories, Inc. | Adaptable compressed bitstream transcoder |
US6490320B1 (en) | 2000-02-02 | 2002-12-03 | Mitsubishi Electric Research Laboratories Inc. | Adaptable bitstream video delivery system |
JP3960451B2 (ja) | 2000-03-06 | 2007-08-15 | Kddi株式会社 | シーン特性検出型動画像符号化装置 |
SE0000766L (sv) | 2000-03-08 | 2001-06-25 | Sem Ab | Krets för tändförställning, varvtalsbegränsning och förhindrande av baklängesgång i magnettändsystem |
CA2374067C (en) | 2000-03-13 | 2012-09-25 | Sony Corporation | Method and apparatus for generating compact transcoding hints metadata |
US20020154705A1 (en) | 2000-03-22 | 2002-10-24 | Walton Jay R. | High efficiency high performance communications system employing multi-carrier modulation |
US7009656B2 (en) | 2000-04-07 | 2006-03-07 | Snell & Wilcox Limited | Video signal processing |
US6867814B2 (en) | 2000-04-18 | 2005-03-15 | Silicon Image, Inc. | Method, system and article of manufacture for identifying the source type and quality level of a video sequence |
US6507618B1 (en) * | 2000-04-25 | 2003-01-14 | Hewlett-Packard Company | Compressed video signal including independently coded regions |
EP1152621A1 (en) * | 2000-05-05 | 2001-11-07 | STMicroelectronics S.r.l. | Motion estimation process and system. |
JP4517453B2 (ja) | 2000-05-30 | 2010-08-04 | ソニー株式会社 | 画像情報変換装置及び方法並びに符号化装置及び方法 |
JP2001346214A (ja) | 2000-06-05 | 2001-12-14 | Sony Corp | 画像情報変換装置及び方法 |
US6647061B1 (en) | 2000-06-09 | 2003-11-11 | General Instrument Corporation | Video size conversion and transcoding from MPEG-2 to MPEG-4 |
KR100708091B1 (ko) | 2000-06-13 | 2007-04-16 | 삼성전자주식회사 | 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법 |
JP2002010259A (ja) | 2000-06-21 | 2002-01-11 | Mitsubishi Electric Corp | 画像符号化装置及び画像符号化方法及び画像符号化プログラムを記録した記録媒体 |
CA2352729A1 (en) * | 2000-07-13 | 2002-01-13 | Creoscitex Corporation Ltd. | Blazed micro-mechanical light modulator and array thereof |
US20040125877A1 (en) | 2000-07-17 | 2004-07-01 | Shin-Fu Chang | Method and system for indexing and content-based adaptive streaming of digital video content |
JP4517475B2 (ja) | 2000-07-26 | 2010-08-04 | ソニー株式会社 | 画像情報変換装置及び方法並びに符号化装置及び方法 |
KR20020010171A (ko) | 2000-07-27 | 2002-02-04 | 오길록 | 블록 정합 움직임 추정을 위한 적응적 예측 방향성 탐색방법 |
JP2002064817A (ja) | 2000-08-21 | 2002-02-28 | Kddi Research & Development Laboratories Inc | オブジェクトスケーラブル符号化装置 |
FI120125B (fi) * | 2000-08-21 | 2009-06-30 | Nokia Corp | Kuvankoodaus |
JP3903703B2 (ja) | 2000-09-01 | 2007-04-11 | 株式会社日立製作所 | 順次走査変換回路 |
JP2002094994A (ja) | 2000-09-19 | 2002-03-29 | Nec Corp | 動画再生処理装置および動画再生処理方法 |
US7038736B2 (en) * | 2000-09-21 | 2006-05-02 | Canon Kabushiki Kaisha | Moving image processing apparatus and method, and computer readable memory |
CN1258922C (zh) | 2000-09-22 | 2006-06-07 | 皇家菲利浦电子有限公司 | 细粒可分级性的最佳传输/流式顺序 |
JP2002101416A (ja) | 2000-09-25 | 2002-04-05 | Fujitsu Ltd | 画像制御装置 |
JP2002125227A (ja) | 2000-10-11 | 2002-04-26 | Sony Corp | 画像情報変換装置及び方法 |
US7095814B2 (en) | 2000-10-11 | 2006-08-22 | Electronics And Telecommunications Research Institute | Apparatus and method for very high performance space-time array reception processing using chip-level beamforming and fading rate adaptation |
EP1352526B1 (en) | 2000-11-23 | 2006-06-14 | Koninklijke Philips Electronics N.V. | Video decoding method and corresponding decoder |
EP1209624A1 (en) | 2000-11-27 | 2002-05-29 | Sony International (Europe) GmbH | Method for compressed imaging artefact reduction |
US7203238B2 (en) * | 2000-12-11 | 2007-04-10 | Sony Corporation | 3:2 Pull-down detection |
US7058130B2 (en) | 2000-12-11 | 2006-06-06 | Sony Corporation | Scene change detection |
US6934335B2 (en) | 2000-12-11 | 2005-08-23 | Sony Corporation | Video encoder with embedded scene change and 3:2 pull-down detections |
US6744474B2 (en) * | 2000-12-13 | 2004-06-01 | Thomson Licensing S.A. | Recursive metric for NTSC interference rejection in the ATSC-HDTV trellis decoder |
US6807234B2 (en) | 2000-12-19 | 2004-10-19 | Intel Corporation | Method and apparatus for constellation mapping and bitloading in multi-carrier transceivers, such as DMT-based DSL transceivers |
GB2372394B (en) | 2000-12-22 | 2004-09-22 | Matsushita Electric Ind Co Ltd | Interpolation apparatus and video signal processing apparatus including the same |
CA2330854A1 (en) | 2001-01-11 | 2002-07-11 | Jaldi Semiconductor Corp. | A system and method for detecting a non-video source in video signals |
US6987728B2 (en) | 2001-01-23 | 2006-01-17 | Sharp Laboratories Of America, Inc. | Bandwidth allocation system |
JP4336051B2 (ja) | 2001-01-31 | 2009-09-30 | 株式会社エヌ・ティ・ティ・ドコモ | 無線通信端末、発呼制限方法及びプログラム |
US6721361B1 (en) | 2001-02-23 | 2004-04-13 | Yesvideo.Com | Video processing system including advanced scene break detection methods for fades, dissolves and flashes |
JP2004532540A (ja) | 2001-03-05 | 2004-10-21 | インタービデオインコーポレイテッド | 誤り耐性のある符号化のためのシステム及び方法 |
KR100783396B1 (ko) * | 2001-04-19 | 2007-12-10 | 엘지전자 주식회사 | 부호기의 서브밴드 분할을 이용한 시공간 스케일러빌러티방법 |
US6947598B2 (en) | 2001-04-20 | 2005-09-20 | Front Porch Digital Inc. | Methods and apparatus for generating, including and using information relating to archived audio/video data |
US7072975B2 (en) | 2001-04-24 | 2006-07-04 | Wideray Corporation | Apparatus and method for communicating information to portable computing devices |
US20020163964A1 (en) | 2001-05-02 | 2002-11-07 | Nichols James B. | Apparatus and method for compressing video |
US6909745B1 (en) | 2001-06-05 | 2005-06-21 | At&T Corp. | Content adaptive video encoder |
KR100803115B1 (ko) | 2001-06-07 | 2008-02-14 | 엘지전자 주식회사 | 적응 안테나 어레이가 구비된 wcdma 시스템에서의 신호 처리 방법 이를 위한 시스템 |
KR100393066B1 (ko) | 2001-06-11 | 2003-07-31 | 삼성전자주식회사 | 적응 움직임 보상형 디-인터레이싱 장치 및 그 방법 |
JP2002051336A (ja) | 2001-06-15 | 2002-02-15 | Sharp Corp | 画像符号化装置及び画像復号装置 |
US7483581B2 (en) * | 2001-07-02 | 2009-01-27 | Qualcomm Incorporated | Apparatus and method for encoding digital image data in a lossless manner |
JP2003037844A (ja) | 2001-07-23 | 2003-02-07 | Sharp Corp | 動画像符号化装置 |
JP3820937B2 (ja) | 2001-08-06 | 2006-09-13 | 株式会社島津製作所 | X線検査装置 |
KR100440953B1 (ko) | 2001-08-18 | 2004-07-21 | 삼성전자주식회사 | 영상 압축 비트 스트림의 트랜스코딩 방법 |
US6959044B1 (en) | 2001-08-21 | 2005-10-25 | Cisco Systems Canada Co. | Dynamic GOP system and method for digital video encoding |
US7359466B2 (en) | 2001-08-24 | 2008-04-15 | Lucent Technologies Inc. | Signal detection by a receiver in a multiple antenna time-dispersive system |
US6784942B2 (en) * | 2001-10-05 | 2004-08-31 | Genesis Microchip, Inc. | Motion adaptive de-interlacing method and apparatus |
TW536918B (en) | 2001-11-01 | 2003-06-11 | Aiptek Int Inc | Method to increase the temporal resolution of continuous image series |
JP2003209837A (ja) | 2001-11-09 | 2003-07-25 | Matsushita Electric Ind Co Ltd | 動画像符号化方法及び動画像符号化装置 |
US20040190609A1 (en) | 2001-11-09 | 2004-09-30 | Yasuhiko Watanabe | Moving picture coding method and apparatus |
US6847680B2 (en) | 2001-12-17 | 2005-01-25 | Mitsubishi Electric Research Laboratories, Inc. | Method for detecting talking heads in a compressed video |
US20030118097A1 (en) | 2001-12-21 | 2003-06-26 | Koninklijke Philips Electronics N.V. | System for realization of complexity scalability in a layered video coding framework |
KR100446083B1 (ko) | 2002-01-02 | 2004-08-30 | 삼성전자주식회사 | 움직임 추정 및 모드 결정 장치 및 방법 |
US20030142762A1 (en) * | 2002-01-11 | 2003-07-31 | Burke Joseph P. | Wireless receiver method and apparatus using space-cover-time equalization |
US7139551B2 (en) | 2002-01-19 | 2006-11-21 | Sasken Communication Technologies Ltd. | System and method for automatically downloading software applications to a remote terminal |
JP2003224847A (ja) | 2002-01-29 | 2003-08-08 | Sony Corp | 画像符号化装置とその方法、および、画像復号化装置とその方法 |
US6700935B2 (en) | 2002-02-08 | 2004-03-02 | Sony Electronics, Inc. | Stream based bitrate transcoder for MPEG coded video |
US6996186B2 (en) | 2002-02-22 | 2006-02-07 | International Business Machines Corporation | Programmable horizontal filter with noise reduction and image scaling for video encoding system |
AU2003215752A1 (en) * | 2002-03-27 | 2003-10-13 | British Telecommunications Public Limited Company | Video coding and transmission |
US20030185302A1 (en) | 2002-04-02 | 2003-10-02 | Abrams Thomas Algie | Camera and/or camera converter |
CA2380105A1 (en) | 2002-04-09 | 2003-10-09 | Nicholas Routhier | Process and system for encoding and playback of stereoscopic video sequences |
KR100468726B1 (ko) | 2002-04-18 | 2005-01-29 | 삼성전자주식회사 | 실시간 가변 비트율 제어를 수행하는 부호화 장치 및 방법 |
US6985635B2 (en) | 2002-04-22 | 2006-01-10 | Koninklijke Philips Electronics N.V. | System and method for providing a single-layer video encoded bitstreams suitable for reduced-complexity decoding |
JP4135395B2 (ja) | 2002-04-26 | 2008-08-20 | 日本電気株式会社 | 符号化パケット伝送受信方法およびその装置ならびにプログラム |
JP3926203B2 (ja) | 2002-05-15 | 2007-06-06 | シャープ株式会社 | コンテンツ表示装置、コンテンツ表示プログラム、該プログラムを記録した記録媒体、およびコンテンツ表示方法 |
KR100850706B1 (ko) | 2002-05-22 | 2008-08-06 | 삼성전자주식회사 | 적응적 동영상 부호화 및 복호화 방법과 그 장치 |
US6536688B1 (en) * | 2002-05-24 | 2003-03-25 | Success & Tech Industrial Co., Ltd. | Two-piece hand grip structure of pistol nozzle with flow regulating control knob |
FR2840495B1 (fr) | 2002-05-29 | 2004-07-30 | Canon Kk | Procede et dispositif de selection d'une methode de transcodage parmi un ensemble de methodes de transcodage |
JP2004023288A (ja) | 2002-06-13 | 2004-01-22 | Kddi R & D Laboratories Inc | 動画像符号化のための前処理方式 |
US7436890B2 (en) * | 2002-06-05 | 2008-10-14 | Kddi R&D Laboratories, Inc. | Quantization control system for video coding |
CN1231055C (zh) | 2002-06-10 | 2005-12-07 | 成都威斯达芯片有限责任公司 | 电视中传送电影场景的数字检测装置 |
KR100553082B1 (ko) | 2002-06-20 | 2006-02-15 | 엘지전자 주식회사 | 이동통신 단말기의 무선 데이터 다운로드 이어받기 장치및 방법 |
US7167507B2 (en) * | 2002-07-01 | 2007-01-23 | Lucent Technologies Inc. | Equalizer and method for performing equalization in a wireless communications system |
US7136417B2 (en) | 2002-07-15 | 2006-11-14 | Scientific-Atlanta, Inc. | Chroma conversion optimization |
WO2004008747A2 (en) | 2002-07-16 | 2004-01-22 | Thomson Licensing S.A. | Interleaving of base and enhancement layers for hd-dvd |
KR100500196B1 (ko) | 2002-07-20 | 2005-07-12 | 학교법인 한국정보통신학원 | 멀티미디어 메타데이터의 오류 내성 부호화/복호화 장치및 방법 |
US7089313B2 (en) | 2002-07-25 | 2006-08-08 | Matsushita Electric Industrial Co., Ltd. | Protocol independent communication system for mobile devices |
KR20050058366A (ko) | 2002-08-21 | 2005-06-16 | 톰슨 라이센싱 에스.에이. | 사용자 장치에서의 디지털 데이터 워터마킹 |
US20040045038A1 (en) * | 2002-08-29 | 2004-03-04 | Duff John F. | System and method for the synchronized activation of external devices in association with video programs |
US6904081B2 (en) * | 2002-08-30 | 2005-06-07 | Motorola, Inc. | Spread spectrum receiver apparatus and method |
GB0222562D0 (en) | 2002-09-28 | 2002-11-06 | Koninkl Philips Electronics Nv | Method and apparatus for encoding image and or audio data |
JPWO2004033538A1 (ja) * | 2002-10-10 | 2006-03-02 | fA.M株式会社 | 樹脂組成物の製造方法 |
JP4294933B2 (ja) | 2002-10-16 | 2009-07-15 | 富士通株式会社 | マルチメディアコンテンツ編集装置およびマルチメディアコンテンツ再生装置 |
CN100438609C (zh) | 2002-10-22 | 2008-11-26 | 皇家飞利浦电子股份有限公司 | 带有降质的图像处理单元 |
KR100501933B1 (ko) | 2002-11-21 | 2005-07-18 | 삼성전자주식회사 | 멀티미디어 데이터 암호화 압축방법 및 장치 |
JP2006507745A (ja) | 2002-11-22 | 2006-03-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 可変長コード化されたデータ・ストリーム用のトランスコーダ |
EP1569460B1 (en) * | 2002-11-25 | 2013-05-15 | Panasonic Corporation | Motion compensation method, image encoding method, and image decoding method |
EP1574070A1 (en) | 2002-12-10 | 2005-09-14 | Koninklijke Philips Electronics N.V. | A unified metric for digital video processing (umdvp) |
AU2003280207A1 (en) | 2002-12-20 | 2004-07-14 | Koninklijke Philips Electronics N.V. | Segment-based motion estimation |
US7154555B2 (en) | 2003-01-10 | 2006-12-26 | Realnetworks, Inc. | Automatic deinterlacing and inverse telecine |
US7039855B2 (en) | 2003-01-22 | 2006-05-02 | Lsi Logic Corporation | Decision function generator for a Viterbi decoder |
DE602004029551D1 (de) | 2003-01-28 | 2010-11-25 | Thomson Licensing | Staggercasting im robusten modus |
JP2004248124A (ja) | 2003-02-17 | 2004-09-02 | Nippon Telegr & Teleph Corp <Ntt> | 階層的画像符号化装置および階層的画像復号装置 |
KR20040079084A (ko) | 2003-03-06 | 2004-09-14 | 삼성전자주식회사 | 시간적 복잡도를 고려한 적응적 동영상 부호화와 그 장치 |
US7062260B2 (en) | 2003-03-27 | 2006-06-13 | Nokia Corporation | Fetching application and driver for extension device from network |
US7075581B1 (en) * | 2003-06-03 | 2006-07-11 | Zoran Corporation | Interlaced-to-progressive scan conversion based on film source detection |
KR100518580B1 (ko) | 2003-06-10 | 2005-10-04 | 삼성전자주식회사 | 인버스 텔레시네 변환장치 및 변환방법 |
MXPA05013570A (es) | 2003-06-16 | 2006-08-18 | Thomson Licensing | Metodo de decodificacion y aparato que permite un cambio de canal rapido de video comprimido. |
JP2007525067A (ja) | 2003-06-19 | 2007-08-30 | トムソン ライセンシング | 低複雑性空間スケーラブル符号化のための方法および装置 |
KR100505694B1 (ko) | 2003-07-09 | 2005-08-02 | 삼성전자주식회사 | 직접 계산 방식에 의한 코드화 직교 주파수 분할 다중화수신기의 채널 상태 평가 장치 및 그 방법 |
US7406123B2 (en) | 2003-07-10 | 2008-07-29 | Mitsubishi Electric Research Laboratories, Inc. | Visual complexity measure for playing videos adaptively |
GB0316387D0 (en) * | 2003-07-12 | 2003-08-13 | Ncr Int Inc | Software updates |
TWI256778B (en) * | 2003-07-14 | 2006-06-11 | Interdigital Tech Corp | High performance wireless receiver with cluster multipath interference suppression circuit |
US7356073B2 (en) | 2003-09-10 | 2008-04-08 | Nokia Corporation | Method and apparatus providing an advanced MIMO receiver that includes a signal-plus-residual-interference (SPRI) detector |
US7332120B2 (en) | 2003-09-30 | 2008-02-19 | Salflex Polymers Ltd. | Method for molding running board with step plate |
US20050076057A1 (en) * | 2003-10-03 | 2005-04-07 | Puneet Sharma | Method and system for transferring video and audio files to portable computing devices |
US7840112B2 (en) | 2003-10-08 | 2010-11-23 | Intel Corporation | Gradually degrading multimedia recordings |
JP2005123732A (ja) | 2003-10-14 | 2005-05-12 | Matsushita Electric Ind Co Ltd | デブロックフィルタ処理装置およびデブロックフィルタ処理方法 |
KR20050037293A (ko) | 2003-10-18 | 2005-04-21 | 삼성전자주식회사 | 영상신호의 아티팩트 억제장치 및 그 방법 |
US7780886B2 (en) * | 2003-10-21 | 2010-08-24 | Certainteed Corporation | Insulation product having directional facing layer thereon and method of making the same |
EP2051510B1 (en) | 2003-10-30 | 2013-08-14 | Panasonic Corporation | Mobile-terminal-orientated transmission method and apparatus |
US9351013B2 (en) * | 2003-11-13 | 2016-05-24 | Qualcomm Incorporated | Selective and/or scalable complexity control for video codecs |
US7420618B2 (en) * | 2003-12-23 | 2008-09-02 | Genesis Microchip Inc. | Single chip multi-function display controller and method of use thereof |
US7320444B2 (en) | 2004-01-21 | 2008-01-22 | Fujifilm Corporation | Recording tape cartridge |
US10043170B2 (en) | 2004-01-21 | 2018-08-07 | Qualcomm Incorporated | Application-based value billing in a wireless subscriber network |
US7904039B2 (en) | 2004-01-30 | 2011-03-08 | UNIVERSITé LAVAL | Multi-user adaptive array receiver and method |
US20050168656A1 (en) | 2004-01-30 | 2005-08-04 | Wyman Richard H. | Method and system for quantized historical motion for motion detection in motion adaptive deinterlacer |
US7557861B2 (en) | 2004-01-30 | 2009-07-07 | Broadcom Corporation | Reverse pull-down video using corrective techniques |
US7483077B2 (en) | 2004-01-30 | 2009-01-27 | Broadcom Corporation | Method and system for control of a multi-field deinterlacer including providing visually pleasing start-up and shut-down |
US7529426B2 (en) | 2004-01-30 | 2009-05-05 | Broadcom Corporation | Correlation function for signal detection, match filters, and 3:2 pulldown detection |
US7324583B2 (en) | 2004-02-13 | 2008-01-29 | Nokia Corporation | Chip-level or symbol-level equalizer structure for multiple transmit and receiver antenna configurations |
KR100596705B1 (ko) | 2004-03-04 | 2006-07-04 | 삼성전자주식회사 | 비디오 스트리밍 서비스를 위한 비디오 코딩 방법과 비디오 인코딩 시스템, 및 비디오 디코딩 방법과 비디오 디코딩 시스템 |
KR100586883B1 (ko) | 2004-03-04 | 2006-06-08 | 삼성전자주식회사 | 비디오 스트리밍 서비스를 위한 비디오 코딩방법, 프리디코딩방법, 비디오 디코딩방법, 및 이를 위한 장치와, 이미지 필터링방법 |
US7339980B2 (en) * | 2004-03-05 | 2008-03-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Successive interference cancellation in a generalized RAKE receiver architecture |
US20050201478A1 (en) | 2004-03-10 | 2005-09-15 | Holger Claussen | Modulation in a mobile telecommunications system |
US20050222961A1 (en) | 2004-04-05 | 2005-10-06 | Philippe Staib | System and method of facilitating contactless payment transactions across different payment systems using a common mobile device acting as a stored value device |
US20050231635A1 (en) | 2004-04-16 | 2005-10-20 | Lin Ken K | Automated inverse telecine process |
EP1592250A1 (en) | 2004-04-30 | 2005-11-02 | Matsushita Electric Industrial Co., Ltd. | Film-mode detection in video sequences |
US7991053B2 (en) | 2004-05-04 | 2011-08-02 | Qualcomm Incorporated | Method and apparatus to enable acquisition of media in streaming applications |
US7430336B2 (en) | 2004-05-06 | 2008-09-30 | Qualcomm Incorporated | Method and apparatus for image enhancement for low bit rate video compression |
DE102004026433A1 (de) | 2004-05-29 | 2005-12-22 | Schott Ag | Nanoglaspulver und deren Verwendung |
EP1766440A2 (en) * | 2004-06-01 | 2007-03-28 | ExxonMobil Upstream Research Company | Method for using a kalman filter approach to process electromagnetic data |
US7536626B2 (en) * | 2004-06-18 | 2009-05-19 | Qualcomm Incorporated | Power control using erasure techniques |
EP1615447B1 (en) | 2004-07-09 | 2016-03-09 | STMicroelectronics Srl | Method and system for delivery of coded information streams, related network and computer program product therefor |
JP4145275B2 (ja) | 2004-07-27 | 2008-09-03 | 富士通株式会社 | 動きベクトル検出・補償装置 |
KR20060011281A (ko) | 2004-07-30 | 2006-02-03 | 한종기 | 트랜스코더에 적용되는 해상도 변환장치 및 방법 |
JP2006074684A (ja) | 2004-09-06 | 2006-03-16 | Matsushita Electric Ind Co Ltd | 画像処理方法及び装置 |
US7474701B2 (en) * | 2004-09-23 | 2009-01-06 | International Business Machines Corporation | Single pass variable bit rate control strategy and encoder for processing a video frame of a sequence of video frames |
US7528887B2 (en) * | 2004-10-08 | 2009-05-05 | Broadcom Corporation | System and method for performing inverse telecine deinterlacing of video by bypassing data present in vertical blanking intervals |
US7660987B2 (en) * | 2004-10-29 | 2010-02-09 | Baylis Stephen W | Method of establishing a secure e-mail transmission link |
KR100592882B1 (ko) | 2004-12-13 | 2006-06-26 | 한국전자통신연구원 | 세션 초기화 프로토콜(sip) 기능이 없는 이동 단말에인터넷 프로토콜 멀티미디어 서브시스템을 통한 세션초기화 프로토콜 기반 인스턴스 메시징 서비스 제공방법,시스템 및 이를 위한 인스턴스 메시징 프록시 서버 |
US20060153294A1 (en) * | 2005-01-12 | 2006-07-13 | Nokia Corporation | Inter-layer coefficient coding for scalable video coding |
US8780957B2 (en) | 2005-01-14 | 2014-07-15 | Qualcomm Incorporated | Optimal weights for MMSE space-time equalizer of multicode CDMA system |
US20060166739A1 (en) | 2005-01-25 | 2006-07-27 | Jeng-Tay Lin | Operating method for a wireless recreation system |
KR20060088461A (ko) * | 2005-02-01 | 2006-08-04 | 엘지전자 주식회사 | 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치 |
US7929776B2 (en) | 2005-03-10 | 2011-04-19 | Qualcomm, Incorporated | Method and apparatus for error recovery using intra-slice resynchronization points |
US7995656B2 (en) | 2005-03-10 | 2011-08-09 | Qualcomm Incorporated | Scalable video coding with two layer encoding and single layer decoding |
US8144824B2 (en) | 2005-03-10 | 2012-03-27 | Qualcomm Incorporated | Trend influenced time tracking |
TW200704200A (en) | 2005-03-10 | 2007-01-16 | Qualcomm Inc | Content classification for multimedia processing |
AU2006223287C1 (en) | 2005-03-10 | 2010-10-21 | Qualcomm Incorporated | A decoder architecture for optimized error management in streaming multimedia |
US8693540B2 (en) | 2005-03-10 | 2014-04-08 | Qualcomm Incorporated | Method and apparatus of temporal error concealment for P-frame |
JP2008536451A (ja) * | 2005-04-14 | 2008-09-04 | トムソン ライセンシング | 空間スケーラブルビデオ符号化及び復号化向けスライス適応型動きベクトル符号化のための方法及び装置 |
US20060239347A1 (en) | 2005-04-25 | 2006-10-26 | Ashish Koul | Method and system for scene change detection in a video encoder |
US20060271990A1 (en) | 2005-05-18 | 2006-11-30 | Rodriguez Arturo A | Higher picture rate HD encoding and transmission with legacy HD backward compatibility |
KR100716998B1 (ko) * | 2005-05-24 | 2007-05-10 | 삼성전자주식회사 | 블록화 현상을 감소시키기 위한 부호화 및 복호화 장치 및그 방법과, 이를 구현하기 위한 프로그램이 기록된 기록매체 |
US9113147B2 (en) | 2005-09-27 | 2015-08-18 | Qualcomm Incorporated | Scalability techniques based on content information |
AT502881B1 (de) | 2005-10-05 | 2007-08-15 | Pirker Wolfgang Ddr | Zahnimplantat |
US9521584B2 (en) | 2005-10-17 | 2016-12-13 | Qualcomm Incorporated | Method and apparatus for managing data flow through a mesh network |
US8948260B2 (en) | 2005-10-17 | 2015-02-03 | Qualcomm Incorporated | Adaptive GOP structure in video streaming |
US8654848B2 (en) | 2005-10-17 | 2014-02-18 | Qualcomm Incorporated | Method and apparatus for shot detection in video streaming |
US20070206117A1 (en) | 2005-10-17 | 2007-09-06 | Qualcomm Incorporated | Motion and apparatus for spatio-temporal deinterlacing aided by motion compensation for field-based video |
US7916784B2 (en) | 2005-10-20 | 2011-03-29 | Broadcom Corporation | Method and system for inverse telecine and field pairing |
US7433982B2 (en) | 2005-10-21 | 2008-10-07 | Microsoft Corporation | Transferable component that effectuates plug-and-play |
US20070171280A1 (en) | 2005-10-24 | 2007-07-26 | Qualcomm Incorporated | Inverse telecine algorithm based on state machine |
JP4984503B2 (ja) | 2005-11-28 | 2012-07-25 | 富士通株式会社 | 携帯端末装置およびソフトウェアインストール方法 |
US7587569B2 (en) | 2005-12-19 | 2009-09-08 | Yahoo! Inc. | System and method for removing a storage server in a distributed column chunk data store |
US7705913B2 (en) * | 2005-12-20 | 2010-04-27 | Lsi Corporation | Unified approach to film mode detection |
KR101153562B1 (ko) * | 2006-01-26 | 2012-06-11 | 삼성전기주식회사 | 압전 방식의 잉크젯 프린트헤드 및 그 제조방법 |
US7835904B2 (en) | 2006-03-03 | 2010-11-16 | Microsoft Corp. | Perceptual, scalable audio compression |
US9131164B2 (en) | 2006-04-04 | 2015-09-08 | Qualcomm Incorporated | Preprocessor method and apparatus |
JP4929819B2 (ja) | 2006-04-27 | 2012-05-09 | 富士通株式会社 | 映像信号の変換装置及び方法 |
US8774269B2 (en) * | 2006-10-25 | 2014-07-08 | Franuhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Quality scalable coding with mapping different ranges of bit depths |
FR2925980B1 (fr) | 2007-12-28 | 2010-06-04 | St Microelectronics Sa | Plot de contact electrique |
JP5412739B2 (ja) * | 2008-03-26 | 2014-02-12 | 富士通株式会社 | 光増幅装置 |
-
2006
- 2006-09-26 US US11/528,140 patent/US9113147B2/en not_active Expired - Fee Related
- 2006-09-26 US US11/528,307 patent/US8879857B2/en not_active Expired - Fee Related
- 2006-09-26 US US11/528,139 patent/US8879635B2/en not_active Expired - Fee Related
- 2006-09-26 US US11/528,141 patent/US8879856B2/en active Active
- 2006-09-27 EP EP10181339A patent/EP2293570A1/en not_active Withdrawn
- 2006-09-27 KR KR1020087010079A patent/KR100989534B1/ko active IP Right Grant
- 2006-09-27 WO PCT/US2006/037994 patent/WO2007038725A2/en active Application Filing
- 2006-09-27 JP JP2008533640A patent/JP2009510937A/ja not_active Withdrawn
- 2006-09-27 EP EP06804241A patent/EP1929784B1/en active Active
- 2006-09-27 KR KR1020107019260A patent/KR101197508B1/ko not_active IP Right Cessation
- 2006-09-27 CA CA2805916A patent/CA2805916A1/en not_active Abandoned
- 2006-09-27 KR KR1020107014583A patent/KR101242292B1/ko not_active IP Right Cessation
- 2006-09-27 KR KR1020127021981A patent/KR101326443B1/ko not_active IP Right Cessation
- 2006-09-27 TW TW095135898A patent/TWI376952B/zh active
- 2006-09-27 BR BRPI0616426-9A patent/BRPI0616426A2/pt not_active IP Right Cessation
- 2006-09-27 KR KR1020087010082A patent/KR20080066717A/ko not_active Application Discontinuation
- 2006-09-27 EP EP06815732A patent/EP1941741B1/en active Active
- 2006-09-27 EP EP10182837A patent/EP2293539A3/en not_active Ceased
- 2006-09-27 EP EP10179387A patent/EP2302932A1/en not_active Withdrawn
- 2006-09-27 TW TW095135900A patent/TWI341097B/zh not_active IP Right Cessation
- 2006-09-27 JP JP2008533623A patent/JP5149188B2/ja active Active
- 2006-09-27 TW TW095135902A patent/TWI348866B/zh active
- 2006-09-27 WO PCT/US2006/037948 patent/WO2007038701A1/en active Application Filing
- 2006-09-27 WO PCT/US2006/037993 patent/WO2007038724A1/en active Application Filing
- 2006-09-27 JP JP2008533622A patent/JP5289959B2/ja not_active Expired - Fee Related
- 2006-09-27 CA CA2623929A patent/CA2623929C/en not_active Expired - Fee Related
- 2006-09-27 WO PCT/US2006/037949 patent/WO2007038702A1/en active Application Filing
- 2006-09-27 KR KR1020087010083A patent/KR100988753B1/ko active IP Right Grant
- 2006-09-27 CN CN201210162458.8A patent/CN102724498B/zh not_active Expired - Fee Related
- 2006-09-27 EP EP10166125.4A patent/EP2227019B1/en not_active Not-in-force
- 2006-09-27 EP EP06815754A patent/EP1932362A1/en not_active Ceased
- 2006-09-27 EP EP06815755A patent/EP1938621A2/en not_active Ceased
- 2006-09-27 KR KR1020087010084A patent/KR100968106B1/ko not_active IP Right Cessation
- 2006-09-27 CN CN201010579114.8A patent/CN101982977B/zh active Active
- 2006-09-27 TW TW095135901A patent/TWI350108B/zh not_active IP Right Cessation
- 2006-09-27 JP JP2008533639A patent/JP5139303B2/ja not_active Expired - Fee Related
- 2006-09-27 EP EP15169041.9A patent/EP2945363B1/en active Active
- 2006-09-27 AU AU2006294509A patent/AU2006294509B2/en not_active Expired - Fee Related
- 2006-09-27 AT AT06804241T patent/ATE524926T1/de not_active IP Right Cessation
- 2006-09-28 AR ARP060104256A patent/AR056100A1/es active IP Right Grant
- 2006-09-28 AR ARP060104255A patent/AR055665A1/es active IP Right Grant
- 2006-09-28 AR ARP060104258A patent/AR056102A1/es active IP Right Grant
-
2008
- 2008-03-26 IL IL190457A patent/IL190457A0/en unknown
- 2008-04-01 NO NO20081605A patent/NO20081605L/no not_active Application Discontinuation
-
2009
- 2009-08-14 US US12/541,780 patent/US9088776B2/en not_active Expired - Fee Related
-
2012
- 2012-02-13 JP JP2012028725A patent/JP5562989B2/ja not_active Expired - Fee Related
- 2012-02-13 JP JP2012028724A patent/JP5677992B2/ja active Active
- 2012-05-17 JP JP2012113427A patent/JP2012199961A/ja active Pending
-
2013
- 2013-02-06 US US13/760,233 patent/US9071822B2/en active Active
- 2013-02-25 JP JP2013034669A patent/JP2013157994A/ja active Pending
- 2013-06-19 JP JP2013128473A patent/JP2013232935A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030073254A (ko) * | 2002-03-09 | 2003-09-19 | 삼성전자주식회사 | 시공간적 복잡도를 고려한 적응적 동영상 부호화 방법 및그 장치 |
KR20040046320A (ko) * | 2002-11-27 | 2004-06-05 | 엘지전자 주식회사 | 동영상 부호화 방법 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100968106B1 (ko) | 중복 데이터 인코딩 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130531 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20140529 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20160330 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20170330 Year of fee payment: 8 |
|
LAPS | Lapse due to unpaid annual fee |