JP3860323B2 - 画像復号化装置、画像復号化方法 - Google Patents

画像復号化装置、画像復号化方法 Download PDF

Info

Publication number
JP3860323B2
JP3860323B2 JP05469498A JP5469498A JP3860323B2 JP 3860323 B2 JP3860323 B2 JP 3860323B2 JP 05469498 A JP05469498 A JP 05469498A JP 5469498 A JP5469498 A JP 5469498A JP 3860323 B2 JP3860323 B2 JP 3860323B2
Authority
JP
Japan
Prior art keywords
vop
vol
intra
header
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP05469498A
Other languages
English (en)
Other versions
JPH11196411A (ja
Inventor
由里 長谷川
俊一 関口
慎一 黒田
光太郎 浅井
博文 西川
芳美 井須
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP05469498A priority Critical patent/JP3860323B2/ja
Priority to US09/530,136 priority patent/US7127110B1/en
Priority to TW87117418A priority patent/TW407431B/zh
Priority to DE69841698T priority patent/DE69841698D1/de
Priority to EP20050008083 priority patent/EP1558038B1/en
Priority to PCT/JP1998/004815 priority patent/WO1999022517A1/ja
Priority to DE1998633443 priority patent/DE69833443T2/de
Priority to EP20100011903 priority patent/EP2306722B1/en
Priority to EP20100011902 priority patent/EP2306721B1/en
Priority to EP20100000894 priority patent/EP2187641B1/en
Priority to EP20100000893 priority patent/EP2200314B1/en
Priority to KR10-2000-7004504A priority patent/KR100377286B1/ko
Priority to CA 2308460 priority patent/CA2308460C/en
Priority to AU96474/98A priority patent/AU9647498A/en
Priority to EP98950368A priority patent/EP1026899B1/en
Priority to CNB988127067A priority patent/CN1201586C/zh
Priority to EP20100011904 priority patent/EP2306723B1/en
Publication of JPH11196411A publication Critical patent/JPH11196411A/ja
Priority to HK01100809A priority patent/HK1030121A1/xx
Priority to HK05110863A priority patent/HK1079022A1/xx
Priority to US11/231,835 priority patent/US7197188B2/en
Application granted granted Critical
Publication of JP3860323B2 publication Critical patent/JP3860323B2/ja
Priority to US11/707,922 priority patent/US7362907B2/en
Priority to US12/068,200 priority patent/US7970217B2/en
Priority to HK10106604.3A priority patent/HK1140347A1/xx
Priority to HK10107855A priority patent/HK1141653A1/xx
Priority to HK11105762A priority patent/HK1151912A1/xx
Priority to HK11105829A priority patent/HK1152177A1/xx
Priority to HK11105905.0A priority patent/HK1151915A1/xx
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45504Abstract machines for programme code execution, e.g. Java virtual machine [JVM], interpreters, emulators
    • G06F9/45516Runtime code conversion or optimisation
    • G06F9/45525Optimisation or modification within the same instruction set architecture, e.g. HP Dynamo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/21Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with binary alpha-plane coding for video objects, e.g. context-based arithmetic encoding [CAE]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/29Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving scalability at the object level, e.g. video object layer [VOL]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/39Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability involving multiple description coding [MDC], i.e. with separate layers being structured as independently decodable descriptions of input picture data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440281Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup

Description

【0001】
【発明の属する技術分野】
本発明は、画像を符号化して符号化ビットストリームを作成する画像符号化装置および画像符号化方法、符号化ビットストリームを入力してその符号化ビットストリームに含まれている画像信号を復号する画像復号化装置および画像復号化方法に関し、特に、オブジェクト単位に画像を符号化するMPEG−4対応の画像符号化装置および画像符号化方法、オブジェクト単位に画像を符号化した符号化ビットストリームを復号するMPEG−4対応の画像復号化装置および画像復号化方法に関するものである。
【0002】
【従来の技術】
従来、画像信号を符号化または復号する方式として、例えば、ISO/IEC JTC11/SC29/WG11にて標準化作業が進められているMPEG−4(Moving Picture Experts Group Phase-4)がある。
MPEG−4は、動画像シーケンスを時間/空間的に任意の形状をとる動画像オブジェクトの集合体としてとらえ、各動画像オブジェクトを単位として符号化・復号化を行う方式である。
【0003】
図42に、MPEG−4におけるビデオデータ構造を示す。
MPEG−4では時間軸を含めた動画像オブジェクトをVideo Object(VO)と呼び、VOの構成要素をVideo Object Layer(VOL)と呼び、VOLの構成要素をGroup of Video Object Plane(GOV)と呼び、GOVの各時刻の状態を表し符号化の単位となる画像データをVideo Object Plane(VOP)と呼ぶ。VOは例えば、テレビ会議のシーンの中のそれぞれの話者や背景などに相当し、VOLはそれら話者や背景などの固有の時間・空間解像度をもつ単位であり、VOPはそれらVOLの各時刻(=フレームに相当)における画像データである。GOVはVOPを複数集めた編集やランダムアクセスなどの単位として設けられているデータ構造で、必ずしも符号化に用いられなくてもよい。
【0004】
図43に、VOPの具体例を示す。同図は、2つのVOP(VOP1は人物、VOP2は壁にかけられた絵画)を示している。各VOPはカラー濃淡レベルを表すテクスチャデータと、VOPの形状を表す形状データとからなる。テクスチャデータは画素あたり8ビットの輝度信号、色差信号(輝度信号に対して水平・垂直方向に1/2にサブサンプルされたサイズ)からなり、形状データはVOP内部を1、VOP外部を0とする輝度信号の画像サイズと同じ2値のマトリクスデータである(実際には、形状データは画素あたり8ビット幅を持ち、VOP内部を255、VOP外部を0とするが、以下では便宜上、二値、すなわち0および1で表記するものとする)。
VOPによる動画像表現においては、従来のフレーム画像は複数のVOPを画面中に配置することによって得られる。ただし、VOPの形状が矩形で、かつVOL内で時刻によらず変化しない場合、VOPはフレームと同義となる。この場合は形状データは存在せず、テクスチャデータだけが符号化される。
【0005】
図44に、従来の符号化ビットストリームの例を示す。VO、VOL、GOV、VOPそれぞれのヘッダ及びVOPデータの先頭部分には、スタートコードと呼ばれるビット列を含む。スタートコードは、ユニークワード(1通りの解釈しかできないビット列)であり、各ヘッダ情報およびVOPデータ情報の始まりを示す役割がある。各ヘッダ情報には、そのレイヤ以下のデータを復号するのに必要な情報やレイヤの属性を表現する情報などが含まれる。例えばVOLヘッダ情報には、VOLを構成する各VOPを復号する際に必要となる情報が含まれる。VOPデータは、被符号化領域の単位であるマクロブロック毎に分けられた画像データで構成される。通常、図44におけるVOPデータの中にはスタートコードを含まないが、場合によっては、マクロブロックを複数個集めた単位でスタートコードを付加することも許される。VOPヘッダ情報には、当該VOPがイントラ符号化されているか、インター符号化されているかを示す符号化タイプの情報が含まれている。ここで、イントラ符号化とは、他のVOPの情報を使用せず符号化対象のVOP自身の情報のみで符号化する符号化モードのことをいい、インター符号化とは、時間的に前後する他のVOPの情報を使用して符号化対象のVOPの情報を符号化する符号化モードのことをいう。
【0006】
【発明が解決しようとする課題】
しかし、従来は、上述したように、符号化ビットストリーム中のVOPヘッダ情報に含まれている符号化タイプ情報を逐一解析しなければ、VOPデータがいずれの符号化モードで符号化されたかが分からなかったため、符号化側でオブジェクトのVOL、GOVなどの単位の中に含まれる全てのVOPデータがイントラのみで符号化した場合でも、復号化側では個々のVOPがいずれのモードで符号化されているかは、ヘッダ情報の解析を行なわなければわからなかった。
このため、符号化側でオブジェクトのVOL、GOVなどの単位の中に含まれる全てのVOPデータがイントラのみで符号化された場合でも、復号化側で所望の時刻のVOP瞬時にへアクセスしたり、復号時の装置の負荷などに応じて符号化の画像信号を間引くいわゆる駒落し制御を行うためには、個々のVOPの符号化データの解析を行なって、符号化ビットストリームの予測構造やまたは時間情報を認識した上で、アクセスすべき所望のVOP、あるいは駒落し制御において復号すべきVOPを特定する必要があり、復号処理が面倒となると共に、復号処理時間が増大する、という問題があった。
【0007】
そこで、本発明は、このような問題に着目してなされたもので、動画像シーケンス中に含まれる全ての画像をイントラのみで符号化した場合には、画像復号化装置側において、所望の時刻の画像へのアクセスや駒落し制御などの復号処理を容易かつスムーズに行えると共に、復号処理時間を短縮化することのできる画像符号化装置、画像符号化方法、画像復号化装置、及び画像復号化方法を提供することを目的とする。
また、特に、本発明では、複数のオブジェクトからなる画像をオブジェクト単位で符号化または復号化するMPEG−4規格の下、符号化側でオブジェクトのVOL、GOVなどの単位の中に含まれる全てのVOPをイントラのみで符号化した場合には、画像復号化装置側において、所望の時刻のVOPへのアクセスや駒落し制御などの復号処理を容易かつスムーズに行えると共に、復号処理時間を短縮化することのできる画像符号化装置、画像符号化方法、画像復号化装置、及び画像復号化方法を提供することを目的とする。
【0008】
【課題を解決するための手段】
前記目的を達成するため、本発明では、符号化ビットストリームから動画像シーケンスに含まれる画像すべてがイントラ符号化されているか否かを示すイントラ符号化表示情報を解析する解析手段と、前記解析手段によって解析された前記イントラ符号化表示情報に基づいて前記動画像シーケンスに含まれる画像を復号する復号手段と、を備えたものである。
【0009】
また、次の発明では、動画像シーケンスは、任意の形状を有する動画像オブジェクトのビデオオブジェクトレイヤである。
【0010】
また、次の発明では、動画像シーケンスは、任意の形状を有する動画像オブジェクトのビデオオブジェクトレイヤを構成するビデオオブジェクトプレーンのグループである。
【0011】
また、次の発明では、前記復号手段は、前記イントラ符号化表示情報と、画像復号化装置側において指定された表示速度情報とに基づいて、前記動画像シーケンス内の画像を間引いて復号するものである。
【0012】
また、次の発明では、前記解析手段は、さらに、符号化ビットストリームから符号化側の表示速度情報を解析すると共に、解析した符号化側の表示速度情報と、画像復号化装置側において指定された表示速度情報とに基づいて、復号対象画像を特定し、前記復号手段は、前記イントラ符号化表示情報と、前記復号対象画像の表示時刻情報とに基づいて、前記動画像シーケンスに含まれる画像を間引いて復号するものである。
【0013】
また、次の発明では、前記復号手段は、前記イントラ符号化表示情報と、画像復号化装置側において指定される表示時刻情報とに基づいて、前記画像復号化装置側において指定される表示時刻情報が示す画像を復号するものである。
【0014】
また、次の発明では、解析手段は、さらに、符号化ビットストリームから符号化側の表示速度情報と、前記動画像シーケンスに含まれる画像の表示時刻情報とを解析すると共に、その解析した前記表示速度情報と、前記表示時刻情報とに基づいて、復号対象画像を特定し、前記復号手段は、前記イントラ符号化表示情報と、前記復号対象画像の表示時刻情報と、画像復号化装置側において指定される表示時刻情報とに基づいて、前記画像復号化装置側において指定される表示時刻情報が示す画像を復号するものである。
【0015】
また、次の発明では、前記解析手段は、前記イントラ符号化表示情報を解析した結果、動画像シーケンスに含まれる画像すべてがイントラ符号化されていることを指示している場合、さらに、符号化ビットストリームから前記動画像シーケンスに含まれる画像すべての表示時刻情報を多重化するか否かを示す表示時刻多重化識別情報を解析し、該表示時刻多重化識別情報が前記動画像シーケンスに含まれる画像すべての表示時刻情報を多重化することを示している場合には、前記動画像シーケンスに含まれる画像すべての表示時刻情報を動画像シーケンスの単位で解析し、前記多重化手段は、前記イントラ符号化表示情報と、前記表示時刻情報とに基づいて、前記動画像シーケンス内に含まれる画像を復号するものである。
【0016】
また、次の発明では、前記復号手段は、前記イントラ符号化表示情報と、前記表示時刻情報と、画像復号化装置側において指定される表示時刻情報とに基づいて、前記動画像シーケンス内に含まれる画像のうち前記画像復号化装置側において指定される表示時刻情報が示す画像を復号するものである。
【0017】
また、次の発明では、符号化ビットストリームから動画像シーケンスに含まれる画像すべてがイントラ符号化されているか否かを示すイントラ符号化表示情報を解析すると共に、前記イントラ符号化表示情報に基づいて前記動画像シーケンスに含まれる画像を復号するものである。
【0018】
また、次の発明では、動画像シーケンスに含まれる画像すべてをイントラ符号化するか否かを指示するイントラ符号化指示情報に基づき前記動画像シーケンスに含まれる画像を符号化する符号化手段と、前記符号化手段によって符号化された画像符号化信号と、前記動画像シーケンスに含まれる画像すべてがイントラ符号化されているか否かを示すイントラ符号化表示情報とを多重化する多重化手段と、を備えたものである。
【0019】
また、次の発明では、前記多重化手段は、前記イントラ符号化表示情報が動画像シーケンスに含まれる画像すべてをイントラ符号化することを指示している場合、さらに、前記動画像シーケンスに含まれる画像すべての表示時刻情報を多重化するか否かを示す表示時刻多重化識別情報を動画像シーケンス毎に多重化し、該表示時刻多重化識別情報が前記動画像シーケンスに含まれる画像すべての表示時刻情報を多重化することを示している場合には、さらに、前記動画像シーケンスに含まれる画像すべての表示時刻情報を動画像シーケンス毎に多重化するものである。
【0020】
また、次の発明では、動画像シーケンスに含まれる画像すべてをイントラ符号化するか否かを指示するイントラ符号化指示情報に基づき前記動画像シーケンスに含まれる画像を符号化すると共に、符号化された画像符号化信号と、前記動画像シーケンスに含まれる画像すべてがイントラ符号化されているか否かを示すイントラ符号化表示情報とを多重化するものである。
【0021】
【発明の実施の形態】
実施の形態1.
本実施の形態1では、ISO/IEC JTC1/SC29/WG11/N1796で開示されるMPEG−4ビデオ符号化方式に、本実施の形態1の要素であるオブジェクトのVOL、GOVなどの単位の中に含まれる全てのVOPをイントラのみで符号化するか否かを示す情報に基づいて符号化を行う手段と、VOL、GOVなどの単位の中に含まれる全てのVOPがイントラのみで符号化されたか否かを示す情報をオブジェクトごとに付加して符号化ビットストリームに多重化する手段を備えたVOPエンコーダについて説明する。なお、イントラ符号化とは、他のVOPを使用せず、符号化対象のVOP自身の情報のみで符号化する符号化モードのことをいう。つまりイントラ符号化されたVOPはそれ自身単独で復号することが可能である。
【0022】
本実施の形態1における画像符号化装置は、MPEG−4ビデオエンコーダをベースとしており、MPEG−4ビデオデコーダは前記VOPを単位として符号化を実施するので、以下、VOPエンコーダと呼ぶことにする。尚、既存のVOPエンコーダの動作はISO/IEC JTC1/SC29/WG11/N1796などに開示されるので、ここではエンコーダ自体の動作説明は一般的な範囲にとどめ、本実施の形態1の要素について詳細な説明を行う。
【0023】
図1は、本実施の形態1におけるVOPエンコーダの構成例を示す。図において、1は形状符号化部、2は形状符号化データ、3は局所復号形状データ、4は動き補償予測部、5は動き情報、6はGOV多重化情報、7はオブジェクトイントラ符号化指示信号、8はヘッダ多重化部、9はヘッダ情報多重化後のビットストリーム、10はビデオ信号多重化部、11は予測画像、12は減算器、13は予測誤差信号、14はINTRA/INTER判定部、15は被符号化テクスチャデータ、16はマクロブロック単位の符号化モード情報、17はテクスチャ符号化部、18はテクスチャ符号化データ、19は局所復号予測誤差信号、20は加算器、21は局所復号テクスチャデータ、22はメモリ、23は参照テクスチャデータ、24は符号化ビットストリームである。
【0024】
次に、図1に示す本実施の形態1におけるVOPエンコーダの動作について簡単に説明する。図2は、図1に示す本実施の形態1におけるVOPエンコーダの動作を示すフローチャートである。
入力オブジェクト画像は、形状符号化部1と動き補償予測部4とINTRA/INTER判定部14と減算器12に入力する。その際、入力オブジェクト画像は、形状データをアルファブロックとよばれる16画素×16画素の領域ごとに、また、テクスチャデータをマクロブロックとよばれる16画素×16画素の領域ごとに入力する。
【0025】
まず、形状符号化部1は、入力されるアルファブロックの符号化を行い、形状符号化データ2と局所復号形状データ3とを出力する(ステップS1)。形状符号化部1における符号化処理については本発明の対象外であるため、説明を省略する。形状符号化データ2はビデオ信号多重化部10に送られ、局所復号形状データ3は動き補償予測部4とテクスチャ符号化部17に入力される。
【0026】
次に、動き補償予測部4では、メモリ22中の参照テクスチャデータ23を入力し、マクロブロック単位にてブロックマッチングを行い、動き情報5を得る(ステップS2)。この際、動き補償予測部4は、局所復号形状データ3に基づきマクロブロック中に含まれるオブジェクトのみを対象としたブロックマッチングにより動き情報5を得る。次に、動き補償予測部4は、動き情報5に対応した位置の参照テクスチャデータ23をメモリ22から入力し、局所復号形状データ3に基づき予測画像11を作成する。動き補償予測部4において作成された動き情報5はビデオ信号多重化部10へ、予測画像11は減算器12と加算器20に入力される。
【0027】
次に、INTRA/INTER判定部14では、外部より設定されるオブジェクトイントラ符号化指示信号7に基づき、符号化対象VOPの各マクロブロックの符号化モードの決定を行い、決定した符号化モードに基づき入力される画像を選択し、選択した画像(インター符号化の場合は予測誤差画像13)をテクスチャ符号化部17へ、決定したマクロブロック単位の符号化モード16をビデオ信号多重化部10へ出力する(ステップS3)。ここで、オブジェクトイントラ符号化指示信号とは、ユーザ等によるスイッチの設定や、コマンドの入力等によって設定や入力する、VOL、GOVなどの単位の中に含まれる全てのVOPをイントラのみで符号化するか否かを示す情報である。すべてのVOPがイントラのみで符号化される場合は、この信号をON(“1”)、さもなくばOFF(“0”)に設定するものとする。
【0028】
図3は、INTRA/INTER判定部14の動作を説明するフローチャートである。以下、図3に基づいて、INTRA/INTER判定部14の動作について説明する。まず、入力されるオブジェクトイントラ符号化指示信号7の値に基づいて動作を切り替える(ステップS3−1)。ここで、オブジェクトイントラ符号化指示信号7の値がONの場合、入力オブジェクト画像を入力画像15として選択し、マクロブロック単位の符号化モード情報16を常にイントラ符号化モードに設定し、選択した入力画像15をテクスチャ符号化部17へ出力する(ステップS3−2)。
【0029】
また、入力されるオブジェクトイントラ符号化指示信号7がOFFの場合、たとえばISO/IEC JTC1/SC29/WG11/N1796で定められる所定の方法でマクロブロック単位において符号化モードを選択し、選択されたマクロブロック単位の符号化モードがイントラ符号化モードの場合は入力オブジェクト画像を、選択されたマクロブロック単位の符号化モードがインター符号化モードの場合は予測誤差画像13を入力画像15として選択し、テクスチャ符号化部17へ出力する(ステップS3−3)。また、選択したマクロブロック単位の符号化モードをマクロブロック単位の符号化モード情報16としてビデオ信号多重化部10へ出力する。
【0030】
そして、図2のフローチャートに戻り、テクスチャ符号化部17では、入力された画像15を、たとえばISO/IEC JTC1/SC29/WG11/N1796で定められる所定の方法で符号化し、テクスチャ符号化データ18および局所復号予測誤差画像19を得る(ステップS4)。この際、テクスチャ符号化部17では、局所復号形状データ3に基づきブロック中に含まれるオブジェクトのみを対象とした符号化を行う。テクスチャ符号化データ18はビデオ信号多重化部10へ送られ、局所復号予測誤差画像19を加算器20へ出力する。
【0031】
加算器20は、予測画像11と局所復号予測誤差画像19の加算を行い局所復号テクスチャデータ21を作成し(ステップS5)、メモリ22へ書き込む(ステップS6)。以上の処理をマクロブロック単位に行い、1つのVOPに含まれるすべてのマクロブロックについて処理が終了したら1つのVOPの符号化処理を終了する。さもなくば、マクロブロックの符号化処理を継続する(ステップS7)。
【0032】
ヘッダ多重化部8では各ヘッダ情報が多重化され、各ヘッダ情報が多重化されたビットストリーム9はビデオ信号多重化部10に入力される(ステップS8)。
ビデオ信号多重化部10は、各ヘッダ情報が多重化されたビットストリーム9に形状符号化データ2と動き情報5とテクスチャ符号化データ18とマクロブロック単位の符号化モード情報16の多重化を行い、符号化ビットストリーム24を出力する(ステップS9)。
【0033】
次に、本実施の形態1の特徴であるヘッダ多重化部8の動作について詳しく説明する。
図4は、図1に示すヘッダ多重化部8の構成例を示している。図において、25はVOヘッダ多重化部、26はVOLヘッダ多重化部、27はGOVヘッダ多重化選択部、28はGOVヘッダ多重化部、29はVOPヘッダ多重化部である。
【0034】
VOヘッダ多重化部25では、VOヘッダを多重化したビットストリームを作成し、作成したビットストリームをVOLヘッダ多重化部26に出力する。VOLヘッダ多重化部26は、VOヘッダ多重化部25から入力されたビットストリームに各種のVOLヘッダと、その一つとしてオブジェクトイントラ符号化表示信号7’の多重化を行う。ここで、オブジェクトイントラ符号化表示信号7’とは、VOL、GOVなどの単位の中に含まれる全てのVOPがイントラのみで符号化されるか否かを示す情報である。オブジェクトイントラ符号化表示信号7’の多重化は、例えば、オブジェクトイントラ符号化指示信号7がONの場合はオブジェクトイントラ符号化表示信号7’を“1”とする一方、オブジェクトイントラ符号化指示信号7がOFFの場合はオブジェクトイントラ符号化表示信号7’を“0”等として、VOLヘッダ情報中の1ビットの情報として多重化することができる。多重化後のビットストリームはGOVヘッダ多重化選択部27へ出力される。
【0035】
GOVヘッダ多重化選択部27では、VOLヘッダ多重化部26より出力されたビットストリームの出力先を、GOVヘッダの多重化を行うか否かを示すGOV多重化情報6に基づき判断する。MPEG−4では、GOVヘッダは符号化ビットストリーム中に含まれていなくてもよいので、本実施の形態1のエンコーダではGOV多重化選択部27によって選択的にGOVヘッダを多重化する構成としている。もちろん、あらかじめGOVを多重化するか否かを決めてしまう構成、すなわちGOV多重化選択部27を設けずに、VOLヘッダ多重化部26の出力をGOVヘッダ多重化部28を介さずに直接VOPヘッダ多重化部29へ送る構成、あるいはVOLヘッダ多重化部26の出力をGOVヘッダ多重化部28を介してVOPヘッダ多重化部29へ送るような構成のエンコーダもありうる。
ここで、GOV多重化情報6がGOVヘッダの多重化を行わないことを示す場合は、GOVヘッダ多重化部28を介さずにVOPヘッダ多重化部29へビットストリームを出力する。
これに対し、GOV多重化情報6がGOVヘッダの多重化を行うことを示す場合はGOVヘッダ多重化部28へビットストリームを出力する。すると、GOVヘッダ多重化部28は、GOVヘッダ多重化選択部27から入力されたビットストリームにGOVヘッダを多重化し、多重化後のビットストリームをVOPヘッダ多重化部29に出力する。
【0036】
そして、VOPヘッダ多重化部29は、GOVヘッダ多重化選択部27から直接、あるいはGOVヘッダ多重化選択部27からGOVヘッダ多重化部28を介して入力されたビットストリームにVOPヘッダを多重化して、その多重化後のビットストリーム9をビデオ信号多重化部10へ出力する。
【0037】
図5は、この実施の形態1のVOPエンコーダから出力される符号化ビットストリーム30の例を示している。これは図1における符号化ビットストリーム24の一つの例を示すものである。この符号化ビットストリーム30は、図44に示す従来の符号化ビットストリームと同様に、それぞれのスタートコード(start code)とヘッダ情報あるいはデータ情報とからなるVOヘッダ30a、VOLヘッダ30b、GOVヘッダ30c、VOPヘッダ30d、VOPデータ30eから構成されているが、この実施の形態1では、VOLヘッダ30bにオブジェクトイントラ符号化表示信号7’が多重化されている。このため、このオブジェクトイントラ符号化表示信号7’は、VOLヘッダ30bのVOPを構成するVOPデータ30eが全てイントラ符号化されていることを示すことになる。
【0038】
ここで、VOPデータ30eは、被符号化領域の単位であるマクロブロック毎に符号化されたテクスチャデータ(図示せず)と形状データ(図示せず)とからなり、各マクロブロック毎に、オーバヘッド情報として当該マクロブロックのイントラ符号化やインター符号化の別を示す符号化モード情報16が多重化されているが、オブジェクトイントラ符号化表示信号7’のON、すなわちVOLまたはGOVの全てのVOPデータ30eがイントラ符号化されたことを示している場合には、各VOPデータを構成するマクロブロック毎の符号化モード情報16を多重化しないようにして、符号化ビットストリームの情報量を削減するようにしても良い。このことは、以下の実施の形態でも同様である。
【0039】
なお、このVOLヘッダ30bは、VOL(Video Object Layer)を単位として設定されるもので、図42に示すように、VOが複数のVOL0,1から構成される場合には、各VOL毎に設定され、オブジェクトイントラ符号化指示信号7も、各VOL毎に設定されることになる。
また、GOVヘッダ多重化選択部27の選択によりGOVヘッダ多重化部28がGOVヘッダの多重化を行なわない場合には、図5に示す符号化ビットストリーム30からGOVヘッダ30cが取れた形になる。
【0040】
以上のように、この実施の形態1によれば、VOLヘッダにVOLより下位のGOVを構成するVOPデータ、あるいはGOVという概念を使用せずにVOLを構成するVOPデータが全てイントラ符号化されることを示すオブジェクトイントラ符号化表示信号7’を多重化するように構成したため、画像復号化装置においては、オブジェクトイントラ符号化表示信号7’を復号・解析することによって、個々のVOPヘッダを復号することなくオブジェクト内に含まれるVOPがすべてイントラ符号化されているか否かを判断することができ、復号化装置側で簡単に表示速度や復号速度を変化させて復号を行ったり、所望の時刻のVOPへ簡単にアクセスすることを可能にしたりする符号化ビットストリームを生成することができる。
【0041】
なお、前記説明では、図5の符号化ビットストリーム30に示すように、VOLヘッダ30bにオブジェクトイントラ符号化表示信号7’を多重化して説明したが、本発明では、これに限らず、例えば、図6の符号化ビットストリーム31に示すように、GOVヘッダ31cにオブジェクトイントラ符号化表示信号7’を多重化して、VOLより下位のGOVを単位としてオブジェクトイントラ符号化表示信号を規定し、符号化およびオブジェクトイントラ符号化表示信号の多重化をGOVの単位で行うようにしてもよい。
この場合、ヘッダ多重化部8は、図7に示すように構成して、VOLヘッダ多重化部32はオブジェクトイントラ符号化表示信号7’の多重化をせず、GOVヘッダ多重化部33がオブジェクトイントラ符号化表示信号7’の多重化を行なうように構成すればよい。このようにすれば、オブジェクトイントラ符号化表示信号7’は、GOVの中に含まれる全てのVOPデータ31eをイントラのみで符号化するか否かを示す情報となり、図6に示すようにGOVヘッダ多重化部33においてGOVヘッダ情報とともにGOVヘッダ31cに多重化されることになる。
【0042】
また、本実施の形態1では、ヘッダ多重化部8が、オブジェクトイントラ符号化指示信号7に基づいて、1ビットのオブジェクトイントラ符号化表示信号7’を作成して出力するように構成したが、本発明では、これに限らず、1ビット以外のオブジェクトイントラ符号化表示信号7’でもよく、また、VOLやGOVを構成するVOPデータが全てイントラ符号化することを示すオブジェクトイントラ符号化指示信号7がビット情報として表現されている場合には、オブジェクトイントラ符号化指示信号7をそのままオブジェクトイントラ符号化表示信号7’として多重化するように構成しても勿論よい。
【0043】
また、本実施の形態1では、図1等に示すように、符号化装置をハード的に構成して示したが、本発明では、これに限らず、符号化装置をソフトウェア的に構成、すなわち図2や図3に示す処理のプログラムを実行するCPUやMPUにより本実施の形態1の機能を実現するようにしても勿論良い。なお、このことは、以下に説明する他の実施の形態についても同様である。
【0044】
実施の形態2.
本実施の形態2では、ISO/IEC JTC1/SC29/WG11/N1796で開示されるMPEG−4ビデオ符号化方式に、VOL、GOVなどの単位の中に含まれる全てのVOPをイントラのみで符号化するか否かを示す情報であるオブジェクトイントラ符号化指示信号7に基づいて符号化を行う手段と、VOL、GOVなどの単位の中に含まれる全てのVOPがイントラのみで符号化されているか否かを示す情報であるオブジェクトイントラ符号化表示信号7’と、VOL、GOVなどの単位の中に含まれる全てのVOPの絶対表示時刻情報をまとめて多重化するか否かを示す表示時刻多重化識別情報34とをVOLやGOVの単位で符号化ビットストリームに多重化する手段を備えたVOPエンコーダについて説明する。
【0045】
図8は、本実施の形態2におけるVOPエンコーダの構成例を示す。図8は実施の形態1のVOPエンコーダ図1とほぼ同じ構成であり、エンコーダとしての基本動作も実施の形態1で述べた動作と同じである。実施の形態1とは、ヘッダ多重化部8の構成のみが異なる。図において、34は表示時刻多重化識別情報、35は各VOPの絶対表示時刻であるタイムコードである。それ以外の図1と同じ番号を付した部材は図1と全く同じ部材であることを示す。以下では、実施の形態1と異なる構成であるヘッダ多重化部8についてのみ説明する。
【0046】
図9は、図8に示すヘッダ多重化部8の構成例を示している。図において、36はVOLヘッダ多重化部である。
【0047】
図8のヘッダ多重化部8は、VOLヘッダ多重化部36において、VOLヘッダ情報の一部としてオブジェクトイントラ符号化表示信号7’を1ビットの情報として多重化するともに、オブジェクトイントラ符号化表示信号7’がON、すなわちVOL、GOVなどの単位の中に含まれる全てのVOPをイントラのみで符号化することを示している場合には、VOLヘッダ情報の一部として表示時刻多重化識別情報34を1ビットの情報として多重化し、さらに表示時刻多重化識別情報34の値に基づいてVOLを構成するすべてのVOPの絶対表示時刻を示すタイムコード35をVOLヘッダ情報の一部としてまとめて多重化するものである。
ここで、タイムコード35は、IEC standard publication 461 for “time and control codes for video tape recoders”で開示される時間情報であって、動画像を構成する各時刻の画像(MPEG-2で言えばフレーム、MPEG−4で言えばVOPなど)の表示時刻を、時間・分・秒の精度で規定する情報である。これは、例えば、業務用映像編集機器などでフレーム単位で編集を行う場合に、各フレームにこの情報を付加することにより、タイムコード35の値を指定するだけで所望のフレームにアクセスできるなどの効果を持つことができる。
尚、その他の構成は、図4に示すヘッダ多重化部8と同じであるので、以下、図8のうち、実施の形態1と異なるVOLヘッダ多重化部36の動作についてのみ説明する。
【0048】
VOLヘッダ多重化部36は、VOヘッダ多重化部25から入力されたビットストリームに対して、以下のルール1)〜5)に従って必要な情報を多重化する。
1) 各VOPの復号伸長処理に必要な各種のデータなど各種のVOLヘッダを多重化する。
2) オブジェクトイントラ符号化表示信号7’を多重化する。
3) オブジェクトイントラ符号化表示信号7’がON、すなわちVOL、GOVなどの単位の中に含まれる全てのVOPをイントラのみで符号化することを示している時、表示時刻多重化識別情報34を多重化する。
表示時刻多重化識別情報34は、VOL内のすべてのVOPのタイムコード35を、VOLヘッダ情報の領域に多重化するか否かを示す1ビットの情報であり、VOL内のすべてのVOPのタイムコード35をVOLヘッダ情報の一部として多重化する場合はONとして‘1’を、さもなくばOFFとして‘0’を設定する。オブジェクトイントラ符号化表示信号7’がOFFを示している時は表示時刻多重化識別情報34は多重化しない。
4) オブジェクトイントラ符号化表示信号7’がONを示し、かつ表示時刻多重化識別情報34がONを示している場合は、後述する図12に示すように、VOL内のすべてのVOPのタイムコード35をVOLヘッダ情報の領域に多重化する。たとえば、あるVOL内に30枚のVOPを含む場合、そのVOLヘッダ情報の領域に30個のタイムコード35をまとめて多重化する。
5) 以上の多重化処理を経たビットストリームをGOVヘッダ多重化選択部27へ出力する。
【0049】
図10、図11、図12は、この実施の形態2のVOPエンコーダから出力される符号化ビットストリームの例を示している。
図10の符号化ビットストリーム37は、オブジェクトイントラ符号化表示信号7’がOFFの場合を示しており、この場合は、VOLヘッダ情報37bの領域には表示時刻多重化識別情報34、タイムコード35は多重化されない。この時、各VOPのVOPヘッダ情報37bの領域には、GOVヘッダ37cに多重化される絶対表示時刻である基準のタイムコード35から当該VOPが表示される時刻までの相対時間を示す相対時間情報(この相対時間情報は、モジュロ・タイム・ベースやVOPタイムインクリメントであるが、ここでは図示せず。)が多重化され、復号側ではこの相対時間情報に基づいてVOPの表示時刻が定まる。
【0050】
図11の符号化ビットストリーム38は、オブジェクトイントラ符号化表示信号7’がONで、かつ、表示時刻多重化識別情報34がOFFの場合を示しており、この場合は、VOLヘッダ情報38bの領域にはタイムコード35は多重化されない。また、図10と同様、各VOPのVOPヘッダ情報38dの領域には、GOVヘッダ38cに多重化される絶対表示時刻である基準のタイムコード35から当該VOPが表示される時刻までの相対時間を示す上記相対時間情報が多重化される。
【0051】
図12の符号化ビットストリーム39は、オブジェクトイントラ符号化表示信号7’がONで、かつ、表示時刻多重化識別情報34がONの場合を示しており、この場合は、VOLヘッダ情報39bの領域にVOL内のすべてのVOP分のタイムコード35が多重化される。この場合は、各VOPヘッダ情報39dの領域中の相対時間情報はそのまま多重化してもよいし、VOLヘッダ情報39b中のタイムコードと重複するため、VOPヘッダ情報としては上記相対時間情報を多重化しないようにしてもよい。
【0052】
以上のように、この実施の形態2によれば、VOLヘッダにVOLを構成するVOPデータが全てイントラ符号化されることを示すオブジェクトイントラ符号化表示信号7’と、表示時刻多重化識別情報34、VOL内のすべてのVOPの絶対表示時刻であるタイムコードとを多重化するように構成したため、本符号化装置によって生成されたビットストリームを受信してVOPを復号する画像復号化装置において、個々のVOPヘッダを復号・解析することなく、VOL内に含まれるVOPがすべてイントラ符号化されているか否か、また、すべてのVOPのタイムコードがまとめて多重化されているか否かを判断することができる。これにより、復号化装置でVOPの復号を開始する前に、簡単に復号対象のVOPを特定することができ、表示速度や復号速度を変化させて復号を行ったり、所望の時刻のVOPへ簡単にアクセスすることが可能になる。
【0053】
なお、前記説明では、図10、11、12の符号化ビットストリーム37〜39に示すように、VOLヘッダにオブジェクトイントラ符号化表示信号7’、表示時刻多重化識別情報34、タイムコード35を多重化する例を説明したが、本発明では、これに限らず、例えば、以下の例1,2のように符号化ビットストリームを構成することも考えられる。
(例1)
図13の符号化ビットストリーム40に示すように、VOLヘッダ40bにオブジェクトイントラ符号化表示信号7’を多重化し、GOVヘッダ40cには、このGOVに所属するVOLのオブジェクトイントラ符号化表示信号7’がONの場合に表示時刻多重化識別情報34を多重化するとともに、表示時刻多重化識別情報34がONの場合にGOVレイヤに含まれるすべてのVOPのタイムコード35を多重化する。この場合、表示時刻多重化識別情報34は、GOVの中に含まれるすべてのVOPのタイムコード35をGOVヘッダにまとめて多重化するか否かを示す情報となる。
(例2)
図14の符号化ビットストリーム41に示すように、GOVヘッダ41cに、オブジェクトイントラ符号化表示信号7’、表示時刻多重化識別情報34、タイムコード35を多重化する。この場合、オブジェクトイントラ符号化表示信号7’は、GOVの中に含まれる全てのVOPがイントラ符号化されるか否かを示す情報となり、また、表示時刻多重化識別情報34は、GOVの中に含まれるすべてのVOPのタイムコード35をGOVヘッダにまとめて多重化するか否かを示す情報となる。
これらのように符号化ビットストリームを生成することで、復号側ではGOVを単位として簡単に復号対象のVOPを特定することができ、表示速度や復号速度を変化させて復号を行ったり、所望の時刻のVOPへ簡単にアクセスすることが可能になる。
【0054】
実施の形態3.
本実施の形態3では、実施の形態1で述べたVOPエンコーダによって生成される符号化ビットストリームを復号し、VOP画像を再生するVOPデコーダを説明する。具体的には、符号化ビットストリーム中から実施の形態1で述べたオブジェクトイントラ符号化表示信号7’を復号し、この値に基づいて復号VOPの表示を制御する画像復号化装置について説明する。
【0055】
まず、本実施の形態3における画像復号化装置(VOPデコーダ)の構成と動作について説明する。既存のVOPデコーダの動作はISO/IEC JTC1/SC29/WG11/N1796などに開示されるので、ここではVOPデコーダそのものの動作説明は一般的な範囲にとどめる。以下の説明においては、本実施の形態3におけるVOPデコーダの特徴である、オブジェクトイントラ符号化表示信号を復号してその値に基づいてVOP画像を選択的に復号する機能を中心に説明する。また、以下の説明においては本VOPデコーダへの入力は、図5に示す符号化ビットストリーム30とする。
【0056】
図15は、本実施の形態3におけるVOPデコーダの内部構成例を示したものである。なお、VOPデータは、実施の形態1と同様に、テクスチャデータと形状データとからなるものとし、本デコーダはこれらを圧縮符号化したデータを入力としてそれぞれのデータを復元する機能を持つものとする。
同図において、42はヘッダ解析部、43はヘッダ情報が解析されたビットストリーム、44はビデオ信号解析部、45は形状符号化データ、46は形状復号部、47は復号形状データ、48はテクスチャ符号化データ、49はテクスチャ復号部、50は復号テクスチャデータ、51は動き情報、52は動き補償部、53は復号予測テクスチャデータ、54はINTRA/INTER判定部、55は出力テクスチャデータ、56はメモリ、57は復号予測テクスチャデータである。
【0057】
図16は、図15に示す画像復号化装置の動作を説明するフローチャートである。以下、図15および図16をもとに動作について詳述する。
まず、符号化ビットストリーム30はヘッダ解析部42に入力され、所定のシンタックスにしたがって後述するようにVOヘッダ、VOLヘッダ、GOVヘッダ、VOPヘッダの各ヘッダが解析される(ステップS10)。
なお、この時、VOLヘッダ30bに多重化されたオブジェクトイントラ符号化表示信号7’が解析されて、INTRA/INTER判定部54へ直接出力される。
次に、ヘッダ解析部42においてヘッダ情報が解析されたビットストリーム43は、ビデオ信号解析部44に入力され、ビデオ信号解析部44によりVOPデータが解析されて、形状符号化データ45と、テクスチャ符号化データ48と、動き情報51とに分けられ、各々、形状復号部46、動き補償部52、テクスチャ復号部49に出力される(ステップS11)。
【0058】
形状復号部46は、入力される形状符号化データ45の復号を行い、復号形状データ47を出力する(ステップS12)。
【0059】
動き補償部52は、メモリ56中の参照テクスチャデータ57とビデオ信号解析部44から入力される動き情報51から復号予測テクスチャデータ53を出力する(ステップS13)。
【0060】
テクスチャ復号部49は、テクスチャ符号化データ48に基づいて、MPEG−4で定められる所定の方法、例えばISO/IEC JTC1/SC29/WG11/N1796等で画像データに復元し、復号テクスチャデータ50を生成する(ステップS14)。この復号テクスチャデータ50はINTRA/INTER判定部54に出力される。
【0061】
INTRA/INTER判定部54では、まず、オブジェクトイントラ符号化表示信号7’に基づき、最終的な出力テクスチャデータ55の決定を行う(ステップS15)。
【0062】
図17は、本実施の形態3のINTRA/INTER判定部54によるステップS15のINTRA/INTER判定動作を示すフローチャートである。
まず、入力されるオブジェクトイントラ符号化表示信号7’の値に基づいて動作を切り替える(ステップS15−1)。
【0063】
ここで、オブジェクトイントラ符号化表示信号7’がONの場合(ステップS15−1“YES”)、INTRA/INTER判定部54は、復号テクスチャデータ50をそのまま出力テクスチャデータ55として出力する(ステップS15−2)。
【0064】
これに対し、オブジェクトイントラ符号化表示信号7’がOFFの場合は(ステップS15−1“NO”)、ビデオ信号解析部44で復号したマクロブロック単位の符号化モード情報16に基づいて処理を選択する(ステップS15−3)。つまり、マクロブロック単位の符号化モードがイントラ符号化モードの場合は(ステップS15−3“YES”)、INTRA/INTER判定部54は、復号テクスチャデータ50をそのまま出力テクスチャデータ55として出力し(ステップS15−2)、その一方、インター符号化モードの場合は(ステップS15−3“NO”)、INTRA/INTER判定部54は、動き補償部52からの復号予測テクスチャデータ53と、復号テクスチャデータ50との加算を行って、その加算データを出力テクスチャデータ55として出力する(ステップS15−4)。
【0065】
そして、図16のフローチャートに戻り、出力テクスチャデータ55は、以降のVOPの復号に用いられるので、メモリ56に書き込まれる(ステップS16)。以上の処理を符号化側および復号側で予め定められた被符号化(被復号化)領域であるマクロブロック単位で行い、次のVOPのスタートコードが検出された場合には、現在のVOPの復号を終了する一方、次のVOPのスタートコードが検出されない場合には、ステップS11に戻ってビデオ信号解析処理以降の処理を行い、現在のVOPにおけるマクロブロックの復号処理を継続するようにする(ステップS17)。
【0066】
このため、この実施の形態3のVOPデコーダでは、図17のINTRA/INTER処理に示すように、まず、オブジェクトイントラ符号化表示信号7’がONであるか否かを判断し、オブジェクトイントラ符号化表示信号7’がON、すなわちそのVOLを構成する全てのVOPデータ30eがイントラ符号化されたものである場合には、ステップS15−3のマクロブロック単位に符号化モードがイントラ符号化モードであるか否かを判断せずに、復号テクスチャデータ50をそのまま出力テクスチャデータ55として出力するようにしたので、ステップS15−3の処理の分だけ、INTRA/INTER処理を短縮化することができる。
【0067】
図18は、図15に示す本実施の形態3のヘッダ解析部42の内部構成を、VOPヘッダ解析部55の構成を特に詳細にして示したものである。同図において、58はスタートコード解析部、59はVOヘッダ解析部、60はVOLヘッダ解析部、61はGOVヘッダ解析部、62はVOPヘッダ解析部、63はタイムコード、64はモジュロ・タイム・ベース解析部、65はモジュロ・タイム・ベース、66は復号VOP絶対表示時刻作成部、67はVOPタイムインクリメント解析部、68はVOPタイムインクリメント、69は駒落し制御部、70は復号VOP絶対表示時刻、71はデコーダ側にて設定される表示速度情報としてのVOPレート情報、72は映像情報ヘッダ解析部である。
【0068】
図19は、図18に示す駒落し制御部69の内部構成を示した図である。図において、73はオブジェクトイントラ符号化判定部、74は駒落しVOP判定部である。
【0069】
次に、ヘッダ解析部42の動作を詳細に説明する。
図20は、図18に示すヘッダ解析部42の動作を説明するフローチャートで、図16に示すステップS10のヘッダ解析処理を詳細に示すものである。
本実施の形態3におけるヘッダ解析部42は、オブジェクトイントラ符号化表示信号7’をビットストリーム中から復号して、この情報に基づいて駒落とし制御を行うものである。
ここで「駒落とし制御」とは、例えばPC、WSのように使用可能なCPUやメモリ資源が限定された環境でソフトウエアデコーダを用いて画像復号化処理を行う際、前記資源の制約によって符号化されたすべてのVOPを復号できないような場合に、復号を行うVOPを限定してその他のVOPを復号せずに読み飛ばす操作を言う。オブジェクトイントラ符号化表示信号7’の使用方法は後述する。
【0070】
ヘッダ解析部42におけるヘッダ解析処理では、まず、スタートコード解析部58が入力される符号化ビットストリーム30に含まれるスタートコードの解析を行う(ステップS18)。ここで、解析したスタートコードがVOを示すものであればVOヘッダ解析部59へ(ステップS19)、解析したスタートコードがVOLを示すものであればVOLヘッダ解析部60へ(ステップS20)、解析したスタートコードがGOVを示すものであればGOVヘッダ解析部61へ(ステップS21)、解析したスタートコードがVOPを示すものであればVOPヘッダ解析部62へ(ステップS22)、ビットストリームを出力する。なお、VOPヘッダ解析部62の解析処理を終了した後、ビットストリームはビデオ信号解析部44に出力される。
【0071】
すると、VOヘッダ解析部59は、スタートコード解析部58から入力されるビットストリームよりVOヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部58へ出力する(ステップS23)。
【0072】
また、VOLヘッダ解析部60は、スタートコード解析部58から入力されるビットストリームよりVOLヘッダ情報と、オブジェクトイントラ符号化指示信号7との解析を行い、解析を終えたビットストリームはスタートコード解析部58へ出力する一方、解析されたオブジェクトイントラ符号化表示信号7’はVOPヘッダ解析部62とINTRA/INTER判定部54へ出力する(ステップS24)。
【0073】
また、GOVヘッダ解析部61は、スタートコード解析部58から入力されるビットストリームよりGOVヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部58へ出力する(ステップS25)。この際、解析されたGOVヘッダ情報中に含まれるタイムコード63はVOPヘッダ解析部62へ出力される。タイムコード63の定義は、実施の形態2で説明した通りである。
【0074】
次に、ステップS26に相当するVOPヘッダ解析部62の動作について説明する。
図21は、VOPヘッダ解析部62の動作を説明するフローチャートである。まず、VOPヘッダ解析部62に入力されたビットストリームは、モジュロ・タイム・ベース解析部64に入力して、モジュロ・タイム・ベースを解析して(ステップS26−1)、解析したモジュロ・タイム・ベース65を復号VOP絶対表示時刻作成部66へ出力する一方、解析後のビットストリームをVOPタイムインクリメント解析部67へ出力する。
【0075】
VOPタイムインクリメント解析部67は、入力されたビットストリームよりVOPタイムインクリメントの解析を行い(ステップS26−2)、解析されたVOPタイムインクリメント68を復号VOP絶対表示時刻作成部66へ出力する一方、解析後のビットストリームを駒落し制御部69へ出力する。
【0076】
この復号VOP絶対表示時刻作成部66は、入力されるモジュロ・タイム・ベース65と、VOPタイムインクリメント68と、タイムコード63に基づいて復号VOP絶対時刻70を作成し、これを駒落し制御部69へ出力する(ステップS26−3)。
【0077】
ここで、モジュロ・タイム・ベース65とは、図22に示すように、タイムコード63が示すある基準時刻から当該VOPが何秒経過した後に表示されるかを示す情報であり、その秒数を値“1”のビットの個数で表現するとともに、値“0”を付加することによってデータの終端を明示する。
【0078】
また、VOPタイムインクリメント68とは、同じく図22に示すように、モジュロ・タイム・ベース65で定められる時刻からの1秒間を1000分の1秒の精度で表示時刻を微調整する情報である。すなわち、MPEG−4ではVOPの表示時刻を1000分の1秒の精度で規定することができる。従って、復号VOP絶対表示時刻(タイムコード)の作成の一例を説明すると、復号対象VOPのモジュロ・タイム・ベース65が『10』、VOPタイムインクリメント68が『000000』(但し、VOPタイムインクリメントを6ビット精度にて表現した場合)、タイムコード63が示す基準時刻を『00時間12分34秒』とした場合、復号VOPの絶対表示時刻は『00時間12分35秒』となる。
【0079】
次に、駒落し制御部69では、図19に示すように、まず、オブジェクトイントラ符号化判定部73が、オブジェクトイントラ符号化表示信号7’に基づいて、入力するビットストリームの出力先を決定する(ステップS26−4)。具体的には、オブジェクトイントラ符号化表示信号7’がONであるか否かを判断して、ON、すなわちVOL内のすべてのVOPがイントラ符号化されていると判断された場合には(ステップS26−4“YES”)、入力ビットストリームの出力先を駒落しVOP判定部74へ切替える一方、オブジェクトイントラ符号化表示信号がOFFの場合は(ステップS26−4“NO”)、入力ビットストリームの出力先を映像情報ヘッダ解析部72とする。
【0080】
そして、駒落しVOP判定部74では、復号VOP絶対表示時刻作成部66から入力される復号VOP絶対表示時刻70と、駒落しのためエンコーダ側よりレートを落としてデコーダ側にて設定されたVOPレート情報71とに基づいて、解析対象VOPが復号すべきVOPであるかないかの判定を行い(ステップS26−5)、復号の必要があると判定した場合は(ステップS26−5“YES”)、オブジェクトイントラ符号化指示判定部73からの入力ビットストリームを映像情報ヘッダ解析部72へ出力する一方、解析が不必要であると判定した場合は(ステップS26−5“NO”)、スタートコード解析部58へ出力する。
【0081】
ここで、VOPレート情報とは、VOL、GOVなどの所定単位に含まれるVOPを秒あたり何枚表示させるかを表す表示速度情報のことを言う。例えば、VOPレート情報が2枚/秒の場合、1秒あたり2枚のVOPを表示させる。なお、これは、1枚のVOPを1/2秒ずつ表示させると考えることもできる。従って、1枚目のVOPの復号VOP絶対時刻65が『00時間01分00秒』、VOPレート情報が1枚/秒であったとした場合、『00時間01分00秒』に1秒ずつ加えた『00時間01分01秒』、『00時間01分02秒』・・・などを絶対表示時刻として持つVOPが復号が必要なVOPと判断される。このため、デコーダ側にて設定されるVOPレート情報62と、エンコーダ側にて設定されるVOPレート情報とを、例えば、10枚/秒から2枚/秒等のように変えることにより、復号側でVOPの駒落しが可能になる。
【0082】
そして、オブジェクトイントラ符号化判定部73によりオブジェクトイントラ符号化表示信号7’がOFFと判断された場合(ステップS26−4“NO”)、および、オブジェクトイントラ符号化表示信号7’がONと判断され(ステップS26−4“YES”)、かつ、駒落しVOP判定部74により解析対象VOPの復号が必要であると判定された場合には(ステップS26−5“YES”)、映像情報ヘッダ解析部72は、駒落し制御部69から入力されるビットストリームより映像情報ヘッダの解析を行った後、ビットストリームをスタートコード解析部58へ出力する(ステップS26−6)。スタートコード解析部58は、以上のようにして各ヘッダを解析した符号化ビットストリーム43をビデオ信号解析部44へ出力する。
【0083】
従って、ステップS26−4でオブジェクトイントラ符号化判定部73によりオブジェクトイントラ符号化表示信号7’がOFFと判断された場合には、VOPヘッダ解析部62への入力ビットストリームを駒落しVOP判定部74を介さずに映像情報ヘッダ解析部72へ出力するので、VOPの駒落しは行われない。
これはVOL内のVOPがすべてイントラ符号化されていると保証されない場合であり、この時はVOP間で予測符号化を行っている可能性があるため、正しい復号画像を得るにはすべてのVOPを一通り解析しなければならないからである。
【0084】
一方、ステップS26−4でオブジェクトイントラ符号化判定部73によりオブジェクトイントラ符号化表示信号7’がONと判断された場合には、続くステップ26−5で駒落しVOP判定部74によりVOPレート情報62等に基づき現在解析対象となっているVOPの復号が必要であるかないかの判定を行って、復号が必要であると判定した入力ビットストリームのみ映像情報ヘッダ解析部72へ出力するので、VOPの駒落しが行われることになる。
これは、オブジェクトイントラ符号化表示信号7’がONの場合は、VOL内のすべてのVOPがイントラ符号化されていることが保証されるので、デコーダでは任意の個所のVOPを直接選択して復号を行うことができるからである。これにより、自由に駒落とし制御を行うことができる。
【0085】
以上のように、この実施の形態3によれば、VOLヘッダにオブジェクトイントラ符号化表示信号7’が多重化された符号化ビットストリームを復号する際、そのオブジェクトイントラ符号化表示信号7’を解析するように構成したため、オブジェクトイントラ符号化表示信号7’がONである場合に、デコーダ側で設定するVOPレート情報71に応じて任意のVOPを駒落としして表示等することが可能となる。
【0086】
なお、以上の説明では、入力する符号化ビットストリームとして、図5に示すVOLを単位としてVOLヘッダ30bにオブジェクトイントラ符号化表示信号7’が多重化された符号化ビットストリーム30を例に説明したが、本発明では、これに限らず、例えば、図6に示すようなオブジェクトイントラ符号化表示信号7’がGOVヘッダ31cに多重化されている符号化ビットストリーム31を復号するようにしても良い。このようにする場合には、ヘッダ解析部42を、図23に示すように構成し、VOLヘッダ解析部75ではオブジェクトイントラ符号化表示信号7’を解析せず、GOVヘッダ解析部76がGOVヘッダ31cに多重化されているオブジェクトイントラ符号化表示信号7’を解析、復号するようにすれば、GOVを単位とする駒落し表示制御を行うことが可能となる。
【0087】
また、例えば、図24に示すように、複数のオブジェクト77a〜77cに対応させて、本実施の形態3の復号化装置をVOPデコーダ部78a〜78cとして複数備え、コンポジション部79にて複数のオブジェクト77a〜77cの復号画像信号を合成して1つの画像80を再生するシステムを構成することも可能である。このようなシステムを構成した場合、VOPデコーダ部78a〜78cにより、ある特定のオブジェクトのみの表示速度を落としたりするなどの表示制御が可能となる。これにより、例えば複数のオブジェクトが画面に合成されていて、表示されているオブジェクトに重要度がある場合、重要度の低いオブジェクトから表示速度を落とすなどの制御を行うことができる。
【0088】
また、本実施の形態3におけるVOPデコーダでは、前述の実施の形態1で述べたVOPエンコーダで生成される符号化ビットストリームを復号可能なデコーダで、図5や図6に示す符号化VOPビットストリーム30,31を入力して復号するものとして説明したが、本発明では、符号化装置から直接ビットストリームを受信して復号する場合だけを意味するのではなく、符号化装置によって符号化されたビットストリームをいったん記憶させたDVD等の記録媒体から復号する場合も当然に意味している。このことは、他の実施の形態の復号化装置でも同じである。
【0089】
実施の形態4.
本実施の形態4では、実施の形態3で述べたVOPデコーダの別の実施の形態を説明する。つまり、本実施の形態4におけるVOPデコーダは、エンコーダ側で設定したVOPレート情報がVOLヘッダ情報とともにVOLヘッダに多重化されたビットストリームを復号して、これに基づいて表示制御を行う機能を持つものである。
なお、本実施の形態4のVOPデコーダは、実施の形態3で述べたVOPデコーダのヘッダ解析部42の構成のみが異なるので、この部材についてのみ説明する。
【0090】
図25に、本実施の形態4のVOPデコーダが復号する符号化ビットストリーム81の例を示す。図25の符号化ビットストリーム81は、図5の符号化ビットストリーム30におけるVOLヘッダ30bの中に、エンコーダ側で設定したVOPレート情報87が多重化されたビットストリームで、図25ではVOPヘッダ81bにVOPレート情報87が多重化されることになる。このVOPレート情報は、例えば、エンコーダ側で秒あたり30枚のVOPを符号化した場合、30VOP/秒という情報となる。
【0091】
図26は、本実施の形態4の特徴であるヘッダ解析部42の内部構成を示したものである。同図において、83はスタートコード解析部、84はVOLヘッダ解析部、85はスタートコードを解析したVOPの数をカウントしたカウント数、86は駒落しVOP制御部、87はエンコーダで設定したVOPレート情報、88はデコードVOP選択部、89はVOP選択情報、90はVOPヘッダ解析部である。
【0092】
図27は、図26に示す本実施の形態4の駒落しVOP制御部86の構成を示したものである。同図において、73はオブジェクトイントラ符号化判定部、91は駒落しVOP判定部である。
【0093】
次に、本実施の形態4のヘッダ解析部42の動作を説明する。
図28は、本実施の形態4のヘッダ解析部42の動作を説明するフローチャートである。
本実施の形態4のヘッダ解析部42では、まず、スタートコード解析部83において、入力される符号化ビットストリーム81に含まれるスタートコードの解析を行う(ステップS27)。その結果、解析したスタートコードがVOを示すものであればVOヘッダ解析部59へ(ステップS28)、解析したスタートコードがVOLを示すものであればVOLヘッダ解析部84へ(ステップS29)、解析したスタートコードがGOVを示すものであればGOVヘッダ解析部61へ(ステップS30)、解析したスタートコードがVOPを示すものであれば駒落しVOP制御部86へビットストリームを出力するとともに、VOPスタートコードを検出する度にカウントをインクリメントし、このカウント数85も駒落しVOP制御部86へ出力する(ステップS31)。なお、カウント数85は、VOLスタートコードが検出されるたびにリセットされるものとする。
【0094】
すると、VOヘッダ解析部59は、入力されるビットストリームよりVOヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部83へ出力する(ステップS32)。
【0095】
また、VOLヘッダ解析部84は、入力されるビットストリームよりVOLヘッダ情報と、オブジェクトイントラ符号化表示信号7’と、VOPレート情報87の解析を行い、解析を終えたビットストリームはスタートコード解析部83へ出力し、解析されたオブジェクトイントラ符号化表示信号7’は駒落しVOP制御部86へ出力し、解析されたVOPレート情報87はデコードVOP選択部88へ出力する(ステップS33)。
【0096】
また、GOVヘッダ解析部61は、入力されるビットストリームよりGOVヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部83へ出力する(ステップS34)。
【0097】
すると、デコードVOP選択部88では、VOLヘッダ解析部84から入力する符号化側のVOPレート情報87と、ユーザ等によりデコーダ側にて設定されるVOPレート情報71とを比較して、その比較結果に基づき復号化を行うVOPの情報を示すVOP選択情報89を駒落しVOP制御部86に出力する(ステップS35)。
【0098】
VOP選択情報89を具体的に説明すると、例えば、VOLヘッダ解析部84から入力されるVOPレート情報87が30枚/秒、デコーダ側にて設定されるVOPレート情報71が15枚/秒の場合、VOP選択情報89は1VOPおきに解析を行うVOPがあることを示す情報となる。これは、エンコーダ側で1秒あたり30枚のVOPを符号化したビットストリームを復号する際に、デコーダ側で1枚おきにVOPの復号を行うという状況に相当する。
【0099】
次に、駒落とし制御部86は、以下に示すようにステップS36、S37に示す処理を行なう。以下、ステップS38に示すVOPヘッダ解析の処理とともに、駒落とし制御の処理について説明する。
まず、図27に示すように、駒落しVOP制御部86のオブジェクトイントラ符号化判定部73では、VOLヘッダ解析部84から入力されるオブジェクトイントラ符号化表示信号7’に基づき、ビットストリームの出力先を決定する(ステップS36)。具体的には、オブジェクトイントラ符号化表示信号7’がONの場合には、入力ビットストリームの出力先を駒落しVOP判定部91とする一方、オブジェクトイントラ符号化表示信号がOFFの場合には、入力ビットストリームの出力先をVOPヘッダ解析部90とする。
【0100】
そして、オブジェクトイントラ符号化表示信号7’がONの場合、駒落しVOP制御部86の駒落しVOP判定部91では、ステップS37に相当する判定処理を行う。つまり、VOP選択情報89と、カウント数85とに基づいて、解析対象VOPの復号すべきVOPであるか否かの判定を行い、復号すべきVOPであると判定した場合は(ステップS37“YES”)、入力ビットストリームをVOPヘッダ解析部90へ出力する一方、解析が不必要であると判定した場合は(ステップS37“NO”)、入力ビットストリームをスタートコード解析部83へ出力する。例えば、VOP選択情報89が1VOPおきに解析を行うVOPがあることを示している場合、入力されるカウント数86が偶数に場合には復号が必要であると判定し、入力されるカウント数が奇数の場合には復号が不必要であると判定することになる。
【0101】
VOPヘッダ解析部90では、入力されるビットストリームよりVOPヘッダの解析を行い、解析後のビットストリームをスタートコード解析部83へ出力する(ステップS38)。なお、VOPヘッダ解析部90の解析処理が終了した後、スタートコード解析部83は、その解析後のビットストリーム43をビデオ信号解析部44(図15参照)に出力する。
【0102】
従って、ステップS36で駒落しVOP制御部86のオブジェクトイントラ符号化判定部73によりオブジェクトイントラ符号化表示信号7’がOFFと判断された場合には、VOPヘッダ解析部90への入力ビットストリームを駒落しVOP判定部91を介さずに出力するので、VOPの駒落しは行われない。この原理は実施の形態3に述べたことと同じである。一方、ステップS36でオブジェクトイントラ符号化判定部73によりオブジェクトイントラ符号化表示信号7’がONと判断され、かつ、続くステップ37で駒落しVOP判定部91によりVOP選択情報89やカウント数85に基づいて、現在解析対象となっているVOPの復号が必要であるかないかの判定を行う。ここで復号が必要であると判定された入力ビットストリームのみVOPヘッダ解析部90へ出力されるので、VOPの駒落しが行われることになる。
【0103】
以上のように、本実施の形態4では、エンコーダ側で設定したエンコーダ側におけるVOPレート情報87がVOLヘッダ情報とともに多重化されたビットストリームを復号して、これに基づいて表示制御を行う機能を持つようにした以外は、実施の形態3と同様に機能する。そして、実施の形態3の場合と同様に、VOLヘッダにオブジェクトイントラ符号化表示信号7’が多重化された符号化ビットストリームを復号する際、そのオブジェクトイントラ符号化表示信号7’を解析するように構成したため、オブジェクトイントラ符号化表示信号7’がONである場合、すべてのVOPデータがイントラ符号化されていると判断されるオブジェクトについては、エンコーダ側で設定されたVOPレート情報87と、デコーダ側で設定されたVOPレート情報71とに応じて任意のVOPを駒落としして表示等することが可能となる。
【0104】
また、本実施の形態4では、VOLヘッダにオブジェクトイントラ符号化表示信号7’とVOPレート情報87が含まれる符号化ビットストリーム81を復号するよう構成したため、任意のVOPを駒落としして表示できる前記実施の形態3の効果に加えて、個々のVOPヘッダを解析して、個々に設定されている表示時刻に関する相対時間情報(モジュロ・タイム・ベース、VOPタイムインクリメント)を復号する必要がなくなり、より簡易に駒落とし制御が可能となる。
【0105】
なお、以上の説明では、復号側に入力する符号化ビットストリームとして、エンコーダ側におけるVOPレート情報がVOLヘッダに多重化されている符号化ビットストリームを復号するように説明したが、本発明では、これに限らず、例えば、エンコーダ側におけるVOPレート情報がGOVヘッダに多重化されている符号化ビットストリームを復号するようにしても良い。このようにする場合には、図29に示すように、ヘッダ解析部42のGOVヘッダ解析部92にエンコーダ側におけるVOPレート情報93の復号機能を持たせるようにすれば良い。このVOPレート情報93は、GOV内でのVOPの表示速度を示す情報となる。
【0106】
また、実施の形態3の場合と同様に、オブジェクトイントラ符号化表示信号7’がGOVを単位に符号化されているビットストリームでも対応する構成とすることにより、同様の効果を得ることができる。この場合には、例えば、図26では、VOLヘッダ解析部84ではなく、GOVヘッダ解析部61がオブジェクトイントラ符号化表示信号7’の解析機能を持つことになる一方、図29では、VOLヘッダ解析部75ではなく、GOVヘッダ解析部92がオブジェクトイントラ符号化表示信号7’の解析機能を持つことになる。
【0107】
また、本実施の形態4でも、実施の形態3のところで説明したように、実施の形態3のVOPデコーダにより図24に示すような複数オブジェクトを復号して合成するシステムに使用しても、実施の形態3で述べた効果と同様の効果を得ることができる。このことは、後述する他の実施の形態のVOPデコーダでも同様で、図24に示すような複数オブジェクトを復号して合成するシステムを構成できる。
【0108】
実施の形態5.
本実施の形態5では、オブジェクトイントラ符号化表示信号をVOLのレイヤに含み、かつ、GOVのレイヤに当該GOV先頭のVOPの絶対表示時刻を表すタイムコード情報を含む符号化ビットストリームを入力して、任意の時刻のVOPをランダムに指定して復号・表示することを可能とする画像復号化装置について説明する。なお、本実施の形態5では、実施の形態3の構成の復号化装置のヘッダ解析部42の構成のみが異なるので、以下、ヘッダ解析部42の構成および動作についてのみ説明する。また、本実施の形態5では、図5に示す符号化ビットストリーム30を入力して復号するデコーダを説明する。
【0109】
図30は、本実施の形態5におけるヘッダ解析部42の構成を示したものである。同図において、94はスタートコード解析部、95は例えばDRAM,SDRAMなどのメモリや、PCなどに接続されるハードディスクドライブ等の記録媒体で、符号化側から送信されてきた符号化ビットストリーム30を記憶する記憶媒体、96はVOPヘッダ解析部、97は外部設定タイムコード、98は駒落し制御部、99はサーチ指示信号である。
【0110】
図31は、図30に示す駒落し制御部608の構成を示す。図において、73はオブジェクトイントラ符号化判定部、100は比較部、101は記憶媒体である。
【0111】
次に、本実施の形態5のヘッダ解析部42の動作を説明する。
図32は、本実施の形態5のヘッダ解析部42の動作を説明するフローチャートである。
本実施の形態5のヘッダ解析部42では、まず、スタートコード解析部94が、入力される符号化ビットストリーム30に含まれるスタートコードの解析を行う(ステップS39)。解析したスタートコードがVOを示すものであればVOヘッダ解析部59へ(ステップS40)、解析したスタートコードがVOLを示すものであればVOLヘッダ解析部60へ(ステップS41)、解析したスタートコードがGOVを示すものであればGOVヘッダ解析部61へ(ステップS42)、解析したスタートコードがVOPを示すものであればVOPヘッダ解析部96へ(ステップS43)、ビットストリームを出力する。なお、VOPヘッダ解析部96の解析処理を終了した後、ビットストリームはビデオ信号解析部44に出力され、ビデオ信号解析部にて当該VOPのビデオ信号が解析・復号された後、処理は再びスタートコード解析へ移行する。
【0112】
すると、VOヘッダ解析部59は、入力されるビットストリームよりVOヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部94へ出力する(ステップS44)。
また、VOLヘッダ解析部60は、入力されるビットストリームよりVOLヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部94へ出力する(ステップS45)。この際、VOLヘッダ解析部60は、VOLヘッダに含まれるオブジェクトイントラ符号化表示信号7’を復号し、VOPヘッダ解析部96へ出力する。
【0113】
また、GOVヘッダ解析部61は、入力されるビットストリームよりGOVヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部94へ出力する(ステップS46)。この際、GOVヘッダ情報中に含まれるGOVタイムコード63を復号し、VOPヘッダ解析部96へ出力する。
そして、ステップS47では、VOPヘッダ解析処理を実施するVOPヘッダ解析部96が、本実施の形態5で開示されるVOPの高速かつ簡易なランダムアクセスを実現する機構を備える。この機構は具体的には駒落し制御部98にて実現される。
【0114】
図33に、駒落し制御部98によるステップS47のVOPヘッダ解析動作を示すフローチャートである。以下、図30のVOPヘッダ解析部の詳細図、図31、図33をもとに、VOPランダムアクセス処理の動作について説明する。
まず、動作状況として、以下の状況(1)〜(4)を想定する。
【0115】
(1)記憶媒体95(例えばCD-ROM、DVDなどの蓄積メディア、DRAM,SDRAMなどのメモリ、PCなどに接続されるハードディスクドライブなど)に記憶された符号化ビットストリームを読み出して入力し、オブジェクトの復号・表示を実施する。この際、各VOPの絶対表示時刻をユーザが認知できるよう、VOPの表示に合わせて表示画面にタイムコードを出力するものとする。符号化ビットストリームはネットワークや放送網を通じて、デコーダから読み出し可能な記憶媒体95に送り込まれることもある。
【0116】
(2)ユーザが任意の箇所で復号をストップする。同時に該当するタイムコードも当該VOPの位置で停止する。表示は、復号をストップする前に最後に復号されるVOP画像をそのまま表示させる。ユーザは、このストップした時刻から時間的に前や後の方向へ離れた位置のVOPの画像を静止画像としてビットストリーム中から取り出したいと考えている、とする。
【0117】
(3)ユーザは、取り出したいと考えているVOP画像のタイムコードを、例えば、取り出したいと考えているタイムコードを指定するコマンドによる等、何らかの手段で入力する。このようにして入力したタイムコードが、外部設定タイムコード97となる。
【0118】
(4)(3)でユーザが入力した外部設定タイムコード610と、現在停止している状態のVOP画像のタイムコードとを比較し、異なればユーザの指定した外部設定タイムコード610と一致するタイムコードのVOP画像をサーチして復号・表示する。
【0119】
なお、VOPは通常、時間的に前後のVOPの画像を用いて予測符号化されることが多いので、前記の動作を行うためには、所望のタイムコードを持つVOPにたどり着くまでに予測関係を持つVOPをすべて復号しなければならない。
しかし、本実施の形態5では、オブジェクトイントラ符号化表示信号7’と、駒落し制御部98の機構を用いることにより、すべてをイントラ符号化、すなわち予測を行わずに符号化しているVOLを直ちに察知して、そのようなVOLヘッダについてはダイレクトに所望のVOP画像をサーチして復号・再生できるようになる。
【0120】
まず、前記(1)の状態では、復号化装置は通常復号動作を行う。ここでは、復号化装置が前記(1)から(2)の状態に移行する瞬間を仮定する。まず、この時、復号を停止するVOP画像のタイムコードを計算する。これは3つのステップ(ステップS47−1〜S47−3)からなる。
第1のステップは、モジュロ・タイム・ベースをビットストリーム中から解析するステップ(ステップS47−1)で、これはモジュロ・タイム・ベース解析部64にて行われる。
第2のステップは、VOPタイムインクリメントをビットストリーム中から解析するステップ(ステップS47−2)で、これはVOPタイムインクリメント解析部67で行われる。
次いで第3のステップで、前記モジュロ・タイム・ベース、VOPタイムインクリメントに加え、GOVヘッダ解析部61から出力されるGOVタイムコード63とに基づいて、当該VOPの絶対表示時刻であるVOPタイムコード70を計算する(ステップS47−3)。これは復号VOP絶対表示時刻作成部66で行われ、計算方法は実施の形態3に示した通りである。これによって得られた(2)の停止状態のVOPのタイムコードがユーザに提示される。
【0121】
次いで、ユーザは(3)の動作を実施するものとする。これにより、外部設定タイムコード97が与えられ、駒落し制御部98によるランダムアクセス機構が作動する。
つまり、まず、現在のVOPがユーザが希望する表示対象のVOPか否かを判断する(ステップS47−4)。これは比較部100で行われる。具体的には、ユーザの希望する表示対象VOPのタイムコードである外部設定タイムコード97と、現在表示されているVOPのVOPタイムコード70とを比較する。
【0122】
その結果、一致していれば、「表示対象のVOP」と判断して(ステップS47−4“YES”)、映像情報ヘッダ解析処理を行なうようにする(ステップS47−11)。さもなくば(ステップS47-4“NO”)、外部設定タイムコード97と、現在のVOPのVOPタイムコード70との比較により、表示対象VOPが現在のVOPより時間的に先のVOPか否かを判断して(ステップS47−5)、以下のケース1,2のいずれに相当するかを判定する。なお、その際、記憶媒体101は、比較部100が外部設定タイムコード97に近いVOPタイムコード70を選択できるように、比較部100における比較の際、前に使用したVOPタイムコード70を一時記憶等するように動作する。
【0123】
ケース1:
外部設定タイムコード97が(2)の状態のVOPタイムコード70よりも時間的に後を示している場合、例えば、外部設定タイムコード97が01:00:30、(2)の状態のVOPタイムコード70が01:00:10であるような場合である(ステップS47−5“YES”)。アクションは、オブジェクトイントラ符号化表示信号7’の値によって切替える(ステップS47−6)。
つまり、オブジェクトイントラ符号化表示信号7’がONの場合(ステップS47−6“NO”)、すなわち「VOL内のVOPが全てイントラ符号化されている」ことを示す場合は、比較部100は、サーチ指示信号99を「順方向サーチ」に設定し、ビットストリームとともにスタートコード解析部94へ送る(ステップS47−7)。これにより、スタートコード解析部94は(2)の状態のVOPタイムコード70よりも先、すなわち時間的に後のVOPスタートコードをサーチすることになる。
【0124】
これに対し、オブジェクトイントラ符号化表示信号7’がOFFの場合(ステップS47−6“YES”)、すなわち「VOL内のVOPが予測符号化されている」ことを示す場合は、VOL内のVOPは予測を用いて符号化されているため、個々のVOPをダイレクトに復号することができない。この場合は、上記ステップS47−1〜47−3,S47−11の処理により個々のVOPのモジュロ・タイム・ベース65とVOPタイムインクリメント68を復号してVOPタイムコード70を計算するとともに、逐一VOP画像を復号していく必要がある。このケースでは、このようにして逐次、次のVOPを復号していく。
【0125】
ケース2:
外部設定タイムコード97が(2)の状態のVOPタイムコード70よりも時間的に前を示している場合、例えば、外部設定タイムコード97が01:00:00、(2)の状態のVOPタイムコードが01:00:10であるような場合である(ステップS47−5“NO”)。アクションは、オブジェクトイントラ符号化表示信号7’の値によって切替える(ステップS47−8)。
つまり、オブジェクトイントラ符号化表示信号7’がONの場合(ステップS47−8“NO”)、すなわち「VOL内のVOPが全てイントラ符号化されている」ことを示す場合は、比較部100はサーチ指示信号99を「逆方向サーチ」に設定し、ビットストリームとともにスタートコード解析部94へ送る(ステップS47−9)。これにより、スタートコード解析部94はビットストリームを逆方向に解析し、(2)の状態よりも時間的に前のVOPのスタートコードをサーチすることができる。
【0126】
これに対し、オブジェクトイントラ符号化表示信号7’がOFFの場合(ステップS47−8“YES”)、すなわち「VOL内のVOPが予測符号化されている」ことを示す場合、VOL内のVOPは予測を用いて符号化されているため、個々のVOPをダイレクトに復号することができない。この場合は、個々のVOPのモジュロ・タイム・ベース65とVOPタイムインクリメント68を復号してVOPタイムコード70を計算するとともに、画像データまで復号を実行する必要がある。このケースでは、予測を実施していないVOP画像、すなわち時間的に前のI-VOP(イントラ符号化されたVOP)までさかのぼって復号し、そこから復号を再開しなければならない。これはサーチ指示信号99によって時間的に前のI-VOPまでさかのぼって逆サーチを行うよう指示することで対処する(ステップS47−10)。
【0127】
このように、本実施の形態5では、ケース1およびケース2の場合において、オブジェクトイントラ符号化表示信号7’がONのときには、サーチ指示信号99によりVOPのスタートコード検出を進め、ステップS47−11の映像情報ヘッダ解析処理を行なわずに、VOPの画像データは読み飛ばすようにしている。
つまり、VOPスタートコードが検出されるたびに、個々のVOPのモジュロ・タイム・ベースやVOPタイムインクリメントの解析、復号による現在のVOPの絶対表示時刻であるVOPタイムコード70の算出(ステップS47−1〜S47−3)、現在のVOPタイムコード70と、外部設定タイムコード97とのタイムコード比較による表示対象のVOPか否かの判断(ステップS47−4)を行い、外部設定タイムコード97と、サーチした結果のVOPのタイムコード70が一致するまで処理を繰り返す。そして、外部設定タイムコード97と、サーチした結果のVOPタイムコード70が一致したら、表示対象のVOPのところで復号が停止したことになるので、ランダムアクセスの動作を終了する。
【0128】
以上のように、本実施の形態5によれば、VOL内のVOPがすべてイントラ符号化されているかどうかを示すオブジェクトイントラ符号化表示信号7’に基づいて、もしオブジェクトイントラ符号化表示信号7’がONの場合、すなわちVOL内のVOPがすべてイントラ符号化されている場合には、S47−11の映像情報ヘッダ解析処理によるVOPの復号をVOP毎に順次行うことなく、VOPの画像データは読み飛ばして、ダイレクトに所望のVOPの画像データをサーチして復号することができる。
このため、例えば、MPEG−4準拠の圧縮規格を採用した家庭用ビデオなどですべてのVOPをイントラで符号化して記憶媒体95等に記録しておき、これをインターネットや、CD-ROM/DVD-ROMなどで供給される他のオブジェクト映像と合成するなどして所望のシーンを編集するようなケースを考えた場合、本実施の形態5で述べた構成をとる復号化装置によって編集すれば、ビデオ撮影した映像の所望の時刻の画像へ高速にアクセスすることができ、ストレスなく映像編集を行うことが可能となる。
【0129】
また、映像素材を、MPEG−4準拠の圧縮規格によりすべてのVOPをイントラで符号化してDVD-RAMなどの大容量記録メディアに蓄積しておき、テレビプログラムなどの制作の際に、高速にアクセスしながら所望の編集操作を行うことも可能となる。
【0130】
なお、本実施の形態5では、図5に示す符号化ビットストリーム30を例として、オブジェクトイントラ符号化表示信号がVOLヘッダに多重化され、タイムコードを含むGOVのレイヤを含んだビットストリームを復号する例について述べたが、本発明では、これに限らず、図6に示す符号化ビットストリーム31のようにGOVヘッダ31cにオブジェクトイントラ符号化表示信号7’を含む場合についても、GOVヘッダ解析部61でオブジェクトイントラ符号化表示信号7’の解析を行う構成にすることによって、GOV内のすべてのVOPがイントラ符号化されている場合に、任意のVOPへのランダムアクセスをスムーズに行うことが可能である。
【0131】
実施の形態6.
本実施の形態6では、オブジェクトイントラ符号化表示信号7’と、VOL内のVOPの表示速度を示す表示速度情報としてのVOPレート情報とをVOLのレイヤに含み、かつ、GOVのレイヤに当該GOV先頭のVOPの絶対表示時刻を表すタイムコード情報とを含む符号化ビットストリームを入力して、任意の時刻のVOPをランダムに指定して復号・表示することを可能とする画像復号化装置について説明する。なお、本実施の形態6では、実施の形態4の構成の復号化装置のヘッダ解析部の構成のみが異なるので、以下、ヘッダ解析部の動作についてのみ説明する。また、本実施の形態6では、図25に示す符号化ビットストリーム81を入力して復号するものとして説明する。
【0132】
図34は、本実施の形態6におけるヘッダ解析部42の構成を示したものである。同図において、102はスタートコード解析部、103は復号VOP選択部、104はVOPヘッダ解析部である。尚、その他の構成は、図26に示す実施の形態4等のヘッダ解析部の構成と同じなので、同一番号を付してその説明は省略する。
【0133】
図35は、図34に示す復号VOP選択部103の内部構成を示している。図において、73はオブジェクトイントラ符号化判定部、100は比較部、105はVOPタイムコード算出部である。
【0134】
次に、本実施の形態6のヘッダ解析部42の動作を説明する。
図36は、本実施の形態6のヘッダ解析部42の動作を示すフローチャートである。
本実施の形態6のヘッダ解析部42では、まず、スタートコード解析部102が入力される符号化ビットストリーム81に含まれるスタートコードの解析を行う(ステップS48)。解析したスタートコードがVOを示すものであればVOヘッダ解析部59へ(ステップS49)、解析したスタートコードがVOLを示すものであればVOLヘッダ解析部84へ(ステップS50)、解析したスタートコードがGOVを示すものであればGOVヘッダ解析部61へ(ステップS51)、解析したスタートコードがVOPを示すものであれば復号VOP選択部103へ(ステップS52)、ビットストリームを出力する。
なお、VOPヘッダ解析部104の解析処理を終了した後、ヘッダ解析を終了したビットストリーム43はビデオ信号解析部44に出力され、ビデオ信号解析部にて当該VOPのビデオ信号が解析・復号された後、処理は再びスタートコード解析へ移行する。スタートコード解析部102は、内部にVOPカウンタを持ち、VOPスタートコードを検出するたびにVOPカウントをインクリメントしてVOPカウンタ値85を出力する。また、同カウント値85は復号VOP選択部103へ出力する。VOPカウント値85はGOVスタートコードまたはVOLスタートコードが検出されるたびにリセットされるものとする。
【0135】
すると、VOヘッダ解析部59は、入力されるビットストリームよりVOヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部102へ出力する(ステップS53)。
また、VOLヘッダ解析部84は、入力されるビットストリームよりVOLヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部102へ出力する(ステップS54)。この際、VOLヘッダ解析部84は、VOLヘッダ情報中に含まれるオブジェクトイントラ符号化表示信号7’と、VOPレート情報87とを復号し、復号VOP選択部103へ出力する。
【0136】
また、GOVヘッダ解析部61は、入力されるビットストリームよりGOVヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部102へ出力する(ステップS55)。
この際、GOVヘッダ解析部620は、GOVヘッダ情報中に含まれるGOVタイムコード63を復号し、復号VOP選択部103へ出力する。
【0137】
そして、復号VOP選択部103は、本実施の形態6で開示されるVOPの高速かつ簡易なランダムアクセス機構を実現する(ステップS56)。
【0138】
このため、本実施の形態6によれば、オブジェクトイントラ符号化表示信号7’と、復号VOP選択部103の機構を用いることにより、すべてをイントラ符号化、すなわち予測を行わずに符号化しているVOLを直ちに察知して、そのようなVOLについてはダイレクトに所望のVOP画像をサーチして復号・再生できるようになる。
特に、本実施の形態6では、VOLのレイヤにVOPレート情報も含まれており、各VOPのタイムコード70を個々のモジュロ・タイム・ベースや、VOPタイムインクリメントを復号することなく特定することができる。
【0139】
図37に、復号VOP選択部103によるステップS56のVOPランダムアクセス機構の詳細処理のフローチャートを示す。
以下、主に、図35、図37をもとに、VOPランダムアクセス処理の動作について説明する。動作状況として、実施の形態5で述べた(1)〜(4)の状況をここでも想定する。
【0140】
具体的に説明すると、この実施の形態6では、状態(1)では、復号化装置は通常復号動作を行う。ここでは、復号化装置が状態(1)から状態(2)に移行する瞬間を仮定する。この時、まず、ユーザによる(2)の行為により、復号を停止するVOP画像のタイムコード70をVOPタイムコード算出部105にて計算する(ステップS56−1)。これは以下の計算式によって求められる。
VOPタイムコード70=GOVタイムコード63+(VOPカウンタ値85)÷(VOPレート情報87)
つまり、VOPタイムコード算出部105は、VOPカウンタ値85を、符号化側のVOPレート情報87により除算し、その商と、GOVタイムコード63とを加算して、復号を停止しようとするVOP画像のタイムコード70を算出するのである。
【0141】
例えば、GOVタイムコード63が01時間00分00秒、VOPカウンタ値85が60枚、符号化側のVOPレート情報87が30枚/秒とした場合、GOVタイムコード63に、60/30(=2)秒を加算した01時間00分02秒がVOPタイムコードとして算出される。
【0142】
このように、この実施の形態5では、実施の形態5のように3つのステップ(ステップS47−1〜S47−3)から復号を停止するVOP画像のタイムコード70を求める必要はなく、スタートコード解析部102で個々のVOPのスタートコードが検出され、VOPカウンタがインクリメントされ、そのVOPカウンタ値85と、符号化側のVOPレート情報87と、GOVタイムコード63とを利用することにより、実施の形態4の場合よりも迅速に、復号を停止するVOPタイムコード70が決定できる。これによって得られた(2)の停止状態のVOPのタイムコードがユーザに提示される。
【0143】
次いで、ユーザは(3)の動作を実施するものとする。これにより、ユーザが取り出したいと考えている外部設定タイムコード97が与えられ、復号VOP選択部103によるランダムアクセス機構が作動する。
つまり、まず、現在復号を停止しているVOPがユーザが希望する表示対象のVOPか否かを判断する(ステップS56-2)。これは比較部100で行われる。具体的には、外部設定タイムコード97と、VOPタイムコード算出部105からのVOPタイムコード70とを比較する。
【0144】
その結果、一致していれば(ステップS56-2“YES”)、「表示対象のVOP」と判断して、表示対象VOPのVOPヘッダ解析処理を行なう(ステップS67)。さもなくば(ステップS56-2“NO”)、外部設定タイムコード97と、現在のVOPのVOPタイムコード70との比較により、表示対象VOPが現在のVOPより時間的に先のVOPか否かを判断して(ステップS56−3)、以下のケース1,2のいずれに相当するかを判定する。
【0145】
ケース1:
外部設定タイムコード97が(2)の状態のVOPタイムコード70よりも時間的に後を示している場合、例えば、外部設定タイムコード97が01:00:30、(2)の状態のVOPタイムコード70が01:00:10であるような場合である(ステップS56−3“YES”)。アクションは、オブジェクトイントラ符号化表示信号7’の値によって切替える(ステップS56−4)。
つまり、オブジェクトイントラ符号化表示信号7’がONの場合は(ステップS56−4“NO”)、すなわち「VOL内のVOPが全てイントラ符号化されている」ことを示す場合は、比較部100はサーチ指示信号99を「順方向サーチ」に設定し、ビットストリームとともにスタートコード解析部102へ送る(ステップS56−5)。
これにより、スタートコード解析部102は、(2)の状態である復号を停止した状態のVOPタイムコード70よりも先、すなわち時間的に後のVOPスタートコードをサーチすることができる。
【0146】
これに対し、オブジェクトイントラ符号化表示信号7’がOFFの場合(ステップS56−4“YES”)、すなわち「VOL内のVOPが予測符号化されている」ことを示す場合は、VOL内のVOPは予測を用いて符号化されているため、個々のVOPをダイレクトに復号することができない。
このため、この場合は、VOPヘッダ解析部104が、次のステップS57の通常のVOPヘッダ解析処理の中で、図33に示すステップS47−1〜S47−3,S47−11と同等の処理を行なって、個々のVOPのモジュロ・タイム・ベースと、VOPタイムインクリメントとを解析、復号して、復号を停止した現在のVOPのVOPタイムコード611を計算して、逐一VOP画像を復号していく必要がある。このケースでは、このようにして逐次、次のVOPを復号していく。
【0147】
ケース2:
外部設定タイムコード97が(2)の状態のVOPタイムコード70よりも時間的に前を示している場合、例えば、外部設定タイムコード97が01:00:00、(2)の状態のVOPタイムコード70が01:00:10であるような場合である(ステップS56−3“NO”)。アクションは、オブジェクトイントラ符号化表示信号7’の値によって切替える(ステップS56−6)。
つまり、オブジェクトイントラ符号化表示信号7’がONの場合(ステップS56−6“NO”)、比較部100はサーチ指示信号99を「逆方向サーチ」に設定し、ビットストリームとともにスタートコード解析部102へ送る(ステップS56−7)。
これにより、スタートコード解析部102はビットストリームを逆方向に解析し、(2)の状態よりも時間的に前のVOPのスタートコードをサーチする。
【0148】
これに対し、オブジェクトイントラ符号化表示信号7’がOFFの場合(ステップS56−6“YES”)、すなわち「VOL内のVOPが予測符号化されている」ことを示す場合、VOL内のVOPは予測を用いて符号化されているため、個々のVOPをダイレクトに復号することができない。この場合は、個々のVOPの画像データの復号を実行する必要がある。このケースでは、予測を実施していないVOP画像、すなわち時間的に前のI-VOPまでさかのぼって復号し、そこから復号を再開しなければならない。これはサーチ指示信号99によって時間的に前のI-VOPまでさかのぼって逆サーチを行うよう指示することで対処する(ステップS56−8)。
【0149】
このように、本実施の形態6では、ケース1およびケース2の場合において、オブジェクトイントラ符号化表示信号7’がONのときには、サーチ指示信号99によりVOPのスタートコード検出を進め、ステップS57のVOPヘッダ解析処理は行なわずに、VOPの画像データは読み飛ばすようにしている。
つまり、VOPスタートコードが検出されるたびに、現在のVOPの絶対表示時刻であるVOPタイムコード70の算出(ステップS56−1)、VOPタイムコード70と外部設定タイムコード97との比較による表示対象のVOPか否かの判断(ステップS56−2)を行い、外部設定タイムコード97と、サーチした結果のVOPのタイムコード70が一致するまで処理を繰り返す。そして、外部設定タイムコード97と、サーチした結果のVOPタイムコード70が一致したら、表示対象のVOPのところで復号が停止したことになるので、ランダムアクセスの動作を終了する。
【0150】
以上のように、本実施の形態6では、VOL内のVOPがすべてイントラ符号化されているかどうかを示すオブジェクトイントラ符号化表示信号7’に基づいて、例えばオブジェクトイントラ符号化表示信号7’がONで、VOL内のVOPがすべてイントラ符号化されている場合には、ステップS57のVOPヘッダ解析処理をVOP毎に順次行わず、順次VOPの復号を行なわないので、ダイレクトに所望のVOPの画像データをサーチして復号することができる。
【0151】
また、本実施の形態6では、各VOPのタイムコード70を、GOV先頭のVOPのタイムコードであるGOVタイムコード63と、スタートコード解析部102からのVOPカウンタ値85と、符号化側のVOPレート情報87とに基づいて決定するので、各VOPについてモジュロ・タイム・ベースやVOPタイムインクリメントの情報を復号しなくて済む。このことは、外部設定タイムコード97からあらかじめ読み飛ばすVOPの数を計算してランダムアクセスができることを示しており、実施の形態5のように逐一各VOPの表示時刻を図33のステップS47−1〜S47−3の処理により算出して判断するという手間を踏まずに済ませることができ、実施の形態5の場合よりも高速にランダムアクセスができることになる。つまり、各VOPの表示時刻を逐一VOPヘッダ解析に基づいて算出することなく、VOPレート情報に基づいて個々のVOPのタイムコードを特定できるので、高速なランダムアクセスが可能となる。
【0152】
例えば、MPEG−4準拠の圧縮規格を採用した家庭用ビデオなどですべてのVOPをイントラで符号化して記憶媒体95等に記録しておき、これをインターネットやCD-ROM/DVD-ROMなどで供給される他のオブジェクト映像と合成するなどして所望のシーンを編集するようなケースを考えた場合、本実施の形態で述べた構成をとる復号化装置によって編集すれば、ビデオ撮影した映像の所望の時刻の画像へ高速にアクセスすることができ、ストレスなく映像編集を行うことが可能となる。また、映像素材を、MPEG−4準拠の圧縮規格によりすべてのVOPをイントラで符号化してDVD-RAMなどの大容量記録メディアに蓄積しておき、テレビプログラムなどの制作の際に、高速にアクセスしながら所望の編集操作を行うことも可能となる。
【0153】
なお、本実施の形態6では、図25に示す符号化ビットストリーム81を例として、オブジェクトイントラ符号化表示信号7’と、VOPレート情報87とをVOLヘッダ81bに含み、かつ、GOVヘッダ81cに当該GOV先頭のVOPの絶対表示時刻を表すGOVタイムコード63を含む符号化ビットストリームを復号する例について述べたが、本発明では、これに限らず、例えば、GOVヘッダにGOVタイムコード63だけでなく、オブジェクトイントラ符号化表示信号7’、VOPレート情報87を設けた符号化ビットストリーム(図示せず)を復号するようにしても良い。この場合は、図34におけるGOVヘッダ解析部61に、GOVタイムコード63の復号機能だけでなく、オブジェクトイントラ符号化表示信号7’と、VOPレート情報87との復号機能を持たせるようにすればよい。
【0154】
実施の形態7.
本実施の形態7では、実施の形態2で説明したVOPエンコーダによって生成される符号化ビットストリームを復号するVOPデコーダについて説明する。
つまり、本実施の形態7のVOPデコーダは、図12に示す符号化ビットストリーム39を入力とし、符号化ビットストリーム39中から実施の形態2で述べたオブジェクトイントラ符号化表示信号7’、表示時刻多重化識別情報34、各VOPのタイムコード35を復号し、これらの値に基づいてVOPの復号および表示を制御することを特徴とするものである。
尚、本実施の形態7におけるVOPデコーダは、実施の形態6記載のVOPデコーダと基本的な構成は同じであり、ヘッダ解析部42のみが異なるので、以下では本実施の形態におけるヘッダ解析部42の説明のみを行う。
【0155】
図38は本実施の形態7におけるヘッダ解析部42の内部構成を示したものである。図において、106はVOLヘッダ解析部、107は復号VOP選択部である。尚、その他の構成は、図34に示す実施の形態6のヘッダ解析部42の構成と同じなので、同一番号を付してその説明は省略する。
【0156】
図39は、図38に示す実施の形態7の復号VOP選択部107の内部構成を示している。図において、73はオブジェクトイントラ符号化判定部、100は比較部、108はVOPタイムコード保持部である。
【0157】
以下、本実施の形態7のヘッダ解析部42の動作を説明する。
図40は、本実施の形態のヘッダ解析部42の動作を示すフローチャートである。
本実施の形態7のヘッダ解析部42では、まず、スタートコード解析部102において、入力される符号化ビットストリーム39に含まれるスタートコードの解析を行う(ステップS58)。解析したスタートコードがVOを示すものであればVOヘッダ解析部59へ(ステップS59)、解析したスタートコードがVOLを示すものであればVOLヘッダ解析部106へ(ステップS60)、解析したスタートコードがGOVを示すものであればGOVヘッダ解析部61へ(ステップS61)、解析したスタートコードがVOPを示すものであれば復号VOP選択部107へ(ステップS62)、ビットストリームを出力する。
【0158】
なお、VOPヘッダ解析部104の解析処理を終了した後、ビットストリーム43は、スタートコード解析部102からビデオ信号解析部44に出力され、ビデオ信号解析部44にて当該VOPのビデオ信号が解析・復号された後、処理は再びスタートコード解析へ移行する。スタートコード解析部102は、内部にVOPカウンタを持ち、VOPスタートコードを検出するたびにVOPカウントをインクリメントしてVOPカウンタ値85を復号VOP選択部107へ出力する。VOPカウンタはVOLスタートコードが検出されるたびにリセットされるものとする。
【0159】
すると、VOヘッダ解析部59は、入力されるビットストリームよりVOヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部102へ出力する(ステップS63)。
【0160】
また、VOLヘッダ解析部106は、入力されるビットストリームよりVOLヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部102へ出力する(ステップS64)。
【0161】
この際、VOLヘッダ解析部106は、図12に示すように、VOLヘッダ情報中に含まれるオブジェクトイントラ符号化表示信号7’、表示時刻多重化識別情報34、タイムコード35とを復号し、復号VOP選択部106へ出力する。
【0162】
ただし、実施の形態2で述べたように、表示時刻多重化識別情報34は、オブジェクトイントラ符号化表示信号7’がON、すなわちVOLの単位の中に含まれる全てのVOPをイントラのみで符号化することを示している場合のみ復号され、タイムコード35は、さらに表示時刻多重化識別情報34がONを示している場合のみ復号される。以下の説明においては、オブジェクトイントラ符号化表示信号7’、表示時刻多重化識別情報34ともにONであり、VOL内のすべてのVOPのタイムコード35がVOLヘッダ解析部106で復号されるものとする。
【0163】
また、GOVヘッダ解析部61は、入力されるビットストリームよりGOVヘッダ情報の解析を行い、解析を終えたビットストリームをスタートコード解析部102へ出力する(ステップS65)。
この際、GOVヘッダ解析部61は、GOVヘッダ情報中に含まれるGOVタイムコード63を復号するが、本実施の形態7ではこのGOVタイムコード情報は使用しない。
【0164】
そして、復号VOP選択部107は、本実施の形態7で開示されるVOPの高速かつ簡易なランダムアクセス機構を実現して、復号しようとするVOPを選択する(ステップS66)。本実施の形態7のランダムアクセス機構の特長は、比較部100において外部設定タイムコード97と比較するVOPタイムコードを、全く演算を行うことなく得ることができるという点にある。
【0165】
図41に、復号VOP選択部107によるステップS66の復号VOP選択処理によるVOPランダムアクセス機構の詳細処理のフローチャートを示す。
以下、主に、図39、図41をもとに、VOPランダムアクセス処理の動作について説明する。動作状況として、実施の形態5で述べた(1)〜(4)の状況をここでも想定する。
【0166】
まず、VOLヘッダ解析部106において復号されたVOL内のすべてのVOPのタイムコード35は、復号VOP選択部107のVOPタイムコード保持部108に蓄積され、当該VOLの復号終了まで保持される(ステップS66−1)。この時、状態(1)では、復号化装置は通常復号動作を行う。
【0167】
次に、復号化装置が状態(1)から状態(2)に移行する瞬間を仮定する。
この時、ユーザによる状態(1)から状態(2)へ移行する動作によって、復号VOP選択部107のVOPタイムコード保持部108には、その移行時のVOPカウンタ値85が示すVOP画像のタイムコード35を読出すための読出し指令等(図示せず)が入力したり、生成等される。
【0168】
すると、VOPタイムコード保持部108からは、状態(1)から状態(2)へ移行する瞬間にスタートコード解析部102から入力したVOPカウンタ値85が示すVOP、すなわち(2)により復号を停止するVOP画像のタイムコード35がタイムコード70として読み出され、比較部100へ出力される(ステップS66−2)。
このような仕組みによって、(2)により復号を停止するVOPのタイムコード70が、VOPヘッダの解析も、何らの演算も行わずに、スタートコード解析部102からのVOPカウンタ値85のみに基づいて特定することができる。これによって得られた(2)の停止状態のVOPのタイムコード70がユーザに提示される。
【0169】
次いで、ユーザは(3)の動作を実施するものとする。これにより、外部設定タイムコード97が比較部100に与えられ、復号VOP選択部107によるランダムアクセス機構が作動する。
なお、この例では、上述のように、VOPタイムコード保持部108は、状態(2)へ移行する時に入力したVOPカウンタ値85が示すVOP画像のタイムコード35を、タイムコード70として比較部100へ出力するように説明したが、これに限らず、VOPタイムコード保持部108は、スタートコード解析部102から常時入力するVOPカウンタ値85が示すVOP画像のタイムコード35を、タイムコード70として比較部100へ常時出力するようにしてもよい。ただし、この場合でも、比較部100は、状態(2)へ移行する瞬間に入力したタイムコード70と、(3)の動作により与えられる外部設定タイムコード97とにを用いて、ランダムアクセス機構を行なうように構成されることになる。要は、VOPタイムコード保持部108に保持されたタイムコード35のうち、状態(2)へ移行する時のタイムコード70と、外部設定タイムコード97とを用いたランダムアクセス機構が作動するように構成すれば良いのである。
【0170】
具体的には、まず、当該VOPがユーザが希望する表示対象のVOPか否かを判断する(ステップS66-3)。これは比較部100で行われる。具体的には、外部設定タイムコード97と、VOPタイムコード保持部108からの(2)により復号を停止した現在のVOPのVOPタイムコード70とを比較することにより行なう。
【0171】
ここで、外部設定タイムコード97と、現在のVOPのVOPタイムコード70とが一致していれば(ステップS66−3“YES”)、「表示対象のVOP」と判断して、表示対象VOPのVOPヘッダ解析処理を行なう(ステップS67)。さもなくば(ステップS66−3“NO”)、外部設定タイムコード97と、現在のVOPのVOPタイムコード70との比較により、表示対象VOPが現在のVOPより時間的に先のVOPか否かを判断して(ステップS66−4)、以下のケース1,2のいずれに相当するかを判定する。
【0172】
ケース1:
外部設定タイムコード97が(2)の状態のVOPタイムコード70よりも時間的に後を示している場合、例えば、外部設定タイムコード97が01:00:30、(2)の状態のVOPタイムコード70が01:00:10であるような場合である(ステップS66−4“YES”)。アクションは、オブジェクトイントラ符号化表示信号7’の値によって切替える(ステップS66−5)。
つまり、オブジェクトイントラ符号化表示信号7’がONの場合は(ステップS66−5“NO”)、すなわち「VOL内のVOPが全てイントラ符号化されている」ことを示す場合は、比較部100はサーチ指示信号99を「順方向サーチ」に設定し、ビットストリームとともにスタートコード解析部102へ送る(ステップS66−6)。
これにより、スタートコード解析部102は、(2)の状態のVOPタイムコード70よりも先、すなわち時間的に後ののVOPスタートコードをサーチする。
【0173】
これに対し、オブジェクトイントラ符号化表示信号7’がOFFの場合(ステップS56−5“YES”)、すなわち「VOL内のVOPが予測符号されている」ことを示す場合は、個々のVOPをダイレクトに復号することができない。
このため、この場合は、実施の形態6の場合と同様に、VOPヘッダ解析部104が、次のステップS67の通常のVOPヘッダ解析処理の中で、図33に示すステップS47−1〜S47−3,S47−11と同等の処理を行なって、個々のVOPのモジュロ・タイム・ベースと、VOPタイムインクリメントとを解析、復号して、復号を停止した現在のVOPのVOPタイムコード611を計算して、逐一VOP画像を復号していく必要がある。このケースでは、このようにして逐次、次のVOPを復号していく。
【0174】
ケース2:
外部設定タイムコード97が(2)の状態のVOPタイムコード70よりも時間的に前を示している場合、例えば、外部設定タイムコード97が01:00:00、(2)の状態のVOPタイムコードが01:00:10であるような場合である(ステップS66−4“NO”)。アクションは、オブジェクトイントラ符号化表示信号7’の値によって切替える(ステップS66−7)。
つまり、オブジェクトイントラ符号化表示信号7’がONの場合(ステップS66−7“NO”)、比較部100はサーチ指示信号99を「逆方向サーチ」に設定し、ビットストリームとともにスタートコード解析部102へ送る(ステップS66−8)。
これにより、スタートコード解析部102は、ビットストリームを逆方向に解析し、(2)の状態よりも時間的に前のVOPのスタートコードをサーチすることができる。
【0175】
これに対し、オブジェクトイントラ符号化表示信号7’がOFFの場合(ステップS66−7“YES”)、すなわち「VOL内のVOPが予測符号化されている」ことを示す場合は、個々のVOPをダイレクトに復号することができない。この場合は、逐一画像データまで復号を実行する必要がある。このケースでは、予測を実施していないVOP画像、すなわち時間的に前のI-VOPまでさかのぼって復号し、そこから復号を再開しなければならない。これはサーチ指示信号99によって時間的に前のI-VOPまでさかのぼって逆サーチを行うよう指示することで対処する(ステップS66−9)。
【0176】
このように、本実施の形態7では、実施の形態6の場合と同様に、ケース1およびケース2の場合において、オブジェクトイントラ符号化表示信号7’がONのときには、サーチ指示信号99によりVOPのスタートコード検出を進め、ステップS57のVOPヘッダ解析処理は行なわずに、VOPの画像データは読み飛ばすようにしている。
つまり、本実施の形態7では、ステップS66−1の処理により、VOLヘッダ解析部106において復号されたVOL内のすべてのVOPのタイムコード35が、当該VOLの復号終了までVOPタイムコード保持部108に保持されているので、ユーザによる(2)の動作により復号が停止されるたびに、VOPタイムコード保持部108からは、その時のスVOPカウンタ値85が示すVOPのタイムコード35がタイムコード70として読み出されて(ステップS66−2)、VOPタイムコード70と、外部設定タイムコード97との比較による表示対象のVOPか否かの判断が行われ(ステップS66−3)、外部設定タイムコード97と、サーチした結果のVOPのタイムコード70が一致するまでこれらの処理が繰り返されることになる。そして、外部設定タイムコード97と、サーチした結果のVOPタイムコード70が一致したら、表示対象のVOPのところで復号が停止したことになるので、ランダムアクセスの動作を終了する。
【0177】
以上のように、本実施の形態7では、VOL内のVOPがすべてイントラ符号化されているかどうかを示すオブジェクトイントラ符号化表示信号7’に基づいて、例えばオブジェクトイントラ符号化表示信号7’がONで、VOL内のVOPがすべてイントラ符号化されている場合には、ステップS67のVOPヘッダ解析処理をVOP毎に順次行わず、順次VOPの復号を行なわないので、ダイレクトに所望のVOPの画像データをサーチして復号することができる。
【0178】
また、本実施の形態7では、各VOPのタイムコード35を、VOLヘッダから直接復号してVOPタイムコード保持部108に保持し、スタートコード解析部102からのVOPカウンタ値85に基づいて読み出すように構成したため、各VOPについてモジュロ・タイム・ベースや、VOPタイムインクリメントの情報を復号しなくて済むばかりでなく、デコーダでは何らの演算機構も必要としない。これにより、外部設定タイムコード97と、保持した各VOPのタイムコード35との比較のみで復号すべきVOPを特定できるため、実施の形態5,6よりも高速な、非常に高速なランダムアクセスが可能となる。
【0179】
例えば、MPEG−4準拠の圧縮規格を採用した家庭用ビデオなどですべてのVOPをイントラで符号化して記憶媒体95等に記録しておき、これをインターネットやCD-ROM/DVD-ROMなどで供給される他のオブジェクト映像と合成するなどして所望のシーンを編集するようなケースを考えた場合、本実施の形態で述べた構成をとる復号化装置によって編集すれば、ビデオ撮影した映像の所望の時刻の画像へ高速にアクセスすることができ、ストレスなく映像編集を行うことが可能となる。また、映像素材を、MPEG−4準拠の圧縮規格によりすべてのVOPをイントラで符号化してDVD-RAMなどの大容量記録メディアに蓄積しておき、テレビプログラムなどの制作の際に、高速にアクセスしながら所望の編集操作を行うことも可能となる。
【0180】
なお、本実施の形態7では、図12に示す符号化ビットストリーム39を例として、VOLヘッダにオブジェクトイントラ符号化表示信号7’、表示時刻多重化識別情報34、タイムコード35が含まれるビットストリームを復号する例について述べたが、これに限らず、図13や、図14に示す符号化ビットストリーム40、41を復号するVOPデコーダにも同様の考え方を適用することができる。
【0181】
例えば、図13の符号化ビットストリーム40を復号するVOPデコーダでは、GOVごとにその内部に含まれるVOPのタイムコードを多重化しているので、VOLヘッダ解析部106ではオブジェクトイントラ符号化表示信号7’のみを復号し、GOVヘッダ解析部61ではオブジェクトイントラ符号化表示信号7’に基づいて表示時刻多重化識別情報34、タイムコード35を復号するように構成すればよい。この場合は、表示時刻多重化識別情報34がONであるGOVについては、その内部のすべてのVOPについて高速ランダムアクセスが可能である。
【0182】
また、図14の符号化ビットストリーム40を復号するVOPデコーダでは、GOVヘッダ解析部61で、オブジェクトイントラ符号化表示信号7’、表示時刻多重化識別情報34、タイムコード35を復号するように構成し、GOVごとに独立にランダムアクセスの機能性を規定することができる。
【0183】
以上説明した実施の形態1〜7では、被符号(復号)化画像をオブジェクト単位のVOPとして規定してオブジェクト単位に画像を符号化するMPEG−4対応の画像符号化装置または画像復号化装置を例に説明したが、本発明では、これに限らず、オブジェクトやVOP等の概念のないMPEG−1やMPEG−2等の画像符号化装置、画像符号化方法、画像復号化装置および画像復号化方法にも適用できる。この場合、動画像シーケンスを構成する各時刻の画像である被符号化画像や、テレビ信号等における画像フレーム等が、以上説明した実施の形態1〜5におけるVOPに該当することになり、VOPを被符号化画像や画像フレーム等に置き換えることにより実施の形態1〜7と同様に考えることができる。
例えば、MPEG−1やMPEG−2などではユーザが自由にデータの定義を行うことができるユーザデータ領域や、将来の機能拡張のためのビットフィールドが設けられており、これらのデータ領域において本発明に示したようなシンタックスを取り決めておけば、ランダムアクセスや駒落し制御などの機能性を向上することが可能となる。
また、以上説明した実施の形態1〜7では、オブジェクトイントラ符号化表示信号7’は、MPEG4で規定されているVOLまたはGOV単位の動画像シーケンス中に含まれる全てのVOPがイントラのみで符号化されるか否かを示す情報として説明したが、本発明では、これらVOL、GOV単位の動画像シーケンスに限らないものである。つまり、これら以外のVOPの集まりの単位が動画像シーケンスとして存在していたり、動画像シーケンスとして定義できるのであれば、オブジェクトイントラ符号化表示信号7’は、そのようなVOL、GOV単位以外を単位とする動画像シーケンスに含まれる全てのVOPがイントラのみで符号化されるか否かを示す情報となる。これは、VOPを被符号化画像や、画像フレーム等に置き換えた場合も同様である。
【0184】
【発明の効果】
以上説明したように、本発明に係る画像復号化装置および画像復号化方法では、符号化ビットストリームからVOLの動画像シーケンスを構成するVOPすべてがイントラ符号化されているか否かを示すイントラ符号化表示情報を解析すると共に、そのイントラ符号化表示情報に基づいて、当該VOL中の任意のVOPにランダムアクセス可能であると察知するようにしたため、復号側において動画像シーケンスを構成する個々のVOPのヘッダやオーバヘッドを復号することなく動画像シーケンス内に含まれるVOPにランダムアクセス可能であると判断することができる。その結果、復号側で簡単に表示速度や、復号速度を変化させて復号を行ったり、所望の時刻のVOPへ簡単にランダムアクセスすることが可能になる。
【図面の簡単な説明】
【図1】 実施の形態1におけるVOPエンコーダの構成例を示す図である。
【図2】 図1のVOPエンコーダの動作を示すフローチャートである。
【図3】 INTRA/INTER判定部14の動作を説明するフローチャートである。
【図4】 図1に示すヘッダ多重化部8の構成例を示す図である。
【図5】 実施の形態1のVOPエンコーダから出力される符号化ビットストリーム30の例を示す図である。
【図6】 実施の形態1のVOPエンコーダから出力される符号化ビットストリーム31の例を示す図である。
【図7】 図6に示す符号化ビットストリーム200を生成する場合における実施の形態1のヘッダ多重化部8の構成例を示す図である。
【図8】 実施の形態2におけるVOPエンコーダの構成例を示す図である。
【図9】 図8におけるヘッダ多重化部8の構成例を示す図である。
【図10】 実施の形態2のVOPエンコーダから出力される符号化ビットストリーム37の例を示す図である。
【図11】 実施の形態2のVOPエンコーダから出力される符号化ビットストリーム38の例を示す図である。
【図12】 実施の形態2のVOPエンコーダから出力される符号化ビットストリーム39の例を示す図である。
【図13】 実施の形態2のVOPエンコーダから出力される符号化ビットストリーム40の例を示す図である。
【図14】 実施の形態2のVOPエンコーダから出力される符号化ビットストリーム41の例を示す図である。
【図15】 実施の形態3におけるVOPデコーダの内部構成例を示した図である。
【図16】 図15に示す画像復号化装置の動作を説明するフローチャートである。
【図17】 図15のINTRA/INTER判定部54の動作を示すフローチャートである。
【図18】 図15に示す実施の形態3のヘッダ解析部42の内部構成を詳細にして示した図である。
【図19】 図18に示す駒落し制御部69の内部構成を示した図である。
【図20】 図18に示すヘッダ解析部42の動作を説明するフローチャートである。
【図21】 VOPヘッダ解析部62の動作を説明するフローチャートである。
【図22】 モジュロ・タイム・ベース65およびVOPタイムインクリメント68を説明するための図である。
【図23】 実施の形態3のヘッダ解析部42の内部構成の他の例を示した図である。
【図24】 実施の形態3の画像復号化装置を複数のオブジェクトの復号画像信号を合成して1つの画像を再生するシステムに適用する例を示す図である。
【図25】 VOPレート情報をVOLヘッダに含む符号化ビットストリームを示す図である。
【図26】 実施の形態4におけるヘッダ解析部42の内部構成を示す図である。
【図27】 図26に示す実施の形態4の駒落しVOP制御部86の構成を示した図である。
【図28】 実施の形態4のヘッダ解析部42の動作を説明するフローチャートである。
【図29】 実施の形態4におけるヘッダ解析部42の他の構成例を示す図である。
【図30】 実施の形態5のヘッダ解析部42の内部構成を示す図である。
【図31】 実施の形態5の駒落し制御部98の内部構成を示す図である。
【図32】 実施の形態5のヘッダ解析部42の動作を示すフローチャートである。
【図33】 実施の形態5の駒落し制御部98の動作を示すフローチャートである。
【図34】 実施の形態6におけるヘッダ解析部42の内部構成を示す図である。
【図35】 図34に示す復号VOP選択部103の内部構成を示す図である。
【図36】 実施の形態6のヘッダ解析部42の動作を示すフローチャートである。
【図37】 実施の形態6の復号VOP選択部103によるステップS56のVOPランダムアクセス機構の詳細処理を示すフローチャートである。
【図38】 実施の形態7におけるヘッダ解析部42の内部構成を示す図である。
【図39】 図38に示す復号VOP選択部107の内部構成を示す図である。
【図40】 実施の形態7のヘッダ解析部42の動作を示すフローチャートである。
【図41】 実施の形態7の復号VOP選択部107によるステップS66のVOPランダムアクセス機構の詳細処理を示すフローチャートである。
【図42】 MPEG−4におけるビデオデータ構造を示す図である。
【図43】 VOPの具体例を示す図である。
【図44】 従来の符号化ビットストリームの例を示す図である。
【符号の説明】
1 形状符号化部、2 形状符号化データ、3 局所復号形状データ、4 動き補償予測部、5 動き情報、6 GOV多重化情報、7 オブジェクトイントラ符号化指示信号、7’ オブジェクトイントラ符号化表示信号、8 ヘッダ多重化部、9 ヘッダ情報多重化後のビットストリーム、10 ビデオ信号多重化部、11 予測画像、12 減算器、13 予測誤差画像、14 INTRA/INTER判定部、15 被符号化テクスチャデータ、16 マクロブロック単位の符号化モード情報、17 テクスチャ符号化部、18 テクスチャ符号化データ、19局所復号予測誤差画像、20 加算器、21 局所復号テクスチャデータ、22 メモリ、23 参照テクスチャデータ、24 符号化ビットストリーム、25 VOヘッダ多重化部、26 VOLヘッダ多重化部、27 GOVヘッダ多重化選択部、28 GOVヘッダ多重化部、29 VOPヘッダ多重化部、30符号化ビットストリーム、31 符号化ビットストリーム、32 VOLヘッダ多重化部、33 GOVヘッダ多重化部、34 表示時刻多重化識別情報、35 タイムコード、36 VOLヘッダ多重化部、37 符号化ビットストリーム、38 符号化ビットストリーム、39 符号化ビットストリーム、40 符号化ビットストリーム、41 符号化ビットストリーム、42 ヘッダ解析部、43 ヘッダ情報が解析されたビットストリーム、44 ビデオ信号解析部、45 形状符号化データ、46 形状復号部、47 復号形状データ、48 テクスチャ符号化データ、49 テクスチャ復号部、50 復号テクスチャデータ、51 動き情報、52 動き補償部、53 復号予測テクスチャデータ、54 INTRA/INTER判定部、55 出力テクスチャデータ、56 メモリ、57 参照テクスチャデータ、58 スタートコード解析部、59 VOヘッダ解析部、60 VOLヘッダ解析部、61 GOVヘッダ解析部、62 VOPヘッダ解析部、63 タイムコード、64 モジュロ・タイム・ベース解析部、65 モジュロ・タイム・ベース、66 復号VOP絶対時刻作成部、67 VOPタイムインクリメント解析部、68 VOPタイムインクリメント、69 駒落し制御部、70 復号VOP絶対表示時刻、71 デコーダ側で設定されるVOPレート情報、72 映像情報ヘッダ解析部、73 オブジェクトイントラ符号化判定部、74 駒落しVOP判定部、75 VOLヘッダ解析部、76 GOVヘッダ解析部、77 オブジェクト符号化ビットストリーム、78 VOPデコーダ、79 コンポジション部、80 再生画像、83 スタートコード解析部、84 VOLヘッダ解析部、85 カウント数、86 駒落しVOP制御部、87エンコーダで設定したVOPレート情報、88 デコードVOP選択部、89VOP選択情報、90 VOPヘッダ解析部、91 駒落しVOP判定部、92 GOVヘッダ解析部、93 GOV単位のVOPレート情報、94 スタートコード解析部、95 記憶媒体、96 VOPヘッダ解析部、97 外部設定タイムコード、98 駒落し制御部、99 サーチ指示信号、100 比較部、101 記憶媒体、102 スタートコード解析部、103 復号VOP選択部、104 VOPヘッダ解析部、105 VOPタイムコード算出部、106 VOLヘッダ解析部、107 復号VOP選択部、108 VOPタイムコード保持部。

Claims (4)

  1. 複数のVOPから構成されるVOLの動画像シーケンスのヘッダ情報に、当該VOLの動画像シーケンスを構成するVOP全てがイントラ符号化されたか否かを示すイントラ符号化表示情報を意味する符号語を含む符号化ビットストリームを入力とし、前記VOLの動画像シーケンスのヘッダ情報を解析するヘッダ情報解析手段を備え、該ヘッダ情報解析手段から出力される前記イントラ符号化表示情報が、当該VOL中の全てのVOPがイントラ符号化されていることを示す場合に、当該VOL中の任意のVOPにランダムアクセス可能であると察知することを特徴とする画像復号化装置。
  2. 複数のVOPから構成されるVOLの動画像シーケンスのヘッダ情報に、当該VOLの動画像シーケンスを構成するVOP全てがイントラ符号化されたか否かを示すイントラ符号化表示情報を意味する符号語、および当該VOLの動画像シーケンスを構成するVOPの単位時間当たりの表示枚数を示すVOPレート情報を意味する符号語を含む符号化ビットストリームを入力とし、前記VOLの動画像シーケンスのヘッダ情報を解析するヘッダ情報解析手段を備え、該ヘッダ情報解析手段から出力される前記イントラ符号化表示情報が、当該VOL中の全てのVOPがイントラ符号化されていることを示す場合に、当該VOL中の任意のVOPにランダムアクセス可能であると察知するとともに、前記ヘッダ情報解析手段は当該VOL中のランダムアクセス可能なVOPの時刻の特定を可能とする前記VOPレート情報を出力することを特徴とする画像復号化装置。
  3. 複数のVOPから構成されるVOLの動画像シーケンスのヘッダ情報に、当該VOLの動画像シーケンスを構成するVOP全てがイントラ符号化されたか否かを示すイントラ符号化表示情報を意味する符号語を含む符号化ビットストリームを入力し、前記VOLの動画像シーケンスのヘッダ情報を解析し、該ヘッダ情報の解析の結果得られた前記イントラ符号化表示情報が、当該VOL中の全てのVOPがイントラ符号化されていることを示す場合に、当該VOL中の任意のVOPにランダムアクセス可能であると察知することを特徴とする画像復号化方法。
  4. 複数のVOPから構成されるVOLの動画像シーケンスのヘッダ情報に、当該VOLの動画像シーケンスを構成するVOP全てがイントラ符号化されたか否かを示すイントラ符号化表示情報を意味する符号語、および当該VOLの動画像シーケンスを構成するVOPの単位時間当たりの表示枚数を示すVOPレート情報を意味する符号語を含む符号化ビットストリームを入力し、前記VOLの動画像シーケンスのヘッダ情報を解析し、該ヘッダ情報の解析の結果得られた前記イントラ符号化表示情報が、当該VOL中の全てのVOPがイントラ符号化されていることを示す場合に、当該VOL中の任意のVOPにランダムアクセス可能であると察知するとともに、当該VOL中のランダムアクセス可能なVOPの時刻の特定を可能とする前記VOPレート情報を得ることを特徴とする画像復号化方法。
JP05469498A 1997-10-27 1998-03-06 画像復号化装置、画像復号化方法 Expired - Lifetime JP3860323B2 (ja)

Priority Applications (27)

Application Number Priority Date Filing Date Title
JP05469498A JP3860323B2 (ja) 1997-10-27 1998-03-06 画像復号化装置、画像復号化方法
US09/530,136 US7127110B1 (en) 1997-10-27 1998-10-03 Image encoding device, image encoding method, image decoding device and image decoding method
TW87117418A TW407431B (en) 1997-10-27 1998-10-21 Image encoding/decoding device and method therefor
EP20100000893 EP2200314B1 (en) 1997-10-27 1998-10-23 Image coding apparatus
PCT/JP1998/004815 WO1999022517A1 (en) 1997-10-27 1998-10-23 Image encoding device, image encoding method, image decoding device and image decoding method
DE1998633443 DE69833443T2 (de) 1997-10-27 1998-10-23 Vorrichtungen und verfahren zum kodieren und dekodieren von bildern
EP20100011903 EP2306722B1 (en) 1997-10-27 1998-10-23 Image coding method
EP20100011902 EP2306721B1 (en) 1997-10-27 1998-10-23 Image decoding method
EP20100000894 EP2187641B1 (en) 1997-10-27 1998-10-23 Image encoding method
EP20050008083 EP1558038B1 (en) 1997-10-27 1998-10-23 Image coding apparatus
KR10-2000-7004504A KR100377286B1 (ko) 1997-10-27 1998-10-23 화상 부호화 장치, 화상 부호화 방법, 화상 복호화 장치및 화상 복호화 방법
CA 2308460 CA2308460C (en) 1997-10-27 1998-10-23 Image coding apparatus, image coding method, image decoding apparatus and image decoding method
AU96474/98A AU9647498A (en) 1997-10-27 1998-10-23 Image encoding device, image encoding method, image decoding device and image decoding method
EP98950368A EP1026899B1 (en) 1997-10-27 1998-10-23 Image encoding device, image encoding method, image decoding device and image decoding method
DE69841698T DE69841698D1 (de) 1997-10-27 1998-10-23 Vorrichtung zum Kodieren von Bildern
EP20100011904 EP2306723B1 (en) 1997-10-27 1998-10-23 Image coding apparatus
CNB988127067A CN1201586C (zh) 1997-10-27 1998-10-23 图像解码装置
HK01100809A HK1030121A1 (en) 1997-10-27 2001-02-05 Image encodeing device, image encoding method, image decoding device and image decoding method
HK05110863A HK1079022A1 (en) 1997-10-27 2001-02-05 Image coding apparatus
US11/231,835 US7197188B2 (en) 1997-10-27 2005-09-22 Image coding apparatus, image coding method, image decoding apparatus and image decoding method
US11/707,922 US7362907B2 (en) 1997-10-27 2007-02-20 Image coding apparatus, image coding method, image decoding apparatus and image decoding method
US12/068,200 US7970217B2 (en) 1997-10-27 2008-02-04 Image coding apparatus, image coding method, image decoding apparatus and image decoding method
HK10106604.3A HK1140347A1 (en) 1997-10-27 2010-07-07 Image encoding method
HK10107855A HK1141653A1 (en) 1997-10-27 2010-08-17 Image coding apparatus
HK11105762A HK1151912A1 (en) 1997-10-27 2011-06-08 Image decoding method
HK11105829A HK1152177A1 (en) 1997-10-27 2011-06-09 Image coding method
HK11105905.0A HK1151915A1 (en) 1997-10-27 2011-06-10 Image coding apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP29394097 1997-10-27
JP9-293940 1997-10-27
JP05469498A JP3860323B2 (ja) 1997-10-27 1998-03-06 画像復号化装置、画像復号化方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004180423A Division JP3894206B2 (ja) 1997-10-27 2004-06-18 画像符号化装置、画像符号化方法、画像復号化装置、及び画像復号化方法

Publications (2)

Publication Number Publication Date
JPH11196411A JPH11196411A (ja) 1999-07-21
JP3860323B2 true JP3860323B2 (ja) 2006-12-20

Family

ID=26395494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05469498A Expired - Lifetime JP3860323B2 (ja) 1997-10-27 1998-03-06 画像復号化装置、画像復号化方法

Country Status (11)

Country Link
US (4) US7127110B1 (ja)
EP (7) EP1558038B1 (ja)
JP (1) JP3860323B2 (ja)
KR (1) KR100377286B1 (ja)
CN (1) CN1201586C (ja)
AU (1) AU9647498A (ja)
CA (1) CA2308460C (ja)
DE (2) DE69841698D1 (ja)
HK (7) HK1079022A1 (ja)
TW (1) TW407431B (ja)
WO (1) WO1999022517A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3380763B2 (ja) 1998-01-23 2003-02-24 松下電器産業株式会社 画像処理方法
KR100282147B1 (ko) * 1998-11-13 2001-02-15 구자홍 압축 영상 복원 방법
US8429699B2 (en) 1999-12-14 2013-04-23 Arturo A. Rodriguez Systems and methods for resource-adaptive processing of scaled video and graphics
US6650705B1 (en) * 2000-05-26 2003-11-18 Mitsubishi Electric Research Laboratories Inc. Method for encoding and transcoding multiple video objects with variable temporal resolution
KR100424762B1 (ko) * 2001-09-06 2004-03-30 삼성전자주식회사 영상 데이터 제공 시스템 및 방법
CN1310519C (zh) * 2001-09-18 2007-04-11 皇家飞利浦电子股份有限公司 视频编码和解码方法以及相应信号
US7274857B2 (en) 2001-12-31 2007-09-25 Scientific-Atlanta, Inc. Trick modes for compressed video streams
US7966642B2 (en) 2003-09-15 2011-06-21 Nair Ajith N Resource-adaptive management of video storage
JP2005184626A (ja) * 2003-12-22 2005-07-07 Canon Inc 画像処理装置
WO2005084032A1 (en) * 2004-02-20 2005-09-09 Koninklijke Philips Electronics N.V. Method of video decoding
US8600217B2 (en) 2004-07-14 2013-12-03 Arturo A. Rodriguez System and method for improving quality of displayed picture during trick modes
KR100885443B1 (ko) * 2005-04-06 2009-02-24 엘지전자 주식회사 레이어간 예측방식를 사용해 엔코딩된 영상신호를디코딩하는 방법
KR100853143B1 (ko) * 2007-02-15 2008-08-20 충북대학교 산학협력단 I 프레임 태그를 이용한 동영상 압축 및 복원방법
JP4317995B2 (ja) * 2007-05-11 2009-08-19 テクトロニクス・インコーポレイテッド ストリーム解析装置とストリーム解析表示方法
US8462855B2 (en) * 2007-09-26 2013-06-11 Intel Corporation Method and apparatus for stream parsing and picture location
US8300696B2 (en) 2008-07-25 2012-10-30 Cisco Technology, Inc. Transcoding for systems operating under plural video coding specifications
JP5475409B2 (ja) * 2009-11-20 2014-04-16 三菱電機株式会社 動画像符号化装置および動画像符号化方法
TWI604720B (zh) * 2011-07-02 2017-11-01 三星電子股份有限公司 視訊解碼裝置
EP3843396B1 (en) 2011-09-28 2023-01-25 Sun Patent Trust Image decoding method and image coding and decoding method
JP5485969B2 (ja) * 2011-11-07 2014-05-07 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5924482B2 (ja) * 2012-02-09 2016-05-25 日本電気株式会社 ストレージ装置
US9998750B2 (en) 2013-03-15 2018-06-12 Cisco Technology, Inc. Systems and methods for guided conversion of video from a first to a second compression format
US10389994B2 (en) * 2016-11-28 2019-08-20 Sony Corporation Decoder-centric UV codec for free-viewpoint video streaming

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3084811B2 (ja) 1991-07-24 2000-09-04 ソニー株式会社 記録媒体サーチ方法および装置
US5778143A (en) * 1993-01-13 1998-07-07 Hitachi America, Ltd. Method and apparatus for the selection of data for use in VTR trick playback operation in a system using progressive picture refresh
WO1994017634A1 (fr) 1993-01-19 1994-08-04 Sony Corporation Procede de codage de signal d'image, codeur de signal d'image, procede de decodage de signal d'image, decodeur de signal d'image et support d'enregristrement de signal d'image
US5786858A (en) * 1993-01-19 1998-07-28 Sony Corporation Method of encoding image signal, apparatus for encoding image signal, method of decoding image signal, apparatus for decoding image signal, and image signal recording medium
JP3019659B2 (ja) 1993-03-16 2000-03-13 日本ビクター株式会社 動画像の飛越し再生方法及び再生装置
KR100283710B1 (ko) 1993-11-30 2001-03-02 제이 엘. 차스킨 전송 데이타 패킷 어셈블링 시스템내의 데이타 워드 인디케이터
JP3274563B2 (ja) 1994-03-25 2002-04-15 日本電気株式会社 画像再生装置
DE69536096D1 (de) 1994-03-25 2010-09-30 Nec Corp Bildwiedergabevorrichtung
JP3034172B2 (ja) 1994-10-25 2000-04-17 株式会社グラフィックス・コミュニケーション・ラボラトリーズ 画像データ記録再生装置
US5629736A (en) * 1994-11-01 1997-05-13 Lucent Technologies Inc. Coded domain picture composition for multimedia communications systems
US5687095A (en) * 1994-11-01 1997-11-11 Lucent Technologies Inc. Video transmission rate matching for multimedia communication systems
US5623312A (en) * 1994-12-22 1997-04-22 Lucent Technologies Inc. Compressed-domain bit rate reduction system
US5887110A (en) 1995-03-28 1999-03-23 Nippon Telegraph & Telephone Corp. Video data playback system using effective scheme for producing coded video data for fast playback mode
JPH08288965A (ja) * 1995-04-18 1996-11-01 Hitachi Ltd スイッチングシステム
JP4018166B2 (ja) 1995-07-06 2007-12-05 パイオニア株式会社 媒体記録方法、装置及び媒体再生方法、装置
JPH0927944A (ja) 1995-07-12 1997-01-28 Hitachi Ltd 動画像情報再生方法
JP3068002B2 (ja) * 1995-09-18 2000-07-24 沖電気工業株式会社 画像符号化装置、画像復号化装置及び画像伝送システム
JP2848326B2 (ja) * 1996-03-28 1999-01-20 日本電気株式会社 Mpeg符号化画像復号装置
JP3053576B2 (ja) * 1996-08-07 2000-06-19 オリンパス光学工業株式会社 コードイメージデータ出力装置及び出力方法
JPH1079949A (ja) * 1996-09-04 1998-03-24 Oki Electric Ind Co Ltd 画像符号化装置、画像復号化装置及び画像伝送システム
JP3791720B2 (ja) * 1997-06-11 2006-06-28 ソニー株式会社 伝送装置及び伝送方法
US6862320B1 (en) * 1997-10-23 2005-03-01 Mitsubishi Denki Kabushiki Kaisha Image decoder, image encoder, image communication system, and encoded bit stream converter

Also Published As

Publication number Publication date
DE69841698D1 (de) 2010-07-15
EP2306723A2 (en) 2011-04-06
HK1141653A1 (en) 2010-11-12
EP2306722A2 (en) 2011-04-06
DE69833443D1 (de) 2006-04-20
EP2200314A3 (en) 2010-12-15
JPH11196411A (ja) 1999-07-21
CA2308460C (en) 2003-12-16
EP2306723B1 (en) 2014-12-10
EP2200314B1 (en) 2012-05-09
US20060067581A1 (en) 2006-03-30
CN1283364A (zh) 2001-02-07
HK1151915A1 (en) 2012-02-10
HK1030121A1 (en) 2001-04-20
EP2306722A3 (en) 2011-09-28
EP2187641B1 (en) 2014-12-10
EP1026899A1 (en) 2000-08-09
EP2306721B1 (en) 2013-07-10
US7970217B2 (en) 2011-06-28
EP2306722B1 (en) 2013-07-03
EP2306721A3 (en) 2011-09-28
WO1999022517A1 (en) 1999-05-06
DE69833443T2 (de) 2006-10-26
US20080137973A1 (en) 2008-06-12
US7197188B2 (en) 2007-03-27
US20070172138A1 (en) 2007-07-26
HK1152177A1 (en) 2012-02-17
EP2187641A3 (en) 2010-12-15
EP1026899A8 (en) 2001-05-02
EP1558038A2 (en) 2005-07-27
TW407431B (en) 2000-10-01
CN1201586C (zh) 2005-05-11
HK1140347A1 (en) 2010-10-08
EP2306723A3 (en) 2011-09-28
EP2306721A2 (en) 2011-04-06
AU9647498A (en) 1999-05-17
HK1079022A1 (en) 2006-03-24
KR100377286B1 (ko) 2003-03-26
US7362907B2 (en) 2008-04-22
EP2200314A2 (en) 2010-06-23
EP1026899B1 (en) 2006-02-08
HK1151912A1 (en) 2012-02-10
EP1558038A3 (en) 2005-11-23
CA2308460A1 (en) 1999-05-06
EP2187641A2 (en) 2010-05-19
KR20010031469A (ko) 2001-04-16
EP1558038B1 (en) 2010-06-02
US7127110B1 (en) 2006-10-24

Similar Documents

Publication Publication Date Title
JP3860323B2 (ja) 画像復号化装置、画像復号化方法
CN1278550C (zh) 用于再现图像的方法和装置以及图像记录装置
KR101240089B1 (ko) 화상 부호화 장치 및 화상 복호화 장치
JP4794386B2 (ja) 撮像装置
JP2007043421A (ja) 動き検出装置
KR100789507B1 (ko) 동화상 데이터의 기록 재생방법 및 장치
JP2009021983A (ja) 監視画像記録装置
JP2008035281A (ja) 画像符号化方法
US6999090B2 (en) Data processing apparatus, data processing method, information storing medium, and computer program
JP2008252874A (ja) 動画像符号化方法、動画像復号化方法、動画像符号化装置及び動画像復号化装置
JP2008141354A (ja) 画像符号化装置および撮像装置
JP3894206B2 (ja) 画像符号化装置、画像符号化方法、画像復号化装置、及び画像復号化方法
KR20060109317A (ko) 프로그램, 정보 처리 장치, 정보 처리 방법, 및 기록 매체
JP2001238182A (ja) 画像再生装置および画像再生方法
JP4906197B2 (ja) 復号装置および方法、並びに記録媒体
JP2003295970A (ja) データ処理装置、及びデータ処理方法
JP2006187037A (ja) 画像再生方法
JP3461280B2 (ja) 動画像編集装置および動画像編集方法
JP2006121415A (ja) 動画符号化装置
JP2010206463A (ja) 動画像符号化方法、動画像符号化装置及び動画像符号化プログラム
JP2003209801A (ja) 動画像符号化装置および動画像記録再生装置
JP2010041731A (ja) 動画像生成装置、方法及びプログラム
JP2010206464A (ja) 動画像符号化方法、動画像符号化装置及び動画像符号化プログラム
JP2006217635A (ja) 画像再生装置、および画像記録装置
JP2010206465A (ja) 動画像符号化方法、動画像符号化装置及び動画像符号化プログラム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040618

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040628

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20040917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060921

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090929

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110929

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110929

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120929

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130929

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term