JP2006324767A - 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム - Google Patents

画像処理装置、および画像処理方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP2006324767A
JP2006324767A JP2005144146A JP2005144146A JP2006324767A JP 2006324767 A JP2006324767 A JP 2006324767A JP 2005144146 A JP2005144146 A JP 2005144146A JP 2005144146 A JP2005144146 A JP 2005144146A JP 2006324767 A JP2006324767 A JP 2006324767A
Authority
JP
Japan
Prior art keywords
processing
block
data
hierarchical
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005144146A
Other languages
English (en)
Other versions
JP4779435B2 (ja
Inventor
Seiji Kobayashi
誠司 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005144146A priority Critical patent/JP4779435B2/ja
Priority to US11/382,965 priority patent/US8213516B2/en
Publication of JP2006324767A publication Critical patent/JP2006324767A/ja
Application granted granted Critical
Publication of JP4779435B2 publication Critical patent/JP4779435B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

【課題】 動画像データの階層化データの圧縮伸長によるスケーラビリティの確保および画質低下を防止可能とした構成を提供する。
【解決手段】 画像圧縮装置側において、動画像データを構成するフレームの分割領域として設定するブロック単位で代表画素に対応するサンプリング画素を異ならせた複数の階層信号を生成して、階層信号に基づく符号化データを出力する。画像伸長装置側では、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理を行って、階層信号に含まれる画素データに基づくデータ拡張処理により動画像データを復元する。本構成により、伝送路帯域や装置の処理能力などに応じて選択的に階層信号の処理を行なうことが可能であり、表示画像の品質制御が可能となる。
【選択図】 図2

Description

本発明は、画像処理装置、および画像処理方法、並びにコンピュータ・プログラムに関する。特に、伝送路帯域状況や装置処理能力などに応じて選択的に表示画像品質を制御することができるスケーラビリティを有する画像処理装置、および画像処理方法、並びにコンピュータ・プログラムに関する。
従来から知られるMPEG(Moving Picture Experts Group)などで規定されている動画像符号化方式において、符号化ビットストリームに階層を持たせ、符号化データの受信側において選択的なデータ復号処理を行なうことで出力画像の品質を決定することができるSNR(Signal to Noise Ratio)スケーラビリティや、FGS(Fine Granular Scalability)と呼ばれる技術がある。
SNRスケーラビリティ技術は、MPEG−2符号化で規定されている技術であり、符号化器において量子化サイズを粗くして生成した低SNRビットストリーム(ベースレイヤ)と、入力信号からベース信号成分を引いた信号から細かい量子化サイズにより生成した余剰ビットストリーム(エンハンスメントレイヤ)を階層的に送信し、受信側では通信状態に応じてベース信号のみを復号化することにより最低限の低SNR画像を得ることができるものである。
FGSは、MPEG−4符号化で規定されている技術であり、エンハンスメントレイヤにおいてSNRのより細かい制御を可能としている。この技術では、DCT(Discrete Cosine Transform)係数をビットプレーン符号化して伝送することにより、伝送帯域に応じて上位ビットのみを復号化することにより画質の制御が可能である。なお、MPEG−2におけるSNRスケーラビリティ技術、およびMPEG−4符号化におけるFGSについては、例えば非特許文献1に記載されている。
Overview of Fine Granularity Scalability in MPEG-4 Video Standard", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY,VOL. 11, NO. 3, MARCH 2001
ところで、上記従来の技術では、SNRを基にベースレイヤを生成しているが、この際には人間の視覚特性はあまり考慮されておらず、ベースレイヤのみを復号化する場合には、表示される画像品質が視覚的に劣化するという問題があった。
本発明はこのような状況に鑑みてなされたものであり、ベースレイヤにおける視覚的な画質劣化を最小限に抑えつつ、エンハンスメントレイヤを受信して復号化することにより、スロー再生時の画質劣化や、被写体境界部分での画質劣化を抑制することを可能にする画像処理装置、および画像処理方法、並びにコンピュータ・プログラムを提供することを目的とする。
本発明の第1の側面は、
動画像データの圧縮処理を実行する画像処理装置であり、
動画像データを構成するフレームの分割領域として設定するブロック単位で画素の間引き処理を実行する画像変換部であり、画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の階層信号を生成する画像変換部と、
前記画像変換部の生成する複数の階層信号を入力し、該階層信号に基づく符号化データを生成する符号化部と、
を有することを特徴とする画像処理装置にある。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像データを構成するフレーム毎にブロック分割処理を実行するブロック分割部と、前記ブロック分割部において分割された各ブロックにおける被写体移動量を検出する移動量検出部と、前記移動量検出部の検出した移動量情報に基づいて、間引き処理実行単位となる複数の連続フレームの複数ブロックについて、空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理のいずれかの態様の間引き処理を実行し、実行する各態様の間引き処理において、それぞれサンプリング画素を異ならせた複数の階層信号に対応する複数の間引きデータを生成するブロック処理部とを有する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、前記ブロック処理部の出力データに含まれるサンプリング画素を集積したパックブロックを生成するパック処理部を有し、前記パック処理部は、サンプリング画素を異ならせた複数の階層信号に対応する複数のパックブロックを生成する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記符号化部は、前記パック処理部の生成するパックブロックとしての複数の階層信号の符号化処理を実行し、各階層信号に対応するストリーミング信号を生成する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記符号化部は、前記階層信号の差分を算出し、算出差分値に基づく符号化データを生成する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記ブロック処理部は、サンプリング画素を異ならせた複数の階層信号のそれぞれの情報量を等価にした階層信号を生成する処理を実行する構成であることを特徴とする。
さらに、本発明の第2の側面は、
動画像データの変換処理を実行する動画像変換装置であり、
動画像データを構成するフレーム毎にブロック分割処理を実行するブロック分割部と、
前記ブロック分割部において分割された各ブロックにおける被写体移動量を検出する移動量検出部と、
前記移動量検出部の検出した移動量情報に基づいて、間引き処理実行単位となる複数の連続フレームの複数ブロックについて、空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理のいずれかの態様の間引き処理を実行し、実行する各態様の間引き処理において、それぞれサンプリング画素を異ならせた複数の階層信号に対応する複数の間引きデータを生成するブロック処理部と、
を有する構成であることを特徴とする動画像変換装置にある。
さらに、本発明の第3の側面は、
符号化動画像データを入力し画像復元処理を実行する画像処理装置であり、
符号化動画像データを入力し、該入力データの復号処理を実行して動画像データ復元に適用する複数の階層信号を生成する復号化部と、
前記復号化部の生成する階層信号を入力し、階層信号に含まれる画素データに基づくデータ拡張処理により動画像データ復元処理を実行する画像変換部とを有し、
前記複数の階層信号は、画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号であり、
前記画像変換部は、
前記復号化部の生成する複数の階層信号から選択された処理対象の階層信号に基づく動画像データ復元処理を実行する構成であり、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理を行なう構成であることを特徴とする画像処理装置にある。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像データを構成するフレームの分割領域として設定されたブロック単位でブロック復元処理を実行する構成であり、処理対象として選択した階層数に応じて、前記サンプリング画素をコピー元としたコピー処理態様を変更してブロック復元処理を実行する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、処理対象として選択した階層数を[Lm]、サンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号の総数[n]、としたとき、前記サンプリング画素をコピー元としたコピー処理によって、コピー後のブロックの画素数が、コピー前の画素数の[n/Lm]倍の画素数とするコピー処理を実行する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理の少なくともいずれかの間引き処理態様に対応したブロック拡張処理により、動画像データを構成するフレームの分割領域として設定されたブロック単位でのブロック復元を実行する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、前記復号化部の生成する階層信号に対応するサンプリング画素を集積したパックブロックのアンパック処理を実行するアンパック処理部を有し、前記アンパック処理部は、サンプリング画素を異ならせた複数の階層信号に対応する複数のパックブロックに対するアンパック処理を実行する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記復号化部は、符号化動画像データとして、複数の階層信号の差分に基づいて生成されたストリーミング信号を入力し、該ストリーミング信号の復号により生成した復号データに対する復号データ相互の加算処理により、動画像データ復元に適用する複数の階層信号を生成する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、画像処理装置の処理能力、または、データ通信状況の少なくともいずれかの状態に応じて、前記画像変換部において処理すべき階層信号の数を決定する制御部を有し、前記画像変換部は、前記制御部の決定した数に対応する階層信号の処理を実行する構成であることを特徴とする。
さらに、本発明の第4の側面は、
間引き処理のなされた動画像データに基づく画像復元処理を実行する動画像変換装置であり、
動画像データを構成するフレームの分割領域として設定されたブロックに対応する移動量に応じて処理ブロックの処理態様を決定するブロック分配部と、
空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理の少なくともいずれかの間引き態様に対応したブロック拡張処理により、動画像データを構成するフレームの分割領域として設定されたブロック単位でのブロック復元を実行するブロック処理部とを有し、
前記ブロック処理部は、
画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号に基づくブロック復元処理を実行する構成であり、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理によるブロック復元を行なう構成であることを特徴とする動画像変換装置にある。
さらに、本発明の第5の側面は、
動画像データの圧縮処理を実行する画像処理方法であり、
動画像データを構成するフレームの分割領域として設定するブロック単位で画素の間引き処理を実行する画像変換ステップであり、画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の階層信号を生成する画像変換ステップと、
前記画像変換ステップの生成する複数の階層信号を入力し、該階層信号に基づく符号化データを生成する符号化ステップと、
を有することを特徴とする画像処理方法にある。
さらに、本発明の画像処理方法の一実施態様において、前記画像変換ステップは、動画像データを構成するフレーム毎にブロック分割処理を実行するブロック分割ステップと、前記ブロック分割ステップにおいて分割された各ブロックにおける被写体移動量を検出する移動量検出ステップと、前記移動量検出ステップにおいて検出した移動量情報に基づいて、間引き処理実行単位となる複数の連続フレームの複数ブロックについて、空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理のいずれかの態様の間引き処理を実行し、実行する各態様の間引き処理において、それぞれサンプリング画素を異ならせた複数の階層信号に対応する複数の間引きデータを生成するブロック処理ステップと、を有することを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記画像変換ステップは、前記ブロック処理ステップにおいて生成するデータに含まれるサンプリング画素を集積したパックブロックを生成するパック処理ステップを有し、前記パック処理ステップは、サンプリング画素を異ならせた複数の階層信号に対応する複数のパックブロックを生成することを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記符号化ステップは、前記パック処理ステップにおいて生成するパックブロックとしての複数の階層信号の符号化処理を実行し、各階層信号に対応するストリーミング信号を生成するステップであることを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記符号化ステップは、前記階層信号の差分を算出し、算出差分値に基づく符号化データを生成するステップを有することを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記ブロック処理ステップは、サンプリング画素を異ならせた複数の階層信号のそれぞれの情報量を等価にした階層信号を生成する処理を実行するステップであることを特徴とする。
さらに、本発明の第6の側面は、
動画像データの変換処理を実行する動画像変換方法であり、
動画像データを構成するフレーム毎にブロック分割処理を実行するブロック分割ステップと、
前記ブロック分割ステップにおいて分割された各ブロックにおける被写体移動量を検出する移動量検出ステップと、
前記移動量検出ステップにおいて検出した移動量情報に基づいて、間引き処理実行単位となる複数の連続フレームの複数ブロックについて、空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理のいずれかの態様の間引き処理を実行し、実行する各態様の間引き処理において、それぞれサンプリング画素を異ならせた複数の階層信号に対応する複数の間引きデータを生成するブロック処理ステップと、
を有することを特徴とする動画像変換方法にある。
さらに、本発明の第7の側面は、
画像復元処理を実行する画像処理方法であり、
符号化動画像データを入力し、該入力データの復号処理を実行して動画像データ復元に適用する複数の階層信号を生成する復号化ステップと、
前記復号化ステップにおいて生成する階層信号を入力し、階層信号に含まれる画素データに基づくデータ拡張処理により動画像データ復元処理を実行する画像変換ステップとを有し、
前記複数の階層信号は、画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号であり、
前記画像変換ステップは、
前記復号化ステップにおいて生成する複数の階層信号から選択された処理対象の階層信号に基づく動画像データ復元処理を実行する構成であり、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理を行なうステップであることを特徴とする画像処理方法にある。
さらに、本発明の画像処理方法の一実施態様において、前記画像変換ステップは、動画像データを構成するフレームの分割領域として設定されたブロック単位でブロック復元処理を実行するステップであり、処理対象として選択した階層数に応じて、前記サンプリング画素をコピー元としたコピー処理態様を変更してブロック復元処理を実行することを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記画像変換ステップは、処理対象として選択した階層数を[Lm]、サンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号の総数[n]、としたとき、前記サンプリング画素をコピー元としたコピー処理によって、コピー後のブロックの画素数が、コピー前の画素数の[n/Lm]倍の画素数とするコピー処理を実行することを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記画像変換ステップは、空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理の少なくともいずれかの間引き処理態様に対応したブロック拡張処理により、動画像データを構成するフレームの分割領域として設定されたブロック単位でのブロック復元を実行することを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記画像変換ステップは、前記復号化ステップの生成する階層信号に対応するサンプリング画素を集積したパックブロックのアンパック処理を実行するアンパック処理ステップを有し、前記アンパック処理ステップは、サンプリング画素を異ならせた複数の階層信号に対応する複数のパックブロックに対するアンパック処理を実行するステップであることを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記復号化ステップは、符号化動画像データとして、複数の階層信号の差分に基づいて生成されたストリーミング信号を入力し、該ストリーミング信号の復号により生成した復号データに対する復号データ相互の加算処理により、動画像データ復元に適用する複数の階層信号を生成することを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記画像処理方法は、画像処理装置の処理能力、または、データ通信状況の少なくともいずれかの状態に応じて、前記画像変換ステップにおいて処理すべき階層信号の数を決定する制御ステップを有し、前記画像変換ステップは、前記制御ステップの決定した数に対応する階層信号の処理を実行することを特徴とする。
さらに、本発明の第8の側面は、
間引き処理のなされた動画像データに基づく画像復元処理を実行する動画像変換方法であり、
動画像データを構成するフレームの分割領域として設定されたブロックに対応する移動量に応じて処理ブロックの処理態様を決定するブロック分配ステップと、
空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理の少なくともいずれかの間引き態様に対応したブロック拡張処理により、動画像データを構成するフレームの分割領域として設定されたブロック単位でのブロック復元を実行するブロック処理ステップとを有し、
前記ブロック処理ステップは、
画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号に基づくブロック復元処理を実行し、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理によるブロック復元を行なうことを特徴とする動画像変換方法にある。
さらに、本発明の第9の側面は、
動画像データの圧縮処理をコンピュータ上において実行させるコンピュータ・プログラムであり、
動画像データを構成するフレームの分割領域として設定するブロック単位で画素の間引き処理を実行する画像変換ステップであり、画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の階層信号を生成する画像変換ステップと、
前記画像変換ステップの生成する複数の階層信号を入力し、該階層信号に基づく符号化データを生成する符号化ステップと、
を有することを特徴とするコンピュータ・プログラムにある。
さらに、本発明の第10の側面は、
画像復元処理をコンピュータ上において実行させるコンピュータ・プログラムであり、
符号化動画像データを入力し、該入力データの復号処理を実行して動画像データ復元に適用する複数の階層信号を生成する復号化ステップと、
前記復号化ステップにおいて生成する階層信号を入力し、階層信号に含まれる画素データに基づくデータ拡張処理により動画像データ復元処理を実行する画像変換ステップとを有し、
前記複数の階層信号は、画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号であり、
前記画像変換ステップは、
前記復号化ステップにおいて生成する複数の階層信号から選択された処理対象の階層信号に基づく動画像データ復元処理を実行する構成であり、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理を行なうステップであることを特徴とするコンピュータ・プログラムにある。
なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、CDやFD、MOなどの記憶媒体、あるいは、ネットワークなどの通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づく、より詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の構成によれば、画像圧縮装置側において、動画像データを構成するフレームの分割領域として設定するブロック単位で代表画素に対応するサンプリング画素を異ならせた複数の階層信号を生成して、階層信号に基づく符号化データを出力する構成とし、画像伸長装置側では、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理を行って、階層信号に含まれる画素データに基づくデータ拡張処理により動画像データを復元する構成とした。画像伸長装置側では、例えば伝送路帯域や装置の処理能力などに応じて選択的に階層信号の処理を行なうことが可能であり、この制御によって表示画像品質制御が可能となり、スケーラブルな処理が実現される。
また、本発明の構成では、人間の視覚特性を利用した圧縮を行うことにより、ベースレイヤのみを復号化した場合にも高画質な表示が可能となる。また、エンハンスメントレイヤを選択的に受信し、復号化することで、例えばスロー再生時の画質向上、および動被写体の境界領域の画質向上が可能となる。各レイヤの情報量は同等であり、任意のレイヤをベースレイヤとすることが可能である等の効果を有する。
以下、図面を参照しながら、本発明の画像処理装置、および画像処理方法、並びにコンピュータ・プログラムの構成について説明する。
本発明の一実施例に係る画像処理装置の構成について、図1以下を参照して説明する。図1には、動画像データを入力し、入力動画像データの圧縮処理を実行する画像圧縮装置100と、圧縮画像データを入力し、圧縮画像データの伸長処理を実行する画像伸長装置200を示している。
画像圧縮装置100の生成信号は、例えばネットワークを介して画像伸長装置200に伝送される。なお、画像処理装置としては、画像圧縮装置100と画像伸長装置の一方の機能のみを備えた構成と、双方の機能を備えた構成、いずれの構成も可能である。
画像圧縮装置100は、画像変換部110と、符号化部150を有し、画像伸長装置200は、復号化部210と、画像変換部250を有する。なお、データの入出力、送受信は図示しない入出力部、通信部を介して実行される。
画像圧縮装置100の画像変換部110は、圧縮処理対象の動画像信号[Din]を入力とし、動画像を構成するフレームを所定画素領域単位で分割した画像ブロック毎に被写体の動きに合わせて空間方向および時間方向のサンプリングパターンを変更し、階層的な動画像信号である階層化動画像信号:[L1]〜[Ln]に変換する処理を実行する。階層化動画像信号:[L1]〜[Ln]の生成処理の詳細については後述する。画像変換部110は、階層化動画像信号:[L1]〜[Ln]に併せて、階層化動画像信号:[L1]〜[Ln]の生成態様情報等を含むブロック処理情報[Inf]を生成して、符号化部150に入力する。
符号化部150は、予め設定されたビットレートに従って、画像変換部110から入力する階層化動画像信号:[L1]〜[Ln]およびブロック処理情報[Inf]の符号化処理を実行して、画像伸長装置200に対する送信信号としての階層化ストリーム:[St1]〜[Stn]および、ブロック処理情報ストリーム[St−Inf]を生成し、図示しないデータ出力部あるいはデータ送信部を介して画像伸長装置200に出力する。
画像伸長装置200の復号化部210は、データ入力部あるいはデータ受信部を介して、階層化ストリーム:[St1]〜[Stn]および、ブロック処理情報ストリーム[St−Inf]を入力し、データの受信状況や画像伸長装置200のデータ処理能力に応じて適応的に階層化ストリーム:[St1]〜[Stn]の復号処理を行ない、階層化動画像信号:[L1]〜[Ln]を生成し、またブロック処理情報ストリーム[St−Inf]の復号により、ブロック処理情報[Inf]を生成して画像変換部250に生成信号を入力する。
なお、復号化部210は、受信する階層化ストリーム:[St1]〜[Stn]のすべての復号を行なうとは限らず、データの受信状況や画像伸長装置200のデータ処理能力に応じて選択されたストリームのみを復号する。従って、画像伸長装置200の復号化部210は、n階層の入力階層化ストリーム:[St1]〜[Stn]を受信した場合に生成する階層化動画像信号は、n階層の階層化動画像信号:[L1]〜[Ln]中の選択された信号のみとなる。
画像変換部250は、復号化部210の生成した階層化動画像信号:[L1]〜[Ln]と、ブロック処理情報[Inf]を入力し、動画像を構成するフレームを所定画素領域単位で分割した画像ブロック毎のサンプリングパターンに逆変換を行ない、動画像データを復元し、復元した動画像データ[Dout]を出力する。
[画像圧縮装置の構成および処理の詳細]
次に、画像圧縮装置の構成および処理の詳細について説明する。まず、図2を参照して画像圧縮装置100の画像変換部110の詳細構成および処理について説明する。
図2に、画像圧縮装置100の画像変換部110のブロック図を示す。画像圧縮装置100の画像変換部110は、前述したように、圧縮処理対象の動画像信号[Din]を入力とし、動画像を構成するフレームを所定画素領域単位で分割した画像ブロック毎に被写体の動きに合わせて空間方向および時間方向のサンプリングパターンを変更し、n階層(ただしn≧2)の動画像信号である階層化動画像信号:[L1]〜[Ln]に変換する処理を実行する。n種類の階層化動画像信号:[L1]〜[Ln]は、本出願人が先に出願した特願2003−412501号において提案した動画像変換装置の生成信号に相当する。これは、人間の視覚特性に基づく超解像度効果を利用して動画像変換を行なうことにより、表示画像の観測者が画質劣化を知覚しにくいように圧縮を行なうことが可能な信号である。
なお、超解像効果とは、観測者が、ある時間内に複数の画像が加算されたものを知覚するという視覚特性に基づいて実現される視覚的効果である。人の視覚は、受けた光の刺激の総和がある閾値になったときに光を知覚するという機能(以下、時間的積分機能と称する)を有している。これは、ブロックの法則(Bloch's Law)として知られており、人が一定時間内に受けた光を加算して知覚していることを示している。時間的積分機能において加算される時間は、視環境などにより変化するが、およそ25ms乃至100msであるという報告がある。ブロックの法則の詳細については、例えば、"視覚情報ハンドブック,日本視覚学界編,pp.219−220"などに記載されている。
図2に示す画像変換部110は、時間的積分機能によって引き起こされる超解像効果を利用した動画像変換処理を行うことにより、画質劣化を観測者が知覚しないようにデータを削減する圧縮を行う構成を有する。図2の画像変換部110の構成について説明する。
ブロック分割部111は、画像変換部110に入力される動画像データ[Din]の構成フレームを、所定の処理単位フレーム数n毎に蓄積し、nフレームの各フレーム画像を所定画素のブロックサイズ(本実施例では4×4画素)のブロックに分割し、ブロック単位で移動量検出部112、およびブロック分配部113に送る。
移動量検出部112は、ブロック分割部111から供給された各ブロックについて、ブロック毎に時間的な移動量を検出し、検出した移動量をブロック分配部113に送る。移動量検出部112は、ブロック分割部111から供給されたフレームの各ブロックの動きベクトルを、異なるフレームの対応画素位置のブロックとのブロックマッチング処理を実行して検出し、検出した動きベクトルをブロック分配部113に供給する。動きベクトルは、フレーム間の水平方向(X軸方向)および垂直方向(Y軸方向)の移動量情報を有する。
移動量検出部112は、このような動きベクトル検出処理によって、ブロック毎の時間的な移動量(例えばx画素/フレーム)を検出し、検出した移動量をブロック分配部113に送る。ブロック分配部113は、移動量検出部112から供給される移動量に応じて各ブロックに適用すべきブロック処理(間引き処理)を決定し、決定したブロック処理に応じて、ブロック分割部111から供給される各ブロックをブロック処理部114乃至116のいずれかに選択的に供給する。このとき、ブロック分配部113における分配方法は、超解像度効果の原理に基づいており、特願2003−412501号に詳細な記載がある。
特願2003−412501号にも記載されているブロック分配部113における分配方法について説明する。例えば、ブロック分配部113は、移動量検出部112から供給された、1フレーム間の水平方向(X軸方向)または垂直方向(Y軸方向)の移動量が2ピクセル(画素)以上のブロックについては、ブロック分割部111から供給されたnフレーム分のn個のブロックと移動量検出部112から供給された移動量を、空間方向間引き処理を実行するブロック処理部114に出力し、ブロック処理として、空間方向間引き処理を実行する。
また、1フレーム間の水平方向と垂直方向の移動量がともに2ピクセル未満で、かつ1ピクセル以上のブロックについては、ブロック分配部113は、ブロック分割部111から供給されたnフレーム分のn個のブロックと移動量検出部112から供給された移動量を、空間方向間引きおよび時間方向間引き処理を実行するブロック処理部116に出力し、ブロック処理として、空間方向間引きおよび時間方向間引き処理を実行する。
また、1フレーム間の水平方向と垂直方向の移動量がともに1ピクセル未満のブロックについては、ブロック分配部113は、ブロック分割部111から供給されたnフレーム分のn個のブロックと移動量検出部112から供給された移動量を、時間方向間引き処理を実行するブロック処理部115に出力し、ブロック処理として時間方向間引き処理を実行する。
なお、上述した処理例で示すブロック分配条件としての1フレーム間の水平方向と垂直方向の移動量の数値は、分配先決定のための条件の一例であり、他の条件で分配先を決定してもよい。
ブロック処理部114は、移動量が大きく、超解像度効果が得られるブロックに対して移動方向における空間間引き処理により階層化を行なう。具体的には、各フレーム画像の間引きサンプリング位置を階層毎に変更してサンプリングすることにより、それぞれ移動方向の画素数を1/nに間引き、データ量を1/nに圧縮する。より詳細な動作については後述する。
ブロック処理部115は、移動量が小さく、超解像度効果が得られないブロックに対して時間間引き処理により階層化を行なう。具体的には、処理単位フレーム数nのうちサンプリングするフレームを階層毎に変更することにより、それぞれフレーム数を1/nに間引き、データ量を1/nに圧縮する。より詳細な動作については後述する。
ブロック処理部116は、上述の中間の移動量であるブロックに対して空間間引き処理および時間間引き処理により階層化を行なう。具体的には、処理単位フレーム数nのうちサンプリングする2フレームを階層毎に変更し、さらにサンプリングされたフレームにおいて、空間方向の間引きサンプリング位置を階層毎に変更して1/2に間引きすることにより、それぞれデータ量を1/nに圧縮する。より詳細な動作については後述する。
パック処理部117は、ブロック処理部114において実行される空間方向間引き処理によって生成された階層化信号を入力し、入力信号に基づいてパックブロックを生成する。すなわち、各ブロックのフレーム対応の間引き後の画素データ信号を集積したパックブロックを生成する。各フレームの対応ブロックにおける間引き処理後の画素データ各々について本来の画素位置を変更して集積させたパックブロックを生成し、これを1フレームの画像信号に変換して出力する。詳細な動作については後述する。
パック処理部118は、ブロック処理部115において実行される時間方向間引き処理によって生成された階層化信号を入力し、入力信号をそのまま出力する。時間方向間引き処理は、間引き処理単位のnフレームに対応する同一画素位置のnブロックから選択された1つのフレームの1ブロックの画素データを出力する処理であり、パック処理部118は、間引き後のフレーム対応のブロックをそのまま出力することになる。詳細な動作については後述する。
パック処理部119は、ブロック処理部116おいて実行される空間方向および時間方向間引き処理によって生成された階層化信号を入力し、入力信号に基づいてパックブロックを生成する。すなわち、各ブロックのフレーム対応の間引き後の画素データ信号を集積したパックブロックを生成する。すなわち、各フレームの対応ブロックにおける間引き処理後の画素データ各々について本来の画素位置を変更して集積させたパックブロックを生成し、これを1フレームの画像信号に変換して出力する。詳細な動作については後述する。
出力部120は、パック処理部117乃至119から供給されるパックされた画像信号に対し、図示しない制御部から供給されるブロック処理情報に基づき、ブロック単位で選択されたパック処理部からの画像信号を選択し、第1階層信号[L1]から第n階層信号[Ln]として符号化部に出力する。
ブロック処理情報[Inf]は、ブロック分配部113において決定されたブロック処理方法、すなわち、空間方向間引き、時間方向間引き、空間および時間方向間引きのいずれのブロック処理部において処理がなされたかを示す情報および各処理ブロックのフレームを示す情報を含み、ブロック分配部113から出力される。この情報は、ブロック(本実施例では4×4画素)毎に、間引き処理およびパック処理単位であるnフレームおきに出力し、各処理ブロックに対応する処理方法を表す数ビットのデータを含む情報である。
次に、特願2003−412501号にも記載されている各ブロック処理部114〜116の基本的な間引き処理態様について図3以下を参照して説明する。
ブロック処理部114は、ブロック分配部113から供給された、連続するn(例えばn=4)枚のフレームのそれぞれの同一位置にある合計n個のブロック(例えば、水平方向または垂直方向の移動量が2ピクセル以上である場合のn個のブロック)に対して、画素数を、同様にブロック分配部113から供給された移動量に応じて間引く処理(空間方向間引き処理)を行う。
具体的には、1フレーム間の水平方向の移動量が2ピクセル(画素)以上である場合、ブロック処理部114は、処理対象のブロックが図3(a)に示すように4×4ピクセルで構成されているとき、水平方向の4画素のうち1つの画素値のみを選択して代表値とする。図3(b)の例では、P00乃至P30の4画素のうちP10のみを代表値(サンプリング点)として有効にする。その他の画素値は無効とする。同様に、P01乃至P31の4画素に対してはP11を代表値(サンプリング点)とし、P02乃至P32の4画素に対してはP12を代表値(サンプリング点)とし、P03乃至P33の4画素に対してはP13を代表値(サンプリング点)とする。
1フレーム間の垂直方向の移動量が2ピクセル以上である場合、ブロック処理部114は、ブロックが図3(a)に示すように4×4ピクセルで構成されているとき、垂直方向の4画素のうち1つの画素値をサンプリング点として有効とする。図3(c)の例では、P00乃至P03の4画素のうちP01のみをサンプリング点として有効にする。その他の画素値は無効とする。同様に、P10乃至P13の4画素に対してはP11をサンプリング点とし、P20乃至P23の4画素に対してはP21をサンプリング点とし、P30乃至P33の4画素に対してはP31をサンプリング点とする。
ブロック処理部114は、このような空間方向間引き処理を供給された連続するn(例えばn=4)枚のフレームのそれぞれの同一位置にある合計n=4個のブロックに対してそれぞれ施すので、各ブロックのデータ量が1/4に削減され、4個のブロック全体のデータ量が1/4に削減される。なお、後述するように、本発明のブロック処理部114では、この空間方向間引き処理を、サンプリング点を変更した複数態様で実行して、複数の階層信号を生成する。これらの処理については後段で詳細に説明する。
次に、図2に示すブロック処理部115の実行する処理の基本的な処理例について説明する。図2に示すブロック処理部115は、ブロック分配部113から供給された連続するn枚のフレームのそれぞれの同一位置ある合計nブロック(例えば、水平方向と垂直方向の移動量がともに1ピクセル未満である場合のn個のブロック)に対して、フレーム数を間引く処理(時間方向間引き処理)を行う。
具体的にはブロック処理部115は、図4に示すように、連続する4枚のフレームF1乃至F4のそれぞれの同一位置ある4個のブロックBiを、その中の1つのブロック(図に示す例では、フレームF1のブロックBi)をサンプリング点として取得し、その他のフレームのブロックを破棄してフレーム数の間引き(4フレーム間のフレーム数の間引き)を行う。ブロック処理部115は、このような時間方向間引き処理により、データ量が1/4に削減された4個のブロックについてのデータ(1個のブロック)を生成する。なお、後述するように、本発明のブロック処理部115では、この時間方向間引き処理を、サンプリング点を変更した複数態様で実行して、複数の階層信号を生成する。これらの処理については後段で詳細に説明する。
ブロック処理部116は、ブロック分配部113から供給された、連続するn枚のフレームのそれぞれの同一位置にある合計n個のブロック(例えば、水平方向と垂直方向の移動量が1ピクセル以上で、2ピクセル未満である場合のN個のブロック)に対して、画素数の間引き処理(空間方向間引き処理)とフレーム数の間引き処理(時間方向間引き処理)をそれぞれ行う。
ブロック処理部116は、処理対象のブロックが図5(a)に示すように4×4ピクセルで構成されているとき、水平方向の4画素のうち2つの画素値のみを選択して代表値(サンプリング点)とする。図5(b)の例では、P00乃至P30の4画素のうちP00とP20のみを代表値(サンプリング点)として有効にする。その他の画素値は無効とする。同様に、P01乃至P31の4画素に対してはP01とP21のみを代表値(サンプリング点)とし、P02乃至P32の4画素に対してはP02とP22のみ代表値(サンプリング点)とし、P03乃至P33の4画素に対してはP03とP23のみ代表値(サンプリング点)とする。
1フレーム間の垂直方向の移動量が1ピクセル以上で、2ピクセル未満である場合は、垂直方向の4画素のうち2つの画素値を有効とする。例えば、図5(c)に示すように、P00乃至P03の4画素のうちP00およびP02を代表値(サンプリング点)として有効にする。その他の画素値は無効とする。同様に、P10乃至P13の4画素に対してはP10およびP12を代表値(サンプリング点)とし、P20乃至P23の4画素に対してはP20およびP22を代表値(サンプリング点)とし、P30乃至P33の4画素に対してはP30およびP32を代表値(サンプリング点)とする。
さらにブロック処理部116は、時間方向の間引き、すなわち、フレーム数の間引き処理を行う。連続する4枚のフレームF1乃至F4のそれぞれの同一位置ある4個のブロックに対して、その中の2つのブロックを有効にするフレーム数の間引き処理を実行する。フレーム数の間引き処理においては、図6に示すように、連続する4枚のフレームF1乃至F4のぞれぞれの同一位置にある合計4個のブロックBiを、その中のいずれか2つ(図の例では、フレームF1、F3の2個のブロック)にするフレーム数の間引き(2フレーム間のフレーム数の間引き)を行う。選択された2つのブロックの画素データが4フレームに対応するサンプリング点データとなる。この場合、図5を参照して説明した空間方向の間引きにおいて、すでに1ブロックに8つのサンプリング点選択が実行済みであり、2ブロックから総計16のサンプリング点が選択され、これらが4フレームに対応するサンプリング点データとして設定されることになる。
ブロック処理部116は、図5を参照して説明したデータ量を1/2とする空間方向間引き処理と、図6を参照して説明したデータ量を1/2とする時間方向間引き処理を、供給された4個のブロックに対して施すので、結果として4個のブロックのデータ量が(1/2)×(1/2)=1/4に削減される。なお、後述するように、本発明のブロック処理部115では、この空間方向および時間方向間引き処理を、サンプリング点を変更した複数態様で実行して、複数の階層信号を生成する。これらの処理については後段で詳細に説明する。
次に、本発明の動画像圧縮装置におけるブロック処理部114〜116と、パック処理部117〜119の構成および処理について、図7以下を参照して説明する。ブロック処理部114〜116と、パック処理部117〜119は、いずれも同様の構成を持ち、図7に示す構成を有し、異なるn階層の階層信号[L1]〜[Ln]を生成する。ただし、ブロック処理部114〜116と、パック処理部117〜119それぞれにおいて実行する処理は異なる。
空間方向の間引き処理を実行するブロック処理部114は、第1〜第n階層信号対応ブロック処理部131−1〜nにおいて、異なる空間方向間引き処理を実行して複数の階層信号対応の間引きデータを生成し、第1〜第n階層信号対応パック処理部132−1〜nの各々は、これらの複数の階層信号対応の空間方向間引きデータについてそれぞれ個別にパック処理を実行して複数の異なるパックブロックを生成する。
時間方向の間引き処理を実行するブロック処理部115は、第1〜第n階層信号対応ブロック処理部131−1〜nにおいて、異なる時間方向間引き処理を実行して複数の階層信号対応の間引きデータを生成し、第1〜第n階層信号対応パック処理部132−1〜nの各々は、これらの複数の階層信号対応の時間方向間引きデータについてそれぞれ個別にパック処理を実行して複数の異なるパックブロックを生成する。
空間および時間方向の間引き処理を実行するブロック処理部116は、第1〜第n階層信号対応ブロック処理部131−1〜nにおいて、異なる空間および時間方向間引き処理を実行して複数の階層信号対応の間引きデータを生成し、第1〜第n階層信号対応パック処理部132−1〜nの各々は、これらの複数の階層信号対応の空間および時間方向間引きデータについてそれぞれ個別にパック処理を実行して複数の異なるパックブロックを生成する。
第1〜第n階層信号対応パック処理部132−1〜132−n各々の出力が、第1〜第n階層信号:[L1]〜[Ln]として、出力部120を介して、符号化部150に入力され、各階層信号:[L1]〜[Ln]に対応する符号化されたストリーム信号:[St1]〜[Stn]として出力される。
以下、図8以下を参照して、間引き処理およびパック処理単位を4フレームとし、出力する階層信号を第1〜第4の4階層信号:[L1]〜[L4]とした場合の、ブロック処理部114〜116、およびパック処理部117〜119の各処理例について説明する。
(空間方向間引きおよびパック処理)
まず、空間方向間引き処理を実行するブロック処理部114とパック処理部117の処理について、図8〜図11を参照して説明する。ブロック処理部114は、図7に示す第1〜第n階層信号対応ブロック処理部131−1〜nにおいて、異なるサンプリング点を設定した空間方向間引き処理を実行し、第1〜第n階層信号対応パック処理部132−1〜nの各々において、これら異なる複数の空間方向間引きデータに対するパック処理によって複数の異なるパックブロックとしての階層信号[L1]〜[Ln]を生成する。
なお、図8〜図11では、処理対象ブロックが水平方向の移動量を持つブロックであり、水平方向に1/4間引きを行なう処理例について説明する。処理対象ブロックが垂直方向の移動量を持つブロックである場合は、間引き処理およびパック処理の方向を垂直方向に変更した処理として実行することになる。
図8は、空間方向間引き処理を実行するブロック処理部114の第1階層信号対応ブロック処理部131−1の空間方向間引き処理と、パック処理部117の第1階層信号対応パック処理部132−1の実行するパック処理を説明する図である。図には、
(A)ブロック処理部に対する入力ブロック
(B)ブロック処理部の処理
(C)パック処理部の処理
をそれぞれ示してある。
(A)ブロック処理部131−1に対する入力ブロックには、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する同一画素位置にある4ブロックの画素データ、A1〜D1、A2〜D2、A3〜D3、A4〜D4の画素データを示している。この画素データ構成は簡略化して示したものであり、例えば処理単位としてのブロックは4×4画素である場合、図8(1)処理ブロック例に示すように4×4画素の構成を持つブロックが各フレーム1〜4に対応する処理ブロック群として設定される。ブロックの水平方向の行においては、すべて同一の処理が行なわれるので、その1つの処理例を(A)〜(C)として示している。
(B)ブロック処理部131−1の処理は、各フレーム1〜4の各入力ブロックについて、左から2番目の画素位置[B]をサンプリング点として取得し、このサンプリング画素データのみを出力データとして設定する空間方向間引き処理を実行する。すなわち、
フレーム1のブロックについては、A1〜D1からB1、
フレーム2のブロックについては、A2〜D2からB2、
フレーム3のブロックについては、A3〜D3からB3、
フレーム4のブロックについては、A4〜D4からB4、
の各画素をサンプリング画素として取得する。
なお、この処理は、(1)処理ブロック例に示すように4×4画素の構成を持つブロックに対して実行する場合、例えばフレーム1についてのサンプリング画素は、4×4=16画素中、左から2番目の列のB10〜B13の4画素となる。図8(B)ブロック処理部の処理に示すフレーム1の[B1]は、これらのB10〜B13の4画素に相当する。他のフレームに対応するサンプリング画素[B2]〜[B4]も同様である。
次に、(C)パック処理部132−1の処理は、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する間引き後の画素データ[B1]〜[B4]を集積したパックブロック301を生成する処理である。4フレーム各々の4×4のブロックを1/4空間間引きした処理によって生成されるパックブロックは図に示すパックブロック311となる。すなわち、各フレーム対応のブロックの左から2番目の画素データのみによって構成される4×4画素のブロックが生成される。
このパックブロック301(具体的には例えばパックブロック311)が第1階層信号[L1]として設定される。第1階層信号[L1]は、原信号の1/4のデータ量となっている。この第1階層信号[L1]は、出力部120(図2参照)を介して符号化部150(図1参照)に入力されて符号化処理がなされ、第1階層信号[L1]に対応する第1階層ストリーム信号[St1]として出力される。
図9は、空間方向間引き処理を実行するブロック処理部114の第2階層信号対応ブロック処理部131−2の空間方向間引き処理と、パック処理部117の第2階層信号対応パック処理部132−2の実行するパック処理を説明する図である。
(A)ブロック処理部131−2に対する入力ブロックには、図8を参照して説明したブロック処理部131−1に対する入力ブロックと同様、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する同一画素位置にある4ブロックの画素データ、A1〜D1、A2〜D2、A3〜D3、A4〜D4の画素データである。
(B)ブロック処理部131−2の処理は、各フレーム1〜4の各入力ブロックについて、先に図8を参照して説明したブロック処理部131−1の処理と異なり、左から4番目の画素位置[D]をサンプリング点として取得し、このサンプリング画素データのみを出力データとして設定する空間方向間引き処理を実行する。すなわち、
フレーム1のブロックについては、A1〜D1からD1、
フレーム2のブロックについては、A2〜D2からD2、
フレーム3のブロックについては、A3〜D3からD3、
フレーム4のブロックについては、A4〜D4からD4、
の各画素をサンプリング画素として取得する。
なお、この処理は、(1)処理ブロック例に示すように4×4画素の構成を持つブロックに対して実行する場合、例えばフレーム1についてのサンプリング画素は、4×4=16画素中、左から4番目の列のD10〜D13の4画素となる。図9(B)ブロック処理部の処理に示すフレーム1の[D1]は、これらのD10〜D13の4画素に相当する。他のフレームに対応するサンプリング画素[D2]〜[D4]も同様である。
次に、(C)パック処理部132−2の処理は、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する間引き後の画素データ[D1]〜[D4]を集積したパックブロック302を生成する処理である。なお、このパックブロック302は、図8を参照して説明したと同様、4フレーム各々の4×4のブロックを1/4空間間引きした処理によって生成される場合、各フレーム対応のブロックの左から4番目の画素データのみによって構成される4×4画素のブロックとして成される。
このパックブロック302が第2階層信号[L2]として設定される。第2階層信号[L2]は、原信号の1/4のデータ量となっている。この第2階層信号[L2]は、出力部120(図2参照)を介して符号化部150(図1参照)に入力されて符号化処理がなされ、第2階層信号[L2]に対応する第2階層ストリーム信号[St2]として出力される。
図10は、空間方向間引き処理を実行するブロック処理部114の第3階層信号対応ブロック処理部131−3の空間方向間引き処理と、パック処理部117の第3階層信号対応パック処理部132−3の実行するパック処理を説明する図である。
(A)ブロック処理部131−3に対する入力ブロックには、図8を参照して説明したブロック処理部131−1に対する入力ブロックと同様、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する同一画素位置にある4ブロックの画素データ、A1〜D1、A2〜D2、A3〜D3、A4〜D4の画素データである。
(B)ブロック処理部131−3の処理は、各フレーム1〜4の各入力ブロックについて、左から3番目の画素位置[C]をサンプリング点として取得し、このサンプリング画素データのみを出力データとして設定する空間方向間引き処理を実行する。すなわち、
フレーム1のブロックについては、A1〜D1からC1、
フレーム2のブロックについては、A2〜D2からC2、
フレーム3のブロックについては、A3〜D3からC3、
フレーム4のブロックについては、A4〜D4からC4、
の各画素をサンプリング画素として取得する。
なお、この処理は、(1)処理ブロック例に示すように4×4画素の構成を持つブロックに対して実行する場合、例えばフレーム1についてのサンプリング画素は、4×4=16画素中、左から3番目の列のC10〜C13の4画素となる。図10(B)ブロック処理部の処理に示すフレーム1の[C1]は、これらのC10〜C13の4画素に相当する。他のフレームに対応するサンプリング画素[C2]〜[C4]も同様である。
次に、(C)パック処理部132−3の処理は、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する間引き後の画素データ[C1]〜[C4]を集積したパックブロック303を生成する処理である。なお、このパックブロック303は、図8を参照して説明したと同様、4フレーム各々の4×4のブロックを1/4空間間引きした処理によって生成される場合、各フレーム対応のブロックの左から3番目の画素データのみによって構成される4×4画素のブロックとして成される。
このパックブロック303が第3階層信号[L3]として設定される。第3階層信号[L3]は、原信号の1/4のデータ量となっている。この第3階層信号[L3]は、出力部120(図2参照)を介して符号化部150(図1参照)に入力されて符号化処理がなされ、第3階層信号[L3]に対応する第3階層ストリーム信号[St3]として出力される。
図11は、空間方向間引き処理を実行するブロック処理部114の第4階層信号対応ブロック処理部131−4の空間方向間引き処理と、パック処理部117の第4階層信号対応パック処理部132−4の実行するパック処理を説明する図である。
(A)ブロック処理部131−4に対する入力ブロックには、図8を参照して説明したブロック処理部131−1に対する入力ブロックと同様、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する同一画素位置にある4ブロックの画素データ、A1〜D1、A2〜D2、A3〜D3、A4〜D4の画素データである。
(B)ブロック処理部131−4の処理は、各フレーム1〜4の各入力ブロックについて、左から1番目の画素位置[A]をサンプリング点として取得し、このサンプリング画素データのみを出力データとして設定する空間方向間引き処理を実行する。すなわち、
フレーム1のブロックについては、A1〜D1からA1、
フレーム2のブロックについては、A2〜D2からA2、
フレーム3のブロックについては、A3〜D3からA3、
フレーム4のブロックについては、A4〜D4からA4、
の各画素をサンプリング画素として取得する。
なお、この処理は、(1)処理ブロック例に示すように4×4画素の構成を持つブロックに対して実行する場合、例えばフレーム1についてのサンプリング画素は、4×4=16画素中、左から1番目の列のA10〜A13の4画素となる。図11(B)ブロック処理部の処理に示すフレーム1の[A1]は、これらのA10〜A13の4画素に相当する。他のフレームに対応するサンプリング画素[A2]〜[A4]も同様である。
次に、(C)パック処理部132−4の処理は、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する間引き後の画素データ[A1]〜[A4]を集積したパックブロック304を生成する処理である。なお、このパックブロック304は、図8を参照して説明したと同様、4フレーム各々の4×4のブロックを1/4空間間引きした処理によって生成される場合、各フレーム対応のブロックの左から1番目の画素データのみによって構成される4×4画素のブロックとして成される。
このパックブロック304が第4階層信号[L4]として設定される。第4階層信号[L4]は、原信号の1/4のデータ量となっている。この第4階層信号[L4]は、出力部120(図2参照)を介して符号化部150(図1参照)に入力されて符号化処理がなされ、第4階層信号[L4]に対応する第4階層ストリーム信号[St4]として出力される。
このように図2に示す空間方向間引き処理を実行するブロック処理部114およびパック処理部117では、異なるサンプリング点を設定した空間間引き処理およびパック処理を実行して、異なる信号構成データからなる複数の階層信号[L1]〜[Ln]を生成する。
(時間方向間引きおよびパック処理)
次に、時間方向間引き処理を実行する図2に示すブロック処理部115とパック処理部118の実行処理について、図12〜図15を参照して説明する。ブロック処理部115は、図7に示す第1〜第n階層信号対応ブロック処理部131−1〜nにおいて、異なるサンプリング点としてのサンプリングフレームを設定した時間方向間引き処理を実行し、第1〜第n階層信号対応パック処理部132−1〜nの各々において、これら異なる複数の時間方向間引きデータに対するパック処理によって複数の異なるパックブロックとしての階層信号[L1]〜[Ln]を生成する。
なお、図12〜図15においても、先に図8〜図11を参照して説明した処理と同様、1/4間引きを行なう処理例について説明する。
図12は、時間方向間引き処理を実行するブロック処理部115の第1階層信号対応ブロック処理部131−1の時間方向間引き処理と、パック処理部118の第1階層信号対応パック処理部132−1の実行するパック処理を説明する図である。図には、
(A)ブロック処理部に対する入力ブロック
(B)ブロック処理部の処理
(C)パック処理部の処理
をそれぞれ示してある。
(A)ブロック処理部131−1に対する入力ブロックは、前述した空間方向間引き処理例と同様、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する同一画素位置にある4ブロックの画素データ、A1〜D1、A2〜D2、A3〜D3、A4〜D4である。
(B)ブロック処理部131−1の処理は、各フレーム1〜4の各入力ブロックから、1つのフレーム対応のブロックをサンプリングフレームとして選択する処理であり、ブロック処理部131−1は、フレーム1のブロックをサンプリング点として取得し、このサンプリング画素データのみを出力データとして設定する時間方向間引き処理を実行する。すなわち、
フレーム1のブロックA1〜D1
の各画素をサンプリング画素として取得する。
なお、この処理は、(1)処理ブロック例に示すように4×4画素の構成を持つブロックに対して実行する場合、フレーム1の4×4=16画素が、そのまま、サンプル画素として選択され、その他のフレーム2〜4の画素は出力テータには含まれないことになる。
次に、(C)パック処理部132−1の処理は、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する間引き後の画素データ[A1]〜[D1]を集積したパックブロック321を生成する処理である。これは、ブロック処理部131−1の出力をそのままパックブロックとして設定する処理である。4フレーム各々の4×4のブロックを1/4時間間引きした処理によって生成されるパックブロックは図に示すパックブロック331となる。すなわち、フレーム1のブロック画素データのみによって構成される4×4画素のブロックが生成される。
このパックブロック321(具体的には例えばパックブロック331)が第1階層信号[L1]として設定される。第1階層信号[L1]は、原信号の1/4のデータ量となっている。この第1階層信号[L1]は、出力部120(図2参照)を介して符号化部150(図1参照)に入力されて符号化処理がなされ、第1階層信号[L1]に対応する第1階層ストリーム信号[St1]として出力される。
図13は、時間方向間引き処理を実行するブロック処理部114の第2階層信号対応ブロック処理部131−2の時間方向間引き処理と、パック処理部117の第2階層信号対応パック処理部132−2の実行するパック処理を説明する図である。
(A)ブロック処理部131−2に対する入力ブロックには、図8を参照して説明したブロック処理部131−1に対する入力ブロックと同様、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する同一画素位置にある4ブロックの画素データ、A1〜D1、A2〜D2、A3〜D3、A4〜D4の画素データである。
(B)ブロック処理部131−2の処理は、各フレーム1〜4の各入力ブロックから、1つのフレーム対応のブロックをサンプリングフレームとして選択する処理であり、ブロック処理部131−2は、フレーム3のブロックをサンプリング点として取得し、このサンプリング画素データのみを出力データとして設定する時間方向間引き処理を実行する。すなわち、
フレーム3のブロックA3〜D3
の各画素をサンプリング画素として取得する。
次に、(C)パック処理部132−2の処理は、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する間引き後の画素データ[A3]〜[D3]を集積したパックブロック322を生成する処理である。これは、ブロック処理部131−1の出力をそのままパックブロックとして設定する処理である。なお、このパックブロック322は、図12を参照して説明したと同様、4×4のブロックを1/4時間方向間引きした処理によって生成される場合、フレーム3対応のブロックのみによって構成される4×4画素のブロックとして成される。
このパックブロック322が第2階層信号[L2]として設定される。第2階層信号[L2]は、原信号の1/4のデータ量となっている。この第2階層信号[L2]は、出力部120(図2参照)を介して符号化部150(図1参照)に入力されて符号化処理がなされ、第2階層信号[L2]に対応する第2階層ストリーム信号[St2]として出力される。
図14は、時間方向間引き処理を実行するブロック処理部114の第3階層信号対応ブロック処理部131−3の時間方向間引き処理と、パック処理部117の第3階層信号対応パック処理部132−3の実行するパック処理を説明する図である。
(A)ブロック処理部131−3に対する入力ブロックには、図8を参照して説明したブロック処理部131−3に対する入力ブロックと同様、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する同一画素位置にある4ブロックの画素データ、A1〜D1、A2〜D2、A3〜D3、A4〜D4の画素データである。
(B)ブロック処理部131−3の処理は、各フレーム1〜4の各入力ブロックから、1つのフレーム対応のブロックをサンプリングフレームとして選択する処理であり、ブロック処理部131−3は、フレーム2のブロックをサンプリング点として取得し、このサンプリング画素データのみを出力データとして設定する時間方向間引き処理を実行する。すなわち、
フレーム2のブロックA2〜D2
の各画素をサンプリング画素として取得する。
次に、(C)パック処理部132−3の処理は、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する間引き後の画素データ[A2]〜[D2]を集積したパックブロック323を生成する処理である。これは、ブロック処理部131−1の出力をそのままパックブロックとして設定する処理である。なお、このパックブロック323は、図12を参照して説明したと同様、4×4のブロックを1/4時間方向間引きした処理によって生成される場合、フレーム2対応のブロックのみによって構成される4×4画素のブロックとして成される。
このパックブロック323が第3階層信号[L3]として設定される。第3階層信号[L3]は、原信号の1/4のデータ量となっている。この第3階層信号[L3]は、出力部120(図2参照)を介して符号化部150(図1参照)に入力されて符号化処理がなされ、第3階層信号[L3]に対応する第3階層ストリーム信号[St3]として出力される。
図15は、時間方向間引き処理を実行するブロック処理部114の第4階層信号対応ブロック処理部131−4の時間方向間引き処理と、パック処理部117の第4階層信号対応パック処理部132−4の実行するパック処理を説明する図である。
(A)ブロック処理部131−4に対する入力ブロックには、図8を参照して説明したブロック処理部131−4に対する入力ブロックと同様、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する同一画素位置にある4ブロックの画素データ、A1〜D1、A2〜D2、A3〜D3、A4〜D4の画素データである。
(B)ブロック処理部131−4の処理は、各フレーム1〜4の各入力ブロックから、1つのフレーム対応のブロックをサンプリングフレームとして選択する処理であり、ブロック処理部131−4は、フレーム4のブロックをサンプリング点として取得し、このサンプリング画素データのみを出力データとして設定する時間方向間引き処理を実行する。すなわち、
フレーム4のブロックA4〜D4
の各画素をサンプリング画素として取得する。
次に、(C)パック処理部132−4の処理は、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する間引き後の画素データ[A4]〜[D4]を集積したパックブロック324を生成する処理である。これは、ブロック処理部131−1の出力をそのままパックブロックとして設定する処理である。なお、このパックブロック324は、図12を参照して説明したと同様、4×4のブロックを1/4時間方向間引きした処理によって生成される場合、フレーム4対応のブロックのみによって構成される4×4画素のブロックとして成される。
このパックブロック324が第4階層信号[L4]として設定される。第4階層信号[L4]は、原信号の1/4のデータ量となっている。この第4階層信号[L4]は、出力部120(図2参照)を介して符号化部150(図1参照)に入力されて符号化処理がなされ、第4階層信号[L4]に対応する第3階層ストリーム信号[St4]として出力される。
このように図2に示す時間方向間引き処理を実行するブロック処理部115およびパック処理部118では、異なるサンプリング点としてのサンプリングフレームを設定した時間方向間引き処理およびパック処理を実行して、異なる信号構成データからなる複数の階層信号[L1]〜[Ln]を生成する。
(空間方向および時間方向間引きおよびパック処理)
次に、空間方向および時間方向間引き処理を実行する図2に示すブロック処理部116とパック処理部119の実行処理について、図16〜図19を参照して説明する。ブロック処理部116は、図7に示す第1〜第n階層信号対応ブロック処理部131−1〜nにおいて、異なるサンプリング点としてのサンプリングフレームを設定した空間方向および時間方向間引き処理を実行し、第1〜第n階層信号対応パック処理部132−1〜nの各々において、これら異なる複数の空間方向および時間方向間引きデータに対するパック処理によって複数の異なるパックブロックとしての階層信号[L1]〜[Ln]を生成する。
なお、図16〜図19においても、先に図8〜図11を参照して説明した処理と同様、1/4間引きを行なう処理例について説明する。
図16は、空間方向および時間方向間引き処理を実行するブロック処理部116の第1階層信号対応ブロック処理部131−1の時間方向間引き処理と、パック処理部119の第1階層信号対応パック処理部132−1の実行するパック処理を説明する図である。図には、
(A)ブロック処理部に対する入力ブロック
(B)ブロック処理部の処理
(C)パック処理部の処理
をそれぞれ示してある。
(A)ブロック処理部131−1に対する入力ブロックは、前述した空間方向間引き処理例と同様、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する同一画素位置にある4ブロックの画素データ、A1〜D1、A2〜D2、A3〜D3、A4〜D4である。
(B)ブロック処理部131−1の処理は、各フレーム1〜4の各入力ブロックから、第1および第3フレームをサンプリングフレームとして、さらに、各サンプリングフレームから一番左と左から3番目の画素データをサンプリング画素として設定し、サンプリング画素を出力データとして設定する空間方向および時間方向間引き処理を実行する。すなわち、
フレーム1のブロック構成画素A1〜D1中の画素A1とC1、
フレーム3のブロック構成画素A3〜D3中の画素A3とC3、
の各画素をサンプリング画素として取得する。
なお、この処理は、(1)処理ブロック例に示すように4×4画素の構成を持つブロックに対して実行する場合、フレーム1の4×4=16画素中、A00〜A13とC00〜C13の8画素がフレーム1対応ブロックから取得されることを意味する。図に示す(B)ブロック処理部の処理中のA1、C1がこれらの画素に対応する。フレーム3の画素も同様の処理態様でサンプル点から8画素が取得される。図に示す(B)ブロック処理部の処理中のA3、C3がこれらの画素に対応する。
次に、(C)パック処理部132−1の処理は、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する間引き後の画素データ[A1]、[C1]、[A3]、[C3]を集積したパックブロック341を生成する処理である。4フレーム各々の4×4のブロックを1/2空間間引きおよび1/2時間間引きした処理によって生成されるパックブロックは図に示すパックブロック351となる。すなわち、フレーム1とフレーム3の各8画素データのみによって構成される4×4画素のブロックが生成される。
このパックブロック341(具体的には例えばパックブロック351)が第1階層信号[L1]として設定される。第1階層信号[L1]は、原信号の1/4のデータ量となっている。この第1階層信号[L1]は、出力部120(図2参照)を介して符号化部150(図1参照)に入力されて符号化処理がなされ、第1階層信号[L1]に対応する第1階層ストリーム信号[St1]として出力される。
図17は、空間方向および時間方向間引き処理を実行するブロック処理部114の第2階層信号対応ブロック処理部131−2の時間方向間引き処理と、パック処理部117の第2階層信号対応パック処理部132−2の実行するパック処理を説明する図である。
(A)ブロック処理部131−2に対する入力ブロックには、図8を参照して説明したブロック処理部131−1に対する入力ブロックと同様、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する同一画素位置にある4ブロックの画素データ、A1〜D1、A2〜D2、A3〜D3、A4〜D4の画素データである。
(B)ブロック処理部131−2の処理は、各フレーム1〜4の各入力ブロックから、第2および第4フレームをサンプリングフレームとして、さらに、各サンプリングフレームから一番左と左から3番目の画素データをサンプリング画素として設定し、サンプリング画素を出力データとして設定する空間方向および時間方向間引き処理を実行する。すなわち、
フレーム2のブロック構成画素A2〜D2中の画素A2とC2、
フレーム4のブロック構成画素A4〜D4中の画素A4とC4、
の各画素をサンプリング画素として取得する。
次に、(C)パック処理部132−2の処理は、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する間引き後の画素データ[A2]、[C2]、[A4]、[C4]を集積したパックブロック342を生成する処理である。
このパックブロック342が第2階層信号[L2]として設定される。第2階層信号[L2]は、原信号の1/4のデータ量となっている。この第2階層信号[L2]は、出力部120(図2参照)を介して符号化部150(図1参照)に入力されて符号化処理がなされ、第2階層信号[L2]に対応する第2階層ストリーム信号[St2]として出力される。
図18は、空間方向および時間方向間引き処理を実行するブロック処理部114の第2階層信号対応ブロック処理部131−3の時間方向間引き処理と、パック処理部117の第3階層信号対応パック処理部132−3の実行するパック処理を説明する図である。
(A)ブロック処理部131−3に対する入力ブロックには、図8を参照して説明したブロック処理部131−1に対する入力ブロックと同様、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する同一画素位置にある4ブロックの画素データ、A1〜D1、A2〜D2、A3〜D3、A4〜D4の画素データである。
(B)ブロック処理部131−3の処理は、各フレーム1〜4の各入力ブロックから、第1および第3フレームをサンプリングフレームとして、さらに、各サンプリングフレームから一番左から2番目と3番目の画素データをサンプリング画素として設定し、サンプリング画素を出力データとして設定する空間方向および時間方向間引き処理を実行する。すなわち、
フレーム1のブロック構成画素A1〜D1中の画素B1とD1、
フレーム3のブロック構成画素A3〜D3中の画素B3とD3、
の各画素をサンプリング画素として取得する。
次に、(C)パック処理部132−3の処理は、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する間引き後の画素データ[B1]、[D1]、[B3]、[D3]を集積したパックブロック343を生成する処理である。
このパックブロック343が第3階層信号[L3]として設定される。第3階層信号[L3]は、原信号の1/4のデータ量となっている。この第3階層信号[L3]は、出力部120(図2参照)を介して符号化部150(図1参照)に入力されて符号化処理がなされ、第3階層信号[L3]に対応する第3階層ストリーム信号[St3]として出力される。
図19は、空間方向および時間方向間引き処理を実行するブロック処理部114の第2階層信号対応ブロック処理部131−4の時間方向間引き処理と、パック処理部117の第3階層信号対応パック処理部132−4の実行するパック処理を説明する図である。
(A)ブロック処理部131−4に対する入力ブロックには、図8を参照して説明したブロック処理部131−1に対する入力ブロックと同様、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する同一画素位置にある4ブロックの画素データ、A1〜D1、A2〜D2、A3〜D3、A4〜D4の画素データである。
(B)ブロック処理部131−4の処理は、各フレーム1〜4の各入力ブロックから、第2および第4フレームをサンプリングフレームとして、さらに、各サンプリングフレームから一番左から2番目と3番目の画素データをサンプリング画素として設定し、サンプリング画素を出力データとして設定する空間方向および時間方向間引き処理を実行する。すなわち、
フレーム2のブロック構成画素A2〜D2中の画素B2とD2、
フレーム4のブロック構成画素A4〜D4中の画素B4とD4、
の各画素をサンプリング画素として取得する。
次に、(C)パック処理部132−4の処理は、間引き処理およびパック処理単位フレームとして設定される4フレームに対応する間引き後の画素データ[B2]、[D2]、[B4]、[D4]を集積したパックブロック344を生成する処理である。
このパックブロック344が第4階層信号[L4]として設定される。第4階層信号[L3]は、原信号の1/4のデータ量となっている。この第3階層信号[L3]は、出力部120(図2参照)を介して符号化部150(図1参照)に入力されて符号化処理がなされ、第4階層信号[L4]に対応する第4階層ストリーム信号[St4]として出力される。
このように図2に示す空間方向および時間方向間引き処理を実行するブロック処理部116およびパック処理部119では、異なるサンプリング点としてのサンプリングフレームを設定した空間方向および時間方向間引き処理およびパック処理を実行して、異なる信号構成データからなる複数の階層信号[L1]〜[Ln]を生成する。
上述したように、図2に示す各ブロック処理部114〜116とパック処理部117〜119は、ブロック分配部113からブロック対応の移動量に基づいて振り分けられるブロックについて、それぞれ空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理を実行して、かつ、異なるサンプル点からなる複数のパックブロックとしての階層信号[L1]〜[Ln]を生成して、出力部120を介して符号化部150に出力する。
例えば4フレームを処理単位として設定した場合の、階層信号は、図20に示すような設定となる。フレームk〜k+3の4つの入力ストリームに対応する4フレーム対応ブロックについて、4つの階層信号[L1]〜[L4]が生成される。フレームk+4〜k+7の4つの入力ストリームについても、4フレーム対応ブロックについて、4つの階層信号[L1]〜[L4]が生成される。以下各4フレーム毎に同様に4つの階層信号[L1]〜[L4]が生成されて出力部120を介して符号化部150に入力され、4つの異なるデータ構成からなるスリーム信号[St1]〜[St4]として出力されることになる。
画像圧縮装置における出力部120は、上述したパック処理部117乃至119の処理によって生成されたパックブロックとしての階層信号[L1]〜[Ln]に対し、図示しない制御部から供給されるブロック処理情報に基づき、ブロック単位で選択されたパック処理部からの画像信号を選択し、第1階層信号[L1]から第n階層信号[Ln]として符号化部150に供給する。
次に、符号化部150の構成および処理について、図21を参照して説明する。符号化部150は、画像変換部110から出力される階層信号[L1]〜[Ln]毎に対応する画像符号化部151−1〜151−nを持ち、各画像符号化部は制御部154から供給される所定の符号化ビットレート情報に従って、各階層信号[L1]〜[Ln]の符号化処理を行い、各階層信号[L1]〜[Ln]に対応するストリーム信号[St1]〜[Stn]を生成して生成ストリームを出力する。
例えば、画像符号化部151−1は、第1階層信号[L1]に対し、制御部154から供給される第1階層に対する設定ビットレートに従って符号化処理を行ない、第1階層ストリーム[St1]を生成して出力する。同様に、画像符号化部151−nは、第n階層信号[L7]に対し、制御部154から供給される第n階層に対する設定ビットレートに従って符号化処理を行ない、第n階層ストリーム[Stn]を生成して出力する。なお、制御部124は、第1階層から第n階層に対するビットレートを全て同じレートに設定しても良いし、第1階層に対するビットレートを最大とし、第n階層に対するビットレートを最小とするように段階的なビットレート制御を行なっても良い。全階層のビットレートを同等にする場合には、受信側では任意の階層をベースレイヤとして扱うことが可能となる。また、画像符号化部151−1乃至151−nは、様々な符号化方法が適用可能である。たとえば、動画像圧縮に適したMPEG(Moving Picture Experts Group)方式を用いたり、静止画像圧縮に適したJPEG(Joint Photographic Experts Group)方式を用いることが可能である。
エントロピー符号化部153は、画像変換部110から供給されるブロック処理情報[Inf]に対し、可逆式の符号化処理を行ない、ブロック処理情報ストリーム[St−Inf]を出力する。ここで、エントロピー符号化方式は、可逆なものであればどのような方式を用いても構わない。
なお、ブロック処理情報[Inf]は、ブロック分配部113において決定されたブロック処理方法、すなわち、空間方向間引き、時間方向間引き、空間および時間方向間引きのいずれのブロック処理部において処理がなされたかを示す情報であり、ブロック分配部113から出力される。この情報は、ブロック(本実施例では4×4画素)毎に、間引き処理およびパック処理単位であるnフレームおきに出力し、各処理ブロックに対応する処理方法を表す数ビットのデータである。
制御部154は、伝送路の帯域や、伝送エラーの発生状況に応じて、伝送すべき階層数を制御し、受信側で安定した復号化が実現できるようにする。例えば、アプリケーションに依存して伝送路、または受信帯域が狭いことがわかっている場合、あらかじめ第1階層ストリームだけを伝送するようにして伝送ビットレートを抑える。また、例えば、伝送路のエラーを監視し、エラー発生率が上昇した場合には、伝送階層数を減少させ伝送ビットレートを抑えるように制御する。
[画像伸長装置の構成および処理の詳細]
次に、画像伸長装置の構成および処理の詳細について説明する。まず、図22を参照して画像伸長装置200の復号化部210(図1参照)の詳細構成および処理について説明する。
復号化部210は、画像圧縮装置100の符号化部150から伝送される階層化信号からなるストリーム[St1]〜[Stn]を階層毎に復号化する処理を実行する複数の画像復号化部211−1〜nを有し、各復号化部は制御部215の制御に従って復号化処理を行ない、階層毎の画像信号である階層化信号[L1]〜[Ln]を、画像変換部250に出力する。
例えば、画像復号化部211−1は、第1階層ストリーム[St1]に対して復号化処理を行ない、第1階層信号[L1]を出力する。同様に、画像復号化部211−nは、第n階層ストリーム[Stn]に対して復号化処理を行ない、第n階層信号[L1]を出力する。エントロピー復号化部214は、ブロック処理情報ストリーム[St−Inf]に対して可逆な復号化処理を行ない、ブロック処理情報[Inf]を出力する。
復号化部210における制御部215は、復号化部210におけるデータ受信状況や、画像伸長装置200の処理能力などに応じて受信するストリームを制限し、復号化、および画像変換を行なう階層数を制御する。例えば、受信エラーが増加した場合には受信品質が低下していると考え、送信側にビットレートを下げるように通知すると共に、受信ストリーム数を減少させるようにする。また、アプリケーションなどの要求から復号化部210、および画像変換部250の消費電力を抑えるために、受信ストリーム数を減少させるといった制御も行なう。
次に、画像伸長装置200の画像変換部250の構成および処理について図23以下を参照して説明する。図23に、画像伸長装置200の画像変換部250のブロック図を示す。画像伸長装置200の画像変換部250は、前述したように、復号化部210の生成した階層化動画像信号:[L1]〜[Ln]と、ブロック処理情報[Inf]を入力し、動画像を構成するフレームを所定画素領域単位で分割した画像ブロック毎のサンプリングパターンに逆変換を行ない、動画像データを復元し、復元した動画像データ[Dout]を出力する。
ブロック分配部251は、復号化部210から入力される第1階層信号[L1]から第n階層信号[Ln]を、復号化部210から入力されるブロック処理情報[Inf]に基づいて、各階層信号に対して適用すべきアンパック処理を選択し、選択されたアンパック処理部252〜254のいずれか各階層信号を分配する。
ブロック処理情報[Inf]は、前述したように、画像圧縮装置100のブロック分配部113において決定されたブロック処理方法、すなわち、空間方向間引き、時間方向間引き、空間および時間方向間引きのいずれのブロック処理部において処理がなされたかを示す情報であり、各処理ブロックに対応する処理方法を表す数ビットのデータを含む情報である。ブロック分配部251は、この情報に基づいて、
(1)空間方向間引きの施されたパックブロックからなる階層信号はアンパック処理部252、
(2)時間方向間引きの施されたパックブロックからなる階層信号はアンパック処理部253、
(3)空間方向および時間方向間引きの施されたパックブロックからなる階層信号はアンパック処理部254、
にそれぞれ階層信号を振り分ける。
アンパック処理部252は、画像変換部110におけるブロック処理部114で空間方向間引き処理が施され、パック処理部117において生成されたパックブロックを入力し、入力パックブロックに対するアンパック処理を実行する。すなわち、各階層において1フレームにパックされたパックブロックとしての階層信号から、各フレーム対応の間引き信号を生成し、ブロック処理部255に出力する。詳細な動作については後述する。
アンパック処理部253は、画像変換部110におけるブロック処理部115で時間方向間引き処理が施され、パック処理部118において生成されたパックブロックを入力し、入力パックブロックに対するアンパック処理を実行する。すなわち、入力されたパックブロックとしての階層信号を、そのままブロック処理部256に出力する。詳細な動作については後述する。
アンパック処理部254は、画像変換部110におけるブロック処理部116で空間および時間方向間引き処理が施され、パック処理部119において生成されたパックブロックを入力し、入力パックブロックに対するアンパック処理を実行する。すなわち、各階層において1フレームにパックされたパックブロックとしての階層信号から、各フレーム対応の間引き信号を生成し、ブロック処理部257に出力する。詳細な動作については後述する。
ブロック処理部255乃至257は、対応するアンパック処理部252乃至254から供給される各階層におけるアンパックされたフレーム対応の間引き信号を入力して、各フレーム対応のブロックを復元する画素拡張処理を行なう。
ブロック処理部255は、アンパック処理部252から供給される空間方向間引き後のデータであるサンプリングされたフレームにおける間引き画素信号に対し、ブロックに対応する移動方向に対応する空間的な画素の拡張により、各フレーム対応のブロックを復元する。具体的には、各フレームにおいてサンプリング点として与えられている画素値を、ブロックの移動方向に並行な画素位置にコピーする処理を行なう。
なお、詳細は後述するが、ブロック処理部255において実行する画素コピーによる拡張態様は、画像伸長装置によってアンパックおよびブロック処理を実行する処理階層数に応じて異なる処理態様となる。具体的には、画像圧縮装置によって生成され画像伸長装置が入力する階層信号の階層数を[n]、画像伸長装置によってアンパックおよびブロック処理を実行する処理階層数を[Lm]としたとき、コピー後のブロックの画素数を、コピー前の画素数の[n/Lm]倍の画素数になるようにコピー処理を実行する。このコピー処理によってデータ量をn/Lm倍に拡張する。すなわち、画像伸長装置によってアンパックおよびブロック処理を実行する処理階層数[Lm]が増えることにより、各ブロック処理部において実行する拡張倍率は低くなり、画素拡張により生じるエラーは減少する。より詳細な動作については後述する。
ブロック処理部256は、アンパック処理部253から供給される時間方向間引き後のデータであるサンプリングされたフレームにおける間引き画素信号に対し、時間方向の拡張を行なう。具体的には、サンプリングされたフレームの全ての画素を、時間方向に連続するフレームにコピーする処理を行なう。なお、このブロック処理部256において実行する画素コピーによる拡張態様も、画像伸長装置によってアンパックおよびブロック処理を実行する処理階層数に応じて異なる処理態様となる。
具体的には、画像圧縮装置によって生成され画像伸長装置が入力する階層信号の階層数を[n]、画像伸長装置によってアンパックおよびブロック処理を実行する処理階層数を[Lm]としたとき、コピー後のブロックの画素数を、コピー前の画素数の[n/Lm]倍の画素数になるようにコピー処理を実行する。このコピー処理によってデータ量をn/Lm倍に拡張する。すなわち、画像伸長装置によってアンパックおよびブロック処理を実行する処理階層数[Lm]が増えることにより、各ブロック処理部において実行する拡張倍率は低くなり、画素拡張により生じるエラーは減少する。より詳細な動作については後述する。
ブロック処理部257は、アンパック処理部254から供給される所定の2フレームに対応する間引き信号に対し、時間方向への拡張を行なうとともに、移動方向への空間的な画素の拡張を行なう。なお、このブロック処理部257において実行する画素コピーによる拡張態様も、画像伸長装置によってアンパックおよびブロック処理を実行する処理階層数に応じて異なる処理態様となる。
具体的には、処理階層数[Lm]がn/2以下の場合には、サンプリングされた2フレームにおける画素を、時間方向においてn/2Lm倍のフレーム数になるように前後のフレームにコピーを行ない、各フレームにおいてサンプルとして与えられる画素を、移動方向において2倍の画素数になるように隣り合う画素位置にコピーすることにより、データ量をn/Lm倍に拡張する。また、処理階層数[Lm]がn/2より大きい場合には、各フレームにおいてサンプルとして与えられている画素を、移動方向においてn/Lm倍の画素数になるように隣り合う画素位置にコピーすることにより、データ量をn/Lm倍に拡張する。より詳細な動作については後述する。
ブロック合成部258は、ブロック処理部255乃至257から供給されるブロック毎の画像信号に対して、復号化部210からブロック分配部およびアンパック処理部を介して供給されるブロック処理情報[Inf]に基づき、ブロック処理部255乃至257からの画像信号である各フレーム対応の分割領域データとしてのブロックをフレーム単位で選択して合成し、各フレーム単位の画像信号[Dout]を生成して出力する。
なお、復号化部210の制御部215は、伝送路の帯域や、画像伸長装置200の処理能力などに応じて決定された処理階層数に応じて、アンパック処理部252乃至254、およびブロック処理部255乃至257における処理を制御する。すなわち、画像伸長装置200における処理階層数[Lm]を設定し、設定した処理階層数[Lm]に応じたブロック復元処理を行なうように図に示す制御信号に基づいて制御を行なう。
以下、図24以下を参照して、間引き処理およびパック処理単位を4フレームとして生成されたパックブロックからなる階層信号[L1]〜[L4]を入力してフレーム対応のブロック画像データを生成する場合の、アンパック処理部252〜254と、ブロック処理部255〜257の各処理例について説明する。
(空間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理)
まず、空間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理を実行するアンパック処理部252と、ブロック処理部255の処理について、図24〜図26を参照して説明する。
なお、図24〜図26では、水平方向に1/4間引きを行なって生成されたパックブロックに対する処理例について説明する。処理対象ブロックが垂直方向の移動量を持つブロックである場合は、処理方向を垂直方向に変更した処理として実行することになる。
図24は、空間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理であり、第1階層信号[L1]のみを処理対象とした復元処理例を示している。図23に示すアンパック処理部252におけるアンパック処理と、ブロック処理部256におけるブロック復元処理である。図には、
(A)アンパック処理部に対する入力パックブロック(階層信号)
(B)アンパック処理部の処理
(C)ブロック処理部の処理
をそれぞれ示してある。
(A)アンパック処理部252に対する入力パックブロック(階層信号)は、本処理例では、第1階層信号[L1]のみであり、図に示すB1,B2,B3,B4の画素データからなるパックブロック501、すなわち、先に、図8を参照して説明したパックブロック301に相当する第1階層信号[L1]である。このパックブロック501は、例えば4×4画素のブロックにおける4フレームの左から2番目の画素データを集積して生成されたパックブロックであり、図に示すパックブロック511の画素データからなる。
(B)アンパック処理部252の処理は、このパックブロック501のアンパック処理であり、フレーム1からフレーム4までの各フレーム対応の画素データに分離してフレーム対応の間引きデータからなる4つのブロックを生成する。この場合は、先に図8を参照して説明した空間方向間引き処理において、サンプリング点として設定され、パックブロック501から取得可能なサンプリング画素のみからなる各フレーム対応のブロックを復元する。
例えばフレーム1に対応するブロックとしては、図24(1)アンパックによる生成ブロックに示すように、パックブロック501から取得可能なフレーム1対応のサンプリング画素、すなわち左から2番目の画素B1(B10〜B13)のサンプリング画素のみを設定したブロックを生成する。他のフレーム2〜4についても、それぞれパックブロック501に含まれる左から2番目のサンプリング画素B2,B3、B4のみを持つブロックを生成する。
(C)ブロック処理部255の処理は、アンパック処理部252の生成したブロックを適用し、ブロック内に含まれるサンプリング画素の画素値を、画素値の未設定位置にコピーする処理を行い各フレーム対応のブロックを生成する処理である。例えばフレーム1対応のブロックでは、アンパック処理によって、図に示す(1)アンパックによる生成ブロックが生成され、このブロックに設定された画素値、すなわち、左から2番目の列のサンプリング画素の画素値を、画素値の設定されていない領域、すなわちブロックの左から1,3,4番目の列にコピーする。この処理によって図に示す(2)復元ブロックを生成する。フレーム2〜4についても同様の処理を実行して各フレーム対応のブロックを復元する。
この図24に示す処理例は、第1階層信号[L1]のみを処理対象とした復元処理例を示している。その他の階層信号[L2]〜については復元処理を実行しない。この処理制御は、復号化部210の制御部215によって実行される制御であり、制御部215は、伝送路の帯域や、画像伸長装置200の処理能力などに応じて処理階層数を決定し、決定した処理階層数に応じて、アンパック処理部252乃至254、およびブロック処理部255乃至257における処理を制御する。
この例では、画像伸長装置200における処理階層数:Lm=1、画像圧縮装置において生成した処理階層:n=4の設定であり、コピー後のブロックの画素数は、コピー前の画素数の[n/Lm]=4倍の画素数になるようなコピー処理が、ブロック処理部255において実行され、各フレームにおいて原信号と同じ画素数の信号を持つ動画像データ[Dout]を出力する。
図25は、空間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理であり、第1階層信号[L1]と第2階層信号[L2]を処理対象とした復元処理例を示している。図23に示すアンパック処理部252におけるアンパック処理と、ブロック処理部255におけるブロック復元処理である。
(A)アンパック処理部252に対する入力パックブロック(階層信号)は、本処理例では、図に示すB1,B2,B3,B4の画素データからなるパックブロック521(第1階層信号[L1])と、D1,D2,D3,D4の画素データからなるパックブロック522(第2階層信号[L2])である。これは、先に、図8、図9を参照して説明したパックブロック301,302に相当する第1階層信号[L1]および第2階層信号[L2]である。パックブロック521は、例えば4×4画素のブロックにおける4フレームの左から2番目の画素データを集積して生成されたパックブロックであり、パックブロック522は、4×4画素のブロックにおける4フレームの左から4番目の画素データを集積して生成されたパックブロックである。
(B)アンパック処理部252の処理は、これらのパックブロック521、パックブロック522のアンパック処理であり、フレーム1からフレーム4までの各フレーム対応の画素データに分離してフレーム対応の間引きデータからなる4つのブロックを生成する。この場合は、先に図8を参照して説明した空間方向間引き処理において、サンプリング点として設定され、パックブロック521から取得可能なサンプリング画素と、図9を参照して説明した空間方向間引き処理において、サンプリング点として設定され、パックブロック522から取得可能なサンプリング画素とからなる各フレーム対応のブロックを復元する。
例えばフレーム1に対応するブロックとしては、パックブロック521から取得可能なフレーム1対応のサンプリング画素、すなわち左から2番目の画素B1(B10〜B13)のサンプリング画素と、パックブロック522から取得可能なフレーム1対応のサンプリング画素、すなわち左から4番目の画素D1(D10〜D13)のサンプリング画素のみを設定したブロックを生成する。他のフレーム2〜4についても、それぞれパックブロック521、522に含まれる左から2および4番目のサンプリング画素B2,D2、B3,D3、B4,D4のみを持つブロックを生成する。
(C)ブロック処理部255の処理は、アンパック処理部の生成したブロックを適用し、ブロック内に含まれるサンプリング画素の画素値を、画素値の未設定位置にコピーする処理を行い各フレーム対応のブロックを生成する処理である。例えばフレーム1対応のブロックでは、アンパック処理によって、左から2,4番目の画素B1,D1を持つブロックが生成され、このブロックに設定されたサンプリング画素B1,D1の画素値を、画素値の設定されていない領域、すなわちブロックの左から1,3番目の列にそれぞれコピーする。この処理によって復元ブロックを生成する。フレーム2〜4についても同様の処理を実行して各フレーム対応のブロックを復元する。
この例では、画像伸長装置200における処理階層数:Lm=2、画像圧縮装置において生成した処理階層:n=4の設定であり、コピー後のブロックの画素数は、コピー前の画素数の[n/Lm]=2倍の画素数になるようなコピー処理が、ブロック処理部255において実行され、各フレームにおいて原信号と同じ画素数の信号を持つ動画像データ[Dout]を出力する。
図26は、空間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理であり、第1階層信号[L1]〜第4階層信号[L4]を処理対象とした復元処理例を示している。図23に示すアンパック処理部252におけるアンパック処理と、ブロック処理部255におけるブロック復元処理である。
(A)アンパック処理部252に対する入力パックブロック(階層信号)は、本処理例では、図に示すA1,A2,A3,A4の画素データからなるパックブロック531(第4階層信号[L4])と、B1,B2,B3,B4の画素データからなるパックブロック532(第1階層信号[L1])と、C1,C2,C3,C4の画素データからなるパックブロック533(第3階層信号[L3])と、D1,D2,D3,D4の画素データからなるパックブロック522(第2階層信号[L2])である。これは、先に、図8〜図11を参照して説明したパックブロック301〜304に相当する第1〜4階層信号[L1]〜[L4]である。
(B)アンパック処理部252の処理は、これらのパックブロック531〜534のアンパック処理であり、フレーム1からフレーム4までの各フレーム対応の画素データに分離してフレーム対応の間引きデータからなる4つのブロックを生成する。この場合は、原画像のブロック構成画素と同じ画素数の画素が4つの階層信号(パックブロック531〜534)のそれぞれにサンプリング画素として設定されており、サンプリング画素からなる各フレーム対応のブロックを復元することで原画像のブロックと同一のブロックが復元される。
(C)ブロック処理部255は、この場合、画素値のコピー処理は不要であり、
アンパック処理部の生成したブロックをそのまま、フレーム対応の復元ブロックとして出力する
この例では、画像伸長装置200における処理階層数:Lm=4、画像圧縮装置において生成した処理階層:n=4の設定であり、コピー後のブロックの画素数は、コピー前の画素数の[n/Lm]=1倍の画素数になるコピー処理、すなわち、ブロック処理部255においてコピー処理を実行することなく、各フレームにおいて原信号と同じ画素数の信号を持つ動画像データ[Dout]を出力する。
(時間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理)
まず、時間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理を実行するアンパック処理部253と、ブロック処理部256の処理について、図27〜図29を参照して説明する。
なお、図27〜図29では、時間方向に1/4間引きを行なって生成されたパックブロックに対する処理例について説明する。
図27は、時間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理であり、第1階層信号[L1]のみを処理対象とした復元処理例を示している。図27に示すアンパック処理部253におけるアンパック処理と、ブロック処理部256におけるブロック復元処理である。図には、
(A)アンパック処理部に対する入力パックブロック(階層信号)
(B)アンパック処理部の処理
(C)ブロック処理部の処理
をそれぞれ示してある。
(A)アンパック処理部253に対する入力パックブロック(階層信号)は、本処理例では、第1階層信号[L1]のみであり、図に示すA1,B1,C1,D1の画素データからなるパックブロック601、すなわち、先に、図12を参照して説明したパックブロック331に相当する第1階層信号[L1]である。このパックブロック601は、例えば4×4画素のブロックにおける4フレーム中、フレーム1の画素データを取得して生成されたパックブロックであり、図に示す(1)処理ブロック例の画素データからなる。
(B)アンパック処理部253の処理は、フレーム1からフレーム4までの各フレーム対応の画素データに分離してフレーム対応の間引きデータからなる4つのブロックを生成する処理であるが、この場合、入力パックブロック601は、フレーム1に対応するブロックそのものであり、その他のフレーム2〜4に対応する画素データは含まれないので、各フレームに対応する画素分配としてのアンパック処理は不要であり、特に処理を実行することなく、入力パックブロック601をブロック処理部256に出力する。
(C)ブロック処理部256の処理は、アンパック処理部253から入力したブロックを適用し、ブロック内に含まれるサンプリング画素の画素値を、画素値の未設定位置にコピーする処理を行い各フレーム対応のブロックを生成する処理である。この場合、アンパック処理部253から入力したフレーム1対応のブロックの画素値をそのまま、フレーム2〜4の画素データとするコピー処理を実行して、各フレーム対応のブロックを復元する。
この図27に示す処理例は、第1階層信号[L1]のみを処理対象とした復元処理例を示している。その他の階層信号[L2]〜については復元処理を実行しない。この処理制御は、復号化部210の制御部215によって実行される制御であり、制御部215は、伝送路の帯域や、画像伸長装置200の処理能力などに応じて処理階層数を決定し、決定した処理階層数に応じて、アンパック処理部252乃至254、およびブロック処理部255乃至257における処理を制御する。
この例では、画像伸長装置200における処理階層数:Lm=1、画像圧縮装置において生成した処理階層:n=4の設定であり、コピー後のブロックの画素数は、コピー前の画素数の[n/Lm]=4倍の画素数になるようなコピー処理が、ブロック処理部256において実行され、各フレームにおいて原信号と同じ画素数の信号を持つ動画像データ[Dout]を出力する。
図28は、時間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理であり、第1階層信号[L1]と第2階層信号[L2]を処理対象とした復元処理例を示している。図23に示すアンパック処理部253におけるアンパック処理と、ブロック処理部256におけるブロック復元処理である。
(A)アンパック処理部253に対する入力パックブロック(階層信号)は、本処理例では、図に示すA1,B1,C1,D1の画素データからなるパックブロック(第1階層信号[L1])621と、A3,B3,C3,D3の画素データからなるパックブロック(第2階層信号[L2])622、すなわち、先に、図12、図13を参照して説明したパックブロック331,322に相当する第1階層信号[L1]および第2階層信号[L2]である。
(B)アンパック処理部253の処理は、これらのパックブロック621、パックブロック622のアンパック処理であり、フレーム1からフレーム4までの各フレーム対応の画素データに分離してフレーム対応の間引きデータからなる4つのブロックを生成する。この場合は、入力パックブロック621はフレーム1に対応するブロック、パックブロック622はフレーム3に対応するブロックそのものであり、その他のフレーム2,4に対応する画素データは含まれないので、各フレームに対応する画素分配としてのアンパック処理は不要であり、特に処理を実行することなく、入力パックブロック621,622をブロック処理部256に出力する。
(C)ブロック処理部256の処理は、アンパック処理部253から入力したブロックを適用し、ブロック内に含まれるサンプリング画素の画素値を、画素値の未設定位置にコピーする処理を行い各フレーム対応のブロックを生成する処理である。この場合、アンパック処理部253から入力したフレーム1対応のブロックの画素値をそのまま、フレーム2の画素データとし、アンパック処理部252から入力したフレーム3対応のブロックの画素値をそのまま、フレーム4の画素データとするコピー処理を実行して、各フレーム対応のブロックを復元する。
この例では、画像伸長装置200における処理階層数:Lm=2、画像圧縮装置において生成した処理階層:n=4の設定であり、コピー後のブロックの画素数は、コピー前の画素数の[n/Lm]=2倍の画素数になるようなコピー処理が、ブロック処理部256において実行され、各フレームにおいて原信号と同じ画素数の信号を持つ動画像データ[Dout]を出力する。
図29は、時間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理であり、第1階層信号[L1]〜第4階層信号[L4]を処理対象とした復元処理例を示している。図23に示すアンパック処理部253におけるアンパック処理と、ブロック処理部256におけるブロック復元処理である。
(A)アンパック処理部253に対する入力パックブロック(階層信号)は、本処理例では、図に示すA1,B1,C1,D1の画素データからなるパックブロック(第1階層信号[L1])631と、A2,B2,C2,D2の画素データからなるパックブロック(第3階層信号[L3])632と、A3,B3,C3,D3の画素データからなるパックブロック(第2階層信号[L2])633と、A4,B4,C4,D4の画素データからなるパックブロック(第4階層信号[L4])634、すなわち、先に、図12〜図15を参照して説明したパックブロック321〜324に相当する第1〜4階層信号[L1]〜[L4]である。
(B)アンパック処理部253の処理は、フレーム1からフレーム4までの各フレーム対応の画素データに分離してフレーム対応の間引きデータからなる4つのブロックを生成する処理であるが、この場合、入力パックブロックは、フレーム1〜4に対応するブロックそのものであり、各フレームに対応する画素分配としてのアンパック処理は不要であり、特に処理を実行することなく、入力パックブロックブロック処理部256に出力する。
(C)ブロック処理部256の処理は、アンパック処理部253から入力したブロックを適用し、ブロック内に含まれるサンプリング画素の画素値を、画素値の未設定位置にコピーする処理を行い各フレーム対応のブロックを生成する処理であるが、この場合、アンパック処理部253から入力するフレーム1〜4対応のブロックは未設定画素のないブロックであり、画素値のコピー処理を行なうことなく、そのまま、フレーム対応の復元ブロックとして出力する。
この例では、画像伸長装置200における処理階層数:Lm=4、画像圧縮装置において生成した処理階層:n=4の設定であり、コピー後のブロックの画素数は、コピー前の画素数の[n/Lm]=1倍の画素数になるコピー処理、すなわち、ブロック処理部256においてコピー処理を実行することなく、各フレームにおいて原信号と同じ画素数の信号を持つ動画像データ[Dout]を出力する。
(空間方向および時間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理)
まず、空間方向および時間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理を実行するアンパック処理部254と、ブロック処理部257の処理について、図30〜図32を参照して説明する。
なお、図30〜図32では、水平方向の移動量を持つブロックについて、空間方向に1/2間引き、時間方向に1/2間引きを行なって生成されたパックブロックに対する処理例について説明する。処理対象ブロックが垂直方向の移動量を持つブロックである場合は、処理方向を垂直方向に変更した処理として実行することになる。
図30は、空間方向および時間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理であり、第1階層信号[L1]のみを処理対象とした復元処理例を示している。図30に示すアンパック処理部254におけるアンパック処理と、ブロック処理部257におけるブロック復元処理である。図には、
(A)アンパック処理部に対する入力パックブロック(階層信号)
(B)アンパック処理部の処理
(C)ブロック処理部の処理
をそれぞれ示してある。
(A)アンパック処理部254に対する入力パックブロック(階層信号)は、本処理例では、第1階層信号[L1]のみであり、図に示すA1,A3,C1,C3の画素データからなるパックブロック651、すなわち、先に、図16を参照して説明したパックブロック341に相当する第1階層信号[L1]である。このパックブロック651は、例えば4×4画素のブロックにおける4フレーム中、フレーム1とフレーム3の左から1,3番目の画素データを取得して生成されたパックブロックである。このパックブロック651は、例えば4×4画素のブロックとした場合、パックブロック652に示す画素データからなるパックブロックである。
(B)アンパック処理部254の処理は、フレーム1からフレーム4までの各フレーム対応の画素データに分離してフレーム対応の間引きデータからなる4つのブロックを生成する処理である。この場合、入力パックブロック651は、フレーム1,3に対応するブロックの画素データのみからなり、例えばフレーム1に対応するアンパックブロックは、図30(1)アンパックによる生成ブロックに示すように、左から1,3番目の画素データのみからなるブロックとなる。フレーム3についても同様のアンパックブロックが生成される。
(C)ブロック処理部257の処理は、アンパック処理部254から入力したブロックを適用し、ブロック内に含まれるサンプリング画素の画素値を、画素値の未設定位置にコピーする処理を行い各フレーム対応のブロックを生成する処理である。この場合、まず、アンパック処理部253から入力したフレーム1対応のブロックの画素A1,C1をフレーム1の左から2,4番目の列にそれぞれコピーを行い、アンパック処理部253から入力したフレーム3対応のブロックの画素A3,C3をフレーム3の左から2,4番目の列にそれぞれコピーを行う。次に、フレーム1対応のブロックの全画素をコピーしたフレーム2対応のブロックを生成し、フレーム3対応のブロックの全画素をコピーしたフレーム4対応のブロックを生成する。この処理によって、各フレーム対応のブロックを復元する。
この図30に示す処理例は、第1階層信号[L1]のみを処理対象とした復元処理例を示している。その他の階層信号[L2]〜については復元処理を実行しない。この処理制御は、復号化部210の制御部215によって実行される制御であり、制御部215は、伝送路の帯域や、画像伸長装置200の処理能力などに応じて処理階層数を決定し、決定した処理階層数に応じて、アンパック処理部252乃至254、およびブロック処理部255乃至257における処理を制御する。
この例では、画像伸長装置200における処理階層数:Lm=1、画像圧縮装置において生成した処理階層:n=4の設定であり、コピー後のブロックの画素数は、コピー前の画素数の[n/Lm]=4倍の画素数になるようなコピー処理が、ブロック処理部257において実行され、各フレームにおいて原信号と同じ画素数の信号を持つ動画像データ[Dout]を出力する。
図31は、空間方向および時間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理であり、第1階層信号[L1]と第2階層信号[L2]を処理対象とした復元処理例を示している。図23に示すアンパック処理部254におけるアンパック処理と、ブロック処理部257におけるブロック復元処理である。
(A)アンパック処理部254に対する入力パックブロック(階層信号)は、本処理例では、図に示すA1,A3,C1,C3の画素データからなるパックブロック(第1階層信号[L1])661と、A2,A4,C2,C4の画素データからなるパックブロック(第2階層信号[L2])662、すなわち、先に、図16、図17を参照して説明したパックブロック341,342に相当する第1階層信号[L1]および第2階層信号[L2]である。
(B)アンパック処理部254の処理は、これらのパックブロック661、パックブロック662のアンパック処理であり、フレーム1からフレーム4までの各フレーム対応の画素データに分離してフレーム対応の間引きデータからなる4つのブロックを生成する。この場合は、入力パックブロック661からフレーム1,3、パックブロック662からフレーム2,4のブロックがそれぞれ左から1,3番目の画素値のみを持つブロックとして生成される。
(C)ブロック処理部257は、アンパック処理部254から入力したブロックを適用し、ブロック内に含まれるサンプリング画素の画素値を、画素値の未設定位置にコピーする処理を行い各フレーム対応のブロックを生成する処理である。この場合、アンパック処理部254から入力したフレーム1〜4対応のブロックの画素A,Cを各フレームの左から2,4番目の列にそれぞれコピーを行い、各フレーム対応のブロックを復元する。
この例では、画像伸長装置200における処理階層数:Lm=2、画像圧縮装置において生成した処理階層:n=4の設定であり、コピー後のブロックの画素数は、コピー前の画素数の[n/Lm]=2倍の画素数になるようなコピー処理が、ブロック処理部257において実行され、各フレームにおいて原信号と同じ画素数の信号を持つ動画像データ[Dout]を出力する。
図32は、空間方向および時間方向間引きに基づく階層信号(パックブロック)に対するブロック復元処理であり、第1階層信号[L1]〜第4階層信号[L4]を処理対象とした復元処理例を示している。図23に示すアンパック処理部254におけるアンパック処理と、ブロック処理部257におけるブロック復元処理である。
(A)アンパック処理部254に対する入力パックブロック(階層信号)は、本処理例では、本処理例では、図に示すA1,A3,C1,C3の画素データからなるパックブロック(第1階層信号[L1])671と、B1,B3,D1,D3の画素データからなるパックブロック(第3階層信号[L3])672と、A2,A4,C2,C4の画素データからなるパックブロック(第2階層信号[L2])673と、B2,B4,D2,D4の画素データからなるパックブロック(第4階層信号[L4])674、すなわち、先に、図16〜図19を参照して説明したパックブロック341〜344に相当する第1〜4階層信号[L1]〜[L4]である。
(B)アンパック処理部254の処理は、フレーム1からフレーム4までの各フレーム対応の画素データに分離してフレーム対応の間引きデータからなる4つのブロックを生成する処理である。この場合、入力パックブロックに基づいて、4フレーム全ての画素値が設定された4ブロックが設定される。
(C)ブロック処理部257の処理は、アンパック処理部254から入力したブロックを適用し、ブロック内に含まれるサンプリング画素の画素値を、画素値の未設定位置にコピーする処理を行い各フレーム対応のブロックを生成する処理であるが、この場合、アンパック処理部254から入力するフレーム1〜4対応のブロックは未設定画素のないブロックであり、画素値のコピー処理を行なうことなく、そのまま、フレーム対応の復元ブロックとして出力する。
この例では、画像伸長装置200における処理階層数:Lm=4、画像圧縮装置において生成した処理階層:n=4の設定であり、コピー後のブロックの画素数は、コピー前の画素数の[n/Lm]=1倍の画素数になるコピー処理、すなわち、ブロック処理部256においてコピー処理を実行することなく、各フレームにおいて原信号と同じ画素数の信号を持つ動画像データ[Dout]を出力する。
上述したように、図23に示す各アンパック処理部252〜254と、各ブロック処理部255〜257は、ブロック分配部251からブロック対応の移動量に基づいて振り分けられるブロックについて、それぞれ空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理に対応するアンパックおよびブロック処理を実行して、各フレーム対応のブロックを復元して、ブロック合成部258に出力する。
ブロック合成部258は、前述したように、ブロック処理部255乃至257から供給されるブロック毎の画像信号に対して、復号化部210からブロック分配部およびアンパック処理部を介して供給されるブロック処理情報[Inf]に基づき、ブロック処理部255乃至257からの画像信号である各フレーム対応の分割領域データとしてのブロックをフレーム単位で選択して合成し、各フレーム単位の画像信号[Dout]を生成して出力する。
なお、例えば4フレームを処理単位として設定した場合の、階層信号から生成する出力画像ストリームは、図33に示すような設定となる。第1〜第4階層信号に基づいて、上述したアンパックおよびブロック処理を含む画像変換処理が実行され、出力画像ストリームが生成される。
なお、上述したように、画像伸長装置200の画像変換部250は、第1階層信号のみを受信して復元する場合には4倍のデータ拡張を行ない、第1階層信号、および第2階層信号を受信して復元する場合には2倍のデータ拡張を行ない、全ての階層信号を受信して復元する場合にはデータの拡張は行なわない。また、上述した処理例から理解されるように、本発明の画像圧縮装置において生成する階層信号[L1]〜[Ln]の持つ情報量は均等な情報量であり、いずれの階層の階層信号をベースレイヤとして設定するか、またエンハンスメントレイヤとして設定するかは、任意の設定が可能である。
本発明の構成によれば、伝送路帯域が低い場合や、受信品質の劣化が生じた場合には、図1に示す画像圧縮装置100の符号化部150からベースレイヤストリームのみを伝送することにより伝送ビットレートを抑えることが可能である。また、受信側である画像伸長装置200の復号化部210、または画像変換部250の処理能力が不足する場合には、伝送されるストリームのうち、ベースレイヤストリームのみを受信して復号化することにより信号処理量や消費電力を抑えることができる。さらに、上記のように任意の階層をベースレイヤとすることができるため、ベースレイヤの選択を受信時にエラーが発生していないレイヤに動的に切り替えることも可能である。
上述したように、本発明の構成では、人間の視覚特性を利用した圧縮を行うことにより、ベースレイヤのみを復号化した場合にも高画質な表示が可能となる。また、エンハンスメントレイヤを選択的に受信し、復号化することで、例えばスロー再生時の画質向上、および動被写体の境界領域の画質向上が可能となる。また、各レイヤの情報量は同等であるので任意のレイヤをベースレイヤとすることが可能である等の効果を有する。
[その他の実施例]
上述した実施例では、各階層信号[L1]〜[Ln]の各々について、ブロックの構成画素値を適用して各階層信号を生成し、その階層信号に基づく符号化ストリーム信号[St1]〜[Stn]を生成して出力する処理例を説明したが、例えば1つのベースレイヤ[L1]についてのみ画素値を適用した符号化ストリーム信号[St1]を生成して出力し、その他のエンハンスメントレイヤの階層信号[L2]〜[Ln]に対応するストリーム信号[St2]〜[Stn]ついては、ベースレイヤ[L1]とエンハンスメントレイヤの階層信号[L2]〜[Ln]各々の差分値を算出し、差分値に基づく符号化データを生成して、各エンハンスメントレイヤに対応するストリーム信号[St2]〜[Stn]を生成して出力する構成としてもよい。
この差分値によるストリーム信号を生成する画像圧縮装置の符号化部750の構成例を図34に示す。画像符号化部751−1は、画像変換部110から出力されるベースレイヤに対応する第1階層信号[L1]の符号化処理を行い、階層信号[L1]に対応するストリーム信号[St1]を生成して出力する。
減算器755−2〜nは、画像変換部110から出力されるベースレイヤに対応する第1階層信号[L1]と、エンハンスメントレイヤに対応する第2〜n階層信号[L2]〜[Ln]各々の差分を算出する。画像符号化部751−2〜nは、減算器755−2〜nから出力される第1階層信号[L1]と第2〜n階層信号[L2]〜[Ln]各々の差分値の符号化処理を行い、ストリーム信号[St2]〜[Stn]を生成して出力する。
各画像符号化部751−1〜nは、それぞれ制御部754から供給される設定ビットレートに従って符号化処理を行なう。たとえば、動画像圧縮に適したMPEG(Moving Picture Experts Group)方式を用いたり、静止画像圧縮に適したJPEG(Joint Photographic Experts Group)方式を用いることが可能である。
エントロピー符号化部753は、画像変換部110から供給されるブロック処理情報[Inf]に対し、可逆式の符号化処理を行ない、ブロック処理情報ストリーム[St−Inf]を出力する。
制御部754は、伝送路の帯域や、伝送エラーの発生状況に応じて、伝送すべき階層数を制御し、受信側で安定した復号化が実現できるようにする。例えば、アプリケーションに依存して伝送路、または受信帯域が狭いことがわかっている場合、あらかじめ第1階層ストリームだけを伝送するようにして伝送ビットレートを抑える。また、例えば、伝送路のエラーを監視し、エラー発生率が上昇した場合には、伝送階層数を減少させ伝送ビットレートを抑えるように制御する。
次に、上述の差分値に基づくストリーム信号の復号を行なう画像伸長装置200の復号化部760の詳細構成および処理について図35を参照して説明する。
復号化部760は、画像圧縮装置100の符号化部750から伝送されるベースレイヤ対応の第1階層信号[L1]に対応するストリーム[St1]と、第1階層信号[L1]と第2〜n階層信号[L2]〜[Ln]各々の差分値の符号化データからなるストリーム[St2]〜[Stn]を受信して、各階層信号[L1]〜[Ln]を生成する復号処理を実行する。
画像復号化部761−1は、制御部764の制御に従って、ベースレイヤ対応の第1階層信号[L1]に対応するストリーム[St1]の復号処理を実行して、ベースレイヤ対応の第1階層信号[L1]を生成する。
画像復号化部761−2〜nは、制御部764の制御に従って、第1階層信号[L1]と第2〜n階層信号[L2]〜[Ln]各々の差分値に対応するストリーム[St2]〜[Stn]の復号処理を実行して、第1階層信号[L1]と第2〜n階層信号[L2]〜[Ln]各々の差分値を算出する。
さらに、各差分値は、加算器766−2〜nに入力され、第1階層信号[L1]と各々加算処理がなされて第2〜n階層信号[L2]〜[Ln]が生成されて出力される。エントロピー復号化部764は、ブロック処理情報ストリーム[St−Inf]に対して可逆な復号化処理を行ない、ブロック処理情報[Inf]を出力する。
この処理例でも復号化部760における制御部765は、復号化部760におけるデータ受信状況や、画像伸長装置200の処理能力などに応じて受信するストリームを制限し、復号化、および画像変換を行なう階層数を制御する。例えば、受信エラーが増加した場合には受信品質が低下していると考え、送信側にビットレートを下げるように通知すると共に、受信ストリーム数を減少させるようにする。また、アプリケーションなどの要求から復号化部760、および画像変換部250の消費電力を抑えるために、受信ストリーム数を減少させるといった制御も行なう。
このように差分値を算出してストリーム信号として出力する構成では、データ量の削減、符号化効率、復号効率の向上が実現される。また転送データ量が削減されるので、ネットワークの輻輳の緩和にも貢献することになる。
また、上述した実施例では、画像圧縮装置側で間引きデータに基づくパック処理を実行し、画像伸長装置側でアンパック処理を行う構成として説明したが、パック処理、アンパック処理を行わない構成とし、画像圧縮装置100におけるブロック処理部で生成した空間方向間引き、または時間方向間引き、または空間方向間引きおよび時間方向間引きデータをそのままパック処理することなく各階層別の階層信号[L1]〜[Ln]として図1に示す符号化部150に入力して、各階層信号に対応するストリーム信号[St1]〜[Stn]を生成して出力する構成としてもよい。パック処理部を省略した画像変換部110の構成を図36に示す。パック処理部が省略された以外の構成は、先に図2を参照して説明した構成と同様の構成である。
一方、画像伸長装置200においては、復号化部210で復号化して生成した階層信号[L1]〜[Ln]を画像変換部250に入力し、画像変換部250では、アンパック処理を実行することなく、復号化部210で復号化して生成した階層信号[L1]〜[Ln]に基づく拡張処理を実行して各フレーム対応のブロックデータを生成する。アンパック処理部を省略した画像変換部250の構成を図37に示す。アンパック処理部が省略された以外の構成は、先に図23を参照して説明した構成と同様の構成である。
本処理例によれば、パック処理、アンパック処理を省略することで、簡略化した装置が実現されることになる。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。
なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の構成によれば、画像圧縮装置側において、動画像データを構成するフレームの分割領域として設定するブロック単位で代表画素に対応するサンプリング画素を異ならせた複数の階層信号を生成して、階層信号に基づく符号化データを出力する構成とし、画像伸長装置側では、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理を行って、階層信号に含まれる画素データに基づくデータ拡張処理により動画像データを復元する構成とした。画像伸長装置側では、例えば伝送路帯域や装置の処理能力などに応じて選択的に階層信号の処理を行なうことが可能であり、この制御によって表示画像品質制御が可能となり、スケーラブルな処理が実現される。
また、本発明の構成では、人間の視覚特性を利用した圧縮を行うことにより、ベースレイヤのみを復号化した場合にも高画質な表示が可能となる。また、エンハンスメントレイヤを選択的に受信し、復号化することで、例えばスロー再生時の画質向上、および動被写体の境界領域の画質向上が可能となる。各レイヤの情報量は同等であり、任意のレイヤをベースレイヤとすることが可能である等の効果を有する。
画像圧縮装置および画像伸長装置の基本構成を示す図である。 画像圧縮装置における画像変換部の構成を示す図である。 画像変換部におけるブロック処理部の処理例について説明する図である。 画像変換部におけるブロック処理部の処理例について説明する図である。 画像変換部におけるブロック処理部の処理例について説明する図である。 画像変換部におけるブロック処理部の処理例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の構成例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の処理例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の処理例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の処理例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の処理例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の処理例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の処理例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の処理例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の処理例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の処理例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の処理例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の処理例について説明する図である。 画像圧縮装置における画像変換部のブロック処理部およびパック処理部の処理例について説明する図である。 画像圧縮装置における入力画像フレームと出力信号の対応について説明する図である。 画像圧縮装置における符号化部の構成例を示す図である。 画像伸長装置における復号化部の構成例を示す図である。 画像伸長装置における画像変換部の構成について説明する図である。 画像伸長装置における画像変換部のアンパック処理部およびブロック処理部の処理例について説明する図である。 画像伸長装置における画像変換部のアンパック処理部およびブロック処理部の処理例について説明する図である。 画像伸長装置における画像変換部のアンパック処理部およびブロック処理部の処理例について説明する図である。 画像伸長装置における画像変換部のアンパック処理部およびブロック処理部の処理例について説明する図である。 画像伸長装置における画像変換部のアンパック処理部およびブロック処理部の処理例について説明する図である。 画像伸長装置における画像変換部のアンパック処理部およびブロック処理部の処理例について説明する図である。 画像伸長装置における画像変換部のアンパック処理部およびブロック処理部の処理例について説明する図である。 画像伸長装置における画像変換部のアンパック処理部およびブロック処理部の処理例について説明する図である。 画像伸長装置における画像変換部のアンパック処理部およびブロック処理部の処理例について説明する図である。 画像伸長装置における入力信号と出力画像フレームとの対応について説明する図である。 画像圧縮装置における符号化部の構成例を示す図である。 画像伸長装置における復号化部の構成例を示す図である。 画像圧縮装置における画像変換部の構成例を示す図である。 画像伸長装置における画像変換部の構成例を示す図である。
符号の説明
100 画像圧縮装置
110 画像変換部
111 ブロック分割部
112 移動量検出部
113 ブロック分配部
114〜115 ブロック処理部
117〜119 パック処理部
120 出力部
131 ブロック処理部
132 パック処理部
150 符号化部
151 画像符号化部
153 エントロピー符号化部
154 制御部
200 画像伸長装置
210 復号化部
211 画像復号化部
214 エントロピー復号化部
215 制御部
250 画像変換部
251 ブロック分配部
252〜254 アンパック処理部
255〜257 ブロック処理部
258 ブロック合成部
301〜304 階層信号(パックブロック)
311 階層信号(パックブロック)
321〜324 階層信号(パックブロック)
331 階層信号(パックブロック)
341〜344 階層信号(パックブロック)
351 階層信号(パックブロック)
501,511 階層信号(パックブロック)
521,522 階層信号(パックブロック)
531〜534 階層信号(パックブロック)
601,611 階層信号(パックブロック)
621,622 階層信号(パックブロック)
631〜634 階層信号(パックブロック)
651,652 階層信号(パックブロック)
661,662 階層信号(パックブロック)
671〜674 階層信号(パックブロック)
750 符号化部
751 画像符号化部
753 エントロピー符号化部
754 制御部
755 減算器
760 復号化部
761 画像復号化部
763 エントロピー復号化部
765 制御部
766 加算器

Claims (32)

  1. 動画像データの圧縮処理を実行する画像処理装置であり、
    動画像データを構成するフレームの分割領域として設定するブロック単位で画素の間引き処理を実行する画像変換部であり、画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の階層信号を生成する画像変換部と、
    前記画像変換部の生成する複数の階層信号を入力し、該階層信号に基づく符号化データを生成する符号化部と、
    を有することを特徴とする画像処理装置。
  2. 前記画像変換部は、
    動画像データを構成するフレーム毎にブロック分割処理を実行するブロック分割部と、
    前記ブロック分割部において分割された各ブロックにおける被写体移動量を検出する移動量検出部と、
    前記移動量検出部の検出した移動量情報に基づいて、間引き処理実行単位となる複数の連続フレームの複数ブロックについて、空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理のいずれかの態様の間引き処理を実行し、実行する各態様の間引き処理において、それぞれサンプリング画素を異ならせた複数の階層信号に対応する複数の間引きデータを生成するブロック処理部と、
    を有する構成であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像変換部は、
    前記ブロック処理部の出力データに含まれるサンプリング画素を集積したパックブロックを生成するパック処理部を有し、
    前記パック処理部は、
    サンプリング画素を異ならせた複数の階層信号に対応する複数のパックブロックを生成する構成であることを特徴とする請求項2に記載の画像処理装置。
  4. 前記符号化部は、
    前記パック処理部の生成するパックブロックとしての複数の階層信号の符号化処理を実行し、各階層信号に対応するストリーミング信号を生成する構成であることを特徴とする請求項3に記載の画像処理装置。
  5. 前記符号化部は、
    前記階層信号の差分を算出し、算出差分値に基づく符号化データを生成する構成であることを特徴とする請求項1に記載の画像処理装置。
  6. 前記ブロック処理部は、
    サンプリング画素を異ならせた複数の階層信号のそれぞれの情報量を等価にした階層信号を生成する処理を実行する構成であることを特徴とする請求項1に記載の画像処理装置。
  7. 動画像データの変換処理を実行する動画像変換装置であり、
    動画像データを構成するフレーム毎にブロック分割処理を実行するブロック分割部と、
    前記ブロック分割部において分割された各ブロックにおける被写体移動量を検出する移動量検出部と、
    前記移動量検出部の検出した移動量情報に基づいて、間引き処理実行単位となる複数の連続フレームの複数ブロックについて、空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理のいずれかの態様の間引き処理を実行し、実行する各態様の間引き処理において、それぞれサンプリング画素を異ならせた複数の階層信号に対応する複数の間引きデータを生成するブロック処理部と、
    を有する構成であることを特徴とする動画像変換装置。
  8. 符号化動画像データを入力し画像復元処理を実行する画像処理装置であり、
    符号化動画像データを入力し、該入力データの復号処理を実行して動画像データ復元に適用する複数の階層信号を生成する復号化部と、
    前記復号化部の生成する階層信号を入力し、階層信号に含まれる画素データに基づくデータ拡張処理により動画像データ復元処理を実行する画像変換部とを有し、
    前記複数の階層信号は、画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号であり、
    前記画像変換部は、
    前記復号化部の生成する複数の階層信号から選択された処理対象の階層信号に基づく動画像データ復元処理を実行する構成であり、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理を行なう構成であることを特徴とする画像処理装置。
  9. 前記画像変換部は、
    動画像データを構成するフレームの分割領域として設定されたブロック単位でブロック復元処理を実行する構成であり、
    処理対象として選択した階層数に応じて、前記サンプリング画素をコピー元としたコピー処理態様を変更してブロック復元処理を実行する構成であることを特徴とする請求項8に記載の画像処理装置。
  10. 前記画像変換部は、
    処理対象として選択した階層数を[Lm]、
    サンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号の総数[n]、
    としたとき、
    前記サンプリング画素をコピー元としたコピー処理によって、コピー後のブロックの画素数が、コピー前の画素数の[n/Lm]倍の画素数とするコピー処理を実行する構成であることを特徴とする請求項9に記載の画像処理装置。
  11. 前記画像変換部は、
    空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理の少なくともいずれかの間引き処理態様に対応したブロック拡張処理により、動画像データを構成するフレームの分割領域として設定されたブロック単位でのブロック復元を実行する構成であることを特徴とする請求項8に記載の画像処理装置。
  12. 前記画像変換部は、
    前記復号化部の生成する階層信号に対応するサンプリング画素を集積したパックブロックのアンパック処理を実行するアンパック処理部を有し、
    前記アンパック処理部は、
    サンプリング画素を異ならせた複数の階層信号に対応する複数のパックブロックに対するアンパック処理を実行する構成であることを特徴とする請求項8に記載の画像処理装置。
  13. 前記復号化部は、
    符号化動画像データとして、複数の階層信号の差分に基づいて生成されたストリーミング信号を入力し、該ストリーミング信号の復号により生成した復号データに対する復号データ相互の加算処理により、動画像データ復元に適用する複数の階層信号を生成する構成であることを特徴とする請求項8に記載の画像処理装置。
  14. 前記画像処理装置は、
    画像処理装置の処理能力、または、データ通信状況の少なくともいずれかの状態に応じて、前記画像変換部において処理すべき階層信号の数を決定する制御部を有し、
    前記画像変換部は、
    前記制御部の決定した数に対応する階層信号の処理を実行する構成であることを特徴とする請求項8に記載の画像処理装置。
  15. 間引き処理のなされた動画像データに基づく画像復元処理を実行する動画像変換装置であり、
    動画像データを構成するフレームの分割領域として設定されたブロックに対応する移動量に応じて処理ブロックの処理態様を決定するブロック分配部と、
    空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理の少なくともいずれかの間引き態様に対応したブロック拡張処理により、動画像データを構成するフレームの分割領域として設定されたブロック単位でのブロック復元を実行するブロック処理部とを有し、
    前記ブロック処理部は、
    画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号に基づくブロック復元処理を実行する構成であり、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理によるブロック復元を行なう構成であることを特徴とする動画像変換装置。
  16. 動画像データの圧縮処理を実行する画像処理方法であり、
    動画像データを構成するフレームの分割領域として設定するブロック単位で画素の間引き処理を実行する画像変換ステップであり、画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の階層信号を生成する画像変換ステップと、
    前記画像変換ステップの生成する複数の階層信号を入力し、該階層信号に基づく符号化データを生成する符号化ステップと、
    を有することを特徴とする画像処理方法。
  17. 前記画像変換ステップは、
    動画像データを構成するフレーム毎にブロック分割処理を実行するブロック分割ステップと、
    前記ブロック分割ステップにおいて分割された各ブロックにおける被写体移動量を検出する移動量検出ステップと、
    前記移動量検出ステップにおいて検出した移動量情報に基づいて、間引き処理実行単位となる複数の連続フレームの複数ブロックについて、空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理のいずれかの態様の間引き処理を実行し、実行する各態様の間引き処理において、それぞれサンプリング画素を異ならせた複数の階層信号に対応する複数の間引きデータを生成するブロック処理ステップと、
    を有することを特徴とする請求項16に記載の画像処理方法。
  18. 前記画像変換ステップは、
    前記ブロック処理ステップにおいて生成するデータに含まれるサンプリング画素を集積したパックブロックを生成するパック処理ステップを有し、
    前記パック処理ステップは、
    サンプリング画素を異ならせた複数の階層信号に対応する複数のパックブロックを生成することを特徴とする請求項17に記載の画像処理方法。
  19. 前記符号化ステップは、
    前記パック処理ステップにおいて生成するパックブロックとしての複数の階層信号の符号化処理を実行し、各階層信号に対応するストリーミング信号を生成するステップであることを特徴とする請求項18に記載の画像処理方法。
  20. 前記符号化ステップは、
    前記階層信号の差分を算出し、算出差分値に基づく符号化データを生成するステップを有することを特徴とする請求項16に記載の画像処理方法。
  21. 前記ブロック処理ステップは、
    サンプリング画素を異ならせた複数の階層信号のそれぞれの情報量を等価にした階層信号を生成する処理を実行するステップであることを特徴とする請求項16に記載の画像処理方法。
  22. 動画像データの変換処理を実行する動画像変換方法であり、
    動画像データを構成するフレーム毎にブロック分割処理を実行するブロック分割ステップと、
    前記ブロック分割ステップにおいて分割された各ブロックにおける被写体移動量を検出する移動量検出ステップと、
    前記移動量検出ステップにおいて検出した移動量情報に基づいて、間引き処理実行単位となる複数の連続フレームの複数ブロックについて、空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理のいずれかの態様の間引き処理を実行し、実行する各態様の間引き処理において、それぞれサンプリング画素を異ならせた複数の階層信号に対応する複数の間引きデータを生成するブロック処理ステップと、
    を有することを特徴とする動画像変換方法。
  23. 画像復元処理を実行する画像処理方法であり、
    符号化動画像データを入力し、該入力データの復号処理を実行して動画像データ復元に適用する複数の階層信号を生成する復号化ステップと、
    前記復号化ステップにおいて生成する階層信号を入力し、階層信号に含まれる画素データに基づくデータ拡張処理により動画像データ復元処理を実行する画像変換ステップとを有し、
    前記複数の階層信号は、画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号であり、
    前記画像変換ステップは、
    前記復号化ステップにおいて生成する複数の階層信号から選択された処理対象の階層信号に基づく動画像データ復元処理を実行する構成であり、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理を行なうステップであることを特徴とする画像処理方法。
  24. 前記画像変換ステップは、
    動画像データを構成するフレームの分割領域として設定されたブロック単位でブロック復元処理を実行するステップであり、
    処理対象として選択した階層数に応じて、前記サンプリング画素をコピー元としたコピー処理態様を変更してブロック復元処理を実行することを特徴とする請求項23に記載の画像処理方法。
  25. 前記画像変換ステップは、
    処理対象として選択した階層数を[Lm]、
    サンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号の総数[n]、
    としたとき、
    前記サンプリング画素をコピー元としたコピー処理によって、コピー後のブロックの画素数が、コピー前の画素数の[n/Lm]倍の画素数とするコピー処理を実行することを特徴とする請求項24に記載の画像処理方法。
  26. 前記画像変換ステップは、
    空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理の少なくともいずれかの間引き処理態様に対応したブロック拡張処理により、動画像データを構成するフレームの分割領域として設定されたブロック単位でのブロック復元を実行することを特徴とする請求項23に記載の画像処理方法。
  27. 前記画像変換ステップは、
    前記復号化ステップの生成する階層信号に対応するサンプリング画素を集積したパックブロックのアンパック処理を実行するアンパック処理ステップを有し、
    前記アンパック処理ステップは、
    サンプリング画素を異ならせた複数の階層信号に対応する複数のパックブロックに対するアンパック処理を実行するステップであることを特徴とする請求項23に記載の画像処理方法。
  28. 前記復号化ステップは、
    符号化動画像データとして、複数の階層信号の差分に基づいて生成されたストリーミング信号を入力し、該ストリーミング信号の復号により生成した復号データに対する復号データ相互の加算処理により、動画像データ復元に適用する複数の階層信号を生成することを特徴とする請求項23に記載の画像処理方法。
  29. 前記画像処理方法は、
    画像処理装置の処理能力、または、データ通信状況の少なくともいずれかの状態に応じて、前記画像変換ステップにおいて処理すべき階層信号の数を決定する制御ステップを有し、
    前記画像変換ステップは、
    前記制御ステップの決定した数に対応する階層信号の処理を実行することを特徴とする請求項23に記載の画像処理方法。
  30. 間引き処理のなされた動画像データに基づく画像復元処理を実行する動画像変換方法であり、
    動画像データを構成するフレームの分割領域として設定されたブロックに対応する移動量に応じて処理ブロックの処理態様を決定するブロック分配ステップと、
    空間方向間引き処理、または時間方向間引き処理、または空間方向および時間方向間引き処理の少なくともいずれかの間引き態様に対応したブロック拡張処理により、動画像データを構成するフレームの分割領域として設定されたブロック単位でのブロック復元を実行するブロック処理ステップとを有し、
    前記ブロック処理ステップは、
    画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号に基づくブロック復元処理を実行し、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理によるブロック復元を行なうことを特徴とする動画像変換方法。
  31. 動画像データの圧縮処理をコンピュータ上において実行させるコンピュータ・プログラムであり、
    動画像データを構成するフレームの分割領域として設定するブロック単位で画素の間引き処理を実行する画像変換ステップであり、画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の階層信号を生成する画像変換ステップと、
    前記画像変換ステップの生成する複数の階層信号を入力し、該階層信号に基づく符号化データを生成する符号化ステップと、
    を有することを特徴とするコンピュータ・プログラム。
  32. 画像復元処理をコンピュータ上において実行させるコンピュータ・プログラムであり、
    符号化動画像データを入力し、該入力データの復号処理を実行して動画像データ復元に適用する複数の階層信号を生成する復号化ステップと、
    前記復号化ステップにおいて生成する階層信号を入力し、階層信号に含まれる画素データに基づくデータ拡張処理により動画像データ復元処理を実行する画像変換ステップとを有し、
    前記複数の階層信号は、画素間引き処理における代表画素に対応するサンプリング画素を異ならせた複数の間引きデータに基づいて生成された複数の階層信号であり、
    前記画像変換ステップは、
    前記復号化ステップにおいて生成する複数の階層信号から選択された処理対象の階層信号に基づく動画像データ復元処理を実行する構成であり、処理対象として選択した階層数に応じた異なる態様のデータ拡張処理を行なうステップであることを特徴とするコンピュータ・プログラム。
JP2005144146A 2005-05-17 2005-05-17 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム Expired - Fee Related JP4779435B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005144146A JP4779435B2 (ja) 2005-05-17 2005-05-17 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
US11/382,965 US8213516B2 (en) 2005-05-17 2006-05-12 Image processing apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005144146A JP4779435B2 (ja) 2005-05-17 2005-05-17 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JP2006324767A true JP2006324767A (ja) 2006-11-30
JP4779435B2 JP4779435B2 (ja) 2011-09-28

Family

ID=37448291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005144146A Expired - Fee Related JP4779435B2 (ja) 2005-05-17 2005-05-17 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム

Country Status (2)

Country Link
US (1) US8213516B2 (ja)
JP (1) JP4779435B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021065631A1 (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004266503A (ja) * 2003-02-28 2004-09-24 Matsushita Electric Ind Co Ltd 映像伝送システム
US8155207B2 (en) 2008-01-09 2012-04-10 Cisco Technology, Inc. Processing and managing pictures at the concatenation of two video streams
US8875199B2 (en) 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8416859B2 (en) 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US8958486B2 (en) 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
US8804845B2 (en) 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US8718388B2 (en) 2007-12-11 2014-05-06 Cisco Technology, Inc. Video processing with tiered interdependencies of pictures
US8416858B2 (en) 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
JP4952627B2 (ja) * 2008-03-21 2012-06-13 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2009152450A1 (en) 2008-06-12 2009-12-17 Cisco Technology, Inc. Picture interdependencies signals in context of mmco to assist stream manipulation
US8699578B2 (en) * 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8705631B2 (en) * 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
ES2546091T3 (es) 2008-11-12 2015-09-18 Cisco Technology, Inc. Procesamiento de un programa de vídeo que tiene representaciones procesadas plurales de una señal de vídeo única para reconstrucción y emisión
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
WO2011001078A1 (fr) * 2009-07-03 2011-01-06 France Telecom Prédiction d'un vecteur mouvement d'une partition d'image courante de forme géometrique ou de taille différente de celle d'au moins une partition d'image de référence voisine, codage et décodage utilisant une telle prédiction
US9277230B2 (en) * 2011-11-23 2016-03-01 Qualcomm Incorporated Display mode-based video encoding in wireless display devices
US9008177B2 (en) 2011-12-12 2015-04-14 Qualcomm Incorporated Selective mirroring of media output
EP2813079B1 (en) * 2012-06-20 2019-08-07 HFI Innovation Inc. Method and apparatus of inter-layer prediction for scalable video coding
EP4088454A4 (en) * 2020-01-10 2024-01-17 Nokia Technologies Oy CASCADED PREDICTION TRANSFORMATION METHOD FOR TARGETED MIXED MACHINE-HUMAN VIDEO CODING

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH037473A (ja) * 1989-06-05 1991-01-14 Sharp Corp 映像信号伝送方式
JPH0393377A (ja) * 1989-09-06 1991-04-18 Hitachi Ltd 高能率符号化装置
JPH07222145A (ja) * 1994-01-31 1995-08-18 Mitsubishi Electric Corp 画像符号化装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5270813A (en) * 1992-07-02 1993-12-14 At&T Bell Laboratories Spatially scalable video coding facilitating the derivation of variable-resolution images
US6337928B1 (en) * 1996-08-26 2002-01-08 Canon Kabushiki Kaisha Image transmission apparatus and method therefor
US5748789A (en) * 1996-10-31 1998-05-05 Microsoft Corporation Transparent block skipping in object-based video coding systems
JP2002507339A (ja) * 1997-05-30 2002-03-05 サーノフ コーポレイション 非線形ピラミッドを用いた階層的な運動推定実行方法及び装置
US6233356B1 (en) * 1997-07-08 2001-05-15 At&T Corp. Generalized scalability for video coder based on video objects
US6332002B1 (en) * 1997-11-01 2001-12-18 Lg Electronics Inc. Motion prediction apparatus and method
US6937659B1 (en) * 1997-11-14 2005-08-30 Ac Capital Management, Inc. Apparatus and method for compressing video information
US7177358B2 (en) * 2000-06-27 2007-02-13 Mitsubishi Denki Kabushiki Kaisha Picture coding apparatus, and picture coding method
JP4235870B2 (ja) * 2000-09-01 2009-03-11 ソニー株式会社 データ処理装置およびデータ処理方法、復号装置および復号方法、並びに記録媒体
DE102004059993B4 (de) * 2004-10-15 2006-08-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Bewegungsdaten-Prädiktion sowie Computerprogramm und computerlesbares Medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH037473A (ja) * 1989-06-05 1991-01-14 Sharp Corp 映像信号伝送方式
JPH0393377A (ja) * 1989-09-06 1991-04-18 Hitachi Ltd 高能率符号化装置
JPH07222145A (ja) * 1994-01-31 1995-08-18 Mitsubishi Electric Corp 画像符号化装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021065631A1 (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
JP7491676B2 (ja) 2019-09-30 2024-05-28 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法

Also Published As

Publication number Publication date
JP4779435B2 (ja) 2011-09-28
US8213516B2 (en) 2012-07-03
US20060262861A1 (en) 2006-11-23

Similar Documents

Publication Publication Date Title
JP4779435B2 (ja) 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
KR100664929B1 (ko) 다 계층 기반의 비디오 코더에서 모션 벡터를 효율적으로압축하는 방법 및 장치
JP5134001B2 (ja) 下層のフィルタリングを備えたスケーラブルビデオ符号化
US7010043B2 (en) Resolution scalable video coder for low latency
JP2007174634A (ja) 階層符号化装置、階層復号化装置、階層符号化方法、階層復号方法、階層符号化プログラム及び階層復号プログラム
JP4844741B2 (ja) 動画像符号化装置及び動画像復号装置と、その方法及びプログラム
JP4294630B2 (ja) 多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法及び装置
JP4124792B2 (ja) 符号化方法及び復号化方法及び符号化装置及び復号化装置
JP2008541653A (ja) スムージング予測を用いた多階層基盤のビデオエンコーディング方法、デコーディング方法、ビデオエンコーダ及びビデオデコーダ
KR20070006123A (ko) 영상 부호화 및 복호화 방법 및 장치
CN103098471A (zh) 用于多层画面编码/解码的设备和方法
JP2005507590A (ja) 空間拡張可能圧縮
US11323734B2 (en) Temporal prediction shifting for scalable video coding
JP4870120B2 (ja) 動画像階層符号化装置、動画像階層符号化方法、動画像階層符号化プログラム、動画像階層復号化装置、動画像階層復号化方法、および動画像階層復号化プログラム
KR102163477B1 (ko) 비디오 부호화 및 복호화 방법, 그를 이용한 장치
JP4844455B2 (ja) 映像信号階層復号化装置、映像信号階層復号化方法、及び映像信号階層復号化プログラム
JP2010226672A (ja) 画像分割装置、分割画像符号化装置及びプログラム
JP4844456B2 (ja) 映像信号階層符号化装置、映像信号階層符号化方法、及び映像信号階層符号化プログラム
JP4835855B2 (ja) 動画像符号化の装置、方法及びプログラムと、動画像復号の装置方法及びプログラム
KR20060059769A (ko) 영상신호의 엔코딩시에 베이스 레이어 픽처의 벡터를이용하기 위한 미세정보를 코딩하는 방법과 그 미세정보를이용하는 디코딩 방법
KR100897640B1 (ko) 동화상 부호화 장치 및 동화상 복호 장치와, 그 방법 및 프로그램이 기록된 컴퓨터 판독가능한 기록 매체
JP2005223852A (ja) 画像符号化装置および方法、ならびに画像復号装置および方法
JP2007074306A (ja) 補足画素生成装置及び復号化システム及び復号化方法及び画像符号化通信システム及び復号化プログラム及びコンピュータ読み取り可能な記録媒体
WO2017115482A1 (ja) ビットストリーム変換装置、ビットストリーム変換方法、配信システム、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体
JP2004201350A (ja) 画像符号化装置および画像復号化装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees