JP2001509325A - 3次元深度情報を利用したデジタル画像と動画像の分割と圧縮を行う方法及び装置 - Google Patents

3次元深度情報を利用したデジタル画像と動画像の分割と圧縮を行う方法及び装置

Info

Publication number
JP2001509325A
JP2001509325A JP51775998A JP51775998A JP2001509325A JP 2001509325 A JP2001509325 A JP 2001509325A JP 51775998 A JP51775998 A JP 51775998A JP 51775998 A JP51775998 A JP 51775998A JP 2001509325 A JP2001509325 A JP 2001509325A
Authority
JP
Japan
Prior art keywords
signal
video
depth
information
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP51775998A
Other languages
English (en)
Inventor
アレクサンドロス エレフセリアディス
ディミトリス アナスタシア
シ―フ チャン
シュリー ナイヤ
Original Assignee
トラスティース オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トラスティース オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク filed Critical トラスティース オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク
Publication of JP2001509325A publication Critical patent/JP2001509325A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/007Transform coding, e.g. discrete cosine transform
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

(57)【要約】 ビデオ情報のフィールド又はフレームに対応する深さ情報内の1個以上の個別のオブジェクトを識別する装置及び方法が開示されている。好適例において、装置は、深さ情報を受信するとともに、ビデオ情報のフレーム内の各画素を変動する知覚的な重要度の1個以上の領域に関連させるために深さ情報をオブジェクトマップに変換するオブジェクトマップ発生回路(500)を有する。この好適な装置は、予め選択された深さの領域にほぼ対応するフレーム内の画素を表す1個以上の深さ領域マスクを民制させるめたにオブジェクトマップをマスクする領域マスク回路と、CBRエンコーダ(400)と、1個以上の領域マスクの各々によって識別された1個以上の予め選択された領域の各々の範囲内の1個以上の個別のオブジェクトを識別して、各深さ領域に関連した各オブジェクトを個別のオブジェクトとして識別するビデオオブジェクト選択回路とをも有する。

Description

【発明の詳細な説明】 3次元深度情報を利用したデジタル画像と動画像の分割と圧縮を行う方法及 び装置 発明の背景 I.発明の分野 本発明は、デジタル画像、動画像分割と圧縮のための技術に関し、より具体的 には、動画像分割/圧縮処理の部分として、3次元型情報を利用するデジタル画 像と動画像圧縮技術に関するものである。 II.従来技術の説明 近年、デジタル画像と動画像圧縮技術には非常に多くの技術が紹介されている 。最近の画像/動画像圧縮の標準には、JPEG、H.261、MPEG-1、MPEG-2、H.263な どがあり、これらは、本来の能力である、異なる視覚オブジェクトを別々に分割 符号化する能力を持たず、冗長性を除去する技術を適用した2次元もしくは3次 元(二次元空間に時間を加えた)画素列として、コンテンツを取り扱う。このよ うな標準的技術においては、画素データ8x8ブロックを、より簡単に量子化が 行われるDCT領域へ変換するために、離散コサイン変換(「DCT」)が利用されて いる。ラン長符号化とエントロピー符号化(例えば、ハフマン符号化)は、本来 の非圧縮の元の信号よりかなり削減されたビット・レートをもつ圧縮ビット・ス トリーム生成のための量子化ビット・ストリームに適用されている。この処理は 、顕著に現われる内部フレームの動きもしくは内部フィールドの動きを考慮し、 近傍フレームか近傍フィールドからのフレームかフィールドに基づく予測に利用 する動きベクトルの形態である、付加的な側面情報で促進する。本特許書類の準 備日付のひとつとして、サテライト・テレビ、デジタル・ビデオ・ディスク(DV D)、コンピュータ・ビデオ・アダプタなど、数多くの個人のおよび商業的適用 において、一もしくはより多くの上記記載の技術を利用し、その適用におけるビ デオ能力を高めようとするものである。数多くの付加的適用が考案されているが 、特にMPEG-2のケースにおいて、それが言える。 ごく最近開発された他の画像/動画像圧縮技術として、ISO/IEC JTC1/SC29/WG 11グループの奮闘によってなされたMPEG-4標準化のような、意味的にも異なる 視覚オブジェクトを分離して符号化する本来の能力も持ち合わせている。同フレ ームかシーケンスのオブジェクト の独立的な符号化、合成音声・図形オブジェクトを含む能力に対し与えられるオ ブジェクトを基本にしたの構造をMPEG-4は利用している。MPEG-4圧縮技術の完全 な説明においては、MPEG-4システム記述言語(MSDL)を含むが、これはここでの 引用で記載されるISOドキュメントISO/IEC JTC1/SC29/WG11N1277(1996年6月) に含まれている。現在、ほとんどのビデオ圧縮技術がフレームもしくはフィール ドを基本にしたものである一方、MPEG-4は、フィールドもしくはフレームを基 本にしたの圧縮に限定されない柔軟性と拡張性をもつ圧縮技術を提供している。 結果、MPEG-2のようなフレームもしくはフィールドを基本にした圧縮技術および MPEG-4のようなオブジェクトを基本にした圧縮技術の出現により、1990年代はじ めから半ばにおいて、動画圧縮技術の変革が行われている。 その結果、動画圧縮技術の変革により、動画技術の取得では、大きく進歩して いる。殊に、景色の深度情報をリアル・タイムに得ることが可能な光学的センサ 、例えば、深度カメラが現在利用可能である。このようなデバイスは、1秒当た り30フレームか25フレームのデジタル・フォーマットで通常のビデオ信号を生成 可能で、また同フレーム・レートで、カメラの中心焦点のように、固定地点か固 定面から取得した画像画素の距離を評価することもできる。この距離または3次 元型情報はデジタル・フォームのセンサで得られる。このようなセンサのひとつ が、特殊な明るさのパターンが要求される能動的立体配置と本引用でも含まれる 開示、シュレー・ネイヤー他(Shree Nayer et al.,)「リアルタイム焦点範囲セン サ(Real Time Focus Range Sensor)」Int'l Conf.議事録(Proceedings Int'l C onf.)コンピュータヴィジョン(Computer Vision)pp.995-1001(1995年、米国 電気電子技術者協会)での受動的立体配置で開示されいる。 動画像圧縮処理の一部である3次元型情報利用に対し、いくつかの試みが行わ れている。例えば、シャークウィック他(J.J.D.van Schalkwyk et al.,)「深 度圧縮を伴った低ビットレート動画像符号化」("Low Bitrate Video Coding wit h Depth Compression,")米国電気電子技術者協会議事録動画像信号処理第141巻N o.3 149〜153ページ(1994年)(IEEE Proceedings Vision,Image and Signal Processing,Vol.141,No.3,pp.149-53(1994)"において、動くオブジェクト を静止している背景から分離するための深度感知アルゴリズムにより生成される 3次元深度情報を利用した動画像圧縮技術が発表されている。この記載技術では 、景色から深度情報を抽出し、その景色内にオブジェクトの端を位置するのに、 ステレオ・アルゴリズムが利用されている。そのオブジェクトの形態は、そのオ ブジェクト全体 をカバーする領域としてサブ・ブロックを基本としている。全体的な動きベクト ルは、一つのフレームから他のフレームへの動きあるいは変位を全体として表し 、前のフレームと現在のフレームのオブジェクトの位置ベクトルを相関して生成 される。予測処理の間、全体の動きベクトルは、現フレームの第一順予測として 使用してもよいデータの「全体補償フレーム」生成のため、前のデータのフレー ムにおけるオブジェクトを変位するのに使用する。より正確な景色表現を行うた め、標準的フィールドかフレームを基本にした圧縮処理において、全体補償フレ ームは、過去のデータ・フレームを交換する。 ベンテル他(M.A.H.Venter et al.)の「低ビット・レートの動画像符号化 における立体画像」("Stereo Imagingin Low Bitrate Video Coding")COMSIG 19 89年,通信信号処理の南アフリカ会議議事録115-118ページ米国電気電子技術者 協会1989年6月23日(Proceeding South Africa Conference[of]Communication Signal Processing,pp115-118 IEEE)において、立体画像カメラで検索する3 次元深度情報を利用した2つの動画像圧縮技術が開示されている。第一の技術と して、ベンテル他(Venter et al.)が開示する、動きベクトルの正確さ検査と しての「オブジェクト動きベクトル」を生成する深度情報を利用したものである 。正確さ検査における動きベクトルは、通常の符号化アルゴリズムにおいて生成 されるもので、例えば、生成した動きベクトルが、実質的にオブジェクト動きベ クトルとことなる場合、それは誤りで、それ故にオブジェクト動きベクトルに交 換とする。第二の技術において、その記載において、一景色内の動く対象物、例 えば、人間の頭や肩など、3次元モデルを2次元画像の平面に投影して元に戻し 、画像予測するのに利用可能で、3次元モデルをつくるのに深度情報が利用可能 とすることが提案されている。 ベルン ジロッド(Bernd Girod),「画像連続符号化を利用した3D場面モデル 」("Image Sequence Coding Using 3D Scene Models")、SPIE議事録(Proceed ings of SPIE)、光学技術に対する国際学会(The international Society for Optical Engineering),第2308巻,1576‐1591ページ(SPIE 1994年)において も、深度感知カメラによる検索される3次元深度情報を利用した2つの動画像圧 縮技術が開示されている。第一の技術では、ジロッド(Girod)では以下のとお り開示している。厳密なボディの換言的で循環的な動き表現するマトリックスを 生成する深度情報を「絶対に」利用するもので、これは、より精密な動き補償を 行う動きベクトル・フィールド上で強制的にブロック整合中に利用するものであ る。第二の技術は、深度情報を、顔の動画をつくるのに、動く対象物、例えば、 事前に選択の顔の 動きのパラメータ(口を開く、頭を回すなど)によって、受信者に送信される頭 、のモデル生成に、明らかに使用するものである。 上述従来技術では、現フィールドもちくは現フレームを基本にした動画像圧縮 技術と3次元動画像検索技術間のギャップを十分に橋渡しすることができない。 何故なら、各従来技術において、3次元型情報は、直接的な方法というよりは寧 ろ、例えば、動画像データ・フレームの第一順予測を行うあるいは動きベクトル の精密さの検査を目的とした間接的な方法にしか利用できないからである。更に 、従来技術では、オブジェクトを基本にした圧縮という内容での3次元型情報を 議論している。圧縮処理を支援する直接的方法よりも寧ろ、動く対象物の三次元 モデル生成のためだけに3次元型情報を利用するのである。その結果、動画像圧 縮処理において、フィールドもしくはフレームを基本にした圧縮技術の場合とオ ブジェクトを基本にした圧縮技術の場合のふたつの場合において、3次元型情報 を直接利用する技術が必要である。 発明の要約 本発明の目的は、フィールドもしくはフレームを基本にした圧縮技術の場合と オブジェクトを基本にした圧縮技術の両方の場合において、動画像圧縮処理に直 接、型情報を利用する技術を提供することにある。 本発明の更なる目的は、圧縮処理中、選択的ビット配置が可能になって、フィ ールドもしくはフレームを基本にした動画像処理における深度感知カメラで生成 する深度情報を利用する技術を提供することにある。 本発明の更なる目的は、圧縮処理中、そのオブジェクトを精密に表すオブジェ クトを基本にした動画像圧縮技術において、深度情報を利用する技術を提供する ことにある。 本発明の更なる目的は、空間内のオブジェクトの位置にしたがって、フレーム 中の異なるオブジェクトに知覚的な重要性を割り当てる深度情報を利用する技術 を提供することにある。 本発明の更なる目的は、知覚的には重要性は低く、高い粒状度でオブジェクト を量子化して3次元型情報を利用する、変形されたMPEG-2符号器を提供すること にある。 発明の更なる目的は、内容を分離して、個々のオブジェクトにする粒状化手段 としての3次元型情報を利用する、変形されたMPEG-4符号器を提供することにあ る。 本発明の上記及び他の目的は、以下の更なる記載を参照して明らかとなるであ ろう。本発明は、動画像情報のフレームに対応する深度情報を受信し、動画像情 報フレーム内でひとつもしくは複数の分離オブジェクトを確認するオブジェクト 分離回路を提供する。また、本発明は、各画素をフレーム内の知覚上の重要性を 変化するひとつまたは複数の領域と関連づけるため、深度情報をオブジェクト・ マップに変換する、オブジェクト・マップ生成回路を含む。オブジェクト分離回 路は、事前に選択された深度の領域に大体相当するフレーム内の画素を示すひと つまたは複数の深度領域マスクを生成するオブジェクト・マップをマスクする、 領域マスキング回路と、ひとつまたは複数の領域マスクの各々が示すひとつまた は複数の各領域内のひとつまたは複数の分離オブジェクトを確認する動画像オブ ジェクト選択回路を含む。 好適には、上記オブジェクト・マップ生成回路は、所定の深度値を持つ画素数 を所定の値の範囲に提供するために深度情報のヒストグラムを計算するヒストグ ラム発生回路と、切り抜かれたヒストグラムを生成するために、ヒストグラム中 の所定のしきい値以下のあらゆる値をゼロに設定する第一論理回路と、n個の異 なる深度しきい値と共にn個の領域の境界を 見つけ出すための切り抜かれたヒストグラムを走査する第二論理回路と、オブジ ェクト・マップを生成するためにn個の異なるしきい値を基本にした深度情報を 量子化する可変ステップ量子化回路を含む。 上記ヒストグラム生成回路自身が、深度情報を受け取り一時的に保存するバッ ファと、バッファから深度情報をメモリ・アドレスとして受け取り、メモリ・ア ドレスとしてのヒストグラム値を格納するメモリと、アドレス位置のヒストグラ ム値を上記メモリから読み出し、そのヒストグラム値を更新し、更新されたヒス トグラム値をそのアドレス位置のメモリに提供する論理回路とを含んでもよい。 好適な一実施例において、本発明は、符号化をすすめるため、各画素の深度構 成要素を利用して、2次元の画素列形態の動画像情報のフィールドまたはフレー ムを符号化する装置を提供し、動画像情報のフレームまたはフィールドを受け取 り、受け取った動画像情報のフィールドまたはフレームから圧縮された画像信号 を生成する符号化器を含む。この符号化器は、動画像情報のフレームまたはフィ ールドの、マクロ・ブロックのような位置に対応するデータを量子化するマルチ モード量子化器を含む。このような装置において、動画像情報のフレームまたは フィールドもしくは動画像情報に対応する深度情報の両方をリアル・タイムに生 成できる深度感知カメラが、含まれる。 本実施例においては、有効には、選択された量子化モードが、オブジェクト・ マップが示す領域の知覚上の重要性を反映する量子化モードを選択するマルチモ ード量子化器に、オブジェクト・マップ生成回路によって生成されたオブジェク ト・マップに応答する信号を供給するレート制御器と同様なオブジェクト・マッ プ生成回路を含む。本実施例では、オブジェクト・マップ生成回路とレート制御 器間に接続され、動画像データの現在のマクロ・ブロックを、知覚上の重要性を 可変する領域のひとつに割り当て、上記割り当てられた領域の示す信号をレート 制御器に提供するマクロ・ブロック分類回路によって支援されてもよい。 生成された圧縮動画像信号を受け取り一時的に記憶するため、オーバー・フロ ー条件を示す信号を上記レート制御器に供給するために、事前に選択された記憶 容量をもつ動画像バッファは、上記符号化器とレート制御器に結合されてもよい 。その結果、上記レート制御器によってマルチモード量子化器に提供された信号 は、オーバー・フロー信号にも応答する。 特に好適な一実施例において、符号化器は、圧縮された動画像データがビデオ ・バッファに出力された場合、出力信号を生成し、マクロ・ブロック分類回路は 、割り当てられた領域 に関連した対象ビット・レートを示す信号を生成する。この調整は、有益には、 クロック信号に応答して、所定量の圧縮された動画像信号をバッファが出力する ように、クロック信号をバッファに供給するクロック信号生成回路と、符号化器 出力信号に応答してカウントを付加し、そのクロック信号と仮想バッファの占有 を決定するための対象ビット・レート信号に応答してそのカウントから差し引い て動画像バッファに関連した仮想バッファにあるビット数をカウントするカウン タを含む。また、上記カウンタは、レート制御器によってマルチモード量子化器 に供給された信号が仮想バッファ占有信号に応答するよう、カウントを示す仮想 バッファ占有信号をレート制御器に供給する。 代替的に好適な調整において、本発明は、動画像情報符号化を促進する動画像 情報の深度構成要素を利用した、オブジェクトを基本にした動画像情報の符号化 を行う装置を提供し、オブジェクト分離回路とオブジェクトを基本にした符号化 器を含む。符号化器は、受け取った深度情報と、オブジェクト分離回路によって 生成されたひとつもしくは複数のオブジェクト認証信号に対応する動画像情報の フレームを受け取り、ひとつもしくは複数のオブジェクト認証信号によって認証 されたひとつもしくは複数のオブジェクトに大体対応する動画像情報の部分を表 す圧縮された動画像信号を生成する。 本発明は、動画像情報のフレームに対応する深度情報内のひとつもしくは複数 の分離オブジェクトを認証する方法を提供する。本方法は、深度情報を受け取る ステップと、動画像フレーム内の各画素を可変するフレーム内の知覚上の重要性 を可変するひとつもしくは複数の領域に関連づけりために、受け取った深度情報 をオブジェクト・マップに変換するステップと、事前に選択された深度の領域に 大体対応するフレーム内の画素を示すひとつもしくは複数の深度領域マスクを発 生させるためのオブジェクト・マップをマスクするステップと、ひとつもしくは 複数の領域マスクが示すひとつもしくは複数の事前に選択した各領域内のひとつ もしくは複数の分離オブジェクトを認証するステップとを含むべきである。 好適には、変換ステップは、受け取った深度情報のヒストグラムを計算し、所 定値の範囲に対し所定の深度値をもつ画素数を提供し、クリップされたヒストグ ラムを生成するために、所定のしきい値以下のヒストグラムのあらゆる値をゼロ に設定し、n個の異なるしきい値に基づく深度情報を量子化することを含む。 好適には、上記認証ステップは事前に選択した深度領域マスクを、マスクして いない値を発見するまで走査し、他に近傍画素を発見するためにマスクしていな い値とともにマスク内 の近傍画素を検索し、深度領域内のオブジェクトに対応する動画像オブジェクト 面としてのマスク化されていない値と共に、発見されたあらゆる近傍画素を認証 するためのマスク化されていない値を持つ近傍が疎なくなるまで検索ステップを 繰り返し、深度領域マスクからオブジェクトをマスクし、深度領域マスク内の全 画素がマスクされるまで上記を繰り返し、ひとつもしくは複数の動画像情報の受 け取ったフレーム内のひとつもしくは複数の動画像オブジェクト面を認証し、ひ とつもしくは複数の動画像オブジェクト面のうちのひとつと、動画像情報の最も 先に続くフレームと関連したひとつもしくは複数の動画像オブジェクト面を選択 し、選択された動画像オブジェクト面と、深度の違いを決定するための選択され た前のフレーム動画像オブジェクト面を比較し、ひとつもしくは複数の前のフレ ームの動画像オブジェクト面のすべてが選択されなければ、ひとつもしくは複数 の前のフレームの動画像オブジェクト面の異なるひとつを選択後の比較ステップ を繰り返し、決定した深度の違い全てと比較して、深度の違いが最小化されたひ とつもしくは複数の前のフレームの動画像オブジェクト面のひとつに対応する動 画像オブジェクトに、選択された動画像オブジェクト面を割り当てる。 添付図面は本開示部分を含まれ、構成し本発明の好適な実施例を図示し、本発 明の原理を説明するのに役立つ。 簡単な図面の説明 図1は、深度感知カメラの概略図である。 図2は、典型的なMPEG-2タイプの符号化器のシステム図である。 図3は、可変的ビット・レート符号化器の、一定のビット・レートへの符号化 器の変換を示すシステム図である。 図4は、本発明による一定のビット・レートの符号化のシステム図である。 図5は、図4の符号化器において有効なオブジェクト・マップ生成回路を示す 。 図6は、図5のオブジェクト・マップ生成回路において有効なヒストグラム生 成回路を示す。 図7は、図5のオブジェクト・マップ生成回路において有効なヒストグラム・ クリップ回路を示す。 図8は、図5のオブジェクト・マップ生成回路において有効な境界検索回路を 示す。 図9は、図5のオブジェクト・マップ生成回路において有効な量子化回路を示 す。 図10は、本発明の好適なアスペクトにおける一定のビット・レート符号化器の システム図である。 図11は、図10の符号化器において有効な、マクロ・ブロック分類回路を示す。 図12は、図10の符号化器において有効な対象ビット・レート生成回路を示す。 図13は、図10の符号化器において有効なバッファ・サイズ変調信号生成回路を 示す。 図14は、動画像情報のフレーム内の動画像オブジェクトと動画像オブジェクト 面の概略図である。 図15は、本発明による、オブジェクトを基本にした符号化器のシステム図であ る。 図16は、典型的なMPEG-4タイプの符号化器のシステム図である。 図17は、図15の符号化器において有効な動画像オブジェクト分離回路を示す。 図18は、本発明の−アスペクトに従った、レート制御を行う好適なステップを 含む動画像情報符号化方法のフローチャートである。 図19aと図19bは、本発明の−アスペクトに従った、動画像オブジェクト分離を 行う好適なステップを含む動画像情報符号化方法のフローチャートである。 実施例の説明 図1を参照すると、深度感知カメラ100の操作モデルが示されてしいる。深度 感知カメラ100は、異なる距離と深度においてオブジェクト111と112を含む3次 元の景色110を見ている。カメラ100は、2つのデジタル出力、1つは標準的デジ タル・ビデオまたは画像信号Vから構成されるデジタル出力101と、1つは通常の ビデオ信号101に含まれる画素に対する深度情報Dから構成されるデジタル出力10 2を生成する。カメラ100は、上記論議したネイヤー他の論説に従って構成されて よいし、または標準的デジタル・ビデオ出力と深度情報出力の両方を生成する他 の市販カメラでもよい。 好適には、信号101が、Y:U:V=4:2:0の色フォーマットにおいて、1構成要素に つき各画素毎に8ビットで構成されるが、その他の色空間または色フォーマット も同様に利用可能である。好適には、信号102は、深度情報を16ビットの線形PCM 表示であるが、浮動点または対数PCMを含むその他のフォーマットが利用可能で 、複雑性と精密性という異なるトレードオフを行う。 図1では、通常、オブジェクト111は、オブジェクト112に比べカメラより離れ た所に位置するほど、オブジェクト112中の画素に対して生成される値より高い 値であるオブジェク ト111中の画素に対して生成される値Dを、カメラ100が出力する。その際、フレ ームkに対するカメラの出力は、2つの信号により数学的に示すことができる。 但し、NとMは、それぞれ、1フレームの幅と高さである。式(1)においては 、表記を簡単にするため、色構成要素は無視している。異なる構成要素がほとん ど同じ処理方法を受けているからであり(動き評価は、除外する)、それと同時 にそれらが同じである必要はないからである。 図2は、標準的フィールドまたはフレームを基本にした、H.261.MPEG-1、MPE G-2、H.263のような動画像圧縮技術のシステム200を示す。通常の非圧縮ビデオ 信号は、マクロ・ブロック分離器/加算器240と動き評価回路210に入力される。 離散コサイン変換(「DCT」)250は、マクロ・ブロック分離器/加算器240から マクロ・ブロック・データに適用される。より大きな圧縮効果を上げるため、こ の場合、DCT係数を251にて量子化し、252にてジグザグ状のラン長符号化を行う 。253にて、可変長符号化する。量子化されたDCT係数は、255にて逆量子化し、 現在のフレーム・ビデオ・データと同時に動き評価回路210に過去のフレーム・ ビデオ・データを供給するために、256にて逆離散コサイン変換を行う。動き評 価回路210は、211、212で符号化され、260にて圧縮されたDCT係数とともに多重 化される動きベクトルを生成するため、フレーム格納220に格納される過去と現 在のフレーム・ビデオ・データを利用する。MPRG-2の場合、符号化器のアーキテ クチャは、米国特許35,093号にて十分に記載されており、ここに、その開示は参 照として組み入れている。 どんな場合でも、ビデオ・データの特殊ブロックの圧縮に利用する量子化器25 1の量子化モードを、符号化器200は柔軟に選択する。精密な量子化モードの選択 により、圧縮されるブロックを表示する精密なビット・ストリームを生成する一 方、粗いモードでは、そのブロックをよりざらざらした表示を生成する。ここで の決定は、輝度信号ブロックの2x2列と輝度ブロック例えばマクロ・ブロック の2x8列に影響する。 精密な大きさで量子化モードを柔軟に選択するのが、符号化器がレート制御に 影響を与えることが可能で、その結果エントロピ(可変長)符号化を動画像圧縮 処理に利用しても一定のビット・レート(「CBR」)を生成する手段なのである 。データの各マクロ・ブロックは、当該輝度・色ブロックに対するPCT係数に加 え、ヘッダを含むので、異なる量子化ステップ サイズの利用が、各マクロ・ブロックに関連したヘッダの圧縮されたビット・ス トリームにて示すことが可能である。 図3を参照すると、可変ビット・レート(VBR)符号化器200の出力300にて、 バッファ320を置き換えて、レート制御を行ってもよい。次に、バッファからデ ータを受け取っているチャンネルのバンド幅に依存する一定レートにおいて、圧 縮されたデータをバッファ320は出力する。バッファの占有Bmax、とその他はど うしても信号に依存する。パラメータは、バッファにおけるオーバーフローまた はアンダーフローが起こらないよう、続くマクロ・ブロックに使用する量子化器 251の量子化ステップサイズを決定するため、レート制御器340によって判断され る。 バッファ規定関数f(・)は、レート制御340が計算するが、さまざまなフォーマ ットをとることができる。最も簡単なものは、バッファ占有Bとの「線形」関係 である。量子化ファクタQは、セット{1,2,...,31}において値を決めることがで きるとすれば、この関係は次のフォーマット、 さらに精巧な関数は、当業者に周知のもので、例えば、H.261で実用化されて いるRX-8レート制御またはH.261で実用化されているTMN-5レート制御がる。 上記は一定のレート制御に注目してきたが、知覚上の重要性(例えば、顔)の いくつかの画像領域に対してはより高い品質を供給し、重要性のより小さな領域 (例えば、背景)においては、品質を落とすVBR符号化器にも、レート制御は、 非常に有益である。本明細書の残りの部分では、CBR符号化器かVBR符号化器を使 用するか否かを決めないで、表現レート制御を使用する。VBR符号化器では、バ ッファは除去できレート制御関数は、バッファ占有以外にパラメータのみに依存 する。代わりに、バッファ出力レートは、時間関数にすることが可能で、演繹的 に知ることができ、またはネットワークから動的に与えられることが可能である 。 本発明の一実施形態によれば、異なるオブジェクトに関連するいくつかの異な る領域に入力フレームを区切るレート制御回路340が、カメラ100により供給され る深度情報を利用する。このオブジェクトは、そのサイズとともに空間の位置に 従って、割り当てられた知覚上の重要性である。次に、さらに最上位オブジェク トではより多くのビットを使って、高い視 覚上の品質を得、背景のような最下位オブジェクトではより少ないビットを使う よう、この情報を利用する。 図4を参照して本発明のこのような実施形態を以下説明する。深度感知カメラ 100は、ケーブル101を介してビデオ・データの連続的なフレームをCBR符号化器4 00に供給し、ビデオ・データの各フレームにはケーブル102を介して深度値の列 をオブジェクト分割回路500に供給する。列中の各値は、ビデオ信号の対応画素 の深度(またはその測定)に対応する。オブジェクト分割回路500は深度信号を オブジェクト・マップ(0)、例えば、後に詳細に説明する、特殊なオブジェクト (あうれいは背景)に関連した各ピクセルにおいて同じサイズの列に変換し、CB Rのレート制御器440にオブジェクト・マップを供給する。以下、説明するように 、レート制御器440は、量子化モード選択信号をVBR符号化器200に、データが符 号化されつつあるオブジェクトの知覚上の重要性とバッファ410の現在の占有の 両方に依存する量子化ステップサイズを選択するために、供給する。 図5を参照して、図4の利用に適合するオブジェクト分離回路500は、をこれ から説明する。この回路は、ヒストグラム生成回路510、ヒストグラムクリップ 回路520、境界計算回路530、可変ステップ量子化器550を含む。 ヒストグラム生成回路510は、図6において更に詳しく示す。カメラ100が生成 した深度値または深度マップの列は、バス511を介して16ビット・ワイド・バッ ファ512に供給される。その列の各画素における深度値を、この場合、バス513を 介してヒストグラム値を含む16x64K RAM 514のアドレスとして、入力する。加算 器516はデータ・ライン515を介して、示されたRAMアドレスに対する現在値を読 み込み、RAM 514に修正値を格納する。(読込み/書込み段階の計時の詳細につ いては、ここでは示さない)これにより、深度マップ内にある各深度値に対する 確かな深度値の深度マップ画素数示す機能が、作り出される。 図7は、ヒストグラム・クリップ回路520の構造を示す。クリップ回路520は、 しきい値T未満のヒストグラム値をOに設定し、他のTよりも高い値は変化させな いように、しきい値Tにおいて、クリップ・ヒストグラム登録に、ヒストグラムR AM5I4をアクセスさせる。しきい値は、カメラ100の見る景色内にあるオブジェク ト距離によって、実験的に決めるべきである。RAM514の各アドレスは、アドレス 生成器527によって、アドレスを生成してアクセスされる。アドレス生成器527は 、システム・クロック信号526(クロックは、不図示)に応答する。そのアドレ スにおける格納されたヒストグラム値は、ライン512を介して比較器 522に供給され、レジスタ523に格納さえれたしきい値Tと比較し、ライン524を介 し、アクセスする。値がTよりも高ければ、その値は変化していないRAMに戻され る。値が、Tに等しいかTよりも小さい場合、ゼロが出力され、同じ位置のRAMに 格納される。 境界計算回路530の詳細は、図8において示す。この回路は、カメラ100に見た オブジェクト間の領域を指定する深度点を認証するために、しきい値のヒストグ ラムを利用する。回路530は、深度点を、しきい値のヒストグラム中のゼロ値の あらゆる領域の中点とする。 RAM514のデータは、再びアドレス生成器527によってアドレス化され、ライン5 31を介し比較器533に送られる。比較器533では、そのデータがゼロ値と比較され る。データがゼロであれば、論理値1が比較器533によって出力される。データ がゼロでなければ、論理値0が出力される。出力値は、その場合、レジスタA534 に格納され、レジスタAに格納された前の値は、レジスタB535にシストする。 レジスタAが論理値1を含み、レジスタBが論理値0を含む場合、ヒストグラム 領域中のゼロ値が認証される。インバータ537とANDゲート538を介し、レジスタT 1540に対するライト・イネーブル信号を生成するよう、その値を組み合わせる 。レジスタT 1540は、ヒストグラム中の現在のゼロ値領域のはじめに対する深度 値を保持する。レジスタAが論理値0を、レジスタBが論理値1を含む場合、その 領域の最後のゼロ値が認証される。このような場合、インバータ537とANDゲート 539は、レジスタT 2541に対するライト・イネーブル信号を生成する。レジスタT 2541は、次の段階に移行し境界値を計算できる回路を示す。境界値は、T1とT2 とシフト器543の内容を加算し、T1とT2とシフト器543によりその結果を割る加算 器542によって計算する。境界値は、境界値RAM551(図9)に格納される。T2に対 するライト・イネーブル信号は、以下説明する境界値RAMに対するライト・イネ ーブル信号となる。 このように、クリップされたヒストグラムは、クリップされたヒストグラムが ゼロ値を持つ連続した領域を発見するよう、走査される。i番目の領域に対し、 しきい値tiがその領域の中点として設定される。このプロセスの最後では、n個 の異なるしきい値があり、それは、背景とみなされたn個のオブジェクトに分離 される。 図9では、可変ステップ量子か器550を詳しく示している。深度フレームバッ ファ(不図示)から深度値501が、比較器553に供給され、境界値RAM55lから検索 した境界値に対応する境界値と、アドレス生成器552によって比較する。深度値 が境界値未満の場合、比較器は、1を出力し、その他の場合は0を出力する。比 較器出力である、サイン・ビットは量子化値 レジスタ554に対するライト・イネーブル信号として使用する。レジスタ554は、 例えばオブジェクト認証として使用してもよい所望の量子化値など、現在の深度 値がそれよりも小さい、第一境界値のアドレスと共にロードされる。レジスタ55 4の内容は、その場合、オブジェクト・マップRAM1101(図11)にロードし、深度 値を特殊オブジェクトと関連させる。 現在の深度値サイクル中、量子化値レジスタ554の書込みをすすめるために、 比較器553のサイン・ビット出力を、アドレス生成器552に対するリセット信号と する。リセット時には、アドレス生成器は、比較器553の対応する深度値との比 較のため、RAM551中の次のアドレスを生成する。 このように、量子化器550は、境界計算回路530が認証し、境界値RAM551に格納 した決定レベルt1と共に可変ステップ量子化器を利用して元の深度画素マップを 量子化する。この処理が、「オブジェクト・マップ」を生成する。この「オブジ ェクト・マップ」は、例えば、各画素を特殊オブジェクトに関連させたもので、 n個を介し、最近傍オブジェクトに対応するゼロとし、nは最も離れたところ(背 景)にある。オブジェクト・マップ記録を表す16ビット値の利用によって、最大 65,536までの異なるオブジェクトが同じ画像に存在することができる。もちろん 、もっと長いワードサイズ(例えば、24ビット以上)に、より多くのビット値を 対応させることもできる。 現在のフレームに対する量子化決定が行えるよう、このオブジェクト・マップ がレート制御回路440に供給される。上記処理は、カメラ100から同距離にあり画 素が同じオブジェクトに属するとすると、より洗練された技術を利用でき、例え ば、カメラから同じ距離(深度)にある画像領域間の空間分離を考慮することも 可能である。 更に、ここで述べる簡単な技術が、精密さと複雑さの良好なトレードオフ関係 をもたらしながら、深度情報が簡単な画像それ自身であり、それ故に数多くの伝 統的な画像分離技術が、本発明に適用可能である。ゴンザレス他(R.C.Gonzal ezetal.,)の「デジタル画像処理」(アディション・ウェスレイ1991年)、ホ ン(B.K.P.Hom)の「ロボット視覚」(MITプレス1986年)、プラット(W.K. Pratt)の「デジタル画像処理」(レイ・インターサイエンス1991年)この技術に 相当する。当業者は、深度マップにおけるオブジェクト分離を行うために、代替 的にこの技術を利用してもよい。 図10は、本発明の好適な一側面に対応した一定のビット・レート符号化器のシ ステム図を示す。オブジェクト分離回路500が生成したオブジェクト・マップは 、マクロ・ブロック・ ラベル回路1100において受け取る。符号化器200は、カメラ100から受け取った動 画像情報の各フレームを分割してマクロ・ブロックとし、マクロ・ブロックを基 本にしたDCT係数を量子化するので、ビデオ・データの各マクロ・ブロックを特 定のオブジェクトに、または上記簡単な分離技術の場合にはカメラ100からの同 深度におけるひとつもしくは複数のオブジェクトを含む領域に割り当てるのが望 ましい。マクロ・ブロックが、1以上のオブジェクトまたは領域からの画素を含 む場合にも、マクロ・ブロックをひとつのオブジェクトまたは領域に割り当てる 。例えば、カメラ100に最近傍のオブジェクトまたは領域に、それ故に知覚上最 も重要なオブジェクトまたは領域に割り当てる。このような割当てを一旦マクロ ・ブロック・ラベル回路1100で行うと、レート制御器1040は、現在のマクロ・ブ ロック全体に対する適切な量子化ステップサイズを選択できる。 図11を参照すると、マクロ・ブロック・ラベル回路1100はマクロ・ブロック( 16x16列の画素)中の各画素に対しオブジェクトの認証を含むオブジェクト・マ ップRAM1101を含む。オブジェクトの認証性が最も低いものを、最近傍のオブジ ェクトに割り当てて、オブジェクト・マップは構成されるので、回路は単にその マクロ・ブロックに対するオブジェクトの認証性が最も低いもの、例えば、RAM1 101中に保持する16x16列の数のうち最小のものを、検索のみ行わなければならな い。 これを達成するため、最小値レジスタ1120は各サイクルのはじめにその最大値 (16ビットのワードに対しては16の1を)設定する。比較器1110は、アドレス生 成器1102がアドレスを生成する際オブジェクト・マップRAM1101から検索した各 画素の認証を、最小値レジスタ1120に格納する値と比較する。現在の値が、レジ スタ1120に保持する値よりも小さい場合、レジスタ1120に現在値を格納するよう レジスタ1120にライト・イネーブル信号とする論理値1を比較器1110は出力する 。論理値が比較器1110に格納した値以上の場合、ライト・イネーブル信号は生成 しない。このサイクルの最後に、最小値レジスタがマクロ・ブロックにおけるオ ブジェクトの認証性の最も低いものの値を含む。 VBR符号化の場合、マクロ・ブロック・ラベルは、特殊な量子化ステップサイ ズを各オブジェクトにに関連させて、レート制御に利用できる。典型的には、最 近傍オブジェクトが、より精密な量子化器(より多くのビットを持つ、それ故に より高品質)に割当てられ、一方、背景は(最も遠くにあるオブジェクト)は、 きめの粗い量子化器(少ないビットを持ち、低い品質)に割当てられる。この場 合、マクロ・ブロック・ラベル回路1100が生成する可能な オブジェクト認証の索引付けを行うテーブルを単に調べる操作が、量子化選択で ある。オブジェクトを挿入し存在させながら、徐々に量子化ステップを行い、オ ブジェクト境界の「平滑化する」量子化器の相違に、符号化器は、技術を使うこ ともできる。模範的平滑処理は、CBR符号化器とつなげて以下概説する。 CBR符号化に対し、上述のとおり、レート制御器1040が付加的に、出力バッフ ァ1020がオーバーフローもアンダーフローもしないよう、量子化器の選択を調整 しなければばらばい。出力する1秒毎のビット合計が、現在固定されているので 、オブジェクトサイズが重要になってくる。オブジェクト位置がわかっている場 合、領域選択レート制御を行う技術が、エルザリード他の「比較可能な動画符号 化のH.261におけるモデル割当てレート制御のための、顔の位置の自動的検知」7 信号処理:画像通信435-455ページ(1995年)が開示されている。ここでは、こ の開示を参照として含んでいる。 この技術に伴い、背景(オブジェクトn)は除いた特殊な目標平均ビット・レ ートRiti=1,...,n-1に、各オブジェクトを関連させる。バッファにおけるオ ーバーフローを避けるのに必要な与えられた合計平均レートRを維持するために 、背景レートを次の公式に従って決定する。 但し、aiはオブジェクトtに属するフレーム中の画素の0.0から1.0の割合であ り、以下の定義、 ここで、Rnはマイナス値をとることができ、この簡略化によって、背景でできる 限り粗い量子化を割当てる効果が得られる。また、オブジェクト毎の1秒単位の 平均ビットが目標ビット・レートRtが示すものより低くなる結果となってもよい 。 図12は、図10の符号化器において有効な目標ビット・レート生成回路を示す。 目標ビット・レート生成回路1200のハードウェアは、マクロ・ブロック・ラベル 1130がRAM1210に送られるよう、オブジェクト・ビット・レートRAM1210に図11の 最小値レジスタ1120を結合して、マクロブロック・ラベル回路1100に含まれても よい。RAM1210は、所望の目標ビット。レートRiをそれぞれ含む。RAM1210のサイ ズは、マクロ・ブロック・ラベルに利用できるビット数に依存し、その結果、例 えば、8ビットのマクロ・ブロック・ラベルをしようすれば、RAM1210は、28の メモリ位置が必要となる(カメラ100からの異なる深度における場 面110の多くのオブジェクトがある場合に限り、メモリ位置の全てが、必要とな る)。 浮動点計算を避けるため、続いて調整する整数値として、ビット・レートを示 す。RAM12l0の各アドレスは、特殊オブジェクト・ラベルに対応し、その結果、 マクロ・ラベル1130を、RAM1210に対してアドレス化されたメモリとしてしよう する。マクロ・ブロック・ラベル1130でアクセスされている時、RAM1210は、122 0である、対応目標ビット・レートRiを出力する。 図10を参照すると、レートRiを、バッファ・レートとバッファ・サイズの変調 技術を利用するバッファ調整処理において利用する。この技術を実現するために 、物理バッファ1020に加え、仮想バッファ・カウンタ1030によって決定される占 有を行う「仮想バッファ」がこの回路に加えられる。物理バッファ1020が、圧縮 化されたビデオデータを出力し、オーバーフローを迫跡する機能を継続し(マク ロ・ブロック・スキップ・フラグ1021を、バッファのオーバーフローを避けるの に必要ならば、符号化器200に送ることができように)、仮想バッファを、量子 化器選択処理において利用する。 物理バッファ1020の調整処理は、次の式によって決定する。 但し、Biはマクロ・ブロックを符号化した後のバッファ占有であり、b1はマクロ ・ブロックin,rwo符号化するのに使用するビット数であり、マクロ・ブロック 毎1秒ずつのビット数である。Q iは、量子化するマクロ・ブロックiのために選 択された量子化ステップサイズである。上記のとおり、いくつかのフォーマット が、関数f(・)に対して可能であり、そのうちのひとつが、式(3)にて与えられる 。 図10で示す実施例において、式(6)は、マクロ・スキップがフラグ1021を符号 化器200に送ることによって影響を受けることができるよう、実際のバッファ102 0のモニタのみに使用する。量子化器選択は、以下記載する仮想バッファに従っ て、行われる。 システム・クロック1050は、バッファ1020が所定量の圧縮されたビデオ・デ ータを出力するよう、システム・クロック信号を生成する。仮想バッファカウン タ1030が所定量インクリメントを減らすことができるよう、クロック信号がカウ ンタ1030に適用される。同様に、カウンタ1030がマクロ・ブロック・カウントに よってインクリメントしていけるよう、ビデオ・データが符号化され、バッファ 1020を通過した際は必ず、符号化器200はマクロ・ブロック・ビット・カウント 信号をカウンタ1030に送る。カウンタ1030は、上述マクロ・ブロ ックラベル回路1100によって生成した目標ビット・レート信号を受け取る。 バッファ.レート変調は、以下の仮想バッファ占有を操作して行える。オブジ ェクト1に割当てられたマクロ・ブロックが符号化されている時に、仮想バッフ ァの占有はカウンタ1030で決定されるように、比率R/Rにより変調される。これ は、符号化器を表示するフォーマットとしてのデータ出力比率を増加/減少する 効果を持ち、適当な量子化変調という結果をもたらす。(精密/粗い、各々にお いて)。それ故に、現在のマクロ・ブロック(i)がオブジェクトkに割り当てら れると、式(6)は、以下のようになる。 但し、Bは、仮想バッファのためのバッファ占有を示し、は、現在のマクロ・ブ ロック(マクロ・ブロック・ビット・カウント信号で示されるように)を符号化 するのに使用するビット数に等しく、rは、物理バッファ1020によるビット出力 数に等しい。Rkは目標ビット・レート信号で示す目標ビット・レートで、Rはバ ッファ1020によって維持する平均出力ビット・レートである。仮想バッファカウ ンタ1030が、この計算を行い、レート制御器1040に仮想バッファ占有信号Bを供 給する。 式(4)で実行される長期間特性に影響を及ぼすことなく、技術の短期間収束を 助けるために、バッファサイズ変調を量子化境界を平滑化するのに利用する。オ ブジェクトの境界の仮想バッファ占有は、符号化器が精密/粗い量子化のオブジ ェクト領域に入っているか否かによって、1よりも大きい/小さいフアクタでレ ート制御器1040によって変調される。そのファクタは、数少ないマクロ・ブロッ クで(例えば、その影響が消えてしまう)で1に進む。この技術は、低い/高い レベルで量子化ステップサイズを即座にブーストする影響を及ぼす。変調ファク タの適当な選択によって、近傍のマクロ・ブロック間のはっきりとした品質の違 いが取り除かれ、オブジェクi1に関連したマクロ・ブロックを符号化する間、平 均ビット・レートR1を維持しながら、量子化ステップサイズのスムーズだが、速 い変化を所望のレベルにまで達成することができる。 量子化器選択は、次の公式に従って、レート制御1040によって行われる。 但し、siはマクロ・ブロックiに対するバッファサイズ変調ファクタであり、こ のファクタは、異なる量子化器ステップサイズをもつオブジェクトに割当てられ たマクロブロック間の領域をクロスする場合を除き、1に設定される。低いステ ップサイズに入った場合、そのファクタは、1.4に設定され、この場合、符号化 器200が0.2のステップを持つ同じオブジェクトの、その値が1になるまで、マク ロ・ブロックを処理しながら、決定する。同様に、もっと高いステップサイズの 領域に入る場合、このフアクタは、0,6に設定し、この場合、符号化器200が0.2 のステップを持つ同じオブジェクトの、その値が1になるまで、マクロ・ブロッ クを処理しながら、インクリメントする。 図13は、バッファサイズ変調信号生成回路を示す。これは、ファクタsiを生成 するレート制御器1040に含まれてもよい。マクロ・ブロック・レベル1130は、レ ジスタ1310に入力する。レジスタ1310が新しいマクロ・ブロック・レベルを受け 取るときにはいつぃでも、レジスタ1310の内容がレジスタ1320にシフトし、レジ スタ1310と1320の内容を比較器1330と1340内で比較する。レジスタ1310の内容が 、レジスタ1320の内容よりも大きい場合、比較器1330は「1」を出力し、他の場 合、比較器1330が「0」を出力する。レジスタ1310の内容が、レジスタ1320の内 容よりも小さい場合、比較器1340が「1」を出力し、その他の場合、比較器1330 が0を出力する。レジスタ1310と1320が同じ値を持つ場合、比較器1330と1340は 、0を出力する。 比較器1330と1340の出力を、アドレス生成器1350に対するトリガとして使用す る。アドレス生成器1350は、変調ファクタRAM1360内のアドレスを生成し、バッ ファサイズ変調ファクタsiを含む。オブジェクト・ビット・レートRAMl210と共 に、RAM1360の内容は、好適には、レート制御器1040の量子化器選択部分128で次 に調整する整数である。これは、端数または浮動点計算を避けるためである。バ ッファサイズ変調信号生回路1300は共通のシステムクロック(不図示)で駆動す る。 アドレス生成器は、以下の状態推移表のもと動作する。 表1の示すように、トリガ1331の値が0になるよう、比較器1330が0を出力し 、トリガ1341の値が1となるように、比較器1340が1を出力する場合、符号化器 200は、カメラ100により近い場面110の領域に相当するデータのマクロ・ブロッ クを圧縮しており、より多くのビットを、上述のように、より高い目標ビット・ レートR値により、データのマクロ・ブロックに割当てる。粒状のい量子化の飛 躍を避けるため、アドレス生成器がsi-0.6に相当するアドレス値4を生成する。 次のクロック・サイクルでは、符号化器200が同じオブジェクトに属するマクロ ・ブロックを圧縮する場合、トリガ1331と1341は共に、値0を持つことになり、 表1の示すように、アドレス生成器は、アドレス4からアドレス5、アドレス6、 アドレス0へと動く。値siは0.6から0.8、1.0と増加し、次第に消えていく。 同様に、トリガ1331の値が1となるように、比較器1330が1を出力し、トリガ 1341の値が0となるように、比較器1140が0を出力する際、符号化器200がカメ ラ100から遠い位置にある場面110の領域に相当するデータのマクロ・ブロックを 圧縮しており、少ないビットが、少ない目標ビット・レートR値により、データ のそのマクロ・ブロックに割当てられる。このような状況で、アドレス生成器は 、値si=1.4に相当するアドレス値1を生成する。次のクロック・サイクルでは、 符号化器200が、同じオブジェクトに属するマクロ・ブロックを圧縮し続けると 、表1の示すとおり、トリガ1331と1341は共に、値0をとり、アドレス生成器は 、アドレス1からアドレス2、アドレス3、アドレス0と動く。 図13を参照して、記載の回路につき、カメラ100により近い位置にあるオブジ ェクトに相当するマクロ・ブロックをより高い目標ビット・レートRに割当てる と、他のビット・レート割当てスキームが採用できる。異なる状態推移表は、こ のような状況の下で採用できる。代わって、回路1300のアーキテクチャは、比較 器1330、1340が、マクロ・ラベル自身よりも寧ろオブジェクトに割当てた実際の ビット・レート値を比較するよう、変形可能である。この変形例では、2つの連 続するクロック・サイクル上のRAM1210に個々のオブジェクト・ラベルによって 、比較器1330と1340に直接供給する2つの出力と共にアクセスし、オブジェクト ・ビット・レートRAM1210を直接使える。 図11を再び参照すると、レート制御器1040が式(9)を計算可能で量子化選択信 号Qを生成できるよう、ファクタsiをライン1370を介し、供給する。当業者が認 めるように、式(9)の計算は、レート制御器1040内のRAM(不図示)で実行される 簡単なソフトウエアルーティンによってか、または適当なマイクロ・コードのハ ードウェアによって、行ってもよい。このように、レート制御器1040は、量子化 選択信号Qを生成する。符号化器200で現在符号化が行われつつあるビデオ・デー タのオブジェクトの知覚上の重要性を反映した適当な量子化モードを選択するよ う、信号Qを符号化器200に適用する。このように、レート制御器1040で供給した 量子化ステップサイズを利用して、符号化器200は、左右、上下(H.261の場合、 GOB構造は以下のとおりでなくてはならない)のフレーム内の各マクロ・ブロッ クを処理する。 上述では、MPEG-2のような、フィールドまたはフレームを基本にした符号化技 術において深度情報の利用に注目してきたが、本発明では、MPEG-4のようなオブ ジェクトを基本にした動画像圧縮技術にも同等に適用可能である。MPEG-4はこの 能力において独自のものではないが、MPEG-4のスキーム利用にふさわしい本発明 の一実施例を、同様に周知のオブジェクトを基本にした圧縮技術への発明の適用 を説明するため、供与する。MPEG-4の標準は、本明細書記載時、さらに変形さ れており、ここでの議論は、最も最近の符号器設計のバージョン、ベリフィケー ション・モデル3.0に基づくものである。 MPEG-4の基本的構造は、ビデオ・オブジェクト(VO)とビデオ・オブジェクト 面(VOP)を除けば、国際電気通信連合のH.263と同様である。図14の説明のよう に、VOは一場面に存在しうる独立的オブジェクト1410、1420、1430であり、一方 、VOPは、任意の型1411、1421、1431に2次元画像である。フレームは、VOPを重 ねて構成される。一シークエンスが、フレーム毎に一VOPからなるVOから構成さ れる。 VO圧縮は、各オブジェクト毎に個々行われる。VOのVOPは任意の型をとるので 、テクスチャ圧縮と型圧縮の両方を利用しなければならない。型圧縮では、VOP の境界を定義する輪郭を符号化する。いくつかの周知の型符号化技術は、鎖状の 符号化を含み、利用されてもよい。 テクスチャ符号化については、この技術は、国際電気通信連合の仕263仕様 で使われているものとほぼ同一であり、低いビット・レート適用に対する特定の 変形と共に、MPEG-2とにている。符号化器は、マクロ・ブロックモードで動作し 、上述良く似た動き補償DCT構造を利用している。型輪郭がマクロ・ブロックを ふやす場合、そのマクロ・ブロックを、圧縮 を改善するための型輪郭の外側のマクロ・ブロック位置で、充填画素値を挿入し て、「貼り付ける」。貼り付けられた画素は、同時に送信する型情報に従って、 表示前に受信者で破棄される。 本発明による深度感知カメラを利用したオブジェクトを基本にした符号化器の アーキテクチャを、図15に示す。深度感知カメラ100は、標準デジタル・ビデオ または画像信号101をMPEG-4符号化器1600に供給し、通常のビデオ・信号101に 含まれる画素に対する深度情報を構成する第二の標準デジタル・ビデオまたは画 像信号102を映像オブジェクト分離回路1500に供給する。映像オブジェクト分離 回路1500は、深度情報を粗っぽく映像オブジェクト(「VO」)に利用し、それら を分離して符号化するMPEG-4符号化器1600に、映像オブジェクト型情報を供給 する。いくつかのVOは完全な画像を形成するため、同じビット・ストリーム内で 1550にて多重化される。 図16では、MPEG-4符号化器が示されている。映像オブジェクト分離回路1500 で生成した映像オブジェクト型情報を、型符号化器1600に供給し、一方、標準的 デジタル・ビデオまたは画像信号101を受け取り、フレーム・メモリ1601に格納 される。型符号化器は、高さと奥行きの両方が、16の倍数であるよう、また結合 矩形がマクロ・ブロックの整数値を含むことを保証するよう、底辺の右側で、現 在のVOP結合矩形を拡張する。例えば、完全なVOPを含む最小の矩形)VOP内の個 々のマクロ・ブロックを、MMR技術を変形したもので処理する。もちろん、符号 化された情報は、実際の画素値を表してはおらず、与えられたが画素が現在のVO P属するか否かを表す。 符号化したVOP型情報を、貼り付け回路1620に貼り付ける。貼り付け回路1620 は、符号化VOP型情報が認証した1601の格納した標準画像からの画素を検索し、V OP型の外側にあるマクロ・ブロック内の画素を線形補間してこの画素を貼り付け る操作を行う。張り付け操作は、VOPに対する完全なマクロ・ブロックを生成し て符号化性能を改善する効果を持つ。VOPは、DCT圧縮技術において、一層容易に 扱えるものである。 VOPに対する貼り付けたマクロ・ブロックを、マクロブロック分離器/加算器1 630と動き評価回路1640に入力する。離散コサイン変換(「DCT」)1650は、1630 からのマクロ・ブロック・データに適用する。より大きな圧縮効果を得るために 、DCT係数は、1651において量子化し、ジグザグ状のラン長符号化を1652にて行 い、1653にて可変長符号化を行う。量子化された係数は、1655にて逆量子化し、 現ビデオ・データと共に動き評価回路1640に過去 のビデオ・データを供給するよう、逆離散コサイン変換を1656にて行う。1641と 1642で符号化された動きベクトルを生成し、圧縮されたDCT係数と共に1660で多 重化するために、動き評価回路1640は、過去と現在ののビデオ・データを利用し 、それらをフレーム・メモリ1641に格納する。 図4を参照して述べた分離処理と対比し、オブジェクトを基本にした圧縮は、 潜在的に知覚上重要な領域の認証のみならず、個々のオブジェクト領域の認証を 必要とする。図4を参照して記載したアプローチにおいて、カメラからの位置が 同じ範囲内にあったオブジェクト分離回路500によって、あらゆるオブジェクト が同じように取り扱われ、その技術は、レート制御に影響を及ぼすだけになる。 以下の説明は、個々のオブジェクトの認証を含む技術について付け加えてある。 図17では、映像オブジェクト分離回路1500をさらに詳しく示している。回路は 、オブジェクト・マップ・生成回路1710と領域セレクタ1720と、映像オブジェク ト・セレクタ1730とデマルチプレクサ1740を含む。オブジェクト・マップ生成回 路1710は、オブジェクト分離回路500と同様にオブジェクト・マップを生成し、 この回路のハードウェアは、オブジェクト・マップ生成回路1710としての利用に ふさわしい。 領域セレクタ720は、どの画素が各深度範囲(しきい値tiとti+1の範囲の領域 )にあるかを認証するため、オブジェクト・マップを前処理する。この画素は1s とマークされ、残りの画素には0sとマークされる。これは、深度領域マークと呼 ばれる。映像オブジェクト・セレクタ1730は、ふさわしいソフトウェアと共に、 RAMに単に前もってロードされてもよく、その領域に存在するひとつまたは複数 の映像オブジェクトを認証を始める。映像オブジェクトセレクタ1730によって位 置が決まった映像オブジェクトのためのVOP型情報は、DMUX(デマルチプレクサ )1740を通過し、型符号化器1610に供給される。映像オブジェクトセレクタ1730 の行う処理ステップを以下に示す。 図16では、VBR符号化に対し、出力バッファはなく、VOは量子化器1651中、独 立的に割当てられたデフォルト量子化レベルとなりうる。しかし、CBR符号化に 対しては、量子化器選択は、生成ビット・レートを調整する手段として再び重要 になってくる。 図17では、VOP型情報はバッファ1750とレート制御を実行するレート制御器176 0に送る。レート制御器1760は、マクロ・ブロックのラベル化の必要は生じない という以外、量子化モード選択信号を前に記した図10で示したように生成する。 即ち、同じ映像オブジェクトから のデータは常に同じ目標ビット・レートBに割当てられるのであある。仮想バッ ファ・カウンタ(図17では不図示)で利用する目標ビット・レート信号とバッフ ァサイズ変調ファクタを生成するための図12と図13のマクロ・ブロック・レベル ではなく、映像オブジェクトの認証を直接利用する。レート制御器1760で生成し た量子化モード選択信号は、物理バッファ(図16では、不図示)がオーバーフロ ーをおこしていないことを確認するための量子化器1651に適用する。 図18では、本発明によって行われるレート制御ステップを記したフローチャー トを示す。映像と深度情報1810を受信の際、一定の範囲値に対する所定の深度値 をもつ画素数を提供する受信した深度情報のヒストグラム1821を計算し、クリッ プしたヒストグラム1822を生成するために所定のしきい値t未満のヒストグラム 中の全値をゼロとし、n個の異なる深度値のしきい値と共にn個の領域の境界を発 見するためにクリップしたヒストグラム1823を走査し、n個の異なるしきい値に 基づく深度情報を量子化し、1820にてオブジェクト・マップを生成する。 次に、1830にて、ビデオ・データの現在のマクロ・ブロックを知覚上の重要性 を可変する領域のひとつに割当て、割当てられた領域に関連する目標ビット・レ ートを示す信号を1840で生成する。割当てられた領域がすぐに続く割当て領域と 異なる時はいつでも、仮想バッファ占有信号1841を生成し、次にバッファサイズ 変調信号1851を生成するのに利用する目標ビット・レートを利用する。オブジェ クト・マップの領域の知覚上の重要性を反映した量子化モードを選択するために 、オブジェクト・マップとバッファ・サイズ変調信号に基づき、1850にて量子化 モード信号を生成する。 最後に、1860で圧縮化されたビデオ信号を生成し、1870でバッファに格納し、 1880で出力する。バッファがいっぱいになると、バッファのオーバーフロー条件 を示す信号を1871にて生成し、ステップ1850に戻る。圧縮化されたビデオ信号情 報がバッファに格納される際は必ず、1861にて仮想バッファカウントを増加し、 バッファに格納されたビデオ信号情報が出力の際は必ず、1871にて減らす。 図19では、映像オブジェクト分離回路1500にて行われるステップを記したフロ ーチャートを示している。映像と深度情報1910を受信する際、1920では、図18で 説明したように、オブジェクト・マップを生成する。オブジェクト・マップは19 20にてオブジェクト・マスクを生成するために前処理される。マスク化された領 域内のひとつもしくは複数のオブジェク トを以下のとおり認証する。 左上の角から始まって1940にて、領域マスクを、値「1」を持った画素を発見 するまで、左右に上下に走査する。オブジェクト・マスクの画素の位置をマーク する。 その画素の近傍を、他に値1の画素が1960で存在するか否かを見るために、領 域マスク内で(上下に、左右に、同様に、斜めに)、1950にて検索する。近傍に 値1の画素が存在する場合、オブジェクト・マスクの位置をマークする。まだ検 索していない更に近傍の画素がある場合、1961ではその処理を繰り返し(前に見 た画素は無視する)。1962で、非検索の近傍画素がある場合、アルゴリズムは終 わり、そのオブジェクト・マスクが、元の開始画素を含んだ接続したオブジェク ト領域を含むようになるこのオブジェクト・マスクは、符号化器1600に供給する この特殊なオブジェクトに対する型情報である。次に、新たに形成されたオブジ ェクト・マスクに属する領域マスク中の画素を、1970にてそれ自身をマスクする (例えば、その値を0と設定する)。この処理を1980と1981で繰り返す。同じ深 度領域に多くのオブジェクトが存在すれば、ひとつまたは複数の付加的オブジェ クトとして認証する残された画素をマークする。全てのオブジェクトがこのよう に処理された後、1980と1982にてゼロ値化された画素と共に、領域マスクが残さ れる。 各オブジェクト・マスクは、深度範囲IDと共に異なった番号でラベル化される 。その番号は、一意にオブジェクトを認証するものである。例えば、最初の深度 範囲認証と、第二にその範囲内のオブジェクト番号を認証するのに、2バイトが 利用可能である。範囲毎に、より多くの範囲またはオブジェクトを使うために、 長いコードを利用できる。ヒエラルヒー的オブジェクトIDを使用する利は、前景 にどんなオブジェクトがあるか、背景にどんなオブジェクトがあるかを容易に認 証できることである。 一時的構成要素を考慮するために、VOPをひとつのフレームから次のフレーム に追跡し、ひとつのフレームから次のフレームの型の相違、ひとつのフレームか ら次のフレームの深度範囲の相違の両方を考慮して、VOPが同じVOに属すか否か を決定する。小さな形と深度の相違を持つVOPは、同じVOの一部分とみなされる 。バンド幅の必要条件を最小化するための低いフレーム・レートで、符号化器は 動作するが、オブジェクトを十分に追跡するよう、オブジェクト検知サブシステ ムは1秒あたり最高30フレームで動作可能である。 再び、図19では、1990で、すぐに続くフレームからの格納されたVOPのひとつ として、現在のフレームからのVOPのひとつを選択する。2つのVOPの型の違いを 2000にて、前のフ レームからのVOPの最近傍の画素と共に、現在のVOPの境界画素の座標の違いを絶 対値の合計として、計算する。水平・垂直方向に違いを合計して、深度差異の絶 対値も合計して、2つのVOPの違いの評価を行う。 すぐ次に続くフレームに対し、2010と2011にてもっと多くのVOPがある場合、2 012で、異なる過去のVOPを選択し、2つのVOPの型の違いを計算する。2010と201 3にて過去のフレームがもうなければ、2020にて前のフレームで最近傍のVOPを供 給するVOに現在のVOPを割当てる。前のフレームにもうVOPがなければ、新しいVO をつくる。 2030,2031にて、現在のVOPに追加的なものがあれば、2032で新しい現在のフ レームを選択し、2000から2030のステップを繰り返し、この処理を繰り返す。マ スク中の全てのVOPが映像オブジェクトに割当てた場合、新しいマスクを2040と2 041にて生成してもよく、この処理ステップ1930から2030までを繰り返す。2040 、2042で、全ての映像オブジェクトが認証されると、2050にてオブジェクト認証 信号を生成し、マルチプレクサ1740に送る(図17)。 上述は、単に本発明の原理を示すもである。出願人の示唆の観点にて、記載の 実施例に対する様々な形が、当業者にとって明らかである。例えば、図15に示す 実施例にて生成された映像オブジェクト情報が二次元である一方、カメラ100で 直接生成し、復号器に送られる3次元深度情報を符号化することも可能である。 この符号化によって、回転、カスタム・ライティングのようなオブジェクトの取 扱いが、圧縮後にも行うことができる。 更に、より洗練されたレート制御技術を使うこともできる。例えば、システム が異なるオブジェクト(例えば、人間の顔、紙など)の意味を認証でき、それら に自動的に適当なビット・レートか品質レベルを割当てる。意味は、2次元型情 報、または深度感知カメラによって供給される3次元深度情報から得ることがで きる。このように、本発明の精神および範囲において、本発明の精神および範囲 において当業者は、ここでは明示しないが、数多くのシステムと方法を提案し、 本発明の原理を具現化できることが、認められよう。
【手続補正書】 【提出日】平成11年4月16日(1999.4.16) 【補正内容】 1.画素の2次元情報を具えるビデオ情報のフィールド又はフレームを符号化す るとともに符号化を向上させるために前記画素の各々の深さ成分を利用する装 置であって、 (a)前記ビデオ情報のフレーム又はフィールドを受信するとともに、受信 した前記ビテオ情報のフレーム又はフィールドから圧縮ビデオ信号を発生させ 、前記ビテオ情報のフィールド又はフレームの一部に対応するデータを量子化 するマルチモード量子化器を有するエンコーダと、 (b)受信した前記ビデオ情報に対応する深さ情報を受信するとともに、受 信した前記フィールド又はフレームの各画素を、前記受信したフレーム又はフ ィールド内の変動する知覚的な重要度の1個以上の領域のうちの1個に関連さ せるオブジェクトマップを発生させるオブジェクトセグメント化回路と、 (c)前記オブジェクトセグメント化回路及びマルチモード量子化器に結合 され、前記オブジェクトマップを受信するとともに、前記オブジェクトマップ に応答して前記マルチモード量子化器に信号を供給し、前記オブジェクトマッ プによって表される前記領域の知覚的な重要度を反映するような量子化モード を選択するレートコントローラとを具えることを特徴とする装置。 2.前記エンコーダを、MPEG−2に従うビットストリームを発生させること ができる可変ビットレートエンコーダとしたことを特徴とする請求の範囲1記 載の装置。 3.前記オブジェクトセグメント化回路が、 (1)前記深さ情報を受信するとともに、前記深さ情報のヒストグラムを演 算して、予め設定された値の範囲に対して予め設定された深さ値を有する画素 数を発生させるヒストグラム発生回路と、 (2)このヒストグラム発生回路に結合され、発生した前記ヒストグラムを 受信するとともに、予め設定された値より下の前記ヒストグラムの全ての値を 零に設定して、クリップされたヒストグラムを発生させる第1論理回路と、 (3)この第1論理回路に結合され、前記クリップされたヒストグラムを受 信するとともに、前記クリップされたヒストグラムを操作して、n個の相違す る深さのしきい値を有するn領域の境界を見つける第2論理回路と、 (4)この第2論理回路に結合され、前記n個の相違するしきい値を受信す るとともに、前記n個の相違するしきい値に基づいて前記深さ情報を量子化し て、前記オブジェクトマップを発生させる可変ステップ量子化回路とを具える ことを特徴とする請求の範囲1記載の装置。 4.前記ヒストグラム発生回路が、 (i)前記深さ情報を受信するとともにそれを一時的に格納するバッファと 、 (ii)このバッファに結合され、前記深さ情報をメモリアドレスとして前記 バッファから受信するとともに、ヒストグラム値を前記メモリアドレスとして 格納するメモリと、 (iii)このメモリに結合され、前記メモリのアドレスロケーションからヒ ストグラム値を読出し、前記ヒストグラム値を更新し、更新された前記ヒスト グラム値を前記メモリのアドレスロケーションに供給する論理回路とを具える ことを特徴とする請求の範囲1記載の装置。 5.前記エンコーダを可変ビットレートエンコーダとし、 (d)予め選択された記憶容量を有し、発生した前記圧縮ビデオ信号を受信 し及びそれを一時的に格納するとともに、オーバーフロー状態を表す信号を前 記レートコントローラに供給するビデオバッファを更に具え、 前記レートコントローラから前記マルチモード量子化器に供給された信号が 前記オーバフロー状態を表す信号に応答して、選択された前記量子化モードが 、前記記憶容量によって制限される前記領域の知覚的な重要度を反映するよう にしたことを特徴とする請求の範囲1記載の装置。 6.(e)前記オブジェクトセグメント化回路及びレートコントローラに結合さ れ、ビデオデータの現在のマクロブロックを変動する知覚的な重要度の領域の 1個に割当てるとともに、割り当てられた前記領域を表す信号を前記レートコ ントローラに供給するマクロブロックラベリング回路を更に具え、 前記レートコントローラから前記マルチモード量子化器に供給される信号が 、割り当てられた前記領域を反映するようにしたことを特徴とする請求の範囲 6 記載の装置。 7.前記ビデオデータの現在のマクロブロックを、前記ビデオデータのマクロブ ロックに対応する前記オブジェクトマップのロケーションによって識別された 1個以上の領域の最高の知覚的な重要度を有する領域に割り当てたことを特徴 とする請求の範囲6記載の装置。 8.前記エンコーダが、圧縮ビデオデータを前記ビデオバッファに出力する際に 出力信号を発生させ、前記マクロブロックラベリング回路が、割り当てられた 前記領域に関連するターゲットビットレートを表す信号を発生させ、 (f)前記ビデオバッファに結合され、クロック信号を前記バッファに供給 するクロック信号発生回路を更に具え、 前記ビデオバッファが、前記クロック信号に応答して予め設定された量の前 記圧縮ビデオ信号を出力し、 (g)前記エンコーダ、前記クロック信号発生回路、前記マイクロブロック ラベリング回路及び前記レートコントローラに結合され、前記クロック信号、 ターゲットビットレート信号及びエンコーダ出力信号を受信し、前記エンコー ダ出力信号に応答して計数を加算するとともに前記クロック信号及びターゲッ トビットレート信号に応答して計数を減算することによって前記ビデオバッフ ァに関連した仮想バッファのビット数を計数し、前記計数を表す仮想バッファ 占有信号を前記レートコントローラに供給するカウンタを更に具え、 前記レートコントローラから前記マルチモード量子化器に供給される信号が 前記仮想バッファ占有信号にも応答し、前記量子化モードが、前記ビデオバッ ファの記憶容量によって制限される前記仮想バッファキャパシティによって表 された前記領域の知覚的な重要度を反映するようにしたことを特徴とする請求 の範囲6記載の装置。 9.前記仮想バッファ占有量B1を、式Bi=Bi-1−bi−r(Rk/R)によっ て決定し、biを、前記エンコーダ出力信号によって表された現在のマクロブ ロックを符号化するのに用いられるビット数に等しくし、rを、前記クロック 信号によって表された前記ビデオバッファによって出力されたビット数に等し くし、Rkを、前記ターゲットビットレート信号によって表されたター ゲットビットレートとし、Rを、前記ビテオバッファによって維持すべき平均 出力ビットレートとしたことを特徴とする請求の範囲8記載の装置。 10.前記レートコントローラが、 前記マクロブロックラベリング回路に結合され、割り当てられた前記領域を 受信するとともに、割り当てられた前記領域が直前に割り当てられた領域と異 なるときには常にバッファサイズ変調信号を発生させるバッファサイズ論理回 路を更に具え、 前記レートコントローラから前記マルチモード量子化器に供給された新香う ゛が前記バッファサイズ変調信号にも応答し、選択された前記量子化モードが 、前記バッファサイズ変調信号によって変調されるとともに前記ビデオバッフ ァの記憶容量によって制限される仮想バッファ容量によって表される前記領域 の知覚的な重要度を反映するようにしたことを特徴とする請求の範囲8記載の 装置。 11.画素の2次元情報を具えるビテオ情報のフィールド又はフレームを符号化 するとともに符号化を向上させるために前記画素の各々の深さ成分を利用する 装置であって、 (a)前記ビデオ情報のフレーム又はフィールドと前記ビデオ情報に対応す る深さ情報の両方を発生させることができる深さ検知カメラと、 (b)この深さ検知カメラに結合され、発生した前記ビデオ情報のフレーム 又はフィールドを受信するとともに、前記ビテオ情報のフレーム又はフィール ドから圧縮ビデオ信号を発生させ、前記ビデオ情報のフィールド又はフレーム の一部に対応するデータを量子化するマルチモード量子化器を有するエンコー ダと、 (c)前記深さ検知カメラに結合され、発生した前記深さ情報を受信すると ともに、受信した前記フレーム又はフィールド内の変動する知覚的な重要度の 1個以上の領域のうちの1個を有する受信した前記フィールド又はフレームの 各画素に関連するオブジェクトマップを発生させるオブジェクトセグメント化 回路と、 (d)前記オブジェクトセグメント化回路及びマルチモード量子化器に結合 され、前記オブジェクトマップを受信するとともに、前記オブジェクトマップ に応答して、前記マルチモード量子化器に信号を供給して量子化モードを選択 し、選択した前記量子化モードが、前記オブジェクトマップによって表された 前記領域の知覚的な重要度を反映するようにしたことを特徴とする装置。 12.画素の2次元情報を具えるビデオ情報のフィールド又はフレームを符号化 するとともに符号化を向上させるために前記画素の各々の深さ成分を利用する に当たり、 (a)前記ビデオ情報のフレーム又はフィールド及び受信した前記ビテオ情 報に対応する深さ情報を受信するステップと、 (b)受信した3個の情報をオブジェクトマップに変換して、受信した前記 フィールド又はフレームの各画素を、受信した前記フレーム又はフィールド内 の変動する知覚的な重要度の1個以上の領域に関連させるステップと、 (c)前記オブジェクトマップによって表された前記領域の前記知覚的な重 要度を反映する量子化モードを選択するために前記オブジェクトマップに基づ く量子化モード信号を発生させるステップと、 (d)前記量子化モード信号によって選択された前記量子化モードに従って 受信した前記ビデオ情報のフィールド又はフレームの一部に対応するデータを 量子化することによって、受信した前記ビデオ情報のフレーム又はフィールド に対応する圧縮ビデオ信号を発生させるステップとを具えることを特徴とする 方法。 13.前記ステップ(d)で発生した圧縮ビデオ信号を、MPEG−2に従うビ ットストリームとすることを特徴とする請求の範囲12記載の方法。 14.前記変換ステップが、 (1)受信した前記深さ情報のヒストグラムを算出して、予め設定された値 の範囲に対する予め設定された深さ値を有する画素数を発生させること、 (2)予め設定されたしきい値より下の前記ヒストグラムの全ての値を零に セットして、クリップされたヒストグラムを発生させること、 (3)n個の相違する深さのしきい値を有するn個の領域の境界を見つける ためにクリップされた前記ヒストグラムを操作すること、 (4)前記n個の相違するしきい値に基づく前記深さ情報を量子化すること を具えることを特徴とする請求の範囲12記載の方法。 15.発生した前記圧縮ビデオ信号を可変ビットレート信号とし、 (e)発生した前記圧縮ビデオ信号をバッファリングするステップと、 (f)オーバーフロー状態のバッファリングを表す信号を発生させるステッ プとを更に具え、 前記量子化モード信号が前記オーバーフロー信号にも応答して、選択した前 記量子化モードが、バッファリング制限によって制約される前記領域の前記知 覚的な情報を反映させることを特徴とする請求の範囲12記載の方法。 16.前記量子化モード信号を発生させる前に、受信した前記ビデオ情報のフレ ーム又はフィールド内のビデオデータの現在のマクロブロックを、変動する知 覚的な重要度の前記領域の1個に割り当て、前記量子化モード信号が、割り当 てられた前記情報を反映することを特徴とする請求の範囲15記載の方法。 17.前記割当てステップが、 前記ビデオデータの現在のマクロブロックを、前記ビデオデータのマクロブ ロックに対応する前記オブジェクトマップのロケーションによって識別された 1個以上の領域の最高の知覚的な重要度を有する領域に割り当てることを具え ることを特徴とする請求の範囲16記載の方法。 18.前記量子かモード信号を発生させる前に割り当てられた前記情報に関連す るターゲットビットレートを表す信号を発生させるステップを更に具えること を特徴とする請求の範囲16記載の方法。 19.(i)前記圧縮ビテオ信号情報がバッファリングされると常に仮想バッフ ァの占有量を表す仮想バッファ計数を加算するステップと、 (ii)バッファリングされた前記圧縮ビデオ信号情報が前記ターゲットビッ トレート信号に依存する量を出力すると常に、前記計数を減算するステップと 、 (iii)前記計数を表す仮想バッファ占有信号を発生させるステップとを更 に具え、 前記量子化モード信号が前記仮想バッファ占有信号にも応答し、選択した前 記量子化モードが、バッファリング制限によって限定される前記仮想バッファ 占有量によって表された前記領域の知覚的な重要度を反映することを特徴とす る請求の範囲18記載の方法。 20.前記仮想バッファ占有量B1を、式Bi=Bi-1−bi−r(Rk/R)によ って決定し、biを、前記エンコーダ出力信号によって表された現在のマクロ ブロックを符号化するのに用いられるビット数に等しくし、rを、前記クロッ ク信号によって表された前記ビデオバッファによって出力されたビット数に等 しくし、Rkを、前記ターゲットビットレート信号によって表されたターゲッ トビットレートとし、Rを、前記バッファリング制限を防止するのに要求され る平均出力ビットレートとしたことを特徴とする請求の範囲19記載の方法。 21.割り当てられた前記領域が直前に割り当てられた領域と異なる場合には常 に、前記量子化モード信号を発生させる前にバッファサイズ変調信号を発生さ せるステップを更に具え、 前記量子化モード信号が前記バッファサイズ変調信号にも応答し、選択した 前記量子化モードが、前記バッファサイズ変調信号によって変調されるととも に前記バッファリング制限によって制限される前記仮想バッファ容量によって 表された前記領域の知覚的な重要度を反映することを特徴とする請求の範囲1 6記載の方法。 22.符号化を向上させるためにビデオ情報の深さ成分を用いて前記ビデオ情報 のオブジェクトに基づく符号化を実行する装置であって、 (a)前記ビデオ情報のフレームに対する深さ情報を受信するとともに、前 記ビデオ情報のフレーム内で1個以上のオブジェクトの形状を表す受信した前 記深さ情報に基づいて1個以上のオブジェクト識別信号を発生させるオブジェ クトセグメント化回路と、 (b)このオブジェクトセグメント化回路に結合され、受信した前記深さ情 報信号及び1個以上のオブジェクト識別信号に対応する前記ビデオ情報のフレ ームを受信するとともに、前記1個以上のオブジェクト識別信号によって識別 された前記1個以上のオブジェクトにほぼ対応する前記ビデオ情報の一部を表 す圧縮ビテオ信号を発生させるエンコーダとを具えることを特徴とする装置。 23.前記オブジェクトセグメント化回路が、 (1)前記深さ情報を受信するとともに、前記深さ情報をオブジェクトマッ プに変換して、前記ビテオ情報のフレーム内の各画素を、前記フレーム内の変 動する知覚的な重要度の1個以上の領域に関連させるオブジェクトマップ発生 回路と、 (2)前記オブジェクトマップ発生回路に結合され、前記オブジェクトマッ プを受信するとともに、選択された領域にほぼ対応する前記フレーム内の画素 を表す深さ領域マスクを発生させるために前記オブジェクトマップをマスクす る領域マスク回路と、 (3)前記領域マスク回路に結合され、発生した前記領域マスクを受信し、 前記領域マスクによって表された選択された前記領域内の1個以上の個別のオ ブジェクトを識別し、前記1個以上のオブジェクト識別信号を発生させて、前 記オブジェクト識別情報の各々が1個以上の識別された前記個別のオブジェク トを識別するビデオオブジェクト選択回路手とを具えることを特徴とする請求 の範囲22記載の装置。 24.前記オブジェクトマップ発生回路が、 (i)前記深さ情報を受信するとともに、前記深さ情報のヒストグラムを演 算して、予め設定された値の範囲に対する予め設定された深さ値を有する画素 数を発生させるヒストグラム発生回路と、 (ii)このヒストグラム発生回路に結合され、発生した前記ヒストグラムを 受信するとともに、予め設定されたしきい値より下の前記ヒストグラムの全て の値を零に設定して、クリップされたヒストグラムを発生させる第1論理回路 と、 (iii)この第1論理回路に結合され、クリップされた前記ヒストグラムを 受信するとともに、n個の相違する深さのしきい値を有するn個の領域の境界 を見つけるためにクリップされた前記ヒストグラムを走査する第2論理回路と 、 (iv)この第2論理回路に結合され、前記n個の相違するしきい値及び前記 深さ情報を受信するとともに、前記n個の相違するしきい値に基づいて前記深 さ情報を量子化して、前記オブジェクトマップを発生させる可変ステップ量子 化回路とを具えることを特徴とする請求の範囲23記載の装置。 25.前記ヒストグラム発生回路が、 (A)前記深さ情報を受信し及び一時的に格納するバッファと、 (B)このバッファに結合され、前記深さ情報をメモリアドレスとして前記 バッファから受信するとともに、ヒストグラム値を前記メモリアドレスとして 格納するメモリと、 (C)このメモリに結合され、前記メモリのアドレスロケーションからヒス トグラム値を読出し、このヒストグラム値を更新し、更新された前記ヒストグ ラム値を前記メモリのアドレスロケーションに供給する論理回路とを具えるこ とを特徴とする請求の範囲24記載の装置。 26.前記エンコーダが、受信した前記ビデオ情報のフィールドの一部に対応す るデータを量子化するマルチモード量子化器を有し、 (c)前記オブジェクトセグメント化回路及びマルチモード量子化器に結合 され、前記1個以上のオブジェクト識別信号を受信するとともに、前記オブジ ェクト識別信号に応答して、前記マルチモード量子化器に信号を供給して量子 化モードを選択し、量子化すべきデータの一部の各々に対して、選択した前記 量子化モードが、量子化すべき前記データの一部に関連する前記1個以上のオ ブジェクト識別信号のうちの1個によって識別されたオブジェクトの知覚的な 重要度を反映するようにしたことを特徴とする請求の範囲21記載の装置。 27.前記エンコーダを可変ビットレートエンコーダとし、 (d)予め選択された記憶容量を有し、前記エンコーダ及びレートコントロ ーラに結合され、発生した前記圧縮ビデオ信号を受信し及び一時的に格納する とともに、オーバーフロー状態を表す新香う゛を前記レートコントローラに供 給するビデオバッファを更に具え、 前記レートコントローラから前記マルチモード量子化器に供給される信号が 、前記オーバーフロー信号にも応答し、選択した前記量子化モードが、前記ビ テオバッファの記憶容量によって制限される前記オブジェクトの知覚的な重要 度を反映するようにしたことを特徴とする請求の範囲26記載の装置。 28.量子化すべき前記データの一部をマクロブロックとし、 (e)前記オブジェクトセグメント化回路及びレートコントローラに結合さ れ、前記ビデオデータの現在のマクロブロックを前記オブジェクトのうちの1 個に割り当てるとともに、割り当てられた前記オブジェクトを表す信号を前記 レートコントローラに割り当てるマクロブロックラベリング回路を更に具え、 前記レートコントローラから前記マルチモード量子化器に供給される信号が 、割り当てられた前記オブジェクトを反映するようにしたことを特徴とする請 求の範囲27記載の装置。 29.前記エンコーダが、前記圧縮ビデオデータを前記ビデオバッファに出力す る際に出力信号を発生させ、前記マクロブロックラベリング回路が、割り当て られた前記オブジェクトに関連したターゲットビットレートを表す信号を発生 させ、 (f)前記ビデオバッファに結合されるとともに前記バッファにクロック信 号を供給するクロック信号発生回路を更に具え、 前記ビデオバッファが、前記クロック信号に応答して予め設定された量の前 記圧縮ビデオ信号を出力し、 (g)前記エンコーダ、クロック信号発生回路、マクロブロックラベリング 回路及びレートコントローラに結合され、前記クロック信号、ターゲットビッ トレート信号及びエンコーダ出力信号を受信し、前記エンコーダ出力信号に応 答して計数を加算し及び前記クロック信号及びターゲットビットレート信号に 応答して計数を減算することによって前記ビテオバッファに関連した仮想バッ ファ内のビット数を計数して、前記仮想バッファの占有量を決定し、かつ、前 記計数を表す仮想バッファ占有信号を前記レートコントローラに供給するカウ ンタを更に具え、 前記レートコントローラから前記マルチモード量子化器に供給された信号が 、前記仮想バッファ占有信号にも応答し、選択した前記量子化モードが、前記 ビデオバッファの記憶容量によって制限された前記仮想バッファ容量によって 表された前記オブジェクトの知覚的な重要度を反映するようにしたことを特徴 とする請求の範囲28記載の装置。 30.前記仮想バッファ占有量B1を、式Bi=Bi-1−bir(Rk/R) によって決定し、biを、前記エンコーダ出力信号によって表された現在のマ クロブロックを符号化するのに用いられるビット数に等しくし、rを、前記ク ロック信号によって表された前記ビデオバッファによって出力されたビット数 に等しくし、Rkを、前記ターゲットビットレート信号によって表されたター ゲットビットレートとし、Rを、前記ビデオバッファによって維持すべき平均 出力ビットレートとしたことを特徴とする請求の範囲29記載の装置。 31.前記レートコントローラが、 前記マクロブロックラベリング回路に結合され、割り当てられた前記オブジ ェクトを受信するとともに、割り当てられた前記オブジェクトが直前に割り当 てられたオブジェクトと相違する場合には常にバッファサイズ変調信号を発生 させるバッファサイズ論理回路を更に具え、 前記レートコントローラから前記マルチモード量子化器に供給される信号が 、前記バッファサイズ変調信号にも応答し、選択された前記量子化モードが、 前記バッファサイズ変調信号によって変調されるとともに前記ビデオバッファ の記憶容量によって制限される前記仮想バッファ容量によって表された前記オ ブジェクトの知覚的な重要度を反映するようにしたことを特徴とする請求の範 囲29記載の装置。 32.符号化を向上させるためにビデオ情報の深さ成分を用いて前記ビデオ情報 のオブジェクトに基づく符号化を実行する装置であって、 (a)前記ビデオ情報のフレームと前記ビテオ情報に対応する深さ情報の両 方をリアルタイムで発生させることができる深さ検知カメラと、 (b)この深さ検知カメラに結合され、発生した前記深さ情報を受信し、か つ、前記ビデオ情報の前記フレーム内の1個以上のオブジェクトの形状を表す 受信した前記深さ情報に基づいて1個以上のオブジェクト識別信号を発生させ るオブジェクトセグメント化回路と、 (c)前記オブジェクトセグメント化回路及び深さ検知カメラに結合され、 受信した深さ情報に対応する発生したビデオ情報のフレーム及び1個以上のオ ブジェクト識別信号を受信し、かつ、前記1個以上のオブジェクト識別信号に よって識別された前記1個以上のオブジェクトにほぼ対応する前記ビデオ情報 の一部を表す圧縮ビデオ信号を発生させるエンコーダとを具えることを特徴と する装置。33.符号化を増強させるためにビデオ信号の深さ成分を用いてビ デオ情報のオブジェクトに基づく符号化を実行するに当たり、 (a)ビデオ情報のフレーム及び受信した前記ビデオ情報に対応する深さ情 報を受信するステップと、 (b)前記ビデオ情報のフレーム内で1個以上のオブジェクトの形状を表す 受信した前記深さ情報に基づいて1個以上のオブジェクト識別信号を発生させ るステップと、 (c)前記1個以上のオブジェクト識別信号によって識別された1個以上の オブジェクトにほぼ対応する受信した前記ビデオ情報の一部を表す圧縮ビデオ 信号を発生させるステップとを具えることを特徴とする方法。 34.前記ステップ(b)が、 (1)受信した前記深さ情報をオブジェクトマップに変換して、前記ビデオ 情報のフレーム内の各画素を、前記フレームの変動する知覚的な重要度の1個 以上の領域のうちの1個に関連させるステップと、 (2)予め選択した領域にほぼ対応する前記フレーム内の画素を表す深さ領 域マスクを発生させるために前記オブジェクトマップをマスキングするステッ プと、 (3)前記深さ領域マスクによって表された予め選択された前記領域内で1 個以上の個別のオブジェクトを識別するステップと、 (4)前記1個以上のオブジェクト識別信号を発生させて、前記オブジェク ト識別信号の各々が、識別された前記1個以上の個別のオブジェクトのうちの 1個を識別するステップとを具えることを特徴とする請求の範囲33記載の方 法。 35.前記変換ステップが、 (i)受信した前記深さ情報のヒストグラムを算出して、予め設定された値 の範囲に対する予め設定された深さ値を有する画素数を発生させるステップと 、 (ii)予め設定されたしきい値より下の前記ヒストグラムの全ての値を零に 設定して、クリップされたヒストグラムを発生させるステップと、 (iii)n個の相違する深さのしきい値を有するn個の領域の境界を見つけ るためにクリップした前記ヒストグラムを走査するステップと、 (iv)前記n個の相違するしきい値に基づいて前記深さ情報を量子化するス テップとを具えることを特徴とする請求の範囲34記載の方法。」 36.前記識別ステップが、 (i)マスクされていない値を有する画素を見つけるまで前記深さ領域マス クを走査するステップと、 (ii)前記マスクされていない値を有する他の任意の隣接する画素を見つけ るために前記マスク内の隣接する画素を検索するステップと、 (iii)前記深さ領域内のオブジェクトに対応するビデオオブジェクト面と してマスクされていない値を有する隣接する見つけられた全ての画素を識別す るために、隣接する画素がマスクされない値を有する用になるまで、前記検索 ステップを繰り返すステップと、 (iv)前記深さ領域マスクから前記オブジェクトをマスクするステップと、 (v)前記深さ領域マスク内の全ての画素がマスクされるまで、ステップ( i)〜(iv)を繰り返して、受信したビデオ情報のフレーム内の1個以上の ビデオオブジェクト面を識別するステップとを具えることを特徴とする請求の 範囲34記載の方法。 37.前記識別ステップが、 (vi)前記1個以上のビデオオブジェクト面のうちの1個及び前記ビデオ情 報の直前のフレームに関連ずる1個以上のオブジェクト面のうちの1個を選択 するステップと、 (vii)選択した前記ビデオオブジェクト面と選択した以前のフレームビデ オオブジェクト面とを比較して、それらの間の深さの差を決定するステップと 、 (viii)1個以上の以前の前記フレームビデオオブシェクト面の相違するも のを選択した後、1個以上の以前の前記フレームビデオオブジェクト面が選択 されるまでステップ(vii)を繰り返すステップと、 (ix)選択した前記ビデオオブジェクト面を、決定された前記深さの差の全 てよりも深さの差が小さくなる1個以上の以前の前記フレームビデオオブジェ クト面の1個に対応するビテオオブジェクトに割り当てるステップと、 (x)前記1個以上のビデオオブジェクト面の全てを選択しない場合、前記 1個以上のビデオオブジェクト面のうちの相違するものを選択した後にステッ プ(vii)〜(ix)を繰り返して、前記1個以上のビデオオブジェクト面の各 々がオブジェクトを選択するステップとを具えることを特徴とする請求の範囲 36記載の方法。 38.前記ステップ(c)が、受信した前記ビデオ情報のフィールドの一部に対 応するデータを量子化することを有し、 (d)前記オブジェクト識別信号によって識別されたオブジェクトの知覚的 な次希有用度を反映する量子化モードを選択するために、前記データに対応す るオブジェクト識別信号に基づく量子化モード信号を発生させ、前記データを 、選択した前記量子化モードに基づいて量子化するステップを更に具えること を特徴とする請求の範囲33記載の方法。 39.発生した前記圧縮ビデオ信号を可変ビットレート信号とし、 (e)発生した前記圧縮ビデオ信号をバッファリングするステップと、 (f)バッファリングオーバーフロー状態を表す信号を発生させるステップ とを更に具え、 前記量子化モード信号が前記オーバーフロー信号にも応答し、選択した前記 量子化モードが、バッファリング制限によって限定された前記オブジェクトの 知覚的な重要度を反映するようにしたことを特徴とする請求の範囲38記載の 方法。 40.前記量子化モード信号を発生させる前に、受信した前記ビテオ情報のフレ ーム又はフィールド内のビデオデータの現在のマクロブロックを前記オブジェ クトの1個に割り当てるステップを更に具え、 前記量子化モード信号が、割り当てられた前記オブジェクトを反映すること を特徴とする請求の範囲39記載の方法。 41.前記量子化モード信号を発生させる前に、割り当てられた前記オブジェク トに関連したターゲットビットレートを反映する信号を発生させるステップを 更に具えることを特徴とする請求の範囲40記載の方法。 42.(i)前記圧縮ビデオ信号情報がバッファリングされると常に仮想バッフ ァ占有量を表す仮想バッファ計数を加算するステップと、 (ii)バッファリングされた前記圧縮ビデオ信号情報を前記ビットレート信 号に依存する量だけ出力すると常に、前記計数を減算するステップと、 (iii)前記計数を表す仮想バッファ占有信号を発生させるステップとを更 に具え、 前記量子化モード信号が、前記仮想バッファ占有信号にも応答し、選択した 前記量子化モードが、前記バッファリング制限によって制約される前記仮想バ ッファ占有量によって表される前記オブジェクトを反映することを特徴とする 請求の範囲41記載の方法。 43.前記仮想バッファ占有量B1を、式Bi=Bi-1−bi−r(Rk/R)によ って決定し、biを、前記エンコーダ出力信号によって表された現在のマクロ ブロックを符号化するのに用いられるビット数に等しくし、rを、前記クロッ ク信号によって表された前記ビデオバッファによって出力されたビット数に等 しくし、Rkを、前記ターゲットビットレート信号によって表されたターゲッ トビットレートとし、Rを、前記バッファリング制限が発生するのを防止する のに要求される平均出力ビットレートとしたことを特徴とする請求の範囲42 記載の方法。 44.割り当てられた前記オブジェクトが以前に割り当てられたオブジェクトと 異なる場合には常に、前記量子化モード信号を発生させる前にバッファサイズ 変調信号を発生させるステップを更に具え、前記量子化モード信号が、前記バ ッファサイズ変調信号にも応答し、選択した前記量子化モードが、前記バッフ ァサイズ変調信号によって変調されるとともに前記バッファリング制限によっ て制約される前記仮想バッファ容量によって表される前記オブジェクトを反映 することを特徴とする請求の範囲40記載の方法。 45.ビデオ情報のフレームに対応する深さ情報を受信するとともに、そのビデ オ情報のフレーム内の1個以上の個別のオブジェクトを識別するオブジェクト セグメント化回路であって、 (a)前記深さ情報を受信するとともに前記深さ情報をオブジェクトマップに 変換して、前記ビデオ情報のフレーム内の各画素を、前記フレーム内の変動す る知覚的な重要度の1個以上の領域に関連させるオブジェクトマップ発生回路 を具え、 前記オブジェクトマップ発生回路が、 (1)前記深さ情報を受信するとともに前記深さ情報のヒストグラムを演算 して、予め決定された値の範囲に対する予め決定された深さ値を有する画素数 を発生させるヒストグラム発生回路と、 (2)このヒストグラム発生回路に結合され、発生した前記ヒストグラムを 受信し、予め決定されたしきい値より下の前記ヒストグラムの全ての値を零に 設定して、クリップされたヒストグラムを発生させる第1論理回路と、 (3)この第1論理回路に結合され、クリップされた前記ヒストグラムを受 信するとともに、n個の相違する深さのしきい値を有するn個の領域の境界を 見つけるためにクリップされた前記ヒストグラムを走査する第2論理回路と、 (4)この第2論理回路に結合され、前記n個の相違するしきい値及び深さ 情報を受信し、前記n個の相違するしきい値に基づいて前記深さ情報を量子化 して、前記オブジェクトマップを発生させる可変ステップ量子化回路とを具え 、 (b)前記オブジェクトマップ発生回路に結台され、前記オブジェクトマッ プを受信するとともに、選択した深さの領域にほぼ対応する前記フレーム内の 画素を表す1個以上の深さ領域マスクを発生させるために前記オブジェクトマ ップをマスクする領域マスク回路と、 (c)前記領域マスキング回路に結合され、発生した前記1個以上のマスク を受信するとともに、前記1個以上の領域マスクの各々によって表された選択 した前記1個以上の領域の各々の範囲内の1個以上の個別のオブジェクトを識 別して、各深さ領域に関連したオブジェクトの各々を個別のオブジェクトとし て識別するビデオオブジェクト選択回路とを更に具えることを特徴とするオブ ジェクトセグメント化回路。 46.前記ヒストグラム発生回路が、 (i)前記深さ情報を受信するとともにそれを一時的に格納するバッファと 、 (ii)前記バッファに結合され、前記深さ情報をメモリアドレスとして前記 バッファから受信し、かつ、ヒストグラム値を前記メモリアドレスとして記憶 するメモリと、 (iii)前記メモリに結合され、前記メモリのアドレスロケーションからヒ ストグラム値を読み出し、前記ヒストグラム値を更新し、かつ、更新した前記 ヒストグラム値を前記メモリのアドレスロケーションに供給する論理回路とを 具えることを特徴とする請求の範囲45記載のオブジェクトセグメント化回路 。 47.ビデオ情報のフレームに対応する深さ情報内の1個以上の個別のオブジェ クトを識別する方法であって、 (a)前記深さ領域を受信するステップと、 (b)受信した前記深さ領域をオブジェクトマップに変換して、前記ビデオ 情報のフレーム内の各画素を、前記フレーム内の変動する知覚的な重要度の1 個以上の領域のうちの1個に関連させるステップとを具え、 前記変換ステップが、 (1)受信した前記深さ情報のヒストグラムを算出して、予め設定された値 の範囲に対する予め設定された深さ値を有する画素数を発生させるステップと 、 (2)予め設定されたしきい値より下の前記ヒストグラムの全ての値を零に 設定して、クリップされたヒストグラムを発生させるステップと、 (3)n個の相違する深さのしきい値を有するn個の領域の境界を見つける ためにクリップされた前記ヒストグラムを走査するステップと、 (4)前記n個の相違するしきい値に基づいて前記深さ情報を量子化するス テップとを具え、 (c)選択した深さの領域にほぼ対応する前記フレーム内の画素を表す1個 以上の深さ領域マスクを発生させるために前記オブジェクトマップをマスキン グするステップと、 (d)前記1個以上の領域マスクによって表された前記1個以上の深さ領域 の各々の範囲内の1個以上のオブジェクトを識別して、各深さ領域に関連した 深さ領域の各々を個別のオブジェクトとして識別することを特徴とする方法。 48.前記識別ステップが、 (i)マスクされていない値を有する画素を見つけるまで、予め選択された 深さ領域マスクを走査するステップと、 (ii)マスクされていない値を有する他の任意の隣接する画素を見つけるた めに、前記マスク内の隣接する画素を探索するステップと、 (iii)マスクされていない値を有する見つけられた隣接する全ての画素を 、前記深さ領域内のオブジェクトに対応するビデオオブジェクト面として識別 するまで、前記探索ステップを繰り返すステップと、 (iv)前記深さ領域マスクから前記オブジェクトをマスキングするステップ と、 (v)前記深さ領域マスク内の全ての画素をマスキングするまでステップ( ii)〜(iv)を繰り返して、受信した前記ビデオ情報のフレーム内の1個以上 のビデオオブジェクト面を識別するステップとを具えることを特徴とする請求 の範囲47記載の方法。 49.前記識別ステップが、 (vi)前記1個以上のビデオオブジェクト面のうちの1個及び前記ビデオ情 報の以前のフレームに関連した前記1個以上のビテオオブジェクト面のうちの 1個を選択するステップと、 (vii)選択した前記ビデオオブジェクト面及び選択した以前のフレームビ デオオブジェクト面とを比較して、それらの間の深さの差を決定するステップ と、 (viii)1個以上の前記以前のフレームビデオオブジェクト面の全てを選択 しない場合、前記1個以上の以前のフレームビデオオブジェクト面のうちの相 違するものを選択した後にステップ(vii)を繰り返すステップと、 (ix)選択した前記ビデオオブジェクト面を、設定された前記深さの差の全 てよりも深さの差が小さい前記1個以上の以前のフレームビデオオブジェクト 面の1個に対応するビデオオブジェクトに割り当てるステップと、 (x)前記1個以上のビデオオブジェクト面の全てを選択しない場合、前記 1個以上のビデオオブジェクト面の相違するものを選択した後ステップ(vii )〜(ix)を繰り返し、前記1個以上のビデオオブジェクト面の各々がオブジ ェクトを識別するステップとを具えることを特徴とする請求の範囲47記載の 方 法。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 アナスタシア ディミトリス アメリカ合衆国 ニュージャージー州 07670 テナフライ イングル ストリー ト 286 (72)発明者 チャン シ―フ アメリカ合衆国 ニューヨーク州 10027 ニューヨーク リヴァーサイド ドライ ヴ 560 アパートメント 18ケイ (72)発明者 ナイヤ シュリー アメリカ合衆国 ニューヨーク州 10027 ニューヨーク リヴァーサイド ドライ ヴ 560 アパートメント 15ディー

Claims (1)

  1. 【特許請求の範囲】 1.画素の2次元情報を具えるビデオ情報のフィールド又はフレームを符号化す るとともに符号化を向上させるために前記画素の各々の深さ成分を利用する装 置であって、 (a)前記ビデオ情報のフレーム又はフィールドを受信するとともに、受信 した前記ビデオ情報のフレーム又はフィールドから圧縮ビデオ信号を発生させ 、前記ビデオ情報のフィールド又はフレームの一部に対応するデータを量子化 するマルチモード量子化器を有するエンコーダと、 (b)受信した前記ビデオ情報に対応する深さ情報を受信するとともに、受 信した前記フィールド又はフレームの各画素を、前記受信したフレーム又はフ ィールド内の変動する知覚的な重要度の1個以上の領域のうちの1個に関連さ せるオブジェクトマップを発生させるオブジェクトセグメント化回路と、 (c)前記オブジェクトセグメント化回路及びマルチモード量子化器に結合 され、前記オブジェクトマップを受信するとともに、前記オブジェクトマップ に応答して前記マルチモード量子化器に信号を供給し、前記オブジェクトマッ プによって表される前記領域の知覚的な重要度を反映するような量子化モード を選択するレートコントローラとを具えることを特徴とする装置。 2.前記エンコーダを、MPEG−2に従うビットストリームを発生させること ができる可変ビットレートエンコーダとしたことを特徴とする請求の範囲1記 載の装置。 3.前記オブジェクトセグメント化回路が、 (1)前記深さ情報を受信するとともに、前記深さ情報のヒストグラムを演 算して、予め設定された値の範囲に対して予め設定された深さ値を有する画素 数を発生させるヒストグラム発生回路と、 (2)このヒストグラム発生回路に結合され、発生した前記ヒストグラムを 受信するとともに、予め設定された値より下の前記ヒストグラムの全ての値を 零に設定して、クリップされたヒストグラムを発生させる第1論理回路と、 (3)この第1論理回路に結合され、前記クリップされたヒストグラムを受 信するとともに、前記クリップされたヒストグラムを操作して、n個の相違す る深さのしきい値を有するn領域の境界を見つける第2論理回路と、 (4)この第2論理回路に結合され、前記n個の相違するしきい値を受信す るとともに、前記n個の相違するしきい値に基づいて前記深さ情報を量子化し て、前記オブジェクトマップを発生させる可変ステップ量子化回路とを具える ことを特徴とする請求の範囲1記載の装置。 4.前記ヒストグラム発生回路が、 (i)前記深さ情報を受信するとともにそれを一時的に格納するバッファと 、 (ii)このバッファに結合され、前記深さ情報をメモリアドレスとして前記 バッファから受信するとともに、ヒストグラム値を前記メモリアドレスとして 格納するメモリと、 (iii)このメモリに結合され、前記メモリのアドレスロケーションからヒ ストグラム値を読出し、前記ヒストグラム値を更新し、更新された前記ヒスト グラム値を前記メモリのアドレスロケーションに供給する論理回路とを具える ことを特徴とする請求の範囲1記載の装置。 5.前記エンコーダを可変ビットレートエンコーダとし、 (d)予め選択された記憶容量を有し、発生した前記圧縮ビデオ信号を受信 し及びそれを一時的に格納するとともに、オーバーフロー状態を表す信号を前 記レートコントローラに供給するビデオバッファを更に具え、 前記レートコントローラから前記マルチモード量子化器に供給された信号が 前記オーバフロー状態を表す信号に応答して、選択された前記量子化モードが 、前記記憶容量によって制限される前記領域の知覚的な重要度を反映するよう にしたことを特徴とする請求の範囲1記載の装置。 6.(e)前記オブジェクトセグメント化回路及びレートコントローラに結合さ れ、ビデオデータの現在のマクロブロックを変動する知覚的な重要度の領域の 1個に割当てるとともに、割り当てられた前記領域を表す信号を前記レートコ ントローラに供給するマクロブロックラベリング回路を更に具え、 前記レートコントローラから前記マルチモード量子化器に供給される信号が 、割り当てられた前記領域を反映するようにしたことを特徴とする請求の範囲 6 記載の装置。 7.前記ビデオデータの現在のマクロブロックを、前記ビデオデータのマクロブ ロックに対応する前記オブジェクトマップのロケーションによって識別された 1個以上の領域の最高の知覚的な重要度を有する領域に割り当てたことを特徴 とする請求の範囲6記載の装置。 8.前記エンコーダが、圧縮ビデオデータを前記ビデオバッファに出力する際に 出力信号を発生させ、前記マクロブロックラベリング回路が、割り当てられた 前記領域に関連するターゲットビットレートを表す信号を発生させ、 (f)前記ビデオバッファに結合され、クロック信号を前記バッファに供給 するクロック信号発生回路を更に具え、 前記ビデオバッファが、前記クロック信号に応答して予め設定された量の前 記圧縮ビデオ信号を出力し、 (g)前記エンコーダ、前記クロック信号発生回路、前記マイクロブロック ラベリング回路及び前記レートコントローラに結合され、前記クロック信号、 ターゲットビットレート信号及びエンコーダ出力信号を受信し、前記エンコー ダ出力信号に応答して計数を加算するとともに前記クロック信号及びターゲッ トビットレート信号に応答して計数を減算することによって前記ビデオバッフ ァに関連した仮想バッファのビット数を計数し、前記計数を表す仮想バッファ 占有信号を前記レートコントローラに供給するカウンタを更に具え、 前記レートコントローラから前記マルチモード量子化器に供給される信号が 前記仮想バッファ占有信号にも応答し、前記量子化モードが、前記ビデオバッ ファの記憶容量によって制限される前記仮想バッファキャパシティによって表 された前記領域の知覚的な重要度を反映するようにしたことを特徴とする請求 の範囲6記載の装置。 9.前記仮想バッファ占有量B1を、式Bi=Bi-1−bi−r(Rk/R)によっ て決定し、biを、前記エンコーダ出力信号によって表された現在のマクロブ ロックを符号化するのに用いられるビット数に等しくし、rを、前記クロック 信号によって表された前記ビデオバッファによって出力されたビット数に等し くし、Rkを、前記ターゲットビットレート信号によって表されたター ゲットビットレートとし、Rを、前記ビデオバッファによって維持すべき平均 出力ビットレートとしたことを特徴とする請求の範囲8記載の装置。 10.前記レートコントローラが、 前記マクロブロックラベリング回路に結合され、割り当てられた前記領域を 受信するとともに、割り当てられた前記領域が直前に割り当てられた領域と異 なるときには常にバッファサイズ変調信号を発生させるバッファサイズ論理回 路を更に具え、 前記レートコントローラから前記マルチモード量子化器に供給された新香う ゛が前記バッファサイズ変調信号にも応答し、選択された前記量子化モードが 、前記バッファサイズ変調信号によって変調されるとともに前記ビデオバッフ ァの記憶容量によって制限される仮想バッファ容量によって表される前記領域 の知覚的な重要度を反映するようにしたことを特徴とする請求の範囲8記載の 装置。 11.画素の2次元情報を具えるビデオ情報のフィールド又はフレームを符号化 するとともに符号化を向上させるために前記画素の各々の深さ成分を利用する 装置であって、 (a)前記ビデオ情報のフレーム又はフィールドと前記ビデオ情報に対応す る深さ情報の両方を発生させることができる深さ検知カメラと、 (b)この深さ検知カメラに結合され、発生した前記ビデオ情報のフレーム 又はフィールドを受信するとともに、前記ビデオ情報のフレーム又はフィール ドから圧縮ビデオ信号を発生させ、前記ビデオ情報のフィールド又はフレーム の一部に対応するデータを量子化するマルチモード量子化器を有するエンコー ダと、 (c)前記深さ検知カメラに結合され、発生した前記深さ情報を受信すると ともに、受信した前記フレーム又はフィールド内の変動する知覚的な重要度の 1個以上の領域のうちの1個を有する受信した前記フィールド又はフレームの 各画素に関連するオブジェクトマップを発生させるオブジェクトセグメント化 回路と、 (d)前記オブジェクトセグメント化回路及びマルチモード量子化器に結合 され、前記オブジェクトマップを受信するとともに、前記オブジェクトマップ に応答して、前記マルチモード量子化器に信号を供給して量子化モードを選択 し、選択した前記量子化モードが、前記オブジェクトマップによって表された 前記領域の知覚的な重要度を反映するようにしたことを特徴とする装置。 12.画素の2次元情報を具えるビデオ情報のフィールド又はフレームを符号化 するとともに符号化を向上させるために前記画素の各々の深さ成分を利用する に当たり、 (a)前記ビデオ情報のフレーム又はフィールド及び受信した前記ビデオ情 報に対応する深さ情報を受信するステップと、 (b)受信した3個の情報をオブジェクトマップに変換して、受信した前記 フィールド又はフレームの各画素を、受信した前記フレーム又はフィールド内 の変動する知覚的な重要度の1個以上の領域に関連させるステップと、 (c)前記オブジェクトマップによって表された前記領域の前記知覚的な重 要度を反映する量子化モードを選択するために前記オブジェクトマップに基づ く量子化モード信号を発生させるステップと、 (d)前記量子化モード信号によって選択された前記量子化モードに従って 受信した前記ビデオ情報のフィールド又はフレームの一部に対応するデータを 量子化することによって、受信した前記ビデオ情報のフレーム又はフィールド に対応する圧縮ビテオ信号を発生させるステップとを具えることを特徴とする 方法。 13.前記ステップ(d)で発生した圧縮ビデオ信号を、MPEG−2に従うビ ットストリームとすることを特徴とする請求の範囲12記載の方法。 14.前記変換ステップが、 (1)受信した前記深さ情報のヒストグラムを算出して、予め設定された値 の範囲に対する予め設定された深さ値を有する画素数を発生させること、 (2)予め設定されたしきい値より下の前記ヒストグラムの全ての値を零に セットして、クリップされたヒストグラムを発生させること、 (3)n個の相違する深さのしきい値を有するn個の領域の境界を見つける ためにクリップされた前記ヒストグラムを操作すること、 (4)前記n個の相違するしきい値に基づく前記深さ情報を量子化すること を具えることを特徴とする請求の範囲12記載の方法。 15.発生した前記圧縮ビデオ信号を可変ビットレート信号とし、 (e)発生した前記圧縮ビデオ信号をバッファリングするステップと、 (f)オーバーフロー状態のバッファリングを表す信号を発生させるステッ プとを更に具え、 前記量子化モード信号が前記オーバーフロー信号にも応答して、選択した前 記量子化モードが、バッファリング制限によって制約される前記領域の前記知 覚的な情報を反映させることを特徴とする請求の範囲12記載の方法。 16.前記量子化モード信号を発生させる前に、受信した前記ビデオ情報のフレ ーム又はフィールド内のビデオデータの現在のマクロブロックを、変動する知 覚的な重要度の前記領域の1個に割り当て、前記量子化モード信号が、割り当 てられた前記情報を反映することを特徴とする請求の範囲15記載の方法。 17.前記割当てステップが、 前記ビデオデータの現在のマクロブロックを、前記ビデオデータのマクロブ ロックに対応する前記オブジェクトマップのロケーションによって識別された 1個以上の領域の最高の知覚的な重要度を有する領域に割り当てることを具え ることを特徴とする請求の範囲16記載の方法。 18.前記量子かモード信号を発生させる前に割り当てられた前記情報に関連す るターゲットビットレートを表す信号を発生させるステップを更に具えること を特徴とする請求の範囲16記載の方法。 19.(i)前記圧縮ビデオ信号情報がバッファリングされると常に仮想バッフ ァの占有量を表す仮想バッファ計数を加算するステップと、 (ii)バッファリングされた前記圧縮ビデオ信号情報が前記ターゲットビッ トレート信号に依存する量を出力すると常に、前記計数を減算するステップと 、 (iii)前記計数を表す仮想バッファ占有信号を発生させるステップとを更 に具え、 前記量子化モード信号が前記仮想バッファ占有信号にも応答し、選択した前 記量子化モードが、バッファリング制限によって限定される前記仮想バッファ 占有量によって表された前記領域の知覚的な重要度を反映することを特徴とす る請求の範囲18記載の方法。 20.前記仮想バッファ占有量B1を、式Bi=Bi-1−bi−r(Rk/R)によ って決定し、biを、前記エンコーダ出力信号によって表された現在のマクロ ブロックを符号化するのに用いられるビット数に等しくし、rを、前記クロッ ク信号によって表された前記ビデオバッファによって出力されたビット数に等 しくし、Rkを、前記ターゲットビットレート信号によって表されたターゲッ トビットレートとし、Rを、前記バッファリング制限を防止するのに要求され る平均出力ビットレートとしたことを特徴とする請求の範囲19記載の方法。 21.割り当てられた前記領域が直前に割り当てられた領域と異なる場合には常 に、前記量子化モード信号を発生させる前にバッファサイズ変調信号を発生さ せるステップを更に具え、 前記量子化モード信号が前記バッファサイズ変調信号にも応答し、選択した 前記量子化モードが、前記バッファサイズ変調信号によって変調されるととも に前記バッファリング制限によって制限される前記仮想バッファ容量によって 表された前記領域の知覚的な重要度を反映することを特徴とする請求の範囲1 6記載の方法。 22.符号化を向上させるためにビデオ情報の深さ成分を用いて前記ビデオ情報 のオブジェクトに基づく符号化を実行する装置であって、 (a)前記ビデオ情報のフレームに対する深さ情報を受信するとともに、前 記ビデオ情報のフレーム内で1個以上のオブジェクトの形状を表す受信した前 記深さ情報に基づいて1個以上のオブジェクト識別信号を発生させるオブジェ クトセグメント化回路と、 (b)受信した前記深さ情報信号及び1個以上のオブジェクト識別信号に対 応する前記ビデオ情報のフレームを受信するとともに、前記1個以上のオブジ ェクト識別信号によって識別された前記1個以上のオブジェクトにほぼ対応す る前記ビデオ情報の一部を表す圧縮ビデオ信号を発生させるエンコーダとを具 えることを特徴とする装置。 23.前記オブジェクトセグメント化回路が、 (1)前記深さ情報を受信するとともに、前記深さ情報をオブジェクトマッ プに変換して、前記ビデオ情報のフレーム内の各画素を、前記フレーム内の変 動する知覚的な重要度の1個以上の領域に関連させるオブジェクトマップ発生 回路と、 (2)前記オブジェクトマップ発生回路に結合され、前記オブジェクトマッ プを受信するとともに、選択された領域にほぼ対応する前記フレーム内の画素 を表す深さ領域マスクを発生させるために前記オブジェクトマップをマスクす る領域マスク回路と、 (3)前記領域マスク回路に結合され、発生した前記領域マスクを受信し、 前記領域マスクによって表された選択された前記領域内の1個以上の個別のオ ブジェクトを識別し、前記1個以上のオブジェクト識別信号を発生させて、前 記オブジェクト識別情報の各々が1個以上の識別された前記個別のオブジェク トを識別するビデオオブジェクト選択回路手とを具えることを特徴とする請求 の範囲22記載の装置。 24.前記オブジェクトマップ発生回路が、 (i)前記深さ情報を受信するとともに、前記深さ情報のヒストグラムを演 算して、予め設定された値の範囲に対する予め設定された深さ値を有する画素 数を発生させるヒストグラム発生回路と、 (ii)このヒストグラム発生回路に結合され、発生した前記ヒストグラムを 受信するとともに、予め設定されたしきい値より下の前記ヒストグラムの全て の値を零に設定して、クリップされたヒストグラムを発生させる第1論理回路 と、 (iii)この第1論理回路に結合され、クリップされた前記ヒストグラムを 受信するとともに、n個の相違する深さのしきい値を有するn個の領域の境界 を見つけるためにクリップされた前記ヒストグラムを走査する第2論理回路と 、 (iv)この第2論理回路に結合され、前記n個の相違するしきい値及び前記 深さ情報を受信するとともに、前記n個の相違するしきい値に基づいて前記深 さ情報を量子化して、前記オブジエクトマップを発生させる可変ステップ量子 化回路とを具えることを特徴とする請求の範囲23記載の装置。 25.前記ヒストグラム発生回路が、 (A)前記深さ情報を受信し及び一時的に格納するバッファと、 (B)このバッファに結合され、前記深さ情報をメモリアドレスとして前記 バッファから受信するとともに、ヒストグラム値を前記メモリアドレスとして 格納するメモリと、 (C)このメモリに結合され、前記メモリのアドレスロケーションからヒス トグラム値を読出し、このヒストグラム値を更新し、更新された前記ヒストグ ラム値を前記メモリのアドレスロケーションに供給する論理回路とを具えるこ とを特徴とする請求の範囲24記載の装置。 26.前記エンコーダが、受信した前記ビデオ情報の一部に対応するデータを量 子化するマルチモード量子化器を有し、 (c)前記オブジェクトセグメント化回路及びマルチモード量子化器に結合 され、前記1個以上のオブジェクト識別信号を受信するとともに、前記オブジ ェクト識別信号に応答して、前記マルチモード量子化器に信号を供給して量子 化モードを選択し、量子化すべきデータの一部の各々に対して、選択した前記 量子化モードが、量子化すべき前記データの一部に関連する前記1個以上のオ ブジェクト識別信号のうちの1個によって識別されたオブジェクトの知覚的な 重要度を反映するようにしたことを特徴とする請求の範囲21記載の装置。 27.前記エンコーダを可変ビットレートエンコーダとし、 (d)予め選択された記憶容量を有し、前記エンコーダ及びレートコントロ ーラに結合され、発生した前記圧縮ビデオ信号を受信し及び一時的に格納する とともに、オーバーフロー状態を表す新香う゛を前記レートコントローラに供 給するビデオバッファを更に具え、 前記レートコントローラから前記マルチモード量子化器に供給される信号が 、前記オーバーフロー信号にも応答し、選択した前記量子化モードが、前記ビ デオバッファの記憶容量によって制限される前記オブシェクトの知覚的な重要 度を反映するようにしたことを特徴とする請求の範囲26記載の装置。 28.量子化すべき前記データの一部をマクロブロックとし、 (e)前記オブジェクトセグメント化回路及びレートコントローラに結合さ れ、前記ビデオデータの現在のマクロブロックを前記オブジェクトのうちの1 個に割り当てるとともに、割り当てられた前記オブジェクトを表す信号を前記 レートコントローラに割り当てるマクロブロックラベリング回路を更に具え、 前記レートコントローラから前記マルチモード量子化器に供給される信号が 、割り当てられた前記オブジェクトを反映するようにしたことを特徴とする請 求の範囲27記載の装置。 29.前記エンコーダが、前記圧縮ビデオデータを前記ビデオバッファに出力す る際に出力信号を発生させ、前記マクロブロックラベリング回路が、割り当て られた前記オブジェクトに関連したターゲットビットレートを表す信号を発生 させ、 (f)前記ビデオバッファに結合されるとともに前記バッファにクロック信 号を供給するクロック信号発生回路を更に具え、 前記ビデオバッファが、前記クロック信号に応答して予め設定された量の前 記圧縮ビデオ信号を出力し、 (g)前記エンコーダ、クロック信号発生回路、マクロブロックラベリング 回路及びレートコントローラに結合され、前記クロック信号、ターゲットビッ トレート信号及びエンコーダ出力信号を受信し、前記エンコーダ出力信号に応 答して計数を加算し及び前記クロック信号及びターゲットビットレート信号に 応答して計数を減算することによって前記ビデオバッファに関連した仮想バッ ファ内のビット数を計数して、前記仮想バッファの占有量を決定し、かつ、前 記計数を表す仮想バッファ占有信号を前記レートコントローラに供給するカウ ンタを更に具え、 前記レートコントローラから前記マルチモード量子化器に供給された信号が 、前記仮想バッファ占有信号にも応答し、選択した前記量子化モードが、前記 ビデオバッファの記憶容量によって制限された前記仮想バッファ容量によって 表された前記オブジェクトの知覚的な重要度を反映するようにしたことを特徴 とする請求の範囲28記載の装置。 30.前記仮想バッファ占有量B1を、式Bi=Bi-1−bi−r(Rk/R) によって決定し、biを、前記エンコーダ出力信号によって表された現在のマ クロブロックを符号化するのに用いられるビット数に等しくし、rを、前記ク ロック信号によって表された前記ビデオバッファによって出力されたビット数 に等しくし、Rkを、前記ターゲットビットレート信号によって表されたター ゲットビットレートとし、Rを、前記ビデオバッファによって維持すべき平均 出力ビットレートとしたことを特徴とする請求の範囲29記載の装置。 31.前記レートコントローラが、 前記マクロブロックラベリング回路に結合され、割り当てられた前記オブジ ェクトを受信するとともに、割り当てられた前記オブジェクトが直前に割り当 てられたオブジェクトと相違する場合には常にバッファサイズ変調信号を発生 させるバッファサイズ論理回路を更に具え、 前記レートコントローラから前記マルチモード量子化器に供給される信号が 、前記バッファサイズ変調信号にも応答し、選択された前記量子化モードが、 前記バッファサイズ変調信号によって変調されるとともに前記ビデオバッファ の記憶容量によって制限される前記仮想バッファ容量によって表された前記オ ブジェクトの知覚的な重要度を反映するようにしたことを特徴とする請求の範 囲29記載の装置。 32.符号化を向上させるためにビデオ情報の深さ成分を用いて前記ビデオ情報 のオブジェクトに基づく符号化を実行する装置であって、 (a)前記ビデオ情報のフレームと前記ビデオ情報に対応する深さ情報の両 方をリアルタイムで発生させることがてのる深さ検知カメラと、 (b)この深さ検知カメラに結合され、発生した前記深さ情報を受信し、か つ、前記ビデオ情報の前記フレーム内の1個以上のオブジェクトの形状を表す 受信した前記深さ情報に基づいて1個以上のオブジェクト識別信号を発生させ るオブジェクトセグメント化回路と、 (c)前記オブジェクトセグメント化回路及び深さ検知カメラに結合され、 受信した深さ情報に対応する発生したビデオ情報のフレーム及び1個以上のオ ブジェクト識別信号を受信し、かつ、前記1個以上のオブジェクト識別信号に よって識別された前記1個以上のオブジェクトにほぼ対応する前記ビデオ情報 の一部を表す圧縮ビデオ信号を発生させるエンコーダとを具えることを特徴と する装置。 33.符号化を増強させるためにビデオ信号の深さ成分を用いてビデオ情報のオ ブジェクトに基づく符号化を実行するに当たり、 (a)ビデオ情報のフレーム及び受信した前記ビデオ情報に対応する深さ情 報を受信するステップと、 (b)前記ビデオ情報のフレーム内で1個以上のオブジェクトの形状を表す 受信した前記深さ情報に基づいて1個以上のオブジェクト識別信号を発生させ るステップと、 (c)前記1個以上のオブジェクト識別信号によって識別された1個以上の オブジェクトにほぼ対応する受信した前記ビデオ情報の一部を表す圧縮ビデオ 信号を発生させるステップとを具えることを特徴とする方法。 34.前記ステップ(b)が、 (1)受信した前記深さ情報をオブジェクトに変換して、前記ビデオ情報の フレーム内の各画素を、前記フレームの変動する知覚的な重要度の1個以上の 領域のうちの1個に関連させるステップと、 (2)予め選択した領域にほぼ対応する前記フレーム内の画素を表す深さ領 域マスクを発生させるために前記オブジェクトマップをマスキングするステッ プと、 (3)前記深さ領域マスクによって表された予め選択された前記領域内で1 個以上の個別のオブジェクトを識別するステップと、 (4)前記1個以上のオブジェクト識別信号を発生させて、前記オブジェク ト識別信号の各々が、識別された前記1個以上の個別のオブジェクトのうちの 1個を識別するステップとを具えることを特徴とする請求の範囲33記載の方 法。 35.前記変換ステップが、 (i)受信した前記深さ情報をヒストグラムを算出して、予め設定された値 の範囲に対する予め設定された深さ値を有する画素数を発生させるステップと 、 (ii)予め設定されたしきい値より下の前記ヒストグラムの全ての値を零に 設定して、クリップされたヒストグラムを発生させるステップと、 (iii)n個の相違する深さのしきい値を有するn個の領域の境界を見つけ るためにクリップした前記ヒストグラムを走査するステップと、 (iv)前記n個の相違するしきい値に基づいて前記深さ情報を量子化するス テップとを具えることを特徴とする請求の範囲34記載の方法。 36.前記識別ステップが、 (i)マスクされていない値を有する画素を見つけるまで前記深さ領域マス クを走査するステップと、 (ii)前記マスクされていない値を有する他の任意の隣接する画素を見つけ るために前記マスク内の隣接する画素を検索するステップと、 (iii)前記深さ領域内のオブジェクトに対応するビデオオブジェクト面と してマスクされていない値を有する隣接する見つけられた全ての画素を識別す るために、隣接する画素がマスクされない値を有する用になるまで、前記検索 ステップを繰り返すステップと、 (iv)前記深さ領域マスクから前記オブジェクトをマスクするステップと、 (v)前記深さ領域マスク内の全ての画素がマスクされるまで、ステップ( i)〜(iv)を繰り返して、受信したビデオ情報のフレーム内の1個以上のビ デオオブジェクト面を識別するステップとを具えることを特徴とする請求の範 囲34記載の方法。 37.前記識別ステップが、 (vi)前記1個以上のビデオオブジェクト面のうちの1個及び前記ビデオ情 報の直前のフレームに関連する1個以上のオブジェクト面のうちの1個を選択 するステップと、 (vii)選択した前記ビデオオブジェクト面と選択した以前のフレームビデ オオブジェクト面とを比較して、それらの間の深さの差を決定するステップと 、 (viii)1個以上の以前の前記フレームビデオオブジェクト面の相違するも のを選択した後、1個以上の以前の前記フレームビデオオブジェクト面が選択 されるまでステップ(vii)を繰り返すステップと、 (ix)選択した前記ビデオオブジェクト面を、決定された前記深さの差の全 てよりも深さの差が小さくなる1個以上の以前の前記フレームビデオオブジェ クト面の1個に対応するビデオオブジェクトに割り当てるステップと、 (x)前記1個以上のビデオオブジェクト面の全てを選択しない場合、前記 1個以上のビデオオブジェクト面のうちの相違するものを選択した後にステッ プ(vii)〜(ix)を繰り返して、前記1個以上のビデオオブジェクト面の各 々がオブジェクトを選択するステップとを具えることを特徴とする請求の範囲 36記載の方法。 38.前記ステップ(c)が、受信した前記ビテオ情報のフィールドの一部に対 応するデータを量子化することを有し、 (d)前記オブジェクト識別信号によって識別されたオブジェクトの知覚的 な次希有用度を反映する量子化モードを選択するために、前記データに対応す るオブジェクト識別信号に基づく量子化モード信号を発生させ、前記データを 、選択した前記量子化モードに基づいて量子化するステップを更に具えること を特徴とする請求の範囲33記載の方法。 39.発生した前記圧縮ビデオ信号を可変ビットレート信号とし、 (e)発生した前記圧縮ビデオ信号をバッファリングするステップと、 (f)バッファリングオーバーフロー状態を表す信号を発生させるステップ とを更に具え、 前記量子化モード信号が前記オーバーフロー信号にも応答し、選択した前記 量子化モードが、バッファリング制限によって限定された前記オブジェクトの 知覚的な重要度を反映するようにしたことを特徴とする請求の範囲38記載の 方法。 40.前記量子化モード信号を発生させる前に、受信した前記ビデオ情報のフレ ーム又はフィールド内のビデオデータの現在のマクロブロックを前記オブジェ クトの1個に割り当てるステップを更に具え、 前記量子化モード信号が、割り当てられた前記オブジェクトを反映すること を特徴とする請求の範囲39記載の方法。 41.前記量子化モード信号を発生させる前に、割り当てられた前記オブジェク トに関連したターゲットビットレートを反映する信号を発生させるステップを 更に具えることを特徴とする請求の範囲40記載の方法。 42.(i)前記圧縮ビデオ信号情報がバッファリングされると常に仮想バッフ ァ占有量を表す仮想バッファ計数を加算するステップと、 (ii)バッファリングされた前記圧縮ビデオ信号情報を前記ビットレート信 号に依存する量だけ出力すると常に、前記計数を減算するステップと、 (iii)前記計数を表す仮想バッファ占有信号を発生させるステップとを更 に具え、 前記量子化モード信号が、前記仮想バッファ占有信号にも応答し、選択した 前記量子化モードが、前記バッファリング制限によって制約される前記仮想バ ッファ占有量によって表される前記オブジェクトを反映することを特徴とする 請求の範囲41記載の方法。 43.前記仮想バッファ占有量B1を、式Bi=Bi-1−bi−r(Rk/R)によ って決定し、biを、前記エンコーダ出力信号によって表された現在のマクロ ブロックを符号化するのに用いられるビット数に等しくし、rを、前記クロッ ク信号によって表された前記ビデオバッファによって出力されたビット数に等 しくし、Rkを、前記ターゲットビットレート信号によって表されたターゲッ トビットレートとし、Rを、前記バッファリング制限が発生するのを防止する のに要求される平均出力ビットレートとしたことを特徴とする請求の範囲42 記載の方法。 44.割り当てられた前記オブジェクトが以前に割り当てられたオブジェクトと 異なる場合には常に、前記量子化モード信号を発生させる前にバッファサイズ 変調信号を発生させるステップを更に具え、前記量子化モード信号が、前記バ ッファサイズ変調信号にも応答し、選択した前記量子化モードが、前記バッフ ァサイズ変調信号によって変調されるとともに前記バッファリング制限によっ て制約される前記仮想バッファ容量によって表される前記オブジェクトを反映 することを特徴とする請求の範囲40記載の方法。 45.ビデオ情報のフレームに対応する深さ情報を受信するとともに前記ビデオ 情報のフレーム内の1個以上の個別のオブジェクトを識別するオブジェクトセ グメント化回路であって、 (a)前記深さ情報を受信するとともに前記深さ情報をオブジェクトに変換 して、前記ビデオ情報のフレーム内の各画素を、前記フレーム内の変動する知 覚的な重要度の1個以上の領域を有する前記ビデオ情報のフレームに割り当て るオブジェクトマップ発生回路と、 (b)前記オブジェクトマップ発生回路に結合され、前記オブジェクトマッ プを受信し、予め設定された深さの領域にほぼ対応する前記フレーム内の画素 を表す1個以上の深さ領域マスクを発生させるために、前記オブジェクトマッ プをマスクする領域マスキング回路と、 (c)前記領域マスキング回路に結合され、発生した前記1個以上の領域マ スクを受信し、前記1個以上の領域マスクの各々によって識別された選択され た前記1個以上の領域の各々の範囲内の1個以上の個別のオブジェクトを識別 し、各深さ領域に関連した各オブジェクトを個別のオブジェクトとして識別す るビデオオブジェクト選択回路とを具えることを特徴とするオブジェクトセグ メント化回路。 46.前記オブジェクトマップ発生回路が、 (1)前記深さ情報を受信するとともに前記深さ情報のヒストグラムを演算 して、予め決定された値の範囲に対する予め決定された深さ値を有する画素数 を発生させるヒストグラム発生回路と、 (2)このヒストグラム発生回路に結合され、発生した前記ヒストグラムを 受信し、予め決定されたしきい値より下の前記ヒストグラムの全ての値を零に 設定して、クリップされたヒストグラムを発生させる第1論理回路と、 (3)この第1論理回路に結合され、クリップされた前記ヒストグラムを受 信するとともに、n個の相違する深さのしきい値を有するn個の領域の境界を 見つけるためにクリップされた前記ヒストグラムを走査する第2論理回路と、 (4)この第2論理回路に結合され、前記n個の相違するしきい値及び深さ 情報を受信し、前記n個の相違するしきい値に基づいて前記深さ情報を量子化 して、前記オブジェクトマップを発生させる可変ステップ量子化回路とを具え ることを特徴とする請求の範囲45記載の装置。 47.前記ヒストグラム発生回路が、 (i)前記深さ情報を受信するとともにそれを一時的に格納するバッファと 、 (ii)前記バッファに結合され、前記深さ情報をメモリアドレスとして前記 バッファから受信し、かつ、ヒストグラム値を前記メモリアドレスとして記憶 するメモリと、 (iii)前記メモリに結合され、前記メモリのアドレスロケーションからヒ ストグラム値を読み出し、前記ヒストグラム値を更新し、かつ、更新した前記 ヒストグラム値を前記メモリのアドレスロケーションに供給する論理回路とを 具えることを特徴とする請求の範囲46記載の装置。 48.ビデオ情報のフレームに対応する深さ情報内の1個以上のオブジェクトを 識別するに当たり、 (a)前記深さ情報を受信するステップと、 (b)受信した前記深さ情報をオブジェクトマップに変換して、前記ビデオ 情報のフレーム内の各画素を、前記フレーム内の変動する知覚的な重要度の1 個以上の領域に関連させるステップと、 (c)選択した深さの領域にほぼ対応する前記フレーム内の画素を表す1個 以上の深さ領域を発生させるために前記オブジェクトマップをマスキングする ステップと、 (d)前記1個以上の領域マスクによって表された予め選択された前記1個 以上の領域の各々の範囲内の1個以上の個別のオブジェクトを識別し、各深さ 領域に関連する各オブジェクトを個別のオブジェクトとして識別するステップ とを具えることを特徴とする方法。 49.前記変換ステップが、 (1)受信した前記深さ情報のヒストグラムを算出して、予め設定された値 の範囲に対する予め設定された深さ値を有する画素数を発生させるステップと 、 (2)予め設定されたしきい値より下の前記ヒストグラムの全ての値を零に 設定して、クリップされたヒストグラムを発生させるステップと、 (3)n個の相違する深さのしきい値を有するn個の領域の境界を見つける ためにクリップされた前記ヒストグラムを走査するステップと、 (4)前記n個の相違するしきい値に基づいて前記深さ情報を量子化するス テップとを具えることを特徴とする請求の範囲48記載の方法。 50.前記識別ステップが、 (i)マスクされていない値を有する画素を見つけるまで、予め選択された 深さ領域マスクを走査するステップと、 (ii)マスクされていない値を有する他の任意の隣接する画素を見つけるた めに、前記マスク内の隣接する画素を探索するステップと、 (iii)マスクされていない値を有する見つけられた隣接する全ての画素を 、前記深さ領域内のオブジェクトに対応するビデオオブジェクト面として識別 するまで、前記探索ステップを繰り返すステップと、 (iv)前記深さ領域マスクから前記オブジェクトをマスキングするステップ と、 (v)前記深さ領域マスク内の全ての画素をマスキングするまでステップ( i)〜(iv)を繰り返して、受信した前記ビデオ情報のフレーム内の1個以上 のビデオオブジェクト面を識別するステップとを具えることを特徴とする請求 の範囲48記載の方法。 51.前記識別ステップが、 (vi)前記1個以上のビデオオブジェクト面のうちの1個及び前記ビデオ情 報の以前のフレームに関連した前記1個以上のビデオオブジェクト面のうちの 1個を選択するステップと、 (vii)選択した前記ビデオオブジェクト面及び選択した以前のフレームビ デオオブジェクト面とを比較して、それらの間の深さの差を決定するステップ と、 (viii)1個以上の前記以前のフレームビデオオブジェクト面の全てを選択 しない場合、前記1個以上の以前のフレームビデオオブジェクト面のうちの相 違するものを選択した後にステップ(vii)を繰り返すステップと、 (ix)選択した前記ビデオオブジェクト面を、設定された前記深さの差の全 てよりも深さの差が小さい前記1個以上の以前のフレームビデオオブジェクト 面の1個に対応するビデオオブジェクトに割り当てるステップと、 (x)前記1個以上のビデオオブジェクト面の全てを選択しない場合、前記 1個以上のビデオオブジェクト面の相違するものを選択した後ステップ(vii )〜(ix)を繰り返し、前記1個以上のビデオオブジェクト面の各々がオブジ ェクトを識別するステップとを具えることを特徴とする請求の範囲50記載の 方法。
JP51775998A 1996-10-09 1997-10-09 3次元深度情報を利用したデジタル画像と動画像の分割と圧縮を行う方法及び装置 Ceased JP2001509325A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/723,467 US6055330A (en) 1996-10-09 1996-10-09 Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information
US08/723,467 1996-10-09
PCT/US1997/018305 WO1998015915A1 (en) 1996-10-09 1997-10-09 Methods and apparatus for performing digital image and video segmentation and compression using 3-d depth information

Publications (1)

Publication Number Publication Date
JP2001509325A true JP2001509325A (ja) 2001-07-10

Family

ID=24906398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP51775998A Ceased JP2001509325A (ja) 1996-10-09 1997-10-09 3次元深度情報を利用したデジタル画像と動画像の分割と圧縮を行う方法及び装置

Country Status (6)

Country Link
US (1) US6055330A (ja)
EP (1) EP1012776A4 (ja)
JP (1) JP2001509325A (ja)
KR (1) KR20000049031A (ja)
CA (1) CA2268191A1 (ja)
WO (1) WO1998015915A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163717A (ja) * 2007-12-10 2009-07-23 Fujifilm Corp 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム
JP2009163716A (ja) * 2007-12-10 2009-07-23 Fujifilm Corp 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム
WO2010095471A1 (ja) * 2009-02-23 2010-08-26 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
JP2016527791A (ja) * 2013-08-19 2016-09-08 華為技術有限公司Huawei Technologies Co.,Ltd. 画像処理方法及び装置

Families Citing this family (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2281538C (en) 1997-02-14 2006-01-03 The Trustees Of Columbia University In The City Of New York Object-based audio-visual terminal and bitstream structure
US6633611B2 (en) * 1997-04-24 2003-10-14 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for region-based moving image encoding and decoding
US6023296A (en) * 1997-07-10 2000-02-08 Sarnoff Corporation Apparatus and method for object based rate control in a coding system
WO1999022524A1 (en) * 1997-10-23 1999-05-06 Mitsubishi Denki Kabushiki Kaisha Image decoder, image encoder, image communication system, and encoded bit stream converter
US6125142A (en) * 1997-12-02 2000-09-26 Daewoo Electronics Co., Ltd. Method and apparatus for encoding object information of a video object plane
JP3384314B2 (ja) * 1997-12-02 2003-03-10 ヤマハ株式会社 楽音応答画像生成システム、方法、装置、及び、そのための記録媒体
CA2305735C (en) * 1997-12-05 2008-01-08 Dynamic Digital Depth Research Pty. Ltd. Improved image conversion and encoding techniques
US7199836B1 (en) * 1998-02-13 2007-04-03 The Trustees Of Columbia University In The City Of New York Object-based audio-visual terminal and bitstream structure
KR100285599B1 (ko) * 1998-03-14 2001-04-02 전주범 격행 부호화에서의 움직임 추정을 위한 텍스쳐 패딩 장치 및그 패딩 방법
US6289129B1 (en) 1998-06-19 2001-09-11 Motorola, Inc. Video rate buffer for use with push dataflow
US6804403B1 (en) 1998-07-15 2004-10-12 Digital Accelerator Corporation Region-based scalable image coding
JP2000050258A (ja) * 1998-07-31 2000-02-18 Toshiba Corp 映像検索方法および映像検索装置
RU2001106645A (ru) 1998-08-10 2003-03-10 Диджитал Экселерейтор Корпорейшн (Ca) Встроенные элементарные волновые функции дерева квадрантов в сжатии изображения
CN1145908C (zh) 1998-09-29 2004-04-14 西门子公司 处理具有图象点的数字化图象的方法和装置
JP3259702B2 (ja) * 1998-12-24 2002-02-25 日本電気株式会社 動画像可変ビットレート符号化装置および方法
US6600786B1 (en) * 1999-04-17 2003-07-29 Pulsent Corporation Method and apparatus for efficient video processing
US7082162B2 (en) * 1999-04-17 2006-07-25 Pts Corporation Segment-based encoding system including segment-specific metadata
US7085319B2 (en) * 1999-04-17 2006-08-01 Pts Corporation Segment-based encoding system using segment hierarchies
US7050503B2 (en) * 1999-04-17 2006-05-23 Pts Corporation Segment-based encoding system using residue coding by basis function coefficients
US20040028130A1 (en) * 1999-05-24 2004-02-12 May Anthony Richard Video encoder
US6526161B1 (en) * 1999-08-30 2003-02-25 Koninklijke Philips Electronics N.V. System and method for biometrics-based facial feature extraction
US6792154B1 (en) 1999-10-07 2004-09-14 World Multicast.com, Inc Video compression system and method using time
FR2806570B1 (fr) 2000-03-15 2002-05-17 Thomson Multimedia Sa Procede et dispositif de codage d'images video
US20020012472A1 (en) * 2000-03-31 2002-01-31 Waterfall Andrew E. Method for visualization of time sequences of 3D optical fluorescence microscopy images
US6888894B2 (en) * 2000-04-17 2005-05-03 Pts Corporation Segmenting encoding system with image segmentation performed at a decoder and encoding scheme for generating encoded data relying on decoder segmentation
US7082166B2 (en) * 2000-04-17 2006-07-25 Pts Corporation Decoder for decoding segment-based encoding of video data using segmentation performed at a decoder
US7035451B2 (en) * 2000-08-09 2006-04-25 Dynamic Digital Depth Research Pty Ltd. Image conversion and encoding techniques
US20020149628A1 (en) * 2000-12-22 2002-10-17 Smith Jeffrey C. Positioning an item in three dimensions via a graphical representation
JP4534106B2 (ja) * 2000-12-26 2010-09-01 日本電気株式会社 動画像符号化システム及び方法
FI109633B (fi) * 2001-01-24 2002-09-13 Gamecluster Ltd Oy Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi
US7321624B1 (en) * 2001-03-16 2008-01-22 Objectvideo, Inc. Bit-rate allocation system for object-based video encoding
US6859554B2 (en) * 2001-04-04 2005-02-22 Mitsubishi Electric Research Laboratories, Inc. Method for segmenting multi-resolution video objects
US6965379B2 (en) 2001-05-08 2005-11-15 Koninklijke Philips Electronics N.V. N-view synthesis from monocular video of certain broadcast and stored mass media content
BRPI0210276B1 (pt) * 2001-06-11 2019-04-09 Thomson Licensing Aparelho, método de realização de operações e sistema de dados de vídeo escalonável com elevada granularidade, método para receber dados de macrobloco de vídeo codificados e dispositivo de armazenamento de programa que pode ser lido por máquina
US7050500B2 (en) * 2001-08-23 2006-05-23 Sharp Laboratories Of America, Inc. Method and apparatus for motion vector coding with global motion parameters
US7327742B2 (en) * 2002-06-26 2008-02-05 Standard Microsystems Corp. Communication system and method for sending isochronous streaming data within a frame segment using a signaling byte
US20060256081A1 (en) * 2002-07-27 2006-11-16 Sony Computer Entertainment America Inc. Scheme for detecting and tracking user manipulation of a game controller body
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8570378B2 (en) * 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US9393487B2 (en) * 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US7336720B2 (en) * 2002-09-27 2008-02-26 Vanguard Software Solutions, Inc. Real-time video coding/decoding
GB2395263A (en) * 2002-11-12 2004-05-19 Qinetiq Ltd Image analysis
DE60318737T2 (de) * 2002-11-21 2009-01-15 Philips Intellectual Property & Standards Gmbh Verfahren und vorrichtung zur visualisierung einer sequenz von volumenbildern
US20040184653A1 (en) * 2003-03-20 2004-09-23 Baer Richard L. Optical inspection system, illumination apparatus and method for use in imaging specular objects based on illumination gradients
US8638846B1 (en) * 2003-06-23 2014-01-28 At&T Intellectual Property Ii, L.P. Systems and methods for encoding and decoding video streams
US7535959B2 (en) * 2003-10-16 2009-05-19 Nvidia Corporation Apparatus, system, and method for video encoder rate control
US8537204B2 (en) * 2004-07-08 2013-09-17 Gyoung Il Cho 3D television broadcasting system
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US7397855B2 (en) * 2004-04-14 2008-07-08 Corel Tw Corp. Rate controlling method and apparatus for use in a transcoder
EP1591963B1 (en) * 2004-04-29 2008-07-09 Mitsubishi Electric Information Technology Centre Europe B.V. Adaptive quantisation of a depth map
JP2008505522A (ja) * 2004-07-02 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ処理
US7643672B2 (en) * 2004-10-21 2010-01-05 Kazunari Era Image processing apparatus, image pickup device and program therefor
US20060117268A1 (en) * 2004-11-30 2006-06-01 Micheal Talley System and method for graphical element selection for region of interest compression
KR100656783B1 (ko) 2004-12-14 2006-12-12 한국전자통신연구원 양안식 입체 영상 전송 장치 및 그 방법과 그를 이용한양안식 입체 영상 렌더링 장치 및 그 방법
US20060256233A1 (en) * 2005-05-16 2006-11-16 Douglas Chin Systems, methods, and apparatus for video encoding
WO2007014216A2 (en) 2005-07-22 2007-02-01 Cernium Corporation Directed attention digital video recordation
CN101253775A (zh) * 2005-09-01 2008-08-27 皇家飞利浦电子股份有限公司 用于视频错误恢复的编解码方法及装置
GB2430026A (en) * 2005-09-09 2007-03-14 Qinetiq Ltd Automated selection of image regions
US20070120844A1 (en) * 2005-11-28 2007-05-31 Baumer Optronic Gmbh Method and apparatus for the graphical operation of real-time image processing systems
US8270490B2 (en) * 2006-07-06 2012-09-18 Canon Kabushiki Kaisha Motion vector detection apparatus, motion vector detection method, image encoding apparatus, image encoding method, and computer program
US7612805B2 (en) 2006-07-11 2009-11-03 Neal Solomon Digital imaging system and methods for selective image filtration
US8970680B2 (en) 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
US8395658B2 (en) * 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) * 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
JP4790669B2 (ja) * 2007-07-05 2011-10-12 株式会社メガチップス トランスコーダ
US20090066693A1 (en) * 2007-09-06 2009-03-12 Roc Carson Encoding A Depth Map Into An Image Using Analysis Of Two Consecutive Captured Frames
US8023562B2 (en) 2007-09-07 2011-09-20 Vanguard Software Solutions, Inc. Real-time video coding/decoding
US20090148038A1 (en) * 2007-12-10 2009-06-11 Youichi Sawachi Distance image processing apparatus and method
US8184196B2 (en) 2008-08-05 2012-05-22 Qualcomm Incorporated System and method to generate depth data using edge detection
US8325796B2 (en) 2008-09-11 2012-12-04 Google Inc. System and method for video coding using adaptive segmentation
US9215467B2 (en) * 2008-11-17 2015-12-15 Checkvideo Llc Analytics-modulated coding of surveillance video
US8619198B1 (en) * 2009-04-28 2013-12-31 Lucasfilm Entertainment Company Ltd. Adjusting frame rates for video applications
JP5573316B2 (ja) * 2009-05-13 2014-08-20 セイコーエプソン株式会社 画像処理方法および画像処理装置
JP5427577B2 (ja) * 2009-12-04 2014-02-26 パナソニック株式会社 表示制御装置及び表示画像形成方法
US8526488B2 (en) 2010-02-09 2013-09-03 Vanguard Software Solutions, Inc. Video sequence encoding system and algorithms
JP5660361B2 (ja) 2010-03-26 2015-01-28 ソニー株式会社 画像処理装置および方法、並びにプログラム
KR101598855B1 (ko) 2010-05-11 2016-03-14 삼성전자주식회사 입체영상 부호화 장치 및 방법
KR20110135786A (ko) * 2010-06-11 2011-12-19 삼성전자주식회사 깊이 전이 데이터를 이용한 3d 비디오 인코딩/디코딩 장치 및 방법
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US8774267B2 (en) * 2010-07-07 2014-07-08 Spinella Ip Holdings, Inc. System and method for transmission, processing, and rendering of stereoscopic and multi-view images
US8655093B2 (en) * 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
JP5281624B2 (ja) * 2010-09-29 2013-09-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム
JP5281623B2 (ja) * 2010-09-29 2013-09-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム
JP5357199B2 (ja) 2011-03-14 2013-12-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム
US9154799B2 (en) 2011-04-07 2015-10-06 Google Inc. Encoding and decoding motion via image segmentation
US20140044347A1 (en) * 2011-04-25 2014-02-13 Sharp Kabushiki Kaisha Mage coding apparatus, image coding method, image coding program, image decoding apparatus, image decoding method, and image decoding program
US8831108B2 (en) * 2011-05-04 2014-09-09 Cavium, Inc. Low latency rate control system and method
WO2013074964A1 (en) 2011-11-16 2013-05-23 Vanguard Software Solutions, Inc. Video compression for high efficiency video coding
US8615140B2 (en) 2011-11-18 2013-12-24 Canon Kabushiki Kaisha Compression of image data in accordance with depth information of pixels
EP2798842A4 (en) * 2011-12-29 2015-12-09 Intel Corp COMPRESSION WITH VARIABLE DEPTH
WO2013100635A1 (ko) * 2011-12-30 2013-07-04 (주)휴맥스 3차원 영상 부호화 방법 및 장치, 및 복호화 방법 및 장치
US9262670B2 (en) 2012-02-10 2016-02-16 Google Inc. Adaptive region of interest
US9584806B2 (en) * 2012-04-19 2017-02-28 Futurewei Technologies, Inc. Using depth information to assist motion compensation-based video coding
WO2013174439A1 (en) 2012-05-24 2013-11-28 Qatar Foundation A method and system for creating depth signatures
KR101957873B1 (ko) 2012-06-04 2019-03-13 삼성전자주식회사 3차원 영상을 위한 영상 처리 장치 및 방법
KR101336139B1 (ko) * 2012-06-11 2013-12-05 동의대학교 산학협력단 깊이 카메라를 이용한 움직임 추정 시스템 및 방법
KR101367673B1 (ko) * 2012-07-03 2014-03-03 한밭대학교 산학협력단 깊이 카메라 정보를 이용한 색상 영상 시퀀스에 대한 움직임 추정 영역 설정 방법 및 그 설정 시스템
EP2932466B1 (en) * 2012-12-12 2019-12-04 Huawei Technologies Co., Ltd. Method and apparatus for segmentation of 3d image data
WO2014090303A1 (en) * 2012-12-12 2014-06-19 Huawei Technologies Co., Ltd. Method and apparatus for segmentation of 3d image data
US9106922B2 (en) 2012-12-19 2015-08-11 Vanguard Software Solutions, Inc. Motion estimation engine for video encoding
US9860510B2 (en) * 2013-03-15 2018-01-02 Intuitive Surgical Operations, Inc. Depth based modification of captured images
US20140267616A1 (en) * 2013-03-15 2014-09-18 Scott A. Krig Variable resolution depth representation
US20140321561A1 (en) * 2013-04-26 2014-10-30 DDD IP Ventures, Ltd. System and method for depth based adaptive streaming of video information
US20150181168A1 (en) * 2013-12-20 2015-06-25 DDD IP Ventures, Ltd. Interactive quality improvement for video conferencing
US9876964B2 (en) * 2014-05-29 2018-01-23 Apple Inc. Video coding with composition and quality adaptation based on depth derivations
US9392272B1 (en) 2014-06-02 2016-07-12 Google Inc. Video coding using adaptive source variance based partitioning
US9578324B1 (en) 2014-06-27 2017-02-21 Google Inc. Video coding using statistical-based spatially differentiated partitioning
JP6456499B2 (ja) * 2015-06-23 2019-01-23 京セラ株式会社 立体物検出装置、ステレオカメラ装置、車両及び立体物検出方法
EP3319317B1 (en) * 2015-07-30 2021-04-28 Huawei Technologies Co., Ltd. Video encoding and decoding method and device
JP6537396B2 (ja) * 2015-08-03 2019-07-03 キヤノン株式会社 画像処理装置、撮像装置および画像処理方法
CN106170978B (zh) * 2015-12-25 2019-11-05 京东方科技集团股份有限公司 深度图生成装置、方法和非短暂性计算机可读介质
US11665308B2 (en) * 2017-01-31 2023-05-30 Tetavi, Ltd. System and method for rendering free viewpoint video for sport applications
FR3087309B1 (fr) * 2018-10-12 2021-08-06 Ateme Optimisation d'un sous-echantillonnage intervenant avant le codage d'images en compression
US20210105451A1 (en) * 2019-12-23 2021-04-08 Intel Corporation Scene construction using object-based immersive media

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4893183A (en) * 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
US5577130A (en) * 1991-08-05 1996-11-19 Philips Electronics North America Method and apparatus for determining the distance between an image and an object
CA2088082C (en) * 1992-02-07 1999-01-19 John Hartung Dynamic bit allocation for three-dimensional subband video coding
US5512939A (en) * 1994-04-06 1996-04-30 At&T Corp. Low bit rate audio-visual communication system having integrated perceptual speech and video coding
US5617334A (en) * 1995-07-21 1997-04-01 The Trustees Of Columbia University In The City Of New York Multi-viewpoint digital video coder/decoder and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163717A (ja) * 2007-12-10 2009-07-23 Fujifilm Corp 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム
JP2009163716A (ja) * 2007-12-10 2009-07-23 Fujifilm Corp 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム
WO2010095471A1 (ja) * 2009-02-23 2010-08-26 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
US8548228B2 (en) 2009-02-23 2013-10-01 Nippon Telegraph And Telephone Corporation Multi-view image coding method, multi-view image decoding method, multi-view image coding device, multi-view image decoding device, multi-view image coding program, and multi-view image decoding program
KR101344425B1 (ko) 2009-02-23 2013-12-23 고쿠리츠 다이가쿠 호우징 나고야 다이가쿠 다시점 화상 부호화 방법, 다시점 화상 복호 방법, 다시점 화상 부호화 장치, 다시점 화상 복호 장치, 다시점 화상 부호화 프로그램 및 다시점 화상 복호 프로그램
JP2016527791A (ja) * 2013-08-19 2016-09-08 華為技術有限公司Huawei Technologies Co.,Ltd. 画像処理方法及び装置

Also Published As

Publication number Publication date
EP1012776A4 (en) 2002-04-24
WO1998015915A1 (en) 1998-04-16
KR20000049031A (ko) 2000-07-25
EP1012776A1 (en) 2000-06-28
CA2268191A1 (en) 1998-04-16
US6055330A (en) 2000-04-25

Similar Documents

Publication Publication Date Title
JP2001509325A (ja) 3次元深度情報を利用したデジタル画像と動画像の分割と圧縮を行う方法及び装置
WO1998015915A9 (en) Methods and apparatus for performing digital image and video segmentation and compression using 3-d depth information
CN114424542B (zh) 具有非规范平滑的基于视频的点云压缩
US4951140A (en) Image encoding apparatus
Morvan et al. Platelet-based coding of depth maps for the transmission of multiview images
KR101768857B1 (ko) 다시야 비디오 코딩에서 로우 다이내믹 레인지 이미지들로부터 하이 다이내믹 레인지 이미지들의 생성
US8295350B2 (en) Image coding apparatus with segment classification and segmentation-type motion prediction circuit
Merkle et al. The effects of multiview depth video compression on multiview rendering
CN114175661A (zh) 具有补充信息消息的点云压缩
JP3197420B2 (ja) 画像符号化装置
EP1591963B1 (en) Adaptive quantisation of a depth map
US6275614B1 (en) Method and apparatus for block classification and adaptive bit allocation
US20230068178A1 (en) A method, an apparatus and a computer program product for volumetric video encoding and decoding
KR20150020175A (ko) 비디오 신호 처리 방법 및 장치
KR20010053286A (ko) 화상부호/복호방법 및 그 프로그램을 기록한 기록매체
KR20210141942A (ko) 포인트 클라우드의 처리
WO2019110124A1 (en) Frequency adjustment for texture synthesis in video coding
US5706366A (en) Apparatus for encoding an image signal having a still object using an image warping technique
JPH08340553A (ja) 映像信号符号化装置
JP2001045494A (ja) 画像符号化装置
JP4243218B2 (ja) 量子化制御装置、その方法及びそのプログラム、並びに、適応量子化符号化装置
WO2021170906A1 (en) An apparatus, a method and a computer program for volumetric video
JP2000092489A (ja) 画像符号化装置および画像符号化方法およびプログラムを記録した媒体
Ahmmed et al. Dynamic mesh commonality modeling using the cuboidal partitioning
Eryurtlu et al. Very low-bit-rate segmentation-based video coding using contour and texture prediction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080115

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080415

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080602

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080513

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080722

A313 Final decision of rejection without a dissenting response from the applicant

Free format text: JAPANESE INTERMEDIATE CODE: A313

Effective date: 20081216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090210