JP4465362B2 - 画像処理装置、画像処理方法、および画像処理プログラム - Google Patents

画像処理装置、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
JP4465362B2
JP4465362B2 JP2006535806A JP2006535806A JP4465362B2 JP 4465362 B2 JP4465362 B2 JP 4465362B2 JP 2006535806 A JP2006535806 A JP 2006535806A JP 2006535806 A JP2006535806 A JP 2006535806A JP 4465362 B2 JP4465362 B2 JP 4465362B2
Authority
JP
Japan
Prior art keywords
shot
generated
generation
image processing
similar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006535806A
Other languages
English (en)
Other versions
JPWO2006028156A1 (ja
Inventor
毅 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2006028156A1 publication Critical patent/JPWO2006028156A1/ja
Application granted granted Critical
Publication of JP4465362B2 publication Critical patent/JP4465362B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

この発明は、動画像を符号化あるいは復号する画像処理装置、画像処理方法、および画像処理プログラムに関する。ただし本発明の利用は、上述した画像処理装置、画像処理方法、および画像処理プログラムに限らない。
動画像の符号化における符号効率の向上、動画像へのアクセス方法の多様化、動画像のブラウジングの容易化、ファイル形式変換の容易化などといった様々な目的で、動画像の構造化(具体的にはフレーム順序の並び替え、ショット単位での階層化など)を行う従来技術としては、たとえば下記特許文献1〜5に記載の発明などがあった。
このうち特許文献1に記載の従来技術では、ファイル作成手段により動画像データのフレーム単位での並び換え順序を示す編集情報を作成する。また、画像圧縮手段は編集前の動画像データを前フレームとの差分を基に圧縮符号化し、その符号化データを上記編集情報ファイルと共に出力手段から送信する。
また、特許文献2に記載の従来技術では、画像データ列メモリ部に保存された予測符号化画像データを読み出し、階層分離部でそのデータ構造が持つ階層に応じて階層に分離する。次に、分離された階層から画像データの持つ物理的特徴、すなわち一般性を有しコンテントを反映した特徴を、画像特徴抽出部にて抽出する。次に、これらの物理的特徴から各々の画像を特徴付ける特徴ベクトルを特徴ベクトル生成部にて生成する。次に、その特徴ベクトル間での距離を算出して特徴ベクトルを、分割・統合部にて分割・統合して映像を深い階層構造で自動的に構造化し、特徴ベクトル管理部にて蓄積、管理する。
また、特許文献3に記載の従来技術は、動画像を符号化し、該符号化された動画像を各ショットに分割し、ついで分割されたショット毎の類似度を用い、ショットを統合してシーンを抽出処理することを特徴とした動画像の自動階層構造化方法であり、かつまたこの階層構造化されたデータを用いて動画像全体の内容把握、所望のシーンまたはショットの検出を容易にすることを特徴とした動画像のブラウジング方法にかかるものである。
また、特許文献4に記載の従来技術では、複数のカメラで撮像した複数チャンネルの映像信号を切替手段で順番に切り替え、並び替え手段でチャンネル毎にGOP単位で並び替え、MPEG圧縮手段で圧縮して記録手段に記録するとともに、MPEG伸長手段で各チャンネル毎に伸長し、表示制御手段で映像データを多画面表示できるように、データサイズを圧縮して複数の表示用メモリの所定位置に各チャンネルの入力順にまとめて保存、再生し、画像出力手段がモニタの1画面に多画面表示する。
また、特許文献5に記載の従来技術では、第1の動画像符号化データ形式であるMPEG−2形式のビットストリームA1をMPEG−2デコーダによりデコードして得られた再生動画像信号A2及びサイド情報A3をサイズ変換部により第2の動画像符号化データ形式であるMPEG−4形式に適した形態に変換し、変換後の再生画像信号A4を変換後のサイド情報A5に含まれる動きベクトル情報を利用してMPEG−4エンコーダによってエンコードすることによりMPEG−4形式のビットストリームA6を得ると同時に、インデキシング部によりサイド情報A5に含まれる動きベクトルを利用してインデキシング処理を行い、構造化データA7を得る。
特開平8−186789号公報 特開平9−294277号公報 特開平10−257436号公報 特開2001−054106号公報 特開2002−185969号公報
一方、動画像の符号化における符号効率の向上を目的として、従来様々な予測方式が提案されてきた。たとえばMPEG−1では前方向予測フレーム(Pフレーム)や両方向予測フレーム(Bフレーム)の採用により、MPEG−2ではフィールド予測の採用により、MPEG−4 part 2ではスプライト符号化やGMC(Global Motion Compensation:グローバル動き補償予測)の採用により、ITU−T H.264/MPEG−4 part 10(AVC:Advanced Video Coding)では複数参照フレームの採用により、それぞれ符号効率を向上させている。
ところで符号化対象となる映像の中には、通常、以下に例示するような相互に類似するショット(連続する複数フレーム)が多く含まれている。
・ニュース番組におけるニュースキャスターへのバストショット
・野球での投球/バッティングシーン、テニスのサーブシーン、スキージャンプの滑降/飛行シーンなど
・スポーツ番組などにおけるハイライトシーンの繰り返し
・バラエティ番組などにおけるCM前後の同一ショットの繰り返し
・二人の会話シーンにおける互いへのアップショットの繰り返しを考えた場合の、各人へのアップショット
・連続ドラマを全話通して考えた場合の、オープニングやエンディング、あるいは前話の回想シーンなど
・同一CMの繰り返し
同一ショットの繰り返しはもとより、固定カメラからの同一アングルへのショットはしばしば類似ショットとなる。そして、こうした類似ショットは独立して符号化するよりも、一方からもう一方を参照してそれらの差分を符号化したほうが、全体として符号量が削減できると期待できる。
しかしながら従来のMPEGにおいては、対象映像全体の構造、たとえば上記のような類似ショットの繰り返しを符号化に利用せず(言い換えれば、類似ショット間の情報量の冗長性を利用せず)、通常ほぼ時系列順に符号化を行うため、たとえばそのぶん符号効率が悪いなどの問題点があった。
上述した課題を解決し、目的を達成するため、請求項1の発明にかかる画像処理装置は、動画像を連続する複数のフレームからなる複数のショットに分割するショット分割手段と、前記ショット分割手段により分割されたショットの中から符号化対象となる第1のショットに類似する第2のショットを検出するショット検出手段と、前記ショット検出手段により検出された第2のショットの時間長を補正して第3のショットを生成するショット生成手段と、前記第1のショットと前記ショット生成手段により生成された第3のショットとの差分を符号化する符号化手段と、を備えることを特徴とする。
また、請求項7の発明にかかる画像処理装置は、動画像の符号化データ中、連続する複数のフレームからなる第1のショットの符号化データを復号するショット復号手段と、前記動画像の符号化データ中のショット生成情報で特定される手法により、前記第1のショットに類似する前記動画像中の第2のショットの時間長を補正して第3のショットを生成するショット生成手段と、前記ショット復号手段により復号された符号化データと前記ショット生成手段により生成された第3のショットとを加算するショット加算手段と、を備えることを特徴とする。
また、請求項9の発明にかかる画像処理方法は、動画像を連続する複数のフレームからなる複数のショットに分割するショット分割工程と、前記ショット分割工程で分割されたショットの中から符号化対象となる第1のショットに類似する第2のショットを検出するショット検出工程と、前記ショット検出工程で検出された第2のショットの時間長を補正して第3のショットを生成するショット生成工程と、前記第1のショットと前記ショット生成工程で生成された第3のショットとの差分を符号化する符号化工程と、を含むことを特徴とする。
また、請求項15の発明にかかる画像処理方法は、動画像の符号化データ中、連続する複数のフレームからなる第1のショットの符号化データを復号するショット復号工程と、前記動画像の符号化データ中のショット生成情報で特定される手法により、前記第1のショットに類似する前記動画像中の第2のショットの時間長を補正して第3のショットを生成するショット生成工程と、前記ショット復号工程で復号された符号化データと前記ショット生成工程で生成された第3のショットとを加算するショット加算工程と、を含むことを特徴とする。
また、請求項17の発明にかかる画像処理プログラムは、動画像を連続する複数のフレームからなる複数のショットに分割するショット分割工程と、前記ショット分割工程で分割されたショットの中から符号化対象となる第1のショットに類似する第2のショットを検出するショット検出工程と、前記ショット検出工程で検出された第2のショットの時間長を補正して第3のショットを生成するショット生成工程と、前記第1のショットと前記ショット生成工程で生成された第3のショットとの差分を符号化する符号化工程と、をプロセッサに実行させることを特徴とする。
また、請求項23の発明にかかる画像処理プログラムは、動画像の符号化データ中、連続する複数のフレームからなる第1のショットの符号化データを復号するショット復号工程と、前記動画像の符号化データ中のショット生成情報で特定される手法により、前記第1のショットに類似する前記動画像中の第2のショットの時間長を補正して第3のショットを生成するショット生成工程と、前記ショット復号工程で復号された符号化データと前記ショット生成工程で生成された第3のショットとを加算するショット加算工程と、をプロセッサに実行させることを特徴とする。
図1は、本発明により分割・分類されたショット間の参照関係を示す説明図である。 図2は、特徴量ベクトルの基礎となる各ショットの特徴量を模式的に示す説明図である。 図3は、「原類似ショット」「参照類似ショット」「対象類似ショット」の関係を模式的に示す説明図である。 図4は、原類似ショットの時間長補正の一手法(フレーム位置を補正しない場合)を模式的に示す説明図である。 図5は、原類似ショットの時間長補正の一手法(フレーム位置を補正する場合)を模式的に示す説明図である。 図6は、参照類似ショット生成情報の具体例を示す説明図である。 図7は、参照類似ショットの生成の一手法(単一の原類似ショットの全区間を使用する場合)を模式的に示す説明図である。 図8は、参照類似ショットの生成の一手法(単一の原類似ショットの一部区間を使用する場合)を模式的に示す説明図である。 図9は、参照類似ショットの生成の一手法(複数の原類似ショットを使用する場合)を模式的に示す説明図である。 図10は、参照類似ショットの生成の一手法(複数の原類似ショットを重み付け平均して使用する場合)を模式的に示す説明図である。 図11は、フレーム位置の異なるショット間の重み付け平均の計算例を模式的に示す説明図である。 図12は、フレーム位置の異なるショット間の差分の計算例を模式的に示す説明図である。 図13は、この発明の実施例1にかかる画像処理装置(エンコーダ)の構成の一例を示す説明図である。 図14は、従来技術によるJPEG/MPEGエンコーダ(動き補償なし)の構成の一例を示す説明図である。 図15は、この発明の実施例1にかかる画像処理装置(エンコーダ)における、画像符号化処理の手順を示すフローチャートである。 図16は、この発明の実施例1にかかる画像処理装置(デコーダ)の構成の一例を示す説明図である。 図17は、この発明の実施例1にかかる画像処理装置(デコーダ)における、画像復号処理の手順を示すフローチャートである。 図18は、この発明の実施例2にかかる画像処理装置(エンコーダ)の構成の一例を示す説明図である。 図19は、従来技術によるJPEG/MPEGエンコーダ(動き補償あり)の構成の一例を示す説明図である。 図20は、グローバル動き補償予測の概念を模式的に示す説明図である。 図21は、ブロック単位の動き補償予測の概念を模式的に示す説明図である。 図22は、フレーム間動き情報の具体例を示す説明図である。 図23は、修正参照類似ショットの生成の一手法(フレーム位置を補正しない場合)を模式的に示す説明図である。 図24は、修正参照類似ショットの生成の一手法(フレーム位置を補正する場合)を模式的に示す説明図である。 図25は、この発明の実施例2にかかる画像処理装置(エンコーダ)における、画像符号化処理の手順を示すフローチャートである。 図26は、この発明の実施例2にかかる画像処理装置(デコーダ)の構成の一例を示す説明図である。 図27は、この発明の実施例2にかかる画像処理装置(デコーダ)における、画像復号処理の手順を示すフローチャートである。 図28は、この発明の実施例1にかかる画像処理装置(エンコーダ)の構成の他の一例を示す説明図である(従来技術のエンコーダをそのまま利用する場合)。 図29は、この発明の実施例2にかかる画像処理装置(エンコーダ)の構成の他の一例を示す説明図である(従来技術のエンコーダをそのまま利用する場合)。 図30は、この発明の実施例1にかかる画像処理装置(デコーダ)の構成の他の一例を示す説明図である(従来技術のデコーダをそのまま利用する場合)。 図31は、この発明の実施例2にかかる画像処理装置(デコーダ)の構成の他の一例を示す説明図である(従来技術のデコーダをそのまま利用する場合)。
符号の説明
1300,1400,1800,1900 変換部
1301,1401,1801,1901 量子化部
1302,1402,1802,1902 エントロピー符号化部
1303,1403,1803,1903 符号化制御部
1304,1404,1601,1804,1904,2601 逆量子化部
1305,1405,1602,1805,1905,2602 逆変換部
1306,1603,1806,2603 原類似ショット記憶メモリ
1307,1807 ショット分割部
1308,1808 類似ショット検出部
1309,1809 生成手法決定部
1310,1604,1810,2604 参照類似ショット生成部
1406,1906 参照フレーム記憶メモリ
1600,2600 エントロピー復号部
1811,1907 フレーム間動き検出部
1812,1908,2605 フレーム間動き補償部
2800,2900 符号化器
2801,2901 多重化部
3000,3100 復号器
3001,3101 分離多重化部
以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法、および画像処理プログラムの好適な実施の形態を詳細に説明する。
(実施の形態)
本発明は一言で言えば、符号化対象となる映像を連続する複数フレーム、すなわちショットに分割するとともに、個々のショットについて、当該ショットに類似するショットとの差分を符号化する(符号化対象となるショット内の各フレームの参照フレームを、当該ショットに類似するショット内の対応する各フレームとする)ものである。通常、類似するショットではショットを構成するフレームも類似するので、フレーム間の差の値は0近傍に集中することが予想され、単純に符号化対象フレームからの距離で参照フレームを決定する従来技術に比べて、符号量の削減が期待される。
図1は、本発明により分割・分類されたショット間の参照関係を示す説明図である。図示する例では、映像内のショットは類似するもの同士A・B・Cの3グループ(類似ショット群)に分類され、たとえばAグループ中、ショット「A3」はショット「A0」を参照して(前方向予測)、「A1」や「A2」は「A0」および「A3」を参照して(両方向予測)、それぞれ符号化される。このように参照先のショットはいくつあってもよく、また過去のショット(時間的に前のショット)はもちろん、未来のショット(時間的に後のショット)であってもよい。従ってショットの符号化/復号の順序は必ずしも時系列順、すなわち映像内での出現順序と同一にはならない。
なおショットの分割点となるのは、たとえば上記映像中での画像特徴量の変化点や、背景音声の特徴量の変化点である。このうち画像特徴量の変化点としては、たとえば画面の切り替わり(シーンチェンジ、カット点)や、カメラワークの変化点(シーンチェンジ/パン/ズーム/静止などの変化点)などが考えられる。もっとも、分割点をどこにするかやその分割点をどうやって特定するか(言い換えれば、ショットをどのように構成するか)は本発明では特に問わない。
また、ショット間の類似度をどのようにして算出するかも本発明では特に問わないが、ここではたとえば各ショットにつき、その特徴量ベクトルXを求め、特徴量ベクトル間のユークリッド距離をショット間の類似度であるとみなす。
たとえばショットaの特徴量ベクトルXaは、ショットaをN個に分割して得られた各部分ショットの累積カラーヒストグラムを要素とする多次元のベクトルであるものとする。図2に示すようにN=3のとき、
Xa={HSa、HMa、HEa}
ただしHSa:図中「開始分割ショット」の累積カラーヒストグラム
HMa:図中「中間分割ショット」の累積カラーヒストグラム
HEa:図中「終了分割ショット」の累積カラーヒストグラム
なおHSa、HMa、HEa自体も多次元の特徴量ベクトルである。
なお「カラーヒストグラム」とは、色空間を複数の領域に分割し、フレーム内の全画素について各領域での出現数をカウントしたものである。色空間としてはたとえばRGB(R/赤、G/緑、B/青)、YCbCr(Y/輝度、CbCr/色差)のCbCr成分、HSV(Hue/色相、Saturation/彩度、Value/明度)のHue成分が利用される。得られたヒストグラムをフレーム内の画素数で正規化することで、サイズが異なる画像同士の比較も可能となる。この正規化されたヒストグラムをショット内の全フレームについて累積したものが「累積カラーヒストグラム」である。
次に、ショットaとショットbの類似度Da,bを、上記で求めた特徴量ベクトルを用いてたとえば下記式により算出する。この値が小さい(特徴ベクトル間の距離が小さい)ショットほど類似度は高く、大きい(特徴ベクトル間の距離が大きい)ショットほど類似度は低くなる。そして本発明では、この値が所定の閾値以下であるショット同士をグループ化するとともに、各ショットにつき同一グループ内の他のショットとの差分を符号化することで、符号効率の向上をはかる。
Figure 0004465362
ただ、符号化対象のショットの時間長と、その参照先となるショットの時間長とは必ずしも同一ではないので、そのまま単純に差分を計算することはできない。具体的には、後者のショットを時間伸長あるいは短縮して前者に合わせ込む補正が必要である。そこで本発明では、この補正前のショットを「原類似ショット」と呼び、原類似ショットから上記補正により生成され、符号化対象となるショット(以下では「対象類似ショット」と呼ぶ)から差し引かれるショットを「参照類似ショット」と呼ぶ。図3に、「原類似ショット」「参照類似ショット」「対象類似ショット」の関係を模式的に示す。
なお、上記補正の手法にはフレーム位置の補正(フレームの補間あるいは間引き)を伴う場合と伴わない場合との下記2つが考えられるが、上記補正の手法は下記に限定されるものではない。
(原類似ショットの時間長補正・手法1)フレーム位置を補正しない場合
図4に示すように、原類似ショットのフレーム間隔を変化させる、すなわち原類似ショット中のフレームの修正をまったく行わず、単に見かけのショット時間長を変化させるだけの手法である。この手法によるショットの時間伸長/短縮処理は簡単であるが、図示するように参照類似ショットと対象類似ショットとのフレーム位置が合わないので、後続の処理ではこのずれを考慮した処理が必要となる。
(原類似ショットの時間長補正・手法2)フレーム位置を補正する場合
図5に示すように、原類似ショットを手法1と同様に時間伸長/短縮した後、さらに対象類似ショットと同一の位置にフレームを補間する手法である。たとえば時間長補正後の原類似ショット中、対象類似ショットの対象フレームの前後に位置する2フレームを、対象フレームとの距離に応じて重み付け平均し、これを対象フレームと同一の位置に補間する。この手法は原類似ショット中の全フレームの修正を伴うので処理は複雑であるが、図示するように参照類似ショットと対象類似ショットとのフレーム位置が合っているので、後続の処理は同一位置のフレーム同士の簡単な比較となる。
なお、参照類似ショットの生成に使用する原類似ショットは、対象類似ショットに類似するショットであればどのショットであっても、またそのどの部分であってもよいが、ここではたとえば下記5つの手法を考える。また、各手法で参照類似ショットを生成したときに復号側で必要となる(従って符号化ストリームに組み込む必要がある)参照類似ショット生成情報の具体例を図6に示す。
(参照類似ショットの生成・手法1)単一の原類似ショットの全区間を使用
図3に示したように、一つの原類似ショットの全区間を時間伸長あるいは短縮して参照類似ショットを生成する手法である(図3は時間短縮の例である)。この手法を採用した場合、参照類似ショット生成情報として必要なのは、使用する原類似ショットを識別するためのID(原類似ショットID)のみである。なお、原類似ショットの伸縮率は、原類似ショットと対象類似ショットの時間比率により一意に定まる。
もっとも、必ずしも対象類似ショットの全区間を参照類似ショットから予測符号化しなければならないものではない。類似するショット間であっても、対応するフレーム同士がすべて類似するとは限らないので、たとえば図7に示すように対象類似ショット中、原類似ショットとのマッチングの良い区間だけについて部分的に参照類似ショットを生成するようにしてもよい。このとき対象類似ショット中、対応する参照類似ショットのない区間のフレームはそのまま符号化(すなわち、他フレームとの差を取らずにイントラ符号化)する。なお、当該区間については参照類似ショットがないと考えることもできるが、値がすべて0の参照類似ショットがあると考えることもできる。
この手法を採用した場合に参照類似ショット生成情報として必要なのは、対象類似ショットのどの区間(どこからどこまで)について参照類似ショットを生成するかを指定する開始時間SRと時間長DR、および参照類似ショットの生成に使用する原類似ショットのIDである(図6参照)。上述の図3のケースは、図7において開始時間SR=対象類似ショットの先頭、時間長DR=対象類似ショットの時間長であるために、これらがなくても原類似ショットIDがあれば足りる特別の場合である。
(参照類似ショットの生成・手法2)単一の原類似ショットの一部区間を使用
図8に示すように、一つの原類似ショットの一部区間を時間伸長あるいは短縮して参照類似ショットを生成する手法である(図8は時間短縮の例である)。この手法を採用した場合に参照類似ショット生成情報として必要なのは、対象類似ショットのどの区間について参照類似ショットを生成するかを指定する開始時間SRと時間長DR、参照類似ショットの生成に使用する原類似ショットのID、原類似ショットのどの区間を参照類似ショットの生成に使用するかを指定する開始時間SOと時間長DOである(図6参照)。
(参照類似ショットの生成・手法3)複数の原類似ショットを使用
図9に示すように、複数の原類似ショットの全区間あるいは一部区間を、時間伸長あるいは短縮して参照類似ショットの一部区間を生成する手法である。図示する例では、原類似ショット1についてはその一部区間を用いて、原類似ショット2についてはその全区間を用いて、それぞれ参照類似ショットの一部が生成されている。この手法を採用した場合の参照類似ショット生成情報には、参照類似ショットを構成するそれぞれの部分(図示する例では3つ)について、上述の開始時間SRnと時間長DRn、原類似ショットID、開始時間SOnと時間長DOnが必要である(図6参照)。なお、この記述順は各部分の時間順であるのが望ましい。
(参照類似ショットの生成・手法4)複数の原類似ショットを重み付け平均して使用
図10に示すように、複数の原類似ショットの全区間あるいは一部区間を、時間伸長あるいは短縮したものをさらに重み付け平均して「平均ショット」を生成し、この「平均ショット」から参照類似ショットの全区間あるいは一部区間を生成する手法である。図示する例では、参照類似ショットの最初の部分は、原類似ショット1の一部区間を時間伸長/短縮したものと、原類似ショット2の全区間を時間伸長/短縮したものとの平均ショットから生成されている。中間部分や最後の部分も、同様に複数(必ずしも2つとは限らない)の原類似ショットの平均により生成されたものである。なお、重み付け係数は平均対象のショットごとに固定としてもよいし、フレームごとに個々に決定してもよい。また、この係数がショット間/フレーム間で等しい場合は単なる平均となるが、本発明では単なる平均も重み付け平均の一種(重み付け平均の特別な場合)として扱う。
なお、平均対象となるそれぞれのショットでフレーム位置が合っている場合は、単純に同一位置にあるフレーム間の重み付け平均を算出すればよい。一方、フレーム位置が合っていない場合は、たとえば図11に示すように各ショット中、対象類似ショットの対象フレームに時間的に最も近い2フレームを重み付け平均することで、フレーム位置が対象類似ショットと同一の平均ショットを生成し、これを参照類似ショットとする。なお、重み付け係数は平均対象のショットごとに固定としてもよいし、フレームごとに個々に決定してもよい(後者の場合、重みはたとえば上記対象フレームとの距離に応じて決定される)。
この手法を採用した場合の参照類似ショット生成情報には、参照類似ショットを構成する各部分(図示する例では3つ)について、上述の開始時間SRnと時間長DRn、そして各部分の元となるそれぞれの原類似ショットについて、そのID、開始時間SOn、時間長DOn、重み付け係数が必要である(図6参照)。なお、この手法の適応例としては具体的にはクロスフェードがあり、使用する原類似ショットやその区間を変えなくても、それぞれの重み付け係数を変えるだけで、対象類似ショットとより良くマッチングする参照類似ショットを生成できる。
(参照類似ショットの生成・手法5)上記手法1〜4の組み合わせ
手法1〜4のうち最適な手法でそれぞれのショットを符号化する。この場合は参照類似ショット生成情報中に、各手法で必要な情報(上述のSRn、DRn、SOn、DOn、原類似ショットID、重み付け係数など)のほか、どの手法で参照類似ショットを生成するかを示す手法IDが必要となる(図6参照)。
そして本発明では上述のように、対象類似ショットから、上記各手法により生成された参照類似ショットを差し引いたもの(以下では「差分類似ショット」という)を符号化する。このとき、対象類似ショットと参照類似ショットのフレーム位置が合っていれば、単純に同一位置にあるフレーム間の差を取ればよいが、フレーム位置が合っていない場合は、たとえば図12に示すように、対象類似ショット中の各フレームと、参照類似フレーム中、上記各フレームに時間的に最も近いフレームとの差を取るようにする。
図13は、この発明の実施例1にかかる画像処理装置(エンコーダ)の構成の一例を示す説明図である。また図14は、従来技術によるJPEG/MPEGエンコーダ(動き補償なし)の構成の一例を示す説明図である。
図13中、1300〜1305は図14の同名の各部と同一である。すなわち、1300/1400は符号化対象フレーム(から参照フレームを差し引いた予測誤差)について離散コサイン変換(DCT)や離散ウェーブレット変換(DWT)などを行う変換部、1301/1401は上記変換後のデータを所定のステップ幅で量子化する量子化部、1302/1402は上記量子化後のデータなどを符号化する(その手法は特に問わない)エントロピー符号化部、1303/1403は各種符号化タイプの決定、レート制御のための量子化ステップの決定などを行う符号化制御部である。また、1304/1404は量子化後/符号化前のデータを逆量子化する逆量子化部、1305/1405は逆量子化後のデータをさらに逆変換する逆変換部である。
1306は逆変換後のフレームにその参照フレームを足し合わせたもの、すなわちローカルデコード画像を少なくとも1ショット分保持する原類似ショット記憶メモリである。図14にも、ローカルデコード画像を保持するための参照フレーム記憶メモリ1406があるが、従来技術の参照フレーム記憶メモリ1406が上記画像をフレーム単位で保持するのに対し、本発明の原類似ショット記憶メモリ1306はショット単位で保持する点が違っている。なお、原類似ショット記憶メモリ1306に保持される原類似ショット数(そこに含まれる総フレーム数)は、実装上はメモリ容量により制限されるが、アルゴリズム的には制限はない。
また、1307はショット分割部であり、符号化対象となる映像を複数のショットに分割する機能部である。1308は類似ショット検出部であり、ショット分割部1307で分割された各ショット間の類似度を計算するとともに、この類似度を基礎として、上記ショットを複数のグループ(類似ショット群)に分類する機能部である。
また、1309は対象類似ショットと、原類似ショット記憶メモリ1306内の原類似ショットとを比較(マッチング)して、参照類似ショットの生成手法(対象類似ショットのどの区間について参照類似ショットを生成するか、その生成にどの原類似ショットのどの区間を使用するか、など)を決定する生成手法決定部である。理想的には最適な手法、すなわち差分類似ショットの値ができるだけ0近傍に集中するような手法を探索するが、この探索の手順などは本発明では特に問わない。評価指標としては上述の類似度のほか、カラーヒストグラム、あるいはフレーム全体のグローバル動き情報やブロック単位の動きベクトル情報などを利用できる。
また、1310は生成手法決定部1309により決定された手法に従って、原類似ショット記憶メモリ1306内の原類似ショットから参照類似ショットを生成する参照類似ショット生成部である。
図15は、この発明の実施例1にかかる画像処理装置(エンコーダ)における、画像符号化処理の手順を示すフローチャートである。まず、符号化対象の映像をショット分割部1307で複数のショットに分割し(ステップS1501)、次に類似ショット検出部1308で各ショットの類似ショットを検出、すなわちショット間の類似度を基礎として、上記各ショットを複数のグループに分類する(ステップS1502)。
その後、本装置は未処理の(まだ符号化していない)ショットがある限り(ステップS1503:No)、ステップS1503〜S1510の処理を繰り返す。まず、対象類似ショットがショット内符号化、すなわち他のショットを参照しないで符号化すべきショットであるかどうかを判定する。
類似する複数のショット中、少なくとも一つのショットはショット内符号化される必要がある。たとえば図1のAグループでは「A0」がこれに該当し、当該ショットについてはショット内の各フレームをそのまま変換部1300/量子化部1301で変換/量子化(ステップS1504:Yes、ステップS1508)、エントロピー符号化部1302でエントロピー符号化する(ステップS1509)。また、変換・量子化後のデータは逆量子化部1304・逆変換部1305によりローカルデコード(逆量子化および逆変換)される(ステップS1510)。
一方、図1の「A1」〜「A4」のように、類似する他のショットを参照するショットについては(ステップS1504:No)、まず生成手法決定部1309で参照類似ショットの生成手法を決定した後(ステップS1505)、決定された手法に従って参照類似ショット生成部1310で参照類似ショットを生成し(ステップS1506)、さらに対象類似ショットと参照類似ショットとの差、すなわち差分類似ショットを生成する(ステップS1507)。その後この差分類似ショットにつき、変換部1300/量子化部1301による変換/量子化(ステップS1508)、エントロピー符号化部1302によるエントロピー符号化(ステップS1509)、逆量子化部1304/逆変換部1305によるローカルデコード(逆量子化および逆変換)を行う(ステップS1510)。
そして、映像内の全ショットを符号化した時点で(ステップS1503:Yes)、本フローチャートによる処理を終了する。なお、生成手法決定部1309で決定された生成手法に対応する参照類似ショット生成情報(図6参照)も、エントロピー符号化部1302により符号化され、量子化部1301からのショット符号化ストリーム(各ショットの符号化データ)と多重化されて1本の符号化ストリームとなる。なお、本発明ではこの多重化の手法は特に問わない。また、ショット符号化ストリームと参照類似ショット生成情報を多重化する必要があるかどうかはアプリケーション次第であるので、これらを多重化せず、別個のストリームとして伝送するようにしてもよい。
なお、このように本発明では最初に対象映像全体を走査してショットの分割・分類を行うので、マルチパスによる映像符号化が可能、つまり符号化遅延が問題とされない分野での映像符号化に適している。応用例としては流通メディア(次世代光ディスクなど)の映像符号化、蓄積メディアにためたコンテンツのトランスコーディング(データ量圧縮、メモリカードへのムーブなど)が挙げられる。他にもブロードバンド・ストリーミングや録画済み(符号化済み)番組の放送用の映像符号化としても利用可能である。
次に、上記のようにして符号化された映像の復号について説明する。図16は、この発明の実施例1にかかる画像処理装置(デコーダ)の構成の一例を示す説明図である。図中、1600は入力した符号化ストリームを復号するとともに、復号後のショット符号化ストリームを逆量子化部1601へ、参照類似ショット生成情報を参照類似ショット生成部1604へ、それぞれ出力するエントロピー復号部である。1601はショット符号化ストリームを逆量子化する逆量子化部、1602は逆量子化後のショット符号化ストリームをさらに逆変換する逆変換部である。
1603は、復号画像を少なくとも1ショット分保持する原類似ショット記憶メモリである。1604は、エントロピー復号部1600から入力した参照類似ショット生成情報に従って、原類似ショット記憶メモリ1603内の原類似ショットから参照類似ショットを生成する参照類似ショット生成部である。
図17は、この発明の実施例1にかかる画像処理装置(デコーダ)における、画像復号処理の手順を示すフローチャートである。未処理の(まだ復号していない)ショットがある限り(ステップS1701:No)、本装置はまずエントロピー復号部1600で、符号化ストリーム中の当該ショットを復号し(ステップS1702)、さらに復号後のショットを逆量子化部1601で逆量子化、および逆変換部1602で逆変換(ステップS1703)する。
その後、上記ショットがショット内符号化、すなわち他のショットを参照せずに符号化されたものであれば(ステップS1704:Yes)、上記逆変換後のデータを復号画像としてそのまま出力する(ステップS1706)。一方、上記ショットが他のショットを参照して符号化されたものであれば(ステップS1704:No)、参照類似ショット生成部1604はエントロピー復号部1600から入力した参照類似ショット生成情報に従って、原類似ショット記憶メモリ1603内の復号画像(原類似ショット)から参照類似ショットを生成する(ステップS1705)。そして、逆変換部1602からの差分類似ショットとその参照類似ショットとを加算したものが復号画像として出力される(ステップS1706)。
さて、上述した実施例1では、対象類似ショット内の各フレームと参照類似ショット内の対応するフレームとの差を単純に計算しているが、このときフレーム間の動き補償を行えば、さらに符号効率が向上すると期待される。図18は、この発明の実施例2にかかる画像処理装置(エンコーダ)の構成の一例を示す説明図である。また、図19は従来技術によるJPEG/MPEGエンコーダ(動き補償あり)の構成の一例を示す説明図である。
図18は、従来のJPEG/MPEGエンコーダの参照フレーム記憶メモリ1906を原類似ショット記憶メモリ1806に差し替えるとともに、ショット分割部1807、類似ショット検出部1808、生成手法決定部1809および参照類似ショット生成部1810を追加した構成である(上記以外の各部、すなわち変換部1800、量子化部1801、エントロピー符号化部1802、符号化制御部1803、逆量子化部1804および逆変換部1805の機能は、図19の同名の各部の機能と同一、すなわち従来技術と同一であるので説明を省略する)。あるいは図13に示した実施例1のエンコーダの構成に、フレーム間動き検出部1811とフレーム間動き補償部1812を追加したものと言うこともできる。
なお、フレーム間動き補償予測の手法は本発明では特に問わないが、従来手法には大別して下記の2つがある。
(フレーム間動き補償予測・手法1)グローバル動き補償予測(図20)
これは参照フレーム内の四角形領域を、符号化対象フレームの矩形領域にワーピング処理(平行移動、拡大/縮小、回転、アフィン変換、透視変換など)するものである。具体的には、たとえばMPEG−4(ISO/IEC14496−2)の7.8章「Sprite decoding」がある。このグローバル動き補償予測により、フレーム全体の動きを捉えることができ、フレーム内のオブジェクトの位置ずれ/変形の修正が可能となる。
(フレーム間動き補償予測・手法2)ブロック単位での動き補償予測(図21)
これは符号化対象フレームを正方格子状に分割し、このブロック単位で手法1と同様のワーピング処理を行うものである。ワーピング処理の一例としてたとえば平行移動の場合、個々のブロックごとに参照フレーム内で最も誤差が小さくなる領域を探索し、符号化対象フレームの各ブロックと、参照フレームの各探索結果領域の位置ずれを動きベクトルとして伝送する。このブロックの大きさはMPEG−1やMPEG−2では16×16画素(「マクロブロック」と呼ばれる)である。さらにMPEG−4では8×8画素、H.264では4×4画素の小さなブロックも許される。なお参照フレームは一つに限定されず、複数の参照フレームから最適な領域を選択するようにしてもよい。この場合は動きベクトル情報のほかに、参照フレームのIDなども伝送する必要がある。このブロック単位での動き補償予測により、フレーム内の局所的なオブジェクトの動きに対応できる。
なお、上記のようなフレーム間動き補償予測を行う場合に、復号側で必要となる(従って符号化ストリームに組み込む必要がある)フレーム間動き情報の具体例を図22に示す。図示する例はグローバル動き予測とブロック単位での動き予測の双方を併用した例であるが、当然片方だけ使用するのでも問題はない。
より具体的にフレーム間動き補償の方法を説明すると、まず対象類似ショットの各フレームと、参照類似ショットの少なくとも一つのフレームとの間でのフレーム間動き情報(たとえばアフィン変換係数や動きベクトル情報など)をフレーム間動き検出部1811で算出し、次にフレーム間動き補償部1812で、このフレーム間動き情報に従って参照類似ショットから修正参照類似ショットの各フレーム(対象類似ショットの各フレームに対する予測フレーム)を生成する。
ここで、対象類似ショットと参照類似ショットとの間でフレーム位置が合っている場合は、自然と対象類似ショットと修正参照類似ショットとの間のフレーム位置も合う。よって単純に対象類似ショット内の各フレームから、修正参照類似ショット内の同一位置にある各フレームを差し引いたものを符号化すればよい。すなわち、参照類似ショットと対象類似ショットとの類似度を動き補償予測でさらに高めることで、差分類似ショットの値がより0近傍に集中するようにする。なお、このフレーム間動き情報はショット符号化ストリームと多重化され、1本の符号化ストリームとされる。
一方、対象類似ショットと参照類似ショットとの間でフレーム位置が合っていない場合は、フレーム位置修正のための処理が必要となり、たとえば下記2つが考えられるが、逆に修正参照類似ショットの生成手法は下記に限定されるものではない。
(修正参照類似ショットの生成・手法1)フレーム位置を補正しない場合
図23に示すように、対象類似ショットの各フレームと、参照類似ショット内の少なくとも一つのフレームとの間で動き検出を行う。そして得られたフレーム間動き情報により、参照類似ショットにフレーム間動き補償を行い、修正参照類似ショットの各フレームを生成する。このとき修正参照類似ショットの各フレームの位置は参照類似ショットと同一とする(参照類似ショットのフレーム位置を保存する)ものである。この場合は修正参照類似ショット中、たとえば対象類似ショットの対象フレームに時間的に最も近いフレームと、対象フレームとの差分を符号化すればよい。
(修正参照類似ショットの生成・手法2)フレーム位置を補正する場合
図24に示すように、手法1同様、フレーム間動き補償により修正参照類似ショットの各フレームを生成するが、同時に修正参照類似ショットの各フレームの位置を対象類似ショットと同一の位置に補正(補間あるいは間引き)するものである。この場合は対象類似ショット内の各フレームと、修正参照類似ショット内の同一位置にある各フレームとの差分を符号化すればよい。
図25は、この発明の実施例2にかかる画像処理装置(エンコーダ)における、画像符号化処理の手順を示すフローチャートである。図15に示した実施例1の画像符号化処理との差異は、参照類似ショットの生成後(ステップS2506)に、フレーム間動き検出処理(ステップS2507)とフレーム間動き補償処理/修正参照類似ショット生成処理(ステップS2508)とが追加されている点である。そして、ステップS2508で生成された修正参照類似ショットを、対象類似ショットから差し引くことで差分類似ショットを生成する(ステップS2509)。このステップS2507〜S2509以外の各ステップ、すなわちステップS2501〜S2506およびステップS2510〜S2512における処理は、図15の同名のステップでの処理と同様である。
次に、上記のようにして符号化された映像の復号について説明する。図26は、この発明の実施例2にかかる画像処理装置(デコーダ)の構成の一例を示す説明図である。図16に示した実施例1のデコーダとの差異は、参照類似ショット生成部2604で生成された参照類似ショットから、動き補償予測により修正参照類似ショットを生成するフレーム間動き補償部2605が追加されている点である。このフレーム間動き補償部2605以外の各部、すなわちエントロピー復号部2600、逆量子化部2601、逆変換部2602、原類似ショット記憶メモリ2603および参照類似ショット生成部2604の機能は、図16の同名の各部の機能と同一であるので説明を省略する。
また、図27はこの発明の実施例2にかかる画像処理装置(デコーダ)における、画像復号処理の手順を示すフローチャートである。図17に示した実施例1の画像復号処理との差異は、参照類似ショットの生成後(ステップS2705)に、修正参照類似ショット生成処理(ステップS2706)が追加されている点である。そして、逆変換部2602からの差分類似ショット(にフレーム間動き補償部2605からの修正参照類似ショットを足し合わせたもの)を復号画像として出力する(ステップS2707)。このステップS2706およびS2707以外の各ステップ、すなわちステップS2701〜S2705における処理は、図17の同名のステップでの処理と同様である。
以上説明した実施例1によれば、映像内の個々のショットについて、当該ショットに類似するショットからの差分のみを符号化し、さらに実施例2ではフレームごとの動きも考慮するので、対象フレームと参照フレームとの差分は0近傍に集中することが予想され、これにより符号量を削減することができる。
ただし、上記は符号量削減には有利に働くが、ランダムアクセス性の犠牲などのデメリットもある。たとえば図16や図26のデコーダにおいて、ある特定のショットの復号にはその参照類似ショットを必要とするので、当然その生成に使用される原類似ショットが復号されていなければならないが、当該原類似ショットを復号するにはさらにその参照類似ショットや、当該参照類似ショットの元となる原類似ショットが必要である。このように、芋蔓式に参照先を辿らなければならない事態を避けるため、映像内に定期的に参照類似ショットを使用しないショット符号化方式(ショット内符号化)を挿入することも考えられる。これはたとえばMPEGでいうIピクチャと同等の機能となる。
なお、上述した実施例1あるいは2にかかるエンコーダは、従来技術のJPEG/MPEGエンコーダなどを利用して実現することができるが、そのためには既存のハードウェア(LSIチップなど)を作り替える必要がある。
そこでたとえば図28や図29に示すように、従来技術の符号化器(エンコーダ)2800/2900に必要な機能部を外付けすることで、本発明にかかるエンコーダを実現するようにしてもよい。図28は実施例1の図13に、図29は実施例2の図18に、それぞれ対応している。具体的には符号化器2800/2900の前段に、上述の原類似ショット記憶メモリ1306/1806、ショット分割部1307/1807、類似ショット検出部1308/1808、生成手法決定部1309/1809、参照類似ショット生成部1310/1810、あるいはフレーム間動き検出部1811やフレーム間動き補償部1812を設けて、参照類似ショットあるいは修正参照類似ショット減算後の差分類似ショットを符号化器2800/2900に入力するとともに、符号化器2800/2900の後段に多重化部2801/2901を設けて、ショット符号化ストリームや参照類似ショット生成情報、フレーム間動き情報などを多重化するようにする(多重化が必要な場合)。
図28や図29のように、参照類似ショットの生成処理を符号化ループの前に出すことで、従来の符号化器や符号化手法、たとえばMPEG−1/2/4やH.264をそのまま利用することが可能になる。ただし図示する構成のデメリットとしては、たとえば参照類似ショット生成時の動き予測と符号化時の動き予測との間の処理に冗長さが存在すること、参照類似ショットの生成と差分類似ショットの圧縮を両方考慮した符号化器の最適化が困難であることなどが挙げられる。
また、図30および図31は、従来技術の復号器(デコーダ)3000/3100に必要な機能部を外付けすることで、本発明にかかるデコーダを実現する例である。図30は実施例1の図16に、図31は実施例2の図26に、それぞれ対応している。具体的には復号器3000/3100の前段に分離多重化部3001/3101を設けて、入力した符号化ストリームからショット符号化ストリームや参照類似ショット生成情報、フレーム間動き情報を分離するとともに、復号器3000/3100の後段に上述の原類似ショット記憶メモリ1603/2603、参照類似ショット生成部1604/2604、あるいはフレーム間動き補償部2605を設けて、復号器3000/3100から出力されてきた差分類似ショットに参照類似ショットあるいは修正参照類似ショットを加算する。
このように、請求項1・請求項9・請求項17に記載の発明によれば、符号化対象の映像を構成する複数のショットの類似性(情報の冗長性)に着目して、類似するフレーム同士の差分を符号化するので、符号化ストリームのデータ量を抑制できる。また、請求項2・請求項10・請求項18に記載の発明によれば、対象類似ショット−参照類似ショット間でフレーム位置が一致するので、以後の処理(フレーム間の差分の計算など)が容易となる。また、請求項3・請求項11・請求項19に記載の発明によれば、クロスフェードなど複数のショットに類似するショットの符号化を効率的に行える。また、請求項4・請求項5・請求項12・請求項13・請求項20・請求項21に記載の発明によれば、原類似ショット中、対象類似ショットとのマッチングの良い区間だけを用いて、あるいは逆に対象類似ショット中、原類似ショットとのマッチングの良い区間だけについて予測符号化を行うので、必ずしもショット全体が類似していなくとも符号化ストリームのデータ量を抑制できる。また、請求項6・請求項14・請求項22に記載の発明によれば、類似するフレーム間でさらに動き補償を行うので、フレーム内でのオブジェクトの位置ずれ/変形を修正し、両フレームの差分をより0近傍に集中させることができる(従って符号化ストリームのデータ量をさらに抑制できる)。
また、請求項7・請求項15・請求項23に記載の発明によれば、請求項1〜請求項5、請求項9〜請求項13、あるいは請求項17〜請求項21に記載の発明により符号化された動画像を復号できる。また、請求項8・請求項16・請求項24に記載の発明によれば、請求項6・請求項14・請求項22に記載の発明により符号化された動画像を復号できる。
なお、本実施の形態で説明した画像処理方法は、あらかじめ用意されたプログラムをプロセッサやマイクロコンピュータ等の演算処理装置で実行することにより実現することができる。このプログラムは、ROM、HD、FD、CD−ROM、CD−R、CD−RW、MO、DVD等の演算処理装置で読み取り可能な記録媒体に記録され、演算処理装置によって記録媒体から読み出されて実行される。またこのプログラムは、インターネット等のネットワークを介して配布することが可能な伝送媒体であってもよい。

Claims (24)

  1. 動画像を連続する複数のフレームからなる複数のショットに分割するショット分割手段と、
    前記ショット分割手段により分割されたショットの中から符号化対象となる第1のショットに類似する第2のショットを検出するショット検出手段と、
    前記ショット検出手段により検出された第2のショットの時間長を補正して第3のショットを生成するショット生成手段と、
    前記第1のショットと前記ショット生成手段により生成された第3のショットとの差分を符号化する符号化手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記ショット生成手段は、前記第3のショットのフレーム位置が前記第1のショットのフレーム位置と一致するように前記第2のショットの時間長を補正することを特徴とする前記請求項1に記載の画像処理装置。
  3. 前記ショット生成手段は、時間長補正後の複数の前記第2のショットを重み付け平均して前記第3のショットを生成することを特徴とする前記請求項1に記載の画像処理装置。
  4. 前記ショット生成手段は、前記第2のショットの一部区間を用いて前記第3のショットを生成することを特徴とする前記請求項1に記載の画像処理装置。
  5. 前記ショット生成手段は、前記第1のショットの一部区間について前記第3のショットを生成することを特徴とする前記請求項1に記載の画像処理装置。
  6. さらに、前記ショット生成手段で生成された前記第3のショットを動き補償して第4のショットを生成する第2のショット生成手段を備え、
    前記符号化手段は、前記第1のショットと前記第2のショット生成手段により生成された第4のショットとの差分を符号化することを特徴とする前記請求項1〜請求項5のいずれか一つに記載の画像処理装置。
  7. 動画像の符号化データ中、連続する複数のフレームからなる第1のショットの符号化データを復号するショット復号手段と、
    前記動画像の符号化データ中のショット生成情報で特定される手法により、前記第1のショットに類似する前記動画像中の第2のショットの時間長を補正して第3のショットを生成するショット生成手段と、
    前記ショット復号手段により復号された符号化データと前記ショット生成手段により生成された第3のショットとを加算するショット加算手段と、
    を備えることを特徴とする画像処理装置。
  8. さらに、前記ショット生成手段で生成された前記第3のショットを動き補償して第4のショットを生成する第2のショット生成手段を備え、
    前記ショット加算手段は、前記ショット復号手段により復号された符号化データと前記第2のショット生成手段により生成された第4のショットとを加算することを特徴とする前記請求項7に記載の画像処理装置。
  9. 動画像を連続する複数のフレームからなる複数のショットに分割するショット分割工程と、
    前記ショット分割工程で分割されたショットの中から符号化対象となる第1のショットに類似する第2のショットを検出するショット検出工程と、 前記ショット検出工程で検出された第2のショットの時間長を補正して第3のショットを生成するショット生成工程と、
    前記第1のショットと前記ショット生成工程で生成された第3のショットとの差分を符号化する符号化工程と、
    を含むことを特徴とする画像処理方法。
  10. 前記ショット生成工程では、前記第3のショットのフレーム位置が前記第1のショットのフレーム位置と一致するように前記第2のショットの時間長を補正することを特徴とする前記請求項9に記載の画像処理方法。
  11. 前記ショット生成工程では、時間長補正後の複数の前記第2のショットを重み付け平均して前記第3のショットを生成することを特徴とする前記請求項9に記載の画像処理方法。
  12. 前記ショット生成工程では、前記第2のショットの一部区間を用いて前記第3のショットを生成することを特徴とする前記請求項9に記載の画像処理方法。
  13. 前記ショット生成工程では、前記第1のショットの一部区間について前記第3のショットを生成することを特徴とする前記請求項9に記載の画像処理方法。
  14. さらに、前記ショット生成工程で生成された前記第3のショットを動き補償して第4のショットを生成する第2のショット生成工程を含み、
    前記符号化工程では、前記第1のショットと前記第2のショット生成工程で生成された第4のショットとの差分を符号化することを特徴とする前記請求項9〜請求項13のいずれか一つに記載の画像処理方法。
  15. 動画像の符号化データ中、連続する複数のフレームからなる第1のショットの符号化データを復号するショット復号工程と、
    前記動画像の符号化データ中のショット生成情報で特定される手法により、前記第1のショットに類似する前記動画像中の第2のショットの時間長を補正して第3のショットを生成するショット生成工程と、
    前記ショット復号工程で復号された符号化データと前記ショット生成工程で生成された第3のショットとを加算するショット加算工程と、
    を含むことを特徴とする画像処理方法。
  16. さらに、前記ショット生成工程で生成された前記第3のショットを動き補償して第4のショットを生成する第2のショット生成工程を含み、
    前記ショット加算工程では、前記ショット復号工程で復号された符号化データと前記第2のショット生成工程で生成された第4のショットとを加算することを特徴とする前記請求項15に記載の画像処理方法。
  17. 動画像を連続する複数のフレームからなる複数のショットに分割するショット分割工程と、
    前記ショット分割工程で分割されたショットの中から符号化対象となる第1のショットに類似する第2のショットを検出するショット検出工程と、
    前記ショット検出工程で検出された第2のショットの時間長を補正して第3のショットを生成するショット生成工程と、
    前記第1のショットと前記ショット生成工程で生成された第3のショットとの差分を符号化する符号化工程と、
    をプロセッサに実行させることを特徴とする画像処理プログラム。
  18. 前記ショット生成工程では、前記第3のショットのフレーム位置が前記第1のショットのフレーム位置と一致するように前記第2のショットの時間長を補正することを特徴とする前記請求項17に記載の画像処理プログラム。
  19. 前記ショット生成工程では、時間長補正後の複数の前記第2のショットを重み付け平均して前記第3のショットを生成することを特徴とする前記請求項17に記載の画像処理プログラム。
  20. 前記ショット生成工程では、前記第2のショットの一部区間を用いて前記第3のショットを生成することを特徴とする前記請求項17に記載の画像処理プログラム。
  21. 前記ショット生成工程では、前記第1のショットの一部区間について前記第3のショットを生成することを特徴とする前記請求項17に記載の画像処理プログラム。
  22. さらに、前記ショット生成工程で生成された前記第3のショットを動き補償して第4のショットを生成する第2のショット生成工程を含み、
    前記符号化工程では、前記第1のショットと前記第2のショット生成工程で生成された第4のショットとの差分を符号化することを特徴とする前記請求項17〜請求項21のいずれか一つに記載の画像処理プログラム。
  23. 動画像の符号化データ中、連続する複数のフレームからなる第1のショットの符号化データを復号するショット復号工程と、
    前記動画像の符号化データ中のショット生成情報で特定される手法により、前記第1のショットに類似する前記動画像中の第2のショットの時間長を補正して第3のショットを生成するショット生成工程と、
    前記ショット復号工程で復号された符号化データと前記ショット生成工程で生成された第3のショットとを加算するショット加算工程と、
    をプロセッサに実行させることを特徴とする画像処理プログラム。
  24. さらに、前記ショット生成工程で生成された前記第3のショットを動き補償して第4のショットを生成する第2のショット生成工程を含み、
    前記ショット加算工程では、前記ショット復号工程で復号された符号化データと前記第2のショット生成工程で生成された第4のショットとを加算することを特徴とする前記請求項23に記載の画像処理プログラム。
JP2006535806A 2004-09-10 2005-09-07 画像処理装置、画像処理方法、および画像処理プログラム Expired - Fee Related JP4465362B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004263696 2004-09-10
JP2004263696 2004-09-10
PCT/JP2005/016457 WO2006028156A1 (ja) 2004-09-10 2005-09-07 画像処理装置、画像処理方法、および画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2006028156A1 JPWO2006028156A1 (ja) 2008-05-08
JP4465362B2 true JP4465362B2 (ja) 2010-05-19

Family

ID=36036438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006535806A Expired - Fee Related JP4465362B2 (ja) 2004-09-10 2005-09-07 画像処理装置、画像処理方法、および画像処理プログラム

Country Status (3)

Country Link
US (1) US7792373B2 (ja)
JP (1) JP4465362B2 (ja)
WO (1) WO2006028156A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007102511A1 (ja) * 2006-03-09 2007-09-13 Pioneer Corporation 画像処理装置、画像処理方法、および画像処理プログラム
DE102007017254B4 (de) * 2006-11-16 2009-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zum Kodieren und Dekodieren
JP4818178B2 (ja) * 2007-03-27 2011-11-16 キヤノン株式会社 ネットワーク制御装置、ネットワーク制御方法、プログラム
KR101454167B1 (ko) 2007-09-07 2014-10-27 삼성전자주식회사 데이터 압축 및 복원 장치 및 방법
KR101503829B1 (ko) * 2007-09-07 2015-03-18 삼성전자주식회사 데이터 압축 장치 및 방법
CN104137544B (zh) * 2012-02-29 2017-10-20 三菱电机株式会社 图像编码装置、图像解码装置、图像编码方法以及图像解码方法
CN109726765A (zh) * 2019-01-02 2019-05-07 京东方科技集团股份有限公司 一种视频分类问题的样本提取方法及装置
CN115280133A (zh) * 2020-03-26 2022-11-01 索尼集团公司 信息处理系统、信息处理装置和信息处理方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3329408B2 (ja) 1993-12-27 2002-09-30 日本電信電話株式会社 動画像処理方法および装置
JPH08186789A (ja) 1994-12-28 1996-07-16 Canon Inc 動画像データの編集方法及びその装置
US5774593A (en) * 1995-07-24 1998-06-30 University Of Washington Automatic scene decomposition and optimization of MPEG compressed video
JP3347954B2 (ja) 1995-11-02 2002-11-20 三菱電機株式会社 動画像符号化装置及び動画像復号化装置
JP3423834B2 (ja) 1996-04-26 2003-07-07 日本電信電話株式会社 予測符号化画像データ管理方法及び装置
US5911008A (en) * 1996-04-30 1999-06-08 Nippon Telegraph And Telephone Corporation Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
JPH10257436A (ja) * 1997-03-10 1998-09-25 Atsushi Matsushita 動画像の自動階層構造化方法及びこれを用いたブラウジング方法
US6735253B1 (en) * 1997-05-16 2004-05-11 The Trustees Of Columbia University In The City Of New York Methods and architecture for indexing and editing compressed video over the world wide web
JP2001054106A (ja) 1999-08-06 2001-02-23 Matsushita Electric Ind Co Ltd 映像データ記録再生方法および装置
KR100698106B1 (ko) * 2000-03-07 2007-03-26 엘지전자 주식회사 엠펙(mpeg)압축 비디오 환경에서 계층적 혼합형장면 변화 검출 방법
US20040125124A1 (en) * 2000-07-24 2004-07-01 Hyeokman Kim Techniques for constructing and browsing a hierarchical video structure
JP2002185969A (ja) 2000-10-02 2002-06-28 Toshiba Corp 動画像符号化データの形式変換方法及び装置
JP2002271798A (ja) 2001-03-08 2002-09-20 Matsushita Electric Ind Co Ltd データ符号化装置、データ復号化装置
KR100491530B1 (ko) 2002-05-03 2005-05-27 엘지전자 주식회사 모션 벡터 결정 방법
US20040146211A1 (en) * 2003-01-29 2004-07-29 Knapp Verna E. Encoder and method for encoding
FR2875662A1 (fr) * 2004-09-17 2006-03-24 Thomson Licensing Sa Procede de visualisation de document audiovisuels au niveau d'un recepteur, et recepteur apte a les visualiser
JP4520994B2 (ja) * 2004-09-30 2010-08-11 パイオニア株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US7672378B2 (en) * 2005-01-21 2010-03-02 Stmicroelectronics, Inc. Spatio-temporal graph-segmentation encoding for multiple video streams

Also Published As

Publication number Publication date
WO2006028156A1 (ja) 2006-03-16
JPWO2006028156A1 (ja) 2008-05-08
US7792373B2 (en) 2010-09-07
US20080095451A1 (en) 2008-04-24

Similar Documents

Publication Publication Date Title
JP4866417B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP4465362B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP3939551B2 (ja) 動画像処理装置、その方法、及び記録媒体
TWI578757B (zh) 場景形式之視訊串流編碼
JP4520994B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
US20230388537A1 (en) Image encoding method, image encoding device, image decoding method, and image decoding device
JP4504230B2 (ja) 動画像処理装置、動画像処理方法、及び動画像処理プログラム
KR20070007295A (ko) 비디오 인코딩 방법 및 장치
JP2002158969A (ja) 動画像符号化データ変換装置及びその方法
US20090129471A1 (en) Image decoding apparatus and method for decoding prediction encoded image data
JP4805160B2 (ja) 映像符号化方法及び装置、映像復号方法及び装置、それらのプログラムおよびそれらプログラムを記録した記録媒体
JP2010258576A (ja) シーンチェンジ検出装置および映像記録装置
JP2011199354A (ja) 画像処理装置、画像再生装置および画像処理システム
US6898244B1 (en) Movement vector generating apparatus and method and image encoding apparatus and method
JP2868445B2 (ja) 動画像圧縮方法および装置
JPH10112863A (ja) 動き被写体情報抽出方法及び装置
JP2011129979A (ja) 画像処理装置
JP6181242B2 (ja) 画像復号化方法
JP5951915B2 (ja) 画像復号化方法
JP5911982B2 (ja) 画像復号化方法
JP5946980B1 (ja) 画像復号化方法
JP2006197387A (ja) 動きベクトル探索装置及び動きベクトル探索プログラム
JP5750191B2 (ja) 画像復号化方法
JP2010041408A (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法および動画像復号化方法
JP2004208076A (ja) 映像検出信号生成装置、映像検出信号記録装置ならびに映像信号再生装置、および映像検出信号生成方法、映像検出信号記録方法ならびに映像信号再生方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140226

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees