JP3825615B2 - 動画像符号化装置および動画像符号化方法およびプログラムを記録した媒体 - Google Patents

動画像符号化装置および動画像符号化方法およびプログラムを記録した媒体 Download PDF

Info

Publication number
JP3825615B2
JP3825615B2 JP2000245026A JP2000245026A JP3825615B2 JP 3825615 B2 JP3825615 B2 JP 3825615B2 JP 2000245026 A JP2000245026 A JP 2000245026A JP 2000245026 A JP2000245026 A JP 2000245026A JP 3825615 B2 JP3825615 B2 JP 3825615B2
Authority
JP
Japan
Prior art keywords
scene
moving image
encoding
frame
representative value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000245026A
Other languages
English (en)
Other versions
JP2002058029A (ja
Inventor
昇 山口
理恵子 古川
義浩 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000245026A priority Critical patent/JP3825615B2/ja
Priority to US09/925,567 priority patent/US20020024999A1/en
Publication of JP2002058029A publication Critical patent/JP2002058029A/ja
Application granted granted Critical
Publication of JP3825615B2 publication Critical patent/JP3825615B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/25Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with scene description coding, e.g. binary format for scenes [BIFS] compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection

Description

【0001】
【発明の属する技術分野】
本発明は、インターネットなどによる動画像伝送システムや画像データベースシステムに使用されるMPEG方式などの動画像圧縮符号化装置技術に係り、特に2パス符号化と呼ばれる手法によりシーンの内容に応じた符号化パラメータに従った符号化を行う動画像符号化装置および動画像符号化方法に関する。
【0002】
【従来の技術】
動画像符号化の国際標準方式としてMPEG1(Motion Picture Experts Group-1),MPEG2(Motion Picture Experts Group-2)およびMPEG4(Motion Picture Experts Group-4)があり、実用化されている。そして、これらにおいては、符号化の基本方式としてMC+DCT方式が採用されている。以下、参考文献(文献1:三木 編著、“MPEG−4のすべて”第3章、工業調査会、1998)を参照して、MPEG4検証(Verification)モデルに従って説明する。
【0003】
<MC+DCT方式の概要>
図13を用いてMC+DCT方式の符号化法を説明する。MC(動き補償予測)+DCT(Discrete Cosine Transform;離散コサイン変換(直交変換))方式は、図13に示されるように、差分値算出部101、動き補償予測部(MC)102、フレーム内/フレーム間(Intra / inter)切り替え部103、フレームメモリ(FM)104、動きベクトル検出部(ME)105、離散コサイン変換部(DCT)106、量子化部(Q)107、可変長符号化部(VLC)108、逆量子化部(IQ)109、逆離散コサイン変換部(IDCT)110、加算部111、出力バッファ(Buffer)112、レート制御部(Rate Control)113とから構成される。
【0004】
差分値算出部101において、画像信号入力線11を介して供給される画像信号と、信号線12を介して供給される動き補償予測信号との差分が計算され、この差分信号は信号線13を介して離散コサイン変換部106に供給される。
【0005】
信号線12には、フレーム内符号化(Inter)モードの場合には、動き補償予測部102で生成される動き補償予測信号がフレーム内/フレーム間切り替え部103を介して供給され、一方、フレーム間符号化(Intra)モードの場合には、信号が供給されない。つまり、フレーム間符号化(Intra)モードの場合には、信号線13には差分信号ではなく画像信号入力線11の信号がそのまま供給される。
【0006】
Intra / Inter モードの切り替えは、後述するように動きベクトル検出部105で判定され、信号線14を介してフレーム内/フレーム間切り替え部103に供給される。動き補償予測部102で生成される動き補償予測信号は、フレームメモリ104に蓄積されている既に符号化済みのフレームの信号から、動きベクトル検出部105で検出された動きベクトル情報にしたがって生成される。
【0007】
離散コサイン変換部106では、信号線13を介して供給される信号を離散コサイン変換し、その変換結果としてのDCT変換係数(離散コサイン変換係数)出力を、量子化部107に供給する。量子化部107ではこのDCT変換係数を所定の量子化幅で量子化する。
【0008】
後述するように、量子化部107と逆量子化部109は、与えられる量子化パラメータに従って量子化幅、逆量子化幅が定まる構成であり、量子化部107で量子化されたDCT変換係数は、可変長符号化処理するために可変長符号化部108に供給されると共に、また、逆量子化部109にも供給されて逆量子化される。そして、逆量子化部109により逆量子化された変換係数は、逆離散コサイン変換部110に供給されて信号線13に対する再生信号が生成され、この生成された再生信号は加算部111に供給される。
【0009】
加算部111では、逆離散コサイン変換部110から供給される信号と、信号線12を介して供給される信号とを加算して画像信号を再生した後、フレームメモリ104に蓄積する。
【0010】
一方、可変長符号化部108では、量子化部107で量子化されて与えられたDCT変換係数や、動きベクトル情報(図示せず)などを受けて、これらを可変長符号化処理した後、多重化してビットストリームを生成し、出力バッファ112に供給する。
【0011】
出力バッファ112は保持しているビットストリームの蓄積量情報を出力できる構成であり、ビットストリームを供給された当該出力バッファ112ではこれを一時保持し、ネットワークや蓄積媒体へ、その特性に応じてレートを制御しながら当該ビットストリームを信号線15を介して出力する。
【0012】
レート制御部113では、信号線16を介して供給される出力バッファ112のビットストリーム蓄積量に応じて、量子化パラメータを決定し、信号線17を介して量子化部107と逆量子化部109に供給する。
【0013】
ここで、出力バッファ112内のビットストリーム蓄積量が大きくなってきた場合は、量子化パラメータを大きくして量子化部107での発生符号量を少なくし、出力バッファ112内の蓄積量が小さくなってきた場合は、量子化パラメータを小さくすることで、発生符号量が一定になるように制御される。
【0014】
ここのように、レート制御は量子化幅を変更することにより行うが、画像の変化の激しいシーンでは、符号量が増大することから、それにあわせて量子化幅を大きくすることとなるので、その結果、量子化幅が適切でなくなることもあり、このような場合に、画像が歪むなど、画質劣化の問題を引き起こす。このことを少し詳しく説明する。
【0015】
MPEG方式に基づく従来の動画像符号化方式では、圧縮動画像データを伝送レートが規定されている伝送路によって伝送したり、記録容量に限りがある蓄積媒体に記録するために、出力される符号化ビットストリームのビットレートが指定された値となるようにフレームレートや量子化幅などの符号化パラメータを設定して符号化を行うというレート制御という処理が行われている。
【0016】
多くのレート制御では、前フレームの発生符号量に応じて次のフレームまでの間隔と次フレームの量子化幅を決める方法がとられている。
【0017】
そのため、発生符号量が増大することとなる画面の動きが大きいシーンになると、符号量増大に対応するめに量子化幅を大きくする方向に制御されることから、画質が急に劣化する。図14、図15は従来のレート制御について示す図である。図14の(a)に示す[I]のグラフは、ビットレートの推移の例を示しており、401が目標のビットレート(ビットレート目標値)、402が実際のビットレートを示している。時刻t11からt12の期間に動きの激しいシーンが発生してこれに伴って発生ビットレートが大きくなると、バッファが溢れるので、フレームレートを低くしようとする制御がかかる。これが図14(b)に示す[II]のグラフであり、ビットレートが急増した時刻t11において、フレームレートを抑えるべくレート制御が働く結果、実際のフレームレート404が急激に低下している様子が示されている。
【0018】
そして、一方、レート制御では、予め設定されたフレームスキップ閾値のバッファサイズと現時点でのバッファレベルとの差(余裕度)を基に、フレームレートを決め(図15(a)参照)、現時点でのバッファが閾値よりも小さい時には一定のフレームレートで符号化を行い、現時点でのバッファが閾値を上回るとフレームレートを下げるように制御する。
【0019】
このような制御を行う結果、発生符号量が大きいフレームfmではフレームレートが低くなって、例えば図15(b)に示すように、f21,f22と今まで等間隔で来た発生フレームが、f22とf23の間のように、フレームの間隔が広がるという現象が生じることとなる。つまり、フレームのスキップが生じるわけである。
【0020】
これは従来のレート制御が、画像内容に無関係に次フレームの符号量を定めていることに起因するものであって、そのため、画面の動きが大きくなるシーンでは、このように、フレーム間隔が広くなり過ぎて画像の動きが不自然になったり、量子化幅が適切でないために画像が歪んで見づらさを感じさせることがあった。
【0021】
そこで、このような問題点を解決する必要が生じるが、そのための手法として、既にいくつかのものが知られている。その中の2パス符号化と呼ばれる方法によりレート制御を行う方式(文献2:特開平08−186821号公報参照)を除くと、他の多くは符号量の変化のみに着目する方法が主体であり、画像内容と符号量の関係を考慮したものは、例えばフェードイン・フェードアウトなど(文献3:特開平10−336641号公報参照)の特別な場合に限られていた。
【0022】
そこで、本件発明者らは、2パス符号化の一つとして、解析されたシーン内容に応じてビットレートを配分し、全体的なビットレートが予め指定されたビットレートを満たすように効率良く符号化パラメータを配分する動画像符号化方法および装置を提案した(文献4:特願2000−053823号)。
【0023】
また、シーンの内容を解析して、シーン毎に映像に対して撮影者の意図を代表する見出しを自動的に作成して提示することで、一般の人でも容易に編集が可能となる動画像編集システムの提案もある(文献5:堀他,“映像解析技術年利用した映像メデイアのためのGUI”,ヒューマンインタフェース72−7pp.37−42,1997)。但し、この編集システムではシーン内容を符号化に反映することは無かった。
【0024】
一方、蓄積メディア向けに符号化データを作成する場合に、編集装置により予め動画像を編集して符号化している。従来、編集操作の結果を符号化に利用したとしても、編集時のカット点を考慮する程度であった。
【0025】
【発明が解決しようとする課題】
上述のように、従来の動画像符号化装置では、画像の内容に無関係にフレームレートや量子化幅が決められていたために、オブジェクトの動きが激しいシーンにおいて急激にフレームレートが低下したり、量子化幅が適切でないために画像が歪むなど、画質劣化が目立ち易いという問題点があった。
【0026】
また、動画像信号をパソコンなどを使用してカット&ペースト等を行い、所望の映像展開となるように編集して動画を完成させるようにするが、この編集操作で、シーンの内容を把握していても、その情報を動画像信号の符号化時に活かす仕組みを持っていなかった。そのため、ビットレートの配分なども無駄の多いものとなっていた。
【0027】
そこで、本発明の目的とするところは、動画像を解析し、シーンの内容を編集操作に活用すると共に、シーンの内容に応じてビットレートを適正に配分し、全体的なビットレートが予め指定されたビットレートを満たすように効率良く符号化パラメータを配分することができるようにした動画像符号化方法および動画像編集方法を提供することにある。
【0028】
【課題を解決するための手段】
上記の目的を達成するため、本発明は、画像信号を符号化するにあたり、第1パス(最適化準備モード)でパラメータの最適化を実施し、第2パス(実行モード)ではこの最適化したパラメータを用いて符号化処理をする。
【0029】
すなわち、本発明においては、まず入力動画像信号を時間的に連続した少なくとも一つのフレームからなるシーンに分割して、各シーン毎に統計的特徴量(シーン毎の全フレームについての、フレーム内のマクロブロックの動きベクトルと動き補償残差、輝度値の平均・分散)を算出し、この統計的特徴量に基づいてシーンの内容を推定する。シーンの内容は編集操作にも活用され、編集によりシーンのカットアンドペーストが発生してもシーン毎の統計的特徴量の相対的な関係を利用して目標ビットレートに対し、最適な符号化パラメータを決定する。そして、この符号化パラメータを用いて入力画像信号を符号化するようにし、これによって、同じデータサイズでも視覚的に見易い復号画像を得ることを基本的な特徴とする。
【0030】
ここで、統計的特徴量は、例えば、入力動画像信号の各フレーム内に存在する動きベクトルや輝度値をシーン毎に集計することにより算出される。加えて、特徴量から入力動画像信号を得るときに使用したカメラの動きおよび画像内のオブジェクトの動きを推定した結果を用いて、それらを符号化パラメータに反映させる。また、マクロブロック毎に輝度値の分布を調べることで、モスキートノイズが発生しやすいマクロブロックやオブジェクトのエッジが存在するマクロブロックの量子化幅を他のマクロブロックに比して相対的に小さくし、画質の向上を図る。
【0031】
そして、第2パス目における符号化では、前記算出されたシーン毎に適切なビットレートとフレームレートを与えることで、従来のレート制御機構を大きく変更することなくシーン内容に応じた符号化が行える。
【0032】
上記のような2パスの手法を用いて、目標符号量と同じデータサイズで良好な復号画像を得る符号化を実現することができる。
【0033】
【発明の実施の形態】
本発明は、画像信号を符号化するにあたり、第1パス(最適化準備モード)でパラメータの最適化を実施し、第2パス(実行モード)ではこの最適化したパラメータを用いて符号化処理をする。具体的には、まず入力動画像信号を時間的に連続した少なくとも一つのフレームからなるシーンに分割して、各シーン毎に統計的特徴量を算出し、この統計的特徴量に基づいてシーンの内容を推定する。シーンの内容は編集操作にも活用され、編集によりシーンのカットアンドペーストが発生してもシーン毎の統計的特徴量の相対的な関係を利用して目標ビットレートに対し、最適な符号化パラメータを決定する。これが第1パスの処理である。そして、第2パスでは、この符号化パラメータを用いて入力画像信号を符号化するようにする。これにより、同じデータサイズでも視覚的に見易い復号画像を得ることができるようにする。
【0034】
以下、図面を参照して本発明の実施の形態を説明する。
【0035】
(第1の実施形態)
図1は本発明の一実施形態に係る動画像編集・符号化装置の構成を示すブロック図である。図において、100はエンコーダ、120はサイズ変換部、200はソースデータ、210はデコーダ、220は特徴量計算部、230は構造化情報蓄積部、240は構造化情報提示装置、250は最適パラメータ計算部、260は最適パラメータ蓄積部である。
【0036】
これらのうち、エンコーダ100は、サイズ変換部120を介して与えられる動画像信号を符号化して出力するためのであって、最適パラメータ蓄積部260の蓄積しているパラメータ(各シーン別の最適なフレームレートと量子化幅の情報)を用いて動画像信号の符号化をするものである。
【0037】
デコーダ210は、入力されるソースデータ200のフォーマットに対応しており、信号線20を介して入力されるソースデータ200を復号処理して元の動画像信号を再生するものである。このデコーダ210で再生された動画像信号は信号線21を介して特徴量計算部220とサイズ変換部120とに供給されるようになっている。
【0038】
なお、ソースデータ200は、同じ信号を繰り返し複数回再生可能なディジタルVTRやDVDシステムのようなビデオ記録再生装置に記録されている動画像のデータである。
【0039】
特徴量計算部220は、デコーダ210から与えられた動画像信号についてシーン分割を行うと同時に動画像信号の各フレームに対し画像特徴量を計算する機能を有している。ここで云う画像特徴量とは、例えば、“動きベクトルの数”、“分布”、“ノルムの大きさ”、“動き補償後の残差”、“輝度・色差の分散”等である。特徴量計算部220はこの算出した特徴量およびシーンの代表フレーム画像を前記分割されたシーン毎に集計し、信号線22を介して構造化情報蓄積部230に供給するように構成されている。
【0040】
構造化情報蓄積部230は、各シーン毎の代表フレーム画像や特徴量の情報をシーン毎に構造化した情報として蓄積するものである。なお、代表フレーム画像のサイズが大きい場合には、その縮小画像(サムネール画像)を代わりに蓄積しても良い。
【0041】
構造化情報提示装置240は、キーボード等の入力装置およびマウス等のポインティングデバイスを少なくとも有し、また、ディスプレイを有したマンマシンインターフェースであって、入力装置を用いての編集操作をはじめとする各種操作入力や指示入力をしたり、構造化情報蓄積部230に蓄積されている各シーン毎の代表フレーム画像や特徴量を信号線23を介して受けることにより、これらを図2のような提示形態でディスプレイに表示して、動画像信号の内容をユーザに提示するものである。
【0042】
なお、本発明システムでは、第2パス目の処理においては、信号線21を介して供給される動画像信号は、信号線24を介して構造化情報呈示装置240から供給される編集情報対応して編集されたソースデータを、デコーダ210で再生して得た動画像信号である。
【0043】
サイズ変換部120は、信号線21を介して供給される動画像信号の画面サイズと、エンコーダ100で符号化して出力する動画像信号の画面サイズが異なる場合に、画面サイズを変換する処理をするものであって、エンコーダ100はこのサイズ変換部120の出力を信号線11を介して受けて符号化処理をするものである。
【0044】
また、最適パラメータ計算部250は、構造化情報蓄積部230から与えられる特徴量の情報の供給を信号線25を介して受け、各シーンに対して最適なフレームレートと量子化幅を算出するものであり、構造化情報蓄積部230から読み出す特徴量の情報は、信号線24を介して供給される構造化情報呈示装置240からの編集情報に従って、構造化情報蓄積部230が該当するシーンの特徴量の情報を読み出し、供給する構成である。
【0045】
また、最適パラメータ蓄積部260はこの最適パラメータ計算部250の計算した各シーン別の最適なフレームレートと量子化幅の情報を蓄積するためのものである。
【0046】
次に、このような構成の本システムの作用を説明する。本発明システムでは、最初に第1パスの処理(最適化準備モード)を実施し、次に第2パスの処理(実行モード)を実施する2段階処理で実施する方式である。そのため、本システムでは、何回でも繰り返し同一の動画像信号を再生して供給できるディジタルVTRやDVDシステムのようなビデオ記録再生装置を用い、このビデオ記録再生装置に記録されているデータを再生してこれをソースデータ200として、信号線20よりデコーダ210に供給する。
【0047】
このビデオ記録再生装置からソースデータ200を受けたデコーダ210は、当該ソースデータを復号処理し、動画像信号として出力する。そして、このデコーダ210で再生された動画像信号は、第1パスにおいては信号線21を介して特徴量計算部220に供給される。
【0048】
特徴量計算部220では、この動画像信号を用いてまず動画像信号のシーン分割を行う。同時に動画像信号の各フレームに対し、画像特徴量を計算する。ここで云う画像特徴量とは、例えば動きベクトルの数、分布、ノルムの大きさ、動き補償後の残差、輝度・色差の分散等である。
【0049】
そして、この特徴量算出部220では、シーンの代表フレーム画像および算出したこのような特徴量を、前記分割されたシーン毎に集計し、信号線22を介して構造化情報蓄積部230に供給する。
【0050】
そして、構造化情報蓄積部230は、これらの情報を蓄積する。その結果、第1パスにおいては、構造化情報蓄積部230には、供給動画像信号を解析して得たシーン毎に構造化した情報が蓄積されることになる。なお、分割したシーン毎の代表フレーム画像を蓄積するに当たり、当該代表フレーム画像のサイズが大きい場合には、その縮小画像(サムネール画像)を代わりに蓄積しても良い。
【0051】
このようにして構造化情報蓄積部230に動画像信号の各シーン毎の特徴量、代表フレーム画像が蓄積されると、次に、構造化情報蓄積部230は蓄積してある各シーン毎の代表フレーム画像や特徴量を読み出し、信号線23を介して構造化情報提示装置240に供給する。これを受けた構造化情報提示装置240では、図2のような提示形態により、動画像信号の内容をユーザに提示する。
【0052】
図2の例は、前述の文献5で開示されている例であり、各シーン毎の代表フレーム画像fa,fb,fc,fdと、これらそれぞれの画像fa,fb,fc,fdの動きの内容情報ma,mb,mc,mdを、画面に表示することでユーザに提示し、以て各シーンの内容をユーザに容易に想起させることができるようにしている。
【0053】
構造化情報提示装置240には、代表フレーム画像を画面上でカット&ペーストしたり、ドラッグ&ドロップ操作することなどで、位置の移動やシーンの削除、コピーなど言った編集操作を自由に行うことができる動画像の編集機能を備えており、従って、上述したように、動画像信号の代表フレーム画像と構造化情報をユーザに提示することで、ユーザは動画像信号の内容を容易に把握できるようになり、図3に示される如く、シーンのカット&ぺーストなどの編集操作が容易に行えるようになる。もちろん、複数の動画像信号の構造化情報をユーザに提示し、編集することも可能である。
【0054】
図3の例は、オリジナルでは(a)の如く配置されていた図2の表示状態のものについて、代表フレームfcをカットし、代表フレームfcとfdを入れ替えて代表フレームfaで代表されるシーンの次に代表フレームfdで代表されるシーンが入り、その次に代表フレームfbで代表されるシーンに移っていくといった内容に編集されたことを示している(図3(b))。
【0055】
例えば、このようにしてユーザの編集操作により編集された編集情報は、信号線24を介して構造化情報蓄積部230とソースデータ200に供給される。ここで編集情報とは、どのシーンが選択されたかの情報と、選択されたシーンのソースデータ200におけるタイムスタンプや、編集後のシーン配置などの情報である。
【0056】
ユーザが構造化情報提示装置240を使用して上述の如き編集を行うと、その情報は編集情報として信号線24を介して構造化情報蓄積部230に供給され、当該構造化情報蓄積部230はこの編集情報を蓄積すると同時に、最適パラメータ計算部250にも与える。
【0057】
最適パラメータ計算部250では、供給された編集情報に従って、構造化情報蓄積部230に蓄積されている該当するシーンの特徴量の情報の供給を受け、各シーンに対して最適なフレームレートと量子化幅を算出して、最適パラメータ蓄積部260に与える。これにより最適パラメータ蓄積部260には各シーン毎に、最適なフレームレートと量子化幅の情報が蓄積されることになる。
【0058】
最適パラメータ計算部250の具体的例を図4を用いて説明する。
【0059】
<最適パラメータ計算部250の構成>
最適パラメータ計算部250は、ユーザが構造化情報呈示装置240を編集操作することにより、当該構造化情報呈示装置240から与えられる編集情報に従って、構造化情報蓄積部230から該当するシーンの特徴量を受け、各シーンに対して最適なフレームレートと量子化幅を算出するものであるが、当該最適パラメータ計算部250は、図4に示す如く、符号化パラメータ生成部251、発生符号量予測部252、符号化パラメータ修正部253より構成される。
【0060】
これらのうち、符号化パラメータ生成部251は、構造化情報蓄積部230から受けた特徴量をもとに、各シーンの特徴量の相対的な関係から、各シーンに適切なフレームレートと量子化幅を算出するものであり、発生符号量予測部252は、この符号化パラメータ生成部251により算出されたフレームレートと量子化幅で動画像信号を符号化した際の発生符号量を予測するものである。
【0061】
また、符号化パラメータ修正部253は、パラメータの修正を行うためのものであって、予測した符号量がユーザ設定の符号量を満たすようにパラメータの修正を行うことで最適なパラメータを求めるものである。
【0062】
このような構成の 最適パラメータ計算部250においては、信号線25を介して構造化情報蓄積部230から供給されたシーン毎の特徴量は、符号化パラメータ生成部251で各シーンの特徴量の相対的な関係から、各シーンに適切なフレームレートと量子化幅を算出する。そして、発生符号量予測部252では、これらを入力とし、この算出されたフレームレートと量子化幅で動画像信号の符号化を行った際の発生符号量を予測する。
【0063】
その際に、予測した発生符号量がユーザが設定した目標符号量254と大きく異なる場合には、予測した符号量がユーザが設定した符号量を満たすように符号化パラメータ修正部253においてパラメータの修正を行うことで最適なパラメータを求めている。
【0064】
以上、動画像信号を再生し、シーン毎に特徴量の情報と代表フレーム画像を求め、保存し、これを用いて動画像信号の編集操作をすると、その編集情報に従って対応するシーンの特徴量を読み出し、これを用いて各シーン毎最適なフレームレートと量子化幅を算出してその情報をパラメータとして蓄積するというのが1パス目の処理である。
【0065】
このような第1パスの処理が終わると、ユーザは構造化情報提示装置240を操作して、モードを実行モード、すなわち、第2パスでの処理モードに切り替える。すると、構造化情報提示装置240は動画像信号を最適パラメータ蓄積部260に蓄積された各シーン毎の最適なフレームレートと量子化幅の情報を用いてエンコーダ100により符号化処理させるべくシステムを駆動させるコマンドを発生する。
【0066】
これにより、システムは第2パスの処理(実行モード)を開始する。
【0067】
第2パス目の処理においては、信号線21を介して供給される動画像信号は、信号線24を介して供給される編集情報により、ソースデータ200を編集した編集処理済みのソースデータを、デコーダ210で再生した動画像信号である。
【0068】
この動画像信号は、エンコーダ100に送られ、その各シーン毎に、最適パラメータ蓄積部260に蓄積されているそのシーン対応の最適パラメータを用いて符号化処理される。その結果、エンコーダ100からは、シーンの内容に応じて適切に符号量が配分されたビットストリーム15が出力される。
【0069】
このように、第2パス目の処理は、信号線21を介して供給される動画像信号をエンコーダ100で符号化するが、その符号化には前記最適パラメータ蓄積部260に蓄積されている最適パラメータを用いて符号化することで、シーンの内容に応じて適切に符号量が配分されたビットストリームにすると言う処理である。この結果、動画像を解析し、シーンの内容を編集操作に活用すると共に、シーンの内容に応じてビットレートを配分し、全体的なビットレートが予め指定されたビットレートを満たすように効率良く符号化パラメータを配分する動画像符号化が行えることになり、スキップが生じることがなく、また、同じデータサイズでも視覚的に見易い復号画像を得ることができる符号化方法を提供できる。
【0070】
なお、第2パスにおいて、信号線21を介して供給される動画像信号の画面サイズと、エンコーダ100で符号化する画面サイズが異なる場合には、サイズ変換部120において画面サイズを変換した後、その動画像信号を信号線11を介してエンコーダ100に供給する。これにより、画面サイズの不整合による問題も生じなくなる。
【0071】
次に、本実施形態のシステムにおける特徴量計算部220での個々の処理についてさらに詳しく説明する。画像特徴量を算出処理する特徴量計算部220での画像特徴量算出処理の対象は、入力される動画像信号に対してのシーン分割の処理、入力動画像信号の全フレームについて、フレーム内のマクロブロックの動きベクトルと動き補償残差、輝度値の平均・分散等を計算する処理である。そして、これによって得られたシーン毎の入力動画像信号の全フレームについての、フレーム内のマクロブロックの動きベクトルと動き補償残差、輝度値の平均・分散等が画像特徴量である。
【0072】
<特徴量計算部でのシーン分割処理>
特徴量計算部220において、入力動画像信号21は、隣接するフレーム間の差分によりフラッシュフレームや雑音フレームなどのフレームを除いて複数のシーンに分割される。ここで、フラッシュフレームとは、例えば、ニュース番組でのインタビューシーンで、フラッシュ(ストロボ)が発光した瞬間のように、輝度が急激に高くなるフレームである。また、雑音フレームとはカメラの振れ等により画像が大きく劣化したフレームである。
【0073】
例えば、シーン分割は以下の様に行う。
【0074】
図5のように隣接したi番目のフレームと(i+1)番目のフレームの間の差分値が、予め定められた閾値を超え、かつ、i番目のフレームと(i+2)番目のフレームの間の差分値も同様に閾値を超えているならば、(i+1)番目のフレームはシーンの区切りと判定する。
【0075】
i番目のフレームと(i+1)番目のフレームの間の差分値が予め定められたしきい値を超えていても、i番目のフレームと(i+2)番目のフレームの間の差分値がしきい値を超えていなければ、(i+1)番目のフレームはシーンの区切りとしない。
【0076】
<特徴量計算部での動きベクトルの計算>
特徴量計算部220においては、上述のようなシーン分割の処理の他に、入力動画像信号21の全フレームについて、フレーム内のマクロブロックの動きベクトルと動き補償残差、輝度値の平均・分散等を計算する。なお、特徴量の計算は全フレームに対してでも良いし、画像の性質を解析できる範囲で数フレームおきに計算しても良い。
【0077】
i番目のフレームについての動領域のマクロブロックの数を“MvNum(i)”、動き補償残差を“MeSad(i)”、輝度値の分散を“Yvar(i)”とする。ここで、動領域とは1フレーム中で前フレームからの動きベクトル≠0であるマクロブロックの領域を指す。j番目のシーンに対して、そのシーンに含まれるフレームすべてのMvNum(i)、MeSad(i)、Yvar(i)の平均値をそれぞれMvnum_j、MeSad_j、Yvar_jとし、それらをj番目のシーンの特徴量の代表値とする。
【0078】
<特徴量計算部でのシーン分類処理>
さらに本実施形態では、特徴量計算部220においては、動きベクトルを用いて次のようなシーンの分類を行い、シーン内容を推定する。
【0079】
すなわち、各々のフレームに対する動きベクトルを算出した後、動きベクトルの分布を調べ、シーンを分類する。具体的には、まずフレーム中の動きベクトルの分布を計算して、各フレームが図6(a)〜(e)に示す5つのタイプのいずれに属するかを調べる。
【0080】
タイプ〔1〕: 図6(a)に示すタイプであって、フレーム中に動きベクトルがほとんど存在しないタイプ(動領域のマクロブロック数がMmin以下)。
【0081】
タイプ〔2〕: 図6(b)のタイプであって、同じ向き・大きさの動きベクトルが画面全体に分布しているタイプ(動領域のマクロブロック数がMmax以上で大きさと方向がある範囲内にある)。
【0082】
タイプ〔3〕: 図6(c)に示すタイプであって、フレーム中で特定の部分にだけ動きベクトルが現れているタイプ(動領域のマクロブロックの位置が特定の部分に集中している)
タイプ〔4〕: 図6(d)に示すタイプであって、フレーム中に放射状に動きベクトルが分布しているタイプ。
【0083】
タイプ〔5〕: 図6(e)に示すタイプであって、フレーム中の動きベクトルの数が多く、方向も不揃いのタイプ。
【0084】
これらタイプ〔1〕〜タイプ〔5〕のパターンは、いずれも処理対象となる動画像信号を得るときに使用したカメラや、撮影された画像内のオブジェクトの動きと密接に関係している。すなわち、タイプ〔1〕のパターンではカメラもオブジェクトもいずれも静止している状態にある。また、タイプ〔2〕のパターンは、カメラの平行移動時、タイプ〔3〕のパターンは静止している背景の中でオブジェクトが動いている場合に得られる。また、タイプ〔4〕のパターンは、カメラがズーミングを行っている場合に得られる。また、タイプ〔5〕のパターンはカメラとオブジェクトが共に動いている場合に得られる。
【0085】
以上のように各フレーム毎に分類した結果をシーン毎にまとめ、シーンが図6(a)〜(e)のどのタイプに属するかを判定する。判定されたシーンのタイプと前記算出された特徴量を用いて後述の符号化パラメータ生成部で符号化パラメータであるフレームレートとビットレートをシーン毎に決定する。
【0086】
このようにして、特徴量計算部220においては、動きベクトルを用いてシーンの分類を行い、シーン内容を推定する。
【0087】
次に最適パラメータ計算部250での構成要素の一つである符号化パラメータ生成部251における符号化パラメータ生成に当たっての個々の処理について詳しく説明する。
【0088】
符号化パラメータ生成部251では、(i)フレームレート算出処理、(ii)量子化幅算出処理、(iii)フレームレートと量子化幅の修正処理、(iv)マクロブロック毎の量子化幅の設定処理、の4種の処理を実施する。そして、これにより、フレームレート、量子化幅およびマクロブロック毎の量子化幅、といった符号化パラメータを生成する。
【0089】
<符号化パラメータ生成部でのフレームレート算出処理>
符号化パラメータ生成部251では、まずフレームレートを算出する。
【0090】
このとき、前述の特徴量計算部220においては、シーン毎の特徴量の代表値を既に算出しているものとする。これに対して、j番目のシーンのフレームレートFR(j)を
FR(j)=a×MVnum_j+b+w_FR …式(1)
により算出する。ただし、MVnum_jはj番目のシーンの代表値、a,bはユーザが指定したビットレートと画像サイズに関係する係数、W_FRは後述する重みパラメータである。式(1)は、動きベクトルの代表値MVnum_jが大きくなるほどフレームレートFR(j)が高くなることを意味している。すなわち、動きの大きいシーンほどフレームレートが高くなる。
【0091】
また、動きベクトルの代表値MVnum_jは、前述のフレーム中の動きベクトルの数の他にフレーム中の動きベクトルの大きさの絶対値和、密度なども用いることもある。
【0092】
以上が、符号化パラメータ生成部251におけるフレームレート算出処理である。
【0093】
<符号化パラメータ生成部での量子化幅の算出処理>
符号化パラメータ生成部251では、量子化幅の算出に当たり、各々のシーンに対するフレームレートを算出した後、次に各々のシーンに対する量子化幅を計算する。j番目のシーンに対する量子化幅Qp(j)はフレームレートFR(j)と同様、シーンの動きベクトルの代表値MVnum_jを用いて以下の式で算出する。
【0094】
Qp(j)=c×MVnum_j+d+w_Qp …式(2)
ここで、c,dはユーザが指定したビットレートと画像サイズに対する係数であり、w_Qpは後述する重みパラメータである。
【0095】
式(2)は動きベクトルの代表値MVnum_jが大きくなるほど量子化幅QP(j)が大きくなることを意味している。すなわち、動きの大きいシーンほど量子化幅は大きくなり、逆に動きの小さいシーンほど量子化幅は小さくなり、画像は鮮明になる。
【0096】
<符号化パラメータ生成部でのフレームレートと量子化幅の修正>
符号化パラメータ生成部251では、フレームレートと量子化幅の修正に当たり、まず、式(1)、式(2)を用いてフレームレートと量子化幅を決める際、上述のシーンの分類の処理で得られたシーンの分類結果(シーンを構成するフレームのタイプ)を用いて式(1)に重みパラメータw_FRを、式(2)に重みパラメータw_QPを加え、フレームレートと量子化幅の修正を行う。
【0097】
具体的には、フレーム中に動きベクトルがほとんど存在しないタイプ〔1〕の場合(図6(a)の場合)にはフレームレートを下げて、量子化幅を小さく取る(w_FR,w_Qpともに小さくする)。
【0098】
図6(b)の如きタイプ〔2〕では、カメラの動きが不自然にならないようになるべくフレームレートを上げ、量子化幅は大きくする(w_FR,w_Qpともに大きくする)。
【0099】
図6(c)の如きタイプ〔3〕では、動いているオブジェクトの動き、すなわち動きベクトルの大きさが大きい場合にはフレームレートを修正する(WFRを大きくする)。
【0100】
図6(d)の如きタイプ〔4〕では、ズームの際にほとんどオブジェクトについては注目されていないと思われることから、量子化幅は大きく取り、フレームレートをできる限り上げる(w_FRを大きくし、w_Qpも大きくする)。
【0101】
図6(e)の如きタイプ〔5〕もフレームレートを上げ、量子化幅を大きくとる(wjR,w_Qpともに大きくする)。
【0102】
このようにして設定された重みパラメータw_FR,w_Qpをそれぞれ加えることにより、フレームレートと量子化幅の調整を行う。
【0103】
符号化パラメータ生成部251でのフレームレートおよび量子化幅修正処理のは以上の如きである。
【0104】
画質を維持するための仕組みとして、符号化パラメータ生成部251では、ユーザ指定によるマクロブロック単位での量子化幅変更が可能である((iv)マクロブロック毎の量子化幅の設定処理)。マクロブロック単位で量子化幅を可変させることが出来るわけである。その処理の詳細を説明する。
【0105】
<符号化パラメータ生成部でのマクロブロック毎の量子化幅の設定>
本発明システムにおいては、符号化パラメータ生成部251は、マクロブロック毎の量子化幅の変更指示を受けるとマクロブロック単位で量子化幅を可変するように機能させることができる。
【0106】
MPEG−4などでは、画像を16×16画素のブロックに分けて、このブロック単位で処理を進めるが、このブロック単位をマクロブロックと呼ぶ。符号化パラメータ生成部251では、ユーザからマクロブロック毎に量子化幅を変化するように指定された場合には、フレーム中にモスキートノイズがで出易いと判定されたマクロブロックやテロップ文字のように、強いエッジが存在すると判定されたマクロブロックに対して、他のマクロブロックよりも量子化幅を小さく設定することで画質改善を図ることもできる。
【0107】
符号化対象フレームに対して、図7のようにマクロブロックMBmをさらに4つに分けた小ブロック毎に輝度値の分散を計算する。このとき、輝度値の分散が大きい小ブロック(b2)と分散の小さい小ブロック(b1,b3)が隣り合う場合に、量子化幅が大きいと、そのマクロブロックMBmではモスキートノイズが発生し易い。つまり、マクロブロックMBm内でテクスチャが複雑な部分にテクスチャの平坦な部分が隣接するような場合に、モスキートノイズが出易くなる。
【0108】
そこで、輝度値の分散が大きい小ブロックに分散が小さい小ブロックが隣接している場合をマクロブロック毎に判定し、モスキートノイズが出易いと判定されたマクロブロックについては、他のマクロブロックよりも相対的に量子化幅を小さくする。逆に、テクスチャが平坦でモスキートノイズが出にくいと判定されたマクロブロックに対しては他のマクロブロックよりも相対的に量子化幅を大きくし、発生符号量の増加を防ぐようにする。
【0109】
例えば、j番目のフレーム内のm番目のマクロブロックについて、マクロブロック内に小さな4つのブロックがあるとき、図7に示すように
(ブロックkの分散)≧MBVarTre1
かつ
(ブロックkに隣接するブロックの分散)<MBVarThre2
…式(3)
という組み合わせを満たす小さなブロックがあるならば、このm番目のマクロブロックをモスキートノイズがで易いマクロブロックであると判定する(MBVarThre1、MBVarThre2はユーザが定義する閾値)。このようなm番目のマクロブロックに対して
QP(j)_m=QP(j)−q1 …式(4)
のようにマクロブロックの量子化幅Qp(j)_mを小さくする。これに対してモスキートノイズが出にくいと判定されたm′番目のマクロブロックに対しては、
QpC)_m=QpC)+q2 …式(5)
のように、マクロブロックの量子化幅QpC)_m′を上げることで、符号量の増加を防ぐ(q1,q2は正の数で・QpC)−q1≧(量子化幅の最小値)、QpO)+q2≦(量子化幅の最大値)を満たす)。
【0110】
その際、前述したカメラパラメータの判定で図6(b)の平行移動シーン、図6(d)のカメラズームのシーンと判定されたシーンについては、カメラの動きに支配されるために画像中のオブジェクトに対する視覚的注目度が低いと思われることからq1,q2は小さくとる。
【0111】
逆に、図6(a)の静止シーン、図6(c)の動いている部分が集中しているシーンでは、画像中のオブジェクトに対する視覚的注目度が高いと思われることからq1,q2は大きくとる。
【0112】
また、文字のようなエッジが存在するマクロブロックについても、量子化幅を小さくすることで文字の部分を明瞭にさせることもできる。フレームの輝度値データに対してエッジ強調フィルタを施し、マクロブロック毎に濃淡値の勾配が強い画素を調べる。画素の位置を集計し、勾配の大きい画素が部分的に集中しているブロックをエッジが存在するマクロブロックであると判断し、式(4)に従いそのブロックについて量子化幅を小さくし、式(5)によりその他のマクロブロックの量子化幅を大きくする。
【0113】
このようにしてマクロブロック単位で量子化幅を変更することで、画質を保証できる仕組みが確保できるようになる。
【0114】
以上が、符号化パラメータ生成部251における符号化パラメータ生成に当たって実施する(i)フレームレート算出処理、(ii)量子化幅算出処理、(iii)フレームレートと量子化幅の修正処理、(iv)マクロブロック毎の量子化幅の設定処理、の4種の処理の詳細である。
【0115】
次に、このようにして算出された符号化パラメータを、ユーザ指定のビットレートを満たすように修正する符号化パラメータ修正部253での処理について詳しく説明する。
【0116】
<符号化パラメータ修正部での発生符号量の予測>
符号化パラメータ修正部253での発生符号量の予測は次のようにして行う。符号化パラメータ生成部251により、上述のように算出された各シーン毎のフレームレートと量子化幅を用いて符号化すると、シーンのビットレートの割合が許容されるビットレートの上限値あるいは下限値を超える場合がある。そのため、限界値を超えるシーンのパラメータについてはそれを調整して上限値あるいは下限値内に収まるようにする必要がある。
【0117】
例えば、前記算出された符号化パラメータのフレームレートと量子化幅で符号化し、ユーザが設定したビットレートに対する各シーンのビットレートの割合を算出したとき、図8(a)のようにビットレートの上限値あるいは下限値を超えるようなシーン(S3,S6,S7)が出てくる場合がある。
【0118】
そこで本発明では、符号化パラメータ修正部253により、次のような処理を実施して、それぞれのシーンのビットレートの割合が、許容されるビットレートの上限値あるいは下限値を超えないように修正する処理を施す。
【0119】
すなわち、ユーザが設定したビットレートに対する割合を算出したとき、ビットレートの上限値を超えるようなシーン(S3,S6)では図8(b)のようにビットレートを上限値に設定し直す。同様に下限値を下回るシーン(S7)では図8(b)のようにビットレートの割合を下限値に設定し直す。
【0120】
この操作により、過剰、あるいは不足となった符号量は、図8(c)のように修正しなかった他のシーンに再分配し、全体の符号量は変えないように操作する。
【0121】
そのためには、発生符号量の予測が必要である。ここでは、発生符号量は例えば次のようにして予測する。
【0122】
符号化パラメータ修正部253は、各シーンの最初のフレームをIピクチャ、その他をPピクチャにすると仮定し、それぞれの符号量を算出する。まずIピクチャの発生符号量を推定する。Iピクチャの発生符号量については一般的に量子化幅QPと符号量の間に、図9のような関係があることから、1フレームあたりの発生符号量CodeIを例えば次のように算出する。
【0123】
CodeI=Ia×QP^Ib+Ic … 式(6)
ここでIa,Ib,Icは画像サイズ等により定められる定数とする。また、^はべき乗を表す。
【0124】
さらに、Pピクチャについては、動き補償残差MeSadと符号量の間に、ほぼ図10に示す如きの関係があることから、1フレームあたりの発生符号量CodePを例えば次のように算出する。
【0125】
CodeP=Pa×MeSad+Pb …式(7)
ここで、Pa,Pbは画像サイズ、量子化幅Qp等により定められる定数とする。 画像特徴量計算部220において、式(7)に用いるMeSadは、既に求められているものとし、これらの式から各シーン毎に発生する符号量の割合を算出する。J番目のシーンの発生符号量は
Code(j)=CodeI+(符号化する予定のフレームのCodePの和)
…式(8)
上記の式により算出されたシーン毎の符号量Code(j)を、そのシーンの長さT(j)で除算するとそのシーンの平均ビットレートBR(j)が算出される。
【0126】
BR(j)=Code(j)/T(j) …式(9)
このように算出されたビットレートをもとに、符号化パラメータの修正を行う。また、上記のようなビットレートの修正により予測された符号量を大幅に変更するような場合、各シーンのフレームレートを修正してもよい。すなわち、ビットレートを低くしたシーンではフレームレートも低くし、ビットレートを高めたシーンではフレームレートも高めることにより画質を保つようにする。
【0127】
以上が、符号化パラメータ修正部253での個々の処理の詳細である。
【0128】
以上のように、本発明は、動画像信号の符号化をするに当たり、状態を把握して調整するための予備処理(第1パス)を実施し、得られた結果を用いて符号化を実施する(第2パス)の2段階処理形態としたものであって、動画像信号についてシーン毎のフレームレートとビットレートを求める第1パスの処理を実施し、当該第1パス目で算出されたシーン毎のフレームレートとビットレートを第2パス目で符号化部に渡し、動画像信号を符号化することにより、フレームスキップや画質の劣化の劣化のない動画像符号化を実施できるようにしたものである。符号化部では、1パス目で得られた符号化パラメータをもとに、シーン毎に目標ビットレートとフレームレートを切り替えながら、従来からのレート制御を用いて符号化する。また、第1パス目で得られたマクロブロックの情報を用いて、レート制御により算出された量子化幅に対して相対的にマクロブロックの量子化幅を変化させる。これにより、まとまったひとつのシーンの中ではビットレートが保たれるので、符号化されたビットストリームのサイズは目標データサイズを満たすことができるようになる。
【0129】
比較のために、図11に、本発明の手法と従来法を用いて符号化した際のビットレートとフレームレートの推移の例を示しておく。
【0130】
図11の(a)が従来法におけるビットレートとフレームレートの推移の例であり、図11の(b)が本発明手法におけるビットレートとフレームレートの推移の例である。
【0131】
従来法では、図11(a)の〔I〕に示すように、一定の目標ビットレート401が定められており、これに対して403のように一定のフレームレートが設定されている。また、実際のビットレートとフレームレートは図11(b)の〔I〕に示すように、402(実際のビットレート)および404(実際のフレームレート)の如きとなる。このとき、動画像が動きの激しいシーンに切り替わると(t11〜t12区間参照)、このような動画像では発生符号量が急増するために、図15(b)のようなフレームスキップが起こり、図11(b)の〔II〕に符号404で示すように、フレームレートが落ちてしまう。
【0132】
これに対して本発明の手法(図11(b))では、シーンに応じて最適な値になるように405の如く目標ビットレートを定めており、また、シーンに応じて最適な値になるように、407の如く目標フレームレートを定めている。
【0133】
これにより、動画像が動きの激しいシーンに切り替わったときは、増大する符号量対応に目標値が変わることから、そのシーンに割り当てられたビットレートが多くなるためにフレームスキップは起こりにくくなり、また、フレームレートは目標値を満たすことができる。
【0134】
(第2の実施形態)
次に、ソースデータがMPEGストリーム(DVDの場合はMPEG−2ストリーム)である場合に、1パス目にビットストリームを全て再生するのではなく、必要な信号のみを部分的に再生することで1パス目の処理量を削減する例について説明する。
【0135】
ここでの構成例は、第1の実施形態で用いたものと基本的には同じでよい。
【0136】
ソースデータがMPEGストリームの場合、そのビットストリームの構成は図12の如きである。図12に示す例のように、MPEGストリームは、フレーム内符号化/フレーム間符号化等を切り替えたりするためのモード情報と、フレーム間符号化する際の動きベクトル情報と、輝度や色差信号を再生するためのテクスチャ情報に大別される。
【0137】
ここで、モード情報によりフレーム内符号化するブロックの数が多い場合には、シーンチェンジが発生していると想定されるため、特徴量計算部220(図1参照)でのシーン区切りの判定に利用できる。
【0138】
また、MPEGストリームには動きベクトル情報が含まれているので、このMPEGストリーム中の動きベクトル情報を抽出して特徴量計算部220で利用すれば良い。
【0139】
すなわち、特徴量計算部220では、動画像信号のシーン分割、動画像信号の各フレームにおける画像特徴量(動きベクトルの数、分布、ノルムの大きさ、動き補償後の残差、輝度・色差の分散等)を求める処理をするわけであるが、第1の実施形態のように、これら全てを演算処理により求めるのではなく、ここでは、MPEGストリーム中の“モード”の情報により、フレーム内符号化するブロックの数の大小を知り、これよりシーン区切りの判定してシーン分割処理に代え、また、MPEGストリームの“動きベクトル”の情報を抽出してそのまま流用することで動きベクトル演算処理を省略する。
【0140】
このように、MPEGストリームは、全てのデータを再生せずとも、一部の情報を再生するだけで特徴量計算部220で利用できるデータを、MPEGストリーム中から取得できることを利用して処理を簡素化することができる。
【0141】
このような部分的に再生された信号を利用する場合は、図1の構成において、デコーダ210によりデコードされた信号から上記“モード”の情報と、“動きベクトル”の情報を得てこれを信号線27を介して特徴量計算部220に供給する構成とし、特徴量計算部220には、動画像信号のシーン分割、動画像信号の各フレームにおける画像特徴量の演算処理のうち、“モード”の情報を用いたフレーム内符号化するブロックの数の大小からシーン区切りの判定してシーン分割処理を行う構成とし、MPEGストリームの“動きベクトル”の情報をそのまま流用して動きベクトルの数を取得する構成とし、他の演算(動きベクトルの分布、ノルムの大きさ、動き補償後の残差、輝度・色差の分散等)については第1の実施の形態と同様の処理をする構成とする。
【0142】
この構成により、特徴量計算部220の処理は一部を簡略化した構成として実現できることになる。
【0143】
なお、本発明において、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題の少なくとも1つが解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
【0144】
また、本発明における実施形態に記載した手法は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD、MOなど)、半導体メモリなどの記録媒体に格納して頒布することもでき、また、ネットワークを介しての伝送により、頒布することもできる。
【0145】
【発明の効果】
以上記述した如く、本発明によれば、動画像を解析し、シーン内容を編集操作に活用すると共に、編集操作により作成された新たな動画像に対してもシーン毎の統計的特徴量の相対的関係から最適な符号化パラメータが算出されるため、編集操作が容易になると共に、シーン毎にまとまりのある画像が得られ画質改善効果が得られる。
【図面の簡単な説明】
【図1】本発明を説明するための図であって、本発明の一実施形態に係る動画像符号化装置の構成を示すブロック図である。
【図2】本発明を説明するための図であって、構造化情報提示手段の表示例を説明する図である。
【図3】本発明を説明するための図であって、符号化するシーンを部分的に選択する場合の説明図である。
【図4】本発明を説明するための図であって、本発明システムにおける最適パラメータ計算部の構成例を示すブロック図である。
【図5】本発明を説明するための図であって、本発明の実施形態におけるシーン分割の処理手順の例を示すフローチャートである。
【図6】本発明を説明するための図であって、本発明の実施形態における動きベクトルによるフレームのタイプ分けについて説明する図である。
【図7】本発明を説明するための図であって、本発明システムにおけるモスキートノイズの発生し易いマクロブロックの判定について説明する図である。
【図8】本発明を説明するための図であって、本発明システムにおける発生符号量調整の処理手順を示す図である。
【図9】本発明を説明するための図であって、本発明システムにおけるIピクチャに関する発生符号量の推移を示す図である。
【図10】本発明を説明するための図であって、本発明システムにおけるPピクチャに関する発生符号量の推移を示す図である。
【図11】本発明システムにおけるビットレートとフレームレートの推移を従来法と比較した図である。
【図12】MPEGビットストリームの例である。
【図13】検証モデルのエンコーダブロック図である。
【図14】従来のレート制御について示す図である。
【図15】従来のレート制御を説明する図である。
【符号の説明】
100…エンコーダ
120…サイズ変換部
200…ソースデータ
210…デコーダ
220…特徴量計算部
230…構造化情報蓄積部
240…構造化情報提示装置
250…最適パラメータ計算部
251…符号化パラメータ生成部
252…発生符号量予測部
253…符号化パラメータ修正部
260…最適パラメータ蓄積部。

Claims (6)

  1. 入力された動画像信号を解析してフレーム毎の動きベクトルの情報を含む特徴量を算出する特徴量算出手段と、
    前記動画像信号を時間的に連続した複数のフレームからなる複数のシーンに分割するシーン分割手段と、
    前記特徴量算出手段により算出された特徴量から前記シーン分割手段により分割された各シーンに含まれる全フレームの特徴量の平均値をシーン毎の特徴量の代表値として算出する代表値算出手段と、
    前記各シーンの代表フレーム画像あるいは代表フレームの縮小画像及び前記代表値をユーザに提示する提示手段と、
    前記シーン分割手段により分割された複数シーンのうちから前記ユーザによる編集操作により選択されたシーンに対応する前記代表値に基づいて、該代表値が大きくなるほど大きくなるように算出されるフレームレート及び量子化幅の情報を含むシーン毎の符号化パラメータを生成する符号化パラメータ生成手段と、
    前記符号化パラメータ生成手段により生成されたシーン毎の符号化パラメータに従って前記動画像信号を符号化する手段と、
    を備えることを特徴とする動画像符号化装置。
  2. 動画像符号化データを復号して動画像信号を出力する復号手段と、
    前記動画像符号化データから動きベクトルの情報を含む特徴量を抽出する特徴量抽出手段と、
    前記動画像信号を時間的に連続した複数のフレームからなる複数のシーンに分割するシーン分割手段と、
    前記特徴量抽出手段により抽出された特徴量から前記シーン分割手段により分割された各シーンに含まれる全フレームの特徴量の平均値をシーン毎の特徴量の代表値として算出する代表値算出手段と、
    前記各シーンの代表フレーム画像あるいは代表フレームの縮小画像及び前記代表値をユーザに提示する提示手段と、
    前記シーン分割手段により分割された複数シーンのうちから前記ユーザによる編集操作により選択されたシーンに対応する前記代表値に基づいて、該代表値が大きくなるほど大きくなるように算出されるフレームレート及び量子化幅の情報を含むシーン毎の符号化パラメータを生成する符号化パラメータ生成手段と、
    前記符号化パラメータ生成手段により生成されたシーン毎の符号化パラメータに従って前記動画像信号を符号化する手段と、
    を備えることを特徴とする動画像符号化装置。
  3. 入力された動画像信号を解析してフレーム毎の動きベクトルの情報を含む特徴量を算出する特徴量算出ステップと、
    前記動画像信号を時間的に連続した複数のフレームからなる複数のシーンに分割するシーン分割ステップと、
    前記特徴量算出ステップにより算出された特徴量から前記シーン分割ステップにより分割された各シーンに含まれる全フレームの特徴量の平均値をシーン毎の特徴量の代表値として算出する代表値算出ステップと、
    前記各シーンの代表フレーム画像あるいは代表フレームの縮小画像及び前記代表値をユーザに提示する提示ステップと、
    前記シーン分割ステップにより分割された複数シーンのうちから前記ユーザによる編集操作により選択されたシーンに対応する前記代表値に基づいて、該代表値が大きくなるほど大きくなるように算出されるフレームレート及び量子化幅の情報を含むシーン毎の符号化パラメータを生成する符号化パラメータ生成ステップと、
    前記符号化パラメータ生成ステップにより生成されたシーン毎の符号化パラメータに従って前記動画像信号を符号化するステップと、
    を備えることを特徴とする動画像符号化方法。
  4. 動画像符号化データを復号して動画像信号を出力する復号ステップと、
    前記動画像符号化データから動きベクトルの情報を含む特徴量を抽出する特徴量抽出ステップと、
    前記動画像信号を時間的に連続した複数のフレームからなる複数のシーンに分割するシーン分割ステップと、
    前記特徴量抽出ステップにより抽出された特徴量から前記シーン分割ステップにより分割された各シーンに含まれる全フレームの特徴量の平均値をシーン毎の特徴量の代表値として算出する代表値算出ステップと、
    前記各シーンの代表フレーム画像あるいは代表フレームの縮小画像及び前記代表値をユーザに提示する提示ステップと、
    前記シーン分割ステップにより分割された複数シーンのうちから前記ユーザによる編集操作により選択されたシーンに対応する前記代表値に基づいて、該代表値が大きくなるほど大きくなるように算出されるフレームレート及び量子化幅の情報を含むシーン毎の符号化パラメータを生成する符号化パラメータ生成ステップと、
    前記符号化パラメータ生成ステップにより生成されたシーン毎の符号化パラメータに従って前記動画像信号を符号化するステップと、
    を備えることを特徴とする動画像符号化方法。
  5. 入力された動画像信号を解析してフレーム毎の動きベクトルの情報を含む特徴量を算出する特徴量算出ステップと、
    前記動画像信号を時間的に連続した複数のフレームからなる複数のシーンに分割するシーン分割ステップと、
    前記特徴量算出ステップにより算出された特徴量から前記シーン分割ステップにより分割された各シーンに含まれる全フレームの特徴量の平均値をシーン毎の特徴量の代表値として算出する代表値算出ステップと、
    前記各シーンの代表フレーム画像あるいは代表フレームの縮小画像及び前記代表値をユーザに提示する提示ステップと、
    前記シーン分割ステップにより分割された複数シーンのうちから前記ユーザによる編集操作により選択されたシーンに対応する前記代表値に基づいて、該代表値が大きくなるほど大きくなるように算出されるフレームレート及び量子化幅の情報を含むシーン毎の符号化パラメータを生成する符号化パラメータ生成ステップと、
    前記符号化パラメータ生成ステップにより生成されたシーン毎の符号化パラメータに従って前記動画像信号を符号化するステップと、からなるコンピュータ読み取りおよび実行可能なプログラムを記録した媒体。
  6. 動画像符号化データを復号して動画像信号を出力する復号ステップと、
    前記動画像符号化データから動きベクトルの情報を含む特徴量を抽出する特徴量抽出ステップと、
    前記動画像信号を時間的に連続した複数のフレームからなる複数のシーンに分割するシーン分割ステップと、
    前記特徴量抽出ステップにより抽出された特徴量から前記シーン分割ステップにより分割された各シーンに含まれる全フレームの特徴量の平均値をシーン毎の特徴量の代表値として算出する代表値算出ステップと、
    前記各シーンの代表フレーム画像あるいは代表フレームの縮小画像及び前記代表値をユーザに提示する提示ステップと、
    前記シーン分割ステップにより分割された複数シーンのうちから前記ユーザによる編集操作により選択されたシーンに対応する前記代表値に基づいて、該代表値が大きくなるほど大きくなるように算出されるフレームレート及び量子化幅の情報を含むシーン毎の符号化パラメータを生成する符号化パラメータ生成ステップと、
    前記符号化パラメータ生成ステップにより生成されたシーン毎の符号化パラメータに従って前記動画像信号を符号化するステップと、からなるコンピュータ読み取りおよび実行可能なプログラムを記録した媒体。
JP2000245026A 2000-08-11 2000-08-11 動画像符号化装置および動画像符号化方法およびプログラムを記録した媒体 Expired - Fee Related JP3825615B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000245026A JP3825615B2 (ja) 2000-08-11 2000-08-11 動画像符号化装置および動画像符号化方法およびプログラムを記録した媒体
US09/925,567 US20020024999A1 (en) 2000-08-11 2001-08-10 Video encoding apparatus and method and recording medium storing programs for executing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000245026A JP3825615B2 (ja) 2000-08-11 2000-08-11 動画像符号化装置および動画像符号化方法およびプログラムを記録した媒体

Publications (2)

Publication Number Publication Date
JP2002058029A JP2002058029A (ja) 2002-02-22
JP3825615B2 true JP3825615B2 (ja) 2006-09-27

Family

ID=18735623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000245026A Expired - Fee Related JP3825615B2 (ja) 2000-08-11 2000-08-11 動画像符号化装置および動画像符号化方法およびプログラムを記録した媒体

Country Status (2)

Country Link
US (1) US20020024999A1 (ja)
JP (1) JP3825615B2 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003285850A1 (en) * 2002-04-23 2004-04-30 Nokia Corporation Method and device for indicating quantizer parameters in a video coding system
US20050229204A1 (en) * 2002-05-16 2005-10-13 Koninklijke Philips Electronics N.V. Signal processing method and arragement
US7436890B2 (en) * 2002-06-05 2008-10-14 Kddi R&D Laboratories, Inc. Quantization control system for video coding
US20040247030A1 (en) * 2003-06-09 2004-12-09 Andre Wiethoff Method for transcoding an MPEG-2 video stream to a new bitrate
JP3988682B2 (ja) * 2003-06-10 2007-10-10 ソニー株式会社 送信装置および方法、記録媒体、並びにプログラム
NO318973B1 (no) * 2003-07-01 2005-05-30 Tandberg Telecom As Fremgangsmate for stoyreduksjon
US7869500B2 (en) * 2004-04-27 2011-01-11 Broadcom Corporation Video encoder and method for detecting and encoding noise
US7949051B2 (en) * 2004-05-26 2011-05-24 Broadcom Corporation Mosquito noise detection and reduction
JP4335779B2 (ja) * 2004-10-28 2009-09-30 富士通マイクロエレクトロニクス株式会社 符号化装置およびこれを用いた録画装置、並びに符号化方法および録画方法
US20070124282A1 (en) * 2004-11-25 2007-05-31 Erland Wittkotter Video data directory
WO2006070567A1 (ja) * 2004-12-28 2006-07-06 Pioneer Corporation 動画像記録方法および動画像記録装置
CA2595454C (en) * 2005-01-24 2015-01-20 Thomson Licensing Method, apparatus and system for visual inspection of transcoded video
US8503536B2 (en) 2006-04-07 2013-08-06 Microsoft Corporation Quantization adjustments for DC shift artifacts
US7995649B2 (en) 2006-04-07 2011-08-09 Microsoft Corporation Quantization adjustment based on texture level
US8711925B2 (en) 2006-05-05 2014-04-29 Microsoft Corporation Flexible quantization
US8831111B2 (en) * 2006-05-19 2014-09-09 The Hong Kong University Of Science And Technology Decoding with embedded denoising
US8369417B2 (en) * 2006-05-19 2013-02-05 The Hong Kong University Of Science And Technology Optimal denoising for video coding
BRPI0713916A2 (pt) * 2006-07-10 2012-11-06 Thomson Licensing métodos e aparelhagens para desempenho aperfeiçoado junto a um codificador de vìdeo com múltiplas passagens
US7940653B2 (en) * 2006-08-29 2011-05-10 Verizon Data Services Llc Audiovisual data transport protocol
US7817557B2 (en) * 2006-08-29 2010-10-19 Telesector Resources Group, Inc. Method and system for buffering audio/video data
JP4901772B2 (ja) * 2007-02-09 2012-03-21 パナソニック株式会社 動画像符号化方法及び動画像符号化装置
US8498335B2 (en) 2007-03-26 2013-07-30 Microsoft Corporation Adaptive deadzone size adjustment in quantization
US8243797B2 (en) 2007-03-30 2012-08-14 Microsoft Corporation Regions of interest for quality adjustments
US8442337B2 (en) 2007-04-18 2013-05-14 Microsoft Corporation Encoding adjustments for animation content
US8897359B2 (en) 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
US10165274B2 (en) * 2011-01-28 2018-12-25 Eye IO, LLC Encoding of video stream based on scene type
KR20140019335A (ko) * 2011-01-28 2014-02-14 아이 이오, 엘엘씨 장면 타입에 기초한 비디오 스트림 인코딩
CA2825927A1 (en) 2011-01-28 2012-08-02 Eye IO, LLC Color conversion based on an hvs model
JP2013025748A (ja) * 2011-07-26 2013-02-04 Sony Corp 情報処理装置、動画要約方法、及びプログラム
JP5901364B2 (ja) * 2012-03-09 2016-04-06 キヤノン株式会社 再生制御装置および再生制御方法
US9142003B2 (en) * 2012-06-10 2015-09-22 Apple Inc. Adaptive frame rate control
JP6227778B2 (ja) * 2013-07-30 2017-11-08 ドルビー ラボラトリーズ ライセンシング コーポレイション シーン不変化されたメタデータを生成するためのシステムおよび方法
US20150181208A1 (en) * 2013-12-20 2015-06-25 Qualcomm Incorporated Thermal and power management with video coding
US10356408B2 (en) * 2015-11-27 2019-07-16 Canon Kabushiki Kaisha Image encoding apparatus and method of controlling the same
CN106412503B (zh) * 2016-09-23 2019-09-03 华为技术有限公司 图像处理方法及装置
US11115666B2 (en) * 2017-08-03 2021-09-07 At&T Intellectual Property I, L.P. Semantic video encoding
CN110149517B (zh) * 2018-05-14 2022-08-23 腾讯科技(深圳)有限公司 视频处理的方法、装置、电子设备及计算机存储介质
WO2020019354A1 (zh) * 2018-07-27 2020-01-30 深圳市大疆创新科技有限公司 视频编码方法及装置、计算机可读存储介质
EP3611722A1 (en) * 2018-08-13 2020-02-19 Axis AB Controller and method for reducing a peak power consumption of a video image processing pipeline
US11893791B2 (en) 2019-03-11 2024-02-06 Microsoft Technology Licensing, Llc Pre-processing image frames based on camera statistics
US11514587B2 (en) * 2019-03-13 2022-11-29 Microsoft Technology Licensing, Llc Selectively identifying data based on motion data from a digital video to provide as input to an image processing model
US11145109B1 (en) * 2020-10-05 2021-10-12 Weta Digital Limited Method for editing computer-generated images to maintain alignment between objects specified in frame space and objects specified in scene space
US20230052385A1 (en) * 2021-08-10 2023-02-16 Rovi Guides, Inc. Methods and systems for synchronizing playback of media content items

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5872598A (en) * 1995-12-26 1999-02-16 C-Cube Microsystems Scene change detection using quantization scale factor rate control
JP3780623B2 (ja) * 1997-05-16 2006-05-31 株式会社日立製作所 動画像の記述方法
KR100750520B1 (ko) * 1997-09-25 2007-08-21 소니 가부시끼 가이샤 부호화 스트림 생성 장치 및 방법, 데이터 전송 시스템 및 방법, 편집 시스템 및 방법
US6100940A (en) * 1998-01-21 2000-08-08 Sarnoff Corporation Apparatus and method for using side information to improve a coding system
TW501022B (en) * 1998-03-16 2002-09-01 Mitsubishi Electric Corp Moving picture coding system
US6546052B1 (en) * 1998-05-29 2003-04-08 Canon Kabushiki Kaisha Image processing apparatus and method, and computer-readable memory
CN1229996C (zh) * 1999-01-29 2005-11-30 三菱电机株式会社 图象特征编码方法

Also Published As

Publication number Publication date
US20020024999A1 (en) 2002-02-28
JP2002058029A (ja) 2002-02-22

Similar Documents

Publication Publication Date Title
JP3825615B2 (ja) 動画像符号化装置および動画像符号化方法およびプログラムを記録した媒体
US7023914B2 (en) Video encoding apparatus and method
JP5021502B2 (ja) ビデオ・エンコーダのモード選択によるレート歪みトレードオフの制御方法および装置
JP4123567B2 (ja) 画像信号処理装置及び方法
KR100440953B1 (ko) 영상 압축 비트 스트림의 트랜스코딩 방법
JPH11346362A (ja) リアルタイム単一パス可変ビット・レ―ト制御方法及び符号器
JP2007525921A (ja) ビデオ符号化方法及び装置
JPWO2006100820A1 (ja) 画像符号化記録読出装置
JP2000102008A (ja) ビットレ―ト制御方法
JP4706104B2 (ja) 画像符号化装置及びその方法
JP3907875B2 (ja) 符号化レート制御装置及び情報符号化装置
JP2000350211A (ja) 動画像符号化方法及び動画像符号化装置
JP3508916B2 (ja) 動画像可変ビットレート符号化方法および装置
JP4224778B2 (ja) ストリーム変換装置および方法、符号化装置および方法、記録媒体、並びに、プログラム
JP2002238060A (ja) 画像符号化方法、画像符号化装置、プログラムおよび記録媒体
JPH0998427A (ja) 動画像符号化装置
JP3487205B2 (ja) 画像データ編集装置
JP4421734B2 (ja) 符号化データ変換方法,及びデータ記録媒体
JP4288897B2 (ja) 符号化装置及び方法、プログラム、記録媒体
JP3888533B2 (ja) 画像特徴に応じた画像符号化装置
JP2007142809A (ja) 映像記録装置
JP3660514B2 (ja) 可変レート動画像符号化方法および動画像編集システム
JPH1198514A (ja) 画像符号化装置および方法
JP4605183B2 (ja) 画像信号処理装置及び方法
JPH10108197A (ja) 画像符号化装置、画像符号化制御方法および画像符号化制御用プログラムを記録した媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060630

LAPS Cancellation because of no payment of annual fees