JP2018186493A - ビデオストリームをエンコードするための方法、ビデオエンコーダ、及びビデオカメラ - Google Patents

ビデオストリームをエンコードするための方法、ビデオエンコーダ、及びビデオカメラ Download PDF

Info

Publication number
JP2018186493A
JP2018186493A JP2018051075A JP2018051075A JP2018186493A JP 2018186493 A JP2018186493 A JP 2018186493A JP 2018051075 A JP2018051075 A JP 2018051075A JP 2018051075 A JP2018051075 A JP 2018051075A JP 2018186493 A JP2018186493 A JP 2018186493A
Authority
JP
Japan
Prior art keywords
pixel
frame
value
encoding
coded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018051075A
Other languages
English (en)
Other versions
JP6932096B2 (ja
Inventor
アントン エールン,
Oehrn Anton
アントン エールン,
ヴィクトル エドパルム,
Edpalm Viktor
ヴィクトル エドパルム,
ヘンリク エリアソン,
Eliasson Henrik
ヘンリク エリアソン,
ビョルン ベンデリウス,
Benderius Bjoern
ビョルン ベンデリウス,
ニクラス スヴェンソン,
Svensson Niclas
ニクラス スヴェンソン,
ファン, シン ダニエルソン
Danielsson Fan Xing
ファン, シン ダニエルソン
フレードリク ピール,
Pihl Fredrik
フレードリク ピール,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axis AB
Original Assignee
Axis AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Axis AB filed Critical Axis AB
Publication of JP2018186493A publication Critical patent/JP2018186493A/ja
Application granted granted Critical
Publication of JP6932096B2 publication Critical patent/JP6932096B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/917Television signal processing therefor for bandwidth reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Burglar Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】ビデオストリームのビットレートを低減するエンコード方法を提供する。【解決手段】方法は、エンコードされるビデオストリームのフレームを受信することと、定常領域を特定するためにフレーム内の動き検出を実施することと、時間的にフィルタリングされたピクセル値を提供するためにフレームを時間的にフィルタリングすることを含む。定常領域内のピクセルに関しては、そのピクセルのエンコード時には、そのピクセルがイントラ符号化されるであろうフレームのピクセルブロックに属していることを条件として、時間的にフィルタリングされたピクセル値が使用される。代わりに、そのピクセルがインター符号化されるであろうフレームのピクセルブロックに属していることを条件として、直近のフレームの相当するピクセルのエンコード時に使用された値が、そのピクセルのエンコード時に使用される。【選択図】図4

Description

本発明はビデオエンコーディングの分野に関する。具体的には、本発明は、ビデオストリームをエンコードするための方法、ビデオエンコーダ、及びビデオカメラに関する。
ビデオカメラの利用は、日々ますます一般的になってきている。ビデオカメラの用途の1つは、監視用である。例えば、あるシーンを監視するために、ビデオカメラのネットワークが配設されてよい。典型的には、ビデオカメラによってキャプチャされたビデオストリームは、ネットワーク内のサーバまたはクライアントといった別のノードに送信されるのに先立って、ビデオカメラ内でエンコードされる。
ビデオコーディングは、通常、一方のエンコードされたビデオのストリームのビットレートと、他方のエンコードされたビデオの品質との間で、トレードオフの関係にある。上記のもののようなカメラシステム内では、ビデオカメラによってキャプチャされたビデオストリームは、通常、ノイズによって劣化する。ノイズをコーディングすると、ビデオの品質に貢献することなしにコストがかかるため、ビデオストリームにとっては、エンコーディングに先立ってノイズフィルタリングを行うことが好ましい。h.264またはh.265規格を実装するコーデックといった現代のコーデックは空間的ノイズよりも時間的ノイズの影響を多く受けやすいため、ビデオストリームのエンコーディングの前に、時間的ノイズフィルタを適用するのが一般的な慣行である。
シーン内に何の動きも存在しないとき、時間的ノイズフィルタリングは、アーチファクトを招くことなくノイズを低減するのに非常に有効である。例えば、ビデオストリームの連続する2フレーム間に何の動きも存在しない状況を検討されたい。こうした状況では、時間的ノイズが最新のフレームと1つ前のフレームの同じピクセルの間の唯一の差分であり、アーチファクトを招くことなくノイズを低減するのに、時間的フィルタが効果的であろう。しかし、こうしたピクセルで時間的ノイズが低減されたとしても、ビデオストリーム内の連続するフレーム間で、依然としてピクセル値の変動が存在するであろう。これらの変動は、出力ビットレートに好ましくない形で寄与する。具体的には、ピクセル値の時間的変動は、インター符号化ブロックのエンコードにかかるコストに影響する。より具体的には、あるピクセルがインター符号化されるであろうフレームのピクセルブロックに属する場合、即ち、エンコーディングが1つ前のフレームからのピクセル値の予測に依存する場合、そのピクセル値が1つ前のフレームの値から変化している限り、ピクセル値のエンコーディングにはコストがかかるであろう。しかし、そうではなく、ピクセル値が1つ前のフレームに対して不変のままであれば、単に1つ前のフレームのピクセル値を参照することによって、そのピクセルはコストが一切かからずにエンコードされ得たであろう。したがって、改良の余地がある。
したがって、上記を踏まえて、エンコードされたビデオストリームのビットレートをさらに低減するエンコード方法を提供することが、本発明の目的である。
本発明の第1の態様によると、上記の目的は、
エンコードされるビデオストリームのフレームを受信することと、
何の動きも検出されないフレーム内の領域である定常領域を特定するために、フレーム内の動き検出を実施することと、
フレーム内の各ピクセルに関して時間的にフィルタリングされたピクセル値を提供するために、フレームを時間的にフィルタリングすることと、
フレームの定常領域内の各ピクセルに関して、
ピクセルがイントラ符号化されるであろうフレームのピクセルブロックに属することを条件として、ピクセルのエンコード時に、時間的にフィルタリングされたピクセル値を使用し、
ピクセルがインター符号化されるであろうフレームのピクセルブロックに属することを条件として、ピクセルのエンコード時に、直前のフレームの相当するピクセルのエンコード時に使用された値を使用することとを含む、
ビデオストリームのエンコード方法によって達成される。
提案されている方法は、動きが何も検知されていないピクセルについて、ノイズによって生じたピクセル値の時間的な変動を除去することによって、ビットレートが低減され得るという認識に基づいている。具体的には、あるピクセルがフレームの定常領域に属しており、そのピクセルがインター符号化されるであろうピクセルブロックに属している場合、そのピクセルのエンコード時には、1つ前のフレーム内の相当するピクセルのエンコード時に使用された値が使用されるであろう。その結果、そのピクセルは、単に1つ前のフレームの相当するピクセルに戻って参照することによって、コストを全くまたはほとんどかけずに、インター符号化され得る。したがって、あるピクセル内で動きがまったく発生しない限り、かつそのピクセルがインター符号化されるであろうブロックに属している限り、エンコーダによって使用されるピクセル値は「フリーズ」、即ち一定水準に保持される。この一定水準は、そのピクセルがイントラ符号化されるであろうブロックに属する都度、更新され、その時点の時間的にフィルタリングされたピクセル値に相当する。こうして、インター符号化ブロックは、はるかにより安価になる。なぜならば、フレーム間の時間的な変動が除去されるからである。イントラ符号化ブロックのコストは、同じままである。同時に、画質は大して損なわれない。
直前のフレームとは、別のフレームに直ぐに先行するフレームを意味しており、即ち、これらの2フレーム間には他のフレームは全く存在しない。以下では、簡潔にするため、1つ前のフレームという語と直前のフレームという語が、区別なしに使用される。
時間的にフィルタリングされたピクセル値とは、そのピクセル値が入力された時間的フィルタの出力値を意味する。
2つのピクセルは、ビデオストリーム内でフレームが異なっているにも関わらず同一のピクセル位置を占めている場合には、相当していると言われる。
ビデオフレームのシーケンスをエンコードするときには、使用されるコーディングの規格に従って、各ビデオフレームを16×16ピクセルのブロック、32×32ピクセルのブロック、64×64ピクセルのブロックといったピクセルブロックに分割して、ブロックごとにフレームをエンコードするのが一般的慣行である。これらのブロックは、h.264/MPEG−4 AVCではマクロブロックとして、h.265/HEVCではコーディングユニットとして、知られている。このように、本書で使用されているフレームのピクセルのブロックとは、概して、h.264/MPEG−4 AVCで知られているマクロブロック、h.265/HEVCで知られているコーディングユニットを意味している。
これらのブロックは、時にIブロックと呼ばれるイントラブロックとして符号化されるか、または、時にPブロックまたはBブロックとし呼ばれるインターブロックとしてエンコードされてよい。ブロックがイントラ符号化される場合、ピクセル値は、同じフレーム内の近隣のブロックのエッジからの外挿によるなど、最新のフレームのみを参照して符号化される。これは、インター符号化ブロックとは対照的である。インター符号化ブロックは、動き補償を実行することによって、(ビデオストリーム内の直前のフレームに相当してよい)参照フレーム内のピクセルのブロックを参照してエンコードされる。
方法は、フレームの定常領域内に存在していないピクセルに関して、そのピクセルのエンコード時に、時間的にフィルタリングされたピクセル値を使用することをさらに含み得る。こうして、デフォルトで、ピクセルのエンコード時に、時間的にフィルタリングされたピクセル値が使用される。しかし、ピクセルが定常領域に属することを条件として、加えて、そのピクセルがインター符号化されるであろうブロックに属することを条件として、直前のフレームのエンコード時に使用された値が使用される。
上記の方法は、フレーム内のどのピクセルブロックがインター符号化され、どのピクセルブロックがイントラ符号化されるかがあらかじめ分かっている、即ちプレエンコードされる、ということを前提としている。この目的に関して、本方法は、フレーム内のあるピクセルブロックがイントラ符号化されるかインター符号化されるかを表す情報を受信することをさらに含む。受信した情報に基づいて、あるピクセルのエンコード時にどの値を使用するか、即ち時間的にフィルタリングされた値を使用するか、1つ前のフレームの相当するピクセルのエンコード時に使用された値を使用するかに関する決定がなされてよい。
h.254及びh.265といった周知のビデオコーディング技術は、一連のフレーム間のビデオデータ量を低減するためにフレーム間予測を使用している。フレーム間予測には、ブロックベースの動き補償といった技術が関係している。この技術では、参照フレーム内のマッチするブロックを探すことによって、新しいフレームがブロックごとに予測され得る。インターフレーム予測では、各フレームが、イントラフレーム(時として、例えばH.264では、Iフレームと呼ばれる)またはインターフレーム(時として、例えばH.264では、PフレームまたはBフレームと呼ばれる)といった、あるタイプのフレームとして分類される。イントラフレームは、他のいずれのフレームも参照することなく独立してデコードされ得る、自己完結型のフレームである。対照的に、インターフレームは、前にデコードされた1つ以上のフレームを参照する。イントラフレーム及びインターフレームは、ピクチャグループ(GOP)構造によって規定されるビデオストリーム内の特定の順序で、配列されている。イントラフレームは、あるGOP構造の先頭を表しており、その後にいくつかのインターフレームが続く。
受信した情報は、ビデオストリーム内のどのフレームがイントラフレームとしてエンコードされるか、及びビデオストリーム内のどのフレームがインターフレームとしてエンコードされるかを特定するピクチャグループ構造、即ちGOP構造を含んでいてよく、イントラフレーム内の全てのピクセルブロックは、イントラ符号化される。こうして、受信したGOP構造は、最新のフレームがイントラフレームであるかインターフレームであるかを推論するのに使用されてよい。
上記のように、イントラフレームの全てのピクセルブロックがイントラ符号化される。ある実施形態では、あるインターフレームの全てのピクセルブロックがインター符号化される。しかし他の実施形態では、インターフレーム内のいくつかのピクセルブロックがイントラ符号化される一方、インターフレーム内の残りのピクセルブロックはインター符号化される。こうして、イントラフレーム間でも、イントラ符号化ブロックにとっての新たな参照ポイントが設定されてよい。これは、時として「イントラリフレッシュ」と呼ばれる。具体的には、イントラ符号化されるインターフレーム内のピクセルブロックを特定する、所定のパターンがあってよい。受信される情報は、こうしたパターンを含んでいてよい。さらに具体的には、この情報は、GOP構造内のインターフレームのどのピクセルブロックがイントラ符号化されるか、及びGOP構造内のインターフレームのどのピクセルブロックがインター符号化されるかを特定するパターンを、さらに含んでいてよい。こうして、あるフレーム内のピクセルブロックは、受信したGOP構造及び受信したパターンから、インター符号化されるかイントラ符号化されるかが決定されてよい。
GOP構造、及び上記のパターンは、あるフレームまたはピクセルブロックがイントラ符号化されるかインター符号化されるかを予測するのに使用され得る、所定の構造の例である。しかし、あるフレームをイントラフレームまたはインターフレームとしてエンコードするのには、他の理由もあってよい。例えば、エンコードされたビデオストリームがネットワーク経由でエンコーダから送信される際、いくつかのフレームが喪失される可能性がある。即ち、これらのフレームは受信者に決して到達しないであろう。もしこれが発生したら、GOP構造がイントラフレームを予定しているか否かに関わらず、新たなイントラフレームをエンコードすることによって、エンコーディングを「再スタート」する必要があるかもしれない。新たなイントラフレームのエンコーディングは、要求を受けて、例えばネットワークインターフェースからの要求を受けて、行われ得る。このように、受信される情報は、フレームがイントラフレームとしてエンコードされるという要求を含んでいてよい。
ある実施形態では、1つ前のフレームのエンコード時に使用されたピクセル値を使用してピクセルをエンコードするのに先立って、さらなるチェックが実行されてよい。具体的には、時間的にフィルタリングされた値が、1つ前のフレームの相当するピクセルのエンコード時に使われたピクセル値からあまりにも大きく乖離している場合には、画質が損なわれ得る。上記が該当する場合は、ピクセルのエンコード時に、代わりに、時間的にフィルタリングされたピクセル値を使用するのが好適であり得る。詳細には、方法はさらに、
フレームの定常領域内の各ピクセルに関して、
時間的にフィルタリングされたピクセル値を、直前のフレームの相当するピクセルのエンコード時に使用された値と比較することと、
時間的にフィルタリングされたピクセル値が、直前のフレームの相当するピクセルのエンコード時に使用された値から、閾値よりも大きく異なることを条件として、そのピクセルがインター符号化されるであろうフレームのピクセルブロックに属していたとしても、ピクセルのエンコード時に時間的にフィルタリングされたピクセル値を使用することとを含み得る。
方法は、時間的にフィルタリングされたピクセル値及び、ピクセルのエンコード時に使用された値を保存することをさらに含み得る。こうして、時間的にフィルタリングされたピクセル値及びピクセルのエンコード時に使用された値は、次のフレームを処理するときに使用され得る。
フレームを時間的にフィルタリングするステップは、フレーム内の各ピクセルに関して、ビデオストリーム内の直前のフレームについて計算された時間的にフィルタリングされたピクセル値を更新することであって、直前のフレームについて計算された時間的にフィルタリングされたピクセル値は、この値とフレームのピクセル値とを組み合わせることによって更新される、更新することを含み得る。このように、時間的なフィルタリングを実行するために保存する必要があるのは、直前のフレームに関して時間的にフィルタリングされたピクセル値だけであり、そのピクセルの完全な時間的履歴は不要である。
直前のフレームについて計算された時間的にフィルタリングされたピクセル値は、直前のフレームについて計算された時間的にフィルタリングされたピクセル値と、このフレームのピクセル値との重み付け平均をとることによって更新され得る。
前に計算された時間的にフィルタリングされたピクセル値をこうやって更新することによって、時間的にフィルタリングされたピクセル値は、直前のフレームだけでなく、それよりも前のフレーム(複数)の集積とも一致するであろう。
重みは、動き検出ステップで決定される、そのピクセルが定常領域に属する確率に依存してよい。この確率が低ければ低いほど、時間的にフィルタリングされたピクセル値の相対的な重みは低くなり、フレームのピクセル値の相対的な重みは高くなる。
本発明の第2の態様によると、上記の目的は、
エンコードされるビデオストリームのフレームを受信するように構成された受信機と、
何の動きも検出されないフレーム内の領域である定常領域を特定するために、フレーム内の動き検出を実施するように構成された動き検出器と、
フレーム内の各ピクセルに関して時間的にフィルタリングされたピクセル値を提供するため、フレームを時間的にフィルタリングするように構成された時間的フィルタと、
フレームの定常領域内の各ピクセルに関して、
そのピクセルがエンコーダによってイントラ符号化されるであろうフレームのピクセルブロックに属することを条件として、ピクセルのエンコード時に、時間的にフィルタリングされたピクセル値を使用し、
そのピクセルがエンコーダによってインター符号化されるであろうフレームのピクセルブロックに属することを条件として、ピクセルのエンコード時に、直前のフレームの相当するピクセルのエンコード時に使用された値を使用するように構成されたエンコーダを備える、ビデオエンコーダによって達成される。
本発明の第3の態様によると、上記の目的は、第2の態様によるビデオエンコーダを備えるビデオカメラによって達成される。
本発明の第4の態様によると、上記の目的は、処理能力を有するデバイスによって実行されたときに第1の態様による方法を実施するように適合しているコンピュータコード命令を内部に保存して有している、非一時的コンピュータ可読媒体によって達成される。
第2、第3、及び第4の態様は、概して第1の態様と同じ特徴と利点を有していてよい。本発明はさらに、別様に明記されていない限り、特徴の可能なすべての組み合わせに関連することに留意されたい。
本発明の上記の及びさらなる目的、特徴、利点は、付随する図面を参照しつつ、本発明の好ましい実施形態の以下の例示的かつ非限定的な詳細説明を通して、よりよく理解されるであろう。図面では、類似の要素に対して同じ参照番号が使用されている。
実施形態によるビデオカメラを示す。 実施形態によるビデオエンコーダを示す。 ビデオストリームの特定のピクセル位置に関する、測定されたピクセル値、時間的にフィルタリングされたピクセル値、及びエンコードされたピクセル値を示す。 実施形態による方法のフロー図である。 さらなる実施形態による方法のフロー図である。
ここで、本発明の実施形態を示す添付図面を参照して、本発明をより網羅的に説明する。本書で開示されるシステム及びデバイスは、動作中のものについて記載する。
図1は、ビデオカメラ100を示す。ビデオカメラ100は、センサ101、画像パイプライン102、及びネットワークインターフェース104を備える。画像パイプライン102は、画像処理部106及び、画像処理部106の下流に配設されたビデオエンコーダ108を有する。このように、ビデオカメラ100の全般的な構造は、従来型のものである。しかし、ビデオカメラ100は、内部構造とビデオエンコーダ108の機能において、従来型のビデオカメラとは異なる。
ビデオカメラ100は、センサ101を介して、連続するフレームのビデオストリームをキャプチャするように構成されている。これらのフレームは、画像パイプライン102を通過し、画像処理部106及びビデオエンコーダ108によって、画像パイプライン102内で処理される。ビデオエンコーダ108から出力された、エンコードされたビデオストリーム即ちエンコードされたフレームのシーケンスは、次に、ネットワークインターフェース104を介して、ネットワーク上、例えばビデオエンコーダに、ビットストリームとして送信されてよい。
図2は、ビデオエンコーダ108をより詳細に示している。ビデオエンコーダは、受信機110と、動き検出器112と、時間的フィルタ114と、エンコーダ116と、送信機118とを備える。
ビデオエンコーダ108と、具体的にはエンコーダ116は、一連のフレーム間のビデオデータ量を低減するため、通常、h.264またはh.265で規定されているものといった、フレーム間予測を使用する。フレーム間予測では、各フレームが、イントラフレーム(時として、例えばh.264では、Iフレームと呼ばれる)またはインターフレーム(時として、例えばh.264では、PフレームまたはBフレームと呼ばれる)といった、あるタイプのフレームとして分類される。イントラフレームは、他の画像を全く参照することなく独立してデコードされ得る、自己完結型のフレームである。具体的には、イントラフレームのエンコード時には、予測、変換、及びエントロピーコーディングを介して、単一のフレームの所与のチャネル内のピクセルの空間的な冗長性を利用することによって、輝度チャネル及び色度チャネルがエンコードされる。これは、フレームをコーディングするのに、より前のイントラフレーム及び/またはインターフレームの一部が参照されるインターフレームとは対照的である。インターフレームのエンコード時には、別々のフレーム間の時間的な冗長性が利用され、エンコーディングは、選択されたピクセルブロックに関して1つのフレームから別のフレームまでのピクセル内の動きをエンコードすることによって、1つ以上の前のフレームからフレームの一部を予測する、動き補償予測技術に依存する。
このように、ビデオエンコーダ108は、ビデオエンコーダ108の機能を実装するように構成された、様々な構成要素110、112、114、116、118を含んでいる。概して、ビデオエンコーダ108は、構成要素110、112、114、116、118、より具体的にはそれらの機能を実装するように構成された、回路を含んでいてよい。
ハードウェアの実装では、構成要素110、112、114、116、118のそれぞれは、その構成要素の機能を提供することに特化しそのために具体的に設計された、回路に対応していてよい。この回路は、1つ以上の特定回路向け集積回路といった、1つ以上の集積回路の形態であってよい。一例として、時間的フィルタ114は、使用されたときに、受信したビデオストリーム内でフレームを時間的にフィルタリングする、回路を含んでいてよい。
ソフトウェア実装では代わりに、回路は、非揮発性メモリといった(非一時的)コンピュータ可読媒体に保存されたコンピュータコード命令と関連して、本書で開示される任意の方法をビデオエンコーダ108に実行させる、マイクロプロセッサといった回路の形態であってよい。したがって、この場合、構成要素110、112、114、116、118は、それぞれ、プロセッサによって実行されたときにビデオエンコーダ108に各構成要素の機能を実行させる、コンピュータ可読媒体内に保存されたコンピュータコード命令の一部に対応していてよい。
ハードウェア実装とソフトウェア実装を組み合わせること、即ち、いくつかの構成要素110、112、114、116、118の機能はハードウェアで実装され、他のものはソフトウェアで実装される、ということもまた可能であることは、理解されるべきである。
これより、図2、図3、及び図4のフロー図を参照して、ビデオエンコーダ108の動作を解説する。
ステップS02で、受信機110は、エンコードされるビデオストリームのフレームを受信する。
ステップS04で、動き検出器112が、フレーム内の動き検出を実施する。動き検出の目的は、フレーム内の定常領域、即ちフレームの何の動きも生じていない領域を特定することである。任意の既知の動き検出アルゴリズムが、この目的のために使用されてよい。
単純な動き検出アルゴリズムは、最新のフレーム内で測定されたピクセル値と、1つ前のフレーム内の相当するピクセルの測定されたピクセル値との差分を計算し得る。この差分が閾値よりも大きい場合、ピクセル内に動きが存在すると判定される。そうでない場合には、ピクセル内に動きが存在しない、即ちこのピクセルは定常領域に属すると判定される。より高度な動き検出アルゴリズムは、そうではなく、一度に1群のピクセルを見て、より信頼性の高い結果を得るであろう。
ステップS06では、フレームが、フレームを時間的にフィルタリングする時間的フィルタ114内に入力される。原理上、時間的フィルタ114は、あらゆる既知の時間的フィルタリング方法を実装してよい。しかし好ましくは、時間的フィルタ114は、最新フレームのピクセル値と、1つ前のフレームの時間的にフィルタリングされたピクセル値にのみアクセスする必要があるようにして、実装される。こうして、保存する必要があるデータの量が削減され得る。例えば、時間的フィルタ114は、各ピクセル位置に関して、例えば1つ前のフレームの時間的にフィルタリングされたピクセル値を最新フレームのピクセル値と組み合わせることによって、1つ前のフレームの時間的にフィルタリングされたピクセル値を最新フレームのピクセル値に基づいて更新し得る。更新された時間的にフィルタリングされたピクセル値は、次に、後続するフレームの処理時に使用されるために、保存され得る。これは、図3でさらに示される。
図3は、特に、ビデオストリーム内の特定のピクセル位置に関して、測定されたピクセル値302a−e(三角形)と、時間的にフィルタリングされたピクセル値304a−e(四角形)を、時間の関数として概略的に示す。ビデオストリームは、時点t−2において開始されると仮定する。当初、時点t−2における時間的にフィルタリングされたピクセル値304aは、時点t−2における測定されたピクセル値302aと等しくなるように設定される。時点t−1に相当する新しいフレームが受信されると、1つ前のフレームからの時間的にフィルタリングされたピクセル値304aは、時点t−1で測定されたピクセル値302bと組み合わされることによって更新される。こうして得られた、更新された時間的にフィルタリングされたピクセル値304bは、将来の使用のために保存される。例えば、1つ前のフレームからの時間的にフィルタリングされたピクセル値304aと最新フレームのピクセル値302bとの重み付き和は、以下によって計算され得る。
t−1=aXt−2+(1−a)Yt−1
式中、Xt−1は、時点t−1において更新された、時間的にフィルタリングされたピクセル値(即ち、アイテム304b)を表し、Xt−2は、時点t−2において計算された、時間的にフィルタリングされたピクセル値(即ち、アイテム304a)を表し、Yt−1は、時点t−1において測定されたピクセル値(即ち、アイテム302b)を表す。「a」は、測定されたピクセル値302bと、1つ前のフレームからの時間的にフィルタリングされたピクセル値304aをどのように混合するかを決定するパラメータである。このパラメータ値は、時間的に一定であってよい。しかし、時間的に変化してもよい。具体的には、このパラメータ値は、ピクセル内に動きがあるという可能性を表す、動き検出器112からの情報に基づいていてよい。
時間的フィルタ114は、新たなフレームを受信する度に上記の手順を繰り返す。こうして、時点tで、時間的にフィルタリングされたピクセル値304cが、時間的にフィルタリングされたピクセル値304bと測定されたピクセル値302cとの組み合わせとして計算され、他も同様である。
本方法の次のステップは、エンコーダ116によってフレームをエンコードすることである。しかし、エンコーダ116は、フレーム内のあるピクセルに関して、ピクセル内に動きが検出されているかどうかに応じて、及びそのピクセルがイントラ符号化されるピクセルブロックに属しているかインター符号化されるピクセルブロックに属しているかに応じて、異なる入力値を使用するであろう。このことについて、以下で説明する。
ステップS08で、エンコーダ116は、フレーム内の各ピクセルに関して、ステップS04で動き検出器112によって、そのピクセル内で動き112が検出されたかどうかをチェックする。動きが検出されたピクセル、即ちフレーム内の定常領域内ではないピクセルに関しては、エンコーダ116はステップS12で、ピクセルのエンコード時に、時間的にフィルタリングされたピクセル値を使用する。
代わりにステップS08で、エンコーダ116が、ステップS04で動き検出器112によってピクセル内の動きが何も検出されなかったと認定した場合、即ちそのピクセルが定常領域に属している場合には、エンコーダ116は、ステップS10に進む。
エンコーダ116は、フレームの定常領域内の各ピクセルについて実行されるステップS10で、そのピクセルがイントラ符号化されるであろうフレームのピクセルブロックに属しているかどうかをチェックする。このチェックを実行するために、エンコーダ116は、あるピクセルブロックがイントラ符号化されるかまたはインター符号化されるかを表す情報へのアクセスを有するか、この情報を受信してよい。この情報は、ビデオエンコーダ116のメモリに保存され得る。例えば、ビデオエンコーダ108は、ビデオストリーム内でイントラフレームとインターフレームが配列されている順序を規定する、ピクセルグループ構造、即ちGOP構造へのアクセスを有していてよい。イントラフレーム内の全てのピクセルブロックは、イントラ符号化される。即ち、別のフレームを参照することなく符号化される。しかし、このことはインターフレームには必ずしも該当しない。即ち、インターフレーム内の全てのピクセルブロックが、必ずしもインター符号化される訳ではない。あるケースでは、インターフレームのどのブロックがイントラ符号化されるかが、あらかじめ決定される。例えば、インターフレーム内のどのブロックがイントラ符号化されるかを特定するパターンがあってよい。これは時として、イントラリフレッシュパターンと呼ばれる。ビデオエンコーダ108と、より具体的にはエンコーダ116は、このパターンへのアクセスを有していてよいか、またはこのパターンを受信してよい。こうしてエンコーダ116は、このパターンに基づいて、フレーム内のどのブロックがイントラブロック及びインターブロックとしてエンコードされるかを推論してよい。
さらにまたは代わりに、ビデオエンコーダ116は、このフレームをイントラフレームとしてエンコードする要求をネットワークインターフェース104から受信してもよい。これは、例えば、仮にあるフレームが通信中に失われ、イントラフレームをエンコードすることによってエンコーディングを再スタートする必要がある、というケースであってよい。
ステップS10の判定が、利用可能なプレエンコーディングがどれであるかという情報に基づいていることは、留意すべきである。こうして、もしあるブロックが、エンコード前に入手可能な情報によるとインター符号化される予定であり、かつエンコーダ116が何らかの理由で後のエンコード処理中にイントラ符号化すると決定した場合、ステップS10の出力は依然として、インター符号化するというものである。
エンコーダ116がステップS10で、あるピクセルがイントラ符号化される予定のブロックに属していると認定した場合、エンコーダ116は、ピクセルのエンコード時にステップS06からの時間的にフィルタリングされたピクセル値を使用する。ステップS12参照。
代わりに、エンコーダ116がステップS10で、あるピクセルがインター符号化される予定のブロックに属していると認定した場合、エンコーダ116は、ピクセルのエンコード時に1つ前のフレームの相当するピクセルのエンコード時に使用された値を使用する。ステップS14参照。どちらの場合にも、エンコード時にエンコーダ116が使用する値は、将来の使用のために保存される。
上記は、図3の例でさらに説明される。図3の例では、例示されているピクセル位置は、フレームの定常領域内にあると仮定されており、即ち、示されている時間間隔の間、ステップS08で、動き検出器112によって、このピクセル内に何の動きも検出されない。円306a−eは、種々の時点においてピクセルのエンコード時にエンコーダ116によって使用される値を表す。これらの値は、図3で、Zt−2,…Zt+2によっても表されている。
上記でさらに検討されたように、ビデオストリームは、時点t−2において開始される。ビデオストリームの第1のフレームはイントラフレームとしてエンコードされる。即ち、このフレームの全てのブロックが、イントラ符号化される。したがって、このピクセルは、時点t−2では、イントラ符号化されるブロックに属している。時点t2における「Iブロック」の標示は、このブロックがイントラブロックであることを示す。Iブロックは、例えばh.264で、イントラ符号化されたブロックとして使われている用語である。ステップS10及びS12に進むと、時点t−2でピクセルのエンコード時にエンコーダ116が使用する値306aは、時間的にフィルタリングされたピクセル値304a、即ちZt−2=Xt−2に設定される。
時点t−1では、このピクセルは、「Pブロック」という標示によって表される、インター符号化されるであろうブロックに属している。Pブロックとは、例えばh.264において、インター符号化されたブロックに使われる用語である。ステップS10及びS14に進むと、時点t−1でピクセルのエンコード時にエンコーダ116が使用する値306bは、1つ前のフレーム内の同じピクセルのエンコード時に使用された値、即ち値306aである。言い換えれば、Zt−1=Zt−2である。こうして、エンコーダ116は、1つ前のフレームのエンコード時に使用された値をコピーするであろう。
時点tでも再び、このピクセルは、「Pブロック」という標示によって表される、インター符号化されるであろうブロックに属している。したがって、ステップS10及びS14に進むと、ピクセルのエンコード時にエンコーダ116が使用する値306cは、1つ前のフレーム内の同じピクセルのエンコード時に使用された値306bであり、即ちZ=Zt−1である。
時点t+1でも、同じ理由によって同じことが繰り返され、Zt+1=Zである。
次のフレーム、即ち時点t+2では、このピクセルは代わりに、「Iブロック」という標示によって表される、イントラ符号化されるであろうブロックに属している。ステップS10及びS12に進むと、時点t+2でピクセルのエンコード時にエンコーダ116が使用する値306eは、時点t+2で更新された時間的にフィルタリングされたピクセル値304e、即ちZt+2=Xt+2に設定される。
時間的シーケンス全体を見てみると、ピクセルのエンコード時にエンコーダ116が使用する値は、時点t−2、t−1、t、t+1において一定のままであり、時点t−2からの時間的にフィルタリングされたピクセル値Xt−2と等しい。したがって、エンコーダ116が使用する値は、時点t−2では、時間的フィルタ114からの出力水準でフリーズされている。この値は、次にこのピクセルがイントラ符号化されるブロックに含まれるまで、この場合には時点t+2まで、フリーズされる。この時点では、エンコーダ116が使用する値は、時点t+2における時間的フィルタ114からの出力に設定される。こうして、時点t+2でエンコーダ116が使用する値は、このピクセルがイントラ符号化されるブロックに属するまで、再びフリーズされる。この時点では、時点t+2における時間的フィルタ114の出力水準でフリーズされている。インター符号化中はピクセル値が不変のままなので、エンコーダ116は、単に1つ前のフレーム内の値を参照することによってこのピクセルをエンコードし得る。こうして、エンコーダ116の出力ビットレートは顕著に低減され得る。同時に、ビデオ画質は大して損なわれない。
時間の経過に伴って、時間的フィルタ114の最新の出力値が、ピクセルがフリーズする値の水準から、即ち時間的フィルタ114の古い出力値に相当する水準から、乖離し始めるということが起こり得る。乖離が大きくなりすぎる場合は、ビデオ画質が損なわれ得、デコードされた動画に視覚的アーチファクトが生じ得る。図5は、この潜在的な問題の克服を狙った一実施形態を示す。
図5の実施形態は、時間的フィルタ114の古い出力レベルに相当するフリーズされた値の、時間的フィルタ114の最新の出力値からの乖離が大きすぎないかどうかに関するさらなるチェックが実行されるという点で、図4に関連して記載された実施形態とは異なる。
より詳細には、フレームの定常領域に属するピクセルに関して、及びインター符号化されるであろうピクセルブロックに属するピクセルに関して、エンコーダ116はステップS13aで、時間的にフィルタリングされたピクセル値を、1つ前のフレームの相当するピクセルのエンコード時に使用された値と比較する。言い換えれば、エンコーダ116は、時間的フィルタ114の最新の出力を、1つ前のフレームのエンコード時に使用された値、即ち「フリーズされた」水準と比較する。図3を参照すると、こうしてエンコーダ116は時点t−1において、時間的にフィルタリングされたピクセル値304bを、1つ前のフレーム内のピクセルのエンコード時に使用された値306aと比較するのである。したがって、数式で表すと、エンコーダ116はXt−1をZt−2と比較するのである。構造としてZt−2=Xt−2であるため、実際には上記は、エンコーダ116はXt−1をXt−2と比較することを意味する。
ビデオエンコーダ116がステップS13bで、時間的にフィルタリングされたピクセル値304bと1つ前のフレームのエンコード時に使用された値306aとの差分が所定の閾値以下であると認定した場合、ビデオエンコーダ116は、1つ前のフレーム内の相当するピクセルのエンコード時に使用した値306aを使用する。この場合、こうして図4の実施形態と同じ結果となる。
しかしビデオエンコーダ116がステップS13bで、差分が閾値を上回ると認定した場合、エンコーダ116は、代わりに時間的にフィルタリングされたピクセル値304bを使用する。こうして、ピクセルのエンコード時に使用される値は、イントラ符号化されるブロックの間であっても、新しい水準でフリーズされ得る。
閾値は、テスト用ビデオストリームに対してエンコードを実行し、どの値の閾値が容認できるビデオ画質をもたらすかを確かめることによって、実証的に設定されてよい。閾値はまた、利用可能な帯域幅に応じた調整用パラメータとして使用されてもよい。帯域幅が非常に限定されている場合、閾値は高い値に設定されてよく(極限では、図4の実施形態を用いるのと等しい)、一方でより広い帯域幅が利用可能な場合、より低い値の閾値が選択されてよい。こうして、帯域幅とビデオ画質との間の所望のトレードオフが実現されてよい。
当業者が上記の実施形態を様々な形で変更した上で、なお上記の実施形態において示されている本発明の利点を利用することが可能であることは、理解されるであろう。例えば、本発明の実施形態は、ビデオ会議やスポーツ用デジタルビデオといった種々の用途で使用可能である。本発明が、イントラ符号化とインター符号化を伴うGOP構造を用いるあらゆるエンコードスキーム、例えばh.264、h.265、及びVPXで使用され得ることも、また理解される。従って、本発明は、示された実施形態に限定されるべきではなく、添付の特許請求の範囲によってのみ限定されるべきである。さらに、当業者が理解しているように、示された実施形態は、組み合わされてもよい。

Claims (11)

  1. ビデオストリームをエンコードする方法であって、
    エンコードされるビデオストリームのフレームを受信すること(S02)と、
    何の動きも検出されない前記フレーム内の領域である定常領域を特定するために、前記フレーム内の動き検出を実施すること(S04)と、
    前記フレーム内の各ピクセルに関して時間的にフィルタリングされたピクセル値(304a−e)を提供するために、前記フレームを時間的にフィルタリングすること(S06)と、
    前記フレームの前記定常領域内ではない各ピクセルに関して、
    前記ピクセルのエンコード時に、前記時間的にフィルタリングされたピクセル値(304a−e)を入力値として使用し(S12)、
    前記フレームの前記定常領域内の各ピクセルに関して、
    前記ピクセルがイントラ符号化されるであろう前記フレームのピクセルブロックに属することを条件として、前記ピクセルのエンコード時に、前記時間的にフィルタリングされたピクセル値(304a−e)を入力値として使用し(S12)、
    前記ピクセルがインター符号化されるであろう前記フレームのピクセルブロックに属することを条件として、前記ピクセルのエンコード時に、直前のフレームの相当するピクセルのエンコード時に使用された値(306a−e)を入力値として使用すること(S14)と、を含む方法。
  2. 前記フレーム内のピクセルブロックがイントラ符号化されるかインター符号化されるかを表す情報を受信することをさらに含む、請求項1に記載の方法。
  3. 前記情報が、ビデオストリーム内のどのフレームがイントラフレームとしてエンコードされるか、及び前記ビデオストリーム内のどのフレームがインターフレームとしてエンコードされるかを特定するピクチャグループ構造、即ちGOP構造を含み、イントラフレーム内の全てのピクセルブロックがイントラ符号化される、請求項2に記載の方法。
  4. 前記情報が、前記GOP構造内の前記インターフレームのどのピクセルブロックがイントラ符号化されるか、及び前記GOP構造内の前記インターフレームのどのピクセルブロックがインター符号化されるかを特定するパターンをさらに含む、請求項3に記載の方法。
  5. 前記情報が、前記フレームをイントラフレームとしてエンコードするという要求を含む、請求項2から4のいずれか一項に記載の方法。
  6. 前記フレームの前記定常領域内の各ピクセルに関して、
    前記時間的にフィルタリングされたピクセル値(304a−e)を、前記直前のフレームの相当するピクセルのエンコード時に入力値として使用された前記値(306a−e)と比較すること(S13a)と、
    前記時間的にフィルタリングされたピクセル値(304a−e)が、前記直前のフレームの相当するピクセルのエンコード時に入力値として使用された前記値(306a−e)から、閾値よりも大きく異なることを条件として、前記ピクセルがインター符号化されるであろう前記フレームのピクセルブロックに属していたとしても、前記ピクセルのエンコード時に前記時間的にフィルタリングされたピクセル値(304a−e)を入力値として使用すること(S12)
    をさらに含む、請求項1から5のいずれか一項に記載の方法。
  7. 前記時間的にフィルタリングされたピクセル値(304a−e)及び、前記ピクセルのエンコード時に入力値として使用された前記値(306a−e)を保存することをさらに含む、請求項1から6のいずれか一項に記載の方法。
  8. 前記フレームを時間的にフィルタリングするステップ(S06)は、前記フレーム内の各ピクセルに関して、前記直前のフレームについて計算された前記時間的にフィルタリングされたピクセル値(304a−e)と前記フレームのピクセル値(302a−e)との重み付け平均をとることによって、ビデオストリーム内の前記直前のフレームについて計算された時間的にフィルタリングされたピクセル値(304a−e)を更新することとを含む、請求項1から7のいずれか一項に記載の方法。
  9. エンコードされるビデオストリームのフレームを受信するように構成された受信機(110)と、
    何の動きも検出されない前記フレーム内の領域である定常領域を特定するために、前記フレーム内の動き検出を実施するように構成された動き検出器(112)と、
    前記フレーム内の各ピクセルに関して時間的にフィルタリングされたピクセル値を提供するため、前記フレームを時間的にフィルタリングするように構成された時間的フィルタ(114)と、
    エンコーダ(116)であって、
    前記フレームの前記定常領域内ではない各ピクセルに関して、前記ピクセルのエンコード時に、前記時間的にフィルタリングされたピクセル値を入力値として使用し、
    前記フレームの前記定常領域内の各ピクセルに関して、前記ピクセルが前記エンコーダによってイントラ符号化されるであろう前記フレームのピクセルブロックに属することを条件として、前記ピクセルのエンコード時に、前記時間的にフィルタリングされたピクセル値を入力値として使用し、前記ピクセルが前記エンコーダによってインター符号化されるであろう前記フレームのピクセルブロックに属する場合には、前記ピクセルのエンコード時に、直前のフレームの相当するピクセルのエンコード時に使用された値を入力値として使用するように構成された、エンコーダ(116)と
    を備える、ビデオエンコーダ(108)。
  10. 請求項9に記載のビデオエンコーダ(108)を備える、ビデオカメラ(100)。
  11. 処理能力を有するデバイスによって実行されたときに請求項1から8のいずれか一項に記載の方法を実施するように適合しているコンピュータコード命令を内部に保存して有する、非一時的コンピュータ可読媒体。
JP2018051075A 2017-03-24 2018-03-19 ビデオストリームをエンコードするための方法、ビデオエンコーダ、及びビデオカメラ Active JP6932096B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17162801.9 2017-03-24
EP17162801.9A EP3379830B1 (en) 2017-03-24 2017-03-24 A method, a video encoder, and a video camera for encoding a video stream

Publications (2)

Publication Number Publication Date
JP2018186493A true JP2018186493A (ja) 2018-11-22
JP6932096B2 JP6932096B2 (ja) 2021-09-08

Family

ID=58448365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018051075A Active JP6932096B2 (ja) 2017-03-24 2018-03-19 ビデオストリームをエンコードするための方法、ビデオエンコーダ、及びビデオカメラ

Country Status (6)

Country Link
US (1) US10382780B2 (ja)
EP (1) EP3379830B1 (ja)
JP (1) JP6932096B2 (ja)
KR (1) KR102215627B1 (ja)
CN (1) CN108632618B (ja)
TW (1) TWI776867B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3745706B1 (en) * 2019-05-29 2021-06-30 Axis AB System and method for video processing with picture stabilization and predictive compression
CN112215940B (zh) 2019-07-11 2024-01-19 台达电子工业股份有限公司 场景模型的建构系统及其建构方法
TWI699661B (zh) * 2019-07-11 2020-07-21 台達電子工業股份有限公司 場景模型之建構系統及其建構方法
EP3829169B1 (en) * 2019-11-29 2021-10-13 Axis AB Method for intra refresh encoding of a plurality of image frames using convex and concave distribution functions
EP3832591B1 (en) 2019-12-03 2022-06-08 Axis AB Encoding of a video sequence

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007134880A (ja) * 2005-11-09 2007-05-31 Canon Inc 映像信号処理装置
JP2008066911A (ja) * 2006-09-06 2008-03-21 Nippon Telegr & Teleph Corp <Ntt> 映像符号化方法、映像符号化装置、映像符号化プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2010095558A1 (ja) * 2009-02-19 2010-08-26 ソニー株式会社 画像処理装置および方法
JP2015095764A (ja) * 2013-11-12 2015-05-18 株式会社東芝 符号化装置および符号化方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5550595A (en) 1994-12-16 1996-08-27 Intel Corporation Apparatus and method for motion estimation with enhanced camera interface
FR2766946B1 (fr) * 1997-08-04 2000-08-11 Thomson Multimedia Sa Procede et dispositif de pretraitement pour estimation de mouvement
US6904169B2 (en) 2001-11-13 2005-06-07 Nokia Corporation Method and system for improving color images
US20030161407A1 (en) 2002-02-22 2003-08-28 International Business Machines Corporation Programmable and adaptive temporal filter for video encoding
CN1233171C (zh) 2004-01-16 2005-12-21 北京工业大学 一种用于视频编码的简单化环路滤波方法
US8218655B2 (en) * 2005-09-19 2012-07-10 Maxim Integrated Products, Inc. Method, system and device for improving video quality through in-loop temporal pre-filtering
US7589796B2 (en) * 2006-02-06 2009-09-15 Vixs Systems Inc. Video display device, video encoder, and methods for use therewith
US20080101469A1 (en) * 2006-10-31 2008-05-01 Motorola, Inc. Method and apparatus for adaptive noise filtering of pixel data
WO2008075261A1 (en) 2006-12-18 2008-06-26 Koninklijke Philips Electronics N.V. Automatic noise reduction improvement in video sequences
US8385425B2 (en) 2007-10-25 2013-02-26 Microsoft Corporation Temporal video filtering for real time communication systems
KR101438480B1 (ko) 2008-04-01 2014-09-12 삼성전자 주식회사 영상 촬상 장치 및 방법
US8264587B2 (en) 2009-01-15 2012-09-11 Nokia Corporation Increasing frame rate for imaging
US8493499B2 (en) 2010-04-07 2013-07-23 Apple Inc. Compression-quality driven image acquisition and processing system
CN102164278B (zh) 2011-02-15 2013-05-15 杭州海康威视数字技术股份有限公司 用于去除i帧闪烁的视频编码方法及其装置
US8964056B2 (en) 2011-06-30 2015-02-24 Cisco Technology, Inc. Encoder-supervised imaging for video cameras
US9402034B2 (en) 2011-07-29 2016-07-26 Apple Inc. Adaptive auto exposure adjustment
CN102368821B (zh) * 2011-10-20 2013-11-06 浙江工商大学 一种噪声强度自适应的视频去噪方法和系统
US8666042B2 (en) 2011-11-02 2014-03-04 Cisco Technology, Inc. Techniques for performing key frame requests in media servers and endpoint devices
JP5980618B2 (ja) 2012-08-09 2016-08-31 オリンパス株式会社 画像処理装置及び画像処理方法
US10080017B2 (en) 2012-12-26 2018-09-18 Avago Technologies General Ip (Singapore) Pte. Ltd. Reduction of I-pulsing artifacts
JP2015023498A (ja) 2013-07-22 2015-02-02 キヤノン株式会社 画像符号化装置、画像符号化方法およびプログラム
CN105472204B (zh) * 2014-09-05 2018-12-14 南京理工大学 基于运动检测的帧间降噪方法
US20160112707A1 (en) 2014-10-15 2016-04-21 Intel Corporation Policy-based image encoding
EP3016383B1 (en) 2014-11-03 2017-06-21 Axis AB Method, device, and system for pre-processing a video stream for subsequent motion detection processing
JPWO2017060951A1 (ja) * 2015-10-05 2018-07-05 株式会社日立製作所 画像圧縮装置、画像復号装置、および画像処理方法
EP3328051B1 (en) 2016-11-29 2019-01-02 Axis AB Method for controlling an infrared cut filter of a video camera
US10341658B2 (en) * 2017-01-30 2019-07-02 Intel Corporation Motion, coding, and application aware temporal and spatial filtering for video pre-processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007134880A (ja) * 2005-11-09 2007-05-31 Canon Inc 映像信号処理装置
JP2008066911A (ja) * 2006-09-06 2008-03-21 Nippon Telegr & Teleph Corp <Ntt> 映像符号化方法、映像符号化装置、映像符号化プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2010095558A1 (ja) * 2009-02-19 2010-08-26 ソニー株式会社 画像処理装置および方法
JP2015095764A (ja) * 2013-11-12 2015-05-18 株式会社東芝 符号化装置および符号化方法

Also Published As

Publication number Publication date
TWI776867B (zh) 2022-09-11
CN108632618A (zh) 2018-10-09
US10382780B2 (en) 2019-08-13
KR20180108453A (ko) 2018-10-04
TW201838413A (zh) 2018-10-16
EP3379830A1 (en) 2018-09-26
JP6932096B2 (ja) 2021-09-08
CN108632618B (zh) 2020-11-20
KR102215627B1 (ko) 2021-02-15
EP3379830B1 (en) 2020-05-13
US20180278953A1 (en) 2018-09-27

Similar Documents

Publication Publication Date Title
JP6932096B2 (ja) ビデオストリームをエンコードするための方法、ビデオエンコーダ、及びビデオカメラ
AU2007313905B2 (en) Method and apparatus for adaptive noise filtering of pixel data
US9402034B2 (en) Adaptive auto exposure adjustment
US10277901B2 (en) Encoding a video stream having a privacy mask
US8780970B2 (en) Motion wake identification and control mechanism
JP5555741B2 (ja) デジタル映像データを符号化するための方法およびデジタル映像符号化システム
JP2006513634A (ja) 符号化ストリーム中で伝送されたイントラ予測モードに基づく空間的誤り隠蔽
WO2011027507A1 (ja) 動画像符号化装置、動画像符号化方法および動画像符号化プログラム
CN108632527B (zh) 控制器、摄像机以及用于控制摄像机的方法
JP2002051341A (ja) 動画像符号化装置および動画像の特殊効果シーン検出装置
US10834394B2 (en) Method and a controller for adding comfort noise to a video sequence
JP2005295215A (ja) 動画像符号化装置
US10856002B2 (en) Method, device and system for method of encoding a sequence of frames in a video stream
JPH07193821A (ja) 動画像符号化装置および方法
JP4241918B2 (ja) 動画像圧縮装置
Lievens et al. Compressed-domain motion detection for efficient and error-resilient MPEG-2 to H. 264 transcoding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210315

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210817

R150 Certificate of patent or registration of utility model

Ref document number: 6932096

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150