JP2016504829A - ビデオコンテンツを前処理するエンコーダハードウェアの活用 - Google Patents

ビデオコンテンツを前処理するエンコーダハードウェアの活用 Download PDF

Info

Publication number
JP2016504829A
JP2016504829A JP2015544306A JP2015544306A JP2016504829A JP 2016504829 A JP2016504829 A JP 2016504829A JP 2015544306 A JP2015544306 A JP 2015544306A JP 2015544306 A JP2015544306 A JP 2015544306A JP 2016504829 A JP2016504829 A JP 2016504829A
Authority
JP
Japan
Prior art keywords
video content
frames
encoder
scene change
encoder instance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015544306A
Other languages
English (en)
Other versions
JP6109956B2 (ja
Inventor
ザオ、ボ
リン、ユンビャオ
ション、ユエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2016504829A publication Critical patent/JP2016504829A/ja
Application granted granted Critical
Publication of JP6109956B2 publication Critical patent/JP6109956B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • H04N19/194Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

複数の方法及びシステムがハードウェアビデオエンコーダの複数のパラレルインスタンスの起動を提供しうる。複数パラレルインスタンスは第1エンコーダインスタンス及び第2エンコーダインスタンスを有する。さらに、第1エンコーダインスタンスが使用されてビデオコンテンツに関し場面変化の判断及び動きレベルの判断を行いうる。一例において、第2エンコーダインスタンスが使用されて場面変化の判断及び動きレベルの判断に基づきビデオコンテンツを符号化する。

Description

ビデオの符号化においては、コーディングの効率性を改善するべく(例えば、特定のビットレートにおいて最も良いビデオ品質を得るべく)、複数の異なるタイプのフレーム符号化スキームが用いられうる。例えば、先進的なビデオエンコーダは、場面変化の存在および/またはビデオコンテンツの根底にある大量の動きなどの複数の要因に基づいて、複数のイントラコーディングフレーム(複数のIフレーム)、複数のインタープレディクションコーディングフレーム(複数のPフレーム)及び複数の双方向インタープレディクションコーディングフレーム(複数のBフレーム)の使用を選択しうる。ビデオコンテンツの前処理は場面変化及び動きレベルの検出を伴ってよく、通常のソリューションはプログラマブルソフトウェアまたは機能固定ハードウェアの何れか一方において前処理を実行しうる。ソフトウェアベースのビデオ前処理ソリューションにおいて、性能及び電力効率は、特にモバイルデバイスに関し、高フレームレートでの場面変化の検出及び動きレベルの検出に関連する複雑性に起因して低いかもしれない。ハードウェアアクセラレーティドビデオ前処理ソリューションはより良い性能及び電力効率を達成するかもしれないが、場面変化及び動きレベルの検出に関連する複雑性に再び起因して、これらのソリューションの実施に関与するシリコン面積は著しく増加するかもしれない。シリコン面積におけるそのような増加は、競合的なコンピューティングプラットホーム産業において法外な費用がかかるかもしれない。
本発明の複数の実施形態の様々な利点は、当業者が以下の明細書および添付の請求項を読むことにより、並びに以下の図面を参照することにより明らかになろう。
一実施形態に係るビデオ符号化アーキテクチャの一例のブロック図である。
一実施形態に係る低遅延アプリケーションにおけるビデオの符号化方法の一例のフローチャートである。
一実施形態に係るストレージアプリケーションにおけるビデオの符号化方法の一例のフローチャートである。
一実施形態に係るビデオエンコーダの一例のブロック図である。
一実施形態に係る、ナビゲーションコントローラを有するシステムの一例のブロック図である。
一実施形態に係る、スモールフォームファクタを有するシステムの一例のブロック図である。
複数の実施形態は、ビデオコンテンツに関して場面変化の判断を行う第1エンコーダインスタンスを有するビデオエンコーダを含んでよい。ビデオエンコーダはまた、場面変化の判断に基づいてビデオコンテンツを符号化する第2エンコーダインスタンスを含んでよい。
複数の実施形態はまた、システムに電力を供給するバッテリと、ビデオコンテンツに関して場面変化の判断を行う第1エンコーダインスタンスを有するビデオエンコーダと備えるシステムを含んでよい。ビデオエンコーダはまた、場面変化の判断に基づいてビデオコンテンツを符号化する第2エンコーダインスタンスを含んでよい。
複数の実施形態はまた、ハードウェアビデオエンコーダの複数のパラレルインスタンスの起動を伴う方法を含んでよい。複数のパラレルインスタンスは第1エンコーダインスタンス及び第2エンコーダインスタンスを有する。この方法はまた、ビデオコンテンツに関して場面変化の判断を行うとともに当該ビデオコンテンツに関して動きレベルの判断を行う第1エンコーダインスタンスの使用を提供しうる。加えて、この方法は、場面変化の判断及び動きレベルの判断に基づいてビデオコンテンツを符号化する第2エンコーダインスタンスの使用を伴ってよい。
複数の実施形態はまた、プロセッサにより実行された場合にコンピュータにハードウェアビデオエンコーダの複数のパラレルインスタンスを起動させる命令セットを有するコンピュータ可読記憶媒体を含んでよい。複数のパラレルインスタンスは、第1エンコーダインスタンス及び第2エンコーダインスタンスを含む。この複数の命令はまた、実行された場合に、ビデオコンテンツに関して場面変化の判断を行う第1エンコーダインスタンスを使用し、場面変化の判断に基づいてビデオコンテンツを符号化する第2エンコーダインスタンスを使用してよい。
ここで図1を参照すると、ハードウェアビデオエンコーダ12(12a、12b)がビデオコンテンツ16に基づいて符号化されたビデオ14を生成するビデオ符号化アーキテクチャ10が示される。ビデオコンテンツ16は、画像キャプチャデバイスおよび/またはビデオアプリケーション、例えば、ビデオ会議アプリケーション、ビデオストリーミングアプリケーション、カムコーダアプリケーション、ビデオ編集アプリケーション、ゲームアプリケーションおよびその他など、により生成されうる。したがって、符号化されたビデオ14は、多種多様な目的、例えば、有線または無線伝送、ローカルストレージなどに用いられることができ、符号化処理は、送信される、および/または、格納されるデータ量を低減しうる。
図示された例において、ハードウェアビデオエンコーダ12は、ビデオ符号化処理に専用の半導体のリアルエステートの量(例えば、シリコン面積)を増加させることなく、性能を向上させ、電力効率を改善し、バッテリ寿命を延ばす等のために用いられうる複数のパラレルインスタンスを有する。より詳細には、第1エンコーダインスタンス12aは、ビデオコンテンツ16に関して場面変化の判断18及び動きレベルの判断20を行うべく使用されうる。第2エンコーダインスタンス12bは、場面変化の判断18及び動きレベルの判断20に基づいてビデオコンテンツ16を符号化(例えば圧縮)するべく使用されうる。特に、例示されたアーキテクチャ10は、ビデオの前処理を行うべく、ハードウェアビデオエンコーダ12の追加インスタンスを使用する。従って、アーキテクチャ10は、通常のソフトウェアベースの前処理ソリューションよりも、より高い性能及び電力効率を提供することができ、通常のハードウェアアクセラレーティド前処理ソリューションよりも著しく小さいシリコン面積しか占有しないかもしれない。
図2は、例えばビデオ会議および/またはビデオストリーミングアプリケーションなどの低遅延アプリケーションにおけるビデオの符号化方法22を示す。方法22は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、プログラム可能ROM(PROM)、ファームウェア、フラッシュメモリ、その他などのメモリのマシンまたはコンピュータ可読記憶媒体に格納されたロジック命令セットとして実行可能ソフトウェアにおいて実装されるか、或いは、例えばプログラマブルロジックアレイ(PLA)、フィールドプログラマブルゲートアレイ(FPGA)、コンプレックスプログラマブルロジックデバイス(CPLD)などの構成可能なロジックにおいて実装されるか、或いは、例えば特定用途向け集積回路(ASIC)、相補型金属酸化物半導体(CMOS)またはトランジスタ−トランジスタロジック(TTL)技術などの回路技術を用いる機能固定型ロジックハードウェアにおいて実装されるか、或いは、これらの何らかの組み合わせで実装されうる。例えば、方法22で示される複数のオペレーションを実行するコンピュータプログラムコードは、Java(登録商標),Smalltalk,C++などのオブジェクト指向プログラミング言語、「C」プログラミング言語などの通常の手続型プログラミング言語、または同様のプログラミング言語を含む、1または複数のプログラミング言語の何らかの組み合わせで書かれてよい。
図示された処理ブロック24は、ハードウェアビデオエンコーダの複数のパラレルインスタンスの起動を提供し、複数のパラレルインスタンスは第1エンコーダインスタンス及び第2エンコーダインスタンスを有する。第1エンコーダインスタンスはブロック26で使用され、ビデオフレームをイントラコーディングフレーム(Iフレーム)として符号化しうる。この点で、Iフレーム符号化は、フレーム内に制限された予測を使用する(すなわち、予測は他のフレームを参照しない)。これにより、Iフレーム符号化は、ビデオ情報を表すのに多くのビットを使用することに起因して、コーディングの視点からは相対的に効率が悪いかもしれないが、Iフレーム符号化が実行されうる速度に起因して相対的に低い遅延許容性を有するビデオアプリケーション(例えばストリーミングおよび/または会議アプリケーション)における前処理に、特に有用でありうる。符号化されたIフレームが場面変化を含むか否かに関する判断がブロック28で行われうる。
<場面変化‐符号化ビット差>
一例において、フレーム間の符号化ビット差は、場面変化が生じたか否かを判断するのに使用されうる。具体的には、ビデオフレームは、一定の量子化パラメータを有する(すなわち、ビットレートコントロールがない)Iフレームとして、第1エンコーダインスタンスにより符号化されうる。一般的に、ビデオエンコーダは、ビデオコンテンツが逐次、周波数の領域内で監視され、解析され、制御されることを可能にしうる離散コサイン変換(DCT)係数を使用しうる。ビデオ符号化システムの量子化パラメータ(QP)は、DCT係数をステップの有限集合と関連付けるためのステップサイズを確立しうる。これにより、QPの大きな複数の値は、信号の殆どが少数の係数のみでキャプチャされうるように、空間変換を大まかに概算する比較的大きな複数のステップを表しうる。一方で、QPの小さい複数の値は、より多くのビットを犠牲にするが、空間周波数スペクトルをより正確に概算する。したがって、一定のQPの使用は、符号化ビットの数が、場面変化が生じたか否かの判断に対するメトリックとして使用されることを可能にしうる。
例えば、フレームnに対する符号化ビット数がB(n)であり、フレームn+1に対する符号化ビット数がB(n+1)である場合には、次にフレームn+1は、次式の場合に場面変化フレームとして検出されうる。
|B(n+1) −B(n)|≧Tsc*N (1)
ここで、| |は絶対デルタ(absolute delta)であり、Tscは場面変化閾値であり、Nは当該ビデオフレームにおける画素の総数である。これにより、ビデオコンテンツにおける1または複数のフレームの総ピクセル値(N)は、調整ピクセル値(Tsc*N)を得るべく、場面変化閾値(Tsc)に基づいて調整されてよい。次に、ビデオコンテンツにおける2またはそれより多くのフレームに関連付けられた符号化ビット差と、調整ピクセル値との比較が実行されて、ビデオコンテンツに場面変化が存在するか否かが判断される。
第1エンコーダインスタンスの量子化パラメータと、ビデオコンテンツの型(例えばカテゴリ)とに基づいて決定されうる場面変化閾値は、最も正確な場面変化検出を得るべくオフラインでトレーニングされうる。さらに、量子化パラメータ及びビデオコンテンツのカテゴリで指標付けされうる2次元の表を生成すべく、種々の場面閾値が使用されうる。ビデオコンテンツに関連付けられうる多様なカテゴリは、会議、スポーツ、人、風景、ムービー、フラッシュ、ゲームなどを含みうるが、これらに限定されない。
場面変化が存在するとブロック28で判断されると、図示されたブロック30は、第2エンコーダインスタンスを使用して当該ビデオフレームをIフレームとして符号化する。なぜなら、他の複数のフレームは現在のフレームにおける予測の根拠となる正確な情報を提供する可能性は低いからである。一方で、場面変化が存在しないとブロック28で判断されると、図示されたブロック32は、第2エンコーダインスタンスを使用し、Iフレームよりも高いコーディングの効率性を有し、かつ、他の複数のフレームからの情報に基づいて正確な結果をもたらす可能性が高いPフレームとして、当該ビデオフレームを符号化する。ブロック34は、ビデオコンテンツにおけるラストフレームに遭遇したかを判断しうる。そうである場合には、方法22は終了しうる。さもなければ、方法22は、ビデオコンテンツにおける残りの複数のフレームに対して反復しうる。
ここで図3を参照すると、例えば、ビデオ編集および/またはビデオ記録アプリケーションなどのストレージアプリケーションにおけるビデオの符号化方法36が示される。方法36は、RAM、ROM、PROM、ファームウェア、フラッシュメモリなどのメモリのマシンまたはコンピュータ可読記憶媒体に格納されたロジック命令セットとしての実行可能ソフトウェアにおいて実装されるか、或いは、例えばPLA、FPGA、CPLDなどの構成可能なロジックにおいて実装されるか、或いは、例えばASIC、CMOSまたはTTL技術などの回路技術を用いた機能固定型ロジックハードウェアにおいて実装されるか、或いは、これらの何らかの組み合わせで実装されうる。
図示された処理ブロック38は、ハードウェアビデオエンコーダの複数のパラレルインスタンスの起動を提供し、複数のパラレルインスタンスは第1エンコーダインスタンス及び第2エンコーダインスタンスを含む。第1エンコーダインスタンスがブロック40で使用され、既に説明したようにコーディングの効率がIフレームよりも高いかもしれないPフレームとして、ビデオフレームを符号化しうる。アプリケーションがストレージベースのアプリケーションであるので、Pフレームの使用に関連する符号化時間の如何なる潜在的な増加も無視しうる。Pフレームが場面変化を含か否かに関する判断がブロック42で行われうる。ブロック42での判断は、上述したブロック28(図2)での符号化ビット差ベースの判断と同様に実行されうる。代替的に、ブロック42は、よりロバストな動きベクトルアプローチの使用を提供してよい。
<場面変化‐動きベクトル>
別の例において、よりロバストな動きベクトルアプローチが使用されうる。より詳細には、インターコーディング(inter coded)マクロブロック(またはブロックパーティション)に対する平均動きベクトルは以下のように定義されうる。
Figure 2016504829
ここで、MV(n,i,x)はフレームnのマクロブロックiに対する水平動きベクトルであり、MV(n,i,y)はフレームnのマクロブロックiに対する垂直動きベクトルであり、Nはフレームnにおけるマクロブロックの数である。さらに、場面変化動きベクトル閾値は、TMVSCとして定義されうる。場面変化は、以下のようにフレームn+1に対して検出されうる。
|MVavg,n+1−MVavg,n|≧TMVSC (3)
これにより、ビデオコンテンツにおける1または複数のフレームに対する平均動きベクトルが決定されうる。ここで、場面変化が生じたか否かを判断するべく、平均動きベクトルと場面変化動きベクトル閾値との比較が実行されうる。符号化ビット差と、複数の動きベクトルアプローチとはまた、環境に依存して組み合わせられうる。
場面変化が検出されると、ブロック44は第2エンコーダインスタンスを使用して、既に議論されたように、ビデオフレームをIフレームとして符号化してよい。一方で、場面変化が存在しないとブロック42で判断されると、図示されたブロック46は、Pフレームが相対的な高速運動を含むかを判断する。この点において、ブロック46での動きレベルの判断は、多数の異なる方法で行われうる。
<動きレベル‐符号化ビット差>
低遅延アプリケーションにおける場面変化に関連して既に議論されたように、符号化ビット差は、動きレベルの判断に有用なメトリックでありうる。具体的には、ビデオコンテンツにおける1または複数のフレームの総ピクセル値を調整することで調整ピクセル値を得るべく、1または複数の動きレベル閾値(例えばTfast,Tmedium)が使用されうる。ここで、符号化ビット差と調整ピクセル値との比較が行われうる。例えば、フレームn+1は、次式の場合に高速運動を含むと判断されうる。
fast*N≦|B(n+1)−B(n)|<Tsc*N (4)
ここで、Nはビデオフレームにおける画素の総数である。さらに、第2エンコーダインスタンスは、動きレベルの判断に基づいて、Pフレーム及びBフレームの符号化スキームを選択しうる。これにより、高速運動がブロック46で検出されると、図示されたブロック48は、第2エンコーダインスタンスを使用して、ビデオフレームをPフレームとして符号化する。さもなければ、第1エンコーダインスタンスからのPフレームが中間運動を含むか否かに関する判断がブロック50で行われる。同様に、フレームn+1は、次式の場合に中間運動を含むと判断されうる。
medium*N≦|B(n+1)−B(n)|<Tfast*N (5)
中間運動が検出されると、ブロック52は、第2エンコーダインスタンスを使用して、ビデオフレームをPフレームまたはBフレームの一方として符号化してよい。ここで、Bフレームの数は相対的に低く維持されうる(例えば各Pフレームの後に1つのBフレーム)。フレームn+1は、次式の場合にスローモーションを含むと判断されうる。
|B(n+1)−B(n)|<Tmedium*N (6)
中間運動が検出されないと、ブロック54は、やはり第2エンコーダインスタンスを使用して、ビデオフレームをPフレームまたはBフレームの一方として符号化してよいが、Bフレームの数は相対的に高い(例えば各Pフレームの後に2またはそれより多くのBフレーム)。
<動きレベル‐動きベクトル>
動きレベルを判断する、よりロバストな代案は、動きベクトル情報を使用することでありうる。具体的には、平均動きベクトルが、ビデオコンテンツにおける1または複数のフレームに対し上記の等式(2)に従って決定されうる。ここで、動きレベルを検出すべく、平均動きベクトルと、1または複数の動きレベル閾値(例えばTMVfast、TMVmedium)との比較が行われうる。これにより、フレームn+1は、次式の場合に高速運動を含むとブロック46で判断されうる。
TMVfast≦|MVavg,n+1−MVavg,n|<TMVsc (7)
ここで、TMVfastは高速運動に対する動きレベル閾値である。さらに、フレームn+1は、次式の場合に中間運動を含むとブロック50で判断されうる。
TMVmedium≦|MVavg,n+1−MVavg,n|<TMVfast (8)
ここで、TMVmediumは、中間運動に対する動きレベル閾値である。更に、フレームn+1は、次式の場合にスローモーションを含むとブロック50で判断されうる。
|MVavg,n+1−MVavg,n|<TMVmedium
更に、ハードウェアビデオエンコーダにおいてマクロブロックに対して平均動きベクトルが得られない場合には、ビデオコンテンツにおける動きレベルを判断するべく、他のアプローチは、インターコーディング(例えばPフレーム及びBフレーム)マクロブロックをカウントしてよい。これにより、相対的に多い数の、インターコーディングマクロブロックは、そのような例において、より多くの動きを示しうる。
ブロック56は、ビデオコンテンツにおけるラストフレームに遭遇したかを判断しうる。そうである場合には、方法36は終了しうる。さもなければ、方法36は、ビデオコンテンツにおける残りの複数のフレームに対して反復しうる。
図4は、ハードウェアビデオエンコーダ12の一例をより詳細に示す。図示された例において、第1エンコーダインスタンス12aは、複数の場面変化閾値に基づいてビデオコンテンツにおける複数のフレームの総ピクセル値を調整して複数の調整ピクセル値を得るピクセルモジュール58を有する。一例において、閾値モジュール66は、第1エンコーダインスタンス12aの複数の量子化パラメータと、ビデオコンテンツに関連付けられた複数のカテゴリに基づいて複数の場面変化閾値を選択する。場面変化閾値はまた、ビデオエンコーダの外部で選択されうる(例えば、プログラマブルソフトウェアにより)。加えて、比較モジュール60は、ビデオコンテンツの複数のフレームに関連付けられた符号化ビット差と、複数の調整ピクセル値との比較を行ってよい。更に、場面変化モジュール62は、比較モジュール60により行われた比較に基づいて場面変化の判断を引き起こしてよい。
例示された第1エンコーダインスタンス12aはまた、ビデオコンテンツにおける複数のフレームに対する複数の平均動きベクトルを決定する動きベクトルモジュール64を有する。比較モジュール60は、複数の平均動きベクトルと複数の場面変化動きベクトル閾値との比較を行ってよい。したがって、場面変化モジュール62はまた、動きベクトルモジュール64に由来する情報に基づいて場面変化の判断を引き起こしてよい。
第1エンコーダインスタンス12のピクセルモジュール58はまた、1または複数の動きレベル閾値に基づいてビデオコンテンツにおける複数のフレームの複数の総ピクセル値を調整して複数の調整ピクセル値を得てよい。そのような場合には、比較モジュール60は、ビデオコンテンツにおける複数のフレームに関連付けられた符号化ビット差と、複数の調整ピクセル値との比較を行ってよい。動きレベルモジュール68は、この比較に基づいて動きレベルの判断を引き起こしてよい。
図示された第1エンコーダインスタンス12aの動きベクトルモジュール64はまた、ビデオコンテンツにおける複数のフレームに対する複数の平均動きベクトルを決定する。そのような場合には、比較モジュール60は、複数の平均動きベクトルと、1または複数の動きレベル閾値との比較を行ってよい。動きレベルモジュール68は、動きベクトルモジュール64に由来する情報に基づいて動きレベルの判断を引き起こしてよい。既に説明したように、第1エンコーダインスタンス12aが動きベクトルモジュール64を有さない(例えば、マクロブロックに対する動きベクトル情報が得られない)場合には、遭遇されたインターコーディングマクロブロックの数に基づいて、ビデオコンテンツにおける動きレベルを決定するためにインターコーディングマクロブロックカウンタ70が使用されうる。
既に説明したように、第2エンコーダインスタンス12bは、第1エンコーダインスタンス12aにより行われた場面変化及び動きレベルの判断に基づいてビデオコンテンツを符号化するために使用されうる。より詳細には、第2エンコーダインスタンス12bは、動きレベルの判断に基づいてPフレーム/Bフレームの符号化スキームを選択するPフレーム/Bフレームスキームセレクタ72を有してよい。
図5は、システム700の実施形態を示す。複数の実施形態では、システム700はメディアシステムであってよいが、システム700はこのコンテキストに限定されない。例えば、システム700は、パーソナルコンピュータ(PC),ラップトップコンピュータ、ウルトララップトップコンピュータ、タブレット、タッチパッド、ポータブルコンピュータ、ハンドヘルドコンピュータ、パームトップコンピュータ、携帯情報端末(PDA)、携帯電話、携帯電話/PDAの組み合わせ、テレビ、スマートデバイス(例えば、スマートフォン、スマートタブレットまたはスマートテレビ)、モバイルインターネットデバイス(MID)、メッセージングデバイス、データ通信デバイスなどに組み込まれうる。これにより、システム700は、本明細書で示されるように、ビデオビットストリームを表示するために用いられうる。
複数の実施形態では、システム700は、ディスプレイ720に結合されたプラットフォーム702を備える。プラットフォーム702は、コンテンツサービスデバイス730またはコンテンツ配信デバイス740または他の同様のコンテンツソースなどのコンテンツデバイスから、ビデオビットストリームコンテンツを受信してよい。1または複数のナビゲーション機能を有するナビゲーションコントローラ750は、例えば、プラットフォーム702および/またはディスプレイ720と相互作用するために用いられてよい。これらのコンポーネントのそれぞれは、以下でより詳細に説明される。
複数の実施形態では、プラットフォーム702は、チップセット705、プロセッサ710、メモリ712、ストレージ714、グラフィックスサブシステム715、アプリケーション716および/または無線機718の何らかの組み合わせを備えてよい。チップセット705は、プロセッサ710、メモリ712、ストレージ714、グラフィックスサブシステム715、アプリケーション716および/または無線機718の間の相互通信を提供しうる。例えば、チップセット705は、ストレージ714との相互通信を提供できるストレージアダプタ(図示せず)を有してよい。
プロセッサ710は、複合命令セットコンピュータ(CISC)または縮小命令セットコンピュータ(RISC)プロセッサ、x86命令セットコンパーチブルプロセッサ、マルチコア、または他の任意のマイクロプロセッサまたは中央処理ユニット(CPU)として実施されてよい。複数の実施形態では、プロセッサ710は、デュアルコアプロセッサ、デュアルコアモバイルプロセッサなどを有してよい。
メモリ712は、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、またはスタティックRAM(SRAM)などの揮発性メモリデバイスとして実装されてよいが、これに限定されない。
ストレージ714は、磁気ディスクドライブ、光ディスクドライブ、テープドライブ、内部格納デバイス、装着格納デバイス、フラッシュメモリ、バッテリバックアップされたSDRAM(同期DRAM)、および/または、ネットワークアクセス可能な格納デバイスなどの非揮発性格納デバイスとして実装されてよいが、これに限定されない。複数の実施形態では、ストレージ714は、例えば複数のハードドライブが含まれる場合に、貴重なデジタルメディアの保護を高めるために記憶性能を向上させる技術を備えうる。
グラフィックスサブシステム715は、表示される静止画又は動画などの画像の処理を実行しうる。グラフィックスサブシステム715は、例えば、グラフィクプロセッシングユニット(GPU)またはビジュアル処理ユニット(VPU)であってよい。したがって、グラフィックスサブシステム715は、既に議論されたハードウェアビデオエンコーダ12(図1及び図4)を有してよい。加えて、プロセッサ710は、例えば、既に議論された方法22(図2)および/または方法36(図3)などの複数の方法を、メモリ712、ストレージ714または他の適当なソースから得られる複数の命令を介して実行するよう構成されてよい。アナログまたはデジタルインタフェースが、グラフィックスサブシステム715及びディスプレイ720に通信可能に結合するために用いられうる。例えば、インタフェースは高解像度マルチメディアインタフェース、ディスプレイポート、無線HDMI(登録商標)および/または無線HD準拠技術の何れかであってよい。グラフィックスサブシステム715は、プロセッサ710またはチップセット705に統合されてよい。グラフィックスサブシステム715は、チップセット705に通信可能に結合された据え置き型カードであってよい。
本明細書で示されるグラフィックスおよび/またはビデオ処理技術は、多様なハードウェアキテクチャで実施されうる。例えば、グラフィックスおよび/またはビデオ機能は、チップセット内に統合されてよい。代替的に、別々のグラフィックスおよび/またはビデオプロセッサが使用されてよい。さらに他の実施形態として、グラフィックスおよび/またはビデオ機能は、マルチコアプロセッサを含む汎用プロセッサによって実行されてよい。さらなる実施形態において、当該機能は家庭用電子機器内で実行されてよい。
無線機718は、種々の適当な無線通信技術を用いて信号を送受信できる1または複数の無線機を有してよい。そのような技術は、1または複数の無線ネットワークにまたがる通信を伴ってよい。無線ネットワークの例は、無線ローカルエリアネットワーク(WLAN)、ワイヤレスパーソナルエリアネットワーク(WPAN),ワイヤレスメトロポリタンエリアネットワーク(WMAN)、携帯電話ネットワーク及び衛星ネットワークを含む(但し、これに限定されない)。そのような複数のネットワークにまたがる通信において、無線機718は、任意のバージョンの1または複数の適用可能な規格に従って動作しうる。
複数の実施形態では、ディスプレイ720は、任意のテレビ型モニタまたはディスプレイを有してよい。ディスプレイ720は、例えば、コンピュータディスプレイ画面、タッチスクリーンディスプレイ、ビデオモニタ、テレビのようなデバイス、および/またはテレビを有してよい。ディスプレイ720は、デジタルおよび/またはアナログであってよい。複数の実施形態では、ディスプレイ720はホログラフィックディスプレイであってよい。さらに、ディスプレイ720は、視覚投影を受信しうる透明な面であってよい。そのような投影は、多様な形態の情報、画像および/またはオブジェクトを伝達しうる。例えば、そのような投影は、モバイル拡張現実(MAR)アプリケーションのためのビジュアルオーバーレイであってよい。1または複数のソフトウェアアプリケーション716の制御下で、プラットフォーム702は、ディスプレイ720上にユーザインターフェース722を表示してよい。
複数の実施形態では、コンテンツサービスデバイス730は、任意の国営の、国際の、および/または、独立したサービスにより提供されてよく、これにより、例えば、インターネットを介してプラットフォーム702にアクセス可能である。コンテンツサービスデバイス730は、プラットフォーム702および/またはディスプレイ720に結合されてよい。プラットフォーム702および/またはコンテンツサービスデバイス730は、ネットワーク760へ、及びネットワーク760からメディア情報を通信(例えば送信および/または受信)すべく、ネットワーク760に結合されてよい。コンテンツ配信デバイス740はまた、プラットフォーム702および/またはディスプレイ720に結合されてよい。
複数の実施形態では、コンテンツサービスデバイス730は、ケーブルテレビボックス、パーソナルコンピュータ、ネットワーク、電話、インターネット有効デバイス、またはデジタル情報および/またはコンテンツの配信可能な装置、及び、コンテンツプロバイダとプラットフォーム702及び/ディスプレイ720との間でネットワーク760を介してまたは直に一方向または双方向にコンテンツを通信可能な他の任意の同様のデバイスを有してよい。コンテンツがネットワーク760を介してシステム700と、コンテンツプロバイダとのコンポーネントの何れか1つへ、及び、1つから、一方向および/または双方向に通信されうることは評価されるだろう。コンテンツの例は、例えば、ビデオ、音楽、医学及びゲーム情報などを有する任意のメディア情報を含んでよい。
コンテンツサービスデバイス730は、メディア情報、デジタル情報を有するケーブルテレビプログラムなどのコンテンツ、および/または他のコンテンツを受信する。コンテンツプロバイダの例は、任意のケーブル若しくは衛星テレビ、または、無線機若しくはインターネットコンテンツプロバイダを含んでよい。提供された例は、本発明の複数の実施形態を限定することを意味しない。
複数の実施形態では、プラットフォーム702は、1または複数のナビゲーション機能を有するナビゲーションコントローラ750から制御信号を受信しうる。コントローラ750のナビゲーション機能は、例えば、ユーザインターフェース722と相互作用するために用いられうる。複数の実施形態では、ナビゲーションコントローラ750は、ユーザが空間(例えば連続かつ多次元の)データをコンピュータに入力することを可能にするコンピュータハードウェアコンポーネント(具体的にはヒューマンインターフェースデバイス)でありうるポインティングデバイスであってよい。グラフィカルユーザインタフェース(GUI)、テレビ及びモニタなどの多くのシステムは、ユーザが身体的ジェスチャを用いてコントロールを行い、コンピュータまたはテレビにデータを提供することを可能にする。
コントローラ750のナビゲーション機能の動作は、ポインタ、カーソル、フォーカスリング、またはディスプレイ上に表示される他の視覚的インジケータの動きによってディスプレイ(例えばディスプレイ720)上に反映されてよい。例えば、ソフトウェアアプリケーション716の制御下で、ナビゲーションコントローラ750に位置付けられたナビゲーション機能は、例えばユーザインターフェース722上に表示された仮想ナビゲーション機能にマッピングされてよい。複数の実施形態では、コントローラ750は、別個のコンポーネントでないかも知れないが、プラットフォーム702および/またはディスプレイ720に統合されてよい。しかしながら、複数の実施形態は、本明細書で示されるまたは記載されるエレメントまたはコンテキストには限定されない。
複数の実施形態では、複数のドライバ(不図示)は、例えば、有効化された場合に、初期ブートアップ後にボタンに触れることでそうなるテレビのように、ユーザにプラットフォーム702をただちにオン・オフ可能とする技術を備えてよい。プラットフォームが"オフ"にされた場合に、プログラムロジックは、プラットフォーム702に、複数のメディアアダプタ、または他のコンテンツサービスデバイス730、またはコンテンツ配信デバイス740へ、コンテンツをストリーム配信させることを許容してよい。加えて、チップセット705は、例えば、5.1サラウンドサウンドオーディオおよび/または高品質の7.1サラウンドサウンドオーディオをサポートするハードウェアおよび/またはソフトウェアを備えてよい。複数のドライバは、集中画像表示プラットフォームのためのグラフィックスドライバを有してよい。複数の実施形態では、グラフィックスドライバは、ペリフェラルコンポーネントインターコネクト(PCI)エクスプレスグラフィックスカードを備えてよい。
様々な実施形態において、システム700において示された複数のコンポーネントのうちいずれか1つまたは複数が統合されてもよい。例えば、プラットフォーム702とコンテンツサービスデバイス730とが統合されてよく、或いは、プラットフォーム702とコンテンツ配信デバイス740が統合化されてよく、或いは、例えばプラットフォーム702とコンテンツサービスデバイス730とコンテンツ配信デバイス740とが統合されてもよい。様々な実施形態において、プラットフォーム702とディスプレイ720とは、統合されたユニットであってよい。例えば、ディスプレイ720とコンテンツサービスデバイス730が統合化されてよく、或いは、ディスプレイ720とコンテンツ配信デバイス740が統合されてよい。これらの複数の例は、本発明の複数の実施形態を限定することを意味しない。
様々な実施形態において、システム700は、無線システム、有線システム、または両方の組み合わせとして実装されてよい。無線システムとして実装される場合には、システム700は、例えば、1または複数のアンテナ、送信機、受信機、トランシーバ、アンプ、フィルタ、制御ロジックなどの、無線共有媒体で通信するのに好適な複数のコンポーネントおよび複数のインタフェースを備えてよい。無線共有媒体の一例として、RFスペクトルなどの無線スペクトルの部分を有してよい。有線システムとして実装される場合には、システム700は、例えば入出力(I/O)アダプタ、I/Oアダプタを対応する有線通信媒体と接続するための物理コネクタ、ネットワークインタフェースカード(NIC)、ディスクコントローラ、ビデオコントローラ、オーディオコントローラなどの有線通信媒体で通信するのに好適な複数のコンポーネントおよび複数のインタフェースを備えてよい。有線通信媒体の例は、ワイヤ、ケーブル、金属リード線、プリント回路基板(PCB)、バックプレーン、スイッチファブリック、半導体材料、ツイストペアワイヤ、同軸ケーブル、光ファイバーなどを含んでよい。
プラットフォーム702は、情報を通信するために、1または複数のロジックチャネルまたは物理チャネルを確立してよい。この情報は、メディア情報および制御情報を含んでよい。メディア情報は、ユーザ向けのコンテンツを表す任意のデータを参照してよい。コンテンツの例は、例えば、音声会話、ビデオ会議、ストリーミングビデオ、電子通信メールメッセージ(電子メール)、ボイスメールメッセージ、英数字記号、グラフィックス、画像、ビデオ、テキストなどからのデータを有してよい。音声会話からのデータは、例えば、音声情報、沈黙時間、背景雑音、快適雑音、トーンなどであってよい。制御情報は、自動化されたシステム向けの、コマンド、命令、制御単語を表す任意のデータを参照してよい。例えば、制御情報は、システムを介してメディア情報を送信するために、または、所定の態様でメディア情報を処理するようノードに指示するために用いられてよい。しかしながら、これら複数の実施形態は、これら複数の要素に、あるいは図5で示されまたは記載されたコンテキストにおいて、限定されない。
上述のように、システム700は、物理的な様式やフォームファクターを変化させながら実装されてよい。図6は、システム700が実装されてよいスモールフォームファクタデバイス800の複数の実施形態を示す。複数の実施形態では、例えばデバイス800は、無線機能を備えるモバイルコンピューティングデバイスとして実装されてよい。モバイルコンピューティングデバイスは、プロセッシングシステムおよび、例えば1または複数のバッテリなどのモバイル電源を備える任意のデバイスを参照してよい。
上述のように、モバイルコンピューティングデバイスの例は、パーソナルコンピュータ(PC),ラップトップコンピュータ、ウルトララップトップコンピュータ、タブレット、タッチパッド、ポータブルコンピュータ、ハンドヘルドコンピュータ、パームトップコンピュータ、携帯情報端末(PDA)、携帯電話、携帯電話/PDAの組み合わせ、テレビ、スマートデバイス(例えばスマートフォン、スマートタブレット、またはスマートテレビ),モバイルインターネットデバイス(MID)、メッセージングデバイス、データ通信デバイスなどを含んでよい。
モバイルコンピューティングデバイスの例は、また、人の身に着けられるよう構成された複数のコンピュータを含んでよく、例えば、リストコンピュータ、フィンガーコンピュータ、リングコンピュータ、アイグラスコンピュータ、ベルトクリップコンピュータ、アームバンドコンピュータ、靴コンピュータ、衣服コンピュータ、その他の身に着けることが可能なコンピュータなどである。複数の実施形態では、例えば、モバイルコンピューティングデバイスは、音声通信および/またはデータ通信だけでなくコンピュータアプリケーションを実行することが可能なスマートフォンとして実装されてよい。例を挙げる目的で、幾つかの実施形態が、スマートフォンとして実装されたモバイルコンピューティングデバイスと共に説明されるかもしれないが、他の複数の実施形態が、他の無線モバイルモバイルコンピューティングデバイスを同様に用いて実装されうることは当然であってよい。複数の実施形態は、このコンテキストに限定されない。
図6に示されるように、デバイス800は、ハウジング802、ディスプレイ804、入出力(I/O)デバイス806およびアンテナ808を備える。デバイス800はまた、ナビゲーション機能812を備えてよい。ディスプレイ804は、モバイルコンピューティングデバイスに適切な情報を表示するのに好適な任意のディスプレイユニットを有してよい。I/Oデバイス806は、モバイルコンピューティングデバイスに情報を入力するのに好適な任意のI/Oデバイスを有してよい。I/Oデバイス806の例は、英数字キーボード、テンキーパッド、タッチパッド、入力キー、ボタン、スイッチ、ロッカースイッチ、マイク、スピーカ、音声認識デバイス及びソフトウェアなどを含んでよい。情報は、また、マイクを用いてデバイス800入力されてよい。そのような情報は、音声認識デバイスによってデジタル化されてよい。複数の実施形態は、このコンテキストに限定されない。
これにより、本明細書で示される技術は、ハードウェアエンコーダが存在するが専用のビデオ前処理ハードウェアが存在しないようなモバイルデバイスにおけるカメラ記録アプリケーションに適用されうる。そのような場合には、符号化されたビデオは、同一ビットレートでより良い視覚的な品質を有しうる。更に、ライブ記録及び配信のアプリケーションのために、コーディングの効率性が実質的に向上しうる。
複数のハードウェア要素、複数のソフトウェア要素、または両方の組み合わせを用いて、様々な実施形態が実装されてよい。複数のハードウェア要素の例は、プロセッサ、マイクロプロセッサ、回路、回路素子(例えばトランジスタ、抵抗、キャパシタ、インダクタなど)、集積回路、特定用途向け集積回路(ASIC)、プログラム式論理デバイス(PLD)、デジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、論理ゲート、レジスタ、半導体デバイス、チップ、マイクロチップ、チップセットなど、を含んでよい。複数のソフトウェアの例は、ソフトウェアコンポーネント、プログラム、アプリケーション、コンピュータプログラム、アプリケーションプログラム、システムプログラム、機械プログラム、オペレーティングシステムソフトウェア、ミドルウェア、ファームウェア、ソフトウェアモジュール、ルーチン、サブルーチン、ファンクション、メソッド、プロシージャ、ソフトウェアインターフェース、アプリケーション・プログラム・インターフェース(API)、命令セット、演算コード、コンピュータコード、コードセグメント、コンピュータ・コード・セグメント、ワード、値、記号、またはこれらの任意の組み合わせを含んでよい。ある実施形態がハードウェア要素および/またはソフトウェア要素を用いて実装されるか否かを決定することは、望ましい演算レート、電力レベル、耐熱性、処理サイクルバジェット、入力データレート、出力データレート、メモリリソース、データバススピード、およびその他の設計上または性能上の制約などの任意の数の要因によって異なってよい。
少なくとも1つの実施形態の1または複数の特徴は、プロセッサ内の様々なロジックを表すマシン可読媒体上に格納された複数の代表的命令により実装されうる。複数の代表的命令は、機械により読み取られると、機械に、本明細書で示される複数の技術を実行するロジックを作成させる。「IPコア」として知られたそのような複数の表現は、有形のマシン可読媒体上に格納され、様々な顧客、または実際にロジックまたはプロセッサを作製する複数の製造機械にロードする複数の製造設備に提供され得る。
本発明の複数の実施形態は、全てのタイプの半導体集積回路(「IC」)チップでの使用に適用可能である。これらICチップの例には、これらに限定されるわけではないが、プロセッサ、コントローラ、チップセットコンポーネント、プログラマブルロジックアレイ(PLA)、メモリチップ、ネットワークチップ、およびその他が含まれる。加えて、いくつかの図面において、信号線は線で表されている。あるものはより多くの成分信号パスを示すべく異なっており、あるものは多数の成分信号パスを示すべく数の符号を有しており、および/または、あるものは主な情報のフロー方向を示すべく、1または複数の端部において矢印を有している。しかしこのことは、限定的に解釈されるべきではない。むしろそのような追加された詳細は、回路の容易な理解を促すべく、1または複数の例示的な実施形態に関連して用いられ得る。追加的な情報を有していようといなかろうと、何らかの示された信号線は、実際には複数の方向に移動し得る1または複数の信号を備えてよく、例えば、差動対を用いて実装されるデジタルまたはアナログ線、光ファイバー線、および/またはシングルエンド線など何らかの適したタイプの信号方式を用いて実装され得る。
例示的なサイズ/モデル/値/範囲が提示されているかもしれないが、本発明の実施形態はそれらに限定されない。製造技術(例えばフォトリソグラフィ)が時の経過と共に成熟するにつれ、より小さいサイズのデバイスが製造され得ることが予期される。加えて、ICチップおよび他のコンポーネントへの周知の電力/接地接続が図面内に示されていることもあり、示されていないこともある。これは図示および説明を単純にするためであり、本発明の実施形態の特定の特徴を曖昧にしないようにするためである。さらに、本発明の実施形態を曖昧にすることを避けるべく、および、そのようなブロック図の構成の実装に関する詳細が、実施形態が実装されるプラットフォームに大いに依存している、つまり、そのような詳細が十分に当業者の理解の範囲内であるという事実に鑑みて、ブロック図の形態で構成が示されているかもしれない。本発明の例示的な実施形態を説明するべく、特定の詳細(例えば回路)が明記されている場合、本発明の実施形態がこれら特定の詳細を用いなくとも、またはそれらの変形例を用いて実施され得ることが当業者には明らかであろう。したがって説明は、限定するものではなく例示するものとして見なされるべきである。
幾つかの実施形態は、例えば、マシン、若しくはマシンにより実行された場合に実施形態に係る方法および/またはオペレーションを当該マシンに実行させる命令または命令セットを格納し得る有形のコンピュータ可読媒体または物品を用いて実装され得る。そのようなマシンには、例えば、何らかの適した処理プラットフォーム、コンピューティングプラットフォーム、コンピューティングデバイス、処理デバイス、コンピューティングシステム、処理システム、コンピュータ、プロセッサ、またはその他が含まれ得、ハードウェアおよび/またはソフトウェアの何らかの適した組み合わせを用いて実装され得る。マシン可読媒体または物品には、例えば、何らかの適したタイプのメモリユニット、メモリデバイス、メモリ物品、メモリ媒体、ストレージデバイス、記憶物品、記憶媒体、および/または記憶ユニットが含まれ得、それらの例には、例えば、メモリ、取り外し可能または取り外し不可能な媒体、消去可能または消去不可能な媒体、書き込み可能または再書き込み可能な媒体、デジタルまたはアナログ媒体、ハードディスク、フロッピー(登録商標)ディスク、コンパクトディスクリードオンリーメモリ(CD−ROM)、コンパクトディスクレコーダブル(CD−R)、コンパクトディスクリライタブル(CD−RW)、光ディスク、磁気媒体、光磁気媒体、取り外し可能メモリカードまたはディスク、様々なタイプのデジタル多用途ディスク(DVD)、テープ、カセット、またはその他が含まれ得る。命令は、何らかの適した高級言語、低級言語、オブジェクト指向言語、視覚言語、コンパイラ型および/またはインタープリタ型プログラミング言語を用いて実装される、ソースコード、コンパイラ型コード、インタープリタ型コード、実行可能コード、静的コード、動的コード、暗号化コード、およびその他など何らかの適したタイプのコードを含み得る。
特に異なるように述べない限り、「処理」、「演算」、「計算」、「決定」、またはその他などの用語は、コンピューティングシステムのレジスタおよび/またはメモリ内で物理量(例えば、電子的)として表されるデータを操作する、および/またはコンピューティングシステムのメモリ、レジスタ、または他のそのような情報記憶、送信またはディスプレイデバイス内で同様に物理量として表される他のデータに変換する、コンピュータまたはコンピューティングシステム、若しくは同様の電子コンピューティングデバイスの動作および/または処理を指し得ることが理解されよう。実施形態はこのコンテキストに限定されない。
「結合された」という用語は本明細書において、対象のコンポーネント間の直接的または間接的な何らかのタイプの関係を指すのに用いられ得、電子的、機械的、流体的、光学的、電磁気的、電気機械的、または他のタイプの接続に適用され得る。加えて、「第1」、「第2」、その他の用語は本明細書において、説明を容易にするためのみに用いられており、異なるように示されていない限り、何ら特定の時間的または時系列的な意味を伝えない。
当業者は上記の説明から、本発明の実施形態の幅広い技術が、様々な形態で実装され得ることを理解されよう。したがって、特定の例に関連して本発明の実施形態が説明されてきたが、本発明の実施形態の真の態様はそのように限定されるべきではない。なぜなら、当業者が図面、明細書、および以下の請求項を検討することにより、他の修正が明らかとなるからである。

Claims (30)

  1. ハードウェアビデオエンコーダの複数のパラレルインスタンスを起動する段階であって、前記複数のパラレルインスタンスは第1エンコーダインスタンス及び第2エンコーダインスタンスを含む段階と、
    前記第1エンコーダインスタンスを用いることで、ビデオコンテンツに関して場面変化の判断を行うとともに前記ビデオコンテンツに関して動きレベルの判断を行う段階と、
    前記第2エンコーダインスタンスを用いることで、前記場面変化の判断及び前記動きレベルの判断に基づいて前記ビデオコンテンツを符号化する段階と
    を有する方法。
  2. 前記第2エンコーダインスタンスを用いることで、前記動きレベルの判断に基づいて、インタープレディクションコーディングフレーム(Pフレーム)及び双方向インタープレディクションコーディングフレーム(Bフレーム)の符号化スキームを選択する段階を更に含む、請求項1に記載の方法。
  3. 前記第1エンコーダインスタンスを用いることでビデオコンテンツの複数のフレームを、複数のイントラコーディングフレーム(複数のIフレーム)及び複数のインタープレディクションコーディングフレーム(複数のPフレーム)の1または複数として符号化する段階を更に含む、請求項1に記載の方法。
  4. システムであって、
    前記システムに電力を供給するバッテリと、
    ビデオコンテンツに関して場面変化の判断を行う第1エンコーダインスタンス、及び、前記場面変化の判断に基づいて前記ビデオコンテンツを符号化する第2エンコーダインスタンスを有するビデオエンコーダと
    を備えるシステム。
  5. 前記第1エンコーダインスタンスは、前記ビデオコンテンツに関して動きレベルの判断を行い、
    前記第2エンコーダインスタンスは、前記動きレベルの判断に更に基づいて前記ビデオコンテンツを符号化する、請求項4に記載のシステム。
  6. 前記第2エンコーダインスタンスは、前記動きレベルの判断に基づいて、インタープレディクションコーディングフレーム(Pフレーム)及び双方向インタープレディクションコーディングフレーム(Bフレーム)の符号化スキームを選択する、請求項5に記載のシステム。
  7. 前記第1エンコーダインスタンスは、
    1または複数の動きレベル閾値に基づいて、前記ビデオコンテンツにおける1または複数のフレームの総ピクセル値を調整して調整ピクセル値を得る動きレベルコンポーネントを含むピクセルモジュールと、
    前記ビデオコンテンツにおける2またはそれより多くのフレームに関連付けられた符号化ビット差と、前記調整ピクセル値との間で比較を行う比較モジュールと、
    前記比較に基づいて前記動きレベルの判断を引き起こす動きレベルモジュールと
    を有する、請求項5に記載のシステム。
  8. 前記第1エンコーダインスタンスは、
    前記ビデオコンテンツにおける1または複数のフレームに対する平均動きベクトルを決定する動きレベルコンポーネントを含む動きベクトルモジュールと、
    前記平均動きベクトルと1または複数の動きレベル閾値との間で比較を行う比較モジュールと、
    前記比較に基づいて前記動きレベルの判断を引き起こす動きレベルモジュールと
    を有する、請求項5に記載のシステム。
  9. 前記第1エンコーダインスタンスは、
    場面変化閾値に基づいて、前記ビデオコンテンツにおける1または複数のフレームの総ピクセル値を調整して調整ピクセル値を得る場面変化コンポーネントを含むピクセルモジュールと、
    前記ビデオコンテンツにおける2またはそれより多くのフレームに関連付けられた符号化ビット差と、前記調整ピクセル値との間で比較を行う比較モジュールと、
    前記比較に基づいて前記場面変化の判断を引き起こす場面変化モジュールと
    を有する、請求項4に記載のシステム。
  10. 前記第1エンコーダインスタンスの量子化パラメータと前記ビデオコンテンツに関連付けられたカテゴリとに基づいて前記場面変化閾値を選択する閾値モジュールを更に備える、請求項9に記載のシステム。
  11. 前記第1エンコーダインスタンスは、
    前記ビデオコンテンツにおける1または複数のフレームに対する平均動きベクトルを決定する場面変化コンポーネントを含む動きベクトルモジュールと、
    前記平均動きベクトルと場面変化動きベクトル閾値との間で比較を行う比較モジュールと、
    前記比較に基づいて前記場面変化の判断を引き起こす場面変化モジュールと
    を有する、請求項4に記載のシステム。
  12. 前記第1エンコーダインスタンスは、
    前記ビデオコンテンツの複数のフレームを、複数のイントラコーディングフレーム(複数のIフレーム)及び複数のインタープレディクションコーディングフレーム(複数のPフレーム)の1または複数として符号化する、請求項4から11のいずれか1項に記載のシステム。
  13. ビデオコンテンツに関して場面変化の判断を行う第1エンコーダインスタンスと、
    前記場面変化の判断に基づいて前記ビデオコンテンツを符号化する第2エンコーダインスタンスと
    を備えるビデオエンコーダ。
  14. 前記第1エンコーダインスタンスは、前記ビデオコンテンツに関して動きレベルの判断を行い、
    前記第2エンコーダインスタンスは、前記動きレベルの判断に更に基づいて前記ビデオコンテンツを符号化する、請求項13に記載のビデオエンコーダ。
  15. 前記第2エンコーダインスタンスは、前記動きレベルの判断に基づいて、インタープレディクションコーディングフレーム(Pフレーム)及び双方向インタープレディクションコーディングフレーム(Bフレーム)の符号化スキームを選択する、請求項14に記載のビデオエンコーダ。
  16. 前記第1エンコーダインスタンスは、
    1または複数の動きレベル閾値に基づいて、前記ビデオコンテンツにおける1または複数のフレームの総ピクセル値を調整して調整ピクセル値を得る動きレベルコンポーネントを含むピクセルモジュールと、
    ビデオコンテンツにおける2またはそれより多くのフレームに関連付けられた符号化ビット差と、前記調整ピクセル値との間で比較を行う比較モジュールと、
    前記比較に基づいて前記動きレベルの判断を引き起こす動きレベルモジュールと
    を有する、請求項14に記載のビデオエンコーダ。
  17. 前記第1エンコーダインスタンスは、
    前記ビデオコンテンツにおける1または複数のフレームに対する平均動きベクトルを決定する動きレベルコンポーネントを含む動きベクトルモジュールと、
    前記平均動きベクトルと1または複数の動きレベル閾値との間で比較を行う比較モジュールと、
    前記比較に基づいて前記動きレベルの判断を引き起こす動きレベルモジュールと
    を有する、請求項14に記載のビデオエンコーダ。
  18. 前記第1エンコーダインスタンスは、
    場面変化閾値に基づいて、前記ビデオコンテンツにおける1または複数のフレームの総ピクセル値を調整して調整ピクセル値を得る場面変化コンポーネントを含むピクセルモジュールと、
    前記ビデオコンテンツにおける2またはそれより多くのフレームに関連付けられた符号化ビット差と、前記調整ピクセル値との間で比較を行う比較モジュールと、
    前記比較に基づいて前記場面変化の判断を引き起こす場面変化モジュールと
    を有する、請求項13に記載のビデオエンコーダ。
  19. 前記第1エンコーダインスタンスの量子化パラメータと前記ビデオコンテンツに関連付けられたカテゴリとに基づいて前記場面変化閾値を選択する閾値モジュールを更に備える、請求項18に記載のビデオエンコーダ。
  20. 前記第1エンコーダインスタンスは、
    前記ビデオコンテンツにおける1または複数のフレームに対する平均動きベクトルを決定する場面変化コンポーネントを含む動きベクトルモジュールと、
    前記平均動きベクトルと場面変化動きベクトル閾値との間で比較を行う比較モジュールと、
    前記比較に基づいて前記場面変化の判断を引き起こす場面変化モジュールと
    を有する、請求項13に記載のビデオエンコーダ。
  21. 前記第1エンコーダインスタンスは、
    前記ビデオコンテンツの複数のフレームを、複数のイントラコーディングフレーム(複数のIフレーム)及び複数のインタープレディクションコーディングフレーム(複数のPフレーム)の1または複数として符号化する、請求項13から20のいずれか1項に記載のビデオエンコーダ。
  22. コンピュータに、
    ハードウェアビデオエンコーダの複数のパラレルインスタンスを起動する手順であって、前記複数のパラレルインスタンスは第1エンコーダインスタンス及び第2エンコーダインスタンスを含む手順と、
    前記第1エンコーダインスタンスを用いることで、ビデオコンテンツに関して場面変化の判断を行う手順と、
    前記第2エンコーダインスタンスを用いることで、前記場面変化の判断に基づいて前記ビデオコンテンツを符号化する手順と
    を実行させるプログラム。
  23. 前記第1エンコーダインスタンスを用いることで、前記ビデオコンテンツに関して動きレベルの判断を行う手順を前記コンピュータに実行させ、
    前記第2エンコーダインスタンスは、前記動きレベルの判断に更に基づいて前記ビデオコンテンツを符号化する、請求項22に記載のプログラム。
  24. 前記第2エンコーダインスタンスを用いることで、前記動きレベルの判断に基づいて、インタープレディクションコーディングフレーム(Pフレーム)及び双方向インタープレディクションコーディングフレーム(Bフレーム)の符号化スキームを選択する手順を前記コンピュータに実行させる、請求項23に記載のプログラム。
  25. 前記第1エンコーダインスタンスを用いることで、1または複数の動きレベル閾値に基づいて前記ビデオコンテンツにおける1または複数のフレームの総ピクセル値を調整して調整ピクセル値を得る手順と、
    前記第1エンコーダインスタンスを用いることで、前記ビデオコンテンツにおける2またはそれより多くのフレームに関連付けられた符号化ビット差と、前記調整ピクセル値との間で比較を行う手順と、
    前記第1エンコーダインスタンスを用いることで、前記比較に基づいて、前記動きレベルの判断を引き起こす手順と
    を前記コンピュータに実行させる、請求項23に記載のプログラム。
  26. 前記第1エンコーダインスタンスを用いることで、前記ビデオコンテンツにおける1または複数のフレームに対する平均動きベクトルを決定する手順と、
    前記第1エンコーダインスタンスを用いることで、前記平均動きベクトルと1または複数の動きレベル閾値との間で比較を行う手順と、
    前記第1エンコーダインスタンスを用いることで、前記比較に基づいて、前記動きレベルの判断を引き起こす手順と
    を前記コンピュータに実行させる、請求項23に記載のプログラム。
  27. 前記第1エンコーダインスタンスを用いることで、場面変化閾値に基づいて、前記ビデオコンテンツにおける1または複数のフレームの総ピクセル値を調整して調整ピクセル値を得る手順と、
    前記第1エンコーダインスタンスを用いることで、前記ビデオコンテンツにおける2またはそれより多くのフレームに関連付けられた符号化ビット差と、前記調整ピクセル値との間で比較を行う手順と、
    前記第1エンコーダインスタンスを用いることで、前記比較に基づいて、前記場面変化の判断を引き起こす手順と
    を前記コンピュータに実行させる、請求項22に記載のプログラム。
  28. 前記第1エンコーダインスタンスの量子化パラメータと前記ビデオコンテンツに関連付けられたカテゴリとに基づいて前記場面変化閾値を選択する手順を前記コンピュータに実行させる、請求項27に記載のプログラム。
  29. 前記第1エンコーダインスタンスを用いることで、前記ビデオコンテンツの1または複数のフレームに対する平均動きベクトルを決定する手順と、
    前記第1エンコーダインスタンスを用いることで、前記平均動きベクトルと場面変化動きベクトル閾値との間で比較を行う手順と、
    前記第1エンコーダインスタンスを用いることで、前記比較に基づいて、前記場面変化の判断を引き起こす手順と
    を前記コンピュータに実行させる、請求項22に記載のプログラム。
  30. 前記ビデオコンテンツの複数のフレームを、複数のイントラコーディングフレーム(複数のIフレーム)及び複数のインタープレディクションコーディングフレーム(複数のPフレーム)の1または複数として符号化する手順を前記コンピュータに実行させる、請求項22から29のいずれか1項に記載のプログラム。
JP2015544306A 2012-12-17 2012-12-17 ビデオコンテンツを前処理するエンコーダハードウェアの活用 Expired - Fee Related JP6109956B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/086760 WO2014094204A1 (en) 2012-12-17 2012-12-17 Leveraging encoder hardware to pre-process video content

Publications (2)

Publication Number Publication Date
JP2016504829A true JP2016504829A (ja) 2016-02-12
JP6109956B2 JP6109956B2 (ja) 2017-04-05

Family

ID=50977506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015544306A Expired - Fee Related JP6109956B2 (ja) 2012-12-17 2012-12-17 ビデオコンテンツを前処理するエンコーダハードウェアの活用

Country Status (4)

Country Link
US (1) US9363473B2 (ja)
JP (1) JP6109956B2 (ja)
CN (1) CN104782124B (ja)
WO (1) WO2014094204A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104244004B (zh) * 2014-09-30 2017-10-10 华为技术有限公司 低功耗编码方法及装置
EP3029936A1 (en) * 2014-12-05 2016-06-08 Axis AB Method and device for real-time encoding
JP2018533272A (ja) * 2015-09-15 2018-11-08 トムソン ライセンシングThomson Licensing 節電メディアコンテンツを再生する方法、システム、及び機器
CN108353198B (zh) 2015-09-15 2021-07-27 交互数字麦迪逊专利控股公司 用于提供功率节省媒体内容的方法和装置
CN106791859B (zh) * 2015-11-24 2019-08-20 龙芯中科技术有限公司 视频编码方法和视频编码器
US10362359B2 (en) 2015-12-13 2019-07-23 Ustudio, Inc. Video player framework for a media distribution and management platform
EP3200456A1 (en) * 2016-01-28 2017-08-02 Axis AB Video encoding method and video encoder system for temporal noise reduction
US20190261000A1 (en) * 2017-04-01 2019-08-22 Intel Corporation Video motion processing including static determination, occlusion detection, frame rate conversion, and adjusting compression ratio
US10574995B2 (en) 2017-04-10 2020-02-25 Intel Corporation Technology to accelerate scene change detection and achieve adaptive content display
CN109413427B (zh) * 2017-08-17 2022-04-08 腾讯科技(深圳)有限公司 一种视频帧编码方法及终端
KR102347598B1 (ko) 2017-10-16 2022-01-05 삼성전자주식회사 영상 부호화 장치 및 인코더
EP3579553B1 (en) * 2018-06-05 2020-05-20 Axis AB A method, controller, and system for encoding a sequence of video frames

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238353A (ja) * 1995-12-28 1997-09-09 Sony Corp 画像符号化方法及び装置、画像伝送方法、並びに画像記録媒体
JPH11177989A (ja) * 1997-10-10 1999-07-02 Internatl Business Mach Corp <Ibm> 2つのエンコーダ及び統計分析を使用するビデオ・シーケンスのリアルタイム符号化方法及び装置
JP2006050130A (ja) * 2004-08-03 2006-02-16 Fujitsu Ltd 映像符号化装置及び映像符号化方法
US20060045181A1 (en) * 2004-08-30 2006-03-02 Chen Jing Y Method and apparatus for performing motion compensated temporal filtering in video encoding
US20070030894A1 (en) * 2005-08-03 2007-02-08 Nokia Corporation Method, device, and module for improved encoding mode control in video encoding
JP2007180970A (ja) * 2005-12-28 2007-07-12 Matsushita Electric Ind Co Ltd 映像処理装置及び監視カメラシステム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6100940A (en) * 1998-01-21 2000-08-08 Sarnoff Corporation Apparatus and method for using side information to improve a coding system
US6888894B2 (en) * 2000-04-17 2005-05-03 Pts Corporation Segmenting encoding system with image segmentation performed at a decoder and encoding scheme for generating encoded data relying on decoder segmentation
KR100341063B1 (ko) * 2000-06-28 2002-06-20 송문섭 실시간 영상 통신을 위한 율제어 장치 및 그 방법
US6731685B1 (en) * 2000-09-20 2004-05-04 General Instrument Corporation Method and apparatus for determining a bit rate need parameter in a statistical multiplexer
US6763067B2 (en) * 2000-10-10 2004-07-13 Sarnoff Corporation Rate control for bitstream re-encoding
US7170938B1 (en) * 2001-08-21 2007-01-30 Cisco Systems Canada Co. Rate control method for video transcoding
US6788227B2 (en) * 2002-03-28 2004-09-07 International Business Machines Corporation Apparatus for integrated cascade encoding
US20030217957A1 (en) * 2002-05-24 2003-11-27 Bowman Joseph H. Heat seal interface for a disposable medical fluid unit
ES2314259T3 (es) * 2002-11-18 2009-03-16 British Telecommunications Public Limited Company Transmision de video.
EP1585061A1 (en) * 2004-04-07 2005-10-12 Deutsche Thomson-Brandt Gmbh Block adaptive predictive coding
JP2005303566A (ja) * 2004-04-09 2005-10-27 Tama Tlo Kk ブロック分割領域における動きベクトルの分布を利用した特定シーン抽出方法及び装置
JP4655191B2 (ja) * 2004-09-02 2011-03-23 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
US7936938B2 (en) * 2004-09-07 2011-05-03 Canon Kabushiki Kaisha Methods and devices for encoding a digital image signal and associated decoding methods and devices
US7606303B2 (en) * 2004-09-28 2009-10-20 General Instrument Corporation Method and apparatus to detect anchor frames from digital video streams
US20060140273A1 (en) * 2004-12-28 2006-06-29 Siu-Wai Wu Dual-pass HDTV encoder with noise reduction
AR052601A1 (es) * 2005-03-10 2007-03-21 Qualcomm Inc Clasificacion de contenido para procesamiento de multimedia
CN100452878C (zh) * 2005-03-28 2009-01-14 腾讯科技(深圳)有限公司 一种视频编码中的运动图像处理方法
US8582660B2 (en) * 2006-04-13 2013-11-12 Qualcomm Incorporated Selective video frame rate upconversion
US8798172B2 (en) * 2006-05-16 2014-08-05 Samsung Electronics Co., Ltd. Method and apparatus to conceal error in decoded audio signal
KR100772194B1 (ko) * 2006-07-26 2007-11-01 한국전자통신연구원 피사체의 움직임 여부에 기초하여 영상의 선택적 출력이가능한 네트워크 기반 지능형 이동 로봇 및 그 방법
US8126277B2 (en) * 2007-02-28 2012-02-28 Sanyo Electric Co., Ltd. Image processing method, image processing apparatus and image pickup apparatus using the same
US8351343B1 (en) * 2007-03-07 2013-01-08 Marvell International Ltd. Efficient change recognition algorithm
US8442337B2 (en) * 2007-04-18 2013-05-14 Microsoft Corporation Encoding adjustments for animation content
US8576923B2 (en) * 2008-04-16 2013-11-05 Broadcom Corporation Bitstream navigation techniques
WO2010023504A1 (en) * 2008-08-26 2010-03-04 Csir A method of switching from a first encoded video stream to a second encoded video stream
US20100118938A1 (en) * 2008-11-12 2010-05-13 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoder and method for generating a stream of data
US20100309987A1 (en) * 2009-06-05 2010-12-09 Apple Inc. Image acquisition and encoding system
US8917774B2 (en) * 2010-06-30 2014-12-23 Warner Bros. Entertainment Inc. Method and apparatus for generating encoded content using dynamically optimized conversion
JP5609591B2 (ja) * 2010-11-30 2014-10-22 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラム
US9173567B2 (en) * 2011-05-13 2015-11-03 Fujitsu Limited Triggering user queries based on sensor inputs
US9635374B2 (en) * 2011-08-01 2017-04-25 Apple Inc. Systems and methods for coding video data using switchable encoders and decoders
US10045089B2 (en) * 2011-08-02 2018-08-07 Apple Inc. Selection of encoder and decoder for a video communications session
US9047863B2 (en) * 2012-01-12 2015-06-02 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for criticality threshold control

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238353A (ja) * 1995-12-28 1997-09-09 Sony Corp 画像符号化方法及び装置、画像伝送方法、並びに画像記録媒体
JPH11177989A (ja) * 1997-10-10 1999-07-02 Internatl Business Mach Corp <Ibm> 2つのエンコーダ及び統計分析を使用するビデオ・シーケンスのリアルタイム符号化方法及び装置
JP2006050130A (ja) * 2004-08-03 2006-02-16 Fujitsu Ltd 映像符号化装置及び映像符号化方法
US20060045181A1 (en) * 2004-08-30 2006-03-02 Chen Jing Y Method and apparatus for performing motion compensated temporal filtering in video encoding
US20070030894A1 (en) * 2005-08-03 2007-02-08 Nokia Corporation Method, device, and module for improved encoding mode control in video encoding
JP2007180970A (ja) * 2005-12-28 2007-07-12 Matsushita Electric Ind Co Ltd 映像処理装置及び監視カメラシステム

Also Published As

Publication number Publication date
WO2014094204A1 (en) 2014-06-26
JP6109956B2 (ja) 2017-04-05
US9363473B2 (en) 2016-06-07
CN104782124A (zh) 2015-07-15
US20140198851A1 (en) 2014-07-17
CN104782124B (zh) 2018-09-07

Similar Documents

Publication Publication Date Title
JP6109956B2 (ja) ビデオコンテンツを前処理するエンコーダハードウェアの活用
EP3167616B1 (en) Adaptive bitrate streaming for wireless video
JP5985053B2 (ja) 関心領域ベースの3dビデオコーディング
US20210067785A1 (en) Video encoding rate control for intra and scene change frames using machine learning
TWI582720B (zh) 用於經動態生成的圖形資源之壓縮技術
TWI513316B (zh) 轉碼視頻資料之技術
TWI568256B (zh) 使用運動估計之物件偵測
US9549188B2 (en) Golden frame selection in video coding
CN107113435B (zh) 分区模式和变换尺寸确定方法、装置、系统及介质
JP2016506165A (ja) インターレイヤの動きデータ継承
US20140003789A1 (en) Playback of video content based on frame-level ratings
TWI551118B (zh) 用於殘值預測的移動估測之方法
US9019340B2 (en) Content aware selective adjusting of motion estimation
JP6005292B2 (ja) ビデオ符号化及び復号のためのヒストグラム分割ベースのローカル適応フィルタ
JP2014209757A (ja) クロスチャネル残差予測
JP6412530B2 (ja) ビデオ符号化及び復号のためのヒストグラム分割ベースのローカル適応フィルタ
JP6379408B2 (ja) ビデオ符号化及び復号のためのヒストグラム分割ベースのローカル適応フィルタ

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170308

R150 Certificate of patent or registration of utility model

Ref document number: 6109956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees