JP7125446B2 - 歪み画像フレームをエンコードするための方法、デバイス、およびコンピュータプログラム製品 - Google Patents

歪み画像フレームをエンコードするための方法、デバイス、およびコンピュータプログラム製品 Download PDF

Info

Publication number
JP7125446B2
JP7125446B2 JP2020081613A JP2020081613A JP7125446B2 JP 7125446 B2 JP7125446 B2 JP 7125446B2 JP 2020081613 A JP2020081613 A JP 2020081613A JP 2020081613 A JP2020081613 A JP 2020081613A JP 7125446 B2 JP7125446 B2 JP 7125446B2
Authority
JP
Japan
Prior art keywords
image frame
pixel block
map
spatial resolution
distorted image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020081613A
Other languages
English (en)
Other versions
JP2020205582A (ja
JP2020205582A5 (ja
Inventor
ヴィクトル エドパルム,
ソン ユアン,
Original Assignee
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー filed Critical アクシス アーベー
Publication of JP2020205582A publication Critical patent/JP2020205582A/ja
Publication of JP2020205582A5 publication Critical patent/JP2020205582A5/ja
Application granted granted Critical
Publication of JP7125446B2 publication Critical patent/JP7125446B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、少なくとも1つの画像センサによって生成される歪み画像フレームをブロックベースビデオエンコーディングアルゴリズムを使用してエンコードすることに関する。
カメラアプリケーションのための重要な分野はロケーションのモニタリングである。通常、異なるカメラ構成が、モニターされるロケーションに応じて使用される。例えば、駐車場は、駐車場の俯瞰(aerial overview)を取得するため、(例えば、パノラマスティッチング(panoramic stitching)によってまたは広角レンズを使用して)広角ビデオを生成することが可能な1つまたは複数のカメラを使用してモニターされ得る。広角ビデオにおいて、対象物のサイズは、フレームにわたって変動し、それは、ビデオフレームにわたる空間分解能が不均一であるという結果になる。したがって、モニターされるシーンを通して移動する乗り物のサイズは、モニターされるシーン内の現在位置に依存するため、変化することになる。モニターされるロケーションのビデオは、通常、広範囲の異なる画像処理アルゴリズムを使用して処理される。例えば、ビデオは、エンコードされて、エンコードされたビデオに関連する帯域幅要件およびファイルサイズを低減する。
しかしながら、ビデオエンコーディングについての課題は、ビデオフレーム内の不均一な空間分解能のせいで、エンコードされたビデオ内で移動対象物の適切な視覚品質を提供することである。
上記を考慮して、当技術分野における上記で特定された欠点および不利益の1つまたは複数を単一でまたは組み合わせて軽減する、緩和する、またはなくすことが本発明の概念の目的である。
第1の態様によれば、少なくとも1つの画像センサによって生成される歪み画像フレームをブロックベースビデオエンコーディングアルゴリズムを使用してエンコードするための方法が提供される。方法は、歪み画像フレームについて空間分解能分布を決定すること;歪み画像フレームに対応する最大ピクセルブロックサイズのマップを決定することを含み、最大ピクセルブロックサイズのマップは、空間分解能分布に基づいて決定され、それにより、第1の空間分解能を有する歪み画像フレームの第1の部分について、第1の部分に対応する最大ピクセルブロックサイズは第1の値に設定され、第1の空間分解能より低い第2の空間分解能を有する歪み画像フレームの第2の部分について、第2の部分に対応する最大ピクセルブロックサイズは、第1の値より小さい第2の値に設定され;ブロックベースビデオエンコーディングアルゴリズムを使用して歪み画像フレームをエンコードすることを含み、最大ピクセルブロックサイズのマップは、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最大ブロックサイズを規定するために使用される。
本出願の文脈において、「歪み画像フレーム(distorted image frame)」は、歪んだ見え方を有する画像フレームとして解釈されるべきである。歪み画像フレームにおいて、シーン内のまっすぐな線は、通常、或る程度湾曲する。対照的に、完全に直線的な画像フレームは、描写されるシーン内でまっすぐな線に対応する完全にまっすぐな線を有する。本出願の文脈において、2つのタイプの歪み発生源:物理的歪み発生源およびデジタル歪み発生源が論じられる。物理的歪み発生源の非制限的な例は、広角レンズであり、フィッシュアイレンズ(例えば、fシータ(fθ)レンズ)、光学ドーム、および不完全に直線的なレンズを含む。レンズの不完全性は、製造上の低精度(manufacturing imprecisions)によって引き起こされる場合がある。デジタル歪み発生源の非制限的な例は、例えば、複数の画像からパノラマ画像を生成するための画像スティッチングアルゴリズムである。歪みパターンは、不規則的または規則的(放射状歪みなど)であり得る。取り込まれる画像の歪みパターンは、歪み発生源のうちの1つまたは組み合わせによる結果であることができる。
本出願の文脈において、「空間分解能(spatial resolution)」は、画像フレームについての空間分解能として理解されるべきである。例えば、広角レンズを通して取得される、または、複数の画像フレームからスティッチングされる歪み画像フレームにおいて、画像の異なる部分は異なる空間分解能を有する。換言すれば、画像フレームの同じサイズの部分は、カメラの視野(FOV:field of view)の異なるサイズの角度をカバーする。空間分解能は、画像フレームについてピクセルレベルで指定することができる、または、ピクセルサブグループレベルで、例えば、マクロブロックレベルで決定され得る。空間分解能は、FOV角度についてのピクセル数としてまたはピクセルについてのFOV角度の量として表現することができる。アプリケーションに応じてこれらの表現の間で交換する方法に当業者は情通している。例えば、本発明の概念による方法の実装態様において、これらの表現のうちの1つの表現が使用するのを好まれる場合がある。空間分解能分布は、例えば、ピクセルまたはピクセルサブグループ、例えば、マクロブロックについての空間分解能分布を示すテーブルによって示すことができる。
本出願の文脈において、「ブロックベースビデオエンコーディングアルゴリズム(block-based video encoding algorithm)」は、ビデオをエンコードするためのアルゴリズムとして解釈されるべきであり、そのアルゴリズムにおいて画像フレーム内の近傍のピクセルのセットは、エンコーディングブロックとして処理される。エンコーディングブロックのサイズは、ビデオストリームの個々のフレームのピクセルの対応する部分についてビデオストリーム内の個々のフレーム間で変動する場合がある。フレーム内の異なるピクセルブロックのサイズは変動する場合がある。概して、大きいサイズのエンコーディングブロックは、エンコーディングに関連する低い計算コストをもたらし、それは、ブロックベースビデオエンコーディングアルゴリズムが、できる限り大きいサイズのエンコーディングブロックを使用するように通常プログラムされる理由である。一方、大きいサイズのエンコーディングブロックは、エンコードされたビデオの視覚品質の低下にもつながる。したがって、ブロックベースビデオエンコーディングアルゴリズムは、エンコーディングブロックのサイズとエンコードされたビデオの視覚品質をバランスさせるようにプログラムされる。
本出願の文脈において、「エンコーディングブロック(encoding block)」は、ブロックベースビデオエンコーディングアルゴリズムの基本処理ユニットとして解釈されるべきである。例えば、ブロックベースビデオエンコーディングアルゴリズムがh.265またはAV1である場合、エンコーディングブロックはコーディングユニット(CU:coding unit)であることができる。
本発明の概念によって、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最大ブロックサイズは、歪み画像フレームについての空間分解能分布に基づき、それにより、エンコードされたビデオの改善された視覚品質が可能になる。第1および第2の部分の空間分解能が異なるため、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最大ブロックサイズを空間分解能に基づかせて、エンコードされたビデオのより均一の、したがって改善された視覚品質が可能になる。特に、より低い空間分解能を有する歪み画像内のエリアについてより小さい最大ピクセルブロックサイズを設定することによって、歪み画像フレームのこれらのエリアの詳細を、エンコードされた画像フレームにおいてよりよく保存することができる。
ブロックベースビデオエンコーディングアルゴリズムはh.265またはAV1であることができ、最大ピクセルブロックサイズのマップは、ブロックベースビデオエンコーディングアルゴリズムのコーディングユニットの最大サイズを規定するために使用することができる。
ブロックベースビデオエンコーディングアルゴリズムがh.265であることに関連する利点は、ブロックベースビデオエンコーディングアルゴリズムのコーディングユニットの最大サイズが、ブロックベースビデオエンコーディングアルゴリズムのコーディングツリーユニット、CTU(coding tree unit)のサイズを設定することによって設定することができることである。
ブロックベースビデオエンコーディングアルゴリズムがAV1であることに関連する利点は、ブロックベースビデオエンコーディングアルゴリズムのコーディングユニットの最大サイズが、ブロックベースビデオエンコーディングアルゴリズムのスーパーブロックのサイズを設定することによって設定することができることである。
そのため、本実施形態は、有利には、標準的なエンコーダー/デコーダーによって使用され得る。
方法は、歪み画像フレームに対応する最小ピクセルブロックサイズのマップを決定することをさらに含むことができ、最小ピクセルブロックサイズのマップは、異なる最小ピクセルブロックサイズを有するエリアを含み、最小ピクセルブロックサイズのマップは、空間分解能分布に基づいて決定され、それにより、第1の空間分解能を有する歪み画像フレームの第1の部分について、第1の部分に対応する最小ピクセルブロックサイズは第1の値より小さい第3の値に設定され、第2の空間分解能を有する歪み画像フレームの第2の部分について、第2の部分に対応する最小ピクセルブロックサイズは、第2の値および第3の値より小さい第4の値に設定され;歪み画像フレームをエンコードするステップにおいて、最小ピクセルブロックサイズのマップは、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最小ブロックサイズを規定するために使用される。
本実施形態による、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最小ブロックサイズを規定するために最小ピクセルブロックサイズのマップを使用することに関連する利点は、ビデオエンコーディングに関連する計算コスト、ファイルサイズ、および/または帯域幅を、エンコードされたビデオの均一の、したがって改善された視覚品質を依然として可能にしながら、低減することができることである。特に、(第2の部分と比較して高い空間分解能を有する)第1の部分の最小ブロックサイズを第2の部分の最小ブロックサイズより小さくなることを可能にしないことによって、エンコーダーは、有利には、第2の部分と比較して第1の部分についてより高い圧縮比を使用することを選択し得る。
ブロックベースビデオエンコーディングアルゴリズムはh.265であることができ、最小ピクセルブロックサイズのマップは、ブロックベースビデオエンコーディングアルゴリズムの予測ユニット、PU、および/または、変換ユニット、TUの最小サイズを規定するために使用することができる。
有利には、本実施形態は、標準的なh.265エンコーダー/デコーダーを使用して最小ブロックサイズの低複雑性実装態様を可能にする。
歪み画像フレームは、広角レンズを通して1つの画像センサによって取り込むことによって生成することができ、空間分解能分布は広角レンズのレンズ多項式に基づいて決定することができる。
本出願の文脈において、「レンズ多項式(lens polynomial)」は、レンズ固有の多項式として解釈されるべきであり、レンズ固有の多項式は、多項式がレンズまたは光学ドームについてのレンズ屈折を示すことを記述する。レンズ多項式は、例えば、オフアクシス変調伝達関数(MTF:modulation transfer function)測定法を使用する測定をレンズまたは光学ドームに対して実施することによって取得することができる。レンズまたは光学ドーム製造業者は、通常、製造業者の品揃えにおける異なるタイプのレンズまたは光学ドームのための、レンズ多項式または歪みを示すテーブルを提供し得る。
広角レンズを通して1つの画像センサによって歪み画像フレームを取り込むことに関連する利点は、1つの画像センサを使用するシーンの広角パノラマビューが、可能にされ、また、エンコードされたビデオの均一の、したがって改善された視覚品質を依然として可能にできることである。その結果、改善された視覚品質を有する広角パノラマビューは、別個のカメラによって取り込まれる画像フレームを共にスティッチングする必要性なしで達成することができる。
空間分解能分布が広角レンズのレンズ多項式に基づいて決定されることに関連する利点は、空間分解能分布の容易でかつ複雑さが少ない決定を可能にできることである。
広角レンズはフィッシュアイレンズであることができる。
広角レンズがフィッシュアイレンズであることに関連する利点は、1つの画像センサを使用するシーンの広角パノラマまたは半球画像フレームが、可能にされ、また、エンコードされたビデオの均一の、したがって改善された視覚品質を依然として可能にできることである。その結果、改善された視覚品質を有する広角パノラマまたは半球ビューは、別個のカメラによって取り込まれる画像フレームを共にスティッチングする必要性なしで達成することができる。
歪み画像フレームは、光学ドームを通して1つの画像センサによって取り込むことによって生成することができ、空間分解能分布は光学ドームのレンズ多項式に基づいて決定することができる。
歪み画像フレームを、光学ドームを通して1つの画像センサによって取り込むことによって生成することに関連する利点は、1つの画像センサを使用するシーンの広角パノラマまたは半球画像フレームが、可能にされ、また、エンコードされたビデオの均一の、したがって改善された視覚品質を依然として可能にできることである。その結果、改善された視覚品質を有する広角パノラマまたは半球ビューは、別個のカメラによって取り込まれる画像フレームを共にスティッチングする必要性なしで達成することができる。
空間分解能分布が光学ドームのレンズ多項式に基づいて決定されることに関連する利点は、空間分解能分布の容易でかつ複雑さが少ない決定を可能にできることである。
最大ピクセルブロックサイズのマップの第1および第2のエリアは、動き検出感度マップの参照位置から半径方向に延在する楕円パターンを形成することができ;参照位置と第1のエリアとの間の半径方向距離は、参照位置と第2のエリアとの間の半径方向距離より小さいとすることができる。
最大ピクセルブロックサイズのマップの第1および第2のエリアが、動き検出感度マップの参照位置から半径方向に延在する楕円パターンを形成することに関連する利点は、最大ピクセルブロックサイズのマップの容易でかつ複雑さが少ない決定を可能にできることである。
それぞれの歪み画像フレームは、1つまたは複数の画像センサによって取り込まれる複数の1次画像フレームの射影アルゴリズムに基づくスティッチングによって生成することができる。
本出願の文脈において、「射影アルゴリズム(projection algorithm)」は、どれだけの数の1次画像フレームが、スティッチングされた画像フレームを形成するためにスティッチングされる/結合されるかを記述するアルゴリズムとして解釈されるべきである。射影アルゴリズムを、異なる目的で、例えば、1次画像フレーム間のスムーズな移行を提供するために、または、結果として得られる画像フレームの歪みを最小にするために設計することができる。
1つまたは複数の画像センサによって取り込まれる複数の1次画像フレームの射影アルゴリズムに基づくスティッチングによってそれぞれの歪み画像フレームを生成する利点は、多数のピクセルを有するスティッチングされた画像フレームを可能にできることである。
1つまたは複数の画像センサによって取り込まれる複数の1次画像フレームの射影アルゴリズムに基づくスティッチングによってそれぞれの歪み画像フレームを生成するさらなる利点は、複雑な光学コンポーネント、例えば、フィッシュアイレンズまたは光学ドームなしでのパノラマ画像フレームを可能にできることである。
空間分解能分布は、射影アルゴリズムに基づいて決定することができる。
関連する利点は、スティッチングされた画像フレームまたはパノラマ画像フレームの視覚品質が改善されるように、エンコーディングブロックのための最小および/または最大ブロックサイズを規定することができることである。
さらなる関連する利点は、空間分解能分布を、例えば、射影アルゴリズムの逆を使用することによって決定することが、容易でかつ複雑さが少ない方法であることができることである。
第2の態様によれば、コンピュータプログラム製品が提供される。コンピュータプログラム製品はコンピュータ可読媒体を備え、コンピュータ可読媒体は、処理能力を有するデバイスによって実行されると、本方法を実施するように適合された、コンピュータ可読記憶媒体上に記憶されたコンピュータコード命令を有する。
コンピュータ可読媒体は非一時的コンピュータ可読媒体であることができる。
方法の上記で述べた特徴は、適用可能であるとき、この第2の態様にも適用される。不要な反復を避けるため、上記に対して参照が行われる。
第3の態様によれば、少なくとも1つの画像センサによって生成される歪み画像フレームをブロックベースビデオエンコーディングアルゴリズムを使用してエンコードするためのエンコーダーが提供される。エンコーダーは、歪み画像フレームについて空間分解能分布を決定するように適合された空間分解能分布コンポーネントと;歪み画像フレームに対応する最大ピクセルブロックサイズのマップを決定するように適合された最大ピクセルブロックサイズマップコンポーネントとを備え、最大ピクセルブロックサイズのマップは、空間分解能分布に基づいて決定され、それにより、第1の空間分解能を有する歪み画像フレームの第1の部分について、第1の部分に対応する最大ピクセルブロックサイズは第1の値に設定され、第1の空間分解能より低い第2の空間分解能を有する歪み画像フレームの第2の部分について、第2の部分に対応する最大ピクセルブロックサイズは、第1の値より小さい第2の値に設定され;ブロックベースビデオエンコーディングアルゴリズムを使用して歪み画像フレームをエンコードするように適合されたビデオエンコーディングコンポーネントを備え、最大ピクセルブロックサイズのマップは、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最大ブロックサイズを規定するために、ブロックベースビデオエンコーディングアルゴリズムによって使用される。
方法およびコンピュータプログラム製品の上記で述べた特徴は、適用可能であるとき、この第3の態様にも適用される。不要な反復を避けるため、上記に対して参照が行われる。
エンコーダーは、歪み画像フレームに対応する最小ピクセルブロックサイズのマップを決定するように適合された最小ピクセルブロックサイズマップコンポーネントをさらに備え、最小ピクセルブロックサイズのマップは、異なる最小ピクセルブロックサイズを有するエリアを含み、最小ピクセルブロックサイズのマップは、空間分解能分布に基づいて決定され、それにより、第1の空間分解能を有する歪み画像フレームの第1の部分について、第1の部分に対応する最小ピクセルブロックサイズは第1の値より小さい第3の値に設定され、第2の空間分解能を有する歪み画像フレームの第2の部分について、第2の部分に対応する最小ピクセルブロックサイズは、第2の値および第3の値より小さい第4の値に設定され;最小ピクセルブロックサイズのマップを、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最小ブロックサイズを規定するために、ブロックベースビデオエンコーディングアルゴリズムによって使用することができる。
第4の態様によれば、カメラが提供される。カメラは、第3の態様によるエンコーダーを備える。
方法、コンピュータプログラム製品、およびエンコーダーの上記で述べた特徴は、適用可能であるとき、この第4の態様にも適用される。不要な反復を避けるため、上記に対して参照が行われる。
カメラは、広角レンズをさらに備えることができ、広角レンズを通して、画像は、カメラの1つの画像センサによって取り込まれる。
カメラは、複数の画像センサをさらに備えることができ、エンコーダーは、複数の画像センサによって取り込まれる複数の1次画像からの画像フレームをスティッチングするように適合されたスティッチングコンポーネントを更に備える。
本開示の適用可能性のさらなる範囲は、以下で示す詳細な説明から明らかになるであろう。しかしながら、詳細な説明および特定の例が、本発明の概念の好ましい変更を示しながら、例証としてのみ与えられることが理解されるべきであり、なぜならば、発明の概念の範囲内の種々の変更および修正が、この詳細な説明から当業者に明らかになることになるからである。
したがって、そのような方法およびシステムが変動する場合があるため、本発明の概念が、述べる方法の特定のステップまたは述べるシステムのコンポーネント部品に限定されないことが理解される。本明細書で使用される用語が、特定の実施形態を述べるためのものに過ぎず、制限的であることを意図されないことも理解される。本明細書および添付特許請求項で使用するとき、冠詞「1つの(a)」、「1つの(an)」、「その(the)」、および「前記(said)」が、別途文脈が明確に指示しない限り、要素の1つまたは複数が存在することを意味することを意図されることが留意されなげればならない。そのため、例えば、「或るユニット(a unit)」または「そのユニット(the unit)」に対する言及は、幾つかのデバイスまたは同様なものを含むことができる。さらに、言い回し「備えている(comprising)」、「含んでいる(including)」、「含んでいる(containing)」、および同様の言い回しは、他の要素またはステップを排除しない。
本発明の概念の上記のまた他の態様は、発明の概念の変形を示す添付図面を参照して、ここでより詳細に述べられる。図は、特定の変形に本発明を制限するものと考えられるべきではなく;代わりに、図は、発明の概念を説明し理解するために使用される。
図に示すように、層および領域のサイズは、例証のために誇張され、したがって、本発明の実施形態の一般的な構造を示すために提供される。同様の参照数字は、全体を通して同様の要素を指す。
モニタリングカメラによって上からモニターされるシーンの側面図である。 図1Aでモニターされるシーンの上面図である。 図1Bの上面図の非直線的画像フレームである。 最大ピクセルブロックサイズのマップを示す図である。 最小ピクセルブロックサイズのマップを示す図である。 少なくとも1つの画像センサによって生成される歪み画像フレームをブロックベースビデオエンコーディングアルゴリズムを使用してエンコードするためのエンコーダーを示す図である。 図2Aのエンコーダーを備えるカメラを示す図である。 複数の画像センサを備えるカメラを示す図である。 少なくとも1つの画像センサによって生成される歪み画像フレームをブロックベースビデオエンコーディングアルゴリズムを使用してエンコードするための方法のブロックスキームである。
本発明の概念が、ここで、発明の概念の現在のところ好ましい変形がそこに示される添付図面を参照して、以降でより完全に述べられることになる。しかしながら、この発明の概念は、多くの異なる形態で実装することができ、また、本明細書で述べる変形に限定されるものと解釈されるべきでない;むしろ、これらの変形は、徹底性および完全性(thoroughness and completeness)のために提供され、本発明の概念の範囲を当業者に完全に伝える。
図1Aは、カメラ110によって上からモニターされるシーンの側面図を示す。シーンは、第1のボックス122および同様のサイズを有する第2のボックス124を含む。カメラ110は、シーンの歪み画像フレームを生成するために配置された少なくとも1つの画像センサを備える。図1Aのカメラ110は、図2Bに関して述べられるカメラ210または図2Cに関して述べられるカメラ410であることができる。図1Aに示すシーンの歪み画像フレーム140の例は図1Cに関して述べられることになる。カメラ410は広視野112を有する。広視野112は180°までであることができる。広視野112の関連する立体角は2π srまでであることができる。
図1Bは、図1Aにおいてモニターされるシーンの上面図の直線的画像フレーム130を示す。図1Bに見られるように、ボックス122、124のそれぞれは、直線的画像フレーム130において上から見られると、同様のサイズを有する。そのため、図1Bの直線的画像フレーム130の空間分解能は、直線的画像フレーム130にわたって実質的に一定である。
図1Cは、図1Bの上面図の歪み画像フレーム140を示す。歪み画像フレーム140は、広角レンズを通して1つの画像センサによって取り込むことによって生成することができる。歪み画像フレーム140は、光学ドームを通して1つの画像センサによって取り込むことによって生成することができる。歪み画像フレーム140は、図2Cに関して述べるように、複数の1次画像フレームを、射影アルゴリズムに基づいてスティッチングすることによって生成することができる。図1Cに見られるように、ボックス122、124の見かけのサイズは、歪み画像フレーム140内の各ボックス122、124の位置に応じて変動する。そのため、歪み画像フレーム140内の空間分解能は歪み画像フレーム140にわたって変動する。空間分解能分布は、歪み画像フレーム140および直線的画像フレーム130に基づいて決定することができる。空間分解能分布は、カメラ110の広角レンズに基づいて決定することができる。歪み画像フレーム140は、広角レンズを通して1つの画像センサによって取り込むことによって生成することができ、空間分解能分布は、広角レンズのレンズ多項式に基づいて決定することができる。歪み画像フレーム140が複数の1次画像フレームの射影アルゴリズムに基づくスティッチングによって生成される場合、空間分解能分布は、射影アルゴリズムに基づくことができる。例えば、空間分解能分布は、射影アルゴリズムの逆に基づくことができる。
図1Cにおいて、第1のボックス122は、歪み画像フレーム140の第1の部分142内にある。歪み画像フレーム140の第1の部分142は第1の空間分解能に関連する。第2のボックス124は、歪み画像フレーム140の第2の部分144内にある。歪み画像フレーム140の第2の部分144は第2の空間分解能に関連する。歪み画像フレーム140は、歪み画像フレーム140を生成するときに使用される撮像光学部品および/または射影アルゴリズムのせいで、モニターされるシーンに関連する情報がない部分148を含むことができる。第1の空間分解能および第2の空間分解能は、同じサイズの対象物(例えば、ボックス122、124)が、図1Cに例示するように、歪み画像フレーム140の第2の部分144内でよりも歪み画像フレーム140の第1の部分142内で大きく見えるように関連する。換言すれば、ピクセルについての視野角によって空間分解能を表現すると、第1の部分142の空間分解能は第2の部分144の空間分解能より高い。
図1Cに示す歪み画像フレーム140が、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのために同じブロックサイズを使用してエンコードされる場合、第2の部分144内の対象物(例えば、第2のボックス124)は、第1の部分142内の対象物に比べて少ないエンコーディングブロックを使用してエンコードされることになり、なぜならば、第2の部分144内の対象物が第1の部分142内の対象物より小さいものとして現れるからである。そのため、第2の部分144に対応するエンコーディングブロックのための最大ブロックサイズを減少させることは、第2の部分144内の対象物(例えば、第2のボックス124)をエンコードするためにエンコーディングブロックの数を増加させることができる。それにより、エンコードされた歪み画像フレーム内の第2の部分144内の対象物の視覚品質は、上記で論じたように増加することになる。
従来技術において、ブロックベースビデオエンコーディングアルゴリズムは、大抵、歪み画像フレームのコンテンツに基づいてエンコーディングブロックのためのピクセルブロックサイズを選択するように指示される。ブロックベースビデオエンコーディングアルゴリズムは、通常、低い空間分解能を有する部分内の(例えば、歪み画像フレーム140の第2の部分144内の)コンテンツが、高い空間分解能を有する部分内の(例えば、歪み画像フレーム140の第1の部分142内の)コンテンツより重要でないと判定する。そのため、従来技術のエンコーダーは、通常、高い空間分解能を有する部分(例えば、第1の部分142)についてよりも、低い空間分解能を有する部分(例えば、第2の部分144)について、エンコーディングブロックのための大きいピクセルブロックサイズを選択する。したがって、ブロックベースビデオエンコーディングアルゴリズムは、低い空間分解能を有する歪み画像の部分の視覚品質が低下するように歪み画像フレームをエンコードする。
そのため、歪み画像フレーム140にわたる変動する空間分解能分布を考慮するため、最大ピクセルブロックサイズのマップ150が、空間分解能分布に基づいて決定され、それにより、第1の空間分解能を有する歪み画像フレーム140の第1の部分142について、最大ピクセルブロックサイズは第1の値1502に設定され、第1の空間分解能より低い第2の空間分解能を有する歪み画像フレーム140の第2の部分144について、第2の部分144に対応する最大ピクセルブロックサイズは、第1の値1502より小さい第2の値1504に設定される。最大ピクセルブロックサイズのマップ150の例は図1Dに示される。歪み画像フレーム140は、ブロックベースビデオエンコーディングアルゴリズムを使用してエンコードされ、最大ピクセルブロックサイズのマップ150は、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最大ブロックサイズを規定するために使用される。最大ピクセルブロックサイズのマップ150は、ブロックベースビデオエンコーディングアルゴリズムのためのコーディングユニットの最大サイズを規定するために使用することができる。例えば、ブロックベースビデオエンコーディングアルゴリズムがh.265である場合、コーディングツリーユニット、CTU、サイズがコーディングユニットの最大サイズを設定することができる。ブロックベースビデオエンコーディングアルゴリズムがAV1である場合、スーパーブロックのサイズがコーディングユニットの最大サイズを設定することができる。
ブロックベースビデオエンコーディングアルゴリズムは、最大ピクセルブロックサイズより小さいピクセルブロックサイズをエンコーディングブロックのために使用することができる。ブロックベースビデオエンコーディングアルゴリズムは、通常、エンコードされたビデオの視覚品質にとってそれが有益であると判定する場合、最大ピクセルブロックサイズより小さいピクセルブロックサイズをエンコーディングブロックのために使用する。そのため、歪み画像フレーム140の第1の部分142内の対象物は、多数のエンコーディングブロックを使用してエンコードされ、それにより、高ビットレートを有するエンコードされたビデオをもたらすことができる。ビットレートを低減するため、歪み画像フレーム140の第1の部分142をエンコードすることに関連するエンコーディングブロックのための最小ピクセルブロックサイズを設定することができる。そのため、第1の部分142内の対象物の視覚品質は、それにより、エンコードされたビデオのビットレートを低減するため低下することになる。ブロックベースビデオエンコーディングアルゴリズムがh.265である場合、エンコーディングブロックのための最小ピクセルブロックサイズは、ブロックベースビデオエンコーディングアルゴリズムの予測ユニット、PU、および/または、変換ユニット、TUの最小サイズを規定することによって設定することができる。
このため、歪み画像フレーム140に対応する最小ピクセルブロックサイズのマップ160を決定することができる。最小ピクセルブロックサイズのマップ160の例は図1Eに示される。最小ピクセルブロックサイズのマップ160は、異なる最小ピクセルブロックサイズを有するエリア162、164を含むことができ、最小ピクセルブロックサイズのマップ160は、空間分解能分布に基づいて決定され、それにより、第1の空間分解能を有する歪み画像フレーム140の第1の部分142について、第1の部分142に対応する最小ピクセルブロックサイズは第1の値1502より小さい第3の値1602に設定され、第2の空間分解能を有する歪み画像フレーム140の第2の部分144について、第2の部分144に対応する最小ピクセルブロックサイズは、第2の値1504および第3の値1602より小さい第4の値1604に設定される。歪み画像フレームは、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最小ブロックサイズを規定するために最小ピクセルブロックサイズのマップ160を使用してさらにエンコードすることができる。ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最小ブロックサイズを規定するために最小ピクセルブロックサイズのマップを使用することは、ビデオエンコーディングに関連する計算コスト、ファイルサイズ、および/または帯域幅を低減し、また、エンコードされたビデオの均一の、したがって改善された視覚品質を依然として可能にすることができる。特に、(第2の部分144と比較して高い空間分解能を有する)第1の部分142の最小ブロックサイズを第2の部分144の最小ブロックサイズより小さくなることを可能にしないことによって、ブロックベースビデオエンコーディングアルゴリズムは、有利には、第2の部分144と比較して第1の部分142についてより高い圧縮比を使用することを選択することができる。
図1Cに例示するように、歪み画像フレーム140内の第1の部分142および第2の部分144は、歪み画像フレーム140の参照位置から半径方向に延在する楕円パターンを形成することができる。参照位置は、図1Cに例示するように、歪み画像フレーム140の中央位置であることができ、参照位置から第1の部分142までの半径方向距離は、参照位置から第2の部分144までの半径方向距離より小さい。そのため、歪み画像フレーム140の第1の部分142に対応する最大ピクセルブロックサイズのマップ150の第1のエリア152および歪み画像フレーム140の第2の部分144に対応する最大ピクセルブロックサイズのマップ150の第2のエリア154は、最大ピクセルブロックサイズのマップ150の参照位置1500から半径方向に延在する楕円パターンを形成することができる。参照位置1500と第1のエリア152との間の半径方向距離は、参照位置1500と第2のエリア154との間の半径方向距離より小さいとすることができる。
さらに、歪み画像フレーム140の第1の部分142に対応する最小ピクセルブロックサイズのマップ160の第1のエリア162および歪み画像フレーム140の第2の部分164に対応する最小ピクセルブロックサイズのマップ160の第2のエリア164は、最小ピクセルブロックサイズのマップ160の参照位置1600から半径方向に延在する楕円パターンを形成することができる。参照位置1600と第1のエリア162との間の半径方向距離は、参照位置1600と第2のエリア164との間の半径方向距離より小さいとすることができる。最小ピクセルブロックサイズのマップ160の参照位置1600は最大ピクセルブロックサイズのマップ150の参照位置1500に対応することができる。
歪み画像フレーム140の空間分解能分布が歪み画像フレーム140にわたって連続して変動することができること、および、対応する最大ピクセルブロックサイズのマップ150が相応して変動することができることが理解される。そのため、図1A~図1Eに関する説明は、第1の部分142および第2の部分に関連するが、多数の部分に同様に十分に関連することができる。歪み画像フレーム140内のさらなる部分および/または歪み画像フレーム140にわたる連続して変動する空間分解能分布を考慮するため上記説明を適応させる方法を当業者は認識する。
図2Aはエンコーダー200を示す。エンコーダー200は、少なくとも1つの画像センサによって生成される歪み画像フレームをブロックベースビデオエンコーディングアルゴリズムを使用してエンコードするために構成される。エンコーダー200はハードウェアおよび/またはソフトウェア実装式であることができる。
エンコーダー200は、歪み画像フレームについて空間分解能分布を決定するように適合された空間分解能コンポーネント202を備える。空間分解能は、歪み画像フレーム140を取り込むときに使用される撮像光学部品のレンズ多項式に基づいて決定することができる。撮像光学部品は、広角レンズ、例えば、フィッシュアイレンズまたは光学ドームであることができる。
エンコーダー200は、歪み画像フレームに対応する最大ピクセルブロックサイズのマップを決定するように適合された最大ピクセルブロックサイズマップコンポーネント204をさらに備え、最大ピクセルブロックサイズのマップは、空間分解能分布に基づいて決定され、それにより、第1の空間分解能を有する歪み画像フレームの第1の部分について、第1の部分に対応する最大ピクセルブロックサイズは第1の値に設定され、第1の空間分解能より低い第2の空間分解能を有する歪み画像フレームの第2の部分について、第2の部分に対応する最大ピクセルブロックサイズは、第1の値より小さい第2の値に設定される。
エンコーダー200は、ブロックベースビデオエンコーディングアルゴリズムを使用して、歪み画像フレームをエンコードするように適合されたビデオエンコーディングコンポーネント206をさらに備え、最大ピクセルブロックサイズのマップは、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最大ブロックサイズを規定するために、ブロックベースビデオエンコーディングアルゴリズムによって使用される。最大ピクセルブロックサイズのマップは、ブロックベースビデオエンコーディングアルゴリズムのコーディングユニットの最大サイズを規定するために使用することができる。ブロックベースビデオエンコーディングアルゴリズムがh.265である場合、コーディングツリーユニット、CTU、サイズが、コーディングユニットの最大サイズを規定することができる。ブロックベースビデオエンコーディングアルゴリズムがAV1である場合、スーパーブロックのサイズが、コーディングユニットの最大サイズを規定することができる。
図2Aに例示するように、エンコーダー200は、歪み画像フレームに対応する最小ピクセルブロックサイズのマップを決定するように適合された最小ピクセルブロックサイズマップコンポーネント208をさらに備えることができ、最小ピクセルブロックサイズのマップは、異なる最小ピクセルブロックサイズを有するエリアを含み、最小ピクセルブロックサイズのマップは、空間分解能分布に基づいて決定され、それにより、第1の空間分解能を有する歪み画像フレームの第1の部分について、第1の部分に対応する最小ピクセルブロックサイズは第1の値より小さい第3の値に設定され、第2の空間分解能を有する歪み画像フレームの第2の部分について、第2の部分に対応する最小ピクセルブロックサイズは、第2の値および第3の値より小さい第4の値に設定され、最小ピクセルブロックサイズのマップは、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最小ブロックサイズを規定するためにブロックベースビデオエンコーディングアルゴリズムによって使用することができる。
ブロックベースビデオエンコーディングアルゴリズムがh.265である場合、コーディングユニットの最小サイズは、ブロックベースビデオエンコーディングアルゴリズムの予測ユニット、PU、および/または、変換ユニット、TUの最小サイズによって規定することができる。
エンコーダー200は、複数の1次画像からの画像フレームをスティッチングし、それにより、歪み画像フレームを生成するように適合されたスティッチングコンポーネント412を更に備えることができる。他の実施形態において、スティッチングコンポーネントはエンコーダー200と別個であり、歪み画像フレームは、エンコーダー200で受信される前に、共にスティッチングされる複数の取り込まれた画像を含む。
エンコーダー200を、図2Bに例示するように、カメラ210に含むことができる。カメラ210は、少なくとも1つの画像センサ212をさらに備える。少なくとも1つの画像センサ212およびエンコーダー200はデータバス214を介して通信することができる。カメラ210は、撮像光学部品216をさらに備えることができ、撮像光学部品216を通して、画像が、カメラ210の少なくとも1つの画像センサ212によって取り込まれる。撮像光学部品216は広角レンズであることができる。撮像光学部品はフィッシュアイレンズであることができる。広角レンズは光学ドームであることができる。
図2Cに例示するように、カメラ410は複数の画像センサ212を備えることができる。カメラ410は、複数の画像センサ212によって取り込まれる複数の1次画像からの画像フレームをスティッチングするように適合されたスティッチングコンポーネント412(エンコーダー200に含まれるため、図2Cに示さず)を備えることができる。複数の画像センサ212のそれぞれは、図2Cに例示するように、撮像光学部品216に連結することができる。撮像光学部品216は、図2Bに関して述べた撮像光学部品と同様であることができる。図2Cの撮像光学部品216は、1次画像内の歪みを低減するように適合された伝統的なカメラ対物レンズであることができる、すなわち、カメラ対物レンズは、実質的に直線的な画像を1次画像として生成するように適合されることができる。複数の画像センサ212およびエンコーダー200はデータバス214を介して通信することができる。
カメラ210、410は、エンコーダーの設定、最大ピクセルブロックサイズのマップ、最小ピクセルブロックサイズのマップ、歪み画像フレーム、および/またはエンコードされたビデオを記憶するように構成される非一時的コンピュータ可読記憶媒体220を備えることができる。少なくとも1つの画像センサ212、エンコーダー220、および非一時的コンピュータ可読記憶媒体220はデータバス214を介して通信することができる。
エンコーダー220を、カメラ210、410からの歪み画像フレームを受信するように構成される外部コンピュータおよび/またはサーバーに含むことができることが理解される。
図3は、少なくとも1つの画像センサによって生成される歪み画像フレーム140をブロックベースビデオエンコーディングアルゴリズムを使用してエンコードするための方法300のブロックスキームである。
方法300は、歪み画像フレーム140について空間分解能分布を決定する302ことを含む。
歪み画像フレーム140は、広角レンズを通して1つの画像センサ212によって取り込む312ことによって生成することができ、空間分解能分布は、広角レンズのレンズ多項式に基づいて決定することができる。
広角レンズはフィッシュアイレンズであることができる。
歪み画像フレーム140は、光学ドームを通して1つの画像センサ212によって取り込む312ことによって生成することができ、空間分解能分布は、光学ドームのレンズ多項式に基づいて決定することができる。
それぞれの歪み画像フレーム140は、1つまたは複数の画像センサ212によって取り込まれる複数の1次画像フレームの射影アルゴリズムに基づくスティッチングによって生成することができる。
空間分解能分布は射影アルゴリズムに基づいて決定することができる。
方法は、歪み画像フレーム140に対応する最大ピクセルブロックサイズのマップを決定する304ことをさらに含む。最大ピクセルブロックサイズのマップ150は、空間分解能分布に基づいて決定され、それにより、第1の空間分解能を有する歪み画像フレーム140の第1の部分142について、第1の部分142に対応する最大ピクセルブロックサイズは第1の値1502に設定され、第1の空間分解能より低い第2の空間分解能を有する歪み画像フレーム140の第2の部分144について、第2の部分144に対応する最大ピクセルブロックサイズは、第1の値1502より小さい第2の値1504に設定される。
最大ピクセルブロックサイズのマップ150は、異なる最大ピクセルブロックサイズを有するエリアを含むことができる。
第1の部分142は歪み画像フレーム140の中央部分であることができる。
第2の部分144は歪み画像フレーム140の外側部分であることができる。
方法300は、ブロックベースビデオエンコーディングアルゴリズムを使用して、歪み画像フレームをエンコードする306ことをさらに含み、最大ピクセルブロックサイズのマップ150は、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最大ブロックサイズを規定するために使用される。
ブロックベースビデオエンコーディングアルゴリズムはh.265またはAV1であることができ、最大ピクセルブロックサイズのマップ150は、ブロックベースビデオエンコーディングアルゴリズムのコーディングユニットの最大サイズを規定するために使用することができる。
方法300は、歪み画像フレーム140に対応する最小ピクセルブロックサイズのマップ160を決定する308ことをさらに含むことができ、最小ピクセルブロックサイズのマップ160は、異なる最小ピクセルブロックサイズを有するエリア162、164を含み、最小ピクセルブロックサイズのマップ160は、空間分解能分布に基づいて決定され、それにより、第1の空間分解能を有する歪み画像フレーム140の第1の部分142について、第1の部分142に対応する最小ピクセルブロックサイズは第1の値1502より小さい第3の値1602に設定され、第2の空間分解能を有する歪み画像フレーム140の第2の部分144について、第2の部分144に対応する最小ピクセルブロックサイズは、第2の値1504および第3の値1602より小さい第4の値1604に設定され;歪み画像フレーム140をエンコードする306ステップにおいて、最小ピクセルブロックサイズのマップ160は、ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最小ブロックサイズを規定するために使用される。
ブロックベースビデオエンコーディングアルゴリズムはh.265であることができ、最小ピクセルブロックサイズのマップ160は、ブロックベースビデオエンコーディングアルゴリズムの予測ユニット、PU、および/または、変換ユニット、TUの最小サイズを規定するために使用することができる。
歪み画像フレーム140の第1の部分142に対応する最大ピクセルブロックサイズのマップ150の第1のエリア152および歪み画像フレーム140の第2の部分144に対応する最大ピクセルブロックサイズのマップ150の第2のエリア154は、最大ピクセルブロックサイズのマップ150の参照位置1500から半径方向に延在する楕円パターンを形成することができ、参照位置1500と第1のエリア152との間の半径方向距離は、参照位置1500と第2のエリア154との間の半径方向距離より小さいとすることができる。
方法300は、上記で述べられ、図3において逐次的方法で示された、しかしながら、方法300のステップは、ここで述べる以外の順序で実施することができる。例えば、最小ピクセルブロックサイズのマップ160は、最大ピクセルブロックサイズのマップ150に先立ってまたはそれと同時に決定することができる。
本発明の概念が、上記で述べる好ましい変形に決して限定されないことを当業者は認識する。逆に、多くの修正および変形が、添付特許請求項の範囲内で可能である。
例えば、図1Cに関して論じる歪み画像フレーム140は、代替的に、1つまたは複数の画像センサによって取り込まれる複数の1次画像フレームの射影アルゴリズムに基づくスティッチングによって生成することができる。空間分解能分布は、スティッチングされた画像について、射影アルゴリズムに基づくことができる。
さらなる例として、図1Dおよび図1Eにおいて、第3の値1602は、第2の値1504より小さいとして示される、しかしながら、第2の値1504が第3の値1602より小さいとすることができることが理解される。
さらに、開示した変形に対する変形が、図面、開示、および添付特許請求項の検討から、特許請求される発明を実施するときに当業者によって理解され実施され得る。

Claims (14)

  1. シーンを描写する、少なくとも1つの画像センサ(212)によって生成される歪み画像フレーム(140)をブロックベースビデオエンコーディングアルゴリズムを使用してエンコードするための方法(300)において、前記歪み画像フレーム(140)内の各ピクセルは前記シーン内の視野FOVに対応する、方法(300)であって、
    前記歪み画像フレーム(140)に対応する最大ピクセルブロックサイズのマップ(150)を決定する(304)ことを含み、最大ピクセルブロックサイズの前記マップ(150)は、前記歪み画像フレーム(140)内のピクセルごとの対応する前記FOVの範囲の分布に対応する空間分解能分布に基づいて決定され、それにより、第1の空間分解能を有する前記歪み画像フレーム(140)の第1の部分(142)について、前記第1の部分(142)に対応する前記最大ピクセルブロックサイズは第1の値(1502)に設定され、前記第1の空間分解能より低い第2の空間分解能を有する前記歪み画像フレーム(140)の第2の部分(144)について、前記第2の部分(144)に対応する前記最大ピクセルブロックサイズは、前記第1の値(1502)より小さい第2の値(1504)に設定され;
    前記ブロックベースビデオエンコーディングアルゴリズムを使用して前記歪み画像フレーム(140)をエンコードする(306)ことを含み、最大ピクセルブロックサイズの前記マップ(150)は、前記ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最大ブロックサイズを規定するために使用される、方法(300)。
  2. 前記ブロックベースビデオエンコーディングアルゴリズムはh.265またはAV1であり、最大ピクセルブロックサイズの前記マップ(150)は、前記ブロックベースビデオエンコーディングアルゴリズムのコーディングユニットの最大サイズを規定するために使用される、請求項1に記載の方法(300)。
  3. 前記歪み画像フレーム(140)に対応する最小ピクセルブロックサイズのマップ(160)を決定する(308)ことをさらに含み、最小ピクセルブロックサイズの前記マップ(160)は、異なる最小ピクセルブロックサイズを有するエリア(162,164)を備え、最小ピクセルブロックサイズの前記マップ(160)は、前記空間分解能分布に基づいて決定され、それにより、前記第1の空間分解能を有する前記歪み画像フレーム(140)の前記第1の部分(142)について、前記第1の部分(142)に対応する前記最小ピクセルブロックサイズは前記第1の値(1502)より小さい第3の値(1602)に設定され、前記第2の空間分解能を有する前記歪み画像フレーム(140)の前記第2の部分(144)について、前記第2の部分(144)に対応する前記最小ピクセルブロックサイズは、前記第2の値(1504)および前記第3の値(1602)より小さい第4の値(1604)に設定され;
    前記歪み画像フレーム(140)をエンコードする(306)ステップにおいて、最小ピクセルブロックサイズの前記マップ(160)は、前記ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最小ブロックサイズを規定するために使用される、請求項1または2に記載の方法(300)。
  4. 前記ブロックベースビデオエンコーディングアルゴリズムはh.265であり、最小ピクセルブロックサイズの前記マップ(160)は、前記ブロックベースビデオエンコーディングアルゴリズムの予測ユニットPU、および/または、変換ユニットTUの最小サイズを規定するために使用される、請求項3に記載の方法(300)。
  5. 前記歪み画像フレーム(140)は、広角レンズを通して1つの画像センサ(212)によって取り込む(312)ことによって生成される、請求項1~4のいずれか一項に記載の方法(300)。
  6. 広角レンズはフィッシュアイレンズである、請求項5に記載の方法(300)。
  7. 前記歪み画像フレーム(140)は、光学ドームを通して1つの画像センサ(212)によって取り込む(312)ことによって生成される、請求項1~4のいずれか一項に記載の方法(300)。
  8. それぞれの歪み画像フレーム(140)は、1つまたは複数のセンサ(212)によって取り込まれる複数の1次画像フレームの射影アルゴリズムに基づくスティッチング(316)によって生成される、請求項1~4のいずれか一項に記載の方法(300)。
  9. 前記歪み画像フレーム(140)の前記第1の部分(142)に対応する最大ピクセルブロックサイズの前記マップ(150)の第1のエリア(152)および前記歪み画像フレーム(140)の前記第2の部分(144)に対応する最大ピクセルブロックサイズの前記マップ(150)の第2のエリア(154)は、最大ピクセルブロックサイズの前記マップ(150)の参照位置(1500)から半径方向に延在する楕円パターンを形成し;
    前記参照位置(1500)と前記第1のエリア(152)との間の半径方向距離は、前記参照位置(1500)と前記第2のエリア(154)との間の半径方向距離より小さい、請求項5~8のいずれか一項に記載の方法(300)。
  10. バイス上の回路によって実行されると、前記回路に請求項1~9のいずれか一項による方法(300)を実行させる命令を有する、非一時的コンピュータ可読媒体
  11. シーンを描写する、少なくとも1つの画像センサ(212)によって生成される歪み画像フレーム(140)をブロックベースビデオエンコーディングアルゴリズムを使用してエンコードするためのエンコーダー(200)において、前記歪み画像フレーム内の各ピクセルは前記シーン内の視野FOVに対応する、エンコーダー(200)であって、前記エンコーダーが、
    前記歪み画像フレーム(140)に対応する最大ピクセルブロックサイズのマップ(150)を決定するように構成れ、ここで、最大ピクセルブロックサイズの前記マップ(150)は、前記歪み画像フレーム(140)内のピクセルごとの対応する前記FOVの範囲の分布に対応する空間分解能分布に基づいて決定され、それにより、第1の空間分解能を有する前記歪み画像フレーム(140)の第1の部分(142)について、前記第1の部分(142)に対応する前記最大ピクセルブロックサイズは第1の値(1502)に設定され、前記第1の空間分解能より低い第2の空間分解能を有する前記歪み画像フレーム(140)の第2の部分(144)について、前記第2の部分(144)に対応する前記最大ピクセルブロックサイズは、第1の値(1502)より小さい第2の値(1504)に設定され;
    前記ブロックベースビデオエンコーディングアルゴリズムを使用して、前記歪み画像フレーム(140)をエンコードするように構成れ、ここで、最大ピクセルブロックサイズの前記マップ(150)は、前記ブロックベースビデオエンコーディングアルゴリズムのエンコーディングブロックのための最大ブロックサイズを規定するために、前記ブロックベースビデオエンコーディングアルゴリズムによって使用される、エンコーダー(200)。
  12. 請求項11によるエンコーダー(200)を備えるカメラ(210,410)。
  13. 広角レンズをさらに備え、前記広角レンズを通して、画像は、カメラ(210,410)の1つの画像センサ(212)によって取り込まれる、請求項12に記載のカメラ(210,410)。
  14. 複数の画像センサ(212)をさらに備え、前記エンコーダー(200)は、前記複数の画像センサ(212)によって取り込まれる複数の1次画像からの画像フレームをスティッチングするように更に構成れる、請求項12または13に記載のカメラ(210,410)。
JP2020081613A 2019-05-14 2020-05-02 歪み画像フレームをエンコードするための方法、デバイス、およびコンピュータプログラム製品 Active JP7125446B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP19174349.1 2019-05-14
EP19174349.1A EP3739880A1 (en) 2019-05-14 2019-05-14 Method, device and computer program product for encoding a distorted image frame

Publications (3)

Publication Number Publication Date
JP2020205582A JP2020205582A (ja) 2020-12-24
JP2020205582A5 JP2020205582A5 (ja) 2022-03-28
JP7125446B2 true JP7125446B2 (ja) 2022-08-24

Family

ID=66542112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020081613A Active JP7125446B2 (ja) 2019-05-14 2020-05-02 歪み画像フレームをエンコードするための方法、デバイス、およびコンピュータプログラム製品

Country Status (6)

Country Link
US (1) US11146817B2 (ja)
EP (1) EP3739880A1 (ja)
JP (1) JP7125446B2 (ja)
KR (1) KR102396570B1 (ja)
CN (1) CN111953982B (ja)
TW (1) TWI801724B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230300338A1 (en) * 2022-03-16 2023-09-21 Apple Inc. Resolution-based video encoding

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005101719A (ja) 2003-09-22 2005-04-14 Kddi Corp 適応形状画像符号化装置および復号装置
JP2015115901A (ja) 2013-12-13 2015-06-22 キヤノン株式会社 符号化装置、符号化装置の制御方法、及び、コンピュータプログラム
WO2017200721A1 (en) 2016-05-20 2017-11-23 Qualcomm Incorporated Circular fisheye video in virtual reality
EP3301920A1 (en) 2016-09-30 2018-04-04 Thomson Licensing Method and apparatus for coding/decoding omnidirectional video

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140254659A1 (en) 2013-03-11 2014-09-11 Mediatek Inc. Video coding method using at least evaluated visual quality and related video coding apparatus
JP2015050661A (ja) * 2013-09-02 2015-03-16 キヤノン株式会社 符号化装置、符号化装置の制御方法、及び、コンピュータプログラム
GB2525851B (en) * 2014-04-30 2017-03-29 Canon Kk Method and device for encoding a sub-aperture image of a set of sub-aperture images obtained from a plenoptic image
EP3021583B1 (en) * 2014-11-14 2019-10-23 Axis AB Method of identifying relevant areas in digital images, method of encoding digital images, and encoder system
WO2016168415A1 (en) * 2015-04-15 2016-10-20 Lytro, Inc. Light guided image plane tiled arrays with dense fiber optic bundles for light-field and high resolution image acquisition
US10225546B2 (en) * 2016-02-26 2019-03-05 Qualcomm Incorporated Independent multi-resolution coding
US9721393B1 (en) * 2016-04-29 2017-08-01 Immersive Enterprises, LLC Method for processing and delivering virtual reality content to a user
US11019257B2 (en) * 2016-05-19 2021-05-25 Avago Technologies International Sales Pte. Limited 360 degree video capture and playback
CN109417632B (zh) * 2016-07-08 2023-08-04 Vid拓展公司 使用几何图形投影的360度视频编码
US20190238888A1 (en) * 2017-07-17 2019-08-01 Ki Baek Kim Image data encoding/decoding method and apparatus
US10917564B2 (en) * 2016-10-12 2021-02-09 Qualcomm Incorporated Systems and methods of generating and processing files for partial decoding and most interested regions
US10620441B2 (en) * 2016-12-14 2020-04-14 Qualcomm Incorporated Viewport-aware quality metric for 360-degree video
JP6922215B2 (ja) 2016-12-27 2021-08-18 富士通株式会社 動画像符号化装置
US20190364261A1 (en) * 2017-01-10 2019-11-28 Lg Electronics Inc. Method for transmitting 360-degree video, method for receiving 360-degree video, apparatus for transmitting 360-degree video and apparatus for receiving 360-degree video
US11172208B2 (en) * 2017-02-28 2021-11-09 Nokia Technologies Oy Method and apparatus for improving the visual quality of viewport-based omnidirectional video streaming
KR102596401B1 (ko) * 2017-03-13 2023-10-31 한국전자통신연구원 비디오 부/복호화를 위한 비정형 블록 기반 움직임 예측 및 보상 방법 및 그 장치
US10904531B2 (en) 2017-03-23 2021-01-26 Qualcomm Incorporated Adaptive parameters for coding of 360-degree video
EP3622483A1 (en) * 2017-05-09 2020-03-18 Koninklijke KPN N.V. Coding spherical video data
CN107396081B (zh) 2017-06-19 2019-04-12 深圳市铂岩科技有限公司 针对全景视频的优化编码方法及装置
US20200267385A1 (en) * 2017-07-06 2020-08-20 Kaonmedia Co., Ltd. Method for processing synchronised image, and apparatus therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005101719A (ja) 2003-09-22 2005-04-14 Kddi Corp 適応形状画像符号化装置および復号装置
JP2015115901A (ja) 2013-12-13 2015-06-22 キヤノン株式会社 符号化装置、符号化装置の制御方法、及び、コンピュータプログラム
WO2017200721A1 (en) 2016-05-20 2017-11-23 Qualcomm Incorporated Circular fisheye video in virtual reality
EP3301920A1 (en) 2016-09-30 2018-04-04 Thomson Licensing Method and apparatus for coding/decoding omnidirectional video

Also Published As

Publication number Publication date
US20200366934A1 (en) 2020-11-19
KR102396570B1 (ko) 2022-05-10
JP2020205582A (ja) 2020-12-24
KR20200131729A (ko) 2020-11-24
US11146817B2 (en) 2021-10-12
CN111953982B (zh) 2023-06-16
TWI801724B (zh) 2023-05-11
CN111953982A (zh) 2020-11-17
EP3739880A1 (en) 2020-11-18
TW202101966A (zh) 2021-01-01

Similar Documents

Publication Publication Date Title
EP3465607B1 (en) Fisheye rendering with lens distortion correction for 360-degree video
US20170118475A1 (en) Method and Apparatus of Video Compression for Non-stitched Panoramic Contents
US8983175B2 (en) Video processing method and device for depth extraction
US9185271B2 (en) Imaging device detecting motion vector
EP2902906A1 (en) Local image enhancing method and apparatus
US9854167B2 (en) Signal processing device and moving image capturing device
JP7105062B2 (ja) 画像処理装置、コンテンツ処理装置、コンテンツ処理システム、および画像処理方法
JP5450643B2 (ja) 画像符号化装置、画像符号化方法、プログラムおよび集積回路
CA2986613C (en) Apparatus and method for video motion compensation
US20190116382A1 (en) Method and encoder for encoding a video stream in a video coding format supporting auxiliary frames
KR101818900B1 (ko) 향상된 동적 범위를 갖는 신호들에 대한 계층간 예측
JP7125446B2 (ja) 歪み画像フレームをエンコードするための方法、デバイス、およびコンピュータプログラム製品
US20210092398A1 (en) Blurring privacy masks
JP2015050661A (ja) 符号化装置、符号化装置の制御方法、及び、コンピュータプログラム
CN112997499B (zh) 用于提供视频数据比特流的编/解码方法和编/解码装置
JP2011023885A (ja) 映像符号化装置及び映像符号化方法
EP3646286A1 (en) Apparatus and method for decoding and coding panoramic video
JP2016111699A (ja) リアルタイム符号化のための方法及び装置
CN107079168B (zh) 对残差积分图像的生成和编码
TW202218406A (zh) 包含隱私遮罩之影像編碼的方法
US11252451B2 (en) Methods and apparatuses relating to the handling of a plurality of content streams
JP2020205582A5 (ja)
WO2012046369A1 (ja) 撮像装置、視差調整方法、半導体集積回路及びデジタルカメラ
JP2020205581A (ja) ビデオ処理のためのシステムおよび方法
JP2015115901A (ja) 符号化装置、符号化装置の制御方法、及び、コンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220317

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220812

R150 Certificate of patent or registration of utility model

Ref document number: 7125446

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150