JP7143012B2 - ビデオエンコーダおよび符号化方法 - Google Patents

ビデオエンコーダおよび符号化方法 Download PDF

Info

Publication number
JP7143012B2
JP7143012B2 JP2021523940A JP2021523940A JP7143012B2 JP 7143012 B2 JP7143012 B2 JP 7143012B2 JP 2021523940 A JP2021523940 A JP 2021523940A JP 2021523940 A JP2021523940 A JP 2021523940A JP 7143012 B2 JP7143012 B2 JP 7143012B2
Authority
JP
Japan
Prior art keywords
exposure
long
image
short
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021523940A
Other languages
English (en)
Other versions
JP2022508057A (ja
Inventor
グレゴリー ジョン ワード
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2022508057A publication Critical patent/JP2022508057A/ja
Application granted granted Critical
Publication of JP7143012B2 publication Critical patent/JP7143012B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

関連出願の相互参照
本出願は、2018年11月19日に出願された米国特許出願第62/769,223号および2018年11月19日に出願された欧州特許出願第18207029.2号の優先権を主張するものであり、そのすべての内容が参照により本明細書に組み込まれている。
フィルムおよびビデオに表示されるオブジェクトの見かけのモーションは、一連の静止画像またはフレームが、人間の視聴者がそれらを別個の画像として区別することができるよりも速いフレームレートで表示される光学的錯覚から生じる。このフレームレートは、フリッカー融合しきい値として知られている。より高いフレームレートは一般に、より滑らかな知覚されるモーションをもたらす。しかしながら、高いフレームレート表示のために撮像された画像は短露光時間で撮像され、その結果、センサ媒体に入射する光が減少するためにそのような画像の解像度が低下し、同時にデータ輸送のコストが増大する。露光時間が長くなると、個々の画像内でより大きな詳細を撮像することができるが、これはぼやけたモーションを犠牲にして生じる。したがって、単一の露光速度では、シーンの詳細を撮像することと、シーン内のモーションを正確に撮像することとの間にトレードオフがある。
第1の態様では、画像センサによって撮像されたビデオストリームを符号化するための方法が開示される。画像センサは複数の画素を含み、各画素は、(i)長露光時間と交互になる短露光時間を含む同じ露光時間シーケンスと、(ii)短露光時間の整数倍に等しいそれぞれの時間的オフセットと、によりそれぞれ特徴づけられるN個のサブフレームの1つに属する。この方法は、N個のサブフレームの各々について、長露光時間で撮像された長露光低解像度画像と、短露光時間で撮像された短露光低解像度画像とを線形結合して、サブフレーム残差画像を生成する。この方法は、N個のサブフレームからの長露光低解像度画像の少なくともいくつかを結合して、任意の長露光低解像度画像よりも高い解像度を有するフルフレーム長露光画像を生成することも含む。この方法はまた、(i)フルフレーム長露光画像をビデオストリームのベースレイヤに符号化することと、(ii)N個のサブフレームからのサブフレーム残差画像の少なくともいくつかをビデオストリームのエンハンスメントレイヤに符号化することと、を含む。
第2の態様では、画像センサによって撮像されたビデオストリームを符号化するためのビデオエンコーダが開示される。画像センサは、第1の態様の複数の画素を含む。ビデオエンコーダは、メモリと、メモリに通信可能に結合されたマイクロプロセッサとを含む。メモリは、非一時的なコンピュータ可読命令を格納し、画像センサによって撮像された画像データを格納するように適合される。マイクロプロセッサは、第1の態様の方法を実行するための命令を実行するように適合される。
一実施形態における、カメラの画像センサによって撮像されたビデオデータを受信するビデオエンコーダを示す図である。 一実施形態における、図1の画像センサの詳細な概略図である。 一実施形態における、図2の画像センサの画素サブアレイ、および対応する時間的オフセット係数の概略図である。 一実施形態における、図3の画素サブアレイのそれぞれのサブフレーム1-Nに対応するN撮像タイミングの概略図である。 一実施形態における、図4のそれぞれの短露光の時間隔の間にそれぞれの複数の画素によって生成されるサブフレームおよび関連する短露光画素値の概略図である。 一実施形態における、図4のそれぞれの長露光の時間隔の間にそれぞれの複数の画素によって生成されるサブフレームおよび関連する長露光画素値の概略図である。 一実施形態における、図1の画像センサから受信した非符号化ビデオデータから多層ビデオストリームを生成するように構成された第1のビデオエンコーダの概略ブロック図である。 一実施形態における、図7のビデオエンコーダを用いてビデオストリームを符号化するための第1の方法を示すフローチャートである。 一実施形態における、図1の画像センサから受信した非符号化ビデオデータから多層ビデオストリームを生成するように構成された第2のビデオエンコーダの概略ブロック図である。 一実施形態における、図9のビデオエンコーダを用いてビデオストリームを符号化するための第2の方法を示すフローチャートである。
図1は、ビデオ撮像からビデオコンテンツ表示までの様々な段階を示すビデオ配信パイプライン180を示す。ビデオ配信パイプライン180は、画像生成ブロック182、プロダクションブロック183、ポストプロダクションブロック184、ビデオエンコーダ100、およびデコーダ186のうちの少なくとも1つを含む。図1はまた、ビデオ配信パイプライン180に通信可能に結合されたデジタルカメラ110を含む。デジタルカメラ110は、画像生成ブロック182によって受信されたビデオフレーム104を生成する画像センサ112を含み、画像生成ブロック182はビデオデータ192を出力する。プロダクションブロック183において、ビデオデータ192は、ビデオプロダクションストリーム193を提供するために編集される。
ビデオプロダクションストリーム193のビデオデータは、その後、ポストプロダクション編集のためにポストプロダクションブロック184においてプロセッサに提供される。ポストプロダクションブロック184でのポストプロダクションに続いて、非符号化ビデオデータ194のビデオデータをビデオエンコーダ100に送り、テレビ、パーソナルコンピュータ、モバイル装置、セットトップボックス、映画館等のような復号および再生装置にダウンストリームで配信することができる。ビデオ配信パイプライン180は、ブロック182、183、および184のうちの少なくとも1つを欠いていてもよく、その場合、符号化されていないビデオデータ194は、ビデオプロダクションストリーム193、ビデオデータ192、およびビデオフレーム104のうちの1つに等しくてもよい。モバイルアプリケーションなどの特定の実施形態では、プロダクションブロック183および/またはポストプロダクションブロック184は、電話またはタブレットなどのモバイルデバイスの一部とすることができるデジタルカメラ110の能力に基づいて除去または簡略化することができる。
いくつかの実施形態では、エンコーダ100は、符号化ビットストリーム195を生成するために、ATSC、DVB、DVD、Blu-Ray(登録商標)、および他の配信フォーマットによって定義されるものなどのオーディオエンコーダおよびビデオエンコーダを含むことができる。符号化ビットストリーム195は、デコーダ186によって復号されて、符号化されていないビデオデータ194と同一または近似を表す復号信号196を生成する。ターゲットディスプレイ189は、復号信号196を表示することができる。ターゲットディスプレイ189は、基準モニタ、コンピュータモニタまたはディスプレイ、テレビジョンセット、ヘッドマウントディスプレイ、仮想網膜ディスプレイ(VRD)などとすることができる。ターゲットディスプレイ189は、電話またはタブレットなどのモバイルデバイスの一部であってもよい。
デジタルカメラ110は、高いフレームレートでビデオフレーム104を撮像することができる。高フレームビデオは、帯域幅およびノイズの問題によって妨げられることがある。一般的に、撮像される画像の数が多いと、パイプラインを下って送られる1秒当たりのビット数が増え、したがって帯域幅に影響を及ぼし、高いフレームレートは、より短い露光時間に変換され、ピクチャに関連するノイズが増加する。しかしながら、高いフレームレートのビデオは、ジャダーおよび過度のぼけのようなモーションアーチファクトの低減を可能にする。
ジャダーは、(例えば、フレーム時間の1/12の間開いている30°のシャッタを使用して)ある時間Δtだけ分離された短い露光によって、非トラッキングモーションが表されるときに発生する。移動物体は1つの場所をフラッシュし、次いで、再び異なる場所をフラッシュし、高コントラストのエッジまたはシルエットは、それらのモーションが滑らかであるべき場所をフラッシュするように見える。
「円滑性追跡運動(smooth pursuit)」は視聴者にとって関心があり、および追跡されるモーションを表現し、視聴者の視覚追跡の推定値であり、円滑性追跡運動ベクトルによって定量化することができる。円滑性追跡運動ベクトルを決定するために、目の運動ベクトルはローカル画像のモーションベクトルから減算され、重要な目および物体のモーションベクトルが相殺される領域は円滑性追跡運動に対応する。部分的に相殺するベクトルを使用して、ローカルシャッタ時間を比例的に変更することができる。
ジャダーアーチファクトは、より開いたシャッタを使用することによって回避され得る。しかしながら、360°のシャッタは、フレーム持続時間中にモーションが撮像されることを可能にし、結果としてモーションを不鮮明にし、過度のぼけを引き起こす。現在のビデオコンテンツは、これらのシャッタの両極端の間の妥協であり、従って、最適ではない。
高いフレームレートのビデオは、標準ビデオよりも1秒当たりより多くのフレームを提示することによって、これらの問題のいくつかを克服する。しかしながら、それは、送信され、表示される付加的な情報のために、コストがかかる。多くのLCDディスプレイは120フレーム/秒(fps)を超えて効率的にリフレッシュすることができず、より高いリフレッシュレートではエネルギー効率および光子効率が低下する。標準ビデオのデータ帯域幅の4~5倍に変換される120fpsにおいてさえ、ジャダーおよび過剰なモーションぼけは、いくつかのコンテンツにおいて明らかである。ジャダーおよびぼけを排除することは、今日の映画の帯域幅の約17倍である400fpsを超えるフレームレートを必要とし得る。本開示は、帯域幅およびディスプレイ技術における関連するコストなしに、より高いフレームレートを提供することができる。
図2は、画像センサ112の詳細な概略図である。画像センサ112は、複数の画素212から形成された画素アレイ210を含む。各画素212は、画素アレイ210のN個のサブフレームの1つに属する。ここで、整数Nは「サブフレームカウント」と呼ばれ、平方数(square number)のような正の整数であってもよい。各サブフレームは、(i)長露光時間τ>τと交互になる短露光時間τを含む同じ露光時間シーケンスと、(ii)短露光時間τの整数倍に等しい、それぞれの時間的オフセットΔtと、によって特徴付けられる。言い換えると、すべてのサブフレームに対して同じ露光時間シーケンスが使用され、各サブフレームはそれぞれの時間的オフセットΔtに関連付けられる。サブフレームカウントNは、(N-1)が商τ/τに最も近い整数であるように、決定され得る。代替的に、サブフレームNの数は、τ/τ=Nとなるように、露光時間τおよびτの一方または両方を少なくとも部分的に決定する。
画像センサ112はカラーフィルタアレイ240を含んでもよく、カラーフィルタアレイは、各々が画素アレイ210のそれぞれの画素212に整列された複数のカラーフィルタを含む。カラーフィルタアレイ240はベイヤ-(Bayer)アレイであってもよく、各フィルタは赤色光、緑色光、および青色光のうちの1つに対応する電磁放射のスペクトル帯域を透過する。以下、スペクトル帯域を透過するカラーフィルタの下に位置合わせされた画素は、スペクトル帯域に対応する色によってプレフィックスすることができる。例えば、赤色画素212、緑色画素212、および青色画素212は、それぞれ、下にあり、赤色カラーフィルタ、緑色カラーフィルタ、および青色カラーフィルタによって透過された光を検出する。赤色画素212、緑色画素212、および青色画素212によって生成される画素値は、それぞれ、赤色画素値、緑色画素値、および青色画素値として本明細書で参照され得る。画素値は、例えば、0から2-1の範囲の整数であり、ここで、Mは画素のビット深度である。
サブフレームカウントNは、カラーフィルタアレイ240の異なるカラーフィルタタイプの数の整数倍でもよい。例えば、カラーフィルタアレイが赤色、緑色および青色、またはシアン、マゼンタおよびイエローの3つのカラーフィルタタイプを含む場合、サブフレームカウントNは、3の整数倍であってもよい。一実施形態では、サブフレームカウントN=9である。長および短露光時間で撮像されたバイナリ画素値のスケーリングの速度および精度のために、商τ/τは2のべき乗に等しいことがある。一実施形態では、(i)Nはカラーフィルタアレイ240内のカラーフィルタタイプの数の整数倍である、(ii)(N―1)は商τ/τに最も近い整数である、(ii)商τ/τは2のべき乗に等しい、という条件のうちの少なくとも1つが成り立つ。例えば、Nは9に等しくてもよいが、一方、τ/τは8に等しくてもよい。
多段タイマ214は、画素アレイ210に結合され、サブフレームのそれぞれに対して、前記サブフレームの画素の異なる撮像持続時間の少なくとも2つの露光のシーケンスをトリガするように構成される。異なるサブフレームに対応するシーケンスは、所定の順序でトリガされ、後続のシーケンスの開始時間は時間的オフセットΔtによって時間的にオフセットされる。シーケンスは同じ全体持続時間を有し、各時間的オフセットΔtは、前記全体持続時間よりも小さい。
少なくとも1つのアナログ-デジタル変換器(ADC)216は、画素アレイ210に結合され、各サブフレームの少なくとも2つの露光をデジタル画素値に変換する。メモリ218は、少なくとも1つのADC216に結合され、デジタル画素値を記憶する。論理回路220は、メモリ218に結合され、各画素212について、対応する記憶されたデジタル画素値のうちのどれをビデオフレームにアップロードするかを決定する。論理回路220は、異なる露光持続時間に基づいて、例えばτおよびτの比に基づいて、記憶されたデジタル画素値をスケーリング、例えば、乗算することができる。例えば、画素212が短露光持続時間τおよび長露光持続時間τ=k・τを含むシーケンスに従って露光されるとき、短露光の記憶されたデジタル画素値はkによる乗算によってスケーリングされるか、または長露光の記憶されたデジタル画素値はk―1による乗算によってスケーリングされる。
図3は、画素サブアレイ310の概略図である。図3~6の例において、サブフレームカウントN=9であるが、Nは、本発明の範囲から逸脱することなく、異なる値をとることができる。画像センサ112の画素アレイ210は、複数のサブアレイ310に分割される。画素サブアレイ310は、S行およびT列に配列された画素212を含む。図示の例では、S=T=3である。しかしながら、本発明の範囲から逸脱することなく、SおよびTのいずれか一方が異なる値をとってもよい。画素アレイ210は、複数の画素サブアレイ310の、周期的タイリング、例えばテッセレーションを含むことができる。画素サブアレイ310の各画素212は、それぞれの時間的オフセット係数cijに関連付けられ、したがって、図3の画素212(i,j)として示される。インデックスiおよびjは、それぞれ、1からSおよび1からTまでの範囲にある整数である。同じ時間的オフセット係数cijに関連付けられた各画素212は、画素アレイ210の同じサブフレームに属する。
多段タイマ214は、各時間的オフセット係数cijの値を決定してもよい。時間的オフセット係数cijはたとえば、0からNまでの範囲の整数である。したがって、各時間的オフセット係数cijは画素アレイ210のN個のサブフレームの1つを示し、したがって、本明細書では、「サブフレームインデックス」とも呼ばれる。
時間的オフセット係数cijは、次元S×Tを持つ時間的オフセットマトリックスCを構成する。時間的オフセットマトリックスCは、どの画素212がN=S×Tサブフレームのうちのどれに属するかを定義する。画素アレイ210の各画素サブアレイ310の画素は、時間的オフセットマトリックスCに従ってサブフレームに割り当てられる。各サブフレームの画素212は、センサ領域にわたって実質的に均一に分布されてもよい。一実施形態では、ビデオフレーム104はFフレーム/秒(fps)のフレームレートで撮像および/または送信され、画素の最短の露光持続時間(例えば、τ)は総フレーム時間のN-1である。N=9およびF=30fpsの場合、短露光時間は1/270秒である。
最短の露光持続時間は、シーケンス間の時間的オフセットと同じであってもよい。図3に示す例示的な実施形態では、0秒(cij=0の場合)から8/270秒(cij=8の場合)まで、画像内にN=S×T=9の時間的オフセットを表すことができる。オフセットは画素母集団のほぼまたは正確に1/Nによって表されてもよく、隣接する画素は(NF)-1の整数倍だけ異なるオフセットを有してもよい。本開示は、任意のフレームレート、例えば、Movie Picture Experts Group(MPEG)によって指定されるフレームレートに適用される。
時間的オフセットマトリックスCにおけるオフセット配置は任意であるが、その結果は画素サブアレイ310内の隣接するタイルの隣接するサブフレームインデックス値が例えば少なくとも2Δtで良好な時間的分離を有するという意味で、オフセットが良好に混合されるならば、より少ないエイリアシングを示し得る。例えば、時間的オフセットマトリックスCは、任意の2つの水平に隣接する画素、および、画素アレイ210の任意の2つの垂直に隣接する画素が、シーケンスがこれらの画素をトリガする所定の順序において、直ちに互いに追従しないように構築される。
この評価に基づいて、単純な走査線順序付けは望ましくない。さらに、時間的オフセットマトリックスCは、「スクリーンドア効果」を低減するために、フレームごとに回転、シフト、またはスクランブルされてもよい。時間的オフセットマトリックスCはビデオフレーム104を有するメタデータとして送信されるか、または指定された開始点を有する既知のシーケンスから導出可能である限り、オフセットは容易に回復される。フレーム毎に時間的オフセットマトリックスCをスクランブルすることにより、ディザパターンを視界から隠すことができる。
図4は、画素アレイ210のそれぞれのサブフレーム310に対応する撮像タイミング404の概略図である。図4に示される例示的な撮像タイミング404(0、1、2、3、8)は、図3に示される例示的な画素サブアレイ310の0、1、2、3、および8にそれぞれ等しいサブフレームインデックスcijに対応する。多段タイマ214はN撮像タイミング404のうちの1つ(例えば、図3および図4に示す例では9の撮像タイミング404)を有するように個々の画素212を制御することができるが、図4は図示を明確にするために撮像タイミング404(4~7)を図示していない。
図4の例では、N=9であり、各シーケンスは短露光時間τおよび長露光時間τを含む。シーケンスは同一であるが、時間的オフセットΔt=(NF)-1によって時間的にオフセットされ、ここでF-1はフレーム持続時間である。F-1=1/30秒およびN=9のとき、Δt=1/270秒である。図示の例では、短露光時間τは時間的オフセットに等しく、長露光時間τは(N-1)/(NF)に等しい。
図4はまた、時間隔401(0)の開始と時間隔402(8)の終了との間の時間に対応する時間隔420を示す。時間隔420には、継続時間(2N-1)/(NF)がある。図2は、時間隔420中の複数の短露光の時間隔401および複数の長露光の時間隔402を示す。時間隔401は、時間軸490上に示される時間tに始まり、時間軸490は時間tの後に起こるイベントの時間的順序付けを示す。時間隔401および402は、それぞれの持続時間τおよびτを有し、時間隔401および402の時間的順序付けを示すサブフレームインデックスcijによってインデックス付けされる。例えば、時間隔401(1)は、時間隔401(0)の開始後に始まる。
N個のサブフレームの1つに属する画素212は、それぞれの短露光の時間隔401の間に短露光画素値を生成し、それぞれの長露光の時間隔402の間に長露光画素値を生成する。
図5は、画素アレイ210のそれぞれのサブフレームにそれぞれ対応するサブフレーム504の概略図である。画像センサ112によって生成されたビデオデータ194は、サブフレーム504を含むことができる。
サブフレーム504(0、1、2、3、8)はそれぞれ、0、1、2、3、8に等しいサブフレームインデックスcijに対応し、図4に示される関連するそれぞれの撮像タイミング404(0、1、2、3、8)を有する。画像センサ112はすべてのN個のサブフレームを生成するように構成され得るが、図5は説明を明確にするためにサブフレーム504(4~7)を図示していない。
各サブフレーム504は、それぞれの短露光の時間隔401の間にそれぞれの複数の画素212によって生成される複数の短露光画素値501を含む。例えば、サブフレーム504(0)は、時間隔401(0)の間、光を感知する画素に対応する短露光画素値501(0)を含む。同様に、サブフレーム504(1)は、時間隔401(1)の間に生成される短露光画素値501(1)を含む。画素値501(cij)の位置は、図3の画素サブアレイ310上に重ね合わされた、時間的オフセットマトリックスCを含む、cijの値に対応する。
図示を簡単にするために、各サブフレーム504は、画素サブアレイ310の2×2のタイリング内に描かれている。各サブフレーム505は、例えば、画素アレイ210の同じ画素寸法を有するタイリングなど、画素サブアレイ310のより大きなタイリングにまたがる画素値を含んでもよい。
図6は、それぞれの長露光の時間隔402の間にそれぞれの複数の画素212によって生成されるサブフレーム504および関連する複数の長露光画素値602の概略図である。例えば、サブフレーム504(0)は、時間隔402(0)の間、光を感知する画素に対応する長露光画素値602(0)を含む。同様に、サブフレーム504(1)は、時間隔402(1)の間にそれぞれ生成される長露光画素値602(1)を含む。
同じ参照番号501(cij)を共有する図5および図6の画素値は同じ時間隔401(cij)中に光を感知する画素212に対応するが、実際の画素値自体は画素に入射する光の強度にしたがって異なってもよい。すなわち、同じサブフレームインデックスcijの複数の画素によって生成された画素値を示すための単一の参照番号、例えば501(0)の使用は、複数の画素のそれぞれが同じ画素値を生成することを伝えることを意味しない。
図7は、符号化されていないビデオデータ194から多層ビデオストリーム786を生成するように構成されたビデオエンコーダ700の概略ブロック図である。ビデオエンコーダ700は、図1のビデオエンコーダ100の一例である。ビデオエンコーダ700は、マイクロプロセッサ702およびそれに通信可能に結合されたメモリ703のうちの少なくとも1つを含むことができる。メモリ703は、一時的および/または非一時的であってもよく、揮発性メモリ(例えば、SRAM、DRAM、計算RAM、他の揮発性メモリ、またはそれらの任意の組合せ)および不揮発性メモリ(例えば、FLASH(登録商標)、ROM、磁気媒体、光媒体、他の不揮発性メモリ、またはそれらの任意の組合せ)の一方または両方を含んでもよい。メモリ703の一部または全部は、マイクロプロセッサ702に統合することができる。
メモリ703は、13ビットの精度を有し、10ビットのアナログ/デジタル出力を記憶することができるデータバッファ710を含むことができる。データバッファ710は、図5および図6に導入された短露光画素値501および長露光画素値602を含むサブフレーム504を記憶する。データバッファ710はまた、複数の符号化サブフレーム残差画像764およびフルフレーム長露光画像772を記憶することができる。データバッファ710は、サブフレーム504、符号化サブフレーム残差画像764、およびフルフレーム長露光画像772のうちの少なくとも1つが、それぞれの専用データバッファに格納されるように、1つまたは複数の別個のデータバッファを含むことができる。各専用データバッファは、異なるワード長を持つことができる。短露光画素値501および長露光画素値602は、それぞれ別個のデータバッファに格納されてもよい。
データバッファ710は、短露光画素値501または長露光画素値602が、ある比率または露光時間τおよびτによって、精度を失うことなくスケーリングされ得るように、十分なビット精度を有し得る。スケーリングは、例えば、画素値501および602がバイナリデータとして記憶されるときに、ビットシフト操作を含むことができる。例えば、データバッファ710のビット深度M710は、少なくとも
Figure 0007143012000001
だけ、ビデオフレーム104のビット深度M104を超えてもよく、ここで、
Figure 0007143012000002
は、シーリングオペレータである。ビット深さは、
Figure 0007143012000003
に等しくてもよい。たとえば、M104=10およびτ/τ=8の場合、M710=13である。ビット深度M710は、データバッファ710のワード長であってもよい。符号化されていないビデオデータ194は、ビット深度M104と等しいビット深度を有することができる。
フルフレーム長露光画像772は、超高精細(UHD)バッファであってもよく、水平解像度が少なくとも3840画素である4K解像度に対応する寸法を有する10ビットデータバッファに格納されてもよい。低解像度画像742および752を記憶するバッファは、低解像度画像742および752の寸法に対応する、係数N-1/2によってスケールされた画素アレイ210の寸法に等しい寸法を有してもよい。例えば、画素アレイ210が寸法3840×2160およびN=9を有する場合、低解像度画像742および752のそれぞれは、寸法1280×720を有するバッファに格納されてもよい。
短露光画素値501および長露光画素値602が赤色、緑色、および青色の画素212によって生成される場合、画素値501および602は、それぞれ、対応する赤、緑、および青の画素値を含む。短露光画素値501の赤色画素値、緑色画素値、および青色画素値は、ノイズ除去およびブロック圧縮を容易にするために、データバッファ710のそれぞれのセクションに格納されてもよい。同様に、長露光画素値602の赤色画素値、緑色画素値、および青色画素値は、データバッファ710のそれぞれのセクションに格納され得る。
メモリ703はまた、データバッファ710に記憶されたデータを読み出して変換するように構成されたソフトウェアを記憶することもできる。ソフトウェアは、ビデオエンコーダ700の機能を実施するために、マイクロプロセッサ702によって実行可能な機械可読命令を含む。ソフトウェアは、画像処理ルーチン721、残差画像生成器722、アルファマッパ743、デストリーカ753、再分配器754、残差画像エンコーダ762、長露光処理ルーチン774、符号化ルーチン780、およびラッパ符号化ルーチン784のうちの少なくとも1つを含むことができる。画像処理ルーチン721および長露光処理ルーチン774のそれぞれは、1つまたは複数のデータ処理ルーチンおよび/またはサブルーチンを含むことができる。
メモリ703はまた、符号化されていないビデオデータ194から多層ビデオストリーム786を生成するプロセスにおいて、ソフトウェアによって生成された中間データを記憶し得る。この中間データは、短露光低解像度画像742、アルファマップ745、長露光低解像度画像752、デストリーク画像(destreaked image)755、サブフレーム残差画像760、符号化サブフレーム残差画像764、フルフレーム長露光画像772、処理済長露光ビデオデータ775、ベースビデオストリーム781、エンハンスメントビデオストリーム782、およびメタデータ790のうちの少なくとも1つを含むことができる。
サブフレーム504(cij)の短露光画素値501は、短露光低解像度画像、例えば、短露光低解像度画像741(cij)としてデータバッファ710に格納されてもよい。同様に、サブフレーム504(cij)の長露光画素値602は、長露光低解像度画像、例えば、長露光低解像度画像751(cij)としてデータバッファ710に格納されてもよい。
メモリ703はまた、短露光時間791、長露光時間792、およびサブフレームカウント793のうちの少なくとも1つを含むことができるフレームデータ794を記憶することができる。短露光時間791、長露光時間792、およびサブフレームカウント793は、それぞれ、以前に導入された短露光時間τ、短露光時間τ、および整数Nに等しい。
図8は、画像センサ112によって撮像されたビデオストリームを符号化するための方法800を示すフローチャートである。長露光画像から導出されたベースビデオストリームを短露光画像から導出されたエンハンスメントビデオストリームと結合することによって、方法800は、従来の高フレームレートビデオに関連する増加した帯域幅の前述のコストを欠きながら、高フレームレートビデオの時間的解像度を有する符号化ビデオストリームを生成する。方法800は、図7のビデオエンコーダ700の1つまたは複数の態様内で実施することができる。方法800は、メモリ703に記憶されたコンピュータ読み取り可能な命令を実行するマイクロプロセッサ702によって実施することができる。
方法800の以下の説明では、画像センサ112の各画素212は、(i)長露光時間792と交互になる短露光時間791を含む同じ露光時間シーケンス(例えば、撮像タイミング404のうちの1つ)と、(ii)短露光時間791の整数倍に等しいそれぞれの時間的オフセットΔtと、によってそれぞれ特徴付けられるN個のサブフレームのうちの1つに属する。方法800は、ステップ810、820、825、830、840、850、860、および870のうちの少なくとも1つを含む。
画像センサ112は、長露光時間で撮像される長露光低解像度画像(例えば、画像751)と、短露光時間で撮像される短露光低解像度画像(例えば、画像741)とを撮像するように構成されてもよい。短露光低解像度画像は短露光画素値501を含み、長露光低解像度画像は例えば、長露光画素値602を含む。
ステップ810は、メモリバッファのそれぞれのセクションに、複数の短露光画素値の赤色画素値、緑色画素値、および青色画素値を記憶することを含む。また、ステップ810は、メモリバッファのそれぞれのセクションに、複数の長露光画素値の赤色画素値、緑色画素値、および青色画素値を記憶することを含む。ステップ810の例では、短露光画素値501の赤色画素値、緑色画素値、および青色画素値がデータバッファ710のそれぞれのセクションに格納され、長露光画素値602の赤色画素値、緑色画素値、および青色画素値がデータバッファ710のそれぞれのセクションに格納される。
ステップ820は、N個のサブフレームのそれぞれについて、結合するステップの前に、(i)ノイズ除去、(ii)短露光低解像度画像および/または長露光低解像度画像の固定パターンノイズの低減、および(iii)短露光低解像度画像および/または長露光低解像度画像のクランプ、のうちの少なくとも1つを含む。ステップ820の一例では、画像処理ルーチン721は、短露光低解像度画像741(1-N)および/または長露光低解像度画像751(1-N)のノイズ除去、固定パターンノイズの低減、および/またはクランプを行い、それぞれ、短露光低解像度画像742(1-N)および長露光低解像度画像752(1-N)をもたらす。ビデオエンコーダ700が画像処理ルーチン721を欠いている場合、画像742は画像741と同じであり、画像752は画像751と同じである。
ステップ825は、N個のサブフレームのそれぞれについて、長露光低解像度画像の領域を畳み込むことを含み、その領域は、短露光低解像度画像のアルファマップによって少なくとも部分的に決定される。畳み込みカーネルは、ガウスぼかし操作を適用することができ、m×mの畳み込みマトリックスによって表すことができ、ここで、mは、最大で2だけ
Figure 0007143012000004
から異なることができる奇数の整数である。ステップ825の例において、N個のサブフレームのそれぞれについて、アルファマッパ743は、短露光低解像度画像742からアルファマップ745を生成し、デストリーカ753は、デストリーク画像755をもたらす長露光低解像度画像752のアルファマップ745に基づいて領域を畳み込む。アルファマップ745は、8に等しいビット深度を有することができる。
ステップ830は、N個のサブフレームのそれぞれについて、長露光時間で撮像された長露光低解像度画像と、短露光時間で撮像された短露光低解像度画像とを結合させて、サブフレーム残差画像を生成することを含む。サブフレーム残差画像は、(共通露光時間にスケールされる)長露光低解像度画像および短露光低解像度画像の間の差、例えば、一方を他方から差し引いたものであり得る。ステップ830の結合は、サブフレーム残差画像が長露光低解像度画像と短露光低解像度画像との線形結合であるように、線形結合するステップであってもよい。
ステップ830の例では、残差画像生成器722は、N個のサブフレームのそれぞれについて、長露光時間で撮像された長露光低解像度画像752(またはデストリーク画像755)、および短露光時間で撮像された短露光低解像度画像742を線形結合して、サブフレーム残差画像760を生じる。ステップ830の線形結合は、画素ごとに、すなわち、長露光低解像度画像および短露光低解像度画像の対応する画素と共に実行されてもよい。
ステップ830は、ステップ832、834、および836のうちの少なくとも1つを含むことができる。ステップ834および836は、長露光低解像度画像の複数の長露光画素値に関連する。以下のステップ834および836の説明では、P742、P752、P760は、それぞれ、短露光低解像度画像742、長露光低解像度画像752、およびサブフレーム残差画像760の画素値を表す。P742、P752、P760は、それぞれ、例えば、画素値の2次元アレイであり、データバッファ710に格納されてもよい。
ステップ832は、N個のサブフレームのそれぞれについて、複数の長露光画素値のそれぞれを、長露光時間と短露光時間との比で割ることによって、長露光低解像度画像をスケーリングすることを含む。ステップ832の例では、N個のサブフレームのそれぞれについて、残差画像生成器722は、その画素値P752のそれぞれを、長露光時間τと短露光時間τの比で割ることによって、長露光低解像度画像752をスケーリングする。そのため、スケーリングされた長露光低解像度画像の画素値は、τ/τ×P752になる。
ステップ834は、N個のサブフレームのそれぞれについて、短露光低解像度画像からスケーリングされた長露光低解像度画像を減算することを含む。ステップ834の例では、N個のサブフレームのそれぞれについて、残差画像生成器722は、画素値P760=P742-τ/τ×P752を有するサブフレーム残差画像760を生成する。残差画像生成器722は、P760=P742-τ/τ×P752+Zとなるように、サブフレーム残差画像760に均一なオフセットZを付加することができる。均一なオフセットZは、例えば、2であり、ここでMは、長露光画素値602のビット深度である。たとえば、ビット深度Mは10に等しい。
ステップ836は、N個のサブフレームのそれぞれについて、(i)サブフレーム残差画像を知覚符号化すること、および(ii)サブフレーム残差画像をブロック符号化すること、のうちの少なくとも1つを含む。知覚符号化することは、CIELAB色空間における明度Lと輝度Yの間の関数関係に対応する、立方根関数を採用することができる。ノイズを低減し、符号化効率を高めるために、ヌル(null)に近い残差値がクランプされてもよい。サブフレーム残差画像のそれぞれをブロック符号化することは、赤色画素または青色画素よりも緑色画素により多くのブロックを割り当てることができる。例えば、緑色画素に対しては16×16のブロックアレイを使用することができ、赤色画素および青色画素に対してはそれぞれの8×8のブロックアレイを使用することができる。
ステップ836の一例では、残差画像エンコーダ762は、N個のサブフレームのそれぞれについて、サブフレーム残差画像760を知覚符号化し、および/またはサブフレーム残差画像760をブロック符号化し、これにより、符号化サブフレーム残差画像764が得られる。符号化サブフレーム残差画像764は、ビット深度M=12、M=13、またはそれ以上を有することができるサブフレーム残差画像760よりも低いビット深度、例えば、M=10を有することができる。
ステップ840は、N個のサブフレームからの長露光低解像度画像の少なくともいくつかを結合させて、任意の長露光低解像度画像よりも高い解像度を有するフルフレーム長露光画像を生成することを含む。ステップ840の一例では、再分配器754は、長露光低解像度画像752(1-N)のうちの少なくとも2つを結合し、フルフレーム長露光画像772を生成する。言い換えると、結合840は、複数の長露光低解像度画像(連続時間隔、すなわち、図4の時間隔420中に撮像されたN個のサブフレームのそれぞれから1つ)を結合することを含み、ここで、結合された複数の長露光低解像度画像は、フルフレーム長露光画像772が形成されるように、画像センサのすべての画素を含む。
ステップ850は、ホワイトバランス、デモザイク、レンズシェーディング補正、色変換、ガンマ補正、およびモーションぼけフィルタリング(「デストリーキング(destreaking)」)からなる群から選択される画像処理操作を適用することによって、フルフレーム長露光画像を処理することを含む。このようなデストリーキングは、例えば、フルフレーム長露光画像が比較的高速に移動する物体のぼやけた画像を含む場合に有用である。例示的なステップ850では、長露光処理ルーチン774は、フルフレーム長露光画像772を処理して、処理済長露光ビデオデータ775を生成する。処理済長露光ビデオデータ775は、クロマサブサンプリングされた画像を含むことができ、ビット深度M=8を有することができる。
ステップ850は、その処理に関連するメタデータ790などのメタデータを生成することもできる。したがって、ステップ850は、ステップ850の画像処理操作に関連するメタデータをビデオストリームに追加することを含むステップ852を含むことができる。ステップ852の一例では、ラッパ(wrapper)符号化ルーチン784は、メタデータ790を多層ビデオストリーム786に追加する。ステップ852はまた、アルファマップ745を多層ビデオストリーム786に追加することを含むことができる。
ステップ860は、フルフレーム長露光画像をビデオストリームのベースレイヤに符号化することを含む。ステップ860の一例では、符号化ルーチン780は、処理済長露光ビデオデータ775をベースビデオストリーム781に符号化する。ベースビデオストリーム781は、8ビットストリームであること、UHD解像度を有すること、(例えば、4:2:2サンプリングモードで)クロマサブサンプリングされること、および30Hzフレームレートを有すること、のうちの少なくとも1つとすることができる。ベースビデオストリーム781は、例えばステップ870の符号化ルーチンによって生成されたエンハンスメントビデオストリーム782を処理するように装備されていない古いビデオデコーダと後方互換性があり得る。方法800の実施形態では、ベースビデオストリーム781の符号化は、デジタルカメラ110に関連するレンズ歪みおよび色収差の補正を欠く。このような符号化は、符号化されていないビデオデータ194の生の画素値の回復を可能にする。
ステップ870は、N個のサブフレームからのサブフレーム残差画像のうちの少なくともいくつかをビデオストリームのエンハンスメントレイヤに符号化することを含む。ステップ870の一例では、符号化ルーチン780は、符号化サブフレーム残差画像764(1-N)の少なくとも2つをエンハンスメントビデオストリーム782に符号化する。エンハンスメントビデオストリーム782は、10ビットストリームであること、UHD解像度を有すること、720pモノクロビデオとして符号化すること、30Hz、270Hz、またはそれらの間の値のフレームレートを有すること、のうちの少なくとも1つとすることができる。エンハンスメントビデオストリーム782は、ベースビデオストリーム781よりも高いダイナミックレンジを有することができる。
図9は、符号化されていないビデオデータ194から多層ビデオストリーム986を生成するように構成されたビデオエンコーダ900の概略ブロック図である。ビデオエンコーダ900は、図1のビデオエンコーダ100の一例である。ビデオエンコーダ900は、マイクロプロセッサ702およびそれに通信可能に結合されたメモリ903のうちの少なくとも1つを含むことができる。メモリ903は、メモリ703と同様である。メモリ903の一部または全部は、マイクロプロセッサ702に統合することができる。
メモリ903は、データバッファ910を含むことができる。データバッファ910はビット深度M=36を有することができ、1GB/秒の帯域幅を維持することができる。図7のデータバッファ710と同様に、データバッファ910は、短露光画素値501または長露光画素値602を、ある比率または露光時間τおよびτだけ、精度を失うことなくスケーリングすることができるように、十分なビット精度を有することができる。データバッファ910のビット深度M910は、少なくとも
Figure 0007143012000005
だけ、ビデオフレーム104のビット深度M104を超えてもよく、ビット深度M910
Figure 0007143012000006
に等しくてもよい。
データバッファ910は、図5および図6で説明された短露光画素値501および長露光画素値602を含むサブフレーム504を記憶する。データバッファ910はまた、複数の符号化サブフレーム残差画像964およびフルフレーム長露光画像972を記憶することができる。データバッファ910は、サブフレーム504、符号化サブフレーム残差画像964、およびフルフレーム長露光画像972のうちの少なくとも1つが専用データバッファに記憶されるように、1つまたは複数の別個のデータバッファを含むことができる。短露光画素値501および長露光画素値602は、それぞれ別個のデータバッファに格納されてもよい。
メモリ903はまた、データバッファ910に記憶されたデータを読み出して変換するように構成されたソフトウェアを記憶することもできる。ソフトウェアは、エンコーダ900の機能を実施するためにマイクロプロセッサ702によって実行可能な機械可読命令を含む。ソフトウェアは、画像処理ルーチン921、残差画像生成器722、アルファマッパ743、デストリーカ753、残差画像エンコーダ762、長露光処理ルーチン774、符号化ルーチン780、およびラッパ符号化ルーチン784のうちの少なくとも1つを含むことができる。画像処理ルーチン921は、一つまたは複数の画像処理ルーチンおよび/またはサブルーチンを含んでもよい。
メモリ903はまた、符号化されていないビデオデータ194から多層ビデオストリーム986を生成するプロセスにおいて、ソフトウェアによって生成された中間データを記憶し得る。この中間データは、短露光低解像度画像942、アルファマップ945、長露光低解像度画像952、デストリーク画像955、サブフレーム残差画像960、符号化サブフレーム残差画像964、フルフレーム長露光画像972、処理済み長露光ビデオデータ975、ベースビデオストリーム981、エンハンスメントビデオストリーム982、およびメタデータ990のうちの少なくとも1つを含むことができる。メモリ903はまた、短露光時間791、長露光時間792、およびサブフレームカウント793のうちの少なくとも1つを含むことができるフレームデータ794を記憶することができる。
サブフレーム504(cij)の短露光画素値501は、短露光低解像度画像、例えば、短露光低解像度画像741(cij)としてデータバッファ910に格納されてもよい。同様に、サブフレーム504(cij)の長露光画素値602は、長露光低解像度画像、例えば、長露光低解像度画像751(cij)としてデータバッファ910に格納されてもよい。
図10は、画像センサ112によって撮像されたビデオストリームを符号化するための方法1000を示すフローチャートである。長露光画像から導出されたベースビデオストリームを短露光画像から導出されたエンハンスメントビデオストリームと結合させることによって、方法1000は、従来の高フレームレートビデオに関連する増加された帯域幅の前述のコストを欠きながら、高フレームレートビデオの時間的解像度を有する符号化ビデオストリームを生成する。方法1000は、図9のエンコーダ900の1つまたは複数の態様内で実施することができる。例えば、方法1000は、メモリ903に記憶されたコンピュータ可読命令を実行するマイクロプロセッサ702によって実現される。
方法1000の以下の説明では、画像センサ112の各画素212が、(i)長露光時間792と交互になる短露光時間791を含む同じ露光時間シーケンス(例えば、撮像タイミング404のうちの1つ)と、(ii)短露光時間791の整数倍に等しいそれぞれの時間オフセットΔtとによってそれぞれ特徴付けられるN個のサブフレームのうちの1つに属する。方法1000は、ステップ1010、820、1020、1025、830、1030、840、850、860、および870のうちの少なくとも1つを含む。
ステップ1010は、N個の短露光低解像度画像の各々をメモリバッファのそれぞれのタイルに記憶することを含む。ステップ1010の一例では、短露光低解像度画像741(1-N)の各々がデータバッファ910のそれぞれのタイルに記憶される。
ステップ820は、方法800の説明に導入される。ステップ820の一例では、方法1000で実施されるように、画像処理ルーチン921は、N個のサブフレームのそれぞれについて、(i)ノイズ除去、(ii)固定パターンノイズの低減、および(iii)クランピング、のうちの少なくとも1つの操作を、短露光低解像度画像741(1-N)および/または長露光低解像度画像751(1-N)に適用する。これらの操作により、画像741および751から、それぞれ、短露光低解像度画像942および長露光低解像度画像952が得られる。
ステップ1020は、N個のサブフレームの各々について、短露光低解像度画像および長露光低解像度画像の一方または両方に、(i)レンズ歪み補正、(ii)色収差補正、(iii)ホワイトバランス、(iv)レンズシェーディング補正、および(iv)デモザイク処理のうちの少なくとも1つを適用することを含む。ステップ1020の例では、画像処理ルーチン921は、(i)から(iv)までの1つまたは複数の操作を、(a)短露光低解像度画像942(1-N)をもたらす、短露光低解像度画像741、および(b)長露光低解像度画像952(1-N)をもたらす、長露光低解像度画像751(1-N)、の少なくとも1つに適用する。方法1000がステップ1010を実施しない場合、画像942は画像741と同じであり、画像952は画像751と同じである。
ステップ1025は、N個のサブフレームのそれぞれについて、長露光低解像度画像の領域を畳み込むステップを含み、その領域は、短露光低解像度画像のアルファマップによって少なくとも部分的に決定される。畳み込みカーネルは、ガウスぼかし操作を適用することができ、m×m畳み込みマトリックスによって表すことができ、ここで、mは、最大で2だけ
Figure 0007143012000007
から異なることができる奇数の整数である。ステップ1025の例ではまた、N個のサブフレームのそれぞれについて、アルファマッパ743は、短露光低解像度画像942からアルファマップ945を生成し、デストリーカ753は、アルファマップ945に基づいて、長露光低解像度画像952の領域を畳み込み、デストリーク画像955を生成する。アルファマップ945は、8に等しいビット深度を有することができる。
ステップ830の例では、残差画像生成器722は、N個のサブフレームのそれぞれについて、長露光時間で撮像された長露光低解像度画像752(またはデストリーク画像955)、および短露光時間で撮像された短露光低解像度画像742を線形結合して、サブフレーム残差画像960を生じる。
ステップ830は、方法800の説明に導入される。ステップ830は、ステップ832、834、および836のうちの少なくとも1つを含むことができる。ステップ834および836は、長露光低解像度画像の複数の長露光画素値に関連する。以下のステップ834および836の説明では、P942、P952、およびP960は、それぞれ、短露光低解像度画像942、長露光低解像度画像952、およびサブフレーム残差画像960の画素値を表す。P942、P952、P960は、それぞれ、例えば、画素値の2次元アレイであり、データバッファ910に格納されてもよい。
ステップ832は、N個のサブフレームのそれぞれについて、複数の長露光画素値のそれぞれを、長露光時間と短露光時間との比で割ることによって、長露光低解像度画像をスケーリングすることを含む。ステップ832の例では、方法1000で実施されるように、N個のサブフレームのそれぞれについて、残差画像生成器722は、その画素値P952の各々を、長露光時間τと短露光時間τの比で割ることによって、長露光低解像度画像952をスケーリングする。そのため、スケーリングされた長露光低解像度画像の画素値は、τ/τ×P952である。
ステップ820は、方法800の説明に導入される。ステップ834の一例では、サブフレームのそれぞれについて、残差画像生成器722は、画素値P960=P942-τ/τ×P952を有するサブフレーム残差画像960を生成する。残差画像生成器722は、サブフレーム残差画像960を、例えば、係数β(ここで、β=896/1024)によってスケーリングすることができる。残差画像生成器722は、P960=β(P942-τ/τ×P952)+Kとなるように、サブフレーム残差画像960に均一なオフセットKを追加することもできる。均一なオフセットKは、例えば、2M±1であり、Mは、ビデオフレーム104および/または長露光画素値602のビット深度である。たとえば、ビット深度Mは、例えば10である。一例では、K=500である。値βおよび値Kは、画素値P960は負ではなく2(ここで、Mはエンハンスメントビデオストリーム982のビット深度である)を超えないことを保証するように、決定される。係数βは、露光時間τおよびτ(β=1-2-log2(τ1/τ2))の関数であってもよい。
ステップ836は、方法800の説明に導入される。ステップ836の一例では、残差画像エンコーダ762が(i)サブフレーム残差画像960を知覚符号化すること、および(ii)サブフレーム残差画像960をブロック符号化すること、のうちの少なくとも1つを行い、これにより、符号化サブフレーム残差画像964が得られる。
ステップ1030は、ステップ1010のそれぞれのタイルにおいて、短露光低解像度画像をサブフレーム残差画像に置き換えることを含む。ステップ1010の一例では、各サブフレーム残差画像960(cij)が1からNの範囲内の各サブフレームインデックスcijについて、短露光低解像度画像741(cij)を置き換える。
ステップ840および850は、方法800の説明に導入される。ステップ840の一例では、方法1000で実施されるように、再分配器754は、長露光低解像度画像952(1-N)のうちの少なくとも2つを結合し、フルフレーム長露光画像972を生成する。ステップ850の一例では、方法1000で実施されるように、長露光処理ルーチン774は、フルフレーム長露光画像972を処理して、処理済み長露光ビデオデータ975を生成する。
ステップ850は、その処理に関連するメタデータ790などのメタデータを生成することもできる。したがって、ステップ850は、ステップ850の画像処理操作に関連するメタデータをビデオストリームに追加することを含むステップ852を含むことができる。ステップ852の一例では、方法1000で実施されるように、ラッパ符号化ルーチン784は、メタデータ990を多層ビデオストリーム986に追加する。ステップ852はまた、多層ビデオストリーム986にアルファマップ945を追加することを含むことができる。
ステップ860は、方法800の説明に導入される。ステップ860の一例では、方法1000で実施されるように、符号化ルーチン780は、処理された長露光ビデオデータ975をベースビデオストリーム981に符号化する。ベースビデオストリーム981は、例えば、4:2:2サンプリングモードでクロマサブサンプリングされてもよい。ベースビデオストリーム981は、古いビデオデコーダ、例えば、方法1000のステップ870で生成されたエンハンスメントビデオストリーム982を処理するように装備されていないものと後方互換性があり得る。
ステップ870は、方法800の説明に導入される。ステップ870の一例では、方法1000で実施されるように、符号化ルーチン780は、符号化サブフレーム残差画像964(1-N)のうちの少なくとも2つをエンハンスメントビデオストリーム982に符号化する。エンハンスメントビデオストリーム982は、例えば、4:2:2サンプリングモードでクロマサブサンプリングされてもよい。エンハンスメントビデオストリーム982は、ベースビデオストリーム981よりも高いダイナミックレンジを有することができる。
上述の特徴、ならびに以下に請求される特徴は、本明細書の範囲から逸脱することなく、様々な方法で結合させることができる。以下の列挙された実施例は、いくつかの可能な非限定的な結合を例示する。これらの例は複数の画素を含む画像センサに適用され、各画素は(i)長露光時間と交互になる短露光時間を含む同じ露光時間シーケンス、および(ii)短露光時間の整数倍に等しいそれぞれの時間オフセット、をそれぞれ特徴とするN個のサブフレームの1つに属する。
(A1)画像センサにより撮像されたビデオストリームを符号化するための方法は、サブフレームのそれぞれについて、長露光時間で撮像された長露光低解像度画像と、短露光時間で撮像された短露光低解像度画像とを線形結合し、サブフレーム残像を生じることを含む。この方法は、N個のサブフレームからの長露光低解像度画像の少なくともいくつかを結合させて、任意の長露光低解像度画像よりも高い解像度を有するフルフレーム長露光画像を生成することも含む。この方法はまた、(i)フルフレーム長露光画像をビデオストリームのベースレイヤに符号化すること、および(ii)N個のサブフレームからのサブフレーム残差画像の少なくともいくつかをビデオストリームのエンハンスメントレイヤに符号化すること、を含む。
(A2)短露光低解像度画像が複数の短露光画素値を含み、長露光低解像度画像が複数の長露光画素値を含む場合、方法(A1)は(a)メモリバッファの各セクションに、複数の短露光画素値の赤色画素値、緑色画素値、および青色画素値を格納すること、および(b)メモリバッファの各セクションに、複数の長露光画素値の赤色画素値、緑色画素値、および青色画素値を格納すること、をさらに含むことができる。
(A3)いずれの方法(A1)~(A2)においても、長露光低解像度画像が複数の長露光画素値を含む場合には、結合するステップは、(a)複数の長露光画素値の各々を短露光時間に対する長露光時間の比率で割ることにより、長露光低解像度画像をスケーリングすること、および(b)短露光低解像度画像からスケーリングされた長露光低解像度画像を減算すること、を組み合わせてもよい。
(A4)方法(A1)~(A3)のいずれにおいても、結合するステップは、画素毎に実行されてもよい。
(A5)方法(A1)~(A4)のいずれにおいても、結合するステップにおいて、Nは、(N-1)が長露光時間を短露光時間で割ったものに最も近い整数となるようにすることができる。
(A6)方法(A1)~(A5)のいずれかは、N個のサブフレームのそれぞれについて、結合するステップの前に、短露光低解像度画像および長露光低解像度画像のうちの少なくとも1つをノイズ除去することをさらに含むことができる。
(A7)方法(A1)~(A6)のいずれかは、N個のサブフレームのそれぞれについて、ステップの前に、長露光低解像度画像および短露光低解像度画像のうちの少なくとも1つから固定パターンノイズを低減することをさらに含むことができる。
(A8)方法(A1)~(A7)のいずれかは、N個のサブフレームのそれぞれについて、結合するステップの前に、長露光低解像度画像および短露光低解像度画像のうちの少なくとも1つをクランプすることをさらに含むことができる。
(A9)方法(A1)~(A8)のいずれかは、N個のサブフレームのそれぞれについて、(i)サブフレーム残差画像を知覚符号化すること、および(ii)サブフレーム残差画像をブロック符号化することのうちの少なくとも1つをさらに含むことができる。
(A10)方法(A1)~(A9)のいずれかは、(a)フルフレーム長露光画像を符号化するステップの前に、ホワイトバランス、デモザイク、レンズシェーディング補正、色変換、ガンマ補正、および鮮鋭化からなる群から選択される画像処理操作を適用することによってフルフレーム長露光画像を処理すること、および(b)画像処理操作に関連するメタデータをビデオストリームに追加すること、をさらに含むことができる。
(A11)(A1)~(A10)のいずれかの方法はさらに、N個のサブフレームのそれぞれについて、結合するステップの前に、短露光低解像度画像および長露光低解像度画像にレンズ歪み補正および色収差補正を適用することを含むことができる。
(A12)(A1)~(A11)のいずれかの方法はさらに、N個のサブフレームのそれぞれについて、結合するステップの前に、短露光低解像度画像および長露光低解像度画像に、ホワイトバランシング、レンズシェーディング補正、およびデモザイキングからなる群から選択される画像処理演算を適用することによって、それらを処理することを含むことができる。
(A13)方法(A1)~(A12)のいずれかはさらに、N個のサブフレームのそれぞれについて、長露光低解像度画像の領域を畳み込むことを含んでもよく、この領域は短露光低解像度画像のアルファマップによって少なくとも部分的に決定される。
(A14)方法(A1)~(A13)のいずれかは、N個のサブフレームのそれぞれについて、(a)結合するステップの前に、短露光低解像度画像をメモリバッファのそれぞれのタイルに記憶すること、および(b)結合するステップの前に、それぞれのタイルにおいて、短露光低解像度画像をサブフレーム残差画像と置換すること、を含むことができる。
(B1)ビデオストリームを符号化するためのビデオエンコーダは、メモリ、およびメモリに通信可能に結合されたマイクロプロセッサを含む。メモリは、非一時的なコンピュータ可読命令を記憶し、画像センサによって撮像された画像データを記憶するように適合される。画像センサは、(i)長露光時間と交互になる短露光時間を含む同じ露光時間シーケンス、および(ii)短露光時間の整数倍に等しいそれぞれの時間的オフセット、を各々が特徴とするN個のサブフレームのうちの1つに各々属する複数の画素を含む。マイクロプロセッサは、方法(A1)~(A14)のいずれかを実行するための命令を実行するように適合される。
本明細書の範囲から逸脱することなく、上述の方法およびシステムに変更が行なわれてもよい。したがって、上述の説明に含まれるまたは付随の図面に示される事項は、例示として解釈され、制限するものではないものと解釈されることに留意されたい。本明細書では特に断らない限り、形容詞「例示的な」手段は、例、事例、または例示として役立つ。以下の特許請求の範囲は、本明細書に記載されるすべての一般的および特定の特徴を包含し、ならびに、本方法およびシステムの範囲のすべてのステートメントは、言語の問題として、それらに包含される。
本発明の様々な態様は、以下の列挙された例示的な実施形態(EEE)から理解され得る。
EEE1.複数の画素を含み、各画素がN個のサブフレームの1つに属する、画像センサによって撮像されたビデオストリームを符号化する方法であって、各サブフレームは、(i)長露光時間と交互になる短露光時間を含む同じ露光時間シーケンスと、(ii)前記短露光時間の整数倍に等しいそれぞれの時間的オフセットと、により特徴づけられ、前記方法は、
前記N個のサブフレームの各々について、前記長露光時間で撮像された長露光低解像度画像と、前記短露光時間で撮像された短露光低解像度画像とを線形結合して、サブフレーム残差画像を生成することと、
任意の長露光低解像度画像よりも高い解像度を有するフルフレーム長露光画像を生成するために、前記N個のサブフレームからの長露光低解像度画像の少なくともいくつかを結合することと、
前記フルフレーム長露光画像を前記ビデオストリームのベースレイヤに符号化することと、
前記N個のサブフレームからの前記サブフレーム残差画像の少なくともいくつかを前記ビデオストリームのエンハンスメントレイヤに符号化することと、を含む、方法。
EEE2.前記短露光低解像度画像は複数の短露光画素値を含み、前記長露光低解像度画像は複数の長露光画素値を含み、前記方法は、
前記複数の短露光画素値のうちの赤色画素値、緑色画素値、および青色画素値を、メモリバッファのそれぞれのセクションに記憶することと、
前記複数の長露光画素値のうちの赤色画素値、緑色画素値、および青色画素値を、メモリバッファのそれぞれのセクションに記憶することと、をさらに含む、EEE1に記載の方法。
EEE3.前記長露光低解像度画像は複数の長露光画素値を含み、前記結合することは、
前記複数の長露光画素値の各々を、前記短露光時間に対する前記長露光時間の比で割ることによって、前記長露光低解像度画像をスケーリングすることと、
スケーリングされた前記長露光低解像度画像を前記短露光低解像度画像から減算することと、を含む、EEE1または2に記載の方法。
EEE4.前記結合することは、画素単位で実行される、EEE1から3のいずれかに記載の方法。
EEE5.前記結合することにおいて、Nは、(N-1)が前記長露光時間を前記短露光時間で割ったものに最も近い整数であるようにする、EEE1から4のいずれかに記載の方法。
EEE6.前記N個のサブフレームのそれぞれについて、前記結合するステップの前に、前記短露光低解像度画像および前記長露光低解像度画像のうちの少なくとも1つをノイズ除去することをさらに含む、EEE1から5のいずれかに記載の方法。
EEE7.前記N個のサブフレームの各々について、前記結合することの前に、前記長露光低解像度画像および前記短露光低解像度画像のうちの少なくとも1つから固定パターンノイズを低減すること、をさらに含む、EEE1から6のいずれかに記載の方法。
EEE8.前記N個のサブフレームの各々について、前記結合することの前に、前記長露光低解像度画像および前記短露光低解像度画像のうちの少なくとも1つをクランプすること、をさらに含む、EEE1から7のいずれかに記載の方法
EEE9.前記N個のサブフレームの各々について、(i)前記サブフレーム残差画像を知覚符号化することと、(ii)前記サブフレーム残差画像をブロック符号化することと、のうちの少なくとも1つをさらに含む、EEE1から8のいずれかに記載の方法。
EEE10.前記フルフレーム長露光画像を符号化することの前に、ホワイトバランス、デモザイク、レンズシェーディング補正、色変換、ガンマ補正、および鮮鋭化からなる群から選択される画像処理操作を適用することによって前記フルフレーム長露光画像を処理することと、前記画像処理操作に関連するメタデータを前記ビデオストリームに追加することと、をさらに含む、EEE1から9のいずれかに記載の方法。
EEE11.前記N個のサブフレームの各々について、前記結合することの前に、レンズ歪み補正および色収差補正を、前記短露光低解像度画像および前記長露光低解像度画像に適用することをさらに含む、EEE1から10のいずれかに記載の方法。
EEE12.前記N個のサブフレームの各々について、前記結合することの前に、ホワイトバランス、レンズシェーディング補正、およびデモザイクからなる群から選択される画像処理操作を適用することによって、前記短露光低解像度画像および前記長露光低解像度画像を処理するステップをさらに含む、EEE1から11のいずれかに記載の方法。
EEE13.前記N個のサブフレームの各々について、前記長露光低解像度画像の領域を畳み込むことをさらに含み、前記領域は、前記短露光低解像度画像のアルファマップによって少なくとも部分的に決定される、EEE1から12のいずれかに記載の方法。
EEE14.前記N個のサブフレームの各々について、前記結合するステップの前に、前記短露光低解像度画像をメモリバッファのそれぞれのタイルに格納することと、前記結合するステップの後に、前記それぞれのタイルにおいて、前記短露光低解像度画像を前記サブフレーム残差画像と置換することと、をさらに含む、EEE1から13のいずれかに記載の方法。
EEE15.複数の画素を含み、各画素がN個のサブフレームの1つに属する、画像センサによって撮像されたビデオストリームを符号化するためのビデオエンコーダであって、各サブフレームは、(i)長露光時間と交互になる短露光時間を含む同じ露光時間シーケンスと、(ii)前記短露光時間の整数倍に等しいそれぞれの時間的オフセットと、により特徴づけられ、前記ビデオエンコーダは、
非一時的なコンピュータ可読命令を格納し、前記画像センサによって撮像された画像データを格納するように適合されたメモリと、
前記メモリに通信可能に結合されたマイクロプロセッサであって、
前記N個のサブフレームの各々について、前記長露光時間で撮像された長露光低解像度画像と、前記短露光時間で撮像された短露光低解像度画像とを線形結合して、サブフレーム残差画像を生成することと、
任意の長露光低解像度画像よりも高い解像度を有するフルフレーム長露光画像を生成するために、前記N個のサブフレームからの長露光低解像度画像の少なくともいくつかを結合することと、
前記フルフレーム長露光画像を前記ビデオストリームのベースレイヤに符号化することと、
前記N個のサブフレームからの前記サブフレーム残差画像の少なくともいくつかを前記ビデオストリームのエンハンスメントレイヤに符号化することと、の命令を実行するように適合されたマイクロプロセッサと、を備える、ビデオエンコーダ。
EEE16.前記短露光低解像度画像は複数の短露光画素値を含み、前記長露光低解像度画像は複数の長露光画素値を含み、前記マイクロプロセッサは、
前記複数の短露光画素値のうちの赤色画素値、緑色画素値、および青色画素値を、メモリバッファのそれぞれのセクションに記憶することと、
前記複数の長露光画素値のうちの赤色画素値、緑色画素値、および青色画素値を、メモリバッファのそれぞれのセクションに記憶することと、の命令を実行するようにさらに適合された、EEE15に記載のビデオエンコーダ。
EEE17.前記長露光低解像度画像は複数の長露光画素値を含み、前記結合する命令は、
前記複数の長露光画素値の各々を、前記短露光時間に対する前記長露光時間の比で割ることによって、前記長露光低解像度画像をスケーリングすることと、
スケーリングされた前記長露光低解像度画像を前記短露光低解像度画像から減算することと、を含む、EEE15または16に記載のビデオエンコーダ。
EEE18.(N-1)が長露光時間を短露光時間で割ったものに最も近い整数であるような、Nである、EEE15から17のいずれかに記載のビデオエンコーダ。
EEE19.前記マイクロプロセッサは、前記N個のサブフレームの各々について、前記長露光低解像度画像の領域を畳み込むことであって、前記領域は、前記短露光低解像度画像のアルファマップによって決定される、畳み込む命令を実行するようにさらに適合される、EEE15から18のいずれかに記載のビデオエンコーダ。
EEE20.前記マイクロプロセッサは、
前記結合するステップの前に、前記短露光低解像度画像をメモリバッファのそれぞれのタイルに格納し、
前記結合するステップの後に、前記それぞれのタイルにおいて、前記短露光低解像度画像を前記サブフレーム残差画像と置き換える、命令を実行するようにさらに適合されている、EEE15から19のいずれかに記載のビデオエンコーダ。

Claims (15)

  1. 複数の画素を含み、各画素がN個のサブフレームの1つに属する、画像センサによって撮像されたビデオストリームを符号化する方法であって、各サブフレームの画素は、画像センサ領域の領域に亘って実質的に均一に分配され、各サブフレームは、(i)長露光時間と交互になる短露光時間を含む同じ露光時間シーケンスと、(ii)前記短露光時間の整数倍に等しいそれぞれの時間的オフセットと、により特徴づけられ、前記方法は、
    前記N個のサブフレームの各々について、前記長露光時間で撮像された長露光低解像度画像と、前記短露光時間で撮像された短露光低解像度画像とを線形結合して、サブフレーム残差画像を生成することと、
    任意の長露光低解像度画像よりも高い解像度を有するフルフレーム長露光画像を生成するために、前記N個のサブフレームからの長露光低解像度画像の少なくともいくつかを結合することであって、前記長露光低解像度画像の少なくともいくつかは、前記画像センサのすべての画素を含む、結合することと、
    前記フルフレーム長露光画像を前記ビデオストリームのベースレイヤに符号化することと、
    前記N個のサブフレームからの前記サブフレーム残差画像の少なくともいくつかを前記ビデオストリームのエンハンスメントレイヤに符号化することと、を含む、方法。
  2. 前記短露光低解像度画像は複数の短露光画素値を含み、前記長露光低解像度画像は複数の長露光画素値を含み、前記方法は、
    前記複数の短露光画素値のうちの赤色画素値、緑色画素値、および青色画素値を、メモリバッファのそれぞれのセクションに記憶することと、
    前記複数の長露光画素値のうちの赤色画素値、緑色画素値、および青色画素値を、メモリバッファのそれぞれのセクションに記憶することと、をさらに含む、請求項1に記載の方法。
  3. 前記長露光低解像度画像は複数の長露光画素値を含み、前記結合することは、
    前記複数の長露光画素値の各々を、前記短露光時間に対する前記長露光時間の比で割ることによって、前記長露光低解像度画像をスケーリングすることと、
    スケーリングされた前記長露光低解像度画像を前記短露光低解像度画像から減算することと、を含む、請求項1または2に記載の方法。
  4. 前記結合することは、画素単位で実行される、請求項1から3のいずれか一項に記載の方法。
  5. 前記結合することにおいて、Nは、(N-1)が前記長露光時間を前記短露光時間で割ったものに最も近い整数であるようにする、請求項1から4のいずれか一項に記載の方法。
  6. 前記N個のサブフレームの各々について、前記結合することの前に、前記短露光低解像度画像および前記長露光低解像度画像のうちの少なくとも1つをノイズ除去すること、をさらに含む、請求項1から5のいずれか一項に記載の方法。
  7. 前記N個のサブフレームの各々について、前記結合することの前に、前記長露光低解像度画像および前記短露光低解像度画像のうちの少なくとも1つから固定パターンノイズを低減すること、をさらに含む、請求項1から6のいずれか一項に記載の方法。
  8. 前記N個のサブフレームの各々について、前記結合することの前に、前記長露光低解像度画像および前記短露光低解像度画像のうちの少なくとも1つをクランプすること、をさらに含む、請求項1から7のいずれか一項に記載の方法。
  9. 前記N個のサブフレームの各々について、(i)前記サブフレーム残差画像を知覚符号化することと、(ii)前記サブフレーム残差画像をブロック符号化することと、のうちの少なくとも1つをさらに含む、請求項1から8のいずれか一項に記載の方法。
  10. 前記フルフレーム長露光画像を符号化することの前に、ホワイトバランス、デモザイク、レンズシェーディング補正、色変換、ガンマ補正、および鮮鋭化からなる群から選択される画像処理操作を適用することによって前記フルフレーム長露光画像を処理することと、前記画像処理操作に関連するメタデータを前記ビデオストリームに追加することと、をさらに含む、請求項1から9のいずれか一項に記載の方法。
  11. 前記N個のサブフレームの各々について、前記結合することの前に、レンズ歪み補正および色収差補正を、前記短露光低解像度画像および前記長露光低解像度画像に適用することをさらに含む、請求項1から10のいずれか一項に記載の方法。
  12. 前記N個のサブフレームの各々について、前記結合することの前に、ホワイトバランス、レンズシェーディング補正、およびデモザイクからなる群から選択される画像処理操作を適用することによって、前記短露光低解像度画像および前記長露光低解像度画像を処理するステップをさらに含む、請求項1から11のいずれか一項に記載の方法。
  13. 複数の画素を含み、各画素がN個のサブフレームの1つに属する、画像センサによって撮像されたビデオストリームを符号化するためのビデオエンコーダであって、各サブフレームの画素は、画像センサ領域の領域に亘って実質的に均一に分配され、各サブフレームは、(i)長露光時間と交互になる短露光時間を含む同じ露光時間シーケンスと、(ii)前記短露光時間の整数倍に等しいそれぞれの時間的オフセットと、により特徴づけられ、前記ビデオエンコーダは、
    非一時的なコンピュータ可読命令を格納し、前記画像センサによって撮像された画像データを格納するように適合されたメモリと、
    前記メモリに通信可能に結合されたマイクロプロセッサであって、
    前記N個のサブフレームの各々について、前記長露光時間で撮像された長露光低解像度画像と、前記短露光時間で撮像された短露光低解像度画像とを線形結合して、サブフレーム残差画像を生成することと、
    任意の長露光低解像度画像よりも高い解像度を有するフルフレーム長露光画像を生成するために、前記N個のサブフレームからの長露光低解像度画像の少なくともいくつかを結合することであって、前記長露光低解像度画像の少なくともいくつかは、前記画像センサのすべての画素を含む、結合することと、
    前記フルフレーム長露光画像を前記ビデオストリームのベースレイヤに符号化することと、
    前記N個のサブフレームからの前記サブフレーム残差画像の少なくともいくつかを前記ビデオストリームのエンハンスメントレイヤに符号化することと、の命令を実行するように適合されたマイクロプロセッサと、を備える、ビデオエンコーダ。
  14. 前記短露光低解像度画像は複数の短露光画素値を含み、前記長露光低解像度画像は複数の長露光画素値を含み、前記マイクロプロセッサは、
    前記複数の短露光画素値のうちの赤色画素値、緑色画素値、および青色画素値を、メモリバッファのそれぞれのセクションに記憶することと、
    前記複数の長露光画素値のうちの赤色画素値、緑色画素値、および青色画素値を、メモリバッファのそれぞれのセクションに記憶することと、の命令を実行するようにさらに適合された、請求項13に記載のビデオエンコーダ。
  15. 前記長露光低解像度画像は複数の長露光画素値を含み、前記結合する命令は、
    前記複数の長露光画素値の各々を、前記短露光時間に対する前記長露光時間の比で割ることによって、前記長露光低解像度画像をスケーリングすることと、
    スケーリングされた前記長露光低解像度画像を前記短露光低解像度画像から減算することと、を含む、請求項13または14に記載のビデオエンコーダ。
JP2021523940A 2018-11-19 2019-11-15 ビデオエンコーダおよび符号化方法 Active JP7143012B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862769223P 2018-11-19 2018-11-19
EP18207029 2018-11-19
EP18207029.2 2018-11-19
US62/769,223 2018-11-19
PCT/US2019/061627 WO2020106559A1 (en) 2018-11-19 2019-11-15 Video encoder and encoding method

Publications (2)

Publication Number Publication Date
JP2022508057A JP2022508057A (ja) 2022-01-19
JP7143012B2 true JP7143012B2 (ja) 2022-09-28

Family

ID=68848423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021523940A Active JP7143012B2 (ja) 2018-11-19 2019-11-15 ビデオエンコーダおよび符号化方法

Country Status (5)

Country Link
US (1) US11876987B2 (ja)
EP (1) EP3884673B1 (ja)
JP (1) JP7143012B2 (ja)
CN (1) CN113170158B (ja)
WO (1) WO2020106559A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11039079B1 (en) * 2019-05-07 2021-06-15 Lux Optics Incorporated Generating long exposure images
TW202143721A (zh) * 2020-05-06 2021-11-16 法商內數位Ce專利控股公司 具有阿爾法層的3d場景傳輸
US11394900B1 (en) 2020-05-07 2022-07-19 Lux Optics Incorporated Synthesizing intermediary frames for long exposure images
EP3985976B1 (en) * 2020-10-16 2022-09-28 Axis AB Method of encoding an image including a privacy mask
WO2022222112A1 (zh) * 2021-04-22 2022-10-27 深圳市大疆创新科技有限公司 数据处理方法、图像传感器、图像处理器和电子设备
US11818465B2 (en) * 2022-01-10 2023-11-14 Gopro, Inc. Systems, apparatus, and methods for stabilization and blending of exposures

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120205A (ja) 2002-09-25 2004-04-15 Sony Corp 撮像装置,撮像装置の画像出力方法,およびコンピュータプログラム
JP2008228282A (ja) 2007-02-13 2008-09-25 Matsushita Electric Ind Co Ltd 画像処理装置
JP2013533706A (ja) 2010-07-05 2013-08-22 アップル インコーポレイテッド 高ダイナミックレンジ画像を捕捉するデバイスの作動法
JP2014086889A (ja) 2012-10-24 2014-05-12 Toshiba Corp 固体撮像装置
WO2016171006A1 (ja) 2015-04-21 2016-10-27 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
WO2017146972A1 (en) 2016-02-22 2017-08-31 Dolby Laboratories Licensing Corporation Apparatus and method for encoding high frame rate content in standard frame rate video using temporal interlacing
JP2017216646A (ja) 2016-06-01 2017-12-07 キヤノン株式会社 撮像素子、撮像装置、および撮像信号処理方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012122423A1 (en) * 2011-03-10 2012-09-13 Dolby Laboratories Licensing Corporation Pre-processing for bitdepth and color format scalable video coding
EP2579591A1 (en) * 2011-10-04 2013-04-10 Thomson Licensing Method of and device for encoding an HDR image, method of and device for reconstructing an HDR image and non-transitory storage medium
US8913153B2 (en) * 2011-10-06 2014-12-16 Aptina Imaging Corporation Imaging systems and methods for generating motion-compensated high-dynamic-range images
US20140177706A1 (en) * 2012-12-21 2014-06-26 Samsung Electronics Co., Ltd Method and system for providing super-resolution of quantized images and video
US8958649B2 (en) 2013-03-13 2015-02-17 Wisconsin Alumni Research Foundation Video generation with temporally-offset sampling
US10154220B2 (en) * 2015-04-07 2018-12-11 Rambus Inc. Imaging system with dynamic reconstruction workload allocation
US9654699B2 (en) * 2015-07-02 2017-05-16 Omnivision Technologies, Inc. High dynamic range imaging with reduced frame buffer
US10991281B2 (en) 2016-02-22 2021-04-27 Dolby Laboratories Licensing Corporation Apparatus and method for encoding high frame rate content in standard frame rate video using temporal interlacing
CN106254782A (zh) * 2016-09-28 2016-12-21 北京旷视科技有限公司 图像处理方法及装置和相机
US10218913B2 (en) * 2017-04-18 2019-02-26 Qualcomm Incorporated HDR/WDR image time stamps for sensor fusion
EP3740932B1 (en) 2018-01-16 2024-07-03 Dolby Laboratories Licensing Corporation Image demosaicing system and method
EP3847800B1 (en) 2018-09-07 2023-07-26 Dolby Laboratories Licensing Corporation Auto exposure of spatially-multiplexed-exposure high-dynamic-range image sensors
US11258957B2 (en) 2018-09-07 2022-02-22 Dolby Laboratories Licensing Corporation Auto exposure of image sensors based upon entropy variance
KR102294322B1 (ko) 2018-09-12 2021-08-26 돌비 레버러토리즈 라이쎈싱 코오포레이션 시간적 디더링된 샘플링을 위한 cmos 센서 아키텍처

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120205A (ja) 2002-09-25 2004-04-15 Sony Corp 撮像装置,撮像装置の画像出力方法,およびコンピュータプログラム
JP2008228282A (ja) 2007-02-13 2008-09-25 Matsushita Electric Ind Co Ltd 画像処理装置
JP2013533706A (ja) 2010-07-05 2013-08-22 アップル インコーポレイテッド 高ダイナミックレンジ画像を捕捉するデバイスの作動法
JP2014086889A (ja) 2012-10-24 2014-05-12 Toshiba Corp 固体撮像装置
WO2016171006A1 (ja) 2015-04-21 2016-10-27 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
WO2017146972A1 (en) 2016-02-22 2017-08-31 Dolby Laboratories Licensing Corporation Apparatus and method for encoding high frame rate content in standard frame rate video using temporal interlacing
JP2017216646A (ja) 2016-06-01 2017-12-07 キヤノン株式会社 撮像素子、撮像装置、および撮像信号処理方法

Also Published As

Publication number Publication date
EP3884673B1 (en) 2022-12-28
WO2020106559A1 (en) 2020-05-28
US20220007040A1 (en) 2022-01-06
US11876987B2 (en) 2024-01-16
EP3884673A1 (en) 2021-09-29
CN113170158B (zh) 2023-07-11
JP2022508057A (ja) 2022-01-19
CN113170158A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
JP7143012B2 (ja) ビデオエンコーダおよび符号化方法
US9288399B2 (en) Image processing apparatus, image processing method, and program
EP3306944B1 (en) Display method and display device
US8610818B2 (en) Systems and methods for improving video stutter in high resolution progressive video
US8391637B2 (en) Image processing device and image processing method
US10991281B2 (en) Apparatus and method for encoding high frame rate content in standard frame rate video using temporal interlacing
US9633415B2 (en) Systems and methods for improving video stutter in high resolution progressive video
CN105723711B (zh) 高动态范围视频编码中的预抖动方法、装置及存储介质
CN111669483B (zh) 图像传感器、成像装置、电子设备、图像处理系统及信号处理方法
JP2011188101A (ja) フレームレート変換処理装置
IL304034A (en) Frame-rate scalable video coding
JP2010136224A (ja) 撮像装置及び撮像方法
JP2009010823A (ja) 画像処理装置および画像処理方法、記録媒体、並びに、プログラム
WO2012147523A1 (ja) 撮像装置及び画像生成方法
JP2010147508A (ja) 撮影装置及び再生装置
WO2017146972A1 (en) Apparatus and method for encoding high frame rate content in standard frame rate video using temporal interlacing
JP7037701B2 (ja) 時間ディザードサンプリング用cmosセンサアーキテクチャ
JP2017216630A (ja) 画像符号化装置及びその制御方法
JP2005286677A (ja) 撮像装置
US8049794B2 (en) Method and apparatus for processing image data
JP4810807B2 (ja) 動画像変換装置、動画像復元装置、および方法、並びにコンピュータ・プログラム
Parker et al. Digital video processing for engineers: A foundation for embedded systems design
JP2010147774A (ja) 撮像装置
US20230222765A1 (en) Image processing device, image processing method, and storage medium
JP6087631B2 (ja) 画像信号処理装置及びその制御方法、並びに撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220912

R150 Certificate of patent or registration of utility model

Ref document number: 7143012

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150