JP7079080B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP7079080B2
JP7079080B2 JP2017214188A JP2017214188A JP7079080B2 JP 7079080 B2 JP7079080 B2 JP 7079080B2 JP 2017214188 A JP2017214188 A JP 2017214188A JP 2017214188 A JP2017214188 A JP 2017214188A JP 7079080 B2 JP7079080 B2 JP 7079080B2
Authority
JP
Japan
Prior art keywords
image
image processing
images
added
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017214188A
Other languages
English (en)
Other versions
JP2019087860A5 (ja
JP2019087860A (ja
Inventor
正明 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017214188A priority Critical patent/JP7079080B2/ja
Priority to US16/178,814 priority patent/US11019348B2/en
Publication of JP2019087860A publication Critical patent/JP2019087860A/ja
Publication of JP2019087860A5 publication Critical patent/JP2019087860A5/ja
Application granted granted Critical
Publication of JP7079080B2 publication Critical patent/JP7079080B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/1883Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit relating to sub-band structure, e.g. hierarchical level, directional tree, e.g. low-high [LH], high-low [HL], high-high [HH]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets

Description

本発明は画像処理装置および画像処理方法に関し、特には複数視点の画像に関する画像処理技術に関する。
ステレオ撮影やマルチアングル撮影など、被写体を複数の視点位置から撮影することで得られる画像(多視点画像)は、立体視の提供や、視点や合焦距離を変更した画像の生成などに用いられている。多視点画像は視点の数に等しいフレーム数の画像群であるため、データ量も視点の数とともに増加する。
特許文献1では、多視点画像を構成する複数の画像(サブイメージ)のデータをすべて送信する代わりに、サブイメージを加算平均した画像のデータと、各サブイメージ内の関心領域(ROI)のデータを送信することが開示されている。
特開2015-171097号公報
特許文献1に開示された技術によれば、送信データ量を削減しつつ、ROIに関するリフォーカスを実現できる。しかしながら、リフォーカス可能な画像領域がROIに制限されるという課題がある。
本発明の目的は、多視点画像を用いた画像処理の自由度を確保しつつ、多視点画像のデータ量を削減する技術を提供することにある。
上述の目的は、複数の視差画像の加減算に基づく複数の第1の差分画像と、複数の視差画像の加算に基づく現在の加算画像と過去の加算画像との第2の差分画像とを、高帯域成分を含むサブバンドと高帯域成分を含まないサブバンドとを含む、複数のサブバンドに分割する分割手段と、複数の第1の差分画像と第2の差分画像とを符号化する符号化手段と、を有し、符号化手段は、複数の第1の差分画像については複数のサブバンドの一部のサブバンドのデータのみを符号化し、第2の差分画像については複数のサブバンドのデータを符号化するとともに、複数の第1の差分画像については高帯域成分を含むサブバンドのデータを符号化する、ことを特徴とする画像処理装置によって達成される。
本発明によれば、多視点画像を用いた画像処理の自由度を確保しつつ、多視点画像のデータ量を削減する技術を提供することができる。
実施形態に係る画像処理装置の一例としてのデジタルカメラの機能構成を示したブロック図 実施形態に係るデジタルカメラの撮像部に関する図 実施形態に係る撮像部の画像圧縮部の機能構成に関する図 実施形態に係る画像圧縮部が実行するサブバンド分割に関する図 実施形態に係る画像圧縮部が有するウェーブレット変換部に関する図 実施形態に係る予測画像更新処理に関するフローチャート 実施形態に係る画像処理部の機能構成に関する図 第2実施形態における画像圧縮部の機能構成に関する図 第3実施形態におけるフレームアウト検出に関する模式図 第3実施形態に係る予測画像更新処理に関するフローチャート 第4実施形態に係る撮像部の機能構成に関する図 第4実施形態における像ずれ量検出に関する図 第4実施形態に係る動作に関するフローチャート
以下、添付図面を参照して、本発明の例示的な実施形態を詳細に説明する。なお、本発明は説明する実施形態に限定されない。また、実施形態で説明される構成要素の全てが本発明に必須とは限らない。実施形態における個々の機能ブロックは、プログラマブルロジックや回路部品といったハードウェア、プログラマブルプロセッサが実行可能なソフトウェア、またはそれらハードウェアとソフトウェアとの組み合わせによって実現することができる。また、1つの機能ブロックは複数のハードウェアで実現されてもよい。また、1つのハードウェアが複数の機能ブロックを実現してもよい。また、1つ以上の機能ブロックは、1つ以上のプログラマブルプロセッサ(CPU、MPUなど)がメモリに読み込まれたコンピュータプログラムを実行することにより実現されてもよい。
以下では、画像処理装置の一例としてのデジタルカメラに本発明を適用した実施形態を説明する。しかし、本発明は多視点画像を取り扱い可能な任意の電子機器に適用することが可能である。このような電子機器には、撮像装置をはじめ、コンピュータ、スマートフォン、タブレット端末、ゲーム機などの情報処理装置、家電製品、ロボットなどが含まれるが、これらに限定されない。
●(第1実施形態)
図1は、本実施形態に係るデジタルカメラ100の機能構成例を示すブロック図である。制御部101は、例えば1つ以上のプログラマブルプロセッサ(CPU、MPU)である。制御部101は、例えばROM102に記憶されたプログラムをRAM103に読み込んで実行することにより、デジタルカメラ100の各機能ブロックの動作を制御し、デジタルカメラ100の機能を実現する。
ROM102は、書き換え可能な不揮発性メモリであり、制御部101が実行可能なプログラムのほか、各種の設定値、GUIデータなどを記憶する。
RAM103は、書き換え可能な揮発性メモリであり、プログラムを実行するためにシステムメモリとして用いられたり、データの一時的な記憶領域(バッファメモリ)として用いられたりする。
光学系104は、複数のレンズや絞りなどを有し、被写体の光学像を撮像部105の撮像面上に形成する。光学系104は着脱可能であってもなくてもよい。光学系104は、フォーカスレンズ、変倍レンズ、手振れ補正レンズなどの可動レンズと、可動レンズを駆動する機構を有する。
撮像部105は、画素部やその周辺回路(例えば、読み出し回路、A/Dコンバータ、符号化回路など)を有する。後述するように、本実施形態の撮像部105は画像データを2次元サブバンド符号化してRAM103に一次記憶する。
画像処理部107は、RAM103に記憶されている符号化データを復号したり、復号で得られた画像データに対してホワイトバランス調整、色補間、縮小/拡大、フィルタリングなど、様々な画像処理を適用したりする。画像処理部107は一般にASICによって実装されるが、一部の処理を制御部101がプログラムを実行して実現してもよい。画像処理部107は処理を適用した画像データをRAM103に再度記憶する。なお、画像処理部107は、自動焦点検出(AF)や自動露出制御(AE)に用いる情報を画像データから取得する処理を実施してもよい。
制御部101は、撮像部105が出力する符号化データや、画像処理部107によって処理された画像データから画像ファイルを生成し、記録媒体108に記録する。画像処理部107が画像データに適用する処理と、制御部101が生成する画像ファイルの構成は、記録形式に応じて予め定められている。記録媒体108は例えば着脱可能なメモリカードである。
操作部109はユーザがデジタルカメラ100に指示を与えるための入力デバイスの総称である。シャッターボタン、動画撮影・一時停止ボタン、電源ボタン、メニューボタン、方向キー、決定ボタンなどが操作部109に含まれる。制御部101は操作部109に対する操作を監視し、検出された操作に応じた動作を実行する。
表示部110は例えばLCDやOLEDであり、デジタルカメラ100の各種情報、撮像画像、GUI(メニュー画面など)を表示する。表示部110はタッチパネルディスプレイであってもよく、この場合タッチパネルは操作部109に含まれる。
図2(a)は、撮像部105の機能構成例を示すブロック図である。画素部201は光学像をアナログ画像信号に変換し、A/D変換部202に出力する。A/D変換部202は、アナログ画像信号をA/D変換し、画像データとして画像圧縮部203に出力する。画像圧縮部203のラインバッファを節約するため、画像データは図2(b)に示すようなタイル(T1、T2、T3、・・・)単位で出力される。画像圧縮部203は、画像を2次元サブバンド分割し、特定の帯域成分を符号化する。
本実施形態では、撮像部105は、画素部201を第1層(第1半導体基板)、画像圧縮部203を第2層(第2半導体基板)として積層配置され、少なくとも1以上の貫通電極により互いに電気的に接続されて1つのチップで構成されているものとする。このように、本実施形態において画像圧縮部203がチップ内に組み込まれているのは、省電力と高速処理、低コスト設計のためである。画素部201がチップ内の基板に、画像圧縮部203がチップ外の基板に配置されると、配線の抵抗成分や容量成分が多くなる。そのため、同一チップ内の配線による通信に比べて低速になる。通信を高速にするには、信号波形品質を保つためアンプで駆動する必要があり、駆動電力を上げなければならない。一方、画素部201と画像圧縮部203とがいずれも同一チップ内の半導体基板に配置されることにより、出力配線が短く済み、アンプも省くことができる。加えて、撮像部105から出力される符号化データ量が少ないため、撮像部105と、制御部101や画像処理部107との通信時間が短くなり、処理速度の増加や処理負荷の低減、消費電力の低下を図ることができる。
RAM204は、過去に生成された加算画像を記憶する。加算画像については後述する。以下では過去の加算画像として、直近に撮影されたフレーム(直前フレーム(n-1))の視差画像から得られた加算画像をRAM204に記憶するものとする。また、今回撮影された画像を現フレームnの画像と呼ぶ。
図2(c)は、画素部201の画素構成および配列の例を示す模式図である。画素部201には複数の画素406が水平および垂直方向に2次元配置されている。個々の画素406は、1つのマイクロレンズ405と4つの光電変換部401、402、403、404を有する。1つのマイクロレンズ405を共有する4つの光電変換部401~404は、光学系104の射出瞳のうち、互いに異なる部分瞳領域を通過した光束を受光する。従って、複数の画素406について、光電変換部401群、光電変換部402群、光電変換部403群、光電変換部404群から独立してアナログ画像信号を得ることにより、1回の露光または撮影により4つの視差画像を得ることができる。
本実施形態においては、光電変換部401群で得られる画像をA像、光電変換部402群で得られる画像をB像、光電変換部403群で得られる画像をC像、光電変換部404群で得られる画像をD像、と呼ぶ。
図3は、図2(a)の画像圧縮部203の機能構成例を示すブロック図である。加算部501は、A像~D像をシフト量0で加算し、各画素値を平均(1/4)することにより、加算画像(A+B+C+D)を生成する。ここでは、加算画像を視差画像の平均画像としたが、平均画像でなくてもよい。例えば、画素値を単純加算して加算画像を生成し、視差画像の画素値の範囲を加算画像の画素値の範囲に整合するように補正してもよい。本明細書において、画像A+Bは、A像とB像との加算に基づく画像、もしくはそれと同等の画像を意味する。つまり、光電変換部401と402とを合わせたものと同等の1つの光電変換部から得られる画像であってもよい。減算部521はA-B+C-Dを、減算部531はA+B-C-Dを、減算部541はA-B-C+Dをそれぞれ演算する。減算部521、531、541が行うA像~D像の加減算の組み合わせは、加算画像との演算によりA像~D像が復元可能で、かつ減算を含むように定められている。また、本明細書において、減算部521、531、541によって得られる画像を便宜上、差分画像(第1の差分画像)と呼ぶ。なお、画像間の加減算は、画像内の位置が同じ画素間で値を加減算することで実現できる。なお、加減算の結果が画素値の上限値を超えたり下限値を下回る場合にはそれぞれ上限値および下限値にクリッピングする。
加算部504は、現フレームnの加算画像ADD(n)から、RAM204に保存された直前フレームの加算画像ADD(n-1)を減じて差分画像ΔADD(n)(第2の差分画像)を生成し、ウェーブレット変換部502に供給する。換言すれば、加算部504は、加算画像ADD(n-1)を予測画像として、フレーム間予測の誤差として差分画像ΔADD(n)を生成する。したがって、以下では、加算画像ADD(n-1)を加算画像ADD(n)の予測画像PREV(n)と呼ぶ。また、制御部101は、現フレームnの加算画像ADD(n)を、次フレームの加算画像の予測画像として用いるためにRAM204に記憶する。このように、本実施形態においては、加算画像について、フレーム間予測誤差(差分画像)をウェーブレット変換および符号化するように構成することで、符号データ量を削減する。
ウェーブレット変換部502、522、532、542は、加算部501および減算部521、531、541が出力する画像に対し、それぞれ2次元サブバンド分割の一例としての2次元ウェーブレット変換(以下、単にウェーブレット変換と呼ぶ)を適用する。なお、本実施形態において、ウェーブレット変換部5n2(n=0、2~4)は分解レベル1までのウェーブレット変換を適用するものとする。
なお、本実施形態では加算画像としてA像~D像の全ての加算に基づいて得られる画像を用いた。しかし、A像~D像の一部の加算に基づく画像を加算画像としてもよい。いずれにしても、加算画像の視点位置に基づいてリフォーカス処理を行う。例えば、A+B+Cを加算画像として用いた場合、A+B+Cの視点を基準にして視差画像A、B、C、Dからリフォーカス画像を生成すればよい。さらに、例えばA+Bと同じ視点の視差画像Eが別途設けられた光電変換素子群から得られる場合、視差画像Eを加算画像、加算して視差画像Eが得られるA像およびB像を視差画像として用いてもよい。
つまり、本発明において、加算画像とは、複数の視差画像の2つ以上の加算に基づいて生成可能な画像であればよい。また、符号化対象とする差分画像は、加算画像を構成する個々の視差画像を得ることが可能であれば、どのような差分画像であってもよい。例えば、A+B+Cに相当する画像を加算画像とした場合、A+B-CとA-B-Cなどの組み合わせを差分画像として符号化することができる。なお、加算画像を構成しない視差画像(上述の例ではD)については、符号化してもしなくてもよい。
図4は、分解レベル0から3までのウェーブレット変換により得られる複数のサブバンド信号の配置を模式的に示した図である。701で示す分解レベル0は原画像である。また702~704はそれぞれ分解レベル1~3のウェーブレット変換後のサブバンドの配置を示している。サブバンドnLL、nHL、nLH、nHHのnは分解レベル(1~3)を示し、LL,HL,LH,HHはそれぞれ水平および垂直方向で適用された帯域通過フィルタ処理の種類(ハイパスフィルタまたはローパスフィルタ)を示す。なお、ウェーブレット係数のうち、高帯域成分を含まないサブバンドnLLの係数をスケーリング係数、残りの、高帯域成分を含んだ3つのサブバンドnHL、nLH、nHHの係数をウェーブレット展開係数と呼ぶ。
エンコード部503、513、523、533、543は、ウェーブレット変換により分割された各サブバンドの係数(サブバンドデータ)に対して量子化、算術符号化などの符号化処理を適用する。エンコード部5n3(n=0~4)が実行する符号化の方式に特に制限はなく、可逆符号化方式であっても非可逆符号化方式であってもよい。本実施形態において、4つの視差画像はA/D変換部202から画像圧縮部203に直接入力されるものとした。しかし、例えばA/D変換部202がRAM204に保存した視差画像を入力するようにしてもよい。
図5(a)は、ウェーブレット変換部5n2(n=0~4)機能構成例を示すブロック図である。本実施形態では、一例として、式1および式2に示す、正規直交するウェーブレットを用いたウェーブレット変換を行うものとする。
H0(z)=b0+Σbn・(z^n+z^-n) (式1)
H1(z)=c0+Σcn・(z^n+z^-n) (式2)
ここで、nは0~3の整数であり、係数bnおよびcnの値は以下のとおりである。
b0=0.602949
b1=0.266864
b2=-0.078223
b3=-0.016864
b4=0.026748
c0=1.115087
c1=-0.591271
c2=-0.057543
c3=0.091271
係数bnはウェーブレットのスケーリング関数を表わす数列で、係数cnはウェーブレットを表わす数列である。図5(b)に、伝達関数H0(z)の振幅周波数特性631および伝達関数H1(z)の振幅周波数特性633を示す。振幅周波数特性の縦軸は振幅、横軸はサンプリング周波数で正規化された正規化周波数で、ナイキスト周波数が0.5に対応する。
低域フィルタ部601の伝達関数はH0(z)であり、垂直方向のスケーリング係数を生成する。高域フィルタ部603の伝達関数はH1(z)であり、垂直方向のウェーブレット展開係数を生成する。ダウンサンプリング部602、604は垂直方向のダウンサンプリングにより画素数を1/2にする。
低域フィルタ部611、621の伝達関数はH0(z)であり、水平方向のスケーリング係数を生成する。高域フィルタ部613、623の伝達関数はH1(z)であり、水平方向のウェーブレット展開係数を生成する。ダウンサンプリング部612、622、614、624は水平方向のダウンサンプリングにより画素数を1/2にする。
加算画像に対応するエンコード部503はスケーリング係数(1LL)およびウェーブレット展開係数(1LH、1HL、1HH)の符号化データを出力する。また、3つの差分画像に対応するエンコード部523、533、543は、ウェーブレット展開係数(1LH、1HL、1HH)の符号化データのみを出力する。これは、ウェーブレット変換部から対応するエンコード部へ、符号化すべき係数のみを出力することによっても、エンコード部が符号化すべき係数以外を無視することによっても実現できる。
ウェーブレット係数LL,HL,LH,HHはいずれも、生成時に水平方向と垂直方向の両方で1/2にダウンサンプリングされているため、符号化後の係数の数は符号化前の1/4になる。従って、原画像の画素数を1とした場合、符号化データの数は1+3/4×3=(3+1/4)となり、A像~D像について全てのサブバンドデータを符号化する場合(1×4=4)よりも符号化データ量を削減することができる。
図6は、本実施形態において、制御部101が実施する予測画像の更新処理に関するフローチャートである。この処理は、例えば記録用の撮影処理と並行して実行することができる。ここでは直前フレームと現フレームとの相関が高いと考えられる動画撮影もしくは静止画の連写時に実行するものとするが、静止画の単写時に実行してもよい。
S1001で制御部101は初期化処理を実行する。ここで、初期化処理は、変数nを1にすることと、初期の予測画像PREV(1)を用意することを含む。PREV(1)は例えば全画素の色成分が一定の値を有する画像であってよい。ここでは一定の値を0とする。
S1002で制御部101は、撮影が終了したか否かを判定し、終了したと判定されれば予測画像更新処理を終了し、終了したと判定されなければ処理をS1003に進める。撮影の終了は例えば動画記録の終了指示や、レリーズボタンの押下終了など、予め定められた状態が検出されたか否かによって判定することができる。
S1003で制御部101は、変数nを1増やすとともに、現在の加算画像ADD(n-1)を新たな予測画像PREV(n)とし、処理をS1002に戻す。なお、ここでは予測画像の更新よりも前に変数nを1増やしているため、現在の加算画像のフレーム番号が(n-1)となっている。
加算画像はスケーリング係数(LL)を符号化する。スケーリング係数は最も低い帯域の画像に相当するため、手振れや被写体ぶれの影響が少なく、差分画像の画素値が小さくなる傾向がある。したがって、フレーム間予測符号化によって符号化データ量を効率よく削減できる。逆に、画像の高周波成分を含むウェーブレット展開係数(LH、HL、HH)を符号化する差分画像では、手振れや被写体ぶれの影響によって差分画像の画素値が大きくなる傾向がある。したがって、フレーム間予測符号化の効果は小さく、本実施形態では差分画像についてはフレーム間予測符号化は行わない。このように構成することで、RAM容量や演算コストを抑制しながら符号化データ量の削減効率を高めることができる。
また、図2(c)に示した構成の画素部では、画素406に向かう光束の一部が光学系104によってケラレると、光電変換部401~404に入射する光量が不均一になる。そのため、光電変換部401~404が出力する像信号の少なくとも一つに信号レベルの低下が発生する。信号レベルの低下は全ての画素で同じ光電変換部に対して発生するため、視差画像間で輝度差(以下、「シェーディング」という)が発生する。
ケラレは光学系104の特性であるため、どの光電変換部にどの程度の信号レベルの低下が生じるかは既知であり、信号レベルの低下を補正することができる(シェーディング補正)。しかし、シェーディングの大きさは光学系104の光学条件(射出瞳距離や絞り値)によって変化するため、予め設定されているシェーディング補正が強すぎたり足りなかったりする可能性がある。またシェーディング成分は低次多項式で近似されることが知られており、補正誤差(過補正成分や逆補正成分)は、ウェーブレット変換によってその大半がスケーリング係数(LL)に含まれる。
シェーディング補正に誤差が生じている場合、視差画像間の差分値は大きくなる。そのため、視差画像間でのフレーム間差分符号化の効率が低下する。しかし、本実施形態では、視差画像間の差分画像の符号化対象を、補正誤差の影響がほとんどないウェーブレット展開係数に限定しているため、シェーディング補正の誤差がある場合でも符号化効率の低下が少ない。
さらに、ウェーブレット展開係数は画像の高域成分を含んでいるため、ボケの程度が微小な被写体成分が大半であり、4つの視差画像間の視差も小さい。このため視差画像間の差分値は小さく、この点においても高い符号化効率が実現できる。このように、加算画像についてはフレーム間予測符号化を行い、視差画像については差分画像を符号化することにより、符号化効率を高めることができる。
撮像部105から出力する符号化データ量が削減されるため、多視点画像を扱う場合でも動画のフレームレートや静止画の連写可能枚数の低下を抑制することができる。また、RAM103に確保するバッファ容量を変更せずに静止画の連写可能枚数を増加させることができる。
制御部101は、撮像部105が出力する、加算画像と3つの差分画像の符号化データを記録媒体108に記録する。なお、制御部101は、符号化データを記録媒体108に記録する際に、データファイルのヘッダなどに、ウェーブレット変換の分解レベルや、加算画像および視差画像について記録されているサブバンドに関する情報を含めておく。記録媒体108から読み出した符号化データをRAM103に読み込み、画像処理部107で復号およびリフォーカス処理を実行することができる。
図7(a)は、画像処理部107が符号化データを復号する際の動作を機能ブロックとして記載した図である。ここで説明する復号およびリフォーカス処理は画像処理部107が実行可能な多様な画像処理の一部に過ぎない。また、データファイルから符号化データを抽出し、各デコード部に符号化データを分配する処理も画像処理部107の内部で実行される。デコード部801は加算画像の予測誤差であるADD(n)の符号化データ(分解レベル1のスケーリング係数(1LL)およびウェーブレット展開係数(1LH、1HL、1HH))を復号する。また、デコード部821、831、841は差分画像の符号化データ(分解レベル1ウェーブレット展開係数(1LH、1HL、1HH)を復号する。デコード部8n4(n=0、2~4)は符号化方式に対応した復号を行う。
ウェーブレット逆変換部802、812、822、832、842は、復号された各サブバンドデータに対して2次元ウェーブレット逆変換を施すことにより、サブバンド分割された画像を復元する(サブバンド復元)。加算画像の符号化データを復号するデコード部801は、スケーリング係数(1LL)だけをウェーブレット逆変換部802に供給する。そのため、ウェーブレット逆変換部802は、ウェーブレット展開係数(1LH、1HL、1HH)については0としてウェーブレット逆変換する。
デコード部801はさらに、復号した、加算画像のウェーブレット展開係数(1LH、1HL、1HH)をウェーブレット逆変換部812に供給する。また、デコード部821、831、841は復号した、差分画像のウェーブレット展開係数(1LH、1HL、1HH)をウェーブレット逆変換部822、832、842に供給する。ウェーブレット逆変換部812、822、832、842は、スケーリング係数(1LL)を0としてウェーブレット逆変換する。
加算部806および816は、現フレームnに関する差分画像ΔADD_L(n)およびΔADD_H(n)に、RAM103に記憶されている直前フレーム(n-1)の加算画像ADD_L(n-1)およびADD_H(n-1)を加算する。ここで、加算画像ADD_L(n-1)は予測画像PREV_L(n)であり、加算画像ADD_H(n-1)は予測画像PREV_H(n)である。
加算部806が加算画像ADD_L(n)に予測画像PREV_L(n)を加算して生成する加算画像ADD_L(n)は、次フレームの低域成分の予測画像PREV_L(n)としてRAM103に記憶される。同様に、加算部816が加算画像ADD_H(n)に予測画像PREV_H(n)を加算して生成する加算画像ADD_H(n)は、次フレームの高域成分の予測画像PREV_H(n)としてRAM103に記憶される。なお、最初のフレームについては予測画像が存在しないため、PREV_LおよびPREV_Hは0とする。
視差画像復元部805は、ウェーブレット逆変換部8n2(n=1~4)が復元した加算画像および差分画像に以下の式3~式6の演算を行い、4つの視差画像(A像~D像)を復元する。
A=(W+X+Y+Z)/4 (式3)
B=(W-X+Y-Z)/4 (式4)
C=(W+X-Y-Z)/4 (式5)
D=(W-X-Y+Z)/4 (式6)
ただし、W、X、Y、Zは以下のとおりである。
W=A+B+C+D(加算部816の出力する加算画像)
X=A-B+C-D(ウェーブレット逆変換部822の出力する差分画像)
Y=A+B-C-D(ウェーブレット逆変換部832の出力する差分画像)
Z=A-B-C+D(ウェーブレット逆変換部842の出力する差分画像)
視差画像復元部805は復元したA像~D像をシフト加算部803に供給する。
シフト加算部803は、復元されたA像~D像に対し、リフォーカスのためのシフト加算を行う。シフト加算によるリフォーカスは例えば特許文献1に記載されるように公知である。制御部101は例えば加算画像を表示部110に表示し、合焦させたい位置をユーザに選択させる。例えば操作部109を通じて指定された画像内の位置が合焦するように制御部101はシフト加算の量および方向を決定し、シフト加算部803に通知する。シフト加算部803は通知されたシフト方向および量に従ってA像~D像をシフト加算することにより、リフォーカス画像を生成する。シフト加算部803は、リフォーカス処理した画像を加算部804に出力する。加算部804は、ウェーブレット展開係数(1LH、1HL、1HH)を0として復元された加算画像と、スケーリング係数(1LL)を0として復元された視差画像をシフト加算した画像とを加算する。加算部804により、最終的なリフォーカス画像が得られる。
図7(b)は、図7(a)のウェーブレット逆変換部8n2(n=0~4)の機能構成例を説明するためのブロック図である。
アップサンプリング部901、903、911、913は水平方向のアップサンプリングにより画素数を2倍にする。低域フィルタ部902、912は水平方向に低域フィルタ処理を適用する。高域フィルタ部904、914は水平方向に高域フィルタ処理を適用する。アップサンプリング部921、923は垂直方向のアップサンプリングにより画素数を2倍にする。低域フィルタ部922は垂直方向に低域フィルタ処理を適用する。高域フィルタ部924は垂直方向に高域フィルタ処理を適用する。加算部905、915、925はウェーブレット逆変換の中間画像を加算する。
ウェーブレット逆変換部においても、以下の式7および式8に示す、正規直交するウェーブレットを用いたウェーブレット逆変換を行うものとする。
G0(z)=d0+Σdn・(z^n+z^-n) (式7)
G1(z)=e0+Σen・(z^n+z^-n) (式8)
ただし、各係数の値は以下のとおりである。
ここで、nは0~3の整数であり、係数dnおよびenの値は以下のとおりである。
d0=1.115087
d1=0.591271
d2=-0.057543
d3=-0.091271
e0=0.602949
e1=-0.266864
e2=-0.078223
e3=0.016864
e4=0.026748
低域フィルタ部の伝達関数はG0(z)、高域フィルタ部の伝達関数はG1(z)である。
本実施形態では、画像の低域成分(スケーリング係数(1LL))にはシフト加算を行わずに最終的なリフォーカス画像を生成している。しかし、シフト量が1~2画素程度のリフォーカス処理の場合、低域成分のピントはほとんど変化しない。そのため、すべてのサブバンド成分に対してシフト加算を行う従来技術と同等のピント調整効果を得ることができる。
以上説明したように、本実施形態では、複数の視差画像について、複数の視差画像を合成した加算画像と、複数の視差画像を加減算して得られる複数の差分画像とをそれぞれ2次元サブバンド分割する。そして、加算画像については各サブバンドのデータを、差分画像については高域成分を含むサブバンドのデータを符号化するようにした。これにより、視差画像の利用を制限することなく、複数の視差画像を符号化するよりも符号量を削減することができる。さらに、手振れや被写体ぶれの影響が少ない加算画像についてはフレーム間予測符号化を行うことにより、さらに符号量を削減することができる。
本実施形態では視差画像の符号化領域を制限しない。そのため、例えば複数の視差画像をリフォーカス画像の生成に用いる場合、画像内の任意の領域をリフォーカス対象とすることができる。また、撮像装置の構成を変更することなく、撮像時のフレームレートや連写可能枚数を高めることができる。なお、本発明が対象とする視差画像の用途はリフォーカス画像の生成に限定されない。例えば、自動焦点検出に用いられる視差画像に対しても本発明を適用することができる。この場合、本発明の適用による視差画像の撮影フレームレートの増加は、自動焦点検出に要する時間の短縮につながる。
●(第2実施形態)
次に、本発明の第2実施形態について説明する。なお、本実施形態は第1実施形態で説明したデジタルカメラ100と同じ機能構成によって実施可能である。そのため、第1実施形態と同様の参照数字を用いて説明する。
図8(a)は、本実施形態における画像圧縮部203’の機能構成例を示すブロック図であり、第1実施形態の画像圧縮部203と同じ構成については図3と同じ参照数字を付してある。本実施形態の画像圧縮部203’は、動きベクトル検出部1201、量子化ステップ算出部1202および1203が追加されている点で第1実施形態と異なる。
動きベクトル検出部1201は、加算部501が出力する現フレームの加算画像ADD(n)と、RAM204から予測画像RREV(n)として読み出される直前フレームの加算画像ADD(n-1)との間の動きベクトルV=(Vx,Vy)を検出する。動きベクトル検出部1201は、現フレームの加算画像ADD(n)の動きベクトルを、図2(b)に示したタイルごとに検出する。動きベクトルの検出方法に特に制限はなく、公知の方法を用いることができる。例えば、現フレームの加算画像ADD(n)のタイル領域と相関の高い領域を直前フレームの加算画像ADD(n-1)で探索し、両領域間の位置変化を移動ベクトルとして検出することができる。
量子化ステップ算出部1202および1203は、動きベクトル検出部1201が検出した動きベクトルに基づいて、エンコード部5n3(n=0,2~4)で用いる量子化ステップQSTEPを決定する。量子化ステップ算出部1202および1203は量子化ステップQSTEPを現フレームの加算画像ADD(n)のタイルごとに決定する。
図8(b)は、図8(a)の量子化ステップ算出部1202および1203の動作を説明するための図である。横軸は被写体移動量MOV、縦軸は量子化ステップQSTEPである。δは許容錯乱円径、Δはデフォルト量子化ステップである。なお、許容錯乱円径は光学系104の絞り値などによって変化しうるため、現フレームの撮影条件に応じて許容錯乱円径δを算出してもよい。
量子化ステップ算出部1202は特性1301に、量子化ステップ算出部1203は特性1302にそれぞれ従って、量子化ステップQSTEPを決定する。被写体移動量MOV[画素]は、以下の式に従って得ることができる。
MOV=VL・RT・Tv (式9)
ただし、VL=√(Vx^2+Vy^2)、RTはフレームレート(フレーム/sec)、Tvはシャッタースピードである。例えばRT=60fps、Tv=1/100秒であれば、MOV=VL・60・1/100[画素]である。
露光期間(シャッタースピードTv)中の被写体移動量MOVが許容錯乱円径δ以下であれば、被写体ぶれは画像で視認できない。そのため、被写体移動量MOV<δであれば、量子化ステップ算出部1202および1203は量子化ステップQSTEPを、符号量削減よりも画質を優先したデフォルト値Δに決定する。一方、被写体移動量MOVが許容錯乱円径δを超えると被写体ぶれが画像で視認できる大きさとなるため、量子化ステップを大きくして画質よりも符号量の削減を優先する。また、被写体ぶれが画像で視認できる大きさになると、リフォーカス処理によるピント微調整の効果が低下する。そのため、リフォーカス処理に用いる差分画像の符号化に用いる、量子化ステップ算出部1203が決定する量子化ステップについては、加算画像の符号化に用いる量子化ステップよりも大きくして、さらに符号量削減を優先する。
なお、図8(b)に示した被写体移動量MOVと量子化ステップQSTEPとの関係では、被写体移動量MOVが許容錯乱円径δを超え、2δ未満の範囲では線形に量子化ステップを増加させ、2δを超えた後は一定値としている。しかし、これは単なる一例である。
・画像において被写体ブレが視認できない範囲(被写体ブレが閾値以下の場合)の被写体移動量であれば画質を優先した量子化ステップとし、画像において被写体ブレが視認できる範囲の被写体移動量であれば符号量の削減を優先した量子化ステップとする
・画像において被写体ブレが視認できる範囲(被写体ブレが閾値を超える場合)では、差分画像の符号化(あるいは高域成分の符号化)に用いる量子化ステップを、加算画像の符号化に用いる量子化ステップ以上とする
・画像において被写体ブレが視認できる範囲では、第1の被写体移動量MOV1に対する量子化ステップよりも、第2の被写体移動量MOV2(MOV2>MOV1)に対する量子化ステップを大きくする
の3つの1つ以上を満たすように、量子化ステップを決定すればよい。
エンコード部503は量子化ステップ算出部1202が決定した量子化ステップを、エンコード部5n3(n=2~4)は量子化ステップ算出部1203が決定した量子化ステップを用いて符号化を行う。エンコード部5n3(n=0,2~4)は、タイルごとに、符号化に用いた量子化ステップと動きベクトルの水平および垂直方向の大きさを、符号化データとともに出力する。制御部101は、これらの情報とタイルとを関連づけてファイルのヘッダ情報に記録する。
なお、ここでは、動きベクトルに基づいて画像における被写体ブレの大きさを評価し、被写体ブレの大きさに基づいて量子化ステップを決定する例について説明した。しかし、動きベクトルから他の指標を評価して量子化ステップを決定してもよい。例えば水しぶきや、風で揺れる木の葉といった、動きが複雑な被写体については、量子化ステップを大きくしても人間の目には違いが分かりづらく、かつリフォーカス処理によるピント微調整効果が低い。動きが複雑な被写体は動きベクトルの分散が大きくなる傾向があるので、被写体移動量の代わりに動きベクトルの分散を用いて量子化ステップを決定しても、効率的に符号化データ量を削減することができる。例えば、同一タイルに対して経時的に検出される動きベクトルの分散が第1の値である場合の量子化ステップよりも、第2の値(>第1の値)に対する量子化ステップを大きくする。なお、動きベクトルの分散としては、例えば、複数フレームにわたる動きベクトルの水平成分の分散と垂直成分の分散との和を用いることができる。
本実施形態によれば、動きベクトルに基づいて、符号化対象の画像の領域のうちリフォーカス処理によるピント微調整の効果が低いと想定される領域については、ピント微調整の効果が低いと想定されない領域よりも量子化ステップを大きくするようにした。そのため、リフォーカス処理の効果を実質的に維持したまま、効率的に符号データ量を削減することができる。
●(第3実施形態)
次に、本発明の第3実施形態について説明する。なお、本実施形態は第1実施形態で説明したデジタルカメラ100において、第2実施形態で説明した画像圧縮部203’を用いる機能構成によって実施可能である。そのため、第1および第2実施形態と同様の参照数字を用いて説明する。
本実施形態は、第2実施形態で検出する動きベクトルを利用して被写体のフレームアウトなどのシーンチェンジを検出し、予測画像をリセットする構成に関する。図9は、制御部101が動きベクトルを用いて被写体のフレームアウトを検出する原理について説明するための図である。
ここでは、固定の撮影範囲1401で動画もしくは静止画の連写を行っているものとする。撮影開始時に被写体1402に合焦しているものとする。画像圧縮部203’の動きベクトル検出部1201が、被写体1402を含むタイルについて第2フレーム~第4フレームで検出した動きベクトル1403~1405をつなげて記載している。このように、検出された動きベクトルを累積し、最新の動きベクトルの終点座標が撮影範囲1401を超えたか否かを判定することにより、被写体1402がフレームアウトしたか否かを判定することができる。図9の例の場合、第4フレームで検出された動きベクトル1405の終点が撮影範囲1401を超えているため、被写体1402がフレームアウトしたことを検出することができる。ここで、被写体の「フレームアウト」とは、被写体領域の全体が撮影範囲に含まれていた状態から、被写体領域の少なくとも一部が撮影範囲外に移動した(撮影されなくなった)状態になったことを意味する。
ここで、画像座標系が、例えば撮影範囲1401の左上を0とし、右及び下方向が正となる直交座標系であり、撮影範囲1401の大きさが水平xmax画素、垂直ymax画素であるとする。制御部101(シーンチェンジ検出手段)は、現フレームで検出された動きベクトルの始点と、直前のフレームで検出された動きベクトルの終点との位置関係から、同じ被写体に対する動きベクトルを判別する。そして、制御部101は、同じ被写体に対する動きベクトルの水平方向成分の累計値xsumと、最初に検出された動きベクトルの始点の水平画像座標xとの和(x+xsum)を求める。制御部101は、和(x+xsum)が負になるか、xmax-1を超えた場合に、対応する被写体がフレームアウトし、シーンチェンジが発生したと判定する。垂直方向についても同様に判定することができる。
図10は、本実施形態における制御部101の予測画像更新処理に関するフローチャートである。第1実施形態と同様の処理を行うステップには図6と同じ参照数字を付してある。本実施形態では、S1502でフレームアウトを検出すると、制御部101が処理をS1001に戻して予測画像およびフレームカウンタnの値を初期化(リセット)する。S1502でフレームアウトを検出しない場合には第1実施形態と同一の処理になる。
符号化時に予測画像をリセットした場合、制御部101は、予測画像をリセットしたフレーム番号をデータファイルのヘッダに記録する。これにより、復号時においても予測画像をリセットすることができる。すなわち、直前フレーム(n-1)が予測画像をリセットしたフレームに該当した場合、加算部806および816で加算する予測画像PREV_L(n)およびPREV_H(n)を全画素0の画像とする。
本実施形態によれば、例えば大きなカメラワークによるシーンチェンジを被写体フレームアウトとして検出した場合、加算画像のフレーム間予測符号化および復号に用いる予測画像をリセットすることができる。そのため、他の実施形態の効果に加え、シーンチェンジによる符号化効率の低下を抑制できる。なお、シーンチェンジは必ずしも動きベクトルを用いて検出する必要は無い。例えば直前フレームの加算画像と現フレームの加算画像との差が閾値を超える場合(相互相関が低いと判定される場合)にシーンチェンジが発生したと判定するなど、公知の他の方法を用いて検出してもよい。
●(第4実施形態)
次に、本発明の第4実施形態について説明する。なお、本実施形態は第1実施形態で説明したデジタルカメラ100と同じ機能構成によって実施可能である。そのため、第1実施形態と同様の参照数字を用いて説明する。
図11は、本実施形態における撮像部105’の機能構成例を示すブロック図であり、第1実施形態の撮像部105と同じ機能ブロックについては図2(a)と同じ参照数字を付してある。撮像部105’は、撮像部105に像ずれ量検出部205を追加した構成を有する。
像ずれ量検出部205は、視差画像間の像ずれ量を、図2(b)に示したタイルごとに検出する。例えば第3実施形態でフレームアウトを検出する場合のように、追跡対象の被写体に対応するタイルについて像ずれ量を検出することができる。ここで、追跡対象の被写体は画像中で検出された特定の特徴を有する領域(例えば人物の顔など)であってよい。視差画像間の像ずれ量は公知の手法を用いて検出することができる。例えば、像ずれ量を検出する1組の視差画像をシフト加算して得られる合成画像の品質評価値が最大となるシフト量を像ずれ量として算出することができる。像ずれ量は例えば光学系104の自動焦点検出に用いることができるが、用途に制限はない。
図12は、制御部101が被写体の最大像ずれ量を検出する動作に関する模式図である。横軸は時系列で撮影された動画または静止画のフレーム番号、縦軸は追跡対象の被写体に対応するタイルについて検出された像ずれ量である。本実施形態においては、現フレームから3フレーム前まで(図12におけるフレーム番号nからn-3まで)の被写体像ずれ量の最大絶対値を最大像ずれ量として検出する。しかし、例えば直近数フレームの平均像ずれ量を用いるなどしてもよい。したがって、図12に示す例では、最大像ずれ量は2画素となる。なお、像ずれ量の符号は像ずれの方向を示す。例えばシフト方向が水平方向であれば水平右方向を正、水平左方向を負とすることができる。
本実施形態では、被写体の最大像ずれ量(推定されるボケ量)に応じて符号化方式を変更する。なお、被写体の最大像ずれ量は、複数の視差画像のうち予め定められた少なくとも1対を用いて検出することができる。複数対について検出した像ずれ量の最大値を最大像ずれ量としてもよい。具体的には、最大像ずれ量が閾値以下の場合(第2の大きさ)であれば第1~第3実施形態で説明した符号化方法のいずれかを、閾値を超える場合(第1の大きさ)には従来の符号化方法を実施する。ここでは、第1~第3実施形態で説明した符号化方法をレベル1伝送モードまたは第1のモードと呼ぶ。従来の符号化方法を従来伝送モードまたは第2のモードと呼ぶ。
従来の符号化方法とは、差分画像についても全てのサブバンドについてデータを符号化する方法である。より具体的には、図3に示した画像圧縮部203において、ウェーブレット変換部522、532、542が、スケーリング係数(LL)を含む、全てのサブバンド係数をエンコード部523、533、543に出力する。そして、エンコード部523、533、543は全てのサブバンド係数を符号化する。
従来伝送モードでは、符号化データ量を削減できないが、リフォーカス処理時にすべてのサブバンドを用いることができるため、スケーリング係数(LL)を用いないレベル1伝送モードよりもリフォーカス処理によるピント調整可能範囲が広い。したがって、制御部101は、図13(a)のフローチャートに示すように、追跡対象の被写体のボケが大きいと考えられる、被写体の最大像ずれ量が閾値を超える場合(S2101、NO)には、従来伝送モードを選択する(S2103)。一方、制御部101は、追跡対象の被写体のボケが小さいと考えられる、被写体の最大像ずれ量が閾値以下の場合(S2101、YES)には、レベル1伝送モードを選択し(S2102)、符号化データ量を削減する。図13(a)に示した処理は符号化時にタイルごとに実行することができる。
このように、追跡対象の被写体のボケの大きさに応じて、符号化データ量の削減を優先した符号化を行うか、リフォーカス処理によるピント調整量を優先した符号化を行うかを動的に選択する。そのため、追跡対象の被写体のボケ量が大きいにもかかわらずリフォーカス処理でピントを合わせられなかったり、必要以上の符号化データを生成したりすることを抑制できる。符号化データがレベル1伝送モードか従来伝送モードかは、制御部101が例えばタイルと関連づけてファイルのヘッダに記録することができる。
なお、復号時、制御部101は、復号対象の符号化データがレベル1伝送モードによる符号化データか、従来伝送モードによる符号化データかを判別し、判別結果に応じて画像処理部107における復号方法を変更する。具体的には、図13(b)のフローチャートに示すように、制御部101は、復号対象のタイルの符号化データがレベル1伝送モードによる符号化データであれば(S2201、YES)、レベル1リフォーカスモードを決定する(S2202)。また、制御部101は、復号対象のタイルの符号化データが従来伝送モードによる符号化データであれば(S2201、NO)、従来リフォーカスモードを決定する(S2203)。制御部101は、決定したリフォーカスモードを画像処理部107に通知する。図13(b)に示した処理はタイルごとに実行することができる。
画像処理部107では、レベル1リフォーカスモードが通知されたタイルについては、図7を用いて第1実施形態で説明したように復号および復元処理を実行する。一方、従来リフォーカスモードが通知されたタイルについては、デコード部821、831、841においても全てのサブバンド係数が復号されるため、ウェーブレット逆変換部822、832、842も全てのサブバンド係数を用いてウェーブレット逆変換する。なお、デコード部801は全てのサブバンド係数をウェーブレット逆変換部812に供給し、ウェーブレット逆変換部802に供給する全てのサブバンド係数を0とする。また、予測画像PREV_L(n)は全画素0とする。つまり、加算部804の入力ADD_L(n)は全画素0の画像となるので、シフト加算部803が生成するリフォーカス画像がそのまま最終的なリフォーカス画像となる。
なお、本実施形態においては、説明および理解を容易にするため、符号化時のウェーブレット変換の分解レベルを1とした。しかし、2種類以上の分解レベルを選択可能に構成してもよい。分解レベルを高くするほど差分画像のウェーブレット展開係数のレベルをきめ細かく制御することができるため、符号化データ量をきめ細かく制御することができる。
例えば、分解レベル3までウェーブレット変換を行う場合、制御部101は、最大像ずれ量の閾値をTHs1~THs3(THs1>THs2>THs3)とし、最大像ずれ量が閾値THs1を超える場合には従来伝送モードを決定する。そして、制御部101は、最大像ずれ量がTHs1以下THs2超である大きさであれば差分画像のウェーブレット展開係数を分解レベル3まで伝送するレベル3伝送モードを決定する。また、制御部101は、最大像ずれ量がTHs2以下THs3超の大きさであれば差分画像のウェーブレット展開係数を分解レベル2まで伝送するレベル2伝送モードを決定する。さらに、制御部101は、最大像ずれ量がTHs3以下の大きさであればレベル1伝送モードを決定する。このように、分解レベルと像ずれ量の閾値を2以上とすることにより、符号化データ量を一層きめ細かく制御することができる。
また本実施形態においては、直近の所定数のフレームにおける像ずれ量の最大絶対値を最大像ずれ量とした。しかし、例えば像ずれ量の履歴を機械学習の入力として、機械学習により推定した次フレーム以降の最大像ずれ量を用いるなど、他の方法で最大像ずれ量を推定してもよい。
本実施形態によれば、符号化データ量を、追跡対象の被写体のボケ量に応じて制御するため、ボケ量に応じた適切な量の符号化データ量で多視点画像の符号化データを記録することができる。
(その他の実施形態)
上述した第1~第4実施形態は、その一部または全部を適宜組み合わせることが可能である。また、第1~第4実施形態は撮像部においてサブバンド分割や符号化などを行う構成について説明した。しかし、撮像部はA/D変換までを行い、サブバンド分割や符号化などは制御部または画像処理部が実行するように構成してもよい。また、第1~第4実施形態におけるサブバンド分割や符号化などは、必ずしも撮影時に実行しなくてもよい。例えば記録済みのRAWに対してこれらの処理を実行することによっても、記録サイズを削減するという効果は得られる。また、第1~第4実施形態においては、符号化処理と復号処理とを同じ装置で行う構成であったが、符号化処理と復号処理とは異なる装置で行ってもよい。また、本発明は説明した実施形態の構成に限定されない。実施形態の構成は特許請求の範囲に記載された範囲で様々な変形および変更が可能であり、それらは全て本発明に含まれる。
また、上述した実施形態では、画像圧縮部が画素部と同一半導体チップ内にある構成とした。しかし、画素部を有する撮像用のチップと、画像圧縮部を含むFPGA(field-programmable gate array)などの回路とが独立して設けられ、配線で電気的に接続されていてもよい。このとき、画像圧縮部からの出力は、さらに別のチップに搭載された画像処理部などに出力される。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…デジタルカメラ、101…制御部、102…ROM、204、103…RAM、104…光学系、105…撮像部、107…画像処理部、108…記録媒体

Claims (25)

  1. 複数の視差画像の加減算に基づく複数の第1の差分画像と、前記複数の視差画像の加算に基づく現在の加算画像と過去の加算画像との第2の差分画像とを、高帯域成分を含むサブバンドと高帯域成分を含まないサブバンドとを含む、複数のサブバンドに分割する分割手段と、
    前記複数の第1の差分画像と前記第2の差分画像とを符号化する符号化手段と、を有し、
    前記符号化手段は、前記複数の第1の差分画像については前記複数のサブバンドの一部のサブバンドのデータのみを符号化し、前記第2の差分画像については前記複数のサブバンドのデータを符号化するとともに、前記複数の第1の差分画像については前記高帯域成分を含むサブバンドのデータを符号化する、
    ことを特徴とする画像処理装置。
  2. 前記現在の加算画像と前記過去の加算画像とから動きベクトルを検出する動き検出手段と、
    前記動きベクトルに基づいて、前記符号化手段が用いる量子化ステップを決定する決定手段と、
    をさらに有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、符号化対象の領域における被写体ブレが閾値を超える場合には、前記被写体ブレが前記閾値以下の場合よりも大きい前記量子化ステップを決定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記決定手段は、前記符号化対象の領域の動きベクトルの大きさに基づく被写体移動量が、前記複数の視差画像の取得に用いられた撮像装置の許容錯乱円径より大きい場合に、前記符号化対象の領域における被写体ブレが閾値を超えると判定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記決定手段は、符号化対象の領域における被写体ブレが閾値を超える場合には、第1の被写体移動量に対する量子化ステップよりも、前記第1の被写体移動量より大きい第2の被写体移動量に対する量子化ステップが大きくなるように前記量子化ステップを決定することを特徴とする請求項4に記載の画像処理装置。
  6. 前記決定手段は、符号化対象の領域における被写体ブレが閾値を超える場合には、前記複数の第1の差分画像の符号化に用いる量子化ステップが、前記第2の差分画像の符号化に用いる量子化ステップ以上となるように前記量子化ステップを決定することを特徴とする請求項3から請求項5のいずれか1項に記載の画像処理装置。
  7. 前記決定手段は、符号化対象の領域に対する動きベクトルの分散が第1の値である場合の量子化ステップよりも、前記第1の値より大きい第2の値である場合の量子化ステップが大きくなるように前記量子化ステップを決定することを特徴とする請求項2に記載の画像処理装置。
  8. 前記決定手段は、リフォーカス処理によるピント微調整の効果が低いと想定される符号化対象の領域の符号化に用いる量子化ステップが、前記ピント微調整の効果が低いと想定されない符号化対象の領域の符号化に用いる量子化ステップよりも大きくなるように前記量子化ステップを決定することを特徴とする請求項2に記載の画像処理装置。
  9. シーンチェンジの発生を検出するシーンチェンジ検出手段をさらに有し、
    前記現在の加算画像についてシーンチェンジの発生が検出された場合には、前記過去の加算画像として全画素0の画像を用いることを特徴とする請求項1から請求項8のいずれか1項に記載の画像処理装置。
  10. 前記現在の加算画像と前記過去の加算画像とから動きベクトルを検出する動き検出手段をさらに有し、
    前記シーンチェンジ検出手段が、前記動きベクトルに基づいて前記シーンチェンジの発生を検出することを特徴とする請求項9に記載の画像処理装置。
  11. 前記シーンチェンジ検出手段が、特定の被写体についての前記動きベクトルの累積に基づいて前記シーンチェンジの発生を検出することを特徴とする請求項10に記載の画像処理装置。
  12. 前記符号化手段は、
    前記複数の第1の差分画像については前記複数のサブバンドの前記一部のサブバンドのデータのみを符号化し、前記第2の差分画像については前記複数のサブバンドのデータを符号化する第1のモードと、
    前記複数の第1の差分画像および前記第2の差分画像の両方について前記複数のサブバンドのデータを符号化する第2のモードと、
    を有し、
    前記画像処理装置は、
    前記複数の視差画像の少なくとも1対について、視差画像間の像ずれ量を検出する像ずれ量検出手段と、
    前記像ずれ量の大きさが第1の大きさの場合には前記第2のモードで、前記像ずれ量の大きさが前記第1の大きさより小さい第2の大きさの場合には前記第1のモードで符号化を行うように前記符号化手段を制御する制御手段と、
    をさらに有することを特徴とする請求項1から請求項11のいずれか1項に記載の画像処理装置。
  13. 前記サブバンドの分解レベルが複数であり、前記第1のモードで符号化を行うように前記符号化手段を制御する場合、前記制御手段は、前記第1の差分画像について、
    前記像ずれ量の大きさが第3の大きさの場合には第2の分解レベルまでの係数を符号化し、
    前記像ずれ量の大きさが前記第3の大きさより小さい第4の大きさの場合には前記第2の分解レベルより低い第1の分解レベルまでの係数を符号化する、
    ように前記符号化手段を制御することを特徴とする請求項12に記載の画像処理装置。
  14. 複数の視差画像の加算に基づく現在の加算画像と過去の加算画像との差分画像の複数のサブバンドを符号化した第1の符号化データと、前記複数の視差画像の加減算に基づく複数の差分画像のそれぞれの、前記複数のサブバンドのうち、高帯域成分を含むサブバンドを符号化した第2の符号化データと、を取得する取得手段と、
    前記第1の符号化データのうち、高帯域成分を含まないサブバンドの符号化データを用いて復元した画像に、過去に復元した加算画像の低帯域成分を予測画像として加算して、加算画像の低帯域成分を復元する第1の加算手段と、
    前記第1の符号化データのうち、前記高帯域成分を含むサブバンドの符号化データを用いて復元した画像に、過去に復元した加算画像の高帯域成分を予測画像として加算して、加算画像の高帯域成分を復元する第2の加算手段と、
    前記第2の加算手段が復元した加算画像の高帯域成分と、前記第2の符号化データから復元した複数の前記差分画像の高帯域成分とから、前記複数の視差画像を復元する復元手段と、
    前記復元した前記複数の視差画像を用いてリフォーカス画像を生成する生成手段と、
    前記第1の加算手段が復元した前記加算画像の低帯域成分に前記リフォーカス画像を加算する第3の加算手段と、
    を有することを特徴とする画像処理装置。
  15. 前記第1の加算手段が復元した加算画像の低帯域成分を、前記第1の加算手段が用いる前記過去に復元した加算画像の低帯域成分として保存し、
    前記第2の加算手段が復元した加算画像の高帯域成分を、前記第2の加算手段が用いる前記過去に復元した加算画像の高帯域成分として保存する、
    記憶手段をさらに有することを特徴とする請求項14に記載の画像処理装置。
  16. 前記生成手段は、前記復元した複数の視差画像の高帯域成分をシフト加算することにより前記リフォーカス画像を生成することを特徴とする請求項14または請求項15に記載の画像処理装置。
  17. 前記第1の符号化データおよび前記第2の符号化データが、リセットされた予測画像を用いてフレーム間予測符号化されている場合、リセットした画像を前記過去に復元した加算画像の低帯域成分および高帯域成分として用いることを特徴とする請求項14から請求項16のいずれか1項に記載の画像処理装置。
  18. 前記リセットした画像が、全画素0の画像であることを特徴とする請求項17に記載の画像処理装置。
  19. 光学系からの光束を受光し、視点の異なる複数のアナログ画像信号を出力する複数の光電変換部を有する撮像素子と、
    前記撮像素子から出力される前記複数のアナログ画像信号に基づく複数の第1の差分画像と第2の差分画像とを符号化する請求項1から請求項13のいずれか1項に記載の画像処理装置と、
    前記画像処理装置で符号化された符号化データをメモリに記録する記録手段と、
    を有することを特徴とする撮像装置。
  20. 前記符号化手段で符号化され、前記メモリに記録された符号化データを復号し、前記複数のアナログ画像信号の視差を利用した画像処理を施す画像処理回路をさらに有することを特徴とする請求項19に記載の撮像装置。
  21. 光学系からの光束を受光し、視点の異なる複数のアナログ画像信号を出力する複数の光電変換部を有する第1半導体基板と、
    前記複数のアナログ画像信号に基づく複数の第1の差分画像と第2の差分画像とを符号化する請求項1から請求項13のいずれか1項に記載の画像処理装置を有する第2半導体基板と、
    が積層状に重ねて配置されて構成されることを特徴とする撮像素子。
  22. 画像処理装置が実行する画像処理方法であって、
    複数の視差画像の加減算に基づく複数の第1の差分画像と、前記複数の視差画像の加算に基づく現在の加算画像と過去の加算画像との第2の差分画像とを、高帯域成分を含むサブバンドと高帯域成分を含まないサブバンドとを含む、複数のサブバンドに分割する分割工程と、
    前記複数の第1の差分画像と前記第2の差分画像とを符号化する符号化工程と、を有し、
    前記符号化工程は、前記複数の第1の差分画像については前記複数のサブバンドの一部のサブバンドのデータのみを符号化し、前記第2の差分画像については前記複数のサブバンドのデータを符号化するとともに、前記複数の第1の差分画像については前記高帯域成分を含むサブバンドのデータを符号化する、
    ことを特徴とする画像処理方法。
  23. 画像処理装置が実行する画像処理方法であって、
    複数の視差画像の加算に基づく現在の加算画像と過去の加算画像との差分画像の複数のサブバンドを符号化した第1の符号化データと、前記複数の視差画像の加減算に基づく複数の差分画像のそれぞれの、前記複数のサブバンドのうち、高帯域成分を含むサブバンドを符号化した第2の符号化データと、を取得する取得工程と、
    前記第1の符号化データのうち、高帯域成分を含まないサブバンドの符号化データを用いて復元した画像に、過去に復元した加算画像の低帯域成分を予測画像として加算して、加算画像の低帯域成分を復元する第1の加算工程と、
    前記第1の符号化データのうち、前記高帯域成分を含むサブバンドの符号化データを用いて復元した画像に、過去に復元した加算画像の高帯域成分を予測画像として加算して、加算画像の高帯域成分を復元する第2の加算工程と、
    前記第2の加算工程で復元された加算画像の高帯域成分と、前記第2の符号化データから復元した複数の前記差分画像の高帯域成分とから、前記複数の視差画像を復元する復元工程と、
    前記復元した前記複数の視差画像を用いてリフォーカス画像を生成する生成工程と、
    前記第1の加算工程で復元された前記加算画像の低帯域成分に前記リフォーカス画像を加算する第3の加算工程と、
    を有することを特徴とする画像処理方法。
  24. コンピュータを、請求項1から請求項13のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのプログラム。
  25. コンピュータを、請求項14から請求項18のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのプログラム。
JP2017214188A 2017-11-06 2017-11-06 画像処理装置および画像処理方法 Active JP7079080B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017214188A JP7079080B2 (ja) 2017-11-06 2017-11-06 画像処理装置および画像処理方法
US16/178,814 US11019348B2 (en) 2017-11-06 2018-11-02 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017214188A JP7079080B2 (ja) 2017-11-06 2017-11-06 画像処理装置および画像処理方法

Publications (3)

Publication Number Publication Date
JP2019087860A JP2019087860A (ja) 2019-06-06
JP2019087860A5 JP2019087860A5 (ja) 2020-12-17
JP7079080B2 true JP7079080B2 (ja) 2022-06-01

Family

ID=66327895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017214188A Active JP7079080B2 (ja) 2017-11-06 2017-11-06 画像処理装置および画像処理方法

Country Status (2)

Country Link
US (1) US11019348B2 (ja)
JP (1) JP7079080B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007033543A (ja) 2005-07-22 2007-02-08 Fujifilm Holdings Corp 撮影装置
JP2015082757A (ja) 2013-10-23 2015-04-27 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2015171097A (ja) 2014-03-10 2015-09-28 キヤノン株式会社 画像処理装置及びその制御方法
JP2015207831A (ja) 2014-04-17 2015-11-19 キヤノン株式会社 画像符号化装置及びその制御方法
WO2017122287A1 (ja) 2016-01-13 2017-07-20 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP2017143355A (ja) 2016-02-08 2017-08-17 キヤノン株式会社 画像符号化装置及び方法及び撮像装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05336506A (ja) * 1992-06-03 1993-12-17 Matsushita Electric Ind Co Ltd 映像信号の符号化装置
JPH06189299A (ja) * 1992-12-18 1994-07-08 Matsushita Electric Ind Co Ltd 動画像圧縮装置
GB2318244B (en) * 1996-10-09 2000-09-27 Sony Uk Ltd Motion predicted image signal compression
JP3586069B2 (ja) * 1997-05-30 2004-11-10 株式会社東芝 動画像符号化方法および装置
JP4265642B2 (ja) * 2006-10-16 2009-05-20 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
CN103155542A (zh) * 2010-09-24 2013-06-12 富士胶片株式会社 图像拾取装置和图像拾取设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007033543A (ja) 2005-07-22 2007-02-08 Fujifilm Holdings Corp 撮影装置
JP2015082757A (ja) 2013-10-23 2015-04-27 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2015171097A (ja) 2014-03-10 2015-09-28 キヤノン株式会社 画像処理装置及びその制御方法
JP2015207831A (ja) 2014-04-17 2015-11-19 キヤノン株式会社 画像符号化装置及びその制御方法
WO2017122287A1 (ja) 2016-01-13 2017-07-20 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP2017143355A (ja) 2016-02-08 2017-08-17 キヤノン株式会社 画像符号化装置及び方法及び撮像装置

Also Published As

Publication number Publication date
JP2019087860A (ja) 2019-06-06
US20190141343A1 (en) 2019-05-09
US11019348B2 (en) 2021-05-25

Similar Documents

Publication Publication Date Title
JP6139713B2 (ja) デュアルアパーチャズームデジタルカメラ
US10616511B2 (en) Method and system of camera control and image processing with a multi-frame-based window for image data statistics
US8994788B2 (en) Image coding apparatus, method, program, and circuit using blurred images based on disparity
KR20120074960A (ko) 노이즈 변화와 움직임 감지를 고려한 영상 노이즈 필터링 방법 및 장치
JP2009100373A (ja) ノイズ低減処理装置、ノイズ低減処理方法、及び電子機器
US20170310903A1 (en) Image capturing apparatus and method of controlling the same
JP6714078B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2008193458A (ja) カメラ画像圧縮処理装置及び圧縮処理方法
JP7142507B2 (ja) 画像処理装置および画像処理方法、ならびに撮像装置
JP2015088832A (ja) 画像処理装置、撮像装置、および画像処理方法
JP2013050531A (ja) 撮像装置及びフォーカス制御方法
JP2015023498A (ja) 画像符号化装置、画像符号化方法およびプログラム
JP7079080B2 (ja) 画像処理装置および画像処理方法
JP7181759B2 (ja) 画像処理装置および画像処理方法
JP7041494B2 (ja) 画像処理装置および画像処理方法
US10791334B2 (en) Image processing apparatus and image processing method
JP6341598B2 (ja) 画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
CN110049254B (zh) 图像处理方法、装置、存储介质及电子设备
JP2014036357A (ja) 画像処理装置及び画像処理方法
JP5165084B2 (ja) 画像符号化装置
WO2012026122A1 (ja) 撮像装置
WO2012046369A1 (ja) 撮像装置、視差調整方法、半導体集積回路及びデジタルカメラ
JP2005149227A (ja) 画像処理装置、画像処理方法、プログラム、情報記録媒体及び撮像装置
US8406558B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP2008227876A (ja) 撮像装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201106

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220520

R151 Written notification of patent or utility model registration

Ref document number: 7079080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151