JP2017011653A - 画像処理装置、撮像装置、画像処理方法およびプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2017011653A
JP2017011653A JP2015128534A JP2015128534A JP2017011653A JP 2017011653 A JP2017011653 A JP 2017011653A JP 2015128534 A JP2015128534 A JP 2015128534A JP 2015128534 A JP2015128534 A JP 2015128534A JP 2017011653 A JP2017011653 A JP 2017011653A
Authority
JP
Japan
Prior art keywords
map data
image processing
image
decoded
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015128534A
Other languages
English (en)
Other versions
JP6614824B2 (ja
JP2017011653A5 (ja
Inventor
松岡 正明
Masaaki Matsuoka
正明 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015128534A priority Critical patent/JP6614824B2/ja
Priority to US15/189,145 priority patent/US10122939B2/en
Publication of JP2017011653A publication Critical patent/JP2017011653A/ja
Publication of JP2017011653A5 publication Critical patent/JP2017011653A5/ja
Application granted granted Critical
Publication of JP6614824B2 publication Critical patent/JP6614824B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】被写体の距離分布に関連する情報の符号化が画像処理に与える影響を低減させる画像処理装置、撮像装置、画像処理方法およびプログラムを提供する。【解決手段】画像処理装置は、画像データと、被写体の距離分布に関連するマップデータを処理する。復号化部502は、被写体像の画像データを符号化した符号化画像データを復号化して復号化画像データを生成する。復号化部501は、マップデータを符号化した符号化マップデータを復号化して復号化マップデータを生成する。デフォーカスマップ整形部503は、復号化画像データと復号化マップデータを取得し、復号化マップよりも解像度が高い復号化画像を参照して復号化マップデータの整形処理を行い、整形マップデータを生成する。背景ぼかし部504は整形マップデータを参照し、復号化画像に対して背景にボケを付加する画像処理を行う。【選択図】図5

Description

本発明は、被写体の距離分布に関連する情報を処理する画像処理技術に関する。
画像データと併せて、被写体の距離情報を記録可能な撮像装置がある。例えば、特許文献1では、画像データと距離画像を符号化することで圧縮して記録する技術が開示されている。
特開2014−112748号公報
しかし、特許文献1に開示された従来技術では、符号化時に距離マップにおける被写体の輪郭部分のデータが劣化し、復号化後の距離マップの精度が低下してしまう可能性がある。
本発明は、被写体の距離分布に関連する情報の符号化が画像処理に与える影響を低減させることを目的とする。
本発明の一実施形態に係る画像処理装置は、画像データおよび被写体の距離分布に関連するマップデータを処理する画像処理装置であって、符号化された前記画像データを復号化して復号化画像データを生成する第1の復号化手段と、符号化された前記マップデータを復号化して復号化マップデータを生成する第2の復号化手段と、前記復号化画像データおよび復号化マップデータを取得し、前記復号化マップデータよりも解像度が高い前記復号化画像データを参照して前記復号化マップデータの整形処理を行う第1の整形手段と、前記第1の整形手段により整形処理された前記復号化マップデータを参照して前記復号化画像データの画像処理を行う第1の画像処理手段を有する。
本発明の画像処理装置によれば、被写体の距離分布に関連する情報の符号化が画像処理に与える影響を低減させることができる。
本発明の実施形態に係る撮像装置の機能構成例を示すブロック図である。 本発明の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 本発明の実施形態に係る撮像装置の撮像部を説明する図である。 第1実施形態に係る撮像装置の画像処理部の構成例を示す図である。 第1実施形態に係る画像処理装置の画像処理部の構成例を示す図である。 第1実施形態に係る撮像装置の画像処理部の動作を説明する図である。 第1実施形態に係る撮像装置の画像処理部の動作を説明する図である。 第2実施形態に係る撮像装置の画像処理部の構成例を示す図である。 第2実施形態に係る画像処理装置の画像処理部の構成例を示す図である。 第3実施形態に係る撮像装置の画像処理部の構成例を示す図である。 第3実施形態に係る画像処理装置の画像処理部の構成例を示す図である。 本発明の実施形態に係るデフォーカスマップ生成処理の説明図である。
以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。各実施形態では、RGB−Dカメラと画像処理装置から成る画像処理システムを例示する。RGB−Dカメラの一例としてのデジタルカメラと、画像処理装置の一例としてのパーソナルコンピュータ(以下、PCと略記する)への適用例を説明する。この場合、デジタルカメラは画像データおよび距離マップデータの符号化装置として機能し、PCは復号化装置として機能する。
[第1実施形態]
図1は、本実施形態に係るデジタルカメラの機能構成を例示するブロック図である。各構成部はバス110を介して相互にデータを送受可能である。
システム制御部101は、例えばCPU(中央演算処理装置)を備える。システム制御部101は、デジタルカメラ100が備える各構成部の動作や処理を制御するプログラムをROM(リード・オンリ・メモリ)102から読み出し、RAM(ランダム・アクセス・メモリ)103に展開して実行する。ROM102は、データの書き換えが可能な不揮発性メモリであり、デジタルカメラ100の動作や処理を制御するプログラムの他に、各構成部の動作に必要なパラメータなどを記憶する。RAM103は、データの書き換えが可能な揮発性メモリであり、デジタルカメラ100の処理において出力されたデータの一時的な記憶領域として用いられる。
撮像光学系104は、被写体からの光を撮像部105に結像する。撮像光学系104はレンズや絞りを備える。撮像部105は、CCD(電荷結合素子)センサやCMOS(相補型金属酸化膜半導体)センサなどの撮像素子を備える。撮像素子は被写体からの光を受光して光電変換を行うことで画像信号を取得する。撮像部105は、撮像光学系104により結像された光学像を光電変換し、得られたアナログ画像信号をA(アナログ)/D(デジタル)変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号に対してA/D変換処理を行い、デジタル画像データをRAM103に出力して記憶させる。
画像処理部107は、RAM103に記憶されている画像データに対して各種の処理を行う。記録媒体108は着脱可能なメモリカードなどであり、RAM103に記憶されている画像処理部107で処理された画像やA/D変換部106によりA/D変換された画像などのデータが、記録画像データとして記録される。通信部109は、無線LAN(ローカルエリアネットワーク)などを用いた公衆モバイル通信により、記録媒体108の画像データなどを外部に送信する。
図2は、本発明の実施形態に係るPC200の機能構成を示すブロック図である。各構成部はバス207を介して相互にデータを送受可能である。CPUを有する制御部201は、PC200が備える各ブロックの動作プログラムをROM202より読み出し、RAM203に展開して実行する。制御部201は、PC200が備える各ブロックの動作を制御する。ROM202は、データの書き換えが可能な不揮発性メモリであり、PC200が備える各ブロックの動作プログラムや、各ブロックの動作に必要なパラメータなどを記憶する。RAM203は、データの書き換えが可能な揮発性メモリであり、PC200が備える各ブロックの処理にて出力されるデータの一時的な記憶領域として用いられる。
通信部204は、無線LANなどを用いて、図1のデジタルカメラ100の通信部109との間でデータを送受し、画像データなどを受信する。記録媒体205は内蔵ハードディスクなどであり、通信部204が受信した画像データなどを保存する。記録媒体205の記録済み画像データはRAM203に展開され、画像処理部206はRAM203に記憶されている画像データを処理する。
図3は、図1の撮像部105の画素配列を例示する。図3(A)は、撮像素子における縦8行と横8列の範囲について、撮像光学系104側から見た状態を示している。画素部302は、マイクロレンズ301と、一対の光電変換部303,304から構成される。複数の画素部302は、図1の撮像部105において2次元アレイ状で規則的に配列されている。図3(B)は、ある1つの画素部302の断面構造を拡大して示す図である。光電変換部303と光電変換部304のそれぞれには、図1の撮像光学系104の異なる瞳領域(異なる測距瞳領域)を通過した光束が結像される。本実施形態では、光電変換部303により光電変換された画像信号に対応する第1の画像をA像とし、光電変換部304によって光電変換された画像信号に対応する第2の画像をB像とする。A像とB像の各データを加算することで通常の撮影画像データが生成される。なお、光電変換部の分割方向および分割数については、仕様に応じて任意に変更が可能である。
図4は、図1の画像処理部107の構成を説明するための図である。
被写体像入力405は図3の光電変換部303により光電変換されたA像信号としてデフォーカスマップ生成部401と加算部402にそれぞれ入力される。また、被写体像入力406は図3の光電変換部304により光電変換されたB像信号としてデフォーカスマップ生成部401と加算部402にそれぞれ入力される。
デフォーカスマップ生成部401は、一対の被写体像(A像およびB像)から被写体のデフォーカス量分布を示すデフォーカスマップを生成する。デフォーカスマップは被写体の距離分布に関連する情報をもつマップであり、被写体の距離分布情報はカメラから被写体までの距離に応じたデフォーカス量として表現される。デフォーカスマップ生成については、公知の技術で実現することができる。以下、一対のA像信号とB像信号の一致度に基づいて像ズレ量を検出する演算処理、およびデフォーカス量への変換処理の詳細について説明する。
データ数をMとして焦点検出画素列(図3の画素部302の画素列)から読み出された一対のA像信号列に対応するデータ列をA〜Aと表記し、B像信号列をB〜Bと表記する。下記(1)式を用いた相関演算(SAD:Sum of Absolute Difference)により、相関量C(k)の演算が行われる。相関量C(k)は一対の被写体像信号パターンの一致度を表す。
C(k)=Σ|A−Bn+k| (1)
(1)式において、Σ演算はnについて総和を算出する演算を意味する。Σ演算においてn、n+kの取る範囲は、1からMの範囲に限定される。つまり、像ずらし量kに応じてデータA、Bn+kが存在する範囲に限定される。像ずらし量kは整数値をとり、一対の被写体像の信号列に対応する一対のデータ列のデータ間隔を単位とした相対的シフト量である。
図12は横軸に像ずらし量kをとり、縦軸に相関量C(k)をとって、(1)式の演算結果を例示した図である。図12に示すように、一対の被写体像の信号列に対応する一対のデータ列の相関が高いときの像ずらし量において、相関量C(k)が極小になる。相関量C(k)の値が小さいほど、一対の被写体像の信号列の相関度が高く、すなわち一対の被写体像信号の一致度が大きい。図12の例では、像ずらし量kが2のときに相関量C(k)が最も小さい値をとり、すなわち一対の被写体像信号の一致度が最も大きい。離散的な相関量C(k)が最小となるときのkをkjと表記すると、図12の場合、kj=2である。
像ずらし量kは整数値をとるため、相関量C(k)は離散値をとる。次に、下記(2)式から(5)式の3点内挿処理によって、連続的な相関量における極小値C(x)を与えるシフト量xが算出される。
x=kj+D/SLOP (2)
C(x)=C(kj)−|D| (3)
D={C(kj−1)−C(kj+1)}/2 (4)
SLOP=MAX{C(kj+1)−C(kj),C(kj−1)−C(kj)} (5)
シフト量xは、一対の被写体像の相対的な像ズレ量(shftと記す)に換算される。つまり、下記(6)式により、シフト量xは像ズレ量shftに換算される。
shft=PY・x (6)
(6)式において、検出ピッチPYは図3の画素部302の画素ピッチである。
更に、(6)式により算出された像ズレ量shftに対して、所定の変換係数kを乗算することにより、デフォーカス量(defと記す)への変換が行われる。
def=k・shft (7)
(7)式において変換係数kは、図1の撮像光学系104における、一対の測距瞳の重心間隔と測距瞳距離との比例関係に応じた変換係数であり、絞りF値に応じて変化する。
(1)式の相関量C(k)の演算量は、Σ演算の範囲とシフト量の範囲に比例して増大するので、膨大な演算量になる。このため、省電力化を目的としたデフォーカス量演算回数の削減、つまりデフォーカスマップの低解像度化(小サイズ化)が行われる。本実施形態においては、一対の被写体像の解像度(画素数)を3840×2160とし、デフォーカスマップの解像度(分解能、サンプル数)を384×216とする。
図4の加算部402は、一対の被写体像(A像とB像)の各信号を加算する。一対の被写体像のそれぞれは、図1の撮像光学系104にて、瞳の半分の領域を通過した光束が結像された像である。よって、一対の被写体像の信号を加算すれば、瞳の全領域を通過した光束による被写体の画像情報を取得できる。本実施形態においては、加算処理後の画像の解像度を、一対の被写体像と同じで3840×2160とする。
符号化部403は、デフォーカスマップ生成部401からデフォーカスマップデータを取得し、JPEG(Joint Photographic Experts Group)などの公知の符号化技術を用いて符号化する。符号化部403は、符号化デフォーカスマップ出力407としてマップデータを出力する。符号化部404は加算部402から加算処理後の画像データを取得し、JPEGなどの公知の符号化技術を用いて符号化する。符号化部404は、符号化画像出力408として画像データを出力する。
図5は、図2の画像処理部206の構成例を説明するためのブロック図である。符号化デフォーカスマップ入力505は、図4の符号化デフォーカスマップ出力407に対応し、符号化画像入力506は、図4の符号化画像出力408に対応する。
復号化部501は、符号化デフォーカスマップ入力505のデータを取得し、符号化デフォーカスマップを、JPEGなどの公知の復号化技術を用いて復号化する。復号化デフォーカスマップの解像度は、例えば384×216である。復号化マップデータである、復号化デフォーカスマップデータはデフォーカスマップ整形部503に出力される。復号化部502は、符号化画像入力506のデータを取得し、符号化画像を、JPEGなどの公知の復号化技術を用いて復号化して、復号化画像データを生成する。復号化画像の解像度は、例えば3840×2160である。復号化画像データは、デフォーカスマップ整形部503および背景ぼかし部504にそれぞれ出力される。
デフォーカスマップ整形部503は、高解像度画像を参照しながら低解像度デフォーカスマップにジョイント・バイラテラル・アップサンプリング(JBU)処理を施す。これにより、デフォーカスマップの輪郭を画像の輪郭に合わせつつ高解像度化することができる。JBU処理における着目画素位置pのフィルタ結果をJpと記すと、これは、以下の式(8)で表される。
Jp=(1/Kp)ΣI1q↓・f(|p↓−q↓|)・g(|I2p−I2q|) (8)
式(8)中の各記号の意味は以下のとおりである。
q↓:周辺画素位置
Ω :着目画素位置p↓を中心とする積算対象領域
Σ :q↓∈Ω範囲の積算
I1q↓:周辺画素位置q↓におけるデフォーカスマップ信号値
f(|p↓−q↓|):着目画素位置p↓を中心とするガウシアン関数
I2p :着目画素位置pでの整形用画像の画素値
I2q :周辺画素位置qでの整形用画像の画素値
g(|I2p−I2q|):整形用画像の画素値I2pを中心とするガウシアン関数
Kp :正規化係数であり、f・g重みの積算値。
着目画素位置pのI2pと周辺画素位置qのI2qとの差が小さい場合、つまり整形用画像において着目画素と周辺画素の画素値が近いと、その周辺画素のf・g重み(平滑化の重み)は大きくなる。
着目画素位置p↓および周辺画素位置q↓は、低解像度なデフォーカスマップ(384×216)の座標系で表される。また、着目画素位置pおよび周辺画素位置qは、高解像度な画像(3840×2160)の座標系で表される。JBU処理のフィルタ結果Jpについては画像の座標系で演算され、画像の解像度(3840×2160)と同じ解像度のデータとして背景ぼかし部504に出力される。本実施形態では、画像処理の一例として背景ぼかし処理を説明する。
背景ぼかし部504は、整形処理後のデフォーカスマップを参照しながら画像にボケを付加する。背景ぼかし部504により、背景をぼかした画像出力507のデータが得られる。画像出力507での出力解像度は、入力解像度と同じ3840×2160である。
図6および図7を参照して、図5のデフォーカスマップ整形部503および背景ぼかし部504の動作を説明する。図6は解像度画像601を例示する。主被写体602と、その背景603および604を示しており、それぞれ距離が異なる被写体である。図7(A)は、整形処理前の低解像度デフォーカスマップ701を例示する。図7(B)は低解像度デフォーカスマップ701の一部分を示しており、横軸は画素位置を表し、縦軸はデフォーカス量を表す。図7(B)に実線で示すグラフ線703は、図7(A)に点線で示すライン702におけるデフォーカス量の水平分布を表している。図7(B)の縦軸において、デフォーカス量d0を0とし、背景のデフォーカス量が負値であり、前景のデフォーカス量が正値であるとする。
デフォーカスマップ生成処理においては、(1)式のΣ演算が所定幅にわたって行われるため、出力されるデフォーカス量もその所定幅分にてなだらかに変化することになる。よって、図7(B)のデフォーカス水平分布(グラフ線703参照)は、被写体の輪郭に沿って急峻に変化することがなく、実際の被写体輪郭が正しく表現されていない。結果として、図6の主被写体602や背景603の輪郭が鈍っている。一方で、デフォーカスマップが空間的に急峻に変化することがないので、符号化による劣化は少ない。
図7(B)に点線で示すグラフ線704は、図5のデフォーカスマップ整形部503によって整形された高解像度デフォーカスマップの一部を示し、デフォーカス量の水平分布を例示する。整形時に参照される画像についても符号化による劣化を受けるが、デフォーカスマップに比べて高解像度であり劣化が少ないので、整形後の高解像度デフォーカスマップでの、被写体輪郭の劣化を小さくすることができる。
図5の背景ぼかし部504は、整形処理後のデフォーカスマップを参照しながら、以下の処理を行う。図7(B)では、縦軸に示すΔdにより、d0,d1をそれぞれ基準として区分けされる、第1から第3の領域の範囲を表している。
・デフォーカス量が(d0+Δd)〜(d0−Δd)である第1の領域では、画像にボケを付加しないこと。
・デフォーカス量が(d1+Δd)〜(d1−Δd)である第2の領域では、画像にデフォーカス量d1のボケを付加すること。
・デフォーカス量が(d1−Δd)未満である第3の領域では、画像に無限遠のボケを付加すること。
ボケ付加処理については2次元フィルタ処理で実現され、フィルタ係数BRF(x,y)は(9)式で表される。(x,y)は画像に設定される2次元座標を示し、rを閾値として1または0の値が決定される。
BRF(x,y)=1 if √(x^2+y^2)≦r
BRF(x,y)=0 if √(x^2+y^2)>r (9)
本実施形態においては、デフォーカス量d1のボケフィルタ係数のr値をr1とし、無限遠のボケフィルタ係数のr値をr2(>r1)とする。このようにすることで、デフォーカス量が小さい背景被写体の画像にはr1の小さいボケを付加し、デフォーカス量が大きい無限遠の背景被写体の画像にはr2の大きいボケを付加することができる。
デフォーカスマップ生成処理では(1)式のΣ演算の制約により、被写体の輪郭が正しいデフォーカスマップを取得することができない。そのため、デフォーカスマップの整形処理で被写体の輪郭を正しい輪郭(整形用画像の輪郭)に合わせる必要がある。
デフォーカスマップの整形後に符号化した場合、画像と同じ解像度である3840×2160の整形デフォーカスマップを生成すると、デフォーカスマップの整形処理の演算規模が大きくなってしまう。その結果、デジタルカメラ100の低消費電力化が難しくなる。また、デフォーカスマップの元の解像度である384×216での整形デフォーカスマップを生成した場合、整形した被写体輪郭部の符号化による劣化の影響が大きくなってしまう。
本実施形態では、復号化後にデフォーカスマップの整形処理が行われるので、デジタルカメラ100の消費電力を抑えつつ、符号化によるデフォーカスマップへの影響を低減させることができる。なお本実施形態では、RGB−Dカメラと画像処理装置とを別体とした画像処理システムへの適用例を説明したが、本発明はこれに限定されるものではなく、画像処理機能を搭載したRGB−Dカメラに適用してもよい。このことは後述の実施形態でも同じである。
また、本実施形態では、被写体の距離分布に関する情報としてデフォーカスマップが算出され、このマップデータを使用している。これに限らず、上述した実施形態にて各デフォーカス量を被写体距離(被写体の奥行き方向の距離)に換算して距離マップとしたものを用いてもよい。下記実施形態についても同様に被写体距離の分布を示す距離マップでも適用可能である。
[第2実施形態]
次に、本発明の第2実施形態を説明する。本実施形態にて第1実施形態と同様の構成部については既に使用した符号を用いることによってそれらの詳細な説明を省略して相違点を中心に説明する。このような説明の省略については後述の実施形態でも同じである。
図8は、本実施形態の画像処理部107の構成を説明するブロック図である。符号401から408については第1実施形態にて図4で説明したとおりである。デフォーカスマップ生成部401の出力解像度は384×216であり、加算部402の出力解像度は3840×2160である。
リサイズ部801は、加算部402の出力する画像データを取得して、プレビュー用にリサイズする。リサイズ部801の出力解像度を960×540とする。デフォーカスマップ整形部802は、デフォーカスマップ生成部401とリサイズ部801の各出力データを取得して、プレビュー用に整形処理を行う。これは図5のデフォーカスマップ整形部503と同様のものであり、出力解像度はプレビュー用の画像と同じで960×540とする。整形処理後のデフォーカスマップは符号化部803に出力される。
符号化部803は、プレビュー用のデフォーカスマップを符号化する。符号化されたマップデータは、プレビュー用の符号化デフォーカスマップ出力805のデータとなる。符号化部804はリサイズ部801の出力データを取得し、プレビュー用の画像を符号化する。符号化画像データはプレビュー用の符号化画像出力806のデータとなる。
図9(A)および(B)は、図2の画像処理部206の構成を説明するブロック図である。図9(B)に示す符号501から507については第1実施形態にて図5で説明したとおりである。背景ぼかし部504の出力解像度は3840×2160である。プレビュー用の符号化デフォーカスマップ入力904は、図8の符号化デフォーカスマップ出力805に対応し、プレビュー用の符号化画像入力905は、図8の符号化画像出力806に対応する。
図9(A)の復号化部901は、プレビュー用の符号化デフォーカスマップ入力904のデータを取得して、プレビュー用の符号化デフォーカスマップを復号化する。復号化マップデータ(デフォーカスマップデータ)は、プレビュー用の背景ぼかし部903に出力される。復号化部902は、プレビュー用の符号化画像入力905のデータを取得して、プレビュー用の符号化画像を復号化する。復号化画像データは、プレビュー用の背景ぼかし部903に出力される。
背景ぼかし部903は、図5の背景ぼかし部504と同様にぼかし処理を実行する。背景ぼかし部903の出力解像度は960×540である。プレビュー用の背景ぼかし画像出力906のデータは、表示部に送られて画面上に画像表示される。
図2のPC200は、プレビューなどの迅速な画像表示を要求される処理に対して、図1のデジタルカメラ100で整形されたデフォーカスマップを用いることで高速性を確保している。また、撮像画像データの記録処理のような高画質を要求される処理に対しては、図2のPC200でデフォーカスマップを整形することで、画質性能を確保している。
本実施形態によれば、目的に応じて被写体の距離分布に関連する最適なマップデータを選択することができる。
[第3実施形態]
次に本発明の第3実施形態を説明する。
図10は、本実施形態の画像処理部107の構成を説明するブロック図である。符号401から406については第1実施形態にて図4で説明したとおりである。デフォーカスマップ生成部401の出力解像度は384×216であり、加算部402の出力解像度は3840×2160である。また符号801から804については第2実施形態にて図8で説明したとおりである。リサイズ部801およびデフォーカスマップ整形部802の出力解像度は960×540である。
符号化デフォーカスマップ選択部1001は、符号化部403の出力または符号化部803の出力を選択し、符号化デフォーカスマップ出力1003とする。符号化画像選択部1002は、符号化部404の出力または符号化部804の出力を選択し、符号化画像出力1004とする。
図11は、本実施形態の画像処理部206について構成の一例を説明するブロック図である。符号901から906については第2実施形態にて図9で説明したとおりである。背景ぼかし部903の出力解像度は960×540である。
図2の画像処理装置が、処理能力が低いタブレット型PCである場合、画像処理部206は図11の構成とする。また、図2の画像処理装置が、処理能力が高いデスクトップ型PCの場合には、画像処理部206は図5の構成とする。
図1のデジタルカメラ100のシステム制御部101は、データ送信先の機器を判別する機能を有する。データ送信先の機器である図2の画像処理装置がタブレット型PCである場合、デジタルカメラ100は以下のデータを送信する。
・符号化デフォーカスマップとして、整形済のデフォーカスマップ(解像度960×540)のデータ。つまり、符号化デフォーカスマップ選択部1001は、符号化部803の出力を選択する。
・符号化画像として、リサイズ済の画像(解像度960×540)のデータ。つまり、符号化画像選択部1002は、符号化部804の出力を選択する。
一方、データ送信先である図2の画像処理装置がデスクトップ型PCである場合、デジタルカメラ100は以下のデータを送信する。
・符号化デフォーカスマップとして、整形処理されていないデフォーカスマップ(解像度384×216)のデータ。つまり、符号化デフォーカスマップ選択部1001は、符号化部403の出力を選択する。
・符号化画像として、リサイズ処理されていない画像(解像度3840×2160)のデータ。つまり、符号化画像選択部1002は、符号化部404の出力を選択する。
画像処理装置がデスクトップ型PCの場合、図2の画像処理部206は、整形処理されていないデフォーカスマップ(解像度384×216)のデータを取得して、整形済のデフォーカスマップ(解像度3840×2160)のデータを生成する。
デジタルカメラ100は、データ送信先の画像処理装置の処理能力が低い場合には整形済のデフォーカスマップを送信するので、画像処理装置の高速性を確保できる。また、データ送信先の画像処理装置の処理能力が高い場合には、未整形のデフォーカスマップを送信し、画像処理装置がデフォーカスマップの整形処理を実行する。これにより、画像処理装置の画質性能を確保できる。本実施形態によれば、画像処理装置の処理能力に応じて適切なデフォーカスマップを生成することができる。
また、画像処理機能を搭載したRGB−Dカメラへの適用例では、データ送信先の画像処理装置の処理能力に応じてデフォーカスマップ生成の方法を切り替えるのではなく、撮影モードに応じてデフォーカスマップ生成の方法が切り替わる。つまり、デジタルカメラ100は、SNS(Social Networking Service)共有モードなどにおいて必要な解像度が低い場合、撮影時に整形済のデフォーカスマップを符号化する。よって、SNSアップロード時の高速性を確保できる。また、写真印刷モードなどにおいて必要な解像度が高い場合には、写真印刷時で時間的に余裕があるときにデジタルカメラ100は未整形デフォーカスマップを復号してデフォーカスマップ整形する。これにより、画質性能を確保できる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 デジタルカメラ
101 システム制御部
104 撮像光学系
105 撮像部
107 画像処理部
200 パーソナルコンピュータ(画像処理装置)
206 画像処理部

Claims (22)

  1. 画像データおよび被写体の距離分布に関連するマップデータを処理する画像処理装置であって、
    符号化された前記画像データを復号化して復号化画像データを生成する第1の復号化手段と、
    符号化された前記マップデータを復号化して復号化マップデータを生成する第2の復号化手段と、
    前記復号化画像データおよび復号化マップデータを取得し、前記復号化マップデータよりも解像度が高い前記復号化画像データを参照して前記復号化マップデータの整形処理を行う第1の整形手段と、
    前記第1の整形手段により整形処理された前記復号化マップデータを参照して前記復号化画像データの画像処理を行う第1の画像処理手段を有することを特徴とする画像処理装置。
  2. 符号化されていない前記マップデータを取得して整形処理を行う第2の整形手段をさらに備え、
    前記第1の整形手段は、第1の解像度の前記復号化画像データを参照し、前記復号化マップデータを整形して前記第1の解像度のマップデータを出力し、
    前記第2の整形手段は、前記第1の解像度よりも低い第2の解像度の画像データを参照し、前記マップデータを整形して前記第2の解像度のマップデータを出力することを特徴とする請求項1に記載の画像処理装置。
  3. 符号化されていない前記マップデータを生成して前記第2の整形手段に出力するマップ生成手段をさらに備えることを特徴とする請求項2に記載の画像処理装置。
  4. 符号化された前記画像データを復号化して復号化画像データを生成する第3の復号化手段と、
    前記第2の整形手段により整形処理されてから符号化された前記マップデータを復号化して復号化マップデータを生成する第4の復号化手段と、
    前記第4の復号化手段により生成された前記復号化マップデータを参照して、前記第3の復号化手段により生成された前記復号化画像データの画像処理を行う第2の画像処理手段を有することを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記第1の画像処理手段は、前記第1の解像度の復号化マップデータを参照して前記復号化画像データの画像処理を行い、
    前記第2の画像処理手段は、前記第2の解像度の復号化マップデータを参照して前記復号化画像データの画像処理を行うことを特徴とする請求項4に記載の画像処理装置。
  6. 前記第1または第2の画像処理手段は、背景の画像をぼかす処理を行うことを特徴とする請求項5に記載の画像処理装置。
  7. 前記画像データを符号化して前記第1の復号化手段に出力する第1の符号化手段と、
    前記マップデータを符号化して前記第2の復号化手段に出力する第2の符号化手段をさらに備えることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記画像データを符号化して前記第1の復号化手段に出力する第1の符号化手段と、
    前記マップデータを符号化して前記第2の復号化手段に出力する第2の符号化手段と、
    前記画像データを符号化して前記第3の復号化手段に出力する第3の符号化手段と、
    前記第2の整形手段によって整形処理された前記マップデータを符号化して前記第4の復号化手段に出力する第4の符号化手段を備えることを特徴とする請求項4に記載の画像処理装置。
  9. 前記画像データのリサイズを行うリサイズ手段をさらに備え、
    前記第2の整形手段は、前記リサイズ手段によってリサイズ処理された画像データを取得して、前記マップデータの整形処理を行うことを特徴とする請求項2から6、8のいずれか1項に記載の画像処理装置。
  10. 前記第2の符号化手段または前記第4の符号化手段により符号化された前記マップデータを選択して出力する第1の選択手段と、
    前記第1の符号化手段または前記第3の符号化手段により符号化された前記画像データを選択して出力する第2の選択手段をさらに備えることを特徴とする請求項8に記載の画像処理装置。
  11. 前記画像データを符号化して前記第1の復号化手段に出力する第1の符号化手段と、
    前記第2の整形手段により整形されていない前記マップデータを符号化して前記第2の復号化手段に出力する第2の符号化手段をさらに備えることを特徴とする請求項2から6のいずれか1項に記載の画像処理装置。
  12. 前記第1の整形手段は、前記マップデータの着目画素に対して、当該着目画素の画素値およびその周辺画素の画素値を平滑化する際、前記着目画素の画素値と前記周辺画素の画素値とが近いほど前記周辺画素の出力に対する平滑化の重みを大きくすることを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
  13. 符号化装置と復号化装置を有する画像処理システムであって、
    前記符号化装置は、
    画像データを符号化する第1の符号化手段と、
    被写体の距離分布に関連するマップデータを符号化する第2の符号化手段と、を備え、
    前記復号化装置は、
    前記第1の符号化手段により符号化された前記画像データを復号化して復号化画像データを生成する第1の復号化手段と、
    前記第2の符号化手段により符号化された前記マップデータを復号化して復号化マップデータを生成する第2の復号化手段と、
    前記復号化画像データおよび復号化マップデータを取得し、前記復号化マップデータよりも解像度が高い前記復号化画像データを参照して前記復号化マップデータの整形処理を行う第1の整形手段と、
    前記第1の整形手段により整形処理された前記復号化マップデータを参照して前記復号化画像データの画像処理を行う第1の画像処理手段と、を備えることを特徴とする画像処理システム。
  14. 前記符号化装置は、符号化されていない前記マップデータの整形処理を行う第2の整形手段を備え、
    前記第1の整形手段は、第1の解像度の前記復号化画像データを参照し、前記復号化マップデータを整形して前記第1の解像度のマップデータを出力し、
    前記第2の整形手段は、前記第1の解像度よりも低い第2の解像度の画像データを参照し、前記マップデータを整形して前記第2の解像度のマップデータを出力することを特徴とする請求項13に記載の画像処理システム。
  15. 前記第1または第2の整形手段は、前記マップデータの着目画素に対して、当該着目画素の画素値およびその周辺画素の画素値を平滑化する際、前記着目画素の画素値と前記周辺画素の画素値とが近いほど前記周辺画素の出力に対する平滑化の重みを大きくすることを特徴とする請求項14に記載の画像処理システム。
  16. 前記符号化装置は、
    前記画像データを符号化する第3の符号化手段と、
    前記第2の整形手段によって整形処理された前記マップデータを符号化する第4の符号化手段と、を備え、
    前記復号化装置は、
    前記第3の符号化手段により符号化された前記画像データを復号化して復号化画像データを生成する第3の復号化手段と、
    前記第4の符号化手段により符号化された前記マップデータを復号化して復号化マップデータを生成する第4の復号化手段と、を備えることを特徴とする請求項14または15に記載の画像処理システム。
  17. 前記復号化装置は、前記第4の復号化手段により生成された前記復号化マップデータを参照して、前記第3の復号化手段により生成された前記復号化画像データの画像処理を行う第2の画像処理手段を備えることを特徴とする請求項16に記載の画像処理システム。
  18. 前記第1の画像処理手段は、第1の解像度の前記復号化マップデータを参照して前記復号化画像データの画像処理を行い、
    前記第2の画像処理手段は、前記第1の解像度よりも低い第2の解像度の前記復号化マップデータを参照して前記復号化画像データの画像処理を行うことを特徴とする請求項17に記載の画像処理システム。
  19. 請求項1から12のいずれか1項に記載の画像処理装置を備えることを特徴とする撮像装置。
  20. 撮像光学系を通して被写体を撮像する撮像素子を備え、
    前記撮像素子は、前記撮像光学系にて異なる瞳領域をそれぞれ通過した光を受光して光電変換する複数の光電変換部を有しており、前記複数の光電変換部の出力する信号から被写体の距離分布に関連する情報を取得することを特徴とする請求項19に記載の撮像装置。
  21. 画像データおよび被写体の距離分布に関連するマップデータを処理する画像処理装置により実行される画像処理方法であって、
    符号化された前記画像データを復号化して復号化画像データを生成する第1の復号化工程と、
    符号化された前記マップデータを復号化して復号化マップデータを生成する第2の復号化工程と、
    前記復号化画像データおよび復号化マップデータを取得し、前記復号化マップデータよりも解像度が高い前記復号化画像データを参照して前記復号化マップデータの整形処理を行う整形工程と、
    前記整形工程にて整形処理された前記復号化マップデータを参照して前記復号化画像データの画像処理を行う画像処理工程を有することを特徴とする画像処理方法。
  22. 請求項21に記載した画像処理方法の各工程を前記画像処理装置のコンピュータに実行させるためのプログラム。
JP2015128534A 2015-06-26 2015-06-26 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム Active JP6614824B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015128534A JP6614824B2 (ja) 2015-06-26 2015-06-26 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム
US15/189,145 US10122939B2 (en) 2015-06-26 2016-06-22 Image processing device for processing image data and map data with regard to depth distribution of a subject, image processing system, imaging apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015128534A JP6614824B2 (ja) 2015-06-26 2015-06-26 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2017011653A true JP2017011653A (ja) 2017-01-12
JP2017011653A5 JP2017011653A5 (ja) 2018-07-12
JP6614824B2 JP6614824B2 (ja) 2019-12-04

Family

ID=57603125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015128534A Active JP6614824B2 (ja) 2015-06-26 2015-06-26 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10122939B2 (ja)
JP (1) JP6614824B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107566723A (zh) * 2017-09-13 2018-01-09 维沃移动通信有限公司 一种拍摄方法、移动终端及计算机可读存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10897558B1 (en) * 2018-09-11 2021-01-19 Apple Inc. Shallow depth of field (SDOF) rendering
JP7293025B2 (ja) * 2019-07-29 2023-06-19 キヤノン株式会社 撮像装置およびその制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123799A (ja) * 2010-12-03 2012-06-28 Nagoya Univ 仮想視点画像合成方法及び仮想視点画像合成システム
JP2014022888A (ja) * 2012-07-17 2014-02-03 Canon Inc 撮像装置および撮像装置の制御方法
JP2015111822A (ja) * 2013-10-30 2015-06-18 株式会社モルフォ 画像処理装置、画像処理方法及びプログラム
JP2015118611A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4534756B2 (ja) * 2004-12-22 2010-09-01 ソニー株式会社 画像処理装置、画像処理方法、撮像装置、プログラム、及び記録媒体
US8482654B2 (en) * 2008-10-24 2013-07-09 Reald Inc. Stereoscopic image format with depth information
JP5704885B2 (ja) * 2010-10-25 2015-04-22 オリンパスイメージング株式会社 撮影機器、撮影方法及び撮影制御プログラム
JP2014112748A (ja) 2011-03-18 2014-06-19 Sharp Corp 画像符号化装置および画像復号装置
JP2015144423A (ja) * 2013-12-25 2015-08-06 三星電子株式会社Samsung Electronics Co.,Ltd. 画像符号化装置、画像復号化装置、それらの方法、プログラム及び画像処理システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123799A (ja) * 2010-12-03 2012-06-28 Nagoya Univ 仮想視点画像合成方法及び仮想視点画像合成システム
JP2014022888A (ja) * 2012-07-17 2014-02-03 Canon Inc 撮像装置および撮像装置の制御方法
JP2015111822A (ja) * 2013-10-30 2015-06-18 株式会社モルフォ 画像処理装置、画像処理方法及びプログラム
JP2015118611A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107566723A (zh) * 2017-09-13 2018-01-09 维沃移动通信有限公司 一种拍摄方法、移动终端及计算机可读存储介质
CN107566723B (zh) * 2017-09-13 2019-11-19 维沃移动通信有限公司 一种拍摄方法、移动终端及计算机可读存储介质

Also Published As

Publication number Publication date
JP6614824B2 (ja) 2019-12-04
US20160381305A1 (en) 2016-12-29
US10122939B2 (en) 2018-11-06

Similar Documents

Publication Publication Date Title
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
JP2018107526A (ja) 画像処理装置、撮像装置、画像処理方法およびコンピュータのプログラム
JP6614824B2 (ja) 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム
JP6604908B2 (ja) 画像処理装置、その制御方法、および制御プログラム
US10116865B2 (en) Image processing apparatus and image processing method for calculating motion vector between images with different in-focus positions
JP5062531B2 (ja) 画像処理装置および画像処理方法
US10368012B2 (en) Image capture apparatus, image processing system, and control method thereof
JP7027776B2 (ja) 移動ベクトル算出方法、装置、プログラム、及びノイズ除去処理を含む移動ベクトル算出方法
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
JP2020009180A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US10339665B2 (en) Positional shift amount calculation apparatus and imaging apparatus
WO2014077024A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2020140497A (ja) 演算装置、視差算出方法
JP6604783B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2015233270A (ja) 撮像装置およびその制御方法
JP6639276B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP6218520B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2008141616A (ja) 動きベクトル算出装置、方法およびプログラム、動画像圧縮記録装置ならびに撮像装置
JP2018180964A (ja) 画像処理装置及び画像処理方法
JP6245847B2 (ja) 画像処理装置および画像処理方法
JP2021071793A (ja) 画像処理装置、画像処理方法、撮像装置、プログラム、および記憶媒体
JP6532411B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
US20240029321A1 (en) Image processing method, image processing apparatus, storage medium, image processing system, method of generating machine learning model, and learning apparatus
JP2017228821A (ja) 画像処理装置および画像処理方法
JP6827778B2 (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191105

R151 Written notification of patent or utility model registration

Ref document number: 6614824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151