JP6080417B2 - 画像処理装置、及び画像処理方法 - Google Patents

画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
JP6080417B2
JP6080417B2 JP2012160943A JP2012160943A JP6080417B2 JP 6080417 B2 JP6080417 B2 JP 6080417B2 JP 2012160943 A JP2012160943 A JP 2012160943A JP 2012160943 A JP2012160943 A JP 2012160943A JP 6080417 B2 JP6080417 B2 JP 6080417B2
Authority
JP
Japan
Prior art keywords
image
image data
refocus
reconstructed
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012160943A
Other languages
English (en)
Other versions
JP2013165475A5 (ja
JP2013165475A (ja
Inventor
長野 明彦
明彦 長野
秀信 秋吉
秀信 秋吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012160943A priority Critical patent/JP6080417B2/ja
Priority to US13/564,850 priority patent/US9456118B2/en
Priority to KR1020120088198A priority patent/KR101529597B1/ko
Priority to BR102012020775-3A priority patent/BR102012020775B1/pt
Priority to RU2012135476/28A priority patent/RU2523083C2/ru
Priority to CN201210298159.7A priority patent/CN102957863B/zh
Priority to CN201510622424.6A priority patent/CN105163033B/zh
Publication of JP2013165475A publication Critical patent/JP2013165475A/ja
Priority to KR1020140190918A priority patent/KR101632578B1/ko
Publication of JP2013165475A5 publication Critical patent/JP2013165475A5/ja
Application granted granted Critical
Publication of JP6080417B2 publication Critical patent/JP6080417B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Camera Data Copying Or Recording (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、撮影後に画像の合焦距離を変更することのできる画像データを取り扱うことのできる撮像装置、画像処理装置、及び画像処理方法に関する。
近年、デジタルカメラの中でもライトフィールドカメラという分野のカメラが注目されている。このカメラで撮影された画像は、撮影後に合焦距離(結像面、リフォーカス面)を変えたリフォーカス画像を作り出すことができるため、あとから色々な合焦位置を選択したり、撮影時のユーザーミスによるピンボケを無くす事が期待されている。
一方、デジタルカメラで撮影した画像を表示する際に、インデックス表示という機能がある。これは、画像を縮小して一覧表示し、ユーザーが意図する画像を見つけやすくするための機能である。ところが、このライトフィールドカメラで撮影した画像は、後からどこにでも焦点を合わせる事が可能である半面、撮影時点において、ユーザーが注目したい人物などに必ずしも焦点が合っているとは限らない。特にインデックス表示の状態では、例えば、焦点が合っていない人では、誰が写っているかを判断することができず、ユーザーが画像選択に困る場合がある。
ライトフィールドカメラでの撮影時においては、上述したような被写体の顔が認識できない問題を解決する方法が特許文献1に記載されている。この特許文献1の方法では、被写界深度が変わる設定を実施した後に、予備撮影の為にレンズ位置を数回変更し、予備撮影結果から顔認識を行って撮影を行う。
特開2009−065356号公報 特許第2963990号公報 特開2000−020691号公報
しかしながら、特許文献1は撮影時に顔認識を行う方法を開示しているが、画像の再生時において上記課題を解決する方法を開示するものではない。
本発明は上記の問題点に鑑み、ライトフィールドカメラで撮影された画像データにおいて、画像データに含まれる被写体が容易に識別可能な撮像装置、画像処理装置及び画像処理方法を提供することを目的とする。
上記目的を達成するために、本発明の画像処理装置は、撮像素子で撮像された、リフォーカス処理を施すことで再構成画像を生成可能な画像データを取得する取得手段と、前記画像データに前記リフォーカス処理を行って被写体が検出されるリフォーカス面における再構成画像を生成する画像生成手段と、前記撮像素子で撮像された画像データを記録すると共に、前記被写体が検出されるリフォーカス面の再構成画像に基づく画像の画像データを補助情報として前記画像データに関連付けて記録する記録手段とを有する。
本発明によれば、ライトフィールドカメラで撮影された画像データにおいて、画像データに含まれる被写体が容易に識別可能にすることができる。
本発明の実施形態に係る撮像装置の概略構成を示すブロック図。 実施形態に係る撮像素子の画素とマイクロレンズアレイとの位置関係を説明する図。 実施形態に係る撮影レンズと、撮像素子の画素と、マイクロレンズアレイとの位置関係を説明する図。 実施形態に係る撮影レンズの瞳領域と受光画素の対応関係を説明する図。 実施形態に係るリフォーカス画像生成光線の通過領域を説明する図。 実施形態に係る補助情報としての顔の位置情報及び顔の相対サイズ情報を説明する図。 実施形態に係る本画像撮影後の記録動作を示すフローチャート。 実施形態に係る本画像のインデックス表示動作を示すフローチャート。 実施形態に係るインデックス表示例を示す図。 第3の実施形態に係るデジタルカメラ1の概略構成図。 撮影画面の分割説明図。 第3の実施形態に係る撮像処理及び復元処理を示すフローチャート。 (a)撮影モードにおいて第1のスイッチがOFFの場合のファインダー像の説明図、(b)第1のスイッチがONの場合のファインダー像の説明図。 図12のS110における復元処理の詳細を示すフローチャート。 (a)第3の実施形態に係る、撮影モードにおいて第1のスイッチがOFFの場合に表示部4に表示される画像の説明図、(b)第3の実施形態に係る、第1のスイッチがONの場合に表示部4に表示される画像の説明図、(c)第3の実施形態に係る、復元後の画像の説明図。 第4の実施形態に係るデジタルカメラ1の概略構成図。 第4の実施形態に係る撮像処理及び復元処理を示すフローチャート。 (a)第4の実施形態に係る、撮影モードにおいて第1のスイッチがOFFの場合に表示部4に表示される画像の説明図、(b)第4の実施形態に係る、第1のスイッチがONの場合に表示部4に表示される画像の説明図、(c)第4の実施形態に係る、復元後の画像の説明図。 第4の実施形態に係る、復元後の画像の説明図(主被写体が検出されなかった場合)。 本発明を適用可能な光学系を示す図。
以下、添付図面を参照して本発明を実施するための最良の形態を詳細に説明する。
<第1の実施形態>
図1は、本発明の実施形態に係る撮像装置100の概略構成を示すブロック図である。図1に示す構成において、撮影レンズ101を通過した光は撮影レンズ101の焦点位置近傍に結像する。マイクロレンズアレイ102は複数のマイクロレンズ1020から構成されており、撮影レンズ101の焦点位置近傍に配置されることで、撮影レンズ101の異なる瞳領域を通過した光を瞳領域ごとに分割して出射する機能を有する。撮像素子103はCMOSイメージセンサやCCDイメージセンサに代表される光電変換素子であり、入射光を光電変換して画像信号を出力する。複数のマイクロレンズ1020それぞれに対して複数の画素が対応するように2次元に配置することで、マイクロレンズ1020で瞳領域ごとに分割して出射された光を、分割情報を保ったまま受光し、データ処理可能な画像信号に変換することができる。
アナログ信号処理回路(AFE)104は、撮像素子103から出力される画像信号に対して相関二重サンプリング処理、信号増幅、基準レベル調整、A/D変換処理等を行う。デジタル信号処理回路(DFE)105は、アナログ信号処理回路104から出力される画像信号に対して基準レベル調整等のデジタル画像処理を行う。
画像処理回路106はデジタル信号処理回路105から出力された画像信号に対して所定の画像処理や、ライトフィールドカメラ特有の任意の仮想結像面に焦点を合わせるリフォーカス演算(現像処理)を施す。さらに画像処理回路106は、現像した画像の中から被写体を検出する被写体検出機能、検出される被写体が特定の被写体であるか否かを認識する認識機能を有する。本実施形態では、被写体検出の例として人物の顔を判定する顔判定機能、被写体認識機能として後述するメモリ回路107中の顔データベースと照合して誰の顔かを認識する顔認識機能を有するものとするが、これに限られない。さらに、再生時のインデックス表示時には、記録回路108から本画像を読み出し、所定のリフォーカスパラメタで現像を行い、縮小(サムネール化)する機能も持つ。メモリ回路107は、例えばフラッシュメモリなどの不揮発性メモリであり、人物の顔と名前を対にして記憶する顔データベース情報が格納されている。記録回路108は画像処理回路106から出力された画像信号(本画像)、及び、本画像に関連した後述する補助情報を記録保持するメモリカード等の記録媒体である。
制御回路109は撮像素子103や画像処理回路106等、撮像装置100全体を統括的に駆動制御する。操作回路110は撮像装置100に備え付けられた操作部材からの信号を受け付け、制御回路109に対してユーザーの命令を入力する。表示回路111は撮影後の画像やライブビュー画像、各種設定画面、本画像、現像画像、記録回路108に記録された補助情報等を表示する。さらに表示回路111は、後述するように、補助情報が画像の場合、その画像の一部を切り抜いて表示する事ができる。さらに補助情報が文字データの場合は、文字を表示画面上に重畳して表示する事ができる。
次に、本実施形態の撮像装置における撮影レンズ101、マイクロレンズアレイ102及び撮像素子103の位置関係について説明する。
図2は、撮像素子103およびマイクロレンズアレイ102を図1の光軸Z方向から見た図である。複数の分割画素201に対して1つのマイクロレンズ1020が対応するように配置されている。1つのマイクロレンズの後方にある複数の分割画素201をまとめて画素配列200と定義する。なお、本第1の実施形態では画素配列200は、5行5列の計25個の分割画素201により構成されているものとする。
図3は、撮影レンズ101から出射した光が1つのマイクロレンズ1020を通過して撮像素子103で受光される様子を光軸Zに対して垂直方向から見た図である。撮影レンズ101の各瞳領域a1〜a5から出射し、中央のマイクロレンズ1020を通過した光は、後方の対応する分割画素p1〜p5でそれぞれ結像する。
図4(a)は、図3で示した撮影レンズ101の光の通過領域と、撮像素子103の受光領域の様子をさらに詳しく説明するために、撮影レンズ101の開口を光軸Z方向から見た図である。図4(b)は、1つのマイクロレンズ1020とその後方に配置された画素配列200を光軸Z方向から見た図である。図4(a)に示すように撮影レンズ101の瞳領域を1つのマイクロレンズ1020の後方にある画素と同数の領域に分割した場合、1つの画素には撮影レンズ101の1つの瞳分割領域から出射した光が結像されることになる。ただし、ここでは撮影レンズ101とマイクロレンズ1020のFナンバーがほぼ一致しているものとする。
図4(a)に示す撮影レンズ101の瞳領域a11〜a55と、図4(b)に示す画素p11〜p55との対応関係は光軸Z方向から見て点対称となる。したがって、撮影レンズ101の瞳領域a11から出射した光は、マイクロレンズ1020の後方にある画素配列200のうち、画素p11に結像する。これと同様に、瞳領域a11から出射し、別のマイクロレンズ1020を通過する光も、そのマイクロレンズ1020の後方にある画素配列200の中の画素p11に結像する。
ここで、画面内の任意の被写体位置に対応した焦点位置(リフォーカス面)を算出する方法について述べる。図4で説明したように、画素配列200の各画素は、撮影レンズ101に対して互いに異なる瞳領域を通過した光を受光している。これらの分割信号から複数の画素信号を合成することで、水平方向に瞳分割された一対の信号を生成する。
式(1)は、ある画素配列200の各画素について、撮影レンズ101の射出瞳の左側領域(瞳領域a11〜a51及びa12〜a52)を通過した光を積分したものである。これを水平方向に並ぶ複数の画素配列200に適用し、これらの出力信号群で構成した被写体像をA像とする。また、式(2)は、ある画素配列200の各画素について、撮影レンズ101の射出瞳の右側領域(瞳領域a14〜a54及びa15〜a55)を通過した光を積分したものである。これを水平方向に並ぶ複数の画素配列200に適用し、これらの出力信号群で構成した被写体像をB像とする。A像とB像に対して相関演算を施し、像のずれ量(瞳分割位相差)を検出する。さらに、像のずれ量に対して撮影レンズ101の焦点位置と光学系から決まる変換係数を乗じることで、画面内の任意の被写体位置に対応した焦点位置を算出することができる。
次に、撮影レンズ101、マイクロレンズアレイ102及び撮像素子103の構成によって取得された撮像データに対して行う、任意に設定した焦点位置(リフォーカス面)での画像の再構成処理について説明する。
図5は、任意に設定したリフォーカス面上のある画素を通過する光が、撮影レンズ101のどの瞳分割領域から出射され、どのマイクロレンズ1020へ入射するかを光軸Zに対して垂直方向から見た図である。ここで、撮影レンズ101の瞳分割領域の位置を座標(u,v)、リフォーカス面上の画素位置を座標(x,y)、マイクロレンズアレイ102上のマイクロレンズ1020の位置を座標(x’,y’)とする。更に、撮影レンズ101からマイクロレンズアレイ102までの距離をF、撮影レンズ101からリフォーカス面までの距離をαFとする。αはリフォーカス面の位置を決定するためのリフォーカス係数であり、ユーザーが任意に設定でき、あるいはシーン判別、被写体検出などに応じて設定できる。なお、図5ではu、x、x’の方向のみを示し、v、y、y’については省略してある。図5に示すように、座標(u,v)と座標(x,y)を通過した光は、マイクロレンズアレイ102上の座標(x’,y’)に到達する。この座標(x’,y’)は式(3)のように表すことができる。
そして、この光を受光する画素の出力をL(x’,y’,u,v)とすると、リフォーカス面上の座標(x,y)で得られる出力E(x,y)は、L(x’,y’,u,v)を撮影レンズ101の瞳領域に関して積分したものとなるため、式(4)のようになる。
式(4)において、α、(x,y)、(u,v)を与えれば、光が入射するマイクロレンズ1020の位置(x’,y’)がわかる。そして、そのマイクロレンズに対応する画素配列200から(u,v)の位置に対応する画素がわかる。この画素の出力がL(x’,y’,u,v)となる。これをすべての瞳分割領域について行い、求めた画素出力を積分することでE(x,y)が算出できる。なお、(u,v)を撮影レンズの瞳分割領域の代表座標とすれば、式(4)の積分は、単純加算により計算することができる。
以下、本実施形態における補助情報の形式を説明する。撮像時、画像処理回路106は撮像素子103から出力された画像信号(ライトフィールド情報)から本画像を記録回路108へ記録する。このとき、さらに画像データ(付加画像)及び文字データ(付加情報)を生成し、これを本画像に対する補助情報とする。ここでは、撮影時の補助情報の生成動作について、図1と、図7のフローチャートとを用いて説明する。
まずは、補助情報として画像データを生成、記録する方法について説明する。S600で本画像の撮影を行う。撮影時、撮像素子103から出力された画像信号は、AFE104でアナログ信号処理され、DFE105でデジタル信号処理が施される。デジタル信号処理の後、画像処理回路106を通って本画像は記録回路108へ記録される。以下の処理は、制御回路109が制御する。
本画像の記録が終了すると、補助情報の生成と記録を行う。S601で、制御回路109は画像処理回路106でリフォーカスを行うためのリフォーカス係数を初期値に設定する。初期値は最も近景にフォーカスが合う値とする。
S602では、制御回路109がリフォーカス係数が最も遠景にフォーカスが合う値になったかを監視し、リフォーカス係数が最も遠景を示す値に達していれば、処理を終了する。そうでなければS603へ移行する。S603では、制御回路109はリフォーカス係数を一定量遠景方向に変化させる。その後、制御回路109はそのリフォーカス係数で現像を行うよう画像処理回路106に現像を指示する。
S604では、画像処理回路106は、S603で指定されたリフォーカス係数で現像した画像(再構成画像)に対して被写体判定処理、例えば顔判定処理を行う。顔判定の結果、現像した画像中に顔が存在すると判定されれば、S605へ移り、顔が存在すると判定されなければS602に処理を戻す。S605では、制御回路109は顔判定後の処理を制御する。具体的には、制御回路109は画像処理回路106に指示し、判定された顔に合焦した現像画像をJPEGにして本画像と関連付けて、付加画像として記録回路108に保存するよう指示する。同じ顔が判定された現像画像が複数ある場合に、その顔に最も合焦した現像画像を保存するが、保存する現像画像の特定方法としては、顔と判定された位置について前述した相関演算により焦点位置を検出することによりリフォーカス係数を特定する手法を用いる。また、これに限らず、エッジ検出、顔判定の信頼度等から顔に最も合焦している現像画像を特定してもよい。この場合、順次生成される現像画像についてエッジの評価値、顔判定の信頼度等を比較し、大きい値をとる現像画像をメモリ回路107に残していけばよい。その後、S602の処理に戻って、上述した処理を繰り返す。
図7に示す例では、補助情報として付加画像(画像データ)を保存する場合について説明したが、補助情報として付加情報を保存してもよい。ここで、付加情報とは、顔が判定された画像を生成した際のリフォーカス係数の値、本画像上での顔の位置情報、本画像サイズに対する顔の相対サイズ情報などが挙げられる。
顔の位置情報とは、本画像の左上を原点とし、顔が、右方向、下方向にどの程度進めた位置に出現するかを数値化したものである。これを図6を用いて説明する。501は本画像全体を表す。500は顔判定された顔を表す。また、本画像全体の幅と高さをそれぞれW、Hとし、顔の幅と高さをそれぞれWface、Hfaceとする。更に、原点Oから顔の開始位置までの横方向の距離をDxとし、原点から顔の開始位置までの縦方向の距離をDyとすると、相対サイズ情報の相対幅は(Wface/W)で求め、相対高さは(Hface/H)で求める。また、位置情報の横方向相対距離は(Dx/W)で求め、縦方向相対距離は(Dy/H)で求める。これらの付加情報をデータファイルにし、本画像と関連させて記録回路108で保持するよう指示する。
次に、図8、図9を参照して、記録回路108から記録した本画像と補助情報(付加画像、付加情報)を読みだしてライトフィールド画像のインデックス表示を表示回路111に対して行う場合について説明する。
図9(a)において801は表示画面であり、表示回路111の一部である。802で示す矩形画像は本画像を縮小したサムネール画像である。ユーザーが操作回路110に対してインデックス表示を指示すると、操作回路110は制御回路109に対して、インデックス表示の指示を行う。インデックス表示の指示を受けて画像処理回路106は記録回路108から本画像を読み出し、縮小してサムネール画像を生成する。このサムネール画像を表示回路111に渡し、表示画面801にインデックス画面を構築する。803は複数のサムネールから1つのサムネール画像を選択する際のカーソルであり、表示回路111によって描画される。804は本画像に記録された人物A、805は同様に記録された人物Bである。本画像を特定のリフォーカス係数で現像すると被写界深度が浅く、すべての被写体に焦点が合うものではない。図9(a)に示す例では、実線で描かれた人物Aには焦点が合っているのに対し、点線で描かれた人物Bには焦点が合っておらず、ボケた状態である事を示している。
図8のS701で、ユーザーは、操作回路110に対してカーソル803を動かす指示を行い、対象となるサムネール画像を選択する。サムネール画像が選択された状態を図9(b)に示す。
S702で制御回路109は、選択されたサムネール画像に関連する補助情報の検索を画像処理回路106に指示する。画像処理回路106は、図9(b)で選択されたサムネール画像の本画像に関連した補助情報を記録回路108から検索する。S703において、検索結果として人物Aと人物Bの夫々に焦点があった付加画像または付加情報(顔の相対位置、相対サイズ)が得られた場合、制御回路109は人物Aと人物Bを、選択されたサムネール画像の近傍に同時に表示する。ここでは、顔にフォーカスがあった付加画像と顔の相対位置を示す付加情報から、表示回路111に顔の領域だけを切り出して、夫々811、812に示すように表示する。このように表示することで、ユーザーは被写界深度の浅い本画像のサムネール画像を見ながらも、誰が写っているかを容易に確認することができる。
次に、付加画像をそのまま縮小して表示する場合について説明する。これを図9(c)に示す。図9(b)の場合と同様に制御回路109は821、822に示すような画像を、選択されたサムネール画像の付近に表示するよう表示回路111に指示する。画像821はリフォーカス係数1で現像した画像であり、人物Aに焦点が合っている。また画像822はリフォーカス係数2で現像した画像であり、人物Bに焦点が合っている。このように表示することで、ユーザーはサムネール画像と、被写体の顔それぞれに焦点が合った画像を複数枚並べて閲覧することが可能である。
上記の通り第1の実施形態によれば、本画像と関連づけて補助情報を記録しておき、記録した補助情報から得られる、本画像に含まれる顔に合焦した画像を、選択されたサムネール画像の近辺に表示する。これにより、ユーザーが意図した被写体の画像を選択し易くすることができる。
本実施形態では、S603にて画面内に存在する各被写体を特定し、各被写体に合焦した画像を得るために、リフォーカス係数を最も近景(広角側)に合焦される値から一定量ずつ遠景に合焦される値に変化させて複数の現像画像を生成した。しかしこれに限らず、例えば前述した相関演算などで求まる画面内の各位置の焦点位置情報(距離マップ)から各被写体の焦点位置を推定し、各被写体が合焦する複数のリフォーカス係数の候補を決定し、S603で振る複数のリフォーカス係数としてもよい。また、この複数のリフォーカス係数の候補に基づいてS603で振るリフォーカス係数の一定量を決めてもよい。
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。第2の実施形態では、上述した第1の実施形態において画像処理回路106が顔判定した際に、メモリ回路107に保存された顔・名称データベースを利用して、さらに画像処理回路106が顔認識を実施し、人物名を本画像と関連させて記録させる。
このため、本第2の実施形態においては、図1において、メモリ回路107に、顔の特徴と名前とを関連付けたデータベースを保持させておく。そして、図7のS605において、画像処理回路106が、あるリフォーカス係数で現像した画像に対し顔判定ができれば、引き続き画像処理回路106はその顔について、メモリ回路107の顔・名称データベースに問い合わせ、顔認識を行う。そして、画像処理回路106が問い合わせた結果の人物の名前を、第1の実施形態で説明した、本画像に対する顔の付加画像、または、付加情報とともに補助情報とし、この補助情報を先に記録した本画像と関連付けて記録回路108に記録する。これ以外の処理は、第1の実施形態で上述した処理と同様であるため、説明を省略する。
なお、本第2の実施形態のように、補助情報として顔・名称データベースから取得した名前情報と、本画像に対しての相対位置、相対サイズ情報がある場合、図9(d)に示すような表示を行うことが可能である。即ち、ユーザーが選択したサムネールに対して、制御回路109は記録回路108から本画像を読み出し、所定のリフォーカス係数で現像するように画像処理回路106に指示を出す。この場合、現像画像は人物Aには焦点が合っているが、人物Bには焦点が合っていない。そのため、制御回路109は現像画像に対してフォーカスが合っていない人物B831の顔に対して、付加情報から名前を取得し、名前情報を画像に重畳するように表示回路111に指示する。このように表示することでユーザーは被写界深度の浅い画像のサムネール画像でフォーカスが合っていない顔に対し、顔のおおよその位置に名前を文字として重畳されたサムネール画像を閲覧することができる。これにより、ユーザーが意図した被写体の画像を選択し易くすることができる。
上述した第1及び第2の実施形態では、撮像装置により顔判定及び記録処理を行う場合について説明したが、本発明はこれに限るものではない。例えば、リフォーカス処理が可能な画像データを生成する撮像装置から出力された画像データを用いて、外部画像処理装置により、図6〜図9により説明した上記処理を行うことによっても、本発明の目的を達成することができる。
また、上記各実施形態では、被写体判定処理に用いる画像として、各リフォーカス係数における再構成画像を用いた。しかし、画角全体の被写体が確認できる画像として、各マイクロレンズ内の一部の画素を集めた画像を用いて被写界深度の深い画像を生成し、被写体検出に用いるなどしても良い。
図20を用いて、本実施形態に適用可能な光学系の例について説明する。図20は、物体(被写体)からの光線が撮像素子103上に結像する状態を模式的に示した図である。図20(a)は図3で説明した光学系と対応しており、撮影レンズ101の結像面近傍にマイクロレンズアレイ102を配置した例である。図20(b)は撮影レンズ101の結像面よりも物体寄りにマイクロレンズアレイ102を配置した例である。図20(c)は撮影レンズ101の結像面よりも物体から遠い側にマイクロレンズアレイ102を配置した例である。
図20において、103は撮像素子を、102はマイクロレンズアレイを、31から35は図3で用いた瞳領域a1〜a5を、51は物体平面を、51a,51bは物体上の適当な点を、52は撮影レンズの瞳平面を、61、62、71,72,73,81,82,83,84はマイクロレンズアレイ102上の特定のマイクロレンズをそれぞれ示している。図20(b)および図20(c)に示した103aは仮想的な撮像素子を、102aは仮想的なマイクロレンズアレイを示している。これらは、図20(a)との対応関係を明確にするために参考に示した。また、物体上の点51aから出て瞳平面上の領域31および33を通過する光束を実線で、物体上の点51bから出て瞳平面上の領域31および33を通過する光束を破線で図示した。
図20(a)の例では、図3でも説明したように、撮影光学系101の結像面近傍にマイクロレンズアレイ102を配置することで、撮像素子103と撮影レンズ101の瞳平面52が共役の関係にある。さらに、物体平面51とマイクロレンズアレイ102が共役の関係にある。このため物体上の点51aから出た光束はマイクロレンズ61に、51bを出た光束はマイクロレンズ62に到達し、領域31から35それぞれを通過した光束はマイクロレンズ下に設けられたそれぞれ対応する画素に到達する。
図20(b)の例では、マイクロレンズアレイ102で撮影レンズ101からの光束を結像させ、その結像面に撮像素子103を設ける。このように配置することで、物体平面51と撮像素子103は共役の関係にある。物体上の点51aから出て瞳平面上の領域31を通過した光束はマイクロレンズ71に到達し、物体上の点51aから出て瞳平面上の領域33を通過した光束はマイクロレンズ72に到達する。物体上の点51bから出て瞳平面上の領域31を通過した光束はマイクロレンズ72に到達し、物体上の点51bから出て瞳平面上の領域33を通過した光束はマイクロレンズ73に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。このように物体上の点と、瞳平面上の通過領域によって、異なる位置にそれぞれ結像する。これらを、仮想的な撮像面103a上の位置に並べなおせば、図20(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。
図20(c)の例では、マイクロレンズアレイ102で撮影レンズ101からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子103を設ける。このように配置することで、物体平面51と撮像素子103は共役の関係にある。物体上の点51aから出て瞳平面上の領域31を通過した光束はマイクロレンズ82に到達し、物体上の点51aから出て瞳平面上の領域33を通過した光束はマイクロレンズ81に到達する。物体上の点51bから出て瞳平面上の領域31を通過した光束はマイクロレンズ84に到達し、物体上の点51bから出て瞳平面上の領域33を通過した光束はマイクロレンズ83に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。図20(b)と同様に、仮想的な撮像面103a上の位置に並べなおせば、図20(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。
図20ではマイクロレンズアレイ(位相変調素子)を瞳分割手段として用いて、位置情報と角度情報を取得可能な例を示したが、位置情報と角度情報(瞳の通過領域を制限することと等価)を取得可能なものであれば他の光学構成も利用可能である。例えば、適切なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法も利用できる。
<第3の実施形態>
近年、ぼけ(焦点ずれ)が発生した劣化画像を復元する技術が開発されている。特許文献2の画像復元装置は、撮影光学系中にパターン化された絞りを設け、観測画像を取得し、観測画像を絞りのパターンに基づいて解析することで、距離画像及びピントの合った合焦画像を求めている。
また、特許文献3は、ぶれやぼけが発生した劣化画像を高品位の画像に復元する方法を開示している。理想画像をf(x、y)、劣化画像をg(x、y)、画像の劣化関数をh(x、y)とすると、劣化画像g(x、y)は
g(x、y)=∫∫h(x−x’、y−y’)f(x’、y’)dx’dy’ (5)
と表される。ここで、理想画像f(x、y)のフーリエ変換をF(u、v)、劣化画像g(x、y)のフーリエ変換をG(u、v)、画像の劣化関数h(x、y)のフーリエ変換をH(u、v)とすると、式(5)は
G(u、v)=H(u、v)F(u、v) (6)
と書き表せる。理想画像は式(6)を変形することにより
F(u、v)=G(u、v)/H(u、v) (7)
と書き表せる。
このように、特許文献3は、撮像装置の特性情報等に基づいて劣化関数h(x、y)を生成し、この劣化関数に基づいて復元画像f(x、y)を生成する方法を開示している。しかし、撮影された画像全体に対して復元処理が行われるため、主被写体にピントが合っている被写界深度の浅い画像を得ることが困難であった。
そこで、第3の実施形態では、撮像画像に含まれる特定の被写体の焦点ずれを補正する技術を提供する。
図10は、第3の実施形態に係るデジタルカメラ1の概略構成図である。図10において、撮影レンズ2は、被写体光をイメージセンサ3に結像するためのレンズであり、イメージセンサ3に対して所定の位置に固定されている。本実施形態の撮影レンズ2は焦点調節機構を有していないため、デジタルカメラ1を小型化することが可能となっている。また、図10においては、撮影レンズ2は単レンズで図示されているが、実際には、レンズ性能を満足するために複数のレンズから構成されている。
デジタルカメラ1は、デジタルカメラ1全体を制御するCPU7、及びピントのぼけた(焦点ずれを伴う)画像を画像処理にて復元する(焦点ずれを補正する)ASIC(Application Specific Integrated Circuit)6を備える。デジタルカメラ1はまた、復元された画像を表示する表示部4(液晶ディスプレイなど)、イメージセンサ3にて撮像された画像を記録するメモリ8、及び撮影者が撮影動作を指示するトリガー部9を備える。
トリガー部9は、撮影者が撮影動作を実行するための2段階のスイッチで構成され、1段目の押下で第1のスイッチがONになり、2段目の押下で第2のスイッチがONになるように構成されている。
デジタルカメラ1はまた、主被写体を指定する機能を兼ね備えたファインダー部5を備える。ファインダー部5は、レンズを介して光学的に被写体を観察するための光学ファインダーと、光学ファインダーを介して被写体を観察している撮影者の注視位置を検出する視線検出器とを含む。また、光学ファインダーは、例えば対物レンズ、接眼レンズ、及び像変換手段であるポロプリズムからなる実像ファインダーであり、対物レンズの像面には高分子分散型液晶表示素子が配設されている。
図11は、撮影画面の分割説明図である。図11に示すように、撮影画面は例えば8×10のブロックに分割されている。視線検出器によって撮影者の注視位置が検出されると、CPU7は、画面を分割する複数のブロックの中から注視位置を含むブロックを特定する。そして、CPU7は、注視位置を含むブロックを示す情報を、撮影者がピントを合わせたい主被写体を示す情報(主被写体情報)としてメモリ8に記録する。
次に、図12を参照して、第3の実施形態に係る撮像処理及び復元処理について説明する。不図示の電源スイッチによりデジタルカメラ1の電源がONにされると、本フローチャートの処理が開始する。
S101で、CPU7は、デジタルカメラ1の動作モードとして撮影モードが選択されているか否かを判定する。撮影モードが選択されていない(画像再生モードが選択されている)場合、処理はS102に進み、撮影モードが選択されている場合、処理はS103に進む。
S102で、CPU7は、メモリ8に記録された画像データを読み出す。その後、処理はS109に進む(S109における処理は後述する)。
S103で、CPU7は、トリガー部9の第1のスイッチの状態を確認する。第1のスイッチがONである場合、処理はS104に進み、そうでない場合、処理はS101に戻る。
ここで、図13(a)及び図15(a)を参照して、撮影モードにおいて第1のスイッチがOFFの場合のファインダー部5及び表示部4の表示状態について説明する。図13(a)は、撮影モードにおいて第1のスイッチがOFFの場合のファインダー像の説明図である。ファインダー部5を覗く撮影者には、被写体a、被写体b、及び被写体cが観察されている。本実施形態の光学ファインダーは、光路中にピント板を配設していないため、撮影者にはピントの合った鮮明な被写体像が観察される。同時に、表示部4には、図15(a)に示すように、撮影レンズ2を介してイメージセンサ3にて撮影された画像が表示される。本実施形態の撮影レンズ2はイメージセンサ3に対して所定の位置に固定され、焦点調節が行われないため、撮影レンズ2に対してイメージセンサ3と共役な位置にない被写体に対してはピントのぼけた被写体像が撮影される。図15(a)では、最も近距離にある被写体aが最もぼけ(焦点ずれの度合い)が小さく、最も遠距離にある被写体cが最もぼけが大きい。
第1のスイッチがONになると、S104で、CPU7は、ファインダー部5に含まれる視線検出器を動作させて、撮影画面中の主被写体の位置を検出する。視線検出器は、撮影者の目を照明する照明デバイスと、撮影者の目にて反射した光を受光するレンズ系及びイメージセンサとから構成されている。撮影者の視線を検出する方法としては、任意の公知の方法を利用可能であり、一例として、特開平2−264632号公報に開示されている方法を利用可能である。撮影者の注視位置が検出されると、CPU7は、画面を分割する複数のブロックの中から注視位置を含むブロックを特定する。後述する復元処理においては、この特定されたブロックに含まれる被写体が、撮影者がピントを合わせたい主被写体として扱われる。
S105で、CPU7は、ファインダー部5に設けられた表示素子を用いて、視線検出器により検出された注視位置を含むブロック(即ち、主被写体の位置)を示す画像をファインダー像に重畳させて表示する。図13(b)は、第1のスイッチがONの場合のファインダー像の説明図であり、主被写体の位置としてブロック35が選択されていることを示す枠画像が表示されている。同時に、表示部4には、図15(b)に示すように、撮影レンズ2を介してイメージセンサ3にて撮影された画像に主被写体の位置を示す枠画像が重畳して表示される。即ち、イメージセンサ3にて撮影された画像上に、ピントを合わせたい主被写体の位置としてブロック35が選択されていることを示す枠画像が表示される。
S106で、CPU7は、トリガー部9の第2のスイッチの状態を確認する。第2のスイッチがONである場合、処理はS107に進み、そうでない場合、処理はS101に戻る。
S107で、CPU7は、撮影レンズ2及びイメージセンサ3を用いて画像を撮像する。S108で、CPU7は、撮影された画像を表す画像データを、S104で検出された最新の主被写体の位置(ブロック番号)を示す情報(主被写体情報)と共にメモリ8に記録する。主被写体情報は、例えば画像データのヘッダ部に格納されてもよい。
S109で、CPU7は、不図示の設定ボタンによりデジタルカメラ1が画像の復元処理を実行するモードに設定されているか否かを確認する。画像の復元処理を実行するモードに設定されている場合、処理はS110に進み、そうでない場合、処理はS111に進む。
S110で、CPU7は、S108でメモリ8に記録した画像データ及び主被写体情報に基づいて画像の復元処理を行う。或いは、処理がS102を経由した場合は、CPU7は、S102で読み出した画像データ及び主被写体情報に基づいて画像の復元処理を行う。
ここで、図14を参照して、S110における復元処理の詳細について説明する。S121で、CPU7は、処理対象の画像データに関連する画像情報を取得する。S122で、CPU7は、取得した画像情報の中に主被写体情報が含まれているか否かを判定する。主被写体情報が含まれている場合、処理はS124に進み、そうでない場合、処理はS123に進む。
例えば、S104において視線検出器が撮影者の注視位置を検出するのに失敗して主被写体が検出されなかった場合は、画像情報に主被写体情報が含まれない。そこで、S123で、ASIC6は、処理対象の画像データに基づいて主被写体を判定する。具体的には、例えば、ASIC6は、画像に含まれる人物の顔を検出し、検出された顔を主被写体として設定する。
なお、本実施形態における顔検出には、公知の顔検出技術を利用できる。公知の顔検出技術としては、ニューラルネットワークなどを利用した学習に基づく手法、テンプレートマッチングを用いて目、鼻、口等の形状に特徴のある部位を画像から探し出し、類似度が高ければ顔とみなす手法などがある。また、他にも、肌の色や目の形といった画像特徴量を検出し、統計的解析を用いた手法等、多数提案されている。一般的にはこれらの手法を複数組み合わせ、顔検出の精度を向上させている。具体的な例としては特開2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。
S124及びS125で、ASIC6は、処理対象の画像データの復元処理を実行する(即ち、ASIC6は、主被写体情報が示す被写体(或いは、S123で判定された主被写体)の焦点ずれを補正するように画像データを加工する)。具体的には、S124で、ASIC6は、画像において主被写体情報が示す被写体と同等の(実質的に同じ)度合いの焦点ずれを伴う領域を復元領域として設定する。そして、S125で、ASIC6は、設定された復元領域について、焦点ずれを補正するように画像データを加工する。
復元処理は、デジタルカメラ1の光学特性情報等に基づいて劣化関数h(x、y)を生成し、この劣化関数を用いて前述の式(7)に基づいて実行される。このとき、主被写体と同等の度合いの焦点ずれを伴う復元領域は、主被写体に対する劣化関数h(x、y)に対して所定の差異に収まる劣化関数を有した領域として特定される。例えば劣化関数h(x,y)が点像分布関数であった場合、所定の差異に収まるとは半値幅の差が所定値以内であることにより判定できる。
本実施形態では、図15(b)に示すように、主被写体情報はブロック35を示している。そこで、ASIC6は、ブロック35を含む、ブロック35の領域の被写体と同等にぼけている(即ち、同等の度合いの焦点ずれを伴う)被写体bが存在する領域を復元領域として設定する。復元後の画像は、例えば図15(c)に示すように、被写体aと被写体cはぼけたままで、被写体bのみにピントが合った画像となる。また、S123において顔が主被写体として設定された場合、顔だけでなく人物全体が同等にぼけていると考えられるので、復元後の画像は、人物全体にピントの合った画像となる。このように、本実施形態によれば、撮像画像に含まれる特定の被写体の焦点ずれが補正される。
図12に戻り、S111で、CPU7は、復元後の画像を、例えば図15(c)に示すように表示部4に表示する。或いは、処理がS109からS111へジャンプした場合は、CPU7は、復元されていない画像を表示部4に表示する。
以上説明したように、本実施形態によれば、デジタルカメラ1は、画像の撮像時に、画像データと共に主被写体情報をメモリ8に記録する。そして、デジタルカメラ1は、画像の復元処理を実行する際に、主被写体情報が示す被写体と同等の(実質的に同じ)度合いの焦点ずれを伴う領域について、焦点ずれを補正するように画像データを加工する。これにより、撮像画像に含まれる特定の被写体の焦点ずれを補正することが可能となり、例えば、主被写体にピントが合っている被写界深度の浅い画像を得ることが可能となる。また、画像の撮像時に主被写体情報が記録されるので、撮影者が実際に意図した主被写体を示す主被写体情報を得られる可能性が向上する。
なお、本実施形態では、ファインダー部5の一部が光学ファインダーで構成されている例を示したが、液晶、又はEL(Electro-Luminescence)素子等で構成された電子ビューファインダーでも構わない。また、本実施形態においては、静止画像の画像復元処理について説明したが、動画の場合でも同様に本実施形態を適用可能である。
<第4の実施形態>
第3の実施形態では、視線検出器により主被写体が判定された。第4の実施形態では、主被写体の判定に関する変形例について説明する。これ以外にも第3の実施形態と若干の相違が存在するが、これについては以下で詳述する。
図16は、第4の実施形態に係るデジタルカメラ1の概略構成図である。図16において図10と同様の構成要素には同一の符号を付し、その説明を省略する。デジタルカメラ1は、トラックボール10を備える。トラックボール10は、デジタルカメラ1本体に食い込む方向に2段階押下することが可能となっている。トラックボール10は、1段目の押下で第1のスイッチがONになり、2段目の押下で第2のスイッチがONになるように構成されている。また、1段目の押下でトラックボール10は回転可能となり、撮影者はトラックボール10を回転させることにより、ピントを合わせたい主被写体の位置を指定することが可能である。
図17は、第4の実施形態に係る撮像処理及び復元処理を示すフローチャートである。図17において、図12と同様の処理が行われるステップには同一の符号を付し、図12との相違点についてのみ説明する。不図示の電源スイッチによりデジタルカメラ1の電源がONにされると、本フローチャートの処理が開始する。
S101及びS103の処理は、第3の実施形態(図12)と同様である。但し、本実施形態では、表示部4には図18(a)に示す画像が表示されるものとする。本実施形態の撮影レンズ2はイメージセンサ3に対して所定の位置に固定され、焦点調節が行われないため、撮影レンズ2に対してイメージセンサ3と共役な位置にない被写体に対してはピントのぼけた被写体像が撮影される。図18(a)の例では、最も近距離にある被写体aが最もぼけが小さく、それよりも遠距離にある被写体b及び被写体cはぼけが大きくなって撮影されている。
S102の処理は、第3の実施形態(図12)と同様である。但し、S102の次はS201の処理が実行される。S201で、CPU7は、S102で読み出した画像データに関連する画像情報をメモリ8から読み出し、この画像データが既に復元済みであるか否かを判定する。復元済みである場合、処理はS204に進み、そうでない場合、処理はS110に進む。
一方、撮影モードにおいて第1のスイッチがONになった場合、トラックボール10は回転可能となる。S202で、CPU7は、トラックボール10の回転を検出して、回転に応じた位置のブロックを特定する。本実施形態では、この特定されたブロックに含まれる被写体が、撮影者がピントを合わせたい主被写体として扱われる。
S105及びS106の処理は、第3の実施形態(図12)と同様である。但し、本実施形態では、表示部4には図18(b)に示す画像が表示されるものとする。即ち、本実施形態では、ブロック38に含まれる被写体が主被写体である。撮影画面の分割方法は、第3の実施形態と同様である(図11参照)。撮影者は、表示部4に表示される枠画像を見ながらトラックボール10を回転させることにより、ピントを合わせたい主被写体を指定することができる。
S107及びS110の処理は、第3の実施形態(図12及び図14)と同様である。但し、処理がS107を経由してS110に到達した場合、第3の実施形態と異なりこの時点では画像データ及び主被写体情報はメモリ8に記録されていない(不図示の一時メモリに記録されている)。そこで、CPU7及びASIC6は、この一時メモリから画像データ及び主被写体情報を読み出して復元処理を実行する。
本実施形態では、図18(b)に示すように、主被写体情報はブロック38を示している。そこで、ASIC6は、ブロック38を含む、ブロック38の領域の被写体と同等にぼけている(即ち、同等の(実質的に同じ)度合いの焦点ずれを伴う)被写体b及び被写体cが存在する領域を復元領域として設定する。復元後の画像は、例えば図18(c)に示すように、被写体aはピントのぼけた状態で、撮影者の意図した被写体c、及び被写体cとほぼ同じ被写体距離にある被写体bにピントが合った画像となる。同じ被写体距離にある被写体に対して復元処理を実行することにより、違和感のない画像が得られる。
また、例えば図14のS123において顔が検出されず、主被写体が判定されなかった場合、ASIC6は、画像の全領域を復元領域として設定する。この場合、復元後の画像は、例えば図19に示すよう、被写体a、被写体b、及び被写体c全てにピントの合った画像になる。
図17に戻り、S203で、CPU7は、復元された画像データ及び復元情報(この画像データが復元処理を適用済みであることを示す情報)をメモリ8に記録する。次いで、S204で、CPU7は、復元された画像を表示部4に表示する。
以上説明したように、本実施形態によれば、トラックボール10により主被写体の指定が行われる。また、第3の実施形態と異なり、復元後の画像データがメモリ8に記録される。更に、何らかの理由により主被写体情報が取得されず、且つ、顔検出等による主被写体の判定も行われなかった場合、画像の全領域の焦点ずれが補正される。
なお、本実施形態では、主被写体を指定する方法としてトラックボール10を1段押下後に回転させることにより指定する例を示した。しかしながら、トラックボールの回転を許可する別のスイッチを設け、トラックボールを1段押下させることなく主被写体を指定可能なようにデジタルカメラ1を構成してもよい。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (23)

  1. 撮像素子で撮像された、リフォーカス処理を施すことで再構成画像を生成可能な画像データを取得する取得手段と、
    前記画像データに前記リフォーカス処理を行って被写体が検出されるリフォーカス面における再構成画像を生成する画像生成手段と、
    前記撮像素子で撮像された画像データを記録すると共に、前記被写体が検出されるリフォーカス面の再構成画像に基づく画像の画像データを補助情報として前記画像データに関連付けて記録する記録手段と
    を有することを特徴とする画像処理装置。
  2. 前記補助情報は、前記被写体が検出されるリフォーカス面の再構成画像を縮小した画像の画像データであることを特徴とする請求項1に記載の画像処理装置。
  3. 前記補助情報は、前記被写体が検出されるリフォーカス面の再構成画像を生成するときに用いた前記リフォーカス処理のリフォーカス係数、検出された顔の前記再構成画像における位置情報、及び前記再構成画像のサイズに対する顔の相対サイズ情報の少なくともいずれかを含むことを特徴とする請求項1に記載の画像処理装置。
  4. 前記記録手段により記録された、前記撮像素子で撮像された画像データに基づくサムネール画像と、前記補助情報に基づいて、前記被写体が検出されるリフォーカス面の再構成画像のサムネール画像とを表示する表示手段を更に有することを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記記録手段により記録された、前記撮像素子で撮像された画像データに基づくサムネール画像と、前記補助情報に基づいて、前記被写体が検出されるリフォーカス面の再構成画像から切り出した顔の画像とを表示する表示手段を更に有することを特徴とする請求項2または3に記載の画像処理装置。
  6. 顔の特徴と名称とを関連付けた情報を保持した記憶手段を更に有し、
    前記画像生成手段は、前記被写体に対応する名称を、前記記憶手段に保持された情報から取得し、
    前記記録手段は、前記取得した名称を、前記補助情報に含めることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  7. 前記記録手段により記録された、前記撮像素子で撮像された画像データに基づくサムネール画像と、前記名称とを表示する表示手段を更に有することを特徴とする請求項6に記載の画像処理装置。
  8. 前記画像生成手段は、複数のリフォーカス面における再構成画像をそれぞれ生成し、生成された複数の再構成画像のうち被写体に合焦した再構成画像を用いて前記補助情報を生成することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記画像生成手段は、前記撮像素子で撮像された画像データの画面内の各位置における焦点位置情報に基づいて前記被写体に合焦した再構成画像を特定することを特徴とする請求項8に記載の画像処理装置。
  10. 前記画像生成手段は、前記撮像素子で撮像された画像データの画面内の各位置における焦点位置情報に基づいて、再構成画像を生成する複数のリフォーカス面を決定することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  11. 入射光を光電変換して画像データを出力する、2次元に配置された複数の画素から成る前記撮像素子と、
    撮影レンズと前記撮像素子との間に配置され、予め決められた数の画素から成る前記撮像素子の複数の領域それぞれに対応する複数のマイクロレンズと、
    を有することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記撮像素子で撮像された、前記取得手段により取得される画像データは、ライトフィールドデータであることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記リフォーカス処理は、仮想的な撮像面である前記リフォーカス面に基づいて、前記画像データの画素を並べかえる処理を含むことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記リフォーカス処理は、仮想的な撮像面である前記リフォーカス面に基づいて、前記画像データの画素を加算する処理を含むことを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 撮像素子で撮像された、リフォーカス処理を施すことで再構成画像を生成可能な画像データを取得する取得手段と、
    前記画像データから複数のリフォーカス面における再構成画像をそれぞれ生成する画像生成手段と、
    前記撮像素子で撮像された画像データを記録すると共に、前記画像生成手段により生成された複数の再構成画像のうち被写体に合焦した再構成画像を用いて生成した補助情報を前記画像データに関連付けて記録する記録手段と、
    を有することを特徴とする画像処理装置。
  16. 撮像素子で撮像された、リフォーカス処理を施すことで再構成画像を生成可能な画像データを取得する取得手段と、
    前記撮像素子で撮像された画像データの画面内の各位置における焦点位置情報に基づいて、再構成画像を生成する複数のリフォーカス面を決定し、該複数のリフォーカス面それぞれで前記画像データから再構成画像を生成する画像生成手段と、
    前記撮像素子で撮像された画像データを記録すると共に、被写体が検出されるリフォーカス面の前記再構成画像の前記被写体に関する補助情報を前記画像データに関連付けて記録する記録手段と、
    を有することを特徴とする画像処理装置。
  17. 撮像素子で撮像された、リフォーカス処理を施すことで再構成画像を生成可能な画像データを取得する取得手段と、
    前記画像データに前記リフォーカス処理を行って被写体が検出されるリフォーカス面における再構成画像を生成する画像生成手段と、
    前記被写体が検出されるリフォーカス面における再構成画像と、前記画像データから生成されるあるリフォーカス面の再構成画像とを共に表示する表示手段と、
    を有することを特徴とする画像処理装置。
  18. 画像処理装置が実行する画像処理方法であって、
    撮像素子で撮像された、リフォーカス処理を施すことで再構成画像を生成可能な画像データを取得する取得工程と、
    前記画像データに前記リフォーカス処理を行って被写体が検出されるリフォーカス面における再構成画像を生成する画像生成工程と、
    前記撮像素子で撮像された画像データを記録すると共に、前記被写体が検出されるリフォーカス面の再構成画像に基づく画像の画像データを補助情報として前記画像データに関連付けて記録する記録工程と、
    を有することを特徴とする画像処理方法。
  19. 画像処理装置が実行する画像処理方法であって、
    撮像素子で撮像された、リフォーカス処理を施すことで再構成画像を生成可能な画像データを取得する取得工程と、
    前記画像データから複数のリフォーカス面における再構成画像をそれぞれ生成する画像生成工程と、
    前記撮像素子で撮像された画像データを記録すると共に、前記画像生成工程により生成された複数の再構成画像のうち被写体に合焦した再構成画像を用いて生成した補助情報を前記画像データに関連付けて記録する記録工程と、
    を有することを特徴とする画像処理方法。
  20. 画像処理装置が実行する画像処理方法であって、
    撮像素子で撮像された、リフォーカス処理を施すことで再構成画像を生成可能な画像データを取得する取得工程と、
    前記撮像素子で撮像された画像データの画面内の各位置における焦点位置情報に基づいて、再構成画像を生成する複数のリフォーカス面を決定し、該複数のリフォーカス面それぞれで前記画像データから再構成画像を生成する画像生成工程と、
    前記撮像素子で撮像された画像データを記録すると共に、被写体が検出されるリフォーカス面の前記再構成画像の前記被写体に関する補助情報を前記画像データに関連付けて記録する記録工程と、
    を有することを特徴とする画像処理方法。
  21. 画像処理装置が実行する画像処理方法であって、
    撮像素子で撮像された、リフォーカス処理を施すことで再構成画像を生成可能な画像データを取得する取得工程と、
    前記画像データに前記リフォーカス処理を行って被写体が検出されるリフォーカス面における再構成画像を生成する画像生成工程と、
    前記被写体が検出されるリフォーカス面における再構成画像と、前記画像データから生成されるあるリフォーカス面の再構成画像とを共に表示する表示工程と、
    を有することを特徴とする画像処理方法。
  22. コンピュータに、請求項18乃至21のいずれか1項に記載の画像処理方法の各工程を実行させるためのプログラム。
  23. 請求項22に記載のプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2012160943A 2011-08-19 2012-07-19 画像処理装置、及び画像処理方法 Active JP6080417B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2012160943A JP6080417B2 (ja) 2011-08-19 2012-07-19 画像処理装置、及び画像処理方法
US13/564,850 US9456118B2 (en) 2011-08-19 2012-08-02 Image capturing apparatus, image processing apparatus, and image processing method for generating auxiliary information for captured image
KR1020120088198A KR101529597B1 (ko) 2011-08-19 2012-08-13 촬영 화상의 보조 정보를 생성하는 촬상장치, 화상처리장치, 및 화상처리방법
RU2012135476/28A RU2523083C2 (ru) 2011-08-19 2012-08-17 Устройство съемки изображений, устройство обработки изображений и способ обработки изображений для формирования вспомогательной информации для снятого изображения
BR102012020775-3A BR102012020775B1 (pt) 2011-08-19 2012-08-17 aparelho de captura de imagem, aparelho de processamento de imagem e método para processamento de imagem para geração de informação auxiliar para a imagem capturada
CN201210298159.7A CN102957863B (zh) 2011-08-19 2012-08-20 摄像设备、图像处理设备和图像处理方法
CN201510622424.6A CN105163033B (zh) 2011-08-19 2012-08-20 摄像设备、图像处理设备和图像处理方法
KR1020140190918A KR101632578B1 (ko) 2011-08-19 2014-12-26 촬영 화상의 보조 정보를 생성하는 촬상장치, 화상처리장치, 및 화상처리방법

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2011179909 2011-08-19
JP2011179909 2011-08-19
JP2012005667 2012-01-13
JP2012005667 2012-01-13
JP2012160943A JP6080417B2 (ja) 2011-08-19 2012-07-19 画像処理装置、及び画像処理方法

Publications (3)

Publication Number Publication Date
JP2013165475A JP2013165475A (ja) 2013-08-22
JP2013165475A5 JP2013165475A5 (ja) 2015-09-03
JP6080417B2 true JP6080417B2 (ja) 2017-02-15

Family

ID=47712400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012160943A Active JP6080417B2 (ja) 2011-08-19 2012-07-19 画像処理装置、及び画像処理方法

Country Status (6)

Country Link
US (1) US9456118B2 (ja)
JP (1) JP6080417B2 (ja)
KR (2) KR101529597B1 (ja)
CN (2) CN105163033B (ja)
BR (1) BR102012020775B1 (ja)
RU (1) RU2523083C2 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226558A (ja) * 2009-03-25 2010-10-07 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
JP5671842B2 (ja) 2010-06-03 2015-02-18 株式会社ニコン 画像処理装置および撮像装置
JP6214236B2 (ja) * 2013-03-05 2017-10-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
KR102068748B1 (ko) 2013-07-31 2020-02-11 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 영상 재생 장치 및 방법
JP6061816B2 (ja) 2013-08-22 2017-01-18 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム、および、記憶媒体
JP6470530B2 (ja) * 2013-12-06 2019-02-13 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記録媒体
CN104780341B (zh) * 2014-01-10 2018-10-09 华为技术有限公司 一种信息处理方法以及信息处理装置
JP6336284B2 (ja) * 2014-01-30 2018-06-06 キヤノン株式会社 画像処理装置、その制御方法およびプログラム
JP6320075B2 (ja) * 2014-02-19 2018-05-09 キヤノン株式会社 画像処理装置およびその制御方法
JP6321991B2 (ja) * 2014-02-21 2018-05-09 キヤノン株式会社 画像処理装置、制御方法、プログラム、及び記録媒体
WO2015137635A1 (en) * 2014-03-13 2015-09-17 Samsung Electronics Co., Ltd. Image pickup apparatus and method for generating image having depth information
JP6346476B2 (ja) * 2014-03-17 2018-06-20 キヤノン株式会社 表示制御装置、制御方法、プログラム及び記録媒体
JP6048449B2 (ja) * 2014-05-29 2016-12-21 コニカミノルタ株式会社 画像形成装置
JP6362433B2 (ja) * 2014-06-04 2018-07-25 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
TWI559042B (zh) * 2014-12-03 2016-11-21 國立清華大學 區塊式數位重對焦系統及其方法
JP6529267B2 (ja) * 2015-01-23 2019-06-12 キヤノン株式会社 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
KR101683634B1 (ko) * 2015-04-29 2016-12-29 주식회사 큐티아이 플레놉틱 카메라 원리를 이용한 디지털 촬상 장치
JP2016219991A (ja) * 2015-05-19 2016-12-22 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
EP3145168A1 (en) 2015-09-17 2017-03-22 Thomson Licensing An apparatus and a method for generating data representing a pixel beam
CA2998661A1 (en) * 2015-09-17 2017-03-23 Thomson Licensing An apparatus and a method for encoding an image captured by an optical acquisition system
EP3144887A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing A method and an apparatus for generating data representative of a pixel beam
JP2017169480A (ja) * 2016-03-23 2017-09-28 オリンパス株式会社 観察装置、測定システム及び観察方法
JP6873397B2 (ja) * 2016-04-07 2021-05-19 カシオ計算機株式会社 画像表示装置、画像表示制御方法及びプログラム
CN105933612A (zh) * 2016-06-29 2016-09-07 联想(北京)有限公司 一种图像处理方法及电子设备
CN106846463B (zh) * 2017-01-13 2020-02-18 清华大学 基于深度学习神经网络的显微图像三维重建方法及系统
WO2019054092A1 (ja) 2017-09-12 2019-03-21 パナソニックIpマネジメント株式会社 画像生成装置及び画像生成方法
EP3701488A4 (en) * 2017-10-24 2021-08-04 L'Oréal SA IMAGE PROCESSING SYSTEM AND METHOD THANKS TO DEEP NEURAL NETWORKS
US10937124B2 (en) * 2017-12-25 2021-03-02 Canon Kabushiki Kaisha Information processing device, system, information processing method, and storage medium
CN108428716A (zh) * 2018-02-12 2018-08-21 谢学军 增强现实显示系统
CN108600623B (zh) * 2018-04-20 2020-07-28 维沃移动通信有限公司 重聚焦显示方法以及终端设备
JP7164968B2 (ja) * 2018-05-07 2022-11-02 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
JP2021179527A (ja) * 2020-05-13 2021-11-18 キヤノン株式会社 撮影制御装置、撮像装置、撮影制御方法、及びプログラム
CN113793286B (zh) * 2021-11-18 2022-05-10 成都索贝数码科技股份有限公司 一种基于多阶注意力神经网络的媒体图像水印移除方法

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2939988B2 (ja) 1989-04-05 1999-08-25 キヤノン株式会社 視線検出装置
JPH10326279A (ja) * 1997-03-27 1998-12-08 Minolta Co Ltd 情報処理装置及び方法並びに情報処理プログラムを記録した記録媒体
JP2963990B1 (ja) 1998-05-25 1999-10-18 京都大学長 距離計測装置及び方法並びに画像復元装置及び方法
JP2000020691A (ja) 1998-07-01 2000-01-21 Canon Inc 画像処理装置及びその方法、撮像装置及びその制御方法並びにメモリ媒体
JP3980799B2 (ja) * 1999-08-19 2007-09-26 株式会社リコー 自動合焦装置およびその合焦方法
JP2002077591A (ja) * 2000-09-05 2002-03-15 Minolta Co Ltd 画像処理装置および撮像装置
JP2002251380A (ja) 2001-02-22 2002-09-06 Omron Corp 利用者照合システム
US7843495B2 (en) * 2002-07-10 2010-11-30 Hewlett-Packard Development Company, L.P. Face recognition in a digital imaging system accessing a database of people
JP4058352B2 (ja) 2003-01-07 2008-03-05 キヤノン株式会社 撮像装置及び撮像制御方法
KR101134208B1 (ko) * 2004-10-01 2012-04-09 더 보드 어브 트러스티스 어브 더 리랜드 스탠포드 주니어 유니버시티 촬상 장치 및 그 방법
JP4720167B2 (ja) * 2004-12-03 2011-07-13 株式会社ニコン 電子カメラおよびプログラム
JP4685465B2 (ja) * 2005-02-01 2011-05-18 パナソニック株式会社 監視記録装置
US7420590B2 (en) * 2005-09-29 2008-09-02 Mitsubishi Electric Research Laboratories, Inc. Video matting using camera arrays
US20070268121A1 (en) * 2006-05-18 2007-11-22 Daryush Vasefi On-line portal system and method for management of devices and services
US8213734B2 (en) * 2006-07-07 2012-07-03 Sony Ericsson Mobile Communications Ab Active autofocus window
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
US20100265385A1 (en) * 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
CN100585453C (zh) * 2007-02-09 2010-01-27 奥林巴斯映像株式会社 解码方法及解码装置
JP2009033469A (ja) * 2007-07-26 2009-02-12 Olympus Imaging Corp 撮像装置
JP5004726B2 (ja) 2007-09-05 2012-08-22 キヤノン株式会社 撮像装置、レンズユニットおよび制御方法
JP4941332B2 (ja) * 2008-01-28 2012-05-30 ソニー株式会社 撮像装置
JP4900723B2 (ja) 2008-03-14 2012-03-21 ソニー株式会社 画像処理装置、画像処理プログラムおよび表示装置
JP4538766B2 (ja) 2008-08-21 2010-09-08 ソニー株式会社 撮像装置、表示装置および画像処理装置
KR101441586B1 (ko) * 2008-10-06 2014-09-23 삼성전자 주식회사 촬상 장치 및 촬상 방법
WO2010065344A1 (en) * 2008-11-25 2010-06-10 Refocus Imaging, Inc. System of and method for video refocusing
WO2010077625A1 (en) * 2008-12-08 2010-07-08 Refocus Imaging, Inc. Light field data acquisition devices, and methods of using and manufacturing same
JP4692654B2 (ja) * 2009-02-20 2011-06-01 株式会社ニコン 撮像装置および画像処理プログラム
JP4710983B2 (ja) * 2009-01-28 2011-06-29 株式会社ニコン 画像合成装置、撮像装置、画像合成方法
US8570427B2 (en) * 2009-01-28 2013-10-29 Nikon Corporation Image-capturing device having focus adjustment function, image creation method including focus adjustment function, and program product for image-capturing device having focus adjustment function
JP5206494B2 (ja) * 2009-02-27 2013-06-12 株式会社リコー 撮像装置、画像表示装置と、撮像方法及び画像表示方法並びに合焦領域枠の位置補正方法
JP5463718B2 (ja) * 2009-04-16 2014-04-09 ソニー株式会社 撮像装置
EP2244484B1 (en) * 2009-04-22 2012-03-28 Raytrix GmbH Digital imaging method for synthesizing an image using data recorded with a plenoptic camera
KR20110020519A (ko) * 2009-08-24 2011-03-03 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체
KR101608970B1 (ko) 2009-11-27 2016-04-05 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
US8400555B1 (en) * 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
KR101643321B1 (ko) * 2010-02-02 2016-07-27 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 매체
US20110216153A1 (en) * 2010-03-03 2011-09-08 Michael Edric Tasker Digital conferencing for mobile devices
JP5499778B2 (ja) * 2010-03-03 2014-05-21 株式会社ニコン 撮像装置
US20120019703A1 (en) * 2010-07-22 2012-01-26 Thorn Karl Ola Camera system and method of displaying photos
KR101692399B1 (ko) * 2010-10-14 2017-01-03 삼성전자주식회사 감성 기반의 영상을 얻을 수 있는 디지털 영상 처리 장치 및 디지털 영상 처리 방법
US9049423B2 (en) * 2010-12-01 2015-06-02 Qualcomm Incorporated Zero disparity plane for feedback-based three-dimensional video

Also Published As

Publication number Publication date
US20130044234A1 (en) 2013-02-21
CN105163033A (zh) 2015-12-16
US9456118B2 (en) 2016-09-27
CN102957863B (zh) 2015-10-28
CN102957863A (zh) 2013-03-06
RU2523083C2 (ru) 2014-07-20
RU2012135476A (ru) 2014-02-27
KR20150008831A (ko) 2015-01-23
KR101632578B1 (ko) 2016-07-01
JP2013165475A (ja) 2013-08-22
KR101529597B1 (ko) 2015-06-29
BR102012020775A2 (pt) 2014-05-13
BR102012020775B1 (pt) 2020-12-29
KR20130020579A (ko) 2013-02-27
CN105163033B (zh) 2018-07-20

Similar Documents

Publication Publication Date Title
JP6080417B2 (ja) 画像処理装置、及び画像処理方法
KR101441586B1 (ko) 촬상 장치 및 촬상 방법
KR101233013B1 (ko) 화상 촬영 장치 및 그 거리 연산 방법과 합초 화상 취득 방법
JP5173954B2 (ja) 画像処理装置及び画像処理方法
JP5207797B2 (ja) 撮像装置およびその制御方法
US20160044233A1 (en) Image capturing apparatus capable of storing focus detection data
EP2709352B1 (en) Image pickup apparatus, image pickup system and method of controlling image pickup apparatus
JP5938281B2 (ja) 撮像装置およびその制御方法ならびにプログラム
JP6095266B2 (ja) 画像処理装置及びその制御方法
JP4995002B2 (ja) 撮像装置、合焦装置、撮像方法および合焦方法
JP5348258B2 (ja) 撮像装置
JP2011135191A (ja) 撮像装置及び画像処理装置
JP5289105B2 (ja) 画像処理装置およびその制御方法、ならびに、撮像装置
JP5240591B2 (ja) 撮像装置、合焦装置、撮像方法および合焦方法
JP6210836B2 (ja) 撮像装置、撮像制御装置、その制御方法およびプログラム
JP2018005008A (ja) カメラボディおよび交換レンズ
JP2016099432A (ja) 焦点検出装置及び方法、プログラム、記憶媒体
JP7242278B2 (ja) 画像処理装置およびその制御方法
JP7224811B2 (ja) 画像処理装置および電子機器
JP7022534B2 (ja) 画像処理装置および画像処理方法
JP2018050147A (ja) 撮像装置、撮像方法およびプログラム
JP6378526B2 (ja) 撮像装置及びその制御方法
JP2023157982A (ja) 画像処理装置およびその制御方法
JP4973369B2 (ja) 画像処理装置および撮像装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170117

R151 Written notification of patent or utility model registration

Ref document number: 6080417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151