JP6693236B2 - 画像処理装置、撮像装置、および画像処理プログラム - Google Patents

画像処理装置、撮像装置、および画像処理プログラム Download PDF

Info

Publication number
JP6693236B2
JP6693236B2 JP2016072073A JP2016072073A JP6693236B2 JP 6693236 B2 JP6693236 B2 JP 6693236B2 JP 2016072073 A JP2016072073 A JP 2016072073A JP 2016072073 A JP2016072073 A JP 2016072073A JP 6693236 B2 JP6693236 B2 JP 6693236B2
Authority
JP
Japan
Prior art keywords
depth
field
subject
image data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016072073A
Other languages
English (en)
Other versions
JP2017184144A (ja
Inventor
和敬 高橋
和敬 高橋
眞一 古川
眞一 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2016072073A priority Critical patent/JP6693236B2/ja
Publication of JP2017184144A publication Critical patent/JP2017184144A/ja
Application granted granted Critical
Publication of JP6693236B2 publication Critical patent/JP6693236B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、撮像装置、および画像処理プログラムに関する。
撮影した画像から任意の焦点位置の画像を生成可能なカメラで撮影した動画データから移動する被写体に追従して焦点位置を合わせた動画データを生成する技術が知られている(特許文献1参照)。従来技術では生成された焦点位置を合わせた動画データの焦点位置を変更することについては考慮されていない。
特開2013-145314号公報
本発明の第1の態様による画像処理装置は、撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定部と、前記設定部で設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成部と、前記生成部で生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更部と、前記第1画像データから主要被写体を検出する検出部と、を備え、前記設定部は、前記検出部で検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定し、前記被写界深度は、前記主要被写体が前記撮像光学系の光軸方向の第1の位置にあると第1の被写界深度であり、前記主要被写体が前記第1の位置よりも前記撮像光学系に近い第2の位置にあると前記第1の被写界深度よりも深い第2の被写界深度である。
本発明の第2の態様による画像処理装置は、撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定部と、前記設定部で設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成部と、前記生成部で生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更部と、前記第1画像データから主要被写体を検出する検出部と、を備え、前記設定部は、前記検出部で検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定し、前記撮像光学系の光軸方向の第1の位置にある第1主要被写体と前記第1の位置よりも前記撮像光学系から遠い第2の位置にある第2主要被写体が前記検出部によって検出されると、前記第1主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置を設定し、前記焦点が合う被写体の位置は、前記第1主要被写体から前記撮像部の方向に所定距離だけ離れた位置である。
本発明の第3の態様による画像処理装置は、撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定部と、前記設定部で設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成部と、前記生成部で生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更部と、前記第1画像データから主要被写体を検出する検出部と、前記主要被写体に関する情報を登録する登録部と、を備え、前記設定部は、前記検出部で検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定し、前記登録部に前記情報が登録されている前記主要被写体が前記検出部で検出されると、前記情報が登録されている前記主要被写体が前記被写界深度内に含まれように前記被写界深度と前記焦点が合う被写体の位置を設定する。
本発明の第4の態様による撮像装置は、第1から第3の態様のいずれかの態様の画像処理装置と、前記撮像部とを備える。
本発明の第5の態様による画像処理プログラムは、撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定ステップと、前記設定ステップで設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成ステップと、前記生成ステップで生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更ステップと、前記第1画像データから主要被写体を検出する検出ステップと、をコンピュータに実行させ、前記設定ステップは、前記検出ステップで検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定し、前記被写界深度は、前記主要被写体が前記撮像光学系の光軸方向の第1の位置にあると第1の被写界深度であり、前記主要被写体が前記第1の位置よりも前記撮像光学系に近い第2の位置にあると前記第1の被写界深度よりも深い第2の被写界深度である。
本発明の第6の態様による画像処理プログラムは、撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定ステップと、前記設定ステップで設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成ステップと、前記生成ステップで生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更ステップと、前記第1画像データから主要被写体を検出する検出ステップと、をコンピュータに実行させ、前記設定ステップは、前記検出ステップで検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定し、前記撮像光学系の光軸方向の第1の位置にある第1主要被写体と前記第1の位置よりも前記撮像光学系から遠い第2の位置にある第2主要被写体が前記検出ステップによって検出されると、前記第1主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置を設定し、前記焦点が合う被写体の位置は、前記第1主要被写体から前記撮像部の方向に所定距離だけ離れた位置である。
本発明の第7の態様による画像処理プログラムは、撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定ステップと、前記設定ステップで設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成ステップと、前記生成ステップで生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更ステップと、前記第1画像データから主要被写体を検出する検出ステップと、前記主要被写体に関する情報を登録する登録ステップと、をコンピュータに実行させ、前記設定ステップは、前記検出ステップで検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定し、前記登録ステップにより前記情報が登録されている前記主要被写体が前記検出ステップで検出されると、前記情報が登録されている前記主要被写体が前記被写界深度内に含まれように前記被写界深度と前記焦点が合う被写体の位置を設定する。
撮像装置の構成図である。 合成対象の像面上の光点からの光束と撮像素子とを模式的に示した断面図である。 撮像装置の動作を示すフローチャートである。 表示部の表示例を示す図である。 撮像装置の第2の実施形態の動作を示すフローチャートである。 撮像装置の第3の実施形態の動作を示すフローチャートである。 撮像装置の第4の実施形態の動作を示すフローチャートである。 (a)(b)リフォーカス範囲の表示例である。 表示部における表示の変形例を示す図である。
(第1の実施形態)
以下、本発明の第1の実施形態について図面を参照して説明する。
図1は、撮像装置10の構成図である。なお、撮像装置10は、デジタルカメラの例で説明するが、デジタルカメラに限らず、例えばスマートフォン端末、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などであってもよい。
図1に示すように撮像装置10は、撮像部11、画像処理部15、撮像制御部16、制御部(設定部、生成部、変更部、表示制御部)17、記録インタフェース18、表示部19、操作部20を備える。さらに、撮像部11は、撮像光学系12、マイクロレンズ13、撮像素子14を備える。また、記録インタフェース18を介して記憶媒体である可搬型メモリ21が装着される。
撮像光学系12は、被写界からの光束を結像するレンズであり、例えば対物レンズ、フォーカスレンズ、絞り等を含む。マイクロレンズ13は、撮像光学系12の結像面近傍の面に二次元状に配列してなる。
撮像素子14は、個々のマイクロレンズ13の後側に複数の受光素子(画素)を二次元状に配列してなる。一個のマイクロレンズに複数の受光素子が対応している。撮像素子14は、結像した被写体光学像による光信号を電気信号に変換して出力する、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。撮像素子14は、二次元状に配置された画素のそれぞれが複数の光電変換領域を有し、各画素で同じ位置に存在する光電変換領域群の出力から、視点の異なる複数の視差画像を取得することができる。
画像処理部15は、撮像素子14が生成した一連の視差画像(撮像画像)を取り込み、その画像を可搬型メモリ21へ保存する。動画撮影の場合は、動画の一フレームが一連の視差画像に対応し、このような複数のフレームからなる動画を取り込み、可搬型メモリ21へ保存する。すなわち、可搬型メモリ21には撮像して得た動画の原画像データが保存される。
撮像制御部16は、撮像部11を駆動制御する回路を備えている。この撮像制御部16は、制御部17からの指示に応じて撮像素子14を駆動し、後述のように一連の視差画像を取得する。
記録インタフェース18は、撮像装置10に装着された可搬型メモリ21と制御部17との間のインタフェースである。この記録インタフェース18は、制御部17からの指示に従い、撮像動画や、撮像動画をリフォーカス画像処理したリフォーカス動画を可搬型メモリ21へ書き込んだり、これらの動画を可搬型メモリ21から読み込んだりする。可搬型メモリ21は、撮像動画やリフォーカス動画を記憶する記憶媒体である。
表示部19は、液晶カラーモニタなどのモニタと、そのモニタに対するユーザ操作を検出するタッチセンサとを備える。このような表示部19は、制御部17からの指示に従い動画などを表示すると共に、その動画などに対するユーザ操作の内容を検出して制御部17へ送信する。
操作部20は、不図示の電源釦、動画撮影釦、再生釦などの各種の入力スイッチを備える。ユーザは、この操作部20を介して動画撮影指示などの各種の指示を制御部17へ入力する。
制御部17は、不図示のROM、RAM、CPUなどを備えたコンピュータである。CPUは、ROMに格納されたプログラムを実行することにより撮像装置10の各部を制御し、動画の撮影や再生を行う。なお、RAMは、CPUの動作中に必要となったデータを一時的に格納するメモリである。
撮像装置10が有する画像合成機能について説明する。本実施形態における画像合成機能は、原画像データから任意像面の画像(いわゆるリフォーカス画像)を作成する機能である。周知のリフォーカス画像の作成方法の例を、図2を参照して説明する。
図2は、合成対象の像面上の光点からの光束と撮像素子14とを模式的に示した断面図である。図2において、合成対象の像面S上に設けた光点Pを考える。この光点Pから撮像素子14に向かう光の広がり角θは、撮像光学系12の瞳の大きさ(すなわち撮像光学系12の絞り値)により規定される。マイクロレンズ13の絞り値は撮像光学系12の絞り値と同じかそれより小さくなるように構成されている。従って、この光点Pから出射し、あるマイクロレンズ13に入射した光束は、そのマイクロレンズ13により被覆されている領域の外には広がらない。
ここで、図2に示すように、光点Pからの光束が5つのマイクロレンズ13(1)〜13(5)に入射するとすれば、これらのマイクロレンズ13(1)〜13(5)に入射した光束30(1)〜30(5)の受光面上における入射光量(受光素子31(1)〜31(5)の光電変換出力)を積算することにより、光点Pからの瞳に制限された全入射量が得られる。すなわち、合成対象の像面S上の光点P(合成対象の画素)の光量が得られることになる。
制御部17は、指定された像面S上に複数の光点Pを設定し、各光点Pについて、その光点Pからの光束が入射するマイクロレンズ13を特定する。制御部17は、特定した各マイクロレンズ13について、光点Pからの光束がどの受光素子31に入射するかを特定する。制御部17は、特定した受光素子31の光電変換出力を積算することにより、光点Pの画素値を算出する。複数の光点Pの画素値を用いて画像合成してリフォーカス画像を得ることができる。
制御部17は、任意の像面を指定した画像合成が可能であるが、さらに、任意の被写界深度も設定した画像合成が可能である。図2を参照すると、光点Pからの光束の広がりは前段の撮像光学系12の絞りF0で規定される。撮像光学系12の絞りをF0より絞ったF1に設定したときの光束の広がりは図2の広がりに比べて狭くなる。そこで、たとえば、図2の光束30(1)と30(5)が受光素子31に到達しないものとして画像合成を行うことにより、被写界深度が図2の場合に比べて深い画像を得ることができる。光点Pから広がる光束の全てを用いた画像合成の被写界深度がもっとも深度が浅い画像とすると、外側の幾つかの光束を使用せずに画像処理して得た画像は深度が浅くなるので、外側の光束の省略数に応じた被写界深度を実現することができる。
このように制御部17は、撮影後の画像処理によって可視化されたリフォーカス画像を生成することができる。また、第1の実施形態の制御部17は、主要被写体までの距離に応じて、画像の像面位置(焦点位置)と被写界深度を自動的に設定したリフォーカス画像処理を行う。撮像画像が動画である場合、制御部17は次のような画像処理を行ってリフォーカス画像を生成する。動画は複数枚のフレームで構成され、各フレームは視差画像である。動画を構成する複数枚の視差画像を互いに位置をずらして重み付け合成することにより、リフォーカス条件(被写体距離、絞り値、像面位置)の設定された一フレームのリフォーカス画像を作成する。動画の各フレームについてリフォーカス画像を作成して、リフォーカス動画を作成する。
なお、視差画像とは、図2を参照すると、複数の光点Pを通過した光束が複数のマイクロレンズ13を通過して複数の受光素子31に入射して得られる画素値を合成した画像である。
以下、第1の実施形態における撮像装置10の動作を、図3に示すフローチャートを参照して説明する。なお、このフローチャートで示す各処理は、制御部17が不図示のROMに格納されたプログラムを実行することにより行われる。
図3のステップS11において、ユーザによる動画撮影釦の押下操作により動画撮影が開始される。撮像によって得られた動画データの各フレームは、撮像素子14が生成した一連の視差画像(撮像画像)を画像処理部15が取り込んだもので、リフォーカス画像処理前のフレーム画像である。リフォーカス画像処理前のフレーム画像で構成される動画データは、RAWデータとして可搬型メモリ21へ記録される。
ステップS12において、可搬型メモリ21へ記録され動画データを読み出し、この動画データに含まれる各フレーム画像に対して、主要被写体を検出する。そして、その検出結果に応じて、当該フレーム画像に対して、被写界深度と像面位置とを設定する。被写界の中のたとえば最至近の被写体を主要被写体とすると、その距離に基づいて像面位置と被写界深度を設定する。像面位置は主要被写体までの距離に比例して設定される。距離が遠いほど像面位置が撮像素子から遠い位置となる。また、例えば、主要被写体までの距離が近い場合は、すなわち像面位置が撮像素子から近い位置のときは被写界深度を深く、距離が遠い場合は、すなわち像面位置が撮像素子から遠い位置のときは被写界深度を浅く設定する。このようなリフォーカス画像処理条件を動画像データの各フレームに適用してリフォーカス画像処理を行う。
フレームごとに被写体距離に追従したリフォーカス画像処理条件(像面位置と被写界深度)を適用することにより、複数フレームのそれぞれに適切な像面位置と被写界深度でリフォーカス画像を生成することができる。リフォーカス画像処理が施された動画データはリフォーカス動画データとして可搬型メモリ21に記録される。
ステップS13において、リフォーカス動画データを可搬型メモリ21から読み出して、表示部19に表示する。ユーザは表示されたリフォーカス動画を見て、主要被写体の像面位置や被写界深度が適切かを判断する。表示部19には、像面位置や被写界深度の調整を開始する場合に操作する調整釦が表示されている。ユーザが像面位置や被写界深度を調整したい場合は、調整釦をタッチ操作する。
ステップS14において、調整釦が操作されたかをタッチセンサにより検出する。調整釦が操作された場合は、ステップS15の処理へ進む。ステップS15において、リフォーカス動画データの各フレームを解析し、解析結果に応じて、撮影時間を横軸にして像面位置および被写界深度を表示部19にグラフ表示する。図4は、そのグラフの表示例を示す。
各フレームの解析は次のように行うことができる。リフォーカス動画データがNフレーム枚数の動画データとすると、動画データ解析により、1フレーム目の撮影時刻、2フレーム目の撮影時刻、……、N−1フレーム目の撮影時刻、Nフレーム目の撮影時刻が検出される。また、フレームごとに、主要被写体までの距離に基づき設定された像面位置、被写界深度が検出される。これら、各フレームの撮影時刻に対する像面位置と被写界深度を用いて図4のグラフが作成される。
図4に示すように、グラフ表示領域19aは、横軸が撮影時間であり、縦軸が像面位置および被写界深度である。グラフは、リフォーカス動画データの時間経過に伴う各フレームの像面位置と被写界深度の変化を表している。図中の実線は像面位置を示すものであり、図4の例では、撮影時刻taから時刻tbにかけて像面位置がA点からB点に連続的に変化していることを示している。ここで、A点およびB点のフレームをキーフレームと称する。キーフレームは、たとえばフレーム間の像面位置の変化量が所定閾値以上のフレームである。表示部19はタッチセンサを備えているので、A点もしくはB点の位置にユーザがタッチして図中の上下にスライドすることで、A点もしくはB点の像面位置を調整することができる。このユーザの調整により、像面位置がA点であるキーフレームとB点であるキーフレームの間の複数枚のフレームに対する像面位置と被写界深度が連動して調整される。なお、連動して調整されるのはA点のキーフレームとB点のキーフレームの間のすべてのフレームでなくてもよく、例えばA点のキーフレームを調整した際にA点のキーフレームの前後の複数のフレームのみが連動して調整されてもよい。また、キーフレームは、フレーム間の像面位置の変化量が所定閾値以上のフレームであるとしたが、撮影時間の所定の時間間隔でキーフレームを設定するようにしてもよい。
さらに、キーフレームに対応して調整窓19b、19cが表示されている。調整窓19b、19cには、それぞれ、キーフレームの画像と被写界深度調整用のスライドバーが表示されている。スライドバーを左右にタッチ操作することにより、キーフレームを基準に被写界深度を深くする調整、若しくは浅くする調整を行うことができる。被写界深度は、グラフ表示領域19aにおいて点線で表示されており、実線の像面位置との間隔の大/小で被写界深度の深い/浅いを示している。図4の例では、像面位置が近いフレームは被写界深度が深く、像面位置が遠いフレームは被写界深度が浅くなっている。なお、この例ではキーフレームが2点の場合を示したが、キーフレームの数に応じて調整窓を表示する。
なお調整窓の数はキーフレームの数よりも少なくてもよい。例えば、調整窓を一つとして、複数のキーフレームのうちのユーザが調整を行うキーフレームを一つ選択して、その選択されたキーフレームに対応する調整窓だけを表示してもよい。
図4のグラフは、一方の軸を時間軸、他方の軸を像面位置とした直線で示されているが、曲線により像面位置を表示してもよい。また、図4のグラフは、像面位置を表す直線の周囲に被写界深度を表す範囲を表示しているが、像面位置を表す曲線の周囲に被写界深度を表す範囲を表示してもよい。
ユーザによる像面位置および被写界深度の調整が完了すると決定釦19dをタッチ操作する。ステップS15において、決定釦19dのタッチ操作に応答して、制御部17は、ユーザによって調整された像面位置および被写界深度に基づくリフォーカス画像処理を動画像データの各フレームに対して行う。
そして、ステップS16において、調整後のリフォーカス動画を表示部19に表示する。ステップS17において、調整後のリフォーカス動画を可搬型メモリ21に記録する。この場合、調整前のリフォーカス動画も含めて可搬型メモリ21に記録してもよい。なお、ステップ14で調整釦が操作されなかった場合は、調整前のリフォーカス動画を可搬型メモリ21に記録する。また、リフォーカス動画は、RAWデータとして可搬型メモリ21へ記録してもよい。また、調整後のキーフレームの撮影時間、像面位置、被写界深度を可搬型メモリ21に記録してもよい。調整前のリフォーカス動画と調整後のキーフレームの撮影時間、像面位置、被写界深度が記録されていれば、それらから調整後のリフォーカス動画を生成することができる。
第1の実施形態によれば、撮像して得た動画について、リフォーカス画像処理によりリフォーカス画像を作成する際、主要被写体の距離に追従した像面位置と被写界深度をフレーム毎に自動設定することができる。そのため、主要被写体を基にした適切なリフォーカス動画を簡単に生成することが可能である。またリフォーカス画像処理を行った動画の像面位置および被写界深度をユーザの指定に応じて適宜調整することができる。したがって、複数フレームで構成される動画を編集する際、フレームごとに像面位置や被写界深度を設定する必要が無く、編集作業が容易である。
(第2の実施形態)
第2の実施形態について図面を参照して説明する。撮像装置10の構成は、図1に示した第1の実施形態と同様であるので、その説明を省略する。さらに、制御部17が実行するフローチャートは、図3に示した第1の実施形態と同様であるので、その説明を省略するが、第2の実施形態では、図3のステップS12の処理が異なる。以下、図3のステップS12に代わる部分のフローチャートについて、図5を参照して説明する。なお、このフローチャートで示す各処理は、制御部17が不図示のROMに格納されたプログラムを実行することにより行われる。
ここでは、リフォーカス動画を生成する原画像がNフレーム枚数の動画データとする。各フレームの像面位置は、当該フレームの画像の中で最も遠方にある被写体を主要被写体とし、主要被写体までの距離に基づいて設定される。被写界深度も主要被写体までの距離に応じて設定される。主要被写体が遠景であるので、被写界深度は深く設定され、全体にピントがあったリフォーカス画像が得られる。各フレームについて、遠景の主要被写体の手前にたとえば人や車などの移動体が入ってきた場合に、移動体を主要被写体と認識して、被写界深度を移動体の距離に基づき設定する。すなわち、被写界深度が浅く設定され、移動体にピントがあった画像が得られる。
図5のフローチャートを参照して説明する。
ステップS1201において、動画のN枚のフレームのそれぞれについて、遠景の被写体を主要被写体と認識して像面位置を設定する。
次に、ステップS1202において、遠景の像面位置に応じた被写界深度を設定する。具体的には、像面位置が遠くにある場合は、全体にピントが合うように被写界深度を深く設定する。
ステップS1203において、動画のフレームが全て終了したかを判別する。終了していない場合は、次のフレームについてステップS1204の判別を行う。即ち、ステップS1204において、フレームに被写体として移動体が入って来たかを判別する。移動体が入って来ていない場合は、ステップS1201に戻り、ステップS1201からステップS1203の処理を繰り返して遠景に合わせたリフォーカス画像処理を行う。
ステップS1204で、フレームに移動体が入って来たことが判別された場合は、ステップS1205に進む。ステップS1205において、移動体に像面位置を設定する。
次に、ステップS1206において、移動体の像面位置に応じて被写界深度を設定する。具体的には、人や車などの移動体にピントが合うように被写界深度を浅く設定する。
そして、ステップS1207において、動画のフレームが全て終了したかを判別する。終了していない場合は、ステップS1208において、移動体がフレームから出たかを判別する。移動体がフレームから出ていない場合は、ステップS1205に戻り、ステップS1205からステップS1207の処理を繰り返して移動体に合わせたリフォーカス画像処理を行う。
ステップS1208において、移動体がフレームから出たと判別された場合は、ステップS1201に戻り、ステップS1201からステップS1203の処理を繰り返して遠景に合わせたリフォーカス画像処理を行う。
ステップS1203またはステップS1207で、動画のフレームが全て終了した場合はリフォーカス画像処理を終了する。
なお、ユーザによるリフォーカス動画の調整は、図3のステップ15で説明した第1の実施形態と同様である。
第2の実施形態によれば、撮像して得た動画について、遠景の中に移動体が入ってきた場合に、リフォーカス画像処理により移動体に像面位置および被写界深度を設定できる。すなわち、第2の実施形態の制御部17(ステップS1201〜S1208)は、主要被写体である移動体が検出されていないフレームには深い第1の被写界深度を設定し、移動体が検出されたフレームには第1の被写界深度よりも浅い第2の被写界深度を設定する。したがって、移動体の移動に対応した適切な動画を生成することが可能である。また、リフォーカス画像処理を行った動画の像面位置および被写界深度をユーザの指定に応じて適宜調整することができる。
(第3の実施形態)
第3の実施形態について図面を参照して説明する。撮像装置10の構成は、図1に示した第1の実施形態と同様であるので、その説明を省略する。さらに、制御部17が実行するフローチャートは、図3に示した第1の実施形態と同様であるので、その説明を省略するが、第3の実施形態では、図3のステップS12の処理が異なる。以下、図3のステップS12に代わる部分のフローチャートについて、図6を参照して説明する。なお、このフローチャートで示す各処理は、制御部17が不図示のROMに格納されたプログラムを実行することにより行われる。
第3の実施形態においては、顔認識により人物を主要被写体として認識し、主要被写体が複数検出されたとき、全ての主要被写体にピントが合うように被写界深度を設定してリフォーカス動画を生成する。
図6のステップS1211において、動画のフレームについて、検出された全ての人物である主要被写体をカバーするように、すなわち全ての人物にピントが合うように像面位置および被写界深度を設定する。具体的には、全ての人物の被写体距離の中間付近に像面位置を設定して、全ての人物にピントが合うような被写界深度を設定する。たとえば、最遠方の人物までの距離と、最至近の人物までの距離との差に基づいて被写界深度を設定することができる。
なお、演劇などの舞台の撮影動画データについては、予め定められた固定的な像面位置および被写界深度を設定してもよい。また、制御部17が撮像部11の撮像光学系12の焦点距離を取得し、第1焦点距離が取得された場合には第1被写界深度を設定し、この第1焦点距離よりも短い第2焦点距離が取得された場合には第1被写界深度よりも浅い第2被写界深度を設定してもよい。具体的には、撮像部11よりレンズの情報を取得し、焦点距離が短い広角レンズが装着されていた場合は被写界深度を浅く設定する。
ステップS1212において、全ての人物をカバーするように像面位置および被写界深度の設定が可能であったかを判別する。具体的には、最遠方の人物と最至近の人物との被写体距離差と、設定可能な最も深い被写界深度とを比較し、最遠方の人物と最至近の人物の双方にピントを合わせることができるか否かを判別する。上記設定が可能であったと判別された場合は、次のステップS1213において、動画のフレームが全て終了したかを判別する。終了していない場合は、ステップS1211に戻り、次のフレームについて、ステップS1211からステップS1212の処理を繰り返して全ての人物をカバーするようにリフォーカス画像処理を行う。
ステップS1212において、全ての人物をカバーする像面位置および被写界深度の設定が可能ではないと判別された場合は、ステップS1214の処理へ進む。
ステップS1214において、最至近の人物を優先して像面位置を設定する。具体的には、最至近の人物に8割、最遠方の人物に2割となる中間付近に像面位置を設定する。そして、ステップS1215において、設定した像面位置に応じて被写界深度を設定する。例えば、最至近の人物に被写界深度をもっとも深く設定し、最遠方の人物に被写界深度をもっとも浅く設定する。中間位置の人物の被写界深度は人物までの距離に応じた深度に設定する。
なお、ステップS1214、S1215において、制御部17は、たとえば人物に関する情報を登録し、フレーム内の人物と予め登録していた人物とを照合して、一致する人物が検出されれば、その人物にピントが合うように被写界深度を設定してもよい。
すなわち、制御部17(ステップS1214〜S1215)は、主要被写体に関する情報を登録する登録部を更に備えるように構成し、検出された複数の主要被写体のうち、登録部に情報が登録されている主要被写体を被写界深度内に含めるように被写界深度および像面位置を設定してもよい。これにより、登録された被写体にピントがあった動画を生成することができる。
なお、登録する主要被写体は人物の顔に限定されず、特定の車両、構造物などでもよい。
ステップS1216において、動画のフレームが全て終了したかを判別する。終了していない場合は、ステップS1217の処理を行う。
ステップS1217では、次のフレームにおいて、主要被写体の数や位置が変化したかを判別する。主要被写体の数や位置が変化していないと判別された場合は、ステップS1214に戻り、ステップS1214からステップS1215の処理を繰り返し、次のフレームに対して、手前の主要被写体を優先したリフォーカス画像処理を行う。
ステップS1217で、主要被写体の数や位置が変化したと判別された場合には、ステップS1211に戻り、ステップS1211からステップS1212の処理を繰り返して全ての主要被写体をカバーするようにリフォーカス画像処理を行う。
ステップS1213またはステップS1216で、動画のフレームが全て終了した場合はリフォーカス画像処理を終了する。
なお、ユーザによるリフォーカス動画の調整は、図3のステップ15で示した第1の実施形態と同様である。
第3の実施形態によれば、撮像して得た動画について、全ての主要被写体をカバーするように像面位置と被写界深度の設定を行ったリフォーカス画像処理を行うことができる。すなわち、制御部17(ステップS1211)は、複数の主要被写体が検出された場合には、複数の主要被写体が被写界深度内に含まれるように被写界深度および像面位置を設定する。また、制御部17(ステップS1214〜S1215)は、第1距離に位置する第1主要被写体と第1距離よりも遠い第2距離に位置する第2主要被写体が検出された場合には、第1主要被写体が被写界深度内に含まれるように被写界深度および像面位置を設定する。したがって、被写界内の複数の主要被写体にピントがあった適切な動画を生成することが可能である。また、全ての主要被写体のカバーが不可能であった場合には、手前の主要被写体を優先した像面位置と被写界深度を設定してリフォーカス画像処理することにより、被写界内の複数の主要被写体にピントがあった適切な動画を生成することが可能である。さらに、リフォーカス画像処理を行った動画の像面位置および被写界深度をユーザの指定に応じて適宜調整することができる。
(第4の実施形態)
第4の実施形態について図面を参照して説明する。撮像装置10の構成は、図1に示した第1の実施形態と同様であるので、その説明を省略する。さらに、制御部17が実行するフローチャートは、図3に示した第1の実施形態と同様であるので、その説明を省略するが、第4の実施形態では、図3のステップS12の処理が異なる。以下、図3のステップS12に代わる部分のフローチャートについて、図7を参照して説明する。なお、このフローチャートで示す各処理は、制御部17が不図示のROMに格納されたプログラムを実行することにより行われる。
第4の実施形態においては、撮像して得た動画を撮像シーンに応じてリフォーカス画像処理する。
図7のステップS1221において、動画撮影時の撮像シーンを判別する。撮像シーンのうち、ポートレート、ペット、料理、子供、クローズアップ、パーティ、キャンドルライトを第1撮像シーンとし、風景、夜景を第2撮像シーンとする。ステップS1221では、フレームが第1撮像シーンか第2撮像シーンかを判別する。
第1撮像シーンと判別された場合は、ステップS1222に進み、被写体に応じた、すなわち撮像シーンに応じた像面位置を設定する。そして、ステップS1223で、被写界深度を浅く設定する。
ステップS1221で、第2撮像シーンと判別された場合は、ステップS1224に進み、被写体に応じた像面位置を設定する。そして、ステップS1225で、被写界深度を深く設定する。
ステップS1223、またはS1225の処理の後、ステップS1226に進み、動画のフレームが全て終了したかを判別する。終了していない場合は、ステップS1221の処理に戻り、次のフレームについてリフォーカス画像処理を行う。
ステップS1226で、動画のフレームが全て終了した場合はリフォーカス画像処理を終了する。
第4の実施形態の画像処理装置は、撮影シーンと被写界深度を対応づけたデータテーブルを有する。そして、画像編集時に、ユーザが設定した撮影シーンをフレームごとに認識し、認識した撮影シーンに基づきデータテーブルから最適な被写界深度を得てリフォーカス画像処理を行う。
なお、ユーザによるリフォーカス動画の調整は、図3のステップ15で示した第1の実施形態と同様である。
第4の実施形態によれば、撮像して得た動画について、撮像シーンに応じて像面位置と被写界深度の設定を行ったリフォーカス画像処理を行うことができる。すなわち、制御部17(ステップS1221〜S1226)は、撮像シーンを認識し、ポートレートなどの第1撮像シーンおよび風景などの第2撮像シーンのいずれか一方に分類するシーン認識部を更に備える。例えば、第1撮像シーンでは被写界深度を浅く、第2撮像シーンでは被写界深度を深く設定する。したがって、撮像シーンに応じたリフォーカス動画を簡単に生成することが可能である。また、リフォーカス画像処理を行った動画の像面位置および被写界深度をユーザの指定に応じて適宜調整することができる。
なお、第4の実施形態と同様のリフォーカス画像処理を動画撮影と同時に行ってもよい。すなわち、この変形例の画像処理装置では、動画撮影中に、ユーザが設定した撮影シーンに基づきデータテーブルから最適な被写界深度を得る。そして、フレームに対応づけて被写界深度と像面位置を記憶する。編集再生処理でこれらの像面位置と被写界深度をフレームごとに読み出してリフォーカス画像処理を行う。リフォーカス画像処理の時間が短時間で行える場合は、動画撮影時にリアルタイムでフレームごとにリフォーカス画像処理行ってもよい。
(リフォーカス範囲の表示例)
一般に、複数の被写体がそれぞれ距離を隔てて存在した場合に、これを動画撮影データからリフォーカス画像処理してピントの合った画像を得るには限界がある。以下では、動画撮影時のスルー画像において、リフォーカス画像処理の可能範囲を表示する例を説明する。
図8(a)は、リフォーカス範囲の表示例、図8(b)は、その説明図である。図8(a)に示すように、動画撮影時のスルー画像として、表示部19には、被写体O、P、Qが表示されている。被写体O、Pは、被写体Qと識別して色付けして表示されている。これは、被写体O、Pがリフォーカス画像処理の可能範囲にあることを示している。表示部19の右端には、リフォーカス画像処理の可能範囲を調節する為の操作子19eが表示されている。この操作子19eをタッチして上下にスライドすることによってリフォーカス画像処理の可能範囲を調節する。なお、操作子19eのスライド操作に替えて、レンズ鏡筒のリングを回転することにより、リフォーカス画像処理の可能範囲を調節してもよい。
図8(b)は、撮像光学系12とその前面に存在する被写体O、P、Qの位置関係を示す図である。図中、rはリフォーカス画像処理の可能範囲を示す。操作子19eを上下にスライドすることによってリフォーカス画像処理の可能範囲rは前後に移動する状態になる。例えば、被写体P、Qをリフォーカス画像処理の可能範囲rにするように、操作子19eを上下にスライドして調節することができる。この状態では、表示部19には、被写体P、Qが、被写体Oと識別して色付けして表示される。これにより、ユーザは撮影時にリフォーカス画像処理の可能範囲を知ることができる。なお、リフォーカス画像処理が可能であるか否かは、制御部17において、スルー画像をリアルタイムでリフォーカス画像処理し、被写体O、P、Qにピントを合わせられるかを判定し、ピントが合わせられる被写体を識別表示する。
以上説明した実施形態によれば、次の作用効果が得られる。
(1)撮像装置10は、複数のマイクロレンズ13と複数のマイクロレンズ13よりも多くの受光素子とを有する撮像素子14により撮像された第1動画像データが入力される画像処理部15と、第1動画像データに含まれる複数のフレームに対して、被写界深度と光軸方向の所定範囲内の像面位置とを設定する制御部17(ステップS12)と、複数のフレームの各々を制御部(設定部)17で設定された被写界深度を有する像面位置の画像に変換した第2動画像データを出力する制御部17(ステップS13)と、を備えた。したがって、動画の複数フレームの各々において適切な像面位置と被写界深度を設定したリフォーカス動画が生成される。一フレームずつ像面位置と被写界深度を設定する必要がない。
(2)制御部17(ステップS12)は、フレームの画像から主要被写体を検出し、主要被写体が被写界深度内に含まれるように被写界深度および像面位置を設定するので、主要被写体を基にした適切な動画を生成することができる。
(3)制御部17(ステップS1201〜S1208)は、主要被写体が検出されていないフレームには深い第1の被写界深度を設定し、主要被写体が検出されたフレームには第1の被写界深度よりも浅い第2の被写界深度を設定するので、たとえば主要被写体である移動体の移動に対応した適切な動画を生成することができる。
(4)制御部17(ステップS1211)は、複数の主要被写体が検出された場合には、複数の主要被写体が被写界深度内に含まれるように被写界深度および像面位置を設定するので、全ての主要被写体をカバーする適切な動画を生成することができる。
(5)制御部17(ステップS1214〜S1215)は、第1距離に位置する第1主要被写体と第1距離よりも遠い第2距離に位置する第2主要被写体が検出された場合には、第1主要被写体が被写界深度内に含まれるように被写界深度および像面位置を設定するので、手前の主要被写体を優先して適切な動画を生成することができる。
(6)制御部17(ステップS1214〜S1215)は、主要被写体に関する情報を登録する登録部を更に備え、検出された複数の主要被写体のうち、登録部に情報が登録されている主要被写体を被写界深度内に含めるように被写界深度および像面位置を設定するので、登録された被写体を優先して適切な動画を生成することができる。
(7)制御部17(ステップS1221〜S1226)は、フレームについて、撮像シーンを認識し、ポートレートなどの第1撮像シーンおよび風景などの第2撮像シーンのいずれか一方に分類するシーン認識部を更に備える。例えば、第1撮像シーンでは被写界深度を浅く、第2撮像シーンでは被写界深度を深く設定する。したがって、撮像シーンに応じたリフォーカス動画を生成することができる。
次のような変形も本発明の範囲内であり、変形例を上述の実施形態と組み合わせることも可能である。
(表示例の変形例)
図3のステップS15において、既に説明したように、リフォーカス動画データの各フレームを解析し、解析結果に応じて、撮影時間を横軸にして像面位置および被写界深度を表示部19にグラフ表示する。図4は、この場合の表示例であり、図9は、この表示例の変形例を示す。以下、図9に基づいて説明する。
図9に示すように、グラフ表示領域19aには、撮影時間、像面位置、および被写界深度をそれぞれ軸とする3次元のグラフが表示されている。撮影時間(x軸)は、リフォーカス動画データの各フレームの撮影時間を表している。像面位置(y軸)、被写界深度(z軸)は、各フレームの撮影時間における変化をグラフ表示している。図中のA点およびB点は、像面位置が不連続に変化したことを示している。A点およびB点のフレームをキーフレームと称する。
さらに、各キーフレームに対応して調整窓19b、19cが表示されている。調整窓19b、19cには、それぞれ、キーフレームの画像、像面位置調整用のスライドバー、被写界深度調整用のスライドバーが表示されている。像面位置調整用のスライドバーを左右にタッチ操作することによりキーフレームを基準に、像面位置を遠く、若しくは近くに調整することができる。また、被写界深度調整用のスライドバーを左右にタッチ操作することによりキーフレームを基準に、被写界深度を深く、若しくは浅く調整を行うことができる。なお、この例ではキーフレームが2点の場合を示したが、キーフレームの数に応じて調整窓を表示すればよい。
ユーザによる像面位置および被写界深度の調整が完了すると決定釦19dをタッチ操作する。決定釦19dのタッチ操作に応答して、制御部17は、ユーザによって調整された像面位置および被写界深度に基づくリフォーカス画像処理を動画像データ(原画像データ)の各フレームに対して行う。
(その他の変形例)
以上の実施形態の画像処理装置、撮像装置では、各フレームの像面位置と被写界深度を制御部17が自動的に行うものとして説明した。しかし、手動で像面位置と被写界深度を設定してもよい。たとえば、動画の原画像の全てのフレームについて、デフォルトで設定した像面位置と被写界深度によりリフォーカス画像処理を行ってリフォーカス画像を生成して保存する。保存した特定の像面位置と特定の被写界深度のリフォーカス画像を表示し、図4に示すような編集画面上で一フレームごとに手動で最適な像面位置と被写界深度を設定してもよい。
本発明は、上記の実施形態に限定されるものではなく、本発明の特徴を損なわない限り、本発明の技術思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。また、上述の実施形態と変形例を組み合わせた構成としてもよい。
したがって、本発明は、複数のマイクロレンズ13と複数のマイクロレンズ13よりも多くの受光素子31とを有する撮像素子14により撮像されて得た第1動画像データを入力する入力ステップと、第1動画像データに含まれる複数のフレームの各々に対して、被写界深度と光軸方向の所定範囲内の像面位置とを設定する設定ステップと、複数のフレームの各々を設定ステップで設定された被写界深度を有する像面位置の画像に変換した第2動画像データを出力する出力ステップとをコンピュータに実行させる画像処理プログラムも含む。
10 撮像装置
11 撮像部
12 撮像レンズ
13 マイクロレンズ
14 撮像素子
15 画像処理部
16 撮像制御部
17 制御部
18 記録インタフェース
19 表示部
20 操作部
21 可搬型メモリ

Claims (20)

  1. 撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定部と、
    前記設定部で設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成部と、
    前記生成部で生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更部と
    前記第1画像データから主要被写体を検出する検出部と、を備え、
    前記設定部は、前記検出部で検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定し、
    前記被写界深度は、前記主要被写体が前記撮像光学系の光軸方向の第1の位置にあると第1の被写界深度であり、前記主要被写体が前記第1の位置よりも前記撮像光学系に近い第2の位置にあると前記第1の被写界深度よりも深い第2の被写界深度である画像処理装置。
  2. 請求項に記載の画像処理装置において、
    前記設定部は、前記主要被写体が前記検出部により検出されていない前記第1画像データには第3の被写界深度を設定し、前記主要被写体が前記検出部により検出された前記第1画像データには前記第3の被写界深度よりも浅い第4の被写界深度を設定する画像処理装置。
  3. 請求項1または2に記載の画像処理装置において、
    前記設定部は、前記検出部により複数の前記主要被写体が検出された場合には、前記複数の主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置を設定する画像処理装置。
  4. 撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定部と、
    前記設定部で設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成部と、
    前記生成部で生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更部と
    前記第1画像データから主要被写体を検出する検出部とを備え、
    前記設定部は、前記検出部で検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定し、
    前記撮像光学系の光軸方向の第1の位置にある第1主要被写体と前記第1の位置よりも前記撮像光学系から遠い第2の位置にある第2主要被写体が前記検出部によって検出されると、前記第1主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置を設定し、前記焦点が合う被写体の位置は、前記第1主要被写体から前記撮像部の方向に所定距離だけ離れた位置である画像処理装置。
  5. 撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定部と、
    前記設定部で設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成部と、
    前記生成部で生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更部と
    前記第1画像データから主要被写体を検出する検出部と、
    前記主要被写体に関する情報を登録する登録部と、を備え、
    前記設定部は、前記検出部で検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定し、
    前記登録部に前記情報が登録されている前記主要被写体が前記検出部で検出されると、前記情報が登録されている前記主要被写体が前記被写界深度内に含まれように前記被写界深度と前記焦点が合う被写体の位置を設定する画像処理装置。
  6. 請求項から請求項までのいずれか一項に記載の画像処理装置において、
    撮像光学系の焦点距離を取得する焦点距離取得部を備え、
    前記設定部は、前記焦点距離取得部により第1焦点距離が取得された場合には第5の被写界深度を設定し、前記焦点距離取得部により前記第1焦点距離よりも短い第2焦点距離が取得された場合には前記第5の被写界深度よりも浅い第6の被写界深度を設定する画像処理装置。
  7. 請求項1から請求項までのいずれか一項に記載の画像処理装置において、
    前記第1画像データについて、撮像シーンを認識し第1撮像シーンおよび第2撮像シーンのいずれか一方に分類するシーン認識部を備え、
    前記設定部は、前記第1撮像シーンに分類された前記第1画像データと前記第2撮像シーンに分類された前記第1画像データとで、設定する前記被写界深度および前記焦点が合う被写体の位置を異ならせる画像処理装置。
  8. 請求項1から請求項までのいずれか一項に記載の画像処理装置において、
    前記複数の第1画像データの各々に設定された前記焦点が合う被写体の位置と前記被写界深度とを表示部に表示する表示制御部を備える画像処理装置。
  9. 請求項に記載の画像処理装置において、
    前記表示制御部は、一方の軸を時間軸、他方の軸を前記焦点が合う被写体の位置として直線または曲線により前記焦点が合う被写体の位置を前記表示部に表示する画像処理装置。
  10. 請求項に記載の画像処理装置において、
    前記表示制御部は、前記焦点が合う被写体の位置を表す直線または曲線の周囲に前記被写界深度を表す範囲を前記表示部に表示する画像処理装置。
  11. 請求項に記載の画像処理装置において、
    前記表示制御部は、前記表示部に時間軸を第1軸、前記焦点が合う被写体の位置を第2軸、前記被写界深度を第3軸とする三次元表示を行う画像処理装置。
  12. 請求項8から請求項11までのいずれか一項に記載の画像処理装置において、
    前記設定部は、設定した前記被写界深度および前記焦点が合う被写体の位置を、前記変更部により変更された焦点が合う被写体の位置と被写界深度との少なくとも一方に再設定し、
    前記表示制御部は、再設定された前記被写界深度および前記焦点が合う被写体の位置により前記表示部の表示を変更する画像処理装置。
  13. 請求項12に記載の画像処理装置において、
    前記設定部は、前記複数の第1画像データのうちの所定第1画像データをキーフレームに設定し、
    前記変更部は、前記設定部により設定された前記キーフレームの前記焦点が合う被写体の位置と前記被写界深度とは異なる焦点が合う被写体の位置と被写界深度との少なくとも一方が変更され、
    前記設定部は、2つのキーフレームの間の第1画像データにおける前記焦点が合う被写体の位置と前記被写界深度を、一方のキーフレームに対する前記変更された焦点が合う被写体の位置と被写界深度との少なくとも一方と、他方のキーフレーム対する前記変更された焦点が合う被写体の位置と被写界深度との少なくとも一方との間で段階的に変化させる画像処理装置。
  14. 請求項13に記載の画像処理装置において、
    前記設定部は、前記被写界深度および前記焦点が合う被写体の位置が変化した第1画像データをキーフレームに設定する画像処理装置。
  15. 請求項1から請求項6までのいずれか一項に記載の画像処理装置において、
    前記設定部は、前記検出部による前記主要被写体の検出結果が変化した第1画像データをキーフレームに設定する画像処理装置。
  16. 請求項1から請求項15までのいずれか一項に記載の画像処理装置と、
    前記撮像部と、
    を備える撮像装置。
  17. 請求項16に記載の撮像装置において、
    前記焦点が合う被写体の位置の範囲を報知する報知部を備える撮像装置。
  18. 撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定ステップと、
    前記設定ステップで設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成ステップと、
    前記生成ステップで生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更ステップと
    前記第1画像データから主要被写体を検出する検出ステップと、をコンピュータに実行させ
    前記設定ステップは、前記検出ステップで検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定し、
    前記被写界深度は、前記主要被写体が前記撮像光学系の光軸方向の第1の位置にあると第1の被写界深度であり、前記主要被写体が前記第1の位置よりも前記撮像光学系に近い第2の位置にあると前記第1の被写界深度よりも深い第2の被写界深度である画像処理プログラム。
  19. 撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定ステップと、
    前記設定ステップで設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成ステップと、
    前記生成ステップで生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更ステップと、
    前記第1画像データから主要被写体を検出する検出ステップと、をコンピュータに実行させ、
    前記設定ステップは、前記検出ステップで検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定し、
    前記撮像光学系の光軸方向の第1の位置にある第1主要被写体と前記第1の位置よりも前記撮像光学系から遠い第2の位置にある第2主要被写体が前記検出ステップによって検出されると、前記第1主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置を設定し、前記焦点が合う被写体の位置は、前記第1主要被写体から前記撮像部の方向に所定距離だけ離れた位置である画像処理プログラム。
  20. 撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定ステップと、
    前記設定ステップで設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成ステップと、
    前記生成ステップで生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更ステップと、
    前記第1画像データから主要被写体を検出する検出ステップと、
    前記主要被写体に関する情報を登録する登録ステップと、をコンピュータに実行させ、
    前記設定ステップは、前記検出ステップで検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定し、
    前記登録ステップにより前記情報が登録されている前記主要被写体が前記検出ステップで検出されると、前記情報が登録されている前記主要被写体が前記被写界深度内に含まれように前記被写界深度と前記焦点が合う被写体の位置を設定する画像処理プログラム。
JP2016072073A 2016-03-31 2016-03-31 画像処理装置、撮像装置、および画像処理プログラム Active JP6693236B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016072073A JP6693236B2 (ja) 2016-03-31 2016-03-31 画像処理装置、撮像装置、および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016072073A JP6693236B2 (ja) 2016-03-31 2016-03-31 画像処理装置、撮像装置、および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2017184144A JP2017184144A (ja) 2017-10-05
JP6693236B2 true JP6693236B2 (ja) 2020-05-13

Family

ID=60007783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016072073A Active JP6693236B2 (ja) 2016-03-31 2016-03-31 画像処理装置、撮像装置、および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6693236B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232315B2 (en) 2020-04-28 2022-01-25 NextVPU (Shanghai) Co., Ltd. Image depth determining method and living body identification method, circuit, device, and medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011211291A (ja) * 2010-03-29 2011-10-20 Sanyo Electric Co Ltd 画像処理装置、撮像装置及び表示装置
JP5657343B2 (ja) * 2010-10-28 2015-01-21 株式会社ザクティ 電子機器
CN105052124A (zh) * 2013-02-21 2015-11-11 日本电气株式会社 图像处理设备、图像处理方法、以及非瞬时计算机可读介质
JP6323022B2 (ja) * 2014-01-21 2018-05-16 株式会社ニコン 画像処理装置
JP6126037B2 (ja) * 2014-03-28 2017-05-10 富士フイルム株式会社 画像再生装置,画像再生方法および画像再生装置のコンピュータを制御するプログラム
JP6529267B2 (ja) * 2015-01-23 2019-06-12 キヤノン株式会社 情報処理装置及びその制御方法、プログラム、並びに記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232315B2 (en) 2020-04-28 2022-01-25 NextVPU (Shanghai) Co., Ltd. Image depth determining method and living body identification method, circuit, device, and medium

Also Published As

Publication number Publication date
JP2017184144A (ja) 2017-10-05

Similar Documents

Publication Publication Date Title
JP6288952B2 (ja) 撮像装置およびその制御方法
JP5898501B2 (ja) 画像処理装置、撮像装置、制御方法、プログラム及び記録媒体
JP5251215B2 (ja) デジタルカメラ
CN104243800B (zh) 控制装置和存储介质
US9462252B2 (en) Single-eye stereoscopic imaging device, imaging method and recording medium
JP2013145314A5 (ja)
JP5750551B2 (ja) 複数被写体の距離計測装置及び方法
JP6159097B2 (ja) 画像処理装置、撮像装置、制御方法、及びプログラム
JP6202910B2 (ja) 映像処理装置およびその制御方法、プログラム
JP2012173531A (ja) 撮像装置、およびフォーカス制御方法、並びにプログラム
US20140226039A1 (en) Image capturing apparatus and control method thereof
JP6739064B1 (ja) 撮像装置
US20170142409A1 (en) Imaging processing apparatus, image processing method, and program
JP2009224913A (ja) 撮像装置及びその制御方法
JP2016219991A (ja) 画像処理装置及びその制御方法、並びにプログラム
KR101630304B1 (ko) 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 매체
JP6693236B2 (ja) 画像処理装置、撮像装置、および画像処理プログラム
JP2013160991A (ja) 撮像装置
KR102421994B1 (ko) 화상 처리 장치, 화상 처리 방법 및 프로그램
JP6761230B2 (ja) 画像処理装置、その制御方法、プログラム及び撮像装置
JP6491442B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP6223502B2 (ja) 画像処理装置、画像処理方法、プログラム、それを記憶した記憶媒体
JP6336284B2 (ja) 画像処理装置、その制御方法およびプログラム
JP6478536B2 (ja) 画像処理装置および撮像装置、ならびにそれらの制御方法、プログラム
KR102149508B1 (ko) 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 기록매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200210

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200330

R150 Certificate of patent or registration of utility model

Ref document number: 6693236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250