JP2015154254A - 電子機器及び制御プログラム - Google Patents
電子機器及び制御プログラム Download PDFInfo
- Publication number
- JP2015154254A JP2015154254A JP2014026442A JP2014026442A JP2015154254A JP 2015154254 A JP2015154254 A JP 2015154254A JP 2014026442 A JP2014026442 A JP 2014026442A JP 2014026442 A JP2014026442 A JP 2014026442A JP 2015154254 A JP2015154254 A JP 2015154254A
- Authority
- JP
- Japan
- Prior art keywords
- display
- subject
- unit
- image
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Abstract
【課題】使用者が見せたくない被写体の表示を制限する。
【解決手段】合焦位置を奥行き方向に変更可能な画像データ中の奥行き方向の位置又は範囲に対して表示の可否を設定する設定部71と、設定部71により表示可に設定された位置又は範囲に対して合焦した画像の表示部50への表示を行い、設定部71により表示不可に設定された位置又は範囲に合焦した画像の表示部50への表示を制限する制御部72とを備える。
【選択図】図3
【解決手段】合焦位置を奥行き方向に変更可能な画像データ中の奥行き方向の位置又は範囲に対して表示の可否を設定する設定部71と、設定部71により表示可に設定された位置又は範囲に対して合焦した画像の表示部50への表示を行い、設定部71により表示不可に設定された位置又は範囲に合焦した画像の表示部50への表示を制限する制御部72とを備える。
【選択図】図3
Description
本発明は、電子機器及び制御プログラムに関する。
被写体の撮影後に合焦位置や視点などを設定することが可能な電子機器が知られている。この種の電子機器としてライトフィールドカメラがある(例えば特許文献1参照)。このライトフィールドカメラは、撮像部がカメラに入射する多数の光線をライトフィールド(光線空間)として取得する。そして、ライトフィールドカメラは、取得したライトフィールドの情報に対して画像処理を施すことで合焦位置などを変更した画像を生成する。
しかし、上記した電子機器においては、撮影後に焦点調節を行うリフォーカス機能などが実現されているが、このような電子機器の使い勝手が十分ではなく、依然として改善の余地があった。
本発明の態様では、使用者が見せたくない被写体の表示を制限することを目的とする。
本発明の第1態様によれば、合焦位置を奥行き方向に変更可能な画像データの奥行き方向の位置又は範囲に対して表示の可否を設定する設定部と、設定部により表示可に設定された位置又は範囲に合焦した画像の表示部への表示を行い、設定部により表示不可に設定された位置又は範囲に合焦した画像の表示部への表示を制限する制御部と、を備える電子機器が提供される。
本発明の第2態様によれば、制御装置に、合焦位置を奥行き方向に変更可能な画像データの奥行き方向の位置又は範囲に対して表示の可否を設定する設定処理と、設定処理により表示可に設定された位置又は範囲に合焦した画像の表示部への表示を行い、設定処理により表示不可に設定された位置又は範囲に合焦した画像の表示部への表示を制限する制御処理と、を実行させる制御プログラムが提供される。
本発明の態様によれば、使用者が見せたくない被写体の表示を制限することができる。
以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現する場合がある。
<第1実施形態>
図1は、電子機器としてのライトフィールドカメラにおける光学系部分の概略構成を示す断面図である。なお、図1において、紙面の右方向(光軸方向)をX軸とし、X軸と直交する紙面の上方向をZ軸とし、X軸及びZ軸と直交する紙面の裏から表に向かう方向をY軸としている。また、図1は、ライトフィールドカメラにおける光学系部分を光軸を含む面で切断したときの断面図である。
図1は、電子機器としてのライトフィールドカメラにおける光学系部分の概略構成を示す断面図である。なお、図1において、紙面の右方向(光軸方向)をX軸とし、X軸と直交する紙面の上方向をZ軸とし、X軸及びZ軸と直交する紙面の裏から表に向かう方向をY軸としている。また、図1は、ライトフィールドカメラにおける光学系部分を光軸を含む面で切断したときの断面図である。
本実施形態のライトフィールドカメラは、被写体の撮影後に合焦位置や視点などを設定することが可能な電子機器である。このライトフィールドカメラは、三次元空間の光線集合であるライトフィールド(光線空間)の情報を取得し、取得したライトフィールドの情報に基づいて画像を生成する。以下の説明では、ライトフィールドの情報を光線情報という。ライトフィールドカメラの代表的な機能としては、撮影後の後処理によって焦点距離を変更した画像を生成するリフォーカス機能がある。従って、ライトフィールドカメラはリフォーカスカメラとも呼ばれる。
本実施形態のライトフィールドカメラは、その光学系部分として、撮影光学系(結像光学系)11及びマイクロレンズアレイ12を備えている。なお、図1には、ライトフィールドカメラにおける光学系部分以外の構成である撮像素子20についても示している。
撮影光学系11は、複数のレンズ群で構成される単焦点レンズである。撮影光学系11は、被写体からの光束をその焦点面(結像面)近傍に結像する。また、撮影光学系11は、撮影時に絞り値(F値)を制御する開口絞り(不図示)を備えている。なお、絞り値は撮影後の画像の再構成によって変更することができるため、開口絞りの開口径は固定でもよい。図1に示すように、撮影光学系11の焦点面近傍にマイクロレンズアレイ12と撮像素子20とが順に配置されている。
マイクロレンズアレイ12は、正のパワーを有した複数のマイクロレンズ(正レンズ)が二次元状に配置された構成となっている。なお、図1に示すマイクロレンズアレイ12においては、3つのマイクロレンズだけがZ軸方向に配されているが、実際はZ軸方向及びY軸方向に多数のマイクロレンズが配されている。
撮像素子20は、マイクロレンズアレイ12の後側(撮影光学系11の反対側)に若干の間隔をおいて配置されている。この撮像素子20は、マイクロレンズアレイ12の各マイクロレンズを通過した光束を複数の光電変換素子で受光し、各々の光電変換素子が受光した光束を光電変換して複数の画素信号を生成する。複数の光電変換素子はマトリックス状に配列され、各々の光電変換素子が画素を形成する。本実施形態では、撮像素子20は、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)などの二次元固体撮像素子で構成されている。
図1の部分拡大図に示す例では、複数のマイクロレンズ12a,12b,12cの各々の後側に複数個ずつ画素が配列されている。具体的には、マイクロレンズ12aの後側に3つの画素21a,21b,21cが配列され、マイクロレンズ12bの後側に3つの画素22a,22b,22cが配列され、マイクロレンズ12cの後側に3つの画素23a,23b,23cが配列されている。
3つの画素21a,21b,21cがマイクロレンズ12aに対応する画素21であり、3つの画素22a,22b,22cがマイクロレンズ12bに対応する画素22であり、3つの画素23a,23b,23cがマイクロレンズ12cに対応する画素23である。なお、図1の部分拡大図では、各マイクロレンズ12a,12b,12cに対応する画素として3つの画素を示しているが、実際はZ軸方向及びY軸方向に多数の画素が配列されている(後述する図2参照)。
次に、図1を参照してライトフィールドカメラによるライトフィールドの取得について簡単に説明する。図1において、Aの位置にある被写体が撮影光学系11によってマイクロレンズアレイ12の位置に焦点を結ぶものとする。被写体上の点A1からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12aを通過して撮像素子20の画素21cで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12aを通過して撮像素子20の画素21bで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12aを通過して撮像素子20の画素21aで受光される。
同様に、被写体上の点A2からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12bを通過して撮像素子20の画素22cで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12bを通過して撮像素子20の画素22bで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12bを通過して撮像素子20の画素22aで受光される。
さらに、被写体上の点A3からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12cを通過して撮像素子20の画素23cで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12cを通過して撮像素子20の画素23bで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12cを通過して撮像素子20の画素23aで受光される。このように、Aの位置にある被写体からの光線は、マイクロレンズ12a,12b,12cの後側に位置する撮像素子20の画素で受光されることによって明るさと進行方向とが光線情報として取得される。
マイクロレンズ12a,12b,12cそれぞれに対応する3つの画素のうち、下側の画素21c,22c,23cの画素信号で生成される画像は、部分領域11aを通過した光線による像である。また、真中の画素21b,22b,23bの画素信号で生成される画像は、部分領域11bを通過した光線による像である。また、上側の画素21a,22a,23aの画素信号で生成される画像は、部分領域11cを通過した光線による像である。例えば各マイクロレンズに対応する画素数がN個である場合、マイクロレンズに対して同じ位置にある画素の画素値を配列して構成されるN個の再構成画像は、撮影光学系11をN個の部分領域に分割して取得されるN個のステレオ画像群を形成する。
図2は、撮像素子20の画素配列と入射領域とを説明する図である。なお、図2では図1のX軸方向から撮像素子20を観察した様子を示す。図2に示す撮像素子20において、画素が配列された領域を画素領域200という。画素領域200には例えば1000万個以上もの画素がマトリックス状に配列されている。画素領域200における円形の領域は、1つのマイクロレンズを通過した光線が入射する領域である。従って、円形の領域は、複数のマイクロレンズごとに複数形成される。これらの領域を入射領域201,202・・・という。なお、マイクロレンズは例えば586×440個配置される。ただし、このような配置数は一例であって、これよりも多い数でも少ない数でもよい。図2に示す例では、1つのマイクロレンズの直径は13画素分となっている。ただし、このような画素数分に限定されるわけではない。
上述したように、ライトフィールドカメラは、すべてのマイクロレンズから入射領域における同じ位置(入射領域内におけるY軸方向及びZ軸方向の同じ位置)にある画素の画素値を抽出して再構成する。このようにして得られた再構成画像群は、撮影光学系11の異なる部分領域から被写体を観察した画像群に相当する。従って、これらの再構成画像群においては、部分領域の位置と被写体までの距離に応じた視差を有する。例えば、図2に示すように、入射領域201における画素201aと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像と、入射領域201における画素201bと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像とで視差を有する。
図3は、ライトフィールドカメラ1の構成を示すブロック図である。図3に示すライトフィールドカメラ1は、撮像部10、画像処理部30、ワークメモリ(記憶部)40、表示部50、操作部55、記録部60、音声出力部65、及びシステム制御部70を備える。撮像部10は、撮影光学系11、マイクロレンズアレイ12、駆動制御部13、撮像素子20、及び駆動部21を有している。撮影光学系11及びマイクロレンズアレイ12は、図1において説明したため、図3においては説明を省略する。
撮像素子20の撮像面には、例えばベイヤー配列のカラーフィルタアレイが配置されている。撮像素子20は、撮影光学系11及びマイクロレンズアレイ12を通過した光束を入射する。撮像素子20は、入射した光束を光電変換してアナログ信号の各画素の画素信号を生成する。撮像部10において、不図示のアンプがアナログ信号の各画素の画素信号を所定の利得率(増幅率)で増幅する。また、不図示のA/D変換部がアンプにより増幅されたアナログ信号の各画素の画素信号をデジタル信号の各画素の画素信号に変換する。そして、撮像部10は、デジタル信号の各画素の画素信号からなるRAWデータを画像処理部30に出力する。上記したライトフィールドカメラ1が取得する光線情報は、撮像部10から出力されるRAWデータで特定される。
駆動制御部13は、撮影光学系11が備える開口絞りの開口径調節を行うために、システム制御部70から送信される制御情報に基づいて開口絞りの駆動制御を実行する。駆動部21は、システム制御部70からの指示信号に基づいて設定される撮像条件で撮像素子20の駆動を制御する制御回路である。撮像条件としては、例えば、露光時間(シャッター速度)、フレームレート、ゲインなどがあげられる。
ここで、露光時間とは、撮像素子20の光電変換素子が入射光に応じた電荷の蓄積を開始してから終了するまでの時間のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。また、ゲインとは、画素信号を増幅するアンプの利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子20の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子20が光をとらえる能力を表す値となる。
画像処理部30は、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。画像処理部30が生成する画像データには、静止画、動画、及びライブビュー画像の画像データが含まれる。ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して表示部50に表示される画像である。ライブビュー画像は、撮像部10により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。
画像処理部30は、ワークメモリ40をワークスペースとして、各画素の画素信号からなるRAWデータに対して所定の画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。具体的には、画像処理部30は、次に示す画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。
図4は、画像の再構成を説明する図である。図4に示すように、画像処理部30は、画素領域200における各入射領域201,202・・・に対して同じ位置にある画素201a,202a・・・の画素値(画素信号が示す値)を抽出する。画像処理部30は、抽出した画素値を並べ直して再構成画像データ400aを生成する。各入射領域201,202・・・に対応する画素数がN個である場合、N個の再構成画像データが生成される。
画像処理部30は、N個の再構成画像データ群を所定の焦点距離に合わせて所定量だけ平行移動させる。そして、画像処理部30は、平行移動後のN個の再構成画像データ群を加算平均する。これにより、所定の焦点距離に設定された画像データが生成される。移動量に応じた奥行きに存在する被写体は像の位置が合うのでシャープな輪郭の像が形成される。移動量に応じた奥行きに存在しない被写体の像はぼける。なお、上記した画像処理は一例であって、画像処理部30は上記した画像処理とは異なる画像処理を実行することにより、任意の焦点距離に設定された画像データを生成してもよい。例えば、画像処理部30は、撮像素子20の各画素が取得する光線を所定の演算を行うことによって算出する。そして、画像処理部30は、算出した光線を所定の焦点距離に設定した仮想的な画像面に投影することにより、所定の焦点距離に設定された画像データを生成する。
本実施形態においては、画像処理部30は、最も手前の被写体に合焦した画像データ、最も奥の被写体に合焦した画像データ、中間位置の被写体に合焦した画像データなど、焦点位置(焦点距離)が異なる複数の画像データを生成する。
画像処理部30は、ワークメモリ40をワークスペースとして、任意の焦点に設定された画像データに対して種々の画像処理を施す。例えば、画像処理部30は、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像データを生成する。また、画像処理部30は、RGB画像データに対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像処理部30は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。
画像処理部30は、画像データから一又は複数の被写体を検出する。本実施形態では、画像処理部30は、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体の領域の境界を特定して被写体を検出する。そして、画像処理部30は、検出した画像データ中の被写体のサイズ及び位置を画素単位で示す位置データをシステム制御部70に出力する。
なお、画像処理部30は、人物の被写体に対しては、公知の顔検出機能を用いて被写体の検出を行ってもよい。また、画像処理部30は、移動する被写体(移動被写体)に対しては、時系列的に得られる複数の画像データを比較して移動被写体を検出してもよい。また、画像処理部30は、顔検出に加えて、例えば特開2010−16621号公報(US2010/0002940号)に記載されているように、画像データに含まれる人体を被写体として検出してもよい。
また、画像処理部30は、検出した各被写体までの距離(焦点距離)を検出(算出)する。例えば、画像処理部30は、複数の再構成画像データ(例えば入射領域における2つの特定位置の画素の画素値から構成される再構成画像データ)における各被写体の視差を検出し、検出した視差に基づいて各被写体までの距離を算出する。そして、画像処理部30は、検出した各被写体までの距離を示す距離データをシステム制御部70に出力する。
また、画像処理部30は、ワークメモリ40をワークスペースとして、システム制御部70から合焦位置の変更を指示する指示信号を受け取った場合は、合焦位置の異なる複数の画像データに基づいて、指示信号で指示された合焦位置の画像データを生成する。具体的には、画像処理部30は、合焦位置の変更を指示する指示信号を受け取ると、指示信号で指示された合焦位置(距離)に近い合焦位置を持つ複数の画像データを取得する。指示信号で指示された合焦位置の画像データは、画像処理部30により取得された複数の画像データの中間の位置の画像データである。このため、画像処理部30は、取得した複数の画像データに対して距離に応じた重みを加えてから平均する加重平均処理を行うことで、指示信号で指示された合焦位置の画像データを生成する。
画像処理部30は、生成した画像データ(合焦位置の異なる画像データ、指示信号で指示された合焦位置の画像データ)を記録部60に出力する。また、画像処理部30は、生成した画像データ(合焦位置の異なる画像データ、指示信号で指示された合焦位置の画像データ)を表示部50に出力する。
ワークメモリ40は、画像処理部30による画像処理が行われる際にRAWデータや画像データなどを一時的に記憶する。表示部50は、撮像部10で撮像された画像や各種情報を表示する。この表示部50は、例えば液晶表示パネルなどで構成された表示画面51を有している。なお、表示部50に表示される画像には、静止画、動画、ライブビュー画像が含まれる。表示部50の表示画面51上にはタッチパネル(操作部)52が形成されている。タッチパネル52は、使用者が表示画面51に表示されている被写体の選択などの操作を行う際に、使用者が触れた位置を示す信号をシステム制御部70に出力する。
操作部55は、使用者によって操作されるレリーズスイッチ(静止画の撮影時に押されるスイッチ)、動画スイッチ(動画の撮影時に押されるスイッチ)、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録することも可能である。
システム制御部70は、ライトフィールドカメラ1の全体の処理及び動作を制御する。このシステム制御部70はCPU(Central Processing Unit;CPUのことを制御装置ともいう。)を有する。このシステム制御部70は、図3に示すように、設定部71及び制御部72を備えている。
設定部71は、撮像素子20の撮像面(画素領域200)において所定の撮像条件(露光時間、フレームレート、ゲインなど)で撮像を行わせるために、所定の撮像条件を指示する指示信号を駆動部21に対して出力する。また、設定部71は、画像処理部30によりRAWデータに基づいて生成される画像データの合焦位置を指示する指示信号を画像処理部30に出力する。また、設定部71は、画像処理部30に所定の制御パラメータ(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行させるために、制御パラメータを指示する指示信号を画像処理部30に出力する。
設定部71は、画像データ中の被写体に対する表示の可否(表示可又は表示不可)を設定する際(後述する図7に示す表示可否の設定処理の実行時)に、画像処理部30で生成された画像データを表示部50に出力させて、表示部50の表示画面51に画像(ライブビュー画像、静止画、動画)を表示させる制御を行う。または、設定部71は、画像データ中の被写体に対する表示の可否を設定する際(後述する図7に示す表示可否の設定処理の実行時)に、記録部60に記録されている画像データを読み出して表示部50に出力させ、表示部50の表示画面51に画像を表示させる制御を行う。
設定部71は、画像処理部30からの位置データ及び距離データに基づいて、表示部50の表示画面51に表示された画像中における被写体の位置及び撮影時の被写体までの距離(焦点距離)を認識する。そして、設定部71は、認識した被写体に対して表示の可否を設定する。本実施形態においては、設定部71は、被写体に対する表示の可否を、使用者によるタッチパネル52のタッチ操作によって選択された被写体の奥行き方向の位置で設定する。なお、ライトフィールドカメラ1から被写体に向かう方向を奥側の方向といい、その反対側の方向を手前側の方向をいう。また、奥側の方向及び手前側の方向を奥行き方向という。
制御部72は、所定の被写体に合焦した画像を表示部50の表示画面51に表示する際(後述する図8に示す画像表示処理の実行時)に、画像処理部30で生成された画像データを表示部50に出力させて、表示部50の表示画面51に画像(ライブビュー画像、静止画、動画)を表示させる制御を行う。または、制御部72は、所定の被写体に合焦した画像を表示部50の表示画面51に表示する際(後述する図8に示す画像表示処理の実行時)に、記録部60に記録されている画像データを読み出して表示部50に出力させ、表示部50の表示画面51に画像を表示させる制御を行う。
制御部72は、画像処理部30からの位置データ及び距離データに基づいて、表示部50の表示画面51に表示された画像中における被写体の位置及び撮影時の被写体までの距離(焦点距離)を認識する。そして、制御部72は、使用者によるタッチパネル52のタッチ操作によって、設定部71により表示可に設定された被写体が選択された場合は、その被写体に対して合焦した画像の表示画面51への表示を行う。本実施形態においては、制御部72は、画像データの合焦位置の変更を指示する指示信号を画像処理部30に出力することにより、画像データの合焦位置を設定部71により表示可に設定された被写体の奥行き方向の位置に変更する。これにより、その被写体に合焦した画像が表示画面51に表示される。また、制御部72は、使用者によるタッチパネル52のタッチ操作によって、設定部71により表示不可に設定された被写体が選択された場合は、その被写体の画像の表示画面51への表示が制限されることを使用者に報知する。また、制御部72は、表示画面51にパスワードの入力欄(図9(3)の入力欄50w参照)を表示して使用者にパスワードの入力を報知する。
制御部72は、表示画面51のパスワードの入力欄に正しいパスワードが使用者により入力された場合は、設定部71により表示不可に設定された被写体に対して合焦した画像の表示画面51への表示を行う。本実施形態においては、制御部72は、画像データの合焦位置の変更を指示する指示信号を画像処理部30に出力することにより、画像データの合焦位置を設定部71により表示不可に設定された被写体の奥行き方向の位置に変更する。これにより、その被写体に合焦した画像が表示画面51に表示される。
一方、制御部72は、表示画面51のパスワードの入力欄に誤ったパスワードが使用者により入力された場合は、設定部71により表示不可に設定された被写体の画像の表示画面51への表示を制限する。本実施形態においては、制御部72は、画像データの合焦位置が設定部71により表示不可に設定された被写体の奥行き方向の位置又はその位置を含む奥行き方向の範囲とならないように合焦位置の変更を制限(禁止)する。このことで、その被写体の画像の表示画面51への表示が制限される。
システム制御部70は、上記の制御の他に、撮影光学系11に備えられた開口絞りの開口径調節などの制御も行う。
なお、システム制御部70において、設定部71及び制御部72は、それぞれ、CPUが制御プログラム(図示せず)に基づいて実行する処理及び制御に相当する。
次に、画像処理部30が実行する画像処理について説明する。図5は、図3に示す画像処理部30が実行する画像処理を説明するためのフローチャートである。図5に示す処理において、画像処理部30は、撮像部10から出力されるRAWデータを取得する(ステップS1)。そして、画像処理部30は、取得したRAWデータに基づいて所定の合焦位置(焦点距離、焦点位置)の画像データを生成する(ステップS2)。
具体的には、上述したように、画像処理部30は、画素領域200における各入射領域に対して同じ位置にある画素の画素値を抽出し、抽出した画素値を再構成して複数個の再構成画像データ群を生成する。そして、画像処理部30は、複数個の再構成画像データ群を所定の合焦位置に合わせて平行移動させ、平行移動後の複数個の再構成画像データ群を加算平均する。これにより、所定の合焦位置に設定された画像データが生成される。ステップS2において、画像処理部30は、合焦位置が異なる複数の画像データを生成する。また、ステップS2で生成される画像データは、静止画、動画、ライブビュー画像の画像データが含まれる。
図6は、ライトフィールドカメラ1と各被写体O1〜O4との距離関係を示す図である。図6に示す例では、ライトフィールドカメラ1はカメラ位置d0に位置している。また、被写体である人物O1は合焦位置d1に位置している。また、被写体である人物O2は合焦位置d2に位置している。また、被写体である木O3は合焦位置d3に位置している。また、被写体である家O4は合焦位置d4に位置している。なお、図6において、ライトフィールドカメラ1から被写体O1〜O4に向かう方向(矢印の方向)が奥側の方向であり、その反対側の方向が手前側の方向である。
図5の説明に戻り、画像処理部30は、ステップS2で生成された合焦位置が異なる複数の画像データに対して、色信号処理(色調補正)、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの各種画像処理を実行する(ステップS3)。
次に、画像処理部30は、画像処理部30で生成された画像データから被写体O1〜O4を検出する(ステップS4)。画像処理部30は、検出した被写体O1〜O4のサイズ及び位置を示す位置データをシステム制御部70に出力する。
また、画像処理部30は、ステップS4で検出した各被写体O1〜O4までの距離(焦点距離)を検出(算出)する(ステップS5)。例えば、画像処理部30は、複数の再構成画像データ(例えば入射領域における2つの特定位置の画素の画素値から構成される再構成画像データ)における各被写体O1〜O4の視差を検出し、検出した視差に基づいて各被写体O1〜O4までの距離を算出する。このとき、画像処理部30は、人物O1までの距離をd1、人物O2までの距離をd2、木O3までの距離をd3、家O4までの距離をd4と算出する。画像処理部30は、検出した各被写体O1〜O4までの距離を示す距離データをシステム制御部70に出力する。
また、画像処理部30は、システム制御部70からの合焦位置の変更を指示する指示信号を受け取った場合は(図8のステップS24参照)、ステップS3で画像処理が施された合焦位置の異なる複数の画像データに基づいて、指示信号で指示された合焦位置の画像データを生成する(ステップS6)。
その後、画像処理部30は、ステップS3で画像処理が施された合焦位置が異なる複数の画像データを記録部60に記録する(ステップS7)。また、画像処理部30は、ステップS6において指示信号で指示された合焦位置の画像データを生成した場合は、その画像データも記録部60に記録する(ステップS7)。このとき、システム制御部70は、画像処理部30から出力された被写体の位置データと距離データとを被写体ごとに対応付けて記録部60に記録する。なお、画像処理部30は、RAWデータも画像データ等と対応付けて記録部60に記録してもよい。
次に、第1実施形態に係るライトフィールドカメラ1における被写体ごとの表示可否の設定処理について説明する。図7は、第1実施形態のシステム制御部70が実行する表示可否の設定処理を説明するためのフローチャートである。
図7に示す処理において、ライトフィールドカメラ1に電源が投入された後、使用者が撮影を実行するために操作部55などの操作を行うと、設定部71は、画像(静止画、動画、又はライブビュー画像)の撮影を実行する(ステップS11)。すなわち、設定部71は、駆動部21に対して指示信号を出力することにより撮像素子20の駆動制御を実行させる。これにより、図5のステップS1〜S3の処理が画像処理部30によって実行され、合焦位置の異なる複数の画像データが生成される。また、設定部71は、画像処理部30で生成された画像データを表示部50の表示画面51に表示する(ステップS12)。このとき、表示部50の表示画面51には、所定の被写体(例えば人物O2)に合焦した画像が表示される。
次に、設定部71は、画像に含まれる一又は複数の被写体(図6に示す例では被写体O1〜O4)を認識する(ステップS13)。具体的には、設定部71は、画像処理部30に対して被写体の検出を要求する。画像処理部30は、システム制御部70から被写体の検出の要求を受けると、画像に含まれる各被写体O1〜O4を検出する(図5のステップS4参照)。そして、画像処理部30は、検出した各被写体O1〜O4のサイズ及び位置を画素単位で示す位置データをシステム制御部70に出力する。また、画像処理部30は、各被写体O1〜O4までの距離を検出する(図5のステップS5参照)。そして、画像処理部30は、検出した各被写体O1〜O4までの距離を示す距離データをシステム制御部70に出力する。設定部71は、画像処理部30からの位置データに基づいて各被写体O1〜O4のサイズ及び位置を認識する。また、設定部71は、画像処理部30からの距離データに基づいて各被写体O1〜O4までの距離を認識する。
次に、設定部71は、使用者によるタッチパネル52のタッチ操作によって被写体が選択されたか否かを判定する(ステップS14)。具体的には、使用者は、例えば図6に示す人物O1の被写体を選択する場合は、表示画面51に表示されている人物O1をタッチする。表示画面51上に形成されているタッチパネル52は、使用者によりタッチされた人物O1の位置を示す信号をシステム制御部70に出力する。設定部71は、タッチパネル52から出力される信号に基づいて、使用者により被写体が選択されたか否かを判定する。また、設定部71は、使用者により被写体が選択されたと判定した場合に、タッチパネル52からの信号が示す位置とステップS13で認識した被写体の位置とに基づいて、いずれの被写体が選択されたかについても判定する。なお、設定部71が使用者により被写体が選択されていないと判定した場合は(ステップS14のNO)、処理を終了する。
設定部71は、ステップS14で使用者により被写体が選択されたと判定した場合は(ステップS14のYES)、使用者により選択された被写体を表示可(ロック:OFF)に設定するための操作(表示可の設定操作)が行われたか否かを判定する(ステップS15)。表示可の設定操作としては、例えば、使用者がタッチパネル52のタッチ操作によって被写体を選択した後に、操作部55を操作して表示可設定モードに設定する操作などが考えられる。なお、表示可の設定操作は、使用者が操作部55を操作して表示可設定モードに設定した後に、タッチパネル52のタッチ操作によって被写体を選択する操作であってもよい。
設定部71は、使用者により表示可の設定操作が行われたと判定した場合は(ステップS15のYES)、使用者により選択された被写体を表示可(ロック:OFF)に設定する(ステップS16)。すなわち、設定部71は、使用者により選択された被写体の奥行き方向の位置に合焦させてもよい旨を示す設定情報を、被写体ごとに対応付けて記録部60に記録する。
一方、設定部71は、表示可の設定操作ではなく、使用者により選択された被写体を表示不可(ロック:ON)に設定するための操作(表示不可の設定操作)が行われたと判定した場合は(ステップS15のNO)、使用者により選択された被写体を表示不可に設定する(ステップS17)。すなわち、設定部71は、使用者により選択された被写体の奥行き方向の位置に合焦させない旨を示す設定情報を、被写体ごとに対応付けて記録部60に記録する。また、このとき、設定部71は、表示不可の設定を解除するためのパスワードを使用者に入力させる。例えば、設定部71はパスワードの入力欄を表示して、使用者にパスワードの入力を促す。使用者は、操作部55などを操作して、入力欄に任意のパスワードを入力する。
表示不可の設定操作としては、例えば、使用者がタッチパネル52のタッチ操作によって被写体を選択した後に、操作部55を操作して表示不可設定モードに設定する操作などが考えられる。なお、表示不可の設定操作は、使用者が操作部55を操作して表示不可設定モードに設定した後に、タッチパネル52のタッチ操作によって被写体を選択する操作であってもよい。
使用者は、他の人に見せたくない被写体に対して表示不可(ロック:ON)の設定を行う。他の人に見せたくない被写体としては様々なものが想定される。例えば、使用者は、自分の家族、自分の家などのように自身のプライベートに関する被写体に対して表示不可の設定を行ってもよい。また、使用者は、通行人の顔などのように自身と無関係の人のプライベートに関する被写体に対して表示不可の設定を行ってもよい。また、使用者は、片付いていない部屋などのように使用者にとって見られたくない被写体に対して表示不可の設定を行ってもよい。
図7で説明した処理においては、撮像部10で撮像された画像データ中の被写体に対して表示可否の設定が行われていた。しかし、記録部60に記録された画像データ中の被写体に対して表示可否の設定が行われてもよい。この場合、設定部71は、図7のステップS11の処理に代えて、記録部60に記録されている画像データとこの画像データ中の各被写体の位置データ及び距離データとを読み出す処理を実行する。そして、設定部71は、ステップS12の処理と同様に、読み出した画像データを表示部50に出力させて、表示部50の表示画面51に画像(静止画又は動画)を表示させる。その後、設定部71は、図7のステップS13〜S17の処理を実行する。
次に、第1実施形態に係るライトフィールドカメラ1における画像表示処理について説明する。図8は、第1実施形態のシステム制御部70が実行する画像表示処理を説明するためのフローチャートである。また、図9は、第1実施形態の画像601〜604の表示例を示す図である。
図8に示す画像表示処理は、使用者(被写体の撮影を行った使用者、又はその使用者とは異なる使用者)により選択された被写体に合焦した画像を表示部50の表示画面51に表示させるための処理である。なお、図9に示す画像601〜604は、図6に示す距離関係の被写体O1〜O4を撮影されたときの画像である。また、設定部71は、図7に示す処理に従って、人物O1に対して表示可(ロック:OFF)に設定し、人物O2に対して表示可(ロック:OFF)に設定し、木O3に対して表示可(ロック:OFF)に設定し、家O4に対して表示不可(ロック:ON)に設定したものとする。
図8に示す処理において、使用者が画像を表示させるために操作部55などの操作を行うと、制御部72は、記録部60に記録されている画像データと、この画像データ中の各被写体の位置データ、距離データ、及び設定情報とを読み出す。そして、制御部72は、読み出した画像データを表示部50に出力させて、表示部50の表示画面51に画像(静止画又は動画)を表示させる(ステップS21)。図9(1)は、表示部50の表示画面51に表示される画像601の表示例である。
次に、制御部72は、画像に含まれる一又は複数の被写体(図6に示す例では被写体O1〜O4)を認識する(ステップS22)。具体的には、制御部72は、位置データに基づいて各被写体O1〜O4のサイズ及び位置を認識する。また、制御部72は、距離データに基づいて各被写体O1〜O4までの距離を認識する。さらに、制御部72は、設定情報に基づいて各被写体O1〜O4の表示の可否(ロックのON又はOFF)を認識する。
次に、制御部72は、使用者によるタッチパネル52のタッチ操作によって被写体が選択されたか否かを判定する(ステップS23)。具体的には、使用者は、例えば図9(1)に示す人物O1の被写体を選択する場合は、表示画面51に表示されている人物O1をタッチする。表示画面51上に形成されているタッチパネル52は、使用者によりタッチされた人物O1の位置を示す信号をシステム制御部70に出力する。制御部72は、タッチパネル52から出力される信号に基づいて、使用者により被写体が選択されたか否かを判定する。また、制御部72は、使用者により被写体が選択されたと判定した場合に、タッチパネル52からの信号が示す位置とステップS22で認識した被写体の位置とに基づいて、いずれの被写体が選択されたかについても判定する。なお、制御部72が使用者により被写体が選択されていないと判定した場合は(ステップS23のNO)、処理を終了する。
制御部72は、ステップS23で使用者により被写体が選択されたと判定した場合は(ステップS23のYES)、使用者により選択された被写体の設定情報に基づいて、その被写体が表示可(ロック:OFF)に設定されているか否かを判定する(ステップS24)。制御部72は、使用者により選択された被写体が表示可に設定されていると判定した場合は(ステップS24のYES)、使用者により選択された被写体に合焦した画像(例えば図9(2)に示す画像602)を表示部50の表示画面51に表示させる(ステップS25)。具体的には、制御部72は、使用者により選択された被写体(図9(1)の人物O1)の距離データに基づいて、ライトフィールドカメラ1から人物O1までの撮影時の距離を認識する。そして、制御部72は、画像処理部30に対して画像データの合焦位置の変更を指示する指示信号(つまり、合焦位置が人物O1の奥行き方向の位置を指示する指示信号)を出力する。画像処理部30は、システム制御部70からの指示信号を受けると、その指示信号で指示された合焦位置の画像データを生成する(図5のステップS6参照)。そして、画像処理部30は、生成した画像データを表示部50に出力する。これにより、人物O1に合焦した画像602が表示部50の表示画面51に表示される。
一方、制御部72は、ステップS24で使用者により選択された被写体が表示可(ロック:OFF)ではなく表示不可(ロック:ON)に設定されていると判定した場合は(ステップS24のNO)、使用者により選択された被写体が表示不可であることと、その詩斜体を表示するためにはパスワードの入力が必要であることを報知する(ステップS26)。具体的には、使用者は、例えば表示不可に設定されている家O4をタッチして選択する。制御部72は、図9(3)に示すように、表示画面51(画像603)の上部に設けられた表示領域50vにおいて「選択した合焦位置はロックされています。パスワードを入力してください。」という文を表示するとともに、パスワードを入力するための入力欄50wを表示領域50vの下に表示する。
使用者は、選択した被写体に合焦した画像を表示させるために(つまり表示不可の設定を解除させるために)、操作部55などを操作することにより入力欄50wにパスワードを入力する。制御部72は、使用者により正しいパスワードが入力されたか否かを判定する(ステップS27)。制御部72は、正しいパスワードが入力されたと判定した場合は(ステップS27のYES)、使用者により選択された被写体に合焦した画像(例えば図9(4)に示す画像604)を表示部50の表示画面51に表示させる(ステップS25)。これに対して、制御部72は、パスワード自体が入力されていないと判定した場合又は正しいパスワードが入力されていないと判定した場合は(ステップS27のNO)、使用者により選択された被写体に合焦した画像(例えば図9(4)に示す画像604)を表示部50の表示画面51に表示させないように制御する(ステップS28)。すなわち、制御部72は、図9(3)に示す画像603のまま変更しないように制御する。なお、制御部72は、誤ったパスワードが入力された場合は、例えば表示領域50vに「パスワードが誤っています。」という文を表示して、使用者にパスワードが誤っていることを報知してもよい。
このように、制御部72は、表示不可(ロック:ON)に設定された被写体に対して合焦した画像を表示しないように構成している。従って、使用者は、予め表示不可に設定した被写体を他人に見られないようにすることができる。しかし、表示不可に設定された被写体の奥行き方向の位置と同じ位置又は近い位置の被写体が表示可(ロック:OFF)に設定されている場合は、制御部72が表示可に設定された被写体に対して合焦した画像を表示することにより、表示不可に設定された被写体も合焦した状態又は少しぼけた状態で表示されてしまう。この場合、使用者が見られたくない被写体に対して表示不可の設定を行ったとしても、その被写体が他人に見られてしまうことになる。
そこで、制御部72は、ステップS25において使用者により選択された被写体に合焦した画像を表示する場合であっても、画像データの合焦位置が設定部71により表示不可に設定された被写体の奥行き方向の位置を含む所定の奥行き方向の範囲とならないように合焦位置の変更を制限(禁止)する。所定の奥行き方向の範囲としては、例えば、使用者が表示不可に設定された被写体がどのような被写体であるか全く視認不可能なぐらいのぼけ量となるような範囲であってもよい。また、所定の奥行き方向の範囲としては、使用者が表示不可に設定された被写体を視認困難なぐらいのぼけ量となるような範囲であってもよい。
なお、設定部71は、図7のステップS17において、使用者により選択された被写体の奥行き方向の位置を含む所定の奥行き方向の範囲に合焦させない旨を示す設定情報を、被写体ごとに対応付けて記録部60に記録するようにしてもよい。この場合、制御部72は、合焦位置が設定部71により設定された所定の奥行き方向の範囲にならないように合焦位置の変更を制限する。
また、制御部72が、上記のように、画像データの合焦位置が所定の奥行き方向の範囲とならないように合焦位置の変更を制限(禁止)する場合、表示可(ロック:OFF)に設定された被写体も表示不可(ロック:ON)に設定された被写体とともに表示されなくなってしまう。そこで、制御部72は、ステップS25において使用者により選択された被写体に合焦した画像を表示する場合において、画像データ中の被写体領域(例えば被写体の輪郭で囲む領域)毎に表示部50の表示画面51への表示を制限する。
すなわち、制御部72は、ステップS25において被写体領域毎に異なる合焦位置の変更を指示する指示信号を画像処理部30に出力する。画像処理部30は、システム制御部70からの指示信号を受けると、その指示信号で指示された被写体領域毎に異なる合焦位置の画像データを被写体領域毎に生成する(図5のステップS6参照)。そして、画像処理部30は、生成した被写体領域毎の画像データを合成する。画像処理部30は、合成した画像データを表示部50に出力する。これにより、被写体領域毎に合焦位置の異なる画像が表示部50の表示画面51に表示される。例えば、奥行き方向の同じ位置又は近い位置に存在する複数の被写体のうち、ある被写体の画像は合焦状態で表示され、他の被写体の画像はぼけた状態で表示される。
以上に説明したように、第1実施形態では、合焦位置を奥行き方向に変更可能な画像データ(リフォーカス画像という。)の被写体(位置又は範囲)に対して表示の可否を設定する設定部71と、設定部71により表示可に設定された被写体に対して合焦した画像の表示部50への表示を行い、設定部71により表示不可に設定された被写体に合焦した画像の表示部50への表示を制限する制御部72とを備える。このような構成によれば、使用者が見せたくない被写体に対して表示不可の設定を行うことにより、その被写体の表示を制限することができる。
また、第1実施形態では、設定部71は、被写体に対する表示の可否を該被写体の奥行き方向の位置で設定する。このような構成によれば、制御部72が画像データにおける合焦位置を制御することで、被写体に合焦した画像の表示及びその表示の制限を容易かつ確実に行うことができる。
また、第1実施形態では、制御部72は、画像データの合焦位置が設定部71により表示不可に設定された被写体の奥行き方向の位置又はその位置を含む奥行き方向の範囲とならないように合焦位置の変更を制限する。このような構成によれば、設定部71により表示不可に設定された被写体の画像が視認可能な状態で表示されることがなくなる。
また、第1実施形態では、制御部72は、画像データ中の被写体を含む領域(被写体領域)毎に表示部50への表示を制限する。このような構成によれば、奥行き方向の同じ位置又は近い位置に表示可に設定された被写体と表示不可に設定された被写体とが存在する場合でも、表示の可否の設定に応じて被写体の画像を表示させることができる。また、第1実施形態では、制御部72は、解除条件の成立(ステップS27のYES参照)に基づいて設定部71により表示不可に設定された被写体の表示の制限を解除する。このような構成によれば、使用者は表示不可に設定された被写体についても表示させることができる。
<第2実施形態>
上記した第1実施形態では、ライトフィールドカメラ1内のシステム制御部70が被写体の表示可否の設定を行い、表示可に設定された被写体の画像を表示し、表示不可に設定された被写体の画像の表示を制限していた。これに対して、第2実施形態では、情報処理装置がライトフィールドカメラ1からの画像データを入力し、入力した画像データにおける表示不可とする奥行き方向の範囲を設定し、その奥行き方向の範囲内における被写体の画像の表示を制限する。
上記した第1実施形態では、ライトフィールドカメラ1内のシステム制御部70が被写体の表示可否の設定を行い、表示可に設定された被写体の画像を表示し、表示不可に設定された被写体の画像の表示を制限していた。これに対して、第2実施形態では、情報処理装置がライトフィールドカメラ1からの画像データを入力し、入力した画像データにおける表示不可とする奥行き方向の範囲を設定し、その奥行き方向の範囲内における被写体の画像の表示を制限する。
また、上記した第1実施形態では、設定部71が、被写体に対する表示の可否を該被写体の奥行き方向の位置で設定していた。これに対して、第2実施形態では、設定部は、被写体に対する表示の可否を該被写体の奥行き方向の位置を含む奥行き方向の範囲で設定する。さらに、上記した第1実施形態では、制御部72は、画像データの合焦位置が設定部71により表示不可に設定された被写体の奥行き方向の位置又はその位置を含む奥行き方向の範囲とならないように合焦位置の変更を制限していた。これに対して、第2実施形態では、制御部は、画像データの被写界深度の範囲が設定部により表示不可に設定された奥行き方向の範囲と重複しないように被写界深度の範囲の変更を制限する。なお、被写界深度とは、焦点が合っているように見える被写体の焦点距離の範囲のことをいう。
図10は、電子機器としての情報処理装置101の構成を示すブロック図である。図10に示すように、情報処理装置(電子機器)101は、ライトフィールドカメラ(撮像装置)1、表示装置(表示部)102、キーボード103、及びマウス104と接続されている。情報処理装置101は、合焦位置や被写界深度の範囲を奥行き方向に変更可能な画像データ(リフォーカス画像データ)をライトフィールドカメラ1から入力する。
情報処理装置101は、例えば、パーソナルコンピュータで実現される。ただし、情報処理装置101は、スマートフォン、携帯電話、タブレット端末、デジタルフォトフレーム、サーバなどで実現されてもよい。この情報処理装置101は、図10に示すように、演算処理部110及び記憶部120を有している。演算処理部110は、CPU(Central Processing Unit:CPUのことを制御装置ともいう。)を有している。この演算処理部110は、画像データにおける奥行き方向の表示不可の範囲の設定に関する制御、画像データの被写界深度の範囲の変更に関する制御などを司る。
記憶部120は、ライトフィールドカメラ1で撮影された画像データや、演算処理部110による制御に必要な各種情報(例えば画像データ中の被写体のサイズ及び位置を示す位置データ、撮影時のライトフィールドカメラ1から被写体までの距離を示す距離データなど)を記憶する。
演算処理部110は、図10に示すように、画像入力部111、操作制御部112、設定部113、及び制御部114を有している。画像入力部111は、ライトフィールドカメラ1と接続されることにより、このライトフィールドカメラ1(記録部60)に記憶されている画像データ(合焦位置の異なる複数の画像データ)や、被写体の位置データ、被写体の距離データを入力する。この画像入力部111は、ライトフィールドカメラ1から入力した画像データ等(画像データ、被写体の位置データ、被写体の距離データ)を記憶部120における画像データ記憶領域に記憶する。なお、画像入力部111は、インターネットなど通信ネットワーク(図示せず)を通じて画像データ等を取得し、取得した画像データ等を記憶部120における画像データ記憶領域に記憶することも可能である。
操作制御部112は、使用者が操作可能な操作部を構成するキーボード103及びマウス104と接続される。この操作制御部112は、使用者によるキーボード103やマウス104の操作に応じて情報を入力し、その情報を設定部113及び制御部114に出力する。
設定部113は、記憶部120に記憶されている位置データ及び距離データに基づいて、画像中における被写体の位置及び撮影時の被写体までの距離(焦点距離)を認識する。また、設定部113は、使用者が画像データにおける奥行き方向の表示不可の範囲の設定を行う際(後述する図11に示す表示可否の設定処理の実行時)に、使用者によって操作されるグラフィカルユーザインタフェース(以下、GUIという。)などの各種画像(後述する図12参照)を表示する制御を行う。また、設定部113は、被写体に対する表示の可否を、使用者によるマウス104等の操作によって選択された被写体の位置を含む奥行き方向の表示不可の範囲(図12参照)で設定する。
制御部114は、記憶部120に記憶されている位置データ及び距離データに基づいて、画像中における被写体の位置及び撮影時の被写体までの距離(焦点距離)を認識する。また、制御部114は、使用者が画像データの被写界深度の範囲の変更を行う際(後述する図13に示す被写界深度の変更処理の実行時)に、使用者によって操作されるGUIなどの各種画像(後述する図12参照)を表示する制御を行う。また、制御部114は、使用者が画像データの被写界深度の範囲の変更を行う際に、変更後の被写界深度の範囲が設定部113により設定された表示不可の範囲と重複しない場合は、変更後の被写界深度の範囲の画像データを生成する。そして、制御部114は、生成した画像データを表示装置102の表示画面500に表示させる。
また、制御部114は、使用者が画像データの被写界深度の範囲の変更を行う際に、変更後の被写界深度の範囲が設定部113により設定された表示不可の範囲と重複する場合は、被写界深度の範囲の変更を制限(禁止)する。このことで、表示不可の範囲内における被写体の画像が表示画面500に表示されることが制限される。
なお、演算処理部110において、設定部113及び制御部114は、それぞれ、CPUが制御プログラム(図示せず)に基づいて実行する処理及び制御に相当する。
次に、第2実施形態に係る情報処理装置101における表示可否の設定処理について説明する。図11は、第2実施形態の演算処理部110が実行する表示可否の設定処理を説明するためのフローチャートである。
図11に示す処理において、画像入力部111は、ライトフィールドカメラ1に記憶されている画像データ(合焦位置の異なる複数の画像データ)や、被写体の位置データ、被写体の距離データを入力する(ステップS31)。画像入力部111は、ライトフィールドカメラ1から入力した画像データ等(画像データ、被写体の位置データ、被写体の距離データ)を記憶部120における画像データ記憶領域に記憶する。
設定部113は、ステップS31で入力した画像データ、位置データ、及び距離データに基づいて、画像データ中の各被写体のサイズ及び位置や、撮影時のライトフィールドカメラ1から各被写体までの距離を認識する。そして、設定部113は、認識した各被写体のサイズ、画像データ中の位置、及び各被写体までの距離に基づいて、ライトフィールドカメラ1と各被写体とを俯瞰したときの俯瞰図をGUI上に表示する(ステップS32)。
図12は、第2実施形態のグラフィカルユーザインタフェース(GUI)上の俯瞰図300の表示例を示す図である。図12に示すように、表示装置102の表示画面500には、GUIとして、ライトフィールドカメラ1と各被写体O1〜O4との距離関係、各被写体O1〜O4の合焦位置、及び画像データの被写界深度の範囲を表す俯瞰図300が表示される。図12に示す俯瞰図300では、カメラ位置d0にライトフィールドカメラ1が表示され、合焦位置d1に人物O1が表示され、合焦位置d2に人物O2が表示され、合焦位置d3に木O3が表示され、合焦位置d4に家O4が表示されている。
図12に示す画像データの合焦位置は、人物O1の合焦位置d1となっている。また、図12に示す画像データの被写界深度の範囲は、人物O1の合焦位置d1の奥行き方向の前後の範囲となっている。すなわち、図12に示す画像データの被写界深度の範囲は、ライトフィールドカメラ1からの距離d1aから、ライトフィールドカメラ1からの距離d1bまでの範囲となっている。図12に示すように、被写界深度の範囲が人物O1の合焦位置d1の奥行き方向の前後の範囲となっているので、人物O1は合焦状態で表示されているが、人物O2、木O3及び家O4はぼけた状態で表示されている。なお、図12に示す画像データの合焦位置及び被写界深度の範囲は、ライトフィールドカメラ1の画像処理部30によって自動的に設定されたものである。
また、図12に示すように、表示装置102の表示画面500の右上に小さな表示領域501が設けられている。この表示領域501にはGUIで作成中の画像が表示される。このように、設定部113が表示領域501に画像を表示することによって、GUIを用いて作成中の画像を使用者に視認させることができる。
次に、設定部113は、使用者によるマウス104等の操作によって奥行き方向の範囲が選択されたか否かを判定する(ステップS33)。具体的には、使用者は、人物O2を見せたくない被写体であると判断した場合は、図12に示すように、マウス104等を操作することによって、人物O2の合焦位置d2の奥行き方向の前後の範囲を選択する。すなわち、使用者は、ライトフィールドカメラ1からの距離d2aから、ライトフィールドカメラ1からの距離d2bまでの範囲を選択する。設定部113は、使用者により奥行き方向の範囲が選択されたと判定した場合は、選択された奥行き方向の範囲を表示不可の範囲に設定する(ステップS34)。
次に、第2実施形態に係る情報処理装置101における被写界深度の範囲の変更処理について説明する。図13は、第2実施形態の演算処理部110が実行する被写界深度の範囲の変更処理を説明するためのフローチャートである。
図13に示す処理において、制御部114は、記憶部120に記憶されている画像データ、位置データ、及び距離データに基づいて、画像データ中の各被写体のサイズ及び位置や、撮影時のライトフィールドカメラ1から各被写体までの距離を認識する。そして、制御部114は、認識した各被写体のサイズ、画像データ中の位置、及び各被写体までの距離に基づいて、ライトフィールドカメラ1と各被写体とを俯瞰したときの俯瞰図をGUI上に表示する(ステップS41)。なお、GUIとして表示される俯瞰図は、図12に示したものと同様である。
次に、制御部114は、使用者によるマウス104等の操作によって被写界深度の範囲が変更されたか否かを判定する(ステップS42)。例えば、使用者は、被写界深度の範囲を、人物O2の合焦位置d2の奥行き方向の前後の範囲よりも広い範囲に変更する。制御部114は、使用者により被写界深度の範囲が変更されたと判定した場合は(ステップS42のYES)、変更後の被写界深度の範囲が設定部113により設定された表示不可の範囲と重複するか否かを判定する(ステップS43)。例えば、図12に示すように、使用者が被写界深度の範囲を距離d2aよりも奥側に広げた場合は、制御部114は、変更後の被写界深度の範囲が表示不可の範囲と重複すると判定する。
制御部114は、変更後の被写界深度の範囲が表示不可の範囲と重複しないと判定した場合は(ステップS43のNO)、記憶部120に記録されている合焦位置の異なる複数の画像データに基づいて、変更後の被写界深度の画像データを生成する。そして、制御部114は、生成した画像データを表示装置102の表示領域501に表示させる(ステップS44)。なお、制御部114は、使用者によるキーボード103等の操作に応じて、変更後の被写界深度の画像を表示装置102の表示画面500の全面に表示してもよい。
一方、制御部114は、変更後の被写界深度の範囲が表示不可の範囲と重複すると判定した場合は(ステップS43のYES)、変更後の被写界深度の画像の表示装置102の表示領域501に表示しないように制限(禁止)する(ステップS45)。このとき、制御部114は、表示装置102の表示画面500において、例えば「被写体O2はロックされています。被写界深度の範囲内に含めることはできません。」という文を表示して、被写界深度の範囲を変更することができないことを使用者に報知する。なお、制御部114は、使用者によるパスワードの入力に基づいて、被写界深度の範囲の変更の制限を解除してもよい。
なお、上記した第2実施形態では、設定部113は、被写体の奥行き方向の位置を含む奥行き方向の範囲を表示不可の範囲として設定していたが、このような構成に限定されず、被写体の奥行き方向の位置を表示不可の位置として設定してもよい。また、上記した第2実施形態では、制御部114は、画像データの被写界深度の範囲が設定部113により表示不可に設定された表示不可の範囲と重複しないように被写界深度の範囲の変更を制限していたが、このような構成に限定されず、画像データの被写界深度の範囲が設定部113により表示不可に設定された被写体の奥行き方向の位置を含まないように被写界深度の範囲の変更を制限してもよい。
また、2つの範囲(表示不可の範囲と被写界深度の範囲)が重なる場合、設定部113は、被写界深度の範囲の変更に伴って、2つの範囲が重複しないように表示不可の範囲を自動的に変更してもよい。また逆に、制御部114は、表示不可の範囲の変更に伴って、2つの範囲が重複しないように被写界深度の範囲を自動的に変更してもよい。
また、設定部113は、被写界深度の範囲以外のすべての範囲を自動的に表示不可の範囲(デフォルトの表示不可の範囲)に設定してもよい。また、設定部113は、表示不可の範囲を設定することに代えて、表示可の範囲を設定してもよい。この場合、設定部113は、例えば表示可の範囲以外の範囲を表示不可の範囲に設定する。また、設定部113は、表示可の範囲及び表示不可の範囲の2つの範囲を設定する構成でもよい。このような構成によれば、使用者は見せたくない被写体に対するロックのON・OFFの設定を簡易に行うことができる。
また、上記した第2実施形態では、制御部114は、画像データの被写界深度の範囲が設定部113により表示不可に設定された表示不可の範囲と重複しないように被写界深度の範囲の変更を制限していたが、このような構成に限定されず、画像データの合焦位置が設定部113により表示不可に設定された表示不可の範囲と重複しないように合焦位置の変更を制限してもよい。この場合、制御部114は、合焦位置の変更に合わせて被写界深度の範囲を自動的に変更してもよい。例えば、制御部114は、合焦位置から奥行き方向の前後一定の範囲を被写界深度の範囲としてもよい。ただし、制御部114は、合焦位置の変更に伴って被写界深度の範囲が表示不可の範囲と重複してしまった場合は、被写界深度の範囲を狭くして、合焦位置の変更を許可してもよい。
また、2つの範囲(表示不可の範囲と被写界深度の範囲)が重なる場合、制御部114は、2つの範囲が重なることを許容するが、重なった範囲について表示不可の範囲を優先的に適用し、重なった範囲内の被写体の画像を視認不可能又は視認困難な状態にしてもよい。また、被写界深度の範囲の中に表示不可の範囲が入っていてもよい。また、表示不可の範囲は複数設定されてもよい。また、制御部114は、表示不可の範囲内において合焦位置から離れるに従ってより視認困難な状態にしてもよい。すなわち、制御部114は、表示不可の範囲内の被写体の見え方を、合焦位置からの距離に応じて変更してもよい。
なお、上記した第2実施形態では、情報処理装置101が図11及び図13に示した処理を実行していたが、ライトフィールドカメラ1が図11及び図13に示した処理を実行してもよい。すなわち、設定部71が図11に示した処理を実行し、制御部72が図13に示した処理を実行してもよい。
以上に説明したように、第2実施形態では、制御部114は、ライトフィールドカメラ1(撮像部10)と被写体との距離関係、合焦位置、及び被写界深度の範囲を表す図300を表示部102に表示する。このような構成によれば、ライトフィールドカメラ1と被写体との距離関係、合焦位置、及び被写界深度の範囲を使用者に容易に認識させることができる。従って、使用者による画像データを生成する作業を容易に行わせることができる。
<第3実施形態>
上記した第1実施形態では、制御部72は、使用者によりパスワードが入力されたことに基づいて、被写体の表示の制限を解除するか否かを判定していた。これに対して、第3実施形態では、制御部は、画像データを鑑賞する者の場所に基づいて、被写体の表示の制限を解除するか否かを判定する。
上記した第1実施形態では、制御部72は、使用者によりパスワードが入力されたことに基づいて、被写体の表示の制限を解除するか否かを判定していた。これに対して、第3実施形態では、制御部は、画像データを鑑賞する者の場所に基づいて、被写体の表示の制限を解除するか否かを判定する。
なお、第3実施形態においては、ライトフィールドカメラ1ではなく情報処理装置101が以下に示す処理を実行する。情報処理装置101は、図10に示す構成のほかに、スマートフォンやタブレット端末のような通信機能を備えた情報携帯端末であるものとする。また、情報処理装置101は、表示画面にタッチパネルを備えているものとする。また、情報処理装置101は、現在位置を測定するGPS(Global Positioning System)を備えているものとする。また、情報処理装置101は、他の装置(例えばサーバ)から画像データ(合焦位置の異なる複数の画像データ)、画像データ中の各被写体の位置データ、画像データ中の各被写体の距離データ、被写体O1〜O3は表示可を示し被写体O4は表示不可を示す設定情報、特定エリアを示す情報を受信し、それらの情報を記憶部120に記憶しているものとする。また、第3実施形態において、情報処理装置101で画像を鑑賞する者のことを鑑賞者という。
図14は、第3実施形態の演算処理部110が実行する画像表示処理を説明するためのフローチャートである。また、図15は、第3実施形態の画像611〜615の表示例及び鑑賞者700の現在位置を示す図である。なお、図14に示すステップS51〜S54の処理は、制御部72ではなく制御部114が実行する処理であること以外は、図8に示したステップS21〜S24の処理と同様であるため、重複する説明を省略する。
制御部114は、鑑賞者により選択された被写体が表示可に設定されていると判定した場合は(ステップS54のYES)、鑑賞者により選択された被写体に合焦した画像(例えば図15(2)に示す画像612)を表示画面に表示させる(ステップS55)。具体的には、制御部114は、鑑賞者により選択された被写体(図15(1)の人物O1)の距離データに基づいて、ライトフィールドカメラ1から人物O1までの撮影時の距離を認識する。また、制御部114は、合焦位置が人物O1までの距離の画像データを生成する。そして、制御部114は、生成した画像データを表示画面に表示する。
一方、制御部114は、ステップS54で鑑賞者により選択された被写体(例えば家O4)が表示不可(ロック:ON)に設定されていると判定した場合は(ステップS54のNO)、鑑賞者(つまり鑑賞者が携帯している情報処理装置101)の現在位置が特定エリア710内であるか否かを判定する(ステップS56)。具体的には、制御部114は、GPSによって鑑賞者の現在位置を認識する。また、制御部114は、特定エリアを示す情報に基づいて特定エリア710を認識する。図15に示す例では、特定エリア710は、ある地点から半径500m内のエリアとされている。そして、制御部114は、鑑賞者の現在位置と特定エリア710とを比較して、鑑賞者の現在位置が特定エリア710内であるか否かを判定する。
制御部114は、図15(3)に示すように、鑑賞者の現在位置が特定エリア710内でないと判定した場合は(ステップS56のNO)、鑑賞者により選択された被写体に合焦した画像(例えば図15(5)に示す画像615)を表示画面に表示させないように制御する(ステップS57)。すなわち、制御部114は、図15(3)に示す画像613のまま変更しないように制御する。このとき、制御部114は、表示画面に「選択した合焦位置はロックされているため、合焦位置を変更できません。」という文を表示して、鑑賞者により選択された被写体が表示不可であることを報知する。
図15(4)に示すように、鑑賞者は特定エリア710内にいるときに表示不可に設定されている被写体(例えば家O4)を選択する。この場合、制御部114は、鑑賞者の現在位置が特定エリア710内であると判定する(ステップS56のYES)。そして、制御部114は、鑑賞者により選択された被写体に合焦した画像(例えば図15(5)に示す画像615)を表示画面に表示させる(ステップS55)。
上記した第3実施形態では、制御部114は、鑑賞者の現在位置に基づいて被写体の表示の制限を解除するか否かを判定していたが、鑑賞者が画像データを鑑賞する時刻(時間)に基づいて被写体の表示の制限を解除するか否かを判定してもよい。この場合、情報処理装置101は、現在時刻を計測する時計部を備え、時計部からの現在時刻情報に基づいて現在時刻を認識する。制御部114は、認識した現在時刻が予め設定された時刻の範囲内であるか否かを判定する。そして、制御部114は、その判定結果に応じて被写体の表示の制限を解除するか否かを判定する。
以上に説明したように、第3実施形態では、制御部114は、画像データを鑑賞する者(鑑賞者)の場所(つまり現在位置)又は画像データを鑑賞する時間を含む解除条件に基づいて、被写体の表示の制限を解除するか否かを判定する。このような構成によれば、他の装置(例えばサーバ)によって指定された鑑賞者の場所や鑑賞時間によって、特定の被写体を表示させたり表示させなくしたりすることができる。このような構成は、鑑賞者に対する商品の広告などに利用することができる。例えば、情報処理装置101は、他の装置から送信される画像データ等を受信するとともに、特定エリアを示す情報及び鑑賞時間を示す情報を受信する。そして、情報処理装置101は、特定エリア(例えばイベント会場やコンサート会場)において特定の鑑賞時間にだけ、画像データ中の特定の被写体を合焦状態で表示させる。この場合、広告主などは、鑑賞者へのサービスとして、特定の被写体の表示を提供することになる。なお、設定部71は、画像データを鑑賞する者(鑑賞者)の場所(つまり現在位置)又は画像データを鑑賞する時間に応じて、被写体に対する表示可否の設定を自動的に変更してもよい。
なお、被写体の表示の制限を解除する手段(ロックを解除する手段)において、パスワードの入力、場所(現在位置)、時間(時刻)を解除条件としていたが、指紋認証や顔認証などを解除条件としてもよい。つまり、制御部114は、指紋認証により鑑賞者が予め登録された特定の鑑賞者であることを確認したことを条件に、被写体の表示の制限を解除してもよい。また、制御部114は、不図示のカメラで撮影した鑑賞者の画像に基づいて顔認証などを行い、鑑賞者が予め登録された特定の鑑賞者であることを確認したことを条件に、被写体の表示の制限を解除してもよい。
<第4実施形態>
上記した第1実施形態では、制御部72は、使用者によりパスワードが入力されたことに基づいて、被写体の表示の制限を解除するか否かを判定し、第3実施形態では、制御部114は、鑑賞者の場所などに基づいて、被写体の表示の制限を解除するか否かを判定していた。これに対して、第4実施形態では、制御部は、使用者による操作部の操作の順序に基づいて、被写体の表示の制限を解除するか否かを判定する。
上記した第1実施形態では、制御部72は、使用者によりパスワードが入力されたことに基づいて、被写体の表示の制限を解除するか否かを判定し、第3実施形態では、制御部114は、鑑賞者の場所などに基づいて、被写体の表示の制限を解除するか否かを判定していた。これに対して、第4実施形態では、制御部は、使用者による操作部の操作の順序に基づいて、被写体の表示の制限を解除するか否かを判定する。
図16は、第4実施形態における使用者による解除順序を示す図である。図16に示す画像620は、ライトフィールドカメラ1が図6に示した距離関係の被写体O1〜O4を撮像した場合の画像である。また、図16に示す解除順序は、解除順序「1」として人物O2に対する合焦位置d2が設定され、解除順序「2」として人物O1に対する合焦位置d1が設定され、解除順序「3」として木O3に対する合焦位置d3が設定され、解除順序「4」として合焦位置d4が設定されている。
設定部71又は設定部113は、使用者による操作部(タッチパネル)52又は操作部103,104の操作に応じて被写体O2を最初に選択する。これにより、設定部71又は設定部113は、解除順序「1」として人物O2に対する合焦位置d2を設定する。次に、設定部71又は設定部113は、使用者による操作部52又は操作部103,104の操作に応じて被写体O2を選択する。これにより、設定部71又は設定部113は、解除順序「2」として人物O1に対する合焦位置d1を設定する。次に、設定部71又は設定部113は、使用者による操作部52又は操作部103,104の操作に応じて被写体O3を選択する。これにより、設定部71又は設定部113は、解除順序「3」として木O3に対する合焦位置d3を設定する。最後に、設定部71又は設定部113は、使用者による操作部52又は操作部103,104の操作に応じて被写体O4を選択する。これにより、設定部71又は設定部113は、解除順序「4」として家O4に対する合焦位置d4を設定する。
制御部72又は制御部114は、設定部71又は設定部113で設定された解除順序の通りに被写体が選択された場合に限り、各被写体O1〜O4を合焦状態で表示させる。すなわち、制御部72又は制御部114は、使用者により人物O2が選択されたときは人物O2を合焦状態で表示させる。次に、制御部72又は制御部114は、使用者により人物O1が選択されたときは人物O1を合焦状態で表示させる。次に、制御部72又は制御部114は、使用者により木O3が選択されたときは木O3を合焦状態で表示させる。最後に、制御部72又は制御部114は、使用者により家O4が選択されたときは家O4を合焦状態で表示させる。制御部72又は制御部114は、使用者により選択された被写体が解除順序の通りでない場合は、その被写体の表示を制限する。すなわち、制御部72又は制御部114は、その被写体に合焦させないように制御する。
このように、第4実施形態では、制御部72又は制御部114は、使用者による操作部の操作の順序(解除順序)に基づいて、被写体の表示の制限を解除するか否かを判定する。このような構成によれば、解除順序を設定する者(画像を提供する者)が鑑賞者に鑑賞させたい順序で被写体を鑑賞させることができる。従って、電子絵本などのように、解除順序を設定する者が考える被写体の画像が示すストーリーを鑑賞者に伝えることができる。なお、制御部72又は制御部114は、解除順序を鑑賞者に知らせるために、解除順序に従って被写体を囲む枠を表示し、被写体を点滅表示し、被写体の色を変化させるなどの表示を行ってもよい。
<第5実施形態>
上記した各実施形態では、使用者が手動で(操作部を操作するなどして)被写体に対する表示の可否(ロックのON又はOFF)を設定していた。これに対して、第5実施形態では、設定部が自動的に被写体に対する表示の可否を設定する。
上記した各実施形態では、使用者が手動で(操作部を操作するなどして)被写体に対する表示の可否(ロックのON又はOFF)を設定していた。これに対して、第5実施形態では、設定部が自動的に被写体に対する表示の可否を設定する。
図17は、第5実施形態のシステム制御部70が実行する表示可否の設定処理を説明するためのフローチャートである。また、図18は、被写体の特徴点及び被写体ごとの表示の可否を示す設定情報を含む登録情報を示す図である。なお、図17に示すステップS61〜S63の処理は、図7に示したステップS11〜S13の処理と同様であるため、重複する説明を省略する。
設定部71は、ステップS63の処理を実行した後、記録部60に予め登録されている登録情報を読み出す(ステップS64)。図18に示すように、被写体の画像データやその被写体の特徴点などが登録情報として記録部60に登録されている。また、被写体ごとの表示の可否(ロックのON又はOFF)を示す設定情報も登録情報として記録部60に登録されている。図18に示す例では、人物O1は表示不可(ロック:ON)に設定され、人物O2は表示可(ロック:OFF)に設定され、木O3は表示可(ロック:OFF)に設定され、家O4は表示可(ロック:OFF)に設定されている。
設定部71は、画像処理部30に対して被写体の特徴点(例えば人物の目)などを要求する。画像処理部30は、設定部71からの要求に応じて、図5のステップS4において検出した被写体の画像データを抽出するとともに、その被写体の特徴点なども抽出する。そして、画像処理部30は、抽出した被写体の画像データ及び特徴点などをシステム制御部70に出力する。設定部71は、画像処理部30から出力された被写体の画像データ及び特徴点などと、記録部60に予め登録されている被写体の画像データ及び特徴点などとを照合して、画像データ中の被写体を識別する(ステップS65)。すなわち、設定部71は、画像データ中の被写体が記録部60に予め登録されている被写体と同一であるか否かを判定する。なお、設定部71は、画像データ中の被写体が予め登録されている被写体と同一でないと判定した場合は、その被写体の画像データ及び特徴点などを記録部60に登録する。
設定部71は、識別した被写体に対して、記録部60に予め設定された設定情報に基づいて被写体ごとに表示の可否を自動的に設定する(ステップS56)。図18に示す例では、設定部71は、人物O1に対して表示不可に設定し、人物O2に対して表示可に設定し、木O3に対して表示可に設定し、家O4に対して表示可に設定する。
このように、第5実施形態では、設定部71は、画像データ中の被写体と予め登録された被写体とを照合して被写体を識別し、識別した被写体に対して、予め設定された設定情報に基づいて表示の可否を設定する。このような構成によれば、使用者による被写体ごとの表示可否の設定の手間を省くことができる。
なお、設定部71は、位置データに基づいて被写体のサイズを認識し、被写体のサイズに応じて被写体に対する表示可否の設定を行ってもよい。例えば、設定部71は被写体のサイズが大きい場合は表示可に設定し、サイズが小さい場合は表示不可に設定する。また、設定部71は、人物の顔のサイズに応じて被写体に対する表示可否の設定を行ってもよい。また、設定部71は、被写体の特徴点などに基づいて被写体の種類(人物、建物、植物など)を認識し、認識した被写体の種類に応じて被写体に対する表示可否の設定を行ってもよい。また、設定部71は、撮影時に設定されたシーン(テーマ、モード)に応じて被写体に対する表示可否の設定を行ってもよい。例えば、撮影時に設定されたシーンが花のシーンである場合は、設定部71は花の被写体以外の被写体に対して表示不可(ロック:ON)に設定する。
<第6実施形態>
第6実施形態では、設定部は、画像データ中の被写体が画像データ中に存在する時間(フレームイン時間)に基づいて被写体の表示の可否を設定する。
第6実施形態では、設定部は、画像データ中の被写体が画像データ中に存在する時間(フレームイン時間)に基づいて被写体の表示の可否を設定する。
図19は、第6実施形態のシステム制御部70が実行する表示可否の設定処理を説明するためのフローチャートである。なお、図19に示すステップS71〜S73の処理は、図7に示したステップS11〜S13の処理と同様であるため、重複する説明を省略する。また、システム制御部70は、時間を計測するタイマー部を備えているものとする。
設定部71は、ステップS73の処理を実行した後、ステップS4で画像処理部30が画像データ(ここではライブビュー画像又は動画)中の被写体を検出したタイミングから画像データ中の被写体を検出しなくなるタイミングまでの時間(フレームイン時間)を被写体ごとに取得する(ステップS74)。そして、設定部71は、取得したフレームイン時間の長い一又は複数の被写体を主要被写体として設定する(ステップS75)。次に、設定部71は、ステップS75で設定した一又は複数の主要被写体を表示可に設定し、主要被写体以外の被写体を表示不可に設定する(ステップS76)。
このように、第6実施形態では、設定部71は、画像データ中の被写体が画像データ中に存在する時間を取得し、取得した時間に基づいて画像データ中の被写体の表示の可否を設定する。このような構成によっても、使用者による被写体ごとの表示可否の設定の手間を省くことができる。なお、上記した第6実施形態では、設定部71は、フレームイン時間の長い一又は複数の被写体を自動的に主要被写体と設定し、その主要被写体を表示可に設定していた。しかし、設定部71は、撮影状況に応じて主要被写体の判定条件を変更し、また撮影状況に応じて主要被写体に対する表示の可否の設定も変更してもよい。例えば、設定部71は、フレームイン時間の短い被写体を主要被写体と設定してもよい。また、設定部71は、主要被写体に表示不可を設定してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。
例えば、上記した各実施形態では、撮像装置の一例としてライトフィールドカメラ1を挙げていたが、これに限定されず、例えば複数のカメラを配置したカメラアレイであってもよい。このようなカメラアレイにおいても視差を有する複数の画像を取得することができる。
また、上記した各実施形態では、画像処理部や制御部は、ライトフィールドカメラ1が撮影した画像を用いて、合焦位置や被写界深度の範囲を変更していた。しかし、画像処理部や制御部は、フォーカスブラケット機能を備えたデジタルカメラ(撮像装置、電子機器)が撮影した複数の画像を用いて、合焦位置(焦点位置)や被写界深度の範囲を変更することが可能である。すなわち、上記した各実施形態における画像データには、デジタルカメラ(撮像装置)が合焦位置を変えながら撮像した、合焦位置の異なる複数の画像データに基づいて生成される画像データが含まれる。ここで、フォーカスブラケットとは、連写をしながら合焦位置を変えていき、合焦位置の異なる複数の画像を撮影することをいう。画像処理部や制御部は、使用者によって指定された合焦位置や被写界深度に応じて、合焦位置の異なる複数の画像データを適宜選択し、選択した画像データを合成することにより、合焦位置や被写界深度の範囲を変更することができる。
また、上記した各実施形態では、画像処理部や制御部は、複数の画像データに対して距離に応じた重みを加えてから平均する加重平均処理を行うことで、合焦位置や被写界深度の範囲を変更していた。しかし、画像処理部や制御部は、RAWデータに基づいて所定の合焦位置や被写界深度の画像データを生成することで、合焦位置や被写界深度の範囲を変更してもよい。
また、図3に示す画像処理部30とシステム制御部70は一体で構成されてもよい。この場合、1つのCPU(制御装置)を有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部30の機能とシステム制御部70の機能を担う。また、各実施形態において、画像処理部30及びシステム制御部70によって実行されている処理を演算処理部110に実行させてもよく、演算処理部110によって実行されている処理をシステム制御部70に実行させてもよい。
また、上記した第1実施形態において、カラーフィルタの配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。
また、上記した各実施形態に係るライトフィールドカメラ1は、自動的に又は使用者による操作部55などの操作に応じてズーミング調節を行うズーム機能を備えていてもよい。この場合、駆動制御部13は、ズーミング調節を行うために、システム制御部70から送信される制御情報に基づいて撮影光学系11(例えばズーミング用レンズ)の駆動制御を実行する。また、ライトフィールドカメラ1は、被写体の撮影後に焦点位置を変更することが可能であるが、被写体の撮影前に自動的に焦点位置を調節するオートフォーカス機能を備えていてもよい。この場合、駆動制御部13は、撮影光学系11の焦点調節を行うために、システム制御部70から送信される制御情報に基づいて撮影光学系11(例えばフォーカシング用レンズ)の駆動制御を実行する。
なお、各実施形態において、被写体の表示可否を示す設定情報は、画像データのExif(Exchangeable Image file Format)の情報として設定されてもよい。また、被写体の表示可否を示す設定情報は、画像データとは異なる別のファイル情報として設定されてもよい。また、制御部は、すべての被写体に対して表示可に設定されている場合は、パンフォーカス画像として表示してもよい。
また、システム制御部70(例えば設定部71)や演算処理部110(例えば設定部113)は、画像に含まれる被写体を表示部に一覧表示させて、使用者に表示の可否を設定する被写体(ロックをかける被写体)を選択させてもよい。このような構成によれば、使用者は任意の被写体に対して容易に表示可否の設定を行うことができる。システム制御部70(例えば制御部72)や演算処理部110(例えば制御部114)は、表示不可に設定した被写体の見え具合を調整する機能を備えてもよい。例えば、システム制御部70や演算処理部110は、表示不可に設定した被写体が全く見えない状態に制御したり、ぼんやり見える状態に制御してもよい。
また、システム制御部70(例えば設定部71)や演算処理部110(例えば設定部113)は、画像データなどの保存先に応じて表示可否の設定を変更してもよい。例えば、システム制御部70や演算処理部110は、ローカルな保存場所(例えば自身の装置内、つまりライトフィールドカメラ1内や情報処理装置101内)に画像データなどを保存している場合と、外部の保存場所(例えばブログなどのWeb上に画像を公開するサーバなど)に画像データなどを保存している場合とで、表示可否の設定を変更してもよい。この場合は、使用者は公開可能な被写体(合焦位置や被写界深度の範囲)と未公開の被写体(合焦位置や被写界深度の範囲)とを設定することができる。
また、システム制御部70(例えば制御部72)や演算処理部110(例えば制御部114)は、SNS(Social Networking Service)において、使用者と友人関係にある人が被写体の表示の制限(ロック)を解除できるようにしてもよい。例えば、システム制御部70や演算処理部110は、画像中の特定の合焦位置にいるAさんと友人関係にある人だけがAさんのいる合焦位置に合焦させることができるようにしてもよい。また、ロックの解除条件は、1枚のリフォーカス画像(合焦位置を奥行き方向に変更可能な画像)において複数種類設定されてもよい。例えば、1枚のリフォーカス画像において被写体ごとに異なる解除条件が設定されてもよい。また、時間帯や鑑賞場所に応じてロック解除条件が動的に変更されてもよい。また、画像の所有者、又は画像を公開した人と友人関係にある人だけが、表示の制限(ロック)が設定されている被写体を含む画像の表示制限を解除できるようにしてもよい。
1…ライトフィールドカメラ(電子機器、撮像装置)、30…画像処理部、50…表示部、52…タッチパネル(操作部)、55…操作部、70…システム制御部、71…設定部、72…制御部、101…情報処理装置(電子機器)、102…表示装置(表示部)、110…演算処理部、113…設定部、114…制御部
Claims (11)
- 合焦位置を奥行き方向に変更可能な画像データの奥行き方向の位置又は範囲に対して表示の可否を設定する設定部と、
前記設定部により表示可に設定された前記位置又は前記範囲に合焦した画像の表示部への表示を行い、前記設定部により表示不可に設定された前記位置又は前記範囲に合焦した画像の前記表示部への表示を制限する制御部と、を備える電子機器。 - 前記制御部は、前記画像データの合焦位置が前記設定部により表示不可に設定された前記位置又は前記範囲とならないように前記合焦位置の変更を制限する請求項1記載の電子機器。
- 前記制御部は、前記画像データの被写界深度の範囲が前記設定部により表示不可に設定された前記位置又は前記範囲と重複しないように前記被写界深度の範囲の変更を制限する請求項1または請求項2記載の電子機器。
- 前記制御部は、前記画像データ中の被写体を含む領域毎に前記表示部への表示を制限する請求項1から3のいずれか一項に記載の電子機器。
- 前記制御部は、解除条件に基づいて前記設定部により表示不可に設定された前記位置又は前記範囲の表示の制限を解除する請求項1から4のいずれか一項に記載の電子機器。
- 前記制御部は、前記画像データを鑑賞する者の場所又は前記画像データを鑑賞する時間を含む解除条件に基づいて、前記位置又は前記範囲の表示の制限を解除するか否かを判定する請求項5記載の電子機器。
- 使用者が操作可能な操作部を備え、
前記制御部は、使用者による前記操作部の操作の順序に基づいて、前記位置又は前記範囲の表示の制限を解除するか否かを判定する請求項5または請求項6記載の電子機器。 - 前記設定部は、前記画像データ中の被写体と予め登録された被写体とを照合して前記被写体を識別し、識別した前記被写体の位置又は範囲に対して、予め設定された設定情報に基づいて表示の可否を設定する請求項1から7のいずれか一項に記載の電子機器。
- 前記設定部は、前記画像データ中の前記被写体が前記画像データ中に存在する時間を取得し、取得した時間に基づいて前記画像データ中の前記被写体の位置又は範囲の表示の可否を設定する請求項1から8のいずれか一項に記載の電子機器。
- 前記制御部は、撮像部と被写体との距離関係、合焦位置、及び被写界深度の範囲を表す図を表示部に表示する請求項1から9のいずれか一項に記載の電子機器。
- 制御装置に、
合焦位置を奥行き方向に変更可能な画像データの奥行き方向の位置又は範囲に対して表示の可否を設定する設定処理と、
前記設定処理により表示可に設定された前記位置又は前記範囲に合焦した画像の表示部への表示を行い、前記設定処理により表示不可に設定された前記位置又は前記範囲に合焦した画像の前記表示部への表示を制限する制御処理と、を実行させる制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014026442A JP2015154254A (ja) | 2014-02-14 | 2014-02-14 | 電子機器及び制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014026442A JP2015154254A (ja) | 2014-02-14 | 2014-02-14 | 電子機器及び制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015154254A true JP2015154254A (ja) | 2015-08-24 |
Family
ID=53896109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014026442A Pending JP2015154254A (ja) | 2014-02-14 | 2014-02-14 | 電子機器及び制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015154254A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017092529A (ja) * | 2015-11-02 | 2017-05-25 | キヤノン株式会社 | 撮像装置及び撮像方法 |
-
2014
- 2014-02-14 JP JP2014026442A patent/JP2015154254A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017092529A (ja) * | 2015-11-02 | 2017-05-25 | キヤノン株式会社 | 撮像装置及び撮像方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5946970B2 (ja) | 撮像装置及び撮像方法 | |
US10511781B2 (en) | Image pickup apparatus, control method for image pickup apparatus | |
JP2013201752A (ja) | 画像処理装置、撮像装置、制御方法、及びプログラム | |
CN105934940B (zh) | 图像处理装置、方法与程序 | |
JP5725979B2 (ja) | 撮影装置およびその制御方法 | |
JPWO2012001975A1 (ja) | 立体視表示用撮像の際の撮像領域内の障害物を判定する装置、方法およびプログラム | |
JP6031545B2 (ja) | 撮像装置及び撮影支援方法 | |
CN107040718B (zh) | 显示控制装置及其控制方法 | |
JP6045214B2 (ja) | 焦点調節装置及びその制御方法 | |
JP2013013061A (ja) | 撮像装置 | |
JP4799366B2 (ja) | 撮像装置及び画像再生装置 | |
JP2018152787A (ja) | 撮像装置、外部装置、撮像システム、撮像方法、操作方法およびプログラム | |
JP2009081635A (ja) | デジタルカメラ、及びデジタルカメラの個人情報保護方法 | |
JP6389342B2 (ja) | 撮影装置及びその制御方法 | |
JP2017060010A (ja) | 撮像装置、撮像装置の制御方法、およびプログラム | |
JP2016219991A (ja) | 画像処理装置及びその制御方法、並びにプログラム | |
WO2020195073A1 (ja) | 画像処理装置、画像処理方法、プログラム、撮像装置 | |
JP6460310B2 (ja) | 撮像装置、画像表示方法及びプログラム | |
JP5580486B2 (ja) | 画像出力装置、方法およびプログラム | |
JP6491442B2 (ja) | 画像処理装置、画像処理方法、プログラム及び記録媒体 | |
JP2015154254A (ja) | 電子機器及び制御プログラム | |
JP6502640B2 (ja) | 画像処理装置、画像処理方法、プログラム及び記録媒体 | |
JP6780748B2 (ja) | 画像処理装置、及び画像処理プログラム | |
JP7198055B2 (ja) | 画像処理装置およびその制御方法ならびにプログラム | |
WO2020195198A1 (ja) | 画像処理装置、画像処理方法、プログラム、撮像装置 |