JP2018125887A - 電子機器 - Google Patents
電子機器 Download PDFInfo
- Publication number
- JP2018125887A JP2018125887A JP2018077197A JP2018077197A JP2018125887A JP 2018125887 A JP2018125887 A JP 2018125887A JP 2018077197 A JP2018077197 A JP 2018077197A JP 2018077197 A JP2018077197 A JP 2018077197A JP 2018125887 A JP2018125887 A JP 2018125887A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- subject
- image data
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】電子機器の操作性を向上させる。
【解決手段】記録部に記録されている動画を再生して表示部に表示させる制御部と、表示部に設けられ、接触を検出する検出部と、制御部により動画が再生されているときに、検出部により前記接触された複数の位置の変化が検出されると、表示部に表示されている画像に画像処理を行う処理部と、を備える。
【選択図】図3
【解決手段】記録部に記録されている動画を再生して表示部に表示させる制御部と、表示部に設けられ、接触を検出する検出部と、制御部により動画が再生されているときに、検出部により前記接触された複数の位置の変化が検出されると、表示部に表示されている画像に画像処理を行う処理部と、を備える。
【選択図】図3
Description
本発明は、電子機器に関する。
被写体の撮影後に合焦位置などを設定することが可能な電子機器が知られている。この種の電子機器としてフォーカスブラケット機能を備えたデジタルカメラがある(例えば特許文献1参照)。フォーカスブラケットとは、連写をしながら合焦位置を変えていき、合焦位置の異なる複数の画像を撮影することをいう。例えば、特許文献1に記載されたデジタルカメラは、合焦位置の異なる複数の画像データを適宜選択し、選択した画像データを合成することにより、合焦位置を変更する。
しかし、上記した電子機器においては、撮影後に焦点調節を行うリフォーカス機能などが実現されているが、このような電子機器の使い勝手が十分ではなく、依然として改善の余地があった。
本発明の態様では、使用者の操作に応じて画像の合焦位置と被写界深度との少なくとも一方を変更することにより、電子機器の操作性を向上させることを目的とする。
本発明の態様によれば、記録部に記録されている動画を再生して表示部に表示させる制御部と、表示部に設けられ、接触を検出する検出部と、制御部により動画が再生されているときに、検出部により前記接触された複数の位置の変化が検出されると、表示部に表示されている画像に画像処理を行う処理部と、を備える電子機器が提供される。本発明の態様によれば、再生速度が第1速度で再生されている動画を表示する表示部と、表示部に設けられ、接触された位置を検出する検出部と、検出部により接触された位置が検出されると、動画の再生速度を第1速度よりも遅い第2速度で再生する制御部と、制御部により動画が第2速度で再生されているときに、検出部により複数の位置への接触と、接触された複数の位置の変化が検出されると、被写界深度を変更可能なパラメータによって生成された被写界深度の異なる画像データに基づいて、表示部に表示されている画像の被写界深度を変化させる処理部と、を備える画像処理装置が提供される。また、本発明の第1態様によれば、使用者が操作可能な操作部と、画像を表示部に表示させ、使用者による操作部の第1操作に応じて画像の表示状態を変更する表示制御部と、画像の表示中に使用者による操作部の第2操作に応じて画像の合焦位置と被写界深度との少なくともいずれか一方を変更する変更部と、を備える電子機器が提供される。
本発明の第2態様によれば、使用者が操作可能な操作部を有する電子機器の制御装置に、画像を表示部に表示させ、使用者による操作部の第1操作に応じて画像の表示状態を変更する表示制御処理と、画像の表示中に使用者による操作部の第2操作に応じて画像の合焦位置と被写界深度との少なくともいずれか一方を変更する変更処理と、を実行させる制御プログラムが提供される。
本発明の態様によれば、使用者の操作に応じてライブビュー画像又は動画の合焦位置と被写界深度との少なくとも一方を変更することにより、電子機器の操作性を向上させることができる。
以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現する場合がある。なお、以下の各実施形態では、電子機器としてライトフィールドカメラを例に挙げて説明する。
<第1実施形態>
図1は、電子機器の一例であるライトフィールドカメラにおける光学系部分の概略構成を示す断面図である。なお、図1において、紙面の右方向(光軸方向)をX軸とし、X軸と直交する紙面の上方向をZ軸とし、X軸及びZ軸と直交する紙面の裏から表に向かう方向をY軸としている。また、図1は、ライトフィールドカメラにおける光学系部分を光軸を含む面で切断したときの断面図である。
図1は、電子機器の一例であるライトフィールドカメラにおける光学系部分の概略構成を示す断面図である。なお、図1において、紙面の右方向(光軸方向)をX軸とし、X軸と直交する紙面の上方向をZ軸とし、X軸及びZ軸と直交する紙面の裏から表に向かう方向をY軸としている。また、図1は、ライトフィールドカメラにおける光学系部分を光軸を含む面で切断したときの断面図である。
本実施形態のライトフィールドカメラは、被写体の撮影後に合焦位置や視点などを設定することが可能な電子機器である。このライトフィールドカメラは、三次元空間の光線集合であるライトフィールド(光線空間)の情報を取得し、取得したライトフィールドの情報に基づいて画像を生成する。以下の説明では、ライトフィールドの情報を光線情報という。ライトフィールドカメラの代表的な機能としては、撮影後の後処理によって焦点距離を変更した画像を生成するリフォーカス機能がある。従って、ライトフィールドカメラはリフォーカスカメラとも呼ばれる。
本実施形態のライトフィールドカメラは、その光学系部分として、撮影光学系(結像光学系)11及びマイクロレンズアレイ12を備えている。なお、図1には、ライトフィールドカメラにおける光学系部分以外の構成である撮像素子20についても示している。
撮影光学系11は、複数のレンズ群で構成される単焦点レンズである。撮影光学系11は、被写体からの光束をその焦点面(結像面)近傍に結像する。また、撮影光学系11は、撮影時に絞り値(F値)を制御する開口絞り(不図示)を備えている。なお、絞り値は撮影後の画像の再構成によって変更することができるため、開口絞りの開口径は固定でもよい。図1に示すように、撮影光学系11の焦点面近傍にマイクロレンズアレイ12と撮像素子20とが順に配置されている。
マイクロレンズアレイ12は、正のパワーを有した複数のマイクロレンズ(正レンズ)が二次元状に配置された構成となっている。なお、図1に示すマイクロレンズアレイ12においては、3つのマイクロレンズだけがZ軸方向に配されているが、実際はZ軸方向及びY軸方向に多数のマイクロレンズが配されている。
撮像素子20は、マイクロレンズアレイ12の後側(撮影光学系11の反対側)に若干の間隔をおいて配置されている。この撮像素子20は、マイクロレンズアレイ12の各マイクロレンズを通過した光束を複数の光電変換素子で受光し、各々の光電変換素子が受光した光束を光電変換して複数の画素信号を生成する。複数の光電変換素子はマトリックス状に配列され、各々の光電変換素子が画素を形成する。本実施形態では、撮像素子20は、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)などの二次元固体撮像素子で構成されている。
図1の部分拡大図に示す例では、複数のマイクロレンズ12a,12b,12cの各々の後側に複数個ずつ画素が配列されている。具体的には、マイクロレンズ12aの後側に3つの画素21a,21b,21cが配列され、マイクロレンズ12bの後側に3つの画素22a,22b,22cが配列され、マイクロレンズ12cの後側に3つの画素23a,23b,23cが配列されている。
3つの画素21a,21b,21cがマイクロレンズ12aに対応する画素21であり、3つの画素22a,22b,22cがマイクロレンズ12bに対応する画素22であり、3つの画素23a,23b,23cがマイクロレンズ12cに対応する画素23である。なお、図1の部分拡大図では、各マイクロレンズ12a,12b,12cに対応する画素として3つの画素を示しているが、実際はZ軸方向及びY軸方向に多数の画素が配列されている(後述する図2参照)。
次に、図1を参照してライトフィールドカメラによるライトフィールドの取得について簡単に説明する。図1において、Aの位置にある被写体が撮影光学系11によってマイクロレンズアレイ12の位置に焦点を結ぶものとする。被写体上の点A1からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12aを通過して撮像素子20の画素21cで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12aを通過して撮像素子20の画素21bで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12aを通過して撮像素子20の画素21aで受光される。
同様に、被写体上の点A2からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12bを通過して撮像素子20の画素22cで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12bを通過して撮像素子20の画素22bで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12bを通過して撮像素子20の画素22aで受光される。
さらに、被写体上の点A3からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12cを通過して撮像素子20の画素23cで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12cを通過して撮像素子20の画素23bで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12cを通過して撮像素子20の画素23aで受光される。このように、Aの位置にある被写体からの光線は、マイクロレンズ12a,12b,12cの後側に位置する撮像素子20の画素で受光されることによって明るさと進行方向とが光線情報として取得される。
マイクロレンズ12a,12b,12cそれぞれに対応する3つの画素のうち、下側の画素21c,22c,23cの画素信号で生成される画像は、部分領域11aを通過した光線による像である。また、真中の画素21b,22b,23bの画素信号で生成される画像は、部分領域11bを通過した光線による像である。また、上側の画素21a,22a,23aの画素信号で生成される画像は、部分領域11cを通過した光線による像である。例えば各マイクロレンズに対応する画素数がN個である場合、マイクロレンズに対して同じ位置にある画素の画素値を配列して構成されるN個の再構成画像は、撮影光学系11をN個の部分領域に分割して取得されるN個のステレオ画像群を形成する。
図2は、撮像素子20の画素配列と入射領域とを説明する図である。なお、図2では図1のX軸方向から撮像素子20を観察した様子を示す。図2に示す撮像素子20において、画素が配列された領域を画素領域200という。画素領域200には例えば1000万個以上もの画素がマトリックス状に配列されている。画素領域200における円形の領域は、1つのマイクロレンズを通過した光線が入射する領域である。従って、円形の領域は、複数のマイクロレンズごとに複数形成される。これらの領域を入射領域201,202・・・という。なお、マイクロレンズは例えば586×440個配置される。ただし、このような配置数は一例であって、これよりも多い数でも少ない数でもよい。図2に示す例では、1つのマイクロレンズの直径は13画素分となっている。ただし、このような画素数分に限定されるわけではない。
上述したように、ライトフィールドカメラは、すべてのマイクロレンズから入射領域における同じ位置(入射領域内におけるY軸方向及びZ軸方向の同じ位置)にある画素の画素値を抽出して再構成する。このようにして得られた再構成画像群は、撮影光学系11の異なる部分領域から被写体を観察した画像群に相当する。従って、これらの再構成画像群においては、部分領域の位置と被写体までの距離に応じた視差を有する。例えば、図2に示すように、入射領域201における画素201aと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像と、入射領域201における画素201bと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像とで視差を有する。
図3は、第1実施形態に係るライトフィールドカメラ1の構成を示すブロック図である。図3に示すライトフィールドカメラ1は、撮像部10、画像処理部30、ワークメモリ(記憶部)40、表示部50、操作部55、記録部60、音声出力部65、及びシステム制御部70を備える。撮像部10は、撮影光学系11、マイクロレンズアレイ12、駆動制御部13、撮像素子20、及び駆動部21を有している。撮影光学系11及びマイクロレンズアレイ12は、図1において説明したため、図3においては説明を省略する。
撮像素子20の撮像面には、例えばベイヤー配列のカラーフィルタアレイが配置されている。撮像素子20は、撮影光学系11及びマイクロレンズアレイ12を通過した光束を入射する。撮像素子20は、入射した光束を光電変換してアナログ信号の各画素の画素信号を生成する。撮像部10において、不図示のアンプがアナログ信号の各画素の画素信号を所定の利得率(増幅率)で増幅する。また、不図示のA/D変換部がアンプにより増幅されたアナログ信号の各画素の画素信号をデジタル信号の各画素の画素信号に変換する。そして、撮像部10は、デジタル信号の各画素の画素信号からなるRAWデータを画像処理部30に出力する。上記したライトフィールドカメラ1が取得する光線情報は、撮像部10から出力されるRAWデータで特定される。
駆動制御部13は、撮影光学系11が備える開口絞りの開口径調節を行うために、システム制御部70から送信される制御情報に基づいて開口絞りの駆動制御を実行する。駆動部21は、システム制御部70からの指示信号に基づいて設定される撮像条件で撮像素子20の駆動を制御する制御回路である。撮像条件としては、例えば、露光時間(シャッター速度)、フレームレート、ゲインなどがあげられる。
ここで、露光時間とは、撮像素子20の光電変換素子が入射光に応じた電荷の蓄積を開始してから終了するまでの時間のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。また、ゲインとは、画素信号を増幅するアンプの利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子20の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子20が光をとらえる能力を表す値となる。
画像処理部30は、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。画像処理部30が生成する画像データには、静止画、動画、及びライブビュー画像の画像データが含まれる。ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して表示部50に表示される画像である。ライブビュー画像は、撮像部10により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。画像処理部30は、図3に示すように、画像生成部31、第1編集部32、第2編集部33、及び変更部34を備えている。
画像生成部31は、ワークメモリ40をワークスペースとして、各画素の画素信号からなるRAWデータに対して所定の画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。具体的には、画像生成部31は、次に示す画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。
図4は、画像の再構成を説明する図である。図4に示すように、画像生成部31は、画素領域200における各入射領域201,202・・・に対して同じ位置にある画素201a,202a・・・の画素値(画素信号が示す値)を抽出する。画像生成部31は、抽出した画素値を並べ直して再構成画像データ500aを生成する。各入射領域201,202・・・に対応する画素数がN個である場合、N個の再構成画像データが生成される。
画像生成部31は、N個の再構成画像データ群を所定の焦点距離に合わせて所定量だけ平行移動させる。そして、画像生成部31は、平行移動後のN個の再構成画像データ群を加算平均する。これにより、所定の焦点距離に設定された画像データが生成される。移動量に応じた奥行きに存在する被写体は像の位置が合うのでシャープな輪郭の像が形成される。移動量に応じた奥行きに存在しない被写体の像はぼける。なお、上記した画像処理は一例であって、画像生成部31は上記した画像処理とは異なる画像処理を実行することにより、任意の焦点距離に設定された画像データを生成してもよい。例えば、画像生成部31は、撮像素子20の各画素が取得する光線を所定の演算を行うことによって算出する。そして、画像生成部31は、算出した光線を所定の焦点距離に設定した仮想的な画像面に投影することにより、所定の焦点距離に設定された画像データを生成する。
本実施形態においては、画像生成部31は、最も手前の被写体に合焦した画像データ、最も奥の被写体に合焦した画像データ、中間位置の被写体に合焦した画像データなど、焦点位置(焦点距離)が異なる複数の画像データを生成する。
画像生成部31は、ワークメモリ40をワークスペースとして、任意の焦点に設定された画像データに対して種々の画像処理を施す。例えば、画像生成部31は、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像データを生成する。また、画像生成部31は、RGB画像データに対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像生成部31は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。
画像生成部31は、生成した画像データから一又は複数の被写体を検出する。本実施形態では、画像生成部31は、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体の領域の境界を特定して被写体を検出する。そして、画像生成部31は、検出した被写体のサイズ及び位置を画素単位で示す位置データをシステム制御部70に出力する。
なお、画像生成部31は、人物の被写体に対しては、公知の顔検出機能を用いて被写体の検出を行ってもよい。また、画像生成部31は、移動する被写体(移動被写体)に対しては、画像生成部31から時系列的に得られる複数の画像データを比較して移動被写体を検出してもよい。また、画像生成部31は、顔検出に加えて、例えば特開2010−16621号公報(US2010/0002940号)に記載されているように、画像データに含まれる人体を被写体として検出してもよい。
第1編集部32は、システム制御部70からの指示に応じて、ライブビュー画像又は動画における所定の被写体の画像データを編集する処理(すなわち、所定の被写体を削除する処理又は所定の被写体の向きを変更する処理)を行う。また、第1編集部32は、所定の被写体の画像データを削除する処理を行った場合は、視差を有する複数の再構成画像データ(後述する図8参照)を用いて、削除した被写体の領域の画像データを補完する処理を行う。
第2編集部33は、システム制御部70からの指示に応じて、ライブビュー画像又は動画における所定の被写体の画像データを編集する処理(すなわち、所定の被写体を削除する処理又は所定の被写体の向きを変更する処理)を行う。また、第2編集部33は、所定の被写体の画像データを削除する処理を行った場合は、ワークメモリ40に記憶されている所定期間のライブビュー画像又は動画における所定の被写体の移動(後述する図8参照)に基づいて、削除した被写体の領域の画像データを補完する処理を行う。
変更部34は、システム制御部70からの指示に応じて、ライブビュー画像又は動画の合焦位置と被写界深度との少なくともいずれか一方を変更する処理を行う。なお、被写界深度とは、焦点が合っているように見える被写体の焦点距離の範囲のことをいう。例えば、変更部34は、システム制御部70からの指示によって合焦位置や被写界深度の範囲が指定されると、指定された合焦位置に近い合焦位置を持つ複数の画像データを取得する。そして、変更部34は、これらの画像データに適切な加重を加えてから平均化することで、指定された合焦位置や被写界深度の範囲の画像データを生成する。
画像処理部30は、生成した画像データを記録部60に出力する。また、画像処理部30は、生成した画像データを表示部50に出力する。
ワークメモリ40は、画像処理部30による画像処理が行われる際にRAWデータや画像データなどを一時的に記憶する。表示部50は、撮像部10で撮像された画像や各種情報を表示する。この表示部50は、例えば液晶表示パネルなどで構成された表示画面51を有している。なお、表示部50に表示される画像には、静止画、動画、ライブビュー画像が含まれる。表示部50の表示画面51上にはタッチパネル(操作部)52が形成されている。タッチパネル52は、使用者が表示画面51に表示されている被写体の選択などの操作を行う際に、使用者が触れた位置を示す信号をシステム制御部70に出力する。
操作部55は、使用者によって操作されるレリーズスイッチ(静止画の撮影時に押されるスイッチ)、動画スイッチ(動画の撮影時に押されるスイッチ)、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録することも可能である。音声出力部65は、システム制御部70からの指示信号に基づいてスピーカから音声出力を実行する。
システム制御部70は、ライトフィールドカメラ1の全体の処理及び動作を制御する。このシステム制御部70はCPU(Central Processing Unit)を有する。このシステム制御部70は、図3に示すように、表示制御部71、選択部72、及び撮像制御部73を備えている。表示制御部71は、画像処理部30で生成された画像データを表示部50に出力させて、表示部50の表示画面51に画像(ライブビュー画像、静止画、動画)を表示させる制御を行う。また、表示制御部71は、記録部60に記録されている画像データを読み出して表示部50に出力させ、表示部50の表示画面51に画像を表示させる制御を行う。
また、表示制御部71は、使用者によるタッチパネル52のタッチ操作に応じて、ライブビュー画像又は動画の表示状態を変更する制御を行う。具体的には、表示制御部71は、使用者によるタッチパネル52のタッチ操作に応じて、表示部50に表示中のライブビュー画像又は動画の再生速度(単位時間あたりに表示するフレーム数)を変更する制御を行う。
選択部72は、画像処理部30から出力される被写体のサイズ及び位置を示す位置データに基づいて画像データ中の被写体のサイズ及び位置を認識する。また、選択部72は、編集対象の被写体が所定時間内に所定量移動したか否かに基づいて、第1編集部32に画像データの編集処理を実行させるか、第2編集部33に画像データの編集処理を実行させるかを選択する。そして、選択部72は、選択した編集部(第1編集部32又は第2編集部33)に画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する。
撮像制御部73は、撮像素子20の撮像面(画素領域200)において所定の撮像条件(露光時間、フレームレート、ゲインなど)で撮像を行わせるために、所定の撮像条件を指示する指示信号を駆動部21に対して出力する。また、撮像制御部73は、使用者によるタッチパネル52のタッチ操作に応じて、RAWデータに基づいて生成される画像データの合焦位置及び被写界深度を指示する指示信号を画像処理部30に出力する。また、撮像制御部73は、画像処理部30に所定の制御パラメータ(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行させるために、制御パラメータを指示する指示信号を画像処理部30に出力する。また、撮像制御部73は、画像生成部31で生成された画像データを記録部60に記録させる制御を行う。
システム制御部70は、上記の制御の他に、撮影光学系11に備えられた開口絞りの開口径調節などの制御も行う。
なお、システム制御部70において、表示制御部71、選択部72、及び撮像制御部73は、それぞれ、CPUが制御プログラム(図示せず)に基づいて実行する処理及び制御に相当する。
次に、画像処理部30が実行する画像処理について説明する。図5は、第1実施形態の画像処理部30が実行する画像処理を説明するためのフローチャートである。図5に示す処理において、画像生成部31は、撮像部10から出力されるRAWデータを取得する(ステップS1)。そして、画像生成部31は、取得したRAWデータに基づいて所定の合焦位置(焦点距離、焦点位置)の画像データを生成する(ステップS2)。
具体的には、上述したように、画像生成部31は、画素領域200における各入射領域に対して同じ位置にある画素の画素値を抽出し、抽出した画素値を再構成して複数個の再構成画像データ群を生成する。そして、画像生成部31は、複数個の再構成画像データ群を所定の合焦位置に合わせて平行移動させ、平行移動後の複数個の再構成画像データ群を加算平均する。これにより、所定の合焦位置に設定された画像データが生成される。ステップS2において、画像生成部31は、合焦位置が異なる複数の画像データを生成する。また、ステップS2で生成される画像データは、静止画、動画、ライブビュー画像の画像データが含まれる。
図6は、ライトフィールドカメラ1と各被写体O1〜O4との距離関係を示す図である。図6に示す例では、ライトフィールドカメラ1はカメラ位置d0に位置している。また、被写体である人物O1は合焦位置d1に位置している。また、被写体である車O2は合焦位置d2に位置し、被写体である家O3は合焦位置d3に位置し、被写体である木O4は合焦位置d4に位置している。なお、図6において、ライトフィールドカメラ1から被写体O1〜O4に向かう方向を奥側の方向といい、その反対側の方向を手前側の方向をいう。また、奥側の方向及び手前側の方向を奥行き方向という。画像生成部31は、ステップS2において、例えば各合焦位置d1〜d4における5つの画像データを生成する。
図5の説明に戻り、画像生成部31は、ステップS2で生成された合焦位置d1〜d4が異なる4つの画像データに対して、色信号処理(色調補正)、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの各種画像処理を実行する(ステップS3)。
次に、画像生成部31は、画像生成部31で生成された画像データから被写体O1〜O4を検出する(ステップS4)。画像生成部31は、検出した被写体O1〜O4のサイズ及び位置を示す位置データをシステム制御部70に出力する。
また、画像生成部31は、ステップS4で検出した各被写体O1〜O4までの距離(焦点距離)を検出(算出)する(ステップS5)。例えば、画像生成部31は、複数の再構成画像データ(例えば入射領域における2つの特定位置の画素の画素値から構成される再構成画像データ)における各被写体O1〜O4の視差を検出し、検出した視差に基づいて各被写体O1〜O4までの距離を算出する。このとき、画像生成部31は、人物O1までの距離をd1、車O2までの距離をd2、家O3までの距離をd3、木O4までの距離をd4と算出する。画像生成部31は、検出した各被写体O1〜O4までの距離を示す距離データをシステム制御部70に出力する。
その後、画像生成部31は、システム制御部70からの被写体の編集要求があった場合(図7のステップS18及びステップS19参照)に、編集要求された被写体の画像データを編集する(ステップS6)。画像生成部31により編集された画像データを編集画像データという。
次に、第1実施形態に係るライトフィールドカメラ1の撮影動作について説明する。図7は、第1実施形態のシステム制御部70が実行する撮影動作を説明するためのフローチャートである。
図7に示す処理において、ライトフィールドカメラ1に電源が投入された後、使用者が撮影を開始するために操作部55などの操作を行うと、撮像制御部73は、ライブビュー画像の撮影を開始する(ステップS11)。すなわち、撮像制御部73は、駆動部21に対して指示信号を出力することにより撮像素子20の駆動制御を実行させる。また、表示制御部71は、撮像素子20で撮像されたライブビュー画像を表示部50の表示画面51に表示する(ステップS12)。
図8は、表示部50の表示画面51に表示されるライブビュー画像500の表示例を示す図である。図8(A)及び(B)に示すライブビュー画像500は、図6に示したライトフィールドカメラ1と各被写体O1,O3,O4との距離関係において、ライトフィールドカメラ1が各被写体O1,O3,O4を撮影した場合のライブビュー画像である。なお、図8(A)及び(B)に示すライブビュー画像500では、車O2は表示されていない。ここで、ライブビュー画像500の画像データは、例えば、合焦位置d1,d3,d4が異なる複数の画像データのうちの人物O3に合焦した画像データ(すなわち、中間位置である合焦位置d3における画像データ)とする。なお、ライブビュー画像500の画像データは、すべての被写体O1,O3,O4に合焦した画像データであってもよい。例えば、ライブビュー画像500の画像データは、画像生成部31がすべての合焦位置d1,d3,d4における画像データから各被写体O1,O3,O4の画像データを抽出して合成した画像データであってもよい。
図8(A)及び(B)に示す例では、ライブビュー画像500においては、人物O1が左側の下方に表示されている。また、家O3が左側の下方に表示され、木O4が右側に表示されている。
上記したように、画像生成部31により生成される再構成画像データ群は、被写体O1〜O4に対して視差を有する。視差は、ライトフィールドカメラ1に近い被写体ほど大きく、ライトフィールドカメラ1に遠い被写体ほど小さくなる。従って、人物O1に対する視差が最も大きく、木O4に対する視差が最も小さい。図8(A)においては、人物O1における視差も示している。ある再構成画像データにおける人物O1’の位置と、他の再構成画像データにおける人物O1”の位置とが視差によって異なっている。なお、図8(A)には示していないが、家O3及び木O4についても、複数の再構成画像データ間において視差を有する。また、図8(B)においては、人物O1が右側に移動している状態を示している。
次に、選択部72は、ライブビュー画像501に含まれる被写体O1,O3,O4を認識する(ステップS13)。具体的には、選択部72は、画像処理部30に対して被写体の検出を要求する。画像生成部31は、システム制御部70から被写体の検出の要求を受けると、ライブビュー画像500に含まれる各被写体O1,O3,O4を検出する(図5のステップS4参照)。そして、画像生成部31は、検出した各被写体O1,O3,O4のサイズ及び位置を画素単位で示す位置データをシステム制御部70に出力する。また、画像生成部31は、各被写体O1〜O5までの距離を検出する(図5のステップS5参照)。そして、画像生成部31は、検出した各被写体O1、O3,O4までの距離を示す距離データをシステム制御部70に出力する。選択部72は、画像処理部30からの位置データに基づいて各被写体O1,O3,O4のサイズ及び位置を認識する。また、選択部72は、画像処理部30からの距離データに基づいて各被写体O1,O3,O4までの距離を認識する。
次に、選択部72は、使用者によるタッチパネル52のタッチ操作によって編集対象の被写体が選択されたか否かを判定する(ステップS14)。例えば、使用者は、図8(A)に示す人物O1を選択する場合は、表示画面51に表示されている人物O1をタッチする。表示画面51上に形成されているタッチパネル52は、使用者によりタッチされた人物O1の位置を示す信号をシステム制御部70に出力する。選択部72は、タッチパネル52から出力される信号に基づいて、使用者により被写体が選択されたか否かを判定する。また、選択部72は、使用者により被写体が選択されたと判定した場合に、タッチパネル52からの信号が示す位置とステップS13で認識した被写体の位置とに基づいて、いずれの被写体が選択されたかについても判定する。なお、選択部72が使用者により被写体が選択されていないと判定した場合は(ステップS14のNO)、処理を終了する。
選択部72は、ステップS14で使用者により編集対象の被写体が選択されたと判定した場合は(ステップS14のYES)、ライブビュー画像の画像データを第1保存データとしてワークメモリ40に所定期間記憶させる(ステップS15)。なお、ワークメモリ40は、画像データを一時的に記憶するバッファとしての役割を果たす記憶部であるので、使用者により被写体が選択されていない場合においても、ライブビュー画像の画像データを所定期間記憶してもよい。すなわち、ワークメモリ40は、常時、ライブビュー画像の画像データを所定期間記憶してもよい。
次に、選択部72は、ワークメモリ40が画像データを記憶する所定時間内において、編集対象の被写体(人物O1)が閾値(基準量)以上の距離を移動したか否かを判定する(ステップS17)。ここで、閾値は、編集対象の被写体が移動する前の被写体の領域と移動した後の被写体の領域とが重複しないような被写体の移動距離である。この閾値は、編集対象の被写体のサイズによって変更され得る値である。選択部72は、所定時間内において、編集対象の被写体が閾値以上の距離を移動したと判定した場合は、編集対象の被写体の領域の画像データをワークメモリ40に記憶されている画像データに基づいて補完可能であると判定する。一方、選択部72は、所定時間内において、編集対象の被写体が閾値以上の距離を移動していないと判定した場合は、編集対象の被写体の領域の画像データをワークメモリ40に記憶されている画像データに基づいて補完可能でないと判定する。
選択部72は、編集対象の被写体が閾値以上の距離を移動していないと判定した場合は(ステップS17のNO)、第1編集部32に編集画像データを生成させるために、画像処理部30に対してライブビュー画像の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS18)。なお、このとき、選択部72は、使用者の操作部55などの操作によって画像データの編集内容(削除又は向きの変更)が選択された場合は、編集内容を指示する指示信号を画像処理部30に対して出力してもよい。
第1編集部32は、システム制御部70からの指示信号に応じて、視差を有する複数の再構成画像データを用いて、ライブビュー画像における編集対象の被写体の画像データを編集する処理(すなわち、被写体を削除する処理又は被写体の向きを変更する処理)を行う。また、第1編集部32は、編集対象の被写体の画像データを削除する処理を行った場合は、視差を有する複数の再構成画像データを用いて、削除した被写体の領域の画像データを補完する処理を行う。このような第1編集部32により編集処理が行われることにより、編集対象の被写体が削除され又は編集対象の被写体の向きが変更された編集画像データが生成される。
選択部72は、編集対象の被写体が閾値以上の距離を移動していると判定した場合は(ステップS17のYES)、第2編集部33に編集画像データを生成させるために、画像処理部30に対してライブビュー画像の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS19)。なお、このときも、選択部72は、使用者の操作部55などの操作によって画像データの編集内容(削除又は向きの変更)が選択された場合は、編集内容を指示する指示信号を画像処理部30に対して出力してもよい。
第2編集部33は、システム制御部70からの指示信号に応じて、ワークメモリ40に所定時間記憶されているライブビュー画像の画像データを用いて、ライブビュー画像における編集対象の被写体の画像データを編集する処理(すなわち、被写体を削除する処理又は被写体の向きを変更する処理)を行う。また、第2編集部33は、編集対象の被写体の画像データを削除する処理を行った場合は、ワークメモリ40に所定時間記憶されているライブビュー画像の画像データを用いて、削除した被写体の領域の画像データを補完する処理を行う。このような第2編集部33により編集処理が行われることにより、編集対象の被写体が削除され又は編集対象の被写体の向きが変更された編集画像データが生成される。
表示制御部71は、第1編集部32又は第2編集部33において生成された編集画像データを表示部50に出力させて、編集画像(編集対象の被写体が削除された画像又は編集対象の被写体の向きが変更された画像)を表示部50の表示画面51に表示させる(ステップS20)。また、撮像制御部73は、第1編集部32又は第2編集部33において生成された編集画像データを記録部60に出力させて、編集画像データを第2保存データとして記録部60に記録(保存)させる(ステップS21)。
なお、図7で説明した処理においては、システム制御部70は、ライブビュー画像中の所定被写体の画像データを画像処理部30(第1編集部32又は第2編集部33)に編集させていたが、動画中の所定被写体の画像データを画像処理部30(第1編集部32又は第2編集部33)に編集させてもよい。具体的には、選択部72は、ステップS14で使用者により編集対象の被写体が選択されたと判定した場合は(ステップS14のYES)、動画の撮影を開始させる。そして、選択部72は、動画の画像データを第1保存データとしてワークメモリ40に所定期間記憶させる(ステップS15参照)。
次に、選択部72は、ワークメモリ40が画像データを記憶する所定時間内において、編集対象の被写体が閾値(基準量)以上の距離を移動したか否かを判定する(ステップS17参照)。選択部72は、編集対象の被写体が閾値以上の距離を移動していないと判定した場合は、第1編集部32に編集画像データを生成させるために、画像処理部30に対して動画の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS18参照)。第1編集部32は、システム制御部70からの指示信号に応じて、視差を有する複数の再構成画像データを用いて、動画における編集対象の被写体の画像データを編集する処理(すなわち、被写体を削除する処理又は被写体の向きを変更する処理)を行う。
選択部72は、編集対象の被写体が閾値以上の距離を移動していると判定した場合は、第2編集部33に編集画像データを生成させるために、画像処理部30に対して動画の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS19参照)。第2編集部33は、システム制御部70からの指示信号に応じて、ワークメモリ40に所定時間記憶されている動画の画像データを用いて、動画における編集対象の被写体の画像データを編集する処理(すなわち、被写体を削除する処理又は被写体の向きを変更する処理)を行う。
表示制御部71は、第1編集部32又は第2編集部33において生成された編集画像データを表示部50に出力させて、編集画像(編集対象の被写体が削除された画像又は編集対象の被写体の向きが変更された画像)を表示部50の表示画面51に表示させる(ステップS20参照)。また、撮像制御部73は、第1編集部32又は第2編集部33において生成された編集画像データを記録部60に出力させて、編集画像データを第2保存データとして記録部60に記録(保存)させる(ステップS21参照)。
さらに、図7で説明した処理においては、システム制御部70は、ライブビュー画像中又は動画中の所定被写体の画像データを画像処理部30(第1編集部32又は第2編集部33)に編集させていたが、連続して撮影された複数の静止画中の所定被写体の画像データを画像処理部30(第1編集部32又は第2編集部33)に編集させてもよい。この場合、選択部72は、ステップS14で使用者により編集対象の被写体が選択されたと判定した場合は(ステップS14のYES)、静止画の連続撮影(連写)を開始させる。そして、選択部72は、複数の静止画の画像データを第1保存データとしてワークメモリ40に所定期間記憶させる(ステップS15参照)。
そして、選択部72は、ワークメモリ40が画像データを記憶する所定時間内において、編集対象の被写体が閾値(基準量)以上の距離を移動していないと判定した場合は(ステップS17のNO参照)、第1編集部32に編集画像データを生成させるために、画像処理部30に対して静止画の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS18参照)。第1編集部32は、システム制御部70からの指示信号に応じて、視差を有する複数の再構成画像データを用いて、静止画における編集対象の被写体の画像データを編集する処理(すなわち、被写体を削除する処理又は被写体の向きを変更する処理)を行う。
選択部72は、編集対象の被写体が閾値以上の距離を移動していると判定した場合は(ステップS17のYES参照)、第2編集部33に編集画像データを生成させるために、画像処理部30に対して動画の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS19参照)。第2編集部33は、システム制御部70からの指示信号に応じて、ワークメモリ40に所定時間記憶されている複数の静止画の画像データを用いて、静止画における編集対象の被写体の画像データを編集する処理(すなわち、被写体を削除する処理又は被写体の向きを変更する処理)を行う。
表示制御部71は、第1編集部32又は第2編集部33において生成された編集画像データを表示部50に出力させて、編集画像(編集対象の被写体が削除された画像又は編集対象の被写体の向きが変更された画像)を表示部50の表示画面51に表示させる(ステップS20参照)。また、撮像制御部73は、第1編集部32又は第2編集部33において生成された編集画像データを記録部60に出力させて、編集画像データを第2保存データとして記録部60に記録(保存)させる(ステップS21参照)。
次に、動画の表示(再生)中において動画の合焦位置や被写界深度を変更する処理について説明する。図9は、第1実施形態のシステム制御部70が実行する動画再生処理を説明するためのフローチャートである。また、図10は、第1実施形態の動画再生中の第1表示例を示す図である。また、図11は、第1実施形態の動画再生中の第2表示例を示す図である。また、図12は、第1実施形態の動画再生中の第3表示例を示す図である。
図9に示す処理において、表示制御部71は、使用者による操作部55などの操作に応じて、撮像部10により撮影中の動画(つまり、画像処理部30により生成された直後の動画)又は記録部60に記録されている動画の画像データを表示部50に出力させ、表示部50の表示画面51に表示させる(ステップS31)。
使用者は、表示中(再生中)の動画の合焦位置や被写界深度を変更したい場合は、表示部50の表示画面51をタッチする。このときの使用者によるタッチ操作を第1操作という。表示制御部71は、タッチパネル52からの信号に基づき、使用者による画面へのタッチ操作があったか否かを判定する(ステップS32)。なお、表示制御部71は、使用者による画面へのタッチ操作がないと判定した場合は、処理を終了する。
表示制御部71は、使用者による画面へのタッチ操作があったと判定した場合は(ステップS32のYES)、動画の再生速度を遅くしてスローモーション再生を実行させる(ステップS33)。具体的には、表示制御部71は、表示部50において表示中の動画の再生速度を遅くする制御を行う。このとき、表示制御部71は、撮像部10により撮影中の動画をステップS31で再生している場合は、動画のフレームレートに合わせた再生速度に変更する。なお、表示制御部71は、撮像部10により撮影中の動画についてスローモーション再生を実行する場合は、撮影中の動画と表示中の動画とのずれを吸収するために、スローモーション再生が行われている時間、ワークメモリ40又は記録部60に動画を記録する。
図10に示す例では、動画501が表示画面51に表示されているときに、使用者が表示画面51(つまりタッチパネル52)をタッチすると(図10(1))、動画502の再生速度が遅くなる(図10(2))。動画502においては、動画501よりも、車O2の移動速度が遅くなっている。
使用者は、表示中(再生中)の動画の合焦位置を変更したい場合は、表示画面51に表示されている被写体のうち、合焦位置を変更したい被写体にタッチする。このときの使用者によるタッチ操作を第2操作という。表示制御部71は、使用者による被写体へのタッチ操作があったか否かを判定する(ステップS34)。
表示制御部71は、使用者による被写体へのタッチ操作があったと判定した場合は(ステップS34のYES)、そのタッチ操作によって選択された被写体(使用者にタッチされた被写体)に対して合焦(ピントが合う)するように、動画の合焦位置を変更することを指示する指示信号を画像処理部30に出力する(ステップS35)。変更部34は、システム制御部70からの指示信号によって指定された合焦位置に近い合焦位置を持つ複数の画像データを取得する。そして、変更部34は、これらの画像データに適切な加重を加えてから平均化することで、指定された合焦位置の画像データを生成する。そして、変更部34は、生成した画像データを表示部50に出力する。これにより、合焦位置が変更された画像が表示画面51に表示される。
図10に示す例では、使用者が表示画面51に表示されている動画503中の車O2にタッチすると(図10(3))、動画503中の家O3に合焦した表示状態から動画504中の車O2に合焦した表示状態に変更される(図10(4))。また、図11に示す例では、使用者が表示画面51に表示されている動画503中の車O2にタッチすると(図11(3))、動画503中の家O3に合焦した表示状態から動画503A中の車O2に合焦した表示状態に徐々に変更され(図11(3A))、そして、動画504中の車O2に合焦した表示状態になる(図11(4))。なお、図11(1)及び(2)は、図10(1)及び(2)と同様の表示例であるので、その説明を省略する。
使用者は、表示中(再生中)の動画の被写界深度の範囲を変更したい場合は、表示画面51上でピンチアウト操作又はピンチイン操作を行う。ピンチアウト操作は、表示画面51を指でつまむようにした後に指を遠ざける操作である。ピンチイン操作は、表示画面51を指でつまむようにした後に指を近づける操作である。これらの操作も第2操作という。表示制御部71は、使用者によるピンチアウト操作又はピンチイン操作があったか否かを判定する(ステップS36)。なお、本実施形態では、使用者によるピンチアウト操作により被写界深度の範囲が広くなり、使用者によるピンチイン操作により被写界深度の範囲が狭くなる。
表示制御部71は、使用者によるピンチアウト操作又はピンチイン操作があったと判定した場合は(ステップS36のYES)、これらの操作に対応させて被写界深度の範囲を変更するように、動画の被写界深度を変更することを指示する指示信号を画像処理部30に出力する(ステップS37)。変更部34は、システム制御部70からの指示信号によって指定された被写界深度の範囲となるように、合焦位置の異なる複数の画像データに適切な加重を加えてから平均化することで、指定された被写界深度の範囲の画像データを生成する。そして、変更部34は、生成した画像データを表示部50に出力する。これにより、被写界深度の範囲が変更された画像が表示画面51に表示される。
図12に示す例では、使用者が表示画面51上でピンチアウト操作を行うと(図12(3−1)及び(3−2))、動画504中の被写界深度の範囲(例えば、車O2の合焦位置から奥行き方向に前後する範囲)が広くなる(図12(4))。なお、図12(1)及び(2)は、図10(1)及び(2)と同様の表示例であるので、その説明を省略する。
次に、表示制御部71は、合焦位置や被写界深度の変更が終了すると、動画の再生速度を元の再生速度に戻す(ステップS38)。図10(4)、図11(4)、及び図12(4)では、動画504の再生速度が元の再生速度に戻された状態(つまり、車O2の移動速度が元の移動速度に戻された状態)を示している。
なお、図9で説明した処理においては、システム制御部70は、使用者のタッチ操作に応じて、動画のスローモーション再生、動画の合焦位置の変更、及び動画の被写界深度の変更を行っていた。しかし、システム制御部70は、使用者のタッチ操作に応じて、ライブビュー画像のスローモーション再生、ライブビュー画像の合焦位置の変更、及びライブビュー画像の被写界深度の変更を行うことも可能である。この場合、システム制御部70は、撮影中のライブビュー画像と表示中のライブビュー画像とのずれを吸収するために、スローモーション再生が行われている時間、ワークメモリ40又は記録部60にライブビュー画像を記録する。
また、システム制御部70は、使用者のタッチ操作に応じて、静止画の再生(例えばコマ送り再生やスライド再生など)、静止画の合焦位置の変更、及び静止画の被写界深度の変更を行うことも可能である。この場合、システム制御部70は、静止画の再生が行われている時間、ワークメモリ40又は記録部60に連続した複数の静止画を記録する。
また、システム制御部70は、使用者のタッチ操作に応じて、動画又はライブビュー画像のスローモーション再生を行うことに代えて、動画又はライブビュー画像の一時停止を行ってもよい。また、システム制御部70は、使用者のタッチ操作に応じて、静止画のコマ送り再生やスライド再生などに代えて、静止画の一時停止を行ってもよい。また、システム制御部70は、使用者によるタッチパネル52のタッチ操作に代えて、使用者による操作部55の操作に応じて、スローモーション再生、合焦位置の変更、及び被写界深度の変更を行ってもよい。また、システム制御部70は、合焦位置の変更及び被写界深度のいずれか一方だけの変更を行ってもよい。
以上に説明したように、第1実施形態では、使用者が操作可能な操作部52(又は操作部55)と、画像(ライブビュー画像、動画、又は静止画)を表示部50に表示させ、使用者による操作部52の第1操作に応じて画像の表示状態を変更する表示制御部71と、画像の表示中に使用者による操作部52の第2操作に応じて画像の合焦位置と被写界深度との少なくともいずれか一方を変更する変更部34とを備える。このような構成によれば、電子機器であるライトフィールドカメラ1の操作性が向上する。すなわち、特許文献1に記載された電子機器では、静止画の合焦位置を変更していたが、第1実施形態のライトフィールドカメラ1では、画像の合焦位置と被写界深度との少なくともいずれか一方を変更することができる。また、特許文献1に記載された電子機器では、使用者がスクロールバーを動かすことで画像の合焦位置を変更していたが、このような操作方法の場合、ライブビュー画像や動画の合焦位置などの変更には不適切である。これに対して、第1実施形態のライトフィールドカメラ1では、使用者によるタッチパネル52のタッチ操作によってライブビュー画像や動画の合焦位置などを変更しているので、簡単な操作で所定の被写体の合焦位置の変更などを行うことができる。
また、第1実施形態では、表示制御部71は、使用者による操作部52の第1操作に応じて画像の再生速度を低くし、又は画像を一時停止させるので、使用者が被写体を選択しやすくなり、より一層、合焦位置の変更などの操作性が向上する。
また、第1実施形態では、変更部34は、使用者による操作部52の第2操作によって指定された被写体の合焦位置に変更する。このような構成によれば、画像中の被写体に合焦させて容易に確認することができる。また、第1実施形態では、変更部34は、使用者による操作部52の第2操作によって指定された被写体の合焦位置を含む被写界深度に変更する。このような構成によっても、使用者は画像中の被写体を容易に確認することができる。
また、第1実施形態では、表示制御部71は、変更部34による変更後に画像の表示状態を元に戻すので、使用者の被写体の確認後は通常の再生速度で画像の表示することができる。
また、第1実施形態では、一又は複数の被写体に対して視差を有する複数の画像を生成する画像生成部31と、画像生成部31で生成された複数の画像を所定期間記憶する記憶部40と、複数の画像の視差に基づいて所定被写体の画像を編集する第1編集部32と、記憶部40に記憶されている所定期間にわたる画像の所定被写体の移動に基づいて所定被写体の画像を編集する第2編集部33と、第1編集部32と第2編集部33との一方を選択する選択部72とを備える。このような構成によれば、ライブビュー画像や動画における被写体の動きなどに合わせて、所定被写体の画像の編集を行うことができる。すなわち、所定被写体が動いていない場合は、画像処理部30は記憶部40に記憶された画像データに基づいて、所定被写体に対して削除などの編集を行うことができない。また、所定被写体のサイズが大きい場合は、画像処理部30は視差を有する複数の画像データに基づいて、所定被写体に対して削除などの編集を行うことができない。しかし、上記した第1実施形態では、選択部72が第1編集部32と第2編集部33との一方を選択するので、所定被写体に対して削除などの編集を行うことができるようになる(又はその可能性が高くなる)。
また、第1実施形態では、選択部72は、所定期間における所定被写体の移動量を検出し、移動量と基準量とを比較することで第1編集部32と第2編集部33との一方を選択する。従って、画像処理部30において確実に所定被写体の削除などを行うことが可能となる。また、第1実施形態では、第1編集部32及び第2編集部33は、所定被写体の編集として、所定被写体を削除し又は所定被写体の向きを変える。従って、使用者の所望する画像データに編集することができる。例えば、主要被写体の手前に存在する被写体を削除した画像に編集したり、人物の被写体が正面を向いている画像に編集することができる。
<第2実施形態>
上記した第1実施形態では、選択部72は、所定期間における被写体の移動量を検出し、移動量と基準量とを比較することで第1編集部32と第2編集部33との一方を選択していた。これに対して、第2実施形態では、表示制御部71は、第1編集部32による編集後の画像と第2編集部33による編集後の画像とを表示部50に表示させ、選択部72は、使用者によるタッチパネル52のタッチ操作に応じて第1編集部32と第2編集部33との一方を選択する。
上記した第1実施形態では、選択部72は、所定期間における被写体の移動量を検出し、移動量と基準量とを比較することで第1編集部32と第2編集部33との一方を選択していた。これに対して、第2実施形態では、表示制御部71は、第1編集部32による編集後の画像と第2編集部33による編集後の画像とを表示部50に表示させ、選択部72は、使用者によるタッチパネル52のタッチ操作に応じて第1編集部32と第2編集部33との一方を選択する。
図13は、第2実施形態のシステム制御部70が実行する撮影動作を説明するためのフローチャートである。なお、図13に示す処理において、図9に示す処理と同様の処理(ステップS1〜S15)については、同一符号を付して重複する説明を省略する。
選択部72は、ステップS14で使用者により編集対象の被写体が選択されたと判定した場合は(ステップS14のYES)、ライブビュー画像の画像データを第1保存データとしてワークメモリ40に所定期間記憶させるとともに(ステップS15)、第1編集部32に編集画像データを生成させるために、画像処理部30に対してライブビュー画像の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS41)。なお、ステップS41の処理は、図9に示したステップS18の処理に対応する処理である。
また、選択部72は、第2編集部33に編集画像データを生成させるために、画像処理部30に対してライブビュー画像の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS42)。なお、ステップS42の処理は、図9に示したステップS19の処理に対応する処理である。
表示制御部71は、第1編集部32及び第2編集部33において生成された編集画像データを表示部50に出力させて、2つの編集画像(編集対象の被写体が削除された画像又は編集対象の被写体の向きが変更された画像)を表示部50の表示画面51に表示させる(ステップS43)。使用者は、表示画面51に表示された2つの編集画像のうち、どちらが画質を悪化させずに編集されているかを判断する。そして、使用者は、2つの編集画像のうちのいずれかをタッチして、編集画像を選択する。撮像制御部73は、使用者のタッチパネル52のタッチ操作によって選択された編集画像データを記録部60に出力させて、編集画像データを第2保存データとして記録部60に記録(保存)させる(ステップS44)。
なお、図13で説明した処理においては、システム制御部70は、ライブビュー画像中の所定被写体の画像データを画像処理部30(画像生成部31又は第1編集部32)に編集させていたが、動画中の所定被写体の画像データを画像処理部30(画像生成部31又は第1編集部32)に編集させてもよい。
このように、第2実施形態では、表示制御部71は、第1編集部32による編集後の画像(ライブビュー画像、動画、又は静止画)と第2編集部33による編集後の画像(ライブビュー画像、動画、又は静止画)とを表示部50に表示させ、選択部72は、使用者による操作部52の操作に応じて第1編集部32と第2編集部33との一方を選択する。このような構成によれば、使用者の判断に応じた編集画像データを記録部60に記録させることができる。
<第3実施形態>
第3実施形態では、上記した第1実施形態におけるライトフィールドカメラ1を、撮像装置1Aと電子機器1Bとに分離した構成としている。
第3実施形態では、上記した第1実施形態におけるライトフィールドカメラ1を、撮像装置1Aと電子機器1Bとに分離した構成としている。
図14は、第3実施形態に係る撮像装置1A及び電子機器1Bの構成を示すブロック図である。図14に示す構成において、撮像装置1Aは、被写体の撮像を行う装置であって、リフォーカス機能を備えた装置である。この撮像装置1Aは、撮像部10、画像処理部30、ワークメモリ40、操作部55、記録部60、音声出力部65、及び第1システム制御部70Aを備える。なお、撮像装置1Aのうち、撮像部10、画像処理部30、ワークメモリ40、操作部55、記録部60、及び音声出力部65の構成は、図3に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。
また、電子機器1Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器1Bは、表示部50及び第2システム制御部70Bを備える。なお、電子機器1Bのうちの表示部50の構成は、図3に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。
第1システム制御部70Aは、第1通信部75Aを有している。また、第2システム制御部70Bは、第2通信部75Bを有している。第1通信部75Aと第2通信部75Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部70Aは、第1通信部75Aを介して画像データ(画像処理部30が画像処理した画像データ、記録部60に記録されている画像データ)を第2通信部75Bに送信する。第2システム制御部70Bは、第2通信部75Bにおいて受信した画像データを表示部50に表示させる。
図3に示す構成(表示制御部71、選択部72、撮像制御部73)は、第1システム制御部70Aと第2システム制御部70Bのいずれに設けられてもよい。図3に示すすべての構成は、第1システム制御部70A又は第2システム制御部70Bに設けられてもよく、また図3に示す構成の一部が第1システム制御部70Aに設けられ、図3に示す構成の一部以外の構成が第2システム制御部70Bに設けられてもよい。
なお、撮像装置1Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器1Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。
図14に示す第1システム制御部70Aにおいて、CPUが制御プログラムに基づいて実行する処理が表示制御部71、選択部72、及び撮像制御部73の全部又は一部の構成に相当する。また、図14に示す第2システム制御部70Bにおいて、CPUが制御プログラムに基づいて実行する処理が表示制御部71、選択部72、及び撮像制御部73の全部又は一部の構成に相当する。
以上に説明したように、第3実施形態では、第1実施形態及び第2実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置1Aで撮像されている画像を電子機器1Bの表示部50に表示させることができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。
例えば、上記した各実施形態では、電子機器の一例としてライトフィールドカメラ1を挙げていたが、これに限定されず、例えば複数のカメラを複数配置したカメラアレイであってもよい。このようなカメラアレイにおいても視差を有する複数の画像を取得することができる。
また、図3に示す画像処理部30とシステム制御部70は一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部30の機能とシステム制御部70の機能を担う。また、図14に示す構成において、画像処理部30と第1システム制御部70Aとは一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部30の機能と第1システム制御部70Aの機能を担う。
また、上記した第1実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。
また、上記した各実施形態に係るライトフィールドカメラ1は、自動的に又は使用者による操作部55などの操作に応じてズーミング調節を行うズーム機能を備えていてもよい。この場合、駆動制御部13は、ズーミング調節を行うために、システム制御部70から送信される制御情報に基づいて撮影光学系11(例えばズーミング用レンズ)の駆動制御を実行する。また、ライトフィールドカメラ1は、被写体の撮影後に焦点位置を変更することが可能であるが、被写体の撮影前に自動的に焦点位置を調節するオートフォーカス機能を備えていてもよい。この場合、駆動制御部13は、撮影光学系11の焦点調節を行うために、システム制御部70から送信される制御情報に基づいて撮影光学系11(例えばフォーカシング用レンズ)の駆動制御を実行する。
1…ライトフィールドカメラ(電子機器)、1A…撮像装置、1B…電子機器、10…撮像部、20…撮像素子、30…画像処理部、31…画像生成部、32…第1編集部、33…第2編集部、34…変更部、50…表示部、51…表示画面、52…タッチパネル、60…記録部、70…システム制御部、70A…第1システム制御部、70B…第2システム制御部、71…表示制御部、72…選択部、73…撮像制御部
Claims (7)
- 記録部に記録されている動画を再生して表示部に表示させる制御部と、
前記表示部に設けられ、接触を検出する検出部と、
前記制御部により前記動画が再生されているときに、前記検出部により前記接触された複数の位置の変化が検出されると、前記表示部に表示されている画像に画像処理を行う処理部と、
を備える電子機器。 - 被写体を撮像する撮像素子を備え、
前記制御部は、前記撮像素子の撮像によって得られた動画を前記記録部に記録せずに前記表示部に表示させることができる請求項1に記載の電子機器。 - 前記処理部は、前記表示部に表示されている画像をズーミングする画像処理を行う請求項1または請求項2に記載の電子機器。
- 前記制御部は、前記動画を第1速度で再生し、前記検出部により前記接触が検出されると、前記動画の再生速度を前記第1速度よりも遅い第2速度にする請求項1から請求項3のいずれか一項に記載の電子機器。
- 前記制御部は、前記検出部により、前記接触された複数の位置の変化とは異なる接触が検出されると、前記動画の再生速度を前記第1速度よりも遅い前記第2速度にする請求項4に記載の電子機器。
- 前記検出部は、前記表示部に設けられたタッチパネルにより前記接触を検出する請求項1から請求項5のいずれか一項に記載の電子機器。
- 前記検出部により検出される前記タッチパネルの前記接触された複数の位置の変化は、前記タッチパネルへのピンチアウト操作または前記タッチパネルへのピンチイン操作によるものである請求項6に記載の電子機器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018077197A JP2018125887A (ja) | 2018-04-12 | 2018-04-12 | 電子機器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018077197A JP2018125887A (ja) | 2018-04-12 | 2018-04-12 | 電子機器 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014008204A Division JP6323022B2 (ja) | 2014-01-21 | 2014-01-21 | 画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018125887A true JP2018125887A (ja) | 2018-08-09 |
Family
ID=63110519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018077197A Pending JP2018125887A (ja) | 2018-04-12 | 2018-04-12 | 電子機器 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018125887A (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004104594A (ja) * | 2002-09-11 | 2004-04-02 | Toshiba Corp | デジタルスチルカメラ及びユーザ指示入力方法 |
JP2009177431A (ja) * | 2008-01-23 | 2009-08-06 | Dainippon Printing Co Ltd | 動画像再生システム、サーバ装置、端末装置及び動画像生成方法等 |
JP2010252266A (ja) * | 2009-04-20 | 2010-11-04 | Olympus Imaging Corp | 画像整理装置 |
JP2012095186A (ja) * | 2010-10-28 | 2012-05-17 | Sanyo Electric Co Ltd | 電子機器 |
JP2014225797A (ja) * | 2013-05-16 | 2014-12-04 | ソニー株式会社 | 情報処理装置、電子機器、サーバ、情報処理プログラム、および情報処理方法 |
-
2018
- 2018-04-12 JP JP2018077197A patent/JP2018125887A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004104594A (ja) * | 2002-09-11 | 2004-04-02 | Toshiba Corp | デジタルスチルカメラ及びユーザ指示入力方法 |
JP2009177431A (ja) * | 2008-01-23 | 2009-08-06 | Dainippon Printing Co Ltd | 動画像再生システム、サーバ装置、端末装置及び動画像生成方法等 |
JP2010252266A (ja) * | 2009-04-20 | 2010-11-04 | Olympus Imaging Corp | 画像整理装置 |
JP2012095186A (ja) * | 2010-10-28 | 2012-05-17 | Sanyo Electric Co Ltd | 電子機器 |
JP2014225797A (ja) * | 2013-05-16 | 2014-12-04 | ソニー株式会社 | 情報処理装置、電子機器、サーバ、情報処理プログラム、および情報処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10244184B2 (en) | Method and apparatus for shooting star trail video, and computer storage medium | |
JP4787180B2 (ja) | 撮影装置及び撮影方法 | |
JP6323022B2 (ja) | 画像処理装置 | |
JP5447619B2 (ja) | 撮像装置 | |
US10587860B2 (en) | Imaging apparatus and method for controlling same | |
JP2008283629A (ja) | 撮像装置、撮像信号処理方法、プログラム | |
US8836763B2 (en) | Imaging apparatus and control method therefor, and 3D information obtaining system | |
JP5655291B2 (ja) | 電子カメラ | |
JP4862741B2 (ja) | 撮像装置、撮像信号処理方法、プログラム | |
KR102172114B1 (ko) | 결합하는 동영상의 동영상 선별 장치, 동영상 선별 방법 및 기억 매체 | |
KR101429040B1 (ko) | 화상 기록 장치 및 화상 기록 방법 | |
JP5322817B2 (ja) | 3次元画像撮像装置及び3次元画像表示方法 | |
KR20120071972A (ko) | 사용자가 원하는 시점의 정지 영상을 획득할 수 있는 디지털 영상 신호 처리 장치 및 이의 제어 방법 | |
KR20150088200A (ko) | 촬상 장치, 촬상 제어 방법 및 프로그램 | |
JP6031670B2 (ja) | 撮像装置 | |
JP5915720B2 (ja) | 撮像装置 | |
JP2015139018A (ja) | 電子機器及び制御プログラム | |
JP2014049882A (ja) | 撮像装置 | |
JP2018125887A (ja) | 電子機器 | |
JP4887461B2 (ja) | 3次元画像撮像装置及び3次元画像表示方法 | |
WO2013065642A1 (ja) | 画像処理装置 | |
KR20100018330A (ko) | 디지털 영상 처리 장치, 이의 제어 방법 및 상기 제어방법을 기록한 기록 매체 | |
JP2011249923A (ja) | 撮像装置、画像処理装置、及び画像処理プログラム | |
JP2014217008A (ja) | 画像処理装置、撮像装置および画像処理プログラム | |
JP2020141189A (ja) | 撮像装置およびその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190123 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190716 |