JP2014016965A - 画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置 - Google Patents
画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置 Download PDFInfo
- Publication number
- JP2014016965A JP2014016965A JP2012155965A JP2012155965A JP2014016965A JP 2014016965 A JP2014016965 A JP 2014016965A JP 2012155965 A JP2012155965 A JP 2012155965A JP 2012155965 A JP2012155965 A JP 2012155965A JP 2014016965 A JP2014016965 A JP 2014016965A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- pixel
- distance
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 51
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000005070 sampling Methods 0.000 claims abstract description 39
- 238000000034 method Methods 0.000 claims description 36
- 230000003287 optical effect Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 2
- 238000004088 simulation Methods 0.000 claims 1
- 230000006866 deterioration Effects 0.000 abstract description 2
- 150000001875 compounds Chemical class 0.000 description 36
- 239000013598 vector Substances 0.000 description 22
- 230000006870 function Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 239000004065 semiconductor Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 238000002945 steepest descent method Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000002939 conjugate gradient method Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000013041 optical simulation Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/21—Indexing scheme for image data processing or generation, in general involving computational photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
【課題】リフォーカス画像の生成の際の画素数の減少に伴う画質の劣化を抑制可能とする。
【解決手段】実施形態の画像処理装置は、生成部が、撮像部により、撮像部から被写体上の点の位置までの距離に応じて被写体上の点が異なる位置に撮像された複数の単位画像から、所定の距離に合焦させたリフォーカス画像を生成する。決定部が、複数の画像内の画素のリフォーカス画像における位置と画素の画素値との組を含むサンプリング情報を決定し、処理部が、リフォーカス画像のサンプリング情報に示される第1位置を含む所定領域に対して、第1位置に対応する画素の合焦の度合いに応じた強さで高解像化処理を施す。
【選択図】図1
【解決手段】実施形態の画像処理装置は、生成部が、撮像部により、撮像部から被写体上の点の位置までの距離に応じて被写体上の点が異なる位置に撮像された複数の単位画像から、所定の距離に合焦させたリフォーカス画像を生成する。決定部が、複数の画像内の画素のリフォーカス画像における位置と画素の画素値との組を含むサンプリング情報を決定し、処理部が、リフォーカス画像のサンプリング情報に示される第1位置を含む所定領域に対して、第1位置に対応する画素の合焦の度合いに応じた強さで高解像化処理を施す。
【選択図】図1
Description
本発明の実施形態は、画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置に関する。
マイクロレンズアレイを備えたライトフィールドカメラや、カメラアレイなどにより、隣接する画像に同一の被写体が位置をずらされて写っている複数の画像を同時に撮像する技術が知られている。このように、隣接する画像に同一の被写体が位置をずらされて撮像された複数の画像をずらして重ね合わせることで、画像内に指定した任意の距離に焦点を合わせた画像を再構成することが可能である。この焦点を変更して再構成した画像をリフォーカス画像と呼ぶ。
T. E. Bishop, S. Zanetti, P. Favaro, "Light Field Superresolution", International Conference on Computational Photography, 2009.
リフォーカス画像は、上述したように、マイクロレンズアレイに含まれる各マイクロレンズによる画像をずらして重ね合わせて生成する。そのため、リフォーカス画像の画素数が撮像素子の画素数に対して減少してしまい、解像度が低下し画質が劣化してしまうという問題点があった。
本発明が解決しようとする課題は、リフォーカス画像の生成の際の画素数の減少に伴う画質の劣化を抑制可能な画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置を提供することにある。
実施形態の画像処理装置は、生成部が、撮像部により、撮像部から被写体上の点の位置までの距離に応じて被写体上の点が異なる位置に撮像された複数の単位画像から、所定の距離に合焦させたリフォーカス画像を生成する。決定部が、複数の画像内の画素のリフォーカス画像における位置と画素の画素値との組を含むサンプリング情報を決定し、処理部が、リフォーカス画像のサンプリング情報に示される第1位置を含む所定領域に対して、第1位置に対応する画素の合焦の度合いに応じた強さで高解像化処理を施す。
(第1の実施形態)
以下、第1の実施形態に係る画像処理装置について説明する。図1は、第1の実施形態に係る画像処理装置100の一例の構成を示す。画像処理装置100は、取得部101で取得された画像に対して第1の実施形態による処理を施す。画像処理装置100は、サンプリング情報を決定する決定部102と、リフォーカス画像を生成する生成部103と、フォーカス度を設定する設定部104と、高解像度化処理を行う処理部105とを有する。これら決定部102、生成部103、設定部104および処理部105は、協働するハードウェアによって構成してもよいし、一部または全部をCPU(Central Processing Unit)上で動作するプログラムにより構成してもよい。
以下、第1の実施形態に係る画像処理装置について説明する。図1は、第1の実施形態に係る画像処理装置100の一例の構成を示す。画像処理装置100は、取得部101で取得された画像に対して第1の実施形態による処理を施す。画像処理装置100は、サンプリング情報を決定する決定部102と、リフォーカス画像を生成する生成部103と、フォーカス度を設定する設定部104と、高解像度化処理を行う処理部105とを有する。これら決定部102、生成部103、設定部104および処理部105は、協働するハードウェアによって構成してもよいし、一部または全部をCPU(Central Processing Unit)上で動作するプログラムにより構成してもよい。
取得部101は、取得部101から被写体上の位置までの距離に応じて被写体上の点の位置が異なる位置に撮像された複数の単位画像を取得する。
図2は、第1の実施形態に適用可能な取得部101の一例の構成を概略的に示す。図2の例では、取得部101は、被写体120からの光を結像させるメインレンズ110と、マイクロレンズが複数配列されたマイクロレンズアレイ111と、光センサ112とを含む撮像光学系を備える。図2の例では、メインレンズ110の結像面がメインレンズ110およびマイクロレンズアレイ111の間(像面Z)に位置するように、メインレンズ110が設定されている。
図示は省略するが、取得部101は、さらに、センサを駆動するセンサ駆動部を備える。センサ駆動部は、外部からの制御信号に従い駆動制御される。
光センサ112は、マイクロレンズアレイ111の各マイクロレンズにより受光面に結像された光を電気信号に変換して出力する。光センサ112としては、例えばCCD(Charge Coupled Device)イメージセンサや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いることができる。これらのイメージセンサでは、それぞれ画素に対応する受光素子が受光平面上にマトリクス状に並べられて構成され、受光素子それぞれの光電変換によって、光が各画素の電気信号に変換されて出力される。
取得部101は、メインレンズ110上のある位置から、マイクロレンズアレイ111上のある位置に入射した光を、光センサ112で受光し、画素毎の画素信号を含む画像信号を出力する。この取得部101のような構成の撮像装置は、ライトフィールドカメラやPlenopticカメラという名称で知られている。
なお、上述では、取得部101において、メインレンズ110の結像面がメインレンズ110とマイクロレンズアレイ111との間にあるように説明したが、これはこの例に限定されない。例えば、メインレンズ110の結像面をマイクロレンズアレイ111上に設定してもよいし、光センサ112の後方側に位置するように設定してもよい。メインレンズ110による結像面を光センサ112の後方側に位置させる場合、光センサ112に結像するマイクロレンズ像131は、虚像となる。
図3は、メインレンズ110による結像面を光センサ112の後方側に位置させた取得部101で撮像され取得される画像の例を模式的に示す。マイクロレンズアレイ111の各マイクロレンズにより光センサ112の受光面に結像された像131、131、…がマイクロレンズの配列に対応して配置された画像130が取得部101で取得される。図3によれば、同一の被写体(例えば数字の「3」)が、マイクロレンズの配列に応じて、各像131において所定量ずつずれて撮像されていることが分かる。
以下、各像131、131、…がマイクロレンズアレイ111における各マイクロレンズの配列に従って配置された画像130を、以下、複眼画像130と呼ぶ。なお、各像131、131、…は、複眼画像130を構成する単位となる単位画像である。
各マイクロレンズによる各像131は、光センサ112上に重なり無く結像されることが望ましい。また、図2に例示される光学系で撮像した複眼画像130中の各像131は実像であるため、各像131を個々に抜き出して上下左右反転したものをマイクロレンズ像131とし、これを単位画像として以下の説明を行う。すなわち、1つのマイクロレンズにより結像された像の画像がマイクロレンズ像131であり、マイクロレンズ像131が複数並んだ画像が複眼画像130である。
なお、図3では、マイクロレンズアレイ111においてマイクロレンズが六方格子点上に配置された場合の複眼画像130の例が示されているが、マイクロレンズの配列は、この例に限定されず、他の配列でもよい。例えば、マイクロレンズは、正方格子点上に配置されていてもよい。
ここで、図2の構成によれば、被写体120からの光は、被写体120の全体または被写体120における小領域が各マイクロレンズの位置に応じて少しずつずれて、各マイクロレンズ像131として撮像されることになる(図3参照)。すなわち、取得部101は、2以上のマイクロレンズにより共通に結像される被写体120上の注目点の位置が、この2以上のマイクロレンズそれぞれの注目点までの距離に応じてずれて撮像された2以上のマイクロレンズ像131を取得する。換言すれば、取得部101は、注目点が複数のマイクロレンズそれぞれからの距離に応じて異なる位置に撮像された複数のマイクロレンズ像131を取得する。
また、上述では、取得部101がマイクロレンズが多数配列されたマイクロレンズアレイ111を用いるものとして説明したが、これはこの例に限定されない。例えば、取得部101は、多数のカメラが配列されたカメラアレイを用いてもよい。カメラアレイを用いる構成は、図2の構成に対してメインレンズ110が省略された構成と考えることができる。カメラアレイを用いた場合、各カメラの撮像画像が単位画像となり、カメラアレイ全体の出力画像が複眼画像となる。
図1の説明に戻り、生成部103は、取得部101で取得された複眼画像130から、取得部101(メインレンズ110)からの距離が指定した距離である被写体に合焦させたリフォーカス画像140を生成する。決定部102は、取得部101で取得された複眼画像130の各画素の、リフォーカス画像140における位置を実数精度で求める。すなわち、ここで求められる位置は、画素のマトリクス上に乗らない場合がある。それと共に、決定部102は、当該位置と、当該位置に対応する複眼画像130の画素の画素値との組を含むサンプリング情報145を決定する。
処理部105は、生成部103から出力されたリフォーカス画像140と決定部102から出力されたサンプリング情報145とを用いて、リフォーカス画像140の、サンプリング情報145に示される所定位置を含む所定領域に対して、所定位置に対応する画素の合焦度合いに応じた強さで高解像度化処理を施す。処理部105でリフォーカス画像140が高解像度化された高解像度画像146が、出力画像として画像処理装置100から出力される。
処理部105による高解像度化処理は、より具体的には以下のように行う。設定部104が、取得部101で取得された複眼画像130から、リフォーカス画像140の画素毎に、合焦の度合いを示すフォーカス度φを設定する。この場合、フォーカス度φは、より焦点が合っている(合焦の度合いが高い)場合に、より大きな値を示すように設定する。設定部104は、生成部103と同様にして複眼画像130からリフォーカス画像を生成してフォーカス度φを設定してもよいし、生成部103の処理結果または処理途中経過の算出値を利用してフォーカス度φを設定してもよい。処理部105は、設定部104から出力されるフォーカス度φに基づき、フォーカス度φが大きい程、より強く高解像度化処理を施す。
図4は、第1の実施形態に係る画像処理装置100の一例の動作を示すフローチャートである。先ず、ステップS201で、取得部101により複眼画像130が取得される。取得された複眼画像130は、決定部102と、生成部103と、設定部104とにそれぞれ供給される。次のステップS202で、生成部103は、ステップS201で取得部101から供給された複眼画像130から、合焦位置を変更したリフォーカス画像140を生成する。次のステップS203で、設定部104は、ステップS201で取得部101から供給された複眼画像130から、リフォーカス画像140の各画素について、フォーカス度φを設定する。
次のステップS204で、決定部102は、ステップS201で取得部101から供給された複眼画像130に基づき、サンプリング情報145を決定する。そして、ステップS205で、処理部105は、ステップS202〜ステップS204で生成、決定されたリフォーカス画像140、フォーカス度φおよびサンプリング情報145を用いて、リフォーカス画像140に対する高解像度化処理を行う。
ステップS202のリフォーカス画像生成処理について説明する。生成部103は、ステップS202で、取得部101から供給された複眼画像130から、取得部101(メインレンズ110)から被写体120に向けた所定の距離に合焦したリフォーカス画像140を生成する。所定の距離は、予め決められた距離を用いてもよいし、図示されない入力部に対する入力などにより、ユーザが指定してもよい。
生成部103は、合焦させる距離に対応した拡大倍率により単位画像を拡大して重ね合わせることで、リフォーカス画像140を生成する。図3を用いて説明したように、複眼画像130は、被写体が複数のマイクロレンズによって縮小されて撮像されるため、個々のマイクロレンズ像131を所定の拡大倍率で拡大して重ね合わせることで、リフォーカス画像140を生成できる。
図5を用いて、リフォーカス画像生成処理について、より詳細に説明する。ここでは、簡単のために3つのマイクロレンズ像1311、1312および1313が一列に並んでいる場合について説明する。各マイクロレンズ像1311、1312および1313をそれぞれ所定の拡大倍率で拡大して、画像1411、1412および1413を生成する。この画像1411、1412および1413を、合焦距離に応じたずらし量でずらして重ね合わせる。これにより、各画像1411、1412および1413に含まれる、同一の被写体の同一点が重なることになる。生成部103は、例えば、各画像1411、1412および1413を重ねあわせて位置が一致する画素値の平均値を計算し、この平均値を画素値とした画素によりリフォーカス画像140を生成する。
このように、各マイクロレンズ像1311、1312および1313を拡大した各画像1411、1412および1413を重ね合わせることで、リフォーカス画像140が生成される。マイクロレンズ像1311、1312および1313の拡大倍率を変えることで、合焦距離を撮影時の合焦距離に対して変更したリフォーカス画像140を生成できる。
マイクロレンズ像131の拡大には、例えば、ニアレストネイバー法、バイリニア法、バイキュービック法などが利用できる。なお、カメラアレイにより撮像した複数の画像を用いる場合は、各画像を所定の倍率で拡大し、所望の合焦距離に応じたずらし量で各画像をずらして重ね合わせることで、リフォーカス画像140を生成できる。
図2を用いて、焦点を合わせる距離と、単位画像であるマイクロレンズ像131の拡大倍率との関係について説明する。像面Zは、リフォーカス処理により生成する画像の像面を示す。距離Aは、合焦させたい被写体120とメインレンズ110との間の距離を示す。距離Bは、メインレンズ110と像面Zとの間の距離を示す。また、距離Cは像面Zとマイクロレンズアレイ111との間の距離、距離Dは、マイクロレンズアレイ111と光センサ112との間の距離を示す。なお、像面Zには、メインレンズ110からの距離が距離Aである被写体120の像が結像するものとする。
像面Zの像を生成するためには、マイクロレンズ像131をC/D倍で拡大して、出力する画像サイズに応じた分だけずらして重ね合わせればよい。このとき、レンズの性質から、距離Aと距離Bとは1対1の対応関係にあり、距離B+距離Cを固定の距離Kとすれば、距離Aと距離Cとは、1対1の対応関係となる。これにより、距離Aから逆算して距離Cの値を決定することで、マイクロレンズ像131の拡大倍率を定めることができる。
図4のフローチャートにおけるステップS203のフォーカス度設定処理について説明する。ステップS203では、設定部104は、入力された複眼画像130に基づき、リフォーカス画像140において合焦度合いに応じた値のフォーカス度φが画素毎に設定され、出力される。より具体的には、設定部104は、合焦度合いが高い程、大きな値のフォーカス度φを設定する。
一例として、図6に例示されるようなリフォーカス画像140を考える。このリフォーカス画像140Aは、取得部101(メインレンズ110)からの距離が異なる3の被写体の画像150、151および152が含まれている。取得部101に対して、画像150の被写体が最も近く、画像152の被写体が最も遠い。また、リフォーカス画像140Aにおいて、これら画像150、151および152以外の領域は、背景となっていて、画像152よりもさらに取得部101からの距離が遠いものとする。このリフォーカス画像140Aにおいては、画像151に対して合焦されている(合焦の度合いが高い)。以下、画像150、画像152、背景の順に合焦が外れていく(合焦の度合いが低くなる)。
図7は、リフォーカス画像140Aに対してフォーカス度φを設定した例を示す。図7の例では、フォーカス度φが大きくなる程、密度の高いハッチングを付して示している。フォーカス度φは、画像150、151、152および背景のうち、合焦している画像151で最も大きな値とされ、以下、合焦の度合いが低くなるに連れ、フォーカス度φが小さな値となっていく。
図8を用いて、フォーカス度φの設定方法について、より詳細に説明する。図8は、3つのマイクロレンズ像1314、1315および1316を所定の拡大率で拡大して重ね合わせたときの様子を表している。合焦している領域では、マイクロレンズ像131を重ね合わせたときに、重ね合わせた領域の画素値のばらつきが小さくなる。そのため、例えば、画素値の分散を用いてフォーカス度φを算出できる。
位置ベクトルxにおけるマイクロレンズ像1314の画素値を値m1(x)、マイクロレンズ像1315の画素値を値m2(x)、マイクロレンズ像1316の画素値を値m3(x)でそれぞれ表す。また、位置ベクトルxにおける画素値の平均を値m_(x)で表す。なお、値m_(x)における記号「_」は、実際の数式においては「m」の上線として記述される。
位置1601の位置ベクトルをベクトルx1とすると、画素位置1601における画素値の分散ρ(x1)は、下記の式(1)で算出できる。
画素位置1602、1603および1604の位置ベクトルをそれぞれ、ベクトルx2、x3およびx4とする。式(1)と同様にして、それぞれの画素位置1602、1603および1604における画素値の分散ρ(x2)、ρ(x3)およびρ(x4)は、以下の式(2)〜式(4)でそれぞれ計算できる。
同様にして全ての画素位置に関して画素値の分散ρを計算できる。位置ベクトルxにおけるフォーカス度φ(x)は、例えば、ガウス分布を用いて以下の式(5)に基づいて計算できる。なお、式(5)において、値σ1は、設計者が適宜に設定する定数である。
式(5)によれば、分散ρが0でフォーカス度φが最大値を取り、分散ρが大きくなるに連れ、ガウス分布曲線に従いフォーカス度φが小さい値となっていく。すなわち、フォーカス度φは、より合焦した状態でより大きな値となり、合焦から外れるに従って値が小さくなっていく。
フォーカス度φの設定方法は、ガウス分布曲線に従う方法に限られない。例えば、分散ρおよびフォーカス度φとの関係を反比例の関係としてもよいし、ガウス分布曲線とは異なる曲線に従いフォーカス度φを設定してもよい。
また、距離画像を用いてフォーカス度φを設定することもできる。距離画像は、カメラ(例えばメインレンズ110)から被写体までの距離を数値で示したものである。距離画像は、複眼画像130の複数の単位画像からステレオマッチング法により、画素毎に算出することが可能である。これに限らず、ステレオカメラやレンジファインダなどの測距センサによって得られた距離画像を用いてもよい。この場合のフォーカス度φは、例えば、下記の式(6)に基づいて計算できる。
式(6)において、値d(x)は、位置ベクトルxにおける距離画像の値、値d^(「^」は、実際には「d」の直上に記述)は、合焦させた距離を示す値、値σ2は、設計者が適宜に設定する定数である。式(6)によれば、合焦した距離と距離画像に示される距離とが近い程、フォーカス度φの値が大きくなる。
また、ユーザがリフォーカス画像140を目視により確認し、合焦している領域を指定することもできる。例えば、画像処理装置100に対して、出力画像を表示する表示部と、ユーザ入力を受け付ける入力部とをさらに設け、表示部に対してリフォーカス画像140を表示させ、入力部に対する入力に従い合焦領域を指定する。この場合、例えば、ユーザが合焦しているとして指定した領域のフォーカス度φを最大値(例えば1)、その他の領域のフォーカス度φを0に設定することが考えられる。
入力部の構成として、例えば、タッチパネル、マウス、ペンタブレットなどのポインティングデバイスを用いることで、ユーザは、矩形領域や不定形な領域を容易に指定することが可能となり、好ましい。
なお、カメラアレイにより撮像した複眼画像130を用いる場合は、当該複眼画像130における各単位画像を、生成部103でのずらし量だけずらして重ね合わせたときの画素値のばらつきを計算することで、フォーカス度φを計算できる。
図4のフローチャートにおけるステップS204のサンプリング情報決定処理について説明する。決定部102は、入力された複眼画像130の画素が対応するリフォーカス画像140における位置と、当該画素の画素値との組を含むサンプリング情報145を決定する。
図9を用いて、サンプリング情報決定処理について、より詳細に説明する。図9(a)は、複眼画像130の例を示す。ここでは、簡単のため、複眼画像130における3のマイクロレンズ像1317、1318および1319を例にとって説明する。
図9(a)において、マイクロレンズ像1317に含まれる画素1321、1321、…を「◎(二重丸)」で示し、マイクロレンズ像1318に含まれる画素1322、1322、…を「●(黒丸)」で示す。また、マイクロレンズ像1319に含まれる画素1323、1323、…を「◆(黒菱形)」で示す。
各マイクロレンズ像1317、1318および1319の画素1321、1321、…、画素1322、1322、…、ならびに、画素1323、1323、…が、リフォーカス画像140のどの位置に対応するかを決定する。各マイクロレンズ像1317、1318および1319を、それぞれの中心位置を固定して、リフォーカス画像140を生成した際のマイクロレンズ像の拡大倍率と同じ倍率で拡大する。
図9(b)は、拡大後の各マイクロレンズ像1317、1318および1319の画素の例を示す。拡大後の複眼画像133において、例えばマイクロレンズ像1317について、各画素1321、1321、…の位置は、拡大前の複眼画像130における各位置に対して、マイクロレンズ像1317の中央を中心として、拡大倍率に従いそれぞれの方向に拡大された位置とされている。これは、他のマイクロレンズ像1318および1319についても同様である。
このとき、拡大後の複眼画像133における各画素1321、1321、…、画素1322、1322、…、ならびに、画素1323、1323の位置は、実数精度で決定される。換言すれば、拡大後の複眼画像133における各画素1321、1321、…、画素1322、1322、…、ならびに、画素1323、1323の位置は、画素のマトリクスに乗らない場合がある。以下、この拡大後の各画素各画素1321、1321、…、画素1322、1322、…、ならびに、画素1323、1323を、適宜、サンプリング点と呼ぶ。
決定部102は、こうして求めた拡大後の各画素の位置と、当該画素の画素値とを対応付けて、サンプリング情報145を決定する。この場合、決定部102は、複眼画像130上の全画素分のサンプリング情報145を決定することになる。
なお、ここでは、複眼画像130上の全ての画素についてサンプリング情報145を決定しているが、これはこの例に限定されない。例えば、設定部104で画素毎に算出されたフォーカス度φ(x)が閾値以上の画素について、選択的にサンプリング情報145を決定してもよい。こうすることで、後述する処理部105における計算量を抑制することができる。
なお、カメラアレイにより撮像した複数の画像を用いる場合は、リフォーカス画像140を生成したときの各画像の拡大倍率と同じ倍率とずらし量で、拡大してずらすことで各画像の画素およびその画素値をサンプリング情報145として決定する。
図4のフローチャートにおけるステップS205の高解像度化処理について説明する。処理部105は、入力されたサンプリング情報145と、リフォーカス画像140と、フォーカス度φとに基づき、リフォーカス画像140において合焦している領域をより強く高解像度化した高解像度画像146を生成し、出力画像として画像処理装置100から出力する。
処理部105における高解像度化処理について、より詳細に説明する。処理部105は、例えば、下記の式(7)で定義されるエネルギ関数E(h)を最小化することで、高解像度画像146を得る。
ここで、ベクトルhは、高解像度画像146の画素値を並べたベクトルを表す。ベクトルbiは、i番目のサンプリング点の点拡がり関数(PSF:Point Spread Function)の値を並べたベクトルを表し、上付き添字「T」は、ベクトルの転置を表す。値siは、i番目のサンプリング点の画素値を表す。また、値Nは、サンプリング点の数を表す。
点拡がり関数は、光学系の点光源に対する応答を表す関数であって、例えば取得部101における撮像光学系による像の劣化を簡易的にシミュレートすることができる。点拡がり関数としては、例えば下記の式(8)で定義されるガウス関数を適用することができる。ベクトルbiは、式(8)の関数の値b(x,y)を並べることで構成できる。
なお、式(8)において、値σ3は、下記の式(9)に基づいて設定される。式(9)において、値μは、リフォーカス画像140を生成する際のマイクロレンズ像131に対する拡大倍率を表し、値kは、設計者が適宜に設定する定数である。
上述では、点拡がり関数として、ガウス関数を用いたが、これはこの例に限定されない。例えば、実際に用いる撮像光学系の光学シミュレーションにより算出した点拡がり関数を用いてもよい。
式(7)に示したエネルギ関数E(h)を最小化するには、最急降下法、共役勾配法、POCS(Projections Onto Convec Sets)法などが利用できる。POCS法を利用する場合、下記の式(10)で定義される繰り返し計算により画像を更新する。
式(10)において、値tは、繰り返し回数を表す。ベクトルgは、一般的な用法としては、各画素の更新量の値を並べたベクトルを用い、関数diag(・)は、ベクトルの成分を対角成分に持つ正方行列を表す。値αは、設計者が適宜設定する定数を表す。この式(10)に基づいて、全てのサンプリング点についての更新を所定の回数もしくは画像が変化しなくなるまで(ベクトルhが収束するまで)繰り返す。
この第1の実施形態では、ベクトルhの初期値であるベクトルh0としてリフォーカス画像140を用い、ベクトルgとして、フォーカス度φの値を並べたベクトルを用いる。こうすることで、リフォーカス画像140において合焦の度合いが高い画素の更新量をより大きくし、合焦の度合いが低い画素の更新量をより小さくできる。その結果、合焦の度合いが高い領域に対してより強い高解像度化処理が施された高解像度画像146を生成することができる。
また、式(7)に示すエネルギ関数E(h)を最急降下法で最小化する場合、下記の式(11)で定義される繰り返し計算により画像を更新する。なお、式(11)において、値εは、設計者が適宜に設定する定数である。
なお、カメラアレイにより撮像した複眼画像130についても、上述の式(7)〜式(10)または式(11)を用いて同様に処理することで高解像度画像146を生成することができる。
(第1の実施形態の変形例)
エネルギ関数E(h)は、式(7)に示されるものに限定されない。例えば、次式(12)に示すように、式(7)に対して正則化項を加えたエネルギ関数E’(h)を用いてもよい。なお、式(12)において、行列Rは微分を表す行列、値λは設計者が適宜に設定する定数である。
エネルギ関数E(h)は、式(7)に示されるものに限定されない。例えば、次式(12)に示すように、式(7)に対して正則化項を加えたエネルギ関数E’(h)を用いてもよい。なお、式(12)において、行列Rは微分を表す行列、値λは設計者が適宜に設定する定数である。
式(12)に示すエネルギ関数E’(h)を最急降下法で最小化する場合、下記の式(13)で定義される繰り返し計算により画像を更新する。
このように、第1の実施形態に係る画像処理装置100によれば、フォーカス度φに基づいて、リフォーカス画像140の合焦の度合いが高い領域をより強く高解像度化することができる。これにより、1回の撮像で得られた複眼画像130から所定の距離に合焦させたリフォーカス画像140を、より高解像度化して出力することができる。
従来から、超解像技術を用いて高解像度な画像を生成する手法が存在していた(非特許文献1)。この非特許文献1による手法では、複眼画像の画素を並び替えることで、被写体を複数の視点から見た視点画像を生成する。そして、その中の1枚の視点画像を対象画像とし、対象画像以外の視点画像のサンプリング点を対象画像に追加して、超解像処理をする。
しかしながら、この非特許文献1の手法では、対象画像のフォーカス距離は撮像時に決定しているため、最終的な出力画像のフォーカス距離が変更できなかった。第1の実施形態によれば、先ずリフォーカス画像140を生成し、この生成したリフォーカス画像140に対して高解像度化処理を施す。そして、高解像度化処理の際に、フォーカス度φを加味するようにしているため、この問題は解決している。
(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態は、第1の実施形態による画像処理装置100を、光学系を有すると共に出力画像の記憶および表示が可能な撮像装置に適用した例である。
次に、第2の実施形態について説明する。第2の実施形態は、第1の実施形態による画像処理装置100を、光学系を有すると共に出力画像の記憶および表示が可能な撮像装置に適用した例である。
図10は、第2の実施形態による撮像装置200の一例の構成を示す。なお、図10において、上述した図1と共通する部分には同一の符号を付し、詳細な説明を省略する。撮像装置200は、図10に例示されるように、撮像部170と、画像処理装置100と、操作部210と、メモリ211と、表示部212とを有する。
なお、この撮像装置200の全体の動作は、図示されないCPUにより、プログラムに従い制御される。また、撮像部170は、上述した取得部101に対応するもので、図2に例示した光学系とセンサ112とを有する。
メモリ211は、例えば不揮発性の半導体メモリであって、画像処理装置100から出力された出力画像を記憶する。また、表示部212は、例えばLCD(Liquid Crystal Display)などの表示デバイスと、表示デバイスを駆動する駆動回路とを含み、画像処理装置100から出力された出力画像を表示させる。
操作部210は、ユーザ入力を受け付ける。例えば、操作部210に対するユーザ入力により、画像処理装置100に対して、リフォーカス画像140において合焦させたい距離を指定することができる。操作部210は、また、ユーザによる合焦領域の指定を受け付けることができる。操作部210は、さらに、撮像部170に対する撮像タイミングや出力画像のメモリ211への記憶タイミング、撮像時の合焦制御のユーザ入力などを受け付けることができる。
このような構成において、撮像装置200は、操作部210に対するユーザ入力に従い撮像時の合焦距離を指定する。また、撮像装置200は、操作部210に対するユーザ入力に従い、撮像部170から出力される複眼画像130を画像処理装置100に取り込むタイミングを指定する。
さらに、撮像装置200は、操作部210に対するユーザ入力により指定された合焦距離に従いリフォーカス画像140を生成すると共にフォーカス度φを求め、リフォーカス画像140に対してフォーカス度φに応じた処理部105による高解像度化処理を施した出力画像を表示部212に表示させる。例えば、ユーザは、この表示部212の表示を参照して、合焦距離を操作部210から再入力することができる。また、ユーザは、この表示部212の表示を参照して合焦領域を指定し、強く高解像度化を施したい領域を指示することができる。例えば、ユーザは、気に入った出力画像が得られると、操作部210を操作して、当該出力画像をメモリ211に記憶する。
このように、第2の実施形態に係る撮像装置200によれば、撮像部170で撮像された複眼画像130から生成したリフォーカス画像140のフォーカス度φを求める。そして、合焦しておりフォーカス度φが大きい領域に対して強く高解像度化処理を施すようにしている。そのため、ユーザは、撮像装置200で撮像された複眼画像130から、より高解像度なリフォーカス画像を生成し、出力画像として得ることができる。
(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態は、第1の実施形態による画像処理装置100を、光学系を有すると共に、出力画像の外部に対する送信と、外部からの操作信号の受信を行うようにしたセンサ装置に適用した例である。
次に、第3の実施形態について説明する。第3の実施形態は、第1の実施形態による画像処理装置100を、光学系を有すると共に、出力画像の外部に対する送信と、外部からの操作信号の受信を行うようにしたセンサ装置に適用した例である。
図11は、第3の実施形態によるセンサ装置300の一例の構成を示す。なお、図11において、上述した図1および図10と共通する部分には同一の符号を付し、詳細な説明を省略する。センサ装置300は、図11に例示されるように、撮像部170および画像処理装置100を有する。
外部から有線または無線通信により送信された操作信号がセンサ装置300に受信され、画像処理装置100に入力される。また、画像処理装置100から出力された出力画像が、有線または無線通信によりセンサ装置300から出力される。
このような構成において、センサ装置300は、例えば、外部から送信された操作信号により指定された合焦領域に従い、処理部105により当該合焦領域に対してより強く高解像度化処理を施した出力画像を生成する。この出力画像は、センサ装置300から外部に送信される。外部において、受信した出力画像を表示させ、この表示に応じて、合焦位置や合焦領域を指定する操作信号をセンサ装置300に対してさらに送信することができる。
センサ装置300は、例えば監視カメラへの応用が考えられる。この場合、遠隔地からセンサ装置300からの出力画像による表示を監視し、表示画像に不審な画像が含まれる場合に、この不審な画像部分に対する合焦距離や合焦領域を指定し、センサ装置300に対して操作信号を送信する。センサ装置300では、この操作信号に応じてリフォーカス画像140を再生成し、指定された合焦領域に対してより強い高解像度化処理を施して、出力画像を送信する。合焦距離が再設定され、高解像度化された出力画像により、不審な画像部分の詳細を確認することができる。
(第4の実施形態)
次に、第4の実施形態について説明する。第4の実施形態は、第1の実施形態による画像処理装置100をネットワーク・クラウド上に構成した画像処理システムの例である。図12は、第4の実施形態に適用可能な画像処理システムの一例の構成を示す。なお、図12において、上述した図1と共通する部分には同一の符号を付して、詳細な説明を省略する。
次に、第4の実施形態について説明する。第4の実施形態は、第1の実施形態による画像処理装置100をネットワーク・クラウド上に構成した画像処理システムの例である。図12は、第4の実施形態に適用可能な画像処理システムの一例の構成を示す。なお、図12において、上述した図1と共通する部分には同一の符号を付して、詳細な説明を省略する。
図12において、画像処理システムは、画像処理装置100がネットワーク・クラウド500上に構成される。ネットワーク・クラウド500は、互いにネットワークで接続される複数のコンピュータを含み、外部からは、その内部が隠蔽されたブラックボックスとして入出力のみが示されるネットワーク・グループである。ネットワーク・クラウド500は、例えば通信プロトコルとしてTCP/IP(Transmission Control Protocol/Internet Protocol)を用いるものとする。
取得部101で取得された複眼画像130は、通信部510を介してネットワーク・クラウド500に向けて送信され、画像処理装置100に入力される。通信部510を介して送信された複眼画像130を、ネットワーク・クラウド500上のサーバ装置などに蓄積的に格納しておいてもよい。画像処理装置100は、通信部510を介して送信された複眼画像130に基づきリフォーカス画像140を生成すると共にフォーカス度φを求め、フォーカス度φに応じてリフォーカス画像140に対して高解像度化処理を施して出力画像を生成する。
生成された出力画像は、画像処理装置100から出力され、ネットワーク・クラウド500から、例えばPC(パーソナルコンピュータ)である端末装置511に受信される。端末装置511は、受信した出力画像をディスプレイに表示させることができると共に、ユーザ入力に応じて合焦距離や合焦領域を指定する操作信号をネットワーク・クラウド500に向けて送信することができる。画像処理装置100は、この操作信号に応じて、指定された合焦距離でリフォーカス画像140を再生成し、指定された合焦領域に対してより強い高解像度化処理を施して、出力画像を生成する。この出力画像は、ネットワーク・クラウド500から端末装置511に向けて再び送信される。
この第4の実施形態の構成によれば、ユーザは、画像処理装置100を有していなくても、画像処理装置100により生成され、高解像度化処理により高解像度化された出力画像を得ることができる。
(他の実施形態)
上述した実施形態による画像処理装置100は、汎用的なコンピュータ装置を基本ハードウェアとして用いて実現することも可能である。図13は、他の実施形態による、画像処理装置100を適用可能なコンピュータ装置400の一例の構成を示す。
上述した実施形態による画像処理装置100は、汎用的なコンピュータ装置を基本ハードウェアとして用いて実現することも可能である。図13は、他の実施形態による、画像処理装置100を適用可能なコンピュータ装置400の一例の構成を示す。
図13に例示されるコンピュータ装置400において、バス401に対してCPU(Central Processing Unit)402、ROM(Read Only Memory)403、RAM(Random Access Memory)404および表示制御部405が接続される。また、バス401に対して、ストレージ407、ドライブ装置408、入力部409、通信I/F410およびカメラI/F420が接続される。ストレージ407は、データを不揮発に記憶することが可能な記憶媒体であって、例えばハードディスクである。これに限らず、ストレージ407をフラッシュメモリなど不揮発性の半導体メモリとしても良い。
CPU402は、ROM403およびストレージ407に記憶されるプログラムに従い、RAM404をワークメモリとして用いて、このコンピュータ装置400の全体を制御する。表示制御部405は、CPU402により生成された表示制御信号を、表示部406が表示可能な信号に変換して出力する。
ストレージ407は、上述のCPU402が実行するためのプログラムや各種データが格納される。ドライブ装置408は、脱着可能な記録媒体(図示しない)が装填可能とされ、当該記録媒体に対するデータの読み書きを行うことができる。ドライブ装置408が対応可能な記録媒体としては、CD(Compact Disk)、DVD(Digital Versatile Disk)といったディスク記録媒体や、不揮発性の半導体メモリが考えられる。
入力部409は、外部からのデータの入力を行う。例えば、入力部409は、USB(Universal Serial Bus)やIEEE1394(Institute of Electrical and Electronics Engineers 1394)といった所定のインターフェイスを有し、このインターフェイスにより外部の機器からのデータ入力を行う。入力画像の画像データは、この入力部409から入力することができる。
また、入力部409に対して、キーボードやマウスといった、ユーザ入力を受け付ける入力デバイスが接続される。ユーザは、例えば表示部406に対する表示に応じてこれら入力デバイスを操作することで、コンピュータ装置400に対して指示を出すことができる。なお、ユーザ入力を受け付ける入力デバイスを、表示部406と一体的に構成してもよい。このとき、入力デバイスは、押圧した位置に応じた制御信号を出力すると共に、表示部406の画像を透過するタッチパネルとして構成すると、好ましい。
通信I/F410は、所定のプロトコルを用いて外部の通信ネットワークと通信を行う。
カメラI/F420は、取得部101とコンピュータ装置400との間のインターフェイスである。取得部101で取得された複眼画像130は、カメラI/F420を介してコンピュータ装置400に取り込まれ、例えばRAM404やストレージ407に格納される。また、カメラI/F420は、CPU402の命令に従った制御信号を取得部101に供給することができる。
上述した決定部102、生成部103、設定部104および処理部105は、CPU402上で動作する画像処理プログラムによって実現される。実施形態に係る画像処理を実行するための画像処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD、DVDなどのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、画像処理プログラムを、ROM403に予め記憶させて提供してもよい。
さらに、実施形態に係る画像処理を実行するための画像処理プログラムを、インターネットなどの通信ネットワークに接続されたコンピュータ上に格納し、通信ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、実施形態に係る画像処理を実行するための画像処理プログラムを、インターネットなどの通信ネットワーク経由で提供または配布するように構成してもよい。
実施形態に係る画像処理を実行するための画像処理プログラムは、例えば、上述した各部(決定部102、生成部103、設定部104および処理部105)を含むモジュール構成となっており、実際のハードウェアとしてはCPU402が例えばストレージ407から当該画像処理プログラムを読み出して実行することにより上記各部が主記憶装置(例えばRAM404)上にロードされ、各部が主記憶装置上に生成されるようになっている。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
100 画像処理装置
101 取得部
102 決定部
103 生成部
104 設定部
105 処理部
110 メインレンズ
111 マイクロレンズアレイ
112 光センサ
130 複眼画像
131 マイクロレンズ像
140 リフォーカス画像
145 サンプリング情報
146 高解像度画像
200 撮像装置
300 センサ装置
400 コンピュータ装置
101 取得部
102 決定部
103 生成部
104 設定部
105 処理部
110 メインレンズ
111 マイクロレンズアレイ
112 光センサ
130 複眼画像
131 マイクロレンズ像
140 リフォーカス画像
145 サンプリング情報
146 高解像度画像
200 撮像装置
300 センサ装置
400 コンピュータ装置
Claims (13)
- 撮像部により、該撮像部から被写体上の点の位置までの距離に応じて該被写体上の点が異なる位置に撮像された複数の単位画像から、所定の距離に合焦させたリフォーカス画像を生成する生成部と、
前記複数の画像内の画素の前記リフォーカス画像における位置と該画素の画素値との組を含むサンプリング情報を決定する決定部と、
前記リフォーカス画像の前記サンプリング情報に示される第1位置を含む所定領域に対して、該第1位置に対応する画素の合焦の度合いに応じた強さで高解像化処理を施す処理部と
を有する
ことを特徴とする画像処理装置。 - 前記合焦の度合いが高いほど大きな値を示すフォーカス度を前記リフォーカス画像の画素毎に設定する設定部をさらに有し、
前記処理部は、
前記所定領域に対して、前記第1位置に対応する画素の前記フォーカス度が大きいほど強く高解像度化処理を施す
ことを特徴とする請求項1に記載の画像処理装置。 - 前記処理部は、
前記第1位置における前記フォーカス度が大きいほど、前記サンプリング情報において前記第1位置と組になる第1画素値と、該第1画素値を撮像光学系の特性に基づきシミュレートした第2画素値との差分が小さくなるように該第2画素値を生成し、該第2の画素値を用いて前記リフォーカス画像を更新することで、前記高解像度化処理を行う
ことを特徴とする請求項2に記載の画像処理装置。 - 前記生成部は、
前記複数の単位画像を前記所定の距離に応じて決まる拡大率に従い拡大して各単位画像を重ね合わせることで、前記リフォーカス画像を生成し、
前記処理部は、
前記シミュレートを点拡がり関数を用いて行い、該点拡がり関数による拡がり度合いを前記拡大率に応じて決定する
ことを特徴とする請求項3に記載の画像処理装置。 - 前記決定部は、
前記所定の距離に応じて決まる拡大率に従い前記複数の単位画像を拡大した際に重ね合わされた各単位画像において画素位置が一致する各画素の画素値のばらつきに応じた大きさの前記フォーカス度を決定する
ことを特徴とする請求項2乃至請求項4の何れか1項に記載の画像処理装置。 - 前記算出部は、
前記所定の距離に応じて決まるずらし量に従い前記複数の単位画像をずらして重ね合わせた際に、重ね合わせた各単位画像において画素位置が一致する各画素の画素値のばらつきに応じた大きさの前記フォーカス度を算出する
ことを特徴とする請求項2乃至請求項4の何れか1項に記載の画像処理装置。 - 前記撮像部から前記被写体までの距離を取得する距離取得部をさらに有し、
前記算出部は、
前記距離取得部に取得された前記距離と前記所定の距離との差分に応じた大きさの前記フォーカス度を算出する
ことを特徴とする請求項2乃至請求項4の何れか1項に記載の画像処理装置。 - 前記算出部は、
前記リフォーカス画像に対してユーザ指定された領域に応じて前記フォーカス度を算出する
ことを特徴とする請求項2乃至請求項4の何れか1項に記載の画像処理装置。 - 前記決定部は、
前記フォーカス度が閾値以上の領域に対して前記サンプリング情報を決定する
ことを特徴とする請求項2乃至請求項8の何れか1項に記載の画像処理装置。 - 撮像部により、該撮像部から被写体上の点の位置までの距離に応じて該被写体上の点が異なる位置に撮像された複数の単位画像から、所定の距離に合焦させたリフォーカス画像を生成する生成ステップと、
前記複数の画像内の画素の前記リフォーカス画像における位置と該画素の画素値との組を含むサンプリング情報を決定する決定ステップと、
前記リフォーカス画像の前記サンプリング情報に示される第1位置を含む所定領域に対して、該第1位置に対応する画素の合焦の度合いに応じた強さで高解像化処理を施す処理ステップと
を有する
ことを特徴とする画像処理方法。 - 撮像部により、該撮像部から被写体上の点の位置までの距離に応じて該被写体上の点が異なる位置に撮像された複数の単位画像から、所定の距離に合焦させたリフォーカス画像を生成する生成ステップと、
前記複数の画像内の画素の前記リフォーカス画像における位置と該画素の画素値との組を含むサンプリング情報を決定する決定ステップと、
前記リフォーカス画像の前記サンプリング情報に示される第1位置を含む所定領域に対して、該第1位置に対応する画素の合焦の度合いに応じた強さで高解像化処理を施す処理ステップと
をコンピュータに実行させるためのプログラム。 - 撮像部と、
前記撮像部により、該撮像部から被写体上の点の位置までの距離に応じて該被写体上の点が異なる位置に撮像された複数の単位画像から、所定の距離に合焦させたリフォーカス画像を生成する生成部と、
前記複数の画像内の画素の前記リフォーカス画像における位置と該画素の画素値との組を含むサンプリング情報を決定する決定部と、
前記リフォーカス画像の前記サンプリング情報に示される第1位置を含む所定領域に対して、該第1位置に対応する画素の合焦の度合いに応じた強さで高解像化処理を施す処理部と、
外部から送信された少なくとも前記所定の距離を示す情報を受信する受信部と、
前記処理部で高解像度化処理を施されたリフォーカス画像を外部に送信する送信部と
を有する
ことを特徴とする撮像装置。 - 撮像部と、
前記撮像部により、該撮像部から被写体上の点の位置までの距離に応じて該被写体上の点が異なる位置に撮像された複数の単位画像から、所定の距離に合焦させたリフォーカス画像を生成する生成部と、
前記複数の画像内の画素の前記リフォーカス画像における位置と該画素の画素値との組を含むサンプリング情報を決定する決定部と、
前記リフォーカス画像の前記サンプリング情報に示される第1位置を含む所定領域に対して、該第1位置に対応する画素の合焦の度合いに応じた強さで高解像化処理を施す処理部と、
少なくとも前記所定の距離を示す情報のユーザ入力を受け付ける入力部と、
前記処理部で高解像度化処理を施されたリフォーカス画像を表示する表示部と
を有する
ことを特徴とする撮像装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012155965A JP2014016965A (ja) | 2012-07-11 | 2012-07-11 | 画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置 |
US13/937,495 US20140016827A1 (en) | 2012-07-11 | 2013-07-09 | Image processing device, image processing method, and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012155965A JP2014016965A (ja) | 2012-07-11 | 2012-07-11 | 画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014016965A true JP2014016965A (ja) | 2014-01-30 |
Family
ID=49914026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012155965A Pending JP2014016965A (ja) | 2012-07-11 | 2012-07-11 | 画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20140016827A1 (ja) |
JP (1) | JP2014016965A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015216542A (ja) * | 2014-05-12 | 2015-12-03 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN107909578A (zh) * | 2017-10-30 | 2018-04-13 | 上海理工大学 | 基于六边形拼接算法的光场图像重聚焦方法 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3026884A1 (en) | 2014-11-27 | 2016-06-01 | Thomson Licensing | Plenoptic camera comprising a light emitting device |
CN104506762B (zh) * | 2014-12-25 | 2018-09-04 | 北京智谷睿拓技术服务有限公司 | 光场采集控制方法和装置、光场采集设备 |
EP3098778A1 (en) | 2015-05-29 | 2016-11-30 | Thomson Licensing | Method for obtaining a refocused image from 4d raw light field data |
CN107615236A (zh) * | 2015-06-01 | 2018-01-19 | 华为技术有限公司 | 多媒体处理方法及装置 |
CN106571618A (zh) * | 2016-08-31 | 2017-04-19 | 鲁西工业装备有限公司 | 一种高灵敏度的低压电动机自动保护装置及方法 |
CN111568222B (zh) * | 2020-02-29 | 2022-11-01 | 佛山市云米电器科技有限公司 | 饮水机控制方法、饮水机及计算机可读存储介质 |
KR20220156242A (ko) * | 2021-05-18 | 2022-11-25 | 에스케이하이닉스 주식회사 | 이미지 처리 장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080131019A1 (en) * | 2006-12-01 | 2008-06-05 | Yi-Ren Ng | Interactive Refocusing of Electronic Images |
US20110129165A1 (en) * | 2009-11-27 | 2011-06-02 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR970010205B1 (ko) * | 1988-05-11 | 1997-06-23 | 상요 덴기 가부시끼가이샤 | 영상 신호에 기초하여 초점의 자동 정합을 행하는 오토포커스 기능을 구비한 촬상장치 |
US8244058B1 (en) * | 2008-05-30 | 2012-08-14 | Adobe Systems Incorporated | Method and apparatus for managing artifacts in frequency domain processing of light-field images |
US8189089B1 (en) * | 2009-01-20 | 2012-05-29 | Adobe Systems Incorporated | Methods and apparatus for reducing plenoptic camera artifacts |
US8315476B1 (en) * | 2009-01-20 | 2012-11-20 | Adobe Systems Incorporated | Super-resolution with the focused plenoptic camera |
US8228417B1 (en) * | 2009-07-15 | 2012-07-24 | Adobe Systems Incorporated | Focused plenoptic camera employing different apertures or filtering at different microlenses |
EP2502115A4 (en) * | 2009-11-20 | 2013-11-06 | Pelican Imaging Corp | RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER |
US8817015B2 (en) * | 2010-03-03 | 2014-08-26 | Adobe Systems Incorporated | Methods, apparatus, and computer-readable storage media for depth-based rendering of focused plenoptic camera data |
US8803918B2 (en) * | 2010-08-27 | 2014-08-12 | Adobe Systems Incorporated | Methods and apparatus for calibrating focused plenoptic camera data |
US8749694B2 (en) * | 2010-08-27 | 2014-06-10 | Adobe Systems Incorporated | Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing |
US8724000B2 (en) * | 2010-08-27 | 2014-05-13 | Adobe Systems Incorporated | Methods and apparatus for super-resolution in integral photography |
JP5956808B2 (ja) * | 2011-05-09 | 2016-07-27 | キヤノン株式会社 | 画像処理装置およびその方法 |
JP5725975B2 (ja) * | 2011-05-27 | 2015-05-27 | キヤノン株式会社 | 撮像装置及び撮像方法 |
JP5797016B2 (ja) * | 2011-05-30 | 2015-10-21 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US20130135515A1 (en) * | 2011-11-30 | 2013-05-30 | Sony Corporation | Digital imaging system |
US8811769B1 (en) * | 2012-02-28 | 2014-08-19 | Lytro, Inc. | Extended depth of field and variable center of perspective in light-field processing |
US9451147B2 (en) * | 2012-06-11 | 2016-09-20 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium |
US9214013B2 (en) * | 2012-09-14 | 2015-12-15 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
US9325971B2 (en) * | 2013-01-10 | 2016-04-26 | The Regents Of The University Of Colorado, A Body Corporate | Engineered point spread function for simultaneous extended depth of field and 3D ranging |
US9519972B2 (en) * | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
-
2012
- 2012-07-11 JP JP2012155965A patent/JP2014016965A/ja active Pending
-
2013
- 2013-07-09 US US13/937,495 patent/US20140016827A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080131019A1 (en) * | 2006-12-01 | 2008-06-05 | Yi-Ren Ng | Interactive Refocusing of Electronic Images |
US20110129165A1 (en) * | 2009-11-27 | 2011-06-02 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015216542A (ja) * | 2014-05-12 | 2015-12-03 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN107909578A (zh) * | 2017-10-30 | 2018-04-13 | 上海理工大学 | 基于六边形拼接算法的光场图像重聚焦方法 |
Also Published As
Publication number | Publication date |
---|---|
US20140016827A1 (en) | 2014-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014016965A (ja) | 画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置 | |
JP6458988B2 (ja) | 画像処理装置および画像処理方法、並びに情報処理装置 | |
US8947519B2 (en) | Image processing apparatus, image processing system, image processing method, and image processing program | |
JP5035372B2 (ja) | 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム | |
CN108432230B (zh) | 一种成像设备和一种用于显示场景的图像的方法 | |
US9535193B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6308748B2 (ja) | 画像処理装置、撮像装置及び画像処理方法 | |
JP6019729B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
KR20130061636A (ko) | 멀티-레졸류션 절차를 이용하여 강건한 깊이 맵을 생성하는 시스템 및 방법 | |
US20150054986A1 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5631935B2 (ja) | 画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置 | |
US8553097B2 (en) | Reducing blur based on a kernel estimation of an imaging device | |
JP6185819B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6608194B2 (ja) | 画像処理装置およびその制御方法ならびにプログラム | |
TW201445997A (zh) | 基於光場相機的影像對焦處理方法及其系統 | |
WO2018088121A1 (ja) | 撮像装置、撮像方法、及び、撮像プログラム | |
CN109906604B (zh) | 摄像装置、摄像方法及记录介质 | |
JP6672085B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2013258449A (ja) | 撮像装置および撮像装置の制御方法 | |
JP6294751B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
WO2022113866A1 (ja) | 検出装置、撮像装置、検出方法、及びプログラム | |
JP6376194B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
WO2021059430A1 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム、及び記録媒体 | |
Salahieh et al. | Direct superresolution technique for solving a miniature multi-shift imaging system | |
JP2019057798A (ja) | 画像処理装置、撮像装置、撮像装置の制御方法、および、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140610 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150106 |