JP2009211254A - Image processing unit, compound eye imaging device, image processing method, and image processing program - Google Patents
Image processing unit, compound eye imaging device, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2009211254A JP2009211254A JP2008051808A JP2008051808A JP2009211254A JP 2009211254 A JP2009211254 A JP 2009211254A JP 2008051808 A JP2008051808 A JP 2008051808A JP 2008051808 A JP2008051808 A JP 2008051808A JP 2009211254 A JP2009211254 A JP 2009211254A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- image processing
- pixel
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、被写体の撮像画像を、その被写体の3次元情報を用いて高精細化した再構成画像を生成する画像処理ユニット、この画像処理ユニットを適用した複眼撮像装置に関する。また、被写体の撮像画像を、その被写体の3次元情報を用いて高精細化した再構成画像を生成する画像処理方法、および画像処理プログラムに関する。 The present invention relates to an image processing unit that generates a high-definition reconstructed image of a captured image of a subject using three-dimensional information of the subject, and a compound eye imaging device to which the image processing unit is applied. The present invention also relates to an image processing method and an image processing program for generating a reconstructed image in which a captured image of a subject is refined using three-dimensional information of the subject.
従来、被写体の撮像画像と、その被写体の3次元情報(立体形状データ)と、を用いて高精細化した再構成画像を生成する画像高精細化方法が提案されている(特許文献1、2等参照)。被写体の3次元情報は、例えば、その被写体を異なる方向から撮像した複数の撮像画像の視差情報から取得できる。被写体の撮像画像を高精細化する画像処理の方法としては、画素再配置法や、IBP(Iterative Back Projection)法等がある。
Conventionally, there has been proposed an image enhancement method for generating a high-definition reconstructed image using a captured image of a subject and three-dimensional information (three-dimensional shape data) of the subject (
また、特許文献2に示されているように、複数のレンズを配置したレンズアレイを用いた複眼撮像装置は、レンズ毎の撮像画像が視差を有しているので、これらの複眼像から被写体の3次元情報を得ることができる。また、レンズアレイの各レンズの厚みが数mmに抑えられるので、撮像光学系を小型化できる。このため、マイクロロボットの視覚装置や、立体内視鏡などへの利用が考えられている。
しかしながら、一般的な複眼撮像装置の撮像光学系は、近距離から遠距離までピントが合わせられるパンフォーカスではあるが、被写体に近接させて撮像した場合には、デフォーカス(焦点ボケ)が生じる。また、上述した画素再配置法や、IBP法等は、撮像画像に生じているデフォーカスの影響を考慮しない画像処理方法であった。このため、撮像画像にデフォーカスが生じている場合、十分な解像度の再構成画像を生成することができなかった。 However, the imaging optical system of a general compound-eye imaging apparatus is a pan focus that can be focused from a short distance to a long distance, but defocusing (focal blur) occurs when an image is taken close to the subject. Further, the above-described pixel rearrangement method, IBP method, and the like are image processing methods that do not consider the influence of defocus that occurs in the captured image. For this reason, when defocusing occurs in the captured image, a reconstructed image with sufficient resolution cannot be generated.
特に、マイクロロボットの視覚装置や、立体内視鏡などに利用する場合、被写体に近接させて撮像した撮像画像を処理する頻度が高く、撮像画像にデフォーカスが生じている場合であっても、十分な解像度の再構成画像を生成することができる技術の開発が要望されている。 In particular, when used for a visual device of a micro robot, a stereoscopic endoscope, or the like, even when a captured image taken close to a subject is processed frequently and defocused in the captured image, Development of a technique capable of generating a reconstructed image with sufficient resolution is desired.
この発明の目的は、撮像画像にデフォーカスが生じている場合であっても、十分な解像度の再構成画像を生成することができる画像処理ユニット、画像処理方法、および画像処理プログラムを提供することにある。 An object of the present invention is to provide an image processing unit, an image processing method, and an image processing program capable of generating a reconstructed image having a sufficient resolution even when a defocused image occurs. It is in.
また、この発明は、上記画像処理ユニットを適用することで、被写体との距離に関係なく、その被写体について高精細な再構成画像が得られる複眼撮像装置を提供することを目的とする。 It is another object of the present invention to provide a compound eye imaging apparatus that can obtain a high-definition reconstructed image for a subject regardless of the distance to the subject by applying the image processing unit.
この発明の画像処理ユニットは、上記課題を解決し、その目的を達するために以下のように構成している。 The image processing unit of the present invention is configured as follows in order to solve the above problems and achieve the object.
この画像処理ユニットは、複数の画素をマトリクス状に配置した撮像素子に投影された被写体の撮像画像から、その被写体の3次元情報を用いて再構成画像を生成する。具体的には、推定手段が、前記撮像素子に投影された被写体の3次元情報を用いた光線追跡により、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを推定する。例えば、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを、その小領域から入射される光線の本数に基づいて推定する。これにより、デフォーカスが生じる光学系をモデル化できる。また、算出手段が、被写体の表面を分割した小領域毎に、前記撮像素子の各画素の画素値と、前記推定手段の推定結果と、に基づいて、色を算出する。そして、再構成画像生成手段が、前記算出手段が算出した各小領域の色に基づいて再構成画像を生成する。 This image processing unit generates a reconstructed image from a captured image of a subject projected on an imaging element in which a plurality of pixels are arranged in a matrix, using the three-dimensional information of the subject. Specifically, the degree of influence of each small region obtained by dividing the surface of the subject for each pixel of the image sensor by the ray tracing using the three-dimensional information of the subject projected on the image sensor by the estimation unit Is estimated. For example, for each pixel of the image sensor, the degree of influence of each small region obtained by dividing the surface of the subject is estimated based on the number of light rays incident from the small region. Thereby, an optical system in which defocus occurs can be modeled. In addition, the calculation unit calculates a color for each small region obtained by dividing the surface of the subject based on the pixel value of each pixel of the image sensor and the estimation result of the estimation unit. Then, the reconstructed image generating means generates a reconstructed image based on the color of each small area calculated by the calculating means.
このように、被写体の3次元情報を用いた光線追跡により、デフォーカスが生じた光学系をモデル化し、そのモデルに基づいて再構成画像を生成する。したがって、撮像画像に含まれているデフォーカスの影響を抑えた再構成画像を生成することができる。このため、連続的な距離変化やオクルージョンを持つ被写体の撮像画像についても、高精細な再構成画像を生成することができる。 In this way, the optical system in which defocusing occurs is modeled by ray tracing using the three-dimensional information of the subject, and a reconstructed image is generated based on the model. Therefore, it is possible to generate a reconstructed image in which the influence of defocus included in the captured image is suppressed. For this reason, it is possible to generate a high-definition reconstructed image for a captured image of a subject having a continuous distance change or occlusion.
また、算出手段は、隣接する小領域間での色の変化量に制限加えて、各小領域の色を算出するようにしてもよい。このようにすれば、再構成画像のエッジが抑えられる。 The calculation means may calculate the color of each small region in addition to the amount of change in color between adjacent small regions. In this way, the edge of the reconstructed image can be suppressed.
なお、ここで言うエッジとは、ノイズ等によって周辺の画素間で生じる急激な変化である。 Note that the edge referred to here is an abrupt change that occurs between surrounding pixels due to noise or the like.
また、上記画像処理ユニットを、複数のレンズを配置したレンズアレイを有し、個々のレンズが撮像素子上に投影した被写体の個眼像を撮像する撮像手段を備えた複眼撮像装置に適用することで、マイクロロボットの視覚装置や、立体内視鏡などへの利用が好適に行える。 Further, the image processing unit is applied to a compound eye imaging apparatus having a lens array in which a plurality of lenses are arranged and provided with imaging means for imaging a single eye image of a subject projected by each lens on an imaging device. Thus, it can be suitably used for a visual device of a micro robot, a stereoscopic endoscope, or the like.
この発明によれば、撮像画像に含まれているデフォーカスの影響を抑えた、高精細な再構成画像を生成することができる。 According to the present invention, it is possible to generate a high-definition reconstructed image in which the influence of defocus included in the captured image is suppressed.
以下、この発明の実施形態について説明する。 Embodiments of the present invention will be described below.
図1は、複眼撮像装置の主要部の構成を示すブロック図である。この複眼撮像装置1は、制御部2と、撮像部3と、画像処理部4と、出力部5と、を備えている。この複眼撮像装置1は、被写体を撮像した複眼像から高精細な再構成画像を生成して出力する。複眼像は、低解像度の複数の個眼像からなる。制御部2は、複眼撮像装置1本体各部の動作を制御する。
FIG. 1 is a block diagram illustrating a configuration of a main part of the compound eye imaging apparatus. The compound
図2は、撮像部の構成を示す分解斜視図である。撮像部3は、マイクロレンズアレイ21と、光学隔壁22と、イメージセンサ23と、を有している。マイクロレンズアレイ21は、複数のマイクロレンズ21aを有している。図2では、合計9個のマイクロレンズ21aを3×3のマトリクス状に配置したマイクロレンズアレイ21を示している。イメージセンサ23は、マイクロレンズアレイ21に対向して配置されている。マイクロレンズアレイ21と、イメージセンサ23との間には、光学隔壁22が配置されている。この光学隔壁22は、マイクロレンズアレイ21のマイクロレンズ21a毎に、被写体の撮像画像を投影されるイメージセンサ23の領域を区切る。具体的には、光学隔壁22は、イメージセンサ23の全領域を、各マイクロレンズ21aによって被写体の撮像画像が投影される9つの個眼像領域に区切る。例えば、イメージセンサ23が、1280×1024画素のCMOSイメージセンサである場合、光学隔壁22は、イメージセンサ23を、340×260画素の9つの個眼像領域に区切る。また、光学隔壁22は、各個眼像領域に対して、その個眼像領域に対応しないマイクロレンズ21aからの被写体の投影光を遮光する。したがって、各個眼像領域では、対応しないマイクロレンズ21aの影響が抑えられている。
FIG. 2 is an exploded perspective view illustrating a configuration of the imaging unit. The
また、イメージセンサ23には、図示していないがベイヤ配列のカラーフィルタが設けられている。各個眼像領域には、対応するマイクロレンズによって投影された被写体の撮像画像(個眼像)が投影される。ここでは、イメージセンサ23に投影されている複数の個眼像を、まとめて複眼像と言う。
The
なお、マイクロレンズアレイ21の各マイクロレンズ21aは、物理的に位置が異なっているので、複眼像を構成する9つの個眼像間には視差が存在している。
In addition, since each
画像処理部4は、撮像部3で撮像された被写体の複数の個眼像間の視差を検出し、ここで検出した個眼像間の視差を用いて被写体の表面形状(被写体の3次元情報)を検出する。また、画像処理部4は、検出した被写体の表面形状に基づいて被写体表面を小領域に分割し、ここで分割した被写体表面の小領域毎に、その小領域の色を検出し、中間画像を生成する。さらに、先に検出した被写体の表面形状に基づく光線追跡により、イメージセンサ23の各画素について、被写体表面の各小領域が与える影響の度合いを推定する。すなわち、イメージセンサ23の画素毎に、影響を与える被写体表面の小領域の抽出、および、抽出した小領域が与える影響の度合い、を推定する。そして、この推定結果に基づいて、再構成画像を生成する。この画像処理部4が、この発明で言う画像処理ユニットに相当する。画像処理部4は、例えば画像処理チップで構成される。
The
出力部5は、画像処理部4で生成された再構成画像を出力する。例えば、出力部5は、外部機器と接続するインタフェースを有し、画像処理部4で生成された再構成画像を、接続されている外部機器(表示装置や印刷装置等)へ出力する。また、表示器を有し、画像処理部4で生成された再構成画像をこの表示器に表示する構成であってもよい。
The output unit 5 outputs the reconstructed image generated by the
次に、この複眼撮像装置1の動作について詳細に説明する。
Next, the operation of the compound
図3は、複眼画像生成装置の動作を示すフローチャートである。この複眼撮像装置1は、図示していないシャッタが操作されると、撮像部3のイメージセンサ23に投影されている複眼像を取り込む(s1)。s1では、公知のローリングシャッタ方式により、イメージセンサ23に投影されている複数の個眼像を、複眼像として取り込む。
FIG. 3 is a flowchart showing the operation of the compound-eye image generation apparatus. When a shutter (not shown) is operated, the compound-
画像処理部4は、s1で取り込んだ複眼像に含まれている、個眼像間の視差を検出する(s2)。画像処理部4は、s2で検出した個眼像間の視差に基づいて、被写体までの距離を計測する(s3)。s3では、例えば公知のマルチベースラインステレオ法で被写体までの距離を計測すればよい。画像処理部4は、s3の計測結果に基づいて、被写体表面の3次元情報を生成する(s4)。s4では、s3で計測した距離に基づいて、被写体の表面を三角形の小領域の集合で構成した表面形状データを生成する。
The
画像処理部4は、s4で生成した表面形状データにおける被写体の表面を構成する三角形の小領域毎に、色を検出する(s5)。s5では、被写体の表面を構成する三角形の各小領域の色を、s1で取り込んだ複眼像を用いた公知の画素再配置法により検出する(図4参照)。画像処理部4は、被写体の表面を構成する三角形の各小領域に、s5で検出した色を与え、これを射影変換した中間画像を生成する(s6)。
The
なお、上記の説明では、s4で生成した表面形状データにおける被写体の表面を構成する三角形の小領域毎に色を検出するとしたが、隣接する2つの三角形の小領域を合わせた4角形の領域毎に色を検出するようにしてもよい。このようにすれば、s5にかかる処理量が抑えられる。 In the above description, the color is detected for each small triangular area constituting the surface of the subject in the surface shape data generated in s4. However, for each quadrangular area obtained by combining two adjacent small triangular areas. Alternatively, the color may be detected. In this way, the processing amount for s5 can be suppressed.
s6で生成される中間画像は、従来の一般的な複眼撮像装置で生成されていた再構成画像である。この中間画像は、上述の説明から明らかなように、s1で取り込んだ複眼像を構成する個眼像に生じているデフォーカスを考慮していない画像である。 The intermediate image generated in s6 is a reconstructed image generated by a conventional general compound eye imaging device. As is clear from the above description, this intermediate image is an image that does not take into account defocusing that has occurred in the single-eye image constituting the compound-eye image captured in s1.
デフォーカスが生じていると、このデフォーカスの影響を受け
さらに、画像処理部4は、s6で生成した中間画像に対して、デフォーカスによる影響を補正するデフォーカス補正処理を行う(s7)。s7にかかるデフォーカス補正処理は、被写体からの光がマイクロレンズ21aを通って、イメージセンサ23の各画素に到達する関係を、十分な光線追跡によりモデル化し、ここで求めたモデルに基づいて、s6で生成した中間画像を補正する処理である。
If defocusing occurs, the
具体的に言うと、イメージセンサ23の画素毎に、入射する各光線を逆追跡し、その光線が被写体の表面を構成する三角形のどの小領域からの光線であるかを検出する。この光線の逆追跡は、OpenGL等の3次元レンダリングライブラリを用いて行えばよい。
Specifically, for each pixel of the
ここで、イメージセンサ23の各画素が出力する画素値は、その画素に入射する光線の光強度の和である。また、光線の光強度は、その光線を発する被写体の表面の小領域の色(輝度)によって決まる。したがって、被写体の表面の各小領域の位置を、図5(A)に示すように、(x,y)で表し、イメージセンサ23の各画素の位置を、図5(B)に示すように(a,b)で表すと、イメージセンサ23の画素i(a,b)の出力画素値I(a,b)は、被写体の表面の小領域(x,y)の輝度R(x,y)を用いれば、
Here, the pixel value output by each pixel of the
で表すことができる。この[数1]における、[k(a,b)(x,y)]は、小領域(x,y)の輝度R(x,y)が、画素i(a,b)の出力画素値I(a,b)に与える影響を示す係数である。ここでは、画素i(a,b)に入射する光線の本数をN本、小領域(x,y)から画素i(a,b)に入射する光線の本数を[n(a,b)(x,y)]、とした場合、
[k(a,b)(x,y)]=[n(a,b)(x,y)]/N
と定義した。この、[k(a,b)(x,y)]は、上述した光線追跡によるモデル化で得られる。
Can be expressed as In [Equation 1], [k (a, b) (x, y) ] indicates that the luminance R (x, y) of the small region (x, y) is the output pixel value of the pixel i (a, b). It is a coefficient indicating the effect on I (a, b) . Here, the number of light rays incident on the pixel i (a, b) is N, and the number of light rays incident on the pixel i (a, b) from the small region (x, y) is [n (a, b) ( x, y) ],
[K (a, b) (x, y) ] = [n (a, b) (x, y) ] / N
Defined. This [k (a, b) (x, y) ] is obtained by the modeling by ray tracing described above.
ここで、イメージセンサ23の全ての画素について、上述した[数1]が成立するR(x,y)の組が理想値である。しかし、ノイズ等による影響があることから、ほとんどの場合、イメージセンサ23の全ての画素について、[数1]が成立するR(x,y)の組が存在することは稀である。
Here, for all the pixels of the
そこで、画像処理部4は、[数1]における左辺から右辺を引いて2乗したものを、全ての画素について合計した自乗誤差の合計e(R)
Therefore, the
が最小になるR(x,y)の組を算出する。そして、画像処理部4は、ここで求めたR(x,y)の組による画像をデフォーカス補正を行った再構成画像として生成する(s8)。
A pair of R (x, y) that minimizes is calculated. Then, the
また、[数2]では、上下左右に隣接する画素間の輝度の変化量に制限がかからないので、再構成画像にノイズ等によるエッジがあらわれる可能性がある。ここで言うエッジとは、ノイズ等によって周辺の画素間で生じる急激な変化である。 Further, in [Equation 2], there is no limit on the amount of change in luminance between pixels adjacent vertically and horizontally, and therefore an edge due to noise or the like may appear in the reconstructed image. The edge referred to here is an abrupt change that occurs between neighboring pixels due to noise or the like.
そこで、上述の[数2]を、 Therefore, the above [Equation 2] is
に置き換え、上下左右に隣接する画素間の輝度の変化量に制限がかかるようにしてもよい。[数3]におけるCは、再構成画像の滑らかさの度合いを示す係数として作用する。このCを小さくするにつれて、再構成画像は鮮鋭になるが、ノイズ等によるエッジがあらわれやすくなる。 Alternatively, the amount of change in luminance between adjacent pixels in the vertical and horizontal directions may be limited. C in [Formula 3] acts as a coefficient indicating the degree of smoothness of the reconstructed image. As C is reduced, the reconstructed image becomes sharper, but an edge due to noise or the like tends to appear.
さらに、上下左右に隣接する画素間だけでなく、斜めに隣接する画素間についても、輝度の変化量に制限がかかるように、、上述の[数2]、または[数3]を、 Furthermore, the above [Equation 2] or [Equation 3] is set so that the amount of change in luminance is limited not only between pixels adjacent vertically and horizontally but also between pixels adjacent obliquely.
に置き換えてもよい。 May be replaced.
なお、上述の[数2]、[数3]、または[数4]のいずれであっても、公知の共役勾配法等でR(x,y)の組を求めればよい。また、このときの初期値には、s6で生成した中間画像を用いればよい。 In addition, what is necessary is just to obtain | require the group of R (x, y) by a well-known conjugate gradient method etc., even if it is any of the above-mentioned [Formula 2], [Formula 3], or [Formula 4]. Further, the intermediate image generated in s6 may be used as the initial value at this time.
このように、被写体の3次元情報を用いた光線追跡により、デフォーカスが生じた光学系をモデル化し、そのモデルに基づいて再構成画像を生成する。したがって、撮像画像に含まれているデフォーカスの影響を抑えた再構成画像を生成することができる。このため、連続的な距離変化やオクルージョンを持つ被写体の撮像画像についても、高精細な再構成画像を生成することができる。 In this way, the optical system in which defocusing occurs is modeled by ray tracing using the three-dimensional information of the subject, and a reconstructed image is generated based on the model. Therefore, it is possible to generate a reconstructed image in which the influence of defocus included in the captured image is suppressed. For this reason, it is possible to generate a high-definition reconstructed image for a captured image of a subject having a continuous distance change or occlusion.
複眼撮像装置1は、s7にかかるデフォーカス補正処理を行って生成した再構成画像を出力し(s8)、本処理を終了する。
The compound-
次に、この複眼撮像装置1で撮像した複眼画像から、再構成画像を生成する処理を、上述した[数4]を用いて行ったので、その結果について説明する。図6は、被写体の撮像環境を示す図である。被写体は、図6(A)に示す、絵画である。この絵画は、図6(B)に示すように、レンズアレイ21に対して、60度傾けた状態に配置した。また、被写体の大きさは、縦×横=10.24mm×10.24mmである。
Next, a process of generating a reconstructed image from a compound eye image captured by the compound
図7は、図6に示す撮像環境で撮像された複眼像である。また、図8は、s6で生成された中間画像を示している。図9、および図10は、s7にかかるデフォーカス補正処理を行った再構成画像である。図9は、[数4]におけるCを0.01とした場合であり、図10は、[数4]におけるCを0.1とした場合である。 FIG. 7 is a compound eye image captured in the imaging environment shown in FIG. FIG. 8 shows the intermediate image generated in s6. 9 and 10 are reconstructed images that have been subjected to the defocus correction process in s7. FIG. 9 shows a case where C in [Equation 4] is 0.01, and FIG. 10 shows a case where C in [Equation 4] is 0.1.
図8〜図10から明らかなように、s7にかかるデフォーカス補正処理を行うことで、高精細な再構成画像が得られることがわかる。また、Cを大きくすることにより、再構成画像のエッジが抑えられる。 As is apparent from FIGS. 8 to 10, it is understood that a high-definition reconstructed image can be obtained by performing the defocus correction processing according to s7. Also, by increasing C, the edge of the reconstructed image can be suppressed.
なお、上記実施形態では、本願発明を複眼撮像装置に適用した場合を例にして説明したが、単眼の撮像装置であっても、撮像した被写体の3次元情報が得られれば、その撮像画像を高精細化することができる。 In the above embodiment, the case where the present invention is applied to a compound-eye imaging device has been described as an example. However, even if a monocular imaging device is used, if the three-dimensional information of the captured subject is obtained, the captured image is displayed. High definition can be achieved.
1−複眼撮像装置
2−制御部
3−撮像部
4−画像処理部
5−出力部
21−マイクロレンズアレイ
21a−マイクロレンズ
22−光学隔壁
23−イメージセンサ
1-compound eye imaging device 2-control unit 3-imaging unit 4-image processing unit 5-output unit 21-
Claims (6)
前記撮像素子に投影された被写体の3次元情報を用いた光線追跡により、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを推定する推定手段と、
被写体の表面を分割した小領域毎に、前記撮像素子の各画素の画素値と、前記推定手段の推定結果と、に基づいて、色を算出する算出手段と、
前記算出手段が算出した各小領域の色に基づいて再構成画像を生成する再構成画像生成手段と、を備えた画像処理ユニット。 In an image processing unit that generates a reconstructed image from a captured image of a subject projected on an imaging element in which a plurality of pixels are arranged in a matrix, using the three-dimensional information of the subject.
Estimating means for estimating the degree of influence of each small area obtained by dividing the surface of the subject for each pixel of the image sensor by ray tracing using the three-dimensional information of the subject projected on the image sensor;
For each small region obtained by dividing the surface of the subject, a calculation unit that calculates a color based on the pixel value of each pixel of the image sensor and the estimation result of the estimation unit;
An image processing unit comprising: a reconstructed image generating unit that generates a reconstructed image based on the color of each small region calculated by the calculating unit.
請求項1〜3のいずれかに記載の画像処理ユニットを備え、
前記画像処理ユニットは、前記撮像手段が撮像した複数の個眼像を用いて、被写体の3次元情報を取得する3次元情報取得手段を備え、
前記推定手段は、前記3次元情報取得手段が取得した被写体の3次元情報を用いた光線追跡により、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを推定する手段である、複眼撮像装置。 In a compound eye imaging device having a lens array in which a plurality of lenses are arranged, and including an imaging unit that images a single-eye image of a subject projected by each lens on an imaging device,
The image processing unit according to claim 1,
The image processing unit includes a three-dimensional information acquisition unit that acquires three-dimensional information of a subject using a plurality of single-eye images captured by the imaging unit.
The estimation unit estimates a degree of influence of each small region obtained by dividing the surface of the subject for each pixel of the image sensor by ray tracing using the three-dimensional information of the subject acquired by the three-dimensional information acquisition unit. A compound eye imaging device.
前記撮像素子に投影された被写体の3次元情報を用いた光線追跡により、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを推定する推定ステップと、
被写体の表面を分割した小領域毎に、前記撮像素子の各画素の画素値と、前記推定ステップの推定結果と、に基づいて、色を算出する算出ステップと、
前記算出ステップが算出した各小領域の色に基づいて再構成画像を生成する再構成画像生成ステップと、を備えた画像処理方法。 In an image processing method for generating a reconstructed image from a captured image of a subject projected on an imaging device in which a plurality of pixels are arranged in a matrix, using the three-dimensional information of the subject,
An estimation step for estimating the degree of influence of each small area obtained by dividing the surface of the subject for each pixel of the image sensor by ray tracing using the three-dimensional information of the subject projected on the image sensor;
For each small area obtained by dividing the surface of the subject, a calculation step for calculating a color based on the pixel value of each pixel of the image sensor and the estimation result of the estimation step;
An image processing method comprising: a reconstructed image generating step for generating a reconstructed image based on the color of each small region calculated by the calculating step.
コンピュータを、
前記撮像素子に投影された被写体の3次元情報を用いた光線追跡により、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを推定する推定手段と、
被写体の表面を分割した小領域毎に、前記撮像素子の各画素の画素値と、前記推定手段の推定結果と、に基づいて、色を算出する算出手段と、
前記算出手段が算出した各小領域の色に基づいて再構成画像を生成する再構成画像生成手段と、して機能させる画像処理プログラム。 In an image processing program for causing a computer to execute a process of generating a reconstructed image from a captured image of a subject projected on an imaging device in which a plurality of pixels are arranged in a matrix, using the three-dimensional information of the subject.
Computer
Estimating means for estimating the degree of influence of each small area obtained by dividing the surface of the subject for each pixel of the image sensor by ray tracing using the three-dimensional information of the subject projected on the image sensor;
For each small region obtained by dividing the surface of the subject, a calculation unit that calculates a color based on the pixel value of each pixel of the image sensor and the estimation result of the estimation unit;
An image processing program that functions as a reconstructed image generating unit that generates a reconstructed image based on the color of each small region calculated by the calculating unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008051808A JP2009211254A (en) | 2008-03-03 | 2008-03-03 | Image processing unit, compound eye imaging device, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008051808A JP2009211254A (en) | 2008-03-03 | 2008-03-03 | Image processing unit, compound eye imaging device, image processing method, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009211254A true JP2009211254A (en) | 2009-09-17 |
Family
ID=41184345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008051808A Pending JP2009211254A (en) | 2008-03-03 | 2008-03-03 | Image processing unit, compound eye imaging device, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009211254A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2566150A2 (en) | 2011-09-01 | 2013-03-06 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and program |
JP2014017785A (en) * | 2012-07-11 | 2014-01-30 | Toshiba Corp | Image processing device, image processing method, program, and imaging device |
JP2017034691A (en) * | 2016-09-15 | 2017-02-09 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP2020088684A (en) * | 2018-11-28 | 2020-06-04 | 株式会社アサヒ電子研究所 | Compound-eye imaging apparatus |
-
2008
- 2008-03-03 JP JP2008051808A patent/JP2009211254A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2566150A2 (en) | 2011-09-01 | 2013-03-06 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and program |
US9055218B2 (en) | 2011-09-01 | 2015-06-09 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and program for combining the multi-viewpoint image data |
JP2014017785A (en) * | 2012-07-11 | 2014-01-30 | Toshiba Corp | Image processing device, image processing method, program, and imaging device |
JP2017034691A (en) * | 2016-09-15 | 2017-02-09 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP2020088684A (en) * | 2018-11-28 | 2020-06-04 | 株式会社アサヒ電子研究所 | Compound-eye imaging apparatus |
JP7182437B2 (en) | 2018-11-28 | 2022-12-02 | 株式会社アサヒ電子研究所 | Compound eye imaging device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6570327B2 (en) | Control device, imaging device, control method, program, and storage medium | |
TWI510086B (en) | Digital refocusing method | |
EP2403233B1 (en) | Image processing apparatus and method | |
JP5342036B2 (en) | Method for capturing 3D surface shapes | |
US9092875B2 (en) | Motion estimation apparatus, depth estimation apparatus, and motion estimation method | |
JP6509914B2 (en) | Image sensor for depth estimation | |
JP6585006B2 (en) | Imaging device and vehicle | |
JP6786225B2 (en) | Image processing equipment, imaging equipment and image processing programs | |
JP2008242658A (en) | Three-dimensional object imaging apparatus | |
JP5984493B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and program | |
JP2010057067A (en) | Image pickup apparatus and image processing apparatus | |
JP4928476B2 (en) | Stereoscopic image generating apparatus, method thereof and program thereof | |
JP4843544B2 (en) | 3D image correction method and apparatus | |
KR20100040643A (en) | Apparatus and method for processing image to generate high resolution image | |
JP5452801B2 (en) | Stereoscopic image generating apparatus and program thereof | |
JP2015046019A (en) | Image processing device, imaging device, imaging system, image processing method, program, and storage medium | |
JP2013153408A (en) | Image processing apparatus, imaging apparatus, image generation method and program | |
US9538074B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP6353233B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP2010049152A (en) | Focus information detecting device | |
JP2009211254A (en) | Image processing unit, compound eye imaging device, image processing method, and image processing program | |
JP2015188251A (en) | Image processing system, imaging apparatus, image processing method, and program | |
JP5900017B2 (en) | Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program | |
CN111127379B (en) | Rendering method of light field camera 2.0 and electronic equipment | |
JP6362070B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |