JP2009211254A - Image processing unit, compound eye imaging device, image processing method, and image processing program - Google Patents

Image processing unit, compound eye imaging device, image processing method, and image processing program Download PDF

Info

Publication number
JP2009211254A
JP2009211254A JP2008051808A JP2008051808A JP2009211254A JP 2009211254 A JP2009211254 A JP 2009211254A JP 2008051808 A JP2008051808 A JP 2008051808A JP 2008051808 A JP2008051808 A JP 2008051808A JP 2009211254 A JP2009211254 A JP 2009211254A
Authority
JP
Japan
Prior art keywords
image
subject
image processing
pixel
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008051808A
Other languages
Japanese (ja)
Inventor
Daisuke Miyazaki
大介 宮崎
Yoshizumi Nakao
良純 中尾
Kouichi Kugo
耕一 久後
Takashi Toyoda
孝 豊田
Yasuo Masaki
康生 政木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Osaka University NUC
Osaka City University
Original Assignee
Funai Electric Co Ltd
Osaka University NUC
Osaka City University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd, Osaka University NUC, Osaka City University filed Critical Funai Electric Co Ltd
Priority to JP2008051808A priority Critical patent/JP2009211254A/en
Publication of JP2009211254A publication Critical patent/JP2009211254A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing unit generating a highly precise reconfigured image by suppressing deterioration in resolution of a reconfigured image due to defocusing included in a pickup image. <P>SOLUTION: An image processing part 4 detects a parallax between a plurality of eye images of an object whose image has been picked up by an image pickup part 3, and detects a surface shape of the object by using the parallax between the detected eye images. Also, the image processing part 4 divides the surface of the object into small regions based on the detected surface shape of the object, and detects the color of each of the divided small regions of the surface of the object, and generates an intermediate image. Further, the image processing part 4 estimates the degree of the influence of each small region of the surface of the object on each pixel of an image sensor 23, that is, the degree of the influence on each pixel due to defocusing by light beam tracking based on the previously detected surface shape of the object, and generates a reconfigured image based on the estimation result. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、被写体の撮像画像を、その被写体の3次元情報を用いて高精細化した再構成画像を生成する画像処理ユニット、この画像処理ユニットを適用した複眼撮像装置に関する。また、被写体の撮像画像を、その被写体の3次元情報を用いて高精細化した再構成画像を生成する画像処理方法、および画像処理プログラムに関する。   The present invention relates to an image processing unit that generates a high-definition reconstructed image of a captured image of a subject using three-dimensional information of the subject, and a compound eye imaging device to which the image processing unit is applied. The present invention also relates to an image processing method and an image processing program for generating a reconstructed image in which a captured image of a subject is refined using three-dimensional information of the subject.

従来、被写体の撮像画像と、その被写体の3次元情報(立体形状データ)と、を用いて高精細化した再構成画像を生成する画像高精細化方法が提案されている(特許文献1、2等参照)。被写体の3次元情報は、例えば、その被写体を異なる方向から撮像した複数の撮像画像の視差情報から取得できる。被写体の撮像画像を高精細化する画像処理の方法としては、画素再配置法や、IBP(Iterative Back Projection)法等がある。   Conventionally, there has been proposed an image enhancement method for generating a high-definition reconstructed image using a captured image of a subject and three-dimensional information (three-dimensional shape data) of the subject (Patent Documents 1 and 2). Etc.). The three-dimensional information of the subject can be acquired from, for example, parallax information of a plurality of captured images obtained by capturing the subject from different directions. Examples of image processing methods for increasing the definition of a captured image of a subject include a pixel rearrangement method and an IBP (Iterative Back Projection) method.

また、特許文献2に示されているように、複数のレンズを配置したレンズアレイを用いた複眼撮像装置は、レンズ毎の撮像画像が視差を有しているので、これらの複眼像から被写体の3次元情報を得ることができる。また、レンズアレイの各レンズの厚みが数mmに抑えられるので、撮像光学系を小型化できる。このため、マイクロロボットの視覚装置や、立体内視鏡などへの利用が考えられている。
特開平5−344422号公報 特開2007−74079号公報
Further, as shown in Patent Document 2, in a compound eye imaging device using a lens array in which a plurality of lenses are arranged, the captured image for each lens has a parallax. Three-dimensional information can be obtained. In addition, since the thickness of each lens of the lens array can be suppressed to several mm, the imaging optical system can be reduced in size. For this reason, the use for the visual device of a micro robot, a stereoscopic endoscope, etc. is considered.
JP-A-5-344422 JP 2007-74079 A

しかしながら、一般的な複眼撮像装置の撮像光学系は、近距離から遠距離までピントが合わせられるパンフォーカスではあるが、被写体に近接させて撮像した場合には、デフォーカス(焦点ボケ)が生じる。また、上述した画素再配置法や、IBP法等は、撮像画像に生じているデフォーカスの影響を考慮しない画像処理方法であった。このため、撮像画像にデフォーカスが生じている場合、十分な解像度の再構成画像を生成することができなかった。   However, the imaging optical system of a general compound-eye imaging apparatus is a pan focus that can be focused from a short distance to a long distance, but defocusing (focal blur) occurs when an image is taken close to the subject. Further, the above-described pixel rearrangement method, IBP method, and the like are image processing methods that do not consider the influence of defocus that occurs in the captured image. For this reason, when defocusing occurs in the captured image, a reconstructed image with sufficient resolution cannot be generated.

特に、マイクロロボットの視覚装置や、立体内視鏡などに利用する場合、被写体に近接させて撮像した撮像画像を処理する頻度が高く、撮像画像にデフォーカスが生じている場合であっても、十分な解像度の再構成画像を生成することができる技術の開発が要望されている。   In particular, when used for a visual device of a micro robot, a stereoscopic endoscope, or the like, even when a captured image taken close to a subject is processed frequently and defocused in the captured image, Development of a technique capable of generating a reconstructed image with sufficient resolution is desired.

この発明の目的は、撮像画像にデフォーカスが生じている場合であっても、十分な解像度の再構成画像を生成することができる画像処理ユニット、画像処理方法、および画像処理プログラムを提供することにある。   An object of the present invention is to provide an image processing unit, an image processing method, and an image processing program capable of generating a reconstructed image having a sufficient resolution even when a defocused image occurs. It is in.

また、この発明は、上記画像処理ユニットを適用することで、被写体との距離に関係なく、その被写体について高精細な再構成画像が得られる複眼撮像装置を提供することを目的とする。   It is another object of the present invention to provide a compound eye imaging apparatus that can obtain a high-definition reconstructed image for a subject regardless of the distance to the subject by applying the image processing unit.

この発明の画像処理ユニットは、上記課題を解決し、その目的を達するために以下のように構成している。   The image processing unit of the present invention is configured as follows in order to solve the above problems and achieve the object.

この画像処理ユニットは、複数の画素をマトリクス状に配置した撮像素子に投影された被写体の撮像画像から、その被写体の3次元情報を用いて再構成画像を生成する。具体的には、推定手段が、前記撮像素子に投影された被写体の3次元情報を用いた光線追跡により、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを推定する。例えば、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを、その小領域から入射される光線の本数に基づいて推定する。これにより、デフォーカスが生じる光学系をモデル化できる。また、算出手段が、被写体の表面を分割した小領域毎に、前記撮像素子の各画素の画素値と、前記推定手段の推定結果と、に基づいて、色を算出する。そして、再構成画像生成手段が、前記算出手段が算出した各小領域の色に基づいて再構成画像を生成する。   This image processing unit generates a reconstructed image from a captured image of a subject projected on an imaging element in which a plurality of pixels are arranged in a matrix, using the three-dimensional information of the subject. Specifically, the degree of influence of each small region obtained by dividing the surface of the subject for each pixel of the image sensor by the ray tracing using the three-dimensional information of the subject projected on the image sensor by the estimation unit Is estimated. For example, for each pixel of the image sensor, the degree of influence of each small region obtained by dividing the surface of the subject is estimated based on the number of light rays incident from the small region. Thereby, an optical system in which defocus occurs can be modeled. In addition, the calculation unit calculates a color for each small region obtained by dividing the surface of the subject based on the pixel value of each pixel of the image sensor and the estimation result of the estimation unit. Then, the reconstructed image generating means generates a reconstructed image based on the color of each small area calculated by the calculating means.

このように、被写体の3次元情報を用いた光線追跡により、デフォーカスが生じた光学系をモデル化し、そのモデルに基づいて再構成画像を生成する。したがって、撮像画像に含まれているデフォーカスの影響を抑えた再構成画像を生成することができる。このため、連続的な距離変化やオクルージョンを持つ被写体の撮像画像についても、高精細な再構成画像を生成することができる。   In this way, the optical system in which defocusing occurs is modeled by ray tracing using the three-dimensional information of the subject, and a reconstructed image is generated based on the model. Therefore, it is possible to generate a reconstructed image in which the influence of defocus included in the captured image is suppressed. For this reason, it is possible to generate a high-definition reconstructed image for a captured image of a subject having a continuous distance change or occlusion.

また、算出手段は、隣接する小領域間での色の変化量に制限加えて、各小領域の色を算出するようにしてもよい。このようにすれば、再構成画像のエッジが抑えられる。   The calculation means may calculate the color of each small region in addition to the amount of change in color between adjacent small regions. In this way, the edge of the reconstructed image can be suppressed.

なお、ここで言うエッジとは、ノイズ等によって周辺の画素間で生じる急激な変化である。   Note that the edge referred to here is an abrupt change that occurs between surrounding pixels due to noise or the like.

また、上記画像処理ユニットを、複数のレンズを配置したレンズアレイを有し、個々のレンズが撮像素子上に投影した被写体の個眼像を撮像する撮像手段を備えた複眼撮像装置に適用することで、マイクロロボットの視覚装置や、立体内視鏡などへの利用が好適に行える。   Further, the image processing unit is applied to a compound eye imaging apparatus having a lens array in which a plurality of lenses are arranged and provided with imaging means for imaging a single eye image of a subject projected by each lens on an imaging device. Thus, it can be suitably used for a visual device of a micro robot, a stereoscopic endoscope, or the like.

この発明によれば、撮像画像に含まれているデフォーカスの影響を抑えた、高精細な再構成画像を生成することができる。   According to the present invention, it is possible to generate a high-definition reconstructed image in which the influence of defocus included in the captured image is suppressed.

以下、この発明の実施形態について説明する。   Embodiments of the present invention will be described below.

図1は、複眼撮像装置の主要部の構成を示すブロック図である。この複眼撮像装置1は、制御部2と、撮像部3と、画像処理部4と、出力部5と、を備えている。この複眼撮像装置1は、被写体を撮像した複眼像から高精細な再構成画像を生成して出力する。複眼像は、低解像度の複数の個眼像からなる。制御部2は、複眼撮像装置1本体各部の動作を制御する。   FIG. 1 is a block diagram illustrating a configuration of a main part of the compound eye imaging apparatus. The compound eye imaging apparatus 1 includes a control unit 2, an imaging unit 3, an image processing unit 4, and an output unit 5. The compound eye imaging apparatus 1 generates and outputs a high-definition reconstructed image from a compound eye image obtained by imaging a subject. A compound eye image consists of a plurality of single-eye images with low resolution. The control unit 2 controls the operation of each part of the main body of the compound eye imaging device 1.

図2は、撮像部の構成を示す分解斜視図である。撮像部3は、マイクロレンズアレイ21と、光学隔壁22と、イメージセンサ23と、を有している。マイクロレンズアレイ21は、複数のマイクロレンズ21aを有している。図2では、合計9個のマイクロレンズ21aを3×3のマトリクス状に配置したマイクロレンズアレイ21を示している。イメージセンサ23は、マイクロレンズアレイ21に対向して配置されている。マイクロレンズアレイ21と、イメージセンサ23との間には、光学隔壁22が配置されている。この光学隔壁22は、マイクロレンズアレイ21のマイクロレンズ21a毎に、被写体の撮像画像を投影されるイメージセンサ23の領域を区切る。具体的には、光学隔壁22は、イメージセンサ23の全領域を、各マイクロレンズ21aによって被写体の撮像画像が投影される9つの個眼像領域に区切る。例えば、イメージセンサ23が、1280×1024画素のCMOSイメージセンサである場合、光学隔壁22は、イメージセンサ23を、340×260画素の9つの個眼像領域に区切る。また、光学隔壁22は、各個眼像領域に対して、その個眼像領域に対応しないマイクロレンズ21aからの被写体の投影光を遮光する。したがって、各個眼像領域では、対応しないマイクロレンズ21aの影響が抑えられている。   FIG. 2 is an exploded perspective view illustrating a configuration of the imaging unit. The imaging unit 3 includes a microlens array 21, an optical partition wall 22, and an image sensor 23. The microlens array 21 has a plurality of microlenses 21a. FIG. 2 shows a microlens array 21 in which a total of nine microlenses 21a are arranged in a 3 × 3 matrix. The image sensor 23 is disposed to face the microlens array 21. An optical partition 22 is disposed between the microlens array 21 and the image sensor 23. The optical partition 22 divides the area of the image sensor 23 onto which the captured image of the subject is projected for each micro lens 21 a of the micro lens array 21. Specifically, the optical partition 22 divides the entire region of the image sensor 23 into nine single-eye image regions onto which the captured image of the subject is projected by each microlens 21a. For example, when the image sensor 23 is a 1280 × 1024 pixel CMOS image sensor, the optical partition 22 divides the image sensor 23 into nine single-eye image regions of 340 × 260 pixels. Further, the optical partition 22 shields the projection light of the subject from the microlens 21a that does not correspond to the single-eye image region for each single-eye image region. Therefore, the influence of the micro lens 21a which does not correspond is suppressed in each single eye image area.

また、イメージセンサ23には、図示していないがベイヤ配列のカラーフィルタが設けられている。各個眼像領域には、対応するマイクロレンズによって投影された被写体の撮像画像(個眼像)が投影される。ここでは、イメージセンサ23に投影されている複数の個眼像を、まとめて複眼像と言う。   The image sensor 23 is provided with a Bayer color filter (not shown). A captured image (single-eye image) of a subject projected by the corresponding microlens is projected on each single-eye image region. Here, a plurality of single-eye images projected on the image sensor 23 are collectively referred to as a compound eye image.

なお、マイクロレンズアレイ21の各マイクロレンズ21aは、物理的に位置が異なっているので、複眼像を構成する9つの個眼像間には視差が存在している。   In addition, since each microlens 21a of the microlens array 21 is physically different in position, there is a parallax between the nine single-eye images constituting the compound eye image.

画像処理部4は、撮像部3で撮像された被写体の複数の個眼像間の視差を検出し、ここで検出した個眼像間の視差を用いて被写体の表面形状(被写体の3次元情報)を検出する。また、画像処理部4は、検出した被写体の表面形状に基づいて被写体表面を小領域に分割し、ここで分割した被写体表面の小領域毎に、その小領域の色を検出し、中間画像を生成する。さらに、先に検出した被写体の表面形状に基づく光線追跡により、イメージセンサ23の各画素について、被写体表面の各小領域が与える影響の度合いを推定する。すなわち、イメージセンサ23の画素毎に、影響を与える被写体表面の小領域の抽出、および、抽出した小領域が与える影響の度合い、を推定する。そして、この推定結果に基づいて、再構成画像を生成する。この画像処理部4が、この発明で言う画像処理ユニットに相当する。画像処理部4は、例えば画像処理チップで構成される。   The image processing unit 4 detects parallax between a plurality of single-eye images of the subject imaged by the imaging unit 3, and uses the detected parallax between the single-eye images to detect the surface shape of the subject (three-dimensional information of the subject). ) Is detected. Further, the image processing unit 4 divides the subject surface into small regions based on the detected surface shape of the subject, detects the color of the small region for each small region of the subject surface divided here, and generates an intermediate image. Generate. Furthermore, the degree of influence of each small area on the subject surface is estimated for each pixel of the image sensor 23 by ray tracing based on the surface shape of the subject detected earlier. That is, for each pixel of the image sensor 23, the extraction of the small area on the subject surface that affects and the degree of influence of the extracted small area are estimated. Then, a reconstructed image is generated based on the estimation result. The image processing unit 4 corresponds to the image processing unit referred to in the present invention. The image processing unit 4 is composed of, for example, an image processing chip.

出力部5は、画像処理部4で生成された再構成画像を出力する。例えば、出力部5は、外部機器と接続するインタフェースを有し、画像処理部4で生成された再構成画像を、接続されている外部機器(表示装置や印刷装置等)へ出力する。また、表示器を有し、画像処理部4で生成された再構成画像をこの表示器に表示する構成であってもよい。   The output unit 5 outputs the reconstructed image generated by the image processing unit 4. For example, the output unit 5 has an interface connected to an external device, and outputs the reconstructed image generated by the image processing unit 4 to a connected external device (display device, printing device, or the like). In addition, the display device may be configured to display the reconstructed image generated by the image processing unit 4 on the display device.

次に、この複眼撮像装置1の動作について詳細に説明する。   Next, the operation of the compound eye imaging apparatus 1 will be described in detail.

図3は、複眼画像生成装置の動作を示すフローチャートである。この複眼撮像装置1は、図示していないシャッタが操作されると、撮像部3のイメージセンサ23に投影されている複眼像を取り込む(s1)。s1では、公知のローリングシャッタ方式により、イメージセンサ23に投影されている複数の個眼像を、複眼像として取り込む。   FIG. 3 is a flowchart showing the operation of the compound-eye image generation apparatus. When a shutter (not shown) is operated, the compound-eye imaging device 1 captures a compound-eye image projected on the image sensor 23 of the imaging unit 3 (s1). In s1, a plurality of single-eye images projected on the image sensor 23 are captured as compound eye images by a known rolling shutter system.

画像処理部4は、s1で取り込んだ複眼像に含まれている、個眼像間の視差を検出する(s2)。画像処理部4は、s2で検出した個眼像間の視差に基づいて、被写体までの距離を計測する(s3)。s3では、例えば公知のマルチベースラインステレオ法で被写体までの距離を計測すればよい。画像処理部4は、s3の計測結果に基づいて、被写体表面の3次元情報を生成する(s4)。s4では、s3で計測した距離に基づいて、被写体の表面を三角形の小領域の集合で構成した表面形状データを生成する。   The image processing unit 4 detects the parallax between the single-eye images included in the compound eye image captured in s1 (s2). The image processing unit 4 measures the distance to the subject based on the parallax between the single-eye images detected in s2 (s3). In s3, for example, the distance to the subject may be measured by a known multi-baseline stereo method. The image processing unit 4 generates three-dimensional information of the subject surface based on the measurement result of s3 (s4). In s4, based on the distance measured in s3, surface shape data in which the surface of the subject is constituted by a set of small triangular regions is generated.

画像処理部4は、s4で生成した表面形状データにおける被写体の表面を構成する三角形の小領域毎に、色を検出する(s5)。s5では、被写体の表面を構成する三角形の各小領域の色を、s1で取り込んだ複眼像を用いた公知の画素再配置法により検出する(図4参照)。画像処理部4は、被写体の表面を構成する三角形の各小領域に、s5で検出した色を与え、これを射影変換した中間画像を生成する(s6)。   The image processing unit 4 detects a color for each small triangular region constituting the surface of the subject in the surface shape data generated in s4 (s5). In s5, the color of each triangular small area constituting the surface of the subject is detected by a known pixel rearrangement method using the compound eye image captured in s1 (see FIG. 4). The image processing unit 4 gives the color detected in s5 to each triangular small area constituting the surface of the subject, and generates an intermediate image obtained by projective transformation of the color (s6).

なお、上記の説明では、s4で生成した表面形状データにおける被写体の表面を構成する三角形の小領域毎に色を検出するとしたが、隣接する2つの三角形の小領域を合わせた4角形の領域毎に色を検出するようにしてもよい。このようにすれば、s5にかかる処理量が抑えられる。   In the above description, the color is detected for each small triangular area constituting the surface of the subject in the surface shape data generated in s4. However, for each quadrangular area obtained by combining two adjacent small triangular areas. Alternatively, the color may be detected. In this way, the processing amount for s5 can be suppressed.

s6で生成される中間画像は、従来の一般的な複眼撮像装置で生成されていた再構成画像である。この中間画像は、上述の説明から明らかなように、s1で取り込んだ複眼像を構成する個眼像に生じているデフォーカスを考慮していない画像である。   The intermediate image generated in s6 is a reconstructed image generated by a conventional general compound eye imaging device. As is clear from the above description, this intermediate image is an image that does not take into account defocusing that has occurred in the single-eye image constituting the compound-eye image captured in s1.

デフォーカスが生じていると、このデフォーカスの影響を受け
さらに、画像処理部4は、s6で生成した中間画像に対して、デフォーカスによる影響を補正するデフォーカス補正処理を行う(s7)。s7にかかるデフォーカス補正処理は、被写体からの光がマイクロレンズ21aを通って、イメージセンサ23の各画素に到達する関係を、十分な光線追跡によりモデル化し、ここで求めたモデルに基づいて、s6で生成した中間画像を補正する処理である。
If defocusing occurs, the image processing unit 4 is affected by the defocusing. Further, the image processing unit 4 performs a defocusing correction process for correcting the influence of defocusing on the intermediate image generated in s6 (s7). In the defocus correction processing according to s7, the relationship between the light from the subject passing through the microlens 21a and reaching each pixel of the image sensor 23 is modeled by sufficient ray tracing, and based on the model obtained here, This is processing for correcting the intermediate image generated in s6.

具体的に言うと、イメージセンサ23の画素毎に、入射する各光線を逆追跡し、その光線が被写体の表面を構成する三角形のどの小領域からの光線であるかを検出する。この光線の逆追跡は、OpenGL等の3次元レンダリングライブラリを用いて行えばよい。   Specifically, for each pixel of the image sensor 23, each incident light ray is back-tracked, and it is detected from which small region of the triangle that constitutes the surface of the subject the light ray. This ray tracing may be performed using a three-dimensional rendering library such as OpenGL.

ここで、イメージセンサ23の各画素が出力する画素値は、その画素に入射する光線の光強度の和である。また、光線の光強度は、その光線を発する被写体の表面の小領域の色(輝度)によって決まる。したがって、被写体の表面の各小領域の位置を、図5(A)に示すように、(x,y)で表し、イメージセンサ23の各画素の位置を、図5(B)に示すように(a,b)で表すと、イメージセンサ23の画素i(a,b)の出力画素値I(a,b)は、被写体の表面の小領域(x,y)の輝度R(x,y)を用いれば、 Here, the pixel value output by each pixel of the image sensor 23 is the sum of the light intensities of the light rays incident on the pixel. The light intensity of the light beam is determined by the color (luminance) of a small area on the surface of the subject that emits the light beam. Therefore, the position of each small area on the surface of the subject is represented by (x, y) as shown in FIG. 5A, and the position of each pixel of the image sensor 23 is shown in FIG. 5B. In terms of (a, b), the output pixel value I (a, b) of the pixel i (a, b) of the image sensor 23 is the luminance R (x, y ) of the small area (x, y) on the surface of the subject. )

Figure 2009211254
Figure 2009211254

で表すことができる。この[数1]における、[k(a,b)(x,y)]は、小領域(x,y)の輝度R(x,y)が、画素i(a,b)の出力画素値I(a,b)に与える影響を示す係数である。ここでは、画素i(a,b)に入射する光線の本数をN本、小領域(x,y)から画素i(a,b)に入射する光線の本数を[n(a,b)(x,y)]、とした場合、
[k(a,b)(x,y)]=[n(a,b)(x,y)]/N
と定義した。この、[k(a,b)(x,y)]は、上述した光線追跡によるモデル化で得られる。
Can be expressed as In [Equation 1], [k (a, b) (x, y) ] indicates that the luminance R (x, y) of the small region (x, y) is the output pixel value of the pixel i (a, b). It is a coefficient indicating the effect on I (a, b) . Here, the number of light rays incident on the pixel i (a, b) is N, and the number of light rays incident on the pixel i (a, b) from the small region (x, y) is [n (a, b) ( x, y) ],
[K (a, b) (x, y) ] = [n (a, b) (x, y) ] / N
Defined. This [k (a, b) (x, y) ] is obtained by the modeling by ray tracing described above.

ここで、イメージセンサ23の全ての画素について、上述した[数1]が成立するR(x,y)の組が理想値である。しかし、ノイズ等による影響があることから、ほとんどの場合、イメージセンサ23の全ての画素について、[数1]が成立するR(x,y)の組が存在することは稀である。 Here, for all the pixels of the image sensor 23, a set of R (x, y) that satisfies the above-described [Equation 1] is an ideal value. However, because of the influence of noise or the like, in most cases, there is rarely a set of R (x, y) that satisfies [Equation 1] for all the pixels of the image sensor 23.

そこで、画像処理部4は、[数1]における左辺から右辺を引いて2乗したものを、全ての画素について合計した自乗誤差の合計e(R)   Therefore, the image processing unit 4 subtracts the right side from the left side in [Equation 1] and squares the sum of squared errors for all pixels, e (R)

Figure 2009211254
Figure 2009211254

が最小になるR(x,y)の組を算出する。そして、画像処理部4は、ここで求めたR(x,y)の組による画像をデフォーカス補正を行った再構成画像として生成する(s8)。 A pair of R (x, y) that minimizes is calculated. Then, the image processing unit 4 generates an image based on the set of R (x, y) obtained here as a reconstructed image subjected to defocus correction (s8).

また、[数2]では、上下左右に隣接する画素間の輝度の変化量に制限がかからないので、再構成画像にノイズ等によるエッジがあらわれる可能性がある。ここで言うエッジとは、ノイズ等によって周辺の画素間で生じる急激な変化である。   Further, in [Equation 2], there is no limit on the amount of change in luminance between pixels adjacent vertically and horizontally, and therefore an edge due to noise or the like may appear in the reconstructed image. The edge referred to here is an abrupt change that occurs between neighboring pixels due to noise or the like.

そこで、上述の[数2]を、 Therefore, the above [Equation 2] is

Figure 2009211254
Figure 2009211254

に置き換え、上下左右に隣接する画素間の輝度の変化量に制限がかかるようにしてもよい。[数3]におけるCは、再構成画像の滑らかさの度合いを示す係数として作用する。このCを小さくするにつれて、再構成画像は鮮鋭になるが、ノイズ等によるエッジがあらわれやすくなる。 Alternatively, the amount of change in luminance between adjacent pixels in the vertical and horizontal directions may be limited. C in [Formula 3] acts as a coefficient indicating the degree of smoothness of the reconstructed image. As C is reduced, the reconstructed image becomes sharper, but an edge due to noise or the like tends to appear.

さらに、上下左右に隣接する画素間だけでなく、斜めに隣接する画素間についても、輝度の変化量に制限がかかるように、、上述の[数2]、または[数3]を、   Furthermore, the above [Equation 2] or [Equation 3] is set so that the amount of change in luminance is limited not only between pixels adjacent vertically and horizontally but also between pixels adjacent obliquely.

Figure 2009211254
Figure 2009211254

に置き換えてもよい。 May be replaced.

なお、上述の[数2]、[数3]、または[数4]のいずれであっても、公知の共役勾配法等でR(x,y)の組を求めればよい。また、このときの初期値には、s6で生成した中間画像を用いればよい。 In addition, what is necessary is just to obtain | require the group of R (x, y) by a well-known conjugate gradient method etc., even if it is any of the above-mentioned [Formula 2], [Formula 3], or [Formula 4]. Further, the intermediate image generated in s6 may be used as the initial value at this time.

このように、被写体の3次元情報を用いた光線追跡により、デフォーカスが生じた光学系をモデル化し、そのモデルに基づいて再構成画像を生成する。したがって、撮像画像に含まれているデフォーカスの影響を抑えた再構成画像を生成することができる。このため、連続的な距離変化やオクルージョンを持つ被写体の撮像画像についても、高精細な再構成画像を生成することができる。   In this way, the optical system in which defocusing occurs is modeled by ray tracing using the three-dimensional information of the subject, and a reconstructed image is generated based on the model. Therefore, it is possible to generate a reconstructed image in which the influence of defocus included in the captured image is suppressed. For this reason, it is possible to generate a high-definition reconstructed image for a captured image of a subject having a continuous distance change or occlusion.

複眼撮像装置1は、s7にかかるデフォーカス補正処理を行って生成した再構成画像を出力し(s8)、本処理を終了する。   The compound-eye imaging device 1 outputs the reconstructed image generated by performing the defocus correction process in s7 (s8), and ends this process.

次に、この複眼撮像装置1で撮像した複眼画像から、再構成画像を生成する処理を、上述した[数4]を用いて行ったので、その結果について説明する。図6は、被写体の撮像環境を示す図である。被写体は、図6(A)に示す、絵画である。この絵画は、図6(B)に示すように、レンズアレイ21に対して、60度傾けた状態に配置した。また、被写体の大きさは、縦×横=10.24mm×10.24mmである。   Next, a process of generating a reconstructed image from a compound eye image captured by the compound eye imaging apparatus 1 was performed using the above [Equation 4], and the result will be described. FIG. 6 is a diagram illustrating an imaging environment of a subject. The subject is a painting shown in FIG. As shown in FIG. 6 (B), this painting was arranged in a state inclined by 60 degrees with respect to the lens array 21. The size of the subject is vertical × horizontal = 10.24 mm × 10.24 mm.

図7は、図6に示す撮像環境で撮像された複眼像である。また、図8は、s6で生成された中間画像を示している。図9、および図10は、s7にかかるデフォーカス補正処理を行った再構成画像である。図9は、[数4]におけるCを0.01とした場合であり、図10は、[数4]におけるCを0.1とした場合である。   FIG. 7 is a compound eye image captured in the imaging environment shown in FIG. FIG. 8 shows the intermediate image generated in s6. 9 and 10 are reconstructed images that have been subjected to the defocus correction process in s7. FIG. 9 shows a case where C in [Equation 4] is 0.01, and FIG. 10 shows a case where C in [Equation 4] is 0.1.

図8〜図10から明らかなように、s7にかかるデフォーカス補正処理を行うことで、高精細な再構成画像が得られることがわかる。また、Cを大きくすることにより、再構成画像のエッジが抑えられる。   As is apparent from FIGS. 8 to 10, it is understood that a high-definition reconstructed image can be obtained by performing the defocus correction processing according to s7. Also, by increasing C, the edge of the reconstructed image can be suppressed.

なお、上記実施形態では、本願発明を複眼撮像装置に適用した場合を例にして説明したが、単眼の撮像装置であっても、撮像した被写体の3次元情報が得られれば、その撮像画像を高精細化することができる。   In the above embodiment, the case where the present invention is applied to a compound-eye imaging device has been described as an example. However, even if a monocular imaging device is used, if the three-dimensional information of the captured subject is obtained, the captured image is displayed. High definition can be achieved.

複眼撮像装置の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of a compound eye imaging device. 撮像部の構成を示す分解斜視図である。It is a disassembled perspective view which shows the structure of an imaging part. 複眼画像生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a compound eye image generation apparatus. 画素再配置法を説明する図である。It is a figure explaining a pixel rearrangement method. 被写体表面の小領域の位置、およびイメージセンサの各画素の位置を説明する図である。It is a figure explaining the position of the small area on the surface of the subject and the position of each pixel of the image sensor. 被写体の撮像環境を示す図である。It is a figure which shows the imaging environment of a to-be-photographed object. 撮像された複眼像を示す図である。It is a figure which shows the imaged compound eye image. s6で生成された中間画像を示す図である。It is a figure which shows the intermediate image produced | generated by s6. s8で生成した再構成画像を示す図である。It is a figure which shows the reconstruction image produced | generated by s8. s8で生成した再構成画像を示す図である。It is a figure which shows the reconstruction image produced | generated by s8.

符号の説明Explanation of symbols

1−複眼撮像装置
2−制御部
3−撮像部
4−画像処理部
5−出力部
21−マイクロレンズアレイ
21a−マイクロレンズ
22−光学隔壁
23−イメージセンサ
1-compound eye imaging device 2-control unit 3-imaging unit 4-image processing unit 5-output unit 21-microlens array 21a-microlens 22-optical partition wall 23-image sensor

Claims (6)

複数の画素をマトリクス状に配置した撮像素子に投影された被写体の撮像画像から、その被写体の3次元情報を用いて再構成画像を生成する画像処理ユニットにおいて、
前記撮像素子に投影された被写体の3次元情報を用いた光線追跡により、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを推定する推定手段と、
被写体の表面を分割した小領域毎に、前記撮像素子の各画素の画素値と、前記推定手段の推定結果と、に基づいて、色を算出する算出手段と、
前記算出手段が算出した各小領域の色に基づいて再構成画像を生成する再構成画像生成手段と、を備えた画像処理ユニット。
In an image processing unit that generates a reconstructed image from a captured image of a subject projected on an imaging element in which a plurality of pixels are arranged in a matrix, using the three-dimensional information of the subject.
Estimating means for estimating the degree of influence of each small area obtained by dividing the surface of the subject for each pixel of the image sensor by ray tracing using the three-dimensional information of the subject projected on the image sensor;
For each small region obtained by dividing the surface of the subject, a calculation unit that calculates a color based on the pixel value of each pixel of the image sensor and the estimation result of the estimation unit;
An image processing unit comprising: a reconstructed image generating unit that generates a reconstructed image based on the color of each small region calculated by the calculating unit.
前記推定手段は、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを、その小領域から入射される光線の本数に基づいて推定する手段である、請求項1に記載の画像処理ユニット。   The estimation means is means for estimating, for each pixel of the image sensor, the degree of influence of each small area obtained by dividing the surface of the subject based on the number of light rays incident from the small area. 2. The image processing unit according to 1. 前記算出手段は、隣接する小領域間での色の変化量に制限加えて、各小領域の色を算出する手段である、請求項1、または2に記載の画像処理ユニット。   The image processing unit according to claim 1, wherein the calculation unit is a unit that calculates the color of each small region in addition to the amount of change in color between adjacent small regions. 複数のレンズを配置したレンズアレイを有し、個々のレンズが撮像素子上に投影した被写体の個眼像を撮像する撮像手段を備えた複眼撮像装置において、
請求項1〜3のいずれかに記載の画像処理ユニットを備え、
前記画像処理ユニットは、前記撮像手段が撮像した複数の個眼像を用いて、被写体の3次元情報を取得する3次元情報取得手段を備え、
前記推定手段は、前記3次元情報取得手段が取得した被写体の3次元情報を用いた光線追跡により、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを推定する手段である、複眼撮像装置。
In a compound eye imaging device having a lens array in which a plurality of lenses are arranged, and including an imaging unit that images a single-eye image of a subject projected by each lens on an imaging device,
The image processing unit according to claim 1,
The image processing unit includes a three-dimensional information acquisition unit that acquires three-dimensional information of a subject using a plurality of single-eye images captured by the imaging unit.
The estimation unit estimates a degree of influence of each small region obtained by dividing the surface of the subject for each pixel of the image sensor by ray tracing using the three-dimensional information of the subject acquired by the three-dimensional information acquisition unit. A compound eye imaging device.
複数の画素をマトリクス状に配置した撮像素子に投影された被写体の撮像画像から、その被写体の3次元情報を用いて再構成画像を生成する画像処理方法において、

前記撮像素子に投影された被写体の3次元情報を用いた光線追跡により、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを推定する推定ステップと、
被写体の表面を分割した小領域毎に、前記撮像素子の各画素の画素値と、前記推定ステップの推定結果と、に基づいて、色を算出する算出ステップと、
前記算出ステップが算出した各小領域の色に基づいて再構成画像を生成する再構成画像生成ステップと、を備えた画像処理方法。
In an image processing method for generating a reconstructed image from a captured image of a subject projected on an imaging device in which a plurality of pixels are arranged in a matrix, using the three-dimensional information of the subject,

An estimation step for estimating the degree of influence of each small area obtained by dividing the surface of the subject for each pixel of the image sensor by ray tracing using the three-dimensional information of the subject projected on the image sensor;
For each small area obtained by dividing the surface of the subject, a calculation step for calculating a color based on the pixel value of each pixel of the image sensor and the estimation result of the estimation step;
An image processing method comprising: a reconstructed image generating step for generating a reconstructed image based on the color of each small region calculated by the calculating step.
複数の画素をマトリクス状に配置した撮像素子に投影された被写体の撮像画像から、その被写体の3次元情報を用いて再構成画像を生成する処理をコンピュータに実行させる画像処理プログラムにおいて、
コンピュータを、
前記撮像素子に投影された被写体の3次元情報を用いた光線追跡により、前記撮像素子の画素毎に、被写体の表面を分割した各小領域が与える影響の度合いを推定する推定手段と、
被写体の表面を分割した小領域毎に、前記撮像素子の各画素の画素値と、前記推定手段の推定結果と、に基づいて、色を算出する算出手段と、
前記算出手段が算出した各小領域の色に基づいて再構成画像を生成する再構成画像生成手段と、して機能させる画像処理プログラム。
In an image processing program for causing a computer to execute a process of generating a reconstructed image from a captured image of a subject projected on an imaging device in which a plurality of pixels are arranged in a matrix, using the three-dimensional information of the subject.
Computer
Estimating means for estimating the degree of influence of each small area obtained by dividing the surface of the subject for each pixel of the image sensor by ray tracing using the three-dimensional information of the subject projected on the image sensor;
For each small region obtained by dividing the surface of the subject, a calculation unit that calculates a color based on the pixel value of each pixel of the image sensor and the estimation result of the estimation unit;
An image processing program that functions as a reconstructed image generating unit that generates a reconstructed image based on the color of each small region calculated by the calculating unit.
JP2008051808A 2008-03-03 2008-03-03 Image processing unit, compound eye imaging device, image processing method, and image processing program Pending JP2009211254A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008051808A JP2009211254A (en) 2008-03-03 2008-03-03 Image processing unit, compound eye imaging device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008051808A JP2009211254A (en) 2008-03-03 2008-03-03 Image processing unit, compound eye imaging device, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2009211254A true JP2009211254A (en) 2009-09-17

Family

ID=41184345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008051808A Pending JP2009211254A (en) 2008-03-03 2008-03-03 Image processing unit, compound eye imaging device, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2009211254A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2566150A2 (en) 2011-09-01 2013-03-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
JP2014017785A (en) * 2012-07-11 2014-01-30 Toshiba Corp Image processing device, image processing method, program, and imaging device
JP2017034691A (en) * 2016-09-15 2017-02-09 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2020088684A (en) * 2018-11-28 2020-06-04 株式会社アサヒ電子研究所 Compound-eye imaging apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2566150A2 (en) 2011-09-01 2013-03-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
US9055218B2 (en) 2011-09-01 2015-06-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program for combining the multi-viewpoint image data
JP2014017785A (en) * 2012-07-11 2014-01-30 Toshiba Corp Image processing device, image processing method, program, and imaging device
JP2017034691A (en) * 2016-09-15 2017-02-09 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2020088684A (en) * 2018-11-28 2020-06-04 株式会社アサヒ電子研究所 Compound-eye imaging apparatus
JP7182437B2 (en) 2018-11-28 2022-12-02 株式会社アサヒ電子研究所 Compound eye imaging device

Similar Documents

Publication Publication Date Title
JP6570327B2 (en) Control device, imaging device, control method, program, and storage medium
TWI510086B (en) Digital refocusing method
EP2403233B1 (en) Image processing apparatus and method
JP5342036B2 (en) Method for capturing 3D surface shapes
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
JP6509914B2 (en) Image sensor for depth estimation
JP6585006B2 (en) Imaging device and vehicle
JP6786225B2 (en) Image processing equipment, imaging equipment and image processing programs
JP2008242658A (en) Three-dimensional object imaging apparatus
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP2010057067A (en) Image pickup apparatus and image processing apparatus
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
JP4843544B2 (en) 3D image correction method and apparatus
KR20100040643A (en) Apparatus and method for processing image to generate high resolution image
JP5452801B2 (en) Stereoscopic image generating apparatus and program thereof
JP2015046019A (en) Image processing device, imaging device, imaging system, image processing method, program, and storage medium
JP2013153408A (en) Image processing apparatus, imaging apparatus, image generation method and program
US9538074B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP6353233B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2010049152A (en) Focus information detecting device
JP2009211254A (en) Image processing unit, compound eye imaging device, image processing method, and image processing program
JP2015188251A (en) Image processing system, imaging apparatus, image processing method, and program
JP5900017B2 (en) Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program
CN111127379B (en) Rendering method of light field camera 2.0 and electronic equipment
JP6362070B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium