JP2013026666A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2013026666A
JP2013026666A JP2011156631A JP2011156631A JP2013026666A JP 2013026666 A JP2013026666 A JP 2013026666A JP 2011156631 A JP2011156631 A JP 2011156631A JP 2011156631 A JP2011156631 A JP 2011156631A JP 2013026666 A JP2013026666 A JP 2013026666A
Authority
JP
Japan
Prior art keywords
pixel
image
usage rate
projection area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011156631A
Other languages
Japanese (ja)
Other versions
JP5743769B2 (en
Inventor
Eiei Han
盈盈 范
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011156631A priority Critical patent/JP5743769B2/en
Publication of JP2013026666A publication Critical patent/JP2013026666A/en
Application granted granted Critical
Publication of JP5743769B2 publication Critical patent/JP5743769B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To compose a sharp image from a multi-viewpoint image.SOLUTION: In composing a plurality of input images captured at multiple viewpoints to generate a new image, a usage rate for the composition is set for each pixel among pixels included in a projection area on a virtual sensor determined depending on the position of a subject to be focused by the composition for each input image. The values of pixels in the input images overlapping a pixel position in a composite image are multiplied by usage rates, averaged, and used as a pixel value of the composite image, thereby obtaining a sharp composite image.

Description

本発明は、多数視点から撮影された画像を用いて新たな画像を生成する技術に関する。   The present invention relates to a technique for generating a new image using images taken from multiple viewpoints.

従来のカメラでは、光線はカメラのレンズを通過して、ディジタルセンサ上の一点に集まる。そこでカメラは光の強度を取得するが、光が入ってくる方向については、情報を得ることができない。   In a conventional camera, light rays pass through the camera lens and collect at a point on the digital sensor. The camera acquires the light intensity, but cannot obtain information about the direction in which the light enters.

近年、レン・イング氏が考案したライトフィールドカメラがある(非特許文献1)。ライトフィールドカメラでは、メインレンズとセンサの間に複数のマイクロレンズを配置することにより、入射する全ての光線の強度を取得し、光線の方向も記録できる。このようなカメラを用いて、撮影後、画像処理によって異なる奥行きの被写体にそれぞれのピントが合った画像を得るライトフィールドフォトグラフィという技術が発展している。   In recent years, there is a light field camera devised by Ren Ing (Non-Patent Document 1). In a light field camera, by arranging a plurality of microlenses between a main lens and a sensor, the intensity of all incident light rays can be acquired and the direction of the light rays can also be recorded. A technique called light field photography has been developed that uses such a camera to obtain an image in which each subject is in focus with a different depth by image processing after shooting.

ライトフィールドフォトグラフィでは、多視点の画像から、空間中の複数の位置について通過する光線の方向と強度(ライトフィールド、以降LFと略記)を計算する。そしてLFの情報を用いて仮想の光学系を通過し、仮想のセンサに結像した場合の画像を計算する。この仮想の光学系や、仮想のセンサを適宜設定することで、前述した撮影後のピント調整が可能になる。以降では、多視点の画像から仮想のセンサが得る画像が計算する処理をリフォーカス処理と呼ぶ。   In light field photography, the direction and intensity of light passing through a plurality of positions in space (light field, hereinafter abbreviated as LF) are calculated from multi-viewpoint images. Then, using the LF information, an image when passing through the virtual optical system and forming an image on the virtual sensor is calculated. By appropriately setting the virtual optical system and the virtual sensor, the above-described focus adjustment after photographing can be performed. Hereinafter, the process of calculating the image obtained by the virtual sensor from the multi-viewpoint image is referred to as a refocus process.

LFを取得するための撮像装置としてはメインレンズの後ろにマイクロレンズアレイを置いたPlenoptic Cameraや、小型のカメラを並べたカメラアレイが知られている。いずれも被写体を異なる方向から撮影した多視点画像を一回の撮影で得ることができる。   As an imaging device for acquiring LF, a Plenoptic Camera in which a microlens array is placed behind a main lens and a camera array in which small cameras are arranged are known. In any case, a multi-viewpoint image obtained by shooting the subject from different directions can be obtained by one shooting.

リフォーカス処理としては、取得した多視点の画像を1つの仮想センサ上に射影変換し、画素値を平均化することが知られている(特許文献1)。   As the refocus processing, it is known to project-convert the acquired multi-viewpoint image onto one virtual sensor and average the pixel values (Patent Document 1).

リフォーカス処理では仮想センサ上の画素の値を、多視点画像の対応画素を用いて平均計算をする。通常、仮想センサ上の1画素には、多視点画像の複数の画素が対応している。   In the refocus processing, the pixel values on the virtual sensor are averaged using the corresponding pixels of the multi-viewpoint image. Usually, a plurality of pixels of a multi-viewpoint image correspond to one pixel on the virtual sensor.

特願2008-541051Japanese Patent Application 2008-541051

R.NG, M.Levoy, M.Bredif, G.Duval, M. Horowitz, P.Hanrahan著「Light Field Photography with a Hand-held Plenoptic Camera」(Stanford Tech Report CTSR 2005-02, 2005)`` Light Field Photography with a Hand-held Plenoptic Camera '' by R.NG, M.Levoy, M.Bredif, G.Duval, M. Horowitz, P. Hanrahan (Stanford Tech Report CTSR 2005-02, 2005)

しかしながら、特許文献1の方法では、入力画像の画素に対応する仮想センサ上の画素の全ての領域を用いて平均が求められ、多数の画像の画素値が平均化される結果、リフォーカス画像の鮮鋭性が低下してしまうという課題がある。詳細は後述する。   However, in the method of Patent Document 1, the average is obtained using all the regions of the pixels on the virtual sensor corresponding to the pixels of the input image, and the pixel values of many images are averaged. There exists a subject that sharpness will fall. Details will be described later.

本発明に係る画像処理装置は、多視点で撮影された複数枚の入力画像を合成するための画像処理装置であって、センサ上の1画素に対応する領域であって、前記合成によりフォーカスされる被写体の位置に応じて定まる仮想センサ上に投影される領域である投影領域に含まれる複数の画素のそれぞれの画素に対して、前記合成のための使用率を設定する使用率設定手段を備えることを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus for combining a plurality of input images taken from multiple viewpoints, and is an area corresponding to one pixel on a sensor, and is focused by the combining. Usage rate setting means for setting a usage rate for the synthesis for each of a plurality of pixels included in a projection area that is an area projected onto a virtual sensor determined according to the position of the subject to be synthesized It is characterized by that.

本発明によれば、多視点画像から鮮鋭な画像を合成可能な画像処理装置および画像処理方法を提供する事ができる。   According to the present invention, it is possible to provide an image processing apparatus and an image processing method capable of synthesizing a sharp image from multi-viewpoint images.

画像処理装置の装置構成を表すブロック図である。It is a block diagram showing the apparatus structure of an image processing apparatus. 信号処理部を表すブロック図である。It is a block diagram showing a signal processing part. 通常の撮像光学系の構成を表す図である。It is a figure showing the structure of a normal imaging optical system. 撮像部の構成の第1の例を表す図である。It is a figure showing the 1st example of a structure of an imaging part. 撮像部の構成の第2の例を表す図である。It is a figure showing the 2nd example of a structure of an imaging part. 実施例1における画像合成部の構成を示すブロック図である。3 is a block diagram illustrating a configuration of an image composition unit in Embodiment 1. FIG. 実施例1における処理を示すフローチャートである。3 is a flowchart illustrating processing in the first embodiment. 入力画像の画素位置と合成画像における画素位置の対応を表す図The figure showing the correspondence between the pixel position of the input image and the pixel position in the composite image 投影領域の使用率係数を表す図である。It is a figure showing the utilization factor of a projection area | region. 複数枚入力画像の画素位置と合成画像における画素位置の対応を表す図である。It is a figure showing a response | compatibility of the pixel position of a several sheets input image, and the pixel position in a synthesized image. 実施例2における画素値合成部の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a pixel value synthesis unit according to a second embodiment. 実施例2における処理を示すフローチャートである。10 is a flowchart illustrating processing in the second embodiment. 実施例3における投影領域使用率設定部の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a projection area usage rate setting unit in Embodiment 3. 実施例3における処理を示すフローチャートである。10 is a flowchart illustrating processing in the third embodiment. 実施例1における効果の例を示す図である。It is a figure which shows the example of the effect in Example 1. FIG. 実施例3における画素飛びのイメージ図である。FIG. 10 is an image diagram of pixel skip in Example 3.

以下に、図面を参照して、本発明の実施形態を詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the constituent elements described in this embodiment are merely examples, and are not intended to limit the scope of the present invention.

本実施例では、合成画像の鮮鋭性を向上させることを目的とする。   The present embodiment aims to improve the sharpness of a composite image.

<カメラシステム構成>
図1は、本実施例における画像処理装置の構成の一例を示す図である。
<Camera system configuration>
FIG. 1 is a diagram illustrating an example of a configuration of an image processing apparatus according to the present exemplary embodiment.

撮像部101は、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、iRカットフィルタ、カラーフィルタ、及び、CMOSやCCDなどのセンサから構成され、被写体の光量を検知する。撮像部101の構成は後述する。   The imaging unit 101 includes a zoom lens, a focus lens, a shake correction lens, an aperture, a shutter, an optical low-pass filter, an iR cut filter, a color filter, and sensors such as CMOS and CCD, and detects the amount of light of the subject. The configuration of the imaging unit 101 will be described later.

A/D変換部102は、被写体の光量をデジタル値に変換する。信号処理部103は、上記デジタル値にホワイトバランス処理、ガンマ処理、ノイズ低減処理などを行い、デジタル画像を生成する。D/A変換部104は、上記デジタル画像に対してアナログ変換を行う。エンコーダ部105は、上記デジタル画像をJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。メディアインターフェース106は、PCその他メディア(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)を画像処理装置に接続するためのインターフェースである。   The A / D conversion unit 102 converts the amount of light of the subject into a digital value. The signal processing unit 103 performs white balance processing, gamma processing, noise reduction processing, and the like on the digital value to generate a digital image. The D / A conversion unit 104 performs analog conversion on the digital image. The encoder unit 105 performs processing for converting the digital image into a file format such as JPEG or MPEG. The media interface 106 is an interface for connecting a PC or other media (eg, hard disk, memory card, CF card, SD card, USB memory) to the image processing apparatus.

CPU107は、ROM108やRAM109に格納された命令を順に読み込み、解釈し、その結果に従って、各構成による処理の制御を行う。またROM108とRAM109は、その処理に必要なプログラム、データ、作業領域などをCPU107に提供する。   The CPU 107 sequentially reads and interprets instructions stored in the ROM 108 and the RAM 109, and controls processing by each component according to the result. The ROM 108 and the RAM 109 provide the CPU 107 with programs, data, work areas, and the like necessary for the processing.

撮像系制御部110は、フォーカスを合わせる、シャッターを開く、絞りを調節するなど、CPU107からの制御命令に従って撮像系の制御を行う。   The imaging system control unit 110 controls the imaging system in accordance with control commands from the CPU 107, such as focusing, opening a shutter, and adjusting an aperture.

操作部111は、ボタンやモードダイヤルなどが該当し、これらを介して入力されたユーザ指示を受け取る。なお画像撮影後に合成画像を生成する際のリフォーカス位置の指示も受け取る。   The operation unit 111 corresponds to a button, a mode dial, and the like, and receives a user instruction input via these buttons. An instruction for a refocus position when generating a composite image after image capture is also received.

キャラクタージェネレーション112は、文字やグラフィックなどを生成する。
表示部113は、一般的には液晶ディスプレイを用いて構成される。表示部113は、キャラクタージェネレーション部112やD/A変換部102から受け取った撮影画像や文字の表示を行う。また、表示部113は、タッチスクリーン機能を有していても良く、その場合は、タッチスクリーン機能を介したユーザからの指示を操作部111による入力として扱うことも可能である。
The character generation 112 generates characters and graphics.
The display unit 113 is generally configured using a liquid crystal display. The display unit 113 displays captured images and characters received from the character generation unit 112 and the D / A conversion unit 102. Further, the display unit 113 may have a touch screen function, and in that case, an instruction from the user via the touch screen function can be handled as an input by the operation unit 111.

なお、装置の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。   In addition, although the component of an apparatus exists other than the above, since it is not the main point of this invention, description is abbreviate | omitted.

また、本発明の構成要素は、複数の機器から構成されるシステムに適用しても、一つの機器からなる装置に適用しても良い。本発明の目的は、前述及び後述の実施形態の機能を実現するプログラムをシステムのコンピュータ(またはCPUまたはMPU)が実行しても達成される。この場合、プログラム自体が前述した実施形態の機能を実現することになり、そのプログラムを記憶した記憶媒体は本発明を構成することになる。プログラムコードを供給するための記憶媒体としては、例えば、フロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のデータ保存部、ROMなどを用いることが出来る。   In addition, the constituent elements of the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. The object of the present invention can be achieved even when a computer (or CPU or MPU) of the system executes a program that realizes the functions of the above-described embodiments described later. In this case, the program itself realizes the functions of the above-described embodiments, and the storage medium storing the program constitutes the present invention. As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile data storage unit, a ROM, or the like can be used. .

また、コンピュータが読み出したプログラムを実行することにより、前述及び後述の実施形態の機能が実現されるだけではない。そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部を行い、その処理によって前述及び後述の実施形態の機能が実現される場合も含まれることは言うまでもない。さらに、プログラムの指示内容をシステムの機能拡張ボードに備わるCPUなどが実行し、その処理で前述及び後述の実施形態の機能が実現される場合も含まれることは言うまでもない。   In addition, the functions of the above-described and below-described embodiments are not only realized by executing the program read by the computer. It goes without saying that an OS running on a computer performs a part of the actual processing based on the instructions of the program, and the functions of the above-described and below-described embodiments are realized by the processing. Furthermore, it goes without saying that the instruction contents of the program are executed by a CPU or the like provided in the function expansion board of the system, and the processing of the above-described and later-described embodiments is realized by the processing.

本実施例における画像合成処理は、信号処理部103において実行されることが好適である。   The image composition processing in the present embodiment is preferably executed by the signal processing unit 103.

図2に信号処理部103の構成を示す。図2に示す信号処理部では入力のデジタル画像に対して、画質向上のため様々な処理が行われる。例えば、画像の鮮鋭性を向上させるためのエッジ強調処理や、色再現性を向上させるための色変換処理などである。本実施例の画像合成処理は、信号処理部における各種の処理の中の一つとして実施されることが好適である。図2に示す信号処理部の構成では、他の処理より先に画像合成が処理されるよう記述しているが、本発明はかかる構成に限定されるものではない。例えば、ノイズ低減処理を行った後で画像合成処理を行っても良い。画像合成部201の詳細は後述する。   FIG. 2 shows the configuration of the signal processing unit 103. In the signal processing unit shown in FIG. 2, various processes are performed on the input digital image to improve the image quality. For example, edge enhancement processing for improving the sharpness of an image, color conversion processing for improving color reproducibility, and the like. The image composition processing of the present embodiment is preferably performed as one of various types of processing in the signal processing unit. In the configuration of the signal processing unit shown in FIG. 2, it is described that the image synthesis is processed before other processing, but the present invention is not limited to such configuration. For example, the image composition process may be performed after the noise reduction process. Details of the image composition unit 201 will be described later.

<リフォーカスの原理>
図3に通常の撮像光学系の構成を示す。なお図3では、iRカットフィルタ、ズームレンズ、絞りなどの構成については、図示を省略している。また、図3では、詳細なレンズの構成は示されておらず、レンズ群の代表として、メインレンズ303のみ示されている。
<Refocusing principle>
FIG. 3 shows the configuration of a normal imaging optical system. In FIG. 3, illustrations of configurations such as an iR cut filter, a zoom lens, and a diaphragm are omitted. Further, in FIG. 3, the detailed lens configuration is not shown, and only the main lens 303 is shown as a representative of the lens group.

図3ではピントがずれてしまった場合の撮像光学系の様子を表す。物点301からの光はメインレンズ303で集光され、センサ302の一部領域305に到達する。この時、メインレンズ303で集光された光は一点に結像する前にセンサ302に到達する。そのため、センサ302の一部領域305では、物点301の像が広がって記録されてしまい、撮像画像がぼけてしまう。鮮鋭性の高い画像を得たい場合には、ピント位置を調整し、物点301がセンサ302上の一点に結像されるようにして再度撮影を行う必要がある。   FIG. 3 shows the state of the imaging optical system when the focus is shifted. Light from the object point 301 is collected by the main lens 303 and reaches a partial region 305 of the sensor 302. At this time, the light condensed by the main lens 303 reaches the sensor 302 before forming an image at one point. For this reason, in the partial area 305 of the sensor 302, the image of the object point 301 is spread and recorded, and the captured image is blurred. In order to obtain an image with high sharpness, it is necessary to adjust the focus position and perform imaging again so that the object point 301 is focused on one point on the sensor 302.

図4は、本実施例における撮像部101の構成の第一の例を示す。図4において物点401からの光はメインレンズ403により集光されるが、結像する前にマイクロレンズアレイ406を通過してセンサ405により記録される。1つのマイクロレンズにより生成されるセンサ上の光学像は物点401を異なる方向から観察した画像となるため、センサ405では多視点の画像が一枚の画像として記録される。ここで、センサ405上の画素412の画素値は光線411の強度に応じて値が記録される。マイクロレンズアレイ406を通過した光線群を延長したときの仮想センサI407における光強度、及び仮想センサII408における光強度をそれぞれ平均すると、それぞれの仮想センサに記録される画像を計算により求めることができる。仮想センサI407での画像を計算すると、物点401の光は広がり、図3に示すようなピント調整を誤った画像が得られる。仮想センサII408での画像を計算すると物点401から出た光が一点に集まり、ピントが合った画像が得られる。   FIG. 4 shows a first example of the configuration of the imaging unit 101 in the present embodiment. In FIG. 4, the light from the object point 401 is collected by the main lens 403, but is recorded by the sensor 405 through the microlens array 406 before being imaged. Since the optical image on the sensor generated by one microlens is an image obtained by observing the object point 401 from different directions, the sensor 405 records a multi-viewpoint image as a single image. Here, the pixel value of the pixel 412 on the sensor 405 is recorded according to the intensity of the light beam 411. When the light intensity in the virtual sensor I407 and the light intensity in the virtual sensor II408 are averaged when the light beam group that has passed through the microlens array 406 is extended, an image recorded in each virtual sensor can be obtained by calculation. When the image at the virtual sensor I407 is calculated, the light at the object point 401 spreads and an image with incorrect focus adjustment as shown in FIG. 3 is obtained. When the image of the virtual sensor II 408 is calculated, the light emitted from the object point 401 gathers at one point, and an in-focus image is obtained.

図5は撮像部101の構成の第二の例を示す。図5では、撮像部101は複数の撮像ユニットにより構成される。物点501からの光は撮像ユニットの複数のセンサにより記録される。例えばセンサ上の502の画素は光線503の強度を記録している。物体側に仮想センサを置いた場合を考え、光線群を仮想センサの方向へ延長し、仮想センサにおいて光線強度を平均する。すると、仮想センサI508において計算される画像は物点501がぼけた画像であり、仮想センサII509において計算される画像は物点501にピントが合った画像が得られる。   FIG. 5 shows a second example of the configuration of the imaging unit 101. In FIG. 5, the imaging unit 101 includes a plurality of imaging units. Light from the object point 501 is recorded by a plurality of sensors of the imaging unit. For example, 502 pixels on the sensor record the intensity of the light beam 503. Considering the case where a virtual sensor is placed on the object side, the light beam group is extended in the direction of the virtual sensor, and the light intensity is averaged in the virtual sensor. Then, the image calculated by the virtual sensor I508 is an image in which the object point 501 is blurred, and the image calculated by the virtual sensor II 509 is an image in which the object point 501 is in focus.

以上述べた通り、撮像部101の第一の例、第二の例ともに被写体を複数の異なる角度から撮影した多視点画像が得られる。またリフォーカス処理は第一、第二の例ともに多視点画像から得られる光線情報を元に仮想のセンサが受光する光を計算する処理である。その際、仮想センサの位置を調整して計算することがピント位置を調整することに相当する。以上が撮像後にピント位置調整した画像を計算により得るリフォーカスの原理である。   As described above, in both the first example and the second example of the imaging unit 101, a multi-viewpoint image obtained by photographing the subject from a plurality of different angles can be obtained. The refocus processing is processing for calculating light received by the virtual sensor based on the light ray information obtained from the multi-viewpoint image in both the first and second examples. At that time, adjusting the position of the virtual sensor and calculating it corresponds to adjusting the focus position. The above is the principle of refocus for obtaining an image whose focus position is adjusted after imaging.

<画像合成部の構成と処理>
図6は画像合成部201の詳細な構成を示すブロック図である。また、図6に示す画像合成部201の動作を図7に示すフローチャートを用いて説明する。画像合成部201全体の動作としては、画像合成部201は入力画像をA/D変換部102から順次に取得し、合成画像の画素値の計算が終了次第、画素値をノイズ低減処理部へ出力する。
<Configuration and processing of image composition unit>
FIG. 6 is a block diagram showing a detailed configuration of the image composition unit 201. 6 will be described with reference to the flowchart shown in FIG. As the overall operation of the image composition unit 201, the image composition unit 201 sequentially acquires input images from the A / D conversion unit 102, and outputs the pixel values to the noise reduction processing unit as soon as the calculation of the pixel values of the composite image is completed. To do.

以降では説明を簡単にするため、入力画像を一次元として説明する。
まず、ステップS701では、入力画素取得部603が、メモリ602とバスから、入力画像上にある入力画素値とその画素位置を取得する。メモリ602は入力画像を一時保存する。保存された入力画像は、前記入力画素取得部603及び画素値合成部607で処理を行う際に必要に応じて読み出される。
Hereinafter, in order to simplify the description, the input image is described as one-dimensional.
First, in step S701, the input pixel acquisition unit 603 acquires an input pixel value and its pixel position on the input image from the memory 602 and the bus. The memory 602 temporarily stores the input image. The stored input image is read out as necessary when the input pixel acquisition unit 603 and the pixel value synthesis unit 607 perform processing.

ステップS702では、仮想センサ位置取得部604が、バスからリフォーカス位置を取得して、リフォーカス位置を用いてROM108を参照して仮想センサ位置を取得する。   In step S702, the virtual sensor position acquisition unit 604 acquires the refocus position from the bus, and acquires the virtual sensor position by referring to the ROM 108 using the refocus position.

ここで、リフォーカス位置は、ユーザからの指示に応じて操作部111及びバスを介して、仮想センサ位置取得部604へ入力される。仮想センサ位置は、あらかじめ光学シミュレーションによって、あるフォーカス距離に存在する被写体が鮮明に結像するような位置を仮想センサ位置として求めて、ROM108に保持される。仮想センサ位置取得部604は、リフォーカス位置を用いてROM108を適宜参照することで仮想センサ位置を取得する。   Here, the refocus position is input to the virtual sensor position acquisition unit 604 via the operation unit 111 and the bus in accordance with an instruction from the user. The virtual sensor position is stored in the ROM 108 by obtaining a position at which a subject existing at a certain focus distance forms a clear image as a virtual sensor position by optical simulation in advance. The virtual sensor position acquisition unit 604 acquires the virtual sensor position by appropriately referring to the ROM 108 using the refocus position.

本実施例では、入力画像を記録するセンサ405とマイクロレンズの距離をfrealと示し、リフォーカス画像を記録する仮想センサ(407又は408)とマイクロレンズの距離をfvirtualと示す。仮想センサ位置はリフォーカス位置によって変わるため、fvirtualはリフォーカス位置に応じて設定される。 In this embodiment, the distance between the sensor 405 that records the input image and the microlens is indicated as f real, and the distance between the virtual sensor (407 or 408) that records the refocused image and the microlens is indicated as f virtual . Since the virtual sensor position varies depending on the refocus position, f virtual is set according to the refocus position.

ステップs703では、投影領域の端点算出部605が、入力画素、入力画素位置と仮想センサ位置を用いて、仮想センサ上の投影領域の端点を計算する。図8(a)には、本実施例における投影領域の端点806がP1とP2で示されている。P1とP2の座標を求める方法は投影領域の端点算出部605の詳細説明で後述する。投影領域とは、センサ画素に対応する仮想センサ上の領域であり、投影領域の端点に囲まれる領域である。図8(a)には、本実施例における投影領域808が示されている。仮想センサ803上に拡大して投影された投影領域は、センサ画素804と同じサイズで均等に分割される。図8(b)を参照すると、投影領域808には複数の画素が存在することが分かる。   In step s703, the projection area endpoint calculation unit 605 calculates the projection area endpoint on the virtual sensor using the input pixel, the input pixel position, and the virtual sensor position. In FIG. 8A, the end points 806 of the projection area in this embodiment are indicated by P1 and P2. A method for obtaining the coordinates of P1 and P2 will be described later in the detailed description of the endpoint calculation unit 605 of the projection area. The projection area is an area on the virtual sensor corresponding to the sensor pixel, and is an area surrounded by the end points of the projection area. FIG. 8A shows a projection area 808 in this embodiment. The projection area projected on the virtual sensor 803 in an enlarged manner is equally divided into the same size as the sensor pixel 804. Referring to FIG. 8B, it can be seen that there are a plurality of pixels in the projection region 808.

すなわち、投影領域とは、センサ上の1画素に対応する領域であり、合成によりフォーカスされる位置(リフォーカス位置)に応じて定まる仮想センサ上に投影される領域である。投影領域には、複数の画素が含まれる。   That is, the projection area is an area corresponding to one pixel on the sensor, and is an area projected on a virtual sensor determined according to a position focused by synthesis (refocus position). The projection area includes a plurality of pixels.

ステップs704では、投影領域使用率設定部606が、画像合成のために使用される仮想センサ上の投影領域の使用率を設定する。従来手法では、画像合成のために、投影領域の全体が使用される。本実施例は、投影領域の各画素に対して、使用率を設定し、この使用率に応じて画像合成を行う。その結果、本実施例による画像合成によれば、複数画像の画素値を平均化することによる画像の鮮鋭性の低下を低減することができる。   In step s704, the projection area usage rate setting unit 606 sets the usage ratio of the projection area on the virtual sensor used for image synthesis. In the conventional method, the entire projection region is used for image synthesis. In this embodiment, a usage rate is set for each pixel in the projection area, and image composition is performed in accordance with the usage rate. As a result, according to the image composition according to the present embodiment, it is possible to reduce a reduction in image sharpness caused by averaging pixel values of a plurality of images.

詳細は後述するが、本実施例の処理では、投影領域の画素に0〜1の係数を掛けることによって、投影領域の使用率の制御を実現する。その係数は投影領域使用率と呼び、決め方については投影領域使用率設定部606の詳細説明で後述する。   Although details will be described later, in the processing of the present embodiment, the usage rate of the projection area is controlled by multiplying the pixels of the projection area by a coefficient of 0 to 1. The coefficient is called a projection area usage rate, and how to determine the coefficient will be described later in the detailed description of the projection area usage rate setting unit 606.

ステップs705では、画素値合成部607が、複数枚の入力画像について、投影領域の画素を投影領域使用率に掛けて、合成画像の画素位置に重なった画素を平均して合成画像の画素値を計算して出力する。複数枚の入力画像の画素があるため、それぞれの入力画素に対応する投影領域が存在する。そのため、合成画像の画素位置に複数の投影領域の画素が重なる。合成画像の画素値は、複数の入力画素の投影領域にある画素値に対して、対応する投影領域使用率を掛け、合成画像の画素位置に重なった複数の画素の画素値の平均をとって求められる。   In step s705, the pixel value composition unit 607 multiplies the pixels in the projection area by the projection area usage rate for a plurality of input images, and averages the pixels that overlap the pixel positions in the composite image to obtain the pixel values of the composite image. Calculate and output. Since there are a plurality of input image pixels, there is a projection area corresponding to each input pixel. For this reason, pixels in a plurality of projection regions overlap with pixel positions of the composite image. The pixel value of the composite image is obtained by multiplying the pixel value in the projection area of the plurality of input pixels by the corresponding projection area usage rate and averaging the pixel values of the plurality of pixels overlapping the pixel position of the composite image. Desired.

<投影領域の端点算出部の詳細な動作>
投影領域の端点算出部605の詳細な動作について、図8を用いて説明する。
図8(a)において、符号801は被写体(物点)、符号802はセンサ、符号803は仮想センサを表す。符号804はセンサ802上の1画素を表し、符号805はマイクロレンズの光軸を表す。符号806はセンサ画素804を仮想センサ803上に投影した場合の投影領域の端点P1,P2を表す。符号808はセンサ画素804を仮想センサ803上に投影した場合の投影領域を表す。
<Detailed Operation of Projection Area Endpoint Calculation Unit>
A detailed operation of the projection area end point calculation unit 605 will be described with reference to FIG.
In FIG. 8A, reference numeral 801 represents a subject (object point), reference numeral 802 represents a sensor, and reference numeral 803 represents a virtual sensor. Reference numeral 804 represents one pixel on the sensor 802, and reference numeral 805 represents an optical axis of the microlens. Reference numeral 806 represents the end points P1 and P2 of the projection area when the sensor pixel 804 is projected onto the virtual sensor 803. Reference numeral 808 represents a projection area when the sensor pixel 804 is projected onto the virtual sensor 803.

センサ画素804は、マイクロレンズの光学中心805を基準に仮想センサ803に投影され、投影領域808の端点806と投影領域808が形成される。   The sensor pixel 804 is projected onto the virtual sensor 803 with reference to the optical center 805 of the microlens, and an end point 806 and a projection area 808 of the projection area 808 are formed.

図8(a)より、投影領域808はセンサ画素804のfvirtual/freal 倍になる。投影領域の端点算出部605は、式1、2に従って投影領域の端点806(P1、P2)のx座標を計算する。 From FIG. 8A, the projection area 808 is f virtual / f real times the sensor pixel 804. The projection area end point calculation unit 605 calculates the x coordinate of the projection area end point 806 (P1, P2) according to Equations 1 and 2.

Figure 2013026666
Figure 2013026666

Figure 2013026666
Figure 2013026666

なお、lは隣接するマイクロレンズの光軸の間の距離である。xは入力画素位置の中心からメインレンズの光軸との距離である。sはセンサ画素804のサイズである。P1及びP2を含む端点で囲まれた画素範囲が投影領域である。換言すれば、投影領域の端点算出部605は、P1、P2の座標を算出することにより、合成画像の領域を決めていると言える。   Here, l is the distance between the optical axes of adjacent microlenses. x is the distance from the center of the input pixel position to the optical axis of the main lens. s is the size of the sensor pixel 804. A pixel range surrounded by end points including P1 and P2 is a projection region. In other words, it can be said that the projection area end point calculation unit 605 determines the area of the composite image by calculating the coordinates of P1 and P2.

図8(b)は入力画像を二次元で示したイメージ図である。図8(b)において、センサ上の1画素804が、仮想センサ上では拡大されて投影領域808として投影されていることが分かる。二次元の場合、投影領域の端点算出部605は図8(b)仮想センサ803上の投影領域808の四隅809P1、P2、P3、P4の座標を計算する。   FIG. 8B is an image diagram showing the input image in two dimensions. In FIG. 8B, it can be seen that one pixel 804 on the sensor is enlarged and projected as a projection region 808 on the virtual sensor. In the two-dimensional case, the projection area end point calculation unit 605 calculates the coordinates of the four corners 809P1, P2, P3, and P4 of the projection area 808 on the virtual sensor 803 in FIG.

<投影領域使用率設定部の詳細な動作>
図9と図10を参照して、投影領域使用率設定部606の詳細な動作について具体例を用いて説明する。
<Detailed Operation of Projection Area Usage Rate Setting Unit>
The detailed operation of the projection area usage rate setting unit 606 will be described using a specific example with reference to FIGS. 9 and 10.

図9に投影領域808の使用率の具体例を示す。本実施例では、fvirtual/freal は5になるものとする。センサ画素804は仮想センサ803に5×5倍に拡大されて投影される。仮想センサ803に拡大された投影領域をセンサ画素804のサイズで分割し、(fvirtual/freal )2(今回の例では5×5)の画素が投影領域にある。これらの画素のそれぞれに投影領域使用率を乗算する。 FIG. 9 shows a specific example of the usage rate of the projection area 808. In this embodiment, f virtual / f real is assumed to be 5. The sensor pixel 804 is projected on the virtual sensor 803 after being magnified 5 × 5 times. The projection area enlarged to the virtual sensor 803 is divided by the size of the sensor pixel 804, and (f virtual / f real ) 2 (5 × 5 in this example) pixels are in the projection area. Each of these pixels is multiplied by the projection area utilization.

投影領域使用率の例を図9(a)に示す。符号901は従来法の使用率である。従来はセンサ画素804を単純に5×5倍して、投影領域808にある全ての画素を合成画像の画素値の計算に使ったため、投影領域使用率は全て1になっている。   An example of the projection area usage rate is shown in FIG. Reference numeral 901 denotes the usage rate of the conventional method. Conventionally, the sensor pixel 804 is simply multiplied by 5 × 5, and all the pixels in the projection area 808 are used to calculate the pixel value of the composite image, so that the projection area usage rate is all 1.

符号902は本実施例の投影領域使用率の例である。この例では、投影領域内における外周画素(投影領域の枠上の画素)の投影領域使用率が0に設定されている。符号902のように設定された投影領域使用率を用いることで、仮想センサに投影する領域の有効範囲を符号901の場合に比べて縮小することになる。すなわち符号902の例では、投影領域の有効範囲は、投影領域使用率が1に設定されている9画素である。   Reference numeral 902 is an example of the projection area usage rate of the present embodiment. In this example, the projection area usage rate of the outer peripheral pixels (pixels on the frame of the projection area) in the projection area is set to zero. By using the projection area usage rate set as indicated by reference numeral 902, the effective range of the area projected onto the virtual sensor is reduced as compared with the case of reference numeral 901. That is, in the example of reference numeral 902, the effective range of the projection area is 9 pixels with the projection area usage rate set to 1.

符号902の例では使用率を0と1のみで構成したが、符号903に示すように、0と1の間の値を持たせても構わない。   In the example of reference numeral 902, the usage rate is configured by only 0 and 1. However, as indicated by reference numeral 903, a value between 0 and 1 may be provided.

このように符号902及び903の例では、投影領域の中心画素からの距離に応じて、異なる投影領域使用率を画素に対して設定している。また、中心に近い画素ほど高い投影領域使用率が設定されている。   As described above, in the examples indicated by reference numerals 902 and 903, different projection area usage rates are set for the pixels in accordance with the distance from the center pixel of the projection area. Also, a higher projection area usage rate is set for pixels closer to the center.

図9(b)の符号904、905、906はそれぞれ、符号901、902、903を作成するための関数である。横軸はセンサ画素804単位の画素位置を示しており、縦軸はそれぞれの画素の使用率を示している。このように任意の関数を使用して投影領域使用率を生成することも可能である。   Reference numerals 904, 905, and 906 in FIG. 9B are functions for creating the reference numerals 901, 902, and 903, respectively. The horizontal axis indicates the pixel position of the sensor pixel 804 unit, and the vertical axis indicates the usage rate of each pixel. Thus, it is also possible to generate the projection area usage rate using an arbitrary function.

符号904、905、906のそれぞれの関数を式3,式4,式5に具体的に示す。   The respective functions of reference numerals 904, 905, and 906 are specifically shown in Expression 3, Expression 4, and Expression 5.

Figure 2013026666
Figure 2013026666

Figure 2013026666
Figure 2013026666

Figure 2013026666
Figure 2013026666

式4のR1とR2は任意の値を取ることができる。式5のμはここでは
0.5×fvirtual/freal であるとし、σは任意の値である。
R1 and R2 in Equation 4 can take arbitrary values. Μ in Equation 5 is here
It is assumed that 0.5 × f virtual / f real , and σ is an arbitrary value.

前述したように、仮想センサ上の合成画像の1画素をセンサ画素804の画素サイズで分割し、分割した画素ごとに投影領域使用率を乗算することにより投影領域808の有効範囲を決定する。   As described above, one pixel of the composite image on the virtual sensor is divided by the pixel size of the sensor pixel 804, and the effective range of the projection area 808 is determined by multiplying the divided area by the projection area usage rate.

図10は図9で示した従来法の投影領域使用率901と本実施例の投影領域使用率902のそれぞれを用いて計算した仮想センサ上の投影領域をそれぞれ示す。   FIG. 10 shows projection areas on the virtual sensor calculated using the projection area usage rate 901 of the conventional method shown in FIG. 9 and the projection area usage rate 902 of this embodiment.

図10(a)は投影領域使用率901を用いた場合であり、画素を単純に5×5倍して投影している。符号903及び904は、投影領域808の実効的な範囲を表す。一方で、図10(b)は投影領域使用率902を用いた場合であり、投影領域808の実効的な範囲を符号1005及び1006で表す。領域1005及び1006は、領域903及び904に比べて投影領域の有効範囲が縮小されていることが分かる。投影領域の有効範囲が狭いものを用いて画像が合成されると、異なる入力画素の投影領域の重なりが減り、合成画像の画素を平均化する際に用いる投影領域の画素数が減るので、よりコントラストのある画像を生成することができ、合成画像の鮮鋭化に繋がる。   FIG. 10A shows a case where the projection area usage rate 901 is used, and the pixel is projected by simply multiplying it by 5 × 5. Reference numerals 903 and 904 represent effective ranges of the projection area 808. On the other hand, FIG. 10B shows a case where the projection area usage rate 902 is used, and the effective range of the projection area 808 is represented by reference numerals 1005 and 1006. It can be seen that the effective range of the projection area is reduced in the areas 1005 and 1006 compared to the areas 903 and 904. When an image is synthesized using a projection area having a narrow effective range, overlapping of projection areas of different input pixels is reduced, and the number of pixels in the projection area used when averaging the pixels of the synthesized image is reduced. A contrast image can be generated, which leads to sharpening of the composite image.

図15に本実施例による画像合成の結果の一例を示す。図15(a)はCZPチャートを複数視点撮影した画像を合成したリフォーカス画像の一部を示す。図15(a)の画像1501は図9に示した従来法の投影領域の使用率901を用いてリフォーカス画像を生成した結果である。図15(b)の画像1502は図9に示した本発明の投影領域の使用率902を用いてリフォーカス画像を生成した結果である。画像1501より画像1502はコントラストが良くなり、本実施例によって合成画像の鮮鋭性が向上されていることが分かる。   FIG. 15 shows an example of the result of image composition according to this embodiment. FIG. 15A shows a part of a refocus image obtained by combining images obtained by photographing a plurality of viewpoints of the CZP chart. An image 1501 in FIG. 15A is a result of generating a refocus image using the projection area usage rate 901 of the conventional method shown in FIG. An image 1502 in FIG. 15B is a result of generating a refocus image using the projection area usage rate 902 of the present invention shown in FIG. The image 1502 has a better contrast than the image 1501, and it can be seen that the sharpness of the composite image is improved by this embodiment.

また、従来法と本実施例の結果画像の同じ場所(符合1503で示す位置)で信号応答値を取得したときの信号応答値を図15(b)に示している。チャート1504は従来法の信号応答であり、チャート1505は本実施例の信号応答である。チャート1505では、信号応答が大きく変動していることが分かる。信号応答が大きく変動するため、本実施例により生成した合成画像のコントラストが従来法で生成した合成画像より大きいことが確認できる。   FIG. 15B shows the signal response value when the signal response value is acquired at the same place (position indicated by reference numeral 1503) in the result image of the conventional method and this embodiment. A chart 1504 is a signal response of the conventional method, and a chart 1505 is a signal response of this embodiment. In the chart 1505, it can be seen that the signal response varies greatly. Since the signal response fluctuates greatly, it can be confirmed that the contrast of the composite image generated by this embodiment is larger than the composite image generated by the conventional method.

以上説明したように本実施例によれば、図4に示したようなPlenoptic Cameraや、図5に示したようなカメラアレイにおいて、鮮鋭なリフォーカス画像が生成することができる。   As described above, according to the present embodiment, a sharp refocus image can be generated in the Plenoptic Camera as shown in FIG. 4 or the camera array as shown in FIG.

設定された投影領域使用率による投影領域の有効範囲が狭すぎると、画素平均を取得できない領域が生じて、合成画像の画素に値を埋めることができない。このような画素が存在する場合を画素飛びと呼ぶ。それを解決するための投影領域使用率の設定方法を本実施例で図11と図12を用いて説明する。   If the effective range of the projection area based on the set projection area usage rate is too narrow, an area in which the pixel average cannot be obtained occurs, and the value cannot be filled in the pixel of the composite image. A case where such a pixel exists is called a pixel skip. A method for setting the projection area usage rate for solving this problem will be described with reference to FIGS. 11 and 12 in this embodiment.

本実施例ではステップS705で、画素値合成部607が行う処理以外は、実施例1と同じである。   This embodiment is the same as the first embodiment except for the processing performed by the pixel value synthesis unit 607 in step S705.

第1実施例でステップS704の投影領域の使用率の設定処理の後、本実施例における図12のステップS1201で処理を行う。   In the first embodiment, after the projection area usage rate setting process in step S704, the process is performed in step S1201 of FIG.

ステップS1201では、画素値が設定される前の合成画像の各画素に初期値として-1を設定する。   In step S1201, −1 is set as an initial value for each pixel of the composite image before the pixel value is set.

ステップS1202では、実施例1で設定した投影使用率を用いてS1201で初期値が設定されたが画像に対して画素値を設定し、合成画像を生成する。   In step S1202, the initial value is set in step S1201 using the projection usage rate set in the first embodiment, but the pixel value is set for the image to generate a composite image.

ステップS1203では、合成画像検査部1105は、生成された合成画像に対して、-1が設定されている画素が存在するかどうかをチェックする。すなわち、画像合成処理により画素値が設定されていない画素が存在するかを確認し、そのような画素を検出する。   In step S1203, the composite image inspection unit 1105 checks whether or not a pixel for which -1 is set exists for the generated composite image. That is, it is confirmed whether or not there is a pixel for which a pixel value is not set by image synthesis processing, and such a pixel is detected.

もし-1が存在する場合、ステップS1204では、投影領域の使用率変更部1104が投影領域の使用率を上げて、ステップS1202で、変更後の使用率で合成画像を再度生成する。もし合成画像上に-1が設定されている画素が存在しない場合、ステップ1205で合成画像を出力する。   If -1 is present, in step S1204, the projected area usage rate changing unit 1104 increases the projected area usage rate, and in step S1202, a composite image is generated again with the changed usage rate. If there is no pixel for which -1 is set on the composite image, the composite image is output in step 1205.

本実施例では、合成画像の各画素に初期値として-1を設定し、画像合成処理後も初期値が設定されたままになっている画素の存在を確認することで画素飛びの有無を確認しているが、この方法に限定されない。投影領域の使用率を下げ有効領域を狭くすることに起因して、合成後の画像において、本来画素値が設定されるべき画素に画素値が設定されない画素を検出できる方法であれば、任意の方法を用いることができる。   In this embodiment, -1 is set as the initial value for each pixel of the composite image, and the presence of pixels that have been set with the initial value after the image composition processing is confirmed to check for pixel skipping. However, it is not limited to this method. Any method can be used as long as it can detect a pixel in which a pixel value is not set to a pixel that should originally have a pixel value in a combined image due to reducing the usage rate of the projection area and narrowing the effective area. The method can be used.

以上説明したように本実施例によれば、画素飛びのない合成画像を出力することができる。   As described above, according to this embodiment, it is possible to output a composite image without pixel skipping.

合成画像内の中心よりも外側の領域において、入力画像の画素と対応付けられる画素の数が減る現象がある。これは、合成画像内の中心と外側で同じ投影領域使用率を使うと、中心に近い部分では複数の画素の重なりがあるが、周辺部分では画素の重なり少なく、その結果、合成画像内の中心よりも外側に画素飛びが生じてしまうためである。   There is a phenomenon in which the number of pixels associated with the pixels of the input image is reduced in a region outside the center in the composite image. This is because when the same projection area usage rate is used outside and at the center in the composite image, there are multiple pixel overlaps in the part close to the center, but there are few pixel overlaps in the peripheral part, resulting in the center in the composite image. This is because the pixel skip occurs outside the area.

図16は合成画像の周辺部分の画素飛びを示す。図16(a)は実施例1の投影領域使用率を用いる場合の例を示している。符号1601は合成したリフォーカス画像の領域とする。符号1602は合成画像の中心部分である。符号1603は合成画像の周辺領域(中心よりも外側の領域)を示す。符号1604と1605は、画素飛びを示す。符号1606は実施例1の投影領域使用率による投影領域の使用範囲を示す。   FIG. 16 shows pixel skipping in the peripheral portion of the composite image. FIG. 16A shows an example of using the projection area usage rate of the first embodiment. Reference numeral 1601 denotes an area of the synthesized refocus image. Reference numeral 1602 denotes a central portion of the composite image. Reference numeral 1603 indicates a peripheral region (region outside the center) of the composite image. Reference numerals 1604 and 1605 indicate pixel skipping. Reference numeral 1606 denotes a use range of the projection area according to the projection area use rate of the first embodiment.

図16(b)は周辺領域の投影領域使用率を向上させた例を示す。符号1607は投影領域使用率を改善した後の投影領域の使用範囲を示す。投影領域の使用範囲1607は、使用領域1606より大きくなったため、符号1604と1605のような画素飛びの発生を防ぐことができた。   FIG. 16B shows an example in which the projection area usage rate in the peripheral area is improved. Reference numeral 1607 indicates the use range of the projection area after the projection area use rate is improved. Since the use range 1607 of the projection area is larger than the use area 1606, it is possible to prevent occurrence of pixel skipping as indicated by reference numerals 1604 and 1605.

このように画素飛びの問題を解決するための投影領域使用率の設定方法を図13と図14を用いて説明する。   A method for setting the projection area usage rate for solving the pixel skip problem will be described with reference to FIGS. 13 and 14. FIG.

本実施例での画像合成部201による処理は、図7のステップS704で、投影領域使用率設定部606が行う処理以外は、第1実施例と同じである。   The processing by the image composition unit 201 in this embodiment is the same as that in the first embodiment except for the processing performed by the projection area usage rate setting unit 606 in step S704 in FIG.

第1実施例でステップS704合成画像生成処理に入る前の処理の後、本実施例における処理である図14のステップS1401の処理を続ける。   After the process before entering the composite image generation process in step S704 in the first embodiment, the process in step S1401 in FIG. 14 which is the process in the present embodiment is continued.

ステップS1401では、合成画像の中心画素との距離算出部1302が、入力画像の画素と対応付けられる合成画像の画素と、合成画像の中心画素との距離を算出する。本実施例では、距離は直線距離とする。   In step S1401, the distance calculation unit 1302 with the center pixel of the composite image calculates the distance between the pixel of the composite image associated with the pixel of the input image and the center pixel of the composite image. In this embodiment, the distance is a linear distance.

ステップ1402では、投影領域使用率設定部1303が距離に応じて使用率を設定する。   In step 1402, the projection area usage rate setting unit 1303 sets the usage rate according to the distance.

本実施例では、中心画素と、合成画像の枠上の画素との距離を最大距離dmaxとする。対象画素と中心画素の距離はdとする。対象画素と中心画素との距離に応じた使用率を決定するために、重み係数としてd/dmaxを算出する。   In this embodiment, the distance between the center pixel and the pixel on the frame of the composite image is the maximum distance dmax. The distance between the target pixel and the center pixel is d. In order to determine the usage rate according to the distance between the target pixel and the center pixel, d / dmax is calculated as a weighting factor.

式4のR1にd/dmaxを乗じ、R2にdmax /dを乗じることによって使用率を制御することができる。また、式5のσにd/dmaxの重み係数をかけることで使用率を制御することができる。   The usage rate can be controlled by multiplying R1 of Equation 4 by d / dmax and multiplying R2 by dmax / d. Also, the usage rate can be controlled by multiplying σ in Equation 5 by a weighting factor of d / dmax.

なお、本実施例では、具体的な式を用いて使用率を制御する方法を説明したが、この方法に限定されない。合成画像内の中心よりも外側に合成される投影領域の画像において、画素の使用率が大きくなるように使用率を設定できる方法であれば、他の方法であってもよい。   In the present embodiment, the method of controlling the usage rate using a specific formula has been described, but the present invention is not limited to this method. Another method may be used as long as the usage rate can be set so that the usage rate of the pixel is increased in the image of the projection region synthesized outside the center in the synthesized image.

以上説明したように実施例3によれば、合成画像の周辺画素に画素飛びがなく出力ができる。   As described above, according to the third embodiment, the peripheral pixels of the composite image can be output without pixel skipping.

なお、実施例3では、入力画像の画像サイズは、横と縦が同じ値であって、マイクロレンズの配置間隔が均等であることを前提にしている。   In the third embodiment, it is assumed that the image size of the input image is the same value in the horizontal and vertical directions, and the arrangement intervals of the microlenses are uniform.

入力画像の画像サイズの横と縦が異なる場合、合成画像上にある処理対象の画素が周辺部分にあるかどうかの判断は中心画素の距離だけで判断できなくなる。そのため、中心画素からの距離に応じて使用率を制御するには、合成画像上にある処理対象の画素と中心画素の位置情報に加えて、合成画像の横と縦のサイズの情報が必要である。   When the horizontal and vertical sizes of the input image are different, it is impossible to determine whether or not the pixel to be processed on the composite image is in the peripheral portion only by the distance of the central pixel. Therefore, in order to control the usage rate according to the distance from the center pixel, in addition to the position information of the pixel to be processed and the center pixel on the composite image, information on the horizontal and vertical sizes of the composite image is required. is there.

一方、マイクロレンズの配置間隔にムラがある場合、マイクロレンズの配置間隔が広い部分は他画像の投影領域と重なる比率が低くなり、入力画素が仮想センサに投影した投影領域を多く使用する必要がある。言い換えれば、マイクロレンズの間の配置距離を用いて投影領域の使用率を決めなければならない。   On the other hand, when there is unevenness in the arrangement interval of the microlenses, the ratio of the portion where the arrangement interval of the microlens is wide overlaps with the projection area of the other image is low, and it is necessary to use a lot of the projection area projected by the input pixel on the virtual sensor. is there. In other words, the usage rate of the projection area must be determined using the arrangement distance between the microlenses.

上記のように、入力画像の画像サイズの横と縦が異なる場合と、マイクロレンズの配置間隔に違いがある場合については、合成画像上に画素飛びが発生しないように実施例2で説明した方法を使用して画素飛びをチェックする必要がある。   As described above, in the case where the horizontal and vertical sizes of the input image are different from each other and in the case where there is a difference in the arrangement interval of the microlenses, the method described in the second embodiment so that the pixel skip does not occur on the composite image. Need to check for pixel skipping.

[その他の実施例]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Examples]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (8)

多視点で撮影された複数枚の入力画像を合成するための画像処理装置であって、
センサ上の1画素に対応する領域であって、前記合成によりフォーカスされる被写体の位置に応じて定まる仮想センサ上に投影される領域である投影領域に含まれる複数の画素のそれぞれの画素に対して、前記合成のための使用率を設定する使用率設定手段を備えることを特徴とする画像処理装置。
An image processing apparatus for synthesizing a plurality of input images taken from multiple viewpoints,
For each pixel of a plurality of pixels included in a projection area that is an area corresponding to one pixel on the sensor and projected onto a virtual sensor determined according to the position of the subject focused by the synthesis An image processing apparatus comprising usage rate setting means for setting a usage rate for the composition.
前記使用率設定手段は、前記投影領域の中心からの距離に応じて異なる使用率を設定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the usage rate setting unit sets a different usage rate according to a distance from a center of the projection area. 前記使用率設定手段は、前記投影領域内の中心に近い画素ほど高い前記使用率を設定することを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the usage rate setting unit sets a higher usage rate for a pixel closer to the center in the projection area. 前記使用率設定手段は、前記投影領域内における外周画素の前記使用率を0に設定することを特徴とする請求項1から3のいずれか1つに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the usage rate setting unit sets the usage rate of outer peripheral pixels in the projection region to 0. 5. 前記使用率の設定により、前記合成後の画像において画素値が設定されなくなる画素を検出する検出手段を備え、
前記使用率設定手段は、前記検出された画素に対して、高い前記使用率を設定すること
を特徴とする請求項1から4のいずれか1つに記載の画像処理装置。
Detecting means for detecting a pixel whose pixel value is not set in the combined image by setting the usage rate;
The image processing apparatus according to claim 1, wherein the usage rate setting unit sets the high usage rate for the detected pixel.
前記使用率設定手段は、前記合成により外側に合成される前記投影領域の画像の画素に対してより高い前記使用率を設定することを特徴とする請求項1から5のいずれか1つに記載の画像処理装置。   The said usage rate setting means sets the said usage rate higher with respect to the pixel of the image of the said projection area | region synthesized outside by the said synthesis | combination, The one of Claim 1 to 5 characterized by the above-mentioned. Image processing apparatus. 多視点で撮影された複数枚の入力画像を合成するための画像処理方法であって、
センサ上の1画素に対応する領域であって、前記合成によりフォーカスされる被写体の位置に応じて定まる仮想センサ上に投影される領域である投影領域に含まれる複数の画素のそれぞれの画素に対して、前記合成のための使用率を設定する使用率設定ステップを備えることを特徴とする画像処理方法。
An image processing method for combining a plurality of input images taken from multiple viewpoints,
For each pixel of a plurality of pixels included in a projection area that is an area corresponding to one pixel on the sensor and projected onto a virtual sensor determined according to the position of the subject focused by the synthesis And a usage rate setting step of setting a usage rate for the composition.
コンピュータを、請求項1から6のいずれか1つに記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 6.
JP2011156631A 2011-07-15 2011-07-15 Image processing apparatus and image processing method Active JP5743769B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011156631A JP5743769B2 (en) 2011-07-15 2011-07-15 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011156631A JP5743769B2 (en) 2011-07-15 2011-07-15 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2013026666A true JP2013026666A (en) 2013-02-04
JP5743769B2 JP5743769B2 (en) 2015-07-01

Family

ID=47784587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011156631A Active JP5743769B2 (en) 2011-07-15 2011-07-15 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5743769B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014217035A (en) * 2013-04-30 2014-11-17 キヤノン株式会社 Image processing unit, imaging apparatus, control method, and program
WO2016143913A1 (en) * 2015-03-10 2016-09-15 Canon Kabushiki Kaisha Image processing method, image processing device, and image pickup apparatus
JP2017163308A (en) * 2015-03-10 2017-09-14 キヤノン株式会社 Image processing method, image processing apparatus, and imaging apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004471A (en) * 2005-06-23 2007-01-11 Nikon Corp Image synthesis method and image pickup apparatus
JP2009159357A (en) * 2007-12-27 2009-07-16 Sony Corp Imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004471A (en) * 2005-06-23 2007-01-11 Nikon Corp Image synthesis method and image pickup apparatus
JP2009159357A (en) * 2007-12-27 2009-07-16 Sony Corp Imaging apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014217035A (en) * 2013-04-30 2014-11-17 キヤノン株式会社 Image processing unit, imaging apparatus, control method, and program
WO2016143913A1 (en) * 2015-03-10 2016-09-15 Canon Kabushiki Kaisha Image processing method, image processing device, and image pickup apparatus
JP2017163308A (en) * 2015-03-10 2017-09-14 キヤノン株式会社 Image processing method, image processing apparatus, and imaging apparatus
JP2018101982A (en) * 2015-03-10 2018-06-28 キヤノン株式会社 Image processing apparatus
US10545311B2 (en) 2015-03-10 2020-01-28 Canon Kabushiki Kaisha Image processing method, image processing device, and image pickup apparatus

Also Published As

Publication number Publication date
JP5743769B2 (en) 2015-07-01

Similar Documents

Publication Publication Date Title
US8581998B2 (en) Image sensing apparatus and method of controlling the image sensing apparatus
JP6555863B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US9503633B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US8947585B2 (en) Image capturing apparatus, image processing method, and storage medium
JP6838994B2 (en) Imaging device, control method and program of imaging device
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US8937662B2 (en) Image processing device, image processing method, and program
KR101889932B1 (en) Apparatus and Method for photographing image
JP2011250125A (en) Image processing apparatus and method thereof
JP6095266B2 (en) Image processing apparatus and control method thereof
US10148862B2 (en) Image capturing apparatus, method for controlling image capturing apparatus focus area display, and storage medium
JP6544978B2 (en) Image output apparatus, control method therefor, imaging apparatus, program
JP6752685B2 (en) Imaging equipment, imaging methods and programs
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP5743769B2 (en) Image processing apparatus and image processing method
JP2016001853A (en) Image processing system, imaging device, control method, and program
JP6012396B2 (en) Image processing apparatus, image processing method, and program.
JP6362070B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP6056160B2 (en) Automatic focusing device, automatic focusing method and program
JP6961423B2 (en) Image processing equipment, imaging equipment, control methods for image processing equipment, programs and recording media
JP5744642B2 (en) Image processing apparatus, image processing method, and program.
JP2015084517A (en) Image processing apparatus, image processing method, program and recording medium
US10334161B2 (en) Image processing apparatus, image processing method, computer program and imaging apparatus
JP6120535B2 (en) Information processing apparatus, information processing method, and program
JP6210717B2 (en) Image reproducing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150428

R151 Written notification of patent or utility model registration

Ref document number: 5743769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151