JP2011097179A - Imaging device and image analysis computer program - Google Patents

Imaging device and image analysis computer program Download PDF

Info

Publication number
JP2011097179A
JP2011097179A JP2009246881A JP2009246881A JP2011097179A JP 2011097179 A JP2011097179 A JP 2011097179A JP 2009246881 A JP2009246881 A JP 2009246881A JP 2009246881 A JP2009246881 A JP 2009246881A JP 2011097179 A JP2011097179 A JP 2011097179A
Authority
JP
Japan
Prior art keywords
image
light receiving
optical system
pupil
microlens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009246881A
Other languages
Japanese (ja)
Other versions
JP4952768B2 (en
Inventor
Toru Iwane
透 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009246881A priority Critical patent/JP4952768B2/en
Priority to US12/911,194 priority patent/US8537261B2/en
Publication of JP2011097179A publication Critical patent/JP2011097179A/en
Application granted granted Critical
Publication of JP4952768B2 publication Critical patent/JP4952768B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To precisely specify the position of a pixel for receiving light incident on the center of a microlens through an imaging optical system so as to improve the precision of image composition, focus detection and focus adjustment. <P>SOLUTION: The imaging device includes: a microlens array composed of a plurality of microlenses; a light receiving element array composed of a plurality of light receiving elements for receiving a luminous flux from an optical system through the microlens array and outputting a light receiving signal; an image generating means for generating a first image including an image corresponding to the contour of the plurality of microlenses on the basis of the light receiving signal obtained by the plurality of light receiving elements; and an operating means for calculating the position of an image coincident with a second image corresponding to the contour of the microlenses in the first image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像装置および画像解析コンピュータプログラムに関する。   The present invention relates to an imaging apparatus and an image analysis computer program.

1回の撮影で得られたデータから任意の像面にピントの合った画像を合成する撮像装置が知られている(例えば、特許文献1参照)。特許文献1に開示される撮像装置では、撮影光学系を通過してマイクロレンズの中心に入射する光線を受光する画素の出力値に基づいて画像データを合成する。   There is known an imaging apparatus that synthesizes an image focused on an arbitrary image plane from data obtained by one imaging (see, for example, Patent Document 1). In the imaging apparatus disclosed in Patent Document 1, image data is synthesized based on the output value of a pixel that receives a light beam that passes through a photographing optical system and is incident on the center of a microlens.

特開2007−4471号公報JP 2007-4471 A

しかしながら、上述した撮影光学系を通過してマイクロレンズの中心に入射する光線を受光する画素の位置は、設計値を用いると精度の低い画像データ合成処理となるため、得られる画像がピンボケとなりうる。これは、マイクロレンズが配列されるマイクロレンズアレイと画素が配列される撮像素子とを精密に位置合わせをするように製造することが困難であるためである。すなわち、撮影光学系を通過してマイクロレンズの中心に入射する光線を受光する画素の位置を精密に特定することができないという問題があった。   However, the position of the pixel that receives the light incident on the center of the microlens through the photographing optical system described above is a low-accuracy image data synthesis process when the design value is used, and thus the obtained image can be out of focus. . This is because it is difficult to manufacture a microlens array in which microlenses are arranged and an image pickup element in which pixels are arranged so as to be precisely aligned. That is, there is a problem that the position of the pixel that receives the light beam that passes through the photographing optical system and enters the center of the microlens cannot be accurately specified.

請求項1に記載の発明による撮像装置は、複数のマイクロレンズが配列されたマイクロレンズアレイと、マイクロレンズアレイを介して光学系からの光束を受光して受光信号を出力する複数の受光素子が配列された受光素子アレイと、複数の受光素子で得られる受光信号に基づいて、複数のマイクロレンズの輪郭に相当する画像を含む第1画像を生成する画像生成手段と、第1画像のうち、マイクロレンズの輪郭に対応する第2画像に符合する画像の位置を求める演算手段とを備えたことを特徴とする。
請求項9に記載の発明による画像解析コンピュータプログラムは、複数のマイクロレンズが配列されたマイクロレンズアレイと、複数の受光素子が配列された受光素子アレイとを備える撮像装置において生成される撮影画像データに対する画像解析に用いられる画像解析コンピュータプログラムであって、複数の受光素子で得られる受光信号に基づいて、複数のマイクロレンズの輪郭に相当する画像を含む第1画像データを生成する生成指示と、第1画像のうち、マイクロレンズの輪郭に対応する第2画像に符合する画像の位置を求める演算指示とを備えることを特徴とする。
An imaging apparatus according to a first aspect of the present invention includes a microlens array in which a plurality of microlenses are arranged, and a plurality of light receiving elements that receive a light beam from an optical system and output a light reception signal through the microlens array. Based on the arrayed light receiving element array, and light reception signals obtained by the plurality of light receiving elements, an image generating means for generating a first image including an image corresponding to the outline of the plurality of microlenses, An arithmetic means for obtaining a position of an image corresponding to the second image corresponding to the outline of the microlens is provided.
An image analysis computer program according to a ninth aspect of the present invention is a photographic image data generated in an imaging apparatus including a microlens array in which a plurality of microlenses are arranged and a light receiving element array in which a plurality of light receiving elements are arranged. An image analysis computer program used for image analysis for generating a first image data including images corresponding to the outlines of a plurality of microlenses based on light reception signals obtained by a plurality of light receiving elements; A calculation instruction for obtaining a position of an image corresponding to the second image corresponding to the outline of the microlens among the first image is provided.

本発明によれば、画像合成、ならびに焦点検出および焦点調節の精度が向上する。   According to the present invention, the accuracy of image synthesis and focus detection and focus adjustment is improved.

第1の実施の形態によるカメラの構成を説明する図である。It is a figure explaining the structure of the camera by 1st Embodiment. 主制御部の動作の詳細を表すフローチャートである。It is a flowchart showing the detail of operation | movement of a main control part. 被写体像が投影された撮像素子の正面図である。It is a front view of an image sensor on which a subject image is projected. 撮像素子の部分領域を拡大した図である。It is the figure which expanded the partial area | region of the image pick-up element. 図4に示される部分領域の画像データにてエッジ抽出処理を実行した結果を表す図である。It is a figure showing the result of having performed the edge extraction process with the image data of the partial area | region shown by FIG. 図5において瞳投影中心位置を算出するためのパターンマッチングに用いられるテンプレート画像を示す図である。It is a figure which shows the template image used for the pattern matching for calculating the pupil projection center position in FIG. 図2におけるステップS210にて主制御部が実行する瞳中心投影位置決定の詳細を示すフローチャートである。It is a flowchart which shows the detail of the pupil center projection position determination which a main control part performs in step S210 in FIG. サンプリング数分の瞳投影中心位置をx軸とi軸による座標平面上にプロットした点とその回帰直線を示す図である。It is a figure which shows the point which plotted the pupil projection center position for the sampling number on the coordinate plane by x-axis and i-axis, and its regression line. 第2の実施の形態において、図2におけるステップS210にて主制御部が実行する瞳中心投影位置決定の詳細を示すフローチャートである。In 2nd Embodiment, it is a flowchart which shows the detail of the pupil center projection position determination which a main control part performs in step S210 in FIG. 第3の実施の形態において、図2におけるステップS210にて主制御部が実行する瞳中心投影位置決定の詳細を示すフローチャートである。10 is a flowchart showing details of pupil center projection position determination executed by a main control unit in step S210 in FIG. 2 in the third embodiment. 第4の実施の形態によるPCとカメラとの接続構成を示す図である。It is a figure which shows the connection structure of PC and camera by 4th Embodiment. 第4の実施の形態によるPCが、画像解析コンピュータプログラムに従って実行する瞳中心投影位置決定の詳細を示すフローチャートである。It is a flowchart which shows the detail of the pupil center projection position determination which PC by 4th Embodiment performs according to an image analysis computer program.

−−−第1の実施の形態−−−
図1〜図10を参照して、本発明による撮像装置をカメラに適用した第1の実施の形態を説明する。図1は、本実施の形態によるカメラ1の構成を説明する図である。図1に示すカメラ1は、カメラボディ10と鏡筒15とを有し、焦点検出機能または画像合成機能のいずれかまたは両方の機能を備えている。鏡筒15は、撮影光学系制御部150、撮影レンズ160、鏡筒メモリ170とを含む。カメラボディ10は、主制御部100、撮像素子110、マイクロレンズアレイ120、内蔵メモリ130、メモリカード140とを含む。
--- First embodiment ---
A first embodiment in which an imaging apparatus according to the present invention is applied to a camera will be described with reference to FIGS. FIG. 1 is a diagram illustrating the configuration of a camera 1 according to this embodiment. A camera 1 shown in FIG. 1 includes a camera body 10 and a lens barrel 15 and has either or both of a focus detection function and an image composition function. The lens barrel 15 includes a photographing optical system control unit 150, a photographing lens 160, and a lens barrel memory 170. The camera body 10 includes a main control unit 100, an image sensor 110, a microlens array 120, a built-in memory 130, and a memory card 140.

鏡筒15において、撮影光学系制御部150は、カメラボディ10の主制御部100からの指示に基づき、撮影レンズ160および不図示の絞りを駆動して撮影レンズ160の焦点調節を行う。鏡筒メモリ170には、撮影レンズ160の焦点距離または開放F値等、撮影光学系160の設計値が記録されている。   In the lens barrel 15, the photographing optical system control unit 150 adjusts the focus of the photographing lens 160 by driving the photographing lens 160 and a diaphragm (not shown) based on an instruction from the main control unit 100 of the camera body 10. The lens barrel memory 170 stores design values of the photographic optical system 160 such as a focal length or an open F value of the photographic lens 160.

カメラボディ10において、主制御部100は、撮影レンズ160の焦点検出を行い、これに基づいて、上述の撮影光学系制御部150における撮影レンズ160の焦点調節を制御し、撮像素子110により被写体を撮像して得られる画像データをメモリカード140に記録する。また、撮影光学系制御部150より撮影光学系属性情報を取得し、後述する処理によって瞳中心投影位置を決定し、内蔵メモリ130に記録する。   In the camera body 10, the main control unit 100 detects the focus of the photographic lens 160, and based on this, controls the focus adjustment of the photographic lens 160 in the photographic optical system control unit 150 described above, and the image sensor 110 detects the subject. Image data obtained by imaging is recorded in the memory card 140. In addition, photographing optical system attribute information is acquired from the photographing optical system control unit 150, a pupil center projection position is determined by a process described later, and is recorded in the built-in memory 130.

図1において、撮影レンズ160とマイクロレンズアレイ120との距離(以下、瞳位置という)は、hである。マイクロレンズアレイ120を構成する各マイクロレンズの隣接間隔はd、各マイクロレンズの焦点距離はマイクロレンズアレイ120と撮像素子110との距離に等しく、fである。撮像素子の垂直または水平方向をx軸として規定した場合、撮影レンズ160の光軸に最も近いマイクロレンズの中心に入射する光線を受光する画素の位置をxとし、そのマイクロレンズを0番目とすると、そのマイクロレンズからx軸方向にi番目のマイクロレンズの中心に入射する光線を受光する画素の位置をxとする。 In FIG. 1, the distance between the photographing lens 160 and the microlens array 120 (hereinafter referred to as the pupil position) is h. The distance between adjacent microlenses constituting the microlens array 120 is d, and the focal length of each microlens is equal to the distance between the microlens array 120 and the image sensor 110 and is f. If the vertical or horizontal direction of the image pickup element was defined as x-axis, the position of the pixel receiving the light rays incident on the center of the nearest micro lens in the optical axis of the taking lens 160 and x 0, and 0 th and the microlenses Then, the position of a pixel that receives a light beam incident on the center of the i-th microlens in the x-axis direction from the microlens is defined as xi .

図2は、主制御部100の動作の詳細を表すフローチャートである。図2(a)は、主制御部100が、ステップS210にて瞳中心投影位置を決定し、それに基づいて、ステップS220において、撮影レンズ160の焦点検出を行って焦点調節を制御することを表している。撮影レンズ160の焦点検出および焦点調節制御については、例えば特開平1−216306号公報に開示される瞳分割型位相差検出方式を用いる。ステップS210にて行われる瞳中心投影位置の決定は、使用者がカメラ1の電源を投入したら直ちに実行し、ステップS220における撮影レンズ160の焦点検出および焦点調節制御が使用者の操作によって開始されることを待機するのが好ましい。   FIG. 2 is a flowchart showing details of the operation of the main control unit 100. FIG. 2A shows that the main control unit 100 determines the pupil center projection position in step S210, and based on this, performs focus detection of the photographing lens 160 to control focus adjustment in step S220. ing. For focus detection and focus adjustment control of the taking lens 160, for example, a pupil division type phase difference detection method disclosed in Japanese Patent Laid-Open No. 1-216306 is used. The determination of the pupil center projection position performed in step S210 is executed immediately after the user turns on the power of the camera 1, and the focus detection and focus adjustment control of the photographing lens 160 in step S220 are started by the user's operation. It is preferable to wait for that.

図2(b)は、主制御部100が、ステップS210にて瞳中心投影位置を決定し、それに基づいて、ステップS230において、画像合成を行う場合のフローチャートである。画像合成については、例えば特開2007−4471号公報に開示される技術を用いる。ステップS210にて行われる瞳中心投影位置の決定は、カメラ1においてスルー画が不図示のモニタに表示されている間、定期的に繰り返しながら、ステップS230における画像合成の開始を待機するのが好ましい。以下において、瞳中心投影位置決定処理の詳細について説明する。   FIG. 2B is a flowchart in a case where the main control unit 100 determines the pupil center projection position in step S210 and performs image composition in step S230 based on it. For image composition, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2007-4471 is used. The determination of the pupil center projection position performed in step S210 preferably waits for the start of image composition in step S230 while periodically repeating while the through image is displayed on the monitor (not shown) in camera 1. . Details of the pupil center projection position determination process will be described below.

図3は、草花を被写体として撮像する際に被写体像が投影された撮像素子110の正面図である。ただし、画素の描画は省略している。その草花の葉の一部の像350を含む撮像素子の部分領域300を対象としてさらに説明する。   FIG. 3 is a front view of the image sensor 110 on which a subject image is projected when a flower is imaged as a subject. However, pixel drawing is omitted. Further description will be made on the partial region 300 of the image sensor including the image 350 of a part of the leaves of the flower.

図4は、図3における被写体である草花の葉の一部の像350を含む撮像素子の部分領域300を拡大した図である。撮像素子の部分領域300には、正方形の撮像画素115が互いに隣接して配列されている。また、白色の円形領域は、撮影光学系を通過してマイクロレンズに入射する光束によって撮像素子110の受光面に投影された撮影光学系の瞳の投影像125である。その中心位置が瞳投影中心位置である。葉の一部の像350が投影されている領域の外側においては、瞳の投影像125は明瞭である。この図4に示される部分領域300を拡大した図を対象として、パターンマッチングによる瞳投影中心位置の算出方法について以下に説明する。   FIG. 4 is an enlarged view of a partial region 300 of the image sensor including an image 350 of a part of a leaf of a flower as a subject in FIG. In the partial area 300 of the imaging element, square imaging pixels 115 are arranged adjacent to each other. The white circular region is a projected image 125 of the pupil of the photographing optical system projected onto the light receiving surface of the image sensor 110 by a light beam that passes through the photographing optical system and enters the microlens. The center position is the pupil projection center position. The projected image 125 of the pupil is clear outside the area where the partial image 350 of the leaf is projected. A method of calculating the pupil projection center position by pattern matching will be described below with reference to an enlarged view of the partial region 300 shown in FIG.

図5は、図4に示される部分領域300の画像データにてエッジ抽出処理を実行した結果を表す図である。エッジ抽出処理は、たとえばラプラシアン等の微分フィルタ処理によって得られる。図5は、ラプラシアンを用いた例であり、エッジ抽出画像305において、瞳の投影像125の輪郭が明るい線として抽出されている。それよりも濃淡レベル差が小さい葉の一部の像350の輪郭は、少し暗い線として抽出されている。葉の一部の像350の内側の領域は葉脈部分を除いてはエッジ抽出がされていない。被写体像が投影されている領域には、瞳の投影像125は検出されにくい場合を表したものである。   FIG. 5 is a diagram illustrating a result of performing the edge extraction process on the image data of the partial region 300 illustrated in FIG. The edge extraction processing is obtained by differential filter processing such as Laplacian, for example. FIG. 5 shows an example using Laplacian. In the edge extracted image 305, the contour of the projected image 125 of the pupil is extracted as a bright line. The contour of the image 350 of a part of the leaf having a smaller lightness level difference is extracted as a slightly darker line. Edge extraction is not performed on the area inside the image 350 of a part of the leaf except for the vein portion. In the area where the subject image is projected, the projected image 125 of the pupil is difficult to detect.

図6は、図5において瞳投影中心位置を算出するためのパターンマッチングに用いられるテンプレート画像を示す図である。図6(a)〜(c)は、大中小の円を表すテンプレート画像である。テンプレート画像によるパターンマッチングでは、図5に対して、図6(a)〜(c)のいずれかの画像を重ね合わせながら走査する際に、各画素位置に対して1画素ずつ全ての位置に移動させ、各画素位置において一致度を示す相関値を算出する。相関値についての閾値を予め定め、相関値が上昇してその閾値を越えた後に下降に転じるパターンを検出したら瞳の投影像125の輪郭を検出したとして、その瞳の投影像125における瞳投影中心位置を算出することができる。あるいは、最も高い相関値を示した位置に瞳の投影像125の輪郭が存在するものと推定されるので、その位置データに基づいて、その瞳の投影像125における瞳投影中心位置を算出することとしても良い。   FIG. 6 is a diagram showing a template image used for pattern matching for calculating the pupil projection center position in FIG. 6A to 6C are template images representing large, medium, and small circles. In pattern matching using a template image, when scanning one of the images in FIGS. 6A to 6C overlaid on FIG. 5, one pixel moves to all positions for each pixel position. The correlation value indicating the degree of coincidence at each pixel position is calculated. If a threshold value for a correlation value is determined in advance, and a pattern that starts to decrease after the correlation value increases and exceeds the threshold value is detected, the contour of the pupil projection image 125 is detected, and the pupil projection center in the projection image 125 of the pupil is detected. The position can be calculated. Alternatively, since the contour of the pupil projection image 125 is estimated to exist at the position showing the highest correlation value, the pupil projection center position in the projection image 125 of the pupil is calculated based on the position data. It is also good.

図6(a)〜(c)のテンプレート画像は内蔵メモリ130に予め記録されており、いずれの画像を用いるかは、撮影レンズ160のF値等の撮影光学系属性情報に基づいて選択される。瞳の投影像125の大きさ(以下、瞳径という)は、絞り径および撮影レンズ160の焦点距離に依存するからである。撮影光学系属性情報は、主制御部100が撮影光学系制御部150より取得する。パターンマッチングで算出される相関値は、例えば特開平9−102039号公報に従来の技術として記載されている技術を用いて算出される。   The template images shown in FIGS. 6A to 6C are recorded in advance in the built-in memory 130, and which image is used is selected based on photographing optical system attribute information such as the F value of the photographing lens 160. . This is because the size of the pupil projection image 125 (hereinafter referred to as the pupil diameter) depends on the aperture diameter and the focal length of the photographic lens 160. The main control unit 100 acquires the photographing optical system attribute information from the photographing optical system control unit 150. The correlation value calculated by pattern matching is calculated by using a technique described as a conventional technique in, for example, Japanese Patent Application Laid-Open No. 9-102039.

上述のパターンマッチングでは、所定のサンプリング数分の瞳投影中心位置が得られれば良い。残りの瞳投影中心位置は、後述するように、得られた所定のサンプリング数分の瞳投影中心位置に基づいて推定する演算式を特定することで全て決定されるからである。図3において、エッジ抽出処理を実行した後、相関値の高い順に所定のサンプリング数分の瞳投影中心位置を取得すれば良い。それらは、瞳の投影像125の輪郭が欠けることなく完全に抽出されたデータに対して上述のパターンマッチングにより得られた可能性が高く、高精度に瞳投影中心位置が算出され得る。   In the above-described pattern matching, it is only necessary to obtain pupil projection center positions for a predetermined number of samplings. This is because the remaining pupil projection center positions are all determined by specifying an arithmetic expression to be estimated based on the obtained pupil projection center positions for a predetermined number of samplings, as will be described later. In FIG. 3, after performing the edge extraction process, the pupil projection center positions for a predetermined number of samplings may be acquired in descending order of the correlation value. They are highly likely to have been obtained by the above-described pattern matching on the data extracted completely without the outline of the pupil projection image 125 being missing, and the pupil projection center position can be calculated with high accuracy.

図5においては、葉の一部の像350の輪郭が少し暗い線として抽出されているが、パターンマッチングの精度を高めるため、例えば、2値化処理によって瞳の投影像125の輪郭のみを抽出してから上述したパターンマッチングを行っても良い。   In FIG. 5, the contour of the image 350 of a part of the leaf is extracted as a slightly dark line, but in order to improve pattern matching accuracy, for example, only the contour of the pupil projection image 125 is extracted by binarization processing. Then, the pattern matching described above may be performed.

図7は、図2(a)、(b)におけるステップS210にて主制御部100が実行する瞳中心投影位置決定の詳細を示すフローチャートである。ステップS710において、撮像素子100を制御して被写体を撮像する。ステップS720において、上述したエッジ抽出処理を行う。ステップS730において、撮影レンズ160のF値等の撮影光学系属性情報を、撮影光学系制御部150より取得する。これは、ステップS710が実行される前に行っていても良い。   FIG. 7 is a flowchart showing details of pupil center projection position determination executed by the main control unit 100 in step S210 in FIGS. 2 (a) and 2 (b). In step S710, the imaging device 100 is controlled to image the subject. In step S720, the edge extraction process described above is performed. In step S730, photographing optical system attribute information such as the F value of the photographing lens 160 is acquired from the photographing optical system control unit 150. This may be performed before step S710 is executed.

ステップS740において、撮影光学系属性情報に基づいて好適なテンプレート画像が選択され、ステップS750において、パターンマッチングが行われた結果、ステップS760において、瞳投影中心位置が算出される。ステップS770における判定処理によって、サンプリング数分の瞳投影中心位置が取得されるまで、テンプレート画像を1画素ずつ移動させながら相関値を算出して、ステップS750およびステップS760における処理を繰り返す。   In step S740, a suitable template image is selected based on the photographing optical system attribute information. As a result of performing pattern matching in step S750, the pupil projection center position is calculated in step S760. By the determination process in step S770, the correlation value is calculated while moving the template image one pixel at a time until the pupil projection center positions for the number of samplings are acquired, and the processes in step S750 and step S760 are repeated.

サンプリング数分の瞳投影中心位置が取得されると、ステップS780において、後述する瞳投影中心位置の演算式が特定される。これを用いて、ステップS790において全ての瞳投影中心位置を決定し、内蔵メモリ130に記録すると、主制御部100が実行する処理は図2(a)または(b)に戻る。   When the pupil projection center positions for the number of samplings are acquired, an arithmetic expression for the pupil projection center position, which will be described later, is specified in step S780. Using this, when all pupil projection center positions are determined and recorded in the built-in memory 130 in step S790, the processing executed by the main control unit 100 returns to FIG. 2 (a) or (b).

図7に示すステップS780における瞳投影中心位置の演算式の特定について説明する。図1より、i番目のマイクロレンズの中心に入射する光線を受光する画素の位置をxと、撮影レンズ160の光軸に最も近いマイクロレンズの中心に入射する光線を受光する画素の位置をxと、瞳位置hと、マイクロレンズの隣接間隔dと、マイクロレンズの焦点距離fとの間には、式(1)に表される関係が成り立つ。

Figure 2011097179
The specification of the calculation formula for the pupil projection center position in step S780 shown in FIG. 7 will be described. From FIG. 1, the position of a pixel that receives a light beam incident on the center of the i-th microlens is denoted by xi, and the position of a pixel that receives a light beam incident on the center of the microlens closest to the optical axis of the photographing lens 160 and x 0, and the pupil position h, and the adjacent spacing d of the micro lens, between the focal length f of the microlens, holds the relationship expressed in equation (1).
Figure 2011097179

式(1)より、式(2)が導かれる。

Figure 2011097179
Equation (2) is derived from Equation (1).
Figure 2011097179

上述の取得されたサンプリング数分の瞳投影中心位置はxに該当し、すなわちそれらをx軸とi軸による座標平面上にプロットすると、式(2)で表される直線に回帰するはずである。サンプリング数分の瞳投影中心位置をx軸とi軸による座標平面上にプロットした点と、式(2)で表される回帰直線とを図8に示す。上述の取得されたサンプリング数分の瞳投影中心位置に基づき、式(3)に表される最小二乗法によって、式(2)で表される直線の傾きd(1+f/h)が求まる。

Figure 2011097179
The pupil projection center positions for the number of samplings obtained above correspond to x i , that is, if they are plotted on the coordinate plane by the x-axis and i-axis, they should return to the straight line represented by Equation (2). is there. FIG. 8 shows points obtained by plotting the pupil projection center positions for the number of samplings on the coordinate plane by the x-axis and the i-axis and the regression line represented by the equation (2). Based on the acquired pupil projection center positions for the number of samplings described above, the slope d (1 + f / h) of the straight line represented by equation (2) is obtained by the least square method represented by equation (3).
Figure 2011097179

式(2)で表される回帰直線のx切片x(1+f/h)は、式(2)および式(3)より、式(4)にしたがって得られる。

Figure 2011097179
The x-intercept x 0 (1 + f / h) of the regression line represented by the formula (2) is obtained from the formula (2) and the formula (3) according to the formula (4).
Figure 2011097179

マイクロレンズの隣接間隔dおよびマイクロレンズの焦点距離fは設計値として予め既知の値であるため、式(3)より瞳位置hが求まる。その結果、式(4)よりxも求まる。定数d、f、h、xを式(2)に代入すると、xとiとの関係式が導かれ、この関係式の導出をもって、図7に示すステップS780における瞳投影中心位置の演算式が特定されたことになる。 Since the adjacent distance d of the microlenses and the focal length f of the microlens are known values as design values in advance, the pupil position h can be obtained from Expression (3). As a result, x 0 is also determined from Equation (4). Constant d, f, h, and substituting x 0 in equation (2), the relational expression between x i and i is guided, with the derivation of this equation, calculating the pupil projection center position in the step S780 of FIG. 7 The expression is specified.

上述した第1の実施の形態によるカメラ1は、サンプリング数分の瞳投影中心位置をパターンマッチングによって取得し、それに基づいて瞳投影中心位置の演算式を特定することにより、全ての瞳投影中心位置を算出できるようにした。したがって、撮影光学系を通過してマイクロレンズの中心に入射する光線を受光する画素の位置を精密に特定することが可能となり、画像合成、ならびに焦点検出および焦点調節の精度が向上するという作用効果を奏する。   The camera 1 according to the first embodiment described above acquires the pupil projection center positions for the number of samplings by pattern matching, and specifies an arithmetic expression for the pupil projection center positions based on the acquired positions, thereby determining all pupil projection center positions. Can be calculated. Therefore, it is possible to precisely specify the position of a pixel that receives a light beam that passes through the photographing optical system and enters the center of the microlens, and the effect of improving the accuracy of image synthesis and focus detection and focus adjustment. Play.

−−−第2の実施の形態−−−
本発明による撮像装置をカメラに適用した第1の実施の形態では、図7に示すステップS740において、内蔵メモリ130に予め記録されている図6(a)〜(c)に示すテンプレート画像の中から瞳径に対応した好適なものを選択している。しかし、例えば、テンプレート画像の選択肢が限定されない場合、あるいは、鏡筒15が撮影光学系制御部150を有していないためにステップS730で撮影光学系属性情報が取得できない場合は、ステップS740において、瞳径に対応した好適なテンプレート画像を生成する必要がある。ステップS730で撮影光学系属性情報が取得できない場合において、本発明による撮像装置をカメラに適用した第2の実施の形態について、図9を用いて説明する。
--- Second Embodiment ---
In the first embodiment in which the imaging apparatus according to the present invention is applied to a camera, the template images shown in FIGS. 6A to 6C recorded in advance in the built-in memory 130 in step S740 shown in FIG. A suitable one corresponding to the pupil diameter is selected. However, for example, when the options of the template image are not limited, or when the photographing optical system attribute information cannot be acquired in Step S730 because the lens barrel 15 does not have the photographing optical system control unit 150, in Step S740, It is necessary to generate a suitable template image corresponding to the pupil diameter. A second embodiment in which the imaging apparatus according to the present invention is applied to a camera when the photographing optical system attribute information cannot be acquired in step S730 will be described with reference to FIG.

図9は、図2(a)、(b)におけるステップS210にて主制御部100が実行する瞳中心投影位置決定の詳細を示すフローチャートである。図7と共通するステップについては同一の符号を付与している。ここでは異なる符号を付与したステップについて主に説明する。   FIG. 9 is a flowchart showing the details of the pupil center projection position determination executed by the main control unit 100 in step S210 in FIGS. 2 (a) and 2 (b). Steps common to those in FIG. 7 are given the same reference numerals. Here, the steps given different symbols will be mainly described.

ステップS910では、撮影光学系属性情報が得られておらず、瞳径に対応した好適なテンプレート画像が生成できないため、所定の瞳径暫定値に基づく仮テンプレートを作成する。ステップS920にて、ステップS750と同様のパターンマッチングを行い、ステップS930にて、相関値を算出する。例えば、相関値が上昇してその閾値を越えた後に下降に転じるパターンを検出したら瞳の投影像125の輪郭を検出したとして、その瞳の投影像125における暫定的な瞳投影中心位置を算出することができる。次に、その暫定的な瞳投影中心位置を中心とする瞳径を変化させて仮テンプレートを作成し、再び相関値を算出する。相関値が上昇してその閾値を越えた後に下降に転じるパターンを検出したら瞳の投影像125の輪郭を検出したとして、その瞳の投影像125における暫定的な瞳径を算出することができる。ステップS940にて、以上の処理を繰り返し、相関値が所定の閾値を上回ったときをもって、確からしい瞳径および瞳投影中心位置を算出することができる。ステップS950にて、瞳径に対応した好適なテンプレート画像を生成する。   In step S910, since the photographing optical system attribute information is not obtained and a suitable template image corresponding to the pupil diameter cannot be generated, a temporary template based on a predetermined provisional pupil diameter value is created. In step S920, pattern matching similar to that in step S750 is performed, and in step S930, a correlation value is calculated. For example, if a pattern is detected in which the correlation value rises and falls after the threshold value is exceeded, the contour of the pupil projection image 125 is detected, and the provisional pupil projection center position in the pupil projection image 125 is calculated. be able to. Next, a temporary template is created by changing the pupil diameter around the temporary pupil projection center position, and the correlation value is calculated again. If a pattern that rises after the correlation value rises and exceeds the threshold and then turns down is detected, the provisional pupil diameter in the projected image 125 of the pupil can be calculated assuming that the contour of the projected image 125 of the pupil is detected. In step S940, the above process is repeated, and a probable pupil diameter and pupil projection center position can be calculated when the correlation value exceeds a predetermined threshold. In step S950, a suitable template image corresponding to the pupil diameter is generated.

上述した第2の実施の形態によるカメラ1は、撮影光学系属性情報を出力できない鏡筒15を用いた場合においても、第1の実施の形態によるカメラ1と同様の作用効果を奏する。   The camera 1 according to the second embodiment described above has the same effects as the camera 1 according to the first embodiment even when the lens barrel 15 that cannot output the photographing optical system attribute information is used.

−−−第3の実施の形態−−−
本発明による撮像装置をカメラに適用した第1の実施の形態では、図7に示すステップS790において、瞳投影中心位置を内蔵メモリ130に記録している。その場合において、例えば、撮影レンズ160の焦点調節、または鏡筒15の交換により、瞳位置hが変化した際には、記録されている瞳投影中心位置に基づいて瞳投影中心位置の補正量を算出することによって、全ての瞳投影中心位置を算出できるようにしても良い。図10を用い、本発明による撮像装置をカメラに適用した第3の実施の形態について説明する。
--- Third embodiment ---
In the first embodiment in which the imaging apparatus according to the present invention is applied to a camera, the pupil projection center position is recorded in the built-in memory 130 in step S790 shown in FIG. In this case, for example, when the pupil position h changes due to the focus adjustment of the photographing lens 160 or the replacement of the lens barrel 15, the correction amount of the pupil projection center position is set based on the recorded pupil projection center position. By calculating, all pupil projection center positions may be calculated. A third embodiment in which the imaging apparatus according to the present invention is applied to a camera will be described with reference to FIG.

図10は、図2(a)、(b)におけるステップS210にて主制御部100が実行する瞳中心投影位置決定の詳細を示すフローチャートである。図7と共通するステップについては同一の符号を付与している。ここでは異なる符号を付与したステップについて主に説明する。   FIG. 10 is a flowchart showing details of the pupil center projection position determination executed by the main control unit 100 in step S210 in FIGS. 2 (a) and 2 (b). Steps common to those in FIG. 7 are given the same reference numerals. Here, the steps given different symbols will be mainly described.

ステップS1010では、後述する瞳投影中心位置の補正量の演算式が特定される。ステップS1020では、内蔵メモリ130に記録されているh=hである場合の瞳投影中心位置を取得する。これらを用いた後述する演算により、ステップS1030において全ての瞳投影中心位置を決定し、内蔵メモリ130に記録する。 In step S1010, a calculation formula for the correction amount of the pupil projection center position, which will be described later, is specified. In step S1020, the pupil projection center position in the case where h = h 0 recorded in the built-in memory 130 is acquired. Through the calculation described later using these, all pupil projection center positions are determined and recorded in the built-in memory 130 in step S1030.

図10に示すステップS1010における瞳投影中心位置の補正量の演算式の特定について説明する。式(1)において、瞳位置hに対する瞳投影中心位置xの値をx{h}とすると、瞳位置がh=hである場合の瞳投影中心位置はx{h}で表される。瞳投影中心位置の補正量は、x{h}とx{h}とを用い、式(1)を考慮すると、式(5)のように表される。

Figure 2011097179
The specification of the calculation formula for the correction amount of the pupil projection center position in step S1010 shown in FIG. 10 will be described. In the formula (1), the value of the pupil-projection center position x i with respect to the pupil position h When x i {h}, pupil projection center position when the pupil position is h = h 0 is x i {h 0} expressed. The correction amount of the pupil projection center position is expressed as in Expression (5) when x i {h} and x i {h 0 } are used and Expression (1) is considered.
Figure 2011097179

したがって、図10に示すステップS1030における全ての瞳投影中心位置の演算式は、式(6)として特定される。

Figure 2011097179
Therefore, the arithmetic expression of all pupil projection center positions in step S1030 shown in FIG. 10 is specified as Expression (6).
Figure 2011097179

上述した第3の実施の形態によるカメラ1は、パターンマッチングを用いることなく、少量の演算量で第1の実施の形態によるカメラ1と同様の作用効果を奏する。   The camera 1 according to the third embodiment described above exhibits the same operational effects as the camera 1 according to the first embodiment with a small amount of calculation without using pattern matching.

−−−第4の実施の形態−−−
本発明による撮像装置をカメラに適用した第1〜3の実施の形態では、カメラ1のカメラボディ10が有する主制御部100が撮影レンズ160の焦点検出および焦点調節または画像合成と、瞳中心投影位置決定とを行っている。しかし、画像合成と瞳中心投影位置決定とは、例えば画像解析コンピュータプログラムに従って動作するPC(パーソナルコンピュータ)がカメラ1から必要な情報を取得して実行するようにしても良い。図11および図12を用い、本発明による画像解析コンピュータプログラムをインストールしたPCに適用した第4の実施の形態について説明する。
--- Fourth embodiment ---
In the first to third embodiments in which the imaging device according to the present invention is applied to a camera, the main control unit 100 included in the camera body 10 of the camera 1 performs focus detection and focus adjustment or image synthesis of the photographing lens 160, and pupil center projection. Positioning. However, the image synthesis and the determination of the pupil center projection position may be executed by obtaining necessary information from the camera 1 by a PC (personal computer) operating in accordance with an image analysis computer program, for example. A fourth embodiment applied to a PC in which an image analysis computer program according to the present invention is installed will be described with reference to FIGS.

図11は、本実施の形態によるPC2とカメラ1との接続構成を示す図である。PC2とカメラ1とは通信によって接続されている。接続形態は無線接続および有線接続のいずれであっても良い。本発明による画像解析コンピュータプログラムは、記録媒体3によってPC2にインストールされる。   FIG. 11 is a diagram showing a connection configuration between the PC 2 and the camera 1 according to the present embodiment. The PC 2 and the camera 1 are connected by communication. The connection form may be either a wireless connection or a wired connection. The image analysis computer program according to the present invention is installed in the PC 2 by the recording medium 3.

本実施の形態によるPC2は、画像解析コンピュータプログラムに従い、図2(b)におけるステップS210にて瞳中心投影位置を決定し、それに基づいて、ステップS230において、画像合成を行う。図12は、本実施の形態によるPC2が、画像解析コンピュータプログラムに従って実行する瞳中心投影位置決定の詳細を示すフローチャートである。図7と共通するステップについては同一の符号を付与している。ここでは異なる符号を付与したステップについて主に説明する。   The PC 2 according to the present embodiment determines the pupil center projection position in step S210 in FIG. 2B according to the image analysis computer program, and based on this, performs image synthesis in step S230. FIG. 12 is a flowchart showing details of pupil center projection position determination executed by the PC 2 according to the present embodiment in accordance with the image analysis computer program. Steps common to those in FIG. 7 are given the same reference numerals. Here, the steps given different symbols will be mainly described.

ステップS1310では、カメラ1から通信によって被写体撮像データが入力される。ステップS720におけるエッジ抽出を経て、ステップS1330において、カメラ1から通信によって撮影光学系属性情報が入力される。それ以降は、図7と同様の処理を実行する。   In step S1310, subject imaging data is input from the camera 1 through communication. Through the edge extraction in step S720, photographing optical system attribute information is input from the camera 1 through communication in step S1330. Thereafter, the same processing as in FIG. 7 is executed.

上述した第4の実施の形態によるカメラ1は、カメラ1の主制御部100の演算処理性能を消費することなく、第1の実施の形態によるカメラ1と同様の作用効果を奏し、PC2においては、より高機能な画像加工処理も可能であるから、利便性も高い。   The camera 1 according to the above-described fourth embodiment has the same operational effects as the camera 1 according to the first embodiment without consuming the arithmetic processing performance of the main control unit 100 of the camera 1. Since image processing with higher functionality is possible, convenience is high.

−−−変形例−−−
上述した本発明の第1の実施の形態においては、エッジ抽出処理は、たとえばラプラシアン等の微分フィルタ処理によるものとしたが、被写体が細かい模様を有しているような高周波成分を含む撮像データに対しては、ローパスフィルターによる前処理を施した後に実施することとしても良い。
---- Modified example ---
In the above-described first embodiment of the present invention, the edge extraction processing is performed by differential filter processing such as Laplacian. However, the imaging data including high-frequency components in which the subject has a fine pattern is used. On the other hand, it may be performed after pre-processing with a low-pass filter.

上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における機器構成に何ら限定されない。   The above-described embodiments and modifications may be combined. As long as the characteristic functions of the present invention are not impaired, the present invention is not limited to the device configuration in the above-described embodiment.

1 カメラ
2 PC
3 記録媒体
10 カメラボディ
15 鏡筒
100 主制御部
110 撮像素子
115 撮像画素
120 マイクロレンズアレイ
130 内蔵メモリ
140 メモリカード
150 撮影光学系制御部
160 撮影レンズ
170 鏡筒メモリ
1 Camera 2 PC
3 recording medium 10 camera body 15 lens barrel 100 main control unit 110 image sensor 115 imaging pixel 120 microlens array 130 built-in memory 140 memory card 150 photographing optical system control unit 160 photographing lens 170 lens barrel memory

Claims (10)

複数のマイクロレンズが配列されたマイクロレンズアレイと、
前記マイクロレンズアレイを介して光学系からの光束を受光して受光信号を出力する複数の受光素子が配列された受光素子アレイと、
前記複数の受光素子で得られる前記受光信号に基づいて、前記複数のマイクロレンズの輪郭に相当する画像を含む第1画像を生成する画像生成手段と、
前記第1画像のうち、前記マイクロレンズの輪郭に対応する第2画像に符合する画像の位置を求める演算手段とを備えたことを特徴とする撮像装置。
A microlens array in which a plurality of microlenses are arranged;
A light receiving element array in which a plurality of light receiving elements that receive a light beam from an optical system through the micro lens array and output a light receiving signal are arranged;
Image generating means for generating a first image including an image corresponding to an outline of the plurality of microlenses based on the light reception signals obtained by the plurality of light receiving elements;
An imaging apparatus comprising: an arithmetic unit that obtains a position of an image that matches a second image corresponding to a contour of the microlens among the first image.
請求項1に記載の撮像装置において、
前記演算手段は、前記第1画像のうち、前記複数のマイクロレンズの第1マイクロレンズに対応する第1部分について前記第2画像に符合する画像の位置を求め、前記第2マイクロレンズとは異なる第2マイクロレンズに対応する第2部分については、前記複数のマイクロレンズの配列と前記第2画像に符合する画像の位置とに基づいて前記第2画像に符合する画像の位置を求めることを特徴とする撮像装置。
The imaging device according to claim 1,
The calculation means obtains a position of an image that matches the second image for a first portion of the first image corresponding to the first microlens of the plurality of microlenses, and is different from the second microlens. For the second portion corresponding to the second microlens, the position of the image corresponding to the second image is obtained based on the arrangement of the plurality of microlenses and the position of the image corresponding to the second image. An imaging device.
請求項1または2に記載の撮像装置において、
前記第2画像は、前記光学系の瞳径に基づいて生成することを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
2. The imaging apparatus according to claim 1, wherein the second image is generated based on a pupil diameter of the optical system.
請求項1〜3のいずれか1項に記載の撮像装置において、
前記光学系の瞳の位置が所定値であるときの前記第2画像に符合する画像の位置を基準位置として記憶する記憶手段をさらに備え、
前記演算手段は、前記光学系の瞳の位置が前記所定値とは異なる値であるとき、前記第2画像に符合する画像の位置を補正することを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 3,
Storage means for storing, as a reference position, the position of an image that coincides with the second image when the position of the pupil of the optical system is a predetermined value;
The image pickup apparatus, wherein the calculation unit corrects a position of an image that matches the second image when a position of a pupil of the optical system is a value different from the predetermined value.
請求項4に記載の撮像装置において、
前記演算手段は、前記光学系の瞳の位置が前記所定値とは異なる値であるとき、前記異なる値と前記所定値との差に基づいて、前記第2画像に符合する画像の位置を補正することを特徴とする撮像装置。
The imaging apparatus according to claim 4,
When the pupil position of the optical system is different from the predetermined value, the arithmetic means corrects the position of the image that matches the second image based on the difference between the different value and the predetermined value. An imaging apparatus characterized by:
請求項1〜5のいずれか1項に記載の撮像装置において、
前記第2画像に符合する画像の位置に基づいて、前記複数のマイクロレンズの各々について、前記複数の受光素子から一部の受光素子を選択し、前記一部の受光素子の出力を用いて被写体像の画像データを合成する画像合成手段をさらに備えることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 5,
For each of the plurality of microlenses, a part of the light receiving elements is selected from the plurality of light receiving elements based on the position of the image that matches the second image, and an object is output using the output of the part of the light receiving elements. An image pickup apparatus, further comprising image combining means for combining image data of images.
請求項1〜5のいずれか1項に記載の撮像装置において、
前記第2画像に符合する画像の位置に基づいて、前記光学系の相異なる一対の瞳を通過する一対の前記光束により一対の像が形成される一対の受光素子を、前記複数のマイクロレンズの各々について、前記複数の受光素子から選択し、前記一対の受光素子の出力を用いて前記光学系の焦点調節状態を検出する焦点検出手段をさらに備えることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 5,
Based on the position of the image that coincides with the second image, a pair of light receiving elements in which a pair of images are formed by a pair of the light beams passing through a pair of different pupils of the optical system, An image pickup apparatus, further comprising: a focus detection unit that selects each of the plurality of light receiving elements and detects a focus adjustment state of the optical system using outputs of the pair of light receiving elements.
請求項1に記載の撮像装置において、
前記画像生成手段は、前記光学系の瞳径の値が暫定値の場合における暫定的な前記第2画像と前記第1画像との相関性に基づいて、前記光学系の瞳径の値を更新値に更新し、前記光学系の瞳径の値が更新値の場合における暫定的な前記第2画像を生成することを特徴とする撮像装置。
The imaging device according to claim 1,
The image generation means updates the value of the pupil diameter of the optical system based on the correlation between the provisional second image and the first image when the pupil diameter value of the optical system is a provisional value. An image pickup apparatus that updates to a value and generates the provisional second image when the value of the pupil diameter of the optical system is an update value.
複数のマイクロレンズが配列されたマイクロレンズアレイと、複数の受光素子が配列された受光素子アレイとを備える撮像装置において生成される撮影画像データに対する画像解析に用いられる画像解析コンピュータプログラムであって、
前記複数の受光素子で得られる受光信号に基づいて、前記複数のマイクロレンズの輪郭に相当する画像を含む第1画像データを生成する生成指示と、
前記第1画像のうち、前記マイクロレンズの輪郭に対応する第2画像に符合する画像の位置を求める演算指示とを備えることを特徴とする画像解析コンピュータプログラム。
An image analysis computer program used for image analysis on captured image data generated in an imaging apparatus including a microlens array in which a plurality of microlenses are arranged and a light receiving element array in which a plurality of light receiving elements are arranged,
A generation instruction for generating first image data including an image corresponding to an outline of the plurality of microlenses based on light reception signals obtained by the plurality of light receiving elements;
An image analysis computer program comprising: a calculation instruction for obtaining a position of an image corresponding to a second image corresponding to a contour of the microlens among the first image.
請求項9に記載の画像解析コンピュータプログラムにおいて、
前記演算指示により、前記第1画像のうち、前記複数のマイクロレンズの第1マイクロレンズに対応する第1部分について前記第2画像に符合する画像の位置を求め、前記第2マイクロレンズとは異なる第2マイクロレンズに対応する第2部分については、前記複数のマイクロレンズの配列と前記第2画像に符合する画像の位置とに基づいて前記第2画像に符合する画像の位置を求めることを特徴とする画像解析コンピュータプログラム。
The image analysis computer program according to claim 9,
According to the calculation instruction, a position of an image corresponding to the second image is obtained for a first portion of the first image corresponding to the first microlens of the plurality of microlenses, and is different from the second microlens. For the second portion corresponding to the second microlens, the position of the image corresponding to the second image is obtained based on the arrangement of the plurality of microlenses and the position of the image corresponding to the second image. An image analysis computer program.
JP2009246881A 2009-10-27 2009-10-27 Imaging apparatus and image analysis computer program Active JP4952768B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009246881A JP4952768B2 (en) 2009-10-27 2009-10-27 Imaging apparatus and image analysis computer program
US12/911,194 US8537261B2 (en) 2009-10-27 2010-10-25 Image-capturing apparatus and computer-readable computer program product containing image analysis computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009246881A JP4952768B2 (en) 2009-10-27 2009-10-27 Imaging apparatus and image analysis computer program

Publications (2)

Publication Number Publication Date
JP2011097179A true JP2011097179A (en) 2011-05-12
JP4952768B2 JP4952768B2 (en) 2012-06-13

Family

ID=44113668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009246881A Active JP4952768B2 (en) 2009-10-27 2009-10-27 Imaging apparatus and image analysis computer program

Country Status (2)

Country Link
US (1) US8537261B2 (en)
JP (1) JP4952768B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015177510A (en) * 2014-03-18 2015-10-05 株式会社リコー camera system, image processing method and program

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5854984B2 (en) * 2012-02-20 2016-02-09 キヤノン株式会社 Image processing apparatus, imaging apparatus, control method, and program
JP5627622B2 (en) * 2012-03-15 2014-11-19 株式会社東芝 Solid-state imaging device and portable information terminal
JP2013239904A (en) * 2012-05-15 2013-11-28 Sony Corp Image processing apparatus and image processing method and program
JP5988790B2 (en) * 2012-09-12 2016-09-07 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and image processing program
US9480860B2 (en) * 2013-09-27 2016-11-01 Varian Medical Systems, Inc. System and methods for processing images to measure multi-leaf collimator, collimator jaw, and collimator performance utilizing pre-entered characteristics
EP3104595A1 (en) * 2015-06-08 2016-12-14 Thomson Licensing Light field imaging device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177728A (en) * 2008-01-28 2009-08-06 Sony Corp Image pickup apparatus

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01216306A (en) 1988-02-24 1989-08-30 Canon Inc Focus detecting device having image pickup means
JPH09102039A (en) 1995-10-05 1997-04-15 Nippon Steel Corp Template matching method
JP2004004471A (en) 2002-04-26 2004-01-08 Bridgestone Corp Image display particle and image display using the same
US7936392B2 (en) * 2004-10-01 2011-05-03 The Board Of Trustees Of The Leland Stanford Junior University Imaging arrangements and methods therefor
JP4826152B2 (en) 2005-06-23 2011-11-30 株式会社ニコン Image composition method and imaging apparatus
US7924483B2 (en) * 2006-03-06 2011-04-12 Smith Scott T Fused multi-array color image sensor
US8189065B2 (en) * 2008-01-23 2012-05-29 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
JP4886716B2 (en) * 2008-02-26 2012-02-29 富士フイルム株式会社 Image processing apparatus and method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177728A (en) * 2008-01-28 2009-08-06 Sony Corp Image pickup apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015177510A (en) * 2014-03-18 2015-10-05 株式会社リコー camera system, image processing method and program

Also Published As

Publication number Publication date
US20110228131A1 (en) 2011-09-22
US8537261B2 (en) 2013-09-17
JP4952768B2 (en) 2012-06-13

Similar Documents

Publication Publication Date Title
JP4952768B2 (en) Imaging apparatus and image analysis computer program
JP4483930B2 (en) Imaging apparatus, control method thereof, and program
CN103081455B (en) The multiple images being captured from handheld device carry out portrait images synthesis
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP5609270B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP4974812B2 (en) Electronic camera
JP6518452B2 (en) Imaging apparatus and imaging method
JP6823469B2 (en) Image blur correction device and its control method, image pickup device, program, storage medium
EP2866430B1 (en) Imaging apparatus and its control method and program
US10109036B2 (en) Image processing apparatus, control method for same, and program that performs image processing for image data having a focus state that is changeable
JP2009141475A (en) Camera
JP2012015642A (en) Imaging device
WO2017130522A1 (en) Image processing device, image capturing device, image processing method and program
JP6525809B2 (en) Focus detection apparatus and control method thereof
JP2016001853A (en) Image processing system, imaging device, control method, and program
JP2011135191A (en) Imaging apparatus and image processor
JP5526733B2 (en) Image composition device, image reproduction device, and imaging device
JP6645711B2 (en) Image processing apparatus, image processing method, and program
US9936121B2 (en) Image processing device, control method of an image processing device, and storage medium that stores a program to execute a control method of an image processing device
JP5965654B2 (en) TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE
JP6916627B2 (en) Imaging device and its control method
JP6478536B2 (en) Image processing apparatus and imaging apparatus, and control method and program thereof
JP2016099322A (en) Imaging device, control method of imaging device, and program
JP6525710B2 (en) Imaging device, control method therefor, and program
JP6272099B2 (en) Image processing apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120227

R150 Certificate of patent or registration of utility model

Ref document number: 4952768

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150323

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150323

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250