JP2012134662A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2012134662A
JP2012134662A JP2010283670A JP2010283670A JP2012134662A JP 2012134662 A JP2012134662 A JP 2012134662A JP 2010283670 A JP2010283670 A JP 2010283670A JP 2010283670 A JP2010283670 A JP 2010283670A JP 2012134662 A JP2012134662 A JP 2012134662A
Authority
JP
Japan
Prior art keywords
image information
unit
information
lens
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010283670A
Other languages
Japanese (ja)
Inventor
Takashi Kurino
嵩志 栗野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung R&D Institute Japan Co Ltd
Original Assignee
Samsung Yokohama Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Yokohama Research Institute filed Critical Samsung Yokohama Research Institute
Priority to JP2010283670A priority Critical patent/JP2012134662A/en
Publication of JP2012134662A publication Critical patent/JP2012134662A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of calculating a distortion aberration coefficient corresponding to the lens and a zooming rate in imaging.SOLUTION: An imaging device 10 comprises: an imaging part 20 which has a lens for imaging and is capable of imaging using the lens; and a distortion aberration coefficient calculation part 50 which extracts feature points from plural pieces of image information obtained by imaging in respectively different imaging attitudes by the imaging part 20, searches a feature point extracted from one piece of image information and a feature point extracted from another piece of image information for a set of feature points indicating the same point on a subject, estimates an imaging attitude in imaging of another piece of image information mentioned above, on the basis of the set of the feature points, and calculates the distortion aberration coefficient of the lens on the basis of the estimated imaging attitude.

Description

本発明は、撮影装置に関する。   The present invention relates to a photographing apparatus.

レンズを用いて撮影された画像には、歪曲収差が発生する。化学的なフィルムを用いたカメラにおいては、このような歪曲収差を補正することは困難であったが、近年普及しているデジタルスチルカメラにおいては、例えば特許文献1、2に記載されているように、歪曲収差を補正することができるようになってきている。   Distortion occurs in an image taken using a lens. In a camera using a chemical film, it has been difficult to correct such distortion, but in a digital still camera that has been widespread in recent years, for example, as described in Patent Documents 1 and 2 In addition, it has become possible to correct distortion.

ここで、デジタルスチルカメラが取得した画像の歪曲収差補正は、収差情報の取得と画像の幾何変換という2つの段階からなる。   Here, the correction of distortion aberration of an image acquired by a digital still camera has two stages: acquisition of aberration information and image geometric conversion.

[収差情報の取得]
撮像面上(撮像素子の面上)の光学的な結像点(実際の投影点)と、歪曲収差が無いと仮定したときの結像点(真の投影点)とについて、各点の座標の対応を表すものが収差情報である。
[Acquisition of aberration information]
The coordinates of each point for the optical imaging point (actual projection point) on the imaging surface (on the surface of the imaging device) and the imaging point (true projection point) when it is assumed that there is no distortion Aberration information represents the correspondence between the two.

この収差情報は様々な形式で表すことができるが、投影中心(光軸と撮像素子の面との交点)からの距離(像高)rを用いた式が用いられることが多い。   Although this aberration information can be expressed in various forms, an expression using a distance (image height) r from the projection center (intersection of the optical axis and the surface of the image sensor) is often used.

実際の投影点を(x,y)、真の投影点を(x,y)、投影中心の座標を(x,y)とする。このとき真の像高rと実際の像高rは式1で表される。 Assume that the actual projection point is (x r , y r ), the true projection point is (x i , y i ), and the coordinates of the projection center are (x c , y c ). At this time, the true image height r i and the actual image height r r are expressed by Equation 1.

Figure 2012134662
…(1)
Figure 2012134662
... (1)

ここで、rとrとの関係は、歪曲係数(歪曲収差係数)h、hを用いて式2で表される。 Here, the relationship between r i and r r is expressed by Equation 2 using distortion coefficients (distortion aberration coefficients) h 1 and h 2 .

Figure 2012134662
…(2)
Figure 2012134662
... (2)

なお、測定誤差を考えると5次程度が必要十分とされる。偶数次項は使用されない。
[画像の幾何変換]
画像の幾何変換としては、対応点を補間する方式と、矩形変換による方式が広く用いられている。
In consideration of measurement errors, the fifth order is necessary and sufficient. Even order terms are not used.
[Geometric transformation of image]
As an image geometric transformation, a method of interpolating corresponding points and a method of rectangular transformation are widely used.

対応点を補間する方式は、画像内の任意の点について真の投影点と実際の投影点とを1対1で対応させ、実際の投影点の画素値を補間するものである。精度は高いが計算量は比較的多くなる。   In the method of interpolating corresponding points, a true projection point and an actual projection point are made to correspond one-to-one with respect to an arbitrary point in the image, and the pixel value of the actual projection point is interpolated. Although the accuracy is high, the amount of calculation is relatively large.

矩形変換による方式は、画像を複数の矩形領域に分割し、矩形変換によって出力画像を作成するものである。精度はやや落ちるが計算量は比較的少なくなる。   The rectangle conversion method divides an image into a plurality of rectangular areas and creates an output image by rectangular conversion. Although the accuracy is slightly reduced, the amount of calculation is relatively small.

特開2009−290863号公報JP 2009-290863 A 国際公開第2008/044591A1号International Publication No. 2008 / 044591A1 特開平6−141237JP-A-6-141237

ところで、歪曲収差量は、レンズ及びズーム率毎に異なる。したがって、歪曲収差補正を正確に行うためには、撮影時のレンズ及びズーム率に対応する歪曲収差係数を取得する必要がある。この点について、特許文献1、2は、レンズユニットに予め登録(記憶)されている歪曲収差係数を取得する技術を開示する。しかし、特許文献1、2に開示された技術は、レンズユニットに歪曲収差係数が登録されていない場合には、歪曲収差係数を取得することができない。   By the way, the amount of distortion differs for each lens and zoom ratio. Therefore, in order to correct distortion aberration accurately, it is necessary to acquire a distortion aberration coefficient corresponding to the lens and zoom ratio at the time of shooting. In this regard, Patent Documents 1 and 2 disclose a technique for acquiring a distortion aberration coefficient registered (stored) in advance in a lens unit. However, the techniques disclosed in Patent Documents 1 and 2 cannot acquire the distortion aberration coefficient when the distortion aberration coefficient is not registered in the lens unit.

なお、特許文献3には、2つの撮影装置を用いて画像を取得し、これらの画像の重複領域について幾何変換を行う技術を開示する。しかし、この技術は、重複領域において画像が2重にならないように幾何変換を行うものであって、歪曲収差を補正するものではない。   Patent Document 3 discloses a technique for acquiring images using two imaging devices and performing geometric transformation on overlapping regions of these images. However, this technique performs geometric transformation so that images are not doubled in the overlapping region, and does not correct distortion.

したがって、従来の技術には、撮影時のレンズ及びズーム率に対応する歪曲収差係数を取得することができない場合があるという問題があった。   Therefore, the conventional technique has a problem that it may not be possible to acquire a distortion coefficient corresponding to a lens and a zoom ratio at the time of shooting.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、撮影時のレンズ及びズーム率に対応する歪曲収差係数を従来よりも確実に取得することが可能な、新規かつ改良された撮影装置を提供することにある。   Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to obtain a distortion aberration coefficient corresponding to a lens and a zoom ratio at the time of shooting more reliably than in the past. It is another object of the present invention to provide a new and improved photographing apparatus.

上記課題を解決するために、本発明のある観点によれば、撮影用のレンズを有し、当該レンズを用いた撮影が可能な撮影部がそれぞれ異なる撮影姿勢で撮影を行うことで得られ、互いに一部の領域が重複する複数の画像情報の各々から特徴点を抽出する特徴点抽出部と、一の画像情報から抽出された第1の特徴点と、他の画像情報から抽出された第2の特徴点とから、被写体上の同一点を示す特徴点の組を探索する特徴点相関部と、特徴点の組に基づいて、他の画像情報が撮影されたときの撮影姿勢を推定する姿勢推定部と、姿勢推定部が推定した撮影姿勢に基づいて、レンズの歪曲収差係数を算出する収差係数算出部と、を備えることを特徴とする、撮影装置が提供される。   In order to solve the above-described problem, according to a certain aspect of the present invention, it is obtained by performing photographing with different photographing postures by photographing parts having photographing lenses and capable of photographing using the lenses, A feature point extraction unit that extracts feature points from each of a plurality of pieces of image information in which some areas overlap each other, a first feature point extracted from one image information, and a first feature point extracted from other image information Based on the two feature points, a feature point correlation unit that searches for a set of feature points indicating the same point on the subject, and a shooting posture when other image information is shot is estimated based on the set of feature points An imaging apparatus is provided, comprising: an attitude estimation unit; and an aberration coefficient calculation unit that calculates a distortion aberration coefficient of the lens based on the imaging attitude estimated by the attitude estimation unit.

この観点による撮影装置は、撮影時のレンズやズーム率がどのようなものであっても、画像情報に基づいて撮影姿勢を推定し、歪曲収差係数を算出することができる。したがって、撮影装置は、撮影時のレンズ及びズーム率に対応する歪曲収差係数を従来よりも確実に算出することができる。また、撮影装置は、撮影者が実際の風景を撮影したときに歪曲収差係数を算出することができるので、幾何情報が既知のチャート、サンプルを用いることなく、歪曲収差係数を算出することができる。   The photographing apparatus according to this viewpoint can estimate the photographing posture based on the image information and calculate the distortion aberration coefficient regardless of the lens and zoom ratio at the time of photographing. Therefore, the photographing apparatus can more reliably calculate the distortion aberration coefficient corresponding to the lens and zoom ratio at the time of photographing than before. In addition, since the photographing apparatus can calculate the distortion aberration coefficient when the photographer photographs an actual landscape, the distortion aberration coefficient can be calculated without using a chart or sample whose geometric information is known. .

ここで、特徴点相関部は、一の画像情報と他の画像情報との重複領域に存在する第1の特徴点のうち、所定数以上の第1の特徴点が特徴点の組を構成する場合に、一の画像情報と他の画像情報とが相関すると判定し、姿勢推定部は、一の画像情報と他の画像情報とが相関すると判定された場合に、特徴点の組に基づいて、他の画像情報が撮影されたときの撮影姿勢を推定するようにしてもよい。この観点による撮影装置は、一の画像情報と他の画像情報とが相関する場合に、撮影姿勢を推定するので、撮影姿勢をより確実に推定することができる。   Here, the feature point correlation unit includes a predetermined number or more of the first feature points existing in the overlapping region of the one image information and the other image information to form a set of feature points. In the case, it is determined that the one image information and the other image information are correlated, and the posture estimation unit determines that the one image information and the other image information are correlated based on the set of feature points. The shooting posture when other image information is shot may be estimated. The photographing apparatus according to this aspect estimates the photographing posture when one piece of image information and other image information are correlated, so that the photographing posture can be estimated more reliably.

また、姿勢推定部は、以下の式(3)の左辺を特異値分解することで、行列U、Vと、特異値を対角成分に持つ対角行列Sとの積U・S・Vに変換し、最小の特異値の列に対応する行列Vの列成分をa00〜a22とすることで、以下の式(4)で表される姿勢行列Rを算出するようにしてもよい。   In addition, the posture estimation unit performs singular value decomposition on the left side of the following expression (3) to obtain a product U · S · V of the matrices U and V and the diagonal matrix S having singular values as diagonal components. The posture matrix R represented by the following expression (4) may be calculated by converting the column components of the matrix V corresponding to the column of the smallest singular value to a00 to a22.

Figure 2012134662
…(3)
Figure 2012134662
... (3)

ここで、nは自然数であり、i1、j1は、前記一の画像情報から抽出された特徴点のx座標及びy座標であり、i2、j2は、前記他の画像情報から抽出された特徴点のx座標及びy座標である。 Here, n is a natural number, i1 n and j1 n are the x and y coordinates of the feature points extracted from the one image information, and i2 n and j2 n are extracted from the other image information. These are the x coordinate and y coordinate of the feature point.

Figure 2012134662
…(4)
Figure 2012134662
... (4)

この観点による撮影装置は、撮影姿勢を姿勢行列Rとして算出するので、撮影姿勢をより確実に推定することができる。   Since the photographing apparatus according to this aspect calculates the photographing posture as the posture matrix R, the photographing posture can be estimated more reliably.

また、収差係数算出部は、姿勢行列Rに基づいて、一の画像情報から抽出された特徴点の真の像高を算出し、一の画像情報から抽出された特徴点の座標(i1、j1)に基づいて、一の画像情報から抽出された特徴点の実際の像高を算出し、算出された真の像高及び実際の像高と、以下の式(5)とに基づいて、歪曲収差係数h、hを算出するようにしてもよい。 The aberration coefficient calculation unit calculates the true image height of the feature point extracted from one image information based on the posture matrix R, and the coordinates (i1 n , j1 n ) to calculate the actual image height of the feature point extracted from one image information, and based on the calculated true image height and actual image height, and the following equation (5) The distortion aberration coefficients h 1 and h 2 may be calculated.

Figure 2012134662
…(5)
Figure 2012134662
Figure 2012134662
... (5)
Figure 2012134662

この観点による撮影装置は、レンズやズーム率が変更されても、変更後に取得された画像情報に基づいて、撮影姿勢を推定し、歪曲収差係数h、hを算出することができる。 Even if the lens and the zoom ratio are changed, the photographing apparatus according to this aspect can estimate the photographing posture based on the image information obtained after the change and calculate the distortion aberration coefficients h 1 and h 2 .

また、レンズを識別するための識別情報と、撮影部が前記被写体を撮影する際のズーム率に関するズーム率情報とを取得するレンズ情報取得部と、レンズ情報取得部が取得した情報と、収差係数算出部が算出した歪曲収差係数とを対比させて記憶する収差情報保存部と、を備えるようにしてもよい。   Further, a lens information acquisition unit that acquires identification information for identifying a lens, zoom rate information regarding a zoom rate when the imaging unit captures the subject, information acquired by the lens information acquisition unit, and an aberration coefficient An aberration information storage unit that stores the distortion aberration coefficient calculated by the calculation unit in comparison with each other may be provided.

この観点による撮影装置は、収差情報保存部に保存された各歪曲収差係数がどのような条件で算出されたものであるのかを容易に判断することができる。   The photographing apparatus according to this aspect can easily determine under what conditions each distortion aberration coefficient stored in the aberration information storage unit is calculated.

また、レンズ情報取得部が取得した情報に対応する歪曲収差係数を収差情報保存部から検索し、検索された歪曲収差係数に基づいて、撮影部が取得した画像情報を補正する収差補正部と、を備えるようにしてもよい。   An aberration correction unit that searches the aberration information storage unit for a distortion aberration coefficient corresponding to the information acquired by the lens information acquisition unit, and corrects the image information acquired by the imaging unit based on the searched distortion aberration coefficient; You may make it provide.

この観点による撮影装置は、現在使用されているレンズ及びズーム率に応じた歪曲収差係数を用いて補正を行うことができるので、補正をより正確に行うことができる。   Since the photographing apparatus according to this aspect can perform correction using a distortion aberration coefficient corresponding to a currently used lens and zoom ratio, correction can be performed more accurately.

以上説明したように本発明による撮影装置は、撮影時のレンズ及びズーム率に対応する歪曲収差係数を従来よりも確実に取得することができる。   As described above, the photographing apparatus according to the present invention can more reliably obtain the distortion aberration coefficient corresponding to the lens and the zoom ratio at the time of photographing than before.

本発明の実施形態に係る撮影装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on embodiment of this invention. 同実施形態に係る歪曲収差係数算出部の構成を示すブロック図である。It is a block diagram which shows the structure of the distortion aberration coefficient calculation part which concerns on the same embodiment. 撮影装置による処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process by an imaging device. 撮影装置による処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process by an imaging device. 表示部に表示されるガイドフレームを示す説明図である。It is explanatory drawing which shows the guide frame displayed on a display part. 実際の風景及びこの風景を撮影したときに得られる画像を示す説明図である。It is explanatory drawing which shows the image obtained when image | photographing an actual landscape and this landscape. 撮影者が撮影した画像を示す説明図である。It is explanatory drawing which shows the image which the imaging | photography person image | photographed. 抽出された特徴点を示す説明図である。It is explanatory drawing which shows the extracted feature point. 撮影装置の撮影姿勢を示す説明図である。It is explanatory drawing which shows the imaging | photography attitude | position of an imaging device. 特徴点の対応付けを示す説明図である。It is explanatory drawing which shows matching of a feature point. 歪曲収差補正による座標点の対応を示す説明図である。It is explanatory drawing which shows a response | compatibility of the coordinate point by distortion aberration correction. 画素補間の概念を示す説明図である。It is explanatory drawing which shows the concept of pixel interpolation. 歪曲収差の種類を示す説明図である。It is explanatory drawing which shows the kind of distortion aberration. 投影中心からの距離と歪曲比との関係を、歪曲収差の種類ごとに示すグラフである。It is a graph which shows the relationship between the distance from a projection center, and a distortion ratio for every kind of distortion aberration.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[撮影装置10の構成]
まず、図1に基づいて、撮影装置10の概略構成について説明する。撮影装置10は、いわゆるデジタルスチルカメラであって、撮影部20と、レンズ情報取得部30と、カメラ制御部40と、歪曲収差係数算出部50と、収差情報保存部60と、収差補正部70と、画像保存部80と、表示部90とを備える。なお、撮影装置10は、CPU、ROM、RAM等のハードウェアを有しており、CPUがROMに記憶されたプログラムを読みだして実行することによって、上記各機能ブロックによる処理が実現される。
[Configuration of Shooting Device 10]
First, a schematic configuration of the photographing apparatus 10 will be described with reference to FIG. The photographing apparatus 10 is a so-called digital still camera, and includes a photographing unit 20, a lens information acquisition unit 30, a camera control unit 40, a distortion aberration coefficient calculation unit 50, an aberration information storage unit 60, and an aberration correction unit 70. And an image storage unit 80 and a display unit 90. Note that the photographing apparatus 10 includes hardware such as a CPU, a ROM, and a RAM. When the CPU reads and executes a program stored in the ROM, the processing by each functional block is realized.

撮影部20は、レンズユニット21と、撮像素子22と、画像処理部23とを備える。レンズユニット21は、撮影装置10に対して着脱可能となっており、一または複数のレンズL(図9参照)と、ズーム率、フォーカス、絞り、及びシャッタースピードを調整する調整機構と、レンズユニット21に関する各種情報を記憶する保存部と、調整機構の制御や保存部に記憶された情報の出力等、レンズユニット21に関する各種制御を行うレンズユニット制御部とを備える。保存部に記憶される情報は、例えば、レンズLを識別するためのレンズID(識別情報)や、現在の(即ち撮影時の)ズーム率、フォーカス、絞り、及びシャッタースピードに関する撮影情報等が考えられる。レンズユニット21は、撮影装置10の外部の光を取り込み、取り込んだ光を、レンズLを介して撮像素子22に入射させる。   The photographing unit 20 includes a lens unit 21, an image sensor 22, and an image processing unit 23. The lens unit 21 is detachable from the photographing apparatus 10, and includes one or a plurality of lenses L (see FIG. 9), an adjustment mechanism that adjusts the zoom ratio, focus, aperture, and shutter speed, and the lens unit. A storage unit that stores various information about the lens unit 21, and a lens unit control unit that controls the lens unit 21 such as control of the adjustment mechanism and output of information stored in the storage unit. The information stored in the storage unit may be, for example, lens ID (identification information) for identifying the lens L, shooting information regarding the current zoom rate (that is, at the time of shooting), focus, aperture, and shutter speed. It is done. The lens unit 21 captures light outside the photographing apparatus 10 and causes the captured light to enter the image sensor 22 via the lens L.

撮像素子22は、撮像素子22に入射された光に応じた電気信号(Raw data)を生成し、画像処理部23に出力する。   The image sensor 22 generates an electrical signal (Raw data) corresponding to the light incident on the image sensor 22 and outputs it to the image processing unit 23.

画像処理部23は、撮像素子22から与えられた電気信号を画像情報に変換する。この画像情報は、画素毎に座標及び画素値(画素の色や輝度を示すもの)が設定されたものである。ここで、各画素の座標は、撮像素子22上に定義され、投影中心を原点としたxy平面上の座標として与えられる。x座標及びy座標はいずれも整数となっている。投影中心は、レンズLの光軸が撮像素子22に交差する点である。レンズユニット21のレンズによって歪曲収差が発生しているので、画像処理部23が生成した画像情報には、歪曲収差による画像歪みが発生している。   The image processing unit 23 converts the electrical signal given from the image sensor 22 into image information. In this image information, coordinates and pixel values (indicating the color and brightness of the pixels) are set for each pixel. Here, the coordinates of each pixel are defined on the image sensor 22 and given as coordinates on the xy plane with the projection center as the origin. Both the x coordinate and the y coordinate are integers. The projection center is a point where the optical axis of the lens L intersects the image sensor 22. Since distortion is generated by the lens of the lens unit 21, image distortion due to distortion occurs in the image information generated by the image processing unit 23.

画像処理部23は、画像情報を歪曲収差係数算出部50及び収差補正部70に出力する。また、画像処理部23は、表示部90に、画像情報を表示する。   The image processing unit 23 outputs the image information to the distortion aberration coefficient calculation unit 50 and the aberration correction unit 70. Further, the image processing unit 23 displays image information on the display unit 90.

レンズ情報取得部30は、レンズID及び撮影情報をレンズユニット21から取得し、カメラ制御部40に出力する。   The lens information acquisition unit 30 acquires the lens ID and shooting information from the lens unit 21 and outputs them to the camera control unit 40.

カメラ制御部40は、撮影装置10の各構成要素を制御する。また、カメラ制御部40は、レンズ情報取得部30から与えられたレンズID及び撮影情報を収差情報保存部60及び収差補正部70に出力する。   The camera control unit 40 controls each component of the photographing apparatus 10. In addition, the camera control unit 40 outputs the lens ID and the photographing information given from the lens information acquisition unit 30 to the aberration information storage unit 60 and the aberration correction unit 70.

歪曲収差係数算出部50は、画像処理部23から与えられた画像情報に基づいて、歪曲収差の補正に必要な歪曲収差係数を算出し、この歪曲収差係数に関する収差情報を収差情報保存部60に出力する。   The distortion aberration coefficient calculation unit 50 calculates a distortion aberration coefficient necessary for correcting the distortion aberration based on the image information given from the image processing unit 23, and stores aberration information related to the distortion aberration coefficient in the aberration information storage unit 60. Output.

収差情報保存部60は、カメラ制御部40から与えられたレンズID及び撮影情報と、歪曲収差係数算出部50から与えられた収差情報とを対応させて記憶する。すなわち、歪曲収差量は、撮影時のレンズ及びズーム率によって異なるので、歪曲収差の補正に必要な歪曲収差係数も、撮影時のレンズ及びズーム率によって値が変化する。そこで、本実施形態では、収差情報保存部60が撮影時のレンズ(すなわちレンズID)及びズーム率と歪曲収差係数とを対応させて記憶することとした。   The aberration information storage unit 60 stores the lens ID and shooting information given from the camera control unit 40 and the aberration information given from the distortion aberration coefficient calculation unit 50 in association with each other. That is, since the amount of distortion varies depending on the lens and zoom ratio at the time of shooting, the value of the distortion aberration coefficient necessary for correcting distortion also varies depending on the lens and zoom ratio at the time of shooting. Therefore, in the present embodiment, the aberration information storage unit 60 stores the lens (that is, the lens ID) and the zoom rate at the time of shooting in association with each other and the distortion aberration coefficient.

収差補正部70は、カメラ制御部40から与えられたレンズID及び撮影情報に対応する収差情報を、収差情報保存部60から検索する。そして、収差補正部70は、検索した収差情報に基づいて、画像処理部23から与えられた画像情報を補正する。収差補正部70は、補正後の画像情報を画像保存部80に出力する。画像保存部80は、収差補正部70から与えられた画像情報を保存する。   The aberration correction unit 70 searches the aberration information storage unit 60 for aberration information corresponding to the lens ID and the shooting information given from the camera control unit 40. Then, the aberration correction unit 70 corrects the image information given from the image processing unit 23 based on the searched aberration information. The aberration correction unit 70 outputs the corrected image information to the image storage unit 80. The image storage unit 80 stores the image information given from the aberration correction unit 70.

表示部90は、ディスプレイ100(図5参照)を有し、ディスプレイ100に各種の画像を表示する。   The display unit 90 has a display 100 (see FIG. 5) and displays various images on the display 100.

[歪曲収差係数算出部50の構成]
次に、図2に基づいて、歪曲収差係数算出部50の構成について説明する。歪曲収差係数算出部50は、特徴点抽出部51と、特徴点相関部52と、姿勢推定部53と、収差係数算出部54とを備える。
[Configuration of Distortion Aberration Coefficient Calculation Unit 50]
Next, the configuration of the distortion aberration coefficient calculation unit 50 will be described with reference to FIG. The distortion aberration coefficient calculation unit 50 includes a feature point extraction unit 51, a feature point correlation unit 52, a posture estimation unit 53, and an aberration coefficient calculation unit 54.

特徴点抽出部51は、画像処理部23から与えられた画像情報から特徴点を抽出する。ここで、特徴点とは、画像情報を構成する画素のうち、被写体の輪郭を構成するものである。特徴点を抽出する手法としては、特に限定されず、公知の手法が任意に適用される。特徴点抽出部51は、特徴点の座標、画素値、及び特徴点が抽出された画像情報に関する特徴点抽出情報を生成し、特徴点相関部52に出力する。   The feature point extraction unit 51 extracts feature points from the image information given from the image processing unit 23. Here, the feature point constitutes the contour of the subject among the pixels constituting the image information. The technique for extracting feature points is not particularly limited, and a known technique is arbitrarily applied. The feature point extraction unit 51 generates feature point extraction information related to the image information from which the feature point coordinates, pixel values, and feature points are extracted, and outputs the feature point extraction information to the feature point correlation unit 52.

特徴点相関部52は、特徴点抽出部51から一の画像情報に対応する特徴点抽出情報と、他の画像情報に対応する特徴点抽出情報とが与えられた際に、一の画像情報から抽出された第1の特徴点と、他の画像情報から抽出された第2の特徴点とから被写体上の同一点を示す特徴点の組を探索する。ここで、後述するように、一の画像情報と他の画像情報とは、一部が重複している。   The feature point correlator 52 receives the feature point extraction information corresponding to the one image information and the feature point extraction information corresponding to the other image information from the feature point extraction unit 51, from the one image information. A set of feature points indicating the same point on the subject is searched for from the extracted first feature points and second feature points extracted from other image information. Here, as will be described later, one image information and another image information partially overlap.

特徴点相関部52は、一の画像情報と他の画像情報との重複領域に存在する第1の特徴点のうち、所定数以上(例えば重複領域に存在する第1の特徴点の総数の80%以上)の第1の特徴点が特徴点の組を構成する場合に、これらの画像情報が相関すると判定する。特徴点相関部52は、一の画像情報と他の画像情報とが相関する場合には、探索された特徴点の組に関する特徴点相関情報を生成し、姿勢推定部53及び収差係数算出部54に出力する。   The feature point correlation unit 52 has a predetermined number or more (for example, 80 of the total number of first feature points existing in the overlapping region) among the first feature points existing in the overlapping region of one image information and other image information. %) Of the first feature points constitute a set of feature points, it is determined that these pieces of image information are correlated. When one image information and other image information correlate, the feature point correlation unit 52 generates feature point correlation information related to the searched feature point set, and the posture estimation unit 53 and the aberration coefficient calculation unit 54. Output to.

姿勢推定部53は、特徴点相関部52から与えられた特徴点相関情報に基づいて、以下の式(4)で表される姿勢行列Rを算出する。   The posture estimation unit 53 calculates a posture matrix R represented by the following equation (4) based on the feature point correlation information given from the feature point correlation unit 52.

Figure 2012134662
…(4)
Figure 2012134662
... (4)

次いで、姿勢推定部53は、算出された姿勢行列Rに関する姿勢行列情報を収差係数算出部54に出力する。   Next, the posture estimation unit 53 outputs the posture matrix information regarding the calculated posture matrix R to the aberration coefficient calculation unit 54.

収差係数算出部54は、特徴点相関部52及び姿勢推定部53から与えられた情報に基づいて、歪曲収差係数h、hを算出する。収差係数算出部54は、算出された歪曲収差係数に関する収差情報を生成し、収差情報保存部60に出力する。 The aberration coefficient calculation unit 54 calculates the distortion aberration coefficients h 1 and h 2 based on the information given from the feature point correlation unit 52 and the posture estimation unit 53. The aberration coefficient calculation unit 54 generates aberration information related to the calculated distortion aberration coefficient and outputs the aberration information to the aberration information storage unit 60.

[歪曲収差係数算出処理]
次に、図3に示すフローチャートに沿って、撮影装置10による歪曲収差係数算出処理について説明する。なお、歪曲収差係数算出処理が行われるタイミングとしては、例えば、撮影装置10への電源投入時、レンズユニット21の交換時、撮影者から補正指示がなされた時(この場合、そのような指定を行うためのスイッチが撮影装置10に別途設けられる)等が考えられる。撮影者は、歪曲収差係数算出処理が行われる間は、ズーム率を固定し、レンズユニット21の交換も行わないものとする。
[Distortion coefficient calculation processing]
Next, the distortion aberration coefficient calculation process performed by the imaging apparatus 10 will be described with reference to the flowchart shown in FIG. Note that the timing for performing the distortion aberration coefficient calculation processing is, for example, when the photographing apparatus 10 is turned on, when the lens unit 21 is replaced, or when a correction instruction is issued from the photographer (in this case, such designation is performed). It is conceivable that a switch for performing the operation is provided separately in the photographing apparatus 10). It is assumed that the photographer fixes the zoom rate and does not replace the lens unit 21 while the distortion aberration coefficient calculation process is performed.

図3に示すステップS10において、画像処理部23は、表示画面100に、図5(a)に示すガイドフレーム101〜105を表示する。なお、ガイドフレーム101〜105には番号が付されており、これらの番号はガイドフレームの順番を意味する。即ち、ガイドフレーム101〜105は、ガイドフレーム101から順次1個目、2個目、…、55個目のガイドフレームとなる。   In step S <b> 10 illustrated in FIG. 3, the image processing unit 23 displays guide frames 101 to 105 illustrated in FIG. 5A on the display screen 100. The guide frames 101 to 105 are numbered, and these numbers mean the order of the guide frames. That is, the guide frames 101 to 105 become the first, second,..., 55th guide frames in order from the guide frame 101.

ガイドフレーム101の右上1/4の領域は、ガイドフレーム102の左下1/4の領域と重複しており、ガイドフレーム101の右下1/4の領域は、ガイドフレーム103の左上1/4の領域と重複している。ガイドフレーム101と他のガイドフレーム104、105とも同様にして一部の領域が重複している。このように、ガイドフレーム101と他のガイドフレームとは、それらの領域の1/4(25%)が互いに重複しているが、少なくとも20%以上の領域で重複していることが好ましい。また、ガイドフレームの数は5つに限定されない。   The upper right quarter of the guide frame 101 overlaps with the lower left quarter of the guide frame 102, and the lower right quarter of the guide frame 101 is the upper left quarter of the guide frame 103. It overlaps with the area. Similarly, the guide frame 101 and other guide frames 104 and 105 partially overlap each other. As described above, the guide frame 101 and the other guide frames overlap each other by 1/4 (25%) of their regions, but preferably overlap at least 20% or more of the regions. Further, the number of guide frames is not limited to five.

一方、レンズユニット21は、外部からの光を常時取り込んで撮像素子22に入射させ、撮像素子22は、電気信号を画像処理部23に出力する。画像処理部23は、この電気信号に基づいて画像情報を生成する。   On the other hand, the lens unit 21 constantly takes in light from the outside and makes it incident on the image sensor 22, and the image sensor 22 outputs an electrical signal to the image processing unit 23. The image processing unit 23 generates image information based on the electrical signal.

ステップS20において、画像処理部23は、図5(a)に示すように、1個目のガイドフレーム101をアクティブにし、ガイドフレーム101に画像情報を縮小表示する。これにより、画像処理部23は、ライブビュー、即ち現在の撮影対象となっている風景をガイドフレーム101に表示する。例えば、図6(a)に示す風景(家屋A1、樹木A2〜A4、ビルA5〜A7、工場A8を含む)が撮影の対象となる場合、画像処理部23は、この風景の一部をライブビューとして表示する。   In step S20, the image processing unit 23 activates the first guide frame 101 and displays the reduced image information on the guide frame 101 as shown in FIG. As a result, the image processing unit 23 displays a live view, that is, a current shooting target landscape on the guide frame 101. For example, when the landscape shown in FIG. 6A (including house A1, trees A2 to A4, buildings A5 to A7, and factory A8) is to be photographed, the image processing unit 23 displays a part of this landscape live. Display as a view.

ステップS30において、画像処理部23は、撮影者から撮影指示(即ち、シャッタボタンの押下)があるまで待機する。一方、撮影者はガイドフレーム101に表示されたライブビューを参考にして撮影指示を出す(即ち、撮影を行う)。画像処理部23は、操作者から撮影指示があった際にステップS40に進む。   In step S <b> 30, the image processing unit 23 stands by until there is a photographing instruction (that is, pressing of the shutter button) from the photographer. On the other hand, the photographer issues a shooting instruction with reference to the live view displayed on the guide frame 101 (that is, performs shooting). The image processing unit 23 proceeds to step S40 when there is a photographing instruction from the operator.

ステップS40において、画像処理部23は、撮影指示があった際にガイドフレーム101に表示されていた画像情報を1枚目の画像情報とし、特徴点抽出部51に出力する。例えば、画像処理部23は、図6(b)に示す画像情報P1をガイドフレーム101にライブビューとして表示している際に、操作者から撮影指示があった際には、当該画像情報P1を1枚目の画像情報とする。なお、画像情報P1は、図9に示すように、撮影部20が撮影姿勢L1及び視点(レンズLの焦点)B1で撮影を行うことで取得される。撮影姿勢は、例えばレンズLの位置や向き等で示されるが、具体的には、姿勢行列Rで示される。   In step S <b> 40, the image processing unit 23 sets the image information displayed on the guide frame 101 when there is a shooting instruction as the first image information, and outputs the first image information to the feature point extraction unit 51. For example, when the image processing unit 23 displays the image information P1 shown in FIG. 6B as a live view on the guide frame 101 and receives an imaging instruction from the operator, the image processing unit 23 displays the image information P1. The image information is the first image. As shown in FIG. 9, the image information P1 is acquired when the photographing unit 20 performs photographing with the photographing posture L1 and the viewpoint (the focal point of the lens L) B1. The shooting posture is indicated by, for example, the position and orientation of the lens L, and is specifically indicated by the posture matrix R.

ステップS50において、特徴点抽出部51は、1枚目の画像情報から特徴点を抽出する。ここで、特徴点は、上述した通り、被写体の輪郭を構成する画素である。例えば、1枚目の画像情報が図7(a)に示す画像情報P1となる場合、特徴点抽出部51は、図8(a)に示すように、家屋A1、樹木A2、A3、ビルA6の輪郭を構成する特徴点Q11〜Q12を抽出する。ついで、特徴点抽出部51は、抽出した特徴点の座標、画素値、及び特徴点が抽出された画像情報に関する特徴点抽出情報を生成し、特徴点相関部52に出力する。   In step S50, the feature point extraction unit 51 extracts feature points from the first piece of image information. Here, the feature points are pixels constituting the contour of the subject as described above. For example, when the first piece of image information is the image information P1 shown in FIG. 7A, the feature point extraction unit 51, as shown in FIG. 8A, houses A1, trees A2, A3, and building A6. Feature points Q11 to Q12 that constitute the contours are extracted. Next, the feature point extraction unit 51 generates feature point extraction information regarding the extracted feature point coordinates, pixel values, and image information from which the feature points have been extracted, and outputs the feature point extraction information to the feature point correlation unit 52.

ステップS60において、画像処理部23は、次のガイドフレームをアクティブにする。例えば、画像処理部23は、ガイドフレーム101がアクティブになっている場合には、図5(b)に示すように、次のガイドフレーム102をアクティブにする。そして、画像処理部23は、ステップS20と同様に、アクティブなガイドフレームにライブビューを表示する。このとき、すでにガイドフレーム内に固定されている画像情報は、継続してそのガイドフレーム内に固定される。また、2枚の画像情報(ライブビュー含む)の重複領域は、画像処理部23によってアルファブレンド処理がなされる。これにより、当該重複領域には、2枚の画像情報を重畳させたものが表示される。   In step S60, the image processing unit 23 activates the next guide frame. For example, when the guide frame 101 is active, the image processing unit 23 activates the next guide frame 102 as shown in FIG. 5B. Then, the image processing unit 23 displays the live view on the active guide frame as in step S20. At this time, the image information already fixed in the guide frame is continuously fixed in the guide frame. Further, an alpha blend process is performed by the image processing unit 23 on the overlapping area of the two pieces of image information (including live view). As a result, the overlapped area is displayed by superimposing two pieces of image information.

ステップS70において、画像処理部23は、撮影者から撮影指示があるまで待機する。一方、撮影者は、アクティブなガイドフレームに表示されたライブビューの一部が1枚目の画像情報に一致するように、撮影装置10の撮影姿勢を調整し、この状態で撮影を行う。例えば、ガイドフレーム102がアクティブとなる場合、ライブビューの左下1/4の部分が1枚目の画像情報の右上1/4の部分に一致するように、撮影装置10の撮影姿勢を調整し、この状態で撮影を行う。画像処理部23は、操作者から撮影指示があった際にステップS80に進む。   In step S <b> 70, the image processing unit 23 stands by until there is a photographing instruction from the photographer. On the other hand, the photographer adjusts the photographing posture of the photographing apparatus 10 so that a part of the live view displayed in the active guide frame matches the first image information, and performs photographing in this state. For example, when the guide frame 102 becomes active, the shooting posture of the shooting apparatus 10 is adjusted so that the lower left 1/4 portion of the live view matches the upper right 1/4 portion of the first image information, Shooting is performed in this state. The image processing unit 23 proceeds to step S80 when there is a photographing instruction from the operator.

ステップS80において、画像処理部23は、撮影指示があった際にアクティブなガイドフレームに表示されていた画像情報をN枚目の画像情報とし、特徴点抽出部51に出力する。ここで、Nは2〜5の整数であり、アクティブなガイドフレームの順番を示す。   In step S <b> 80, the image processing unit 23 outputs the image information displayed on the active guide frame when the shooting instruction is given as N-th image information to the feature point extraction unit 51. Here, N is an integer of 2 to 5, and indicates the order of the active guide frames.

例えば、アクティブなガイドフレームがガイドフレーム102となる場合、N=2となる。画像処理部23は、図6(b)に示す画像情報P2−1をライブビューとしてガイドフレーム102に表示している際に、操作者から撮影指示があった場合には、画像情報P2−1を2枚目の画像情報として取得する。画像情報P2−1の左下1/4の部分は、画像情報P1の右上1/4の部分に一致する。すなわち、1枚目の画像情報P1と2枚目の画像情報P2−1との重複領域P12において、両者の画像が一致する。なお、画像情報P2−1は、図9に示すように、撮影部20が撮影姿勢L2及び視点B2で撮影を行うことで取得される。   For example, when the active guide frame is the guide frame 102, N = 2. When the image processing unit 23 displays the image information P2-1 shown in FIG. 6B as a live view on the guide frame 102 and receives an imaging instruction from the operator, the image processing unit P2-1. Is acquired as the image information of the second sheet. The lower left 1/4 portion of the image information P2-1 matches the upper right 1/4 portion of the image information P1. That is, in the overlapping area P12 of the first image information P1 and the second image information P2-1, both images match. Note that the image information P2-1 is acquired when the photographing unit 20 performs photographing in the photographing posture L2 and the viewpoint B2, as illustrated in FIG.

一方、画像処理部23は、図6(c)に示す画像情報P2−2をライブビューとしてガイドフレーム102に表示している際に、操作者から撮影指示があった場合には、画像情報P2−2を2枚目の画像情報として取得する。画像情報P2−2の左下1/4の部分は、画像情報P1の右上1/4の部分と異なる。すなわち、1枚目の画像情報P1と2枚目の画像情報P2−2との重複領域P12において、両者の画像が異なっている。   On the other hand, when the image processing unit 23 displays the image information P2-2 shown in FIG. 6C on the guide frame 102 as a live view, when there is a shooting instruction from the operator, the image information P2 -2 is acquired as the image information of the second sheet. The lower left 1/4 portion of the image information P2-2 is different from the upper right 1/4 portion of the image information P1. That is, in the overlapping area P12 of the first image information P1 and the second image information P2-2, both images are different.

ステップS90において、特徴点抽出部51は、N枚目の画像情報から特徴点を抽出する。例えば、特徴点抽出部51は、2枚目の画像情報(N=2)として、図7(b)に示す画像情報P2−1を取得した場合、図8(b)に示すように、家屋A1、樹木A2、A3の輪郭を構成する特徴点Q21を抽出する。ついで、特徴点抽出部51は、抽出した特徴点の座標、画素値、及び特徴点が抽出された画像情報に関する特徴点抽出情報を生成し、特徴点相関部52に出力する。なお、図7(b)は画像情報2−1の一部を示す。   In step S90, the feature point extraction unit 51 extracts feature points from the N-th image information. For example, when the image information P2-1 shown in FIG. 7B is acquired as the second piece of image information (N = 2), the feature point extraction unit 51, as shown in FIG. A feature point Q21 constituting the contours of A1 and trees A2 and A3 is extracted. Next, the feature point extraction unit 51 generates feature point extraction information regarding the extracted feature point coordinates, pixel values, and image information from which the feature points have been extracted, and outputs the feature point extraction information to the feature point correlation unit 52. FIG. 7B shows a part of the image information 2-1.

ステップS100において、特徴点相関部52は、特徴点抽出部51から与えられた1枚目の画像情報に対応する特徴点抽出情報と、N枚目の画像情報に対応する特徴点抽出情報とに基づいて、1枚目の画像情報から抽出された第1の特徴点と、N枚目の画像情報から抽出された第2の特徴点とから被写体上の同一点を示す特徴点の組を探索する。特徴点相関部52は、第1の特徴点のうち、1枚目の画像情報とN枚目の画像情報との重複領域に存在する第1の特徴点のうち、所定数以上(例えば1枚目の画像情報とN枚目の画像情報との重複領域に存在する第1の特徴点の総数の80%以上)の第1の特徴点が特徴点の組を構成する場合に、これらの画像情報が相関すると判定する。   In step S100, the feature point correlation unit 52 converts the feature point extraction information corresponding to the first image information given from the feature point extraction unit 51 and the feature point extraction information corresponding to the Nth image information. Based on the first feature point extracted from the first image information and the second feature point extracted from the Nth image information, a set of feature points indicating the same point on the subject is searched. To do. The feature point correlator 52 has a predetermined number or more (for example, one) of the first feature points existing in the overlapping region of the first image information and the N-th image information among the first feature points. When the first feature points of 80% or more of the total number of the first feature points existing in the overlapping area of the image information of the eye and the image information of the Nth sheet constitute a set of feature points, these images It is determined that the information is correlated.

例えば、図7(a)に示す1枚目の画像情報P1から図8(a)に示す第1の特徴点Q11、Q12が抽出され、図7(b)に示す2枚目(N=2)の画像情報P2−1から図8(b)に示す第2の特徴点Q21が抽出された場合、すべての第1の特徴点Q11とすべての第2の特徴点Q21とはいずれも1枚目の画像情報と2枚目の画像情報との重複領域P12に存在する。また、すべての第1の特徴点Q11とすべての第2の特徴点Q21とは、家屋A1、及び樹木A2、A3上の同一点を構成するので、特徴点の組を構成する。したがって、すべての第1の特徴点Q11が特徴点の組を構成するので、特徴点相関部52は、1枚目の画像情報P1と2枚目の画像情報P2−1とが相関すると判定する。図10に、特徴点の組を構成する特徴点同士を連結した直線Cを示す。   For example, the first feature points Q11 and Q12 shown in FIG. 8A are extracted from the first piece of image information P1 shown in FIG. 7A, and the second (N = 2) shown in FIG. 7B. 8) is extracted from the image information P2-1 of FIG. 8B, all the first feature points Q11 and all the second feature points Q21 are one sheet. It exists in the overlapping area P12 of the image information of the eye and the image information of the second sheet. Further, all the first feature points Q11 and all the second feature points Q21 constitute the same point on the house A1 and the trees A2 and A3, and thus constitute a set of feature points. Accordingly, since all the first feature points Q11 constitute a set of feature points, the feature point correlation unit 52 determines that the first image information P1 and the second image information P2-1 are correlated. . FIG. 10 shows a straight line C connecting feature points that constitute a set of feature points.

一方、1枚目の画像情報が画像情報P1となり、2枚の画像が図6(c)に示す画像情報P2−2となる場合、これらの画像情報から抽出される特徴点は、特徴点の組を構成しないので、特徴点相関部52は、これらの画像情報が相関しないと判定する。   On the other hand, when the first image information is the image information P1 and the two images are the image information P2-2 shown in FIG. 6C, the feature points extracted from these image information are the feature points. Since the set is not configured, the feature point correlation unit 52 determines that these pieces of image information are not correlated.

次いで、特徴点相関部52は、1枚目の画像情報とN枚目の画像情報とが相関すると判定した場合には、ステップS110に進み、これらが相関しないと判定した場合には、ステップS140に進む。   Next, when it is determined that the first image information and the Nth image information are correlated, the feature point correlation unit 52 proceeds to step S110, and when it is determined that these are not correlated, step S140 is performed. Proceed to

ステップS110において、特徴点相関部52は、1枚目の画像情報と5枚目の画像情報との相関がとれたか否かを判定し、これらの相関がとれたと判定した場合には、ステップS120に進み、これらの相関がとれていないと判定した場合には、ステップS60にもどる。   In step S110, the feature point correlation unit 52 determines whether or not the correlation between the first image information and the fifth image information is obtained. If it is determined that these correlations are obtained, step S120 is performed. If it is determined that these correlations are not taken, the process returns to step S60.

ステップS120において、特徴点相関部52は、1枚目の画像情報と2〜5枚目の画像のそれぞれとから得られる特徴点の組に関する特徴点相関情報を生成し、姿勢推定部53及び収差係数算出部54に出力する。   In step S120, the feature point correlation unit 52 generates feature point correlation information regarding a set of feature points obtained from each of the first image information and the second to fifth images, and the posture estimation unit 53 and the aberration It outputs to the coefficient calculation part 54.

次いで、姿勢推定部53は、特徴点相関情報に基づいて、上述した姿勢行列Rを、画像情報の組み合わせ(1枚目の画像情報と2〜5枚目の画像情報のそれぞれとの組み合わせ)毎に算出する。例えば、姿勢推定部53は、1枚目の画像情報と2枚目の画像情報との組み合わせに対応する姿勢行列Rを以下のように算出する。すなわち、姿勢推定部53は、以下の式(3)の左辺を特異値分解することで、行列U、Vと、特異値を対角成分に持つ対角行列Sとの積U・S・Vに変換し、最小の特異値の列に対応する行列Vの列成分をa00〜a22とすることで、姿勢行列Rを算出する。   Next, the posture estimation unit 53 uses the posture matrix R described above for each combination of image information (a combination of the first image information and the second to fifth image information) based on the feature point correlation information. To calculate. For example, the posture estimation unit 53 calculates the posture matrix R corresponding to the combination of the first image information and the second image information as follows. In other words, the posture estimation unit 53 performs singular value decomposition on the left side of the following expression (3), whereby the product U · S · V of the matrices U and V and the diagonal matrix S having singular values as diagonal components. The posture matrix R is calculated by converting the column components of the matrix V corresponding to the column with the smallest singular value to a00 to a22.

Figure 2012134662
…(3)
Figure 2012134662
... (3)

ここで、nは自然数であり、i1、j1は、1枚目の画像情報から抽出された特徴点のx座標及びy座標であり、i2、j2は、2枚目の画像情報から抽出された特徴点のx座標及びy座標である。 Here, n is a natural number, i1 n and j1 n are the x coordinate and y coordinate of the feature point extracted from the first image information, and i2 n and j2 n are the second image information. X and y coordinates of feature points extracted from.

ここで、式(3)の導出過程について説明する。姿勢行列Rは、以下の式(6)で表される。   Here, the derivation process of Expression (3) will be described. The posture matrix R is expressed by the following equation (6).

Figure 2012134662
…(6)
Figure 2012134662
(6)

ここで、wは媒介変数であり、fは焦点距離である。fは1であっても一般性を失わない。kは1〜nの自然数である。   Here, w is a parameter and f is a focal length. Even if f is 1, generality is not lost. k is a natural number of 1 to n.

式(6)から媒介変数wを消去すると、以下の式(7)、(8)が得られる。   When the parameter w is eliminated from the equation (6), the following equations (7) and (8) are obtained.

Figure 2012134662
…(7)
Figure 2012134662
... (7)

Figure 2012134662
…(8)
Figure 2012134662
(8)

姿勢行列Rが上述した式(4)のように表せると仮定して、式(8)を展開すると、以下の式(9)が得られる。   Assuming that the posture matrix R can be expressed as the above-described equation (4), the following equation (9) is obtained by expanding the equation (8).

Figure 2012134662
…(9)
Figure 2012134662
... (9)

式(9)を左辺に纏めると、式(10)が得られる。   When Expression (9) is collected on the left side, Expression (10) is obtained.

Figure 2012134662
…(10)
Figure 2012134662
(10)

式(10)のkに1〜nをそれぞれ代入し、行列の形に書き直すと、式(3)が得られる。   By substituting 1 to n for k in equation (10) and rewriting them in the form of a matrix, equation (3) is obtained.

なお、他の画像情報の組み合わせに対応する姿勢行列Rも、上記と同様にして算出される。したがって、姿勢行列Rは、合計4つ算出される。以下、1枚目の画像情報とN枚目の画像情報との組み合わせに対応する姿勢行列Rを、「N個目の姿勢行列R」とも称する。   Note that the posture matrix R corresponding to other combinations of image information is also calculated in the same manner as described above. Therefore, a total of four attitude matrices R are calculated. Hereinafter, the posture matrix R corresponding to the combination of the first image information and the Nth image information is also referred to as an “Nth posture matrix R”.

姿勢推定部53は、算出された姿勢行列Rに関する姿勢行列情報を収差係数算出部54に出力する。   The posture estimation unit 53 outputs posture matrix information regarding the calculated posture matrix R to the aberration coefficient calculation unit 54.

ステップS130において、収差係数算出部54は、特徴点相関部52及び姿勢推定部53から与えられた情報に基づいて、歪曲収差係数h、hを算出する。以下、具体的な算出方法を説明する。 In step S130, the aberration coefficient calculation unit 54 calculates distortion aberration coefficients h 1 and h 2 based on the information given from the feature point correlation unit 52 and the posture estimation unit 53. Hereinafter, a specific calculation method will be described.

収差係数算出部54は、特徴点相関情報と姿勢行列情報とに基づいて、投影歪み(perspective)と歪曲収差とを分離し、歪曲収差係数を算出する。具体的には、収差係数算出部54は、まず、1枚目の画像情報から抽出された特徴点の実際の像高を算出する。実際の像高は、以下の式(11)で表される。   The aberration coefficient calculation unit 54 separates the projection distortion and the distortion aberration based on the feature point correlation information and the attitude matrix information, and calculates a distortion aberration coefficient. Specifically, the aberration coefficient calculation unit 54 first calculates the actual image height of the feature point extracted from the first image information. The actual image height is expressed by the following equation (11).

Figure 2012134662
Figure 2012134662

さらに、収差係数算出部54は、1枚目の画像情報の図5中右上1/4の領域(2枚目の画像情報との重複領域)内に存在する特徴点の真の像高を、2個目の姿勢行列Rに基づいて算出する。
まず、収差係数算出部54は、以下の式(12)、(13)に基づいて、特徴点の真の座標(歪曲収差が生じないときの座標)(i2’、j2’)を算出する。

Figure 2012134662
…(12)
Figure 2012134662
…(13)
そして、収差係数算出部54は、真の像高を以下の式(14)に基づいて算出する。 Furthermore, the aberration coefficient calculation unit 54 calculates the true image height of the feature point existing in the upper right quarter of FIG. 5 of the first image information (the overlapping area with the second image information). Calculation is performed based on the second posture matrix R.
First, the aberration coefficient calculation unit 54 calculates the true coordinates (coordinates when no distortion occurs) (i2 ′ k , j2 ′ k ) of the feature points based on the following equations (12) and (13). To do.
Figure 2012134662
(12)
Figure 2012134662
... (13)
Then, the aberration coefficient calculator 54 calculates the true image height based on the following equation (14).

Figure 2012134662
Figure 2012134662

同様に、収差係数算出部54は、1枚目の画像情報の他の領域内に存在する特徴点の真の像高を、3〜5個目の姿勢行列Rに基づいて算出する。これにより、収差係数算出部54は、1枚目の画像情報の全特徴点について、真の像高と実際の像高とを算出する。   Similarly, the aberration coefficient calculation unit 54 calculates the true image height of the feature point existing in the other region of the first image information based on the third to fifth posture matrix R. Thereby, the aberration coefficient calculation unit 54 calculates the true image height and the actual image height for all feature points of the first piece of image information.

次いで、収差係数算出部54は、1枚目の画像情報の全特徴点について算出された真の像高及び実際の像高と、以下の式(5)とに基づいて、歪曲収差係数h、hを算出する。 Next, the aberration coefficient calculator 54 calculates the distortion aberration coefficient h 1 based on the true and actual image heights calculated for all the feature points of the first piece of image information and the following equation (5). , H 2 is calculated.

Figure 2012134662
…(5)
Figure 2012134662
... (5)

ここで、式(5)の右辺第1項はムーアペンローズの一般化逆行列を示す。なお、式(5)は以下のように導出される。すなわち、実際の像高と真の像高とは、以下の式(15)の関係を満たす。   Here, the first term on the right side of Equation (5) represents the Moore Penrose generalized inverse matrix. Equation (5) is derived as follows. That is, the actual image height and the true image height satisfy the relationship of the following formula (15).

Figure 2012134662
…(15)
Figure 2012134662
... (15)

これを行列の形にすると以下の式(16)が得られる。   When this is made into the form of a matrix, the following equation (16) is obtained.

Figure 2012134662
…(16)
Figure 2012134662
... (16)

kに1〜nを代入して書き下すと、以下の式(17)が得られる。   When 1 to n is substituted for k and written down, the following expression (17) is obtained.

Figure 2012134662
…(17)
Figure 2012134662
... (17)

これをムーア−ペンローズの一般化逆行列を用いて変形すると、式(5)が得られる。
収差係数算出部54は、算出された歪曲収差係数に関する収差情報を生成し、収差情報保存部60に出力する。
When this is transformed using the Moore-Penrose generalized inverse matrix, Equation (5) is obtained.
The aberration coefficient calculation unit 54 generates aberration information related to the calculated distortion aberration coefficient and outputs the aberration information to the aberration information storage unit 60.

一方、レンズ情報取得部30は、レンズID及び撮影情報をレンズユニット21から取得し、カメラ制御部40に出力する。カメラ制御部40は、レンズ情報取得部30から与えられたレンズID及び撮影情報を収差情報保存部60に出力する。次いで、収差情報保存部60は、カメラ制御部40から与えられたレンズID及び撮影情報と、歪曲収差係数算出部50から与えられた収差情報とを対応させて記憶する。収差情報保存部60に記憶された情報は、収差補正部70によって参照される。具体的には後述する。   On the other hand, the lens information acquisition unit 30 acquires the lens ID and shooting information from the lens unit 21 and outputs them to the camera control unit 40. The camera control unit 40 outputs the lens ID and imaging information given from the lens information acquisition unit 30 to the aberration information storage unit 60. Next, the aberration information storage unit 60 stores the lens ID and shooting information given from the camera control unit 40 and the aberration information given from the distortion aberration coefficient calculation unit 50 in association with each other. Information stored in the aberration information storage unit 60 is referred to by the aberration correction unit 70. Details will be described later.

ステップS140において、特徴点相関部52は、N枚目の画像情報が1枚目の画像情報と相関が取れなかった旨を画像処理部23に通知し、画像処理部23は、アクティブなガイドフレームを強調表示する。このような強調表示としては、例えば、ガイドフレームを太線で表示する、ガイドフレームを点滅させる、ガイドフレームを赤で着色して表示する(通常は黒)等が考えられる。これにより、再度の撮影が促される。音声によるガイドを併用してもよい。この時の音声としては、例えば、「画像が重なる部分が一致するように、撮影を行ってください」というものが考えられる。   In step S140, the feature point correlation unit 52 notifies the image processing unit 23 that the N-th image information cannot be correlated with the first image information, and the image processing unit 23 determines that the active guide frame is active. To highlight. As such highlighting, for example, a guide frame is displayed with a thick line, a guide frame is blinked, and a guide frame is colored with red (usually black). This prompts the user to shoot again. An audio guide may be used in combination. As the sound at this time, for example, “please shoot so that the overlapping parts of the images match” can be considered.

[歪曲収差補正処理]
次に、撮影装置10が行う歪曲収差補正処理について、図4に基づいて説明する。ステップS200において、レンズユニット21は、外部からの光を常時取り込んで撮像素子22に入射させ、撮像素子22は、電気信号を画像処理部23に出力する。画像処理部23は、この電気信号に基づいて画像情報を生成する。画像処理部23は、生成した画像情報を表示画面100に表示する。これにより、ライブビューが表示画面100に表示される。なお、歪曲収差補正処理では、ガイドフレーム101〜105は表示されず、表示画面100全面にライブビューが表示される。また、撮影者は、ズーム率やフォーカス等の撮影条件を任意に設定して撮影を行うことができる。撮影者から撮影指示がなされると、画像処理部23は、撮影時(撮影指示がなされた時)の画像情報を収差補正部70に出力する。
[Distortion correction processing]
Next, the distortion correction process performed by the photographing apparatus 10 will be described with reference to FIG. In step S <b> 200, the lens unit 21 always takes in external light and makes it incident on the image sensor 22, and the image sensor 22 outputs an electrical signal to the image processing unit 23. The image processing unit 23 generates image information based on the electrical signal. The image processing unit 23 displays the generated image information on the display screen 100. Thereby, the live view is displayed on the display screen 100. In the distortion correction process, the guide frames 101 to 105 are not displayed, and the live view is displayed on the entire display screen 100. In addition, the photographer can perform shooting while arbitrarily setting shooting conditions such as a zoom ratio and focus. When a photographing instruction is issued from the photographer, the image processing unit 23 outputs image information at the time of photographing (when the photographing instruction is given) to the aberration correcting unit 70.

一方、レンズ情報取得部30は、レンズID及び撮影情報をレンズユニット21から取得し、カメラ制御部40に出力する。カメラ制御部40は、レンズ情報取得部30から与えられたレンズID及び撮影情報を収差補正部70に出力する。   On the other hand, the lens information acquisition unit 30 acquires the lens ID and shooting information from the lens unit 21 and outputs them to the camera control unit 40. The camera control unit 40 outputs the lens ID and shooting information given from the lens information acquisition unit 30 to the aberration correction unit 70.

ステップS210において、収差補正部70は、カメラ制御部40から与えられたレンズID及び撮影情報に対応する収差情報を、収差情報保存部60から検索する。この結果、収差補正部70は、このような収差情報を検索できたか否かを判定し、検索できた場合にはステップS220に進み、検索できなかった場合には、画像処理部23から与えられた画像情報を画像保存部80に出力し、ステップS230に進む。   In step S <b> 210, the aberration correction unit 70 searches the aberration information storage unit 60 for aberration information corresponding to the lens ID and the imaging information given from the camera control unit 40. As a result, the aberration correction unit 70 determines whether or not such aberration information has been searched. If the aberration information can be searched, the process proceeds to step S220. The image information is output to the image storage unit 80, and the process proceeds to step S230.

ステップS220において、収差補正部70は、検索した収差情報に基づいて、画像処理部23から与えられた画像情報を補正する。収差補正部70は、具体的には、以下のように補正を行う。   In step S220, the aberration correction unit 70 corrects the image information given from the image processing unit 23 based on the searched aberration information. Specifically, the aberration correction unit 70 performs correction as follows.

まず、収差補正部70は、補正後の画像情報として、補正後の画素の座標(i、j)を定義する。次いで、収差補正部70は、補正後の画素が補正前の画像情報(画像処理部23から与えられた画像情報)のどの画素に対応するかを、以下の式(18)に基づいて算出する。 First, the aberration correction unit 70 defines corrected pixel coordinates (i n , j n ) as corrected image information. Next, the aberration correction unit 70 calculates which pixel in the image information before correction (image information given from the image processing unit 23) the corrected pixel corresponds to based on the following equation (18). .

Figure 2012134662
…(18)
Figure 2012134662
... (18)

ここで、xは補正前の画像情報を構成する画素のx座標、yは補正前の画像情報を構成する画素のy座標である。xは補正後の投影中心のx座標(補正前と同じ)であり、yは補正後の投影中心のy座標(補正前と同じ)である。f(r)は歪曲比、即ち(実際の像高)/(真の像高)である。真の像高は、上述した式(14)から得られる。実際の像高は、上述した式(15)に真の像高を代入することで得られる。図11に、補正後の画像情報Pi上の画素E1と補正前の画像情報Pr上の画素E2との対応関係を概念的に示した。 Here, x n is the x coordinate of the pixels constituting the image information before the correction, which is the y coordinate of the pixel y n is constituting the image information before the correction. xc is the x coordinate of the projection center after correction (same as before correction), and yc is the y coordinate of the projection center after correction (same as before correction). f (r) is a distortion ratio, that is, (actual image height) / (true image height). The true image height is obtained from Equation (14) described above. The actual image height can be obtained by substituting the true image height into the above equation (15). FIG. 11 conceptually shows the correspondence between the pixel E1 on the corrected image information Pi and the pixel E2 on the uncorrected image information Pr.

次に、収差補正部70は、補正後の画像情報を構成する各画素の画素値、即ち補正後の画素値を決定する。上述した方法により算出された座標(x、y)は、実数値で与えられる。一方、補正前の画像情報を構成する各画素の座標は、整数値で与えられる。このため、座標(x、y)で表される画素には、画素値ν(x、y)が与えられていない。そこで、収差補正部70は、画素値ν(x、y)を画素補間により算出し、これを補正後の画素値ν(i、j)とする。収差補正部70は、具体的には、以下の式(19)に基づいて、画素値ν(x、y)を算出する。 Next, the aberration correction unit 70 determines the pixel value of each pixel constituting the corrected image information, that is, the corrected pixel value. The coordinates (x n , y n ) calculated by the method described above are given as real values. On the other hand, the coordinates of each pixel constituting the image information before correction are given as integer values. For this reason, the pixel value ν (x n , y n ) is not given to the pixel represented by the coordinates (x n , y n ). Therefore, the aberration correction unit 70 calculates the pixel value ν (x n , y n ) by pixel interpolation, and sets this as the corrected pixel value ν (i n , j n ). Specifically, the aberration correction unit 70 calculates the pixel value ν (x n , y n ) based on the following equation (19).

Figure 2012134662
…(19)
Figure 2012134662
... (19)

ここで、[x]はxを超えない最大の整数であり、[y]はyを超えない最大の整数である。p、qは任意の自然数である。kは重み関数であり、重み関数kの与え方によって、画素補間が「ニアレストネイバ」、「バイリニア」、「バイキュービック」等と呼ばれることもある。図12に、画素補間が行われる様子を概念的に示した。ここでは、画素E2の画素値がその周囲に存在する画素の画素値によって算出される。 Here, [x n ] is a maximum integer not exceeding x n , and [y n ] is a maximum integer not exceeding y n . p and q are arbitrary natural numbers. k is a weighting function, and pixel interpolation is sometimes called “nearest neighbor”, “bilinear”, “bicubic” or the like depending on how the weighting function k is given. FIG. 12 conceptually shows how pixel interpolation is performed. Here, the pixel value of the pixel E2 is calculated from the pixel values of the pixels existing around it.

これにより、収差補正部70は、補正後の画像情報を構成する各画素の座標及び画素値を算出する。即ち、収差補正部70は、画像情報の歪曲収差を補正する。   Thereby, the aberration correction unit 70 calculates the coordinates and pixel values of each pixel constituting the corrected image information. That is, the aberration correction unit 70 corrects the distortion aberration of the image information.

ステップS230において、画像保存部80は、収差補正部70から与えられた画像情報を記憶する。   In step S <b> 230, the image storage unit 80 stores the image information given from the aberration correction unit 70.

したがって、本実施形態では、収差係数算出部54は、1枚目の画像情報と2〜5枚目の画像情報との重複領域を用いて、収差補正係数を算出し(図5〜図10参照)、収差補正部70は、この収差補正係数を用いて、画像情報の補正を行う。なお、撮影装置10は、2〜5枚目の画像情報のうち、特徴点の組が最も多い画像情報を選択し、この画像情報と1枚目の画像情報とから算出される収差補正係数に基づいて、画像情報の補正を行ってもよい。このような補正が可能なのは、歪曲収差が投影中心に関して回転対称となるからである。以下、この点について説明する。   Therefore, in the present embodiment, the aberration coefficient calculation unit 54 calculates an aberration correction coefficient using an overlapping area between the first image information and the second to fifth image information (see FIGS. 5 to 10). ), The aberration correction unit 70 corrects the image information using the aberration correction coefficient. Note that the imaging device 10 selects image information having the largest number of feature points from the second to fifth image information, and sets the aberration correction coefficient calculated from the image information and the first image information. Based on this, the image information may be corrected. Such correction is possible because distortion is rotationally symmetric with respect to the projection center. Hereinafter, this point will be described.

図13は、歪曲収差の種類を示し、図14は、投影中心からの距離、即ち実際の像高と歪曲比(式(16)のf(r))との関係を歪曲収差毎に示すグラフである。具体的には、図13(a)は樽型収差を示し、図14(a)は、樽型収差における実際の像高と歪曲比との関係を示す。図13(b)は糸巻き型収差を示し、図14(b)は、糸巻き型収差における実際の像高と歪曲比との関係を示す。図13(c)は陣笠収差を示し、図14(c)は、陣笠収差における実際の像高と歪曲比との関係を示す。図13に示すように、すべての歪曲収差が投影中心Dに関して回転対称となっているので、画像情報内のすべての領域が、図14に示す関係を満たす。したがって、収差補正部70は、上記のように補正を行っても、画像情報全体を精度良く補正することができる。また、収差補正部70は、1枚目の画像情報と最大相関画像情報との重複領域だけを用いて歪曲収差係数を算出するので、計算に掛かる負荷を低減することができる。   FIG. 13 shows the types of distortion, and FIG. 14 is a graph showing the relationship between the distance from the projection center, that is, the actual image height and the distortion ratio (f (r) in Expression (16)) for each distortion. It is. Specifically, FIG. 13A shows barrel aberration, and FIG. 14A shows the relationship between actual image height and distortion ratio in barrel aberration. FIG. 13B shows pincushion aberration, and FIG. 14B shows the relationship between actual image height and distortion ratio in pincushion aberration. FIG. 13C shows the Jin-Kasa aberration, and FIG. 14C shows the relationship between the actual image height and the distortion ratio in the Jin-Kasa aberration. As shown in FIG. 13, since all distortion aberrations are rotationally symmetric with respect to the projection center D, all regions in the image information satisfy the relationship shown in FIG. Therefore, the aberration correction unit 70 can correct the entire image information with high accuracy even if correction is performed as described above. In addition, since the aberration correction unit 70 calculates the distortion aberration coefficient using only the overlapping area between the first image information and the maximum correlation image information, it is possible to reduce the load on the calculation.

以上により、本実施形態に係る撮影装置10は、撮影部20がそれぞれ異なる撮影姿勢で撮影を行うことで得られる複数の画像情報から特徴点を抽出し、一の画像情報から抽出された特徴点と、他の画像情報から抽出された特徴点とから、被写体上の同一点を示す特徴点の組を探索する。そして、撮影装置10は、特徴点の組に基づいて、他の画像情報が撮影されたときの撮影姿勢を推定し、推定された撮影姿勢に基づいて、レンズの歪曲収差係数を算出する。したがって、撮影装置10は、レンズユニット21やズーム率が変更されても、変更後に取得された画像情報に基づいて、撮影姿勢を推定し、歪曲収差係数を算出することができる。すなわち、撮影装置10は、撮影時のレンズ(すなわち撮影時のレンズユニット21)やズーム率に対応する歪曲収差係数を従来よりも確実に取得することができる。また、撮影装置10は、撮影者が実際の風景を撮影したときに歪曲収差係数を算出することができるので、幾何情報が既知のチャート、サンプルを用いることなく、歪曲収差係数を算出することができる。   As described above, the photographing apparatus 10 according to the present embodiment extracts feature points from a plurality of pieces of image information obtained by the photographing units 20 performing photographing with different photographing postures, and feature points extracted from one piece of image information. A set of feature points indicating the same point on the subject is searched from the feature points extracted from the other image information. The photographing apparatus 10 estimates a photographing posture when other image information is photographed based on the set of feature points, and calculates a distortion aberration coefficient of the lens based on the estimated photographing posture. Therefore, even if the lens unit 21 or the zoom rate is changed, the imaging device 10 can estimate the imaging posture and calculate the distortion aberration coefficient based on the image information acquired after the change. That is, the photographing apparatus 10 can more reliably acquire the distortion aberration coefficient corresponding to the lens at the time of photographing (that is, the lens unit 21 at the time of photographing) and the zoom rate. Further, since the photographing apparatus 10 can calculate the distortion aberration coefficient when the photographer photographs an actual landscape, the distortion aberration coefficient can be calculated without using a chart or sample whose geometric information is known. it can.

さらに、撮影装置10は、一の画像情報と他の画像情報との重複領域に存在する第1の特徴点のうち、所定数以上の第1の特徴点が特徴点の組を構成する場合に、一の画像情報と他の画像情報とが相関すると判定し、一の画像情報と他の画像情報とが相関すると判定した場合に、特徴点の組に基づいて、撮影姿勢を推定する。したがって、撮影装置10は、撮影姿勢をより確実に推定することができる。   Furthermore, the imaging device 10 has a case where a predetermined number or more of first feature points in a region where one image information and another image information overlap constitute a set of feature points. When it is determined that one image information and other image information are correlated, and when it is determined that one image information and other image information are correlated, the photographing posture is estimated based on the set of feature points. Therefore, the photographing apparatus 10 can estimate the photographing posture more reliably.

さらに、撮影装置10は、上述した式(3)の左辺を特異値分解することで、行列U、Vと、特異値を対角成分に持つ対角行列Sとの積U・S・Vに変換し、最小の特異値の列に対応する行列Vの列成分をa00〜a22とすることで、式(4)で表される姿勢行列Rを算出する。したがって、撮影装置10は、撮影姿勢を姿勢行列Rとして算出するので、撮影姿勢をより確実に推定することができる。   Further, the photographing apparatus 10 performs singular value decomposition on the left side of the above-described formula (3), thereby obtaining a product U · S · V of the matrices U and V and the diagonal matrix S having singular values as diagonal components. By converting the column components of the matrix V corresponding to the column of the smallest singular value to a00 to a22, the posture matrix R represented by the equation (4) is calculated. Therefore, since the photographing apparatus 10 calculates the photographing posture as the posture matrix R, the photographing posture can be estimated more reliably.

さらに、撮影装置10は、姿勢行列Rに基づいて、一の画像情報から抽出された特徴点の真の像高を算出し、一の画像情報から抽出された特徴点の座標(i1、j1)に基づいて、一の画像情報から抽出された特徴点の実際の像高を算出する。そして、撮影装置10は、算出された真の像高及び実際の像高と、上述した式(5)とに基づいて、歪曲収差係数h、hを算出する。したがって、撮影装置10は、レンズユニット21やズーム率が変更されても、変更後に取得された画像情報に基づいて、撮影姿勢を推定し、歪曲収差係数h、hを算出することができる。 Furthermore, the imaging device 10 calculates the true image height of the feature point extracted from one image information based on the posture matrix R, and the coordinates (i1 n , j1) of the feature point extracted from the one image information. n ), the actual image height of the feature point extracted from one image information is calculated. Then, the photographing apparatus 10 calculates the distortion aberration coefficients h 1 and h 2 based on the calculated true image height and actual image height and the above-described equation (5). Therefore, even if the lens unit 21 or the zoom rate is changed, the imaging device 10 can estimate the imaging posture based on the image information acquired after the change and calculate the distortion aberration coefficients h 1 and h 2. .

さらに、撮影装置10は、レンズIDと、撮影時の撮影情報とを取得し、取得された情報と、算出された歪曲収差係数とを対比させて収差情報保存部60に保存するので、収差情報保存部60に保存された各歪曲収差係数がどのような条件で算出されたものであるのかを容易に判断することができる。   Furthermore, since the imaging device 10 acquires the lens ID and imaging information at the time of imaging, and stores the acquired information and the calculated distortion aberration coefficient in the aberration information storage unit 60, the aberration information is stored. It is possible to easily determine under what conditions each distortion aberration coefficient stored in the storage unit 60 is calculated.

さらに、撮影装置10は、レンズIDと、撮影時の撮影情報とを取得し、これらの情報に対応する歪曲収差係数を収差情報保存部60から検索し、検索された歪曲収差係数に基づいて画像を補正する。したがって、撮影装置10は、現在使用されているレンズ及びズーム率に応じた歪曲収差係数を用いて補正を行うことができるので、補正をより正確に行うことができる。   Further, the photographing apparatus 10 acquires the lens ID and photographing information at the time of photographing, searches the aberration information storage unit 60 for a distortion aberration coefficient corresponding to these information, and images based on the searched distortion aberration coefficient. Correct. Therefore, since the photographing apparatus 10 can perform correction using the distortion aberration coefficient corresponding to the currently used lens and zoom ratio, the correction can be performed more accurately.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.


10 撮影装置
20 撮影部
21 レンズユニット
22 撮像素子
23 画像処理部
30 レンズ情報取得部
40 カメラ制御部
50 歪曲収差係数算出部
51 特徴点抽出部
52 特徴点相関部
53 姿勢推定部
54 収差係数算出部
60 収差情報保存部
70 収差補正部
80 画像保存部
90 表示部


DESCRIPTION OF SYMBOLS 10 Image pick-up device 20 Image pick-up part 21 Lens unit 22 Image pick-up element 23 Image processing part 30 Lens information acquisition part 40 Camera control part 50 Distortion aberration coefficient calculation part 51 Feature point extraction part 52 Feature point correlation part 53 Posture estimation part 54 Aberration coefficient calculation part 60 Aberration information storage unit 70 Aberration correction unit 80 Image storage unit 90 Display unit

Claims (6)

撮影用のレンズを有し、当該レンズを用いた撮影が可能な撮影部がそれぞれ異なる撮影姿勢で撮影を行うことで得られ、互いに一部の領域が重複する複数の画像情報の各々から特徴点を抽出する特徴点抽出部と、
一の画像情報から抽出された第1の特徴点と、他の画像情報から抽出された第2の特徴点とから、被写体上の同一点を示す特徴点の組を探索する特徴点相関部と、
前記特徴点の組に基づいて、前記他の画像情報が撮影されたときの撮影姿勢を推定する姿勢推定部と、
前記姿勢推定部が推定した撮影姿勢に基づいて、前記レンズの歪曲収差係数を算出する収差係数算出部と、を備えることを特徴とする、撮影装置。
A feature point is obtained from each of a plurality of pieces of image information that are obtained by shooting with different shooting postures by a shooting unit having a shooting lens and capable of shooting using the lens. A feature point extraction unit for extracting
A feature point correlator for searching for a set of feature points indicating the same point on the subject from a first feature point extracted from one image information and a second feature point extracted from other image information; ,
A posture estimation unit that estimates a photographing posture when the other image information is photographed based on the set of feature points;
An imaging apparatus comprising: an aberration coefficient calculation unit that calculates a distortion aberration coefficient of the lens based on the imaging attitude estimated by the attitude estimation unit.
前記特徴点相関部は、前記一の画像情報と前記他の画像情報との重複領域に存在する第1の特徴点のうち、所定数以上の第1の特徴点が前記特徴点の組を構成する場合に、前記一の画像情報と前記他の画像情報とが相関すると判定し、
前記姿勢推定部は、前記一の画像情報と前記他の画像情報とが相関すると判定された場合に、前記特徴点の組に基づいて、前記他の画像情報が撮影されたときの撮影姿勢を推定することを特徴とする、請求項1記載の撮影装置。
The feature point correlation unit includes a predetermined number or more of first feature points in a region where the one piece of image information and the other image information overlap, and the set of feature points. And determining that the one image information and the other image information are correlated,
The posture estimation unit determines a shooting posture when the other image information is shot based on the set of feature points when it is determined that the one image information and the other image information are correlated. The photographing apparatus according to claim 1, wherein the photographing apparatus is estimated.
前記姿勢推定部は、以下の式(1)の左辺を特異値分解することで、行列U、Vと、特異値を対角成分に持つ対角行列Sとの積U・S・Vに変換し、最小の特異値の列に対応する行列Vの列成分をa00〜a22とすることで、以下の式(2)で表される姿勢行列Rを算出することを特徴とする、請求項1または2記載の撮影装置。
Figure 2012134662
…(1)
ここで、nは自然数であり、i1、j1は、前記一の画像情報から抽出された特徴点のx座標及びy座標であり、i2、j2は、前記他の画像情報から抽出された特徴点のx座標及びy座標である。
Figure 2012134662
…(2)
The posture estimation unit performs singular value decomposition on the left side of the following equation (1), thereby converting the matrix U, V and the product U · S · V of the diagonal matrix S having singular values as diagonal components. The posture matrix R represented by the following expression (2) is calculated by setting the column components of the matrix V corresponding to the column of the smallest singular value as a00 to a22. Or the imaging device of 2.
Figure 2012134662
... (1)
Here, n is a natural number, i1 n and j1 n are the x and y coordinates of the feature points extracted from the one image information, and i2 n and j2 n are extracted from the other image information. These are the x coordinate and y coordinate of the feature point.
Figure 2012134662
... (2)
前記収差係数算出部は、前記姿勢行列Rに基づいて、前記一の画像情報から抽出された特徴点の真の像高を算出し、前記一の画像情報から抽出された特徴点の座標(i1、j1)に基づいて、前記一の画像情報から抽出された特徴点の実際の像高を算出し、算出された真の像高及び実際の像高と、以下の式(3)とに基づいて、歪曲収差係数h、hを算出することを特徴とする、請求項3記載の撮影装置。
Figure 2012134662
…(3)
Figure 2012134662
The aberration coefficient calculation unit calculates a true image height of a feature point extracted from the one image information based on the posture matrix R, and coordinates (i1) of the feature point extracted from the one image information n , j1 n ), the actual image height of the feature point extracted from the one image information is calculated, the calculated true image height and actual image height, and the following equation (3): 4. The photographing apparatus according to claim 3, wherein the distortion aberration coefficients h 1 and h 2 are calculated on the basis of.
Figure 2012134662
... (3)
Figure 2012134662
前記レンズを識別するための識別情報と、前記撮影部が前記被写体を撮影する際のズーム率に関するズーム率情報とを取得するレンズ情報取得部と、
前記レンズ情報取得部が取得した情報と、前記収差係数算出部が算出した歪曲収差係数とを対比させて記憶する収差情報保存部と、を備えることを特徴とする請求項1〜4のいずれか1項に記載の撮影装置。
A lens information acquisition unit that acquires identification information for identifying the lens and zoom rate information regarding a zoom rate when the imaging unit captures the subject;
The aberration information storage part which contrasts and memorize | stores the information acquired by the said lens information acquisition part and the distortion aberration coefficient which the said aberration coefficient calculation part calculated is provided, The any one of Claims 1-4 characterized by the above-mentioned. The imaging device according to item 1.
前記レンズ情報取得部が取得した情報に対応する歪曲収差係数を前記収差情報保存部から検索し、検索された歪曲収差係数に基づいて、前記撮影部が取得した画像情報を補正する収差補正部を備えることを特徴とする、請求項5記載の撮影装置。
An aberration correction unit that searches the aberration information storage unit for a distortion aberration coefficient corresponding to the information acquired by the lens information acquisition unit and corrects the image information acquired by the imaging unit based on the searched distortion aberration coefficient. The imaging device according to claim 5, further comprising:
JP2010283670A 2010-12-20 2010-12-20 Imaging device Pending JP2012134662A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010283670A JP2012134662A (en) 2010-12-20 2010-12-20 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010283670A JP2012134662A (en) 2010-12-20 2010-12-20 Imaging device

Publications (1)

Publication Number Publication Date
JP2012134662A true JP2012134662A (en) 2012-07-12

Family

ID=46649758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010283670A Pending JP2012134662A (en) 2010-12-20 2010-12-20 Imaging device

Country Status (1)

Country Link
JP (1) JP2012134662A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0993431A (en) * 1995-09-26 1997-04-04 Canon Inc Panorama image synthesis device
JPH09294225A (en) * 1996-02-27 1997-11-11 Ricoh Co Ltd Method for deciding parameter for image distortion correction and image pickup device
JPH1173492A (en) * 1996-11-08 1999-03-16 Ricoh Co Ltd Method for transforming coordinate, method for synthesizing image and information recording medium
WO2005093653A1 (en) * 2004-03-25 2005-10-06 Sanyo Electric Co., Ltd Image correcting device and method, image correction database creating method, information data providing device, image processing device, information terminal, and information database device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0993431A (en) * 1995-09-26 1997-04-04 Canon Inc Panorama image synthesis device
JPH09294225A (en) * 1996-02-27 1997-11-11 Ricoh Co Ltd Method for deciding parameter for image distortion correction and image pickup device
JPH1173492A (en) * 1996-11-08 1999-03-16 Ricoh Co Ltd Method for transforming coordinate, method for synthesizing image and information recording medium
WO2005093653A1 (en) * 2004-03-25 2005-10-06 Sanyo Electric Co., Ltd Image correcting device and method, image correction database creating method, information data providing device, image processing device, information terminal, and information database device

Similar Documents

Publication Publication Date Title
US10306165B2 (en) Image generating method and dual-lens device
US7529424B2 (en) Correction of optical distortion by image processing
JP4852591B2 (en) Stereoscopic image processing apparatus, method, recording medium, and stereoscopic imaging apparatus
JP5725975B2 (en) Imaging apparatus and imaging method
CN109712192B (en) Camera module calibration method and device, electronic equipment and computer readable storage medium
JP6047025B2 (en) Imaging apparatus and control method thereof
WO2014023231A1 (en) Wide-view-field ultrahigh-resolution optical imaging system and method
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2015012480A (en) Image processing apparatus and image processing method
US8937662B2 (en) Image processing device, image processing method, and program
JP2015148532A (en) Distance measuring device, imaging apparatus, distance measuring method, and program
JP2002190979A (en) Electronic camera, and recording medium of image processing program
JP4953770B2 (en) Imaging device
JP2012003576A (en) Image processing device, image processing method and program
JP2015115733A (en) Image processing method, image processor, imaging device, and image processing program
JP7474137B2 (en) Information processing device and control method thereof
WO2015198478A1 (en) Image distortion correction apparatus, information processing apparatus and image distortion correction method
JP2011259053A (en) Image processing apparatus and image processing method
WO2021172019A1 (en) Image processing device and method for controlling image processing device
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP2012134662A (en) Imaging device
JP2021136684A (en) Image processing apparatus and control method of image processing apparatus
JP6486453B2 (en) Image processing apparatus, image processing method, and program
JP2020191546A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150310