JP2011114480A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2011114480A
JP2011114480A JP2009267719A JP2009267719A JP2011114480A JP 2011114480 A JP2011114480 A JP 2011114480A JP 2009267719 A JP2009267719 A JP 2009267719A JP 2009267719 A JP2009267719 A JP 2009267719A JP 2011114480 A JP2011114480 A JP 2011114480A
Authority
JP
Japan
Prior art keywords
coordinate
image
unit
aberration amount
coordinate conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009267719A
Other languages
Japanese (ja)
Other versions
JP5359814B2 (en
Inventor
Hayato Nakao
早人 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2009267719A priority Critical patent/JP5359814B2/en
Publication of JP2011114480A publication Critical patent/JP2011114480A/en
Application granted granted Critical
Publication of JP5359814B2 publication Critical patent/JP5359814B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus which accurately corrects an image distortion and creates a high quality image even when an optical center and an imaging region center of an image pickup device are not in agreement while suppressing the system cost at a low level. <P>SOLUTION: The image processing apparatus processes an image focused on the image pickup device through an optical system, and is provided with a control unit which creates an aberration amount and an interpolation parameter of each dividing point according to the optical system when an image height is divided into a plurality of regions, a first coordinate conversion unit 61 which performs conversion to a coordinate system with the optical center as an original point, an aberration amount calculation unit 62 which calculates the aberration amount in respective pixel coordinates after coordinate conversion by the first coordinate conversion unit 61, a coordinate calculation unit 63 which corrects the positions of respective pixel coordinates based on the aberration amount, a second coordinate conversion unit 64 which converts the respective corrected pixel coordinates from the coordinate system with the optical center as the original point to a coordinate system with an arbitrary point in the imaging region of the image pickup device as an original point, and a pixel value calculation unit which calculates pixel values corresponding to respective pixel coordinates after coordinate conversion by the second coordinate conversion unit 64. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、デジタルカメラやデジタルビデオカメラ等の撮像装置に用いられ、光学レンズによって生じる収差を補正する画像処理装置に関する。   The present invention relates to an image processing apparatus that is used in an imaging apparatus such as a digital camera or a digital video camera and corrects aberrations caused by an optical lens.

従来から、デジタルカメラ・デジタルビデオカメラ等の撮像装置においては、光学レンズの収差に起因する課題があり、収差の一つとして歪曲収差がある。この歪曲収差は、画像の中心付近と周辺部での結像倍率が異なるために発生する。光学設計上の工夫により、歪曲収差を低減することは可能であるが、歪みの影響を完全に回避することは困難である。そこで、画像処理装置におけるデジタル画像処理により、光学レンズで生じた歪曲収差を補正する方法が提案されている。   Conventionally, an imaging apparatus such as a digital camera or a digital video camera has a problem due to aberration of an optical lens, and distortion is one of aberrations. This distortion occurs because the imaging magnification is different between the vicinity of the center of the image and the peripheral portion. Although it is possible to reduce the distortion aberration by devising the optical design, it is difficult to completely avoid the influence of the distortion. In view of this, a method for correcting distortion generated in an optical lens by digital image processing in an image processing apparatus has been proposed.

特許文献1には、低コストで画像の歪みを補正し、高品質な画像をリアルタイムに生成するための画像処理装置、画像処理システム、及び画像処理方法が記載されている。この画像処理装置は、歪みを持った画像について、複数の格子に分割し、各格子単位の歪みを持った画像を、各格子単位の補正ベクトルに応じて補正する画像補正手段と、歪み補正対象の画像の大きさに対応する画像について、各格子単位で予めエンコードされた格子ごとの補正ベクトルをデコードし、該デコードされた各格子単位の補正ベクトルを画像補正手段へ供給するデコード手段とを備えている。   Patent Document 1 describes an image processing apparatus, an image processing system, and an image processing method for correcting image distortion at low cost and generating a high-quality image in real time. This image processing apparatus divides an image having distortion into a plurality of grids, and corrects an image having distortion in each grid unit according to a correction vector in each grid unit, and a distortion correction target A decoding unit that decodes a correction vector for each lattice, which is encoded in advance in each lattice unit, and supplies the decoded correction vector for each lattice unit to the image correction unit. ing.

この画像処理装置によれば、撮像された光学歪みを伴う画像に対して水平及び垂直方向に1次元補間演算が施され、補正ベクトルが効率的に利用されるため、静止画像だけでなくリアルタイム処理が必要な動画像に対する歪み補正が簡易な構成により実現され、歪みの無い高画質な画像を容易に得ることができる。   According to this image processing apparatus, a one-dimensional interpolation operation is performed in the horizontal and vertical directions on the captured image with optical distortion, and the correction vector is efficiently used. Therefore, distortion correction for a moving image that requires high-resolution images is realized with a simple configuration, and a high-quality image without distortion can be easily obtained.

また、信号処理によりリアルタイムに画像の歪みを補正することができるため、レンズ設計の自由度を高めることができ、レンズの小型化やレンズの低コスト化を容易に実現することができる。   In addition, since image distortion can be corrected in real time by signal processing, the degree of freedom in lens design can be increased, and lens size reduction and lens cost reduction can be easily realized.

特開2004−80545号公報JP 2004-80545 A

しかしながら、特許文献1に記載の画像処理装置は、全ての格子単位に対応する補正ベクトルをデータとして備えている必要があるので、システムコストを安価に抑えるのが困難であるという問題が生じる。   However, since the image processing apparatus described in Patent Document 1 needs to include correction vectors corresponding to all lattice units as data, there arises a problem that it is difficult to keep the system cost low.

また、従来の画像処理装置は、一般的に光学中心と撮像領域中心とが一致するように設計されており、画像の歪みを補正する際にも両者が一致していることを前提とした補正を行うのが通常である。しかしながら、製造ばらつきが大きい場合に、大量生産された画像処理装置の中には光学中心と撮像領域中心がずれた製品も存在するため、画像の歪みに対する補正が不正確となる可能性もある。   In addition, conventional image processing apparatuses are generally designed so that the optical center coincides with the center of the imaging region, and correction is performed on the assumption that both are also coincident when correcting image distortion. It is normal to do. However, when the manufacturing variation is large, there is a product in which the optical center and the imaging region center are deviated in mass-produced image processing apparatuses, so that correction for image distortion may be inaccurate.

本発明は上述した従来技術の問題点を解決するもので、システムコストを安価に抑えるとともに、光学中心と撮像素子の撮像領域中心とが一致していない場合においても画像の歪みを正確に補正して高品質な画像を生成する画像処理装置を提供することを課題とする。   The present invention solves the above-mentioned problems of the prior art, reduces system cost, and corrects image distortion accurately even when the optical center and the imaging area center of the imaging device do not match. It is an object of the present invention to provide an image processing apparatus that generates a high-quality image.

本発明に係る画像処理装置は、上記課題を解決するために、光学系を介して被写体からの光を撮像して画像データを生成する撮像素子と、前記光学系により被写体が結像する領域の像高を複数の領域に分割し、前記領域毎に分割点を設定して、前記各分割点の収差量と前記分割点間の像高の収差量を求めるために必要な補間パラメータとを生成する制御部と、前記画像データの各画素座標について、前記撮像素子の撮像領域における任意の点を原点とする座標系から前記光学系により被写体が結像する領域の光学中心を原点とする座標系に変換する第1座標変換部と、前記制御部により生成された前記各分割点の収差量と補間パラメータとに基づいて、前記第1座標変換部による座標変換後の画像データの各画素座標における収差量を算出する収差量算出部と、前記収差量算出部により算出された各画素座標における収差量に基づいて、前記第1座標変換部による座標変換後の画像データの各画素座標の位置を補正する座標算出部と、前記座標算出部により算出された座標位置補正後の画像データの各画素座標について、前記光学中心を原点とする座標系から前記撮像素子の撮像領域における任意の点を原点とする座標系に変換する第2座標変換部と、前記撮像素子により生成された画像データにおける複数の画素を使用して、前記第2座標変換部による座標変換後の画像データの各画素座標に対応する画素値を算出する画素値算出部とを備えることを特徴とする。   In order to solve the above problems, an image processing apparatus according to the present invention includes an imaging element that captures light from a subject through an optical system to generate image data, and a region in which the subject is imaged by the optical system. Divide the image height into a plurality of areas, set the dividing point for each area, and generate the aberration amount of each dividing point and the interpolation parameters necessary to calculate the aberration amount of the image height between the dividing points A coordinate system having an optical center of an area where an object is imaged by the optical system as an origin from a coordinate system having an arbitrary point in the imaging area of the imaging device as an origin for each pixel coordinate of the image data A first coordinate conversion unit that converts the image data into the pixel coordinates of the image data after the coordinate conversion by the first coordinate conversion unit based on the aberration amount and the interpolation parameter of each division point generated by the control unit. Calculate the amount of aberration An aberration amount calculation unit, and a coordinate calculation unit that corrects the position of each pixel coordinate of the image data after coordinate conversion by the first coordinate conversion unit based on the aberration amount at each pixel coordinate calculated by the aberration amount calculation unit And for each pixel coordinate of the image data after the coordinate position correction calculated by the coordinate calculation unit, from a coordinate system having the optical center as the origin to a coordinate system having an arbitrary point in the imaging region of the imaging element as the origin Using a second coordinate conversion unit for conversion and a plurality of pixels in the image data generated by the image sensor, pixel values corresponding to the pixel coordinates of the image data after coordinate conversion by the second coordinate conversion unit are obtained. And a pixel value calculation unit for calculating.

本発明によれば、システムコストを安価に抑えるとともに、光学中心と撮像素子の撮像領域中心とが一致していない場合においても画像の歪みを正確に補正して高品質な画像を生成することができる。   According to the present invention, the system cost can be kept low, and even when the optical center and the imaging region center of the imaging device do not coincide with each other, it is possible to accurately correct image distortion and generate a high-quality image. it can.

本発明の実施例1の形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of the form of Example 1 of this invention. 本発明の実施例1の形態の画像処理装置の収差補正部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the aberration correction part of the image processing apparatus of the form of Example 1 of this invention. 本発明の実施例1の形態の画像処理装置のリード座標計算部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the lead coordinate calculation part of the image processing apparatus of the form of Example 1 of this invention. 本発明の実施例1の形態の画像処理装置における歪曲収差補正前の座標を計算する方法について説明する図である。It is a figure explaining the method to calculate the coordinate before distortion aberration correction in the image processing apparatus of the form of Example 1 of this invention. 本発明の実施例1の形態の画像処理装置における光学中心と撮像素子の撮像領域中心が異なる場合について説明する図である。It is a figure explaining the case where the optical center in the image processing apparatus of the form of Example 1 of this invention differs from the imaging region center of an image pick-up element. 本発明の実施例1の形態の画像処理装置において光学中心の水平方向及び垂直方向の座標測定方法について説明する図である。It is a figure explaining the coordinate measuring method of the horizontal direction of an optical center, and the vertical direction in the image processing apparatus of the form of Example 1 of this invention. 本発明の実施例1の形態の画像処理装置において光学中心の水平方向及び垂直方向の座標測定方法の1例について説明する図である。It is a figure explaining one example of the coordinate measuring method of the horizontal direction of an optical center, and the vertical direction in the image processing apparatus of the form of Example 1 of this invention. 本発明の実施例1の形態の画像処理装置の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the image processing apparatus of the form of Example 1 of this invention. 本発明の実施例2の形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of the form of Example 2 of this invention. 本発明の実施例2の形態の画像処理装置における焦点距離と収差量との関係を示す図である。It is a figure which shows the relationship between the focal distance and aberration amount in the image processing apparatus of the form of Example 2 of this invention. 本発明の実施例2の形態の画像処理装置の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the image processing apparatus of the form of Example 2 of this invention.

以下、本発明の画像処理装置の実施の形態を、図面に基づいて詳細に説明する。   Embodiments of an image processing apparatus according to the present invention will be described below in detail with reference to the drawings.

以下、本発明の実施例について図面を参照しながら説明する。まず、本実施の形態の構成を説明する。図1は、本発明の実施例1の画像処理装置の構成を示すブロック図である。この画像処理装置は、図1に示すように光学系5を介して撮像素子10に結像した画像を処理する装置であり、撮像素子10、信号処理部20、収差補正部30、及び制御部40を備えている。   Embodiments of the present invention will be described below with reference to the drawings. First, the configuration of the present embodiment will be described. FIG. 1 is a block diagram illustrating the configuration of the image processing apparatus according to the first embodiment of the present invention. This image processing apparatus is an apparatus that processes an image formed on an image sensor 10 via an optical system 5 as shown in FIG. 1, and includes an image sensor 10, a signal processing unit 20, an aberration correction unit 30, and a control unit. 40.

光学系5は、例えば交換可能な複数のレンズにより構成され、被写体からの反射光を集光して撮像素子10に結像させる。撮像素子10は、結像された画像を画像データに変換して出力する。ここで、例えば画像データとは画素毎のRed、Green、Blueといった色データとする。   The optical system 5 is constituted by a plurality of interchangeable lenses, for example, and collects reflected light from the subject and forms an image on the image sensor 10. The image sensor 10 converts the imaged image into image data and outputs the image data. Here, for example, the image data is color data such as Red, Green, and Blue for each pixel.

信号処理部20は、撮像素子10により出力された画像データ(色データ)に基づいて、Red、Green、Blueといった色データをY(輝度)、C(色差)データに変換して出力する。   The signal processing unit 20 converts color data such as Red, Green, and Blue into Y (luminance) and C (color difference) data based on the image data (color data) output from the image sensor 10 and outputs the data.

なお、信号処理部20は、Y(輝度)、C(色差)データに変換する代わりにRed、Green、Blueといった色データをそのまま出力する構成としてもよい。その場合には、後述する収差補正部30が出力された色データに基づいて収差補正を行う。しかしながら、信号処理部20がY(輝度)、C(色差)データ形式に変換する構成とする場合には、データ量を削減して必要とするメモリを少なくすることができるという利点を有する。   The signal processing unit 20 may be configured to output color data such as Red, Green, and Blue as they are instead of converting into Y (luminance) and C (color difference) data. In that case, aberration correction is performed based on the output color data by an aberration correction unit 30 described later. However, when the signal processing unit 20 is configured to convert to the Y (luminance) and C (color difference) data format, there is an advantage that the required memory can be reduced by reducing the data amount.

制御部40は、像高を複数の分割点に分割した場合に、光学系5に応じた各分割点の収差量と分割点間の像高の収差量を求めるのに必要な補間パラメータとを生成し、後述する収差補正部30内の補間パラメータレジスタ31に書き込む。ここで、収差量とは、歪曲収差補正前の像高を歪曲収差補正後の像高で割ったものである。   When the image height is divided into a plurality of dividing points, the control unit 40 calculates the aberration amount at each dividing point corresponding to the optical system 5 and the interpolation parameter necessary for obtaining the aberration amount of the image height between the dividing points. Generated and written in an interpolation parameter register 31 in the aberration correction unit 30 described later. Here, the aberration amount is obtained by dividing the image height before distortion aberration correction by the image height after distortion aberration correction.

なお、光学系5に応じた各分割点の収差量及び補間パラメータを生成する方法は、どのようなものでもよい。例えば、制御部40は、光学系の種類に応じた収差量や補間パラメータ等の情報をフラッシュメモリやROM(Read On Memory)等の記憶手段にテーブルとして予め記憶しており、光学系5に搭載されたROMをリードすることによって搭載された光学系5を識別し、テーブルを参照して現在の光学系5に応じた収差量や補間パラメータを生成することができる。また、光学系5にROMが搭載されていない場合や制御部40が光学系5に搭載されたROMをリードする手段を持たない場合において、制御部40は、ユーザの外部操作等に基づいて光学系5の種類を特定する構成でもよい。   Note that any method may be used to generate the aberration amount and the interpolation parameter at each division point according to the optical system 5. For example, the control unit 40 stores information such as an aberration amount and an interpolation parameter according to the type of the optical system in advance as a table in a storage unit such as a flash memory or a ROM (Read On Memory) and is mounted on the optical system 5. The mounted optical system 5 is identified by reading the read ROM, and an aberration amount and an interpolation parameter corresponding to the current optical system 5 can be generated by referring to the table. In addition, when the ROM is not mounted on the optical system 5 or when the control unit 40 does not have a means for reading the ROM mounted on the optical system 5, the control unit 40 performs an optical operation based on the user's external operation or the like. A configuration for specifying the type of the system 5 may be used.

収差補正部30は、入力された画像データの歪曲収差を補正し、補正後の画像データを出力する。図2は、本実施例の画像処理装置の収差補正部30の詳細な構成を示すブロック図である。収差補正部30は、図2に示すように、補間パラメータレジスタ31、リード座標計算部32、データライト部33、画像メモリ34、データリード部35、及び画素補間部36により構成される。   The aberration correction unit 30 corrects distortion aberration of the input image data, and outputs the corrected image data. FIG. 2 is a block diagram illustrating a detailed configuration of the aberration correction unit 30 of the image processing apparatus according to the present exemplary embodiment. As shown in FIG. 2, the aberration correction unit 30 includes an interpolation parameter register 31, a read coordinate calculation unit 32, a data write unit 33, an image memory 34, a data read unit 35, and a pixel interpolation unit 36.

補間パラメータレジスタ31は、制御部40により出力された各分割点の収差量と補間パラメータとを記憶する。   The interpolation parameter register 31 stores the aberration amount and the interpolation parameter at each division point output by the control unit 40.

リード座標計算部32は、補間パラメータレジスタ31に記憶された収差量と補間パラメータの情報を読み出し、これらの情報に基づいて歪曲収差補正後の画像座標から歪曲収差補正前の画像座標を計算する。図3は、本実施例の画像処理装置のリード座標計算部32の詳細な構成を示すブロック図である。リード座標計算部32は、図3に示すように、第1座標変換部61、収差量算出部62、座標算出部63、及び第2座標変換部64により構成される。   The lead coordinate calculation unit 32 reads out aberration amount information and interpolation parameter information stored in the interpolation parameter register 31, and calculates image coordinates before distortion aberration correction from image coordinates after distortion aberration correction based on these information. FIG. 3 is a block diagram illustrating a detailed configuration of the lead coordinate calculation unit 32 of the image processing apparatus according to the present exemplary embodiment. As shown in FIG. 3, the lead coordinate calculation unit 32 includes a first coordinate conversion unit 61, an aberration amount calculation unit 62, a coordinate calculation unit 63, and a second coordinate conversion unit 64.

第1座標変換部61は、収差補正部30に入力される画像データの各画素座標について、撮像素子10の撮像領域における任意の点を原点とする座標系から光学系5により被写体が結像する領域の光学中心を原点とする座標系に変換する。   The first coordinate conversion unit 61 forms an object by the optical system 5 from a coordinate system with an arbitrary point in the imaging region of the imaging element 10 as the origin for each pixel coordinate of the image data input to the aberration correction unit 30. Convert to a coordinate system with the optical center of the region as the origin.

収差量算出部62は、制御部40により生成された各分割点の収差量と補間パラメータとに基づいて、第1座標変換部61による座標変換後の画像データの各画素座標における収差量を算出する。   The aberration amount calculation unit 62 calculates the aberration amount at each pixel coordinate of the image data after the coordinate conversion by the first coordinate conversion unit 61 based on the aberration amount and the interpolation parameter of each division point generated by the control unit 40. To do.

座標算出部63は、収差量算出部62により算出された画像データの各画素座標における収差量に基づいて、第1座標変換部61による座標変換後の画像データの各画素座標の位置を補正する。   The coordinate calculation unit 63 corrects the position of each pixel coordinate of the image data after the coordinate conversion by the first coordinate conversion unit 61 based on the aberration amount at each pixel coordinate of the image data calculated by the aberration amount calculation unit 62. .

第2座標変換部64は、座標算出部63により各画素座標の位置を補正された画像データの各画素座標について、光学中心を原点とする座標系から撮像素子10の撮像領域における任意の点を原点とする座標系に変換する。   The second coordinate conversion unit 64 calculates an arbitrary point in the imaging region of the imaging element 10 from the coordinate system with the optical center as the origin for each pixel coordinate of the image data in which the position of each pixel coordinate is corrected by the coordinate calculation unit 63. Convert to the origin coordinate system.

データライト部33は、信号処理部20により出力された画像データ(Y(輝度)、C(色差)データ)を画像メモリ34に書き込む。画像メモリ34は、データライト部33により書き込まれた画像データを記憶する。   The data write unit 33 writes the image data (Y (luminance), C (color difference) data) output by the signal processing unit 20 in the image memory 34. The image memory 34 stores the image data written by the data write unit 33.

データリード部35は、リード座標計算部32により計算された画像座標に基づいて画素補間に必要な複数画素のメモリアドレスを計算し、画素補間に必要な複数画素を画像メモリ34から読み出す。   The data read unit 35 calculates a memory address of a plurality of pixels necessary for pixel interpolation based on the image coordinates calculated by the read coordinate calculation unit 32 and reads out a plurality of pixels necessary for pixel interpolation from the image memory 34.

画素補間部36は、本発明の画素値算出部に対応し、撮像素子10により生成された画像データにおける複数画素を使用した画素補間により、第2座標変換部64による座標変換後の画像データの各画素座標に対応する画素値を算出する。具体的には、画素補間部36は、リード座標計算部32内の第2座標変換部64により出力された座標変換後の画像データの各画素座標に基づいて、画素補間に使用する複数画素の重み付けを計算し、データリード部35により読み出された画像データの複数画素に対して重み付け補間を行い、補間された画素を画素座標に対応する画素値として出力する。画素補間部36は、全ての画像データの画素座標に対応する画素値を算出することで、最終的な出力画像を出力することができる。   The pixel interpolation unit 36 corresponds to the pixel value calculation unit of the present invention, and performs pixel interpolation using a plurality of pixels in the image data generated by the image sensor 10, so that the image data after the coordinate conversion by the second coordinate conversion unit 64 is performed. A pixel value corresponding to each pixel coordinate is calculated. Specifically, the pixel interpolation unit 36 uses a plurality of pixels to be used for pixel interpolation based on each pixel coordinate of the image data after coordinate conversion output by the second coordinate conversion unit 64 in the lead coordinate calculation unit 32. Weighting is calculated, weighted interpolation is performed on a plurality of pixels of the image data read by the data read unit 35, and the interpolated pixels are output as pixel values corresponding to the pixel coordinates. The pixel interpolation unit 36 can output a final output image by calculating pixel values corresponding to the pixel coordinates of all the image data.

次に、上述のように構成された本実施の形態の作用を説明する。図4は、本実施例の画像処理装置において、歪曲収差補正後の画像座標から歪曲収差補正前の画像座標を計算する方法について説明する図である。図4において、A’B’C’D’は、光学系5により被写体からの光が結像する有効領域であり、点Pは光学中心を表す。PA’は最大像高である。   Next, the operation of the present embodiment configured as described above will be described. FIG. 4 is a diagram illustrating a method for calculating image coordinates before distortion correction from image coordinates after distortion correction in the image processing apparatus of the present embodiment. In FIG. 4, A′B′C′D ′ is an effective area where light from a subject forms an image by the optical system 5, and a point P represents an optical center. PA 'is the maximum image height.

まず、本実施例の画像処理装置の設計者は、最大像高を図4に示すように複数の領域PQ’,Q’R’,R’S’,S’A’に分割し、歪曲収差補正後の点P,Q’,R’,S’,A’における収差量を予め求める。点P,Q’,R’,S’,A’は、本発明の分割点に対応する。求めた各分割点の収差量は、上述したように制御部40により記憶され、必要に応じて収差補正部30内の補間パラメータレジスタ31に書き込まれる。   First, the designer of the image processing apparatus of the present embodiment divides the maximum image height into a plurality of regions PQ ′, Q′R ′, R ′S ′, and S′A ′ as shown in FIG. The aberration amounts at the corrected points P, Q ′, R ′, S ′, and A ′ are obtained in advance. Points P, Q ', R', S ', A' correspond to the dividing points of the present invention. The obtained aberration amount at each division point is stored by the control unit 40 as described above, and written to the interpolation parameter register 31 in the aberration correction unit 30 as necessary.

例えば歪曲収差補正後の点E’における収差量を求める場合に、本実施例の画像処理装置が有する収差補正部30は、点R’と点S’の収差量を補間して点E’における収差量を求める。   For example, when obtaining the aberration amount at the point E ′ after distortion correction, the aberration correction unit 30 included in the image processing apparatus of the present embodiment interpolates the aberration amounts at the points R ′ and S ′ to interpolate at the point E ′. Obtain the amount of aberration.

ここで、収差量の補間方法は、線形補間やスプライン補間等のn次多項式(nは自然数)による補間を用いたものである。また必ずしも分割点の間隔を等間隔にする必要は無く、収差量の変化が大きい領域において分割間隔を狭めたり分割数を増やしたりすることにより、本発明の画像処理装置は、補間精度を上げることができる。   Here, the aberration amount interpolation method uses interpolation by an n-order polynomial (n is a natural number) such as linear interpolation or spline interpolation. In addition, it is not always necessary to make the interval between the dividing points equal, and the image processing apparatus of the present invention increases the interpolation accuracy by narrowing the dividing interval or increasing the number of divisions in a region where the change in the amount of aberration is large. Can do.

歪曲収差補正後の任意の点における収差量をスプライン補間で算出する場合には、スプライン補間の式は以下に示すようになる。   When the aberration amount at an arbitrary point after distortion correction is calculated by spline interpolation, the spline interpolation formula is as follows.

x[i]≦x<x[i+1]の場合において、
xx=x−x[i] …(1)
y=y[i]+xx*(q[i]+xx*(r[i]+s[i]*xx)) …(2)
ここで、xは、任意の点における像高の2乗、iは整数の値である。また、yは、任意の点における収差量である。任意の点における像高をxとしてもよいが、xを任意の点における像高の2乗とすることにより演算量を減らすことができる。点Pを原点とし、任意の点の水平方向の座標をcx’、垂直方向の座標をcy’とすると、任意の点における像高の2乗xは、以下の式で示される。
In the case of x [i] ≦ x <x [i + 1],
xx = xx- [i] (1)
y = y [i] + xx * (q [i] + xx * (r [i] + s [i] * xx)) (2)
Here, x is the square of the image height at an arbitrary point, and i is an integer value. Further, y is an aberration amount at an arbitrary point. Although the image height at an arbitrary point may be x, the amount of calculation can be reduced by setting x to the square of the image height at an arbitrary point. When the point P is the origin, the horizontal coordinate of an arbitrary point is cx ′, and the vertical coordinate is cy ′, the square x of the image height at the arbitrary point is expressed by the following equation.

x=cx’*cx’+cy’*cy’ …(3)
仮に点E’における像高をxとする場合には、さらに平方根を算出する必要がある。
x = cx ′ * cx ′ + cy ′ * cy ′ (3)
If the image height at the point E ′ is x, it is necessary to further calculate the square root.

ここで、x[0],y[0],q[0],r[0],s[0]は、点Pにおける補間パラメータである。x[1],y[1],q[1],r[1],s[1]は、点Q’における補間パラメータである。x[2],y[2],q[2],r[2],s[2]は、点R’における補間パラメータである。x[3],y[3],q[3],r[3],s[3]は、点S’における補間パラメータである。x[4],y[4],q[4],r[4],s[4]は、点A’における補間パラメータである。   Here, x [0], y [0], q [0], r [0], and s [0] are interpolation parameters at the point P. x [1], y [1], q [1], r [1], and s [1] are interpolation parameters at the point Q '. x [2], y [2], q [2], r [2], and s [2] are interpolation parameters at the point R ′. x [3], y [3], q [3], r [3], and s [3] are interpolation parameters at the point S ′. x [4], y [4], q [4], r [4], and s [4] are interpolation parameters at the point A ′.

また、x[0]は点P、x[1]は点Q’、x[2]は点R’、x[3]は点S’、x[4]は点A’における像高の2乗である。さらに、y[0]は点P、y[1]は点Q’、y[2]は点R’、y[3]は点S’、y[4]は点A’における収差量を示す。   Also, x [0] is the point P, x [1] is the point Q ′, x [2] is the point R ′, x [3] is the point S ′, and x [4] is the image height 2 at the point A ′. It is a power. Further, y [0] is the point P, y [1] is the point Q ', y [2] is the point R', y [3] is the point S ', and y [4] is the aberration amount at the point A'. .

例えば、図4に示す点E’の像高について考える。点E’の像高については、x[2]≦x<x[3]と表すことができるので、(1)式は、xx=x−x[2]となる。また、(2)式は、y=y[2]+xx*(q[2]+xx*(r[2]+s[2]*xx))で表される。   For example, consider the image height at point E ′ shown in FIG. Since the image height at the point E ′ can be expressed as x [2] ≦ x <x [3], the equation (1) is xx = xx−2 [2]. The equation (2) is expressed by y = y [2] + xx * (q [2] + xx * (r [2] + s [2] * xx)).

図4に示す点E’の座標位置補正後の点Eの水平方向の座標をcxとすると、cx=y*cx’である。また、点Eの垂直方向の座標をcyとすると、cy=y*cy’である。   Assuming that the horizontal coordinate of the point E after the coordinate position correction of the point E ′ shown in FIG. 4 is cx, cx = y * cx ′. Further, if the vertical coordinate of the point E is cy, cy = y * cy ′.

図5は、本実施例の画像処理装置における光学中心と撮像素子10の撮像領域中心が異なる場合について説明する図である。図5において、A’B’C’D’は、光学系5により被写体が結像する有効領域の左上端、左下端、右下端、右上端を示しており、点Pは光学系5の有効領域の光学中心を表す。一方、A”B”C”D”は、撮像素子10の撮像領域であり、点P”は撮像領域中心を表す。   FIG. 5 is a diagram illustrating a case where the optical center and the imaging area center of the imaging device 10 are different in the image processing apparatus of the present embodiment. In FIG. 5, A′B′C′D ′ indicates the upper left end, the lower left end, the lower right end, and the upper right end of the effective region where the subject forms an image by the optical system 5, and the point P is the effective of the optical system 5. Represents the optical center of the region. On the other hand, A ″ B ″ C ″ D ″ is an imaging region of the image sensor 10, and a point P ″ represents the center of the imaging region.

また、図5において、xsizeは撮像素子10の水平画素数を表し、ysizeは撮像素子10の垂直画素数を表す。さらに、光学中心Pの水平方向の座標をxp、垂直方向の座標をyp、撮像領域中心P”の水平方向の座標をxp”、垂直方向の座標をyp”とすると、光学中心Pに対する撮像素子10の撮像領域中心P”のオフセットxoff、yoffは、以下の式で表される。   In FIG. 5, xsize represents the number of horizontal pixels of the image sensor 10, and ysize represents the number of vertical pixels of the image sensor 10. Further, when the horizontal coordinate of the optical center P is xp, the vertical coordinate is yp, the horizontal coordinate of the imaging region center P ″ is xp ″, and the vertical coordinate is yp ″, the imaging element with respect to the optical center P The offsets xoff and yoff of the ten imaging region centers P ″ are expressed by the following equations.

xoff=xp”−xp …(4)
yoff=yp”−yp …(5)
これらのオフセット情報は、補間パラメータの一種として制御部40により補間パラメータレジスタ31に書き込まれる。制御部40は、光学中心Pと撮像素子10の撮像領域中心P”とのずれ量を示すオフセット情報について、どのような方法で取得してもよい。以下に一例を示す。図6,7は、本実施例の画像処理装置において光学中心Pの水平方向の座標xp及び垂直方向の座標ypの測定方法を説明する図である。
xoff = xp ″ −xp (4)
yoff = yp ″ −yp (5)
The offset information is written into the interpolation parameter register 31 by the control unit 40 as a kind of interpolation parameter. The control unit 40 may acquire the offset information indicating the shift amount between the optical center P and the imaging region center P ″ of the imaging device 10 by any method. An example is shown below. FIG. 6 is a diagram for explaining a method of measuring the horizontal coordinate xp and the vertical coordinate yp of the optical center P in the image processing apparatus of the present embodiment.

図6に示すように、撮像素子10は、光学系5を介して白地に黒丸が描画されたチャート1を撮影する。黒丸は、撮影するのに十分な大きさを持っている。また、黒丸の中心は光学系5の光軸中心3上の光学中心Pと一致するように配置する。   As shown in FIG. 6, the image sensor 10 photographs the chart 1 in which a black circle is drawn on a white background via the optical system 5. The black circle is large enough to shoot. The center of the black circle is arranged so as to coincide with the optical center P on the optical axis center 3 of the optical system 5.

光学系5の空間周波数特性の影響により、撮像素子10に結像した黒丸は、図7(a)のようにボケた像となる。ここで、撮像中心10によって生成される画像の最大輝度を255とする。撮像素子10に結像した像に対して輝度の50%以上を最大輝度255とし、それ以外は最小輝度0とする2値化を行うと、図7(b)に示すような像となる。   Due to the influence of the spatial frequency characteristics of the optical system 5, the black circle formed on the image sensor 10 becomes a blurred image as shown in FIG. Here, the maximum luminance of the image generated by the imaging center 10 is 255. When binarization is performed with respect to the image formed on the image sensor 10 with 50% or more of the luminance set to the maximum luminance 255 and the other luminance set to the minimum luminance 0, an image as shown in FIG. 7B is obtained.

輝度0の部分の水平方向の最小値をxminとし、最大値をxmaxとし、垂直方向の最小値をyminとし、最大値をymaxとすると、図5に示す光学中心Pの水平方向の座標xp及び垂直方向の座標ypは、以下の式により表される。   Assuming that the minimum value in the horizontal direction of the portion of brightness 0 is xmin, the maximum value is xmax, the minimum value in the vertical direction is ymin, and the maximum value is ymax, the horizontal coordinate xp of the optical center P shown in FIG. The vertical coordinate yp is expressed by the following equation.

xp=(xmin+xmax)/2 …(6)
yp=(ymin+ymax)/2 …(7)
このようにして求められたxp,ypの値を(4)(5)式に代入することにより、オフセットxoff、yoffが求まる。制御部40は、例えば製造段階において上述した方法によりオフセット情報xoff、yoffを取得しており、補間パラメータとして使用する。
xp = (xmin + xmax) / 2 (6)
yp = (ymin + ymax) / 2 (7)
By substituting the values of xp and yp determined in this way into the equations (4) and (5), the offsets xoff and yoff are obtained. The control unit 40 acquires offset information xoff and yoff by the method described above, for example, in the manufacturing stage, and uses it as an interpolation parameter.

次に、収差補正部30の動作について詳細に説明する。図8は、本実施例の画像処理装置の動作を示すフローチャート図である。なお、収差量の補間方法は、スプライン補間を用いたものとして説明する。   Next, the operation of the aberration correction unit 30 will be described in detail. FIG. 8 is a flowchart showing the operation of the image processing apparatus of this embodiment. The aberration amount interpolation method will be described on the assumption that spline interpolation is used.

最初に、制御部40は、分割点P,Q’,R’,S’,A’の各々の収差量と補間パラメータとを生成する。本実施例において、制御部40は、予め収差量と補間パラメータの情報を有しているので、それらの情報を出力するのみでよい。補間パラメータは、撮像素子10の水平画素数xsize、垂直画素数ysize、光学中心Pに対する撮像素子10の撮像領域中心P”の水平オフセットxoff、及び垂直オフセットyoffを含むものとする。制御部40は、分割点P,Q’,R’,S’,A’の各々の収差量と補間パラメータとを補間パラメータレジスタ31に書き込む(ステップS1)。   First, the control unit 40 generates an aberration amount and an interpolation parameter for each of the division points P, Q ′, R ′, S ′, and A ′. In the present embodiment, since the control unit 40 has information on the aberration amount and the interpolation parameter in advance, it is only necessary to output such information. The interpolation parameters include the horizontal pixel number xsize, the vertical pixel number ysize, the horizontal offset xoff of the imaging area center P ″ of the imaging element 10 with respect to the optical center P, and the vertical offset yoff. The aberration amounts and the interpolation parameters of the points P, Q ′, R ′, S ′, and A ′ are written in the interpolation parameter register 31 (step S1).

次に、リード座標計算部32内の第1座標変換部61は、図5に示す点A”を原点とした座標系における撮像領域中心P”の水平方向の座標xp”と、垂直方向の座標yp”とをxsize、ysizeに基づいて算出する(ステップS2)。   Next, the first coordinate conversion unit 61 in the lead coordinate calculation unit 32 and the horizontal coordinate xp ″ of the imaging region center P ″ in the coordinate system with the point A ″ shown in FIG. 5 as the origin and the vertical coordinate yp ″ is calculated based on xsize and ysize (step S2).

次に、第1座標変換部61は、図5に示す点A”を原点とした座標系における画像データの水平座標sx”及び垂直座標sy”を原点に設定する(ステップS3)。その後、第1座標変換部61は、後述するように水平座標sx”及び垂直座標sy”を順次変えていくことにより、撮像領域全域をカバーする。   Next, the first coordinate conversion unit 61 sets the horizontal coordinate sx ″ and the vertical coordinate sy ″ of the image data in the coordinate system with the point A ″ shown in FIG. 5 as the origin as the origin (step S3). The 1-coordinate conversion unit 61 covers the entire imaging region by sequentially changing the horizontal coordinate sx ″ and the vertical coordinate sy ″ as will be described later.

次に、第1座標変換部61は、sy”とysize−1とを比較する。sy”≦ysize−1の場合には、後述するステップS5に進み、そうでない場合には処理を終了する(ステップS4)。すなわち、第1座標変換部61は、垂直座標sy”が撮像素子10の撮像領域中であるか否かを判定している。   Next, the first coordinate conversion unit 61 compares sy ″ with ysize−1. If sy ″ ≦ ysize−1, the process proceeds to step S5 to be described later. If not, the process ends ( Step S4). That is, the first coordinate conversion unit 61 determines whether or not the vertical coordinate sy ″ is in the imaging region of the imaging device 10.

次に、第1座標変換部61は、sx”とxsize−1とを比較する(ステップS5)。sx”≦xsize−1の場合には、後述するステップS7に進み、そうでない場合にはsy”に1を加算するとともにsx”に0を代入し、ステップS4に戻る(ステップS6)。すなわち、第1座標変換部61は、垂直座標sx”が撮像素子10の撮像領域中であるか否かを判定し、sx”が撮像領域を超えた場合にはsx”を0に戻して垂直座標を1段下に下げている。   Next, the first coordinate conversion unit 61 compares sx ″ with xsize−1 (step S5). If sx ″ ≦ xsize−1, the process proceeds to step S7 to be described later. “1” is added to “1” and “0” is substituted for “sx”, and the process returns to Step S4 (Step S6). That is, the first coordinate conversion unit 61 determines whether or not the vertical coordinate sx ″ is within the imaging region of the imaging device 10, and when sx ″ exceeds the imaging region, sx ″ is returned to 0 and is vertical. The coordinates are lowered one step.

次に、第1座標変換部61は、収差補正部30に入力される画像データの各画素座標について、撮像素子10の撮像領域における点A”を原点とする座標系から光学中心Pを原点とする座標系である座標cx’,cy’に変換する(ステップS7)。座標変換により生成されたcx’は、上述したように、点Pを原点とした水平方向の座標であり、cy’は垂直方向の座標である。   Next, for each pixel coordinate of the image data input to the aberration correction unit 30, the first coordinate conversion unit 61 uses the optical center P as the origin from the coordinate system having the point A ″ in the imaging region of the imaging element 10 as the origin. (Step S7) The cx ′ generated by the coordinate conversion is the horizontal coordinate with the point P as the origin, as described above, and cy ′ The vertical coordinate.

次に、収差量算出部62は、ステップS8からステップS16までの間において、制御部40により生成された各分割点の収差量と補間パラメータとに基づいて、第1座標変換部61による座標変換後の画像データの各画素座標における収差量を算出する。   Next, the aberration amount calculation unit 62 performs coordinate conversion by the first coordinate conversion unit 61 on the basis of the aberration amount and the interpolation parameter of each division point generated by the control unit 40 in steps S8 to S16. The amount of aberration at each pixel coordinate of the subsequent image data is calculated.

具体的に説明すると、まず収差量算出部62は、第1座標変換部61により出力された座標cx’,cy’に基づいて、像高の2乗xを計算する(ステップS8)。   Specifically, the aberration amount calculation unit 62 first calculates the square x of the image height based on the coordinates cx ′ and cy ′ output from the first coordinate conversion unit 61 (step S8).

次に、収差量算出部62は、xとx[1]とを比較する(ステップS9)。x<x[1]の場合には、収差量算出部62は、iに0を設定し(ステップS10)、後述するステップS16に進む。   Next, the aberration amount calculation unit 62 compares x with x [1] (step S9). If x <x [1], the aberration amount calculation unit 62 sets i to 0 (step S10), and proceeds to step S16 described later.

x≧x[1]の場合には、収差量算出部62は、xとx[2]とを比較する(ステップS11)。x<x[2]の場合には、収差量算出部62は、iに1を設定し(ステップS12)、後述するステップS16に進む。   When x ≧ x [1], the aberration amount calculation unit 62 compares x with x [2] (step S11). In the case of x <x [2], the aberration amount calculation unit 62 sets 1 to i (step S12), and proceeds to step S16 described later.

x≧x[2]の場合には、収差量算出部62は、xとx[3]とを比較する(ステップS13)。x<x[3]の場合には、収差量算出部62は、iに2を設定し(ステップS14)、後述するステップS16に進む。   When x ≧ x [2], the aberration amount calculation unit 62 compares x with x [3] (step S13). When x <x [3], the aberration amount calculation unit 62 sets i to 2 (step S14), and proceeds to step S16 described later.

x≧x[3]の場合には、収差量算出部62は、iに3を設定する(ステップS15)。   In the case of x ≧ x [3], the aberration amount calculation unit 62 sets 3 to i (step S15).

すなわち、収差量算出部62は、ステップS8からステップS15までにおいて、第1座標変換部61による座標変換後の各画素座標の像高が制御部40によって分割された複数の領域の中のいずれの領域に属するのかを判別している。   That is, the aberration amount calculation unit 62, in steps S8 to S15, selects any one of the plurality of regions in which the image height of each pixel coordinate after the coordinate conversion by the first coordinate conversion unit 61 is divided by the control unit 40. It is determined whether it belongs to the area.

その後、収差量算出部62は、補間パラメータを使用して制御部40によって分割された領域の中の属している領域を分割している分割点の収差量から補間することにより画像データにおける各画素座標における収差量yを算出する(ステップS16)。本実施例において、収差量算出部62は、収差量yをスプライン補間により算出する。   Thereafter, the aberration amount calculation unit 62 uses the interpolation parameters to interpolate each pixel in the image data by interpolating from the aberration amount at the division point dividing the region to which the region divided by the control unit 40 belongs. The aberration amount y at the coordinates is calculated (step S16). In this embodiment, the aberration amount calculation unit 62 calculates the aberration amount y by spline interpolation.

例えば、x[2]≦x<x[3]が成立する場合には、収差量算出部62は、ステップS14においてiに2を設定し、分割点R’における補間パラメータ(x[2],y[2],q[2],r[2],s[2])を使用して、分割点R’の収差量y[2]から補間することにより、当該画素座標における収差量yを算出する。   For example, when x [2] ≦ x <x [3] is satisfied, the aberration amount calculation unit 62 sets i to 2 in step S14, and performs interpolation parameters (x [2], y [2], q [2], r [2], s [2]) is used to interpolate from the aberration amount y [2] at the dividing point R ′ to obtain the aberration amount y at the pixel coordinates. calculate.

次に、座標算出部63は、収差量算出部62により算出された画像データの各画素座標における収差量に基づいて、第1座標変換部61による座標変換後の画像データの各画素座標の位置を補正する(ステップS17)。これにより、座標算出部63は、歪曲収差補正前の画像データの水平方向の座標cx及び垂直方向の座標cyを算出する。   Next, the coordinate calculation unit 63 determines the position of each pixel coordinate of the image data after the coordinate conversion by the first coordinate conversion unit 61 based on the aberration amount at each pixel coordinate of the image data calculated by the aberration amount calculation unit 62. Is corrected (step S17). Accordingly, the coordinate calculation unit 63 calculates the horizontal coordinate cx and the vertical coordinate cy of the image data before distortion correction.

次に、第2座標変換部64は、座標算出部63により画像データの各画素座標の位置を補正された画像データの各画素座標cx,cyについて、光学中心Pを原点とする座標系から撮像素子10の撮像領域における任意の点(本実施例においては点A”)を原点とする座標系に変換する(ステップS18)。第2座標変換部64は、この座標変換により、水平方向の座標sx、及び垂直方向の座標syを出力する。   Next, the second coordinate conversion unit 64 captures an image from the coordinate system having the optical center P as the origin for each pixel coordinate cx, cy of the image data in which the position of each pixel coordinate of the image data is corrected by the coordinate calculation unit 63. The coordinate is converted into a coordinate system having an arbitrary point in the imaging region of the element 10 (point A ″ in this embodiment) as the origin (step S18). The second coordinate conversion unit 64 performs horizontal coordinate by this coordinate conversion. sx and vertical coordinate sy are output.

次に、データリード部35は、第2座標変換部64により出力されたsx,syに基づいて、画素補間に必要な複数画素のメモリアドレスを計算する(ステップS19)。   Next, the data read unit 35 calculates memory addresses of a plurality of pixels necessary for pixel interpolation based on sx and sy output from the second coordinate conversion unit 64 (step S19).

その後、データリード部35は、計算したメモリアドレスに対応した画素の画素値(画素のY(輝度)、C(色差))を画像メモリ34から読み出す(ステップS20)。   Thereafter, the data read unit 35 reads the pixel value (Y (luminance) and C (color difference) of the pixel) of the pixel corresponding to the calculated memory address from the image memory 34 (step S20).

次に、画素補間部36は、第2座標変換部64により出力された座標変換後の画素座標sx,syに基づいて、画素補間に使用する複数画素の重み付けを計算し(ステップS21)、ステップS20でデータリード部35により読み出された複数画素の画素値に対して重み付けを使用した画素補間を行う(ステップS22)。その後、画素補間部36は、補間された画素を画素座標に対応する画素値として出力する。   Next, the pixel interpolation unit 36 calculates weights of a plurality of pixels used for pixel interpolation based on the pixel coordinates sx and sy after the coordinate conversion output from the second coordinate conversion unit 64 (step S21). Pixel interpolation using weighting is performed on the pixel values of the plurality of pixels read by the data read unit 35 in S20 (step S22). Thereafter, the pixel interpolation unit 36 outputs the interpolated pixel as a pixel value corresponding to the pixel coordinate.

次に、第1座標変換部61は、sx”に1を加算する(ステップS23)。このようにして第1座標変換部61は、収差補正後の水平方向の画素座標を1つ右にずらした後、ステップS5に戻る。   Next, the first coordinate conversion unit 61 adds 1 to sx ″ (step S23). In this way, the first coordinate conversion unit 61 shifts the pixel coordinates in the horizontal direction after aberration correction to the right by one. After that, the process returns to step S5.

上述のとおり、本発明の実施例1の形態に係る画像処理装置によれば、システムコストを安価に抑えるとともに、光学系による光学中心と撮像素子の撮像領域中心とが一致していない場合においても画像の歪みを正確に補正して高品質な画像を生成することができる。   As described above, according to the image processing apparatus according to the first embodiment of the present invention, the system cost is kept low, and even when the optical center of the optical system and the imaging region center of the imaging device do not coincide with each other. High-quality images can be generated by accurately correcting image distortion.

すなわち、本実施例の画像処理装置は、第1座標変換部61を備えることで、収差補正部30に入力される画像データ、または収差補正部30により収差補正される後の画像データの画素座標を撮像素子10の撮像領域の任意の点(本実施例においては点A”)を原点とする座標系から、光学中心Pを原点とする座標系に変換し、収差量算出部62及び座標算出部63を備えることで光学中心Pを原点とする座標系で収差補正前の画像データの画素座標を算出し、第2座標変換部64を備えることで収差補正前の画像データの画素座標を光学中心Pを原点とする座標系から撮像素子の撮像領域の任意の点(本実施例においては点A”)を原点とする座標系に変換し、画素補間部36を備えることで画像データの画素座標に対応する画素値を画素補間により求めるので、光学中心Pと撮像素子の撮像領域中心P”は一致していない場合でも正確な補正を行うことができ、高品質な画像の生成に資するという利点を有する。   That is, the image processing apparatus according to the present embodiment includes the first coordinate conversion unit 61, so that the pixel coordinates of the image data input to the aberration correction unit 30 or the image data after the aberration correction by the aberration correction unit 30 is performed. Is converted from a coordinate system having an arbitrary point (point A ″ in the present embodiment) in the imaging area of the image sensor 10 to a coordinate system having the optical center P as the origin, and the aberration amount calculation unit 62 and coordinate calculation are performed. By providing the unit 63, the pixel coordinates of the image data before aberration correction are calculated in the coordinate system having the optical center P as the origin, and by providing the second coordinate conversion unit 64, the pixel coordinates of the image data before aberration correction are optically calculated. A pixel of the image data is provided by converting the coordinate system having the center P as the origin into a coordinate system having an arbitrary point (in the present embodiment, the point A ″) in the imaging region of the image sensor as the origin, and including the pixel interpolation unit 36. Display pixel values corresponding to coordinates Since obtained by interpolation, it is possible to perform accurate correction even when the imaging region center P of the optical center P and the image pickup device "does not match, it has the advantage of contributing to the generation of high quality images.

さらに、本実施例の画像処理装置は、特許文献1に記載の画像処理装置のように全ての格子単位に対応する補正ベクトルをデータとして備えている必要が無く、像高を複数の領域に分割した場合における各分割点の収差量と補間パラメータのみを備えることにより、分割点間の像高の収差量を分割点の収差量から補間して求めることができるので、システムコストを安価に抑えることができるという利点も有する。   Furthermore, unlike the image processing apparatus described in Patent Document 1, the image processing apparatus according to the present embodiment does not need to include correction vectors corresponding to all lattice units as data, and divides the image height into a plurality of regions. By providing only the aberration amount and the interpolation parameter at each division point in this case, the amount of aberration at the image height between the division points can be interpolated from the aberration amount at the division point, thus reducing the system cost. It also has the advantage of being able to

図9は、本発明の実施例2の画像処理装置の構成を示すブロック図である。この画像処理装置は、図9に示すように光学系5を介して撮像素子10に結像した画像を処理する装置であり、信号処理部20、収差補正部30、制御部40、及びズーム駆動部50を備えている。すなわち、図1で説明した実施例1の画像処理装置の構成と異なる点は、ズーム駆動部50をさらに備えている点である。   FIG. 9 is a block diagram illustrating the configuration of the image processing apparatus according to the second embodiment of the present invention. This image processing apparatus is an apparatus that processes an image formed on the image sensor 10 via the optical system 5 as shown in FIG. 9, and includes a signal processing unit 20, an aberration correction unit 30, a control unit 40, and zoom drive. Part 50 is provided. That is, the difference from the configuration of the image processing apparatus according to the first embodiment described with reference to FIG. 1 is that the zoom driving unit 50 is further provided.

ズーム駆動部50は、光学系5の焦点距離を調節する。光学系5は、ズーム倍率、すなわち焦点距離調整のためにレンズが動く構造となっている。ズーム駆動部50は、制御部40が設定した値に基づいて、光学系5の対応するレンズを駆動する。   The zoom drive unit 50 adjusts the focal length of the optical system 5. The optical system 5 has a structure in which the lens moves to adjust the zoom magnification, that is, the focal length. The zoom drive unit 50 drives the corresponding lens of the optical system 5 based on the value set by the control unit 40.

撮像素子10、信号処理部20、及び収差補正部30は、実施例1と同様であり、重複した説明を省略する。   The image sensor 10, the signal processing unit 20, and the aberration correction unit 30 are the same as those in the first embodiment, and a duplicate description is omitted.

制御部40は、実施例1と同様の機能を備えるほか、光学系5の焦点距離を決定し、焦点距離に応じてズーム駆動部50を駆動するための駆動信号を生成する。さらに、制御部40は、光学系5による焦点距離を複数の領域に分割した場合において、「焦点距離の各分割点」に対応した「像高の各分割点の収差量」から補間して、現在の焦点距離(決定した焦点距離)における「像高の各分割点の収差量」を算出する。   The control unit 40 has the same function as that of the first embodiment, determines the focal length of the optical system 5, and generates a driving signal for driving the zoom driving unit 50 according to the focal length. Further, when the focal length by the optical system 5 is divided into a plurality of regions, the control unit 40 interpolates from “aberration amount of each division point of image height” corresponding to “each division point of focal length”, “Aberration amount at each division point of image height” at the current focal length (determined focal length) is calculated.

なお、「焦点距離の各分割点」に応じた「像高の各分割点」の収差量及び補間パラメータを生成する方法は、どのようなものでもよい。例えば、制御部40は、「焦点距離の各分割点」に応じた「像高の各分割点」における収差量や補間パラメータ等の情報をフラッシュメモリやROM等の記憶手段にテーブルとして予め記憶していてもよい。   Note that any method may be used for generating the aberration amount and the interpolation parameter of “each division point of image height” corresponding to “each division point of focal length”. For example, the control unit 40 stores in advance information such as aberration amounts and interpolation parameters at “divided points of image height” corresponding to “divided points of focal length” as a table in a storage unit such as a flash memory or a ROM. It may be.

次に、上述のように構成された本実施の形態の作用を説明する。図10は、本実施例の画像処理装置において、焦点距離と収差量との関係を示す図である。図10において、横軸が焦点距離であり、縦軸が収差量である。焦点距離がaの場合には、光学系5のレンズはワイド端(最もワイド側(広角側)までズームレンズを動かしたところ)である。また、焦点距離がeの場合には、光学系5のレンズはテレ端(最も望遠側までズームレンズを動かしたところであり、倍率最大)である。   Next, the operation of the present embodiment configured as described above will be described. FIG. 10 is a diagram illustrating the relationship between the focal length and the aberration amount in the image processing apparatus according to the present embodiment. In FIG. 10, the horizontal axis represents the focal length, and the vertical axis represents the aberration amount. When the focal length is a, the lens of the optical system 5 is at the wide end (when the zoom lens is moved to the widest side (wide angle side)). When the focal length is e, the lens of the optical system 5 is at the telephoto end (the zoom lens is moved to the most telephoto side and the magnification is maximum).

図10に示すように、ズーム光学系において、収差量は焦点距離に応じて変化する。そこで、本実施例の画像処理装置の制御部40は、焦点距離を複数の領域ab,bc,cd,deに分割し、焦点距離の各分割点a,b,c,d,eに対応した収差量を予め求めて記憶している。なお、この場合における収差量とは、実施例1と同様に「像高の各分割点の収差量」を予め求めておく必要がある。すなわち、本実施例の画像処理装置の設計者は、焦点距離の分割点a,b,c,d,eの各々に対して、像高の分割点P,Q’,R’,S’,A’の各々における収差量を予め求めておく。   As shown in FIG. 10, in the zoom optical system, the amount of aberration varies according to the focal length. Therefore, the control unit 40 of the image processing apparatus according to the present embodiment divides the focal length into a plurality of regions ab, bc, cd, and de, and corresponds to the division points a, b, c, d, and e of the focal length. The amount of aberration is obtained in advance and stored. In this case, the aberration amount in this case needs to be obtained in advance as in Example 1, “aberration amount at each division point of image height”. That is, the designer of the image processing apparatus according to the present embodiment can determine the image height division points P, Q ′, R ′, S ′, and the like for each of the focal length division points a, b, c, d, and e. The amount of aberration in each of A ′ is obtained in advance.

求めた収差量は、上述したように制御部40により記憶され、必要に応じて収差補正部30内の補間パラメータレジスタ31に書き込まれる。   The obtained aberration amount is stored by the control unit 40 as described above, and written to the interpolation parameter register 31 in the aberration correction unit 30 as necessary.

収差量の補間方法は、線形補間やスプライン補間等のn次多項式(nは自然数)による補間を用いたものである。また必ずしも分割点の間隔を等間隔にする必要は無く、収差量の変化が大きい領域において分割間隔を狭めたり分割数を増やすことにより、本発明の画像処理装置は、補間精度を上げることができる。   The aberration amount interpolation method uses interpolation by an nth order polynomial (n is a natural number) such as linear interpolation or spline interpolation. In addition, it is not always necessary to make the interval between the dividing points equal. The image processing apparatus of the present invention can increase the interpolation accuracy by narrowing the dividing interval or increasing the number of divisions in a region where the change in the amount of aberration is large. .

焦点距離fにおける収差量をスプライン補間で算出する場合には、スプライン補間の式は以下に示すようになる。   When the aberration amount at the focal length f is calculated by spline interpolation, the spline interpolation formula is as follows.

x_[j]≦f<x_[j+1]の場合において、
xx_=f−x_[j] …(8)
y_=y_[j]+xx_*(q_[j]+xx_*(r_[j]+s_[j]*xx_)) …(9)
ここで、y_は、焦点距離fにおける収差量である。また、x_[0],y_[0],q_[0],r_[0],s_[0]は、焦点距離aにおける補間パラメータである。x_[1],y_[1],q_[1],r_[1],s_[1]は、焦点距離bにおける補間パラメータである。x_[2],y_[2],q_[2],r_[2],s_[2]は、焦点距離cにおける補間パラメータである。x_[3],y_[3],q_[3],r_[3],s_[3]は、焦点距離dにおける補間パラメータである。x_[4],y_[4],q_[4],r_[4],s_[4]は、焦点距離eにおける補間パラメータである。
In the case of x_ [j] ≦ f <x_ [j + 1],
xx_ = fx− [j] (8)
y_ = y_ [j] + xx _ * (q_ [j] + xx _ * (r_ [j] + s_ [j] * xx_)) (9)
Here, y_ is an aberration amount at the focal length f. Further, x_ [0], y_ [0], q_ [0], r_ [0], and s_ [0] are interpolation parameters at the focal length a. x_ [1], y_ [1], q_ [1], r_ [1], and s_ [1] are interpolation parameters at the focal length b. x_ [2], y_ [2], q_ [2], r_ [2], and s_ [2] are interpolation parameters at the focal length c. x_ [3], y_ [3], q_ [3], r_ [3], and s_ [3] are interpolation parameters at the focal length d. x_ [4], y_ [4], q_ [4], r_ [4], and s_ [4] are interpolation parameters at the focal length e.

また、x_[0]は焦点距離a、x_[1]は焦点距離b、x_[2]は焦点距離c、x_[3]は焦点距離d、x_[4]は焦点距離eである。さらに、y_[0]は焦点距離a、y_[1]は焦点距離b、y_[2]は焦点距離c、y_[3]は焦点距離d、y_[4]は焦点距離eにおける収差量を示す。   X_ [0] is the focal length a, x_ [1] is the focal length b, x_ [2] is the focal length c, x_ [3] is the focal length d, and x_ [4] is the focal length e. Furthermore, y_ [0] is the focal length a, y_ [1] is the focal length b, y_ [2] is the focal length c, y_ [3] is the focal length d, and y_ [4] is the amount of aberration at the focal length e. Show.

したがって、図10に示す焦点距離fに基づき、x_[0]≦f<x_[1]と表すことができるので、(8)式は、xx_=f−x_[0]となる。また、(9)式は、y_=y_[0]+xx_*(q_[0]+xx_*(r_[0]+s_[0]*xx_))で表される。   Therefore, since x_ [0] ≦ f <x_ [1] can be expressed based on the focal length f shown in FIG. 10, the equation (8) is xx_ = fx− [0]. Moreover, (9) Formula is represented by y_ = y_ [0] + xx _ * (q_ [0] + xx _ * (r_ [0] + s_ [0] * xx_)).

次に、制御部40の動作について詳細に説明する。図11は、本実施例の画像処理装置の動作を示すフローチャート図である。なお、収差量の補間方法は、スプライン補間を用いたものとして説明する。   Next, the operation of the control unit 40 will be described in detail. FIG. 11 is a flowchart illustrating the operation of the image processing apparatus according to the present exemplary embodiment. The aberration amount interpolation method will be described on the assumption that spline interpolation is used.

まず、制御部40は、例えばユーザのズーム操作によって光学系5の焦点距離fを決定し、焦点距離fに応じてズーム駆動部50を駆動するための駆動信号を生成する。ズーム駆動部50は、制御部40により生成された駆動信号に基づいて、光学系5の焦点距離をfに調節する。   First, the control unit 40 determines the focal length f of the optical system 5 by, for example, a user's zoom operation, and generates a drive signal for driving the zoom drive unit 50 according to the focal length f. The zoom drive unit 50 adjusts the focal length of the optical system 5 to f based on the drive signal generated by the control unit 40.

次に、制御部40は、焦点距離fとx_[1]とを比較する(ステップS1)。f<x_[1]の場合には、制御部40は、jに0を設定し(ステップS2)、後述するステップS8に進む。   Next, the control unit 40 compares the focal length f with x_ [1] (step S1). In the case of f <x_ [1], the control unit 40 sets 0 to j (step S2), and proceeds to step S8 described later.

f≧x_[1]の場合には、制御部40は、fとx_[2]とを比較する(ステップS3)。f<x_[2]の場合には、制御部40は、jに1を設定し(ステップS4)、後述するステップS8に進む。   When f ≧ x_ [1], the control unit 40 compares f with x_ [2] (step S3). In the case of f <x_ [2], the control unit 40 sets 1 to j (step S4), and proceeds to step S8 described later.

f≧x_[2]の場合には、制御部40は、fとx_[3]とを比較する(ステップS5)。f<x_[3]の場合には、制御部40は、jに2を設定し(ステップS6)、後述するステップS8に進む。   If f ≧ x_ [2], the control unit 40 compares f with x_ [3] (step S5). In the case of f <x_ [3], the control unit 40 sets j to 2 (step S6), and proceeds to step S8 described later.

f≧x_[3]の場合には、制御部40は、jに3を設定する(ステップS7)。   When f ≧ x_ [3], the control unit 40 sets 3 to j (step S7).

すなわち、制御部40は、ステップS1からステップS7までにおいて、焦点距離fが分割された複数の領域の中からいずれの領域に属するのかを判別している。   In other words, the control unit 40 determines which region the focal length f belongs to from among a plurality of regions divided in steps S1 to S7.

次に、制御部40は、「焦点距離の各分割点」に対応した「像高の各分割点の収差量」から補間して、現在の焦点距離(決定した焦点距離)fにおける「像高の各分割点の収差量」を算出する(ステップS8)。すなわち、制御部40は、スプライン補間を行うことにより、焦点距離fの場合について、点Pにおける収差量y_p、点Q’における収差量y_q’、点R’における収差量y_r’、点S’における収差量y_s’、及び点A’における収差量y_a’を算出する。   Next, the control unit 40 interpolates from “aberration amount at each division point of image height” corresponding to “each division point of focal length” to obtain “image height at the current focal length (determined focal length) f”. Is calculated "(step S8). That is, by performing spline interpolation, the control unit 40 performs the aberration amount y_p at the point P, the aberration amount y_q ′ at the point Q ′, the aberration amount y_r ′ at the point R ′, and the point S ′ for the focal length f. The aberration amount y_s ′ and the aberration amount y_a ′ at the point A ′ are calculated.

次に、制御部40は、y_p、y_q’、y_r’、y_s’、及びy_a’に基づいて、点P,Q’,R’,S’,A’における補間パラメータを算出する(ステップS9)。   Next, the control unit 40 calculates interpolation parameters at points P, Q ′, R ′, S ′, and A ′ based on y_p, y_q ′, y_r ′, y_s ′, and y_a ′ (step S9). .

最後に、求めた収差量及び補間パラメータを利用して、本実施例の画像処理装置は、図8に示す処理を行い(ステップS10)、処理を終了する。   Finally, using the obtained aberration amount and interpolation parameter, the image processing apparatus of the present embodiment performs the process shown in FIG. 8 (step S10), and ends the process.

上述のとおり、本発明の実施例2の形態に係る画像処理装置によれば、実施例1の効果に加え、光学系5が焦点距離調整のためにレンズが動く構造を有しているために収差量が焦点距離に応じて変化する場合においても、制御部40が焦点距離fに応じた適切な補間パラメータを算出し、高品質な画像を生成することができる。   As described above, according to the image processing apparatus according to the second embodiment of the present invention, in addition to the effects of the first embodiment, the optical system 5 has a structure in which the lens moves to adjust the focal length. Even when the amount of aberration changes in accordance with the focal length, the control unit 40 can calculate an appropriate interpolation parameter in accordance with the focal length f and generate a high-quality image.

本発明に係る画像処理装置は、デジタルカメラやデジタルビデオカメラ等の撮像装置に用いられ、光学系によって生じる収差を補正する画像処理装置に利用可能である。   The image processing apparatus according to the present invention is used in an imaging apparatus such as a digital camera or a digital video camera, and can be used in an image processing apparatus that corrects aberrations caused by an optical system.

1 チャート
3 光学中心
5 光学系
10 撮像素子
20 信号処理部
30 収差補正部
31 補間パラメータレジスタ
32 リード座標計算部
33 データライト部
34 画像メモリ
35 データリード部
36 画素補間部
40 制御部
50 ズーム駆動部
61 第1座標変換部
62 収差量算出部
63 座標算出部
64 第2座標変換部
DESCRIPTION OF SYMBOLS 1 Chart 3 Optical center 5 Optical system 10 Image pick-up element 20 Signal processing part 30 Aberration correction part 31 Interpolation parameter register 32 Read coordinate calculation part 33 Data write part 34 Image memory 35 Data read part 36 Pixel interpolation part 40 Control part 50 Zoom drive part 61 First coordinate conversion unit 62 Aberration amount calculation unit 63 Coordinate calculation unit 64 Second coordinate conversion unit

Claims (2)

光学系を介して被写体からの光を撮像して画像データを生成する撮像素子と、
前記光学系により被写体が結像する領域の像高を複数の領域に分割し、前記領域毎に分割点を設定して、前記各分割点の収差量と前記分割点間の像高の収差量を求めるために必要な補間パラメータとを生成する制御部と、
前記画像データの各画素座標について、前記撮像素子の撮像領域における任意の点を原点とする座標系から前記光学系により被写体が結像する領域の光学中心を原点とする座標系に変換する第1座標変換部と、
前記制御部により生成された前記各分割点の収差量と補間パラメータとに基づいて、前記第1座標変換部による座標変換後の画像データの各画素座標における収差量を算出する収差量算出部と、
前記収差量算出部により算出された各画素座標における収差量に基づいて、前記第1座標変換部による座標変換後の画像データの各画素座標の位置を補正する座標算出部と、
前記座標算出部により算出された座標位置補正後の画像データの各画素座標について、前記光学中心を原点とする座標系から前記撮像素子の撮像領域における任意の点を原点とする座標系に変換する第2座標変換部と、
前記撮像素子により生成された画像データにおける複数の画素を使用して、前記第2座標変換部による座標変換後の画像データの各画素座標に対応する画素値を算出する画素値算出部と、
を備えることを特徴とする画像処理装置。
An image sensor that captures light from a subject via an optical system and generates image data;
The image height of the area where the subject is imaged by the optical system is divided into a plurality of areas, division points are set for each area, and the aberration amount of each division point and the image height between the division points are set. A control unit for generating interpolation parameters necessary for obtaining
First, each pixel coordinate of the image data is converted from a coordinate system having an arbitrary point in the imaging area of the image sensor as an origin to a coordinate system having an optical center of an area where a subject is imaged by the optical system as an origin. A coordinate transformation unit;
An aberration amount calculation unit that calculates an aberration amount at each pixel coordinate of the image data after the coordinate conversion by the first coordinate conversion unit, based on the aberration amount and the interpolation parameter of each division point generated by the control unit; ,
A coordinate calculation unit that corrects the position of each pixel coordinate of the image data after coordinate conversion by the first coordinate conversion unit, based on the aberration amount at each pixel coordinate calculated by the aberration amount calculation unit;
For each pixel coordinate of the image data after the coordinate position correction calculated by the coordinate calculation unit, the coordinate system having the optical center as an origin is converted into a coordinate system having an arbitrary point in the imaging region of the imaging element as the origin. A second coordinate conversion unit;
A pixel value calculation unit that calculates a pixel value corresponding to each pixel coordinate of the image data after the coordinate conversion by the second coordinate conversion unit, using a plurality of pixels in the image data generated by the image sensor;
An image processing apparatus comprising:
前記光学系の焦点距離を調節するズーム駆動部を備え、
前記制御部は、前記光学系の焦点距離を決定し、前記焦点距離に応じて前記ズーム駆動部を駆動するための駆動信号を生成するとともに、前記光学系による焦点距離を複数の領域に分割し、前記領域毎に分割点を設定して、前記領域の各分割点に対応した像高の収差量から、現在の焦点距離における像高の収差量を算出することを特徴とする請求項1記載の画像処理装置。
A zoom driving unit for adjusting a focal length of the optical system;
The control unit determines a focal length of the optical system, generates a driving signal for driving the zoom driving unit according to the focal length, and divides the focal length by the optical system into a plurality of regions. 2. The division point is set for each of the regions, and the aberration amount of the image height at the current focal length is calculated from the aberration amount of the image height corresponding to each division point of the region. Image processing apparatus.
JP2009267719A 2009-11-25 2009-11-25 Image processing device Active JP5359814B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009267719A JP5359814B2 (en) 2009-11-25 2009-11-25 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009267719A JP5359814B2 (en) 2009-11-25 2009-11-25 Image processing device

Publications (2)

Publication Number Publication Date
JP2011114480A true JP2011114480A (en) 2011-06-09
JP5359814B2 JP5359814B2 (en) 2013-12-04

Family

ID=44236512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009267719A Active JP5359814B2 (en) 2009-11-25 2009-11-25 Image processing device

Country Status (1)

Country Link
JP (1) JP5359814B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020099819A (en) * 2020-04-03 2020-07-02 株式会社三洋物産 Game machine
WO2021192404A1 (en) * 2020-03-27 2021-09-30 パナソニックIpマネジメント株式会社 Position analyzing device and method, and camera system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153065A (en) * 1992-11-11 1994-05-31 Olympus Optical Co Ltd Image pickup device
JP2005057605A (en) * 2003-08-06 2005-03-03 Sony Corp Image processor, image processing system, imaging device and image processing method
JP2008287430A (en) * 2007-05-16 2008-11-27 Panasonic Electric Works Co Ltd Image distortion compensation method
JP2009017419A (en) * 2007-07-09 2009-01-22 Canon Inc Imaging apparatus and interchangeable lens device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153065A (en) * 1992-11-11 1994-05-31 Olympus Optical Co Ltd Image pickup device
JP2005057605A (en) * 2003-08-06 2005-03-03 Sony Corp Image processor, image processing system, imaging device and image processing method
JP2008287430A (en) * 2007-05-16 2008-11-27 Panasonic Electric Works Co Ltd Image distortion compensation method
JP2009017419A (en) * 2007-07-09 2009-01-22 Canon Inc Imaging apparatus and interchangeable lens device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021192404A1 (en) * 2020-03-27 2021-09-30 パナソニックIpマネジメント株式会社 Position analyzing device and method, and camera system
JP7450195B2 (en) 2020-03-27 2024-03-15 パナソニックIpマネジメント株式会社 Position analysis device and method, and camera system
JP2020099819A (en) * 2020-04-03 2020-07-02 株式会社三洋物産 Game machine

Also Published As

Publication number Publication date
JP5359814B2 (en) 2013-12-04

Similar Documents

Publication Publication Date Title
US8031232B2 (en) Image pickup apparatus including a first image formation system and a second image formation system, method for capturing image, and method for designing image pickup apparatus
JP4657367B2 (en) Image processing apparatus, imaging apparatus, and image distortion correction method
US8106976B2 (en) Peripheral light amount correction apparatus, peripheral light amount correction method, electronic information device, control program and readable recording medium
JP5299383B2 (en) Image correction apparatus and image correction method
JP4104571B2 (en) Distortion correction apparatus and imaging apparatus provided with the distortion correction apparatus
US8446477B2 (en) Imaging apparatus, aberration correcting method, and program
US8350951B2 (en) Image sensing apparatus and image data correction method
JP5438579B2 (en) Image processing apparatus and control method thereof
JP6164564B1 (en) Image processing apparatus, image processing method, recording medium, program, and imaging apparatus
JP2004241991A (en) Imaging apparatus, image processor, and image processing program
JP5535053B2 (en) Image processing apparatus and image processing method
JP6326180B1 (en) Image processing device
KR101449805B1 (en) Image processing device that performs image processing
US7499082B2 (en) Distortion correction circuit for generating distortion-corrected image using data for uncorrected image
JP2006270918A (en) Image correction method, photographing apparatus, image correction apparatus, program and recording medium
JP2012065187A (en) Imaging apparatus and restored gain data generation method
KR20180044085A (en) Camera module and electronic device including the same
JP2006135805A (en) Chromatic difference of magnification correction device, method, and program
JP5359814B2 (en) Image processing device
JP5173883B2 (en) Imaging device
JP2018067868A (en) Imaging apparatus
JP5278421B2 (en) Imaging device
JP6694626B1 (en) Image processing device, image processing method, program, and imaging device
JP5333163B2 (en) Imaging device
JP5334265B2 (en) Chromatic aberration / image distortion correcting apparatus and program therefor

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130819

R150 Certificate of patent or registration of utility model

Ref document number: 5359814

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150