JP2016122947A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2016122947A
JP2016122947A JP2014261469A JP2014261469A JP2016122947A JP 2016122947 A JP2016122947 A JP 2016122947A JP 2014261469 A JP2014261469 A JP 2014261469A JP 2014261469 A JP2014261469 A JP 2014261469A JP 2016122947 A JP2016122947 A JP 2016122947A
Authority
JP
Japan
Prior art keywords
image
reference image
correction
unit
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014261469A
Other languages
Japanese (ja)
Inventor
江幡 裕也
Hironari Ehata
裕也 江幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014261469A priority Critical patent/JP2016122947A/en
Publication of JP2016122947A publication Critical patent/JP2016122947A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus that can perform alignment and reverse distortion correction to a reference image to perform image processing effectively using the reference image and improve image quality.SOLUTION: An image processing apparatus comprises: imaging means; acquisition means that acquires a reference image from the outside; specification means that specifies, on the basis of at least a difference between a photographed image obtained by the imaging means, an angle of view of the reference image and lens aberration information on the imaging means, a reference pixel or a reference area of the reference image corresponding to a pixel of interest or an area of interest of the photographed image; and correction means that corrects the pixel of interest or the area of interest of the photographed image on the basis of an image of the reference pixel or the reference area.SELECTED DRAWING: Figure 1

Description

本発明は、リファレンス画像を利用して撮像した画像を処理する画像処理装置及びその制御方法に関する。   The present invention relates to an image processing apparatus that processes an image captured using a reference image and a control method thereof.

CCDやCMOS等の撮像素子を用いて画像を取得する撮像装置であるデジタルカメラ、デジタルビデオカメラ、カメラ付き携帯電話、車載カメラ等の画像処理装置において、外部からリファレンス画像を利用して撮像した画像を処理する様々な技術が開発されている(特許文献1参照)。また、撮像レンズの歪曲収差特性の影響により、撮像した画像に歪みが生じることが知られている。   An image captured using an external reference image in an image processing apparatus such as a digital camera, a digital video camera, a camera-equipped mobile phone, or an in-vehicle camera, which is an image capturing apparatus that acquires an image using an image sensor such as a CCD or CMOS. Various techniques have been developed for processing the above (see Patent Document 1). Further, it is known that a captured image is distorted due to the influence of distortion aberration characteristics of the imaging lens.

外部からのリファレンス画像を利用するにあたり、画像処理の順番によっては、撮像レンズの歪曲収差特性を加味した歪み補正前の撮像画像を処理することがある。そのため、リファレンス画像に対して、特許文献2、特許文献3などに記載の歪み補正技術を用いて、逆歪み補正を行った後で画像処理に利用することが考えられる。   When using an external reference image, depending on the order of image processing, a captured image before distortion correction may be processed in consideration of distortion aberration characteristics of the imaging lens. For this reason, it is conceivable that the reference image is used for image processing after performing inverse distortion correction using the distortion correction technique described in Patent Document 2, Patent Document 3, and the like.

特開2007−324887号公報JP 2007-324887 A 特開2012−65263号公報JP 2012-65263 A 特開2002−94860号公報JP 2002-94860 A

しかしながら、特許文献2、特許文献3に開示されている技術では、リファレンス画像が撮像画像とは異なる画角、角度から撮影された画像であった場合に、歪補正だけではリファレンス画像を正しく利用できない可能性があり、それに対する種々の対策が望まれていた。
本発明の目的は、リファレンス画像に対して位置合わせと逆歪み補正を行うことで、リファレンス画像を有効に利用した画像処理を行うことができ、画質向上をはかることができる画像処理装置を提供することにある。
However, with the techniques disclosed in Patent Document 2 and Patent Document 3, when the reference image is an image photographed from a different angle of view and angle from the captured image, the reference image cannot be correctly used only by distortion correction. There is a possibility, and various countermeasures against it have been desired.
An object of the present invention is to provide an image processing apparatus that can perform image processing using a reference image effectively and perform image quality improvement by performing alignment and inverse distortion correction on the reference image. There is.

上記の目的を達成するために、本発明の画像処理装置は、
撮像手段と、
外部からリファレンス画像を取得する取得手段と、
少なくとも、前記撮像手段で得られた撮像画像と前記リファレンス画像の画角の相違、および、前記撮像手段のレンズ収差情報に基づいて、前記撮像画像の着目画素または着目領域に対応する、前記リファレンス画像の参照画素または参照領域を特定する特定手段と、
前記参照画素または参照領域の画像に基づいて、前記撮像画像の前記着目画素または着目領域を補正する補正手段と、
を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus of the present invention provides:
Imaging means;
An acquisition means for acquiring a reference image from outside;
The reference image corresponding to the pixel of interest or the region of interest of the captured image based on at least the difference in angle of view between the captured image obtained by the imaging unit and the reference image and lens aberration information of the imaging unit A specifying means for specifying a reference pixel or a reference area of
Correction means for correcting the pixel of interest or the region of interest of the captured image based on the image of the reference pixel or the reference region;
It is characterized by providing.

本発明によれば、リファレンス画像に対して位置合わせと逆歪み補正を行うことで、リファレンス画像を有効に利用した画像処理を行うことができ、画質向上をはかることができる画像処理装置の提供を実現できる。   According to the present invention, it is possible to provide an image processing apparatus that can perform image processing that effectively uses a reference image by performing alignment and inverse distortion correction on the reference image, and can improve image quality. realizable.

本発明の第1の実施例における撮像装置のブロック図である。1 is a block diagram of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1の実施例におけるカメラ間通信のイメージ図である。It is an image figure of communication between cameras in the 1st example of the present invention. 本発明の第1の実施例における画像処理部のブロック図である。It is a block diagram of the image processing part in the 1st example of the present invention. 本発明の第1の実施例における歪補正座標演算を説明するための図である。It is a figure for demonstrating distortion correction coordinate calculation in 1st Example of this invention. 本発明の第1の実施例における画像イメージ図である。It is an image figure figure in the 1st example of the present invention. 本発明の第1の実施例におけるキズ補正処理のフロー図である。It is a flowchart of the crack correction process in 1st Example of this invention. 本発明の第1の実施例におけるNR処理のフロー図である。It is a flowchart of NR processing in the 1st example of the present invention. 本発明の第1の実施例におけるガンマ補正処理のフロー図である。It is a flowchart of the gamma correction process in 1st Example of this invention. 本発明の第2の実施例における画像処理部のブロック図である。It is a block diagram of the image processing part in the 2nd example of the present invention. 本発明の第2の実施例におけるキズ補正処理のフロー図である。It is a flowchart of the defect correction process in 2nd Example of this invention. 本発明の第2の実施例におけるNR処理のフロー図である。It is a flowchart of the NR process in the 2nd Example of this invention. 本発明の第2の実施例におけるガンマ補正処理のフロー図である。It is a flowchart of the gamma correction process in 2nd Example of this invention.

[実施例1]
以下、図面を用いて本発明の第1の実施例を説明する。なお本実施例の画像処理装置を、撮像装置の一部として説明する。また撮像装置をデジタルカメラとして説明するが、デジタルビデオカメラ、カメラ付き携帯電話、車載カメラ等の撮像装置を採用することも可能である。
[Example 1]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. The image processing apparatus according to the present embodiment will be described as a part of the imaging apparatus. Although the imaging apparatus is described as a digital camera, an imaging apparatus such as a digital video camera, a camera-equipped mobile phone, and an in-vehicle camera can be employed.

図1は第1の実施例に係るデジタルカメラの構成の一例を示すブロック図である。以下、図1について説明する。撮像素子100は、受光した被写体像を電気信号に変換して画像データを作成するCCDやCMOSセンサ等の受光素子である。A/D変換器101は、撮像素子100のアナログ出力信号をデジタル信号に変換する。   FIG. 1 is a block diagram showing an example of the configuration of the digital camera according to the first embodiment. Hereinafter, FIG. 1 will be described. The imaging element 100 is a light receiving element such as a CCD or CMOS sensor that converts received light into an electrical signal to create image data. The A / D converter 101 converts the analog output signal of the image sensor 100 into a digital signal.

リファレンスデータ102は、本実施例の撮像装置で撮影予定の画像データと、同じ被写体、風景などの画像データである。なお、リファレンスデータ102は、同一の時間、あるいは異なる時間に撮影された画像データであってもよい。さらには、異なる角度、画角から撮影した画像データであってもよい。画像処理部103は、取得部104、特定部105、補正部106、データ転送部107、認識部116、不図示の複数の画像処理部、画像バッファメモリ、画像データの圧縮処理や伸長処理を行う圧縮伸長部、モニタなどに表示する表示制御部、記録媒体に記憶する記憶処理部などから構成される。   Reference data 102 is image data scheduled to be taken by the imaging apparatus of the present embodiment and image data of the same subject, landscape, and the like. Note that the reference data 102 may be image data taken at the same time or at different times. Furthermore, it may be image data taken from different angles and angles of view. The image processing unit 103 performs an acquisition unit 104, an identification unit 105, a correction unit 106, a data transfer unit 107, a recognition unit 116, a plurality of image processing units (not shown), an image buffer memory, and image data compression processing and decompression processing. It comprises a compression / expansion unit, a display control unit for displaying on a monitor, a storage processing unit for storing in a recording medium, and the like.

取得部104は、リファレンスデータ102やデジタルカメラの位置姿勢情報などを取得する取得部である。リファレンスデータ、位置姿勢情報などは、図2に示すように本デジタルカメラ201と、外部デジタルカメラ200あるいは不図示のサーバと通信をして、データを取得する。あるいは、不図示の記録媒体から取得することも可能である。なお、位置姿勢情報は、GPSによって得られる位置情報とジャイロや慣性航法センサによって得られる姿勢情報をデジタルカメラの位置姿勢情報として扱う。但し、位置姿勢情報は別の手段を用いて取得しても構わない。   The acquisition unit 104 is an acquisition unit that acquires reference data 102, position and orientation information of the digital camera, and the like. As shown in FIG. 2, reference data, position and orientation information, and the like are acquired by communicating with the digital camera 201 and the external digital camera 200 or a server (not shown). Alternatively, it can be obtained from a recording medium (not shown). The position / orientation information uses position information obtained by GPS and attitude information obtained by a gyroscope or inertial navigation sensor as position / orientation information of the digital camera. However, the position / orientation information may be acquired using another means.

特定部105は、リファレンスデータ102に対して、本デジタルカメラと同じ画角、位置となるように位置合わせを行い、さらに本デジタルカメラのレンズ特性を加味した逆歪み補正を行う。詳細は、後述する。補正部106は、キズ補正、ノイズリダクション(以下、NRと記す)、ガンマ補正などの画像処理を行う。詳細は、後述する。   The specifying unit 105 aligns the reference data 102 so that the angle of view and the position are the same as those of the digital camera, and further performs reverse distortion correction in consideration of lens characteristics of the digital camera. Details will be described later. The correction unit 106 performs image processing such as scratch correction, noise reduction (hereinafter referred to as NR), and gamma correction. Details will be described later.

データ転送部107は、不図示のデータ転送を行う複数のDirect Memory AccessコントローラのWRDMACとRDDMACで構成される。画像データは、WRDMACによってバス109に出力し、メモリ制御部110を介してメモリ111に一時記憶される。メモリ111に一時記憶された画像データは、RDDMACによってメモリ111からバス109に出力され、画像処理部103にデータを出力する。   The data transfer unit 107 includes WRDMAC and RDDMAC of a plurality of Direct Memory Access controllers that perform data transfer (not shown). The image data is output to the bus 109 by WRDMAC and temporarily stored in the memory 111 via the memory control unit 110. The image data temporarily stored in the memory 111 is output from the memory 111 to the bus 109 by RDDMAC, and the data is output to the image processing unit 103.

認識部116は、顔認識、人体認識、さらには不揮発性メモリ113あるいは不図示の外部メモリに登録してある人物と被写体の人物を認証する。バス108は、システムバスであり、バス109は、画像データバスである。なお、本実施例はシステムバスと画像データバスを分けているが、同一バスとしてもよい。   The recognition unit 116 authenticates face recognition, human body recognition, and also a person registered in the nonvolatile memory 113 or an external memory (not shown) and a subject person. A bus 108 is a system bus, and a bus 109 is an image data bus. In this embodiment, the system bus and the image data bus are separated, but the same bus may be used.

メモリ制御部110は、システム制御部(CPU)114或いはデータ転送部107からの指示に応じて、メモリ111にデータを書き込んだり、メモリ111からデータを読み出したりする。なお、A/D変換器101からの出力データがメモリ111に直接書き込まれる場合もある。メモリ111は、所定枚数の静止画像や所定時間の動画像、音声等のデータやシステム制御部114の動作用の定数、プログラム等を格納するのに十分な記憶容量を備える記憶装置である。   The memory control unit 110 writes data into the memory 111 or reads data from the memory 111 in accordance with an instruction from the system control unit (CPU) 114 or the data transfer unit 107. Note that output data from the A / D converter 101 may be directly written into the memory 111. The memory 111 is a storage device having a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, data such as sound, constants for operating the system control unit 114, programs, and the like.

不揮発性メモリ制御部112は、システム制御部114からの指示に応じて、不揮発性メモリ113にデータを書き込んだり、不揮発性メモリ113からデータを読み出したりする。不揮発性メモリ113は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ113には、システム制御部114の動作用の定数、プログラム等が記憶される。   The non-volatile memory control unit 112 writes data to the non-volatile memory 113 or reads data from the non-volatile memory 113 in accordance with an instruction from the system control unit 114. The nonvolatile memory 113 is an electrically erasable / recordable memory, and for example, an EEPROM or the like is used. The nonvolatile memory 113 stores constants, programs, and the like for operating the system control unit 114.

システム制御部114は、デジタルカメラの動作制御を司るマイクロコンピュータなどで構成され、デジタルカメラを構成する各機能ブロックに対して様々な指示を行ったり、各種の制御処理を実行する。システム制御部114は、バス108を介して接続された画像処理部103、データ転送部107、メモリ制御部110、不揮発性メモリ制御部112、及び操作部115、撮像素子100を制御する。マイクロコンピュータの実行は、前述した不揮発性メモリ113に記録されたプログラムを実行することで、本実施例の各処理を実現する。操作部115は、ユーザーにより操作されるスイッチやボタン等を含み、電源のON/OFF、シャッターのON/OFF等の操作に使用される。   The system control unit 114 includes a microcomputer that controls the operation of the digital camera, and performs various instructions to the functional blocks constituting the digital camera and executes various control processes. The system control unit 114 controls the image processing unit 103, the data transfer unit 107, the memory control unit 110, the nonvolatile memory control unit 112, the operation unit 115, and the image sensor 100 connected via the bus 108. Execution of the microcomputer realizes each process of the present embodiment by executing the program recorded in the nonvolatile memory 113 described above. The operation unit 115 includes switches and buttons operated by the user, and is used for operations such as power ON / OFF and shutter ON / OFF.

図3は第1の実施例に係る特定部105、補正部106、データ転送部107を示すブロック図である。以下、図3について説明する。なお、図1と同一の部分については、同一の符号を付すなどして詳細な説明を省略する。   FIG. 3 is a block diagram illustrating the specifying unit 105, the correction unit 106, and the data transfer unit 107 according to the first embodiment. Hereinafter, FIG. 3 will be described. In addition, about the same part as FIG. 1, detailed description is abbreviate | omitted by attaching | subjecting the same code | symbol.

位置合わせ部300は、リファレンスデータ102を処理画像310と同じ画角となるように変換後(処理画像310)の座標を元に、変換前(リファレンスデータ102)のアドレスを演算する。アドレスの演算は、取得部104より本デジタルカメラ201、外部デジタルカメラ200の位置姿勢情報を取得し、その情報に基づいて射影変換などにより算出する。次に変換座標を元に、リファレンスデータ102を補正して位置合わせを行う。なお、位置合わせに関しては、他の方法を用いてもよい。補正には、後述する歪補正と同じ補間を用いる。   The alignment unit 300 calculates the address before conversion (reference data 102) based on the coordinates after conversion (processed image 310) so that the reference data 102 has the same angle of view as the processed image 310. For the calculation of the address, the position / orientation information of the digital camera 201 and the external digital camera 200 is acquired from the acquisition unit 104, and is calculated by projective transformation based on the information. Next, based on the converted coordinates, the reference data 102 is corrected and alignment is performed. Note that other methods may be used for alignment. For the correction, the same interpolation as the distortion correction described later is used.

歪補正部301は、処理画像310と同じように歪ませるため、画角に合わせたレンズ情報を加味して逆歪補正座標を演算する。補正座標の演算に関しては図4を用いて説明するが、収差補正が可能であれば他の方法を採用してもよい。   Since the distortion correction unit 301 distorts the image in the same manner as the processed image 310, it calculates reverse distortion correction coordinates in consideration of lens information that matches the angle of view. Although the calculation of the correction coordinates will be described with reference to FIG. 4, other methods may be adopted as long as aberration correction is possible.

図4は撮像素子100の出力画素を走査方向に沿って水平軸を、走査方向に直交して垂直軸を規定する、二次元の直交座標系の画像であり、画像の中心400と補正前画像の画素位置402と補正後画像の画素位置401を示した図である。補正前画像の画素位置402を補正するための補正量Cは、画像の中心からの距離を表す像高Rと、光学系の特性によって求められることが知られている。画像の中心400の垂直方向と画像の中心400から補正後画像の画素位置401方向との角度θと、補正量Cから座標変換して補正前画像の画素位置を算出する。また、補正前画像の画素位置402は必ずしも撮像素子の画素単位ではなく、撮像素子の画素と画素の間に移動される場合があり、小数点までを演算する。   FIG. 4 is an image of a two-dimensional orthogonal coordinate system in which the output pixel of the image sensor 100 defines the horizontal axis along the scanning direction and the vertical axis orthogonal to the scanning direction. It is the figure which showed the pixel position 402 of this and the pixel position 401 of the image after correction | amendment. It is known that the correction amount C for correcting the pixel position 402 of the uncorrected image is obtained from the image height R representing the distance from the center of the image and the characteristics of the optical system. The pixel position of the uncorrected image is calculated by converting the angle θ between the vertical direction of the center 400 of the image and the direction of the pixel position 401 of the corrected image from the center 400 of the image and the correction amount C. Further, the pixel position 402 of the pre-correction image is not necessarily a pixel unit of the image sensor, and may be moved between pixels of the image sensor, and the decimal point is calculated.

演算した歪補正座標を中心に、不図示の画像バッファメモリを用いて周辺画素を利用して補間して、補正リファレンスデータ307を作成する。補間には、バイリニア、バイキュービック補間などを用いるが、その他の方法を採用してもよい。画像データ306は、リファレンスデータ102のイメージ画像となる。さらに、画像データ308は、特定部で位置合わせ、歪補正を行った補正リファレンスデータ307のイメージ画像となる。なお、本実施例では、位置合わせ、歪補正の順で説明したが、歪補正部301で歪補正を行ったあとに、位置合わせ部300で位置合わせを行ってもよい。   The corrected reference data 307 is created by interpolating using the peripheral pixels using an image buffer memory (not shown) around the calculated distortion correction coordinates. For the interpolation, bilinear, bicubic interpolation or the like is used, but other methods may be adopted. The image data 306 is an image of the reference data 102. Further, the image data 308 is an image of the corrected reference data 307 that has been aligned and corrected by the specifying unit. In this embodiment, the description has been made in the order of alignment and distortion correction. However, after the distortion correction unit 301 performs distortion correction, the alignment unit 300 may perform alignment.

画像データ309は撮像素子100で撮像したデータをA/D変換器101で変換された処理画像310のイメージ画像である。また、画像データ309は、画像処理部102の不図示の画像処理を例えば、ホワイトバランスや黒レベル補正、シェーディング補正を適正に行った後の画像であってもよい。キズ補正部302は、補正リファレンスデータ307を用いて処理画像310を補正し、処理画像311を作成する。   The image data 309 is an image image of the processed image 310 obtained by converting the data captured by the image sensor 100 by the A / D converter 101. Further, the image data 309 may be an image after image processing (not shown) of the image processing unit 102 is appropriately performed, for example, white balance, black level correction, and shading correction. The scratch correction unit 302 corrects the processed image 310 using the correction reference data 307 and creates a processed image 311.

NR部303は、補正リファレンスデータ307を用いて処理画像311を補正し、処理画像312を作成する。ガンマ補正部304は、補正リファレンスデータ307を用いて処理画像312を補正し、処理画像313を作成する。キズ補正部302、キズ補正部302、ガンマ補正部304はフローチャートを用いて後述する。   The NR unit 303 corrects the processed image 311 using the corrected reference data 307 and creates a processed image 312. The gamma correction unit 304 corrects the processed image 312 using the corrected reference data 307 and creates a processed image 313. The scratch correction unit 302, the scratch correction unit 302, and the gamma correction unit 304 will be described later with reference to flowcharts.

歪補正部305は、処理画像313を歪補正部301と同様の方法で補正する。画像データ314は、処理画像313を歪補正部305で補正した後のイメージ画像である。また歪補正部301と歪補正部305は1つのブロックとして、排他的に使用してもよい。なお、画像処理の順番は問わないものとする。また、画像処理毎に毎回メモリへ読み込みと書き込みを行っているが、画像処理部102内の各処理部を直結させて画像処理させてもよい。   The distortion correction unit 305 corrects the processed image 313 by the same method as the distortion correction unit 301. The image data 314 is an image after the processed image 313 is corrected by the distortion correction unit 305. The distortion correction unit 301 and the distortion correction unit 305 may be exclusively used as one block. Note that the order of image processing does not matter. In addition, reading and writing are performed in the memory every time image processing is performed, but each processing unit in the image processing unit 102 may be directly connected to perform image processing.

図5は特定部105で処理したリファレンス画像500と撮像画像501を示したイメージ図である。リファレンス画像500は人物Aの腕により人物Bの顔が一部遮られている画像である。撮像画像501は、後述する画像処理でリファレンス画像の使用を禁止する使用禁止領域502と503を示したイメージ図でもある。認識部116により、撮像画像501の人物A、Bを認識し、次に、リファレンス画像500の認識を行う。この時、リファレンス画像500は人物Aのみ認識され、人物Bは顔認識されず、人体認識までとなる。この撮像画像501とリファレンス画像500の認識情報を元に、使用禁止領域502、503を決定する。   FIG. 5 is an image diagram showing a reference image 500 and a captured image 501 processed by the specifying unit 105. The reference image 500 is an image in which the face of the person B is partially blocked by the arm of the person A. The captured image 501 is also an image diagram illustrating use-prohibited areas 502 and 503 that prohibit use of the reference image in image processing to be described later. The recognition unit 116 recognizes the persons A and B in the captured image 501 and then recognizes the reference image 500. At this time, only the person A is recognized in the reference image 500, the face of the person B is not recognized, and the human body is recognized. Based on the recognition information of the captured image 501 and the reference image 500, the use prohibited areas 502 and 503 are determined.

図6はキズ補正処理フローを示すフローチャートである。ステップ600にて、システム制御部114が、不揮発メモリ113に保持されているキズアドレス情報とメモリ111に保持されている使用禁止領域アドレスを読み出し、キズ補正部302に設定する。ステップ601では、キズ補正部302が、キズアドレスに対して使用禁止領域か判定する。使用禁止領域であれば、ステップ602に進み、キズ補正部302がキズ補正を行う。使用禁止領域でなければ、ステップ603に進む。ステップ603では、キズ補正部302が、補正リファレンス画像307をメモリ111から読み出す。   FIG. 6 is a flowchart showing a flaw correction processing flow. In step 600, the system control unit 114 reads the flaw address information held in the nonvolatile memory 113 and the use-prohibited area address held in the memory 111 and sets them in the flaw correction unit 302. In step 601, the scratch correction unit 302 determines whether the scratch address is a prohibited area. If it is a use prohibition area, the process proceeds to step 602, where the defect correcting unit 302 performs defect correction. If it is not a prohibited area, the process proceeds to step 603. In step 603, the defect correction unit 302 reads the corrected reference image 307 from the memory 111.

ステップ604では、キズ補正部302が、キズアドレス情報を元に、処理画像310の該当アドレスの画素を補正リファレンス画像307と置き換えを行う。また、置き換え後に、キズアドレスを中心にして、平滑化フィルタや移動平均化フィルタなどの処理を行ってもよい。ステップ602あるいはステップ604の処理を終えると、ステップ605に進む。ステップ605では、キズ補正部302が、処理画像310のキズアドレスに対して全て処理を終えたか判定を行い、処理を終えていない場合は、ステップ601に戻る。キズ補正部302が、全てのキズ補正を終えたと判定すると、キズ補正処理を終了する。   In step 604, the defect correcting unit 302 replaces the pixel at the corresponding address in the processed image 310 with the corrected reference image 307 based on the defect address information. Further, after the replacement, processing such as a smoothing filter and a moving average filter may be performed centering on the scratch address. When the process of step 602 or step 604 is completed, the process proceeds to step 605. In step 605, the defect correction unit 302 determines whether all the processes have been completed for the defect address of the processed image 310. If the process has not been completed, the process returns to step 601. If the scratch correction unit 302 determines that all the scratch corrections have been completed, the scratch correction process is terminated.

図7はNR処理フローを示すフローチャートである。ステップ700にて、システム制御部114が、メモリ111に保持されている使用禁止領域アドレスを読み出し、NR部303に設定する。ステップ701では、NR部303が、処理対象の画素あるいは領域に対して使用禁止領域か判定する。ステップ701で、使用禁止領域と判定すると、ステップ706に進み、使用禁止領域でないと判定するとステップ702に進む。ステップ702では、補正リファレンス画像307をメモリ111から読み出しエッジ判定を行う。エッジなしと判定すると、ステップ706に進み、エッジありと判定すると、ステップ703に進む。   FIG. 7 is a flowchart showing the NR processing flow. In step 700, the system control unit 114 reads out the prohibited area address held in the memory 111 and sets it in the NR unit 303. In step 701, the NR unit 303 determines whether the pixel or area to be processed is a prohibited area. If it is determined in step 701 that the area is a use-prohibited area, the process proceeds to step 706. If it is determined that the area is not a use-prohibited area, the process proceeds to step 702. In step 702, the corrected reference image 307 is read from the memory 111 and edge determination is performed. If it is determined that there is no edge, the process proceeds to step 706, and if it is determined that there is an edge, the process proceeds to step 703.

ステップ703では、NR部303が、処理画像311をメモリ111から読み出し、エッジ判定を行う。エッジなしと判定すると、ステップ704に進み、エッジありと判定すると、ステップ706に進む。ステップ704では、NR部303が、処理画像311でエッジなしと判定した領域に対応する画像データを補正リファレンス画像307から取得する。ステップ705では、NR部303が、ステップ704で取得したデータを、処理画像311のデータと置き換える。ステップ706では、エッジ情報も加味してメディアンフィルタやガウシアンフィルタなどのフィルタ処理を施してNR処理を行う。   In step 703, the NR unit 303 reads the processed image 311 from the memory 111 and performs edge determination. If it is determined that there is no edge, the process proceeds to step 704. If it is determined that there is an edge, the process proceeds to step 706. In step 704, the NR unit 303 acquires image data corresponding to a region determined to have no edge in the processed image 311 from the corrected reference image 307. In step 705, the NR unit 303 replaces the data acquired in step 704 with the data of the processed image 311. In step 706, NR processing is performed by applying filter processing such as a median filter and a Gaussian filter in consideration of edge information.

また、NR処理はメディアンフィルタやガウシアンフィルタ以外の処理を適応してもよい。ステップ707では、NR部303が、処理の終了判定を行い、終了でないと判定したら、ステップ700に戻って処理を引き続き行う。終了と判定すると、NR処理を終了する。   Further, processing other than the median filter and Gaussian filter may be applied to the NR processing. In step 707, the NR unit 303 determines whether to end the process. If it is determined that the process has not ended, the process returns to step 700 to continue the process. If it is determined to end, the NR process ends.

図8はガンマ補正処理フローを示すフローチャートである。ステップ800にて、システム制御部114が、メモリ111に保持されている使用禁止領域アドレスを読み出し、ガンマ補正部304に設定する。ステップ801では、ガンマ補正部304が、処理対象の画素あるいは領域に対して使用禁止領域か判定する。ステップ801で、使用禁止領域と判定すると、ステップ802に進み、使用禁止領域でないと判定するとステップ803に進む。ステップ802では、ガンマ補正部304が、処理画像312に対して、ガンマ補正を行う。   FIG. 8 is a flowchart showing a gamma correction processing flow. In step 800, the system control unit 114 reads out the use-prohibited area address held in the memory 111 and sets it in the gamma correction unit 304. In step 801, the gamma correction unit 304 determines whether the pixel or area to be processed is a prohibited area. If it is determined in step 801 that the area is a use-prohibited area, the process proceeds to step 802. If it is determined that the area is not a use-prohibited area, the process proceeds to step 803. In step 802, the gamma correction unit 304 performs gamma correction on the processed image 312.

ステップ803では、ガンマ補正部304は、処理対象領域に対応する補正リファレンス画像307をメモリ111から読み出す。続いて、ステップ804では、ガンマ補正部304は、ステップ803の領域に対して明暗判定を行う。ステップ805では、ガンマ補正部304は、処理画像312に対して、ステップ804の明暗結果を元にガンマ補正を行う。ステップ806では、ガンマ補正部304が、処理の終了判定を行い、終了でないと判定したら、ステップ800に戻って処理を引き続き行う。終了と判定すると、ガンマ補正処理を終了する。   In step 803, the gamma correction unit 304 reads the corrected reference image 307 corresponding to the processing target area from the memory 111. Subsequently, in step 804, the gamma correction unit 304 performs light / dark determination on the region in step 803. In step 805, the gamma correction unit 304 performs gamma correction on the processed image 312 based on the brightness result in step 804. In step 806, the gamma correction unit 304 determines whether or not to end the process. If it is determined that the process is not ended, the process returns to step 800 to continue the process. If it is determined to end, the gamma correction processing is ended.

以上説明したように、本発明の第1の実施例によれば、特定部105の位置合わせ部300と歪み補正部301を使用することで、リファレンス画像データに対して、撮像画像と同じ位置となるように位置合わせを行い、レンズ情報に基づいて逆歪み補正をかけることができる。そのため、歪み補正をかける前の画像データを処理する時に、リファレンス画像データを撮像画像データのキズ補正、NR、ガンマ補正などに利用することが可能となり、高画質化を図ることができる。   As described above, according to the first embodiment of the present invention, by using the alignment unit 300 and the distortion correction unit 301 of the specifying unit 105, the reference image data has the same position as the captured image. Thus, it is possible to perform alignment and to apply reverse distortion correction based on the lens information. Therefore, when processing the image data before distortion correction, the reference image data can be used for flaw correction, NR, gamma correction, etc. of the captured image data, and high image quality can be achieved.

以上、本発明を第1の実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々の変更が可能であることは言うまでもない。   The present invention has been specifically described above based on the first embodiment. However, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the present invention. Needless to say.

[実施例2]
次に、本発明の第2の実施例について説明する。なお、ここでは、前述した第1の実施例と異なる部分のみを説明し、同一の部分については、同一の符号を付すなどして詳細な説明を省略する。
[Example 2]
Next, a second embodiment of the present invention will be described. Here, only portions different from the first embodiment described above will be described, and the same portions will be denoted by the same reference numerals and detailed description thereof will be omitted.

図9は第2の実施例に係る画像処理部103の特定部105、補正部106、データ転送部107を示すブロック図である。以下、図9について説明する。なお、図1、3と同一の部分については、同一の符号を付すなどして詳細な説明を省略する。位置合わせ座標算出部900は、リファレンスデータ102を処理画像310と同じ画角となるように変換後(処理画像310)の座標を元に、変換前(リファレンスデータ102)のアドレスを演算する。アドレスの演算は、取得部104より本デジタルカメラ201、外部デジタルカメラ200の位置姿勢情報を取得し、その情報に基づいて射影変換などにより算出する。   FIG. 9 is a block diagram illustrating the specifying unit 105, the correction unit 106, and the data transfer unit 107 of the image processing unit 103 according to the second embodiment. Hereinafter, FIG. 9 will be described. 1 and 3 are denoted by the same reference numerals, and detailed description thereof is omitted. The alignment coordinate calculation unit 900 calculates an address before conversion (reference data 102) based on coordinates after conversion (processed image 310) so that the reference data 102 has the same angle of view as the processed image 310. For the calculation of the address, the position / orientation information of the digital camera 201 and the external digital camera 200 is acquired from the acquisition unit 104, and is calculated by projective transformation based on the information.

歪補正座標算出部901は、処理画像311と同じように歪ませるため、位置合わせ座標算出部900の射影変換などにより算出した座標を元に補正座標を演算する。補正座標の演算に関しては、実施例1と同様に算出する。また、歪補正座標算出部901は、歪補正部301、305の一部機能として流用することが可能である。キズ補正部902は、リファレンスデータ102を用いて処理画像310を補正し、処理画像311を作成する。NR部903は、補正リファレンスデータ102を用いて処理画像311を補正し、処理画像312を作成する。ガンマ補正部904は、リファレンスデータ102を用いて処理画像312を補正し、処理画像313を作成する。   The distortion correction coordinate calculation unit 901 calculates correction coordinates based on the coordinates calculated by the projective transformation of the alignment coordinate calculation unit 900 in order to distort the same as the processed image 311. The calculation of the correction coordinates is calculated in the same manner as in the first embodiment. Further, the distortion correction coordinate calculation unit 901 can be used as a partial function of the distortion correction units 301 and 305. The scratch correction unit 902 corrects the processed image 310 using the reference data 102 and creates a processed image 311. The NR unit 903 corrects the processed image 311 using the corrected reference data 102 and creates a processed image 312. The gamma correction unit 904 corrects the processed image 312 using the reference data 102 and creates a processed image 313.

キズ補正部902、NR部903、ガンマ補正部904はフローチャートを用いて後述する。なお、画像処理の順番は問わないものとする。また、画像処理毎に毎回メモリへ読み込みと書き込みを行っているが、画像処理部102内の各処理部を直結させて画像処理させてもよい。   The scratch correction unit 902, the NR unit 903, and the gamma correction unit 904 will be described later with reference to flowcharts. Note that the order of image processing does not matter. In addition, reading and writing are performed in the memory every time image processing is performed, but each processing unit in the image processing unit 102 may be directly connected to perform image processing.

実施例1で説明した図5において、リファレンス画像500は特定部105で処理した後の画像としていた。しかし、本実施例では、リファレンス画像500は、特定部105で処理する前、つまり、リファレンス画像データ102をリファレンス画像500として、使用禁止領域を算出する。あるいは、特定部105で求めた座標情報を元に、リファレンス画像データ102を歪補正部305で補間してリファレンス画像500とすることも可能である。この場合リファレンス画像500は実施例1と同等となる。   In FIG. 5 described in the first embodiment, the reference image 500 is an image after being processed by the specifying unit 105. However, in the present embodiment, the reference image 500 is calculated before being processed by the specifying unit 105, that is, using the reference image data 102 as the reference image 500. Alternatively, based on the coordinate information obtained by the specifying unit 105, the reference image data 102 can be interpolated by the distortion correction unit 305 to obtain the reference image 500. In this case, the reference image 500 is equivalent to that in the first embodiment.

図10はキズ補正処理フローを示すフローチャートである。ステップ1000にて、システム制御部114が、不揮発メモリ113に保持されているキズアドレス情報とメモリ111に保持されている使用禁止領域アドレスを読み出し、キズ補正部902に設定する。ステップ1002では、特定部105にキズアドレスを設定してリファレンス画像データ102のアドレスを取得する。ステップ1002では、キズ補正部902が、キズアドレスに対して使用禁止領域か判定する。使用禁止領域であれば、ステップ1003に進み、キズ補正部902がキズ補正を行う。   FIG. 10 is a flowchart showing a flaw correction processing flow. In step 1000, the system control unit 114 reads out the flaw address information held in the nonvolatile memory 113 and the use-prohibited area address held in the memory 111 and sets them in the flaw correction unit 902. In step 1002, a flaw address is set in the specifying unit 105 to acquire the address of the reference image data 102. In step 1002, the scratch correction unit 902 determines whether the scratch address is a prohibited area. If it is a use prohibition area, the process proceeds to step 1003, and the defect correction unit 902 performs defect correction.

使用禁止領域でなければ、ステップ1004に進む。ステップ1004では、キズ補正部902がリファレンス画像データ102をメモリ111から読み出す。ステップ1005では、キズ補正部902が、ステップ1001で取得したアドレス情報を元に、リファレンス画像データ102を補間して、処理画像310の該当アドレスの画素の置き換えを行う。また、置き換え後に、キズアドレスを中心にして、平滑化フィルタや移動平均化フィルタなどの処理を行ってもよい。ステップ1003あるいはステップ1005の処理を終えると、ステップ1006に進む。   If it is not a prohibited area, the process proceeds to step 1004. In step 1004, the scratch correction unit 902 reads the reference image data 102 from the memory 111. In step 1005, the defect correction unit 902 interpolates the reference image data 102 based on the address information acquired in step 1001 and replaces the pixel at the corresponding address in the processed image 310. Further, after the replacement, processing such as a smoothing filter and a moving average filter may be performed centering on the scratch address. When the processing of step 1003 or step 1005 is completed, the process proceeds to step 1006.

ステップ1006では、キズ補正部902が、処理画像310のキズアドレスに対して全て処理を終えたか判定を行い、処理を終えていない場合は、ステップ1000に戻る。キズ補正部902が、全てのキズ補正を終えたと判定すると、キズ補正処理を終了する。   In step 1006, the defect correcting unit 902 determines whether all the processes have been completed for the defect address of the processed image 310. If the process has not been completed, the process returns to step 1000. If the scratch correction unit 902 determines that all the scratch corrections have been completed, the scratch correction processing is terminated.

図11はNR処理フローを示すフローチャートである。ステップ1100にて、システム制御部114が、メモリ111に保持されている使用禁止領域アドレスを読み出し、NR部903に設定する。ステップ1101では、NR部903が、処理対象の画素あるいは領域に対して使用禁止領域か判定する。ステップ1101で、使用禁止領域と判定すると、ステップ1107に進み、使用禁止領域でないと判定するとステップ1102に進む。ステップ1102では、特定部105にエッジ判定領域を設定してリファレンス画像データ102のアドレスを取得する。   FIG. 11 is a flowchart showing the NR processing flow. In step 1100, the system control unit 114 reads the use-prohibited area address held in the memory 111 and sets it in the NR unit 903. In step 1101, the NR unit 903 determines whether the pixel or area to be processed is a prohibited area. If it is determined in step 1101 that the area is a prohibited area, the process proceeds to step 1107. If it is determined that the area is not a prohibited area, the process proceeds to step 1102. In step 1102, an edge determination area is set in the specifying unit 105 to acquire the address of the reference image data 102.

ステップ1103では、リファレンス画像データ102をメモリ111から読み出し補間後にエッジ判定を行う。エッジなしと判定すると、ステップ1107に進み、エッジありと判定すると、ステップ1104に進む。ステップ1104では、NR部903が、処理画像311をメモリ111から読み出し、エッジ判定を行う。エッジなしと判定すると、ステップ1105に進み、エッジありと判定すると、ステップ1107に進む。ステップ1105では、NR部903が、処理画像311でエッジなしと判定した領域に対応する画像データをリファレンス画像データ102から取得する。   In step 1103, the reference image data 102 is read from the memory 111, and edge determination is performed after interpolation. If it is determined that there is no edge, the process proceeds to step 1107. If it is determined that there is an edge, the process proceeds to step 1104. In step 1104, the NR unit 903 reads the processed image 311 from the memory 111, and performs edge determination. If it is determined that there is no edge, the process proceeds to step 1105, and if it is determined that there is an edge, the process proceeds to step 1107. In step 1105, the NR unit 903 acquires from the reference image data 102 image data corresponding to a region determined to have no edge in the processed image 311.

ステップ1106では、NR部903が、ステップ1105で取得したデータを、補間後に処理画像311のデータと置き換える。ステップ1107では、エッジ情報も加味してメディアンフィルタやガウシアンフィルタなどのフィルタ処理を施してNR処理を行う。また、NR処理はメディアンフィルタやガウシアンフィルタ以外の処理を適応してもよい。ステップ1108では、NR部903が、処理の終了判定を行い、終了でないと判定したら、ステップ1100に戻って処理を引き続き行う。終了と判定すると、NR処理を終了する。   In step 1106, the NR unit 903 replaces the data acquired in step 1105 with the data of the processed image 311 after interpolation. In step 1107, NR processing is performed by applying filter processing such as a median filter and a Gaussian filter in consideration of edge information. Further, processing other than the median filter and Gaussian filter may be applied to the NR processing. In step 1108, the NR unit 903 determines the end of the process. If it is determined that the process is not ended, the process returns to step 1100 to continue the process. If it is determined to end, the NR process ends.

図12はガンマ補正処理フローを示すフローチャートである。ステップ1200にて、システム制御部114が、メモリ111に保持されている使用禁止領域アドレスを読み出し、ガンマ補正部904に設定する。ステップ1201では、ガンマ補正部904が、処理対象の画素あるいは領域に対して使用禁止領域か判定する。ステップ1201で、使用禁止領域と判定すると、ステップ1202に進み、使用禁止領域でないと判定するとステップ1203に進む。ステップ1202では、ガンマ補正部904が、処理画像312に対して、ガンマ補正を行う。   FIG. 12 is a flowchart showing a gamma correction processing flow. In step 1200, the system control unit 114 reads out the use-prohibited area address held in the memory 111 and sets it in the gamma correction unit 904. In step 1201, the gamma correction unit 904 determines whether the pixel or area to be processed is a prohibited area. If it is determined in step 1201 that the area is a use-prohibited area, the process proceeds to step 1202. If it is determined that the area is not a use-prohibited area, the process proceeds to step 1203. In step 1202, the gamma correction unit 904 performs gamma correction on the processed image 312.

ステップ1203では、特定部105に処理領域を設定してリファレンス画像データ102のアドレスを取得する。ステップ1204では、ガンマ補正部904は、処理対象領域に対応するリファレンス画像データ102をメモリ111から読み出し、補正する。続いて、ステップ1205では、ガンマ補正部904は、ステップ1204の領域に対して明暗判定を行う。ステップ1206では、ガンマ補正部904は、処理画像312に対して、ステップ1205の明暗結果を元にガンマ補正を行う。ステップ1207では、ガンマ補正部904が、処理の終了判定を行い、終了でないと判定したら、ステップ1200に戻って処理を引き続き行う。終了と判定すると、ガンマ補正処理を終了する。   In step 1203, the processing area is set in the specifying unit 105 and the address of the reference image data 102 is acquired. In step 1204, the gamma correction unit 904 reads the reference image data 102 corresponding to the processing target area from the memory 111 and corrects it. Subsequently, in step 1205, the gamma correction unit 904 performs light / dark determination on the area in step 1204. In step 1206, the gamma correction unit 904 performs gamma correction on the processed image 312 based on the brightness result in step 1205. In step 1207, the gamma correction unit 904 determines whether or not to end the process. If it is determined that the process is not ended, the process returns to step 1200 to continue the process. If it is determined to end, the gamma correction processing is ended.

以上説明したように、本発明の第2の実施例によれば、特定部105の位置合わせ座標算出部900と歪補正座標算出部901を使用することで、リファレンス画像データに対して、撮像画像と同じ位置、レンズ情報に基づいた逆歪み補正座標を得ることができる。そのため、歪み補正をかける前の画像データを処理する時に、リファレンス画像データと特定部105で出力したアドレス情報を元に撮像画像データのキズ補正、NR、ガンマ補正などに利用することが可能となり、高画質化を図ることができる。さらには、リファレンス画像データに対して全画素に対して補正を行うのではなく、撮像画像データで補正が必要な箇所のみとすることができ、メモリアクセスの帯域を節約できる。   As described above, according to the second embodiment of the present invention, by using the alignment coordinate calculation unit 900 and the distortion correction coordinate calculation unit 901 of the specifying unit 105, the captured image is obtained with respect to the reference image data. The reverse distortion correction coordinates based on the same position and lens information can be obtained. Therefore, when processing the image data before distortion correction, it can be used for defect correction, NR, gamma correction, etc. of the captured image data based on the reference image data and the address information output by the specifying unit 105. High image quality can be achieved. Furthermore, the correction is not performed on all the pixels with respect to the reference image data, but only the portions that need to be corrected with the captured image data can be made, so that the memory access bandwidth can be saved.

以上、本発明を第2の実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々の変更が可能であることは言うまでもない。   The present invention has been specifically described above based on the second embodiment. However, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the present invention. Needless to say.

100 撮像素子、101 A/D変換器、102 画像処理部、103 撮像処理部、
104 取得部、105 特定部、106 補正部、116 認識部、
107 データ転送部、108 システムバス、109 データバス、
110 メモリ制御部、111 メモリ、112 不揮発性メモリ制御部、
113 不揮発性メモリ、114 システム制御部、115 操作部、
300 位置合わせ部、301 歪補正部、302 キズ補正図、303 NR部、
304 ガンマ補正部、305 歪補正部、900 位置合わせ座標算出部、
901 歪補正座標算出部、902 キズ補正図、903 NR部、
904 ガンマ補正部
DESCRIPTION OF SYMBOLS 100 Image sensor, 101 A / D converter, 102 Image processing part, 103 Imaging process part,
104 acquisition unit, 105 identification unit, 106 correction unit, 116 recognition unit,
107 data transfer unit, 108 system bus, 109 data bus,
110 memory control unit, 111 memory, 112 non-volatile memory control unit,
113 nonvolatile memory, 114 system control unit, 115 operation unit,
300 Alignment unit, 301 Distortion correction unit, 302 Scratch correction diagram, 303 NR unit,
304 gamma correction unit, 305 distortion correction unit, 900 alignment coordinate calculation unit,
901 distortion correction coordinate calculation unit, 902 scratch correction diagram, 903 NR unit,
904 Gamma correction unit

Claims (11)

撮像手段と、
外部からリファレンス画像を取得する取得手段と、
少なくとも、前記撮像手段で得られた撮像画像と前記リファレンス画像の画角の相違、および、前記撮像手段のレンズ収差情報に基づいて前記撮像画像の着目画素または着目領域に対応する、前記リファレンス画像の参照画素または参照領域を特定する特定手段と、
前記参照画素または参照領域の画像に基づいて、前記撮像画像の前記着目画素または着目領域を補正する補正手段と、
を備えることを特徴とする画像処理装置。
Imaging means;
An acquisition means for acquiring a reference image from outside;
At least the difference in the angle of view between the captured image obtained by the imaging unit and the reference image and the reference image corresponding to the target pixel or the target region of the captured image based on the lens aberration information of the imaging unit. A specifying means for specifying a reference pixel or a reference region;
Correction means for correcting the pixel of interest or the region of interest of the captured image based on the image of the reference pixel or the reference region;
An image processing apparatus comprising:
前記特定手段は、
前記撮像画像と前記リファレンス画像の画角の相違に基づいて前記リファレンス画像の参照画素または参照領域を特定して位置合わせを行う位置合わせ手段と、
前記撮像手段のレンズ収差情報に基づいて前記リファレンス画像の参照画素または参照領域を特定して歪補正を行う歪補正手段と、
を含むことを特徴とする請求項1に記載の画像処理装置。
The specifying means is:
Alignment means for specifying and aligning a reference pixel or a reference area of the reference image based on a difference in angle of view between the captured image and the reference image;
Distortion correction means for performing distortion correction by specifying a reference pixel or a reference region of the reference image based on lens aberration information of the imaging means;
The image processing apparatus according to claim 1, further comprising:
前記特定手段は、
前記撮像画像と前記リファレンス画像の画角の相違に基づいて前記リファレンス画像の参照画素または参照領域を特定して位置合わせ用の座標を算出する位置合わせ座標算出手段と、
前記撮像手段のレンズ収差情報に基づいて前記リファレンス画像の参照画素または参照領域を特定して歪補正を行うための座標を算出する歪補正座標算出手段と、
を含むことを特徴とする請求項1に記載の画像処理装置。
The specifying means is:
Alignment coordinate calculation means for specifying a reference pixel or a reference area of the reference image based on a difference in angle of view between the captured image and the reference image and calculating coordinates for alignment;
Distortion correction coordinate calculation means for calculating coordinates for correcting distortion by specifying a reference pixel or a reference area of the reference image based on lens aberration information of the imaging means;
The image processing apparatus according to claim 1, further comprising:
前記取得手段は、
リファレンス画像を撮影した位置姿勢情報と画像処理装置の位置姿勢情報を取得する位置姿勢情報取得手段と
を含むことを特徴とする請求項1乃至請求項3の何れか一項に記載の画像処理装置。
The acquisition means includes
The image processing apparatus according to any one of claims 1 to 3, further comprising position / orientation information acquisition means for acquiring position / orientation information obtained by capturing the reference image and position / orientation information of the image processing apparatus. .
前記撮像画像と前記リファレンス画像に対して、人物の顔や人体を認識、認証する認識手段と、
前記認識手段により、前記撮像画像と前記リファレンス画像に対して認識を行い、前記撮像画像と前記リファレンス画像の認識結果に差異がある領域を禁止領域とすることを特徴とする請求項1乃至請求項4の何れか一項に記載の画像処理装置。
Recognizing means for recognizing and authenticating a human face and human body with respect to the captured image and the reference image;
The recognition unit recognizes the captured image and the reference image, and sets a region where there is a difference between recognition results of the captured image and the reference image as a prohibited region. 5. The image processing device according to any one of 4.
前記補正手段は、
撮像素子固有のキズアドレス情報と
前記特定手段で前記リファレンス画像を位置合わして歪補正した補正リファレンス画像を用いて
前記撮像画像のキズ画素あるいはキズ領域を補正するキズ補正手段と、
を含むことを特徴とする請求項1乃至請求項4の何れか一項に記載の画像処理装置。
The correction means includes
Flaw correction means for correcting flaw pixels or flaw areas of the picked-up image using flaw address information unique to the image pickup device and a corrected reference image obtained by aligning the reference image by the specifying means and correcting the distortion;
The image processing apparatus according to claim 1, further comprising:
前記補正手段は、
前記特定手段で前記リファレンス画像を位置合わして歪補正した補正リファレンス画像のエッジ判定と前記撮像画像のエッジ判定を行うエッジ判定手段と、
前記補正リファレンス画像のエッジを使用するか判定するエッジ使用判定手段とを有し、
エッジ使用判定手段の結果に応じて前記撮像画像に対して前記リファレンス画像のエッジ領域を置き換えてノイズ除去を行うノイズ除去手段と、
を含むことを特徴とする請求項1乃至請求項4の何れか一項に記載の画像処理装置。
The correction means includes
Edge determination means for performing edge determination of the corrected reference image obtained by aligning the reference image by the specifying means and correcting distortion, and edge determination of the captured image;
Edge use determination means for determining whether to use an edge of the corrected reference image;
Noise removing means for removing noise by replacing an edge region of the reference image with respect to the captured image according to a result of an edge use determining means;
The image processing apparatus according to claim 1, further comprising:
前記補正手段は、
前記特定手段で前記リファレンス画像を位置合わして歪補正した補正リファレンス画像に対して一定の領域の画像の明暗を判別する明暗判別手段と、
前記明暗判別手段の結果に応じて前記撮像画像に対して少なくとも一つの領域に対してガンマ補正を行うガンマ補正手段と、
を含むことを特徴とする請求項1乃至請求項4の何れか一項に記載の画像処理装置。
The correction means includes
Brightness / darkness discrimination means for discriminating the brightness of an image in a certain area with respect to the corrected reference image obtained by aligning the reference image by the specifying means and correcting the distortion;
Gamma correction means for performing gamma correction on at least one region of the captured image according to the result of the light / dark discrimination means;
The image processing apparatus according to claim 1, further comprising:
前記補正手段は、
撮像素子固有のキズアドレス情報と
前記キズアドレス情報を元に、前記特定手段で算出した位置合わせ座標と歪補正座標から前記リファレンス画像の一部を補正した一部補正リファレンス画像を用いて、
前記撮像画像のキズ画素あるいはキズ領域を補正するキズ補正手段と、
を含むことを特徴とする請求項1乃至請求項4の何れか一項に記載の画像処理装置。
The correction means includes
Based on the flaw address information specific to the image sensor and the flaw address information, using a partially corrected reference image obtained by correcting a part of the reference image from the alignment coordinates and distortion correction coordinates calculated by the specifying unit,
Flaw correction means for correcting flaw pixels or flaw areas of the captured image;
The image processing apparatus according to claim 1, further comprising:
前記補正手段は、
一定領域のアドレス情報を元に、前記特定手段で算出した位置合わせ座標と歪補正座標から前記リファレンス画像の一部を補正した一部補正リファレンス画像のエッジ判定と前記撮像画像のエッジ判定を行うエッジ判定手段と、
前記一部補正リファレンス画像のエッジを使用するか判定するエッジ使用判定手段とを有し、
エッジ使用判定手段の結果に応じて前記撮像画像に対して前記リファレンス画像のエッジ領域を置き換えてノイズ除去を行うノイズ除去手段と、
を含むことを特徴とする請求項1乃至請求項4の何れか一項に記載の画像処理装置。
The correction means includes
Edges for performing edge determination of a partially corrected reference image obtained by correcting a part of the reference image based on alignment coordinates and distortion correction coordinates calculated by the specifying unit and edge determination of the captured image based on address information of a certain area A determination means;
Edge use determination means for determining whether to use an edge of the partially corrected reference image,
Noise removing means for removing noise by replacing an edge region of the reference image with respect to the captured image according to a result of an edge use determining means;
The image processing apparatus according to claim 1, further comprising:
前記補正手段は、
一定領域のアドレス情報を元に、前記特定手段で算出した位置合わせ座標と歪補正座標から前記リファレンス画像の一部を補正した一部補正リファレンス画像に対して領域の画像の明暗を判別する明暗判別手段と、
前記明暗判別手段の結果に応じて前記撮像画像に対して少なくとも一つの領域に対してガンマ補正を行うガンマ補正手段と、
を含むことを特徴とする請求項1乃至請求項4の何れか一項に記載の画像処理装置。
The correction means includes
Brightness / darkness determination that determines the brightness of an image in a region with respect to a partially corrected reference image obtained by correcting a part of the reference image based on alignment coordinates and distortion correction coordinates calculated by the specifying unit based on address information of a certain region Means,
Gamma correction means for performing gamma correction on at least one region of the captured image according to the result of the light / dark discrimination means;
The image processing apparatus according to claim 1, further comprising:
JP2014261469A 2014-12-25 2014-12-25 Image processing apparatus Pending JP2016122947A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014261469A JP2016122947A (en) 2014-12-25 2014-12-25 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014261469A JP2016122947A (en) 2014-12-25 2014-12-25 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2016122947A true JP2016122947A (en) 2016-07-07

Family

ID=56327597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014261469A Pending JP2016122947A (en) 2014-12-25 2014-12-25 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2016122947A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018088016A1 (en) * 2016-11-08 2018-05-17 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, imaging system, and image processing program
CN114878583A (en) * 2022-07-08 2022-08-09 四川大学 Image processing method and system for dark field imaging of distorted spot lighting defects

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018088016A1 (en) * 2016-11-08 2018-05-17 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, imaging system, and image processing program
CN114878583A (en) * 2022-07-08 2022-08-09 四川大学 Image processing method and system for dark field imaging of distorted spot lighting defects
CN114878583B (en) * 2022-07-08 2022-09-20 四川大学 Image processing method and system for dark field imaging of distorted spot lighting defects

Similar Documents

Publication Publication Date Title
JP5487722B2 (en) Imaging apparatus and shake correction method
KR102385360B1 (en) Electronic device performing image correction and operation method of thereof
US9661245B2 (en) Image processing apparatus, image processing method, and storage medium
JP2019097178A (en) Imaging apparatus, image processing apparatus and method
US20110096143A1 (en) Apparatus for generating a panoramic image, method for generating a panoramic image, and computer-readable medium
US20120328152A1 (en) Image processing apparatus, image processing method and storage medium
JP2006295626A (en) Fish-eye image processing apparatus, method thereof and fish-eye imaging apparatus
US10521891B2 (en) Image processing apparatus, system, image processing method, and non-transitory recording medium
EP3493524B1 (en) Method and device for double-camera-based imaging
JP2005509961A (en) Method for deriving calibration and image processing
JP4868046B2 (en) Image processing apparatus, image processing method, and program
JP4985124B2 (en) Image processing apparatus, image processing method, and image processing program
JP2012114561A (en) Object detection device, object detection method and program
JP6529360B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP2016122947A (en) Image processing apparatus
JP2007013791A (en) Image processing apparatus and its method, as well as imaging apparatus
CN110969575B (en) Adaptive image stitching method and image processing device
JP6217225B2 (en) Image collation device, image collation method and program
JPWO2007108081A1 (en) Imaging apparatus, imaging method and program, imaging apparatus table creation apparatus and method, video processing apparatus and method
JP6375131B2 (en) Imaging apparatus, image processing method, and control program
JP6440465B2 (en) Image processing apparatus, image processing method, and program
JP5641127B2 (en) Imaging apparatus and shake correction method
JP2016040883A (en) Image processing device, image processing method, image processing system, and program
JP6556033B2 (en) Image processing apparatus, image processing method, and program
JP2017017609A (en) Image processing device