JP2011055133A - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP2011055133A
JP2011055133A JP2009200691A JP2009200691A JP2011055133A JP 2011055133 A JP2011055133 A JP 2011055133A JP 2009200691 A JP2009200691 A JP 2009200691A JP 2009200691 A JP2009200691 A JP 2009200691A JP 2011055133 A JP2011055133 A JP 2011055133A
Authority
JP
Japan
Prior art keywords
image
captured
correction data
imaging device
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009200691A
Other languages
Japanese (ja)
Other versions
JP5148573B2 (en
Inventor
Tetsuya Takamori
哲弥 高森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009200691A priority Critical patent/JP5148573B2/en
Publication of JP2011055133A publication Critical patent/JP2011055133A/en
Application granted granted Critical
Publication of JP5148573B2 publication Critical patent/JP5148573B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an reduced cost image processing system for correcting an optical response of an imaging optical system. <P>SOLUTION: This image processing system includes: a feature quantity extraction portion for respectively extracting feature quantities from images respectively captured at different positions on a plurality of captured images captured by an imaging apparatus; and an image processing portion for generating corrected images obtained by correcting differences of optical responses on an image region basis by an imaging optical system provided in the imaging apparatus from the captured images captured by the imaging apparatus or other captured images based on the feature quantities extracted by the feature quantity extraction portion. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理システム、画像処理方法およびプログラムに関する。   The present invention relates to an image processing system, an image processing method, and a program.

撮影光学系と被写体との間の距離および焦点距離の組み合わせに対応した補正データを用いて画像を補整する撮像装置が知られている(例えば、特許文献1参照)。この撮像装置では、被写体までの距離を検出するとともに、撮影光学系の焦点距離を検出して、検出した距離および焦点距離に対応する補正データを読み出して、読み出した補正データを用いて物体像に対し補正処理が行われる。
特開平9−74514号公報
There is known an imaging apparatus that corrects an image using correction data corresponding to a combination of a distance between a photographing optical system and a subject and a focal length (for example, see Patent Document 1). In this imaging device, the distance to the subject is detected, the focal length of the photographing optical system is detected, correction data corresponding to the detected distance and the focal length is read, and an object image is read using the read correction data. Correction processing is performed.
JP-A-9-74514

上記特許文献1に記載の技術によると、被写体までの距離および焦点距離に応じた補正データを利用することで、劣化画像を復元できるとされる。しかしながら、上記特許文献1に記載の技術によると、撮像時に被写体までの距離と、焦点距離とを検出するデバイスを撮像装置に実装しなければならず、これらの情報を検出しない撮像装置と比べるとコストが高くなってしまう。また、画像が劣化する要因としては、フォーカス位置、ズーム位置、絞り位置、被写体までの距離など、多様な要因が挙げられる。これらの様々な要因を考慮して劣化画像を高精度に補正しようとすると、コストが著しく増大してしまう。   According to the technique described in Patent Document 1, the degraded image can be restored by using correction data corresponding to the distance to the subject and the focal length. However, according to the technique described in Patent Document 1, a device that detects a distance to a subject and a focal length at the time of imaging must be mounted on the imaging apparatus, compared to an imaging apparatus that does not detect such information. Cost becomes high. In addition, various factors such as a focus position, a zoom position, a stop position, and a distance to a subject can be cited as factors causing image degradation. If an attempt is made to correct a deteriorated image with high accuracy in consideration of these various factors, the cost increases remarkably.

上記課題を解決するために、本発明の第1の態様においては、画像処理システムであって、撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された画像から、それぞれ特徴量を抽出する特徴量抽出部と、撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された同一被写体の画像から、撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを求める補正データ算出部と、特徴量抽出部が抽出した特徴量に基づいて、撮像装置が撮像した撮像画像から、撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正データを用いて補正し、撮像装置が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成する画像処理部とを備える。   In order to solve the above problems, in the first aspect of the present invention, in the image processing system, the feature amounts are respectively obtained from images captured at different positions on a plurality of captured images captured by the imaging device. Corrects the difference in optical response for each image area by the imaging optical system of the imaging device from the extracted feature quantity extraction unit and images of the same subject captured at different positions on the multiple captured images captured by the imaging device Based on the feature amount extracted by the correction data calculation unit for obtaining correction data and the feature amount extraction unit, the difference in optical response for each image region by the imaging optical system of the imaging device is determined based on the captured image captured by the imaging device. And an image processing unit that generates a corrected image that is corrected using the correction data and in which a difference in optical response for each image region by the imaging optical system of the imaging apparatus is corrected.

画像処理部は、特徴量抽出部が抽出した特徴量および同一被写体が撮像された複数の撮像画像上の位置に基づいて、補正画像を生成してよい。   The image processing unit may generate a corrected image based on the feature amount extracted by the feature amount extraction unit and the positions on a plurality of captured images where the same subject is captured.

異なる位置に撮像された画像から抽出された特徴量に対応づけて、補正データを格納する補正データ格納部をさらに備え、画像処理部は、撮像装置が撮像した撮像画像から抽出された特徴量に適合する特徴量に対応づけて補正データ格納部が格納している補正データを用いて、補正画像を生成してよい。   The image processing unit further includes a correction data storage unit that stores correction data in association with the feature amount extracted from images captured at different positions, and the image processing unit uses the feature amount extracted from the captured image captured by the imaging device. A corrected image may be generated using the correction data stored in the correction data storage unit in association with the matching feature amount.

補正データ算出部は、撮像装置と異なる撮像装置により撮像された複数の撮像画像上の異なる位置に撮像された同一被写体の画像から、異なる撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを、同一被写体の画像のうちの撮像画像上におけるより中央に位置する画像を正解画像として優先して用いた処理により算出し、画像処理部は、撮像装置が撮像した撮像画像から抽出された特徴量に適合する特徴量に対応づけて補正データ格納部が格納している補正データを用いて、補正画像を生成してよい。   The correction data calculation unit calculates an optical response for each image area by an imaging optical system of a different imaging device from images of the same subject captured at different positions on a plurality of captured images captured by an imaging device different from the imaging device. The correction data for correcting the difference is calculated by processing that preferentially uses the image located at the center of the captured image of the same subject as the correct image, and the image processing unit captures the image captured by the imaging device. A corrected image may be generated using correction data stored in the correction data storage unit in association with a feature amount that matches the feature amount extracted from the image.

補正データ算出部は、異なる撮像装置が異なる複数の撮像条件で撮像して得られた複数の撮像画像を少なくとも用いた処理により、補正データを算出してよい。   The correction data calculation unit may calculate the correction data by processing using at least a plurality of captured images obtained by capturing images under different imaging conditions by different imaging devices.

補正データ算出部は、異なる撮像装置が光軸方向の距離が異なる被写体を撮像して得られた複数の撮像画像を少なくとも用いた処理により、補正データを算出してよい。   The correction data calculation unit may calculate the correction data by a process using at least a plurality of captured images obtained by imaging different subjects with different distances in the optical axis direction.

画像処理部は、被写体像の形状を補正する補正データを用いて、補正画像を生成してよい。   The image processing unit may generate a corrected image using correction data for correcting the shape of the subject image.

特徴量抽出部は、撮像装置が撮像した複数の撮像画像上の異なる位置に撮像された同一被写体の画像から、エッジ情報を含む特徴量を抽出してよい。   The feature amount extraction unit may extract feature amounts including edge information from images of the same subject captured at different positions on a plurality of captured images captured by the imaging device.

画像処理部は、被写体像のぼけを補正する補正データを用いて、補正画像を生成してよい。   The image processing unit may generate a corrected image using correction data for correcting blur of the subject image.

特徴量抽出部は、撮像装置が撮像した複数の撮像画像上の異なる位置に撮像された同一被写体の画像から、空間周波数成分を含む特徴量を抽出してよい。   The feature amount extraction unit may extract a feature amount including a spatial frequency component from images of the same subject captured at different positions on a plurality of captured images captured by the imaging device.

補正データは、被写体像に加算すべき高周波成分を含み、画像処理部は、補正データに含まれる高周波成分を画像に加算することにより、補正画像を生成してよい。   The correction data may include a high frequency component to be added to the subject image, and the image processing unit may generate a corrected image by adding the high frequency component included in the correction data to the image.

補正データは、被写体像に適用すべき画像フィルタを含み、画像処理部は、補正データが含む画像フィルタを画像に適用することにより、補正画像を生成してよい。   The correction data may include an image filter to be applied to the subject image, and the image processing unit may generate a corrected image by applying the image filter included in the correction data to the image.

画像処理部は、被写体像の色を補正する補正データを用いて、補正画像を生成してよい。   The image processing unit may generate a corrected image using correction data for correcting the color of the subject image.

特徴量抽出部は、撮像装置が撮像した複数の撮像画像上の異なる位置に撮像された同一被写体の画像から、色情報を含む特徴量を抽出してよい。   The feature amount extraction unit may extract a feature amount including color information from images of the same subject captured at different positions on a plurality of captured images captured by the imaging device.

本発明の第2の態様においては、画像処理方法であって、撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された画像から、それぞれ特徴量を抽出する特徴量抽出段階と、撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された同一被写体の画像から、撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを求める補正データ算出段階と、特徴量抽出段階において抽出された特徴量に基づいて、撮像装置が撮像した撮像画像から、撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正データを用いて補正し、撮像装置が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成する画像処理段階とを備える。   According to a second aspect of the present invention, there is provided an image processing method, wherein a feature amount extraction step of extracting a feature amount from each of images captured at different positions on a plurality of captured images captured by an imaging device, Correction data calculation for obtaining correction data for correcting a difference in optical response for each image area by the imaging optical system of the imaging device from images of the same subject captured at different positions on a plurality of captured images captured by the imaging device Based on the feature value extracted in the stage and the feature quantity extraction stage, the difference in optical response for each image area by the imaging optical system of the imaging device is corrected using the correction data from the captured image captured by the imaging device. And an image processing stage for generating a corrected image in which a difference in optical response for each image region by the imaging optical system of the imaging device is corrected.

本発明の第3の態様においては、画像処理システム用のプログラムであって、コンピュータを、撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された画像から、それぞれ特徴量を抽出する特徴量抽出部、撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された同一被写体の画像から、撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを求める補正データ算出部、特徴量抽出部が抽出した特徴量に基づいて、撮像装置が撮像した撮像画像から、撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正データを用いて補正し、撮像装置が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成する画像処理部として機能させる。   According to a third aspect of the present invention, there is provided a program for an image processing system, wherein a computer extracts a feature amount from images captured at different positions on a plurality of captured images captured by an imaging device. Correction data for correcting a difference in optical response for each image area by the imaging optical system of the imaging device from images of the same subject captured at different positions on a plurality of captured images captured by the imaging device; Based on the feature amount extracted by the correction data calculation unit and the feature amount extraction unit, the correction data is used to calculate the difference in optical response for each image area by the imaging optical system of the imaging device from the captured image captured by the imaging device. And an image processing unit that generates a corrected image in which a difference in optical response for each image region by the imaging optical system of the imaging apparatus is corrected.

本発明の第4の態様においては、画像処理システムであって、第1撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された画像から、それぞれ特徴量を抽出する第1特徴量抽出部と、第1撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された同一被写体の画像から、第1撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを求める補正データ算出部と、第1特徴量抽出部が抽出した特徴量と補正データとの対応関係を格納する補正データ格納部と、第2撮像装置が撮像した撮像画像上の一部領域にそれぞれ撮像された画像から、それぞれ特徴量を抽出する第2特徴量抽出部と、第2特徴量抽出部が抽出した特徴量に対応する補正データを補正データ格納部から読み出し、第2撮像装置が撮像した撮像画像から、第2撮像装置が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成する画像処理部とを備える。   According to a fourth aspect of the present invention, there is provided an image processing system, wherein a first feature amount is extracted from images captured at different positions on a plurality of captured images captured by the first imaging device. The difference in the optical response for each image area by the imaging optical system of the first imaging device is corrected from the image of the same subject captured at different positions on the plurality of captured images captured by the extraction unit and the first imaging device. A correction data calculation unit for obtaining correction data to be corrected, a correction data storage unit for storing a correspondence relationship between the feature amount extracted by the first feature amount extraction unit and the correction data, and one on the captured image captured by the second imaging device A second feature amount extraction unit that extracts a feature amount from each image captured in the partial area, and correction data corresponding to the feature amount extracted by the second feature amount extraction unit is read from the correction data storage unit. From the captured image by the second imaging device imaged, and an image processing unit that the difference of the optical response of each image region of the imaging optical system in which the second imaging device has to generate a corrected image corrected.

本発明の第5の態様においては、画像処理方法であって、第1撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された画像から、それぞれ特徴量を抽出する第1特徴量抽出段階と、第1撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された同一被写体の画像から、第1撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを求める補正データ算出段階と、第1特徴量抽出段階において抽出された特徴量と補正データとの対応関係を補正データ格納部に格納する補正データ格納段階と、第2撮像装置が撮像した撮像画像上の一部領域にそれぞれ撮像された画像から、それぞれ特徴量を抽出する第2特徴量抽出段階と、第2特徴量抽出段階において抽出された特徴量に対応する補正データを、補正データ格納部から読み出し、第2撮像装置が撮像した撮像画像から、第2撮像装置が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成する画像処理段階とを備える。   According to a fifth aspect of the present invention, there is provided an image processing method, wherein a first feature amount is extracted from images captured at different positions on a plurality of captured images captured by the first imaging device. The difference in optical response for each image area by the imaging optical system of the first imaging device is corrected from the extraction stage and images of the same subject captured at different positions on the plurality of captured images captured by the first imaging device. A correction data calculation stage for obtaining correction data to be corrected, a correction data storage stage for storing the correspondence between the feature quantity extracted in the first feature quantity extraction stage and the correction data in the correction data storage section, and the second image pickup device Corresponding to the feature quantity extracted in the second feature quantity extraction stage and the second feature quantity extraction stage respectively extracting the feature quantities from the images captured in the partial areas on the captured image. An image that reads correction data from the correction data storage unit and generates a corrected image in which a difference in optical response for each image area by the imaging optical system of the second imaging device is corrected from a captured image captured by the second imaging device. A processing stage.

本発明の第6の態様においては、画像処理システム用のプログラムであって、コンピュータを、第1撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された画像から、それぞれ特徴量を抽出する第1特徴量抽出部、第1撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された同一被写体の画像から、第1撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを求める補正データ算出部、第1特徴量抽出部が抽出した特徴量と補正データとの対応関係を格納する補正データ格納部、第2撮像装置が撮像した撮像画像上の一部領域にそれぞれ撮像された画像から、それぞれ特徴量を抽出する第2特徴量抽出部、第2特徴量抽出部が抽出した特徴量に対応する補正データを補正データ格納部から読み出し、第2撮像装置が撮像した撮像画像から、第2撮像装置が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成する画像処理部として機能させる。   According to a sixth aspect of the present invention, there is provided a program for an image processing system, wherein a computer is used to extract feature amounts from images captured at different positions on a plurality of captured images captured by a first imaging device. The first feature amount extraction unit to extract, and the optical for each image region by the imaging optical system of the first imaging device from images of the same subject respectively captured at different positions on the plurality of captured images captured by the first imaging device A correction data calculation unit for obtaining correction data for correcting a difference in response, a correction data storage unit for storing the correspondence between the feature amount extracted by the first feature amount extraction unit and the correction data, and a captured image captured by the second imaging device A second feature amount extraction unit that extracts a feature amount from each of the images captured in the upper partial regions, and correction data corresponding to the feature amount extracted by the second feature amount extraction unit is corrected. The image processing unit functions as an image processing unit that generates a corrected image in which a difference in optical response for each image region by the imaging optical system of the second imaging device is corrected from a captured image captured by the second imaging device. .

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一実施形態に係る画像処理システム10の全体構成の一例を示す。以下に説明するように、画像処理システム10は映像監視システムとして機能することができる。画像処理システム10は、映像監視システムに限らず、撮像された画像に対して、撮像光学系の影響による画像劣化を補正するサービスを提供するシステムとして機能することができる。   FIG. 1 shows an example of the overall configuration of an image processing system 10 according to an embodiment. As will be described below, the image processing system 10 can function as a video monitoring system. The image processing system 10 is not limited to a video surveillance system, and can function as a system that provides a service for correcting image degradation due to the influence of an imaging optical system on a captured image.

画像処理システム10は、監視空間150を撮像する複数の撮像装置100a−d、原画像サーバ120、通信ネットワーク110、画像処理装置170、画像データベース175、学習画像データベース176、および表示装置180a−dを備える。   The image processing system 10 includes a plurality of imaging devices 100a-d, an original image server 120, a communication network 110, an image processing device 170, an image database 175, a learning image database 176, and display devices 180a-d that capture the monitoring space 150. Prepare.

以下の説明において、撮像装置100a、撮像装置100b、撮像装置100cおよび撮像装置100dを撮像装置100と総称する場合がある。同様に、以後の説明においては、末尾の英文字など、数字符号に続く文字を省略することで、数字符号が指し示すものを総称することがある。   In the following description, the imaging device 100a, the imaging device 100b, the imaging device 100c, and the imaging device 100d may be collectively referred to as the imaging device 100. Similarly, in the following description, a character indicated by a numerical code may be generically named by omitting a character following the numerical code, such as an English letter at the end.

撮像装置100aは監視空間150を撮像する。撮像装置100aは、監視空間150内の人物130、車輌140などの動体を撮像して、動画を生成する。撮像装置100aは、監視空間150を撮像して得られた動画を、原画像サーバ120に供給する。撮像装置100b−dは、撮像装置100aと異なる位置に設けられるが、その他の点では、撮像装置100b−dの機能および動作は撮像装置100aの機能および動作と略同一であるので、撮像装置100b−dについてはその説明を省略する。   The imaging device 100a images the monitoring space 150. The imaging device 100a captures moving objects such as the person 130 and the vehicle 140 in the monitoring space 150 and generates a moving image. The imaging device 100 a supplies a moving image obtained by imaging the monitoring space 150 to the original image server 120. The imaging device 100b-d is provided at a different position from the imaging device 100a. In other respects, the function and operation of the imaging device 100b-d are substantially the same as the function and operation of the imaging device 100a. The description of -d is omitted.

原画像サーバ120は、撮像装置100a−dから供給された動画を、画像処理装置170に向けて通信ネットワーク110に送出する。通信ネットワーク110としては、インターネットなどの電気通信回線を例示することができる。原画像サーバ120は、例えば撮像装置100の近傍に設けられる。他の形態において、原画像サーバ120は監視空間150内に設けられてもよい。   The original image server 120 sends the moving image supplied from the imaging devices 100 a-d to the communication network 110 toward the image processing device 170. An example of the communication network 110 is an electric communication line such as the Internet. The original image server 120 is provided in the vicinity of the imaging device 100, for example. In another form, the original image server 120 may be provided in the monitoring space 150.

また、原画像サーバ120は、撮像装置100の撮像動作を制御する。例えば、原画像サーバ120は、撮像装置100の撮像機能のオン/オフ、撮像レートなどを制御する。撮像装置100が撮像条件を変えて撮像することができる場合、原画像サーバ120は、撮像装置100の撮像条件を制御してよい。   Further, the original image server 120 controls the imaging operation of the imaging device 100. For example, the original image server 120 controls on / off of an imaging function of the imaging apparatus 100, an imaging rate, and the like. When the image capturing apparatus 100 can capture an image by changing the image capturing condition, the original image server 120 may control the image capturing condition of the image capturing apparatus 100.

例えば、撮像装置100がズーム値を変えて撮像することができる場合、原画像サーバ120は撮像装置100のズーム値を制御してもよい。撮像装置100がフォーカス位置を変えて撮像することができる場合、原画像サーバ120は撮像装置100のフォーカス位置を制御してもよい。また、撮像装置100が絞り値を変えて撮像することができる場合、原画像サーバ120は撮像装置100の絞り値を制御してもよい。また、撮像装置100の撮像方向が可変である場合には、原画像サーバ120は撮像装置100の撮像方向を制御してもよい。   For example, when the image capturing apparatus 100 can capture images while changing the zoom value, the original image server 120 may control the zoom value of the image capturing apparatus 100. When the image capturing apparatus 100 can capture an image by changing the focus position, the original image server 120 may control the focus position of the image capturing apparatus 100. In addition, when the image capturing apparatus 100 can capture images while changing the aperture value, the original image server 120 may control the aperture value of the image capturing apparatus 100. Further, when the imaging direction of the imaging device 100 is variable, the original image server 120 may control the imaging direction of the imaging device 100.

画像処理装置170は、一例として監視空間150とは遠隔の空間165に設けられ、撮像装置100がそれぞれ撮像した動画を、通信ネットワーク110を通じて原画像サーバ120から取得する。画像処理装置170は、取得した動画に補正処理を施して補正動画を生成する。画像処理装置170は、補正動画を画像データベース175に格納する。そして、画像処理装置170は、表示装置180からの要求に応じて、画像データベース175が格納している補正動画を、通信ネットワーク110を通じて、監視空間150および空間165とは異なる空間160に設けられた表示装置180に送信する。   As an example, the image processing apparatus 170 is provided in a space 165 remote from the monitoring space 150, and acquires the moving images captured by the imaging apparatus 100 from the original image server 120 through the communication network 110. The image processing apparatus 170 performs a correction process on the acquired moving image to generate a corrected moving image. The image processing apparatus 170 stores the corrected moving image in the image database 175. In response to a request from the display device 180, the image processing device 170 provides the corrected moving image stored in the image database 175 in the space 160 different from the monitoring space 150 and the space 165 through the communication network 110. It transmits to the display device 180.

なお、画像処理装置170は、補正動画を画像データベース175に格納せずに表示装置180に送信してもよい。また、画像処理装置170は、原画像サーバ120から受信した動画に画像処理を施さずに画像データベース175に格納してよい。そして、画像処理装置170は、表示装置180から補正動画を要求された場合に、画像データベース175が格納している動画に画像処理を施して補正動画を生成して、生成した補正動画を表示装置180に送信してもよい。   Note that the image processing apparatus 170 may transmit the corrected moving image to the display apparatus 180 without storing it in the image database 175. Further, the image processing apparatus 170 may store the moving image received from the original image server 120 in the image database 175 without performing image processing. When the corrected moving image is requested from the display device 180, the image processing device 170 performs image processing on the moving image stored in the image database 175 to generate a corrected moving image, and the generated corrected moving image is displayed on the display device. 180 may be transmitted.

表示装置180は、画像処理装置170から取得した補正動画を表示する。表示装置180は、画像処理装置170が設けられた空間とは遠隔の空間に設けられてよい。また、表示装置180は、監視空間150の近傍または監視空間150内に設けられてもよい。   The display device 180 displays the corrected moving image acquired from the image processing device 170. The display device 180 may be provided in a space remote from the space in which the image processing device 170 is provided. The display device 180 may be provided in the vicinity of the monitoring space 150 or in the monitoring space 150.

以下に、画像処理装置170における補正処理の概要を説明する。学習画像データベース176は、カメラ102により撮像された複数の動画を格納する。画像処理装置170は、学習画像データベース176に格納された動画に含まれる同一の撮像装置の略同一の撮像条件(例えば、略同一のピント、ズーム、絞り条件)で得られたフレーム画像中の略同一の画像領域に存在する被写体を抽出し、抽出した被写体の画像群から複数の特徴量を抽出し、多次元で現される特徴量空間内での確率分布を学習により求め、各画像領域の画像特徴量をその特徴量空間内での確率と対応づける。さらに画像処理装置170は、同一の撮像装置の略同一の撮像条件で得られたフレーム画像中から異なる画像領域に存在する同一の被写体を、類似する形状を有するオブジェクトの抽出、画像内のオブジェクト追跡などを利用して抽出し、抽出した同一被写体の画像のうちフレーム画像内の中心位置付近の同一被写体の画像を正解画像とし、フレーム内の周辺部の同一被写体の画像との関係から、カメラ102の撮像光学系の撮像条件および画像領域ごとに画像を補正し、ぼけ、歪み、色ずれなどの画像劣化のない画像を生成するための補正データを算出する。画像処理装置170は、算出した補正データを、先に抽出された領域ごとの画像特徴量の特徴量空間内での確率に対応づけて記憶する。   The outline of the correction process in the image processing apparatus 170 will be described below. The learning image database 176 stores a plurality of moving images captured by the camera 102. The image processing device 170 is an abbreviation in a frame image obtained under substantially the same imaging conditions (for example, substantially the same focus, zoom, aperture condition) of the same imaging device included in the moving image stored in the learning image database 176. Extracting subjects existing in the same image area, extracting a plurality of feature quantities from the extracted subject image group, obtaining a probability distribution in a feature quantity space expressed in multiple dimensions by learning, The image feature quantity is associated with the probability in the feature quantity space. Further, the image processing device 170 extracts the same subject existing in different image regions from the frame images obtained under substantially the same imaging conditions of the same imaging device, and extracts an object having a similar shape, and tracks the object in the image. From the extracted image of the same subject, the image of the same subject near the center position in the frame image is set as a correct image, and the camera 102 is obtained from the relationship with the image of the same subject in the peripheral portion in the frame. The image is corrected for each imaging condition and image area of the imaging optical system, and correction data for generating an image free from image deterioration such as blur, distortion, and color shift is calculated. The image processing apparatus 170 stores the calculated correction data in association with the probability in the feature amount space of the image feature amount for each previously extracted region.

画像処理装置170は、原画像サーバ120から提供された動画に含まれるフレーム画像から、画像領域ごとに特徴量を抽出する。画像処理装置170は、抽出した特徴量で現される特徴量空間内の位置から、記憶している補正データと当該補正データが適用される確率を取得し、各補正データと各補正デーがそれぞれ適用される確率に基いて各フレーム画像を補正することにより、補正動画を生成する。   The image processing apparatus 170 extracts a feature amount for each image area from the frame image included in the moving image provided from the original image server 120. The image processing apparatus 170 acquires the stored correction data and the probability that the correction data will be applied from the position in the feature amount space represented by the extracted feature amount. A corrected moving image is generated by correcting each frame image based on the probability of application.

このように、画像処理装置170は、異なる画像領域に撮像されている被写体の画像から抽出された特徴量に基づいて補正動画を生成する。このため、画像処理装置170は、撮像装置100の撮像光学系の光学応答が異なる場合でもレンズの歪みなどがフレーム画像に与える影響を除去した補正画像を生成することができる。   As described above, the image processing apparatus 170 generates a corrected moving image based on the feature amount extracted from the image of the subject captured in different image areas. For this reason, the image processing apparatus 170 can generate a corrected image in which the influence of lens distortion or the like on the frame image is removed even when the optical response of the imaging optical system of the imaging apparatus 100 is different.

なお、記憶媒体80は、画像処理装置170用のプログラムを記憶している。記憶媒体80が記憶しているプログラムは、本実施形態に係る画像処理装置170などとして機能するコンピュータなどの電子情報処理装置に提供される。当該コンピュータが有するCPUは、当該プログラムの内容に応じて動作して、当該コンピュータの各部を制御する。CPUが実行するプログラムは、本図および以後の図に関連して説明される画像処理装置170として当該コンピュータを機能させる。   Note that the storage medium 80 stores a program for the image processing apparatus 170. The program stored in the storage medium 80 is provided to an electronic information processing apparatus such as a computer that functions as the image processing apparatus 170 according to the present embodiment. The CPU included in the computer operates according to the contents of the program and controls each unit of the computer. The program executed by the CPU causes the computer to function as the image processing apparatus 170 described with reference to this figure and subsequent figures.

記憶媒体80としては、CD−ROMの他に、DVDまたはPD等の光学記録媒体、MOまたはMDなどの光磁気記録媒体、テープ媒体またはハードディスク装置などの磁気記録媒体、半導体メモリ、磁気メモリなどを例示することができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置が記憶媒体80として機能することもできる。   As the storage medium 80, in addition to a CD-ROM, an optical recording medium such as DVD or PD, a magneto-optical recording medium such as MO or MD, a magnetic recording medium such as a tape medium or a hard disk device, a semiconductor memory, a magnetic memory, etc. It can be illustrated. In addition, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet can function as the storage medium 80.

また、記憶媒体80は、画像処理システム10の他の構成要素として機能するコンピュータ用のプログラムを記憶してよい。当該プログラムは、本図および以後の図に関連して説明される原画像サーバ120、表示装置180、および撮像装置100の少なくともいずれかとしてコンピュータを機能させることができる。   The storage medium 80 may store a computer program that functions as another component of the image processing system 10. The program can cause the computer to function as at least one of the original image server 120, the display device 180, and the imaging device 100 described with reference to this drawing and the subsequent drawings.

図2は、画像処理装置170のブロック構成の一例を示す。画像処理装置170は、原画像取得部210、同一被写体領域特定部212、特徴量抽出部214a、特徴量抽出部214b、学習画像取得部226、補正データ算出部228、補正データ格納部230、画像処理部218、および出力部290を含む。   FIG. 2 shows an example of a block configuration of the image processing apparatus 170. The image processing apparatus 170 includes an original image acquisition unit 210, an identical subject region specification unit 212, a feature amount extraction unit 214a, a feature amount extraction unit 214b, a learning image acquisition unit 226, a correction data calculation unit 228, a correction data storage unit 230, an image A processing unit 218 and an output unit 290 are included.

学習画像データベース176は、撮像装置100と異なる1以上のカメラ102により撮像された複数の撮像画像を取得して格納している。具体的には、カメラ102は、種々の撮像条件で撮像された動画を撮像する。そして、学習画像データベース176は、1以上のカメラ102がそれぞれ異なる複数の撮像条件で撮像して得られた複数の撮像画像を取得する。学習画像データベース176が格納している動画は、学習処理に使用されるので、以後の説明においては学習用動画と呼び、撮像装置100が撮像した動画とは区別する。   The learning image database 176 acquires and stores a plurality of captured images captured by one or more cameras 102 different from the imaging device 100. Specifically, the camera 102 captures a moving image captured under various imaging conditions. Then, the learning image database 176 obtains a plurality of captured images obtained by capturing one or more cameras 102 under a plurality of different imaging conditions. Since the moving image stored in the learning image database 176 is used for learning processing, it is referred to as a learning moving image in the following description, and is distinguished from the moving image captured by the imaging apparatus 100.

以下に画像処理装置170の学習動作について説明する。学習画像取得部226は、学習画像データベース176から動画を取得する。   The learning operation of the image processing apparatus 170 will be described below. The learning image acquisition unit 226 acquires a moving image from the learning image database 176.

同一被写体領域特定部212は、学習画像取得部226が取得した動画に含まれる複数のフレーム画像から、画像領域上の異なる位置に撮像された同一被写体の領域である同一被写体領域を特定する。例えば、同一被写体領域特定部212は、類似する形状を有するオブジェクトを抽出することにより、同一被写体領域を特定する。同一被写体領域特定部212は、オプティカルフロー、ミーンシフト、カルマンフィルタなどを利用した画像内のオブジェクト追跡を利用して同一被写体領域を特定してもよい。なお、同一被写体領域特定部212は、同じ撮像条件で撮像された複数のフレーム画像から、同一被写体領域を特定する。   The same subject region specifying unit 212 specifies the same subject region, which is a region of the same subject picked up at a different position on the image region, from a plurality of frame images included in the moving image acquired by the learning image acquisition unit 226. For example, the same subject area specifying unit 212 specifies the same subject area by extracting objects having similar shapes. The same subject area specifying unit 212 may specify the same subject area using object tracking in an image using optical flow, mean shift, Kalman filter, or the like. Note that the same subject area specifying unit 212 specifies the same subject area from a plurality of frame images captured under the same imaging conditions.

例えば、同一被写体領域特定部212は、フレーム間で類似する画像ブロックを探索して画像の速度場を算出して、当該速度場に基づいて同一被写体のオブジェクトを追跡することにより、同一被写体領域を特定してよい。また、同一被写体領域特定部212は、画素値の時空間微分を算出することにより速度場を算出して、当該速度場に基づいて同一被写体のオブジェクトを追跡することにより、同一被写体領域を特定してもよい。   For example, the same subject region specifying unit 212 searches for similar image blocks between frames, calculates the velocity field of the image, and tracks the object of the same subject based on the velocity field, thereby identifying the same subject region. May be specified. Further, the same subject area specifying unit 212 calculates a speed field by calculating a spatio-temporal differentiation of the pixel value, and specifies the same subject area by tracking an object of the same subject based on the speed field. May be.

他にも、同一被写体領域特定部212は、類似する画素値のヒストグラムを有する画像領域をフレーム間で探索することにより同一被写体のオブジェクトを追跡して、同一被写体領域を特定してもよい。ここで、画素値のヒストグラムとは、色ヒストグラム、輝度ヒストグラムなどを例示することができる。色ヒストグラムは、RGB色空間における色成分のヒストグラムであってよく、色相、彩度、明度のHSV色空間のヒストグラムであってもよい。同一被写体領域特定部212は、同一被写体として判断されたオブジェクトの過去の位置に基づいてオブジェクトの将来位置を予測することにより、同一被写体のオブジェクトを追跡してよい。   In addition, the same subject area specifying unit 212 may specify the same subject area by tracking an object of the same subject by searching an image area having a histogram of similar pixel values between frames. Here, examples of the pixel value histogram include a color histogram and a luminance histogram. The color histogram may be a histogram of color components in the RGB color space, or may be a histogram of the HSV color space of hue, saturation, and brightness. The same subject area specifying unit 212 may track the object of the same subject by predicting the future position of the object based on the past position of the object determined as the same subject.

レンズの歪み等の影響により、同じ被写体のオブジェクトであっても、画像から抽出されるオブジェクトの形状情報・色情報などが画像中の位置に応じて違いが生じてしまう場合がある。上述したオブジェクト追跡によれば、画像中の位置に応じた形状情報・色情報の変化を順次に加味しながら追跡していくことができるので、歪みが大きいレンズを通じて撮像された画像からでも、同一被写体領域を適切に特定することができる場合がある。   Due to the influence of lens distortion and the like, even if the object is the same subject, the shape information and color information of the object extracted from the image may differ depending on the position in the image. According to the object tracking described above, the tracking can be performed while sequentially taking into account changes in shape information and color information according to the position in the image. In some cases, the subject area can be appropriately identified.

同一被写体領域特定部212は、フレーム内の各位置に対応した同一被写体領域を特定する。なお、同一被写体領域特定部212は、撮像されている同一被写体の角度、形照明条件が類似する同一被写体領域を複数特定する。   The same subject area specifying unit 212 specifies the same subject area corresponding to each position in the frame. Note that the same subject area specifying unit 212 specifies a plurality of identical subject areas with similar angles and shape illumination conditions of the same subject being imaged.

特徴量抽出部214aは、複数の画像領域の画像から、それぞれ特定された被写体の撮影角度、照明条件を正規化した後、特徴量を抽出する。特徴量としては、画像上の注目画素とその周辺画素の値に基づいて算出されたエッジ成分、輝度値、色成分、空間周波数成分などを例示することができる。   The feature amount extraction unit 214a extracts the feature amount from the images of the plurality of image regions after normalizing the shooting angle and the illumination condition of each identified subject. Examples of the feature amount include an edge component, a luminance value, a color component, a spatial frequency component, and the like calculated based on the values of the pixel of interest on the image and its surrounding pixels.

なお、特徴量抽出部214aは、エッジの方向成分およびエッジの強度成分を、エッジ成分の特徴量として抽出してよい。この場合に、特徴量抽出部214aは、エッジの方向成分およびエッジの強度成分を色成分毎に抽出して、エッジ成分の特徴量としてもよい。また、特徴量抽出部214aは、複数画素における輝度値の平均値および輝度分布の少なくとも一方を、輝度値の特徴量として抽出してよい。また、特徴量抽出部214aは、複数画素における色成分毎の平均値および分布の少なくとも一方を、色成分の特徴量として抽出してよい。また、特徴量抽出部214aは、複数画素における空間周波数成分の特徴量として、予め定められた空間方向毎に空間周波数成分を抽出してよく、色毎に空間周波数成分を抽出してよい。また、特徴量抽出部214aは、隣接する部分領域から抽出された特徴量から部分領域間の特徴量の勾配ベクトルまたは特徴量の差を算出して、当該勾配ベクトルまたは差を、特徴量として抽出してもよい。   The feature amount extraction unit 214a may extract the edge direction component and the edge strength component as the edge component feature amount. In this case, the feature amount extraction unit 214a may extract the edge direction component and the edge strength component for each color component to obtain the feature amount of the edge component. In addition, the feature amount extraction unit 214a may extract at least one of the average value of luminance values and the luminance distribution in a plurality of pixels as the feature value of the luminance value. In addition, the feature amount extraction unit 214a may extract at least one of an average value and a distribution for each color component in a plurality of pixels as a feature amount of the color component. The feature amount extraction unit 214a may extract a spatial frequency component for each predetermined spatial direction as a feature amount of the spatial frequency component in a plurality of pixels, or may extract a spatial frequency component for each color. In addition, the feature amount extraction unit 214a calculates a gradient vector or a feature amount difference between the partial regions from the feature amounts extracted from the adjacent partial regions, and extracts the gradient vector or the difference as a feature amount. May be.

補正データ算出部228は、同一被写体領域特定部212が特定した複数の同一被写体領域の画像に対して、複数の同一被写体領域の画像の関係からそれぞれの画像を撮像したカメラ102が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを、フレーム中央部の画像を正解画像として用い、複数の被写体間の関係を総合することにより算出する。例えば、補正データ算出部228は、同一被写体領域特定部212が特定した同一被写体領域の画像を対応する正解画像に変換することができる画像フィルタを、複数の被写体の関係を平均処理することにより算出する。   The correction data calculation unit 228 has an imaging optical system included in the camera 102 that captures images of a plurality of the same subject areas specified by the same subject area specification unit 212 based on the relationship between the images of the same subject areas. The correction data for correcting the difference in the optical response for each image area is calculated by using the image at the center of the frame as the correct image and integrating the relationship between the plurality of subjects. For example, the correction data calculation unit 228 calculates an image filter that can convert an image of the same subject area specified by the same subject area specification unit 212 into a corresponding correct image by averaging the relationship between a plurality of subjects. To do.

補正データ格納部230は、補正データ算出部228が算出した補正データを、画像の座標位置ごとに特徴量抽出部214aで求められた特徴量の確率分布に対応させ格納する。   The correction data storage unit 230 stores the correction data calculated by the correction data calculation unit 228 in association with the feature amount probability distribution obtained by the feature amount extraction unit 214a for each coordinate position of the image.

次に画像処理装置170の補正動作について説明する。原画像取得部210は、原画像サーバ120から動画を取得する。なお、原画像取得部210は、上述したように、画像データベース175から動画を取得してもよい。   Next, the correction operation of the image processing apparatus 170 will be described. The original image acquisition unit 210 acquires a moving image from the original image server 120. Note that the original image acquisition unit 210 may acquire a moving image from the image database 175 as described above.

特徴量抽出部214bは、原画像取得部210が取得した動画に含まれる複数のフレーム画像から、画像領域上の異なる位置に撮像された複数の領域の画像から、それぞれ照明条件を正規化した後、特徴量を抽出する。特徴量としては、画像上の注目画素とその周辺画素の値に基づいて算出されたエッジ成分、輝度値、色成分、空間周波数成分などを例示することができる。なお、特徴量抽出部214bは、特徴量抽出部214aが抽出する上述した特徴量と同様の特徴量を抽出することができる。このように、特徴量抽出部214bは、撮像装置100が撮像した複数のフレーム画像上の異なる位置にそれぞれ撮像された複数の領域の画像から特徴量を抽出する。   The feature amount extraction unit 214b normalizes the illumination conditions from the plurality of frame images included in the moving image acquired by the original image acquisition unit 210, and from the images of the plurality of regions captured at different positions on the image region. , Extract feature quantity. Examples of the feature amount include an edge component, a luminance value, a color component, a spatial frequency component, and the like calculated based on the values of the pixel of interest on the image and its surrounding pixels. Note that the feature quantity extraction unit 214b can extract a feature quantity similar to the above-described feature quantity extracted by the feature quantity extraction unit 214a. As described above, the feature amount extraction unit 214b extracts feature amounts from images of a plurality of regions respectively captured at different positions on a plurality of frame images captured by the imaging device 100.

画像処理部218は、特徴量抽出部214bで求められた特徴量の確率分布に対応して格納されている補正データを、補正データ格納部230から読み出す。   The image processing unit 218 reads the correction data stored in correspondence with the probability distribution of the feature amount obtained by the feature amount extraction unit 214 b from the correction data storage unit 230.

画像処理部218は、補正データ格納部230から読み出した補正データを用いて、原画像取得部210が取得した動画に画像処理を施す。これにより、画像処理部218は、撮像装置100が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成することができる。このように、画像処理部218は、特徴量抽出部214bが抽出した特徴量に適合する特徴量に対応づけられた補正データを用いて、補正画像を生成する。   The image processing unit 218 performs image processing on the moving image acquired by the original image acquisition unit 210 using the correction data read from the correction data storage unit 230. Accordingly, the image processing unit 218 can generate a corrected image in which a difference in optical response for each image region by the imaging optical system included in the imaging device 100 is corrected. As described above, the image processing unit 218 generates a corrected image using the correction data associated with the feature amount that matches the feature amount extracted by the feature amount extraction unit 214b.

画像処理部218は、補正画像を出力部290に供給する。出力部290は、補正画像を表示装置180に送信する。なお、出力部290は、上述したように、補正画像を画像データベース175に格納してもよい。   The image processing unit 218 supplies the corrected image to the output unit 290. The output unit 290 transmits the corrected image to the display device 180. Note that the output unit 290 may store the corrected image in the image database 175 as described above.

以上説明したように、画像処理装置170は、様々な撮像条件でカメラ102により撮像されたフレーム画像から学習処理によりフィルタを生成することができる。画像処理装置170は、撮像装置100が撮像したフレーム画像の画像領域の画像から抽出した特徴量に対応するフィルタを用いて、補正画像を生成することができる。このため、撮像装置100が有する撮像光学系の光学応答が不明な場合であっても、撮像装置100の撮像光学系の光学的な歪みなどを補正した補正画像を生成することができる。   As described above, the image processing apparatus 170 can generate a filter by learning processing from frame images captured by the camera 102 under various imaging conditions. The image processing apparatus 170 can generate a corrected image using a filter corresponding to the feature amount extracted from the image in the image area of the frame image captured by the imaging apparatus 100. Therefore, even when the optical response of the imaging optical system included in the imaging apparatus 100 is unknown, a corrected image in which the optical distortion of the imaging optical system of the imaging apparatus 100 is corrected can be generated.

このため、撮像装置100は、フォーカス位置、ズーム値などを検出する機能を有していなくても、画像処理装置170によって画像を高精度に補正することができるので、安価に光学的な歪みなどを補正した高画質な画像を得ることができる。また、撮像装置100は、光学的な精度の低い安価な撮像光学系を用いることもできるので、コストをより削減することができる。   For this reason, the imaging apparatus 100 can correct an image with high accuracy by the image processing apparatus 170 even if it does not have a function of detecting a focus position, a zoom value, and the like. It is possible to obtain a high-quality image in which the above is corrected. In addition, since the imaging apparatus 100 can use an inexpensive imaging optical system with low optical accuracy, the cost can be further reduced.

特徴量抽出部214aおよび特徴量抽出部214bは、それぞれこの発明における第1特徴量抽出部および第2特徴量抽出部として機能することができる。同一の画像処理装置170内に特徴量抽出部214aおよび特徴量抽出部214bの機能が実装される場合、特徴量抽出部214aおよび特徴量抽出部214bは同一の機能ブロックとして実装されてよい。また、カメラ102および撮像装置100は、それぞれこの発明における第1撮像装置および第2撮像装置として機能することができる。なお、補正データ格納部230は、補正データ算出部228が算出した補正データを、撮像装置100を識別する情報に対応づけて格納してよい。   The feature quantity extraction unit 214a and the feature quantity extraction unit 214b can function as the first feature quantity extraction unit and the second feature quantity extraction unit in the present invention, respectively. When the functions of the feature quantity extraction unit 214a and the feature quantity extraction unit 214b are implemented in the same image processing apparatus 170, the feature quantity extraction unit 214a and the feature quantity extraction unit 214b may be implemented as the same functional block. In addition, the camera 102 and the imaging device 100 can function as the first imaging device and the second imaging device in the present invention, respectively. The correction data storage unit 230 may store the correction data calculated by the correction data calculation unit 228 in association with information for identifying the imaging device 100.

図3は、画像処理装置170の処理フローの一例を示す。本図では、画像処理装置170が、撮像装置100aにより撮像された動画310に対して画像処理を施して、補正済み動画350を生成する処理を説明する。   FIG. 3 shows an example of the processing flow of the image processing apparatus 170. In this figure, a process in which the image processing apparatus 170 performs image processing on the moving image 310 captured by the image capturing apparatus 100a to generate a corrected moving image 350 will be described.

動画310に対する画像処理の前に、画像処理装置170において画像フィルタが生成される。学習画像データベース176は、カメラ102により撮像された学習用動画300を格納している。同一被写体領域特定部212は、学習画像データベース176が格納している学習用動画300に含まれるフレーム画像の中から、フレーム内で異なる位置にある同一被写体のうち予め定められた値より大きい一致度で一致する被写体の画像362a・・・、362b・・・を選択する(S360)。これにより、画像フィルタを生成するための学習用画像セット364a、364b、・・・が抽出される。   Prior to image processing on the moving image 310, an image filter is generated in the image processing device 170. The learning image database 176 stores the learning moving image 300 captured by the camera 102. The same subject area specifying unit 212 has a degree of coincidence larger than a predetermined value among the same subjects at different positions in the frame from among the frame images included in the learning moving image 300 stored in the learning image database 176. .., 362b..., Which coincide with each other, are selected (S360). As a result, learning image sets 364a, 364b,... For generating image filters are extracted.

補正データ算出部228は、学習用画像セット364a、364b、・・・を用いた学習処理により、各学習用画像セットからそれぞれ画像フィルタ372を生成する(S370)。生成された画像フィルタ372は、特徴量に対応づけて補正データ格納部230が格納する。   The correction data calculation unit 228 generates an image filter 372 from each learning image set by learning processing using the learning image sets 364a, 364b,... (S370). The generated image filter 372 is stored in the correction data storage unit 230 in association with the feature amount.

次に、動画310に対する画像処理を説明する。原画像取得部210は、複数のフレーム画像312を含む動画310を取得する。特徴量抽出部214bは、動画310の画像領域314の画像に基いて画像特徴量を抽出して(S320)、特徴量の組322を抽出する。   Next, image processing for the moving image 310 will be described. The original image acquisition unit 210 acquires a moving image 310 including a plurality of frame images 312. The feature amount extraction unit 214b extracts an image feature amount based on the image of the image area 314 of the moving image 310 (S320), and extracts a feature amount set 322.

画像処理部218は、特徴量の組322に基づき、動画310に対する画像フィルタを生成するために用いる1以上の画像フィルタを、画像フィルタが適用される確率とともに決定する。そして、画像処理部218は、決定した画像フィルタおよび確率に基づき画像フィルタ340を生成する(S330)。   The image processing unit 218 determines one or more image filters to be used for generating an image filter for the moving image 310 based on the feature amount set 322 together with the probability that the image filter is applied. Then, the image processing unit 218 generates an image filter 340 based on the determined image filter and probability (S330).

画像処理部218は、画像フィルタ340を用いて、動画310に含まれるフレーム画像をフィルタリングすることにより、補正済み動画350を生成する(S345)。補正済み動画350は、出力部290により表示装置180または画像データベース175に出力される。   The image processing unit 218 generates the corrected moving image 350 by filtering the frame image included in the moving image 310 using the image filter 340 (S345). The corrected moving image 350 is output to the display device 180 or the image database 175 by the output unit 290.

なお、上記の説明では、簡単のため、2つの同一被写体領域を特定したが、3以上の同一被写体領域を特定してよい。撮像光学系の歪みを検出するためには、画像領域上の中央付近だけでなく、周辺領域からより多くの同一被写体領域を特定することが好ましい。このように、画像処理部218は、特徴量抽出部214aが抽出した特徴量および同一被写体が撮像された複数の撮像画像上の位置に基づいて、補正画像を生成するので、撮像光学系の歪みを考慮した適切な画像フィルタ340を生成することができる場合がある。   In the above description, two identical subject areas are specified for simplicity, but three or more identical subject areas may be specified. In order to detect the distortion of the imaging optical system, it is preferable to specify a larger number of the same subject area not only from the vicinity of the center on the image area but also from the peripheral area. As described above, the image processing unit 218 generates a corrected image based on the feature amount extracted by the feature amount extraction unit 214a and the positions on a plurality of captured images where the same subject is imaged. In some cases, an appropriate image filter 340 can be generated in consideration of the above.

また、画像フィルタとしては、注目画素の画素値を、当該注目画素の周囲の画素の画素値の加重平均により算出するフィルタを例示することができる。なお、その他、画像フィルタとして、エッジ強調などの高周波を強調する周波数フィルタ、アフィン変換を施す幾何フィルタなどであってもよい。このように、補正データは、被写体像に適用すべき画像フィルタであってよく、画像処理部218は、補正データが含む画像フィルタを画像に適用することにより、補正画像を生成する。また、この発明における補正データとは、画像フィルタの他、補正対象のフレーム画像に加算すべき画素データまたは空間周波数成分そのものであってもよい。このように、補正データは、被写体像に加算すべき高周波成分を含んでよい。画像処理部218は、補正データに含まれる高周波成分を例えば高周波域通過フィルタなどにより抽出、増幅して画像に加算することにより、補正画像を生成してよい。   Examples of the image filter include a filter that calculates the pixel value of the target pixel by a weighted average of the pixel values of the pixels around the target pixel. In addition, the image filter may be a frequency filter that emphasizes high frequencies such as edge enhancement, or a geometric filter that performs affine transformation. As described above, the correction data may be an image filter to be applied to the subject image, and the image processing unit 218 generates a correction image by applying the image filter included in the correction data to the image. In addition to the image filter, the correction data in the present invention may be pixel data to be added to the correction target frame image or the spatial frequency component itself. Thus, the correction data may include a high frequency component to be added to the subject image. The image processing unit 218 may generate a corrected image by extracting and amplifying a high-frequency component included in the correction data, for example, with a high-frequency band pass filter and adding the amplified image to the image.

なお、特徴量抽出部214bは、補正内容に応じて、適切な種類の特徴量を抽出してよい。例えば、画像処理部218は、被写体像の形状を補正する補正データを用いて、補正画像を生成する場合には、特徴量抽出部214bは、撮像装置が撮像した複数の撮像画像上の異なる位置に撮像された同一被写体の画像から、エッジ情報を含む特徴量を抽出してよい。また、画像処理部218は、被写体像のぼけを補正する補正データを用いて、補正画像を生成する場合には、特徴量抽出部214bは、撮像装置が撮像した複数の撮像画像上の異なる位置に撮像された同一被写体の画像から、空間周波数成分を含む特徴量を抽出してよい。   Note that the feature amount extraction unit 214b may extract an appropriate type of feature amount according to the correction content. For example, when the image processing unit 218 generates a corrected image using correction data for correcting the shape of the subject image, the feature amount extraction unit 214b has different positions on a plurality of captured images captured by the imaging device. A feature amount including edge information may be extracted from an image of the same subject that has been captured. In addition, when the image processing unit 218 generates a corrected image using correction data for correcting the blur of the subject image, the feature amount extraction unit 214b has different positions on a plurality of captured images captured by the imaging device. A feature amount including a spatial frequency component may be extracted from an image of the same subject that has been picked up.

また、画像処理部218は、被写体像の色を補正する補正データを用いて、補正画像を生成してよく、この場合、特徴量抽出部214bは、撮像装置が撮像した複数の撮像画像上の異なる位置に撮像された同一被写体の画像から、色情報を含む特徴量を抽出する。色情報を含む特徴量とは、色のヒストグラム、色の空間的分布などであってよい。   In addition, the image processing unit 218 may generate a corrected image using correction data for correcting the color of the subject image. In this case, the feature amount extraction unit 214b performs processing on a plurality of captured images captured by the imaging device. A feature amount including color information is extracted from images of the same subject captured at different positions. The feature amount including color information may be a color histogram, a color spatial distribution, or the like.

また、補正データ格納部230は、S330において算出された画像フィルタ340を、撮像装置100aを識別する情報に対応づけて格納してよい。補正データ格納部230は、撮像装置100aから得られた新たなフレーム画像に対して、補正データ格納部230が格納している画像フィルタ340を用いて、補正処理を施してよい。   Further, the correction data storage unit 230 may store the image filter 340 calculated in S330 in association with information for identifying the imaging device 100a. The correction data storage unit 230 may perform a correction process on the new frame image obtained from the imaging device 100a using the image filter 340 stored in the correction data storage unit 230.

また、画像フィルタは、注目画素の画素値を、当該注目画素の周囲の画素の画素値から予め事前学習により推定算出した値に置き換える処理を規定する画像フィルタであっても良い。   The image filter may be an image filter that defines a process for replacing the pixel value of the target pixel with a value estimated and calculated in advance by pre-learning from the pixel values of pixels around the target pixel.

なお、補正データ算出部228は、1以上のカメラ102が異なる複数の撮像条件で撮像して得られた複数の撮像画像を少なくとも用いた学習により、補正データを算出することが望ましい。また、補正データ算出部228は、1以上のカメラ102が光軸方向の距離が異なる被写体を撮像して得られた複数の撮像画像を少なくとも用いた学習により、補正データを算出することが望ましい。   Note that the correction data calculation unit 228 preferably calculates the correction data by learning using at least a plurality of captured images obtained by capturing at least one camera 102 under a plurality of different imaging conditions. In addition, it is desirable that the correction data calculation unit 228 calculates correction data by learning using at least a plurality of captured images obtained by imaging one or more cameras 102 with different distances in the optical axis direction.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

一実施形態に係る画像処理システム10の全体構成の一例を示す図である。1 is a diagram illustrating an example of an overall configuration of an image processing system 10 according to an embodiment. 画像処理装置170のブロック構成の一例を示す図である。2 is a diagram illustrating an example of a block configuration of an image processing apparatus 170. FIG. 画像処理装置170の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of the image processing apparatus.

10 画像処理システム
80 記憶媒体
100 撮像装置
102 カメラ
110 通信ネットワーク
120 原画像サーバ
150 監視空間
160 空間
165 空間
170 画像処理装置
175 画像データベース
176 学習画像データベース
180 表示装置
210 原画像取得部
212 同一被写体領域特定部
214 特徴量抽出部
218 画像処理部
226 学習画像取得部
228 補正データ算出部
230 補正データ格納部
290 出力部
300 学習用動画
310 動画
350 補正済み動画
362 画像
364 学習用画像セット
372 画像フィルタ
312 フレーム画像
314 画像領域
322 特徴量の組
340 画像フィルタ
DESCRIPTION OF SYMBOLS 10 Image processing system 80 Storage medium 100 Imaging device 102 Camera 110 Communication network 120 Original image server 150 Monitoring space 160 Space 165 Space 170 Image processing device 175 Image database 176 Learning image database 180 Display device 210 Original image acquisition part 212 Same subject area specification Unit 214 feature amount extraction unit 218 image processing unit 226 learning image acquisition unit 228 correction data calculation unit 230 correction data storage unit 290 output unit 300 video for learning 310 video 350 corrected video 362 image 364 learning image set 372 image filter 312 frame Image 314 image region 322 feature set 340 image filter

Claims (19)

撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された画像から、それぞれ特徴量を抽出する特徴量抽出部と、
前記撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された同一被写体の画像から、前記撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを求める補正データ算出部と、
前記特徴量抽出部が抽出した特徴量に基づいて、前記撮像装置が撮像した撮像画像から、前記撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを前記補正データを用いて補正し、前記撮像装置が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成する画像処理部と
を備える画像処理システム。
A feature amount extraction unit that extracts feature amounts from images captured at different positions on a plurality of captured images captured by the imaging device;
Correction for obtaining correction data for correcting a difference in optical response for each image area by the imaging optical system of the imaging device from images of the same subject respectively captured at different positions on a plurality of captured images captured by the imaging device A data calculator;
Based on the feature amount extracted by the feature amount extraction unit, the difference in optical response for each image region by the imaging optical system of the imaging device is corrected using the correction data from the captured image captured by the imaging device. An image processing system comprising: an image processing unit that generates a corrected image in which a difference in optical response for each image region by an imaging optical system included in the imaging device is corrected.
前記画像処理部は、前記特徴量抽出部が抽出した特徴量および前記同一被写体が撮像された前記複数の撮像画像上の位置に基づいて、前記補正画像を生成する
請求項1に記載の画像処理システム。
The image processing according to claim 1, wherein the image processing unit generates the correction image based on the feature amount extracted by the feature amount extraction unit and the positions on the plurality of captured images where the same subject is captured. system.
異なる位置に撮像された画像から抽出された特徴量に対応づけて、前記補正データを格納する補正データ格納部
をさらに備え、
前記画像処理部は、前記撮像装置が撮像した撮像画像から抽出された特徴量に適合する特徴量に対応づけて前記補正データ格納部が格納している前記補正データを用いて、前記補正画像を生成する
請求項2に記載の画像処理システム。
A correction data storage unit that stores the correction data in association with the feature amount extracted from the images captured at different positions;
The image processing unit uses the correction data stored in the correction data storage unit in association with a feature amount that matches a feature amount extracted from a captured image captured by the imaging device, and uses the correction data to store the correction image. The image processing system according to claim 2 to be generated.
前記補正データ算出部は、前記撮像装置と異なる撮像装置により撮像された複数の撮像画像上の異なる位置に撮像された同一被写体の画像から、前記異なる撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを、前記同一被写体の画像のうちの前記撮像画像上におけるより中央に位置する画像を正解画像として優先して用いた処理により算出し、
前記画像処理部は、前記撮像装置が撮像した撮像画像から抽出された特徴量に適合する特徴量に対応づけて前記補正データ格納部が格納している前記補正データを用いて、前記補正画像を生成する
請求項3に記載の画像処理システム。
The correction data calculation unit is configured to calculate, for each image region by an imaging optical system included in the different imaging device, from images of the same subject captured at different positions on a plurality of captured images captured by an imaging device different from the imaging device. Correction data for correcting the difference in optical response is calculated by processing using the image located at the center of the captured image of the same subject with priority as the correct image,
The image processing unit uses the correction data stored in the correction data storage unit in association with a feature amount that matches a feature amount extracted from a captured image captured by the imaging device, and uses the correction data to store the correction image. The image processing system according to claim 3 to be generated.
前記補正データ算出部は、前記異なる撮像装置が異なる複数の撮像条件で撮像して得られた複数の撮像画像を少なくとも用いた処理により、前記補正データを算出する
請求項4に記載の画像処理システム。
5. The image processing system according to claim 4, wherein the correction data calculation unit calculates the correction data by a process using at least a plurality of captured images obtained by imaging the different imaging devices under a plurality of different imaging conditions. .
前記補正データ算出部は、前記異なる撮像装置が光軸方向の距離が異なる被写体を撮像して得られた複数の撮像画像を少なくとも用いた処理により、前記補正データを算出する
請求項4または5に記載の画像処理システム。
6. The correction data calculation unit according to claim 4 or 5, wherein the correction data calculation unit calculates the correction data by processing using at least a plurality of captured images obtained by imaging the different imaging devices with different distances in the optical axis direction. The image processing system described.
前記画像処理部は、被写体像の形状を補正する前記補正データを用いて、前記補正画像を生成する
請求項2から6のいずれかに記載の画像処理システム。
The image processing system according to claim 2, wherein the image processing unit generates the corrected image using the correction data for correcting the shape of a subject image.
前記特徴量抽出部は、前記撮像装置が撮像した前記複数の撮像画像上の異なる位置に撮像された同一被写体の画像から、エッジ情報を含む前記特徴量を抽出する
請求項7に記載の画像処理システム。
The image processing according to claim 7, wherein the feature amount extraction unit extracts the feature amount including edge information from images of the same subject captured at different positions on the plurality of captured images captured by the imaging device. system.
前記画像処理部は、被写体像のぼけを補正する前記補正データを用いて、前記補正画像を生成する
請求項2から6のいずれかに記載の画像処理システム。
The image processing system according to claim 2, wherein the image processing unit generates the corrected image using the correction data for correcting blur of a subject image.
前記特徴量抽出部は、前記撮像装置が撮像した前記複数の撮像画像上の異なる位置に撮像された同一被写体の画像から、空間周波数成分を含む前記特徴量を抽出する
請求項9に記載の画像処理システム。
The image according to claim 9, wherein the feature amount extraction unit extracts the feature amount including a spatial frequency component from images of the same subject captured at different positions on the plurality of captured images captured by the imaging device. Processing system.
前記補正データは、被写体像に加算すべき高周波成分を含み、
前記画像処理部は、前記補正データに含まれる高周波成分を画像に加算することにより、前記補正画像を生成する
請求項9または10に記載の画像処理システム。
The correction data includes a high frequency component to be added to the subject image,
The image processing system according to claim 9, wherein the image processing unit generates the corrected image by adding a high-frequency component included in the correction data to the image.
前記補正データは、被写体像に適用すべき画像フィルタを含み、
前記画像処理部は、前記補正データが含む画像フィルタを画像に適用することにより、前記補正画像を生成する
請求項9または10に記載の画像処理システム。
The correction data includes an image filter to be applied to the subject image,
The image processing system according to claim 9, wherein the image processing unit generates the corrected image by applying an image filter included in the correction data to the image.
前記画像処理部は、被写体像の色を補正する前記補正データを用いて、前記補正画像を生成する
請求項2から6のいずれかに記載の画像処理システム。
The image processing system according to claim 2, wherein the image processing unit generates the corrected image using the correction data for correcting the color of the subject image.
前記特徴量抽出部は、前記撮像装置が撮像した前記複数の撮像画像上の異なる位置に撮像された同一被写体の画像から、色情報を含む前記特徴量を抽出する
請求項13に記載の画像処理システム。
The image processing according to claim 13, wherein the feature amount extraction unit extracts the feature amount including color information from images of the same subject captured at different positions on the plurality of captured images captured by the imaging device. system.
撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された画像から、それぞれ特徴量を抽出する特徴量抽出段階と、
前記撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された同一被写体の画像から、前記撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを求める補正データ算出段階と、
前記特徴量抽出段階において抽出された特徴量に基づいて、前記撮像装置が撮像した撮像画像から、前記撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを前記補正データを用いて補正し、前記撮像装置が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成する画像処理段階と
を備える画像処理方法。
A feature amount extraction stage for extracting feature amounts from images captured at different positions on a plurality of captured images captured by the imaging device;
Correction for obtaining correction data for correcting a difference in optical response for each image area by the imaging optical system of the imaging device from images of the same subject respectively captured at different positions on a plurality of captured images captured by the imaging device The data calculation stage,
Based on the feature amount extracted in the feature amount extraction step, the difference in optical response for each image region by the imaging optical system of the imaging device is corrected using the correction data from the captured image captured by the imaging device. And an image processing step of generating a corrected image in which a difference in optical response for each image region by the imaging optical system included in the imaging device is corrected.
画像処理システム用のプログラムであって、コンピュータを、
撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された画像から、それぞれ特徴量を抽出する特徴量抽出部、
前記撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された同一被写体の画像から、前記撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを求める補正データ算出部、
前記特徴量抽出部が抽出した特徴量に基づいて、前記撮像装置が撮像した撮像画像から、前記撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを前記補正データを用いて補正し、前記撮像装置が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成する画像処理部
として機能させるプログラム。
A program for an image processing system, comprising:
A feature amount extraction unit that extracts feature amounts from images captured at different positions on a plurality of captured images captured by the imaging device;
Correction for obtaining correction data for correcting a difference in optical response for each image area by the imaging optical system of the imaging device from images of the same subject respectively captured at different positions on a plurality of captured images captured by the imaging device Data calculator,
Based on the feature amount extracted by the feature amount extraction unit, the difference in optical response for each image region by the imaging optical system of the imaging device is corrected using the correction data from the captured image captured by the imaging device. A program that functions as an image processing unit that generates a corrected image in which a difference in optical response for each image region by the imaging optical system of the imaging device is corrected.
第1撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された画像から、それぞれ特徴量を抽出する第1特徴量抽出部と、
前記第1撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された同一被写体の画像から、前記第1撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを求める補正データ算出部と、
前記第1特徴量抽出部が抽出した特徴量と前記補正データとの対応関係を格納する補正データ格納部と、
第2撮像装置が撮像した撮像画像上の一部領域にそれぞれ撮像された画像から、それぞれ特徴量を抽出する第2特徴量抽出部と、
前記第2特徴量抽出部が抽出した特徴量に対応する補正データを前記補正データ格納部から読み出し、前記第2撮像装置が撮像した撮像画像から、前記第2撮像装置が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成する画像処理部と
を備える画像処理システム。
A first feature amount extraction unit that extracts feature amounts from images captured at different positions on a plurality of captured images captured by the first imaging device;
Correction for correcting a difference in optical response for each image area by an imaging optical system of the first imaging device from images of the same subject captured at different positions on a plurality of captured images captured by the first imaging device. A correction data calculation unit for obtaining data;
A correction data storage unit that stores a correspondence relationship between the feature amount extracted by the first feature amount extraction unit and the correction data;
A second feature amount extraction unit that extracts a feature amount from each image captured in a partial region on the captured image captured by the second imaging device;
The correction data corresponding to the feature amount extracted by the second feature amount extraction unit is read from the correction data storage unit, and the image by the imaging optical system of the second imaging device is obtained from the captured image captured by the second imaging device. An image processing system comprising: an image processing unit that generates a corrected image in which a difference in optical response for each region is corrected.
第1撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された画像から、それぞれ特徴量を抽出する第1特徴量抽出段階と、
前記第1撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された同一被写体の画像から、前記第1撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを求める補正データ算出段階と、
前記第1特徴量抽出段階において抽出された特徴量と前記補正データとの対応関係を補正データ格納部に格納する補正データ格納段階と、
第2撮像装置が撮像した撮像画像上の一部領域にそれぞれ撮像された画像から、それぞれ特徴量を抽出する第2特徴量抽出段階と、
前記第2特徴量抽出段階において抽出された特徴量に対応する補正データを、前記補正データ格納部から読み出し、前記第2撮像装置が撮像した撮像画像から、前記第2撮像装置が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成する画像処理段階と
を備える画像処理方法。
A first feature amount extraction stage for extracting feature amounts from images respectively captured at different positions on a plurality of captured images captured by the first imaging device;
Correction for correcting a difference in optical response for each image area by an imaging optical system of the first imaging device from images of the same subject captured at different positions on a plurality of captured images captured by the first imaging device. Correction data calculation stage for obtaining data,
A correction data storage step of storing a correspondence relationship between the feature amount extracted in the first feature amount extraction step and the correction data in a correction data storage unit;
A second feature amount extraction stage for extracting feature amounts from images respectively captured in partial areas on the captured image captured by the second imaging device;
An imaging optical system included in the second imaging device, which reads out correction data corresponding to the feature amount extracted in the second feature amount extraction step from the correction data storage unit and is captured by the second imaging device. And an image processing step of generating a corrected image in which a difference in optical response for each image region is corrected.
画像処理システム用のプログラムであって、コンピュータを、
第1撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された画像から、それぞれ特徴量を抽出する第1特徴量抽出部、
前記第1撮像装置が撮像した複数の撮像画像上の異なる位置にそれぞれ撮像された同一被写体の画像から、前記第1撮像装置が有する撮像光学系による画像領域毎の光学応答の違いを補正する補正データを求める補正データ算出部、
前記第1特徴量抽出部が抽出した特徴量と前記補正データとの対応関係を格納する補正データ格納部、
第2撮像装置が撮像した撮像画像上の一部領域にそれぞれ撮像された画像から、それぞれ特徴量を抽出する第2特徴量抽出部、
前記第2特徴量抽出部が抽出した特徴量に対応する補正データを前記補正データ格納部から読み出し、前記第2撮像装置が撮像した撮像画像から、前記第2撮像装置が有する撮像光学系による画像領域毎の光学応答の違いが補正された補正画像を生成する画像処理部
として機能させるプログラム。
A program for an image processing system, comprising:
A first feature amount extraction unit that extracts feature amounts from images captured at different positions on a plurality of captured images captured by the first imaging device;
Correction for correcting a difference in optical response for each image area by an imaging optical system of the first imaging device from images of the same subject captured at different positions on a plurality of captured images captured by the first imaging device. Correction data calculation unit for obtaining data,
A correction data storage unit that stores a correspondence relationship between the feature amount extracted by the first feature amount extraction unit and the correction data;
A second feature amount extraction unit that extracts feature amounts from images captured in partial areas on the captured image captured by the second imaging device;
The correction data corresponding to the feature amount extracted by the second feature amount extraction unit is read from the correction data storage unit, and the image by the imaging optical system of the second imaging device is obtained from the captured image captured by the second imaging device. A program that functions as an image processing unit that generates a corrected image in which a difference in optical response for each region is corrected.
JP2009200691A 2009-08-31 2009-08-31 Image processing system, image processing method, and program Active JP5148573B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009200691A JP5148573B2 (en) 2009-08-31 2009-08-31 Image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009200691A JP5148573B2 (en) 2009-08-31 2009-08-31 Image processing system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2011055133A true JP2011055133A (en) 2011-03-17
JP5148573B2 JP5148573B2 (en) 2013-02-20

Family

ID=43943719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009200691A Active JP5148573B2 (en) 2009-08-31 2009-08-31 Image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5148573B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016113983A1 (en) * 2015-01-13 2016-07-21 ソニー株式会社 Image processing device, image processing method, program, and system
JP2017004512A (en) * 2015-06-11 2017-01-05 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018191030A (en) * 2017-04-28 2018-11-29 三菱電機ビルテクノサービス株式会社 Surveillance camera system
JP2020039380A (en) * 2018-09-06 2020-03-19 キヤノンメディカルシステムズ株式会社 Signal data processing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11146340A (en) * 1997-11-06 1999-05-28 Ricoh Co Ltd Image signal conversion method, digital image recording and reproducing device, and recording medium
JP2001211456A (en) * 2000-01-27 2001-08-03 Matsushita Electric Ind Co Ltd Image processing method and image processing unit
JP2004242125A (en) * 2003-02-07 2004-08-26 Fuji Photo Film Co Ltd Image processor
JP2009077202A (en) * 2007-09-21 2009-04-09 Sony Corp Image processor, image processing method, and image processing program, and imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11146340A (en) * 1997-11-06 1999-05-28 Ricoh Co Ltd Image signal conversion method, digital image recording and reproducing device, and recording medium
JP2001211456A (en) * 2000-01-27 2001-08-03 Matsushita Electric Ind Co Ltd Image processing method and image processing unit
JP2004242125A (en) * 2003-02-07 2004-08-26 Fuji Photo Film Co Ltd Image processor
JP2009077202A (en) * 2007-09-21 2009-04-09 Sony Corp Image processor, image processing method, and image processing program, and imaging apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016113983A1 (en) * 2015-01-13 2016-07-21 ソニー株式会社 Image processing device, image processing method, program, and system
CN107113408A (en) * 2015-01-13 2017-08-29 索尼公司 Image processing apparatus, image processing method, program and system
JPWO2016113983A1 (en) * 2015-01-13 2017-10-19 ソニー株式会社 Image processing apparatus, image processing method, program, and system
US10176543B2 (en) 2015-01-13 2019-01-08 Sony Corporation Image processing based on imaging condition to obtain color image
CN107113408B (en) * 2015-01-13 2021-05-11 索尼公司 Image processing apparatus, image processing method, program, and system
JP2017004512A (en) * 2015-06-11 2017-01-05 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018191030A (en) * 2017-04-28 2018-11-29 三菱電機ビルテクノサービス株式会社 Surveillance camera system
JP2020039380A (en) * 2018-09-06 2020-03-19 キヤノンメディカルシステムズ株式会社 Signal data processing device
JP7224817B2 (en) 2018-09-06 2023-02-20 キヤノンメディカルシステムズ株式会社 signal data processor

Also Published As

Publication number Publication date
JP5148573B2 (en) 2013-02-20

Similar Documents

Publication Publication Date Title
US10327045B2 (en) Image processing method, image processing device and monitoring system
US9400939B2 (en) System and method for relating corresponding points in images with different viewing angles
KR101125765B1 (en) Apparatus and method for registration between color channels based on depth information of image taken by multiple color filter aperture camera
US8594435B2 (en) Image processing device and method, and program therefor
US8953900B2 (en) Increased quality of image objects based on depth in scene
TWI639136B (en) Real-time video stitching method
US9030559B2 (en) Constrained parametric curve detection using clustering on Hough curves over a sequence of images
JP2010041417A (en) Image processing unit, image processing method, image processing program, and imaging apparatus
KR20140015892A (en) Apparatus and method for alignment of images
CN111383204A (en) Video image fusion method, fusion device, panoramic monitoring system and storage medium
JP5148573B2 (en) Image processing system, image processing method, and program
US20120033888A1 (en) Image processing system, image processing method, and computer readable medium
US8520950B2 (en) Image processing device, image processing method, program, and integrated circuit
CN112465702B (en) Synchronous self-adaptive splicing display processing method for multi-channel ultrahigh-definition video
JPH10149449A (en) Picture division method, picture identification method, picture division device and picture identification device
WO2018121414A1 (en) Electronic device, and target image recognition method and apparatus
JP2019209734A (en) Track identification apparatus
KR101578029B1 (en) Apparatus and method for correcting image distortion
JP2016057194A (en) Information processing device, information processing method, and program
JP5539565B2 (en) Imaging apparatus and subject tracking method
US20230085080A1 (en) Information processing apparatus, information processing method, and information processing program
KR20160000533A (en) The method of multi detection and tracking with local feature point for providing information of an object in augmented reality
US11682190B2 (en) Method, system, and device for detecting an object in a distorted image
CN111275045A (en) Method and device for identifying image subject, electronic equipment and medium
US20200169668A1 (en) Imaging control apparatus, imaging apparatus, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121128

R150 Certificate of patent or registration of utility model

Ref document number: 5148573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250