JP2013005392A - Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus - Google Patents

Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus Download PDF

Info

Publication number
JP2013005392A
JP2013005392A JP2011137617A JP2011137617A JP2013005392A JP 2013005392 A JP2013005392 A JP 2013005392A JP 2011137617 A JP2011137617 A JP 2011137617A JP 2011137617 A JP2011137617 A JP 2011137617A JP 2013005392 A JP2013005392 A JP 2013005392A
Authority
JP
Japan
Prior art keywords
distortion correction
correction coefficient
image
incident angle
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011137617A
Other languages
Japanese (ja)
Inventor
Hisaki Tsuboi
央樹 坪井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Advanced Layers Inc
Original Assignee
Konica Minolta Advanced Layers Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Advanced Layers Inc filed Critical Konica Minolta Advanced Layers Inc
Priority to JP2011137617A priority Critical patent/JP2013005392A/en
Publication of JP2013005392A publication Critical patent/JP2013005392A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To accurately recognize a subject on distortion correction processing, using a relatively small scale circuit.SOLUTION: A distortion correction coefficient at least includes a first distortion correction coefficient calculated based on a physical characteristic of a lens in an optical system 110 and an incident angle of incident light from a virtual projection plane VP set to the optical system, and a second distortion correction coefficient which is an image height from an optical center at which an imaging device intersects with the optical axis of the optical system, calculated from a tangent function of the incident angle to the optical system as a variable. The tangent function is calculated by multiplying the incident angle by a predetermined coefficient smaller than 1 so as to avoid an incident angle range that saturates due to the value of the distortion correction coefficient exceeding a predetermined upper limit value.

Description

本願発明は、集光レンズを含む広角な光学系を介して撮像素子により撮像された画像の歪み補正処理を行う、画像処理方法、画像処理装置及び撮像装置に関するものである。   The present invention relates to an image processing method, an image processing apparatus, and an imaging apparatus that perform distortion correction processing on an image captured by an imaging element via a wide-angle optical system including a condenser lens.

一般に、広角レンズあるいは魚眼レンズのような焦点距離の短いレンズや画角の大きなレンズを備えた光学系により撮影した画像は歪曲を伴うので、歪曲を補正する画像処理を行う。   In general, an image captured by an optical system having a short focal length lens or a large angle of view lens such as a wide-angle lens or a fish-eye lens is distorted, and image processing for correcting the distortion is performed.

このような画像処理について、以下のような特許文献に関連した技術が提案されている。   For such image processing, techniques related to the following patent documents have been proposed.

特許文献1には従来技術の補正方法として、焦点距離の短いレンズを使用して撮像された撮像画像に生じる歪曲を、レンズの補正用のパラメータを用いて補正する方法が開示されている。   Patent Document 1 discloses a correction method of the prior art that corrects distortion generated in a captured image captured using a lens with a short focal length using a lens correction parameter.

特許文献2では、光学ズーム機構のワイド端からテレ端までレンズ位置毎の光学歪み補正パラメータの算出を補間演算により行うことは、外部情報処理機器を必要とし、撮像装置単体では処理能力的に難しいという問題に対して、光学ズームを行う範囲内で離散的なレンズ位置に対する光学歪み補正パラメータを備え、そしてズームを行う際のレンズ位置を光学歪み補正パラメータを備えるレンズ位置に制限し、制限された位置間の光学ズームを電子ズームで繋いでいる。   In Patent Document 2, it is necessary to use an external information processing device to calculate the optical distortion correction parameter for each lens position from the wide end to the tele end of the optical zoom mechanism by using an interpolation operation. With the optical distortion correction parameter for the discrete lens position within the range to perform the optical zoom, the lens position at the time of zooming is limited to the lens position having the optical distortion correction parameter. The optical zoom between the positions is connected by electronic zoom.

特許文献3では、広角側の画角の場合には歪み補正を行い、広角側でない画角の場合には歪み補正を行わない等、画角切り換え手段により切り換えた画角の違いによって歪み補正量を変更する映像処理装置が開示されている。   In Patent Document 3, distortion correction is performed depending on the difference in the angle of view switched by the angle-of-view switching means, such as performing distortion correction in the case of the angle of view on the wide angle side, and not performing distortion correction in the case of the angle of view other than the wide angle side. A video processing apparatus for changing the above is disclosed.

特開2009−140066号公報JP 2009-140066 A 特開2009−105546号公報JP 2009-105546 A 特開2009−61969号公報JP 2009-61969 A

特許文献1に開示されたように、レンズで得た撮像画像を画像処理装置としてハード化した場合に処理時間が長くなり、回路規模が増大してしまい、コストが嵩んでしまうという問題があった。   As disclosed in Patent Document 1, there is a problem that when a captured image obtained by a lens is hardwareized as an image processing device, the processing time becomes long, the circuit scale increases, and the cost increases. .

特許文献2では、ズームの際のレンズ位置を離散的な歪み補正パラメータと対応する位置に制限することと、その間を電子ズームで繋ぐことにより、ズーム動作を歪み補正パラメータの補間処理を省略することで撮像装置単体でのズーム動作を実現している。しかし、ズーム動作のような一次元のレンズの動きにのみ適用できることであり、パン、チルト等の多様な動きには適用し難い。すなわち、画像処理によって見え方を変える視点変換には対応できない問題がある。   In Patent Document 2, the lens position at the time of zooming is limited to a position corresponding to the discrete distortion correction parameter, and the zoom operation is omitted by interpolating the distortion correction parameter by connecting between them with an electronic zoom. In this way, the zoom operation of the image pickup device alone is realized. However, it can be applied only to a one-dimensional lens movement such as a zoom operation, and is difficult to apply to various movements such as panning and tilting. That is, there is a problem that it is not possible to cope with viewpoint conversion that changes the appearance by image processing.

また歪み補正処理をした後の画像は、視野角が狭くなるので広い領域を一度に認識することは難しくなる。歪み補正処理を行わない画像では、視野角は広くなるがその反面、被写体が歪むことにより距離感や大きさの認識が難しくなる。   In addition, since the image after the distortion correction processing has a narrow viewing angle, it is difficult to recognize a wide area at a time. In an image that is not subjected to distortion correction processing, the viewing angle is widened, but on the other hand, it is difficult to recognize the sense of distance and size due to distortion of the subject.

特許文献3では、このような問題に対して画角に応じて歪み補正量を異ならせているが、歪み補正量を逐次変更するものではなく、被写体の歪みの改善と、距離感や大きさの正確な認識という2つの問題の双方を解決するものではない。   In Patent Document 3, the distortion correction amount is varied according to the angle of view for such a problem, but the distortion correction amount is not sequentially changed. It does not solve both of the two problems of accurate recognition.

なお、広角レンズで撮影された歪み無し状態の全体画像から、歪み補正後の画像を生成して表示する場合、最終的な歪み補正後の画像が全体画像のどの部分を表示しているかを明らかにするため、歪み補正状態を少しずつ連続的に変化させつつ表示することが望ましいが、以上の各特許文献は適していないことが判明した。   In addition, when generating and displaying an image after distortion correction from an entire image taken with a wide-angle lens and without distortion, it is clear which part of the entire image the final image after distortion correction displays. Therefore, it is desirable to display the distortion correction state while changing it little by little, but it has been found that each of the above patent documents is not suitable.

また、本件出願の発明者が上記特許文献とは別の後述する方式で被写体の歪み補正を行い、歪み補正状態を連続的に少しずつ変化させるように処理したところ、入射角とパラメータとの関係で、歪み補正後の画像に乱れが生じることが明らかになった。すなわち、歪み補正状態を表示する画像中に乱れ(画像不良)があるため、被写体の正確な認識が困難になることを発見した。   In addition, when the inventor of the present application performs distortion correction of a subject by a method described later, which is different from the above-mentioned patent document, and performs processing so as to continuously change the distortion correction state little by little, the relationship between the incident angle and the parameter Thus, it became clear that the image after distortion correction was disturbed. That is, the present inventors have found that it is difficult to accurately recognize a subject because there is a disorder (image defect) in an image displaying a distortion correction state.

本願発明はこのような問題に鑑み、被写体の正確な認識を図ること、及び、比較的小規模な回路で、処理時間の短縮化を図ることが可能な、画像処理方法、画像処理装置及び撮像装置提供することを目的とする。   In view of such a problem, the present invention provides an image processing method, an image processing apparatus, and an imaging device capable of accurately recognizing a subject and shortening a processing time with a relatively small circuit. The object is to provide a device.

上記の目的は、下記に記載する発明により達成される。   The above object is achieved by the invention described below.

(1)光学系を介して複数の画素を有する撮像素子に受光して得られた複数の画素データを用いて処理した画像データを得る画像処理方法において、ワールド座標系の仮想投影面の位置及びサイズを設定する第1ステップと、前記第1ステップで設定された前記仮想投影面の各画素のワールド座標系における座標を歪み補正係数を用いてカメラ座標系に変換し、変換したカメラ座標系における座標及び前記複数の画素データに基づいて前記第1ステップで設定された仮想投影面の画像データを算出する第2ステップと、前記第2ステップで算出された画像データによる表示用画像を出力する第3ステップと、を有し、前記第2ステップで用いられる前記歪み補正係数には、少なくとも、前記光学系のレンズの物理的特性及び前記光学系への設定された前記仮想投影面からの入射光の入射角に基づいて算出され前記光学系により生ずる歪みを補正するための第1歪み補正係数と、前記光学系への入射角の正接関数を変数として算出される前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高であって前記歪みを補正しない第2歪み補正係数が含まれており、前記第2ステップには、第2歪み補正係数が所定の値以上となる最小入射角がある場合、前記最小入射角より大きな入射角に対応する領域の画素を避けるように前記入射角に1未満の所定係数を乗じて前記正接関数を算出する、ことを特徴とする。   (1) In an image processing method for obtaining image data processed using a plurality of pixel data obtained by receiving an image sensor having a plurality of pixels via an optical system, the position of a virtual projection plane in the world coordinate system and A first step of setting a size, and a coordinate in the world coordinate system of each pixel of the virtual projection plane set in the first step is converted into a camera coordinate system using a distortion correction coefficient, and in the converted camera coordinate system A second step of calculating image data of the virtual projection plane set in the first step based on the coordinates and the plurality of pixel data, and a second step of outputting a display image based on the image data calculated in the second step. The distortion correction coefficient used in the second step includes at least the physical characteristics of the lens of the optical system and the setting to the optical system. The first distortion correction coefficient for correcting the distortion caused by the optical system calculated based on the incident angle of the incident light from the virtual projection plane and the tangent function of the incident angle to the optical system are calculated as variables. A second distortion correction coefficient that does not correct the distortion and includes an image height from an optical center at which the imaging element and the optical axis of the optical system intersect with each other. The second distortion is included in the second step. When there is a minimum incident angle at which the correction coefficient is equal to or greater than a predetermined value, the incident angle is multiplied by a predetermined coefficient less than 1 so as to avoid pixels in a region corresponding to an incident angle larger than the minimum incident angle, and the tangent function is calculated. It is characterized by calculating.

また、光学系を介して複数の画素を有する撮像素子に受光して得られた複数の画素データを用いて処理した画像データを得る画像処理装置または撮像装置であって、歪み補正係数を記憶する記憶部と、位置及びサイズが設定された仮想投影面の各画素のワールド座標系における座標を前記記憶部に記憶された歪み補正係数を用いてカメラ座標系に変換し、カメラ座標系に変換した座標及び前記複数の画素データに基づいて、前記仮想投影面の画像データを算出する画像処理部と、前記画像処理部で算出した画像データの表示用の画像信号を出力する画像信号出力部と、を有し、前記記憶部には、記憶される前記歪み補正係数として少なくとも、前記光学系のレンズの物理的特性及び前記光学系への設定された前記仮想投影面からの入射光の入射角に基づいて算出され前記光学系により生ずる歪みを補正するための第1歪み補正係数並びに前記光学系への入射角の正接関数を変数として算出される前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高であって前記歪みを補正しない第2歪み補正係数を有し、前記画像処理部は、第2歪み補正係数が所定の値以上となる最小入射角がある場合、前記最小入射角より大きな入射角に対応する領域の画素を避けるように前記入射角に1未満の所定係数を乗じて前記正接関数を算出する、ことを特徴とする。   An image processing apparatus or an imaging apparatus that obtains image data processed using a plurality of pixel data obtained by receiving an image sensor having a plurality of pixels via an optical system, and stores a distortion correction coefficient The coordinates in the world coordinate system of each pixel of the virtual projection plane whose position and size are set are converted into the camera coordinate system using the distortion correction coefficient stored in the storage unit, and converted into the camera coordinate system An image processing unit that calculates image data of the virtual projection plane based on the coordinates and the plurality of pixel data; an image signal output unit that outputs an image signal for display of the image data calculated by the image processing unit; And the storage unit stores at least the physical characteristics of the lens of the optical system and the incident light from the virtual projection plane set to the optical system as the stored distortion correction coefficient. A first distortion correction coefficient for correcting distortion caused by the optical system calculated based on an angle and a tangent function of an incident angle to the optical system and the optical axis of the optical system calculated as variables When the image processing unit has a second distortion correction coefficient that does not correct the distortion at the image height from the optical center where the second distortion correction coefficient is equal to or greater than a predetermined value, The tangent function is calculated by multiplying the incident angle by a predetermined coefficient less than 1 so as to avoid pixels in a region corresponding to an incident angle larger than the minimum incident angle.

(2)以上の(1)において、前記第3ステップは段階的に歪みが補正された画像データの表示用動画像を出力するものであって、前記第2ステップにおいて前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出する、ことを特徴とする。   (2) In the above (1), the third step outputs a moving image for display of image data in which distortion is corrected stepwise, wherein the first distortion correction coefficient in the second step, The image data of the virtual projection plane is calculated by switching the second distortion correction coefficient and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients in a stepwise manner. To do.

また、以上の(1)において、前記画像信号出力部は段階的に歪みが補正された画像データの表示用動画像を出力するものであって、前記画像処理部は、前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出する、ことを特徴とする。   In the above (1), the image signal output unit outputs a moving image for display of image data in which distortion is corrected stepwise, and the image processing unit includes the first distortion correction coefficient. The image data of the virtual projection plane is calculated using the second distortion correction coefficient and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients in a stepwise manner. And

(3)以上の(1)〜(2)において、前記第3ステップは段階的に歪みが補正された画像データの表示用動画像を出力するものであって、前記第2ステップにおいて前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出し、前記第2ステップで、第2歪み補正係数が所定の値以上となる最小入射角がある場合に前記最小入射角より大きな入射角に対応する領域の画素を避けるように前記入射角に1未満の所定係数を乗じて前記第2歪み補正係数を算出する際に、前記第3歪み補正係数に含まれる前記第2歪み補正係数の補間割合に応じて前記1未満の係数を決定する、ことを特徴とする。   (3) In the above (1) to (2), the third step outputs a moving image for display of image data in which distortion is corrected stepwise, and the second step includes the first step. Calculating the image data of the virtual projection plane using the distortion correction coefficient, the second distortion correction coefficient, and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients in a stepwise manner; In the second step, when there is a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value, the incident angle is less than 1 so as to avoid pixels in a region corresponding to an incident angle larger than the minimum incident angle. When calculating the second distortion correction coefficient by multiplying by a predetermined coefficient, a coefficient less than 1 is determined according to an interpolation ratio of the second distortion correction coefficient included in the third distortion correction coefficient. And

また、以上の(1)〜(2)において、前記画像信号出力部は段階的に歪みが補正された画像データの表示用動画像を出力するものであって、前記画像処理部は、前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出し、前記第2ステップで、第2歪み補正係数が所定の値以上となる最小入射角がある場合に前記最小入射角より大きな入射角に対応する領域の画素を避けるように前記入射角に1未満の所定係数を乗じて前記第2歪み補正係数を算出する際に、前記第3歪み補正係数に含まれる前記第2歪み補正係数の補間割合に応じて前記1未満の係数を決定する、ことを特徴とする。   In the above (1) to (2), the image signal output unit outputs a moving image for display of image data in which distortion is corrected stepwise, and the image processing unit One distortion correction coefficient, the second distortion correction coefficient, and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients are used in a stepwise manner to calculate image data of the virtual projection plane. In the second step, when there is a minimum incident angle at which the second distortion correction coefficient is greater than or equal to a predetermined value, the incident angle is less than 1 so as to avoid pixels in a region corresponding to an incident angle larger than the minimum incident angle. When the second distortion correction coefficient is calculated by multiplying by the predetermined coefficient, the coefficient less than 1 is determined according to the interpolation ratio of the second distortion correction coefficient included in the third distortion correction coefficient. Features.

(4)以上の(1)〜(3)において、前記第1ステップでは、ワールド座標系の仮想投影面の第1位置と第2位置を設定し、前記第2ステップでは、初期の前記第2位置と前記第2歪み補正係数、最終の前記第1位置と前記第1歪み補正係数、途中の前記第2位置と前記第1位置の補間によって得られた第3位置と前記第3歪み補正係数、と段階的に切り替えて用いて仮想投影面の画像データを算出する、ことを特徴とする。   (4) In the above (1) to (3), in the first step, the first position and the second position of the virtual projection plane of the world coordinate system are set, and in the second step, the initial second A position and the second distortion correction coefficient, a final first position and the first distortion correction coefficient, a third position obtained by interpolation between the second position and the first position in the middle, and the third distortion correction coefficient The image data of the virtual projection plane is calculated by switching in a stepwise manner.

また、以上の(1)〜(3)において、ワールド座標系の前記仮想投影面は第1位置と第2位置が設定されており、前記画像処理部は、初期の前記第2位置と前記第2歪み補正係数、最終の前記第1位置と前記第1歪み補正係数、途中の前記第2位置と前記第1位置の補間によって得られた第3位置と前記第3歪み補正係数、と段階的に切り替えて用いて仮想投影面の画像データを算出する、ことを特徴とする。   Further, in the above (1) to (3), the virtual projection plane of the world coordinate system has a first position and a second position set, and the image processing unit performs the initial second position and the second position. 2 stepwise correction coefficients, the final first position and the first distortion correction coefficient, the third position obtained by interpolation of the second position and the first position in the middle, and the third distortion correction coefficient The image data of the virtual projection plane is calculated by switching to the above.

(5)以上の(1)〜(4)において、前記第2歪み補正係数は、以下の条件式(1)で表され、前記第2歪み補正係数の飽和を考慮した場合には、以下の条件式(1')で表される、ことを特徴とする。
L2=((ExportImageSize/2)/(tan(focal/2)))×tanθ …式(1)
L2=((ExportImageSize/2)/(tan(focal/2)))×tan(αθ) …式(1')
ここで、
ExportImageSize:表示部で表示する出力画像の長辺の長さ,
focal:設定された仮想投影面の長辺方向における画角,
α:1未満の所定係数,である。
(5) In the above (1) to (4), the second distortion correction coefficient is expressed by the following conditional expression (1), and in consideration of saturation of the second distortion correction coefficient, It is expressed by conditional expression (1 ′).
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tanθ Equation (1)
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tan (αθ) Expression (1 ′)
here,
ExportImageSize: the length of the long side of the output image to be displayed on the display,
focal: Angle of view in the long side direction of the set virtual projection plane,
α: a predetermined coefficient less than 1.

本願発明では、光学系のレンズの物理的特性に基づいて算出された第1歪み補正係数と光学系への入射角を変数とする関係式により算出された第2歪み補正係数のいずれか少なくとも一方を用いて画像データを算出する場合であって、広角レンズへ非常に大きな角度で入射する事による画像処理上の制限で生ずる画像不良による被写体の誤認識を簡易的な方法で、しかも効果的に軽減することができる。   In the present invention, at least one of the first distortion correction coefficient calculated based on the physical characteristics of the lens of the optical system and the second distortion correction coefficient calculated by the relational expression using the incident angle to the optical system as a variable. Is used to calculate image data using a simple method of erroneously recognizing a subject due to image defects caused by image processing limitations caused by incidence on a wide-angle lens at a very large angle. Can be reduced.

本実施形態に係る歪曲補正を説明する模式図である。It is a schematic diagram explaining the distortion correction which concerns on this embodiment. 仮想投影面VPの位置を移動させた例を示す説明図である。It is explanatory drawing which shows the example which moved the position of the virtual projection surface VP. 撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of an imaging device. 本実施形態の制御フローを示すフローチャートである。It is a flowchart which shows the control flow of this embodiment. 入射角θと、撮像素子面IA上の像高hとの関係を示す特性図である。FIG. 6 is a characteristic diagram showing a relationship between an incident angle θ and an image height h on the image sensor surface IA. 光学的範囲に仮想投影面VPを設定した状態を示す説明図である。It is explanatory drawing which shows the state which set the virtual projection surface VP in the optical range. 第1歪み補正係数L1と第2歪み補正係数L2での像高hとの関係を示す模式図である。It is a schematic diagram which shows the relationship between the image height h in the 1st distortion correction coefficient L1 and the 2nd distortion correction coefficient L2. 入出力画像の例を示す説明図である。It is explanatory drawing which shows the example of an input-output image. 歪補正率あるいは、歪補正率と視点変換率を所定の周期で変更する例を示す説明図である。It is explanatory drawing which shows the example which changes a distortion correction rate or a distortion correction rate and a viewpoint conversion rate with a predetermined period. カメラ座標系の画像中心oを回転中心として仮想投影面VPの位置を変更する例である。This is an example in which the position of the virtual projection plane VP is changed with the image center o of the camera coordinate system as the rotation center. 仮想投影面VP0の中心ovを回転中心として仮想投影面VPの位置を変更する例である。This is an example in which the position of the virtual projection plane VP is changed with the center ov of the virtual projection plane VP0 as the rotation center. 歪み補正係数の飽和・不連続の状態を示す特性図である。It is a characteristic view which shows the saturation and discontinuous state of a distortion correction coefficient. 歪み補正係数の飽和・不連続の影響による画像不良を写真画像で示す説明図である。It is explanatory drawing which shows the image defect by the influence of the saturation and discontinuity of a distortion correction coefficient with a photograph image. 本実施形態のブラックアウトポイントを示す特性図である。It is a characteristic view which shows the blackout point of this embodiment. 本実施形態のブラックアウトポイントを示す特性図である。It is a characteristic view which shows the blackout point of this embodiment. カメラ座標系xyと撮像素子面IAとの対応関係を示す図である。It is a figure which shows the correspondence of camera coordinate system xy and image pick-up element surface IA. カメラ座標系xyと撮像素子面IAとの対応関係を示す図である。It is a figure which shows the correspondence of camera coordinate system xy and image pick-up element surface IA. 歪み補正処理を説明する模式図である。It is a schematic diagram explaining a distortion correction process. 本実施形態を適用した処理画像の表示例を写真画像で示す説明図である。It is explanatory drawing which shows the example of a display of the process image to which this embodiment is applied with a photograph image.

以下、本発明を実施の形態に基づいて説明するが、本発明は該実施の形態に示される具体例に限られるものではない。   Hereinafter, the present invention will be described based on embodiments, but the present invention is not limited to the specific examples shown in the embodiments.

〔A〕座標系:
図1は、本実施形態に係る歪曲補正を説明するための座標系を示す模式図である。
[A] Coordinate system:
FIG. 1 is a schematic diagram showing a coordinate system for explaining distortion correction according to the present embodiment.

この図1において、X、Y、Zは空間の中での物体の位置を示すための座標系としてのワールド座標系であり、原点Oは光学系のレンズ中心である。ここで、Zは光軸、XY平面はレンズ中心Oを通るレンズ中心面LCを含んでいる。点Pはワールド座標系XYZにおける被写体の物点である。θは光軸(Z軸に一致)に対する入射角である。   In FIG. 1, X, Y, and Z are world coordinate systems as coordinate systems for indicating the position of an object in space, and the origin O is the lens center of the optical system. Here, Z includes the optical axis, and the XY plane includes a lens center plane LC passing through the lens center O. Point P is an object point of the subject in the world coordinate system XYZ. θ is an incident angle with respect to the optical axis (coincident with the Z axis).

一方、x、yはカメラを基準としたカメラ座標系であり、xy平面は撮像素子面IAに対応する。oは光学中心であり光軸Zと撮像素子面との交点である。点pはカメラ座標系における撮像素子面上の点であり、物点Pをレンズの物理的特性に基づくパラメータ(以下、「レンズパラメータ」という)に基づく歪み補正係数(後述の第1歪み補正係数L1に相当)を用いてカメラ座標系に変換したものである。   On the other hand, x and y are camera coordinate systems based on the camera, and the xy plane corresponds to the image sensor surface IA. o is the optical center, which is the intersection of the optical axis Z and the image sensor surface. The point p is a point on the image sensor surface in the camera coordinate system, and the object point P is a distortion correction coefficient (a first distortion correction coefficient described later) based on a parameter based on the physical characteristics of the lens (hereinafter referred to as “lens parameter”). (Corresponding to L1) and converted to the camera coordinate system.

図1において、VPは仮想投影面である。仮想投影面VPは光学系のレンズ位置(レンズ中心面LC)に対して撮像素子(及び撮像素子面IA)とは反対側に設定される。仮想投影面VPは、ユーザによる操作部130(図3のブロック図を参照)への指示に基づいて、位置の移動及びサイズの変更を行うことが可能である。なお、本願明細書において「位置変更」とは、仮想投影面VPをXY平面上で平行移動させる場合のみならず、XY平面に対する角度変更(姿勢変更ともいう)をも含む概念である。   In FIG. 1, VP is a virtual projection plane. The virtual projection plane VP is set on the opposite side of the imaging element (and imaging element surface IA) with respect to the lens position (lens center plane LC) of the optical system. The virtual projection plane VP can be moved and changed in size based on an instruction from the user to the operation unit 130 (see the block diagram of FIG. 3). In the specification of the present application, “position change” is a concept including not only the case where the virtual projection plane VP is translated on the XY plane, but also an angle change (also referred to as an attitude change) with respect to the XY plane.

初期状態(初期の位置設定のこと、以下同様)において仮想投影面VPは、所定サイズでレンズ中心面LCと平行(XY方向)の所定位置(Z方向)に配置され、仮想投影面VPの中心ovはZ軸上に位置している。Gvは物点Pが仮想投影面VP上に投影された点であり、物点Pとレンズ中心Oを通る直線と仮想投影面VPとの交点である。   In an initial state (initial position setting, the same applies hereinafter), the virtual projection plane VP is arranged at a predetermined position (Z direction) parallel to the lens center plane LC (XY direction) with a predetermined size, and the center of the virtual projection plane VP. ov is located on the Z axis. Gv is a point where the object point P is projected onto the virtual projection plane VP, and is an intersection of the object point P and a straight line passing through the lens center O and the virtual projection plane VP.

図2は、操作部130の入力に基づいて、仮想投影面VP0をXZ平面上で回転させて、仮想投影面VP1とした状態を示している。   FIG. 2 shows a state in which the virtual projection plane VP0 is rotated on the XZ plane based on the input from the operation unit 130 to obtain the virtual projection plane VP1.

〔B〕構成:
図3は、本実施形態で使用される撮像装置の概略構成を示すブロック図である。撮像装置は、撮像ユニット110、制御装置100、表示部120、操作部130を備え構成されている。
[B] Configuration:
FIG. 3 is a block diagram illustrating a schematic configuration of the imaging apparatus used in the present embodiment. The imaging device includes an imaging unit 110, a control device 100, a display unit 120, and an operation unit 130.

撮像ユニット110は、短焦点のレンズ、撮像素子等を備えて構成される。本実施形態においては、短焦点のレンズとしては例えば広角レンズ、魚眼レンズがある。   The imaging unit 110 includes a short focus lens, an imaging element, and the like. In the present embodiment, examples of the short focus lens include a wide angle lens and a fisheye lens.

制御装置100は、画像処理部101、設定部102、記憶部103を備えて構成される。   The control device 100 includes an image processing unit 101, a setting unit 102, and a storage unit 103.

設定部102では、操作部130への入力指示に基づいて仮想投影面VPの位置、サイズの設定を行う。   The setting unit 102 sets the position and size of the virtual projection plane VP based on an input instruction to the operation unit 130.

画像処理部101では、設定された仮想投影面VPの位置、サイズに基づいて仮想投影面上の各座標のカメラ座標系への変換テーブルを作成し、当該変換テーブルを用いて撮像ユニット110で撮影した画素データを処理して表示部120に表示させる画像データの作成を行う。すなわち、画像処理部101は、レンズデータに基づいてワールド座標の位置がカメラ座標のどの座標位置に対応するかを当てはめる座標変換を行う。この際に、歪み補正及び、仮想投影面VPの位置の計算にともなう回転、平行移動、拡大、縮小が併せて行われる。また画像処理部101は、表示用の画像信号の出力を行う画像信号出力部としても機能する。   The image processing unit 101 creates a conversion table of each coordinate on the virtual projection plane into the camera coordinate system based on the set position and size of the virtual projection plane VP, and shoots with the imaging unit 110 using the conversion table. The processed pixel data is processed to create image data to be displayed on the display unit 120. That is, the image processing unit 101 performs coordinate transformation that applies to which coordinate position of the camera coordinates the world coordinate position corresponds to based on the lens data. At this time, distortion correction and rotation, translation, enlargement, and reduction associated with calculation of the position of the virtual projection plane VP are performed together. The image processing unit 101 also functions as an image signal output unit that outputs an image signal for display.

記憶部103には、撮像ユニット110のレンズ(実レンズ)の物理的特性及び設定された仮想投影面からの入射光の入射角に基づくレンズの物理特性に係るパラメータにより算出された係数、すなわち光学系で生ずる歪みを補正するための係数である第1歪み補正係数L1と、当該歪みの補正を行わないための係数に相当する、設定された仮想投影面からレンズへ入射する入射光の入射角の正接関数を変数として算出される、前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高である、第2歪み補正係数L2とが記憶されている。   The storage unit 103 stores coefficients calculated based on parameters relating to physical characteristics of the lens based on the physical characteristics of the lens (real lens) of the imaging unit 110 and the incident angle of incident light from the set virtual projection plane, that is, optical. A first distortion correction coefficient L1 that is a coefficient for correcting distortion generated in the system, and an incident angle of incident light that enters the lens from the set virtual projection plane, which corresponds to a coefficient that does not correct the distortion. Is stored as a second distortion correction coefficient L2, which is an image height from the optical center at which the image sensor and the optical axis of the optical system intersect, which is calculated using the tangent function of

また記憶部103は、仮想投影面VPの位置、サイズ及び作成した変換テーブルの記憶も行う。なお歪み補正係数は、レンズのキャリブレーションデータの取得やレンズのfθ特性に基づく計算等により求めることができる。   The storage unit 103 also stores the position and size of the virtual projection plane VP and the created conversion table. The distortion correction coefficient can be obtained by obtaining lens calibration data, calculating based on the fθ characteristic of the lens, or the like.

なお、本実施形態でいう「歪み補正を行わない」とは、実質的に、撮像されたままの歪みが生じているものを言い、歪み補正が良好に行われているものから若干劣るものを指すものではない。   Note that “do not perform distortion correction” in the present embodiment means that the distortion as it is captured is substantially generated, and is slightly inferior from that in which distortion correction is performed satisfactorily. It does not point.

表示部120は、液晶ディスプレイ等の表示画面を備え、撮像ユニット110で撮影した画素データに基づいて画像処理部101で作成した画像データに基づく表示用画像を逐次、表示画面に表示させる。   The display unit 120 includes a display screen such as a liquid crystal display, and sequentially displays a display image based on the image data created by the image processing unit 101 based on the pixel data captured by the imaging unit 110 on the display screen.

操作部130は、キーボード、マウス、あるいは表示部の液晶ディスプレイに重畳して配置されたタッチパネル等を備え、ユーザの入力操作を受け付ける。   The operation unit 130 includes a keyboard, a mouse, or a touch panel arranged so as to be superimposed on the liquid crystal display of the display unit, and receives a user's input operation.

〔C〕制御:
以下、図4のフローチャートを参照して、本実施形態の制御を説明する。なお、本制御フローチャートにより、連続して入力する入力画像を処理して連続的に出力画像を表示部120に表示させることにより動画を表示するものである。
[C] Control:
Hereinafter, the control of this embodiment will be described with reference to the flowchart of FIG. According to this control flowchart, a moving image is displayed by processing input images that are continuously input and continuously displaying output images on the display unit 120.

〔C−1〕設定、入力:
まず、仮想投影面の設定、視点変換の設定、歪み補正条件の設定などが入力される(図4中のステップS101)。なお、これが請求項における第1ステップである。これら、各種の設定は、ユーザによる操作部130への入力指示に基づいて、設定部102により仮想投影面VPのワールド座標系における位置、サイズを設定することにより行われる。また、撮像ユニット110で使用するレンズの物理特性に係るパラメータなどは記憶部103から読み出される。
[C-1] Setting and input:
First, setting of a virtual projection plane, setting of viewpoint conversion, setting of distortion correction conditions, and the like are input (step S101 in FIG. 4). This is the first step in the claims. These various settings are performed by setting the position and size of the virtual projection plane VP in the world coordinate system by the setting unit 102 based on an input instruction to the operation unit 130 by the user. Also, parameters related to the physical characteristics of the lens used in the imaging unit 110 are read from the storage unit 103.

そして、撮像ユニット110から画像信号が入力され、例えばフレームレート60fpsで入力画像が制御装置100に取り込まれる(図4中のステップS102)。   Then, an image signal is input from the imaging unit 110, and the input image is taken into the control device 100 at a frame rate of 60 fps, for example (step S102 in FIG. 4).

〔C−2〕仮想投影面計算:
ここで、画像処理部101では、設定された条件に基づいて並進ベクトルや回転ベクトルの計算を行ってユーグリッド変換を行うことで、仮想投影面VPの位置の計算を行う(図4中のステップS103)。なお、この仮想投影面計算と後述する歪み補正係数の取得と歪み補正処理とが、請求項における第2ステップである。
[C-2] Virtual projection plane calculation:
Here, the image processing unit 101 calculates the position of the virtual projection plane VP by calculating the translation vector and the rotation vector based on the set condition and performing the Eugrid conversion (step in FIG. 4). S103). Note that this virtual projection plane calculation, distortion correction coefficient acquisition described later, and distortion correction processing are the second step in the claims.

〔C−3〕歪み補正係数の取得:
そして、画像処理部101は、レンズデータに基づいてワールド座標の位置がカメラ座標のどの座標位置に対応するかを当てはめる座標変換を行うための、第1歪み補正係数L1と第2歪み補正係数L2を取得する(図4中のステップS104)。
[C-3] Acquisition of distortion correction coefficient:
Then, the image processing unit 101 performs first coordinate correction coefficient L1 and second distortion correction coefficient L2 for performing coordinate conversion that applies to which coordinate position of the camera coordinate the world coordinate position corresponds to based on the lens data. Is acquired (step S104 in FIG. 4).

ここで画像処理部101が取得する歪み補正係数には、光学系で生ずる歪みを補正するための係数であるレンズの物理的特性に係るパラメータ及び設定された仮想投影面からの入射光の入射角に基づいて決定された第1歪み補正係数L1と、光学系への設定された仮想投影面から入射する入射光の入射角θ(図1参照)の正接関数を変数として算出される、前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高である第2歪み補正係数L2が含まれている。なお、第2歪み補正係数L2とは、歪み補正を行わないに相当する歪み補正係数であり詳細は後述する。   Here, the distortion correction coefficient acquired by the image processing unit 101 includes parameters relating to physical characteristics of the lens, which are coefficients for correcting distortion generated in the optical system, and the incident angle of incident light from the set virtual projection plane. The imaging is calculated using as a variable the first distortion correction coefficient L1 determined on the basis of the tangent function of the incident angle θ (see FIG. 1) of incident light incident from the virtual projection plane set to the optical system. A second distortion correction coefficient L2 that is an image height from the optical center where the element and the optical axis of the optical system intersect is included. The second distortion correction coefficient L2 is a distortion correction coefficient corresponding to not performing distortion correction, and will be described in detail later.

なおここでの第1歪み補正係数L1は、ユーザが必要に応じて、例えば1フレーム毎に随時書き換える事ができる構成としても良い。即ち、設定部102において第1ステップ時の仮想投影面の位置及び画面サイズを入力する事で第1歪み補正係数L1を取得する他に、第1歪み補正係数L1の値を直接変更するよう、パラメータ入力できる構成とし、これによりカメラ座標上の画素とワールド座標上の対応画素との関係を任意に変更するような構成としても良い。   Here, the first distortion correction coefficient L1 may be rewritten at any time, for example, every frame as required by the user. That is, in addition to acquiring the first distortion correction coefficient L1 by inputting the position and screen size of the virtual projection plane at the first step in the setting unit 102, the value of the first distortion correction coefficient L1 is directly changed. A configuration in which parameters can be input may be employed, whereby a relationship between pixels on camera coordinates and corresponding pixels on world coordinates may be arbitrarily changed.

このように書き換えた第1歪み補正係数L1と仮想投影面上の座標、画面サイズから入射角と光軸とが交わる光軸中心からの像高位置を変更する事も本発明の場合、可能である。   In the case of the present invention, it is also possible to change the image height position from the optical axis center where the incident angle and the optical axis intersect from the rewritten first distortion correction coefficient L1, the coordinates on the virtual projection plane, and the screen size. is there.

これによりカメラ座標上の対応する画素位置(領域)を予め固定しておく場合と比べて、様々な光学系に柔軟に対応できると共に、カメラ座標上の画素位置(領域)に依存しない様々な歪補正条件を採用する事ができる、という効果を奏する。   This makes it possible to respond flexibly to various optical systems as compared to the case where the corresponding pixel position (region) on the camera coordinates is fixed in advance, and various distortions that do not depend on the pixel position (region) on the camera coordinates. There is an effect that the correction condition can be adopted.

さらに、画像処理部101は、第1歪み補正係数L1と第2歪み補正係数L2との間を補間して滑らかに座標変換を実行するように、複数段階の第3歪み補正係数L3を取得する(図4中のステップS105)。   Further, the image processing unit 101 acquires a plurality of third distortion correction coefficients L3 so as to smoothly perform coordinate conversion by interpolating between the first distortion correction coefficient L1 and the second distortion correction coefficient L2. (Step S105 in FIG. 4).

〔C−3−1〕歪み補正係数の説明:
以下、歪み補正係数について説明する。
[C-3-1] Description of distortion correction coefficient:
Hereinafter, the distortion correction coefficient will be described.

〔C−3−1−1〕第1歪み補正係数L1と第2歪み補正係数L2の説明:
ここで、第1歪み補正係数L1と第2歪み補正係数L2とについて、図5以降を参照して説明する。
[C-3-1-1] Description of the first distortion correction coefficient L1 and the second distortion correction coefficient L2:
Here, the first distortion correction coefficient L1 and the second distortion correction coefficient L2 will be described with reference to FIG.

図5は、入射角θを横軸として、撮像素子面IA上の光軸Zと交わる光学中心oからの像高h(w2c値)を縦軸とした関係を示す特性図である。   FIG. 5 is a characteristic diagram showing a relationship in which the incident angle θ is the horizontal axis and the image height h (w2c value) from the optical center o intersecting the optical axis Z on the image sensor surface IA is the vertical axis.

この図5において、第1歪み補正係数L1(図5実線)、第2歪み補正係数L2(1点鎖線)、L1とL2の補間による第3歪み補正係数L3(2点鎖線)、のそれぞれについて、入射角θと像高hとの関係を表示している。   5, each of the first distortion correction coefficient L1 (solid line in FIG. 5), the second distortion correction coefficient L2 (one-dot chain line), and the third distortion correction coefficient L3 (two-dot chain line) by interpolation between L1 and L2. The relationship between the incident angle θ and the image height h is displayed.

また、図6は光学系によって決まる光学的範囲に仮想投影面VPを設定した状態を示している。そして、図7は、第1歪み補正係数L1、第2歪み補正係数L2におけるそれぞれの像高h(h1、h2で表示)の関係を示す特性図である。これら、図6、図7において、図1と共通する部位については共通する符号を付与させている。   FIG. 6 shows a state in which the virtual projection plane VP is set in the optical range determined by the optical system. FIG. 7 is a characteristic diagram showing the relationship between the image heights h (indicated by h1 and h2) in the first distortion correction coefficient L1 and the second distortion correction coefficient L2. In FIGS. 6 and 7, the same reference numerals are given to the portions common to FIG.

図5の特性図に示すように、第2歪み補正係数L2では、入射角θに対応した歪曲収差が生じ、入射角θが大きくなるほど像高h(w2c値)が大きくなり、歪曲収差の量も大きくなる。つまり、歪補正率=0%であり、当該係数を用いる事で光学系に応じた歪みがそのまま補正されていない画像データが得られる。   As shown in the characteristic diagram of FIG. 5, with the second distortion correction coefficient L2, distortion aberration corresponding to the incident angle θ occurs, and as the incident angle θ increases, the image height h (w2c value) increases and the amount of distortion aberration increases. Also grows. That is, the distortion correction rate = 0%, and by using the coefficient, image data in which distortion corresponding to the optical system is not corrected as it is can be obtained.

一方、図5の特性図において、第1歪み補正係数L1はレンズによる歪曲収差の影響を打ち消すように歪補正率=100%として設定した歪み補正係数であり、主に撮像ユニット110のレンズの物理的な特性及び設定された仮想投影面から光学系に入射する入射光の入射角により決定される係数である。   On the other hand, in the characteristic diagram of FIG. 5, the first distortion correction coefficient L1 is a distortion correction coefficient set as a distortion correction rate = 100% so as to cancel the influence of the distortion aberration caused by the lens. Is a coefficient determined by the incident characteristics of the incident light entering the optical system from the set virtual projection plane.

また、第1歪み補正係数L1と第2歪み補正係数L2の補間による第3歪み補正係数L3は、第1歪み補正係数L1と第2歪み補正係数L2との補間割合に応じて歪補正率が決定される。なお、第3歪み補正係数L3と補間割合については後述する。   Further, the third distortion correction coefficient L3 obtained by interpolation between the first distortion correction coefficient L1 and the second distortion correction coefficient L2 has a distortion correction rate according to the interpolation ratio between the first distortion correction coefficient L1 and the second distortion correction coefficient L2. It is determined. The third distortion correction coefficient L3 and the interpolation ratio will be described later.

ここで、第2歪み補正係数L2は、光学系への入射角θを変数として算出される、前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高に関する歪み補正係数であり、関係式としては例えば以下の式(1)を用いている。なお、式(1)を数倍にすれば出力画像の拡大縮小を容易に行う事ができるというメリットがある。
L2=((ExportImageSize/2)/(tan(focal/2)))×tanθ …式(1),
この式(1)においては、「ExportImageSize」とは、表示部で表示する出力画像の長辺(通常は水平方向、x)の長さであり、単位はpixelである。またこれは仮想投影面VPの長辺のサイズと一致している。
Here, the second distortion correction coefficient L2 is a distortion correction coefficient related to the image height from the optical center where the imaging element and the optical axis of the optical system intersect, which is calculated using the incident angle θ to the optical system as a variable. As the relational expression, for example, the following expression (1) is used. Note that there is an advantage that the output image can be easily scaled by multiplying the expression (1) several times.
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tanθ ... Formula (1),
In this equation (1), “ExportImageSize” is the length of the long side (usually the horizontal direction, x) of the output image displayed on the display unit, and the unit is pixel. This coincides with the size of the long side of the virtual projection plane VP.

また、この式(1)において、「focal」は設定された仮想投影面の長辺方向における画角を意味している。ここで、図6を参照して「focal」について説明する。図6においてωは、光学的範囲に対応する光学的画角であり、「focal」とは仮想投影面VPの長辺方向における画角のことである。なお、式(1)に替えて、正射影や等距離射影の関係式を用いても良い。また「focal」はユーザが任意に設定する光学的範囲の内、表示範囲に相当するものであり、必ずしも画角の長辺方向でなくても良い。   In the formula (1), “focal” means the angle of view in the long side direction of the set virtual projection plane. Here, “focal” will be described with reference to FIG. In FIG. 6, ω is an optical angle of view corresponding to the optical range, and “focal” is an angle of view in the long side direction of the virtual projection plane VP. Note that a relational expression of orthographic projection and equidistant projection may be used instead of the expression (1). Further, “focal” corresponds to a display range within an optical range arbitrarily set by the user, and does not necessarily have to be in the long side direction of the angle of view.

なお、魚眼レンズ等の超広角レンズでは入射角が90°を超える場合もある。この場合に、上述した式(1)では入射角が90°を超えるとtanθの符号が反転してしまうため、第2歪み補正係数L2の本来の値とは乖離してしまう。このため、本実施形態では、上述した式(1)にかかわらず、入射角が90°を超えた領域では、像高(w2c値)が無限大であるものとして計算を行う。   Note that the incident angle may exceed 90 ° in a super-wide-angle lens such as a fish-eye lens. In this case, in the above-described equation (1), when the incident angle exceeds 90 °, the sign of tanθ is inverted, so that it deviates from the original value of the second distortion correction coefficient L2. For this reason, in the present embodiment, the calculation is performed assuming that the image height (w2c value) is infinite in the region where the incident angle exceeds 90 ° regardless of the above-described equation (1).

また、本実施態様においては上記条件式(1)で説明しているが、条件式は必ずしもこれに限定されず、要は入射角θを変数とした像高、つまり光学中心からのカメラ座標上の距離を算出する条件式であれば良い。   In the present embodiment, the conditional expression (1) has been described, but the conditional expression is not necessarily limited to this. In short, the image height with the incident angle θ as a variable, that is, on the camera coordinates from the optical center. Any conditional expression that calculates the distance may be used.

図7は、第1歪み補正係数L1と第2歪み補正係数L2での像高hとの関係を示す模式図である。像高hは、図5に示すように入射角θと補正係数で決定される。第2歪み補正係数L2では被写体(物点P)の像高(光軸Zからの距離)と撮像素子面IA上における像高hとは比例する関係となる。また第1歪み補正係数L1の像高h1に比べて第2歪み補正係数L2における像高h2は、図7に示されるように長くなる。   FIG. 7 is a schematic diagram showing the relationship between the first distortion correction coefficient L1 and the image height h at the second distortion correction coefficient L2. The image height h is determined by the incident angle θ and the correction coefficient as shown in FIG. In the second distortion correction coefficient L2, the image height (distance from the optical axis Z) of the subject (object point P) is proportional to the image height h on the image sensor surface IA. Further, the image height h2 at the second distortion correction coefficient L2 is longer than the image height h1 of the first distortion correction coefficient L1, as shown in FIG.

ここで、上述した第1歪み補正係数L1と第2歪み補正係数L2の意味を明らかにするため、入力画像、上述した第1歪み補正係数L1により処理された画像、第2歪み補正係数L2により処理された画像、の例を図8に示す。   Here, in order to clarify the meaning of the first distortion correction coefficient L1 and the second distortion correction coefficient L2, the input image, the image processed with the first distortion correction coefficient L1, and the second distortion correction coefficient L2 are used. An example of the processed image is shown in FIG.

なお図8においては、仮想投影面VPが初期状態に設定されている場合の例を示している。図8(a)は矩形の壁面に設置された長方形のチャートを、広角レンズを備えた撮像ユニット110で得られた入力画像である。また、図8(b)は第1歪み補正係数L1を用いて後述する歪み補正処理を行った場合の出力画像、図8(c)は第2歪み補正係数L2を用いて後述する歪み補正処理を行った場合の出力画像、の一例である。   FIG. 8 shows an example in which the virtual projection plane VP is set to the initial state. FIG. 8A shows an input image obtained by an imaging unit 110 having a wide-angle lens on a rectangular chart installed on a rectangular wall surface. 8B shows an output image when a distortion correction process described later is performed using the first distortion correction coefficient L1, and FIG. 8C shows a distortion correction process described later using the second distortion correction coefficient L2. It is an example of the output image at the time of performing.

図8(b)に示す例では入力画像での歪曲した曲線は直線となるように補正されていることがわかる。一方で図8(c)に示すように第2歪み補正係数L2により歪み補正処理した場合には、出力画像は図8(a)に示す入力画像とほぼ同一である。つまり歪み補正を行わない場合と同等の出力画像が得られていることがわかる。   In the example shown in FIG. 8B, it can be seen that the distorted curve in the input image is corrected to be a straight line. On the other hand, when the distortion correction processing is performed with the second distortion correction coefficient L2 as shown in FIG. 8C, the output image is almost the same as the input image shown in FIG. That is, it can be seen that an output image equivalent to the case where distortion correction is not performed is obtained.

なお、第3歪み補正係数L3を用いて歪み補正処理を行うと、後述するように、図8(b)と図8(c)の中間の歪み補正状態の画像が得られる。   When the distortion correction process is performed using the third distortion correction coefficient L3, an image in a distortion correction state intermediate between FIGS. 8B and 8C is obtained as will be described later.

〔C−3−1−2〕歪み補正係数L3の説明:
ここで、第3歪み補正係数L3について説明する。歪み補正係数の算出にあたり、歪補正率(DistRatio)を変更することにより、第1歪み補正係数L1と第2歪み補正係数L2との補間によって算出する第3歪み補正係数L3を段階的に切り替え可能に算出している。
[C-3-1-2] Description of distortion correction coefficient L3:
Here, the third distortion correction coefficient L3 will be described. In calculating the distortion correction coefficient, the third distortion correction coefficient L3 calculated by interpolation between the first distortion correction coefficient L1 and the second distortion correction coefficient L2 can be switched stepwise by changing the distortion correction rate (DistRatio). Is calculated.

また、この実施形態では更に、仮想投影面VPの位置も第1位置V1と第2位置V2との補間によって算出する第3位置V3も視点変換率(VCRatio)の変更に合わせて段階的に切り替えている。視点変換の具体例については後述する。   Further, in this embodiment, the position of the virtual projection plane VP and the third position V3 calculated by interpolation between the first position V1 and the second position V2 are also switched stepwise in accordance with the change of the viewpoint conversion rate (VCRatio). ing. A specific example of the viewpoint conversion will be described later.

なお第3歪み補正係数L3、第3位置V3は、以下の式(2)、式(3)により算出している。   The third distortion correction coefficient L3 and the third position V3 are calculated by the following equations (2) and (3).

L3=DistRatio/100×L1+(1−DistRatio/100)×L2 …式(2),
但し、0≦DistRatio/100≦1である。
L3 = DistRatio / 100 × L1 + (1−DistRatio / 100) × L2 Equation (2),
However, 0 ≦ DistRatio / 100 ≦ 1.

V3=VCRatio/100×V1+(1−VCRatio/100)×V2 …式(3),
但し、0≦VCRatio/100≦1である。
V3 = VCRatio / 100 × V1 + (1−VCRatio / 100) × V2 Equation (3),
However, 0 ≦ VCRatio / 100 ≦ 1.

ここで、条件設定(図1中のステップS101)で設定された処理時間に対応して、歪補正率と視点変換率を算出する。例えば10secを1サイクルに設定している場合には、時間が基準の0.0secであれば歪補正率と視点変換率はともに0%、時間が5.0secであれば歪補正率と視点変換率はともに50%、時間が10.0secであれば歪補正率と視点変換率はともに100%、となる。   Here, the distortion correction rate and the viewpoint conversion rate are calculated in accordance with the processing time set in the condition setting (step S101 in FIG. 1). For example, when 10 sec is set to 1 cycle, if the time is 0.0 sec, the distortion correction rate and the viewpoint conversion rate are both 0%, and if the time is 5.0 sec, the distortion correction rate and the viewpoint conversion are set. If the rate is 50% and the time is 10.0 sec, the distortion correction rate and the viewpoint conversion rate are both 100%.

このようにして算出した歪補正率から、上述した式(2)に基づいて歪補正係数L3を算出する。なお、歪補正率が0%の場合には第2歪み補正係数L2そのもの、100%の場合には第1歪み補正係数L1そのものとなる。   The distortion correction coefficient L3 is calculated from the distortion correction factor calculated in this way based on the above-described equation (2). Note that when the distortion correction rate is 0%, the second distortion correction coefficient L2 itself, and when 100%, the first distortion correction coefficient L1 itself.

また、視点変換率から、仮想投影面VPの第3位置の算出を行う。なお第2歪み補正係数L2に対応する仮想投影面VPの初期状態の位置である第2位置と、第1歪み補正係数L1に対応する仮想投影面VPの最終位置である第1位置は、ステップS101で設定されたものである。すなわち、第3位置の算出は、仮想投影面VPの第1位置と第2位置の座標を、視点変換率を用いることで、式(3)により算出する。   Further, the third position of the virtual projection plane VP is calculated from the viewpoint conversion rate. The second position, which is the initial position of the virtual projection plane VP corresponding to the second distortion correction coefficient L2, and the first position, which is the final position of the virtual projection plane VP corresponding to the first distortion correction coefficient L1, are: This is set in S101. In other words, the calculation of the third position is performed by using the viewpoint conversion rate for the coordinates of the first position and the second position of the virtual projection plane VP, using Equation (3).

ここで、歪補正率あるいは、歪補正率と視点変換率を所定の周期で変更する例を図9に示す。   Here, FIG. 9 shows an example in which the distortion correction rate or the distortion correction rate and the viewpoint conversion rate are changed at a predetermined cycle.

図9(a)は、10secを1周期として歪補正率の変更により第3歪み補正係数L3を1秒ごとに10ポイントずつ段階的に変更する例である。なお、図9(a)の例では視点変換は行っていない。   FIG. 9A shows an example in which the third distortion correction coefficient L3 is changed stepwise by 10 points every second by changing the distortion correction rate with 10 seconds as one cycle. Note that viewpoint conversion is not performed in the example of FIG.

図9(b)は、10secを1周期として歪補正率の変更により第3歪み補正係数L3を1秒ごとに10ポイントずつ段階的に変更する例である。また視点変換率を変更することにより第3位置V3も段階的に変更している。図9(b)の例では視点変換率の変更にともない歪補正率も変更している。なお、図9(a)、図9(b)においては10sec周期、全11段階で変更した例を示しているがあくまでも例示であり、周期を任意に変更したり、これよりも細かく多段階に変更したりしてもよい。   FIG. 9B shows an example in which the third distortion correction coefficient L3 is changed stepwise by 10 points every second by changing the distortion correction rate with 10 seconds as one cycle. Further, the third position V3 is also changed stepwise by changing the viewpoint conversion rate. In the example of FIG. 9B, the distortion correction rate is also changed as the viewpoint conversion rate is changed. 9 (a) and 9 (b) show an example in which the period is changed in 10 seconds and 11 steps in all, but it is only an example, and the cycle can be changed arbitrarily, or in more detailed steps than this. It may be changed.

〔C−3−1−3〕仮想投影面VPの変更と視点変換:
ここで、視点変換について説明する。図10は、カメラ座標系の画像中心oを回転中心(若しくは移動中心)として仮想投影面VP0の位置を変更する例である。この図10に示すように画像中心oを回転中心としてx軸回りの回転が実pitch(tilt:チルトともいう)であり、y軸回りの回転が実yaw(pan:パンともいう)、Z軸回りの回転が実rollである。
[C-3-1-3] Change of virtual projection plane VP and viewpoint conversion:
Here, viewpoint conversion will be described. FIG. 10 is an example in which the position of the virtual projection plane VP0 is changed with the image center o in the camera coordinate system as the rotation center (or movement center). As shown in FIG. 10, the rotation about the x axis with the image center o as the rotation center is the actual pitch (also referred to as tilt), the rotation about the y axis is the actual yaw (also referred to as pan), and the Z axis. The rotation around is real roll.

図11は、入力された回転量の設定値に基づいて仮想投影面VP0の中心ovを回転中心として仮想投影面VPの位置を変更する例である。仮想投影面VP0上の直交する関係となる2軸の一方をYaw−axis、他方をP−axisとして設定する。両者は中心ovを通る軸であり、中心ovを回転中心としてYaw−axis回りの回転を仮想yaw回転、P−axis回りの回転を仮想pitch回転という。以下においては仮想カメラCa0を回転あるいは位置変更させたことに相当する視点変換が行われる。   FIG. 11 is an example in which the position of the virtual projection plane VP is changed with the center ov of the virtual projection plane VP0 as the center of rotation based on the input rotation amount setting value. One of the two axes that are orthogonal to each other on the virtual projection plane VP0 is set as Yaw-axis, and the other is set as P-axis. Both are axes passing through the center ov, and rotation around the Yaw-axis with the center ov as the rotation center is called virtual yaw rotation, and rotation around the P-axis is called virtual pitch rotation. In the following, viewpoint conversion corresponding to rotating or changing the position of the virtual camera Ca0 is performed.

図9(b)における、第2位置V2は初期状態の位置に設定している。このときの仮想投影面VPはXY平面と平行でありその中心ovは光軸Z上にある(図10、図11のVP0の位置に相当)。第1位置V1は、仮想pitch及び実pitchがともに45度で両者を合わせて90度に設定した例である。この場合、被写体を見下ろすように視点変換がなされる。なお位置変更の組み合わせはこれに限られず、平行移動、実picth、実yaw、実roll、仮想pitch、仮想yaw、の何れかあるいはこれらを組み合わせても良い。   In FIG. 9B, the second position V2 is set to the position in the initial state. The virtual projection plane VP at this time is parallel to the XY plane and the center ov is on the optical axis Z (corresponding to the position of VP0 in FIGS. 10 and 11). The first position V1 is an example in which the virtual pitch and the real pitch are both 45 degrees, and both are set to 90 degrees. In this case, the viewpoint is changed so as to look down at the subject. Note that the combination of position changes is not limited to this, and any one of parallel movement, real picth, real yaw, real roll, virtual pitch, virtual yaw, or a combination thereof may be used.

〔C−4〕歪み補正係数の不連続性の解析と対策:
以下、図5に示した歪み補正係数を用いることによって発生しうる画像不良について、図12以降を参照して説明する。なお、この図12でも、入射角が90°を超える超広角レンズに配慮し、上述した式(1)にかかわらず、入射角が90°を超えた領域では、本来の像高(w2c値)が無限大であるものとして計算を行う。
[C-4] Analysis and countermeasure of discontinuity of distortion correction coefficient:
Hereinafter, image defects that may occur by using the distortion correction coefficient shown in FIG. 5 will be described with reference to FIG. Also in FIG. 12, in consideration of a super-wide-angle lens having an incident angle exceeding 90 °, the original image height (w2c value) is obtained in the region where the incident angle exceeds 90 ° regardless of the above-described formula (1). The calculation is performed assuming that is infinite.

〔C−4−1〕第2歪み補正係数L2の飽和:
図5では理想的な歪み補正係数について説明していたが、第2歪み補正係数L2はtanθの関数であり、入射角θが90°に近づくにつれ像高としてのw2c値が急激に増大する。
[C-4-1] Saturation of the second distortion correction coefficient L2:
Although the ideal distortion correction coefficient has been described with reference to FIG. 5, the second distortion correction coefficient L2 is a function of tan θ, and the w2c value as the image height increases rapidly as the incident angle θ approaches 90 °.

つまり、第2歪み補正係数L2は入射角が90度を超えなくても無限大にはならないまでも非常に大きな値となる。そのため画像処理部101の演算処理能力によって制限を受けることがある。たとえば、画像処理部101においてw2c値一つあたりに確保されているデータサイズが9ビットの処理能力である場合には、処理可能最大値は511であり、511を超える値については511として処理される。このため、第2歪み補正係数L2による像高h(w2c値)は、図120の(a)のように飽和した特性になる。つまり、第2歪み補正係数L2はtanθの関数であるため、入射角θが90°以上又は90°に近づいてw2c値が急激に増大すると、処理能力の影響で飽和して第2歪み補正係数L2は不連続な曲線となる。   That is, the second distortion correction coefficient L2 is a very large value even if the incident angle does not exceed 90 degrees and does not become infinite. For this reason, the image processing unit 101 may be limited by the arithmetic processing capability. For example, when the data size secured per w2c value in the image processing unit 101 is 9-bit processing capacity, the maximum processable value is 511, and values exceeding 511 are processed as 511. The For this reason, the image height h (w2c value) based on the second distortion correction coefficient L2 is saturated as shown in FIG. That is, since the second distortion correction coefficient L2 is a function of tan θ, when the incident angle θ is 90 ° or more or approaches 90 ° and the w2c value rapidly increases, the second distortion correction coefficient L2 is saturated due to the influence of the processing capability. L2 is a discontinuous curve.

〔C−4−2〕第3歪み補正係数L3への影響:
上記の飽和特性は、第1歪み補正係数L1と第2歪み補正係数L2との補間により生成される第3歪み補正係数L3についても同様に影響を受けることになる。すなわち、図12に示すように、第2歪み補正係数L2の飽和の影響を受ける事で補間値である(b)の領域で第3歪み補正係数L3による像高hも同様に飽和して不連続となり変形する。
[C-4-2] Effect on third distortion correction coefficient L3:
The saturation characteristic is similarly affected by the third distortion correction coefficient L3 generated by interpolation between the first distortion correction coefficient L1 and the second distortion correction coefficient L2. That is, as shown in FIG. 12, the image height h based on the third distortion correction coefficient L3 is similarly saturated in the region (b) that is the interpolation value due to the influence of the saturation of the second distortion correction coefficient L2, and becomes unsatisfactory. It becomes continuous and deforms.

〔C−4−3〕画像への影響:
第2歪み補正係数L2が飽和して第3歪み補正係数L3が不連続になると、このような歪み補正係数を用いて歪み補正処理した場合には、歪み補正係数の飽和や不連続に対応して、不正計算結果が生じることで、対応する入射角の範囲内で図13(a)に示すような画像不良が発生する。この画像不良は、色のにじみ等により、本来は存在しない画像となって現れてくる。この画像不良のため、従来は被写体の正確な認識が困難になる場合があった。以下、画像不良について説明する。
[C-4-3] Effect on image:
When the second distortion correction coefficient L2 is saturated and the third distortion correction coefficient L3 becomes discontinuous, when distortion correction processing is performed using such a distortion correction coefficient, the distortion correction coefficient is saturated or discontinuous. As a result of the incorrect calculation, an image defect as shown in FIG. 13A occurs within the range of the corresponding incident angle. This image defect appears as an originally nonexistent image due to color bleeding or the like. Due to this image defect, it has been difficult to accurately recognize the subject. Hereinafter, image defects will be described.

〔C−4−3−1〕画像不良(1):
たとえば、図13の一点鎖線(a)で囲んだ範囲に示すように、歪み補正係数の飽和や不連続に対応する入射角の範囲内で、帯状の色のにじみ等により、本来は存在しない画像(偽画像)となって現れてくる。この画像不良のため、従来は被写体の正確な認識が困難になる場合があった。
[C-4-3-1] Image defect (1):
For example, as shown in the range surrounded by the one-dot chain line (a) in FIG. 13, an image that does not originally exist due to band-like color bleeding or the like within the range of the incident angle corresponding to saturation or discontinuity of the distortion correction coefficient. Appears as a (fake image). Due to this image defect, it has been difficult to accurately recognize the subject.

この偽画像による画像不良は、計算の途中において飽和したw2c値がオーバーフローして0として扱われ、その結果としてw2c=0に相当する光軸中心座標(像高=0)付近の画素が飽和した入射角の位置に出現する現象である。   The image defect due to the false image is treated as 0 because the w2c value saturated in the middle of the calculation overflows, and as a result, the pixel near the optical axis center coordinate (image height = 0) corresponding to w2c = 0 is saturated. It is a phenomenon that appears at the position of the incident angle.

なお、図13では、歪み補正処理と共に視点変換を行った状態を示すが、視点変換を行わずに歪み補正処理のみを行った場合でも、第2歪み補正係数L2の飽和や第3歪み補正係数L3の不連続の影響により、対応する入射角のいずれかの領域において同様な画像不良が発生する。   Although FIG. 13 shows a state in which the viewpoint conversion is performed together with the distortion correction process, even when only the distortion correction process is performed without performing the viewpoint conversion, the saturation of the second distortion correction coefficient L2 and the third distortion correction coefficient are performed. Due to the discontinuity of L3, a similar image defect occurs in any region of the corresponding incident angle.

また、この画像不良は入射角が一定以上の領域で発生するものであるため、図13(a)のような直線帯状ではなく、画像の歪みに合わせた曲線形状で出現することもあり得る。   Further, since this image defect occurs in a region where the incident angle is a certain level or more, it may appear in a curved shape that matches the distortion of the image, instead of the straight belt shape as shown in FIG.

〔C−4−3−2〕画像不良(2):
また、図12の領域(b)において、第3歪み補正係数L3の傾きが本来の状態より小さくなっていることに起因して、本来より小さい値が指定された状態になり、中心から外側に広がるように「にじみ」として観察されうる画像不良も存在している。なお、この場合は、「にじみ」薄く広がっているため、図13では特定の箇所を示していない。
[C-4-3-3] Image defect (2):
In addition, in the region (b) of FIG. 12, due to the fact that the slope of the third distortion correction coefficient L3 is smaller than the original state, a value smaller than the original value is designated, and from the center to the outer side. There is also an image defect that can be observed as “smear” so as to spread. In this case, since “smear” spreads thinly, a specific portion is not shown in FIG.

〔C−4−3−3〕画像不良(3):
また、歪み補正処理や視点変換処理などの画像処理により、元々は存在しない画素が、図13(b)の破線で囲んだ領域のように黒色の領域として出現する。同様にして、撮像ユニット110のレンズの画角外の領域が、図13(c)の破線で囲んだ領域のように灰色の領域として表示される。
[C-4-3-3] Image defect (3):
Further, pixels that originally do not exist appear as a black region like a region surrounded by a broken line in FIG. 13B by image processing such as distortion correction processing and viewpoint conversion processing. Similarly, the area outside the angle of view of the lens of the image pickup unit 110 is displayed as a gray area, such as an area surrounded by a broken line in FIG.

これら黒色領域や灰色領域は、歪み補正率や視点変換の度合いに応じて形や大きさが変化することになり、被写体の認識にとって邪魔な存在になる。また、この黒色領域や灰色領域は、上述した帯状の画像不良や滲みによる画像不良と同様に、入射角が一定以上の領域で発生するものであり、画像不良として扱うことが可能である。   These black areas and gray areas change in shape and size in accordance with the distortion correction rate and the degree of viewpoint conversion, and become an obstacle to the recognition of the subject. In addition, the black region and the gray region are generated in a region having an incident angle of a certain level or more as in the case of the above-described band-shaped image defect or image defect due to bleeding, and can be handled as an image defect.

〔C−4−4〕ブラックアウトポイント:
本実施形態においては、図12に示されるようにこのように第2歪み補正係数L2が取得される事で画像不良が発生する可能性が高い飽和領域の画素データが存在する場合に、後述する画像不良対策をすることで、画像不良が可視化しないようにする。なお、画像不良対策の内容については後述する。そして、このような後述する画像不良対策の対象である画素データか否かを判断するための閾値としてブラックアウトポイントを設定している。
[C-4-4] Blackout point:
In this embodiment, as shown in FIG. 12, when there is pixel data in a saturated region where there is a high possibility that an image defect will occur due to the acquisition of the second distortion correction coefficient L2 as described above, this will be described later. By taking countermeasures against image defects, image defects are prevented from being visualized. The content of the image defect countermeasure will be described later. Then, a blackout point is set as a threshold for determining whether or not the pixel data is a target for image defect countermeasures described later.

なおブラックアウトポイントbopとは、第2歪補正係数において前述した画像処理の制限の関係でw2c値が所定値以上に飽和する点をいい、このbopに対応する最小の入射角をθbopとしている。そして、画像不良対策は、このようなθbopよりも大きな入射角に対応する画素が存在する場合に適用する。また第1歪み補正係数と第2歪み補正係数との補間によって得られる第3歪み補正係数を用いて段階的に歪み補正の度合いを変更するような場合には、bopを通る所定の境界線を設定して、このbopを通る所定の境界線に基づいて判別される第3歪み補正係数の所定の入射角を第2のブラックアウトポイントとし、当該入射角よりも大きい入射角に対応する画素が存在する場合に同様に画像不良対策を行う。なおbopを通る所定の境界線も、飽和する領域に設定されて、飽和するw2c値を画像不良対策するかしないかの閾値である。例えば本実施形態においては図14、図15の第2歪み補正係数L2における(c)点がbopであり、境界線は図14では入射角θの軸に直交する直線が設定されている。同様に図15でも(c)点がbopであり、このbopを通り所定の傾きをもって設定された直線が境界線である。   The blackout point bop is a point at which the w2c value is saturated to a predetermined value or more in the second distortion correction coefficient because of the above-described image processing restriction, and the minimum incident angle corresponding to this bop is θbop. The image defect countermeasure is applied when there is a pixel corresponding to an incident angle larger than θbop. In the case where the degree of distortion correction is changed step by step using the third distortion correction coefficient obtained by interpolation between the first distortion correction coefficient and the second distortion correction coefficient, a predetermined boundary line passing through bop is defined. A pixel corresponding to an incident angle larger than the incident angle is set, with the predetermined incident angle of the third distortion correction coefficient determined based on the predetermined boundary line passing through the bop as the second blackout point. In the case where it exists, image defect countermeasures are taken similarly. Note that a predetermined boundary line passing through bop is also set as a saturated region, and is a threshold value for determining whether or not to take a countermeasure against an image defect with a saturated w2c value. For example, in the present embodiment, the point (c) in the second distortion correction coefficient L2 in FIGS. 14 and 15 is bop, and the boundary line is set to a straight line orthogonal to the axis of the incident angle θ in FIG. Similarly, in FIG. 15, the point (c) is bop, and a straight line that passes through this bop and is set with a predetermined inclination is a boundary line.

ここで、画像処理部101は、図14(a)のように第2歪み補正係数L2が飽和した場合に、ブラックアウトポイントbopを通る境界線として、θbopにおける第2歪み補正係数L2(図14(c))におけるw2c値、第2のブラックアウトポイントとしてθbopにおける第3歪み補正係数L3(図14(d1)〜(d4))におけるw2c値、第3のブラックアウトポイントとしてθbopにおける第1歪み補正係数L1(図14(d5))におけるw2c値、を取得する(図4中のステップS106)。但し第1歪み補正係数L1では、第2歪み補正係数L2の飽和の影響を受けない。   Here, when the second distortion correction coefficient L2 is saturated as shown in FIG. 14A, the image processing unit 101 uses the second distortion correction coefficient L2 at θbop (FIG. 14) as a boundary line passing through the blackout point bop. The w2c value in (c)), the w2c value in the third distortion correction coefficient L3 (FIG. 14 (d1) to (d4)) at θbop as the second blackout point, and the first distortion at θbop as the third blackout point The w2c value in the correction coefficient L1 (FIG. 14 (d5)) is acquired (step S106 in FIG. 4). However, the first distortion correction coefficient L1 is not affected by the saturation of the second distortion correction coefficient L2.

なおこの図14のようなbopを通る境界線は、入射角が90度を超えないような、比較的レンズの画角が狭い光学系仕様の場合や、視点変換がない場合、L2とL1との間の変化の時間が短い場合やユーザが飽和によるエラー画素を生じさせない方を重視させる場合に有用である。   Note that the boundary line passing through the bop as shown in FIG. 14 is L2 and L1 when the optical system specification has a relatively narrow angle of view so that the incident angle does not exceed 90 degrees, or when there is no viewpoint conversion. This is useful when the time between changes is short or when the user places importance on not generating error pixels due to saturation.

また、ブラックアウトポイントbopを通る境界線の別態様としては、図15(a)のようにθbopと、撮像ユニット110のレンズの最大入射角θbop2とを求め、ブラックアウトポイントbop(図15の(c)点)とθbop2における第1歪み補正係数L1(図15の(f)点)とを結ぶ線をブラックアウトを通る境界線line_bop(図15中の破線)とする事が可能である。そして画像処理部101は、bopにおけるw2c値、第2のブラックアウトポイントとしてline_bopと交差する第3歪み補正係数L3(図15の(e1)〜(e4)点)におけるw2c値、第3のブラックアウトポイントとしてθbop2における第1歪み補正係数L1(図14の(f)点)におけるw2c値、を取得する(図4中のステップS106)。この場合、第3歪み補正係数L3が第1歪み補正係数L1に近づくにつれて、補間比率の関係で第2歪み補正係数L2の飽和の影響を受けなくなるため、画像不良対策する入射角を徐々に大きくしている。このような境界線は、入射角が90度を超える広入射角の光学系仕様の場合など、入射角が飽和領域の一部の値を用いる場合や、視点変換の角度が大きい場合、画像の急激な変化が好ましくない場合等に有用である。   As another form of the boundary line passing through the blackout point bop, θbop and the maximum incident angle θbop2 of the lens of the imaging unit 110 are obtained as shown in FIG. The line connecting the point c) and the first distortion correction coefficient L1 at θbop2 (point (f) in FIG. 15) can be a boundary line line_bop (broken line in FIG. 15) passing through the blackout. Then, the image processing unit 101 calculates the w2c value at the bop, the w2c value at the third distortion correction coefficient L3 (points (e1) to (e4) in FIG. 15) intersecting the line_bop as the second blackout point, the third black As an out point, the w2c value at the first distortion correction coefficient L1 (point (f) in FIG. 14) at θbop2 is acquired (step S106 in FIG. 4). In this case, as the third distortion correction coefficient L3 approaches the first distortion correction coefficient L1, it is not affected by the saturation of the second distortion correction coefficient L2 due to the relationship of the interpolation ratio. is doing. Such a boundary line is used when the incident angle uses a partial value in the saturation region, such as in the case of an optical system specification with a wide incident angle exceeding 90 degrees, or when the angle of viewpoint conversion is large. This is useful when sudden changes are not desirable.

そしてこのようにブラックアウトポイントを通る境界線を適宜設定する事で、前述した画像不良対策するかどうかの閾値が設定されるため、後段の歪補正処理において各歪み補正係数によりカメラ座標系の各画素データに対応づけられたワールド座標系の各画素データを用いるか、それとも画像不良対策するかを判別して、該当する場合については画像不良対策を適用する。   Then, by appropriately setting the boundary line passing through the blackout point in this way, the threshold value for determining whether or not to deal with the above-described image defect is set, so that each distortion correction coefficient in the camera coordinate system is used in the subsequent distortion correction processing. It is determined whether to use each pixel data of the world coordinate system associated with the pixel data or to take countermeasures against image defects, and to apply image defect countermeasures if applicable.

〔C−4−5〕画像不良対策:
〔C−4−5−1〕対策(1):
ここで、θbは図14のように入射角が90°に近い値であり、図13(a)の画像具体例で示したように、画像の隅で発生する。
[C-4-5] Image defect countermeasure:
[C-4-5-1] Countermeasure (1):
Here, θb is a value where the incident angle is close to 90 ° as shown in FIG. 14, and is generated at the corner of the image as shown in the image specific example of FIG.

このため、上述したL2を求める式(1)におけるtanθを、以下の式(1')のようにtan(αθ)と置き換えると共に、αに1未満の所定係数を割り当てる。
L2=((ExportImageSize/2)/(tan(focal/2)))×tan(αθ) …式(1')
例えば、上述した特定(1)での図15における場合には、ブラックアウトポイントとなるθbが76°付近であるため、実際の入射角である実入射角θ=90°が、計算のための補正後入射角αθ=76°となるように、αを0.85程度に設定する。なお、ここで示した数値は一例であり、各種の変更が可能である。
Therefore, tan θ in the equation (1) for obtaining L2 is replaced with tan (αθ) as in the following equation (1 ′), and a predetermined coefficient less than 1 is assigned to α.
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tan (αθ) Expression (1 ′)
For example, in the case of FIG. 15 with the above-mentioned specific (1), since the θb that is the blackout point is around 76 °, the actual incident angle θ = 90 ° that is the actual incident angle is Α is set to about 0.85 so that the corrected incident angle αθ = 76 °. In addition, the numerical value shown here is an example, and various changes are possible.

すなわち、実入射角の実用最大値をθcとすると、α=θb/θcとして、αを求めることが可能になる。   That is, if the practical maximum value of the actual incident angle is θc, α can be obtained by α = θb / θc.

これにより、実入射角θが90°程度までは不正計算結果による画像不良は発生しなくなる。また、90°を超える実入射角に対応する場合であっても、画像不良は対策前よりも広角側で発生することになるため、被写体の正確な認識に影響を与えにくくなる。   As a result, image defects due to incorrect calculation results do not occur until the actual incident angle θ is about 90 °. Even in the case of dealing with an actual incident angle exceeding 90 °, the image defect occurs on the wide angle side before the countermeasure, so that it is difficult to influence the accurate recognition of the subject.

〔C−4−5−2〕対策(2):
ここで、図15の場合には、第3歪み補正係数L3に対する第2歪み補正係数L2の影響に鑑みて、ブラックアウトポイントとなる入射角について、θb1〜θb2を86°〜100°としている。
[C-4-5-2] Countermeasure (2):
Here, in the case of FIG. 15, in view of the influence of the second distortion correction coefficient L2 on the third distortion correction coefficient L3, θb1 to θb2 are set to 86 ° to 100 ° with respect to the incident angle serving as the blackout point.

この場合も、上述したL2を求める式(1)におけるtanθを、式(1')のようにtan(αθ)と置き換えると共に、αに1未満の所定係数を割り当てる。   Also in this case, tan θ in equation (1) for obtaining L2 is replaced with tan (αθ) as in equation (1 ′), and a predetermined coefficient less than 1 is assigned to α.

例えば、上述した特定(1)での図15における場合には、ブラックアウトポイントとなるθb1が76°付近であるため、実際の入射角である実入射角θ=90°が、計算のための補正後入射角αθ=76°となるように、αを0.85程度に設定する。また、第1歪み補正係数L1のθb2については、第2歪み補正係数L2の飽和の影響を受けないため、α=1としてよい。なお、ここで示した数値は一例であり、各種の変更が可能である。   For example, in the case of FIG. 15 with the above-mentioned specific (1), θb1 that is the blackout point is around 76 °, so that the actual incident angle θ = 90 ° that is the actual incident angle is Α is set to about 0.85 so that the corrected incident angle αθ = 76 °. Also, θb2 of the first distortion correction coefficient L1 may be set to α = 1 because it is not affected by the saturation of the second distortion correction coefficient L2. In addition, the numerical value shown here is an example, and various changes are possible.

すなわち、実入射角の実用最大値をθcとすると、第1歪み補正係数L1と第2歪み補正係数L2とから補間される第3歪み補正係数L3のそれぞれのαについては、θb1に対応するαをα1、θb2に対応するαをα2、とした場合、
α=DistRatio/100×α2+(1−DistRatio/100)×α1 …式(4),
としてαを補間割合に応じて細かく求めることが可能になる。
That is, assuming that the practical maximum value of the actual incident angle is θc, for each α of the third distortion correction coefficient L3 interpolated from the first distortion correction coefficient L1 and the second distortion correction coefficient L2, α corresponding to θb1 Is α1, and α corresponding to θb2 is α2,
α = DistRatio / 100 × α2 + (1−DistRatio / 100) × α1 Equation (4),
Α can be obtained in detail according to the interpolation ratio.

これにより、第3歪み補正係数L3を徐々に変更した場合であっても、実入射角θが90°程度までは不正計算結果による画像不良は発生しなくなる。また、90°を超える実入射角に対応する場合であっても、画像不良は対策前よりも広角側で発生することになるため、被写体の正確な認識に影響を与えにくくなる。   Thereby, even when the third distortion correction coefficient L3 is gradually changed, image defects due to incorrect calculation results do not occur until the actual incident angle θ is about 90 °. Even in the case of dealing with an actual incident angle exceeding 90 °, the image defect occurs on the wide angle side before the countermeasure, so that it is difficult to influence the accurate recognition of the subject.

すなわち、画像処理部101は、上述したθbやθb1・θb2に基づいて、tanθをtan(αθ)とした場合の1未満の所定係数αを算出する(図4中のステップS107)。なお、図14のようにθbが1種類の場合には所定係数αも1種類であるが、図15のように歪み補正係数に応じてθb1〜θb2と変化する場合には、対応する所定係数αもθbの値に応じて複数種類になる。すなわち、画像処理部101は、第3歪み補正係数L3に含まれる第2歪み補正係数L2の割合に応じてtanθをtan(αθ)とした場合の1未満の所定係数αを決定する。   That is, the image processing unit 101 calculates a predetermined coefficient α less than 1 when tan θ is tan (αθ) based on the above-described θb and θb1 · θb2 (step S107 in FIG. 4). Note that when θb is one type as shown in FIG. 14, the predetermined coefficient α is also one type. However, when it changes from θb1 to θb2 according to the distortion correction coefficient as shown in FIG. α also has a plurality of types according to the value of θb. That is, the image processing unit 101 determines a predetermined coefficient α less than 1 when tan θ is tan (αθ) according to the ratio of the second distortion correction coefficient L2 included in the third distortion correction coefficient L3.

〔C−5〕歪み補正処理用LUT作成:
そして、画像処理部101は、以上のようにして求められた、第1歪み補正係数L1、第2歪み補正係数L2、第3歪み補正係数L3、所定係数αについて、各補正率と入射角θとに応じたw2c値から、仮想投影面VPの座標をワールド座標系からカメラ座標系に変換する際の歪み補正処理に用いるLUTを作成する(図4中のステップS108)。そして生成されたLUTは記憶部103に記憶される。
[C-5] Creation of distortion correction processing LUT:
Then, the image processing unit 101 determines each correction factor and incident angle θ for the first distortion correction coefficient L1, the second distortion correction coefficient L2, the third distortion correction coefficient L3, and the predetermined coefficient α obtained as described above. From the w2c value according to the above, an LUT used for distortion correction processing when converting the coordinates of the virtual projection plane VP from the world coordinate system to the camera coordinate system is created (step S108 in FIG. 4). The generated LUT is stored in the storage unit 103.

なお、歪補正率毎に異なるLUTを設けても良いし、1つのLUTに複数の歪補正率に対応したデータを格納してもよい。   A different LUT may be provided for each distortion correction rate, or data corresponding to a plurality of distortion correction rates may be stored in one LUT.

ここで、図16は、ワールド座標系を説明する模式図である。図16に示すようにワールド座標系における仮想投影面VPの4隅の点A(0,0,Za)、点B(0,479,Zb)、点C(639,479,Zc)、点D(639,0,Zd)で囲まれる平面を等間隔で640×480pixelの画素Gv(総画素数30.7万)に分割し、全ての画素Gvそれぞれのワールド座標系における座標を取得する。なお、この図16におけるX、Y座標の値は例示であり、理解を容易にするために、A点のX、Y座標をゼロとして表示している。   Here, FIG. 16 is a schematic diagram for explaining the world coordinate system. As shown in FIG. 16, point A (0, 0, Za), point B (0, 479, Zb), point C (639, 479, Zc), point D of the virtual projection plane VP in the world coordinate system. A plane surrounded by (639, 0, Zd) is divided into 640 × 480 pixel pixels Gv (total number of pixels: 307,000) at equal intervals, and coordinates of all the pixels Gv in the world coordinate system are obtained. Note that the values of the X and Y coordinates in FIG. 16 are examples, and the X and Y coordinates of the point A are displayed as zero for easy understanding.

画素Gvのワールド座標系での座標と、ステップS104〜S105で取得した歪み補正係数から、撮像素子面IAでの対応するカメラ座標系での座標Gi(x’,y’)を算出する。具体的には、当該歪み補正係数と各画素Gvの座標から得られる、光軸Zに対する入射角度θにより算出している(参考文献:国際公開第2010/032720号)。   From the coordinates of the pixel Gv in the world coordinate system and the distortion correction coefficient acquired in steps S104 to S105, the coordinates Gi (x ′, y ′) in the corresponding camera coordinate system on the image sensor surface IA are calculated. Specifically, it is calculated from the incident angle θ with respect to the optical axis Z obtained from the distortion correction coefficient and the coordinates of each pixel Gv (reference document: International Publication No. 2010/032720).

図17は、カメラ座標系xyと撮像素子面IAとの対応関係を示す説明図である。図17において点a〜dは、図16の点A〜Dを、第1歪み補正係数L1を用いて生成されたLUTによりカメラ座標系に変換したものである。   FIG. 17 is an explanatory diagram illustrating a correspondence relationship between the camera coordinate system xy and the imaging element surface IA. In FIG. 17, points a to d are obtained by converting the points A to D in FIG. 16 into the camera coordinate system by the LUT generated using the first distortion correction coefficient L1.

なお図16では点A〜Dで囲まれる仮想投影面VPは矩形の平面であるが、図17においてカメラ座標系に座標変換した後の点a〜dで囲まれる領域は(仮想投影面VPの位置に対応して)歪んだ形状となる。なお図17においては樽型形状に歪んだ例を示しているが、光学系の特性により糸巻型、陣笠型(中央では樽型で端部では直線あるいは糸巻型に変化する形状)の歪みとなる場合もある。   In FIG. 16, the virtual projection plane VP surrounded by the points A to D is a rectangular plane. In FIG. 17, the area surrounded by the points a to d after the coordinate conversion to the camera coordinate system is (the virtual projection plane VP The shape is distorted (corresponding to position). FIG. 17 shows an example in which the barrel shape is distorted. However, depending on the characteristics of the optical system, the pincushion type and the Jinkasa type (a shape that changes into a barrel shape at the center and a straight line or a pincushion shape at the end) are distorted. In some cases.

〔C−6〕歪み補正処理実行:
画像処理部101は、図9のように時間に応じて歪補正率を変えつつ、LUTを用いて歪み補正処理した画像を生成する(図4中のステップS109)。
[C-6] Distortion correction processing execution:
The image processing unit 101 generates an image subjected to distortion correction processing using the LUT while changing the distortion correction rate according to time as shown in FIG. 9 (step S109 in FIG. 4).

図18は、歪み補正処理を説明する模式図である。図18は画像データの一部を拡大表示したものであり、図示される格子はそれぞれ画素の区切りを示している。   FIG. 18 is a schematic diagram for explaining the distortion correction processing. FIG. 18 is an enlarged view of a part of the image data, and the illustrated grids indicate pixel divisions.

図18(a)の入力画像データは図17の一部を拡大表示したものであり、図16〜図17で説明したように、直線上の被写体は、撮像素子面IA上では収差の影響で曲線上(図18(a)太枠のGi1〜Gi3)に入力されることになる。出力画像データの生成は、LUTを用いて出力画像データの各画素データを、入力画像データの対応する画素データを用いることにより行う。   The input image data in FIG. 18A is an enlarged display of a part of FIG. 17, and as described in FIGS. 16 to 17, the subject on the straight line is affected by the aberration on the image sensor surface IA. It is input on the curve (FIG. 18A, thick frames Gi1 to Gi3). The output image data is generated by using each pixel data of the output image data using the LUT and corresponding pixel data of the input image data.

LUTは、各歪補正率に応じた歪み補正係数を考慮して生成されているので、最終的に歪補正率=100%の第1歪み補正係数L1に基づいて生成されたLUTのデータを用いた場合には、当該LUTの対応関係により画素Gv1のデータ(例えば輝度信号)は図18(a)の座標(100,200)のGi1のデータを参照することになる。Gv2、Gv3も同様にそれぞれGi2、Gi3のデータを参照する。   Since the LUT is generated in consideration of the distortion correction coefficient corresponding to each distortion correction factor, the LUT data generated based on the first distortion correction factor L1 of the distortion correction factor = 100% is finally used. In this case, the data of the pixel Gv1 (for example, luminance signal) refers to the data of Gi1 at the coordinates (100, 200) in FIG. Similarly, Gv2 and Gv3 refer to the data of Gi2 and Gi3, respectively.

また、画像処理部101では、各歪補正率において、上述した画像不良領域では、LUTに従い所定係数αに基づいた仮想投影面の変更などの処理を行う。   In addition, the image processing unit 101 performs processing such as changing the virtual projection plane based on the predetermined coefficient α in accordance with the LUT in the above-described image defect area at each distortion correction rate.

〔C−7〕画像出力:
画像処理部101は、図9のように時間に応じて歪補正率を変えつつLUTを用いて歪み補正処理して生成した画像を表示部120に出力し画像表示する(図4中のステップS110)。たとえば、歪み補正処理により生成された出力画像を表示部120に対して、例えばフレームレート30fps、あるいは60fpsで出力して全体の処理を終了する。なお、この画像出力が、第3ステップである。
[C-7] Image output:
The image processing unit 101 outputs an image generated by distortion correction processing using the LUT while changing the distortion correction rate according to time as shown in FIG. 9 to the display unit 120 and displays the image (step S110 in FIG. 4). ). For example, the output image generated by the distortion correction process is output to the display unit 120 at, for example, a frame rate of 30 fps or 60 fps, and the entire process ends. This image output is the third step.

このような結果、歪補正率に応じて歪みが補正され、歪補正率=100%では図18(b)に示すように、出力画像データを生成に伴い曲線状の歪みは解消されて、直線の被写体は元の直線として生成(表示)されることになる。   As a result, the distortion is corrected in accordance with the distortion correction rate. When the distortion correction rate is 100%, as shown in FIG. The subject is generated (displayed) as the original straight line.

また、図18には示されていないが、歪補正率=0%であれば図18(a)の歪みをそのままのこした形状の画像が出力され、歪補正率が0%より大きく100%より小さけば図18(a)と図18(b)の中間の歪みを残した形状の画像が出力される。   Although not shown in FIG. 18, if the distortion correction rate = 0%, an image having a shape with the distortion shown in FIG. 18A as it is is output, and the distortion correction rate is larger than 0% and 100%. If it is smaller, an image having a shape with an intermediate distortion between FIGS. 18A and 18B is output.

なお、この際に、ステップS101において仮想投影面VPの設定により視点変換の設定がなされているような場合には、画像処理部101でこのような処理も併せて行われることになる。   At this time, if the viewpoint conversion is set by setting the virtual projection plane VP in step S101, such processing is also performed by the image processing unit 101.

〔D〕歪み補正処理による表示例:
以下、本実施形態の歪み補正処理を適用した場合の表示例を説明する。
[D] Display example by distortion correction processing:
Hereinafter, a display example when the distortion correction processing of the present embodiment is applied will be described.

図19(a)〜図19(f)は、上述したように90°見下ろす始点変換を伴い、上述した各歪み補正係数により画像処理部101で歪み補正処理し、表示部120に表示させた表示画像の例である。   19 (a) to 19 (f) show the display displayed on the display unit 120 by performing distortion correction processing by the image processing unit 101 using the above-described respective distortion correction coefficients, with the start point conversion looking down at 90 ° as described above. It is an example of an image.

なお、ここでは、図19(a)が歪み補正率0%、図19(f)が歪み補正率100%であり、図19(b)〜図19(e)は第3歪み補正係数L3による歪み補正率=20%〜80%程度の途中段階である。   Here, FIG. 19A shows a distortion correction rate of 0%, FIG. 19F shows a distortion correction rate of 100%, and FIGS. 19B to 19E show the third distortion correction coefficient L3. Distortion correction rate is an intermediate stage of about 20% to 80%.

なお、これらの図において、第2歪み補正係数L2算出時のtanθをtan(αθ)として、αに1未満の所定係数を割り当てることで、不正計算結果を避けることができ、画像不良(図19(b)の帯状ノイズ)は表示領域外に生じることになる。なお、本図面では明確ではないが、本態様のように周辺部の画像不良を含まないように画像不良対策を行う事によって、周辺部に生じる「にじみ」についても効果的に解消される。また、灰色領域や黒色領域の表示も減少している。   In these drawings, tan θ at the time of calculating the second distortion correction coefficient L2 is tan (αθ), and a predetermined coefficient less than 1 is assigned to α, so that an incorrect calculation result can be avoided, and an image defect (FIG. 19). The band noise (b) is generated outside the display area. Although it is not clear in this drawing, “smudge” that occurs in the peripheral portion is effectively eliminated by taking measures against the image defect so as not to include the image defect in the peripheral portion as in this aspect. In addition, the display of gray areas and black areas has also decreased.

また、上述したように、ブラックアウトポイントとなる入射角のθbに基づいて、所定係数αを算出しているため、画像不良を含まないようにする最低限の処理中の演算の変更で済むため、出力される画像に対する変更は最低限になる。   Further, as described above, since the predetermined coefficient α is calculated based on the incident angle θb that becomes the blackout point, it is only necessary to change the minimum processing during processing so as not to include image defects. Changes to the output image are minimal.

以上の処理で、表示部120には、図19(a)を初期画像として、途中の歪み補正率に基づいて歪み補正をすると共に画像不良を含まないようにした途中段階の処理済み画像を表示しつつ、最終画像の図19(f)までを一定の速度で表示画像を順次更新しながら表示させている。図9(b)の具体例では、補正率及び位置移動率が低い画像から高い画像まで順に表示させ、これを10秒周期で繰り返すことになる。   With the above processing, the display unit 120 displays the processed image in the middle stage in which distortion correction is performed based on the middle distortion correction rate and no image defect is included, with FIG. 19A as the initial image. At the same time, the display up to the final image shown in FIG. 19F is displayed while sequentially updating the display image at a constant speed. In the specific example of FIG. 9B, images with a low correction rate and position movement rate are displayed in order from a low image to a high image, and this is repeated at a cycle of 10 seconds.

本実施形態によれば、位置が設定された前記仮想投影面を補正係数によりカメラ座標系に変換し、変換したカメラ座標系の座標及び前記画素の画素データに基づいて前記仮想投影面の画像データの算出を行うに際し、補正係数及び位置のデータを変更させながら画像データの算出を行うことにより、歪補正率変更とともに仮想投影面の位置変更(カメラ視点の変更)を並行して行う場合であっても、別なプロセスを設ける必要がない。新たなリソースの増強を必要とせずに位置変更と歪補正率変更を同時に行うことが可能となる。   According to this embodiment, the virtual projection plane whose position is set is converted into a camera coordinate system using a correction coefficient, and the image data of the virtual projection plane is converted based on the coordinates of the converted camera coordinate system and the pixel data of the pixel. This is a case where the position of the virtual projection plane (camera viewpoint change) is changed in parallel with the distortion correction rate change by calculating the image data while changing the correction coefficient and the position data. However, it is not necessary to provide a separate process. It is possible to change the position and change the distortion correction rate at the same time without requiring new resource enhancement.

また、本実施形態によれば、歪補正しない出力画像から歪補正を行う出力画像までを歪補正率を段階的に変更することにより歪補正しない出力画像の正確な認識を図ることが容易になり、この際に、歪み補正係数の飽和の影響で発生する画像不良を表示させないことで、被写体の正確な認識を図ることが可能になる。   In addition, according to the present embodiment, it is easy to accurately recognize an output image without distortion correction by changing the distortion correction rate stepwise from an output image without distortion correction to an output image with distortion correction. At this time, it is possible to accurately recognize the subject by not displaying the image defect caused by the saturation of the distortion correction coefficient.

すなわち、広角レンズへ非常に大きな角度で入射する事による画像処理上の制限で生ずる画像不良による被写体の誤認識を簡易的な方法で、しかも効果的に軽減することができる。   That is, erroneous recognition of a subject due to image defects caused by image processing limitations caused by entering a wide-angle lens at a very large angle can be effectively reduced.

〔E〕その他の実施形態:
以上の実施形態において歪み補正率を数段階程度の具体例で示していたが、これに限られるものではない。30fpsの表示レートで補正前から補正後まで10秒の表示を繰り返す場合には、歪み補正係数L3を300段階にすることで、各フレーム毎に歪み補正が徐々に変更される滑らかな表示が可能になる。また、この際に、各フレーム毎に画像不良を発生させないように、所定係数αの設定を行うことで、被写体の正確な認識を図ることが一層容易になる。
[E] Other embodiments:
In the above embodiment, the distortion correction rate has been shown as a specific example of several steps, but the present invention is not limited to this. When displaying 10 seconds from before correction to after correction at a display rate of 30 fps, the distortion correction coefficient L3 is set to 300 levels, thereby enabling smooth display in which distortion correction is gradually changed for each frame. become. At this time, it is easier to accurately recognize the subject by setting the predetermined coefficient α so as not to cause an image defect for each frame.

100 制御装置
101 画像処理部
102 設定部
103 記憶部
110 撮像ユニット
120 表示部
130 操作部
VP 仮想投影面
LC レンズ中心面
IA 撮像素子面
O レンズ中心
o 画像中心
L1 第1歪み補正係数
L2 第2歪み補正係数
L3 第3歪み補正係数
DESCRIPTION OF SYMBOLS 100 Control apparatus 101 Image processing part 102 Setting part 103 Storage part 110 Imaging unit 120 Display part 130 Operation part VP Virtual projection surface LC Lens center plane IA Image sensor surface O Lens center o Image center L1 1st distortion correction coefficient L2 2nd distortion Correction coefficient L3 Third distortion correction coefficient

Claims (15)

光学系を介して複数の画素を有する撮像素子に受光して得られた複数の画素データを用いて処理した画像データを得る画像処理方法であって、
ワールド座標系の仮想投影面の位置及びサイズを設定する第1ステップと、
前記第1ステップで設定された前記仮想投影面の各画素のワールド座標系における座標を歪み補正係数を用いてカメラ座標系に変換し、変換したカメラ座標系における座標及び前記複数の画素データに基づいて前記第1ステップで設定された仮想投影面の画像データを算出する第2ステップと、
前記第2ステップで算出された画像データによる表示用画像を出力する第3ステップと、を有し、
前記第2ステップで用いられる前記歪み補正係数には、少なくとも、前記光学系のレンズの物理的特性及び前記光学系への設定された前記仮想投影面からの入射光の入射角に基づいて算出され前記光学系により生ずる歪みを補正するための第1歪み補正係数と、前記光学系への入射角の正接関数を変数として算出される前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高であって前記歪みを補正しない第2歪み補正係数が含まれており、
前記第2ステップには、第2歪み補正係数が所定の値以上となる最小入射角がある場合、前記最小入射角より大きな入射角に対応する領域の画素を避けるように前記入射角に1未満の所定係数を乗じて前記第2歪み補正係数を算出するステップを含む、
ことを特徴とする画像処理方法。
An image processing method for obtaining image data processed using a plurality of pixel data obtained by receiving an image sensor having a plurality of pixels via an optical system,
A first step of setting a position and size of a virtual projection plane in the world coordinate system;
The coordinates in the world coordinate system of each pixel of the virtual projection plane set in the first step are converted into a camera coordinate system using a distortion correction coefficient, and based on the converted coordinates in the camera coordinate system and the plurality of pixel data A second step of calculating image data of the virtual projection plane set in the first step;
A third step of outputting a display image based on the image data calculated in the second step,
The distortion correction coefficient used in the second step is calculated based on at least the physical characteristics of the lens of the optical system and the incident angle of the incident light from the virtual projection plane set to the optical system. From the optical center at which the first distortion correction coefficient for correcting distortion caused by the optical system and the optical element of the optical system intersect with the image sensor calculated using the tangent function of the incident angle to the optical system as a variable And a second distortion correction coefficient that does not correct the distortion is included,
In the second step, when there is a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value, the incident angle is less than 1 so as to avoid pixels in a region corresponding to an incident angle larger than the minimum incident angle. Calculating the second distortion correction coefficient by multiplying by a predetermined coefficient of
An image processing method.
前記第3ステップは段階的に歪みが補正された画像データの表示用動画像を出力するものであって、
前記第2ステップにおいて前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出する、
ことを特徴とする請求項1記載の画像処理方法。
The third step is to output a moving image for display of image data in which distortion is corrected in stages,
In the second step, the first distortion correction coefficient, the second distortion correction coefficient, and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients are switched in stages and used for virtual projection. Calculate the image data of the surface,
The image processing method according to claim 1.
前記第3ステップは段階的に歪みが補正された画像データの表示用動画像を出力するものであって、
前記第2ステップにおいて前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出し、
前記第2ステップで、第2歪み補正係数が所定の値以上となる最小入射角がある場合に前記最小入射角より大きな入射角に対応する領域の画素を避けるように前記入射角に1未満の所定係数を乗じて前記第2歪み補正係数を算出する際に、前記第3歪み補正係数に含まれる前記第2歪み補正係数の補間割合に応じて前記1未満の係数を決定する、
ことを特徴とする請求項1又は2に記載の画像処理方法。
The third step is to output a moving image for display of image data in which distortion is corrected in stages,
In the second step, the first distortion correction coefficient, the second distortion correction coefficient, and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients are switched in stages and used for virtual projection. Calculate the image data of the surface,
In the second step, when there is a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value, the incident angle is less than 1 so as to avoid pixels in a region corresponding to an incident angle larger than the minimum incident angle. When calculating the second distortion correction coefficient by multiplying by a predetermined coefficient, a coefficient less than 1 is determined according to an interpolation ratio of the second distortion correction coefficient included in the third distortion correction coefficient;
The image processing method according to claim 1, wherein:
前記第1ステップでは、ワールド座標系の仮想投影面の第1位置と第2位置を設定し、
前記第2ステップでは、初期の前記第2位置と前記第2歪み補正係数、最終の前記第1位置と前記第1歪み補正係数、途中の前記第2位置と前記第1位置の補間によって得られた第3位置と前記第3歪み補正係数、と段階的に切り替えて用いて仮想投影面の画像データを算出する、
ことを特徴とする請求項1−3のいずれか一項に記載の画像処理方法。
In the first step, the first position and the second position of the virtual projection plane of the world coordinate system are set,
In the second step, the initial second position and the second distortion correction coefficient, the final first position and the first distortion correction coefficient, and interpolation between the second position and the first position in the middle are obtained. Calculating the image data of the virtual projection plane using the third position and the third distortion correction coefficient by switching in stages.
The image processing method according to any one of claims 1 to 3.
前記第2歪み補正係数は、以下の条件式(1)で表され、
前記第2歪み補正係数の飽和を考慮した場合には、以下の条件式(1')で表される、
ことを特徴とする請求項1−4のいずれか一項に記載の画像処理方法。
L2=((ExportImageSize/2)/(tan(focal/2)))×tanθ …式(1)
L2=((ExportImageSize/2)/(tan(focal/2)))×tan(αθ) …式(1')
ここで、
ExportImageSize:表示部で表示する出力画像の長辺の長さ,
focal:設定された仮想投影面の長辺方向における画角,
α:1未満の所定係数,
である。
The second distortion correction coefficient is expressed by the following conditional expression (1):
When considering the saturation of the second distortion correction coefficient, it is expressed by the following conditional expression (1 ′).
The image processing method according to claim 1, wherein the image processing method is an image processing method.
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tanθ Equation (1)
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tan (αθ) Expression (1 ′)
here,
ExportImageSize: the length of the long side of the output image to be displayed on the display,
focal: Angle of view in the long side direction of the set virtual projection plane,
α: a predetermined coefficient less than 1,
It is.
光学系を介して複数の画素を有する撮像素子に受光して得られた複数の画素データを用いて処理した画像データを得る画像処理装置であって、
歪み補正係数を記憶する記憶部と、
位置及びサイズが設定された仮想投影面の各画素のワールド座標系における座標を前記記憶部に記憶された歪み補正係数を用いてカメラ座標系に変換し、カメラ座標系に変換した座標及び前記複数の画素データに基づいて、前記仮想投影面の画像データを算出する画像処理部と、
前記画像処理部で算出した画像データの表示用の画像信号を出力する画像信号出力部と、を有し、
前記記憶部には、記憶される前記歪み補正係数として少なくとも、前記光学系のレンズの物理的特性及び前記光学系への設定された前記仮想投影面からの入射光の入射角に基づいて算出され前記光学系により生ずる歪みを補正するための第1歪み補正係数並びに前記光学系への入射角の正接関数を変数として算出される前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高であって前記歪みを補正しない第2歪み補正係数を有し、
前記画像処理部は、第2歪み補正係数が所定の値以上となる最小入射角がある場合、前記最小入射角より大きな入射角に対応する領域の画素を避けるように前記入射角に1未満の所定係数を乗じて前記正接関数を算出する、
ことを特徴とする画像処理装置。
An image processing apparatus that obtains image data processed using a plurality of pixel data obtained by receiving an image sensor having a plurality of pixels via an optical system,
A storage unit for storing distortion correction coefficients;
The coordinates in the world coordinate system of each pixel of the virtual projection plane whose position and size are set are converted into the camera coordinate system using the distortion correction coefficient stored in the storage unit, and the coordinates converted into the camera coordinate system and the plurality of the coordinates An image processing unit that calculates image data of the virtual projection plane based on the pixel data;
An image signal output unit that outputs an image signal for display of the image data calculated by the image processing unit,
In the storage unit, the stored distortion correction coefficient is calculated based on at least the physical characteristics of the lens of the optical system and the incident angle of the incident light from the virtual projection plane set on the optical system. A first distortion correction coefficient for correcting distortion caused by the optical system and a tangent function of an incident angle to the optical system are used as variables, and the optical element from the optical center where the optical axis of the optical system intersects. A second distortion correction coefficient which is an image height and does not correct the distortion;
When there is a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value, the image processing unit is less than 1 in the incident angle so as to avoid pixels in a region corresponding to an incident angle larger than the minimum incident angle. Multiplying a predetermined coefficient to calculate the tangent function,
An image processing apparatus.
前記画像信号出力部は段階的に歪みが補正された画像データの表示用動画像を出力するものであって、
前記画像処理部は、前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出する、
ことを特徴とする請求項6に記載の画像処理装置。
The image signal output unit outputs a moving image for display of image data in which distortion is corrected stepwise,
The image processing unit virtually switches the first distortion correction coefficient, the second distortion correction coefficient, and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients in a stepwise manner. Calculating image data of the projection plane,
The image processing apparatus according to claim 6.
前記画像信号出力部は段階的に歪みが補正された画像データの表示用動画像を出力するものであって、
前記画像処理部は、前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出し、
前記第2ステップで、第2歪み補正係数が所定の値以上となる最小入射角がある場合に前記最小入射角より大きな入射角に対応する領域の画素を避けるように前記入射角に1未満の所定係数を乗じて前記第2歪み補正係数を算出する際に、前記第3歪み補正係数に含まれる前記第2歪み補正係数の補間割合に応じて前記1未満の係数を決定する、
ことを特徴とする請求項6又は7に記載の画像処理装置。
The image signal output unit outputs a moving image for display of image data in which distortion is corrected stepwise,
The image processing unit virtually switches the first distortion correction coefficient, the second distortion correction coefficient, and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients in a stepwise manner. Calculate the image data of the projection plane,
In the second step, when there is a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value, the incident angle is less than 1 so as to avoid pixels in a region corresponding to an incident angle larger than the minimum incident angle. When calculating the second distortion correction coefficient by multiplying by a predetermined coefficient, a coefficient less than 1 is determined according to an interpolation ratio of the second distortion correction coefficient included in the third distortion correction coefficient;
The image processing apparatus according to claim 6, wherein the image processing apparatus is an image processing apparatus.
ワールド座標系の前記仮想投影面は第1位置と第2位置が設定されており、
前記画像処理部は、初期の前記第2位置と前記第2歪み補正係数、最終の前記第1位置と前記第1歪み補正係数、途中の前記第2位置と前記第1位置の補間によって得られた第3位置と前記第3歪み補正係数、と段階的に切り替えて用いて仮想投影面の画像データを算出する、
ことを特徴とする請求項6−8のいずれか一項に記載の画像処理装置。
The virtual projection plane of the world coordinate system has a first position and a second position,
The image processing unit is obtained by interpolation between the initial second position and the second distortion correction coefficient, the final first position and the first distortion correction coefficient, and the intermediate second position and first position. Calculating the image data of the virtual projection plane using the third position and the third distortion correction coefficient by switching in stages.
The image processing apparatus according to claim 6, wherein the image processing apparatus is an image processing apparatus.
前記第2歪み補正係数は、以下の条件式(1)で表され、
前記第2歪み補正係数の飽和を考慮した場合には、以下の条件式(1')で表される、
ことを特徴とする請求項6−9のいずれか一項に記載の画像処理装置。
L2=((ExportImageSize/2)/(tan(focal/2)))×tanθ …式(1)
L2=((ExportImageSize/2)/(tan(focal/2)))×tan(αθ) …式(1')
ここで、
ExportImageSize:表示部で表示する出力画像の長辺の長さ,
focal:設定された仮想投影面の長辺方向における画角,
α:1未満の所定係数,
である。
The second distortion correction coefficient is expressed by the following conditional expression (1):
When considering the saturation of the second distortion correction coefficient, it is expressed by the following conditional expression (1 ′).
The image processing apparatus according to claim 6, wherein the image processing apparatus is an image processing apparatus.
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tanθ Equation (1)
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tan (αθ) Expression (1 ′)
here,
ExportImageSize: the length of the long side of the output image to be displayed on the display,
focal: Angle of view in the long side direction of the set virtual projection plane,
α: a predetermined coefficient less than 1,
It is.
光学系と、
複数の画素を有する撮像素子と、
前記光学系の歪み補正係数を記憶する記憶部と、
仮想投影面の各画素のワールド座標系における座標を前記光学系の歪み補正係数を用いてカメラ座標系に変換し、カメラ座標系に変換した座標及び前記撮像素子に受光して得られた複数の画素データに基づいて、前記仮想投影面の画像データを算出する画像処理部と、
前記画像処理部で算出した画像データの表示用の画像信号を出力する画像信号出力部と、を有し、
前記記憶部には、記憶される前記歪み補正係数として少なくとも、前記光学系のレンズの物理的特性及び前記光学系への設定された前記仮想投影面からの入射光の入射角に基づいて算出され前記光学系により生ずる歪みを補正するための第1歪み補正係数並びに前記光学系への入射角の正接関数を変数として算出される前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高であって前記歪みを補正しない第2歪み補正係数を有し、
前記画像処理部は、第2歪み補正係数が所定の値以上となる最小入射角がある場合、前記最小入射角より大きな入射角に対応する領域の画素を避けるように前記入射角に1未満の所定係数を乗じて前記正接関数を算出する、
ことを特徴とする撮像装置。
Optical system,
An imaging device having a plurality of pixels;
A storage unit for storing distortion correction coefficients of the optical system;
A coordinate in the world coordinate system of each pixel of the virtual projection plane is converted into a camera coordinate system using the distortion correction coefficient of the optical system, and the coordinates converted into the camera coordinate system and a plurality of light received by the imaging element are received. An image processing unit that calculates image data of the virtual projection plane based on pixel data;
An image signal output unit that outputs an image signal for display of the image data calculated by the image processing unit,
In the storage unit, the stored distortion correction coefficient is calculated based on at least the physical characteristics of the lens of the optical system and the incident angle of the incident light from the virtual projection plane set on the optical system. A first distortion correction coefficient for correcting distortion caused by the optical system and a tangent function of an incident angle to the optical system are used as variables, and the optical element from the optical center where the optical axis of the optical system intersects. A second distortion correction coefficient which is an image height and does not correct the distortion;
When there is a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value, the image processing unit is less than 1 in the incident angle so as to avoid pixels in a region corresponding to an incident angle larger than the minimum incident angle. Multiplying a predetermined coefficient to calculate the tangent function,
An imaging apparatus characterized by that.
前記画像信号出力部は段階的に歪みが補正された画像データの表示用動画像を出力するものであって、
前記画像処理部は、前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出する、
ことを特徴とする請求項11に記載の撮像装置。
The image signal output unit outputs a moving image for display of image data in which distortion is corrected stepwise,
The image processing unit virtually switches the first distortion correction coefficient, the second distortion correction coefficient, and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients in a stepwise manner. Calculating image data of the projection plane,
The imaging apparatus according to claim 11.
前記画像信号出力部は段階的に歪みが補正された画像データの表示用動画像を出力するものであって、
前記画像処理部は、前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出し、
前記第2ステップで、第2歪み補正係数が所定の値以上となる最小入射角がある場合に前記最小入射角より大きな入射角に対応する領域の画素を避けるように前記入射角に1未満の所定係数を乗じて前記第2歪み補正係数を算出する際に、前記第3歪み補正係数に含まれる前記第2歪み補正係数の補間割合に応じて前記1未満の係数を決定する、
ことを特徴とする請求項11又は12に記載の撮像装置。
The image signal output unit outputs a moving image for display of image data in which distortion is corrected stepwise,
The image processing unit virtually switches the first distortion correction coefficient, the second distortion correction coefficient, and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients in a stepwise manner. Calculate the image data of the projection plane,
In the second step, when there is a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value, the incident angle is less than 1 so as to avoid pixels in a region corresponding to an incident angle larger than the minimum incident angle. When calculating the second distortion correction coefficient by multiplying by a predetermined coefficient, a coefficient less than 1 is determined according to an interpolation ratio of the second distortion correction coefficient included in the third distortion correction coefficient;
The imaging apparatus according to claim 11 or 12, characterized in that:
ワールド座標系の前記仮想投影面は第1位置と第2位置が設定されており、
前記画像処理部は、初期の前記第2位置と前記第2歪み補正係数、最終の前記第1位置と前記第1歪み補正係数、途中の前記第2位置と前記第1位置の補間によって得られた第3位置と前記第3歪み補正係数、と段階的に切り替えて用いて仮想投影面の画像データを算出する、
ことを特徴とする請求項11−13のいずれか一項に記載の撮像装置。
The virtual projection plane of the world coordinate system has a first position and a second position,
The image processing unit is obtained by interpolation between the initial second position and the second distortion correction coefficient, the final first position and the first distortion correction coefficient, and the intermediate second position and first position. Calculating the image data of the virtual projection plane using the third position and the third distortion correction coefficient by switching in stages.
The image pickup apparatus according to claim 11, wherein the image pickup apparatus is an image pickup apparatus.
前記第2歪み補正係数は、以下の条件式(1)で表され、
前記第2歪み補正係数の飽和を考慮した場合には、以下の条件式(1')で表される、
ことを特徴とする請求項11−14のいずれか一項に記載の撮像装置。
L2=((ExportImageSize/2)/(tan(focal/2)))×tanθ …式(1)
L2=((ExportImageSize/2)/(tan(focal/2)))×tan(αθ) …式(1')
ここで、
ExportImageSize:表示部で表示する出力画像の長辺の長さ,
focal:設定された仮想投影面の長辺方向における画角,
α:1未満の所定係数,
である。
The second distortion correction coefficient is expressed by the following conditional expression (1):
When considering the saturation of the second distortion correction coefficient, it is expressed by the following conditional expression (1 ′).
The imaging device according to any one of claims 11 to 14, wherein
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tanθ Equation (1)
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tan (αθ) Expression (1 ′)
here,
ExportImageSize: the length of the long side of the output image to be displayed on the display,
focal: Angle of view in the long side direction of the set virtual projection plane,
α: a predetermined coefficient less than 1,
It is.
JP2011137617A 2011-06-21 2011-06-21 Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus Withdrawn JP2013005392A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011137617A JP2013005392A (en) 2011-06-21 2011-06-21 Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011137617A JP2013005392A (en) 2011-06-21 2011-06-21 Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013005392A true JP2013005392A (en) 2013-01-07

Family

ID=47673434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011137617A Withdrawn JP2013005392A (en) 2011-06-21 2011-06-21 Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013005392A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017101854A1 (en) * 2015-12-16 2017-06-22 宁波舜宇光电信息有限公司 Method for compensating imaging quality of optical system by adjusting lens
CN111861932A (en) * 2020-07-28 2020-10-30 RealMe重庆移动通信有限公司 Image distortion correction method and device and mobile terminal

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017101854A1 (en) * 2015-12-16 2017-06-22 宁波舜宇光电信息有限公司 Method for compensating imaging quality of optical system by adjusting lens
US10778897B2 (en) 2015-12-16 2020-09-15 Ningbo Sunny Opotech Co., Ltd. Method for compensating for image quality of optical system by means of lens adjustment
CN111861932A (en) * 2020-07-28 2020-10-30 RealMe重庆移动通信有限公司 Image distortion correction method and device and mobile terminal
CN111861932B (en) * 2020-07-28 2022-05-17 RealMe重庆移动通信有限公司 Image distortion correction method and device and mobile terminal

Similar Documents

Publication Publication Date Title
US9313411B2 (en) Camera, distortion correction device and distortion correction method
TWI524306B (en) Image transformation and multi-view output systems and methods
JP2010087672A (en) Image processing method, image processing apparatus, and imaging device
US8134608B2 (en) Imaging apparatus
US20040041936A1 (en) Electronic amera and control program of same
KR20070004202A (en) Method for correcting lens distortion in digital camera
WO2012060269A1 (en) Image processing method, image processing device, and imaging device
JP6526273B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP6047008B2 (en) Image processing apparatus, imaging apparatus including the same, and control method of image processing apparatus
JP6560563B2 (en) Image processing apparatus, image processing method, and computer program
TWI517094B (en) Image calibration method and image calibration circuit
JP2013005393A (en) Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus
JP5682473B2 (en) Image processing method having wide-angle distortion correction processing, image processing apparatus, and imaging apparatus
TWI443604B (en) Image correction method and image correction apparatus
JP6529360B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
WO2012056982A1 (en) Image processing method, image processing device, and imaging device
JP2013005392A (en) Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus
WO2011161746A1 (en) Image processing method, program, image processing device and image capturing device
JP2010086139A (en) Image processing method, image processing apparatus, and image pickup apparatus
JP5393877B2 (en) Imaging device and integrated circuit
WO2011158344A1 (en) Image processing method, program, image processing device, and imaging device
WO2012060271A1 (en) Image processing method, image processing device, and imaging device
JP5047915B2 (en) In-vehicle image processing apparatus and image processing method thereof
JP5344647B2 (en) Image processing method, image processing apparatus, and image processing program
JP6440465B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130415

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902