JP2013005394A - Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus - Google Patents

Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus Download PDF

Info

Publication number
JP2013005394A
JP2013005394A JP2011137619A JP2011137619A JP2013005394A JP 2013005394 A JP2013005394 A JP 2013005394A JP 2011137619 A JP2011137619 A JP 2011137619A JP 2011137619 A JP2011137619 A JP 2011137619A JP 2013005394 A JP2013005394 A JP 2013005394A
Authority
JP
Japan
Prior art keywords
distortion correction
correction coefficient
image
incident angle
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011137619A
Other languages
Japanese (ja)
Other versions
JP5682473B2 (en
Inventor
Hisaki Tsuboi
央樹 坪井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Advanced Layers Inc
Original Assignee
Konica Minolta Advanced Layers Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Advanced Layers Inc filed Critical Konica Minolta Advanced Layers Inc
Priority to JP2011137619A priority Critical patent/JP5682473B2/en
Publication of JP2013005394A publication Critical patent/JP2013005394A/en
Application granted granted Critical
Publication of JP5682473B2 publication Critical patent/JP5682473B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To accurately recognize a subject on distortion correction processing, using a relatively small scale circuit.SOLUTION: A distortion correction coefficient at least includes a first distortion correction coefficient calculated based on a physical characteristic of a lens in an optical system 110 and an incident angle of incident light from a virtual projection plane VP set to the optical system, and a second distortion correction coefficient which is an image height from an optical center at which an imaging device intersects with the optical axis of the optical system, calculated from a tangent function of the incident angle to the optical system as a variable. An image data, calculated in an incident angle range that saturates due to the value of the distortion correction coefficient exceeding a predetermined upper limit value, is converted into a preset predetermined value.

Description

本願発明は、集光レンズを含む広角な光学系を介して撮像素子により撮像された画像の歪み補正処理を行う、画像処理方法、画像処理装置及び撮像装置に関するものである。   The present invention relates to an image processing method, an image processing apparatus, and an imaging apparatus that perform distortion correction processing on an image captured by an imaging element via a wide-angle optical system including a condenser lens.

一般に、広角レンズあるいは魚眼レンズのような焦点距離の短いレンズや画角の大きなレンズを備えた光学系により撮影した画像は歪曲を伴うので、歪曲を補正する画像処理を行う。   In general, an image captured by an optical system having a short focal length lens or a large angle of view lens such as a wide-angle lens or a fish-eye lens is distorted, and image processing for correcting the distortion is performed.

このような画像処理について、以下のような特許文献に関連した技術が提案されている。   For such image processing, techniques related to the following patent documents have been proposed.

特許文献1には従来技術の補正方法として、焦点距離の短いレンズを使用して撮像された撮像画像に生じる歪曲を、レンズの補正用のパラメータを用いて補正する方法が開示されている。   Patent Document 1 discloses a correction method of the prior art that corrects distortion generated in a captured image captured using a lens with a short focal length using a lens correction parameter.

特許文献2では、光学ズーム機構のワイド端からテレ端までレンズ位置毎の光学歪み補正パラメータの算出を補間演算により行うことは、外部情報処理機器を必要とし、撮像装置単体では処理能力的に難しいという問題に対して、光学ズームを行う範囲内で離散的なレンズ位置に対する光学歪み補正パラメータを備え、そしてズームを行う際のレンズ位置を光学歪み補正パラメータを備えるレンズ位置に制限し、制限された位置間の光学ズームを電子ズームで繋いでいる。   In Patent Document 2, it is necessary to use an external information processing device to calculate the optical distortion correction parameter for each lens position from the wide end to the tele end of the optical zoom mechanism by using an interpolation operation. With the optical distortion correction parameter for the discrete lens position within the range to perform the optical zoom, the lens position at the time of zooming is limited to the lens position having the optical distortion correction parameter. The optical zoom between the positions is connected by electronic zoom.

特許文献3では、広角側の画角の場合には歪み補正を行い、広角側でない画角の場合には歪み補正を行わない等、画角切り換え手段により切り換えた画角の違いによって歪み補正量を変更する映像処理装置が開示されている。   In Patent Document 3, distortion correction is performed depending on the difference in the angle of view switched by the angle-of-view switching means, such as performing distortion correction in the case of the angle of view on the wide angle side, and not performing distortion correction in the case of the angle of view other than the wide angle side. A video processing apparatus for changing the above is disclosed.

特開2009−140066号公報JP 2009-140066 A 特開2009−105546号公報JP 2009-105546 A 特開2009−61969号公報JP 2009-61969 A

特許文献1に開示されたように、レンズで得た撮像画像を画像処理装置としてハード化した場合に処理時間が長くなり、回路規模が増大してしまい、コストが嵩んでしまうという問題があった。   As disclosed in Patent Document 1, there is a problem that when a captured image obtained by a lens is hardwareized as an image processing device, the processing time becomes long, the circuit scale increases, and the cost increases. .

特許文献2では、ズームの際のレンズ位置を離散的な歪み補正パラメータと対応する位置に制限することと、その間を電子ズームで繋ぐことにより、ズーム動作を歪み補正パラメータの補間処理を省略することで撮像装置単体でのズーム動作を実現している。しかし、ズーム動作のような一次元のレンズの動きにのみ適用できることであり、パン、チルト等の多様な動きには適用し難い。すなわち、画像処理によって見え方を変える視点変換には対応できない問題がある。   In Patent Document 2, the lens position at the time of zooming is limited to a position corresponding to the discrete distortion correction parameter, and the zoom operation is omitted by interpolating the distortion correction parameter by connecting between them with an electronic zoom. In this way, the zoom operation of the image pickup device alone is realized. However, it can be applied only to a one-dimensional lens movement such as a zoom operation, and is difficult to apply to various movements such as panning and tilting. That is, there is a problem that it is not possible to cope with viewpoint conversion that changes the appearance by image processing.

また歪み補正処理をした後の画像は、視野角が狭くなるので広い領域を一度に認識することは難しくなる。歪み補正処理を行わない画像では、視野角は広くなるがその反面、被写体が歪むことにより距離感や大きさの認識が難しくなる。   In addition, since the image after the distortion correction processing has a narrow viewing angle, it is difficult to recognize a wide area at a time. In an image that is not subjected to distortion correction processing, the viewing angle is widened, but on the other hand, it is difficult to recognize the sense of distance and size due to distortion of the subject.

特許文献3では、このような問題に対して画角に応じて歪み補正量を異ならせているが、歪み補正量を逐次変更するものではなく、被写体の歪みの改善と、距離感や大きさの正確な認識という2つの問題の双方を解決するものではない。   In Patent Document 3, the distortion correction amount is varied according to the angle of view for such a problem, but the distortion correction amount is not sequentially changed. It does not solve both of the two problems of accurate recognition.

なお、広角レンズで撮影された歪み無し状態の全体画像から、歪み補正後の画像を生成して表示する場合、最終的な歪み補正後の画像が全体画像のどの部分を表示しているかを明らかにするため、歪み補正状態を少しずつ連続的に変化させつつ表示することが望ましいが、以上の各特許文献は適していないことが判明した。   In addition, when generating and displaying an image after distortion correction from an entire image taken with a wide-angle lens and without distortion, it is clear which part of the entire image the final image after distortion correction displays. Therefore, it is desirable to display the distortion correction state while changing it little by little, but it has been found that each of the above patent documents is not suitable.

また、本件出願の発明者が上記特許文献とは別の方式で被写体の歪み補正を行い、歪み補正状態を連続的に少しずつ変化させるように処理したところ、入射角が90度付近又は90度を超えるような非常に大きな角度の場合、歪み補正された画像データを算出する画像処理の処理ビット数の関係で歪み補正後の画像に乱れが生じることが明らかになった。すなわち、歪み補正状態を表示する画像中に乱れ(画像不良)があるため、被写体の正確な認識が困難になることを発見した。   In addition, when the inventor of the present application performs distortion correction on the subject by a method different from that of the above-described patent document and continuously changes the distortion correction state little by little, the incident angle is about 90 degrees or 90 degrees. It has been clarified that when the angle is very large, the distortion-corrected image is disturbed due to the number of processing bits of the image processing for calculating the distortion-corrected image data. That is, the present inventors have found that it is difficult to accurately recognize a subject because there is a disorder (image defect) in an image displaying a distortion correction state.

本願発明はこのような問題に鑑み、被写体の正確な認識を図ること、及び、比較的小規模な回路で、処理時間の短縮化を図ることが可能な、画像処理方法、画像処理装置及び撮像装置提供することを目的とする。   In view of such a problem, the present invention provides an image processing method, an image processing apparatus, and an imaging device capable of accurately recognizing a subject and shortening a processing time with a relatively small circuit. The object is to provide a device.

上記の目的は、下記に記載する発明により達成される。   The above object is achieved by the invention described below.

(1)光学系を介して複数の画素を有する撮像素子に受光して得られた複数の画素データを用いて処理した画像データを得る画像処理方法において、ワールド座標系の仮想投影面の位置及びサイズを設定する第1ステップと、前記第1ステップで設定された前記仮想投影面の各画素のワールド座標系における座標を歪み補正係数を用いてカメラ座標系に変換し、変換したカメラ座標系における座標及び前記複数の画素データに基づいて前記第1ステップで設定された仮想投影面の画像データを算出する第2ステップと、前記第2ステップで算出された画像データによる表示用画像を出力する第3ステップと、を有し、前記第2ステップで用いられる前記歪み補正係数には、少なくとも、前記光学系のレンズの物理的特性及び前記光学系への設定された前記仮想投影面からの入射光の入射角に基づいて算出され前記光学系により生ずる歪みを補正するための第1歪み補正係数と、前記光学系への入射角の正接関数を変数として算出される前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高であって前記歪みを補正しない第2歪み補正係数とが含まれており、前記第2ステップには、第2歪み補正係数が所定の値以上となる最小入射角がある場合、前記最小入射角より大きな入射角に対応する画素データを、予め定められた所定の値に変換するステップを含む、ことを特徴とする。   (1) In an image processing method for obtaining image data processed using a plurality of pixel data obtained by receiving an image sensor having a plurality of pixels via an optical system, the position of a virtual projection plane in the world coordinate system and A first step of setting a size, and a coordinate in the world coordinate system of each pixel of the virtual projection plane set in the first step is converted into a camera coordinate system using a distortion correction coefficient, and in the converted camera coordinate system A second step of calculating image data of the virtual projection plane set in the first step based on the coordinates and the plurality of pixel data, and a second step of outputting a display image based on the image data calculated in the second step. The distortion correction coefficient used in the second step includes at least the physical characteristics of the lens of the optical system and the setting to the optical system. The first distortion correction coefficient for correcting the distortion caused by the optical system calculated based on the incident angle of the incident light from the virtual projection plane and the tangent function of the incident angle to the optical system are calculated as variables. And a second distortion correction coefficient that does not correct the distortion and includes an image height from an optical center at which the imaging element and the optical axis of the optical system intersect. And a step of converting pixel data corresponding to an incident angle larger than the minimum incident angle to a predetermined value when there is a minimum incident angle at which a distortion correction coefficient is a predetermined value or more. To do.

また、光学系を介して複数の画素を有する撮像素子に受光して得られた複数の画素データを用いて処理した画像データを得る画像処理装置または撮像装置であって、歪み補正係数を記憶する記憶部と、位置及びサイズが設定された仮想投影面の各画素のワールド座標系における座標を前記記憶部に記憶された歪み補正係数を用いてカメラ座標系に変換し、カメラ座標系に変換した座標及び前記複数の画素データに基づいて、前記仮想投影面の画像データを算出する画像処理部と、前記画像処理部で算出した画像データの表示用の画像信号を出力する画像信号出力部と、を有し、前記記憶部には、記憶される前記歪み補正係数として少なくとも、前記光学系のレンズの物理的特性及び前記光学系への設定された前記仮想投影面からの入射光の入射角に基づいて算出され前記光学系により生ずる歪みを補正するための第1歪み補正係数並びに前記光学系への入射角の正接関数を変数として算出される前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高であって前記歪みを補正しない第2歪み補正係数を有し、前記画像処理部は、前記第2歪み補正係数の値が所定の値以上となる最小入射角がある場合に、前記最小入射角より大きな入射角に対応する画素データを、予め定められた所定の値に変換する、ことを特徴とする。   An image processing apparatus or an imaging apparatus that obtains image data processed using a plurality of pixel data obtained by receiving an image sensor having a plurality of pixels via an optical system, and stores a distortion correction coefficient The coordinates in the world coordinate system of each pixel of the virtual projection plane whose position and size are set are converted into the camera coordinate system using the distortion correction coefficient stored in the storage unit, and converted into the camera coordinate system An image processing unit that calculates image data of the virtual projection plane based on the coordinates and the plurality of pixel data; an image signal output unit that outputs an image signal for display of the image data calculated by the image processing unit; And the storage unit stores at least the physical characteristics of the lens of the optical system and the incident light from the virtual projection plane set to the optical system as the stored distortion correction coefficient. A first distortion correction coefficient for correcting distortion caused by the optical system calculated based on an angle and a tangent function of an incident angle to the optical system and the optical axis of the optical system calculated as variables And a second distortion correction coefficient that does not correct the distortion, and the image processing unit has a minimum incident angle at which the value of the second distortion correction coefficient is equal to or greater than a predetermined value. In some cases, pixel data corresponding to an incident angle larger than the minimum incident angle is converted into a predetermined value.

(2)以上の(1)において、前記第3ステップは段階的に歪みが補正された画像データの表示用動画像を出力するものであって、前記第2ステップにおいて前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出することを特徴とする。   (2) In the above (1), the third step outputs a moving image for display of image data in which distortion is corrected stepwise, wherein the first distortion correction coefficient in the second step, The image data of the virtual projection plane is calculated by switching the second distortion correction coefficient and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients in a stepwise manner. .

また、以上の(1)において、前記画像信号出力部は段階的に歪みが補正された画像データの表示用動画像を出力するものであって、前記画像処理部は、前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出することを特徴とする。   In the above (1), the image signal output unit outputs a moving image for display of image data in which distortion is corrected stepwise, and the image processing unit includes the first distortion correction coefficient. The image data of the virtual projection plane is calculated by stepwise switching and using the second distortion correction coefficient and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients. To do.

(3)以上の(2)において、前記第2ステップで、前記第2歪み補正係数の値が所定の値以上となる最小入射角がある場合、前記最小入射角より大きな入射角に対応する前記画素データを予め定められた所定の値に変換する際、前記第3歪み補正係数に含まれる前記第2歪み補正係数の補間割合に応じて前記所定の値に変換する際の前記入射角を変更する、ことを特徴とする。   (3) In the above (2), when there is a minimum incident angle at which the value of the second distortion correction coefficient is not less than a predetermined value in the second step, the angle corresponding to an incident angle larger than the minimum incident angle. When the pixel data is converted into a predetermined value, the incident angle when the pixel data is converted into the predetermined value is changed according to the interpolation ratio of the second distortion correction coefficient included in the third distortion correction coefficient. It is characterized by.

また、以上の(2)において、前記画像処理部で、前記第2歪み補正係数が所定の値以上となる最小入射角を判別し、第2歪み補正係数が所定の値以上となる最小入射角がある場合であって前記最小入射角より大きな入射角に対応する画素データを、予め定められた所定の値に変換する際に、前記第3歪み補正係数に含まれる前記第2歪み補正係数の補間割合に応じて前記変換する際の前記入射角を変更する、ことを特徴とする。   In the above (2), the image processing unit determines a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value, and the minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value. When the pixel data corresponding to an incident angle larger than the minimum incident angle is converted into a predetermined value, the second distortion correction coefficient included in the third distortion correction coefficient The incident angle at the time of the conversion is changed in accordance with an interpolation ratio.

(4)以上の(1)〜(3)において、前記第1ステップでは、ワールド座標系の仮想投影面の第1位置と第2位置を設定し、前記第2ステップでは、初期の前記第2位置と前記第2歪み補正係数、最終の前記第1位置と前記第1歪み補正係数、途中の前記第2位置と前記第1位置の補間によって得られた第3位置と前記第3歪み補正係数、と段階的に切り替えて用いて仮想投影面の画像データを算出する、ことを特徴とする。   (4) In the above (1) to (3), in the first step, the first position and the second position of the virtual projection plane of the world coordinate system are set, and in the second step, the initial second A position and the second distortion correction coefficient, a final first position and the first distortion correction coefficient, a third position obtained by interpolation between the second position and the first position in the middle, and the third distortion correction coefficient The image data of the virtual projection plane is calculated by switching in a stepwise manner.

また、以上の(1)〜(3)において、ワールド座標系の前記仮想投影面は第1位置と第2位置が設定されており、前記画像処理部は、初期の前記第2位置と前記第2歪み補正係数、最終の前記第1位置と前記第1歪み補正係数、途中の前記第2位置と前記第1位置の補間によって得られた第3位置と前記第3歪み補正係数、と段階的に切り替えて用いて仮想投影面の画像データを算出する、ことを特徴とする。   Further, in the above (1) to (3), the virtual projection plane of the world coordinate system has a first position and a second position set, and the image processing unit performs the initial second position and the second position. 2 stepwise correction coefficients, the final first position and the first distortion correction coefficient, the third position obtained by interpolation of the second position and the first position in the middle, and the third distortion correction coefficient The image data of the virtual projection plane is calculated by switching to the above.

(5)以上の(1)〜(4)において、前記第2歪み補正係数は、以下の条件式(1)で表される、ことを特徴とする。
L2=((ExportImageSize/2)/(tan(focal/2)))×tanθ …式(1)
ここで、
ExportImageSize:表示部で表示する出力画像の長辺の長さ,
focal:設定された仮想投影面の長辺方向における画角,
である。
(5) In the above (1) to (4), the second distortion correction coefficient is represented by the following conditional expression (1).
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tanθ Equation (1)
here,
ExportImageSize: the length of the long side of the output image to be displayed on the display,
focal: Angle of view in the long side direction of the set virtual projection plane,
It is.

本願発明では、光学系のレンズの物理的特性に基づいて算出された第1歪み補正係数と光学系への入射角を変数とする関係式により算出された第2歪み補正係数のいずれか少なくとも一方を用いて画像データを算出する場合であって、広角レンズへ非常に大きな角度で入射する事による画像処理上の制限で生ずる画像不良による被写体の誤認識を簡易的な方法で、しかも効果的に軽減することができる。   In the present invention, at least one of the first distortion correction coefficient calculated based on the physical characteristics of the lens of the optical system and the second distortion correction coefficient calculated by the relational expression using the incident angle to the optical system as a variable. Is used to calculate image data using a simple method of erroneously recognizing a subject due to image defects caused by image processing limitations caused by incidence on a wide-angle lens at a very large angle. Can be reduced.

本実施形態に係る歪曲補正を説明する模式図である。It is a schematic diagram explaining the distortion correction which concerns on this embodiment. 仮想投影面VPの位置を移動させた例を示す説明図である。It is explanatory drawing which shows the example which moved the position of the virtual projection surface VP. 撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of an imaging device. 本実施形態の制御フローを示すフローチャートである。It is a flowchart which shows the control flow of this embodiment. 入射角θと、撮像素子面IA上の像高hとの関係を示す特性図である。FIG. 6 is a characteristic diagram showing a relationship between an incident angle θ and an image height h on the image sensor surface IA. 光学的範囲に仮想投影面VPを設定した状態を示す説明図である。It is explanatory drawing which shows the state which set the virtual projection surface VP in the optical range. 第1歪み補正係数L1と第2歪み補正係数L2での像高hとの関係を示す模式図である。It is a schematic diagram which shows the relationship between the image height h in the 1st distortion correction coefficient L1 and the 2nd distortion correction coefficient L2. 入出力画像の例を示す説明図である。It is explanatory drawing which shows the example of an input-output image. 歪補正率あるいは、歪補正率と視点変換率を所定の周期で変更する例を示す説明図である。It is explanatory drawing which shows the example which changes a distortion correction rate or a distortion correction rate and a viewpoint conversion rate with a predetermined period. 歪み補正係数の飽和・不連続の状態を示す特性図である。It is a characteristic view which shows the saturation and discontinuous state of a distortion correction coefficient. 歪み補正係数の飽和・不連続の影響による画像不良を写真画像で示す説明図である。It is explanatory drawing which shows the image defect by the influence of the saturation and discontinuity of a distortion correction coefficient with a photograph image. 本実施形態のブラックアウトポイントを示す特性図である。It is a characteristic view which shows the blackout point of this embodiment. 本実施形態のブラックアウトポイントを示す特性図である。It is a characteristic view which shows the blackout point of this embodiment. 座標系を説明する模式図である。It is a schematic diagram explaining a coordinate system. カメラ座標系xyと撮像素子面IAとの対応関係を示す図である。It is a figure which shows the correspondence of camera coordinate system xy and image pick-up element surface IA. 歪み補正処理を説明する模式図である。It is a schematic diagram explaining a distortion correction process. カメラ座標系の画像中心oを回転中心として仮想投影面VPの位置を変更する例である。This is an example in which the position of the virtual projection plane VP is changed with the image center o of the camera coordinate system as the rotation center. 仮想投影面VP0の中心ovを回転中心として仮想投影面VPの位置を変更する例である。This is an example in which the position of the virtual projection plane VP is changed with the center ov of the virtual projection plane VP0 as the rotation center. 本実施形態を適用した処理画像の表示例を写真画像で示す説明図である。It is explanatory drawing which shows the example of a display of the process image to which this embodiment is applied with a photograph image. 本実施形態を適用した処理画像の表示例を写真画像で示す説明図である。It is explanatory drawing which shows the example of a display of the process image to which this embodiment is applied with a photograph image.

以下、本発明を実施の形態に基づいて説明するが、本発明は該実施の形態に示される具体例に限られるものではない。   Hereinafter, the present invention will be described based on embodiments, but the present invention is not limited to the specific examples shown in the embodiments.

〔A〕座標系:
図1は、本実施形態に係る歪曲補正を説明するための座標系を示す模式図である。
[A] Coordinate system:
FIG. 1 is a schematic diagram showing a coordinate system for explaining distortion correction according to the present embodiment.

この図1において、X、Y、Zは空間の中での物体の位置を示すための座標系としてのワールド座標系であり、原点Oは光学系のレンズ中心である。ここで、Zは光軸、XY平面はレンズ中心Oを通るレンズ中心面LCを含んでいる。点Pはワールド座標系XYZにおける被写体の物点である。θは光軸(Z軸に一致)に対する入射角である。   In FIG. 1, X, Y, and Z are world coordinate systems as coordinate systems for indicating the position of an object in space, and the origin O is the lens center of the optical system. Here, Z includes the optical axis, and the XY plane includes a lens center plane LC passing through the lens center O. Point P is an object point of the subject in the world coordinate system XYZ. θ is an incident angle with respect to the optical axis (coincident with the Z axis).

一方、x、yはカメラを基準としたカメラ座標系であり、xy平面は撮像素子面IAに対応する。oは光学中心であり光軸Zと撮像素子面との交点である。点pはカメラ座標系における撮像素子面上の点であり、物点Pをレンズの物理的特性に基づくパラメータ(以下、「レンズパラメータ」という)に基づく歪み補正係数(後述の第1歪み補正係数L1に相当)を用いてカメラ座標系に変換したものである。   On the other hand, x and y are camera coordinate systems based on the camera, and the xy plane corresponds to the image sensor surface IA. o is the optical center, which is the intersection of the optical axis Z and the image sensor surface. The point p is a point on the image sensor surface in the camera coordinate system, and the object point P is a distortion correction coefficient (a first distortion correction coefficient described later) based on a parameter based on the physical characteristics of the lens (hereinafter referred to as “lens parameter”). (Corresponding to L1) and converted to the camera coordinate system.

図1において、VPは仮想投影面である。仮想投影面VPは光学系のレンズ位置(レンズ中心面LC)に対して撮像素子(及び撮像素子面IA)とは反対側に設定される。仮想投影面VPは、ユーザによる操作部130(図3のブロック図を参照)への指示に基づいて、位置の移動及びサイズの変更を行うことが可能である。なお、本願明細書において「位置変更」とは、仮想投影面VPをXY平面上で平行移動させる場合のみならず、XY平面に対する角度変更(姿勢変更ともいう)をも含む概念である。   In FIG. 1, VP is a virtual projection plane. The virtual projection plane VP is set on the opposite side of the imaging element (and imaging element surface IA) with respect to the lens position (lens center plane LC) of the optical system. The virtual projection plane VP can be moved and changed in size based on an instruction from the user to the operation unit 130 (see the block diagram of FIG. 3). In the specification of the present application, “position change” is a concept including not only the case where the virtual projection plane VP is translated on the XY plane, but also an angle change (also referred to as an attitude change) with respect to the XY plane.

初期状態(初期の位置設定のこと、以下同様)において仮想投影面VPは、所定サイズでレンズ中心面LCと平行(XY方向)の所定位置(Z方向)に配置され、仮想投影面VPの中心ovはZ軸上に位置している。Gvは物点Pが仮想投影面VP上に投影された点であり、物点Pとレンズ中心Oを通る直線と仮想投影面VPとの交点である。   In an initial state (initial position setting, the same applies hereinafter), the virtual projection plane VP is arranged at a predetermined position (Z direction) parallel to the lens center plane LC (XY direction) with a predetermined size, and the center of the virtual projection plane VP. ov is located on the Z axis. Gv is a point where the object point P is projected onto the virtual projection plane VP, and is an intersection of the object point P and a straight line passing through the lens center O and the virtual projection plane VP.

図2は、操作部130の入力に基づいて、仮想投影面VP0をXZ平面上で回転させて、仮想投影面VP1とした状態を示している。   FIG. 2 shows a state in which the virtual projection plane VP0 is rotated on the XZ plane based on the input from the operation unit 130 to obtain the virtual projection plane VP1.

〔B〕構成:
図3は、本実施形態で使用される撮像装置の概略構成を示すブロック図である。撮像装置は、撮像ユニット110、制御装置100、表示部120、操作部130を備え構成されている。
[B] Configuration:
FIG. 3 is a block diagram illustrating a schematic configuration of the imaging apparatus used in the present embodiment. The imaging device includes an imaging unit 110, a control device 100, a display unit 120, and an operation unit 130.

撮像ユニット110は、短焦点のレンズ、撮像素子等を備えて構成される。本実施形態においては、短焦点のレンズとしては例えば広角レンズ、魚眼レンズがある。   The imaging unit 110 includes a short focus lens, an imaging element, and the like. In the present embodiment, examples of the short focus lens include a wide angle lens and a fisheye lens.

制御装置100は、画像処理部101、設定部102、記憶部103を備えて構成される。   The control device 100 includes an image processing unit 101, a setting unit 102, and a storage unit 103.

設定部102では、操作部130への入力指示に基づいて仮想投影面VPの位置、サイズの設定を行う。   The setting unit 102 sets the position and size of the virtual projection plane VP based on an input instruction to the operation unit 130.

画像処理部101では、設定された仮想投影面VPの位置、サイズに基づいて仮想投影面上の各座標のカメラ座標系への変換テーブルを作成し、当該変換テーブルを用いて撮像ユニット110で撮影した画素データを処理して表示部120に表示させる画像データの作成を行う。すなわち、画像処理部101は、レンズデータに基づいてワールド座標の位置がカメラ座標のどの座標位置に対応するかを当てはめる座標変換を行う。この際に、歪み補正及び、仮想投影面VPの位置の計算にともなう回転、平行移動、拡大、縮小が併せて行われる。また画像処理部101は、表示用の画像信号の出力を行う画像信号出力部としても機能する。   The image processing unit 101 creates a conversion table of each coordinate on the virtual projection plane into the camera coordinate system based on the set position and size of the virtual projection plane VP, and shoots with the imaging unit 110 using the conversion table. The processed pixel data is processed to create image data to be displayed on the display unit 120. That is, the image processing unit 101 performs coordinate transformation that applies to which coordinate position of the camera coordinates the world coordinate position corresponds to based on the lens data. At this time, distortion correction and rotation, translation, enlargement, and reduction associated with calculation of the position of the virtual projection plane VP are performed together. The image processing unit 101 also functions as an image signal output unit that outputs an image signal for display.

記憶部103には、撮像ユニット110のレンズ(実レンズ)の物理的特性及び設定された仮想投影面からの入射光の入射角に基づくレンズの物理的特性に係るパラメータにより算出された係数、すなわち光学系で生ずる歪みを補正するための係数である第1歪み補正係数L1と、当該歪みの補正を行わないための係数に相当する、設定された仮想投影面からレンズへ入射する入射光の入射角の正接関数を変数として算出される、前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高である、第2歪み補正係数L2とが記憶されている。   The storage unit 103 stores coefficients calculated based on parameters related to physical characteristics of the lens based on the physical characteristics of the lens (real lens) of the imaging unit 110 and the incident angle of incident light from the set virtual projection plane, that is, Incidence of incident light incident on the lens from the set virtual projection plane, which corresponds to a first distortion correction coefficient L1 that is a coefficient for correcting distortion generated in the optical system, and a coefficient for not correcting the distortion. A second distortion correction coefficient L2, which is an image height from the optical center at which the image sensor and the optical axis of the optical system intersect, calculated using a tangent function of the angle as a variable, is stored.

また記憶部103は、仮想投影面VPの位置、サイズ及び作成した変換テーブルの記憶も行う。なお歪み補正係数は、レンズのキャリブレーションデータの取得やレンズのfθ特性に基づく計算等により求めることができる。   The storage unit 103 also stores the position and size of the virtual projection plane VP and the created conversion table. The distortion correction coefficient can be obtained by obtaining lens calibration data, calculating based on the fθ characteristic of the lens, or the like.

なお、本実施形態でいう「歪み補正を行わない」とは、実質的に、撮像されたままの歪みが生じているものを言い、歪み補正が良好に行われているものから若干劣るものを指すものではない。   Note that “do not perform distortion correction” in the present embodiment means that the distortion as it is captured is substantially generated, and is slightly inferior from that in which distortion correction is performed satisfactorily. It does not point.

表示部120は、液晶ディスプレイ等の表示画面を備え、撮像ユニット110で撮影した画素データに基づいて画像処理部101で作成した画像データに基づく表示用画像を逐次、表示画面に表示させる。   The display unit 120 includes a display screen such as a liquid crystal display, and sequentially displays a display image based on the image data created by the image processing unit 101 based on the pixel data captured by the imaging unit 110 on the display screen.

操作部130は、キーボード、マウス、あるいは表示部の液晶ディスプレイに重畳して配置されたタッチパネル等を備え、ユーザの入力操作を受け付ける。   The operation unit 130 includes a keyboard, a mouse, or a touch panel arranged so as to be superimposed on the liquid crystal display of the display unit, and receives a user's input operation.

〔C〕制御:
以下、図4のフローチャートを参照して、本実施形態の制御を説明する。なお、本制御フローチャートにより、連続して入力する入力画像を処理して連続的に出力画像を表示部120に表示させることにより動画を表示するものである。
[C] Control:
Hereinafter, the control of this embodiment will be described with reference to the flowchart of FIG. According to this control flowchart, a moving image is displayed by processing input images that are continuously input and continuously displaying output images on the display unit 120.

〔C−1〕設定、入力:
まず、仮想投影面の設定、視点変換の設定、歪み補正条件の設定などが入力される(図4中のステップS101)。なお、これが第1ステップである。これら、各種の設定は、ユーザによる操作部130への入力指示に基づいて、設定部102により仮想投影面VPのワールド座標系における位置、サイズを設定することにより行われる。また、撮像ユニット110で使用するレンズの物理的特性に係るパラメータなどは記憶部103から読み出される。
[C-1] Setting and input:
First, setting of a virtual projection plane, setting of viewpoint conversion, setting of distortion correction conditions, and the like are input (step S101 in FIG. 4). This is the first step. These various settings are performed by setting the position and size of the virtual projection plane VP in the world coordinate system by the setting unit 102 based on an input instruction to the operation unit 130 by the user. Also, parameters relating to the physical characteristics of the lens used in the imaging unit 110 are read from the storage unit 103.

そして、撮像ユニット110から画像信号が入力され、例えばフレームレート60fpsで入力画像が制御装置100に取り込まれる(図4中のステップS102)。   Then, an image signal is input from the imaging unit 110, and the input image is taken into the control device 100 at a frame rate of 60 fps, for example (step S102 in FIG. 4).

〔C−2〕仮想投影面計算:
ここで、画像処理部101では、設定された条件に基づいて並進ベクトルや回転ベクトルの計算を行ってユーグリッド変換を行うことで、仮想投影面VPの位置の計算を行う(図4中のステップS103)。なお、この仮想投影面計算から後述する歪み補正係数の取得と歪み補正処理とが、第2ステップである。
[C-2] Virtual projection plane calculation:
Here, the image processing unit 101 calculates the position of the virtual projection plane VP by calculating the translation vector and the rotation vector based on the set condition and performing the Eugrid conversion (step in FIG. 4). S103). Note that the distortion correction coefficient acquisition and distortion correction processing described later from this virtual projection plane calculation are the second step.

〔C−3〕歪み補正係数の取得:
そして、画像処理部101は、レンズの物理的特性に係るデータに基づいてワールド座標の位置がカメラ座標のどの座標位置に対応するかを当てはめる座標変換を行うための、第1歪み補正係数L1と第2歪み補正係数L2を取得する(図4中のステップS104)。
[C-3] Acquisition of distortion correction coefficient:
Then, the image processing unit 101 uses a first distortion correction coefficient L1 for performing coordinate conversion that applies to which coordinate position of the camera coordinates the world coordinate position corresponds to based on data relating to the physical characteristics of the lens. The second distortion correction coefficient L2 is acquired (step S104 in FIG. 4).

ここで画像処理部101が取得する歪み補正係数には、光学系で生ずる歪みを補正するための係数であるレンズの物理的特性に係るパラメータ及び設定された仮想投影面からの入射光の入射角に基づいて決定された第1歪み補正係数L1と、光学系への設定された仮想投影面から入射する入射光の入射角θ(図1参照)の正接関数を変数として算出される、前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高である第2歪み補正係数L2が含まれている。なお、第2歪み補正係数L2とは、歪み補正を行わないに相当する歪み補正係数であり詳細は後述する。   Here, the distortion correction coefficient acquired by the image processing unit 101 includes parameters relating to physical characteristics of the lens, which are coefficients for correcting distortion generated in the optical system, and the incident angle of incident light from the set virtual projection plane. The imaging is calculated using as a variable the first distortion correction coefficient L1 determined on the basis of the tangent function of the incident angle θ (see FIG. 1) of incident light incident from the virtual projection plane set to the optical system. A second distortion correction coefficient L2 that is an image height from the optical center where the element and the optical axis of the optical system intersect is included. The second distortion correction coefficient L2 is a distortion correction coefficient corresponding to not performing distortion correction, and will be described in detail later.

なおここでの第1歪み補正係数L1は、ユーザが必要に応じて、例えば1フレーム毎に随時書き換える事ができる構成としても良い。即ち、設定部102において第1ステップ時の仮想投影面の位置及び画面サイズを入力する事で第1歪み補正係数L1を取得する他に、第1歪み補正係数L1の値を直接変更するよう、パラメータ入力できる構成とし、これによりカメラ座標上の画素とワールド座標上の対応画素との関係を任意に変更するような構成としても良い。   Here, the first distortion correction coefficient L1 may be rewritten at any time, for example, every frame as required by the user. That is, in addition to acquiring the first distortion correction coefficient L1 by inputting the position and screen size of the virtual projection plane at the first step in the setting unit 102, the value of the first distortion correction coefficient L1 is directly changed. A configuration in which parameters can be input may be employed, whereby a relationship between pixels on camera coordinates and corresponding pixels on world coordinates may be arbitrarily changed.

このように書き換えた第1歪み補正係数L1と仮想投影面上の座標、画面サイズから入射角と光軸とが交わる光軸中心からの像高位置を変更する事も本発明の場合、可能である。   In the case of the present invention, it is also possible to change the image height position from the optical axis center where the incident angle and the optical axis intersect from the rewritten first distortion correction coefficient L1, the coordinates on the virtual projection plane, and the screen size. is there.

これによりカメラ座標上の対応する画素位置(領域)を予め固定しておく場合と比べて、様々な光学系に柔軟に対応できると共に、カメラ座標上の画素位置(領域)に依存しない様々な歪補正条件を採用する事ができる、という効果を奏する。   This makes it possible to respond flexibly to various optical systems as compared to the case where the corresponding pixel position (region) on the camera coordinates is fixed in advance, and various distortions that do not depend on the pixel position (region) on the camera coordinates. There is an effect that the correction condition can be adopted.

さらに、画像処理部101は、第1歪み補正係数L1と第2歪み補正係数L2との間を補間して滑らかに座標変換を実行するように、複数段階の第3歪み補正係数L3を取得する(図4中のステップS105)。   Further, the image processing unit 101 acquires a plurality of third distortion correction coefficients L3 so as to smoothly perform coordinate conversion by interpolating between the first distortion correction coefficient L1 and the second distortion correction coefficient L2. (Step S105 in FIG. 4).

〔C−3−1〕歪み補正係数の説明:
以下、歪み補正係数について説明する。
[C-3-1] Description of distortion correction coefficient:
Hereinafter, the distortion correction coefficient will be described.

〔C−3−1−1〕第1歪み補正係数L1と第2歪み補正係数L2の説明:
ここで、第1歪み補正係数L1と第2歪み補正係数L2とについて、図5以降を参照して説明する。
[C-3-1-1] Description of the first distortion correction coefficient L1 and the second distortion correction coefficient L2:
Here, the first distortion correction coefficient L1 and the second distortion correction coefficient L2 will be described with reference to FIG.

図5は、入射角θを横軸として、撮像素子面IA上の光軸Zと交わる光学中心oからの像高h(w2c値)を縦軸とした関係を示す特性図である。   FIG. 5 is a characteristic diagram showing a relationship in which the incident angle θ is the horizontal axis and the image height h (w2c value) from the optical center o intersecting the optical axis Z on the image sensor surface IA is the vertical axis.

この図5において、第1歪み補正係数L1(図5実線)、第2歪み補正係数L2(1点鎖線)、L1とL2の補間による第3歪み補正係数L3(2点鎖線)、のそれぞれについて、入射角θと像高hとの関係を表示している。   5, each of the first distortion correction coefficient L1 (solid line in FIG. 5), the second distortion correction coefficient L2 (one-dot chain line), and the third distortion correction coefficient L3 (two-dot chain line) by interpolation between L1 and L2. The relationship between the incident angle θ and the image height h is displayed.

また、図6は光学系によって決まる光学的範囲に仮想投影面VPを設定した状態を示している。そして、図7は、第1歪み補正係数L1、第2歪み補正係数L2におけるそれぞれの像高h(h1、h2で表示)の関係を示す特性図である。これら、図6、図7において、図1と共通する部位については共通する符号を付与させている。   FIG. 6 shows a state in which the virtual projection plane VP is set in the optical range determined by the optical system. FIG. 7 is a characteristic diagram showing the relationship between the image heights h (indicated by h1 and h2) in the first distortion correction coefficient L1 and the second distortion correction coefficient L2. In FIGS. 6 and 7, the same reference numerals are given to the portions common to FIG.

図5の特性図に示すように、第2歪み補正係数L2では、入射角θに対応した歪曲収差が生じ、入射角θが大きくなるほど像高h(w2c値)が大きくなり、歪曲収差の量も大きくなる。つまり、歪補正率=0%であり、当該係数を用いる事で光学系に応じた歪みがそのまま補正されていない画像データが得られる。   As shown in the characteristic diagram of FIG. 5, with the second distortion correction coefficient L2, distortion aberration corresponding to the incident angle θ occurs, and as the incident angle θ increases, the image height h (w2c value) increases and the amount of distortion aberration increases. Also grows. That is, the distortion correction rate = 0%, and by using the coefficient, image data in which distortion corresponding to the optical system is not corrected as it is can be obtained.

一方、図5の特性図において、第1歪み補正係数L1はレンズによる歪曲収差の影響を打ち消すように歪補正率=100%として設定した歪み補正係数であり、主に撮像ユニット110のレンズの物理的な特性及び設定された仮想投影面から光学系に入射する入射光の入射角により決定される係数である。   On the other hand, in the characteristic diagram of FIG. 5, the first distortion correction coefficient L1 is a distortion correction coefficient set as a distortion correction rate = 100% so as to cancel the influence of the distortion aberration caused by the lens. Is a coefficient determined by the incident characteristics of the incident light entering the optical system from the set virtual projection plane.

また、第1歪み補正係数L1と第2歪み補正係数L2の補間による第3歪み補正係数L3は、第1歪み補正係数L1と第2歪み補正係数L2との補間割合に応じて歪補正率が決定される。なお、第3歪み補正係数L3と補間割合については後述する。   Further, the third distortion correction coefficient L3 obtained by interpolation between the first distortion correction coefficient L1 and the second distortion correction coefficient L2 has a distortion correction rate according to the interpolation ratio between the first distortion correction coefficient L1 and the second distortion correction coefficient L2. It is determined. The third distortion correction coefficient L3 and the interpolation ratio will be described later.

ここで、第2歪み補正係数L2は、光学系への入射角θを変数として算出される、前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高に関する歪み補正係数であり、関係式としては例えば以下の式(1)を用いている。なお、式(1)を数倍にすれば出力画像の拡大縮小を容易に行う事ができるというメリットがある。
L2=((ExportImageSize/2)/(tan(focal/2)))×tanθ …式(1),
この式(1)においては、「ExportImageSize」とは、表示部で表示する出力画像の長辺(通常は水平方向、x)の長さであり、単位はpixelである。またこれは仮想投影面VPの長辺のサイズと一致している。
Here, the second distortion correction coefficient L2 is a distortion correction coefficient related to the image height from the optical center where the imaging element and the optical axis of the optical system intersect, which is calculated using the incident angle θ to the optical system as a variable. As the relational expression, for example, the following expression (1) is used. Note that there is an advantage that the output image can be easily scaled by multiplying the expression (1) several times.
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tanθ ... Formula (1),
In this equation (1), “ExportImageSize” is the length of the long side (usually the horizontal direction, x) of the output image displayed on the display unit, and the unit is pixel. This coincides with the size of the long side of the virtual projection plane VP.

また、この式(1)において、「focal」は設定された仮想投影面の長辺方向における画角を意味している。ここで、図6を参照して「focal」について説明する。図6においてωは、光学的範囲に対応する光学的画角であり、「focal」とは仮想投影面VPの長辺方向における画角のことである。なお、式(1)に替えて、正射影や等距離射影の関係式を用いても良い。また「focal」はユーザが任意に設定する光学的範囲の内、表示範囲に相当するものであり、必ずしも画角の長辺方向でなくても良い。   In the formula (1), “focal” means the angle of view in the long side direction of the set virtual projection plane. Here, “focal” will be described with reference to FIG. In FIG. 6, ω is an optical angle of view corresponding to the optical range, and “focal” is an angle of view in the long side direction of the virtual projection plane VP. Note that a relational expression of orthographic projection and equidistant projection may be used instead of the expression (1). Further, “focal” corresponds to a display range within an optical range arbitrarily set by the user, and does not necessarily have to be in the long side direction of the angle of view.

なお、魚眼レンズ等の超広角レンズでは入射角が90°を超える場合もある。この場合に、上述した式(1)では入射角が90°を超えるとtanθの符号が反転してしまうため、第2歪み補正係数L2の本来の値とは乖離してしまう。このため、本実施形態では、上述した式(1)にかかわらず、入射角が90°を超えた領域では、像高(w2c値)が無限大であるものとして計算を行う。   Note that the incident angle may exceed 90 ° in a super-wide-angle lens such as a fish-eye lens. In this case, in the above-described equation (1), when the incident angle exceeds 90 °, the sign of tanθ is inverted, so that it deviates from the original value of the second distortion correction coefficient L2. For this reason, in the present embodiment, the calculation is performed assuming that the image height (w2c value) is infinite in the region where the incident angle exceeds 90 ° regardless of the above-described equation (1).

また、本実施態様においては上記条件式(1)で説明しているが、条件式は必ずしもこれに限定されず、要は入射角θを変数とした像高、つまり光学中心からのカメラ座標上の距離を算出する条件式であれば良い。   In the present embodiment, the conditional expression (1) has been described, but the conditional expression is not necessarily limited to this. In short, the image height with the incident angle θ as a variable, that is, on the camera coordinates from the optical center. Any conditional expression that calculates the distance may be used.

図7は、第1歪み補正係数L1と第2歪み補正係数L2での像高hとの関係を示す模式図である。像高hは、図5に示すように入射角θと補正係数で決定される。第2歪み補正係数L2では被写体(物点P)の像高(光軸Zからの距離)と撮像素子面IA上における像高hとは比例する関係となる。また第1歪み補正係数L1の像高h1に比べて第2歪み補正係数L2における像高h2は、図7に示されるように長くなる。   FIG. 7 is a schematic diagram showing the relationship between the first distortion correction coefficient L1 and the image height h at the second distortion correction coefficient L2. The image height h is determined by the incident angle θ and the correction coefficient as shown in FIG. In the second distortion correction coefficient L2, the image height (distance from the optical axis Z) of the subject (object point P) is proportional to the image height h on the image sensor surface IA. Further, the image height h2 at the second distortion correction coefficient L2 is longer than the image height h1 of the first distortion correction coefficient L1, as shown in FIG.

ここで、上述した第1歪み補正係数L1と第2歪み補正係数L2の意味を明らかにするため、入力画像、上述した第1歪み補正係数L1により処理された画像、第2歪み補正係数L2により処理された画像、の例を図8に示す。   Here, in order to clarify the meaning of the first distortion correction coefficient L1 and the second distortion correction coefficient L2, the input image, the image processed with the first distortion correction coefficient L1, and the second distortion correction coefficient L2 are used. An example of the processed image is shown in FIG.

なお図8においては、仮想投影面VPが初期状態に設定されている場合の例を示している。図8(a)は矩形の壁面に設置された長方形のチャートを、広角レンズを備えた撮像ユニット110で得られた入力画像である。また、図8(b)は第1歪み補正係数L1を用いて後述する歪み補正処理を行った場合の出力画像、図8(c)は第2歪み補正係数L2を用いて後述する歪み補正処理を行った場合の出力画像、の一例である。   FIG. 8 shows an example in which the virtual projection plane VP is set to the initial state. FIG. 8A shows an input image obtained by an imaging unit 110 having a wide-angle lens on a rectangular chart installed on a rectangular wall surface. 8B shows an output image when a distortion correction process described later is performed using the first distortion correction coefficient L1, and FIG. 8C shows a distortion correction process described later using the second distortion correction coefficient L2. It is an example of the output image at the time of performing.

図8(b)に示す例では入力画像での歪曲した曲線は直線となるように補正されていることがわかる。一方で図8(c)に示すように第2歪み補正係数L2により歪み補正処理した場合には、出力画像は図8(a)に示す入力画像とほぼ同一である。つまり歪み補正を行わない場合と同等の出力画像が得られていることがわかる。   In the example shown in FIG. 8B, it can be seen that the distorted curve in the input image is corrected to be a straight line. On the other hand, when the distortion correction processing is performed with the second distortion correction coefficient L2 as shown in FIG. 8C, the output image is almost the same as the input image shown in FIG. That is, it can be seen that an output image equivalent to the case where distortion correction is not performed is obtained.

また、第3歪み補正係数L3を用いて歪み補正処理を行うと、後述するように、図8(b)と図8(c)の中間の歪み補正状態の画像が得られる。   Further, when distortion correction processing is performed using the third distortion correction coefficient L3, an image in a distortion correction state intermediate between FIGS. 8B and 8C is obtained as described later.

〔C−3−1−2〕歪み補正係数L3の説明:
ここで、第3歪み補正係数L3について説明する。歪み補正係数の算出にあたり、歪補正率(DistRatio)を変更することにより、第1歪み補正係数L1と第2歪み補正係数L2との補間によって算出する第3歪み補正係数L3を段階的に切り替え可能に算出している。
[C-3-1-2] Description of distortion correction coefficient L3:
Here, the third distortion correction coefficient L3 will be described. In calculating the distortion correction coefficient, the third distortion correction coefficient L3 calculated by interpolation between the first distortion correction coefficient L1 and the second distortion correction coefficient L2 can be switched stepwise by changing the distortion correction rate (DistRatio). Is calculated.

また、この実施形態では更に、仮想投影面VPの位置も第1位置V1と第2位置V2との補間によって算出する第3位置V3も視点変換率(VCRatio)の変更に合わせて段階的に切り替えている。視点変換の具体例については後述する。   Further, in this embodiment, the position of the virtual projection plane VP and the third position V3 calculated by interpolation between the first position V1 and the second position V2 are also switched stepwise in accordance with the change of the viewpoint conversion rate (VCRatio). ing. A specific example of the viewpoint conversion will be described later.

なお第3歪み補正係数L3、第3位置V3は、以下の式(2)、式(3)により算出している。   The third distortion correction coefficient L3 and the third position V3 are calculated by the following equations (2) and (3).

L3=DistRatio/100×L1+(1−DistRatio/100)×L2 …式(2),
但し、0≦DistRatio/100≦1である。
L3 = DistRatio / 100 × L1 + (1−DistRatio / 100) × L2 Equation (2),
However, 0 ≦ DistRatio / 100 ≦ 1.

V3=VCRatio/100×V1+(1−VCRatio/100)×V2 …式(3),
但し、0≦VCRatio/100≦1である。
V3 = VCRatio / 100 × V1 + (1−VCRatio / 100) × V2 Equation (3),
However, 0 ≦ VCRatio / 100 ≦ 1.

ここで、条件設定(図1中のステップS101)で設定された処理時間に対応して、歪補正率と視点変換率を算出する。例えば10secを1サイクルに設定している場合には、時間が基準の0.0secであれば歪補正率と視点変換率はともに0%、時間が5.0secであれば歪補正率と視点変換率はともに50%、時間が10.0secであれば歪補正率と視点変換率はともに100%、となる。   Here, the distortion correction rate and the viewpoint conversion rate are calculated in accordance with the processing time set in the condition setting (step S101 in FIG. 1). For example, when 10 sec is set to 1 cycle, if the time is 0.0 sec, the distortion correction rate and the viewpoint conversion rate are both 0%, and if the time is 5.0 sec, the distortion correction rate and the viewpoint conversion are set. If the rate is 50% and the time is 10.0 sec, the distortion correction rate and the viewpoint conversion rate are both 100%.

このようにして算出した歪補正率から、上述した式(2)に基づいて歪補正係数L3を算出する。なお、歪補正率が0%の場合には第2歪み補正係数L2そのもの、100%の場合には第1歪み補正係数L1そのものとなる。   The distortion correction coefficient L3 is calculated from the distortion correction factor calculated in this way based on the above-described equation (2). Note that when the distortion correction rate is 0%, the second distortion correction coefficient L2 itself, and when 100%, the first distortion correction coefficient L1 itself.

また、視点変換率から、仮想投影面VPの第3位置の算出を行う。なお第2歪み補正係数L2に対応する仮想投影面VPの初期状態の位置である第2位置と、第1歪み補正係数L1に対応する仮想投影面VPの最終位置である第1位置は、ステップS101で設定されたものである。すなわち、第3位置の算出は、仮想投影面VPの第1位置と第2位置の座標を、視点変換率を用いることで、式(3)により算出する。   Further, the third position of the virtual projection plane VP is calculated from the viewpoint conversion rate. The second position, which is the initial position of the virtual projection plane VP corresponding to the second distortion correction coefficient L2, and the first position, which is the final position of the virtual projection plane VP corresponding to the first distortion correction coefficient L1, are: This is set in S101. In other words, the calculation of the third position is performed by using the viewpoint conversion rate for the coordinates of the first position and the second position of the virtual projection plane VP, using Equation (3).

ここで、歪補正率あるいは、歪補正率と視点変換率を所定の周期で変更する例を図9に示す。   Here, FIG. 9 shows an example in which the distortion correction rate or the distortion correction rate and the viewpoint conversion rate are changed at a predetermined cycle.

図9(a)は、10secを1周期として歪補正率の変更により第3歪み補正係数L3を1秒ごとに10ポイントずつ段階的に変更する例である。なお、図9(a)の例では視点変換は行っていない。   FIG. 9A shows an example in which the third distortion correction coefficient L3 is changed stepwise by 10 points every second by changing the distortion correction rate with 10 seconds as one cycle. Note that viewpoint conversion is not performed in the example of FIG.

図9(b)は、10secを1周期として歪補正率の変更により第3歪み補正係数L3を1秒ごとに10ポイントずつ段階的に変更する例である。また視点変換率を変更することにより第3位置V3も段階的に変更している。図9(b)の例では視点変換率の変更にともない歪補正率も変更している。なお、図9(a)、図9(b)においては10sec周期、全11段階で変更した例を示しているがあくまでも例示であり、周期を任意に変更したり、これよりも細かく多段階に変更したりしてもよい。   FIG. 9B shows an example in which the third distortion correction coefficient L3 is changed stepwise by 10 points every second by changing the distortion correction rate with 10 seconds as one cycle. Further, the third position V3 is also changed stepwise by changing the viewpoint conversion rate. In the example of FIG. 9B, the distortion correction rate is also changed as the viewpoint conversion rate is changed. 9 (a) and 9 (b) show an example in which the period is changed in 10 seconds and 11 steps in all, but it is only an example, and the cycle can be changed arbitrarily, or in more detailed steps than this. It may be changed.

〔C−4〕歪み補正係数の不連続性の解析と対策:
以下、図5に示した歪み補正係数を用いることによって発生しうる画像不良について、図10以降を参照して説明する。なお、この図10でも、入射角が90°を超える超広角レンズに配慮し、上述した式(1)にかかわらず、入射角が90°以上の領域では、本来の像高(w2c値)が無限大であるものとして計算を行う。
[C-4] Analysis and countermeasure of discontinuity of distortion correction coefficient:
Hereinafter, image defects that may occur by using the distortion correction coefficient shown in FIG. 5 will be described with reference to FIG. In FIG. 10 as well, in consideration of a super-wide-angle lens with an incident angle exceeding 90 °, the original image height (w2c value) is in the region where the incident angle is 90 ° or more regardless of the above-described equation (1). Calculate as if it is infinite.

〔C−4−1〕第2歪み補正係数L2の飽和:
図5では理想的な歪み補正係数について説明していたが、第2歪み補正係数L2はtanθの関数であるため、入射角θが90°に近づくにつれ像高としてのw2c値が急激に増大する。
[C-4-1] Saturation of the second distortion correction coefficient L2:
Although the ideal distortion correction coefficient has been described with reference to FIG. 5, since the second distortion correction coefficient L2 is a function of tan θ, the w2c value as the image height increases rapidly as the incident angle θ approaches 90 °. .

つまり、第2歪み補正係数L2は入射角が90度を超えなくても無限大にはならないまでも非常に大きな値となる。そのため画像処理部101の演算処理能力によって制限を受けることがある。   That is, the second distortion correction coefficient L2 is a very large value even if the incident angle does not exceed 90 degrees and does not become infinite. For this reason, the image processing unit 101 may be limited by the arithmetic processing capability.

たとえば、画像処理部101においてw2c値一つあたりに確保されているデータサイズが9ビットの処理能力である場合には、処理可能最大値は511であり、511を超える値については511として処理される。このため、第2歪み補正係数L2による像高h(w2c値)は、図10の(a)のように飽和した特性になる。つまり、第2歪み補正係数L2はtanθの関数であるため、入射角θが90°以上又は90°に近づいてw2c値が急激に増大すると、処理能力の影響で飽和して第2歪み補正係数L2は不連続な曲線となる。   For example, when the data size secured per w2c value in the image processing unit 101 is 9-bit processing capacity, the maximum processable value is 511, and values exceeding 511 are processed as 511. The For this reason, the image height h (w2c value) by the second distortion correction coefficient L2 has a saturated characteristic as shown in FIG. That is, since the second distortion correction coefficient L2 is a function of tan θ, when the incident angle θ is 90 ° or more or approaches 90 ° and the w2c value rapidly increases, the second distortion correction coefficient L2 is saturated due to the influence of the processing capability. L2 is a discontinuous curve.

〔C−4−2〕第3歪み補正係数L3への影響:
上記の飽和特性は、第1歪み補正係数L1と第2歪み補正係数L2との補間により生成される第3歪み補正係数L3についても同様に影響を受けることになる。すなわち、図10に示すように、第2歪み補正係数L2の飽和の影響を受ける事で補間値である(b)の領域で第3歪み補正係数L3による像高hも同様に飽和して不連続となり変形する。
[C-4-2] Effect on third distortion correction coefficient L3:
The saturation characteristic is similarly affected by the third distortion correction coefficient L3 generated by interpolation between the first distortion correction coefficient L1 and the second distortion correction coefficient L2. That is, as shown in FIG. 10, the image height h by the third distortion correction coefficient L3 is also saturated in the region (b) which is the interpolation value due to the influence of the saturation of the second distortion correction coefficient L2, and becomes unsatisfactory. It becomes continuous and deforms.

〔C−4−3〕画像への影響:
第2歪み補正係数L2が飽和して第3歪み補正係数L3が不連続になると、このような歪み補正係数を用いて歪み補正処理した場合には、歪み補正係数の飽和や不連続に対応して、対応する入射角の範囲内で画像不良が発生することがある。以下、画像不良について説明する。
[C-4-3] Effect on image:
When the second distortion correction coefficient L2 is saturated and the third distortion correction coefficient L3 becomes discontinuous, when distortion correction processing is performed using such a distortion correction coefficient, the distortion correction coefficient is saturated or discontinuous. Thus, an image defect may occur within a corresponding incident angle range. Hereinafter, image defects will be described.

〔C−4−3−1〕画像不良(1):
たとえば、図11の一点鎖線(a)で囲んだ範囲に示すように、歪み補正係数の飽和や不連続に対応する入射角の範囲内で、帯状の色のにじみ等により、本来は存在しない画像(偽画像)となって現れてくる。この画像不良のため、従来は被写体の正確な認識が困難になる場合があった。
[C-4-3-1] Image defect (1):
For example, as shown in a range surrounded by a one-dot chain line (a) in FIG. 11, an image that does not originally exist due to a band-like color blur or the like within a range of incident angles corresponding to saturation or discontinuity of a distortion correction coefficient. Appears as a (fake image). Due to this image defect, it has been difficult to accurately recognize the subject.

この偽画像による画像不良は、計算の途中において飽和したw2c値がオーバーフローして0として扱われ、その結果としてw2c=0に相当する光軸中心座標(像高=0)付近の画素が飽和した入射角の位置に出現する現象である。   The image defect due to the false image is treated as 0 because the w2c value saturated in the middle of the calculation overflows, and as a result, the pixel near the optical axis center coordinate (image height = 0) corresponding to w2c = 0 is saturated. It is a phenomenon that appears at the position of the incident angle.

なお、図11では、歪み補正処理と共に視点変換を行った状態を示すが、視点変換を行わずに歪み補正処理のみを行った場合でも、第2歪み補正係数L2の飽和や第3歪み補正係数L3の不連続の影響により、対応する入射角のいずれかの領域において同様な画像不良が発生する。   FIG. 11 shows a state in which the viewpoint conversion is performed together with the distortion correction processing. However, even when only the distortion correction processing is performed without performing the viewpoint conversion, the saturation of the second distortion correction coefficient L2 and the third distortion correction coefficient are performed. Due to the discontinuity of L3, a similar image defect occurs in any region of the corresponding incident angle.

また、この画像不良は入射角が一定以上の領域で発生するものであるため、図11(a)のような直線帯状ではなく、画像の歪みに合わせた曲線形状で出現することもあり得る。   Further, since this image defect occurs in a region where the incident angle is a certain level or more, it may appear in a curved shape that matches the distortion of the image, instead of the straight belt shape as shown in FIG.

〔C−4−3−2〕画像不良(2):
また、図10の領域(b)において、第3歪み補正係数L3の傾きが本来の状態より小さくなっていることに起因して、本来より小さい値が指定された状態になり、中心から外側に広がるように「にじみ」として観察されうる画像不良も存在している。なお、この場合は、「にじみ」薄く広がっているため、図11において具体的な箇所を示すことは難しい。
[C-4-3-3] Image defect (2):
In addition, in the region (b) of FIG. 10, due to the fact that the slope of the third distortion correction coefficient L3 is smaller than the original state, a value smaller than the original value is designated, and from the center to the outer side. There is also an image defect that can be observed as “smear” so as to spread. In this case, since “smear” spreads thinly, it is difficult to show a specific portion in FIG.

〔C−4−3−3〕画像不良(3):
また、歪み補正処理や視点変換処理などの画像処理により、元々は存在しない画素が、図11(b)の破線で囲んだ領域のように黒色の領域として出現する。同様にして、撮像ユニット110のレンズの画角外の領域が、図11(c)の破線で囲んだ領域のように灰色の領域として表示される。
[C-4-3-3] Image defect (3):
Further, pixels that do not originally exist appear as a black region like a region surrounded by a broken line in FIG. 11B by image processing such as distortion correction processing and viewpoint conversion processing. Similarly, a region outside the angle of view of the lens of the imaging unit 110 is displayed as a gray region like a region surrounded by a broken line in FIG.

これら黒色領域や灰色領域は、歪み補正率や視点変換の度合いに応じて形や大きさが変化することになり、被写体の認識にとって邪魔な存在になる。また、この黒色領域や灰色領域は、上述した帯状の画像不良や滲みによる画像不良と同様に、入射角が一定以上の領域で発生するものであり、画像不良として扱うことが可能である。   These black areas and gray areas change in shape and size in accordance with the distortion correction rate and the degree of viewpoint conversion, and become an obstacle to the recognition of the subject. In addition, the black region and the gray region are generated in a region having an incident angle of a certain level or more as in the case of the above-described band-shaped image defect or image defect due to bleeding, and can be handled as an image defect.

〔C−4−4〕ブラックアウトポイント:
本実施形態においては、図10に示されるようにこのように第2歪み補正係数L2が取得される事で画像不良が発生する可能性が高い飽和領域の画素データを、予め定められた所定の値に変換することで、画像不良が可視化しないようにする。たとえば、図10の破線領域(b)については、画像データを黒(R=0,G=0,B=0)などの値に強制的に変換する。(勿論変換値は必ずしもこれに限定されない。)
そして、このような変換処理の対象である画素データか否かを判断するための閾値としてブラックアウトポイントを設定している。
[C-4-4] Blackout point:
In the present embodiment, as shown in FIG. 10, pixel data in a saturated region that is highly likely to cause an image defect by acquiring the second distortion correction coefficient L2 as described above is determined in advance. By converting it to a value, image defects are prevented from being visualized. For example, for the broken line area (b) in FIG. 10, the image data is forcibly converted to a value such as black (R = 0, G = 0, B = 0). (Of course, the conversion value is not necessarily limited to this.)
Then, a blackout point is set as a threshold for determining whether or not the pixel data is the target of such conversion processing.

なおブラックアウトポイントbopとは、第2歪補正係数において前述した画像処理の制限の関係でw2c値が所定の値以上に飽和する点をいい、このbopに対応する最小の入射角をθbopとしている。上述のような予め定められた所定の値への変換処理は、このようなθbopよりも大きな入射角に対応する画素に対して適用する。   The blackout point bop is a point at which the w2c value is saturated to a predetermined value or more in the second distortion correction coefficient due to the above-described image processing restriction, and the minimum incident angle corresponding to this bop is θbop. . The conversion process to a predetermined value as described above is applied to a pixel corresponding to an incident angle larger than such θbop.

また第1歪み補正係数と第2歪み補正係数との補間によって得られる第3歪み補正係数を用いて段階的に歪み補正の度合いを変更するような場合には、bopを通る所定の境界線を設定して、このbopを通る所定の境界線に基づいて判別される第3歪み補正係数の所定の入射角を第2のブラックアウトポイントとし、当該入射角よりも大きい入射角に対応する画素を同様に所定値への変換処理を行う画素とする。   In the case where the degree of distortion correction is changed step by step using the third distortion correction coefficient obtained by interpolation between the first distortion correction coefficient and the second distortion correction coefficient, a predetermined boundary line passing through bop is defined. A pixel corresponding to an incident angle larger than the incident angle is set, with a predetermined incident angle of the third distortion correction coefficient determined based on a predetermined boundary line passing through the bop as a second blackout point. Similarly, the pixel is subjected to conversion processing to a predetermined value.

なおbopを通る所定の境界線も、飽和する領域に設定されて、飽和するw2c値を所定の値に変換するかしないかの閾値である。例えば本実施形態においては図12、図13の第2歪み補正係数L2における(c)点がbopであり、境界線は図12では入射角θの軸に直交する直線が設定されている。   Note that the predetermined boundary line passing through bop is also set as a saturated region, and is a threshold value for determining whether or not to convert the saturated w2c value into a predetermined value. For example, in the present embodiment, point (c) in the second distortion correction coefficient L2 in FIGS. 12 and 13 is bop, and the boundary line is set to a straight line orthogonal to the axis of the incident angle θ in FIG.

同様に図13でも(c)点がbopであり、このbopを通り所定の傾きをもって設定された直線が境界線である。   Similarly, in FIG. 13, the point (c) is bop, and a straight line that passes through this bop and is set with a predetermined inclination is a boundary line.

ここで、画像処理部101は、図12(a)のように第2歪み補正係数L2が飽和した場合に、ブラックアウトポイントbopを通る境界線として、θbopにおける第2歪み補正係数L2(図12(c))におけるw2c値、第2のブラックアウトポイントとしてθbopにおける第3歪み補正係数L3(図12(d1)〜(d4))におけるw2c値、第3のブラックアウトポイントとしてθbopにおける第1歪み補正係数L1(図12(d5))におけるw2c値、を取得する(図4中のステップS106)。但し第1歪み補正係数L1では、第2歪み補正係数L2の飽和の影響を受けない。   Here, when the second distortion correction coefficient L2 is saturated as shown in FIG. 12A, the image processing unit 101 uses the second distortion correction coefficient L2 at θbop (FIG. 12) as a boundary line passing through the blackout point bop. The w2c value in (c)), the w2c value in the third distortion correction coefficient L3 ((d1) to (d4) in FIG. 12) at θbop as the second blackout point, and the first distortion at θbop as the third blackout point The w2c value in the correction coefficient L1 (FIG. 12 (d5)) is acquired (step S106 in FIG. 4). However, the first distortion correction coefficient L1 is not affected by the saturation of the second distortion correction coefficient L2.

なおこの図12のようなbopを通る境界線は、入射角が90度を超えないような、比較的レンズの画角が狭い光学系仕様の場合や、視点変換がない場合、L2とL1との間の変化の時間が短い場合やユーザが飽和によるエラー画素を生じさせない方を重視させる場合に有用である。   Note that the boundary line passing through the bop as shown in FIG. 12 is L2 and L1 when the optical system specification has a relatively narrow angle of view so that the incident angle does not exceed 90 degrees, or when there is no viewpoint conversion. This is useful when the time between changes is short or when the user places importance on not generating error pixels due to saturation.

また、ブラックアウトポイントbopを通る境界線の別態様としては、図13(a)のようにθbopと、撮像ユニット110のレンズの最大入射角θbop2とを求め、ブラックアウトポイントbop(図13の(c)点)とθbop2における第1歪み補正係数L1(図13の(f)点)とを結ぶ線をブラックアウトを通る境界線line_bop(図13中の破線)とする事が可能である。そして画像処理部101は、bopにおけるw2c値、第2のブラックアウトポイントとしてline_bopと交差する第3歪み補正係数L3(図13の(e1)〜(e4)点)におけるw2c値、第3のブラックアウトポイントとしてθbop2における第1歪み補正係数L1(図12の(f)点)におけるw2c値、を取得する(図4中のステップS106)。   Further, as another aspect of the boundary line passing through the blackout point bop, θbop and the maximum incident angle θbop2 of the lens of the imaging unit 110 are obtained as shown in FIG. 13A, and the blackout point bop (( A line connecting the point c) and the first distortion correction coefficient L1 at θbop2 (point (f) in FIG. 13) can be a boundary line_bop (broken line in FIG. 13) passing through the blackout. Then, the image processing unit 101 calculates the w2c value at the bop, the w2c value at the third distortion correction coefficient L3 (points (e1) to (e4) in FIG. 13) intersecting the line_bop as the second blackout point, the third black The w2c value at the first distortion correction coefficient L1 (point (f) in FIG. 12) at θbop2 is acquired as an out point (step S106 in FIG. 4).

この場合、第3歪み補正係数L3が第1歪み補正係数L1に近づくにつれて、補間比率の関係で第2歪み補正係数L2の飽和の影響を受けなくなるため、所定の値に変換処理する入射角を徐々に大きくしている。   In this case, as the third distortion correction coefficient L3 approaches the first distortion correction coefficient L1, it is not affected by the saturation of the second distortion correction coefficient L2 due to the interpolation ratio, so the incident angle for conversion processing to a predetermined value is set. It is gradually increasing.

このような境界線は、入射角が90度を超える光学系仕様の場合など、入射角が飽和領域の一部の値を用いる場合や、視点変換の角度が大きい場合、画像の急激な変化が好ましくない場合等に有用である。   Such a boundary line may cause a sudden change in the image when the incident angle uses a partial value in the saturation region, such as in an optical system specification with an incident angle exceeding 90 degrees, or when the angle of viewpoint conversion is large. This is useful when it is not preferable.

そしてこのようにブラックアウトポイントを通る境界線を適宜設定する事で、前述した所定値に変換する画素かどうかの閾値が設定されるため、後段の歪補正処理において
各歪み補正係数によりカメラ座標系の各画素データに対応づけられたワールド座標系の各画素データを用いるか、それとも所定の値に変換するかを判別して、該当する画素データについては変換処理を適用する。
In this way, by appropriately setting the boundary line passing through the blackout point, the threshold value for determining whether or not the pixel is to be converted to the predetermined value is set. Therefore, in the subsequent distortion correction processing, the camera coordinate system is set by each distortion correction coefficient. It is determined whether each pixel data in the world coordinate system associated with each pixel data is used or converted into a predetermined value, and a conversion process is applied to the corresponding pixel data.

〔C−5〕歪み補正処理用LUT作成:
画像処理部101は、各画素が上述した閾値に基づいて所定値に変換する画素に該当するか否かとは独立に、第1歪み補正係数L1、第2歪み補正係数L2、第3歪み補正係数L3、について、各補正率と入射角θとに応じたw2c値から、仮想投影面VPの座標をワールド座標系からカメラ座標系に変換する際の歪み補正処理に用いるLUTを作成する(図4中のステップS107)。そして生成されたLUTは記憶部103に記憶される。
[C-5] Creation of distortion correction processing LUT:
The image processing unit 101 determines the first distortion correction coefficient L1, the second distortion correction coefficient L2, and the third distortion correction coefficient independently of whether or not each pixel corresponds to a pixel that is converted to a predetermined value based on the threshold value described above. For L3, an LUT used for distortion correction processing when converting the coordinates of the virtual projection plane VP from the world coordinate system to the camera coordinate system is created from the w2c value corresponding to each correction factor and the incident angle θ (FIG. 4). Middle step S107). The generated LUT is stored in the storage unit 103.

なお、歪補正率毎に異なるLUTを設けても良いし、1つのLUTに複数の歪補正率に対応したデータを格納してもよい。   A different LUT may be provided for each distortion correction rate, or data corresponding to a plurality of distortion correction rates may be stored in one LUT.

ここで図14は、ワールド座標系を説明する模式図である。図14に示すようにワールド座標系における仮想投影面VPの4隅の点A(0,0,Za)、点B(0,479,Zb)、点C(639,479,Zc)、点D(639,0,Zd)で囲まれる平面を等間隔で640×480pixelの画素Gv(総画素数30.7万)に分割し、全ての画素Gvそれぞれのワールド座標系における座標を取得する。なお、この図14におけるX、Y座標の値は例示であり、理解を容易にするために、A点のX、Y座標をゼロとして表示している。   Here, FIG. 14 is a schematic diagram for explaining the world coordinate system. As shown in FIG. 14, point A (0, 0, Za), point B (0, 479, Zb), point C (639, 479, Zc), point D of the virtual projection plane VP in the world coordinate system. A plane surrounded by (639, 0, Zd) is divided into 640 × 480 pixel pixels Gv (total number of pixels: 307,000) at equal intervals, and coordinates of all the pixels Gv in the world coordinate system are obtained. Note that the values of the X and Y coordinates in FIG. 14 are examples, and the X and Y coordinates of the point A are displayed as zero for easy understanding.

画素Gvのワールド座標系での座標と、ステップS104〜S105で取得した歪み補正係数から、撮像素子面IAでの対応するカメラ座標系での座標Gi(x’,y’)を算出してLUTを作成する。具体的には、当該歪み補正係数と各画素Gvの座標から得られる、光軸Zに対する入射角度θにより算出している(参考文献:国際公開第2010/032720号)。   From the coordinates of the pixel Gv in the world coordinate system and the distortion correction coefficient acquired in steps S104 to S105, the coordinate Gi (x ′, y ′) in the corresponding camera coordinate system on the image sensor surface IA is calculated to calculate the LUT. Create Specifically, it is calculated from the incident angle θ with respect to the optical axis Z obtained from the distortion correction coefficient and the coordinates of each pixel Gv (reference document: International Publication No. 2010/032720).

図15は、カメラ座標系xyと撮像素子面IAとの対応関係を示す説明図である。図15において点a〜dは、図14の点A〜Dを、第1歪み補正係数L1を用いてカメラ座標系に変換した場合の座標位置である。   FIG. 15 is an explanatory diagram illustrating a correspondence relationship between the camera coordinate system xy and the imaging element surface IA. In FIG. 15, points a to d are coordinate positions when the points A to D in FIG. 14 are converted into the camera coordinate system using the first distortion correction coefficient L1.

なお、図15に示した座標Gi(x’,y’)から参照する撮像素子の画素を決定するが、この際に撮像素子の各画素の座標(x,y)におけるx、yは整数であるが、図4ステップS107のLUT生成過程で用いられる座標Gi(x’,y’)のx’、y’は整数とは限らず小数部分を持つ実数値を取り得る。x’、y’が整数で、座標Gi(x’,y’)と撮像素子の画素の位置とが一致する場合には、対応する撮像素子の画素の画素データを仮想投影面VP上の画素Gv(X,Y,Z)に対応する画素データとして用いることが可能である。一方で、x’、y’が整数でなくx’、y’とx、yとが一致しない場合には4点補間として、画素Gvに対応する出力画像の画素データとして、算出された座標Gi(x’,y’)周辺の画素、座標Gi(x’,y’)の位置に近接する上位4箇所の画素の画素データを用いて、これらの単純平均値あるいは、座標Gi(x’,y’)に対する距離により近接する4箇所の画素に対して重み付けをして算出した画素データを用いる。なお4点補間に限られず、周辺の箇所としては1箇所の単純補間や、16箇所若しくはそれ以上を用いる多点補間であってもよい。   Note that the pixel of the image sensor to be referred to is determined from the coordinates Gi (x ′, y ′) shown in FIG. 15. At this time, x and y in the coordinates (x, y) of each pixel of the image sensor are integers. However, x ′ and y ′ of the coordinates Gi (x ′, y ′) used in the LUT generation process in step S107 in FIG. 4 are not limited to integers and can take real values having a decimal part. When x ′ and y ′ are integers and the coordinates Gi (x ′, y ′) and the position of the pixel of the image sensor coincide with each other, the pixel data of the pixel of the corresponding image sensor is used as a pixel on the virtual projection plane VP. It can be used as pixel data corresponding to Gv (X, Y, Z). On the other hand, when x ′ and y ′ are not integers and x ′ and y ′ do not match x and y, the calculated coordinates Gi are used as pixel data of the output image corresponding to the pixel Gv as four-point interpolation. Using the pixel data of the pixels around (x ′, y ′) and the top four pixels close to the position of the coordinates Gi (x ′, y ′), these simple average values or coordinates Gi (x ′, y Pixel data calculated by weighting four pixels closer to the distance to y ′) are used. In addition, it is not restricted to 4 point | piece interpolation, As a surrounding location, the simple interpolation of 1 location and the multipoint interpolation using 16 locations or more may be sufficient.

なお図14では点A〜Dで囲まれる仮想投影面VPは矩形の平面であるが、図15においてカメラ座標系に座標変換した後の点a〜dで囲まれる領域は(仮想投影面VPの位置に対応して)歪んだ形状となる。なお図15においては樽型形状に歪んだ例を示しているが、光学系の特性により糸巻型、陣笠型(中央では樽型で端部では直線あるいは糸巻型に変化する形状)の歪みとなる場合もある。   In FIG. 14, the virtual projection plane VP surrounded by the points A to D is a rectangular plane. In FIG. 15, the area surrounded by the points a to d after the coordinate conversion to the camera coordinate system is (the virtual projection plane VP The shape is distorted (corresponding to the position). Although FIG. 15 shows an example in which the barrel shape is distorted, the distortion is a pincushion type or a Jinkasa type (a shape that changes into a barrel type at the center and straight or pincushion at the end) due to the characteristics of the optical system. In some cases.

〔C−6〕歪み補正処理:
画像処理部101は、図9のように時間に応じて歪補正率を変えつつ、LUTを用いて歪み補正処理した画像を生成する(図4中のステップS108)。
[C-6] Distortion correction processing:
The image processing unit 101 generates an image subjected to distortion correction processing using the LUT while changing the distortion correction rate according to time as shown in FIG. 9 (step S108 in FIG. 4).

図16は、歪み補正処理を説明する模式図である。図16は画像データの一部を拡大表示したものであり、図示される格子はそれぞれ画素の区切りを示している。   FIG. 16 is a schematic diagram for explaining the distortion correction processing. FIG. 16 is an enlarged view of a part of the image data, and the lattices shown in the figure indicate pixel divisions.

図16(a)の入力画像データは図15の一部を拡大表示したものであり、図14〜図15で説明したように、直線上の被写体は、撮像素子面IA上では収差の影響で曲線上(図16(a)太枠のGi1〜Gi3)に入力されることになる。出力画像データの生成は、LUTを用いて出力画像データの各画素データを、入力画像データの対応する画素データを用いることにより行う。   The input image data in FIG. 16A is an enlarged display of a part of FIG. 15. As described with reference to FIGS. 14 to 15, the subject on the straight line is affected by the aberration on the image sensor surface IA. It is input on the curve (FIG. 16A, thick frames Gi1 to Gi3). The output image data is generated by using each pixel data of the output image data using the LUT and corresponding pixel data of the input image data.

LUTは、各歪補正率に応じた歪み補正係数を考慮して生成されているので、最終的に歪補正率=100%の第1歪み補正係数L1に基づいて生成されたLUTのデータを用いた場合には、当該LUTの対応関係により画素Gv1のデータ(例えば輝度信号)は図16(a)の座標(100,200)のGi1のデータを参照することになる。Gv2、Gv3も同様にそれぞれGi2、Gi3のデータを参照する。   Since the LUT is generated in consideration of the distortion correction coefficient corresponding to each distortion correction factor, the LUT data generated based on the first distortion correction factor L1 of the distortion correction factor = 100% is finally used. In such a case, the data of the pixel Gv1 (for example, the luminance signal) refers to the data of Gi1 at the coordinates (100, 200) in FIG. Similarly, Gv2 and Gv3 refer to the data of Gi2 and Gi3, respectively.

この際、前述した様にブラックアウトポイントを通る境界線で設定される閾値以上の入射角に対応する画素と判断された画素についてはLUTで変換される画素データは無効なもの、つまりLUTにて変換される値に係わらず所定の値、例えば黒に塗りつぶすような値に変換する。   At this time, as described above, the pixel data converted by the LUT is invalid for the pixel determined to be the pixel corresponding to the incident angle equal to or larger than the threshold set by the boundary line passing through the blackout point, that is, by the LUT. Regardless of the value to be converted, it is converted to a predetermined value, for example, a value that is painted black.

〔C−7〕画像出力:
画像処理部101は、図9のように時間に応じて歪補正率を変えつつLUTを用いて歪み補正処理して生成した画像を表示部120に出力し画像表示する(図4中のステップS109)。たとえば、歪み補正処理により生成された出力画像を表示部120に対して、例えばフレームレート30fps、あるいは60fpsで出力して全体の処理を終了する。なお、この画像出力が、第3ステップである。
[C-7] Image output:
The image processing unit 101 outputs an image generated by distortion correction processing using the LUT while changing the distortion correction rate according to time as shown in FIG. 9 to the display unit 120 and displays the image (step S109 in FIG. 4). ). For example, the output image generated by the distortion correction process is output to the display unit 120 at, for example, a frame rate of 30 fps or 60 fps, and the entire process ends. This image output is the third step.

このような結果、歪補正率に応じて歪みが補正され、歪補正率=100%では図16(b)に示すように、出力画像データを生成に伴い曲線状の歪みは解消されて、直線の被写体は元の直線として生成(表示)されることになる。   As a result, the distortion is corrected in accordance with the distortion correction rate. When the distortion correction rate is 100%, as shown in FIG. The subject is generated (displayed) as the original straight line.

また、図16には示されていないが、歪補正率=0%であれば図16(a)の歪みをそのままのこした形状の画像が出力され、歪補正率が0%より大きく100%より小さけば図16(a)と図16(b)の中間の歪みを残した形状の画像が出力される。   Although not shown in FIG. 16, if the distortion correction rate = 0%, an image having a shape with the distortion shown in FIG. 16A is output as it is, and the distortion correction rate is greater than 0% and 100%. If it is smaller, an image having a shape with an intermediate distortion between FIGS. 16A and 16B is output.

なお、この際に、ステップS101において仮想投影面VPの設定により視点変換の設定がなされているような場合には、画像処理部101でこのような処理も併せて行われることになる。   At this time, if the viewpoint conversion is set by setting the virtual projection plane VP in step S101, such processing is also performed by the image processing unit 101.

〔D〕歪み補正処理による表示例:
以下、本実施形態の歪み補正処理を適用した場合の表示例を説明する。
[D] Display example by distortion correction processing:
Hereinafter, a display example when the distortion correction processing of the present embodiment is applied will be described.

〔D−1〕仮想投影面VPの位置変更による視点変換:
図17は、カメラ座標系の画像中心oを回転中心(若しくは移動中心)として仮想投影面VP0の位置を変更する例である。この図17に示すように画像中心oを回転中心としてx軸回りの回転が実pitch(tilt:チルトともいう)であり、y軸回りの回転が実yaw(pan:パンともいう)、Z軸回りの回転が実rollである。
[D-1] Viewpoint conversion by changing the position of the virtual projection plane VP:
FIG. 17 shows an example in which the position of the virtual projection plane VP0 is changed with the image center o in the camera coordinate system as the rotation center (or movement center). As shown in FIG. 17, the rotation about the x-axis with the image center o as the rotation center is an actual pitch (also referred to as tilt), the rotation about the y-axis is the actual yaw (also referred to as pan), and the Z-axis. The rotation around is real roll.

図18は、入力された回転量の設定値に基づいて仮想投影面VP0の中心ovを回転中心として仮想投影面VPの位置を変更する例である。仮想投影面VP0上の直交する関係となる2軸の一方をYaw−axis、他方をP−axisとして設定する。両者は中心ovを通る軸であり、中心ovを回転中心としてYaw−axis回りの回転を仮想yaw回転、P−axis回りの回転を仮想pitch回転という。以下においては仮想カメラCa0を回転あるいは位置変更させたことに相当する視点変換が行われる。   FIG. 18 is an example in which the position of the virtual projection plane VP is changed with the center ov of the virtual projection plane VP0 as the center of rotation based on the input rotation amount setting value. One of the two axes that are orthogonal to each other on the virtual projection plane VP0 is set as Yaw-axis, and the other is set as P-axis. Both are axes passing through the center ov, and rotation around the Yaw-axis with the center ov as the rotation center is called virtual yaw rotation, and rotation around the P-axis is called virtual pitch rotation. In the following, viewpoint conversion corresponding to rotating or changing the position of the virtual camera Ca0 is performed.

図9(b)における、第2位置V2は初期状態の位置に設定している。このときの仮想投影面VPはXY平面と平行でありその中心ovは光軸Z上にある(図17、図18のVP0の位置に相当)。第1位置V1は、仮想pitch及び実pitchがともに45度で両者を合わせて90度に設定した例である。この場合、被写体を見下ろすように視点変換がなされる。なお位置変更の組み合わせはこれに限られず、平行移動、実picth、実yaw、実roll、仮想pitch、仮想yaw、の何れかあるいはこれらを組み合わせても良い。   In FIG. 9B, the second position V2 is set to the position in the initial state. The virtual projection plane VP at this time is parallel to the XY plane and the center ov is on the optical axis Z (corresponding to the position of VP0 in FIGS. 17 and 18). The first position V1 is an example in which the virtual pitch and the real pitch are both 45 degrees, and both are set to 90 degrees. In this case, the viewpoint is changed so as to look down at the subject. Note that the combination of position changes is not limited to this, and any one of parallel movement, real picth, real yaw, real roll, virtual pitch, virtual yaw, or a combination thereof may be used.

〔D−2〕仮想投影面VPの位置変更による視点変換の画像処理例:
図19(a)〜図19(f)は、上述のD−1のように90°見下ろす始点変換を伴い、上述した各歪み補正係数においてブラックアウトポイントbopで塗りつぶしを行うことで、画像不良を表示させないように、画像処理部101で歪み補正処理し、表示部120に表示させた表示画像の例である。また、この図19の例では、図9(b)に示したように歪補正率の変化に対応させて仮想投影面VPの位置も変化させている。
[D-2] Image processing example of viewpoint conversion by changing the position of the virtual projection plane VP:
19 (a) to 19 (f) are accompanied by the start point conversion looking down at 90 ° as in the above-described D-1, and by performing the filling at the blackout point bop in each of the above distortion correction coefficients, This is an example of a display image that has been subjected to distortion correction processing by the image processing unit 101 and displayed on the display unit 120 so as not to be displayed. In the example of FIG. 19, the position of the virtual projection plane VP is also changed corresponding to the change of the distortion correction rate as shown in FIG. 9B.

図19(a)は、初期値として歪補正率0%(第2歪み補正係数L2)で位置移動率0%(第2位置)の条件で算出した画像データを表示させた例である。   FIG. 19A shows an example in which image data calculated under the conditions of a distortion correction rate of 0% (second distortion correction coefficient L2) and a position movement rate of 0% (second position) are displayed as initial values.

図19(b)〜図19(e)は、歪補正率、位置移動率がともに20%,40%,60%,80%に変化させた条件下で算出された画像データを表示させた例である。なお、上述したb塗りつぶしの領域を、ここでは、ハッチングで示している。実際には、黒など一定の値で塗りつぶすことになるので、画像不良を覆い隠しつつ、目立たない状態になる。   FIG. 19B to FIG. 19E show examples in which image data calculated under conditions in which both the distortion correction rate and the position movement rate are changed to 20%, 40%, 60%, and 80% are displayed. It is. Note that the b-filled area described above is indicated by hatching. Actually, it is painted with a constant value such as black, so that the image defect is covered and inconspicuous.

なお本図面では明確ではないが、本態様のように所定の値に変換処理を行う事によって、単に飽和した領域をそのまま表示する場合と比べて「にじみ」が効果的に解消される。   Although it is not clear in this drawing, by performing conversion processing to a predetermined value as in this aspect, “smudge” is effectively eliminated as compared with the case where a saturated region is simply displayed as it is.

また、ここでは、図13のようにブラックアウトポイントbopを通る境界線を補正率に応じて徐々に変化させた場合を具体例としている。   Here, a specific example is given of a case where the boundary line passing through the blackout point bop is gradually changed according to the correction rate as shown in FIG.

そして、図19(f)では、歪補正率が100%とすることにより画像の歪みは解消されており、また位置の移動により仮想pitch及び実pitchがともに−45deg変更されており被写体を見下ろすように視点変更がなされている。   In FIG. 19F, the distortion of the image is eliminated by setting the distortion correction rate to 100%, and the virtual pitch and the actual pitch are both changed by −45 degrees due to the movement of the position, so that the subject is looked down. The viewpoint has been changed.

以上の処理で、表示部120には、図19(a)を初期画像として、最終画像の図19(f)までを一定の速度で表示画像を順次更新しながら表示させている。図9(b)の具体例では、補正率及び位置移動率が低い画像から高い画像まで順に表示させ、これを10秒周期で繰り返している。   With the above processing, the display unit 120 displays the initial image shown in FIG. 19A and the final image shown in FIG. 19F while sequentially updating the display image at a constant speed. In the specific example of FIG. 9B, images having a low correction rate and position movement rate are displayed in order from a low image to a high image, and this is repeated at a cycle of 10 seconds.

また、図12のようにブラックアウトポイントbopを通る境界線を垂直に定めた場合の表示例を、図20に示す。この場合には、図11で説明した灰色領域や黒色領域の画像不良についても一定値での塗りつぶし(図20中ではハッチングで示す)が施されるため、〔C−4−3−1〕画像不良(1),〔C−4−3−2〕画像不良(2),〔C−4−3−3〕画像不良(3)の画素出力を効果的に軽減させることができる。   Further, FIG. 20 shows a display example when the boundary line passing through the blackout point bop is determined vertically as shown in FIG. In this case, the image defects in the gray area and black area described in FIG. 11 are also filled with a constant value (indicated by hatching in FIG. 20), and thus the [C-4-3-1] image Pixel output of defect (1), [C-4-3-3] image defect (2), [C-4-3-3] image defect (3) can be effectively reduced.

本実施形態によれば、位置が設定された前記仮想投影面を補正係数によりカメラ座標系に変換し、変換したカメラ座標系の座標及び前記画素の画素データに基づいて前記仮想投影面の画像データの算出を行うに際し、補正係数及び位置のデータを変更させながら画像データの算出を行うことにより、歪補正率変更とともに仮想投影面の位置変更(カメラ視点の変更)を並行して行う場合であっても、別なプロセスを設ける必要がない。新たなリソースの増強を必要とせずに位置変更と歪補正率変更を同時に行うことが可能となる。   According to this embodiment, the virtual projection plane whose position is set is converted into a camera coordinate system using a correction coefficient, and the image data of the virtual projection plane is converted based on the coordinates of the converted camera coordinate system and the pixel data of the pixel. This is a case where the position of the virtual projection plane (camera viewpoint change) is changed in parallel with the distortion correction rate change by calculating the image data while changing the correction coefficient and the position data. However, it is not necessary to provide a separate process. It is possible to change the position and change the distortion correction rate at the same time without requiring new resource enhancement.

また、本実施形態によれば、歪補正しない出力画像から歪補正を行う出力画像までを歪補正率を段階的に変更することにより歪補正しない出力画像の正確な認識を図ることが容易になり、この際に、歪み補正係数の飽和の影響で発生する画像不良を覆い隠すことで、被写体の正確な認識を図ることが可能になる。   In addition, according to the present embodiment, it is easy to accurately recognize an output image without distortion correction by changing the distortion correction rate stepwise from an output image without distortion correction to an output image with distortion correction. At this time, it is possible to accurately recognize the subject by covering up the image defect that occurs due to the saturation of the distortion correction coefficient.

すなわち、広角レンズへ非常に大きな角度で入射する事による画像処理上の制限で生ずる画像不良による被写体の誤認識を簡易的な方法で、しかも効果的に軽減することができる。   That is, erroneous recognition of a subject due to image defects caused by image processing limitations caused by entering a wide-angle lens at a very large angle can be effectively reduced.

100 制御装置
101 画像処理部
102 設定部
103 記憶部
110 撮像ユニット
120 表示部
130 操作部
VP 仮想投影面
LC レンズ中心面
IA 撮像素子面
O レンズ中心
o 画像中心
L1 第1歪み補正係数
L2 第2歪み補正係数
L3 第3歪み補正係数
DESCRIPTION OF SYMBOLS 100 Control apparatus 101 Image processing part 102 Setting part 103 Storage part 110 Imaging unit 120 Display part 130 Operation part VP Virtual projection surface LC Lens center plane IA Image sensor surface O Lens center o Image center L1 1st distortion correction coefficient L2 2nd distortion Correction coefficient L3 Third distortion correction coefficient

Claims (15)

光学系を介して複数の画素を有する撮像素子に受光して得られた複数の画素データを用いて処理した画像データを得る画像処理方法であって、
ワールド座標系の仮想投影面の位置及びサイズを設定する第1ステップと、
前記第1ステップで設定された前記仮想投影面の各画素のワールド座標系における座標を歪み補正係数を用いてカメラ座標系に変換し、変換したカメラ座標系における座標及び前記複数の画素データに基づいて前記第1ステップで設定された仮想投影面の画像データを算出する第2ステップと、
前記第2ステップで算出された画像データによる表示用画像を出力する第3ステップと、を有し、
前記第2ステップで用いられる前記歪み補正係数には、少なくとも、前記光学系のレンズの物理的特性及び前記光学系への設定された前記仮想投影面からの入射光の入射角に基づいて算出され前記光学系により生ずる歪みを補正するための第1歪み補正係数と、前記光学系への入射角の正接関数を変数として算出される前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高であって、前記歪みを補正しない第2歪み補正係数とが含まれており、
前記第2ステップには、第2歪み補正係数が所定の値以上となる最小入射角がある場合、前記最小入射角より大きな入射角に対応する画素データを、予め定められた所定の値に変換するステップを含むことを特徴とする画像処理方法。
An image processing method for obtaining image data processed using a plurality of pixel data obtained by receiving an image sensor having a plurality of pixels via an optical system,
A first step of setting a position and size of a virtual projection plane in the world coordinate system;
The coordinates in the world coordinate system of each pixel of the virtual projection plane set in the first step are converted into a camera coordinate system using a distortion correction coefficient, and based on the converted coordinates in the camera coordinate system and the plurality of pixel data A second step of calculating image data of the virtual projection plane set in the first step;
A third step of outputting a display image based on the image data calculated in the second step,
The distortion correction coefficient used in the second step is calculated based on at least the physical characteristics of the lens of the optical system and the incident angle of the incident light from the virtual projection plane set to the optical system. From the optical center at which the first distortion correction coefficient for correcting distortion caused by the optical system and the optical element of the optical system intersect with the image sensor calculated using the tangent function of the incident angle to the optical system as a variable And a second distortion correction coefficient that does not correct the distortion,
In the second step, when there is a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value, pixel data corresponding to an incident angle larger than the minimum incident angle is converted into a predetermined value. An image processing method comprising the step of:
前記3ステップは段階的に歪みが補正された画像データの表示用動画像を出力するものであって、
前記第2ステップにおいて前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出する、
ことを特徴とする請求項1記載の画像処理方法。
The three steps output a moving image for display of image data in which distortion is corrected in stages,
In the second step, the first distortion correction coefficient, the second distortion correction coefficient, and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients are switched in stages and used for virtual projection. Calculate the image data of the surface,
The image processing method according to claim 1.
前記第2ステップで、前記第2歪み補正係数の値が所定の値以上となる最小入射角がある場合、前記最小入射角より大きな入射角に対応する前記画素データを予め定められた所定の値に変換する際、前記第3歪み補正係数に含まれる前記第2歪み補正係数の補間割合に応じて前記所定の値に変換する際の前記入射角を変更する、
ことを特徴とする請求項2に記載の画像処理方法。
In the second step, when there is a minimum incident angle at which the value of the second distortion correction coefficient is equal to or greater than a predetermined value, the pixel data corresponding to an incident angle larger than the minimum incident angle is set to a predetermined value Changing the incident angle when converting to the predetermined value according to the interpolation ratio of the second distortion correction coefficient included in the third distortion correction coefficient,
The image processing method according to claim 2.
前記第1ステップでは、ワールド座標系の仮想投影面の第1位置と第2位置を設定し、
前記第2ステップでは、初期の前記第2位置と前記第2歪み補正係数、最終の前記第1位置と前記第1歪み補正係数、途中の前記第2位置と前記第1位置の補間によって得られた第3位置と前記第3歪み補正係数、と段階的に切り替えて用いて仮想投影面の画像データを算出する、
ことを特徴とする請求項1〜3のいずれか一項に記載の画像処理方法。
In the first step, the first position and the second position of the virtual projection plane of the world coordinate system are set,
In the second step, the initial second position and the second distortion correction coefficient, the final first position and the first distortion correction coefficient, and interpolation between the second position and the first position in the middle are obtained. Calculating the image data of the virtual projection plane using the third position and the third distortion correction coefficient by switching in stages.
The image processing method according to any one of claims 1 to 3.
前記第2歪み補正係数は、以下の条件式(1)で表される、
ことを特徴とする請求項1から4のいずれか一項に記載の画像処理方法。
L2=((ExportImageSize/2)/(tan(focal/2)))×tanθ …式(1)
ここで、
ExportImageSize:表示部で表示する出力画像の長辺の長さ,
focal:設定された仮想投影面の長辺方向における画角,
である。
The second distortion correction coefficient is expressed by the following conditional expression (1).
The image processing method according to claim 1, wherein the image processing method is an image processing method.
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tanθ Equation (1)
here,
ExportImageSize: the length of the long side of the output image to be displayed on the display,
focal: Angle of view in the long side direction of the set virtual projection plane,
It is.
光学系を介して複数の画素を有する撮像素子に受光して得られた複数の画素データを用いて処理した画像データを得る画像処理装置であって、
歪み補正係数を記憶する記憶部と、
位置及びサイズが設定された仮想投影面の各画素のワールド座標系における座標を前記記憶部に記憶された歪み補正係数を用いてカメラ座標系に変換し、カメラ座標系に変換した座標及び前記複数の画素データに基づいて、前記仮想投影面の画像データを算出する画像処理部と、
前記画像処理部で算出した画像データの表示用の画像信号を出力する画像信号出力部と、を有し、
前記記憶部には、記憶される前記歪み補正係数として少なくとも、前記光学系のレンズの物理的特性及び前記光学系への設定された前記仮想投影面からの入射光の入射角に基づいて算出され前記光学系により生ずる歪みを補正するための第1歪み補正係数並びに前記光学系への入射角の正接関数を変数として算出される前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高であって前記歪みを補正しない第2歪み補正係数を有し、
前記画像処理部は、前記第2歪み補正係数が所定の値以上となる最小入射角がある場合に、前記最小入射角より大きな入射角に対応する画素データを、予め定められた所定の値に変換することを特徴とする画像処理装置。
An image processing apparatus that obtains image data processed using a plurality of pixel data obtained by receiving an image sensor having a plurality of pixels via an optical system,
A storage unit for storing distortion correction coefficients;
The coordinates in the world coordinate system of each pixel of the virtual projection plane whose position and size are set are converted into the camera coordinate system using the distortion correction coefficient stored in the storage unit, and the coordinates converted into the camera coordinate system and the plurality of the coordinates An image processing unit that calculates image data of the virtual projection plane based on the pixel data;
An image signal output unit that outputs an image signal for display of the image data calculated by the image processing unit,
In the storage unit, the stored distortion correction coefficient is calculated based on at least the physical characteristics of the lens of the optical system and the incident angle of the incident light from the virtual projection plane set on the optical system. A first distortion correction coefficient for correcting distortion caused by the optical system and a tangent function of an incident angle to the optical system are used as variables, and the optical element from the optical center where the optical axis of the optical system intersects. A second distortion correction coefficient which is an image height and does not correct the distortion;
The image processing unit sets pixel data corresponding to an incident angle larger than the minimum incident angle to a predetermined value when there is a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value. An image processing apparatus for converting.
前記画像信号出力部は段階的に歪みが補正された画像データの表示用動画像を出力するものであって、
前記画像処理部は、前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出する、
ことを特徴とする請求項6に記載の画像処理装置。
The image signal output unit outputs a moving image for display of image data in which distortion is corrected stepwise,
The image processing unit virtually switches the first distortion correction coefficient, the second distortion correction coefficient, and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients in a stepwise manner. Calculating image data of the projection plane,
The image processing apparatus according to claim 6.
前記画像処理部で、前記第2歪み補正係数が所定の値以上となる最小入射角を判別し、第2歪み補正係数が所定の値以上となる最小入射角がある場合であって前記最小入射角より大きな入射角に対応する画素データを、予め定められた所定の値に変換する際に、前記第3歪み補正係数に含まれる前記第2歪み補正係数の補間割合に応じて前記変換する際の前記入射角を変更する、
ことを特徴とする請求項7に記載の画像処理装置。
The image processing unit determines a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value, and has a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value. When the pixel data corresponding to the incident angle larger than the angle is converted into a predetermined value, the conversion is performed according to the interpolation ratio of the second distortion correction coefficient included in the third distortion correction coefficient. Changing the incident angle of
The image processing apparatus according to claim 7.
ワールド座標系の前記仮想投影面は第1位置と第2位置が設定されており、
前記画像処理部は、初期の前記第2位置と前記第2歪み補正係数、最終の前記第1位置と前記第1歪み補正係数、途中の前記第2位置と前記第1位置の補間によって得られた第3位置と前記第3歪み補正係数、と段階的に切り替えて用いて仮想投影面の画像データを算出する、
ことを特徴とする請求項6−8のいずれか一項に記載の画像処理装置。
The virtual projection plane of the world coordinate system has a first position and a second position,
The image processing unit is obtained by interpolation between the initial second position and the second distortion correction coefficient, the final first position and the first distortion correction coefficient, and the intermediate second position and first position. Calculating the image data of the virtual projection plane using the third position and the third distortion correction coefficient by switching in stages.
The image processing apparatus according to claim 6, wherein the image processing apparatus is an image processing apparatus.
前記第2歪み補正係数は、以下の条件式(1)で表される、
ことを特徴とする請求項6−9のいずれか一項に記載の画像処理装置。
L2=((ExportImageSize/2)/(tan(focal/2)))×tanθ …式(1)
ここで、
ExportImageSize:表示部で表示する出力画像の長辺の長さ,
focal:設定された仮想投影面の長辺方向における画角,
である。
The second distortion correction coefficient is expressed by the following conditional expression (1).
The image processing apparatus according to claim 6, wherein the image processing apparatus is an image processing apparatus.
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tanθ Equation (1)
here,
ExportImageSize: the length of the long side of the output image to be displayed on the display,
focal: Angle of view in the long side direction of the set virtual projection plane,
It is.
光学系と、
複数の画素を有する撮像素子と、
前記光学系の歪み補正係数を記憶する記憶部と、
仮想投影面の各画素のワールド座標系における座標を前記光学系の歪み補正係数を用いてカメラ座標系に変換し、カメラ座標系に変換した座標及び前記撮像素子に受光して得られた複数の画素データに基づいて、前記仮想投影面の画像データを算出する画像処理部と、
前記画像処理部で算出した画像データの表示用の画像信号を出力する画像信号出力部と、を有し、
前記記憶部には、記憶される前記歪み補正係数として少なくとも、前記光学系のレンズの物理的特性及び前記光学系への設定された前記仮想投影面からの入射光の入射角に基づいて算出され前記光学系により生ずる歪みを補正するための第1歪み補正係数並びに前記光学系への入射角の正接関数を変数として算出される前記撮像素子と前記光学系の光軸とが交わる光学中心からの像高であって前記歪みを補正しない第2歪み補正係数を有し、
前記画像処理部は、前記第2歪み補正係数が所定の値以上となる最小入射角がある場合に、前記最小入射角より大きな入射角に対応する画素データを、予め定められた所定の値に変換することを特徴とする撮像装置。
Optical system,
An imaging device having a plurality of pixels;
A storage unit for storing distortion correction coefficients of the optical system;
A coordinate in the world coordinate system of each pixel of the virtual projection plane is converted into a camera coordinate system using the distortion correction coefficient of the optical system, and the coordinates converted into the camera coordinate system and a plurality of light received by the imaging element are received. An image processing unit that calculates image data of the virtual projection plane based on pixel data;
An image signal output unit that outputs an image signal for display of the image data calculated by the image processing unit,
In the storage unit, the stored distortion correction coefficient is calculated based on at least the physical characteristics of the lens of the optical system and the incident angle of the incident light from the virtual projection plane set on the optical system. A first distortion correction coefficient for correcting distortion caused by the optical system and a tangent function of an incident angle to the optical system are used as variables, and the optical element from the optical center where the optical axis of the optical system intersects. A second distortion correction coefficient which is an image height and does not correct the distortion;
The image processing unit sets pixel data corresponding to an incident angle larger than the minimum incident angle to a predetermined value when there is a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value. An imaging apparatus characterized by converting.
前記画像信号出力部は段階的に歪みが補正された画像データの表示用動画像を出力するものであって、
前記画像処理部は、前記第1歪み補正係数、前記第2歪み補正係数、及び前記第1、第2歪み補正係数から補間によって得られた第3歪み補正係数を段階的に切り替えて用いて仮想投影面の画像データを算出する、
ことを特徴とする請求項11に記載の撮像装置。
The image signal output unit outputs a moving image for display of image data in which distortion is corrected stepwise,
The image processing unit virtually switches the first distortion correction coefficient, the second distortion correction coefficient, and the third distortion correction coefficient obtained by interpolation from the first and second distortion correction coefficients in a stepwise manner. Calculating image data of the projection plane,
The imaging apparatus according to claim 11.
前期画像処理部で、前記第2歪み補正係数が所定の値以上となる最小入射角を判別し、第2歪み補正係数が所定の値以上となる最小入射角がある場合であって前記最小入射角より大きな入射角に対応する画素データを、予め定められた所定の値に変換する際、前記第3歪み補正係数に含まれる前記第2歪み補正係数の補間割合に応じて前記変換する際の前記入射角を変更する、
ことを特徴とする請求項12に記載の撮像装置。
The previous image processing unit determines a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value, and there is a minimum incident angle at which the second distortion correction coefficient is equal to or greater than a predetermined value. When converting pixel data corresponding to an incident angle larger than an angle into a predetermined value, the conversion is performed according to the interpolation ratio of the second distortion correction coefficient included in the third distortion correction coefficient. Changing the incident angle,
The imaging apparatus according to claim 12.
ワールド座標系の前記仮想投影面は第1位置と第2位置が設定されており、
前記画像処理部は、初期の前記第2位置と前記第2歪み補正係数、最終の前記第1位置と前記第1歪み補正係数、途中の前記第2位置と前記第1位置の補間によって得られた第3位置と前記第3歪み補正係数、と段階的に切り替えて用いて仮想投影面の画像データを算出する、
ことを特徴とする請求項11−13のいずれか一項に記載の撮像装置。
The virtual projection plane of the world coordinate system has a first position and a second position,
The image processing unit is obtained by interpolation between the initial second position and the second distortion correction coefficient, the final first position and the first distortion correction coefficient, and the intermediate second position and first position. Calculating the image data of the virtual projection plane using the third position and the third distortion correction coefficient by switching in stages.
The image pickup apparatus according to claim 11, wherein the image pickup apparatus is an image pickup apparatus.
前記第2歪み補正係数は、以下の条件式(1)で表される、
ことを特徴とする請求項11−14のいずれか一項に記載の撮像装置。
L2=((ExportImageSize/2)/(tan(focal/2)))×tanθ …式(1)
ここで、
ExportImageSize:表示部で表示する出力画像の長辺の長さ,
focal:設定された仮想投影面の長辺方向における画角,
である。
The second distortion correction coefficient is expressed by the following conditional expression (1).
The imaging device according to any one of claims 11 to 14, wherein
L2 = ((ExportImageSize / 2) / (tan (focal / 2))) × tanθ Equation (1)
here,
ExportImageSize: the length of the long side of the output image to be displayed on the display,
focal: Angle of view in the long side direction of the set virtual projection plane,
It is.
JP2011137619A 2011-06-21 2011-06-21 Image processing method having wide-angle distortion correction processing, image processing apparatus, and imaging apparatus Active JP5682473B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011137619A JP5682473B2 (en) 2011-06-21 2011-06-21 Image processing method having wide-angle distortion correction processing, image processing apparatus, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011137619A JP5682473B2 (en) 2011-06-21 2011-06-21 Image processing method having wide-angle distortion correction processing, image processing apparatus, and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2013005394A true JP2013005394A (en) 2013-01-07
JP5682473B2 JP5682473B2 (en) 2015-03-11

Family

ID=47673436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011137619A Active JP5682473B2 (en) 2011-06-21 2011-06-21 Image processing method having wide-angle distortion correction processing, image processing apparatus, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5682473B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017045312A (en) * 2015-08-27 2017-03-02 株式会社デンソー Image generation device, image generation method, and program
CN111201779A (en) * 2017-10-19 2020-05-26 索尼公司 Imaging apparatus and signal processing apparatus
CN111201780A (en) * 2017-10-19 2020-05-26 索尼公司 Imaging apparatus and method, and image processing apparatus and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301052A (en) * 2007-05-30 2008-12-11 Kyocera Corp Image processing method and apparatus
JP2011008762A (en) * 2009-05-29 2011-01-13 Fujitsu Ten Ltd Image processor, electronic device, and image processing method
JP2011054008A (en) * 2009-09-03 2011-03-17 Suzuki Motor Corp Distorted image correction device and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301052A (en) * 2007-05-30 2008-12-11 Kyocera Corp Image processing method and apparatus
JP2011008762A (en) * 2009-05-29 2011-01-13 Fujitsu Ten Ltd Image processor, electronic device, and image processing method
JP2011054008A (en) * 2009-09-03 2011-03-17 Suzuki Motor Corp Distorted image correction device and method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017045312A (en) * 2015-08-27 2017-03-02 株式会社デンソー Image generation device, image generation method, and program
WO2017033691A1 (en) * 2015-08-27 2017-03-02 株式会社デンソー Image generation device, image generation method, and program
CN111201779A (en) * 2017-10-19 2020-05-26 索尼公司 Imaging apparatus and signal processing apparatus
CN111201780A (en) * 2017-10-19 2020-05-26 索尼公司 Imaging apparatus and method, and image processing apparatus and method
US11431911B2 (en) 2017-10-19 2022-08-30 Sony Corporation Imaging device and signal processing device
CN111201780B (en) * 2017-10-19 2022-09-16 索尼公司 Imaging apparatus and method, and image processing apparatus and method
CN111201779B (en) * 2017-10-19 2022-11-01 索尼公司 Imaging apparatus and signal processing apparatus
US11659289B2 (en) 2017-10-19 2023-05-23 Sony Corporation Imaging apparatus and method, and image processing apparatus and method

Also Published As

Publication number Publication date
JP5682473B2 (en) 2015-03-11

Similar Documents

Publication Publication Date Title
US9313411B2 (en) Camera, distortion correction device and distortion correction method
US9262807B2 (en) Method and system for correcting a distorted input image
US8134608B2 (en) Imaging apparatus
US20120093365A1 (en) Conference system, monitoring system, image processing apparatus, image processing method and a non-transitory computer-readable storage medium
WO2012060269A1 (en) Image processing method, image processing device, and imaging device
JP2010087672A (en) Image processing method, image processing apparatus, and imaging device
KR20070004202A (en) Method for correcting lens distortion in digital camera
JP6526273B2 (en) Image processing apparatus, image processing method, and imaging apparatus
TWI517094B (en) Image calibration method and image calibration circuit
JP6047008B2 (en) Image processing apparatus, imaging apparatus including the same, and control method of image processing apparatus
JP2007293457A (en) Image processor
JP5682473B2 (en) Image processing method having wide-angle distortion correction processing, image processing apparatus, and imaging apparatus
JP2013005393A (en) Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus
JPWO2012056982A1 (en) Image processing method, image processing apparatus, and imaging apparatus
JP6513941B2 (en) Image processing method, image processing apparatus and program
JP4821704B2 (en) Image distortion correction method
JP2013005392A (en) Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus
WO2011161746A1 (en) Image processing method, program, image processing device and image capturing device
JP5393877B2 (en) Imaging device and integrated circuit
JP5047915B2 (en) In-vehicle image processing apparatus and image processing method thereof
WO2011158344A1 (en) Image processing method, program, image processing device, and imaging device
WO2012060271A1 (en) Image processing method, image processing device, and imaging device
WO2011158343A1 (en) Image processing method, program, image processing device, and imaging device
JP2020061662A (en) Video processing device, video processing method, and program
JP6440465B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141229

R150 Certificate of patent or registration of utility model

Ref document number: 5682473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150