JP2004272578A - Image pickup unit and distortion correction method - Google Patents
Image pickup unit and distortion correction method Download PDFInfo
- Publication number
- JP2004272578A JP2004272578A JP2003062147A JP2003062147A JP2004272578A JP 2004272578 A JP2004272578 A JP 2004272578A JP 2003062147 A JP2003062147 A JP 2003062147A JP 2003062147 A JP2003062147 A JP 2003062147A JP 2004272578 A JP2004272578 A JP 2004272578A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distortion
- wide
- image data
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012937 correction Methods 0.000 title claims abstract description 96
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000003287 optical effect Effects 0.000 claims abstract description 71
- 230000002093 peripheral effect Effects 0.000 claims abstract description 29
- 238000003384 imaging method Methods 0.000 claims description 90
- 230000004075 alteration Effects 0.000 abstract 2
- 238000012545 processing Methods 0.000 description 99
- 238000012544 monitoring process Methods 0.000 description 52
- 238000004891 communication Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 30
- 230000014509 gene expression Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 238000012886 linear function Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、撮像装置及び歪み補正方法に関し、特に、負の歪曲収差を有する結像光学系で撮像した画像に生じる歪みを補正する歪み補正処理を従来よりも高速に実行することができる撮像装置及び歪み補正方法に関する。
【0002】
【従来の技術】
被写体を撮影する場合に、広視野で撮影したい場合がある。特に、監視カメラでは、監視を目的とする性質上、広視野であることが望ましい。このような要求を満たす撮影方法の一つとして、魚眼レンズや中心窩レンズ等の広歪曲レンズを用いて撮影する方法が考えられる。
【0003】
広歪曲レンズは、例えば画角180度又はそれ以上を写し込むレンズであるから、180度の視野を通常の広角レンズと同じように完全な相似形の像として有限の画面内に収めるのは、原理的に無理である。画角180度又はそれ以上の視野を有限の画面内に収めるために、広歪曲レンズは、負の歪曲収差が与えられており、画面の中心を通過しない直線は、すべて樽型方向の曲線に写る。
【0004】
図14は、広歪曲レンズで撮像した撮像画像及びその歪みを補正した歪み補正画像を示す図である。図14(A)は、広歪曲レンズで撮像した撮像画像を示す図であり、図14(B)は、歪みを補正した歪み補正画像を示す図である。
【0005】
図14(A)において、広歪曲レンズで撮像した撮像画像1001は、上述のように、撮像画像1001における画像の中心を通過しない直線がすべて樽型方向の曲線に写るため、歪んだ画像となり、肉眼で見える光景と同様な相似形の歪みのない自然な画像とはならない。このため、見る人に違和感を与えるという問題がある。さらに、画像の周辺部分では歪みが大きくなるため、撮像画像1001に写し込まれている被写体が何であるか判別し難いという視認性の問題も生じる。
【0006】
そのため、魚眼レンズで撮像した撮像画像については、当該撮像画像の各画素を再配置し、当該撮像画像を見た目で実質的に歪みを感じない自然な画像、つまり、肉眼で見える光景と同様な相似形の略歪みのない自然な画像とする歪み補正処理が知られている(例えば、特許文献1参照)。例えば、図14(A)に示す撮像画像1001は、歪み補正処理されると、図14(B)に示す歪み補正画像となる。
【0007】
なお、魚眼レンズは、画角180度又はそれ以上の範囲を撮像素子の撮像面に円像として完全に写し込むいわゆる円像魚眼レンズと、画角180度を撮像素子の撮像面における対角線に対応させて、矩形の撮像面一杯に像を写し込むいわゆる対角線魚眼レンズがある。
【0008】
【特許文献1】
特開2000−242773号公報
【0009】
【発明が解決しようとする課題】
ところで、この歪みを補正する歪み補正処理は、膨大な計算が必要である。特に、高解像度を得るために画素数を増やすとそれに伴って計算量が増大する。このため、専用のハードウェアで歪み補正処理を行えば、高速に処理することは可能であるが、高コストになるという問題がある。
【0010】
一方、一般のLSI、例えばディジタルスチルカメラ向けのASIC(Application Specific Integrated Circuit)で歪み補正処理を行えば、安価で歪み補正処理を実現可能であるが、処理速度が遅くなるという問題が生じる。特に、動画の場合には、処理速度が遅くなるとフレームレートが低下することとなるため、被写体の動きがぎこちなくなってしまうという問題が生じる。
【0011】
本発明は、上記問題点に鑑みて為された発明であり、情報処理能力が同じ回路で歪み補正処理を実行した場合に、従来よりも高速に歪み補正処理を実行することができる撮像装置及び歪み補正方法を提供することを目的とする。
【0012】
【課題を解決するための手段】
上述の目的を達成するために、本発明に係る第1の手段では、中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する撮像装置において、前記補正画像の一部に歪みを補正する代わりに前記中央領域を透過した光像の画像を拡大又は縮小して用いる。
【0013】
この第1の手段に係る撮像装置は、結像光学系に中央領域に対してその周辺領域が大きな歪曲収差を有する光学系を用いるので、広い視野の画像が得られるだけでなく、その中央領域を透過した光像の画像が見た目で実質的に歪みを感じない自然な画像となる。このため、中央領域を透過した光像の画像を拡大又は縮小し、その拡大又は縮小した画像を補正画像の一部とすることによって、その部分の歪みを補正する歪み補正処理が必要となくなるから、高速に歪み補正処理を実行することができる。特に、補正画像そのものが中央領域を透過した光像の画像を拡大又は縮小した画像である場合には、歪み補正処理自体を実行する必要がなくなるので、より高速に補正画像を得ることができる。
【0014】
本発明に係る第2の手段では、中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する撮像装置において、前記画像の歪みを補正する場合に、前記画像の各画素に対して一定の画素間隔で歪みを補正して補正画像を得る。
【0015】
この第2の手段に係る撮像装置は、画像の全画素について歪み補正処理をするのではなく、一定の画素間隔で歪み補正処理を行うので、歪み補正処理をしない画素の分だけ、高速に歪み補正処理を実行することができる。
【0016】
本発明に係る第3の手段では、第2の手段に係る撮像装置において、前記画像の一定範囲内の各画素に対しては、全ての画素について歪みを補正する。
【0017】
この第3の手段に係る撮像装置は、一定範囲内の各画素に対しては、全ての画素について歪みを補正するので、その範囲においては画質を向上することができる。
【0018】
本発明に係る第4の手段では、第2の手段に係る撮像装置において、前記補正画像の一定範囲内の画像の代わりに前記中央領域を透過した光像の画像を拡大又は縮小して用いる。
【0019】
この第4の手段に係る撮像装置は、補正画像の一定範囲内の画像の代わりに中央領域を透過した光像の画像を拡大又は縮小して用いるので、その範囲においては画質を向上することができる。
【0020】
本発明に係る第5の手段では、中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目に実質的に歪みを感じない自然な補正画像となるように歪みを補正する歪み補正方法において、前記中央領域を透過した光像による画像を拡大又は縮小するステップと、前記周辺領域を透過した光像による画像を歪み補正するステップとを備える。
【0021】
この第5の手段に係る歪み補正方法は、結像光学系に中央領域に対してその周辺領域が大きな歪曲収差を有する光学系を用いるので、広い視野の画像が得られるだけでなく、その中央領域を透過した光像の画像が見た目で実質的に歪みを感じない自然な画像となる。このため、中央領域を透過した光像の画像を拡大又は縮小し、その拡大又は縮小した画像を補正画像の一部とすることによって、その部分の歪みを補正する歪み補正処理が必要となくなるから、高速に歪み補正処理を実行することができる。
【0022】
【発明の実施の形態】
以下、本発明に係る実施形態を図面に基づいて説明する。なお、各図において同一の構成については、同一の符号を付し、その説明を省略する。まず、第1の実施形態の構成について説明する。
(第1実施形態の構成)
第1の実施形態は、本発明に係る撮像装置が一例として監視カメラに適用された場合である。
【0023】
図1は、第1の実施形態における監視システムの構成を示す図である。図1において、監視システム1は、所定の監視対象領域を撮影する監視カメラ2と、パーソナルコンピュータ(PC)や携帯電話などのコントローラ3とを備えて構成され、監視カメラ2とコントローラ3とは、通信ネットワーク4を介して接続される。
【0024】
監視システム1では、監視カメラ2は、監視対象を撮像すると、その画像の画像データを通信ネットワーク4を介してコントローラ3に送信する。一方、コントローラ3は、監視カメラ2に対する例えば撮影方向を変更する指示等の操作コマンドがユーザによって入力されると、その操作コマンドを通信ネットワーク4を介して監視カメラ2に送信する。そして、監視カメラ2は、その操作コマンドに基づき動作する。これにより、コントローラ3の表示部に監視カメラ2により撮影された画像が表示されるとともに、監視カメラ2の動作を遠隔で操作することができる。
【0025】
通信ネットワーク4は、無線や有線のどのような伝送媒体によって構築された通信網でもよく、また、どのような通信規格でもよい。例えば、イーサネット(Ethernet、商標)(無線LANを含む)及びTCP/IP等の各種通信プロトコルを利用することができる。さらに、監視カメラ2とコントローラ3とは、IrDAやBluetooth(商標)等の通信規格による無線や有線ケーブルで直接通信を行う形態でもよい。
【0026】
図2は、監視システムに使用される監視カメラの構成を示す図である。図2において、監視カメラ2は、カメラ21、U字型に屈曲した枠体22、カメラ21の光軸(撮影方向、監視方向に相当)Lを上下方向(チルト方向)に移動させるギヤードモータ23及びカメラ21の光軸Lを左右方向(パン方向)に移動させるギヤードモータ24を備えて構成される。
【0027】
カメラ21は、左右の側面に突設されたチルト方向の回転軸25を枠体22の側面22A、22A’に穿設された孔22Bに貫通させて枠体22に取り付けられる。側面22Aを貫通して突出された回軸軸25の先端は、ギヤードモータ23の出力軸が取り付けられる。枠体22の下面中央には、パン方向の回転軸26が下方向に突設され、この回転軸26の先端は、ギヤードモータ24の出力軸が取り付けられる。ギヤードモータ23の筐体は、枠体22に不図示の固定部材によって固定され、枠体22と一体的にチルト方向に回動可能に構成される。ギヤードモータ24は、監視カメラ2の支持体27に固定されている。
【0028】
このような構成において、ギヤードモータ24を回転駆動すると、枠体22が回転軸26の周りに回転し、これによりカメラ21の光軸Lがパン方向に移動する。一方、ギヤードモータ23を回転駆動すると、カメラ21が回転軸25の周りに回転し、これによりカメラ21の光軸Lがチルト方向に移動する。
【0029】
なお、以下の説明において、カメラ21の光軸Lがパン方向に移動する監視カメラ2の動作をパン動作、チルト方向に移動する監視カメラ2の動作をチルト動作と呼称することとする。
【0030】
図3は、監視カメラの構成を示すブロック図である。図3において、監視カメラ2は、撮像部30、画像生成部31、画像データバッファ32、画像処理部33、駆動部34、制御部35、画像データ記録部36、記憶部37、通信I/F部38及びI/F部39を備えて構成される。
【0031】
撮像部30は、結像光学系301と撮像素子302とを備えて構成される。被写体からの光は、結像光学系301によって撮像素子302の撮像面上に結像され、被写体の光像となる。
【0032】
撮像素子302は、受光した光をその光強度に従った電気信号に変換する複数の受光素子を例えばハニカム状又はマトリックス状等に2次元的に配置した光電変換素子であり、例えば、各光電変換素子の撮像面に、それぞれR(赤)、G(緑)、B(青)の色フィルタが1:2:1の比率で配設されたCCDカラーエリアセンサである。撮像素子302は、結像光学系301により結像された被写体の光像をR(赤),G(緑),B(青)の色成分の電気信号(画像信号)に変換し、R,G,B各色の画像信号として画像生成部31に出力する。撮像素子302は、制御部35の制御により、露出動作の開始及び終了や、撮像素子302における各画素の出力信号の読出し(水平同期、垂直同期、転送)等の撮像動作が制御される。
【0033】
なお、撮像装置302は、上述のCCDに限らずCMOSの固体撮像素子でもよく、またカラーの撮像素子に限らずモノクロの撮像素子であってもよい。
【0034】
結像光学系301は、被写体の光像を撮像素子302の撮像面に結像するレンズであり、光軸を中心に一定範囲の領域(中央領域)ではその歪曲収差の値が所定値以下であって、中央領域の周りの領域(周辺領域)ではその歪曲収差の値が所定値より大きい。特に、本実施形態の結像光学系301は、周辺領域ではその歪曲収差の値が周辺部に行くに従って大きくなる光学系である。
【0035】
図4は、第1の実施形態における結像光学系の特性を示す図である。図4(A)は、歪曲収差・画角特性を示すグラフであり、その横軸は百分率で示す歪曲収差であり、その縦軸は度(°)単位で示す画角θである。図4(B)は、画角・像高特性を示すグラフであり、その横軸は画角θであり、その横軸は像高hである。
【0036】
図4(A)に示すように、歪曲収差Sと画角θとの関係である歪曲収差・画角特性は、画角θが所定値θi以下の領域では歪曲収差Sが所定値Si以下であり、画角θが所定値θiを超えると歪曲収差Sが急激に大きくなる。ここで、歪曲収差Sにおける所定値Siは、結像光学系301の中央領域を透過した被写体光像による画像を人間が見た場合において相似形の略歪みのない自然な画像に見える値であり、例えば、Si=約3%(このときθi=約8°)である。もちろん、所定値Siを3%以下の値、例えば、約2%や約1%に設定したとしても、見た目に実質的に歪みを感じない自然な画像となる。
【0037】
なお、図4(A)は、約50度の半画角で歪曲収差が約−70%である結像光学系301の特性を示している。
【0038】
この特性により、画角θと、結像光学系301により撮像素子302の撮像面に結像される光像の高さ(以下、「像高」という)hとの関係である画角・像高特性は、図4(B)に示す曲線となる。即ち、画角θが小さい領域(図4(B)に示す点線より左側の領域、結像光学系301の中央領域に対応)では、画角θに対して像高hは、略線形であって、画角θの単位変化に対するその変化量が大きい。一方、画角θが大きい領域(図4(B)に示す点線より右側の領域、結像光学系301の周辺領域に対応)では、画角θに対して像高hは、非線形であって、画角θの単位変化に対するその変化量は、画角θの増大に伴って徐々に小さくなり、像高hは、略一定値に飽和する。つまり、画角θが小さい領域では、解像度が高く、画角θが大きい周辺領域では、情報量は多いが解像度が低い。
【0039】
このような特性を有する結像光学系301の一つに中心窩レンズと呼ばれるレンズがある。中心窩レンズは、視野における注目領域(上述の中央領域に相当)で画像を拡大し、その周辺領域(上述の周辺領域に相当)で画像を圧縮する機能を持つレンズであり、広い視野、注目領域での高解像度及び注目領域で歪みの目立たない自然な画像が得られる等の特徴がある。
【0040】
第1の実施形態における監視カメラ2は、図4に示す特性を有する結像光学系301を用いるので、撮像画像における中央部分(画像中央領域X)では結像光学系301の中央領域を透過した被写体光像による画像であるので、高い解像度で歪みの目立たない自然な画像を得ることができ、広い視野も得ることができる。
【0041】
図3に戻って、画像生成部31は、画像全体に対して適正な黒レベルの決定、γ補正、ホワイトバランス調整(WB調整)、輪郭補正及び色ムラ補正等の周知の画像処理を行って、画像信号から各画素の画像データを生成する。画像生成部31で生成された画像データは、画像データバッファ32に出力される。
【0042】
画像データは、各画素ごとに、画素の位置を表す位置データと画素の輝度を表す輝度データとが対応付けられて構成される。輝度データは、監視カメラ2がモノクロで撮影するものである場合には各画素の輝度値で構成され、監視カメラ2がカラーで撮影するものである場合には各画素における赤成分の輝度値、緑成分の輝度値及び青成分の輝度値、又は、輝度値と各色差の値で構成される。
【0043】
画像データバッファ32は、画像データを一時的に記憶するとともに、この画像データに対し画像処理部33により後述の処理を行うための作業領域として用いられるメモリであり、例えば、RAM等である。
【0044】
画像処理部33は、画像データバッファ32の画像データに対し、歪曲収差によって歪んだ画像を肉眼で見える光景と同様な相似形の略歪みのない自然な画像に補正する歪み補正処理及び解像度変換等の画像処理を行う回路である。駆動部34は、ギヤードモータ23、24を含み、制御部35から出力される制御信号により、カメラ21(監視カメラ2)の光軸Lをパン方向及びチルト方向に駆動する。
【0045】
画像データ記録部36は、画像データバッファ32に記憶されている画像データを記録媒体に記録する回路である。記録媒体は、例えば、CD−R、ハードディスク及びメモリカード等である。記憶部37は、監視カメラ2の動作に必要な各種プログラム、プログラム実行中に必要なデータ、及び、プログラム実行中に生じたデータを記憶する記憶回路であり、例えば、ROMやRAMを備えて構成される。
【0046】
通信I/F部38は、通信ネットワーク4との間で通信を行うためのインターフェースであり、コントローラ3への画像データを収容する通信パケットの送信や、コントローラ3からの操作コマンドを収容する通信パケットの受信等を行う。I/F部39は、外部機器と画像データを送受信するインターフェースであり、例えば、USBやIEEE1394等の規格に準拠したインターフェースである。
【0047】
制御部35は、例えば、マイクロプロセッサ等を備えて構成され、撮像部30、画像生成部31、画像データバッファ32、画像処理部32、駆動部34、画像データ記録部36、記憶部37、通信I/F部38及びI/F部39の各部を制御する。
【0048】
図5は、コントローラの構成を示すブロック図である。図5において、コントローラ3は、操作部41、表示部42、制御部43及び通信I/F部44とを備えて構成される。
【0049】
操作部41は、パン動作、チルト動作、画像データの記録、画像データの送信要求等の監視カメラ2に対する各種の操作を指示する操作コマンドを入力する装置であり、例えば、コントローラ3がPCの場合には、キーボードやマウスに相当し、携帯電話の場合には、テンキーやカーソルキーに相当する。
【0050】
表示部42は、監視カメラ2から通信ネットワーク4を介して送信された画像データに係る画像を表示するディスプレイであり、コントローラ3がPCの場合には、CRTディスプレイやLCD等のモニタに相当し、携帯電話の場合には、LCD表示部に相当する。
【0051】
通信I/F部44は、通信ネットワーク4との間で通信を行うためのインターフェースであり、監視カメラ2から画像データを収容した通信パケットの受信や、監視カメラ2へ操作コマンドを収容した通信パケットの送信等を行う。
【0052】
制御部43は、例えばコントローラ3を制御する制御プログラムを記憶するROMや一時的にデータを記憶するRAMを備えたマイクロコンピュータから構成され、操作部41、表示部42及び通信I/F部44を有機的に制御して、コントローラ3の動作を制御する。
【0053】
次に、第1の実施形態の動作について説明する。
(第1の実施形態の動作)
第1の実施形態における監視カメラ2は、歪み補正処理において、結像光学系301の特性を活かし、中央領域の画像はそのまま歪み補正することなく用いて、周辺領域のみ歪み補正処理を行う実施形態である。
【0054】
図6は、第1の実施形態における監視カメラの動作を示す図である。図7は、コントローラの表示部に表示される表示画面を示す図である。図8は、歪み補正処理を説明するための図である。図9は、第1の実施形態における望遠の場合における歪み補正処理後の画像を示す図である。図10は、第1の実施形態における広角の場合における歪み補正処理後の画像を示す図である。
【0055】
図6において、監視カメラ2の制御部35は、コントローラ3から監視対象の画像を送信する指示の操作コマンドを通信I/F部38を介して受信すると、監視対象を撮像部30で撮像し、撮像素子302からの画像信号に基づいて画像生成部31で画像データを生成し、生成した画像データを画像データバッファ32に記憶する。図4に示す特性を持つ結像光学系301で得た画像データによる画像を広歪曲画像と呼称することとする。制御部35は、この広歪曲画像の画像データを通信I/F部38及び通信ネットワーク4を介してコントローラ3に送信する(S11)。
【0056】
コントローラ3は、この画像データを通信ネットワーク4及び通信I/F部44を介して受信すると、画像データを表示部42に表示する。なお、このように監視カメラ2の制御部35とコントローラ3の制御部43との間における通信では、通信I/F部38、通信ネットワーク4及び通信I/F部44を介して行われるが、以下の説明において、この記述を省略する。
【0057】
コントローラ3の表示部42の表示画面は、例えば、図7に示すように、監視カメラ2からの画像データによって生成される画像を表示する領域である画像表示領域101と、広角の画像の画像データを送信するように監視カメラ2に指示する操作コマンドを入力するためのボタンである「広角」102と、望遠の画像の画像データを送信するように監視カメラ2に指示する操作コマンドを入力するためのボタンである「望遠」103と、画像データ記録部36で画像データを記録媒体に記録するように監視カメラ2に指示する操作コマンドを入力するボタンである「画像記録」104とを備えて構成される。なお、「画像記録」104には、画像データ記録部36で画像データを記録媒体に記録するように監視カメラ2に指示するだけでなく、コントローラ3に備えられた画像データ記録部(不図示)に画像表示領域101に表示されている画像の画像データを記憶する指示を含めてもよい。そして、「広角」102、「望遠」103及び「画像記録」104は、例えばPCの場合ではカーソルをマウスで所望のボタンに合わせ、クリックすることによって、各ボタンに対応する操作コマンドが入力される。
【0058】
コントローラ3の表示部41における画像表示領域101には、まず、図7に示すように広歪曲画像が表示される。
【0059】
ユーザは、画像表示領域101に表示したい表示画像の画角を「広角」102又は「望遠」103を用いてコントローラ3に入力する。コントローラ3の制御部43は、操作部41及び表示部42によって入力された画角を監視カメラ2の制御部35に送信する。
【0060】
監視カメラ2の制御部35は、表示すべき表示画像の画角を受信する(S12)。制御部35は、受信した画角が広角であるか望遠であるかを判断する(S13)。判断の結果、制御部35は、望遠である場合(S13の“望遠”)にはS14の処理を行い、広角である場合(S13の“広角”)にはS21の処理を行う。
【0061】
S14において、制御部35は、画像処理部33に広歪曲画像の画像中央領域Xのサイズを画像表示領域101のサイズに拡大するサイズ変換を行う。
【0062】
即ち、図8において、広歪曲画像111のサイズを水平方向Mピクセル(pix)、垂直方向N(pix)とし、結像光学系301の中央領域を透過した被写体光像による画像に対応する領域である画像中央領域Xのサイズを水平方向A(pix)(A≦M)、垂直方向B(pix)(B≦N)とする。また、図9において、画像表示領域101のサイズを水平方向K(pix)(K≦M)、垂直方向L(pix)(L≦N)とする。なお、サイズ変換処理を容易に行うために、広歪曲画像111の垂直方向画素数に対する水平方向画素数の比率、画像中央領域Xの垂直方向画素数に対する水平方向画素数の比率、及び、画像表示領域101の垂直方向画素数に対する水平方向画素数の比率を全て同一(M:N=A:B=K:L)とする。
【0063】
結像光学系301の中央領域は、上述したように、この領域を透過した被写体光像による画像が人間が見た場合において相似形の略歪みのない自然な画像に見える範囲に設定されるので、画像中央領域Xの画像は、見た目に実質的に歪みを感じない自然な画像である。
【0064】
画像表示領域101のサイズと画像中央領域Xのサイズがこのように設定されている場合に、画像処理部33は、画像データバッファ32に記憶されている画像中央領域Xの画像に対応する画像データを、画像中央領域Xの画像がK/A倍されるように、周知の方法で当該画像データを演算する。つまり、当該画像データにおいて、サイズ変化後の位置を演算し、演算した位置に当該画像データの輝度データを割り当てる。画像中央領域Xの画像をK/A倍することによって画像中央領域Xの画像は、画像表示領域101の大きさに拡大される。なお、このサイズ変換は、ディジタルスチルカメラ向けのASICにおけるサイズ変換機能を利用すると高速に処理可能である。
【0065】
そして、制御部35は、K/A倍された画像中央領域Xの画像の画像データをコントローラ3に送信する(S15)。
【0066】
コントローラ3の制御部43は、この画像データを受信すると、この画像データを表示部42に表示する。例えば、図8の破線で示す領域が画像中央領域Xである場合には、この家の部分の画像データがK/A倍されることによって図9に示す画像が得られ、コントローラ3に表示される。
【0067】
このように、望遠の表示画像における歪み補正処理は、中央画像領域Xの画像を拡大するだけなので、後述する通常の歪み補正処理を実行する必要がなく、従来に較べて高速に歪み補正処理を実行することができる。
【0068】
一方、S21において、画像処理部33は、広歪曲画像の中央画像領域Xの画角θxを計算する(S21)。この画角θxは、像高hに対する画角θとの関係を示す関数がθ=g(h)として与えられているとすると、式1から求めることができる。
θx=g(A/2)×2 ・・・ (1)
ここで、関数gは、例えば、結像光学系301の画角・像高特性を実測することによって図4(B)に示す特性曲線を作成し、関数gを求めればよい。
【0069】
次に、画像処理部33は、広角の表示画像において広歪曲画像の中央画像領域Xに基づく画像を表示する領域である貼付け領域Yのサイズを計算する(S22)。貼付け領域Yのサイズを水平方向C(pix)(C≦K)、垂直方向D(pix)(D≦L)とし、画像表示領域101の画角をθvとすると、貼付け領域Yのサイズは、式2及び式3から求めることができる。
C=K×tan(θx/2)/tan(θv/2) ・・・ (2)
D=C×B/A ・・・ (3)
なお、貼付け領域Yの垂直方向画素数に対する水平方向画素数の比率と画像表示領域101の垂直方向画素数に対する水平方向画素数の比率とを同一(C:D=K:L)とする。
【0070】
次に、画像処理部33は、画像データバッファ32に記憶されている画像中央領域Xの画像に対応する画像データを、画像中央領域Xの画像がC/A倍されるように、周知の方法で当該画像データを演算する(S23)。画像中央領域Xの画像をC/A倍することによって画像中央領域Xの画像は、貼付け領域Yの大きさに拡大又は縮小される。
【0071】
次に、画像処理部33は、画像表示領域101における貼付け領域Y以外の領域Zの画像における各画素の画像データを、広歪曲画像111における中央画像領域X以外の画像における各画素の画像データに対して通常の歪み補正処理を行うことによって生成する(S24)。
【0072】
以下に、この通常の歪み補正処理の計算方法について説明する。ここで、広歪曲画像の画像データを元画像データ、元画像データを構成する各画素の画素データを元画素データと呼称することとする。広歪曲画像の歪みを補正することによって得られる歪み補正画像における任意の画素を注目画素Bと呼称し、その座標をB(i,j)とする。歪み補正処理は、注目画素Bの座標B(i,j)と、この注目画素Bに対応する元画像の画素Qの座標Q(u,v)との関係を求めればよい。この関係を求めることによって演算後の位置に元画像データの輝度データを割り当てて歪み補正画像の画像データを得ることができる。
【0073】
まず、歪み補正画像において、この画像の中心A(K/2,L/2)から注目画素Bまでの距離d(dx:x成分、dy:y成分)は、式4乃至式6により式7となる。
dx=(K/2−i) ・・・ (4)
dy=(L/2−j) ・・・ (5)
d=√(dx2+dy2) ・・・ (6)
により、
d=√{(K/2−i)2+(L/2−j)2} ・・・ (7)
となる。
【0074】
また、像高Y、焦点距離f、画角Θの関係が、Y=f・tanΘで表される通常のレンズを用いて、歪み補正画像を撮影したと仮定した場合に、該歪み補正画像における座標B(i,j)に位置する画素の画素データに変換された光の入射角φは、元画像における座標Q(u,v)に位置する画素の画素データに変換された光の入射角と同じである。
【0075】
したがって、歪み補正画像の水平方向の画角をθ(rad)とすると、歪み補正画像における座標B(i,j)に位置する画素の画素データに変換された光の入射角φは、式8及び式9が成り立ち、式10となる。
X=(K/2)/tan(θ/2) ・・・ (8)
tanφ=d/X ・・・ (9)
φ=tan−1{d×tan(θ/2)/(K/2)} ・・・ (10)
そして、元画像において、その中心P(M/2,N/2)から座標Q(u,v)までの距離(像高)をhとすると、距離hは、式(10)で求めた入射角φをパラメータとする関数h=f(φ)として表される。この関数fは、結像光学系301の曲率半径などに応じて求まるが、関数gと同様に実測することによって求めてもよい。
【0076】
一方、式11及び式12が成立するので、式13及び式14が求まる。
h:d=(u−M/2):dx ・・・ (11)
h:d=(v−N/2):dy ・・・ (12)
u=M/2+h×(dx/d) ・・・ (13)
v=N/2+h×(dy/d) ・・・ (14)
したがって、h=f(φ)、式13及び式14とから、座標B(i,j)に位置する画素データに対応する、元画像における画素データの座標Q(u,v)を求めることができる。
【0077】
図6に戻って、画像処理部33は、S23で生成した貼付け領域Yの画像データが画像表示領域101の中央に表示され、S24で生成した貼付け領域Y以外の領域Zの画像データがその周辺に表示されるように、両画像データをコントローラ3に送信する(S25)。なお、1枚の画像の画像データに両画像データを合成し、合成した画像データをコントローラ3に送信してもよい。
【0078】
コントローラ3は、両画像データを受信すると、まず、貼付け領域Yの画像データを画像表示領域101の中央に表示し、貼付け領域Y以外の領域Zの画像データをその周辺に表示する。こうしてコントローラ3の表示部42には、監視対象の広角の画像が表示される。例えば、図8に示す広歪曲画像は、図10に示しようにコントローラ3の表示部42の画像表示領域101に表示される。図10の欠損領域121は、広歪曲画像の円像のうち撮像素子302によって受光されなかった光像があるために生じる。
【0079】
なお、ユーザは、表示画像を記録しようとする場合には「画像記録」104によって表示画像を記録させる操作コマンドをコントローラ3に入力する。コントローラ3は、図5に不図示の記憶部に画像データを記憶すると共に、この操作コマンドを監視カメラ2に送信する。この操作コマンドを受信した監視カメラ2は、当該画像データを画像データ記録部36に記録する。
【0080】
第1の実施形態では、望遠における歪み補正画像を画像表示領域101に表示する場合には、表示すべき歪み補正画像を広歪曲画像111の中央画像領域Xにおける画像を拡大又は縮小することによって生成するので、通常の歪み補正処理する必要がない。このため、望遠における歪み補正画像を従来に較べてより高速に生成し、表示することができる。
【0081】
また、広角における歪み補正画像を画像表示領域101に表示する場合には、表示すべき歪み補正画像の一部の画像を広歪曲画像111の中央画像領域Xにおける画像を拡大又は縮小することによって生成し、そして、残余の部分の画像を通常の歪み補正処理をすることによって生成する。このため、歪み補正画像の全てを通常の歪み補正処理によって生成する必要がないので、広角における歪み補正画像を従来に較べてより高速に生成し、表示することができる。そして、中央画像領域Xは、結像光学系301の特性により、見た目に実質的に歪みを感じない自然な画像が得られているので、画像における注目され易い画像の中央の画質を維持することができる。
【0082】
従って、高速に歪み補正処理を実行することができるので、一般向けのLSIやディジタルスチルカメラ向けのASIC等の安価な集積回路を利用することができるから、監視カメラ2のコストを低減することができる。
【0083】
また、監視カメラ2が動画を送信する場合に、高速に歪み補正処理を実行することができるので、同等の処理能力を有する回路で歪み補正処理をした場合に、従来に較べてフレームレートを向上させることができるから、よりスムーズな動きの動画を得ることができる。
【0084】
次に、第2の実施形態について説明する。
(第2の実施形態の構成)
第1の実施形態では、望遠の画像は、広歪曲画像における中央画像領域Xの画像を画像表示領域101のサイズに拡大することによって生成し、広角の画像は、広歪曲画像における中央画像領域Xの画像を貼付け領域Yのサイズに拡大又は縮小すると共に貼付け領域Y以外の領域Zの画像を広歪曲画像111に歪み補正処理を実行するによって生成したが、第2の実施形態では、望遠の画像は、広歪曲画像における中央画像領域Xの画像を画像表示領域101のサイズに拡大することによって生成し、広角の画像は、貼付け領域Yについては全画素について通常の歪み補正処理を実行すると共に、貼付け領域Y以外の領域Zについてはs画素に1画素の割合で通常の歪み補正処理を実行することによって生成する。なお、第1の実施形態における貼付け領域Yに相当する領域を第2の実施形態では歪み補正中央領域Wと呼称することとする。歪み補正中央領域Wのサイズは、E(pix)×F(pix)であり、本実施形態では、E=C、F=Dである。
【0085】
従って、監視カメラ2の画像処理部33の処理が後述のように処理する点を除き、監視システム1の構成、監視カメラ2の構成、及び、コントローラ3の構成は、第1の実施形態と同様なので、その説明を省略する。
【0086】
次に、第2の実施形態の動作について説明する。
(第2の実施形態の動作)
第2の実施形態における監視カメラの動作は、広角の画像の画像データを生成する処理を除き、第1の実施形態と同様である。つまり、第1の実施形態における図6のS11乃至S15の処理は、そのまま第2の実施形態における監視カメラの動作であるので、その説明を省略し、広角の画像の画像データを生成する処理について説明する。
【0087】
図11は、広角の画像を生成する場合における監視カメラの動作を示す図である。図12は、第2の実施形態における広角の場合における歪み補正処理後の画像を示す図である。
【0088】
図11において、画像処理部33は、画像データバッファ32に記憶されている画像データに基づいて、広歪曲画像を1/sに縮小した1/s縮小広歪曲画像の画像データを生成する(S31)。
【0089】
次に、画像処理部33は、1/s縮小広歪曲画像に対して上述した通常の歪み補正処理を行う(S32)。通常の歪み補正処理は、1/sに縮小した1/s縮小工歪曲画像に対して行われるので、s画素に1画素の割合で通常の歪み補正処理が実行されることなる。このため、広歪曲画像における各画素に対して一定の画素間隔sで歪み補正処理を実行することとなるので、広歪曲画像について歪み補正処理を実行する場合に較べて処理する画素数が減る。その結果、歪み補正処理の処理時間が短縮される。このsは、歪み補正後に得られる画像に要求される画質等によって決定される値であり、本実施形態では、s=2とした。
【0090】
次に、画像処理部33は、歪み補正処理後の1/s縮小広歪曲画像をs倍に拡大する拡大処理を行う。これによって広歪曲画像をそのまま歪み補正処理した場合のサイズになる。ここで、s画素に1画素の割合で歪み補正処理を行ったため、輝度データを持たない画素が生じることとなる。このため、画像処理部33は、歪み補正処理を実行しなかった画素に対する画像データを隣接画素の画像データに基づいて補間することによって生成する(S33)。
【0091】
この補間は、例えば、当該画素の一方に隣接する画素の輝度データをそのまま当該画素の輝度データとして使用する。また、例えば、当該画素に隣接する両画素の輝度データを用いて位置と輝度との関係を示す一次関数を求め、この一次関数から当該画素の輝度データを求める(線形補間)。また、例えば、当該画素の周辺画素の輝度データを平均することによって当該画素の輝度データを求める。
【0092】
次に、画像処理部33は、広歪曲画像の画像中央領域Xの画像に対し通常の歪み補正処理を行い、歪み補正処理後の画像データを生成する(S34)。
【0093】
次に、画像処理部33は、S33で生成した画像が先に表示され、S34で生成した画像データが画像表示領域101の中央に重ねて表示されるように、両画像データをコントローラ3に送信する(S35)。なお、1枚の画像の画像データに両画像データを合成し、合成した画像データをコントローラ3に送信してもよい。
【0094】
コントローラ3は、両画像データを受信すると、まず、S33で生成した画像データを画像表示領域101の全体に表示し、S34で生成した画像データを画像表示領域101の略中央の歪み補正中央領域Wに重ねて表示する。こうしてコントローラ3の表示部42には、監視対象の広角の画像が表示される。例えば、図8に示す広歪曲画像は、図12に示したようにコントローラ3の表示部42の画像表示領域101に表示される。
【0095】
第2の実施形態では、広角における歪み補正画像を画像表示領域101に表示する場合には、広歪曲画像における各画素に対し一定の画素間隔で通常の歪み補正処理を実行し、画像表示領域101の略中央である歪み補正中央領域Wでは広歪曲画像における全画素に対して通常の歪み補正処理を実行する。このため、歪み補正画像の全てを通常の歪み補正処理によって生成する必要がないので、広角における歪み補正画像を従来に較べてより高速に生成し、表示することができる。そして、歪み補正中央領域Wでは広歪曲画像における全画素に対して通常の歪み補正処理を実行するので、画像における注目され易い画像の中央の画質を維持することができる。
【0096】
次に、第3の実施形態について説明する。
(第3の実施形態の構成)
第3の実施形態は、第2の実施形態におけるS34の広歪曲画像の画像中央領域Xの画像に対する歪み補正処理の代わりに、第1の実施形態と同様に広歪曲画像の画像中央領域Xを拡大又は縮小した画像を貼り付ける実施形態である。
【0097】
従って、監視カメラ2の画像処理部33の処理が後述のように処理する点を除き、監視システム1の構成、監視カメラ2の構成、及び、コントローラ3の構成は、第1の実施形態と同様なので、その説明を省略する。
【0098】
次に、第3の実施形態の動作について説明する。
(第3の実施形態の動作)
第3の実施形態における監視カメラの動作は、広角の画像の画像データを生成する処理を除き、第1の実施形態と同様である。つまり、第1の実施形態における図6のS11乃至S15の処理は、そのまま第2の実施形態における監視カメラの動作であるので、その説明を省略し、広角の画像の画像データを生成する処理について説明する。
【0099】
図13は、第3の実施形態における広角の画像を生成する場合における監視カメラの動作を示す図である。
【0100】
図13において、画像処理部33は、画像データバッファ32に記憶されている画像データに基づいて、広歪曲画像を1/sに縮小した1/s縮小広歪曲画像の画像データを生成する(S41)。次に、画像処理部33は、1/s縮小広歪曲画像に対して通常の歪み補正処理を行う(S42)。次に、画像処理部33は、歪み補正処理後の1/s縮小広歪曲画像をs倍に拡大する拡大処理を行う。そして、画像処理部33は、歪み補正処理を実行しなかった画素に対する画像データを隣接画素の画像データに基づいて補間することによって生成する(S43)。
【0101】
次に、画像処理部33は、広歪曲画像の中央画像領域Xの画角θxを式1によって計算する(S44)。次に、画像処理部33は、広角の表示画像において広歪曲画像の中央画像領域Xに基づく画像を表示する領域である貼付け領域Yのサイズを式2及び式3によって計算する(S45)。次に、画像処理部33は、画像データバッファ32に記憶されている画像中央領域Xの画像に対応する画像データを、画像中央領域Xの画像がC/A倍されるように、周知の方法で当該画像データを演算する(S46)。
【0102】
画像処理部33は、S43で生成した画像が先に表示され、S46で生成した画像データが画像表示領域101の中央に重ねて表示されるように、両画像データをコントローラ3に送信する(S47)。なお、1枚の画像の画像データに両画像データを合成し、合成した画像データをコントローラ3に送信してもよい。
【0103】
コントローラ3は、両画像データを受信すると、まず、S43で生成した画像データを画像表示領域101の全体に表示し、S47で生成した画像データを画像表示領域101の略中央の貼付け領域Yに重ねて表示する。こうしてコントローラ3の表示部42には、監視対象の広角の画像が表示される。
【0104】
第3の実施形態では、広角における歪み補正画像を画像表示領域101に表示する場合には、広歪曲画像における各画素に対し一定の画素間隔で通常の歪み補正処理を実行し、画像表示領域101の略中央である貼付け領域Yでは、広歪曲画像111の中央画像領域Xにおける画像を拡大又は縮小することによって生成する。このため、歪み補正画像の全てを通常の歪み補正処理によって生成する必要がないので、広角における歪み補正画像を従来に較べてより高速に生成し、表示することができる。そして、中央画像領域Xは、結像光学系301の特性により、見た目に実質的に歪みを感じない自然な画像が得られているので、画像における注目され易い画像の中央の画質を維持することができる。
【0105】
なお、第1乃至第3の実施形態では、撮像装置である監視カメラ2とそれを操作するコントローラ3とを別体で構成する実施形態について説明したが、撮像装置とコントローラ3とを一体に構成してもよい。
【0106】
以上、本明細書に開示された主な発明を以下にまとめる。
(付記1) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する撮像装置において、前記補正画像の一部に歪みを補正する代わりに前記中央領域を透過した光像の画像を拡大又は縮小して用いることを特徴とする撮像装置。
(付記2) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系と、複数の受光素子が2次元的に配置されてなる撮像面に前記結像光学系によって結像された光像を前記複数の受光素子で光電変換して画像信号を出力する撮像素子と、前記画像信号に基づいて前記光像の画像における各画素の画像データを生成する画像生成部と、前記光像の画像が見た目に実質的に歪みを感じない自然な補正画像となるように、前記光像の画像における各画素の画像データを歪み補正して前記補正画像における各画素の画像データに演算する画像処理部とを備えた撮像装置において、前記画像処理部は、前記補正画像における各画素の画像データの一部に、前記中央領域を透過した光像の画像における各画素の画像データを前記歪み補正することなく用いることを特徴とする撮像装置。
(付記3) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する撮像装置において、前記画像の歪みを補正する場合に、前記画像の各画素に対して一定の画素間隔で歪みを補正して補正画像を得ることを特徴とする撮像装置。
(付記4) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系と、複数の受光素子が2次元的に配置されてなる撮像面に前記結像光学系によって結像された光像を前記複数の受光素子で光電変換して画像信号を出力する撮像素子と、前記画像信号に基づいて前記光像の画像における各画素の画像データを生成する画像生成部と、前記光像の画像が見た目に実質的に歪みを感じない自然な補正画像となるように、前記光像の画像における各画素の画像データを歪み補正して前記補正画像における各画素の画像データを演算する画像処理部とを備えた撮像装置において、前記画像処理部は、前記光像の画像における各画素の画像データを一定の画素間隔で歪み補正して前記補正画像における各画素の画像データを演算することを特徴とする撮像装置。
(付記5) 前記画像処理部は、前記光像の画像を縮小する処理部と、縮小した画像に対して歪み補正する処理部と、歪み補正した画像を元の画像のサイズに拡大する処理部とを備えて構成されることを特徴とする付記4に記載の撮像装置。(付記6) 前記画像の一定範囲内の各画素に対しては、全ての画素について歪みを補正することを特徴とする付記3に記載の撮像装置。
(付記7) 前記光像の画像の一定範囲内における各画素の画像データについては、全て歪み補正することを特徴とする付記4に記載の撮像装置。
(付記8) 前記補正画像の一定範囲内の画像の代わりに前記中央領域を透過した光像の画像を拡大又は縮小して用いることを特徴とする付記3に記載の撮像装置。
(付記9) 前記補正画像の一定範囲内における各画素の画像データに、前記中央領域を透過した光像の画像における各画素の画像データを前記歪み補正することなく用いることを特徴とする付記4に記載の撮像装置。
(付記10) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する歪み補正方法において、前記中央領域を透過した光像による画像を拡大又は縮小するステップと、前記周辺領域を透過した光像による画像を歪み補正するステップとを備えることを特徴とする歪み補正方法。
(付記11) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する歪み補正方法において、前記画像の各画素に対して一定の画素間隔で歪みを補正して補正画像を得るステップと、前記中央領域を透過した光像による画像を拡大又は縮小するステップとを備えることを特徴とする歪み補正方法。
(付記12) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する歪み補正方法において、前記画像の各画素に対して一定の画素間隔で歪みを補正して補正画像を得るステップと、前記画像の一定範囲内の各画素に対しては、全ての画素について歪みを補正するステップとを備えることを特徴とする歪み補正方法。
【0107】
【発明の効果】
以上説明したように、本発明に係る撮像装置は、結像光学系に中央領域に対してその周辺領域が大きな歪曲収差を有する光学系を用いるので、広い視野の画像が得られるだけでなく、その中央領域を透過した光像の画像が見た目で実質的に歪みを感じない自然な画像となる。このため、中央領域を透過した光像の画像を拡大又は縮小し、その拡大又は縮小した画像を補正画像の一部とすることによって、その部分の歪みを補正する歪み補正処理が必要となくなるから、高速に歪み補正処理を実行することができる。
【0108】
高速に歪み補正処理を実行することができるので、一般向けのLSIやディジタルスチルカメラ向けのASIC等の安価な集積回路を利用することができるから、撮像装置のコストを低減することができる。
【0109】
また、高速に歪み補正処理を実行することができるので、同等の処理能力を有する回路で歪み補正処理をした場合に従来に較べてフレームレートを向上させることができるから、よりスムーズな動きの動画を得ることができる。
【図面の簡単な説明】
【図1】第1の実施形態における監視システムの構成を示す図である。
【図2】監視システムに使用される監視カメラの構成を示す図である。
【図3】監視カメラの構成を示すブロック図である。
【図4】第1の実施形態における結像光学系の特性を示す図である。
【図5】コントローラの構成を示すブロック図である。
【図6】第1の実施形態における監視カメラの動作を示す図である。
【図7】コントローラの表示部に表示される表示画面を示す図である。
【図8】歪み補正処理を説明するための図である。
【図9】第1の実施形態における望遠の場合における歪み補正処理後の画像を示す図である。
【図10】第1の実施形態における広角の場合における歪み補正処理後の画像を示す図である。
【図11】第2の実施形態における広角の画像を生成する場合における監視カメラの動作を示す図である。
【図12】第2の実施形態における広角の場合における歪み補正処理後の画像を示す図である。
【図13】第3の実施形態における広角の画像を生成する場合における監視カメラの動作を示す図である。
【図14】広歪曲レンズで撮像した撮像画像及びその歪みを補正した歪み補正画像を示す図である。
【符号の説明】
2 監視カメラ
3 コントローラ
30 撮像部
31 画像生成部
32 画像データバッファ
33 画像処理部
35、43 制御部
36 画像データ記録部
37 記憶部
41 操作部
42 表示部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging apparatus and a distortion correction method, and more particularly to an imaging apparatus that can execute a distortion correction process for correcting distortion generated in an image captured by an imaging optical system having negative distortion at a higher speed than before. And a distortion correction method.
[0002]
[Prior art]
When photographing a subject, there is a case where it is desired to photograph in a wide field of view. In particular, a surveillance camera desirably has a wide field of view due to the nature of surveillance. As one of the photographing methods satisfying such a demand, a method of photographing using a wide-distortion lens such as a fish-eye lens or a foveated lens can be considered.
[0003]
A wide-distortion lens is, for example, a lens that captures an angle of view of 180 degrees or more, so that a 180-degree field of view is contained in a finite screen as a completely similar image as in a normal wide-angle lens, It is impossible in principle. In order to fit a field of view with an angle of view of 180 degrees or more within a finite screen, the wide-distortion lens is given negative distortion, and all straight lines that do not pass through the center of the screen are curved in a barrel-shaped direction. It is reflected.
[0004]
FIG. 14 is a diagram illustrating a captured image captured by a wide-distortion lens and a distortion-corrected image obtained by correcting the distortion. FIG. 14A is a diagram illustrating a captured image captured by a wide distortion lens, and FIG. 14B is a diagram illustrating a distortion corrected image in which distortion has been corrected.
[0005]
In FIG. 14A, the captured image 1001 captured by the wide-distortion lens becomes a distorted image because all the straight lines that do not pass through the center of the captured image 1001 appear in a barrel-shaped curve as described above. It does not result in a natural image without similar distortion similar to a sight visible to the naked eye. For this reason, there is a problem that a viewer feels strange. Furthermore, since the distortion is large in the peripheral portion of the image, there is a visibility problem that it is difficult to determine what the subject is in the captured image 1001.
[0006]
Therefore, for a captured image captured by a fish-eye lens, each pixel of the captured image is rearranged, and a natural image in which the captured image is not substantially distorted when viewed, that is, a similar image similar to a sight visible to the naked eye. There is known a distortion correction process for obtaining a natural image having substantially no distortion (see, for example, Patent Document 1). For example, the captured image 1001 shown in FIG. 14A becomes a distortion-corrected image shown in FIG.
[0007]
In addition, the fisheye lens is a so-called circular image fisheye lens that completely captures a range of 180 degrees or more as a circular image on the imaging surface of the image sensor, and the 180 ° angle of view corresponds to a diagonal line on the imaging surface of the image sensor. There is a so-called diagonal fisheye lens that projects an image over the entire rectangular imaging surface.
[0008]
[Patent Document 1]
JP 2000-242773 A
[0009]
[Problems to be solved by the invention]
Incidentally, the distortion correction processing for correcting this distortion requires a huge amount of calculation. In particular, when the number of pixels is increased to obtain high resolution, the amount of calculation increases accordingly. Therefore, if the distortion correction processing is performed by dedicated hardware, the processing can be performed at high speed, but there is a problem that the cost is high.
[0010]
On the other hand, if the distortion correction processing is performed by a general LSI, for example, an ASIC (Application Specific Integrated Circuit) for a digital still camera, the distortion correction processing can be realized at low cost, but there is a problem that the processing speed is slow. In particular, in the case of a moving image, if the processing speed is reduced, the frame rate is reduced, so that a problem occurs in that the movement of the subject becomes awkward.
[0011]
The present invention has been made in view of the above problems, and has an image pickup apparatus capable of executing a distortion correction process at a higher speed than a conventional one when a distortion correction process is performed by a circuit having the same information processing capability. It is an object to provide a distortion correction method.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, in the first means according to the present invention, an image obtained by an imaging optical system whose peripheral region has a large distortion with respect to a central region substantially reduces distortion when viewed. In an imaging apparatus that corrects distortion so as to obtain a natural corrected image that is not felt, an image of a light image transmitted through the central region is enlarged or reduced and used instead of correcting distortion in a part of the corrected image.
[0013]
The imaging apparatus according to the first means uses an optical system in which the peripheral region has large distortion with respect to the central region in the imaging optical system, so that not only an image with a wide field of view can be obtained but also the central region. The image of the light image transmitted through becomes a natural image that does not substantially feel distortion when viewed. For this reason, since the image of the optical image transmitted through the central region is enlarged or reduced, and the enlarged or reduced image is used as a part of the corrected image, the distortion correction processing for correcting the distortion of the portion is not required. Thus, the distortion correction processing can be executed at high speed. In particular, when the corrected image itself is an image obtained by enlarging or reducing the image of the light image transmitted through the central region, it is not necessary to execute the distortion correction processing itself, so that a corrected image can be obtained at higher speed.
[0014]
In the second means according to the present invention, an image obtained by an imaging optical system having a large distortion in a peripheral region with respect to a central region is a natural corrected image which does not substantially feel distortion when viewed. When correcting the distortion of the image, the image capturing apparatus corrects the distortion at a fixed pixel interval for each pixel of the image to obtain a corrected image.
[0015]
The image pickup apparatus according to the second means performs the distortion correction processing at a fixed pixel interval instead of performing the distortion correction processing for all the pixels of the image. Correction processing can be performed.
[0016]
In a third aspect according to the present invention, in the imaging device according to the second aspect, for each pixel within a certain range of the image, distortion is corrected for all pixels.
[0017]
The imaging device according to the third means corrects the distortion of all the pixels within a certain range, so that the image quality can be improved in that range.
[0018]
In a fourth aspect according to the present invention, in the imaging device according to the second aspect, the image of the light image transmitted through the central region is enlarged or reduced and used instead of an image within a certain range of the corrected image.
[0019]
The imaging apparatus according to the fourth means uses the image of the light image transmitted through the central region in an enlarged or reduced manner instead of an image within a certain range of the corrected image, and thus can improve the image quality in that range. it can.
[0020]
In the fifth means according to the present invention, an image obtained by an imaging optical system in which a central region has a large distortion with respect to a central region is a natural corrected image in which a user does not substantially feel distortion when viewed. A distortion correction method for correcting distortion in an image includes a step of enlarging or reducing an image formed by an optical image transmitted through the central area, and a step of correcting distortion of an image formed by an optical image transmitted through the peripheral area.
[0021]
The distortion correction method according to the fifth means uses an optical system in which the peripheral region has a large distortion with respect to the central region in the imaging optical system, so that not only an image with a wide field of view can be obtained but also the central region. The image of the light image transmitted through the region becomes a natural image that does not substantially feel distortion when viewed. For this reason, since the image of the optical image transmitted through the central region is enlarged or reduced, and the enlarged or reduced image is used as a part of the corrected image, the distortion correction processing for correcting the distortion of the portion is not required. Thus, the distortion correction processing can be executed at high speed.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In each drawing, the same components are denoted by the same reference numerals, and description thereof will be omitted. First, the configuration of the first embodiment will be described.
(Configuration of First Embodiment)
The first embodiment is a case where the imaging device according to the present invention is applied to a monitoring camera as an example.
[0023]
FIG. 1 is a diagram illustrating a configuration of a monitoring system according to the first embodiment. In FIG. 1, a
[0024]
In the
[0025]
The communication network 4 may be a communication network constructed by any wireless or wired transmission medium, and may be any communication standard. For example, various communication protocols such as Ethernet (trademark) (including wireless LAN) and TCP / IP can be used. Further, the
[0026]
FIG. 2 is a diagram showing a configuration of a monitoring camera used in the monitoring system. In FIG. 2, the
[0027]
The
[0028]
In such a configuration, when the geared
[0029]
In the following description, the operation of the
[0030]
FIG. 3 is a block diagram illustrating a configuration of the monitoring camera. 3, the
[0031]
The
[0032]
The
[0033]
Note that the
[0034]
The imaging
[0035]
FIG. 4 is a diagram illustrating characteristics of the imaging optical system according to the first embodiment. FIG. 4A is a graph showing the distortion / angle-of-view characteristics, in which the horizontal axis is the distortion in percentage and the vertical axis is the angle of view θ in degrees (°). FIG. 4B is a graph showing the angle-of-view and image-height characteristics, in which the horizontal axis is the angle of view θ and the horizontal axis is the image height h.
[0036]
As shown in FIG. 4A, the distortion / field angle characteristic, which is the relationship between the distortion S and the angle of view θ, is such that when the angle of view θ is equal to or smaller than a predetermined value θi, When the angle of view θ exceeds a predetermined value θi, the distortion S sharply increases. Here, the predetermined value Si in the distortion S is a value that looks similar to a natural image with substantially no distortion when an image of the subject light image transmitted through the central region of the imaging
[0037]
FIG. 4A shows the characteristics of the imaging
[0038]
Due to this characteristic, the angle of view / image which is a relationship between the angle of view θ and the height (hereinafter, referred to as “image height”) h of the optical image formed on the imaging surface of the
[0039]
One of the imaging
[0040]
Since the
[0041]
Returning to FIG. 3, the
[0042]
The image data is configured by associating, for each pixel, position data representing the position of the pixel with luminance data representing the luminance of the pixel. The luminance data is composed of the luminance value of each pixel when the
[0043]
The
[0044]
The image processing unit 33 performs, for the image data in the
[0045]
The image
[0046]
The communication I /
[0047]
The
[0048]
FIG. 5 is a block diagram showing the configuration of the controller. 5, the
[0049]
The
[0050]
The
[0051]
The communication I /
[0052]
The
[0053]
Next, the operation of the first embodiment will be described.
(Operation of First Embodiment)
The
[0054]
FIG. 6 is a diagram illustrating the operation of the surveillance camera according to the first embodiment. FIG. 7 is a diagram showing a display screen displayed on the display unit of the controller. FIG. 8 is a diagram for explaining the distortion correction processing. FIG. 9 is a diagram illustrating an image after the distortion correction processing in the telephoto case according to the first embodiment. FIG. 10 is a diagram illustrating an image after distortion correction processing in the case of a wide angle in the first embodiment.
[0055]
In FIG. 6, when the
[0056]
Upon receiving the image data via the communication network 4 and the communication I /
[0057]
The display screen of the
[0058]
First, a wide distortion image is displayed in the
[0059]
The user inputs the angle of view of the display image to be displayed in the
[0060]
The
[0061]
In S <b> 14, the
[0062]
That is, in FIG. 8, the size of the wide-distorted
[0063]
As described above, the central region of the imaging
[0064]
When the size of the
[0065]
Then, the
[0066]
When receiving the image data, the
[0067]
As described above, since the distortion correction processing on the telephoto display image merely enlarges the image of the central image area X, it is not necessary to execute a normal distortion correction processing described later, and the distortion correction processing is performed at a higher speed than in the related art. Can be performed.
[0068]
On the other hand, in S21, the image processing unit 33 calculates the angle of view θx of the central image area X of the wide distortion image (S21). The angle of view θx can be obtained from
θx = g (A / 2) × 2 (1)
Here, as the function g, for example, the characteristic curve shown in FIG. 4B may be created by actually measuring the angle-of-view / image height characteristics of the imaging
[0069]
Next, the image processing unit 33 calculates the size of the pasting area Y that is an area for displaying an image based on the central image area X of the wide-distortion image in the wide-angle display image (S22). Assuming that the size of the pasting area Y is C (pix) (C ≦ K) in the horizontal direction and D (pix) (D ≦ L) in the vertical direction, and the angle of view of the
C = K × tan (θx / 2) / tan (θv / 2) (2)
D = C × B / A (3)
Note that the ratio of the number of horizontal pixels to the number of vertical pixels in the pasting area Y is equal to the ratio of the number of horizontal pixels to the number of vertical pixels in the image display area 101 (C: D = K: L).
[0070]
Next, the image processing unit 33 converts the image data corresponding to the image in the image central area X stored in the
[0071]
Next, the image processing unit 33 converts the image data of each pixel in the image of the area Z other than the pasting area Y in the
[0072]
Hereinafter, a calculation method of the normal distortion correction processing will be described. Here, the image data of the wide distortion image is referred to as original image data, and the pixel data of each pixel constituting the original image data is referred to as original pixel data. An arbitrary pixel in the distortion-corrected image obtained by correcting the distortion of the wide-distortion image is referred to as a target pixel B, and its coordinates are set to B (i, j). In the distortion correction processing, the relationship between the coordinates B (i, j) of the target pixel B and the coordinates Q (u, v) of the pixel Q of the original image corresponding to the target pixel B may be obtained. By obtaining this relationship, the luminance data of the original image data is allocated to the position after the calculation, and the image data of the distortion corrected image can be obtained.
[0073]
First, in the distortion-corrected image, the distance d (dx: x component, dy: y component) from the center A (K / 2, L / 2) of this image to the pixel of interest B is calculated by Expressions 7 to 7 using Expressions 4 to 6. It becomes.
dx = (K / 2−i) (4)
dy = (L / 2−j) (5)
d = √ (dx 2 + Dy 2 ) ・ ・ ・ (6)
By
d = √ {(K / 2-i) 2 + (L / 2-j) 2 ・ ・ ・ ... (7)
It becomes.
[0074]
Further, when it is assumed that the relationship between the image height Y, the focal length f, and the angle of view Θ is taken using a normal lens represented by Y = f · tan Θ, the distortion-corrected image is taken. The incident angle φ of the light converted to the pixel data of the pixel located at the coordinate B (i, j) is the incident angle of the light converted to the pixel data of the pixel located at the coordinate Q (u, v) in the original image. Is the same as
[0075]
Therefore, if the horizontal angle of view of the distortion-corrected image is θ (rad), the incident angle φ of the light converted into the pixel data of the pixel located at the coordinate B (i, j) in the distortion-corrected image is expressed by the following equation (8). And Equation 9 hold, and
X = (K / 2) / tan (θ / 2) (8)
tanφ = d / X (9)
φ = tan -1 {D × tan (θ / 2) / (K / 2)} (10)
Then, assuming that the distance (image height) from the center P (M / 2, N / 2) to the coordinates Q (u, v) in the original image is h, the distance h is the incident light obtained by Expression (10). It is expressed as a function h = f (φ) with the angle φ as a parameter. The function f is obtained according to the radius of curvature of the imaging
[0076]
On the other hand, since Expressions 11 and 12 hold, Expressions 13 and 14 are obtained.
h: d = (u−M / 2): dx (11)
h: d = (v−N / 2): dy (12)
u = M / 2 + h × (dx / d) (13)
v = N / 2 + h × (dy / d) (14)
Therefore, the coordinates Q (u, v) of the pixel data in the original image corresponding to the pixel data located at the coordinates B (i, j) can be obtained from h = f (φ) and Expressions 13 and 14. it can.
[0077]
Returning to FIG. 6, the image processing unit 33 displays the image data of the pasting area Y generated in S23 at the center of the
[0078]
When receiving both the image data, the
[0079]
When recording a display image, the user inputs an operation command for recording a display image to the
[0080]
In the first embodiment, when a distortion-corrected image in telephoto is displayed in the
[0081]
When a wide-angle distortion-corrected image is displayed in the
[0082]
Therefore, since the distortion correction processing can be performed at high speed, an inexpensive integrated circuit such as an LSI for general use or an ASIC for digital still camera can be used, and the cost of the
[0083]
Also, when the
[0084]
Next, a second embodiment will be described.
(Configuration of the second embodiment)
In the first embodiment, the telephoto image is generated by enlarging the image of the central image area X in the wide distortion image to the size of the
[0085]
Therefore, the configuration of the
[0086]
Next, the operation of the second embodiment will be described.
(Operation of Second Embodiment)
The operation of the surveillance camera according to the second embodiment is the same as that of the first embodiment except for a process of generating image data of a wide-angle image. That is, since the processing of S11 to S15 in FIG. 6 in the first embodiment is the operation of the surveillance camera in the second embodiment as it is, a description thereof will be omitted, and the processing of generating image data of a wide-angle image will be omitted. explain.
[0087]
FIG. 11 is a diagram illustrating the operation of the surveillance camera when a wide-angle image is generated. FIG. 12 is a diagram illustrating an image after distortion correction processing in the case of a wide angle in the second embodiment.
[0088]
In FIG. 11, the image processing unit 33 generates image data of a 1 / s reduced wide-distorted image obtained by reducing the wide-distorted image to 1 / s based on the image data stored in the image data buffer 32 (S31). ).
[0089]
Next, the image processing unit 33 performs the above-described normal distortion correction processing on the 1 / s reduced wide distortion image (S32). Since the normal distortion correction processing is performed on the 1 / s reduced engineering distortion image reduced to 1 / s, the normal distortion correction processing is executed at a ratio of one pixel to s pixels. For this reason, since the distortion correction processing is performed at a fixed pixel interval s for each pixel in the wide distortion image, the number of pixels to be processed is reduced as compared with the case where the distortion correction processing is performed on the wide distortion image. As a result, the processing time of the distortion correction processing is reduced. This s is a value determined by the image quality or the like required for the image obtained after the distortion correction. In the present embodiment, s = 2.
[0090]
Next, the image processing unit 33 performs an enlargement process of enlarging the 1 / s reduced wide-distorted image after the distortion correction process by s times. As a result, the size becomes the size when the wide distortion image is directly subjected to distortion correction processing. Here, since the distortion correction processing is performed at a rate of one pixel for s pixels, some pixels do not have luminance data. For this reason, the image processing unit 33 generates the image data for the pixel for which the distortion correction process has not been performed by interpolating based on the image data of the adjacent pixel (S33).
[0091]
In this interpolation, for example, the luminance data of a pixel adjacent to one of the pixels is used as it is as the luminance data of the pixel. Further, for example, a linear function indicating the relationship between the position and the luminance is obtained using the luminance data of both pixels adjacent to the pixel, and the luminance data of the pixel is determined from the linear function (linear interpolation). Further, for example, the luminance data of the pixel is obtained by averaging the luminance data of the peripheral pixels of the pixel.
[0092]
Next, the image processing unit 33 performs a normal distortion correction process on the image in the image central region X of the wide distortion image, and generates image data after the distortion correction process (S34).
[0093]
Next, the image processing unit 33 transmits both the image data to the
[0094]
Upon receiving both image data, the
[0095]
In the second embodiment, when displaying a wide-angle distortion-corrected image in the
[0096]
Next, a third embodiment will be described.
(Configuration of Third Embodiment)
In the third embodiment, the image central region X of the wide-distorted image is replaced with the image central region X of the wide-distorted image in the same manner as in the first embodiment, instead of performing the distortion correction process on the image of the image central region X of the wide-distorted image in S34 in the second embodiment. This is an embodiment in which an enlarged or reduced image is pasted.
[0097]
Therefore, the configuration of the
[0098]
Next, the operation of the third embodiment will be described.
(Operation of Third Embodiment)
The operation of the surveillance camera according to the third embodiment is the same as that of the first embodiment except for a process of generating image data of a wide-angle image. That is, since the processing of S11 to S15 in FIG. 6 in the first embodiment is the operation of the surveillance camera in the second embodiment as it is, a description thereof will be omitted, and the processing of generating image data of a wide-angle image will be omitted. explain.
[0099]
FIG. 13 is a diagram illustrating an operation of the surveillance camera when a wide-angle image is generated according to the third embodiment.
[0100]
In FIG. 13, the image processing unit 33 generates image data of a 1 / s reduced wide-distorted image obtained by reducing the wide-distorted image to 1 / s based on the image data stored in the image data buffer 32 (S41). ). Next, the image processing unit 33 performs a normal distortion correction process on the 1 / s reduced wide distortion image (S42). Next, the image processing unit 33 performs an enlargement process of enlarging the 1 / s reduced wide-distorted image after the distortion correction process by s times. Then, the image processing unit 33 generates the image data for the pixels for which the distortion correction processing has not been performed by interpolating based on the image data of the adjacent pixels (S43).
[0101]
Next, the image processing unit 33 calculates the angle of view θx of the central image area X of the wide-distortion image by using Expression 1 (S44). Next, the image processing unit 33 calculates the size of the pasting area Y, which is an area for displaying an image based on the central image area X of the wide-distortion image in the wide-angle display image, using
[0102]
The image processing unit 33 transmits both image data to the
[0103]
Upon receiving both image data, the
[0104]
In the third embodiment, when a wide-angle distortion-corrected image is displayed in the
[0105]
In the first to third embodiments, the embodiment in which the
[0106]
The main inventions disclosed in the present specification are summarized below.
(Supplementary Note 1) Imaging that corrects distortion so that an image obtained by an imaging optical system whose peripheral region has a large distortion with respect to a central region becomes a natural corrected image that does not substantially feel distortion when viewed. An imaging apparatus, wherein an image of a light image transmitted through the central region is enlarged or reduced and used instead of correcting distortion in a part of the corrected image.
(Supplementary Note 2) An image forming optical system having a large distortion in a peripheral region with respect to a central region, and an image formed by the image forming optical system on an imaging surface in which a plurality of light receiving elements are two-dimensionally arranged. An image sensor that photoelectrically converts an optical image with the plurality of light receiving elements and outputs an image signal; an image generating unit that generates image data of each pixel in the image of the optical image based on the image signal; An image in which the image data of each pixel in the image of the light image is distortion-corrected and the image data of each pixel in the corrected image is calculated so that the image of FIG. An image processing unit comprising: a processor configured to correct image data of each pixel in an image of the light image transmitted through the central region into a part of image data of each pixel in the corrected image. Do An imaging device characterized in that the imaging device is used without being used.
(Supplementary Note 3) Imaging that corrects distortion so that an image obtained by an imaging optical system in which a peripheral region has large distortion with respect to a central region is a natural corrected image in which the user does not substantially feel distortion when viewing the image. In the apparatus, when correcting distortion of the image, an image capturing apparatus obtains a corrected image by correcting distortion at a fixed pixel interval for each pixel of the image.
(Supplementary Note 4) An image forming optical system in which a peripheral region has a large distortion with respect to a central region, and an image forming optical system in which a plurality of light receiving elements are two-dimensionally arranged is formed by the image forming optical system. An image sensor that photoelectrically converts an optical image with the plurality of light receiving elements and outputs an image signal; an image generating unit that generates image data of each pixel in the image of the optical image based on the image signal; An image for calculating image data of each pixel in the corrected image by correcting the image data of each pixel in the image of the light image so that the image of FIG. An image processing unit comprising: a processing unit configured to calculate image data of each pixel in the corrected image by performing distortion correction on image data of each pixel in the image of the light image at a fixed pixel interval. To An imaging device characterized by the following.
(Supplementary Note 5) The image processing unit includes a processing unit that reduces the image of the light image, a processing unit that corrects distortion of the reduced image, and a processing unit that enlarges the distortion-corrected image to the original image size. 5. The imaging device according to claim 4, wherein the imaging device includes: (Supplementary Note 6) The imaging apparatus according to
(Supplementary Note 7) The imaging apparatus according to Supplementary Note 4, wherein distortion correction is performed on all image data of each pixel within a certain range of the light image.
(Supplementary Note 8) The imaging device according to
(Supplementary Note 9) The image data of each pixel within a certain range of the corrected image, wherein the image data of each pixel in the image of the light image transmitted through the central region is used without performing the distortion correction. An imaging device according to
(Supplementary Note 10) Distortion for correcting distortion so that an image obtained by an imaging optical system in which a peripheral region has a large distortion with respect to a central region becomes a natural corrected image in which the distortion is not substantially felt when viewed. A distortion correction method, comprising: a step of enlarging or reducing an image formed by an optical image transmitted through the central area; and a step of correcting distortion of an image formed by an optical image transmitted through the peripheral area.
(Supplementary Note 11) Distortion that corrects distortion so that an image obtained by an imaging optical system in which a peripheral region has a large distortion with respect to a central region becomes a natural corrected image in which the user does not substantially feel distortion when viewing the image. The correction method includes the steps of obtaining a corrected image by correcting distortion at a fixed pixel interval for each pixel of the image, and enlarging or reducing an image formed by a light image transmitted through the central region. Characteristic distortion correction method.
(Supplementary Note 12) Distortion for correcting distortion so that an image obtained by an imaging optical system in which a peripheral region has a large distortion with respect to a central region becomes a natural corrected image which does not substantially feel distortion when viewed. In the correction method, a step of correcting a distortion at a fixed pixel interval for each pixel of the image to obtain a corrected image, and a step of correcting the distortion for all pixels of each pixel within a predetermined range of the image. Performing the distortion correction.
[0107]
【The invention's effect】
As described above, since the imaging apparatus according to the present invention uses the optical system having a large distortion in the peripheral region with respect to the central region in the imaging optical system, not only can a wide-field image be obtained, The image of the light image transmitted through the central region becomes a natural image that does not substantially feel distortion when viewed. For this reason, since the image of the optical image transmitted through the central region is enlarged or reduced, and the enlarged or reduced image is used as a part of the corrected image, the distortion correction processing for correcting the distortion of the portion is not required. Thus, the distortion correction processing can be executed at high speed.
[0108]
Since the distortion correction processing can be executed at high speed, an inexpensive integrated circuit such as an LSI for general use or an ASIC for digital still camera can be used, so that the cost of the imaging apparatus can be reduced.
[0109]
In addition, since the distortion correction processing can be executed at a high speed, the frame rate can be improved as compared with the conventional case when the distortion correction processing is performed by a circuit having the same processing capability, so that a moving image having a smoother motion can be obtained. Can be obtained.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a monitoring system according to a first embodiment.
FIG. 2 is a diagram illustrating a configuration of a monitoring camera used in the monitoring system.
FIG. 3 is a block diagram illustrating a configuration of a monitoring camera.
FIG. 4 is a diagram illustrating characteristics of the imaging optical system according to the first embodiment.
FIG. 5 is a block diagram illustrating a configuration of a controller.
FIG. 6 is a diagram illustrating an operation of the surveillance camera according to the first embodiment.
FIG. 7 is a diagram showing a display screen displayed on a display unit of the controller.
FIG. 8 is a diagram illustrating a distortion correction process.
FIG. 9 is a diagram illustrating an image after distortion correction processing in a telephoto case according to the first embodiment.
FIG. 10 is a diagram illustrating an image after distortion correction processing in the case of a wide angle in the first embodiment.
FIG. 11 is a diagram illustrating an operation of the surveillance camera when a wide-angle image is generated according to the second embodiment.
FIG. 12 is a diagram illustrating an image after distortion correction processing in a wide angle case according to the second embodiment.
FIG. 13 is a diagram illustrating an operation of the surveillance camera when a wide-angle image is generated according to the third embodiment.
FIG. 14 is a diagram illustrating a captured image captured by a wide-distortion lens and a distortion-corrected image obtained by correcting the distortion.
[Explanation of symbols]
2 surveillance cameras
3 Controller
30 Imaging unit
31 Image generator
32 image data buffer
33 Image processing unit
35, 43 control unit
36 Image data recording unit
37 Memory
41 Operation unit
42 Display
Claims (5)
前記補正画像の一部に歪みを補正する代わりに前記中央領域を透過した光像の画像を拡大又は縮小して用いること
を特徴とする撮像装置。In an imaging device that corrects distortion so as to become a natural corrected image that does not substantially feel distortion when viewing an image obtained by an imaging optical system whose peripheral region has a large distortion with respect to the central region,
An image pickup apparatus characterized in that an image of a light image transmitted through the central region is enlarged or reduced and used instead of correcting distortion in a part of the corrected image.
前記画像の歪みを補正する場合に、前記画像の各画素に対して一定の画素間隔で歪みを補正して補正画像を得ること
を特徴とする撮像装置。In an imaging device that corrects distortion so as to become a natural corrected image that does not substantially feel distortion when viewing an image obtained by an imaging optical system whose peripheral region has a large distortion with respect to the central region,
An image pickup apparatus, wherein when correcting distortion of the image, a corrected image is obtained by correcting distortion at a fixed pixel interval for each pixel of the image.
を特徴とする請求項2に記載の撮像装置。3. The imaging apparatus according to claim 2, wherein for each pixel within a certain range of the image, distortion is corrected for all pixels.
を特徴とする請求項2に記載の撮像装置。The imaging apparatus according to claim 2, wherein an image of a light image transmitted through the central region is enlarged or reduced and used instead of an image within a certain range of the corrected image.
前記中央領域を透過した光像による画像を拡大又は縮小するステップと、
前記周辺領域を透過した光像による画像を歪み補正するステップとを備えること
を特徴とする歪み補正方法。In a distortion correction method for correcting a distortion so as to become a natural corrected image in which the image obtained by the imaging optical system having a large distortion in the peripheral region with respect to the central region does not substantially feel distortion when viewed.
Step of enlarging or reducing the image by the light image transmitted through the central area,
Correcting the image of the light image transmitted through the peripheral region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003062147A JP2004272578A (en) | 2003-03-07 | 2003-03-07 | Image pickup unit and distortion correction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003062147A JP2004272578A (en) | 2003-03-07 | 2003-03-07 | Image pickup unit and distortion correction method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004272578A true JP2004272578A (en) | 2004-09-30 |
Family
ID=33124149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003062147A Withdrawn JP2004272578A (en) | 2003-03-07 | 2003-03-07 | Image pickup unit and distortion correction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004272578A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006121138A (en) * | 2004-10-19 | 2006-05-11 | Sony Corp | Image processor, image processing method and computer program |
JP2006135744A (en) * | 2004-11-08 | 2006-05-25 | Sony Corp | Image processing apparatus, image processing method, and computer program |
JP2006279144A (en) * | 2005-03-28 | 2006-10-12 | Sanyo Electric Co Ltd | Distortion correction device |
JP2006345053A (en) * | 2005-06-07 | 2006-12-21 | Olympus Corp | Image pickup apparatus |
JP2007104315A (en) * | 2005-10-04 | 2007-04-19 | Fujifilm Corp | Photographing device |
JP2007135135A (en) * | 2005-11-14 | 2007-05-31 | Olympus Corp | Moving image imaging apparatus |
JP2007148784A (en) * | 2005-11-28 | 2007-06-14 | D Link Corp | Image composition system and image composition method |
JP2007184720A (en) * | 2006-01-05 | 2007-07-19 | Olympus Corp | Image photographing apparatus |
JP2008085524A (en) * | 2006-09-27 | 2008-04-10 | Olympus Imaging Corp | Imaging apparatus |
JP2008141568A (en) * | 2006-12-04 | 2008-06-19 | Nikon Corp | Monitoring system, and driving assistant system |
US7733407B2 (en) | 2005-11-24 | 2010-06-08 | Olympus Corporation | Image processing apparatus and method for preferably correcting distortion aberration |
US8036482B2 (en) | 2007-02-09 | 2011-10-11 | Sony Corporation | Image processing apparatus and method, program, and recording medium |
WO2012157459A1 (en) * | 2011-05-17 | 2012-11-22 | シャープ株式会社 | Stereoscopic view image generating system |
JP2013219544A (en) * | 2012-04-09 | 2013-10-24 | Ricoh Co Ltd | Image processing apparatus, image processing method, and image processing program |
US9020281B2 (en) | 2010-03-01 | 2015-04-28 | Konika Minolta Advanced Layers, Inc. | Ghost detection device and imaging device using the same, ghost detection method and ghost removal method |
JP7476151B2 (en) | 2021-09-24 | 2024-04-30 | キヤノン株式会社 | IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM |
-
2003
- 2003-03-07 JP JP2003062147A patent/JP2004272578A/en not_active Withdrawn
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4539280B2 (en) * | 2004-10-19 | 2010-09-08 | ソニー株式会社 | Image processing apparatus, image processing method, and computer program |
JP2006121138A (en) * | 2004-10-19 | 2006-05-11 | Sony Corp | Image processor, image processing method and computer program |
JP2006135744A (en) * | 2004-11-08 | 2006-05-25 | Sony Corp | Image processing apparatus, image processing method, and computer program |
JP4539299B2 (en) * | 2004-11-08 | 2010-09-08 | ソニー株式会社 | Image processing apparatus, image processing method, and computer program |
JP2006279144A (en) * | 2005-03-28 | 2006-10-12 | Sanyo Electric Co Ltd | Distortion correction device |
JP4606218B2 (en) * | 2005-03-28 | 2011-01-05 | 三洋電機株式会社 | Distortion correction device |
JP2006345053A (en) * | 2005-06-07 | 2006-12-21 | Olympus Corp | Image pickup apparatus |
JP4553798B2 (en) * | 2005-06-07 | 2010-09-29 | オリンパス株式会社 | Imaging device |
JP2007104315A (en) * | 2005-10-04 | 2007-04-19 | Fujifilm Corp | Photographing device |
JP4680022B2 (en) * | 2005-10-04 | 2011-05-11 | 富士フイルム株式会社 | Imaging device |
JP2007135135A (en) * | 2005-11-14 | 2007-05-31 | Olympus Corp | Moving image imaging apparatus |
US7733407B2 (en) | 2005-11-24 | 2010-06-08 | Olympus Corporation | Image processing apparatus and method for preferably correcting distortion aberration |
JP2007148784A (en) * | 2005-11-28 | 2007-06-14 | D Link Corp | Image composition system and image composition method |
JP2007184720A (en) * | 2006-01-05 | 2007-07-19 | Olympus Corp | Image photographing apparatus |
JP4608436B2 (en) * | 2006-01-05 | 2011-01-12 | オリンパス株式会社 | Image shooting device |
JP2008085524A (en) * | 2006-09-27 | 2008-04-10 | Olympus Imaging Corp | Imaging apparatus |
JP4734207B2 (en) * | 2006-09-27 | 2011-07-27 | オリンパスイメージング株式会社 | Imaging device |
JP2008141568A (en) * | 2006-12-04 | 2008-06-19 | Nikon Corp | Monitoring system, and driving assistant system |
US8036482B2 (en) | 2007-02-09 | 2011-10-11 | Sony Corporation | Image processing apparatus and method, program, and recording medium |
US9020281B2 (en) | 2010-03-01 | 2015-04-28 | Konika Minolta Advanced Layers, Inc. | Ghost detection device and imaging device using the same, ghost detection method and ghost removal method |
WO2012157459A1 (en) * | 2011-05-17 | 2012-11-22 | シャープ株式会社 | Stereoscopic view image generating system |
JP2013219544A (en) * | 2012-04-09 | 2013-10-24 | Ricoh Co Ltd | Image processing apparatus, image processing method, and image processing program |
JP7476151B2 (en) | 2021-09-24 | 2024-04-30 | キヤノン株式会社 | IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4503878B2 (en) | Imaging apparatus and imaging method | |
JP2004272578A (en) | Image pickup unit and distortion correction method | |
JP4356621B2 (en) | Imaging apparatus and imaging method | |
JP2011055170A (en) | Information processing apparatus and control method therefor | |
JP2004282162A (en) | Camera, and monitoring system | |
JP2010263656A (en) | Imaging apparatus and imaging method | |
JP2015176559A (en) | information processing method, information processing apparatus, and program | |
US8913173B2 (en) | Imaging apparatus and imaging method | |
JP2018117276A (en) | Video signal processing device, video signal processing method, and program | |
EP2009907A1 (en) | Camera apparatus, and image processing apparatus and image processing method | |
JP6350695B2 (en) | Apparatus, method, and program | |
CN108270959B (en) | Panoramic imaging method, terminal equipment and panoramic imaging device | |
JP7150456B2 (en) | IMAGING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD OF INFORMATION PROCESSING DEVICE, AND PROGRAM | |
JP2004289225A (en) | Imaging apparatus | |
JPH10336494A (en) | Digital camera with zoom display function | |
JP6583486B2 (en) | Information processing method, information processing program, and information processing apparatus | |
JP2004282163A (en) | Camera, monitor image generating method, program, and monitoring system | |
JP6128185B2 (en) | Apparatus, method, and program | |
JP2008177972A (en) | Imaging apparatus | |
CN106233715B (en) | Image output device, image output method, and storage medium | |
JP2019204560A (en) | program | |
US11653094B2 (en) | Imaging apparatus with shaking state information display | |
TWI784446B (en) | Display system, display method and image capture device | |
JP2006033160A (en) | Imaging system | |
JP2013080998A (en) | Image processing device, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050613 |
|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060509 |