JP2004272578A - Image pickup unit and distortion correction method - Google Patents

Image pickup unit and distortion correction method Download PDF

Info

Publication number
JP2004272578A
JP2004272578A JP2003062147A JP2003062147A JP2004272578A JP 2004272578 A JP2004272578 A JP 2004272578A JP 2003062147 A JP2003062147 A JP 2003062147A JP 2003062147 A JP2003062147 A JP 2003062147A JP 2004272578 A JP2004272578 A JP 2004272578A
Authority
JP
Japan
Prior art keywords
image
distortion
wide
image data
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003062147A
Other languages
Japanese (ja)
Inventor
Tetsuya Katagiri
哲也 片桐
Satoru Hirose
悟 広瀬
Kazuhiro Shibatani
一弘 柴谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2003062147A priority Critical patent/JP2004272578A/en
Publication of JP2004272578A publication Critical patent/JP2004272578A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup unit capable of distortion correction for correcting the distortions caused in an image picked up in an image forming optical system having a negative distortion aberration at a speed higher than before, and a distortion correction method. <P>SOLUTION: In the image pickup unit which corrects the distortion so as to turn the image obtained by the image forming optical system having the distortion aberration which is larger in the peripheral area than in a center area, to a natural corrected image practically without the apparent distortion, the image of an optical image transmitted through the center area is enlarged or reduced and used for a part of the corrected image instead of correcting the distortion. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、撮像装置及び歪み補正方法に関し、特に、負の歪曲収差を有する結像光学系で撮像した画像に生じる歪みを補正する歪み補正処理を従来よりも高速に実行することができる撮像装置及び歪み補正方法に関する。
【0002】
【従来の技術】
被写体を撮影する場合に、広視野で撮影したい場合がある。特に、監視カメラでは、監視を目的とする性質上、広視野であることが望ましい。このような要求を満たす撮影方法の一つとして、魚眼レンズや中心窩レンズ等の広歪曲レンズを用いて撮影する方法が考えられる。
【0003】
広歪曲レンズは、例えば画角180度又はそれ以上を写し込むレンズであるから、180度の視野を通常の広角レンズと同じように完全な相似形の像として有限の画面内に収めるのは、原理的に無理である。画角180度又はそれ以上の視野を有限の画面内に収めるために、広歪曲レンズは、負の歪曲収差が与えられており、画面の中心を通過しない直線は、すべて樽型方向の曲線に写る。
【0004】
図14は、広歪曲レンズで撮像した撮像画像及びその歪みを補正した歪み補正画像を示す図である。図14(A)は、広歪曲レンズで撮像した撮像画像を示す図であり、図14(B)は、歪みを補正した歪み補正画像を示す図である。
【0005】
図14(A)において、広歪曲レンズで撮像した撮像画像1001は、上述のように、撮像画像1001における画像の中心を通過しない直線がすべて樽型方向の曲線に写るため、歪んだ画像となり、肉眼で見える光景と同様な相似形の歪みのない自然な画像とはならない。このため、見る人に違和感を与えるという問題がある。さらに、画像の周辺部分では歪みが大きくなるため、撮像画像1001に写し込まれている被写体が何であるか判別し難いという視認性の問題も生じる。
【0006】
そのため、魚眼レンズで撮像した撮像画像については、当該撮像画像の各画素を再配置し、当該撮像画像を見た目で実質的に歪みを感じない自然な画像、つまり、肉眼で見える光景と同様な相似形の略歪みのない自然な画像とする歪み補正処理が知られている(例えば、特許文献1参照)。例えば、図14(A)に示す撮像画像1001は、歪み補正処理されると、図14(B)に示す歪み補正画像となる。
【0007】
なお、魚眼レンズは、画角180度又はそれ以上の範囲を撮像素子の撮像面に円像として完全に写し込むいわゆる円像魚眼レンズと、画角180度を撮像素子の撮像面における対角線に対応させて、矩形の撮像面一杯に像を写し込むいわゆる対角線魚眼レンズがある。
【0008】
【特許文献1】
特開2000−242773号公報
【0009】
【発明が解決しようとする課題】
ところで、この歪みを補正する歪み補正処理は、膨大な計算が必要である。特に、高解像度を得るために画素数を増やすとそれに伴って計算量が増大する。このため、専用のハードウェアで歪み補正処理を行えば、高速に処理することは可能であるが、高コストになるという問題がある。
【0010】
一方、一般のLSI、例えばディジタルスチルカメラ向けのASIC(Application Specific Integrated Circuit)で歪み補正処理を行えば、安価で歪み補正処理を実現可能であるが、処理速度が遅くなるという問題が生じる。特に、動画の場合には、処理速度が遅くなるとフレームレートが低下することとなるため、被写体の動きがぎこちなくなってしまうという問題が生じる。
【0011】
本発明は、上記問題点に鑑みて為された発明であり、情報処理能力が同じ回路で歪み補正処理を実行した場合に、従来よりも高速に歪み補正処理を実行することができる撮像装置及び歪み補正方法を提供することを目的とする。
【0012】
【課題を解決するための手段】
上述の目的を達成するために、本発明に係る第1の手段では、中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する撮像装置において、前記補正画像の一部に歪みを補正する代わりに前記中央領域を透過した光像の画像を拡大又は縮小して用いる。
【0013】
この第1の手段に係る撮像装置は、結像光学系に中央領域に対してその周辺領域が大きな歪曲収差を有する光学系を用いるので、広い視野の画像が得られるだけでなく、その中央領域を透過した光像の画像が見た目で実質的に歪みを感じない自然な画像となる。このため、中央領域を透過した光像の画像を拡大又は縮小し、その拡大又は縮小した画像を補正画像の一部とすることによって、その部分の歪みを補正する歪み補正処理が必要となくなるから、高速に歪み補正処理を実行することができる。特に、補正画像そのものが中央領域を透過した光像の画像を拡大又は縮小した画像である場合には、歪み補正処理自体を実行する必要がなくなるので、より高速に補正画像を得ることができる。
【0014】
本発明に係る第2の手段では、中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する撮像装置において、前記画像の歪みを補正する場合に、前記画像の各画素に対して一定の画素間隔で歪みを補正して補正画像を得る。
【0015】
この第2の手段に係る撮像装置は、画像の全画素について歪み補正処理をするのではなく、一定の画素間隔で歪み補正処理を行うので、歪み補正処理をしない画素の分だけ、高速に歪み補正処理を実行することができる。
【0016】
本発明に係る第3の手段では、第2の手段に係る撮像装置において、前記画像の一定範囲内の各画素に対しては、全ての画素について歪みを補正する。
【0017】
この第3の手段に係る撮像装置は、一定範囲内の各画素に対しては、全ての画素について歪みを補正するので、その範囲においては画質を向上することができる。
【0018】
本発明に係る第4の手段では、第2の手段に係る撮像装置において、前記補正画像の一定範囲内の画像の代わりに前記中央領域を透過した光像の画像を拡大又は縮小して用いる。
【0019】
この第4の手段に係る撮像装置は、補正画像の一定範囲内の画像の代わりに中央領域を透過した光像の画像を拡大又は縮小して用いるので、その範囲においては画質を向上することができる。
【0020】
本発明に係る第5の手段では、中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目に実質的に歪みを感じない自然な補正画像となるように歪みを補正する歪み補正方法において、前記中央領域を透過した光像による画像を拡大又は縮小するステップと、前記周辺領域を透過した光像による画像を歪み補正するステップとを備える。
【0021】
この第5の手段に係る歪み補正方法は、結像光学系に中央領域に対してその周辺領域が大きな歪曲収差を有する光学系を用いるので、広い視野の画像が得られるだけでなく、その中央領域を透過した光像の画像が見た目で実質的に歪みを感じない自然な画像となる。このため、中央領域を透過した光像の画像を拡大又は縮小し、その拡大又は縮小した画像を補正画像の一部とすることによって、その部分の歪みを補正する歪み補正処理が必要となくなるから、高速に歪み補正処理を実行することができる。
【0022】
【発明の実施の形態】
以下、本発明に係る実施形態を図面に基づいて説明する。なお、各図において同一の構成については、同一の符号を付し、その説明を省略する。まず、第1の実施形態の構成について説明する。
(第1実施形態の構成)
第1の実施形態は、本発明に係る撮像装置が一例として監視カメラに適用された場合である。
【0023】
図1は、第1の実施形態における監視システムの構成を示す図である。図1において、監視システム1は、所定の監視対象領域を撮影する監視カメラ2と、パーソナルコンピュータ(PC)や携帯電話などのコントローラ3とを備えて構成され、監視カメラ2とコントローラ3とは、通信ネットワーク4を介して接続される。
【0024】
監視システム1では、監視カメラ2は、監視対象を撮像すると、その画像の画像データを通信ネットワーク4を介してコントローラ3に送信する。一方、コントローラ3は、監視カメラ2に対する例えば撮影方向を変更する指示等の操作コマンドがユーザによって入力されると、その操作コマンドを通信ネットワーク4を介して監視カメラ2に送信する。そして、監視カメラ2は、その操作コマンドに基づき動作する。これにより、コントローラ3の表示部に監視カメラ2により撮影された画像が表示されるとともに、監視カメラ2の動作を遠隔で操作することができる。
【0025】
通信ネットワーク4は、無線や有線のどのような伝送媒体によって構築された通信網でもよく、また、どのような通信規格でもよい。例えば、イーサネット(Ethernet、商標)(無線LANを含む)及びTCP/IP等の各種通信プロトコルを利用することができる。さらに、監視カメラ2とコントローラ3とは、IrDAやBluetooth(商標)等の通信規格による無線や有線ケーブルで直接通信を行う形態でもよい。
【0026】
図2は、監視システムに使用される監視カメラの構成を示す図である。図2において、監視カメラ2は、カメラ21、U字型に屈曲した枠体22、カメラ21の光軸(撮影方向、監視方向に相当)Lを上下方向(チルト方向)に移動させるギヤードモータ23及びカメラ21の光軸Lを左右方向(パン方向)に移動させるギヤードモータ24を備えて構成される。
【0027】
カメラ21は、左右の側面に突設されたチルト方向の回転軸25を枠体22の側面22A、22A’に穿設された孔22Bに貫通させて枠体22に取り付けられる。側面22Aを貫通して突出された回軸軸25の先端は、ギヤードモータ23の出力軸が取り付けられる。枠体22の下面中央には、パン方向の回転軸26が下方向に突設され、この回転軸26の先端は、ギヤードモータ24の出力軸が取り付けられる。ギヤードモータ23の筐体は、枠体22に不図示の固定部材によって固定され、枠体22と一体的にチルト方向に回動可能に構成される。ギヤードモータ24は、監視カメラ2の支持体27に固定されている。
【0028】
このような構成において、ギヤードモータ24を回転駆動すると、枠体22が回転軸26の周りに回転し、これによりカメラ21の光軸Lがパン方向に移動する。一方、ギヤードモータ23を回転駆動すると、カメラ21が回転軸25の周りに回転し、これによりカメラ21の光軸Lがチルト方向に移動する。
【0029】
なお、以下の説明において、カメラ21の光軸Lがパン方向に移動する監視カメラ2の動作をパン動作、チルト方向に移動する監視カメラ2の動作をチルト動作と呼称することとする。
【0030】
図3は、監視カメラの構成を示すブロック図である。図3において、監視カメラ2は、撮像部30、画像生成部31、画像データバッファ32、画像処理部33、駆動部34、制御部35、画像データ記録部36、記憶部37、通信I/F部38及びI/F部39を備えて構成される。
【0031】
撮像部30は、結像光学系301と撮像素子302とを備えて構成される。被写体からの光は、結像光学系301によって撮像素子302の撮像面上に結像され、被写体の光像となる。
【0032】
撮像素子302は、受光した光をその光強度に従った電気信号に変換する複数の受光素子を例えばハニカム状又はマトリックス状等に2次元的に配置した光電変換素子であり、例えば、各光電変換素子の撮像面に、それぞれR(赤)、G(緑)、B(青)の色フィルタが1:2:1の比率で配設されたCCDカラーエリアセンサである。撮像素子302は、結像光学系301により結像された被写体の光像をR(赤),G(緑),B(青)の色成分の電気信号(画像信号)に変換し、R,G,B各色の画像信号として画像生成部31に出力する。撮像素子302は、制御部35の制御により、露出動作の開始及び終了や、撮像素子302における各画素の出力信号の読出し(水平同期、垂直同期、転送)等の撮像動作が制御される。
【0033】
なお、撮像装置302は、上述のCCDに限らずCMOSの固体撮像素子でもよく、またカラーの撮像素子に限らずモノクロの撮像素子であってもよい。
【0034】
結像光学系301は、被写体の光像を撮像素子302の撮像面に結像するレンズであり、光軸を中心に一定範囲の領域(中央領域)ではその歪曲収差の値が所定値以下であって、中央領域の周りの領域(周辺領域)ではその歪曲収差の値が所定値より大きい。特に、本実施形態の結像光学系301は、周辺領域ではその歪曲収差の値が周辺部に行くに従って大きくなる光学系である。
【0035】
図4は、第1の実施形態における結像光学系の特性を示す図である。図4(A)は、歪曲収差・画角特性を示すグラフであり、その横軸は百分率で示す歪曲収差であり、その縦軸は度(°)単位で示す画角θである。図4(B)は、画角・像高特性を示すグラフであり、その横軸は画角θであり、その横軸は像高hである。
【0036】
図4(A)に示すように、歪曲収差Sと画角θとの関係である歪曲収差・画角特性は、画角θが所定値θi以下の領域では歪曲収差Sが所定値Si以下であり、画角θが所定値θiを超えると歪曲収差Sが急激に大きくなる。ここで、歪曲収差Sにおける所定値Siは、結像光学系301の中央領域を透過した被写体光像による画像を人間が見た場合において相似形の略歪みのない自然な画像に見える値であり、例えば、Si=約3%(このときθi=約8°)である。もちろん、所定値Siを3%以下の値、例えば、約2%や約1%に設定したとしても、見た目に実質的に歪みを感じない自然な画像となる。
【0037】
なお、図4(A)は、約50度の半画角で歪曲収差が約−70%である結像光学系301の特性を示している。
【0038】
この特性により、画角θと、結像光学系301により撮像素子302の撮像面に結像される光像の高さ(以下、「像高」という)hとの関係である画角・像高特性は、図4(B)に示す曲線となる。即ち、画角θが小さい領域(図4(B)に示す点線より左側の領域、結像光学系301の中央領域に対応)では、画角θに対して像高hは、略線形であって、画角θの単位変化に対するその変化量が大きい。一方、画角θが大きい領域(図4(B)に示す点線より右側の領域、結像光学系301の周辺領域に対応)では、画角θに対して像高hは、非線形であって、画角θの単位変化に対するその変化量は、画角θの増大に伴って徐々に小さくなり、像高hは、略一定値に飽和する。つまり、画角θが小さい領域では、解像度が高く、画角θが大きい周辺領域では、情報量は多いが解像度が低い。
【0039】
このような特性を有する結像光学系301の一つに中心窩レンズと呼ばれるレンズがある。中心窩レンズは、視野における注目領域(上述の中央領域に相当)で画像を拡大し、その周辺領域(上述の周辺領域に相当)で画像を圧縮する機能を持つレンズであり、広い視野、注目領域での高解像度及び注目領域で歪みの目立たない自然な画像が得られる等の特徴がある。
【0040】
第1の実施形態における監視カメラ2は、図4に示す特性を有する結像光学系301を用いるので、撮像画像における中央部分(画像中央領域X)では結像光学系301の中央領域を透過した被写体光像による画像であるので、高い解像度で歪みの目立たない自然な画像を得ることができ、広い視野も得ることができる。
【0041】
図3に戻って、画像生成部31は、画像全体に対して適正な黒レベルの決定、γ補正、ホワイトバランス調整(WB調整)、輪郭補正及び色ムラ補正等の周知の画像処理を行って、画像信号から各画素の画像データを生成する。画像生成部31で生成された画像データは、画像データバッファ32に出力される。
【0042】
画像データは、各画素ごとに、画素の位置を表す位置データと画素の輝度を表す輝度データとが対応付けられて構成される。輝度データは、監視カメラ2がモノクロで撮影するものである場合には各画素の輝度値で構成され、監視カメラ2がカラーで撮影するものである場合には各画素における赤成分の輝度値、緑成分の輝度値及び青成分の輝度値、又は、輝度値と各色差の値で構成される。
【0043】
画像データバッファ32は、画像データを一時的に記憶するとともに、この画像データに対し画像処理部33により後述の処理を行うための作業領域として用いられるメモリであり、例えば、RAM等である。
【0044】
画像処理部33は、画像データバッファ32の画像データに対し、歪曲収差によって歪んだ画像を肉眼で見える光景と同様な相似形の略歪みのない自然な画像に補正する歪み補正処理及び解像度変換等の画像処理を行う回路である。駆動部34は、ギヤードモータ23、24を含み、制御部35から出力される制御信号により、カメラ21(監視カメラ2)の光軸Lをパン方向及びチルト方向に駆動する。
【0045】
画像データ記録部36は、画像データバッファ32に記憶されている画像データを記録媒体に記録する回路である。記録媒体は、例えば、CD−R、ハードディスク及びメモリカード等である。記憶部37は、監視カメラ2の動作に必要な各種プログラム、プログラム実行中に必要なデータ、及び、プログラム実行中に生じたデータを記憶する記憶回路であり、例えば、ROMやRAMを備えて構成される。
【0046】
通信I/F部38は、通信ネットワーク4との間で通信を行うためのインターフェースであり、コントローラ3への画像データを収容する通信パケットの送信や、コントローラ3からの操作コマンドを収容する通信パケットの受信等を行う。I/F部39は、外部機器と画像データを送受信するインターフェースであり、例えば、USBやIEEE1394等の規格に準拠したインターフェースである。
【0047】
制御部35は、例えば、マイクロプロセッサ等を備えて構成され、撮像部30、画像生成部31、画像データバッファ32、画像処理部32、駆動部34、画像データ記録部36、記憶部37、通信I/F部38及びI/F部39の各部を制御する。
【0048】
図5は、コントローラの構成を示すブロック図である。図5において、コントローラ3は、操作部41、表示部42、制御部43及び通信I/F部44とを備えて構成される。
【0049】
操作部41は、パン動作、チルト動作、画像データの記録、画像データの送信要求等の監視カメラ2に対する各種の操作を指示する操作コマンドを入力する装置であり、例えば、コントローラ3がPCの場合には、キーボードやマウスに相当し、携帯電話の場合には、テンキーやカーソルキーに相当する。
【0050】
表示部42は、監視カメラ2から通信ネットワーク4を介して送信された画像データに係る画像を表示するディスプレイであり、コントローラ3がPCの場合には、CRTディスプレイやLCD等のモニタに相当し、携帯電話の場合には、LCD表示部に相当する。
【0051】
通信I/F部44は、通信ネットワーク4との間で通信を行うためのインターフェースであり、監視カメラ2から画像データを収容した通信パケットの受信や、監視カメラ2へ操作コマンドを収容した通信パケットの送信等を行う。
【0052】
制御部43は、例えばコントローラ3を制御する制御プログラムを記憶するROMや一時的にデータを記憶するRAMを備えたマイクロコンピュータから構成され、操作部41、表示部42及び通信I/F部44を有機的に制御して、コントローラ3の動作を制御する。
【0053】
次に、第1の実施形態の動作について説明する。
(第1の実施形態の動作)
第1の実施形態における監視カメラ2は、歪み補正処理において、結像光学系301の特性を活かし、中央領域の画像はそのまま歪み補正することなく用いて、周辺領域のみ歪み補正処理を行う実施形態である。
【0054】
図6は、第1の実施形態における監視カメラの動作を示す図である。図7は、コントローラの表示部に表示される表示画面を示す図である。図8は、歪み補正処理を説明するための図である。図9は、第1の実施形態における望遠の場合における歪み補正処理後の画像を示す図である。図10は、第1の実施形態における広角の場合における歪み補正処理後の画像を示す図である。
【0055】
図6において、監視カメラ2の制御部35は、コントローラ3から監視対象の画像を送信する指示の操作コマンドを通信I/F部38を介して受信すると、監視対象を撮像部30で撮像し、撮像素子302からの画像信号に基づいて画像生成部31で画像データを生成し、生成した画像データを画像データバッファ32に記憶する。図4に示す特性を持つ結像光学系301で得た画像データによる画像を広歪曲画像と呼称することとする。制御部35は、この広歪曲画像の画像データを通信I/F部38及び通信ネットワーク4を介してコントローラ3に送信する(S11)。
【0056】
コントローラ3は、この画像データを通信ネットワーク4及び通信I/F部44を介して受信すると、画像データを表示部42に表示する。なお、このように監視カメラ2の制御部35とコントローラ3の制御部43との間における通信では、通信I/F部38、通信ネットワーク4及び通信I/F部44を介して行われるが、以下の説明において、この記述を省略する。
【0057】
コントローラ3の表示部42の表示画面は、例えば、図7に示すように、監視カメラ2からの画像データによって生成される画像を表示する領域である画像表示領域101と、広角の画像の画像データを送信するように監視カメラ2に指示する操作コマンドを入力するためのボタンである「広角」102と、望遠の画像の画像データを送信するように監視カメラ2に指示する操作コマンドを入力するためのボタンである「望遠」103と、画像データ記録部36で画像データを記録媒体に記録するように監視カメラ2に指示する操作コマンドを入力するボタンである「画像記録」104とを備えて構成される。なお、「画像記録」104には、画像データ記録部36で画像データを記録媒体に記録するように監視カメラ2に指示するだけでなく、コントローラ3に備えられた画像データ記録部(不図示)に画像表示領域101に表示されている画像の画像データを記憶する指示を含めてもよい。そして、「広角」102、「望遠」103及び「画像記録」104は、例えばPCの場合ではカーソルをマウスで所望のボタンに合わせ、クリックすることによって、各ボタンに対応する操作コマンドが入力される。
【0058】
コントローラ3の表示部41における画像表示領域101には、まず、図7に示すように広歪曲画像が表示される。
【0059】
ユーザは、画像表示領域101に表示したい表示画像の画角を「広角」102又は「望遠」103を用いてコントローラ3に入力する。コントローラ3の制御部43は、操作部41及び表示部42によって入力された画角を監視カメラ2の制御部35に送信する。
【0060】
監視カメラ2の制御部35は、表示すべき表示画像の画角を受信する(S12)。制御部35は、受信した画角が広角であるか望遠であるかを判断する(S13)。判断の結果、制御部35は、望遠である場合(S13の“望遠”)にはS14の処理を行い、広角である場合(S13の“広角”)にはS21の処理を行う。
【0061】
S14において、制御部35は、画像処理部33に広歪曲画像の画像中央領域Xのサイズを画像表示領域101のサイズに拡大するサイズ変換を行う。
【0062】
即ち、図8において、広歪曲画像111のサイズを水平方向Mピクセル(pix)、垂直方向N(pix)とし、結像光学系301の中央領域を透過した被写体光像による画像に対応する領域である画像中央領域Xのサイズを水平方向A(pix)(A≦M)、垂直方向B(pix)(B≦N)とする。また、図9において、画像表示領域101のサイズを水平方向K(pix)(K≦M)、垂直方向L(pix)(L≦N)とする。なお、サイズ変換処理を容易に行うために、広歪曲画像111の垂直方向画素数に対する水平方向画素数の比率、画像中央領域Xの垂直方向画素数に対する水平方向画素数の比率、及び、画像表示領域101の垂直方向画素数に対する水平方向画素数の比率を全て同一(M:N=A:B=K:L)とする。
【0063】
結像光学系301の中央領域は、上述したように、この領域を透過した被写体光像による画像が人間が見た場合において相似形の略歪みのない自然な画像に見える範囲に設定されるので、画像中央領域Xの画像は、見た目に実質的に歪みを感じない自然な画像である。
【0064】
画像表示領域101のサイズと画像中央領域Xのサイズがこのように設定されている場合に、画像処理部33は、画像データバッファ32に記憶されている画像中央領域Xの画像に対応する画像データを、画像中央領域Xの画像がK/A倍されるように、周知の方法で当該画像データを演算する。つまり、当該画像データにおいて、サイズ変化後の位置を演算し、演算した位置に当該画像データの輝度データを割り当てる。画像中央領域Xの画像をK/A倍することによって画像中央領域Xの画像は、画像表示領域101の大きさに拡大される。なお、このサイズ変換は、ディジタルスチルカメラ向けのASICにおけるサイズ変換機能を利用すると高速に処理可能である。
【0065】
そして、制御部35は、K/A倍された画像中央領域Xの画像の画像データをコントローラ3に送信する(S15)。
【0066】
コントローラ3の制御部43は、この画像データを受信すると、この画像データを表示部42に表示する。例えば、図8の破線で示す領域が画像中央領域Xである場合には、この家の部分の画像データがK/A倍されることによって図9に示す画像が得られ、コントローラ3に表示される。
【0067】
このように、望遠の表示画像における歪み補正処理は、中央画像領域Xの画像を拡大するだけなので、後述する通常の歪み補正処理を実行する必要がなく、従来に較べて高速に歪み補正処理を実行することができる。
【0068】
一方、S21において、画像処理部33は、広歪曲画像の中央画像領域Xの画角θxを計算する(S21)。この画角θxは、像高hに対する画角θとの関係を示す関数がθ=g(h)として与えられているとすると、式1から求めることができる。
θx=g(A/2)×2 ・・・ (1)
ここで、関数gは、例えば、結像光学系301の画角・像高特性を実測することによって図4(B)に示す特性曲線を作成し、関数gを求めればよい。
【0069】
次に、画像処理部33は、広角の表示画像において広歪曲画像の中央画像領域Xに基づく画像を表示する領域である貼付け領域Yのサイズを計算する(S22)。貼付け領域Yのサイズを水平方向C(pix)(C≦K)、垂直方向D(pix)(D≦L)とし、画像表示領域101の画角をθvとすると、貼付け領域Yのサイズは、式2及び式3から求めることができる。
C=K×tan(θx/2)/tan(θv/2) ・・・ (2)
D=C×B/A ・・・ (3)
なお、貼付け領域Yの垂直方向画素数に対する水平方向画素数の比率と画像表示領域101の垂直方向画素数に対する水平方向画素数の比率とを同一(C:D=K:L)とする。
【0070】
次に、画像処理部33は、画像データバッファ32に記憶されている画像中央領域Xの画像に対応する画像データを、画像中央領域Xの画像がC/A倍されるように、周知の方法で当該画像データを演算する(S23)。画像中央領域Xの画像をC/A倍することによって画像中央領域Xの画像は、貼付け領域Yの大きさに拡大又は縮小される。
【0071】
次に、画像処理部33は、画像表示領域101における貼付け領域Y以外の領域Zの画像における各画素の画像データを、広歪曲画像111における中央画像領域X以外の画像における各画素の画像データに対して通常の歪み補正処理を行うことによって生成する(S24)。
【0072】
以下に、この通常の歪み補正処理の計算方法について説明する。ここで、広歪曲画像の画像データを元画像データ、元画像データを構成する各画素の画素データを元画素データと呼称することとする。広歪曲画像の歪みを補正することによって得られる歪み補正画像における任意の画素を注目画素Bと呼称し、その座標をB(i,j)とする。歪み補正処理は、注目画素Bの座標B(i,j)と、この注目画素Bに対応する元画像の画素Qの座標Q(u,v)との関係を求めればよい。この関係を求めることによって演算後の位置に元画像データの輝度データを割り当てて歪み補正画像の画像データを得ることができる。
【0073】
まず、歪み補正画像において、この画像の中心A(K/2,L/2)から注目画素Bまでの距離d(dx:x成分、dy:y成分)は、式4乃至式6により式7となる。
dx=(K/2−i) ・・・ (4)
dy=(L/2−j) ・・・ (5)
d=√(dx+dy) ・・・ (6)
により、
d=√{(K/2−i)+(L/2−j)} ・・・ (7)
となる。
【0074】
また、像高Y、焦点距離f、画角Θの関係が、Y=f・tanΘで表される通常のレンズを用いて、歪み補正画像を撮影したと仮定した場合に、該歪み補正画像における座標B(i,j)に位置する画素の画素データに変換された光の入射角φは、元画像における座標Q(u,v)に位置する画素の画素データに変換された光の入射角と同じである。
【0075】
したがって、歪み補正画像の水平方向の画角をθ(rad)とすると、歪み補正画像における座標B(i,j)に位置する画素の画素データに変換された光の入射角φは、式8及び式9が成り立ち、式10となる。
X=(K/2)/tan(θ/2) ・・・ (8)
tanφ=d/X ・・・ (9)
φ=tan−1{d×tan(θ/2)/(K/2)} ・・・ (10)
そして、元画像において、その中心P(M/2,N/2)から座標Q(u,v)までの距離(像高)をhとすると、距離hは、式(10)で求めた入射角φをパラメータとする関数h=f(φ)として表される。この関数fは、結像光学系301の曲率半径などに応じて求まるが、関数gと同様に実測することによって求めてもよい。
【0076】
一方、式11及び式12が成立するので、式13及び式14が求まる。
h:d=(u−M/2):dx ・・・ (11)
h:d=(v−N/2):dy ・・・ (12)
u=M/2+h×(dx/d) ・・・ (13)
v=N/2+h×(dy/d) ・・・ (14)
したがって、h=f(φ)、式13及び式14とから、座標B(i,j)に位置する画素データに対応する、元画像における画素データの座標Q(u,v)を求めることができる。
【0077】
図6に戻って、画像処理部33は、S23で生成した貼付け領域Yの画像データが画像表示領域101の中央に表示され、S24で生成した貼付け領域Y以外の領域Zの画像データがその周辺に表示されるように、両画像データをコントローラ3に送信する(S25)。なお、1枚の画像の画像データに両画像データを合成し、合成した画像データをコントローラ3に送信してもよい。
【0078】
コントローラ3は、両画像データを受信すると、まず、貼付け領域Yの画像データを画像表示領域101の中央に表示し、貼付け領域Y以外の領域Zの画像データをその周辺に表示する。こうしてコントローラ3の表示部42には、監視対象の広角の画像が表示される。例えば、図8に示す広歪曲画像は、図10に示しようにコントローラ3の表示部42の画像表示領域101に表示される。図10の欠損領域121は、広歪曲画像の円像のうち撮像素子302によって受光されなかった光像があるために生じる。
【0079】
なお、ユーザは、表示画像を記録しようとする場合には「画像記録」104によって表示画像を記録させる操作コマンドをコントローラ3に入力する。コントローラ3は、図5に不図示の記憶部に画像データを記憶すると共に、この操作コマンドを監視カメラ2に送信する。この操作コマンドを受信した監視カメラ2は、当該画像データを画像データ記録部36に記録する。
【0080】
第1の実施形態では、望遠における歪み補正画像を画像表示領域101に表示する場合には、表示すべき歪み補正画像を広歪曲画像111の中央画像領域Xにおける画像を拡大又は縮小することによって生成するので、通常の歪み補正処理する必要がない。このため、望遠における歪み補正画像を従来に較べてより高速に生成し、表示することができる。
【0081】
また、広角における歪み補正画像を画像表示領域101に表示する場合には、表示すべき歪み補正画像の一部の画像を広歪曲画像111の中央画像領域Xにおける画像を拡大又は縮小することによって生成し、そして、残余の部分の画像を通常の歪み補正処理をすることによって生成する。このため、歪み補正画像の全てを通常の歪み補正処理によって生成する必要がないので、広角における歪み補正画像を従来に較べてより高速に生成し、表示することができる。そして、中央画像領域Xは、結像光学系301の特性により、見た目に実質的に歪みを感じない自然な画像が得られているので、画像における注目され易い画像の中央の画質を維持することができる。
【0082】
従って、高速に歪み補正処理を実行することができるので、一般向けのLSIやディジタルスチルカメラ向けのASIC等の安価な集積回路を利用することができるから、監視カメラ2のコストを低減することができる。
【0083】
また、監視カメラ2が動画を送信する場合に、高速に歪み補正処理を実行することができるので、同等の処理能力を有する回路で歪み補正処理をした場合に、従来に較べてフレームレートを向上させることができるから、よりスムーズな動きの動画を得ることができる。
【0084】
次に、第2の実施形態について説明する。
(第2の実施形態の構成)
第1の実施形態では、望遠の画像は、広歪曲画像における中央画像領域Xの画像を画像表示領域101のサイズに拡大することによって生成し、広角の画像は、広歪曲画像における中央画像領域Xの画像を貼付け領域Yのサイズに拡大又は縮小すると共に貼付け領域Y以外の領域Zの画像を広歪曲画像111に歪み補正処理を実行するによって生成したが、第2の実施形態では、望遠の画像は、広歪曲画像における中央画像領域Xの画像を画像表示領域101のサイズに拡大することによって生成し、広角の画像は、貼付け領域Yについては全画素について通常の歪み補正処理を実行すると共に、貼付け領域Y以外の領域Zについてはs画素に1画素の割合で通常の歪み補正処理を実行することによって生成する。なお、第1の実施形態における貼付け領域Yに相当する領域を第2の実施形態では歪み補正中央領域Wと呼称することとする。歪み補正中央領域Wのサイズは、E(pix)×F(pix)であり、本実施形態では、E=C、F=Dである。
【0085】
従って、監視カメラ2の画像処理部33の処理が後述のように処理する点を除き、監視システム1の構成、監視カメラ2の構成、及び、コントローラ3の構成は、第1の実施形態と同様なので、その説明を省略する。
【0086】
次に、第2の実施形態の動作について説明する。
(第2の実施形態の動作)
第2の実施形態における監視カメラの動作は、広角の画像の画像データを生成する処理を除き、第1の実施形態と同様である。つまり、第1の実施形態における図6のS11乃至S15の処理は、そのまま第2の実施形態における監視カメラの動作であるので、その説明を省略し、広角の画像の画像データを生成する処理について説明する。
【0087】
図11は、広角の画像を生成する場合における監視カメラの動作を示す図である。図12は、第2の実施形態における広角の場合における歪み補正処理後の画像を示す図である。
【0088】
図11において、画像処理部33は、画像データバッファ32に記憶されている画像データに基づいて、広歪曲画像を1/sに縮小した1/s縮小広歪曲画像の画像データを生成する(S31)。
【0089】
次に、画像処理部33は、1/s縮小広歪曲画像に対して上述した通常の歪み補正処理を行う(S32)。通常の歪み補正処理は、1/sに縮小した1/s縮小工歪曲画像に対して行われるので、s画素に1画素の割合で通常の歪み補正処理が実行されることなる。このため、広歪曲画像における各画素に対して一定の画素間隔sで歪み補正処理を実行することとなるので、広歪曲画像について歪み補正処理を実行する場合に較べて処理する画素数が減る。その結果、歪み補正処理の処理時間が短縮される。このsは、歪み補正後に得られる画像に要求される画質等によって決定される値であり、本実施形態では、s=2とした。
【0090】
次に、画像処理部33は、歪み補正処理後の1/s縮小広歪曲画像をs倍に拡大する拡大処理を行う。これによって広歪曲画像をそのまま歪み補正処理した場合のサイズになる。ここで、s画素に1画素の割合で歪み補正処理を行ったため、輝度データを持たない画素が生じることとなる。このため、画像処理部33は、歪み補正処理を実行しなかった画素に対する画像データを隣接画素の画像データに基づいて補間することによって生成する(S33)。
【0091】
この補間は、例えば、当該画素の一方に隣接する画素の輝度データをそのまま当該画素の輝度データとして使用する。また、例えば、当該画素に隣接する両画素の輝度データを用いて位置と輝度との関係を示す一次関数を求め、この一次関数から当該画素の輝度データを求める(線形補間)。また、例えば、当該画素の周辺画素の輝度データを平均することによって当該画素の輝度データを求める。
【0092】
次に、画像処理部33は、広歪曲画像の画像中央領域Xの画像に対し通常の歪み補正処理を行い、歪み補正処理後の画像データを生成する(S34)。
【0093】
次に、画像処理部33は、S33で生成した画像が先に表示され、S34で生成した画像データが画像表示領域101の中央に重ねて表示されるように、両画像データをコントローラ3に送信する(S35)。なお、1枚の画像の画像データに両画像データを合成し、合成した画像データをコントローラ3に送信してもよい。
【0094】
コントローラ3は、両画像データを受信すると、まず、S33で生成した画像データを画像表示領域101の全体に表示し、S34で生成した画像データを画像表示領域101の略中央の歪み補正中央領域Wに重ねて表示する。こうしてコントローラ3の表示部42には、監視対象の広角の画像が表示される。例えば、図8に示す広歪曲画像は、図12に示したようにコントローラ3の表示部42の画像表示領域101に表示される。
【0095】
第2の実施形態では、広角における歪み補正画像を画像表示領域101に表示する場合には、広歪曲画像における各画素に対し一定の画素間隔で通常の歪み補正処理を実行し、画像表示領域101の略中央である歪み補正中央領域Wでは広歪曲画像における全画素に対して通常の歪み補正処理を実行する。このため、歪み補正画像の全てを通常の歪み補正処理によって生成する必要がないので、広角における歪み補正画像を従来に較べてより高速に生成し、表示することができる。そして、歪み補正中央領域Wでは広歪曲画像における全画素に対して通常の歪み補正処理を実行するので、画像における注目され易い画像の中央の画質を維持することができる。
【0096】
次に、第3の実施形態について説明する。
(第3の実施形態の構成)
第3の実施形態は、第2の実施形態におけるS34の広歪曲画像の画像中央領域Xの画像に対する歪み補正処理の代わりに、第1の実施形態と同様に広歪曲画像の画像中央領域Xを拡大又は縮小した画像を貼り付ける実施形態である。
【0097】
従って、監視カメラ2の画像処理部33の処理が後述のように処理する点を除き、監視システム1の構成、監視カメラ2の構成、及び、コントローラ3の構成は、第1の実施形態と同様なので、その説明を省略する。
【0098】
次に、第3の実施形態の動作について説明する。
(第3の実施形態の動作)
第3の実施形態における監視カメラの動作は、広角の画像の画像データを生成する処理を除き、第1の実施形態と同様である。つまり、第1の実施形態における図6のS11乃至S15の処理は、そのまま第2の実施形態における監視カメラの動作であるので、その説明を省略し、広角の画像の画像データを生成する処理について説明する。
【0099】
図13は、第3の実施形態における広角の画像を生成する場合における監視カメラの動作を示す図である。
【0100】
図13において、画像処理部33は、画像データバッファ32に記憶されている画像データに基づいて、広歪曲画像を1/sに縮小した1/s縮小広歪曲画像の画像データを生成する(S41)。次に、画像処理部33は、1/s縮小広歪曲画像に対して通常の歪み補正処理を行う(S42)。次に、画像処理部33は、歪み補正処理後の1/s縮小広歪曲画像をs倍に拡大する拡大処理を行う。そして、画像処理部33は、歪み補正処理を実行しなかった画素に対する画像データを隣接画素の画像データに基づいて補間することによって生成する(S43)。
【0101】
次に、画像処理部33は、広歪曲画像の中央画像領域Xの画角θxを式1によって計算する(S44)。次に、画像処理部33は、広角の表示画像において広歪曲画像の中央画像領域Xに基づく画像を表示する領域である貼付け領域Yのサイズを式2及び式3によって計算する(S45)。次に、画像処理部33は、画像データバッファ32に記憶されている画像中央領域Xの画像に対応する画像データを、画像中央領域Xの画像がC/A倍されるように、周知の方法で当該画像データを演算する(S46)。
【0102】
画像処理部33は、S43で生成した画像が先に表示され、S46で生成した画像データが画像表示領域101の中央に重ねて表示されるように、両画像データをコントローラ3に送信する(S47)。なお、1枚の画像の画像データに両画像データを合成し、合成した画像データをコントローラ3に送信してもよい。
【0103】
コントローラ3は、両画像データを受信すると、まず、S43で生成した画像データを画像表示領域101の全体に表示し、S47で生成した画像データを画像表示領域101の略中央の貼付け領域Yに重ねて表示する。こうしてコントローラ3の表示部42には、監視対象の広角の画像が表示される。
【0104】
第3の実施形態では、広角における歪み補正画像を画像表示領域101に表示する場合には、広歪曲画像における各画素に対し一定の画素間隔で通常の歪み補正処理を実行し、画像表示領域101の略中央である貼付け領域Yでは、広歪曲画像111の中央画像領域Xにおける画像を拡大又は縮小することによって生成する。このため、歪み補正画像の全てを通常の歪み補正処理によって生成する必要がないので、広角における歪み補正画像を従来に較べてより高速に生成し、表示することができる。そして、中央画像領域Xは、結像光学系301の特性により、見た目に実質的に歪みを感じない自然な画像が得られているので、画像における注目され易い画像の中央の画質を維持することができる。
【0105】
なお、第1乃至第3の実施形態では、撮像装置である監視カメラ2とそれを操作するコントローラ3とを別体で構成する実施形態について説明したが、撮像装置とコントローラ3とを一体に構成してもよい。
【0106】
以上、本明細書に開示された主な発明を以下にまとめる。
(付記1) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する撮像装置において、前記補正画像の一部に歪みを補正する代わりに前記中央領域を透過した光像の画像を拡大又は縮小して用いることを特徴とする撮像装置。
(付記2) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系と、複数の受光素子が2次元的に配置されてなる撮像面に前記結像光学系によって結像された光像を前記複数の受光素子で光電変換して画像信号を出力する撮像素子と、前記画像信号に基づいて前記光像の画像における各画素の画像データを生成する画像生成部と、前記光像の画像が見た目に実質的に歪みを感じない自然な補正画像となるように、前記光像の画像における各画素の画像データを歪み補正して前記補正画像における各画素の画像データに演算する画像処理部とを備えた撮像装置において、前記画像処理部は、前記補正画像における各画素の画像データの一部に、前記中央領域を透過した光像の画像における各画素の画像データを前記歪み補正することなく用いることを特徴とする撮像装置。
(付記3) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する撮像装置において、前記画像の歪みを補正する場合に、前記画像の各画素に対して一定の画素間隔で歪みを補正して補正画像を得ることを特徴とする撮像装置。
(付記4) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系と、複数の受光素子が2次元的に配置されてなる撮像面に前記結像光学系によって結像された光像を前記複数の受光素子で光電変換して画像信号を出力する撮像素子と、前記画像信号に基づいて前記光像の画像における各画素の画像データを生成する画像生成部と、前記光像の画像が見た目に実質的に歪みを感じない自然な補正画像となるように、前記光像の画像における各画素の画像データを歪み補正して前記補正画像における各画素の画像データを演算する画像処理部とを備えた撮像装置において、前記画像処理部は、前記光像の画像における各画素の画像データを一定の画素間隔で歪み補正して前記補正画像における各画素の画像データを演算することを特徴とする撮像装置。
(付記5) 前記画像処理部は、前記光像の画像を縮小する処理部と、縮小した画像に対して歪み補正する処理部と、歪み補正した画像を元の画像のサイズに拡大する処理部とを備えて構成されることを特徴とする付記4に記載の撮像装置。(付記6) 前記画像の一定範囲内の各画素に対しては、全ての画素について歪みを補正することを特徴とする付記3に記載の撮像装置。
(付記7) 前記光像の画像の一定範囲内における各画素の画像データについては、全て歪み補正することを特徴とする付記4に記載の撮像装置。
(付記8) 前記補正画像の一定範囲内の画像の代わりに前記中央領域を透過した光像の画像を拡大又は縮小して用いることを特徴とする付記3に記載の撮像装置。
(付記9) 前記補正画像の一定範囲内における各画素の画像データに、前記中央領域を透過した光像の画像における各画素の画像データを前記歪み補正することなく用いることを特徴とする付記4に記載の撮像装置。
(付記10) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する歪み補正方法において、前記中央領域を透過した光像による画像を拡大又は縮小するステップと、前記周辺領域を透過した光像による画像を歪み補正するステップとを備えることを特徴とする歪み補正方法。
(付記11) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する歪み補正方法において、前記画像の各画素に対して一定の画素間隔で歪みを補正して補正画像を得るステップと、前記中央領域を透過した光像による画像を拡大又は縮小するステップとを備えることを特徴とする歪み補正方法。
(付記12) 中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する歪み補正方法において、前記画像の各画素に対して一定の画素間隔で歪みを補正して補正画像を得るステップと、前記画像の一定範囲内の各画素に対しては、全ての画素について歪みを補正するステップとを備えることを特徴とする歪み補正方法。
【0107】
【発明の効果】
以上説明したように、本発明に係る撮像装置は、結像光学系に中央領域に対してその周辺領域が大きな歪曲収差を有する光学系を用いるので、広い視野の画像が得られるだけでなく、その中央領域を透過した光像の画像が見た目で実質的に歪みを感じない自然な画像となる。このため、中央領域を透過した光像の画像を拡大又は縮小し、その拡大又は縮小した画像を補正画像の一部とすることによって、その部分の歪みを補正する歪み補正処理が必要となくなるから、高速に歪み補正処理を実行することができる。
【0108】
高速に歪み補正処理を実行することができるので、一般向けのLSIやディジタルスチルカメラ向けのASIC等の安価な集積回路を利用することができるから、撮像装置のコストを低減することができる。
【0109】
また、高速に歪み補正処理を実行することができるので、同等の処理能力を有する回路で歪み補正処理をした場合に従来に較べてフレームレートを向上させることができるから、よりスムーズな動きの動画を得ることができる。
【図面の簡単な説明】
【図1】第1の実施形態における監視システムの構成を示す図である。
【図2】監視システムに使用される監視カメラの構成を示す図である。
【図3】監視カメラの構成を示すブロック図である。
【図4】第1の実施形態における結像光学系の特性を示す図である。
【図5】コントローラの構成を示すブロック図である。
【図6】第1の実施形態における監視カメラの動作を示す図である。
【図7】コントローラの表示部に表示される表示画面を示す図である。
【図8】歪み補正処理を説明するための図である。
【図9】第1の実施形態における望遠の場合における歪み補正処理後の画像を示す図である。
【図10】第1の実施形態における広角の場合における歪み補正処理後の画像を示す図である。
【図11】第2の実施形態における広角の画像を生成する場合における監視カメラの動作を示す図である。
【図12】第2の実施形態における広角の場合における歪み補正処理後の画像を示す図である。
【図13】第3の実施形態における広角の画像を生成する場合における監視カメラの動作を示す図である。
【図14】広歪曲レンズで撮像した撮像画像及びその歪みを補正した歪み補正画像を示す図である。
【符号の説明】
2 監視カメラ
3 コントローラ
30 撮像部
31 画像生成部
32 画像データバッファ
33 画像処理部
35、43 制御部
36 画像データ記録部
37 記憶部
41 操作部
42 表示部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging apparatus and a distortion correction method, and more particularly to an imaging apparatus that can execute a distortion correction process for correcting distortion generated in an image captured by an imaging optical system having negative distortion at a higher speed than before. And a distortion correction method.
[0002]
[Prior art]
When photographing a subject, there is a case where it is desired to photograph in a wide field of view. In particular, a surveillance camera desirably has a wide field of view due to the nature of surveillance. As one of the photographing methods satisfying such a demand, a method of photographing using a wide-distortion lens such as a fish-eye lens or a foveated lens can be considered.
[0003]
A wide-distortion lens is, for example, a lens that captures an angle of view of 180 degrees or more, so that a 180-degree field of view is contained in a finite screen as a completely similar image as in a normal wide-angle lens, It is impossible in principle. In order to fit a field of view with an angle of view of 180 degrees or more within a finite screen, the wide-distortion lens is given negative distortion, and all straight lines that do not pass through the center of the screen are curved in a barrel-shaped direction. It is reflected.
[0004]
FIG. 14 is a diagram illustrating a captured image captured by a wide-distortion lens and a distortion-corrected image obtained by correcting the distortion. FIG. 14A is a diagram illustrating a captured image captured by a wide distortion lens, and FIG. 14B is a diagram illustrating a distortion corrected image in which distortion has been corrected.
[0005]
In FIG. 14A, the captured image 1001 captured by the wide-distortion lens becomes a distorted image because all the straight lines that do not pass through the center of the captured image 1001 appear in a barrel-shaped curve as described above. It does not result in a natural image without similar distortion similar to a sight visible to the naked eye. For this reason, there is a problem that a viewer feels strange. Furthermore, since the distortion is large in the peripheral portion of the image, there is a visibility problem that it is difficult to determine what the subject is in the captured image 1001.
[0006]
Therefore, for a captured image captured by a fish-eye lens, each pixel of the captured image is rearranged, and a natural image in which the captured image is not substantially distorted when viewed, that is, a similar image similar to a sight visible to the naked eye. There is known a distortion correction process for obtaining a natural image having substantially no distortion (see, for example, Patent Document 1). For example, the captured image 1001 shown in FIG. 14A becomes a distortion-corrected image shown in FIG.
[0007]
In addition, the fisheye lens is a so-called circular image fisheye lens that completely captures a range of 180 degrees or more as a circular image on the imaging surface of the image sensor, and the 180 ° angle of view corresponds to a diagonal line on the imaging surface of the image sensor. There is a so-called diagonal fisheye lens that projects an image over the entire rectangular imaging surface.
[0008]
[Patent Document 1]
JP 2000-242773 A
[0009]
[Problems to be solved by the invention]
Incidentally, the distortion correction processing for correcting this distortion requires a huge amount of calculation. In particular, when the number of pixels is increased to obtain high resolution, the amount of calculation increases accordingly. Therefore, if the distortion correction processing is performed by dedicated hardware, the processing can be performed at high speed, but there is a problem that the cost is high.
[0010]
On the other hand, if the distortion correction processing is performed by a general LSI, for example, an ASIC (Application Specific Integrated Circuit) for a digital still camera, the distortion correction processing can be realized at low cost, but there is a problem that the processing speed is slow. In particular, in the case of a moving image, if the processing speed is reduced, the frame rate is reduced, so that a problem occurs in that the movement of the subject becomes awkward.
[0011]
The present invention has been made in view of the above problems, and has an image pickup apparatus capable of executing a distortion correction process at a higher speed than a conventional one when a distortion correction process is performed by a circuit having the same information processing capability. It is an object to provide a distortion correction method.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, in the first means according to the present invention, an image obtained by an imaging optical system whose peripheral region has a large distortion with respect to a central region substantially reduces distortion when viewed. In an imaging apparatus that corrects distortion so as to obtain a natural corrected image that is not felt, an image of a light image transmitted through the central region is enlarged or reduced and used instead of correcting distortion in a part of the corrected image.
[0013]
The imaging apparatus according to the first means uses an optical system in which the peripheral region has large distortion with respect to the central region in the imaging optical system, so that not only an image with a wide field of view can be obtained but also the central region. The image of the light image transmitted through becomes a natural image that does not substantially feel distortion when viewed. For this reason, since the image of the optical image transmitted through the central region is enlarged or reduced, and the enlarged or reduced image is used as a part of the corrected image, the distortion correction processing for correcting the distortion of the portion is not required. Thus, the distortion correction processing can be executed at high speed. In particular, when the corrected image itself is an image obtained by enlarging or reducing the image of the light image transmitted through the central region, it is not necessary to execute the distortion correction processing itself, so that a corrected image can be obtained at higher speed.
[0014]
In the second means according to the present invention, an image obtained by an imaging optical system having a large distortion in a peripheral region with respect to a central region is a natural corrected image which does not substantially feel distortion when viewed. When correcting the distortion of the image, the image capturing apparatus corrects the distortion at a fixed pixel interval for each pixel of the image to obtain a corrected image.
[0015]
The image pickup apparatus according to the second means performs the distortion correction processing at a fixed pixel interval instead of performing the distortion correction processing for all the pixels of the image. Correction processing can be performed.
[0016]
In a third aspect according to the present invention, in the imaging device according to the second aspect, for each pixel within a certain range of the image, distortion is corrected for all pixels.
[0017]
The imaging device according to the third means corrects the distortion of all the pixels within a certain range, so that the image quality can be improved in that range.
[0018]
In a fourth aspect according to the present invention, in the imaging device according to the second aspect, the image of the light image transmitted through the central region is enlarged or reduced and used instead of an image within a certain range of the corrected image.
[0019]
The imaging apparatus according to the fourth means uses the image of the light image transmitted through the central region in an enlarged or reduced manner instead of an image within a certain range of the corrected image, and thus can improve the image quality in that range. it can.
[0020]
In the fifth means according to the present invention, an image obtained by an imaging optical system in which a central region has a large distortion with respect to a central region is a natural corrected image in which a user does not substantially feel distortion when viewed. A distortion correction method for correcting distortion in an image includes a step of enlarging or reducing an image formed by an optical image transmitted through the central area, and a step of correcting distortion of an image formed by an optical image transmitted through the peripheral area.
[0021]
The distortion correction method according to the fifth means uses an optical system in which the peripheral region has a large distortion with respect to the central region in the imaging optical system, so that not only an image with a wide field of view can be obtained but also the central region. The image of the light image transmitted through the region becomes a natural image that does not substantially feel distortion when viewed. For this reason, since the image of the optical image transmitted through the central region is enlarged or reduced, and the enlarged or reduced image is used as a part of the corrected image, the distortion correction processing for correcting the distortion of the portion is not required. Thus, the distortion correction processing can be executed at high speed.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In each drawing, the same components are denoted by the same reference numerals, and description thereof will be omitted. First, the configuration of the first embodiment will be described.
(Configuration of First Embodiment)
The first embodiment is a case where the imaging device according to the present invention is applied to a monitoring camera as an example.
[0023]
FIG. 1 is a diagram illustrating a configuration of a monitoring system according to the first embodiment. In FIG. 1, a monitoring system 1 includes a monitoring camera 2 that captures a predetermined monitoring target area, and a controller 3 such as a personal computer (PC) or a mobile phone. It is connected via a communication network 4.
[0024]
In the monitoring system 1, when the monitoring camera 2 captures an image of a monitoring target, the monitoring camera 2 transmits image data of the image to the controller 3 via the communication network 4. On the other hand, when the user inputs an operation command such as an instruction to change the photographing direction to the monitoring camera 2, the controller 3 transmits the operation command to the monitoring camera 2 via the communication network 4. Then, the monitoring camera 2 operates based on the operation command. Thus, the image captured by the monitoring camera 2 is displayed on the display unit of the controller 3, and the operation of the monitoring camera 2 can be remotely operated.
[0025]
The communication network 4 may be a communication network constructed by any wireless or wired transmission medium, and may be any communication standard. For example, various communication protocols such as Ethernet (trademark) (including wireless LAN) and TCP / IP can be used. Further, the surveillance camera 2 and the controller 3 may be in a form of directly communicating with each other by a wireless or wired cable based on a communication standard such as IrDA or Bluetooth (trademark).
[0026]
FIG. 2 is a diagram showing a configuration of a monitoring camera used in the monitoring system. In FIG. 2, the monitoring camera 2 includes a camera 21, a frame 22 bent in a U-shape, and a geared motor 23 for moving the optical axis L of the camera 21 (corresponding to a shooting direction and a monitoring direction) in a vertical direction (tilt direction). And a geared motor 24 for moving the optical axis L of the camera 21 in the left-right direction (pan direction).
[0027]
The camera 21 is attached to the frame 22 with the tilt-direction rotating shafts 25 projecting from the left and right side surfaces penetrating through holes 22B formed in the side surfaces 22A and 22A 'of the frame 22. The output shaft of the geared motor 23 is attached to the tip of the rotating shaft 25 protruding through the side surface 22A. At the center of the lower surface of the frame 22, a pan-direction rotating shaft 26 protrudes downward, and an output shaft of the geared motor 24 is attached to a tip of the rotating shaft 26. The housing of the geared motor 23 is fixed to the frame 22 by a fixing member (not shown), and is configured to be rotatable integrally with the frame 22 in the tilt direction. The geared motor 24 is fixed to a support 27 of the monitoring camera 2.
[0028]
In such a configuration, when the geared motor 24 is driven to rotate, the frame 22 rotates around the rotation axis 26, whereby the optical axis L of the camera 21 moves in the pan direction. On the other hand, when the geared motor 23 is driven to rotate, the camera 21 rotates around the rotation axis 25, whereby the optical axis L of the camera 21 moves in the tilt direction.
[0029]
In the following description, the operation of the monitoring camera 2 in which the optical axis L of the camera 21 moves in the pan direction is referred to as a pan operation, and the operation of the monitoring camera 2 moving in the tilt direction is referred to as a tilt operation.
[0030]
FIG. 3 is a block diagram illustrating a configuration of the monitoring camera. 3, the monitoring camera 2 includes an imaging unit 30, an image generation unit 31, an image data buffer 32, an image processing unit 33, a driving unit 34, a control unit 35, an image data recording unit 36, a storage unit 37, and a communication I / F. And an I / F unit 39.
[0031]
The imaging unit 30 includes an imaging optical system 301 and an imaging element 302. Light from the subject is formed on the imaging surface of the image sensor 302 by the imaging optical system 301, and becomes an optical image of the subject.
[0032]
The imaging element 302 is a photoelectric conversion element in which a plurality of light receiving elements for converting received light into an electric signal according to the light intensity are two-dimensionally arranged in, for example, a honeycomb shape or a matrix shape. This is a CCD color area sensor in which R (red), G (green), and B (blue) color filters are arranged at a ratio of 1: 2: 1 on the imaging surface of the element. The image sensor 302 converts the light image of the subject formed by the imaging optical system 301 into electrical signals (image signals) of R (red), G (green), and B (blue) color components. The image signal is output to the image generation unit 31 as an image signal of each of G and B colors. The imaging device 302 controls the imaging operation such as the start and end of the exposure operation and the reading (horizontal synchronization, vertical synchronization, transfer) of the output signal of each pixel in the imaging device 302 under the control of the control unit 35.
[0033]
Note that the imaging device 302 is not limited to the above-described CCD but may be a CMOS solid-state imaging device, and may be a monochrome imaging device without being limited to a color imaging device.
[0034]
The imaging optical system 301 is a lens that forms an optical image of a subject on an imaging surface of the imaging element 302. In a region (center region) within a certain range around the optical axis, the value of the distortion is equal to or less than a predetermined value. In a region around the central region (peripheral region), the value of the distortion is larger than a predetermined value. In particular, the imaging optical system 301 of the present embodiment is an optical system in which the value of the distortion increases in the peripheral region as it goes to the peripheral portion.
[0035]
FIG. 4 is a diagram illustrating characteristics of the imaging optical system according to the first embodiment. FIG. 4A is a graph showing the distortion / angle-of-view characteristics, in which the horizontal axis is the distortion in percentage and the vertical axis is the angle of view θ in degrees (°). FIG. 4B is a graph showing the angle-of-view and image-height characteristics, in which the horizontal axis is the angle of view θ and the horizontal axis is the image height h.
[0036]
As shown in FIG. 4A, the distortion / field angle characteristic, which is the relationship between the distortion S and the angle of view θ, is such that when the angle of view θ is equal to or smaller than a predetermined value θi, When the angle of view θ exceeds a predetermined value θi, the distortion S sharply increases. Here, the predetermined value Si in the distortion S is a value that looks similar to a natural image with substantially no distortion when an image of the subject light image transmitted through the central region of the imaging optical system 301 is viewed by a human. For example, Si = about 3% (in this case, θi = about 8 °). Needless to say, even if the predetermined value Si is set to a value of 3% or less, for example, about 2% or about 1%, a natural image is obtained in which distortion is not substantially felt when viewed.
[0037]
FIG. 4A shows the characteristics of the imaging optical system 301 in which the distortion is about -70% at a half angle of view of about 50 degrees.
[0038]
Due to this characteristic, the angle of view / image which is a relationship between the angle of view θ and the height (hereinafter, referred to as “image height”) h of the optical image formed on the imaging surface of the image sensor 302 by the imaging optical system 301. The high characteristic is a curve shown in FIG. That is, in an area where the angle of view θ is small (the area on the left side of the dotted line shown in FIG. 4B, corresponding to the central area of the imaging optical system 301), the image height h is substantially linear with respect to the angle of view θ. Therefore, the amount of change with respect to the unit change of the angle of view θ is large. On the other hand, in an area where the angle of view θ is large (an area on the right side of the dotted line shown in FIG. 4B, corresponding to the peripheral area of the imaging optical system 301), the image height h is nonlinear with respect to the angle of view θ. , The amount of change with respect to the unit change of the angle of view θ gradually decreases as the angle of view θ increases, and the image height h saturates to a substantially constant value. That is, the resolution is high in an area where the angle of view θ is small, and the resolution is low but the amount of information is large in a peripheral area where the angle of view θ is large.
[0039]
One of the imaging optical systems 301 having such characteristics is a lens called a foveated lens. The fovea lens is a lens having a function of enlarging an image in a region of interest (corresponding to the central region described above) in a visual field and compressing the image in a peripheral region thereof (corresponding to the peripheral region described above). There are features such as high resolution in the region and a natural image with less noticeable distortion in the region of interest.
[0040]
Since the surveillance camera 2 according to the first embodiment uses the imaging optical system 301 having the characteristics shown in FIG. 4, the central part (image central area X) of the captured image has passed through the central area of the imaging optical system 301. Since the image is based on the subject light image, a natural image with high resolution and less noticeable distortion can be obtained, and a wide field of view can be obtained.
[0041]
Returning to FIG. 3, the image generation unit 31 performs well-known image processing such as determination of an appropriate black level, γ correction, white balance adjustment (WB adjustment), contour correction, and color unevenness correction on the entire image. , Image data of each pixel is generated from the image signal. The image data generated by the image generation unit 31 is output to the image data buffer 32.
[0042]
The image data is configured by associating, for each pixel, position data representing the position of the pixel with luminance data representing the luminance of the pixel. The luminance data is composed of the luminance value of each pixel when the surveillance camera 2 is to photograph in monochrome, and the luminance value of the red component in each pixel when the surveillance camera 2 is to photograph in color. It is composed of a luminance value of a green component and a luminance value of a blue component, or a luminance value and a value of each color difference.
[0043]
The image data buffer 32 is a memory that temporarily stores image data and is used as a work area for performing a process described later on the image data by the image processing unit 33, and is, for example, a RAM.
[0044]
The image processing unit 33 performs, for the image data in the image data buffer 32, a distortion correction process for correcting an image distorted due to distortion into a natural image similar to a sight similar to a sight visible to the naked eye, and substantially without distortion. Is a circuit that performs image processing. The drive unit 34 includes the geared motors 23 and 24, and drives the optical axis L of the camera 21 (monitoring camera 2) in the pan direction and the tilt direction according to a control signal output from the control unit 35.
[0045]
The image data recording unit 36 is a circuit that records the image data stored in the image data buffer 32 on a recording medium. The recording medium is, for example, a CD-R, a hard disk, a memory card, or the like. The storage unit 37 is a storage circuit that stores various programs necessary for the operation of the monitoring camera 2, data required during the execution of the program, and data generated during the execution of the program, and includes, for example, a ROM and a RAM. Is done.
[0046]
The communication I / F unit 38 is an interface for performing communication with the communication network 4, and transmits a communication packet containing image data to the controller 3 and a communication packet containing an operation command from the controller 3. And the like. The I / F unit 39 is an interface for transmitting and receiving image data to and from an external device. For example, the I / F unit 39 is an interface that conforms to a standard such as USB or IEEE1394.
[0047]
The control unit 35 includes, for example, a microprocessor or the like, and includes an imaging unit 30, an image generation unit 31, an image data buffer 32, an image processing unit 32, a driving unit 34, an image data recording unit 36, a storage unit 37, and a communication unit. It controls each unit of the I / F unit 38 and the I / F unit 39.
[0048]
FIG. 5 is a block diagram showing the configuration of the controller. 5, the controller 3 includes an operation unit 41, a display unit 42, a control unit 43, and a communication I / F unit 44.
[0049]
The operation unit 41 is a device that inputs operation commands for instructing various operations on the monitoring camera 2 such as a pan operation, a tilt operation, recording of image data, a request for transmitting image data, and the like. For example, when the controller 3 is a PC Corresponds to a keyboard or a mouse, and in the case of a mobile phone, corresponds to a numeric keypad or a cursor key.
[0050]
The display unit 42 is a display that displays an image related to the image data transmitted from the monitoring camera 2 via the communication network 4. When the controller 3 is a PC, the display unit 42 corresponds to a monitor such as a CRT display or an LCD. In the case of a mobile phone, it corresponds to an LCD display unit.
[0051]
The communication I / F unit 44 is an interface for performing communication with the communication network 4, and receives a communication packet containing image data from the monitoring camera 2 and a communication packet containing an operation command to the monitoring camera 2. Is transmitted.
[0052]
The control unit 43 includes, for example, a microcomputer including a ROM that stores a control program for controlling the controller 3 and a RAM that temporarily stores data, and includes an operation unit 41, a display unit 42, and a communication I / F unit 44. The operation of the controller 3 is controlled by organic control.
[0053]
Next, the operation of the first embodiment will be described.
(Operation of First Embodiment)
The surveillance camera 2 in the first embodiment performs the distortion correction process only in the peripheral region by using the image of the central region without performing the distortion correction, utilizing the characteristics of the imaging optical system 301 in the distortion correction process. It is.
[0054]
FIG. 6 is a diagram illustrating the operation of the surveillance camera according to the first embodiment. FIG. 7 is a diagram showing a display screen displayed on the display unit of the controller. FIG. 8 is a diagram for explaining the distortion correction processing. FIG. 9 is a diagram illustrating an image after the distortion correction processing in the telephoto case according to the first embodiment. FIG. 10 is a diagram illustrating an image after distortion correction processing in the case of a wide angle in the first embodiment.
[0055]
In FIG. 6, when the control unit 35 of the monitoring camera 2 receives an operation command of an instruction to transmit a monitoring target image from the controller 3 via the communication I / F unit 38, the control unit 35 captures an image of the monitoring target with the imaging unit 30, The image generating unit 31 generates image data based on an image signal from the image sensor 302, and stores the generated image data in the image data buffer 32. An image based on image data obtained by the imaging optical system 301 having the characteristics shown in FIG. 4 is referred to as a wide distortion image. The control unit 35 transmits the image data of the wide distortion image to the controller 3 via the communication I / F unit 38 and the communication network 4 (S11).
[0056]
Upon receiving the image data via the communication network 4 and the communication I / F unit 44, the controller 3 displays the image data on the display unit 42. Note that communication between the control unit 35 of the monitoring camera 2 and the control unit 43 of the controller 3 is performed via the communication I / F unit 38, the communication network 4, and the communication I / F unit 44. In the following description, this description is omitted.
[0057]
The display screen of the display unit 42 of the controller 3 includes, for example, as shown in FIG. 7, an image display area 101 which is an area for displaying an image generated by image data from the monitoring camera 2, and image data of a wide-angle image. For inputting an operation command instructing the surveillance camera 2 to transmit an image, and an operation command instructing the surveillance camera 2 to transmit image data of a telephoto image. And a "image recording" 104 which is a button for inputting an operation command for instructing the monitoring camera 2 to record image data on the recording medium in the image data recording unit 36. Is done. The “image recording” 104 not only instructs the surveillance camera 2 to record the image data on the recording medium in the image data recording unit 36 but also includes an image data recording unit (not shown) provided in the controller 3. May include an instruction to store the image data of the image displayed in the image display area 101. For the “wide angle” 102, the “telephoto” 103, and the “image recording” 104, for example, in the case of a PC, an operation command corresponding to each button is input by moving a cursor to a desired button with a mouse and clicking. .
[0058]
First, a wide distortion image is displayed in the image display area 101 of the display unit 41 of the controller 3 as shown in FIG.
[0059]
The user inputs the angle of view of the display image to be displayed in the image display area 101 to the controller 3 using “wide angle” 102 or “telephoto” 103. The control unit 43 of the controller 3 transmits the angle of view input by the operation unit 41 and the display unit 42 to the control unit 35 of the monitoring camera 2.
[0060]
The control unit 35 of the monitoring camera 2 receives the angle of view of the display image to be displayed (S12). The control unit 35 determines whether the received angle of view is a wide angle or a telephoto (S13). As a result of the determination, the control unit 35 performs the process of S14 when it is telephoto (“telephoto” of S13), and performs the process of S21 when it is wide-angle (“wide-angle” of S13).
[0061]
In S <b> 14, the control unit 35 causes the image processing unit 33 to perform size conversion to enlarge the size of the image central area X of the wide-distorted image to the size of the image display area 101.
[0062]
That is, in FIG. 8, the size of the wide-distorted image 111 is M pixels (pix) in the horizontal direction and N (pix) in the vertical direction, and is a region corresponding to the image of the subject light image transmitted through the central region of the imaging optical system 301. The size of a certain image central region X is defined as a horizontal direction A (pix) (A ≦ M) and a vertical direction B (pix) (B ≦ N). In FIG. 9, the size of the image display area 101 is defined as a horizontal direction K (pix) (K ≦ M) and a vertical direction L (pix) (L ≦ N). In order to easily perform the size conversion process, the ratio of the number of horizontal pixels to the number of vertical pixels of the wide-distorted image 111, the ratio of the number of horizontal pixels to the number of vertical pixels of the image central region X, and the image display The ratio of the number of pixels in the horizontal direction to the number of pixels in the vertical direction in the area 101 is all the same (M: N = A: B = K: L).
[0063]
As described above, the central region of the imaging optical system 301 is set to a range in which an image of a subject light image transmitted through this region can be viewed as a natural image having substantially similar distortion when viewed by a human. The image in the image central region X is a natural image that does not substantially feel distortion when viewed.
[0064]
When the size of the image display area 101 and the size of the image central area X are set as described above, the image processing unit 33 performs image data corresponding to the image of the image central area X stored in the image data buffer 32. Is calculated by a known method so that the image in the image central region X is multiplied by K / A. That is, in the image data, the position after the size change is calculated, and the luminance data of the image data is assigned to the calculated position. By multiplying the image in the image central area X by K / A, the image in the image central area X is enlarged to the size of the image display area 101. This size conversion can be performed at high speed by using a size conversion function in an ASIC for a digital still camera.
[0065]
Then, the control unit 35 transmits the image data of the image in the image central area X multiplied by K / A to the controller 3 (S15).
[0066]
When receiving the image data, the control unit 43 of the controller 3 displays the image data on the display unit 42. For example, when the area indicated by the broken line in FIG. 8 is the image center area X, the image data of this house is multiplied by K / A to obtain the image shown in FIG. You.
[0067]
As described above, since the distortion correction processing on the telephoto display image merely enlarges the image of the central image area X, it is not necessary to execute a normal distortion correction processing described later, and the distortion correction processing is performed at a higher speed than in the related art. Can be performed.
[0068]
On the other hand, in S21, the image processing unit 33 calculates the angle of view θx of the central image area X of the wide distortion image (S21). The angle of view θx can be obtained from Expression 1 assuming that a function indicating the relationship between the image height h and the angle of view θ is given as θ = g (h).
θx = g (A / 2) × 2 (1)
Here, as the function g, for example, the characteristic curve shown in FIG. 4B may be created by actually measuring the angle-of-view / image height characteristics of the imaging optical system 301 to obtain the function g.
[0069]
Next, the image processing unit 33 calculates the size of the pasting area Y that is an area for displaying an image based on the central image area X of the wide-distortion image in the wide-angle display image (S22). Assuming that the size of the pasting area Y is C (pix) (C ≦ K) in the horizontal direction and D (pix) (D ≦ L) in the vertical direction, and the angle of view of the image display area 101 is θv, the size of the pasting area Y is It can be obtained from Equations 2 and 3.
C = K × tan (θx / 2) / tan (θv / 2) (2)
D = C × B / A (3)
Note that the ratio of the number of horizontal pixels to the number of vertical pixels in the pasting area Y is equal to the ratio of the number of horizontal pixels to the number of vertical pixels in the image display area 101 (C: D = K: L).
[0070]
Next, the image processing unit 33 converts the image data corresponding to the image in the image central area X stored in the image data buffer 32 into a known method so that the image in the image central area X is multiplied by C / A. Is used to calculate the image data (S23). By multiplying the image of the image central region X by C / A, the image of the image central region X is enlarged or reduced to the size of the pasting region Y.
[0071]
Next, the image processing unit 33 converts the image data of each pixel in the image of the area Z other than the pasting area Y in the image display area 101 into the image data of each pixel in the image other than the central image area X in the wide-distortion image 111. It is generated by performing normal distortion correction processing on the other hand (S24).
[0072]
Hereinafter, a calculation method of the normal distortion correction processing will be described. Here, the image data of the wide distortion image is referred to as original image data, and the pixel data of each pixel constituting the original image data is referred to as original pixel data. An arbitrary pixel in the distortion-corrected image obtained by correcting the distortion of the wide-distortion image is referred to as a target pixel B, and its coordinates are set to B (i, j). In the distortion correction processing, the relationship between the coordinates B (i, j) of the target pixel B and the coordinates Q (u, v) of the pixel Q of the original image corresponding to the target pixel B may be obtained. By obtaining this relationship, the luminance data of the original image data is allocated to the position after the calculation, and the image data of the distortion corrected image can be obtained.
[0073]
First, in the distortion-corrected image, the distance d (dx: x component, dy: y component) from the center A (K / 2, L / 2) of this image to the pixel of interest B is calculated by Expressions 7 to 7 using Expressions 4 to 6. It becomes.
dx = (K / 2−i) (4)
dy = (L / 2−j) (5)
d = √ (dx 2 + Dy 2 ) ・ ・ ・ (6)
By
d = √ {(K / 2-i) 2 + (L / 2-j) 2 ・ ・ ・ ... (7)
It becomes.
[0074]
Further, when it is assumed that the relationship between the image height Y, the focal length f, and the angle of view Θ is taken using a normal lens represented by Y = f · tan Θ, the distortion-corrected image is taken. The incident angle φ of the light converted to the pixel data of the pixel located at the coordinate B (i, j) is the incident angle of the light converted to the pixel data of the pixel located at the coordinate Q (u, v) in the original image. Is the same as
[0075]
Therefore, if the horizontal angle of view of the distortion-corrected image is θ (rad), the incident angle φ of the light converted into the pixel data of the pixel located at the coordinate B (i, j) in the distortion-corrected image is expressed by the following equation (8). And Equation 9 hold, and Equation 10 results.
X = (K / 2) / tan (θ / 2) (8)
tanφ = d / X (9)
φ = tan -1 {D × tan (θ / 2) / (K / 2)} (10)
Then, assuming that the distance (image height) from the center P (M / 2, N / 2) to the coordinates Q (u, v) in the original image is h, the distance h is the incident light obtained by Expression (10). It is expressed as a function h = f (φ) with the angle φ as a parameter. The function f is obtained according to the radius of curvature of the imaging optical system 301, but may be obtained by actual measurement similarly to the function g.
[0076]
On the other hand, since Expressions 11 and 12 hold, Expressions 13 and 14 are obtained.
h: d = (u−M / 2): dx (11)
h: d = (v−N / 2): dy (12)
u = M / 2 + h × (dx / d) (13)
v = N / 2 + h × (dy / d) (14)
Therefore, the coordinates Q (u, v) of the pixel data in the original image corresponding to the pixel data located at the coordinates B (i, j) can be obtained from h = f (φ) and Expressions 13 and 14. it can.
[0077]
Returning to FIG. 6, the image processing unit 33 displays the image data of the pasting area Y generated in S23 at the center of the image display area 101, and the image data of the area Z other than the pasting area Y generated in S24. Are transmitted to the controller 3 so as to be displayed (S25). Note that both image data may be combined with the image data of one image, and the combined image data may be transmitted to the controller 3.
[0078]
When receiving both the image data, the controller 3 first displays the image data of the pasting area Y in the center of the image display area 101, and displays the image data of the area Z other than the pasting area Y around it. Thus, the wide-angle image of the monitoring target is displayed on the display unit 42 of the controller 3. For example, the wide distortion image shown in FIG. 8 is displayed in the image display area 101 of the display unit 42 of the controller 3 as shown in FIG. The missing area 121 in FIG. 10 is generated because there is a light image that is not received by the image sensor 302 among the circular images of the wide distortion image.
[0079]
When recording a display image, the user inputs an operation command for recording a display image to the controller 3 by “image recording” 104. The controller 3 stores the image data in a storage unit (not shown in FIG. 5) and transmits the operation command to the monitoring camera 2. The surveillance camera 2 receiving the operation command records the image data in the image data recording unit 36.
[0080]
In the first embodiment, when a distortion-corrected image in telephoto is displayed in the image display area 101, the distortion-corrected image to be displayed is generated by enlarging or reducing the image in the central image area X of the wide distortion image 111. Therefore, there is no need to perform a normal distortion correction process. For this reason, it is possible to generate and display a distortion-corrected image in telephoto at a higher speed than in the related art.
[0081]
When a wide-angle distortion-corrected image is displayed in the image display area 101, a part of the distortion-corrected image to be displayed is generated by enlarging or reducing the image in the central image area X of the wide-distorted image 111. Then, an image of the remaining portion is generated by performing a normal distortion correction process. For this reason, it is not necessary to generate all of the distortion-corrected images by normal distortion correction processing, so that a distortion-corrected image at a wide angle can be generated and displayed at a higher speed than in the related art. In the central image area X, a natural image that does not substantially distort the appearance is obtained due to the characteristics of the imaging optical system 301. Therefore, it is necessary to maintain the central image quality of the image that is easily noticed in the image. Can be.
[0082]
Therefore, since the distortion correction processing can be performed at high speed, an inexpensive integrated circuit such as an LSI for general use or an ASIC for digital still camera can be used, and the cost of the monitoring camera 2 can be reduced. it can.
[0083]
Also, when the surveillance camera 2 transmits a moving image, the distortion correction processing can be executed at a high speed. Therefore, when the distortion correction processing is performed by a circuit having the same processing capability, the frame rate is improved as compared with the related art. Therefore, a moving image having a smoother motion can be obtained.
[0084]
Next, a second embodiment will be described.
(Configuration of the second embodiment)
In the first embodiment, the telephoto image is generated by enlarging the image of the central image area X in the wide distortion image to the size of the image display area 101, and the wide angle image is generated by the central image area X in the wide distortion image. Is enlarged or reduced to the size of the pasting region Y, and the image of the region Z other than the pasting region Y is generated by performing the distortion correction process on the wide-distorted image 111. In the second embodiment, the telephoto image is generated. Is generated by enlarging the image of the central image area X in the wide-distortion image to the size of the image display area 101. The wide-angle image executes the normal distortion correction processing for all the pixels in the pasting area Y, An area Z other than the pasting area Y is generated by executing a normal distortion correction process at a ratio of one pixel to s pixels. Note that a region corresponding to the pasting region Y in the first embodiment is referred to as a distortion correction central region W in the second embodiment. The size of the distortion correction central region W is E (pix) × F (pix), and in this embodiment, E = C and F = D.
[0085]
Therefore, the configuration of the monitoring system 1, the configuration of the monitoring camera 2, and the configuration of the controller 3 are the same as those in the first embodiment, except that the processing of the image processing unit 33 of the monitoring camera 2 is performed as described later. Therefore, the description is omitted.
[0086]
Next, the operation of the second embodiment will be described.
(Operation of Second Embodiment)
The operation of the surveillance camera according to the second embodiment is the same as that of the first embodiment except for a process of generating image data of a wide-angle image. That is, since the processing of S11 to S15 in FIG. 6 in the first embodiment is the operation of the surveillance camera in the second embodiment as it is, a description thereof will be omitted, and the processing of generating image data of a wide-angle image will be omitted. explain.
[0087]
FIG. 11 is a diagram illustrating the operation of the surveillance camera when a wide-angle image is generated. FIG. 12 is a diagram illustrating an image after distortion correction processing in the case of a wide angle in the second embodiment.
[0088]
In FIG. 11, the image processing unit 33 generates image data of a 1 / s reduced wide-distorted image obtained by reducing the wide-distorted image to 1 / s based on the image data stored in the image data buffer 32 (S31). ).
[0089]
Next, the image processing unit 33 performs the above-described normal distortion correction processing on the 1 / s reduced wide distortion image (S32). Since the normal distortion correction processing is performed on the 1 / s reduced engineering distortion image reduced to 1 / s, the normal distortion correction processing is executed at a ratio of one pixel to s pixels. For this reason, since the distortion correction processing is performed at a fixed pixel interval s for each pixel in the wide distortion image, the number of pixels to be processed is reduced as compared with the case where the distortion correction processing is performed on the wide distortion image. As a result, the processing time of the distortion correction processing is reduced. This s is a value determined by the image quality or the like required for the image obtained after the distortion correction. In the present embodiment, s = 2.
[0090]
Next, the image processing unit 33 performs an enlargement process of enlarging the 1 / s reduced wide-distorted image after the distortion correction process by s times. As a result, the size becomes the size when the wide distortion image is directly subjected to distortion correction processing. Here, since the distortion correction processing is performed at a rate of one pixel for s pixels, some pixels do not have luminance data. For this reason, the image processing unit 33 generates the image data for the pixel for which the distortion correction process has not been performed by interpolating based on the image data of the adjacent pixel (S33).
[0091]
In this interpolation, for example, the luminance data of a pixel adjacent to one of the pixels is used as it is as the luminance data of the pixel. Further, for example, a linear function indicating the relationship between the position and the luminance is obtained using the luminance data of both pixels adjacent to the pixel, and the luminance data of the pixel is determined from the linear function (linear interpolation). Further, for example, the luminance data of the pixel is obtained by averaging the luminance data of the peripheral pixels of the pixel.
[0092]
Next, the image processing unit 33 performs a normal distortion correction process on the image in the image central region X of the wide distortion image, and generates image data after the distortion correction process (S34).
[0093]
Next, the image processing unit 33 transmits both the image data to the controller 3 so that the image generated in S33 is displayed first and the image data generated in S34 is displayed in a superimposed manner at the center of the image display area 101. (S35). Note that both image data may be combined with the image data of one image, and the combined image data may be transmitted to the controller 3.
[0094]
Upon receiving both image data, the controller 3 first displays the image data generated in S33 on the entire image display area 101, and displays the image data generated in S34 in the distortion correction central area W substantially at the center of the image display area 101. Is displayed over the display. Thus, the wide-angle image of the monitoring target is displayed on the display unit 42 of the controller 3. For example, the wide distortion image shown in FIG. 8 is displayed in the image display area 101 of the display unit 42 of the controller 3 as shown in FIG.
[0095]
In the second embodiment, when displaying a wide-angle distortion-corrected image in the image display area 101, normal distortion correction processing is performed on each pixel in the wide-distortion image at a fixed pixel interval, and the image display area 101 is displayed. In the distortion correction central region W, which is approximately the center of the wide distortion image, normal distortion correction processing is performed on all pixels in the wide distortion image. For this reason, it is not necessary to generate all of the distortion-corrected images by normal distortion correction processing, so that a distortion-corrected image at a wide angle can be generated and displayed at a higher speed than in the related art. Then, in the distortion correction central area W, the normal distortion correction processing is performed on all the pixels in the wide distortion image, so that the image quality at the center of the image that is easily noticed in the image can be maintained.
[0096]
Next, a third embodiment will be described.
(Configuration of Third Embodiment)
In the third embodiment, the image central region X of the wide-distorted image is replaced with the image central region X of the wide-distorted image in the same manner as in the first embodiment, instead of performing the distortion correction process on the image of the image central region X of the wide-distorted image in S34 in the second embodiment. This is an embodiment in which an enlarged or reduced image is pasted.
[0097]
Therefore, the configuration of the monitoring system 1, the configuration of the monitoring camera 2, and the configuration of the controller 3 are the same as those in the first embodiment, except that the processing of the image processing unit 33 of the monitoring camera 2 is performed as described later. Therefore, the description is omitted.
[0098]
Next, the operation of the third embodiment will be described.
(Operation of Third Embodiment)
The operation of the surveillance camera according to the third embodiment is the same as that of the first embodiment except for a process of generating image data of a wide-angle image. That is, since the processing of S11 to S15 in FIG. 6 in the first embodiment is the operation of the surveillance camera in the second embodiment as it is, a description thereof will be omitted, and the processing of generating image data of a wide-angle image will be omitted. explain.
[0099]
FIG. 13 is a diagram illustrating an operation of the surveillance camera when a wide-angle image is generated according to the third embodiment.
[0100]
In FIG. 13, the image processing unit 33 generates image data of a 1 / s reduced wide-distorted image obtained by reducing the wide-distorted image to 1 / s based on the image data stored in the image data buffer 32 (S41). ). Next, the image processing unit 33 performs a normal distortion correction process on the 1 / s reduced wide distortion image (S42). Next, the image processing unit 33 performs an enlargement process of enlarging the 1 / s reduced wide-distorted image after the distortion correction process by s times. Then, the image processing unit 33 generates the image data for the pixels for which the distortion correction processing has not been performed by interpolating based on the image data of the adjacent pixels (S43).
[0101]
Next, the image processing unit 33 calculates the angle of view θx of the central image area X of the wide-distortion image by using Expression 1 (S44). Next, the image processing unit 33 calculates the size of the pasting area Y, which is an area for displaying an image based on the central image area X of the wide-distortion image in the wide-angle display image, using Expressions 2 and 3 (S45). Next, the image processing unit 33 converts the image data corresponding to the image in the image central area X stored in the image data buffer 32 into a known method so that the image in the image central area X is multiplied by C / A. Is used to calculate the image data (S46).
[0102]
The image processing unit 33 transmits both image data to the controller 3 so that the image generated in S43 is displayed first and the image data generated in S46 is displayed in a superimposed manner at the center of the image display area 101 (S47). ). Note that both image data may be combined with the image data of one image, and the combined image data may be transmitted to the controller 3.
[0103]
Upon receiving both image data, the controller 3 first displays the image data generated in S43 on the entire image display area 101, and superimposes the image data generated in S47 on the paste area Y substantially at the center of the image display area 101. To display. Thus, the wide-angle image of the monitoring target is displayed on the display unit 42 of the controller 3.
[0104]
In the third embodiment, when a wide-angle distortion-corrected image is displayed in the image display area 101, normal distortion correction processing is performed on each pixel in the wide-distortion image at a fixed pixel interval, and the image display area 101 is displayed. Is generated by enlarging or reducing the image in the central image area X of the wide-distortion image 111. For this reason, since it is not necessary to generate all of the distortion-corrected images by normal distortion correction processing, a wide-angle distortion-corrected image can be generated and displayed at a higher speed than in the related art. In the central image area X, a natural image that does not substantially distort the appearance is obtained due to the characteristics of the imaging optical system 301. Can be.
[0105]
In the first to third embodiments, the embodiment in which the surveillance camera 2 as the imaging device and the controller 3 for operating the same are separately described, but the imaging device and the controller 3 are integrally configured. May be.
[0106]
The main inventions disclosed in the present specification are summarized below.
(Supplementary Note 1) Imaging that corrects distortion so that an image obtained by an imaging optical system whose peripheral region has a large distortion with respect to a central region becomes a natural corrected image that does not substantially feel distortion when viewed. An imaging apparatus, wherein an image of a light image transmitted through the central region is enlarged or reduced and used instead of correcting distortion in a part of the corrected image.
(Supplementary Note 2) An image forming optical system having a large distortion in a peripheral region with respect to a central region, and an image formed by the image forming optical system on an imaging surface in which a plurality of light receiving elements are two-dimensionally arranged. An image sensor that photoelectrically converts an optical image with the plurality of light receiving elements and outputs an image signal; an image generating unit that generates image data of each pixel in the image of the optical image based on the image signal; An image in which the image data of each pixel in the image of the light image is distortion-corrected and the image data of each pixel in the corrected image is calculated so that the image of FIG. An image processing unit comprising: a processor configured to correct image data of each pixel in an image of the light image transmitted through the central region into a part of image data of each pixel in the corrected image. Do An imaging device characterized in that the imaging device is used without being used.
(Supplementary Note 3) Imaging that corrects distortion so that an image obtained by an imaging optical system in which a peripheral region has large distortion with respect to a central region is a natural corrected image in which the user does not substantially feel distortion when viewing the image. In the apparatus, when correcting distortion of the image, an image capturing apparatus obtains a corrected image by correcting distortion at a fixed pixel interval for each pixel of the image.
(Supplementary Note 4) An image forming optical system in which a peripheral region has a large distortion with respect to a central region, and an image forming optical system in which a plurality of light receiving elements are two-dimensionally arranged is formed by the image forming optical system. An image sensor that photoelectrically converts an optical image with the plurality of light receiving elements and outputs an image signal; an image generating unit that generates image data of each pixel in the image of the optical image based on the image signal; An image for calculating image data of each pixel in the corrected image by correcting the image data of each pixel in the image of the light image so that the image of FIG. An image processing unit comprising: a processing unit configured to calculate image data of each pixel in the corrected image by performing distortion correction on image data of each pixel in the image of the light image at a fixed pixel interval. To An imaging device characterized by the following.
(Supplementary Note 5) The image processing unit includes a processing unit that reduces the image of the light image, a processing unit that corrects distortion of the reduced image, and a processing unit that enlarges the distortion-corrected image to the original image size. 5. The imaging device according to claim 4, wherein the imaging device includes: (Supplementary Note 6) The imaging apparatus according to Supplementary Note 3, wherein distortion is corrected for all pixels in a certain range of the image.
(Supplementary Note 7) The imaging apparatus according to Supplementary Note 4, wherein distortion correction is performed on all image data of each pixel within a certain range of the light image.
(Supplementary Note 8) The imaging device according to supplementary note 3, wherein an image of the light image transmitted through the central region is enlarged or reduced and used instead of an image within a certain range of the corrected image.
(Supplementary Note 9) The image data of each pixel within a certain range of the corrected image, wherein the image data of each pixel in the image of the light image transmitted through the central region is used without performing the distortion correction. An imaging device according to item 1.
(Supplementary Note 10) Distortion for correcting distortion so that an image obtained by an imaging optical system in which a peripheral region has a large distortion with respect to a central region becomes a natural corrected image in which the distortion is not substantially felt when viewed. A distortion correction method, comprising: a step of enlarging or reducing an image formed by an optical image transmitted through the central area; and a step of correcting distortion of an image formed by an optical image transmitted through the peripheral area.
(Supplementary Note 11) Distortion that corrects distortion so that an image obtained by an imaging optical system in which a peripheral region has a large distortion with respect to a central region becomes a natural corrected image in which the user does not substantially feel distortion when viewing the image. The correction method includes the steps of obtaining a corrected image by correcting distortion at a fixed pixel interval for each pixel of the image, and enlarging or reducing an image formed by a light image transmitted through the central region. Characteristic distortion correction method.
(Supplementary Note 12) Distortion for correcting distortion so that an image obtained by an imaging optical system in which a peripheral region has a large distortion with respect to a central region becomes a natural corrected image which does not substantially feel distortion when viewed. In the correction method, a step of correcting a distortion at a fixed pixel interval for each pixel of the image to obtain a corrected image, and a step of correcting the distortion for all pixels of each pixel within a predetermined range of the image. Performing the distortion correction.
[0107]
【The invention's effect】
As described above, since the imaging apparatus according to the present invention uses the optical system having a large distortion in the peripheral region with respect to the central region in the imaging optical system, not only can a wide-field image be obtained, The image of the light image transmitted through the central region becomes a natural image that does not substantially feel distortion when viewed. For this reason, since the image of the optical image transmitted through the central region is enlarged or reduced, and the enlarged or reduced image is used as a part of the corrected image, the distortion correction processing for correcting the distortion of the portion is not required. Thus, the distortion correction processing can be executed at high speed.
[0108]
Since the distortion correction processing can be executed at high speed, an inexpensive integrated circuit such as an LSI for general use or an ASIC for digital still camera can be used, so that the cost of the imaging apparatus can be reduced.
[0109]
In addition, since the distortion correction processing can be executed at a high speed, the frame rate can be improved as compared with the conventional case when the distortion correction processing is performed by a circuit having the same processing capability, so that a moving image having a smoother motion can be obtained. Can be obtained.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a monitoring system according to a first embodiment.
FIG. 2 is a diagram illustrating a configuration of a monitoring camera used in the monitoring system.
FIG. 3 is a block diagram illustrating a configuration of a monitoring camera.
FIG. 4 is a diagram illustrating characteristics of the imaging optical system according to the first embodiment.
FIG. 5 is a block diagram illustrating a configuration of a controller.
FIG. 6 is a diagram illustrating an operation of the surveillance camera according to the first embodiment.
FIG. 7 is a diagram showing a display screen displayed on a display unit of the controller.
FIG. 8 is a diagram illustrating a distortion correction process.
FIG. 9 is a diagram illustrating an image after distortion correction processing in a telephoto case according to the first embodiment.
FIG. 10 is a diagram illustrating an image after distortion correction processing in the case of a wide angle in the first embodiment.
FIG. 11 is a diagram illustrating an operation of the surveillance camera when a wide-angle image is generated according to the second embodiment.
FIG. 12 is a diagram illustrating an image after distortion correction processing in a wide angle case according to the second embodiment.
FIG. 13 is a diagram illustrating an operation of the surveillance camera when a wide-angle image is generated according to the third embodiment.
FIG. 14 is a diagram illustrating a captured image captured by a wide-distortion lens and a distortion-corrected image obtained by correcting the distortion.
[Explanation of symbols]
2 surveillance cameras
3 Controller
30 Imaging unit
31 Image generator
32 image data buffer
33 Image processing unit
35, 43 control unit
36 Image data recording unit
37 Memory
41 Operation unit
42 Display

Claims (5)

中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する撮像装置において、
前記補正画像の一部に歪みを補正する代わりに前記中央領域を透過した光像の画像を拡大又は縮小して用いること
を特徴とする撮像装置。
In an imaging device that corrects distortion so as to become a natural corrected image that does not substantially feel distortion when viewing an image obtained by an imaging optical system whose peripheral region has a large distortion with respect to the central region,
An image pickup apparatus characterized in that an image of a light image transmitted through the central region is enlarged or reduced and used instead of correcting distortion in a part of the corrected image.
中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する撮像装置において、
前記画像の歪みを補正する場合に、前記画像の各画素に対して一定の画素間隔で歪みを補正して補正画像を得ること
を特徴とする撮像装置。
In an imaging device that corrects distortion so as to become a natural corrected image that does not substantially feel distortion when viewing an image obtained by an imaging optical system whose peripheral region has a large distortion with respect to the central region,
An image pickup apparatus, wherein when correcting distortion of the image, a corrected image is obtained by correcting distortion at a fixed pixel interval for each pixel of the image.
前記画像の一定範囲内の各画素に対しては、全ての画素について歪みを補正すること
を特徴とする請求項2に記載の撮像装置。
3. The imaging apparatus according to claim 2, wherein for each pixel within a certain range of the image, distortion is corrected for all pixels.
前記補正画像の一定範囲内の画像の代わりに前記中央領域を透過した光像の画像を拡大又は縮小して用いること
を特徴とする請求項2に記載の撮像装置。
The imaging apparatus according to claim 2, wherein an image of a light image transmitted through the central region is enlarged or reduced and used instead of an image within a certain range of the corrected image.
中央領域に対してその周辺領域が大きな歪曲収差を有する結像光学系によって得られた画像を見た目で実質的に歪みを感じない自然な補正画像となるように歪みを補正する歪み補正方法において、
前記中央領域を透過した光像による画像を拡大又は縮小するステップと、
前記周辺領域を透過した光像による画像を歪み補正するステップとを備えること
を特徴とする歪み補正方法。
In a distortion correction method for correcting a distortion so as to become a natural corrected image in which the image obtained by the imaging optical system having a large distortion in the peripheral region with respect to the central region does not substantially feel distortion when viewed.
Step of enlarging or reducing the image by the light image transmitted through the central area,
Correcting the image of the light image transmitted through the peripheral region.
JP2003062147A 2003-03-07 2003-03-07 Image pickup unit and distortion correction method Withdrawn JP2004272578A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003062147A JP2004272578A (en) 2003-03-07 2003-03-07 Image pickup unit and distortion correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003062147A JP2004272578A (en) 2003-03-07 2003-03-07 Image pickup unit and distortion correction method

Publications (1)

Publication Number Publication Date
JP2004272578A true JP2004272578A (en) 2004-09-30

Family

ID=33124149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003062147A Withdrawn JP2004272578A (en) 2003-03-07 2003-03-07 Image pickup unit and distortion correction method

Country Status (1)

Country Link
JP (1) JP2004272578A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006121138A (en) * 2004-10-19 2006-05-11 Sony Corp Image processor, image processing method and computer program
JP2006135744A (en) * 2004-11-08 2006-05-25 Sony Corp Image processing apparatus, image processing method, and computer program
JP2006279144A (en) * 2005-03-28 2006-10-12 Sanyo Electric Co Ltd Distortion correction device
JP2006345053A (en) * 2005-06-07 2006-12-21 Olympus Corp Image pickup apparatus
JP2007104315A (en) * 2005-10-04 2007-04-19 Fujifilm Corp Photographing device
JP2007135135A (en) * 2005-11-14 2007-05-31 Olympus Corp Moving image imaging apparatus
JP2007148784A (en) * 2005-11-28 2007-06-14 D Link Corp Image composition system and image composition method
JP2007184720A (en) * 2006-01-05 2007-07-19 Olympus Corp Image photographing apparatus
JP2008085524A (en) * 2006-09-27 2008-04-10 Olympus Imaging Corp Imaging apparatus
JP2008141568A (en) * 2006-12-04 2008-06-19 Nikon Corp Monitoring system, and driving assistant system
US7733407B2 (en) 2005-11-24 2010-06-08 Olympus Corporation Image processing apparatus and method for preferably correcting distortion aberration
US8036482B2 (en) 2007-02-09 2011-10-11 Sony Corporation Image processing apparatus and method, program, and recording medium
WO2012157459A1 (en) * 2011-05-17 2012-11-22 シャープ株式会社 Stereoscopic view image generating system
JP2013219544A (en) * 2012-04-09 2013-10-24 Ricoh Co Ltd Image processing apparatus, image processing method, and image processing program
US9020281B2 (en) 2010-03-01 2015-04-28 Konika Minolta Advanced Layers, Inc. Ghost detection device and imaging device using the same, ghost detection method and ghost removal method
JP7476151B2 (en) 2021-09-24 2024-04-30 キヤノン株式会社 IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4539280B2 (en) * 2004-10-19 2010-09-08 ソニー株式会社 Image processing apparatus, image processing method, and computer program
JP2006121138A (en) * 2004-10-19 2006-05-11 Sony Corp Image processor, image processing method and computer program
JP2006135744A (en) * 2004-11-08 2006-05-25 Sony Corp Image processing apparatus, image processing method, and computer program
JP4539299B2 (en) * 2004-11-08 2010-09-08 ソニー株式会社 Image processing apparatus, image processing method, and computer program
JP2006279144A (en) * 2005-03-28 2006-10-12 Sanyo Electric Co Ltd Distortion correction device
JP4606218B2 (en) * 2005-03-28 2011-01-05 三洋電機株式会社 Distortion correction device
JP2006345053A (en) * 2005-06-07 2006-12-21 Olympus Corp Image pickup apparatus
JP4553798B2 (en) * 2005-06-07 2010-09-29 オリンパス株式会社 Imaging device
JP2007104315A (en) * 2005-10-04 2007-04-19 Fujifilm Corp Photographing device
JP4680022B2 (en) * 2005-10-04 2011-05-11 富士フイルム株式会社 Imaging device
JP2007135135A (en) * 2005-11-14 2007-05-31 Olympus Corp Moving image imaging apparatus
US7733407B2 (en) 2005-11-24 2010-06-08 Olympus Corporation Image processing apparatus and method for preferably correcting distortion aberration
JP2007148784A (en) * 2005-11-28 2007-06-14 D Link Corp Image composition system and image composition method
JP2007184720A (en) * 2006-01-05 2007-07-19 Olympus Corp Image photographing apparatus
JP4608436B2 (en) * 2006-01-05 2011-01-12 オリンパス株式会社 Image shooting device
JP2008085524A (en) * 2006-09-27 2008-04-10 Olympus Imaging Corp Imaging apparatus
JP4734207B2 (en) * 2006-09-27 2011-07-27 オリンパスイメージング株式会社 Imaging device
JP2008141568A (en) * 2006-12-04 2008-06-19 Nikon Corp Monitoring system, and driving assistant system
US8036482B2 (en) 2007-02-09 2011-10-11 Sony Corporation Image processing apparatus and method, program, and recording medium
US9020281B2 (en) 2010-03-01 2015-04-28 Konika Minolta Advanced Layers, Inc. Ghost detection device and imaging device using the same, ghost detection method and ghost removal method
WO2012157459A1 (en) * 2011-05-17 2012-11-22 シャープ株式会社 Stereoscopic view image generating system
JP2013219544A (en) * 2012-04-09 2013-10-24 Ricoh Co Ltd Image processing apparatus, image processing method, and image processing program
JP7476151B2 (en) 2021-09-24 2024-04-30 キヤノン株式会社 IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM

Similar Documents

Publication Publication Date Title
JP4503878B2 (en) Imaging apparatus and imaging method
JP2004272578A (en) Image pickup unit and distortion correction method
JP4356621B2 (en) Imaging apparatus and imaging method
JP2011055170A (en) Information processing apparatus and control method therefor
JP2004282162A (en) Camera, and monitoring system
JP2010263656A (en) Imaging apparatus and imaging method
JP2015176559A (en) information processing method, information processing apparatus, and program
US8913173B2 (en) Imaging apparatus and imaging method
JP2018117276A (en) Video signal processing device, video signal processing method, and program
EP2009907A1 (en) Camera apparatus, and image processing apparatus and image processing method
JP6350695B2 (en) Apparatus, method, and program
CN108270959B (en) Panoramic imaging method, terminal equipment and panoramic imaging device
JP7150456B2 (en) IMAGING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD OF INFORMATION PROCESSING DEVICE, AND PROGRAM
JP2004289225A (en) Imaging apparatus
JPH10336494A (en) Digital camera with zoom display function
JP6583486B2 (en) Information processing method, information processing program, and information processing apparatus
JP2004282163A (en) Camera, monitor image generating method, program, and monitoring system
JP6128185B2 (en) Apparatus, method, and program
JP2008177972A (en) Imaging apparatus
CN106233715B (en) Image output device, image output method, and storage medium
JP2019204560A (en) program
US11653094B2 (en) Imaging apparatus with shaking state information display
TWI784446B (en) Display system, display method and image capture device
JP2006033160A (en) Imaging system
JP2013080998A (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060509