JP2004320526A - Imaging device, imaging system, and program - Google Patents

Imaging device, imaging system, and program Download PDF

Info

Publication number
JP2004320526A
JP2004320526A JP2003112819A JP2003112819A JP2004320526A JP 2004320526 A JP2004320526 A JP 2004320526A JP 2003112819 A JP2003112819 A JP 2003112819A JP 2003112819 A JP2003112819 A JP 2003112819A JP 2004320526 A JP2004320526 A JP 2004320526A
Authority
JP
Japan
Prior art keywords
image
imaging
pan
distortion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003112819A
Other languages
Japanese (ja)
Inventor
Akihiro Oki
昭広 沖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2003112819A priority Critical patent/JP2004320526A/en
Publication of JP2004320526A publication Critical patent/JP2004320526A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device, an imaging system, and a program capable of acquiring a photographed image without distortion while making a wide range possible to be photographed by providing a transparent cover. <P>SOLUTION: An optical image regarding an originally adjacent object shifts a little and is formed on the image formation surface of a CCD resulting from a part where optical power becomes uneven. At this time, the photographed image becomes an image in which a shift area SA corresponding to light from the object which passes through the part where the optical power is uneven shifts by shift amount L to a non-shift area GS corresponding to light from an object which passes through a part where the optical power is even. Then, the distortion of the photographed image is corrected by inversely shifting the shift area SA to the non-shift area GS by the shift amount L on the basis of pan and tilt angles, shift data where positions of boundary lines SL1, SL2 are associated with the shift amount L, and the present pan and tilt angles to be detected. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、透明カバーを有する撮像装置に関する。
【0002】
【従来の技術】
監視カメラは、塵や埃や雨水の影響を受けやすい屋外等、種々の場所に設置される。このような監視カメラでは、レンズや精密機器等に塵や水分等が直接付着しないように、透明カバーが設けられるのが一般的である。さらに、広範囲の領域を撮影可能とすべく、パンやチルト等、撮影方向を変更可能とするいわゆる首振り機構を備えたものが存在する(例えば、非特許文献1、2)。
【0003】
このように、透明カバーを有するとともに首振り機構を備えた監視カメラでは、撮影画像に歪みが生じないように、パンやチルト等の回動をさせた際に撮像部に対する透明カバーのレンズ性能が一定(光学パワーが均一)となるように、透明カバーの形状を球面状とすることが好ましい。
【0004】
このような技術に関する先行技術文献としては、以下のようなものがある。
【0005】
【非特許文献1】
”リモートムービングCCDカメラ「ラウンドビュー」(MC−2000)カタログ”、株式会社キーエンス、2001年6月
【非特許文献2】
”ネットワークカメラ”、[online]、松下電器産業株式会社、[平成15年3月6日検索]、インターネット<URL:http://panasonic.biz/netsys/netwkcam/index.html>
【0006】
【発明が解決しようとする課題】
しかしながら、非特許文献1に記載される監視カメラでは、透明カバーの形状が放物面状であるため、撮像部に対する透明カバーの光学パワーが均一ではなく、撮影画像に歪みが出やすい。
【0007】
これに対して、非特許文献2に記載される監視カメラのように、撮像部に対する透明カバーの光学パワーが均一となるように透明カバーの形状を球面状とすることが好ましい。
【0008】
しかし、透明カバーは、一般的にアクリル樹脂等で構成され、成形の関係上、いわゆる「成形抜き勾配」が必要となる。よって、パンやチルトの回動方向等、所定の方向についての中心角の孤度が180度以上となるような球面状の透明カバーは成形することができない。つまり、パンやチルトの回動方向について、180度以上には撮像部に対する透明カバーの光学パワーを均一とすることはできない。
【0009】
したがって、仮に、さらに広範囲の領域を撮影可能とすべく、撮像部によって撮影可能な被写体の範囲がパンやチルト等の回動方向について180度以上となるように、パンやチルト等の回動可能角度が大きな首振り機構を設けると、撮像部に対する透明カバーの光学パワーが均一な部分と不均一な部分との境界線で撮影画像に歪みが生じてしまう。
【0010】
それ故、非特許文献2に記載される監視カメラでは、透明カバーの光学パワーが撮像部に対して不均一なことに起因して撮影画像に歪みが生じないように、首振り角度が制限されている。つまり、撮影画像に歪みが生じないようにするために、撮像部による撮影可能な範囲が限定される。
【0011】
本発明は上記課題に鑑みてなされたものであり、透明カバーを設け、かつ広範囲の領域を撮影可能としつつ、歪みのない撮影画像を取得可能な撮像装置、撮像システム、及びプログラムを提供することを目的とする。
【0012】
【課題を解決するための手段】
上記の課題を解決するために、請求項1の発明は、撮像装置であって、被写体の光学像に基づいて画像を取得する撮像手段と、前記撮像手段の前方を覆って配置され、前記被写体からの光を透過させて前記撮像手段に与えるカバーと、前記撮像手段に対して前記カバーが有する光学パワーの不均一性に起因して前記画像に生じる歪みを補正する歪み補正手段とを備えることを特徴とする。
【0013】
また、請求項2の発明は、請求項1に記載の撮像装置であって、前記カバーに対する前記撮像手段の相対角度が可変とされており、前記歪み補正手段が、前記相対角度による前記歪みの相違を反映した画像補正用データを記憶する記憶手段と、前記相対角度の現在値を検出する検出手段と、前記撮像手段によって前記画像を得た際の前記相対角度の検出値を前記画像補正用データに適用して前記画像における前記歪みを補正する手段とを備えることを特徴とする。
【0014】
また、請求項3の発明は、請求項1又は請求項2に記載の撮像装置であって、所定の軸まわりに前記撮像手段を回動させる駆動手段をさらに備え、前記駆動手段による前記撮像手段の回動によって、前記所定の軸まわりにおける前記撮像手段の撮影可能な角度範囲が略180度以上とされていることを特徴とする。
【0015】
また、請求項4の発明は、撮像システムであって、(a)撮像装置と、(b)前記撮像装置によって得られた画像の処理を行う画像処理装置とを備え、前記撮像装置が、(a−1)被写体の光学像に基づいて画像を取得する撮像手段と、(a−2)前記撮像手段の前方を覆って配置され、前記被写体からの光を透過させて前記撮像手段に与えるカバーとを有するとともに、前記画像処理装置が、(b−1)前記撮像手段に対して前記カバーが有する光学パワーの不均一性に起因して前記画像に生じる歪みを補正する歪み補正手段を備えることを特徴とする。
【0016】
また、請求項5の発明は、コンピュータによって実行されることにより、前記コンピュータを、被写体からの光を透光性のカバーを介して撮像手段に与えることによって得た画像について、前記撮像手段に対して前記カバーが有する光学パワーの不均一性に起因して前記画像に生じた歪みを補正する手段として機能させるプログラムである。
【0017】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0018】
<1.第1実施形態>
<監視カメラシステムの全体概要>
図1は、本発明の第1実施形態に係る撮像システム(ここでは、監視カメラシステム)1の構成を示す概念図である。監視カメラシステム1は、主に遠隔操作により制御可能な撮像装置(ここでは、監視カメラ)2と、監視カメラ2を遠隔操作するとともに、監視カメラ2から送信される画像データを受信してディスプレイ3b上への画像表示及び記録等を行うホストコンピュータ(以下、「ホスト」と略称する)3とを備えて構成される。
【0019】
監視カメラ2は、撮影対象物の動きや大きさの変化に対応するために、パンニング(以下、「パン」と略称する)、チルティング(以下、「チルト」と略称する)、及びズーミング(以下、「ズーム」と略称する)等の各種動作機能を有している。それらの動作機能の制御は、監視カメラ2内に格納されるソフトウェア(制御プログラム)の実行、及びホスト3による遠隔操作によって実行される。
【0020】
ホスト3は、例えば、一般的なパーソナルコンピュータ等と同様な構成であり、CPU等を内蔵する制御部3aと、画像を表示するためのディスプレイ3bと、各種入力コマンドを受け付けるキーボード3c及びマウス3dからなる操作部3cdとを備えている。
【0021】
制御部3aは、CPU、RAM、ROM、及びハードディスク等を備えて構成され、ハードディスクには監視カメラ2の遠隔操作を実現するためのソフトウェア(制御プログラム)が格納されている。そして、ハードディスク内等に格納されるソフトウェアがCPUに読み込まれることで、ホスト3の各部を統括制御する機能を実現するとともに、監視カメラ2の遠隔操作を実行するための機能を実現する。
【0022】
また、制御部3aと監視カメラ2とは、各種データが送受信可能なように接続されており、制御部3aは、監視カメラ2で取得される画像データを受信すること、及び監視カメラ2の遠隔操作に関する各種制御信号を送信することができる。なお、以下では、制御部3aと監視カメラ2との間をデータ送受信可能に接続する方法が有線によるものとして説明するが、無線等のいずれの方法であっても良い。
【0023】
また、制御部3aは、監視カメラ2から送信されてくる画像データを受信して、ハードディスク内に記憶するとともに、画像データに基づく画像をディスプレイ3b上に表示させるように制御することができる。さらに、制御部3aは、記憶媒体CDを着脱可能な装着部3adを備えており、記憶媒体CDが装着部3adに装着された状態で、記憶媒体CD内に記憶されるソフトウェアをCPUやハードディスクに取り込んだり、逆に、画像データ等の各種データを記憶媒体CDに記憶させるように制御することもできる。
【0024】
操作部3cdは、キーボード3cやマウス3dの各種操作に基づいて制御部3aに信号を送信することで、制御部3aの制御を介して、監視カメラ2を遠隔操作することができる。
【0025】
<監視カメラの概要>
図2から図4は、監視カメラ2の外観を例示する模式図であり、図2、図3及び図4が、それぞれ正面図、側面図、及び上面図に対応する。なお、図2から図4では、方位関係を明確にするために、X,Y,Zの直交座標を付している。また、撮影方向を示す光軸CLを併せて示している。この監視カメラ2は、+Y方向の面(背面)を壁面等に対して固設して用いられるのが一般的である。
【0026】
図2から図4に示すように、監視カメラ2は、主に、ハウジング20と、撮像部40と、撮像部40を覆うようにハウジング20に取り付けられた透明カバー20aとを備えて構成される。
【0027】
ハウジング20は、監視カメラ2の各部を統括制御するメインCPU(後述)60等を備えて構成される電子回路等を格納している。ハウジング20内部に格納される機能構成については後程詳述する。
【0028】
撮像部40は、ズーム動作機能を実現するズームレンズ41を含む撮像機能部CMを備えるとともに、パン、及びチルト等の動作機能を実現するためのパン機構PS、及びチルト機構TSを含む首振り機構SSを備えている。つまり、ここでは、首振り機能SSにより、撮像部40の前面に設けられる透明カバー20aに対して、撮像機能部CMの相対角度が可変とされている。
【0029】
ここで、パン機構PS、及びチルト機構TSについて簡単に説明するが、図2は、パン機構PS、及びチルト機構TSについて、説明を分かり易くするために一部断面図の態様で表されている。なお、図2では、ズームレンズ41が正面(−Y方向)を向いた状態(以下、「基本姿勢状態」と称する)を示しており、以下では、基本姿勢状態を基準とした構成について説明し、併せて、パン及びチルト動作について説明する。
【0030】
図2に示すように、パン機構PSは、モータM1、モータM1のモータ軸MP1、矩形状のフレーム部PF、及びハウジング20に固設された固定部FSとを備えており、チルト機構TSは、モータM2、モータM2のモータ軸MP2、及び軸TPとを備えている。
【0031】
モータM1及びモータM2は、例えば、ステッピングモータ等で構成され、後述するサブコントロール部50からの制御パルスに基づいて、モータ軸MP1,MP2を回動させることができる。
【0032】
モータM2のモータ軸MP2は−X方向から撮像機能部CMに固設され、撮像機能部CMの+X方向にモータ軸MP2と同一の軸中心を有する軸TPが固設されている。また、モータ軸MP2及び軸TPがフレーム部PFに設けられた円筒状の穴に回動自在に填め込まれ、さらに、モータM2は、モータ軸MP2と接触しない部材(図示省略)によってフレーム部PFに対して固定されている。
【0033】
また、モータM1のモータ軸MP1は、+Z方向からフレーム部PFに固設され、モータ軸MP1の中央部付近が、固定部FSに設けられた円筒状の穴に回動自在に填め込まれている。さらに、モータM1がハウジング20に固設されている。
【0034】
そして、モータM1がモータ軸MP1を回動させることで、フレーム部PFに対して回動自在に填め込まれたチルト機構TSとともに撮像機能部CMを回動させ、撮影方向をXY平面内で自在に変化させるパン動作を実現する。一方、モータM2がモータ軸MP2を回動させることで、フレーム部PFに対して撮像機能部CMを回動させ、撮影方向をYZ平面内で自在に変化させるチルト動作を実現する。さらに、モータM1,M2によってモータ軸MP1,MP2の双方を回動させることによって、撮影方向を3次元空間内で自在に変化させることができる。
【0035】
なお、ここでは、撮像機能部CMがモータ軸MP1の中心軸(以下、「パン中心軸」と称する)を中心としてパン動作を行い、モータ軸MP2の中心軸(以下、「チルト中心軸」と称する)を中心としてチルト動作を行う。つまり、首振り機構SSが、所定のパン中心軸及びチルト中心軸まわりに撮像機能部CMを回動させる。また、パン中心軸とチルト中心軸とが交点(以下、「パン・チルト中心点」と称する)を有する。
【0036】
基本姿勢状態を基準としたパン及びチルトの回動角度は、後述するサブコントロール部50からのパン動作のための制御パルスの数(以下、「パン制御パルス数」と称する)及びチルト動作のための制御パルスの数(以下、「チルト制御パルス数」と称する)を管理することによって検出することができる。
【0037】
また、モータ軸MP1と固定部FSとが接する部分にパン回動端部検出スイッチSWpが設けられ、モータ軸MP2とフレーム部PFとが接する部分にチルト回動端部検出スイッチSWtが設けられる。
【0038】
パン回動端部検出スイッチSWpは、パン動作可能な範囲の端までモータ軸MP1が回動した際に、モータ軸MP1に設けられた突起部と固定部FSに設けられた突起部とが接触して、メインCPU60に対し、パン動作可能な範囲の端まで回動した旨を示す信号を出力するように構成される。同様に、チルト回動端部検出スイッチSWtは、チルト動作可能な範囲の端までモータ軸MP2が回動した際に、モータ軸MP2に設けられた突起部とフレーム部PFに設けられた突起部とが接触して、メインCPU60に対し、チルト動作可能な範囲の端まで回動した旨を示す信号を出力するように構成される。
【0039】
透明カバー20aは、撮像部40を塵や埃や雨水等から保護するために撮像機能部CMを含む撮像部40の前方を覆って配置されるものであり、例えば、アクリル樹脂等のように無色透明な材質等で構成される。つまり、透明カバー20aは、被写体からの光を透過させる透光性のものとなっており、透明カバー20aを透過した被写体からの光は撮像機能部CMのズームレンズ41に与えられる。そして、この透明カバー20aは、撮像部40の光学特性に影響を与えないように、表面において傷や乱反射等が発生しないような、いわゆる光学部品等と同様な取り扱いがなされている。
【0040】
透明カバー20aの形状については、図2から図4に示すように、略半球面状の形状を有する部分(以下、「略半球面状部分」と称する)20abと略半円筒状の形状を有する部分(以下、「半円筒部分」と称する)20atとが組合わさった形状を有する。
【0041】
ここで、略半球面状部分20abに着目すると、透明カバー20aは、アクリル樹脂等で構成されるため、成形の関係上、いわゆる「成形抜き勾配」を有している。
【0042】
一般に、半球面状に近い形状の透明カバーを成形する際には、数度程度の成形抜き勾配が必要とされるため、略半球面状部分20abは、球面状の形状を有する部分(以下、「球面状部分」と称する)と、成形抜き勾配である円錐面状の形状を有する部分(以下、「円錐面状部分」と称する)とから構成される。つまり、パンやチルトの回動方向に対して約170数度程度しか撮像機能部CMに対する透明カバー20aのレンズ特性(光学パワー)を均一にできない。
【0043】
よって、透明カバー20aでは、撮像機能部CMに対する光学パワーが均一な球面状部分と、光学パワーが不均一な円錐面状部分とが存在するため、パンやチルトの回動角度によって撮影画像に歪みが生じる。この撮像画像に生じる歪みは、後述するメインコントロール部6内の画像演算部63において補正される。なお、透明カバー20aにおける成形抜き勾配、及び成形抜き勾配によって生じる撮影画像の歪みの補正等については後程詳述する。
【0044】
さらに、図4に示すように、ハウジング20の上面(+Z方向の面)には通信用端子25等が設けられている。通信用端子25は、ホスト3との間を有線のLANケーブル等でデータ送受信可能に接続するためのものである。
【0045】
<監視カメラの機能構成>
図5は、監視カメラ2を主とした監視カメラシステム1の機能構成を示すブロック図である。図中の細線矢印は制御信号や音声信号等の電気信号の流れを示し、太線矢印は画像信号(画像データ)の流れを示している。
【0046】
図5に示すように、監視カメラ2は、主に、撮像部40と、撮像部40のパン・チルト・ズーム動作機能の制御を行うサブコントロール部50と、監視カメラ2の全体を制御するメインコントロール部6とを備えて構成される。
【0047】
撮像部40において、監視したい被写体に係るシーンの光学像がズームレンズ41を通してCCD42の撮像面に結像され、CCD42において電荷に変換されて電荷が蓄積される。そして、CCD42が、蓄積された電荷を電荷信号(画像信号)として出力する。また、CCD42は、電子シャッター機能を有し、この機能によって電荷蓄積時間(露光時間)を制御する。
【0048】
タイミングジェネレーター(TG)44は、メインCPU60の制御下で、CCD42及び後述するアナログフロントエンド(AFE)43に対する制御信号を発生させて、それぞれの制御を行うものである。例えば、TG44は、CCD42の電子シャッター機能を制御して、電荷蓄積時間を制御する。
【0049】
CCD42から出力される画像信号は、CDS(相関2重サンプリング器)とアナログ増幅部(AGC)とA/D変換器(ADC)とを備えるアナログフロントエンド(AFE)43において、デジタル信号(デジタル画像データ)に変換されて、メインコントロール部6内のメインCPU60に伝送される。なお、AFE43では、CCD42から出力されるアナログ画像信号が、TG44からのサンプリング信号に基づいてCDSでサンプリングされ、AGCで所望の増幅が行われ、ADCでデジタル画像信号(撮影画像)に変換される。
【0050】
撮像部40における撮像機能部CMのパン動作及びチルト動作は、上述したようなパン機構PS及びチルト機構TSによってそれぞれモータM1,M2の駆動により実現される。また、ズームレンズ41のズーム動作はインパクトアクチュエーター(IMP)46によって行われる。ズーム動作におけるレンズ駆動は複数段階に行われるため、レンズの位置を検出するセンサとしてフォトリフレクタ(PR)45を用いている。
【0051】
また、撮像機能部CMは、ズームレンズ41、CCD42、AFE43、TG44、PR45、及びIMP46を備えて構成され、被写体の光学像に基づいて撮影画像を取得する手段として機能する。換言すれば、撮像機能部CMは、被写体からの光を透光性の透明カバー20aを介して与えられることで、撮影画像を取得する。
【0052】
サブコントロール部50は、撮像部40の各種駆動を制御するものであり、モータM1,M2、及びIMP46の駆動制御を行う。モータM1,M2にはそれぞれエンコーダが設けられており、サブコントロール部50とモータM1,M2とは電気的に接続される。そして、モータM1,M2は、サブコントロール部50からエンコーダに入力される制御パルスにしたがって回動する。また、エンコーダはモータM1,M2の回動を検出することができ、サブコントロール部50ではエンコーダから伝達される信号を確認しつつ、モータM1,M2の回転を制御する。
【0053】
また、サブコントロール部50は、メインCPU60とデータ送受信可能に接続されるため、メインCPU60はサブコントロール部50を介して、モータM1,M2を回動させるための制御パルスを管理することで、撮像機能部CMがどの程度パン及びチルトしたのか、即ち、基本姿勢状態からの撮像機能部CMのパンの回動角度(以下、「パン角度」と称する)とチルトの回動角度(以下、「チルト角度」と称する)を管理することができる。つまり、メインCPU60が、撮像機能部CMの回動角度であるパン及びチルト角度を検出する。言い換えれば、メインコントロール部6に含まれるメインCPU60が、透明カバー20aに対する撮像機能部CMの相対角度の現在値を検出する。
【0054】
メインコントロール部6は監視カメラ2全体を統括制御するためのものであり、主に、メインCPU60、メモリ64、LANコントローラ65、記憶部69を備えて構成される。
【0055】
メモリ64は、メインCPU60における各種データ処理を行う際等に、各種データを一時的に記憶するものである。
【0056】
記憶部69は、例えば、ROMやハードディスク等の不揮発性の記憶媒体を備えて構成され、撮影画像に生じる歪みの補正処理や、監視カメラ2の動作を制御するための制御プログラム等を格納する。
【0057】
また、記憶部69は、後述する撮影画像の歪みの補正処理を実施する際に用いられるシフトデータ(「画像補正用データ」とも称する)が格納される。このシフトデータについては後程詳述する。
【0058】
LANコントローラ65は、通信用端子25及び有線のLANケーブル等を介したホスト3等との間のデータ送受信を制御するためのものであり、LANコントローラ65等を介して、メインCPU60とホスト3との間でデータの送受信が行われる。
【0059】
メインCPU60は、メモリ64、LANコントローラ65、撮像部40のAFE43とTG44、及びサブコントロール部50等の監視カメラ2内の各部を統括制御するものである。そして、図5に示すように、メインCPU60は、記憶部69に格納される制御プログラムを読み込むことで、その機能として、画像生成部61、メインコントローラ62、及び画像演算部63を具現化することができる。
【0060】
メインCPU60は、撮像部40から出力された画像データ(撮影画像)を受け取る。この画像データはカラー情報等を有さないRAWデータであり、このままでは適正な画像として再生できないので、画像生成部61によって、データ変換及び画像処理を行ってカラー画像データを生成する。
【0061】
具体的には、メインCPU60に入力されたRAWデータは一旦メモリ64に取り込まれる。そして、画像生成部61により、RAWデータに対して、ホワイトバランス(WB)補正、RAWデータからRGBカラー画像データへの変換(RAW−RGB変換)、γ補正、RGB−YCbCrマトリクス変換等を順次行い、RAWデータは汎用のカラー画像データに変換される。
【0062】
画像演算部63は、画像生成部61により生成されたカラー画像データに対して、エッジ強調処理、画像圧縮、透明カバー20aにおける成形抜き勾配に起因して発生する撮影画像の歪み補正等の処理を行う機能を有する。ここでは、必要に応じて、画像生成部61によってRAWデータからカラー画像データに変換された後に、記憶部69に格納されるシフトデータに基づいて、撮影画像の歪み補正処理を実施する。つまり、メインコントロール部6が、内部の画像演算部63によって、撮像機能部CMに対して透明カバー20aが有する光学パワーの不均一性に起因して撮影画像に生じる歪みを補正する。画像演算部63おける撮影画像の歪み補正処理を実施する機能(歪み補正機能)については、さらに後程する。
【0063】
メインコントローラ62は、実際に監視カメラ2内の各部を統括制御するものである。
【0064】
また、メインCPU60は、画像演算部63によって歪み補正処理がなされた撮影画像を圧縮処理して、LANコントローラ65等を経由してホスト3に撮影画像(画像データ)を転送することができる。
【0065】
さらに、メインCPU60は、パン回動端部検出スイッチSWp、及びチルト回動端部検出スイッチSWtからの信号を受信可能に接続されている。
【0066】
メインCPU60は、パン回動端部検出スイッチSWpからパン動作可能な範囲の端まで回動した旨を示す信号を受信した際に、そのときのパン制御パルス数と、予め設定されたパン動作可能な範囲(角度)とから、基本姿勢状態におけるパン制御パルス数(以下、「基本パン制御パルス数」と称する)を検出することができる。同様にして、メインCPU60は、チルト回動端部検出スイッチSWtからチルト動作可能な範囲の端まで回動した旨を示す信号を受信した際に、そのときのチルト制御パルス数と、予め設定されたチルト動作可能な範囲(角度)とから、基本姿勢状態におけるチルト制御パルス数(以下、「基本チルト制御パルス数」と称する)を検出することができる。
【0067】
なお、パン及びチルト回動端部検出スイッチSWp,SWtを用いた基本パン制御パルス数、及び基本チルト制御パルス数の検出は、例えば、監視カメラ2の電源が投入される毎や、所定の時刻になる毎に、パン及びチルト動作可能な範囲の端まで各一回ずつ回動させることによって実施することができる。
【0068】
このようにして検出される基本パン制御パルス数、及び基本チルト制御パルス数を基準として、メインCPU60が、サブコントロール部50から入力されるパン及びチルト制御パルスを管理することによって、基本姿勢状態を基準としたパン角度、及びチルト角度を検出することができる。
【0069】
また、メインCPU60は、サブコントロール部50からズームレンズ41の駆動制御に関する情報を取得することで、撮影倍率等を検出することができる。
【0070】
<監視カメラのパン・チルト動作と撮影可能範囲>
図6及び図7は、監視カメラ2におけるチルト及びパンの回動範囲について説明するための図である。ここでは、図6に示すように、基本姿勢状態を基準として、撮影方向が上向きに変化するように撮像機能部CMを回動させるチルト角度を+とし、下向きに変化するように撮像機能部CMを回動させるチルト角度を−としている。
【0071】
また、図7に示すように、基本姿勢状態を基準として、撮影方向が右向きに変化するように撮像機能部CMを回動させるパン角度を+とし、左向きに変化するように撮像機能部CMを回動させるパン角度を−としている。さらに、図7では、撮影倍率が最小となる場合の撮像機能部CMの画角についての情報も併せて示している。
【0072】
また、図6では、撮像機能部CMを上下方向にチルト動作可能な範囲の端まで撮像機能部CMを回動させた場合について模式的に示し、図7では、撮像機能部CMを左右方向にパン動作可能な範囲の端まで撮像機能部CMを回動させた場合について模式的に示している。
【0073】
ここでは、図6に示すように、基本姿勢状態を基準として、撮像機能部CMを上向き(+方向)に20度、下向き(−方向)に70度だけ回動させることが可能である。そして、撮像機能部CMのチルト方向への画角が52.8度であるため、撮像機能部CMは、チルト中心軸を中心として、基本姿勢状態における撮影方向(ここでは、正面方向)から上向きに約46.4度、下向きに約96.4度の位置に存在する被写体まで撮影可能である。つまり、撮像機能部CMが、チルトの回動方向について、撮像機能部CMから見た正面方向から下向きに90度以上の位置に存在する被写体を撮影可能である。即ち、撮像機能部CMによって撮影可能な被写体の範囲が、チルトの回動方向について、正面方向から下向きに90度以上となっている。
【0074】
また、図7に示すように、基本姿勢状態を基準として、撮像機能部CMを右向き(+方向)に70度、左向き(−方向)に70度だけ回動させることが可能である。そして、撮像機能部CMのパン方向への画角が67度であるため、撮像機能部CMは、パン中心軸を中心として、基本姿勢状態における撮影方向(正面方向)から右向きに約103.5度、左向きに約103.5度の位置に存在する被写体まで撮影可能である。つまり、撮像機能部CMが、パンの回動方向について、撮像機能部CMから見た正面方向から左及び右向きに90度以上の位置に存在する被写体を撮影可能である。即ち、撮像機能部CMによって撮影可能な被写体の範囲が、パンの回動方向について、正面方向から左及び右向きに90度以上となっている。
【0075】
言い換えれば、パン機構PSを備える首振り機構SSが、撮像機能部CMによって撮影可能な被写体の範囲が、所定の回動方向であるパンの回動方向について、略180度以上となるように、撮像機能部CMをパン中心軸を中心としてパン方向に駆動させる。即ち、首振り機構SSによる撮像機能部CMの回動によって、所定のパン中心軸まわりにおける撮像機能部CMの撮影可能な角度範囲が略180度以上とされる。
【0076】
<透明カバーの成形抜き勾配と撮影画像の歪み>
図8は、透明カバー20aにおける成形抜き勾配について説明するための透明カバー20aと撮像部40の一部を示す断面模式図である。ここでは、基本姿勢状態から右方向に、パン動作可能な範囲の端まで撮像機能部CMを回動させた状態を示している。
【0077】
図8に示すように、略半球面状部分20abは、境界20fを境目にして、−Y方向に位置する球面状部分20Sと、+Y方向に位置する成形抜き勾配である円錐面状部分20Cとを備える。
【0078】
球面状部分20Sは、撮像機能部CMがパン及びチルト動作を行っても光学パワーが一定となるようにパン・チルト中心点と同一の中心点を持った球面の形状と一定の肉厚とを有している。円錐面状部分20Cは、球面状部分20Sの端部の接線方向に延びるいわゆる成形抜き勾配にあたる部分であり、円錐面状の形状と一定の肉厚とを有している。つまり、透明カバー20aは、撮像機能部CMに対して光学パワーが均一となる球面状部分20Sと、光学パワーが不均一となる円錐面状部分20Cとを含む。即ち、透明カバー20aが、撮像機能部CMに対して光学パワーの不均一性を有している。
【0079】
また、図8に示すように、撮像機能部CMは、ズームレンズ41、及びCCD42を備えて構成される。そして、例えば、図8に示すように、基本姿勢状態から+70度だけパン動作させた位置では、撮像機能部CMの画角内の範囲、即ち、撮影画像としてとらえられる被写体の範囲(撮影範囲)に境界20fが含まれる。つまり、パン動作可能範囲の端部では、境界20f付近を透過する被写体からの光に基づく画像が撮影画像内に含まれる。
【0080】
このように、撮像機能部CMの撮影範囲に境界20fが含まれる状態となると、球面状部分20Sを透過した被写体からの光と、円錐面状部分20Cを透過した被写体からの光は、両部分の光学パワーの違いにより、元々隣接していた被写体からの光がずれてCCD42の結像面に結像され、画像信号に変換される。その結果取得される撮影画像Gでは、図9に示すように、境界20fに対応する部分SAを境目としてずれが生じ、歪んだ撮影画像Gとなる。
【0081】
このように、撮像機能部CMに対する透明カバー20aの光学パワーが不均一となる部分の影響により撮影画像に歪みが生じるため、ここでは、画像演算部63によって撮影画像の歪み補正処理を行う。以下、撮影画像の歪み補正処理について説明する。
【0082】
<撮影画像の歪み補正処理>
以下、画像演算部63による撮影画像の歪み補正処理の手法について説明する。
【0083】
図10は、図9に示す撮影画像Gの歪みを説明するための図である。図10に示すように、撮影画像Gは、球面状部分20Sを透過した被写体からの光に対応する領域(以下、「非シフト領域」と称する)GSに対して、円錐面状部分20Cを透過した被写体からの光に対応する領域(以下、「シフト領域」と称する)SAが、ほぼ距離(以下、「シフト量」と称する)Lだけシフトした画像となっている。なお、図10では、境界20fに対応するラインのうち非シフト領域GS側のライン(以下、「境界ライン」と称する)SL1と、シフト領域SA側のライン(以下、「境界ライン」と称する)SL2とを示している。
【0084】
ここで、境界ラインSL1,SL2は、画角が著しく広い場合等には若干湾曲したものとなるが、本実施形態のように画角が著しく広いものでない場合には、境界ラインSL1,SL2はほぼ直線のものとみなすことができる。よって、ここでは、シフト領域SAを非シフト領域GSに対して一定量のシフト量Lだけ逆にシフトさせるだけで、図11に示すような歪みのない撮影画像Gmを容易に生成する撮影画像の歪み補正処理を実施することができる。このように、境界ラインSL1,SL2を直線とみなすことによって、データ処理における演算を簡略することができ、撮影画像の歪み補正処理の容易化及び高速化を図ることができる。
【0085】
撮像機能部CMのパン及びチルト角度の変化により、境界ラインSL1,SL2の位置、シフト量Lが変化するが、撮像機能部CMと透明カバー20aとの位置関係は、設計によって一義的に決まるため、パン及びチルト角度と境界ラインSL1,SL2の位置及びシフト量Lとの関係も一義的に決まる。
【0086】
そこで、ここでは、予め、パン及びチルト角度と境界ラインSL1,SL2の位置及びシフト量Lとの関係を実験的な手法やシミュレーション等の手法によって求め、パン及びチルト角度と、境界ラインSL1,SL2の位置及びシフト量Lとを関連付けたシフトデータを記憶部69に予め記憶させておく。つまり、記憶部69に、パン及びチルト角度と撮影画像の歪みに関する情報とを関連付けたシフトデータを予め記憶させる。言い換えれば、記憶部69が、撮影方向を示す撮像機能部CMの角度と撮影画像の歪みとを関連付けたデータを記憶する。即ち、記憶部69が、透明カバー20aに対する撮像機能部CMの相対角度による撮影画像の歪みの相違を反映した画像補正用データを記憶する。
【0087】
ここで、シフトデータについて説明する。
【0088】
まず、パン及びチルト角度と境界ラインSL1,SL2の位置及びシフト量Lとの関係の求め方を簡単に説明する。なお、監視カメラ2はズーム機能を有しているため、撮影倍率を変化させることによって、パン及びチルト角度と境界ラインSL1,SL2の位置及びシフト量Lとの関係も変化するが、以下では、説明を簡単にするために、撮影倍率が変化しないものとして説明する。
【0089】
パン及びチルト角度と境界ラインSL1,SL2の位置及びシフト量Lとの関係は、例えば、図2から図4に示すように監視カメラ2を組み上げ、監視カメラ2の周囲に、監視カメラ2のパン・チルト中心と同一の中心を有する球面状の基準となる対象物(基準対象物)を設置する。基準対象物の内面には、経度と緯度とを等間隔に示す線(経線と緯線)を付しておく。この状態で、監視カメラ2の撮像機能部CMを所定の角度間隔で順次パン及びチルトさせながら基準対象物を撮影させる。そして、得られる撮影画像を外部の画像解析装置等で解析することにより、撮影画像における経線と緯線の歪みの位置に基づいて、各パン及びチルト角度に対する境界ラインSL1,SL2の位置及びシフト量Lを検出することができる。
【0090】
その結果、図12に示すように、パン及びチルト角度と、撮影画像(撮影領域)CAに対する境界ラインSL1,SL2の位置及びシフト量Lとの関係を得ることができる。ここでは、図12に示すように、パン及びチルト角度の絶対値が大きくなると、撮影領域CA内に境界ラインSL1,SL2が含まれるようになる。
【0091】
なお、このような各パン及びチルト角度に対する境界ラインSL1,SL2の位置及びシフト量Lの検出を、相当数の監視カメラ2について実施して、平均化することによって、得られるパン及びチルト角度と、撮影領域CAに対する境界ラインSL1,SL2の位置及びシフト量Lとの関係の精度をより高くすることができる。また、図12に示すように、10度間隔でパン及びチルト角度に対する境界ラインSL1,SL2の位置及びシフト量Lを検出するのではなく、さらに細かい角度間隔で検出しても良い。
【0092】
また、上述した完成品としての監視カメラ2を用いた実験的な手法だけでなく、監視カメラ2の設計に基づいたコンピュータシミュレーションを用いた手法によっても、同様にパン及びチルト角度と、撮影領域CAに対する境界ラインSL1,SL2の位置及びシフト量Lとの関係を得ることができる。
【0093】
次に、パン及びチルト角度と、境界ラインSL1,SL2の位置及びシフト量Lとの関連付けについて説明する。
【0094】
図13は、パン角度P及びチルト角度Tと、撮影画像の歪み(撮影領域CAに対する境界ラインSL1,SL2の位置、及びシフト量L)との関係を説明するための図である。図13では、撮影領域CAに対する境界ラインSL1,SL2、非シフト領域GS、及びシフト領域SAの位置と、シフト量Lとを示している。
【0095】
ここでは、撮影領域CAに対する境界ラインSL1,SL2の位置は、境界ラインSL1,SL2の方向を示す角度(以下、「シフト角度」と称する)θ、撮影領域CAの中心点Cと境界ラインSL1,SL2との距離D、及びシフト量L等によって規定することができる。なお、シフト角度θは、中心点Cから境界ラインSL1への垂線と、撮影画像の水平方向とがなす角度である。
【0096】
そして、図12に示すように検出されるパン及びチルト角度P,Tと撮影領域CAに対する境界ラインSL1,SL2の位置及びシフト量Lとの関係に基づいて、距離D、シフト角度θ、シフト量Lを、下式(1)〜(3)に示すように、パン及びチルト角度P,Tの関数として定式化することができる。
【0097】
D=f(P,T)・・・(1)
θ=f(P,T)・・・(2)
L=f(P,T)・・・(3)
【0098】
その結果、ここでは、式(1)〜(3)をパン及びチルト角度と、境界ラインSL1,SL2の位置及びシフト量Lとを関連付けたシフトデータとすることができる。
【0099】
そして、ここでは、メインコントロール部6が、内部の画像演算部63によって、メインCPU60によって検出される現在の撮像機能部CMの角度(ここでは、パン及びチルト角度)と、記憶部69に格納されるシフトデータとに基づいて、上述したように、シフト領域SAを非シフト領域GSに対してシフト量Lだけ逆にシフトさせることにより、撮影画像の歪みを補正する。つまり、メインコントロール部6が、撮像機能部CMによって撮影画像を取得した際にメインCPU60によって検出される透明カバー20aに対する撮像機能部CMの相対角度の検出値を、シフトデータに適用して撮影画像における歪みを補正する機能を有する。
【0100】
具体的には、まず、サブコントロール部50からメインCPU60に入力される現在のパン及びチルト角度の情報をメモリ64に格納する。そして、画像演算部63がメモリ64に格納された現在のパン及びチルト角度の情報とシフトデータとに基づいて距離D、シフト量L、シフト角度θを算出して、シフト領域SAを認識する。さらに、画像演算部63が、求められたシフト領域SA、シフト量L、及びシフト角度θに基づいて撮影画像に対してシフト領域SAをシフトする歪み補正処理を行い、生成される撮影画像をメモリ64に格納する。
【0101】
なお、パン/チルト角度の絶対値が小さな場合は、図12に示すように、撮影画像に歪みが生じず、シフトデータには、パン/チルト角度に対応するシフト量L等が記憶されていない。よって、このような場合は、画像演算部63による撮影画像の歪み補正処理は行われない。
【0102】
以上のように、本実施形態に係る監視カメラ2では、メインコントロール部6内の画像演算部63により、撮像機能部CMに対して透明カバー20aの光学パワーが不均一であることに起因して生じる撮影画像の歪みを補正する。その結果、透明カバーを設け、かつ広範囲の領域を撮影可能としつつ、歪みのない撮影画像を取得可能な撮像装置を提供することができる。
【0103】
また、撮像機能部CMのパン及びチルト角度と撮影画像に生じる歪みとを関連付けたシフトデータを記憶部69に格納し、メインCPU60が、撮像機能部CMのパン及びチルト角度を検出し、検出した角度とシフトデータとに基づいて、撮影画像に生じる歪みを補正する。つまり、透明カバー20aに対する撮像機能部CMの相対角度が可変とされており、検出された透明カバー20aに対する撮像機能部CMの相対角度の現在値を、予め用意されたシフトデータに適用して、撮影画像の歪み補正を行う。即ち、予め用意したシフトデータに基づいて撮影画像の補正処理を行うため、撮影画像の歪み補正処理を高速で行うことができる。特に、撮影画像の歪み補正に対して、特殊なセンサやパラメータ等を要しないため、撮像装置の小型化やコスト上昇の抑制を図ることができる。
【0104】
さらに、撮像機能部CMによって撮影可能な被写体の範囲が、所定の回動方向であるパンの回動方向について略180度以上となるように、撮像機能部CMを回動させる。つまり、所定のパン中心軸まわりにおける撮像機能部CMの撮影可能な角度範囲が略180度以上となるように、所定のパン中心軸まわりに撮像機能部CMを回動させる。その結果、パンやチルト等の所定の回動方向について180度以上という広い撮影範囲を確保しながら、歪みがなく違和感のない撮影画像の取得が可能となる。即ち、広範囲の領域を撮影することができるとともに、上述した撮影画像の歪み補正処理によって、歪みのない撮影画像を取得することができる。
【0105】
<2.第2実施形態>
上述した第1実施形態に係る監視カメラシステム1では、監視カメラ2において、撮影画像の歪み補正処理を行ったが、第2実施形態に係る監視カメラシステム1Aでは、監視カメラ2Aでは撮影画像の歪み補正を行わず、ホストコンピュータ3において撮影画像の歪み補正を行う。
【0106】
図14は、第2実施形態に係る監視カメラシステム1Aの機能構成を示すブロック図である。監視カメラシステム1Aでは、監視カメラシステム1の記憶部69内に格納されていたシフトデータをホストコンピュータ(ホスト)3内のハードディスク39に格納し、監視カメラシステム1のメインCPU60の画像演算部63で実現されていた歪み補正機能を制御部3a内のCPU30がハードディスク39内に格納される制御プログラムを読み込むことによって実現する。つまり、ここでは、ホスト3が、監視カメラ2Aによって得られた撮影画像の処理を行う装置として機能し、撮像機能部CMに対して透明カバー20aが有する光学パワーの不均一性に起因して撮影画像に生じる歪みを補正する手段を有する。
【0107】
そして、第1実施形態に係る監視カメラシステム1と第2実施形態に係る監視カメラシステム1Aとが主に異なる点は、撮影画像の歪み補正処理を監視カメラ内で行っていない点であるため、図14では、画像演算部63を画像演算部63Aと符合を違えて示し、監視カメラ2を監視カメラ2Aと符合を違えて示している。しかし、その他の部分については、格納するデータやプログラムや制御が若干異なるのみであり、機能や構成はほぼ同様なものとなるため、同じ符合を付して、若干異なる点以外については説明を省略する。
【0108】
メインCPU60は、画像演算部63Aにおいて歪み補正処理を行うことなく撮影画像をLANコントローラ65等を経由してホスト3に転送する。そして、このとき、メインCPU60は、サブコントロール部50からメインCPU60に入力される現在のパン及びチルト角度の情報も併せて、LANコントローラ65等を経由してホスト3に転送する。
【0109】
そして、ホスト3の制御部3a内のRAM(不図示)に、撮影画像及びパン及びチルト角度の情報を一時的に記憶する。
【0110】
その後、ホスト3の制御部3a内のCPU30における歪み補正機能によって、上述した撮影画像の歪み補正処理と同様に、RAMに格納された現在のパン及びチルト角度の情報とハードディスク39に格納されるシフトデータとに基づいて、撮影画像の歪み補正処理を行い、撮影画像をハードディスク39内に記憶する。
【0111】
以上のように、第2実施形態に係る監視カメラシステム1Aでは、ホスト3において、透明カバー20aの光学パワーが撮像機能部CMに対して不均一であることに起因して生じる撮影画像の歪みを補正する。その結果、透明カバーを設け、かつ広範囲の領域を撮影可能としつつ、歪みのない撮影画像を取得可能な撮像システム(ここでは、監視カメラシステム1A)を提供することができる。
【0112】
<3.その他>
以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
【0113】
◎例えば、上述した実施形態では、撮影画像における境界ラインSL1,SL2を直線とみなして撮影画像の歪み補正処理を行ったが、これに限られるものではなく、例えば、ズームレンズ41が広角レンズである場合等には、境界ラインSL1,SL2の湾曲度合いが大きくなる傾向となるため、このような場合は、シフトデータを1画素毎にシフト量及びシフト角度等を求めることができるようなデータとし、1画素毎に画像をシフトさせるような処理を行うことにより、より精度の高い撮影画像の歪み補正を行うことができる。
【0114】
◎また、上述した実施形態では、パンやチルトによって撮影領域に境界ラインSL1,SL2が含まれることとなったが、例えば、ズームレンズ41が広角レンズである場合等には、パンやチルトをさせることなくして撮影領域に境界ラインSL1,SL2が含まれる可能性もある。このような場合にも、上述した撮影画像の歪み補正処理を適用することで、歪みのない撮影画像を取得することができる。
【0115】
◎また、上述した実施形態では、シフトデータは、パン及びチルト角度と撮影画像の歪みとを関連付けたものであったが、ズームレンズ41によるズーム動作が絡むと、撮影倍率の変化に伴って、パン及びチルト角度と撮影画像の歪みとの関係も変化する。よって、実際には、シフトデータは、パン及びチルト角度、撮影倍率と、撮影画像の歪みとを関連付けたものとし、メインCPU60が、現在のパン及びチルト角度、撮影倍率を検出して、検出された現在のパン及びチルト角度、撮影倍率と、シフトデータとに基づいて、撮影画像の歪み補正処理を行うこととなる。
【0116】
つまり、実際には、記憶部69やハードディスク39が、撮像機能部CMの角度と撮影画像の歪みとを関連づけたシフトデータを記憶し、メインCPU60がズームレンズ41の位置や撮影倍率等のズームに関するパラメータ、及び撮像機能部CMの角度を検出し、歪み補正機能によって、検出された撮像機能部CMの角度、及びズームに関するパラメータと、シフトデータとに基づいて、撮影画像の歪み補正処理を行う。
【0117】
なお、各撮影倍率における各パン及びチルト角度に対する境界ラインSL1,SL2の位置及びシフト量Lは、例えば、上述した実験的な方法にズーム動作を加えることで、検出することができる。そして、パン及びチルト角度P,T、撮影倍率Zと、撮影領域CAに対する境界ラインSL1,SL2の位置との関係に基づいて、距離D、シフト角度θ、シフト量Lを、下式(4)〜(6)に示すように、パン及びチルト角度P,T、撮影倍率Zの関数として定式化することができる。
【0118】
D=f(P,T,Z)・・・(4)
θ=f(P,T,Z)・・・(5)
L=f(P,T,Z)・・・(6)
【0119】
その結果、式(4)〜(6)をパン及びチルト角度、撮影倍率Zと、境界ラインSL1,SL2の位置及びシフト量Lとを関連付けたシフトデータとすることができる。
【0120】
以上のように、ズーム動作も考慮して、撮影画像の歪み補正処理を行うことにより、種々の撮影条件下で、歪みのない撮影画像を取得することができる。
【0121】
【発明の効果】
以上説明したように、請求項1から請求項3に記載の発明によれば、カバーの光学パワーが撮像手段に対して不均一であることに起因して生じる画像の歪みを補正するため、透明カバーを設け、かつ広範囲の領域を撮影可能としつつ、歪みのない撮影画像を取得可能な撮像装置を提供することができる。
【0122】
特に、請求項2に記載の発明によれば、透光性のカバーに対する撮像手段の相対角度が可変とされており、検出された透光性のカバーに対する撮像手段の相対角度の現在値を、予め用意された透光性のカバーに対する撮像手段の相対角度による撮影画像の歪みの相違を反映したデータに適用して、撮影画像の歪み補正を行うため、画像の補正を高速で行うことができる。特に、画像の補正に対して、特殊なセンサやパラメータ等を要しないため、撮像装置の小型化やコスト上昇の抑制を図ることができる。
【0123】
また、請求項3に記載の発明によれば、所定の軸まわりにおける撮像手段の撮影可能な角度範囲が略180度以上となるように、所定の軸まわりに撮像手段を回動させるため、広範囲の領域を撮影することができる。
【0124】
また、請求項4に記載の発明によれば、撮像手段に対して、カバーの光学パワーが不均一であることに起因して生じる画像の歪みを補正するため、透明カバーを設け、かつ広範囲の領域を撮影可能としつつ、歪みのない撮影画像を取得可能な撮像システムを提供することができる。
【0125】
また、請求項5に記載の発明によれば、請求項1から請求項4に記載の発明による効果と同様な効果を得ることができる。
【図面の簡単な説明】
【図1】第1実施形態に係る監視カメラシステム1の構成を示す概念図である。
【図2】監視カメラ2の外観を例示する正面図である。
【図3】監視カメラ2の外観を例示する側面図である。
【図4】監視カメラ2の外観を例示する上面図である。
【図5】監視カメラ2の機能構成を示すブロック図である。
【図6】監視カメラ2におけるチルトの回動範囲について説明するための図である。
【図7】監視カメラ2におけるパンの回動範囲について説明するための図である。
【図8】透明カバーにおける成形抜き勾配について説明するための図である。
【図9】歪みの生じた撮影画像を例示する図である。
【図10】撮影画像の歪みを説明するための図である。
【図11】歪み補正後の撮影画像を例示する図である。
【図12】パン及びチルト角度と撮影画像の歪みとの関係を例示する図である。
【図13】パン及びチルト角度と撮影画像の歪みとの関係を説明するための図である。
【図14】第2実施形態に係る監視カメラシステムの機能構成を示すブロック図である。
【符号の説明】
1,1A 監視カメラシステム
2,2A 監視カメラ(撮像装置)
3 ホストコンピュータ(画像処理装置)
3a 制御部(歪み補正手段)
6 メインコントロール部(歪み補正手段)
20a 透明カバー(カバー)
39 ハードディスク(記憶手段)
60 メインCPU(検出手段)
69 記憶部(記憶手段)
CM 撮像機能部(撮像手段)
SS 首振り機構(駆動手段)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device having a transparent cover.
[0002]
[Prior art]
Surveillance cameras are installed in various places, such as outdoors, which are susceptible to dust, dust, and rainwater. In such a surveillance camera, a transparent cover is generally provided so that dust, moisture, and the like do not directly adhere to a lens, a precision device, or the like. Further, there is a camera equipped with a so-called swing mechanism that can change a shooting direction, such as panning and tilting, so that a wide area can be shot (for example, Non-Patent Documents 1 and 2).
[0003]
As described above, in the surveillance camera having the transparent cover and the swing mechanism, the lens performance of the transparent cover with respect to the imaging unit when the pan or tilt or the like is rotated so that the captured image is not distorted. It is preferable that the shape of the transparent cover be spherical so that the optical power is constant (the optical power is uniform).
[0004]
Prior art documents relating to such a technique include the following.
[0005]
[Non-patent document 1]
"Remote Moving CCD Camera" Round View "(MC-2000) Catalog", Keyence Corporation, June 2001
[Non-patent document 2]
"Network camera", [online], Matsushita Electric Industrial Co., Ltd., [searched on March 6, 2003], Internet <URL: http: // panasonic. biz / netsys / netwkcam / index. html>
[0006]
[Problems to be solved by the invention]
However, in the surveillance camera described in Non-Patent Document 1, since the shape of the transparent cover is parabolic, the optical power of the transparent cover with respect to the imaging unit is not uniform, and the captured image is likely to be distorted.
[0007]
On the other hand, as in the surveillance camera described in Non-Patent Document 2, it is preferable that the shape of the transparent cover be spherical so that the optical power of the transparent cover with respect to the imaging unit is uniform.
[0008]
However, the transparent cover is generally made of an acrylic resin or the like, and requires a so-called "molding draft" due to molding. Therefore, it is impossible to form a spherical transparent cover in which the degree of isolation of the central angle in a predetermined direction such as the rotation direction of pan and tilt is 180 degrees or more. That is, the optical power of the transparent cover with respect to the imaging unit cannot be made uniform at 180 degrees or more in the direction of rotation of the pan or tilt.
[0009]
Therefore, in order to be able to photograph a wider area, the range of the subject that can be photographed by the imaging unit can be rotated such as pan or tilt so that the range of the direction of rotation such as pan or tilt is 180 degrees or more. If a swing mechanism with a large angle is provided, the captured image will be distorted at the boundary between the portion where the optical power of the transparent cover with respect to the imaging section is uniform and the portion where the optical power is not uniform.
[0010]
Therefore, in the surveillance camera described in Non-Patent Document 2, the swing angle is limited so that the captured image is not distorted due to uneven optical power of the transparent cover with respect to the imaging unit. ing. That is, the range in which the image can be captured by the imaging unit is limited in order to prevent distortion in the captured image.
[0011]
The present invention has been made in view of the above problems, and provides an imaging apparatus, an imaging system, and a program that can obtain a captured image without distortion while providing a transparent cover and enabling imaging of a wide area. With the goal.
[0012]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention according to claim 1 is an imaging apparatus, comprising: an imaging unit configured to acquire an image based on an optical image of a subject; A cover that transmits light from the camera to the imaging unit and that corrects distortion generated in the image due to non-uniformity of optical power of the cover with respect to the imaging unit. It is characterized by.
[0013]
The invention according to claim 2 is the imaging device according to claim 1, wherein a relative angle of the imaging unit with respect to the cover is variable, and the distortion correction unit is configured to correct the distortion due to the relative angle. Storage means for storing image correction data reflecting the difference; detecting means for detecting the current value of the relative angle; and detecting the relative angle when the image is obtained by the imaging means for the image correction. Means for correcting the distortion in the image by applying to the data.
[0014]
The invention according to claim 3 is the imaging apparatus according to claim 1 or 2, further comprising a driving unit that rotates the imaging unit around a predetermined axis, and the imaging unit that is driven by the driving unit. The angle of rotation of the image pickup means around the predetermined axis can be set to about 180 degrees or more by the rotation of.
[0015]
The invention according to claim 4 is an imaging system, comprising: (a) an imaging device; and (b) an image processing device that processes an image obtained by the imaging device. a-1) an imaging unit that acquires an image based on an optical image of a subject; and (a-2) a cover that is arranged to cover the front of the imaging unit and that transmits light from the subject to the imaging unit. And the image processing apparatus further comprises: (b-1) distortion correction means for correcting distortion generated in the image due to non-uniformity of the optical power of the cover with respect to the imaging means. It is characterized by.
[0016]
Further, the invention according to claim 5 is executed by a computer, so that the computer obtains an image obtained by giving light from a subject to an imaging unit through a translucent cover. A program that functions as a unit that corrects distortion generated in the image due to non-uniformity of the optical power of the cover.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0018]
<1. First Embodiment>
<Overview of Surveillance Camera System>
FIG. 1 is a conceptual diagram illustrating a configuration of an imaging system (here, a monitoring camera system) 1 according to a first embodiment of the present invention. The surveillance camera system 1 mainly includes an imaging device (here, a surveillance camera) 2 that can be controlled by remote control, a remote control of the surveillance camera 2, image data transmitted from the surveillance camera 2, and a display 3 b And a host computer (hereinafter abbreviated as “host”) 3 for displaying and recording an image thereon.
[0019]
The surveillance camera 2 includes panning (hereinafter, abbreviated as “pan”), tilting (hereinafter, abbreviated as “tilt”), and zooming (hereinafter, abbreviated as “pan”) in order to cope with a movement or a change in size of the imaging target. , "Zoom"). The control of these operation functions is executed by execution of software (control program) stored in the monitoring camera 2 and remote operation by the host 3.
[0020]
The host 3 has, for example, a configuration similar to a general personal computer or the like, and includes a control unit 3a having a built-in CPU and the like, a display 3b for displaying images, a keyboard 3c and a mouse 3d for receiving various input commands. And an operation unit 3cd.
[0021]
The control unit 3a includes a CPU, a RAM, a ROM, a hard disk, and the like. The hard disk stores software (control program) for realizing remote control of the monitoring camera 2. When the software stored in the hard disk or the like is read by the CPU, a function for controlling the respective units of the host 3 is realized, and a function for remotely operating the monitoring camera 2 is realized.
[0022]
The control unit 3a and the surveillance camera 2 are connected so that various types of data can be transmitted and received. The control unit 3a receives image data acquired by the surveillance camera 2, Various control signals relating to the operation can be transmitted. In the following, a method of connecting the control unit 3a and the monitoring camera 2 so as to be able to transmit and receive data will be described as a wired method, but any method such as a wireless method may be used.
[0023]
In addition, the control unit 3a can receive image data transmitted from the monitoring camera 2, store the image data in the hard disk, and perform control to display an image based on the image data on the display 3b. Further, the control unit 3a includes a mounting unit 3ad to which a storage medium CD can be attached and detached. When the storage medium CD is mounted on the mounting unit 3ad, software stored in the storage medium CD is transferred to a CPU or a hard disk. It is also possible to perform control so that various kinds of data such as image data are stored in the storage medium CD.
[0024]
The operation unit 3cd can remotely control the monitoring camera 2 through the control of the control unit 3a by transmitting signals to the control unit 3a based on various operations of the keyboard 3c and the mouse 3d.
[0025]
<Overview of surveillance cameras>
2 to 4 are schematic views illustrating the appearance of the monitoring camera 2, and FIGS. 2, 3, and 4 correspond to a front view, a side view, and a top view, respectively. In FIGS. 2 to 4, X, Y, and Z orthogonal coordinates are given to clarify the azimuth relationship. Further, an optical axis CL indicating a shooting direction is also shown. The surveillance camera 2 is generally used by fixing a surface (back surface) in the + Y direction to a wall surface or the like.
[0026]
As shown in FIGS. 2 to 4, the surveillance camera 2 mainly includes a housing 20, an imaging unit 40, and a transparent cover 20a attached to the housing 20 so as to cover the imaging unit 40. .
[0027]
The housing 20 stores an electronic circuit and the like including a main CPU (to be described later) 60 and the like that integrally control each unit of the monitoring camera 2. The functional configuration stored inside the housing 20 will be described later in detail.
[0028]
The imaging unit 40 includes an imaging function unit CM including a zoom lens 41 that realizes a zoom operation function, and a swing mechanism that includes a pan mechanism PS for realizing operation functions such as pan and tilt, and a tilt mechanism TS. It has SS. In other words, here, the relative angle of the imaging function unit CM with respect to the transparent cover 20a provided on the front surface of the imaging unit 40 is variable by the swing function SS.
[0029]
Here, the pan mechanism PS and the tilt mechanism TS will be briefly described, but FIG. 2 shows the pan mechanism PS and the tilt mechanism TS in a partially sectional view for easy understanding. . FIG. 2 shows a state in which the zoom lens 41 faces the front (−Y direction) (hereinafter, referred to as a “basic posture state”). Hereinafter, a configuration based on the basic posture state will be described. In addition, the pan and tilt operations will be described.
[0030]
As shown in FIG. 2, the pan mechanism PS includes a motor M1, a motor shaft MP1 of the motor M1, a rectangular frame part PF, and a fixed part FS fixed to the housing 20. , A motor M2, a motor shaft MP2 of the motor M2, and a shaft TP.
[0031]
The motor M1 and the motor M2 are configured by, for example, a stepping motor, and can rotate the motor shafts MP1 and MP2 based on a control pulse from a sub-control unit 50 described later.
[0032]
A motor axis MP2 of the motor M2 is fixed to the imaging function unit CM from the −X direction, and an axis TP having the same axis center as the motor axis MP2 is fixed to the + X direction of the imaging function unit CM. Further, the motor shaft MP2 and the shaft TP are rotatably fitted into a cylindrical hole provided in the frame portion PF, and the motor M2 is connected to the frame portion PF by a member (not shown) not in contact with the motor shaft MP2. Fixed against.
[0033]
The motor shaft MP1 of the motor M1 is fixed to the frame portion PF from the + Z direction, and a portion near the center of the motor shaft MP1 is rotatably fitted into a cylindrical hole provided in the fixed portion FS. I have. Further, a motor M1 is fixed to the housing 20.
[0034]
When the motor M1 rotates the motor shaft MP1, the imaging function unit CM is rotated together with the tilt mechanism TS rotatably mounted on the frame unit PF, and the imaging direction can be freely set in the XY plane. Is realized. On the other hand, when the motor M2 rotates the motor shaft MP2, the imaging function unit CM is rotated with respect to the frame unit PF, and a tilt operation of freely changing the shooting direction in the YZ plane is realized. Further, by rotating both the motor axes MP1 and MP2 by the motors M1 and M2, the photographing direction can be freely changed in a three-dimensional space.
[0035]
Here, the imaging function unit CM performs a panning operation around the center axis of the motor axis MP1 (hereinafter, referred to as “pan center axis”), and the center axis of the motor axis MP2 (hereinafter, “tilt center axis”). ) Is performed. That is, the swing mechanism SS rotates the imaging function unit CM around the predetermined pan center axis and tilt center axis. Further, the pan center axis and the tilt center axis have an intersection (hereinafter, referred to as “pan / tilt center point”).
[0036]
The pan and tilt rotation angles based on the basic posture state are determined by the number of control pulses (hereinafter referred to as “pan control pulse number”) for the pan operation from the sub-control unit 50 described below and the tilt operation. By controlling the number of control pulses (hereinafter, referred to as the "number of tilt control pulses").
[0037]
Further, a pan rotation end detection switch SWp is provided at a portion where the motor shaft MP1 contacts the fixed portion FS, and a tilt rotation end detection switch SWt is provided at a portion where the motor shaft MP2 contacts the frame portion PF.
[0038]
When the motor shaft MP1 rotates to the end of the pan operable range, the pan rotation end detection switch SWp makes contact between the protrusion provided on the motor shaft MP1 and the protrusion provided on the fixed portion FS. Then, the main CPU 60 is configured to output a signal indicating that it has rotated to the end of the panable range. Similarly, when the motor shaft MP2 rotates to the end of the range in which the tilt operation can be performed, the tilt rotation end detection switch SWt is provided with a protrusion provided on the motor shaft MP2 and a protrusion provided on the frame portion PF. And outputs a signal to the main CPU 60 indicating that the main CPU 60 has been rotated to the end of the tiltable range.
[0039]
The transparent cover 20a is disposed so as to cover the front of the imaging unit 40 including the imaging function unit CM in order to protect the imaging unit 40 from dust, dust, rainwater, and the like. It is composed of a transparent material or the like. That is, the transparent cover 20a is translucent so as to transmit light from the subject, and the light from the subject transmitted through the transparent cover 20a is given to the zoom lens 41 of the imaging function unit CM. The transparent cover 20a is handled in the same manner as a so-called optical component or the like that does not cause scratches or irregular reflection on the surface so as not to affect the optical characteristics of the imaging unit 40.
[0040]
As shown in FIGS. 2 to 4, the shape of the transparent cover 20a has a portion having a substantially hemispherical shape (hereinafter, referred to as “substantially hemispherical portion”) 20ab and a substantially semicylindrical shape. A portion (hereinafter, referred to as a “semi-cylindrical portion”) 20at has a combined shape.
[0041]
Here, paying attention to the substantially hemispherical portion 20ab, since the transparent cover 20a is made of acrylic resin or the like, it has a so-called "molding draft" in terms of molding.
[0042]
In general, when a transparent cover having a shape close to a hemispherical shape is formed, a draft angle of about several degrees is required. Therefore, the substantially hemispherical portion 20ab is a portion having a spherical shape (hereinafter, referred to as a portion having a spherical shape). A "spherical portion") and a portion having a conical shape with a draft angle (hereinafter, referred to as a "conical portion"). That is, the lens characteristic (optical power) of the transparent cover 20a with respect to the imaging function unit CM can be made uniform only about about 170 degrees with respect to the pan or tilt rotation direction.
[0043]
Therefore, in the transparent cover 20a, since a spherical portion having uniform optical power to the imaging function unit CM and a conical surface portion having non-uniform optical power exist, the captured image is distorted due to the rotation angle of pan and tilt. Occurs. The distortion generated in the captured image is corrected by an image calculation unit 63 in the main control unit 6 described later. The molding draft in the transparent cover 20a and the correction of the distortion of the photographed image caused by the molding draft will be described later in detail.
[0044]
Further, as shown in FIG. 4, a communication terminal 25 and the like are provided on the upper surface (the surface in the + Z direction) of the housing 20. The communication terminal 25 is for connecting to the host 3 via a wired LAN cable or the like so that data can be transmitted and received.
[0045]
<Functional configuration of surveillance camera>
FIG. 5 is a block diagram illustrating a functional configuration of the monitoring camera system 1 mainly including the monitoring camera 2. In the figure, thin arrows indicate flows of electric signals such as control signals and audio signals, and thick arrows indicate flows of image signals (image data).
[0046]
As shown in FIG. 5, the surveillance camera 2 mainly includes an imaging unit 40, a sub-control unit 50 that controls pan / tilt / zoom operation functions of the imaging unit 40, and a main control unit that entirely controls the surveillance camera 2. The control unit 6 is provided.
[0047]
In the imaging unit 40, an optical image of a scene relating to a subject to be monitored is formed on the imaging surface of the CCD 42 through the zoom lens 41, converted into electric charges in the CCD 42, and accumulated. Then, the CCD 42 outputs the accumulated charge as a charge signal (image signal). Further, the CCD 42 has an electronic shutter function, and controls the charge accumulation time (exposure time) by this function.
[0048]
The timing generator (TG) 44 generates a control signal for the CCD 42 and an analog front end (AFE) 43 described below under the control of the main CPU 60, and performs respective controls. For example, the TG 44 controls the electronic shutter function of the CCD 42 to control the charge accumulation time.
[0049]
An image signal output from the CCD 42 is converted into a digital signal (digital image) by an analog front end (AFE) 43 including a CDS (correlated double sampling device), an analog amplifier (AGC), and an A / D converter (ADC). ) And transmitted to the main CPU 60 in the main control section 6. In the AFE 43, an analog image signal output from the CCD 42 is sampled by the CDS based on the sampling signal from the TG 44, subjected to desired amplification by the AGC, and converted into a digital image signal (photographed image) by the ADC. .
[0050]
The pan operation and the tilt operation of the imaging function unit CM in the imaging unit 40 are realized by driving the motors M1 and M2 by the above-described pan mechanism PS and tilt mechanism TS, respectively. The zoom operation of the zoom lens 41 is performed by an impact actuator (IMP) 46. Since the lens driving in the zoom operation is performed in a plurality of stages, the photoreflector (PR) 45 is used as a sensor for detecting the position of the lens.
[0051]
The imaging function unit CM includes a zoom lens 41, a CCD 42, an AFE 43, a TG 44, a PR 45, and an IMP 46, and functions as a unit that acquires a captured image based on an optical image of a subject. In other words, the imaging function unit CM obtains a captured image by being provided with light from a subject through the translucent transparent cover 20a.
[0052]
The sub-control unit 50 controls various driving of the imaging unit 40 and controls driving of the motors M1 and M2 and the IMP 46. Each of the motors M1 and M2 is provided with an encoder, and the sub-control unit 50 is electrically connected to the motors M1 and M2. Then, the motors M1 and M2 rotate according to control pulses input from the sub-control unit 50 to the encoder. The encoder can detect the rotation of the motors M1 and M2, and the sub-control unit 50 controls the rotation of the motors M1 and M2 while checking the signal transmitted from the encoder.
[0053]
Further, since the sub-control unit 50 is connected to the main CPU 60 so as to be able to transmit and receive data, the main CPU 60 manages control pulses for rotating the motors M1 and M2 via the sub-control unit 50, so that imaging can be performed. The degree to which the functional unit CM has panned and tilted, that is, the pan rotation angle (hereinafter, referred to as “pan angle”) of the imaging function unit CM from the basic posture state and the tilt rotation angle (hereinafter, “tilt”) Angle). That is, the main CPU 60 detects the pan and tilt angles that are the rotation angles of the imaging function unit CM. In other words, the main CPU 60 included in the main control unit 6 detects the current value of the relative angle of the imaging function unit CM with respect to the transparent cover 20a.
[0054]
The main control section 6 is for overall control of the entire monitoring camera 2 and mainly includes a main CPU 60, a memory 64, a LAN controller 65, and a storage section 69.
[0055]
The memory 64 temporarily stores various data when the main CPU 60 performs various data processing.
[0056]
The storage unit 69 includes, for example, a non-volatile storage medium such as a ROM and a hard disk, and stores a control program for controlling the operation of the surveillance camera 2 and a process of correcting distortion generated in a captured image.
[0057]
Further, the storage unit 69 stores shift data (also referred to as “image correction data”) used when performing a later-described distortion correction process of a captured image. This shift data will be described later in detail.
[0058]
The LAN controller 65 is for controlling data transmission and reception between the host 3 and the like via the communication terminal 25 and a wired LAN cable and the like, and is connected to the main CPU 60 and the host 3 via the LAN controller 65 and the like. Data transmission and reception are performed between.
[0059]
The main CPU 60 controls each unit in the monitoring camera 2 such as the memory 64, the LAN controller 65, the AFE 43 and the TG 44 of the imaging unit 40, and the sub control unit 50. Then, as shown in FIG. 5, the main CPU 60 reads the control program stored in the storage unit 69, thereby realizing the image generation unit 61, the main controller 62, and the image calculation unit 63 as its functions. Can be.
[0060]
The main CPU 60 receives the image data (captured image) output from the imaging unit 40. This image data is RAW data having no color information or the like, and cannot be reproduced as a proper image as it is. Therefore, the image generation unit 61 performs data conversion and image processing to generate color image data.
[0061]
Specifically, the RAW data input to the main CPU 60 is once taken into the memory 64. Then, the image generation unit 61 sequentially performs white balance (WB) correction, conversion of the RAW data into RGB color image data (RAW-RGB conversion), γ correction, RGB-YCbCr matrix conversion, and the like on the RAW data. , RAW data is converted into general-purpose color image data.
[0062]
The image calculation unit 63 performs, for the color image data generated by the image generation unit 61, processing such as edge enhancement processing, image compression, and distortion correction of a captured image generated due to a draft angle in the transparent cover 20a. It has a function to perform. Here, if necessary, after the RAW data is converted into the color image data by the image generation unit 61, the distortion correction processing of the captured image is performed based on the shift data stored in the storage unit 69. That is, the main control unit 6 corrects the distortion generated in the captured image by the internal image calculation unit 63 due to the non-uniformity of the optical power of the transparent cover 20a with respect to the imaging function unit CM. The function (distortion correction function) of executing the distortion correction processing of the captured image in the image calculation unit 63 will be described later.
[0063]
The main controller 62 performs overall control of each unit in the monitoring camera 2.
[0064]
Further, the main CPU 60 can compress the photographed image on which the distortion correction processing has been performed by the image calculation unit 63 and transfer the photographed image (image data) to the host 3 via the LAN controller 65 or the like.
[0065]
Further, the main CPU 60 is connected to be able to receive signals from the pan rotation end detection switch SWp and the tilt rotation end detection switch SWt.
[0066]
When the main CPU 60 receives a signal indicating that the pan has been rotated from the pan rotation end detection switch SWp to the end of the pan operable range, the main CPU 60 determines the number of pan control pulses at that time and sets a predetermined pan operation. From the appropriate range (angle), the number of pan control pulses in the basic posture state (hereinafter, referred to as “basic pan control pulse number”) can be detected. Similarly, when the main CPU 60 receives a signal indicating that the tilt has been rotated from the tilt rotation end detection switch SWt to the end of the tilt operable range, the main CPU 60 sets the tilt control pulse number at that time and the preset number of tilt control pulses. The number of tilt control pulses in the basic posture state (hereinafter, referred to as “basic tilt control pulse number”) can be detected from the range (angle) in which the tilt operation is possible.
[0067]
The number of basic pan control pulses and the number of basic tilt control pulses using the pan and tilt rotation end detection switches SWp and SWt are detected, for example, every time the power of the monitoring camera 2 is turned on or at a predetermined time. , The rotation can be performed once each time to the end of the range in which the pan and tilt operations can be performed.
[0068]
The main CPU 60 manages the pan and tilt control pulses input from the sub-control unit 50 on the basis of the number of basic pan control pulses and the number of basic tilt control pulses detected in this manner, thereby changing the basic posture state. The reference pan angle and tilt angle can be detected.
[0069]
Further, the main CPU 60 can detect a photographing magnification and the like by acquiring information on drive control of the zoom lens 41 from the sub control unit 50.
[0070]
<Pan / tilt operation of the surveillance camera and shooting range>
6 and 7 are diagrams for explaining the tilt and pan rotation ranges in the monitoring camera 2. FIG. Here, as shown in FIG. 6, the tilt angle for rotating the imaging function unit CM so that the imaging direction changes upward with respect to the basic posture state is set to +, and the imaging function unit CM is changed so as to change downward. Is-.
[0071]
Further, as shown in FIG. 7, the panning angle for rotating the imaging function unit CM is set to + so that the imaging direction changes to the right with respect to the basic posture state, and the imaging function unit CM is set to change to the left. The pan angle to be rotated is set to-. Further, FIG. 7 also shows information on the angle of view of the imaging function unit CM when the imaging magnification is minimum.
[0072]
FIG. 6 schematically shows a case where the imaging function unit CM is rotated to the end of a range in which the imaging function unit CM can be tilted in the vertical direction. The case where the imaging function unit CM is rotated to the end of the range in which the pan operation is possible is schematically illustrated.
[0073]
Here, as shown in FIG. 6, the imaging function unit CM can be rotated upward (+ direction) by 20 degrees and downward (-direction) by 70 degrees based on the basic posture state. Since the angle of view of the imaging function unit CM in the tilt direction is 52.8 degrees, the imaging function unit CM is directed upward from the imaging direction (here, the front direction) in the basic posture state around the tilt center axis. It is possible to photograph a subject existing at a position of about 46.4 degrees and about 96.4 degrees downward. That is, the image capturing function unit CM can capture an image of a subject existing at a position 90 degrees or more downward from the front direction viewed from the image capturing function unit CM in the tilt rotation direction. That is, the range of the subject that can be photographed by the imaging function unit CM is equal to or more than 90 degrees downward from the front in the tilt rotation direction.
[0074]
Further, as shown in FIG. 7, the imaging function unit CM can be rotated rightward (+ direction) by 70 degrees and leftward (-direction) by 70 degrees with reference to the basic posture state. Then, since the angle of view of the imaging function unit CM in the pan direction is 67 degrees, the imaging function unit CM is about 103.5 rightward from the imaging direction (front direction) in the basic posture state about the pan center axis. It is possible to photograph a subject existing at a position about 103.5 degrees leftward. That is, the image capturing function unit CM can capture an image of a subject existing at a position 90 degrees or more leftward and rightward from the front as viewed from the image capturing function unit CM with respect to the pan rotation direction. That is, the range of the subject that can be photographed by the imaging function unit CM is 90 degrees or more from the front to the left and right from the front in the pan rotation direction.
[0075]
In other words, the swing mechanism SS including the pan mechanism PS causes the range of the subject that can be photographed by the imaging function unit CM to be approximately 180 degrees or more with respect to the pan rotation direction that is the predetermined rotation direction. The imaging function unit CM is driven in the pan direction around the pan center axis. That is, by the rotation of the imaging function unit CM by the swing mechanism SS, the angle range in which the imaging function unit CM can shoot around the predetermined pan center axis is set to about 180 degrees or more.
[0076]
<Clearing draft of transparent cover and distortion of captured image>
FIG. 8 is a schematic cross-sectional view showing the transparent cover 20a and a part of the imaging unit 40 for explaining the draft angle in the transparent cover 20a. Here, a state in which the imaging function unit CM is rotated rightward from the basic posture state to the end of the range in which the pan operation is possible is shown.
[0077]
As shown in FIG. 8, the substantially hemispherical portion 20ab is divided into a spherical portion 20S located in the −Y direction and a conical surface portion 20C located in the + Y direction, which is a molded draft, at the boundary 20f. Is provided.
[0078]
The spherical portion 20S has a spherical shape and a constant thickness having the same center point as the pan / tilt center point so that the optical power is constant even when the imaging function unit CM performs the pan and tilt operations. Have. The conical surface portion 20C is a portion corresponding to a so-called forming draft extending in a tangential direction of an end portion of the spherical portion 20S, and has a conical shape and a constant thickness. That is, the transparent cover 20a includes the spherical portion 20S where the optical power is uniform with respect to the imaging function unit CM, and the conical surface portion 20C where the optical power is non-uniform. That is, the transparent cover 20a has nonuniform optical power with respect to the imaging function unit CM.
[0079]
As shown in FIG. 8, the imaging function unit CM includes a zoom lens 41 and a CCD. Then, as shown in FIG. 8, for example, at the position where the panning operation is performed by +70 degrees from the basic posture state, the range within the angle of view of the imaging function unit CM, that is, the range of the subject captured as a captured image (photographing range) Includes a boundary 20f. That is, at the end of the pan operable range, an image based on light from a subject that passes near the boundary 20f is included in the captured image.
[0080]
As described above, when a boundary 20f is included in the imaging range of the imaging function unit CM, light from the subject transmitted through the spherical portion 20S and light from the subject transmitted through the conical surface portion 20C are both portions. Due to the difference in the optical power, light from the originally adjacent subject is shifted and formed on the image forming surface of the CCD 42, and is converted into an image signal. As a result, the captured image G obtained as shown in FIG. 9 is displaced with the portion SA corresponding to the boundary 20f as a boundary, and becomes a distorted captured image G.
[0081]
As described above, since the captured image is distorted due to the effect of the portion where the optical power of the transparent cover 20a is not uniform with respect to the imaging function unit CM, the distortion correction processing of the captured image is performed by the image calculation unit 63 here. Hereinafter, the distortion correction processing of a captured image will be described.
[0082]
<Distortion correction processing of captured image>
Hereinafter, a method of correcting the distortion of the captured image by the image calculation unit 63 will be described.
[0083]
FIG. 10 is a diagram for explaining the distortion of the captured image G shown in FIG. As shown in FIG. 10, the captured image G transmits through the conical surface portion 20C with respect to a region (hereinafter, referred to as “non-shift region”) GS corresponding to light from the subject that has transmitted through the spherical portion 20S. The area (hereinafter, referred to as “shift area”) SA corresponding to the light from the subject is shifted by a distance L (hereinafter, referred to as “shift amount”). In FIG. 10, among the lines corresponding to the boundary 20f, the line on the non-shift area GS side (hereinafter, referred to as “boundary line”) SL1 and the line on the shift area SA side (hereinafter, referred to as “boundary line”). SL2.
[0084]
Here, the boundary lines SL1 and SL2 are slightly curved when the angle of view is extremely wide, but when the angle of view is not extremely wide as in the present embodiment, the boundary lines SL1 and SL2 are It can be regarded as an almost straight line. Therefore, here, only by shifting the shift area SA in reverse with respect to the non-shift area GS by a fixed amount of shift amount L, the captured image Gm without distortion as shown in FIG. A distortion correction process can be performed. As described above, by regarding the boundary lines SL1 and SL2 as straight lines, the calculation in the data processing can be simplified, and the distortion correction processing of the captured image can be facilitated and speeded up.
[0085]
Although the positions of the boundary lines SL1 and SL2 and the shift amount L change due to the change in the pan and tilt angles of the imaging function unit CM, the positional relationship between the imaging function unit CM and the transparent cover 20a is uniquely determined by design. , Pan and tilt angles, the positions of the boundary lines SL1 and SL2, and the shift amount L are also uniquely determined.
[0086]
Therefore, here, the relationship between the pan and tilt angles and the positions and shift amounts L of the boundary lines SL1 and SL2 is determined in advance by a method such as an experimental method or a simulation, and the pan and tilt angles and the boundary lines SL1 and SL2 are determined. The shift data in which the position and the shift amount L are associated with each other is stored in the storage unit 69 in advance. That is, the shift data in which the pan and tilt angles are associated with the information on the distortion of the captured image is stored in the storage unit 69 in advance. In other words, the storage unit 69 stores data in which the angle of the imaging function unit CM indicating the imaging direction and the distortion of the captured image are associated. That is, the storage unit 69 stores image correction data reflecting a difference in distortion of a captured image due to a relative angle of the imaging function unit CM with respect to the transparent cover 20a.
[0087]
Here, the shift data will be described.
[0088]
First, a method of obtaining the relationship between the pan and tilt angles, the positions of the boundary lines SL1 and SL2, and the shift amount L will be briefly described. Since the monitoring camera 2 has a zoom function, the relationship between the pan and tilt angles, the positions of the boundary lines SL1 and SL2, and the shift amount L also changes by changing the shooting magnification. For the sake of simplicity, the description will be made on the assumption that the photographing magnification does not change.
[0089]
The relationship between the pan and tilt angles, the positions of the boundary lines SL1 and SL2, and the shift amount L is determined, for example, by assembling the surveillance camera 2 as shown in FIGS. A spherical reference object (reference object) having the same center as the tilt center is installed. Lines (meridians and latitude lines) indicating longitude and latitude at equal intervals are attached to the inner surface of the reference object. In this state, the reference object is photographed while the imaging function unit CM of the monitoring camera 2 is sequentially panned and tilted at predetermined angular intervals. Then, the obtained captured image is analyzed by an external image analysis device or the like, and based on the position of the distortion of the meridian and the latitude line in the captured image, the positions of the boundary lines SL1 and SL2 and the shift amount L with respect to each pan and tilt angle are determined. Can be detected.
[0090]
As a result, as shown in FIG. 12, the relationship between the pan and tilt angles, the positions of the boundary lines SL1 and SL2 with respect to the captured image (photographing area) CA, and the shift amount L can be obtained. Here, as shown in FIG. 12, when the absolute values of the pan and tilt angles increase, the boundary lines SL1 and SL2 are included in the photographing area CA.
[0091]
It should be noted that the detection of the positions of the boundary lines SL1 and SL2 and the shift amount L with respect to each of the pan and tilt angles is performed for a considerable number of monitoring cameras 2 and averaged, thereby obtaining the pan and tilt angles obtained. In addition, the accuracy of the relationship between the positions of the boundary lines SL1 and SL2 with respect to the photographing area CA and the shift amount L can be increased. Further, as shown in FIG. 12, instead of detecting the positions of the boundary lines SL1 and SL2 and the shift amount L with respect to the pan and tilt angles at intervals of 10 degrees, the angle may be detected at smaller intervals.
[0092]
In addition, not only the above-described experimental method using the surveillance camera 2 as a completed product but also a method using a computer simulation based on the design of the surveillance camera 2, similarly, the pan and tilt angles and the photographing area CA With respect to the positions of the boundary lines SL1 and SL2 and the shift amount L.
[0093]
Next, the association between the pan and tilt angles, the positions of the boundary lines SL1 and SL2, and the shift amount L will be described.
[0094]
FIG. 13 is a diagram for explaining the relationship between the pan angle P and the tilt angle T, and the distortion of the photographed image (the positions of the boundary lines SL1 and SL2 with respect to the photographing area CA, and the shift amount L). FIG. 13 shows the positions of the boundary lines SL1 and SL2, the non-shift area GS, and the shift area SA with respect to the imaging area CA, and the shift amount L.
[0095]
Here, the positions of the boundary lines SL1 and SL2 with respect to the photographing area CA are angles (hereinafter, referred to as “shift angles”) θ indicating the directions of the boundary lines SL1 and SL2, and the center point C of the photographing area CA. 0 It can be defined by the distance D between the boundary lines SL1 and SL2 and the shift amount L. Note that the shift angle θ is the center point C 0 Is the angle formed by the perpendicular to the boundary line SL1 and the horizontal direction of the captured image.
[0096]
Then, based on the relationship between the pan and tilt angles P and T detected as shown in FIG. 12 and the positions of the boundary lines SL1 and SL2 with respect to the photographing area CA and the shift amount L, the distance D, the shift angle θ, and the shift amount L can be formulated as a function of pan and tilt angles P and T, as shown in equations (1)-(3) below.
[0097]
D = f 1 (P, T) (1)
θ = f 2 (P, T) (2)
L = f 3 (P, T) (3)
[0098]
As a result, here, the equations (1) to (3) can be used as shift data in which the pan and tilt angles are associated with the positions of the boundary lines SL1 and SL2 and the shift amount L.
[0099]
Here, the main control unit 6 stores the current angle (here, pan and tilt angles) of the imaging function unit CM detected by the main CPU 60 by the internal image calculation unit 63 and the storage unit 69. As described above, the shift area SA is shifted in the reverse direction by the shift amount L with respect to the non-shift area GS based on the shift data to correct the distortion of the captured image. That is, the main control unit 6 applies the detection value of the relative angle of the imaging function unit CM to the transparent cover 20a detected by the main CPU 60 when the captured image is acquired by the imaging function unit CM to the shift data, and Has the function of correcting the distortion in.
[0100]
Specifically, first, information on the current pan and tilt angles input from the sub-control unit 50 to the main CPU 60 is stored in the memory 64. Then, the image calculation unit 63 calculates the distance D, the shift amount L, and the shift angle θ based on the current pan and tilt angle information stored in the memory 64 and the shift data, and recognizes the shift area SA. Further, the image calculation unit 63 performs a distortion correction process of shifting the shift area SA with respect to the captured image based on the obtained shift area SA, shift amount L, and shift angle θ, and stores the generated captured image in a memory. 64.
[0101]
When the absolute value of the pan / tilt angle is small, as shown in FIG. 12, no distortion occurs in the captured image, and the shift data does not store the shift amount L or the like corresponding to the pan / tilt angle. . Therefore, in such a case, the distortion correction processing of the captured image by the image calculation unit 63 is not performed.
[0102]
As described above, in the surveillance camera 2 according to the present embodiment, the image calculation unit 63 in the main control unit 6 causes the optical power of the transparent cover 20a to be uneven with respect to the imaging function unit CM. The resulting distortion of the captured image is corrected. As a result, it is possible to provide an imaging apparatus which can obtain a captured image without distortion while providing a transparent cover and enabling imaging of a wide area.
[0103]
Further, the shift data in which the pan and tilt angles of the imaging function unit CM and the distortion generated in the captured image are associated is stored in the storage unit 69, and the main CPU 60 detects and detects the pan and tilt angles of the imaging function unit CM. Based on the angle and the shift data, the distortion generated in the captured image is corrected. That is, the relative angle of the imaging function unit CM with respect to the transparent cover 20a is variable, and the detected current value of the relative angle of the imaging function unit CM with respect to the transparent cover 20a is applied to shift data prepared in advance. Performs distortion correction on the captured image. That is, since the correction processing of the captured image is performed based on the shift data prepared in advance, the distortion correction processing of the captured image can be performed at high speed. In particular, since special sensors, parameters, and the like are not required for correcting the distortion of a captured image, it is possible to reduce the size of the imaging device and suppress an increase in cost.
[0104]
Further, the imaging function unit CM is rotated such that the range of the subject that can be photographed by the imaging function unit CM is substantially 180 degrees or more with respect to the pan rotation direction which is the predetermined rotation direction. That is, the imaging function unit CM is rotated around the predetermined pan center axis so that the angle range in which the imaging function unit CM can shoot around the predetermined pan center axis is approximately 180 degrees or more. As a result, it is possible to acquire a captured image without distortion and without discomfort while securing a wide imaging range of 180 degrees or more in a predetermined rotation direction such as pan and tilt. That is, a wide area can be photographed, and a photographed image without distortion can be obtained by the above-described photographed image distortion correction processing.
[0105]
<2. Second Embodiment>
In the surveillance camera system 1 according to the first embodiment described above, the distortion correction processing of the captured image is performed in the surveillance camera 2, but in the surveillance camera system 1A according to the second embodiment, the distortion of the captured image is Without performing the correction, the host computer 3 performs the distortion correction of the captured image.
[0106]
FIG. 14 is a block diagram illustrating a functional configuration of the monitoring camera system 1A according to the second embodiment. In the surveillance camera system 1A, the shift data stored in the storage unit 69 of the surveillance camera system 1 is stored in the hard disk 39 in the host computer (host) 3, and the shift data is stored in the image calculation unit 63 of the main CPU 60 of the surveillance camera system 1. The realized distortion correction function is realized by the CPU 30 in the control unit 3a reading a control program stored in the hard disk 39. That is, here, the host 3 functions as a device that processes the captured image obtained by the surveillance camera 2A, and performs image capturing due to the non-uniformity of the optical power of the transparent cover 20a with respect to the image capturing function unit CM. A means for correcting distortion occurring in the image;
[0107]
The main difference between the surveillance camera system 1 according to the first embodiment and the surveillance camera system 1A according to the second embodiment is that distortion correction processing of a captured image is not performed in the surveillance camera. In FIG. 14, the image calculation unit 63 is shown with a different sign from the image calculation unit 63A, and the surveillance camera 2 is shown with a different sign from the surveillance camera 2A. However, for the other parts, the stored data, programs, and controls are only slightly different, and the functions and configurations are almost the same. Therefore, the same reference numerals are given, and the description is omitted except for the slightly different points. I do.
[0108]
The main CPU 60 transfers the captured image to the host 3 via the LAN controller 65 or the like without performing the distortion correction processing in the image calculation unit 63A. At this time, the main CPU 60 also transfers the current pan and tilt angle information input to the main CPU 60 from the sub control unit 50 to the host 3 via the LAN controller 65 and the like.
[0109]
Then, a photographed image and information of the pan and tilt angles are temporarily stored in a RAM (not shown) in the control unit 3a of the host 3.
[0110]
After that, the information of the current pan and tilt angles stored in the RAM and the shift stored in the hard disk 39 are performed by the distortion correction function of the CPU 30 in the control unit 3a of the host 3 in the same manner as the above-described distortion correction processing of the captured image. Based on the data, the captured image is subjected to distortion correction processing, and the captured image is stored in the hard disk 39.
[0111]
As described above, in the monitoring camera system 1A according to the second embodiment, the distortion of the captured image caused by the optical power of the transparent cover 20a being non-uniform with respect to the imaging function unit CM in the host 3 is reduced. to correct. As a result, it is possible to provide an imaging system (here, surveillance camera system 1A) capable of obtaining a captured image without distortion while providing a transparent cover and enabling imaging of a wide area.
[0112]
<3. Others>
The embodiments of the present invention have been described above, but the present invention is not limited to the above-described contents.
[0113]
For example, in the above-described embodiment, the distortion correction processing of the captured image is performed by regarding the boundary lines SL1 and SL2 in the captured image as straight lines. However, the present invention is not limited to this. For example, the zoom lens 41 may be a wide-angle lens. In some cases, the degree of curvature of the boundary lines SL1 and SL2 tends to be large. In such a case, the shift data is set to data for which the shift amount and the shift angle can be obtained for each pixel. By performing a process of shifting an image for each pixel, it is possible to perform more accurate distortion correction of a captured image.
[0114]
In the above-described embodiment, the boundary lines SL1 and SL2 are included in the shooting area due to panning and tilting. However, for example, when the zoom lens 41 is a wide-angle lens, panning or tilting is performed. The boundary lines SL1 and SL2 may be included in the shooting region without the need. Even in such a case, by applying the above-described captured image distortion correction processing, a captured image without distortion can be obtained.
[0115]
In the above-described embodiment, the shift data is obtained by associating the pan and tilt angles with the distortion of the captured image. However, when the zoom operation by the zoom lens 41 is involved, the shift data is The relationship between the pan and tilt angles and the distortion of the captured image also changes. Therefore, in practice, the shift data is assumed to be associated with the pan and tilt angles and the photographing magnification and the distortion of the photographed image, and the main CPU 60 detects and detects the current pan and tilt angles and the photographing magnification. Based on the current pan and tilt angles, the photographing magnification, and the shift data, distortion correction processing of the photographed image is performed.
[0116]
That is, in practice, the storage unit 69 and the hard disk 39 store shift data in which the angle of the imaging function unit CM and the distortion of the captured image are associated with each other, and the main CPU 60 determines the position of the zoom lens 41 and the zoom such as the imaging magnification. The parameters and the angle of the imaging function unit CM are detected, and the distortion correction function performs a distortion correction process on the captured image based on the detected angle and zoom parameters of the imaging function unit CM and the shift data.
[0117]
Note that the positions and shift amounts L of the boundary lines SL1 and SL2 with respect to each pan and tilt angle at each shooting magnification can be detected by, for example, adding a zoom operation to the above-described experimental method. Then, based on the relationship between the pan and tilt angles P and T, the photographing magnification Z, and the positions of the boundary lines SL1 and SL2 with respect to the photographing area CA, the distance D, the shift angle θ, and the shift amount L are calculated by the following equation (4). As shown in (6), it can be formulated as a function of the pan and tilt angles P and T and the shooting magnification Z.
[0118]
D = f 4 (P, T, Z) (4)
θ = f 5 (P, T, Z) (5)
L = f 6 (P, T, Z) (6)
[0119]
As a result, Expressions (4) to (6) can be used as shift data in which the pan and tilt angles, the imaging magnification Z, the positions of the boundary lines SL1 and SL2, and the shift amount L are associated.
[0120]
As described above, by performing distortion correction processing of a captured image in consideration of a zoom operation, a captured image without distortion can be obtained under various imaging conditions.
[0121]
【The invention's effect】
As described above, according to the first to third aspects of the present invention, the image distortion caused by the non-uniform optical power of the cover with respect to the imaging means is corrected, so that the cover is transparent. It is possible to provide an imaging device capable of acquiring a shot image without distortion while providing a cover and enabling shooting of a wide area.
[0122]
In particular, according to the second aspect of the present invention, the relative angle of the imaging unit with respect to the translucent cover is variable, and the detected current value of the relative angle of the imaging unit with respect to the translucent cover is determined by: The distortion correction of the photographed image is performed by applying to the data reflecting the difference in the distortion of the photographed image due to the relative angle of the imaging unit with respect to the light-transmitting cover prepared in advance, so that the image can be corrected at high speed. . In particular, since special sensors and parameters are not required for image correction, it is possible to reduce the size of the imaging apparatus and suppress an increase in cost.
[0123]
According to the third aspect of the present invention, since the imaging unit is rotated around the predetermined axis so that the angle range in which the imaging unit can shoot around the predetermined axis is approximately 180 degrees or more, a wide range is provided. Area can be photographed.
[0124]
According to the fourth aspect of the present invention, a transparent cover is provided for the image pickup means in order to correct image distortion caused by non-uniform optical power of the cover. It is possible to provide an imaging system capable of acquiring a shot image without distortion while enabling shooting of an area.
[0125]
According to the fifth aspect of the invention, the same effects as the effects of the first to fourth aspects of the invention can be obtained.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram illustrating a configuration of a monitoring camera system 1 according to a first embodiment.
FIG. 2 is a front view illustrating the appearance of the monitoring camera 2.
FIG. 3 is a side view illustrating the appearance of the monitoring camera 2.
FIG. 4 is a top view illustrating the appearance of the monitoring camera 2.
FIG. 5 is a block diagram showing a functional configuration of the monitoring camera 2.
FIG. 6 is a diagram for explaining a tilt rotation range of the monitoring camera 2.
FIG. 7 is a diagram for explaining a pan rotation range of the monitoring camera 2.
FIG. 8 is a diagram for describing a draft angle in a transparent cover.
FIG. 9 is a diagram illustrating a captured image in which distortion has occurred.
FIG. 10 is a diagram for explaining distortion of a captured image.
FIG. 11 is a diagram illustrating a captured image after distortion correction.
FIG. 12 is a diagram illustrating a relationship between pan and tilt angles and distortion of a captured image.
FIG. 13 is a diagram for explaining the relationship between pan and tilt angles and distortion of a captured image.
FIG. 14 is a block diagram illustrating a functional configuration of a surveillance camera system according to a second embodiment.
[Explanation of symbols]
1,1A surveillance camera system
2,2A surveillance camera (imaging device)
3. Host computer (image processing device)
3a control unit (distortion correcting means)
6. Main control section (distortion correction means)
20a Transparent cover (cover)
39 Hard disk (storage means)
60 main CPU (detection means)
69 storage unit (storage means)
CM imaging function unit (imaging means)
SS swing mechanism (drive means)

Claims (5)

撮像装置であって、
被写体の光学像に基づいて画像を取得する撮像手段と、
前記撮像手段の前方を覆って配置され、前記被写体からの光を透過させて前記撮像手段に与えるカバーと、
前記撮像手段に対して前記カバーが有する光学パワーの不均一性に起因して前記画像に生じる歪みを補正する歪み補正手段と、
を備えることを特徴とする撮像装置。
An imaging device,
Imaging means for acquiring an image based on an optical image of a subject;
A cover that is arranged to cover the front of the imaging unit and transmits the light from the subject to give to the imaging unit;
Distortion correction means for correcting distortion occurring in the image due to non-uniformity of the optical power of the cover with respect to the imaging means,
An imaging device comprising:
請求項1に記載の撮像装置であって、
前記カバーに対する前記撮像手段の相対角度が可変とされており、
前記歪み補正手段が、
前記相対角度による前記歪みの相違を反映した画像補正用データを記憶する記憶手段と、
前記相対角度の現在値を検出する検出手段と、
前記撮像手段によって前記画像を得た際の前記相対角度の検出値を前記画像補正用データに適用して前記画像における前記歪みを補正する手段と、
を備えることを特徴とする撮像装置。
The imaging device according to claim 1,
The relative angle of the imaging unit with respect to the cover is variable,
The distortion correction means,
Storage means for storing image correction data reflecting the difference in the distortion due to the relative angle,
Detecting means for detecting a current value of the relative angle;
Means for correcting the distortion in the image by applying the detected value of the relative angle when the image is obtained by the imaging means to the image correction data,
An imaging device comprising:
請求項1又は請求項2に記載の撮像装置であって、
所定の軸まわりに前記撮像手段を回動させる駆動手段、
をさらに備え、
前記駆動手段による前記撮像手段の回動によって、前記所定の軸まわりにおける前記撮像手段の撮影可能な角度範囲が略180度以上とされていることを特徴とする撮像装置。
The imaging device according to claim 1 or 2, wherein:
A driving unit for rotating the imaging unit around a predetermined axis,
Further comprising
An image pickup apparatus, characterized in that the rotation of the image pickup means by the drive means sets an angle range around the predetermined axis at which the image pickup means can take an image of about 180 degrees or more.
撮像システムであって、
(a) 撮像装置と、
(b) 前記撮像装置によって得られた画像の処理を行う画像処理装置と、
を備え、
前記撮像装置が、
(a−1) 被写体の光学像に基づいて画像を取得する撮像手段と、
(a−2) 前記撮像手段の前方を覆って配置され、前記被写体からの光を透過させて前記撮像手段に与えるカバーと、
を有するとともに、
前記画像処理装置が、
(b−1) 前記撮像手段に対して前記カバーが有する光学パワーの不均一性に起因して前記画像に生じる歪みを補正する歪み補正手段、
を備えることを特徴とする撮像システム。
An imaging system,
(A) an imaging device;
(B) an image processing device for processing an image obtained by the imaging device;
With
The imaging device,
(A-1) imaging means for acquiring an image based on an optical image of a subject;
(A-2) a cover that is arranged to cover the front of the imaging unit and transmits the light from the subject to the imaging unit;
With
The image processing device,
(B-1) distortion correcting means for correcting distortion occurring in the image due to non-uniformity of the optical power of the cover with respect to the imaging means;
An imaging system comprising:
コンピュータによって実行されることにより、前記コンピュータを、
被写体からの光を透光性のカバーを介して撮像手段に与えることによって得た画像について、前記撮像手段に対して前記カバーが有する光学パワーの不均一性に起因して前記画像に生じた歪みを補正する手段、
として機能させるプログラム。
When executed by a computer, the computer
For an image obtained by applying light from a subject to an imaging unit through a translucent cover, distortion generated in the image due to non-uniformity of optical power of the cover with respect to the imaging unit Means for correcting
A program to function as
JP2003112819A 2003-04-17 2003-04-17 Imaging device, imaging system, and program Pending JP2004320526A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003112819A JP2004320526A (en) 2003-04-17 2003-04-17 Imaging device, imaging system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003112819A JP2004320526A (en) 2003-04-17 2003-04-17 Imaging device, imaging system, and program

Publications (1)

Publication Number Publication Date
JP2004320526A true JP2004320526A (en) 2004-11-11

Family

ID=33472925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003112819A Pending JP2004320526A (en) 2003-04-17 2003-04-17 Imaging device, imaging system, and program

Country Status (1)

Country Link
JP (1) JP2004320526A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010029727A1 (en) * 2008-09-09 2010-03-18 パナソニック株式会社 Dome camera
EP2605063A1 (en) * 2010-10-08 2013-06-19 Panasonic Corporation Dome-type camera and aperture control method
JP2015163866A (en) * 2014-01-31 2015-09-10 株式会社リコー Stereocamera calibration method, parallax calculation device and stereocamera
JP2016024393A (en) * 2014-07-23 2016-02-08 キヤノン株式会社 Imaging apparatus and image processing method thereof, and program
WO2016151945A1 (en) * 2015-03-26 2016-09-29 富士フイルム株式会社 Dome cover, camera device, injection molding die, and injection molding method
WO2016157607A1 (en) * 2015-03-27 2016-10-06 富士フイルム株式会社 Camera device, image processing device, and image processing method
JP2019132855A (en) * 2014-01-31 2019-08-08 株式会社リコー Stereo camera calibration method, parallax calculation device, and stereo camera

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010029727A1 (en) * 2008-09-09 2010-03-18 パナソニック株式会社 Dome camera
JP5165762B2 (en) * 2008-09-09 2013-03-21 パナソニック株式会社 Dome camera
US8582024B2 (en) 2008-09-09 2013-11-12 Panasonic Corporation Dome camera
EP2605063A1 (en) * 2010-10-08 2013-06-19 Panasonic Corporation Dome-type camera and aperture control method
EP2605063A4 (en) * 2010-10-08 2013-09-25 Panasonic Corp Dome-type camera and aperture control method
US9014549B2 (en) 2010-10-08 2015-04-21 Panasonic Intellectual Property Management Co., Ltd. Dome-type camera and aperture control method
JP2015163866A (en) * 2014-01-31 2015-09-10 株式会社リコー Stereocamera calibration method, parallax calculation device and stereocamera
JP2019132855A (en) * 2014-01-31 2019-08-08 株式会社リコー Stereo camera calibration method, parallax calculation device, and stereo camera
US10165163B2 (en) 2014-07-23 2018-12-25 Canon Kabushiki Kaisha Image pickup apparatus including mechanism for attaching and detaching transparent cover, image processing method thereof, and storage medium
JP2016024393A (en) * 2014-07-23 2016-02-08 キヤノン株式会社 Imaging apparatus and image processing method thereof, and program
US10897589B2 (en) 2014-07-23 2021-01-19 Canon Kabushiki Kaisha Image pickup apparatus including mechanism for attaching and detaching transparent cover, image processing method thereof, and storage medium
JPWO2016151945A1 (en) * 2015-03-26 2018-03-08 富士フイルム株式会社 Dome cover, camera device, injection mold, and injection molding method
WO2016151945A1 (en) * 2015-03-26 2016-09-29 富士フイルム株式会社 Dome cover, camera device, injection molding die, and injection molding method
US10401715B2 (en) 2015-03-26 2019-09-03 Fujifilm Corporation Dome cover, camera device, injection molding die, and injection molding method
WO2016157607A1 (en) * 2015-03-27 2016-10-06 富士フイルム株式会社 Camera device, image processing device, and image processing method
JPWO2016157607A1 (en) * 2015-03-27 2018-02-15 富士フイルム株式会社 Camera apparatus, image processing apparatus, and image processing method
US10514591B2 (en) 2015-03-27 2019-12-24 Fujifilm Corporation Camera apparatus, image processing device, and image processing method

Similar Documents

Publication Publication Date Title
TWI622293B (en) Method, storage medium and camera system for creating panoramic image
JP5487722B2 (en) Imaging apparatus and shake correction method
US8059185B2 (en) Photographing apparatus, image display method, computer program and storage medium for acquiring a photographed image in a wide range
JP4858263B2 (en) 3D measuring device
WO2014178234A1 (en) Image processing device, image processing method and program
US20120243746A1 (en) Image processor, image processing method, and program
US20090185028A1 (en) Camera apparatus and image recording/reproducing method
CN102307279A (en) Imaging apparatus, data extraction method, and data extraction program
JP2016118701A (en) Imaging device and control method thereof
JPH0313074A (en) Picture processing system
JP5935694B2 (en) Moving image distribution system and moving image distribution method
US20050206736A1 (en) Automatic angle adjusting system
JP6868787B2 (en) Imaging device, image shake correction method
JP2010258669A (en) Omnidirectional imaging apparatus
US8712231B2 (en) Camera body, and camera system
JP2004320526A (en) Imaging device, imaging system, and program
KR20090015251A (en) Camera module having image sensor
JP2015194587A (en) Image data processing device, image data processing method, image distortion response processing device, and image distortion response processing method
JP2012194487A (en) Imaging device, imaging method and program
KR100836618B1 (en) Portable terminal having rotary camera and method for photographing panorama image of portable terminal
JP7150456B2 (en) IMAGING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD OF INFORMATION PROCESSING DEVICE, AND PROGRAM
JP2007049266A (en) Picture imaging apparatus
JP2004135208A (en) Video shooting apparatus and method
JP2007267063A (en) Imaging apparatus
JP5126701B2 (en) Imaging device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613