JP2005101905A - Image pickup device - Google Patents

Image pickup device Download PDF

Info

Publication number
JP2005101905A
JP2005101905A JP2003333029A JP2003333029A JP2005101905A JP 2005101905 A JP2005101905 A JP 2005101905A JP 2003333029 A JP2003333029 A JP 2003333029A JP 2003333029 A JP2003333029 A JP 2003333029A JP 2005101905 A JP2005101905 A JP 2005101905A
Authority
JP
Japan
Prior art keywords
image
processor
visual axis
rotation
photoelectric conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003333029A
Other languages
Japanese (ja)
Other versions
JP4134869B2 (en
Inventor
Hiroshi Mizuno
寛 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2003333029A priority Critical patent/JP4134869B2/en
Publication of JP2005101905A publication Critical patent/JP2005101905A/en
Application granted granted Critical
Publication of JP4134869B2 publication Critical patent/JP4134869B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that an optical component prevents the realization of the miniaturization, the power-saving, and the cost reduction of a device, since the exclusive optical component is conventionally incorporated into a scanning image pickup device capable of changing the photographing direction by rotating a part of an optical system in order to cancel the rotation of an image by reversely rotating the image, because the image formed on the surface of a photoelectric transducer is rotated due to a secondary effect caused when a part of the optical system is rotated for changing the photographing direction. <P>SOLUTION: A two-dimensional element with pixels arranged in plane is used as the photoelectric transducer. The image rotation amount on the photoelectric transducer is obtained by calculation after detecting the rotation amount of the optical system. After that, the image subjected to the image rotation is reversely rotated by signal processing. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、撮像装置に関し、特に、光学系を作動して撮影方向を変化させて広い領域を撮影できると共に、光電変換素子の欠陥画素や特性ばらつきを有する画素の校正機能を備えた撮像装置に関するものである。   The present invention relates to an imaging apparatus, and more particularly, to an imaging apparatus that can shoot a wide area by changing an imaging direction by operating an optical system and has a calibration function for defective pixels of a photoelectric conversion element and pixels having characteristic variations. Is.

監視システムにはいろいろな形態があるが、中には、周期的にカメラの撮影方向を移動させることで広い領域を画像化し、この画像からあらかじめ設定された特徴を持つ目標を自動的に検出し、警報を発するようなものがある。
このような監視システムのカメラ(撮像装置)では、撮像装置全体を動かすことで撮影方向を移動させるものもあるが、撮像装置を目立たせたくない等の事情により光学系の一部分だけを外部に露出させ、この部分を回転させることで撮像方向を変えるものもある(例えば、特許文献1参照。)。
There are various types of surveillance systems, but some of them are imaged over a wide area by periodically moving the shooting direction of the camera, and targets with preset characteristics are automatically detected from these images. , There is something like an alarm.
Some cameras (imaging devices) of such a monitoring system move the imaging direction by moving the entire imaging device, but only a part of the optical system is exposed to the outside due to circumstances such as making the imaging device unnoticeable. In some cases, the imaging direction is changed by rotating this portion (see, for example, Patent Document 1).

特開平6−261240号公報(実施例1、第1図)JP-A-6-261240 (Example 1, FIG. 1)

このような広域撮影用撮像装置の光電変換素子としては、画素を線状に並べた、いわゆるラインセンサと呼ばれるものを用いることがある。すなわち、撮影方向(視軸)の移動によってセンサ上に結像した像が流れることをうまく利用し、コピー機と同様の方法で一気に横長の広い領域を画像化するのである。   As a photoelectric conversion element of such a wide-area image pickup device, a so-called line sensor in which pixels are arranged in a line may be used. In other words, it takes advantage of the fact that the image formed on the sensor by the movement of the shooting direction (visual axis) flows, and images a wide horizontally wide area at a stretch in the same way as a copier.

ここで、像はラインセンサに直交する方向に流されなければならないが、像の流れる方向は視軸の移動方向によってまちまちであり、そのままでは像の流れがラインセンサにちょうど直交する保証はない。また、光学系の一部を回転させることで撮影方向を変えるような構造の場合、視軸の移動による副次的効果として結像された像が回転してしまい、像の動きは並進運動と回転運動が合成された複雑な動きになってしまう。
そこで、像の回転に対して意図的な逆回転を施し、像が常にラインセンサに直交して流れるようにコントロールする必要がある。これは特許文献1、第1図、符号46の補正回転フレームのような部品で行っている。
Here, the image must flow in a direction orthogonal to the line sensor, but the direction in which the image flows varies depending on the direction of movement of the visual axis, and there is no guarantee that the image flow will be exactly orthogonal to the line sensor. In addition, in the case of a structure that changes the shooting direction by rotating a part of the optical system, the image formed as a secondary effect due to the movement of the visual axis rotates, and the movement of the image is a translational movement. Rotational motion becomes a complex motion synthesized.
Therefore, it is necessary to control the image so that the image always flows orthogonally to the line sensor by intentionally reversely rotating the image. This is done with components such as the corrected rotating frame of Patent Document 1, FIG.

一方、光電変換素子にはラインセンサ以外に、画素を面状に並べた、いわゆるエリアセンサと呼ばれるものもあり、監視システムの撮像装置でも、これを用いているものもある。
この場合、得られる画像の単位は エリアセンサの画角に相当する縦横比1:1あるいは3:4の画像であり、この画像単位で目標検出処理を行うのが一般的である。
このような画像を撮影しながら連続的に撮影方向を移動させていく場合、移動による画像流れを抑えるため露光時間を短くする必要があるが、撮像対象が暗い場合は感度が稼げず不利となる。
On the other hand, in addition to the line sensor, there is a photoelectric conversion element called a so-called area sensor in which pixels are arranged in a plane, and some imaging devices of a monitoring system also use this.
In this case, the unit of the obtained image is an image having an aspect ratio of 1: 1 or 3: 4 corresponding to the angle of view of the area sensor, and the target detection process is generally performed in units of this image.
When continuously moving the shooting direction while shooting such an image, it is necessary to shorten the exposure time in order to suppress the image flow due to the movement. However, if the imaging target is dark, the sensitivity cannot be gained, which is disadvantageous. .

また、このような撮像装置としては、NTSCあるいはPAL規格のビデオ信号を出力するカメラが用いられることが多いが、フレームレートが30〜60Hzとなるような画像に対してリアルタイムに目標検出処理を行うとなると、処理の内容を計算量の少ない簡易なものとするか、ハードウェア規模を大きくする必要がある。   Also, as such an imaging apparatus, a camera that outputs an NTSC or PAL standard video signal is often used, but target detection processing is performed in real time on an image having a frame rate of 30 to 60 Hz. Then, it is necessary to simplify the processing contents with a small amount of calculation or increase the hardware scale.

そこで、撮影方向を画角幅でステップ状に移動させ、撮影時には移動を止めて撮影することで、広い監視領域をタイル状に分割して撮影する方法もある。このようにすれば、フレームレートを下げることができ、それによって精緻な目標検出処理を用いることができるし、フレーム積分等を行えば実質上の光電荷蓄積時間を増やせるため、感度も向上する。
しかし、視軸の移動時間が監視におけるブラインドタイムとなり、ちょうど撮影領域の境目を走査方向に正対する形で横切るようなタイミングで移動する目標を見逃す可能性が増大すると共に、加減速を繰り返す視軸移動時間にかなりの時間がかかるために効率が悪く、捜索周期が長くなる傾向がある。
In view of this, there is also a method in which a wide monitoring area is divided into tiles and shot by moving the shooting direction stepwise with the angle of view and stopping the movement during shooting. In this way, the frame rate can be lowered, thereby making it possible to use precise target detection processing, and by performing frame integration or the like, the substantial photocharge accumulation time can be increased, so that the sensitivity is also improved.
However, the movement time of the visual axis becomes a blind time in monitoring, and the possibility of missing a target that moves at a timing that just crosses the boundary of the imaging area in the form of facing the scanning direction increases, and the visual axis repeats acceleration and deceleration. Since it takes a considerable amount of time to travel, the efficiency is poor and the search cycle tends to be long.

いずれの場合も光学系の全部あるいは一部を回転させれば像が回転してしまうが、エリアセンサを用いるのであれば像を得る上では特に問題はなく、回転した状態としての画像を得ることができる。
しかし、例えば監視領域をタイル状に撮影する場合には、隣接する画像を連続的に接続させるために像回転補償が必要であり、やはり光学的に像回転を補償する機構を有していた。
In any case, if all or part of the optical system is rotated, the image will be rotated. However, if an area sensor is used, there is no particular problem in obtaining an image, and an image as a rotated state can be obtained. Can do.
However, for example, when the monitoring area is photographed in a tile shape, image rotation compensation is necessary to continuously connect adjacent images, and a mechanism for optically compensating for the image rotation is also provided.

すでに述べたような理由から、一部の広域監視用撮像装置ではラインセンサを用いて一気に監視領域を画像化した方が都合が良いのだが、従来の撮像装置では像回転を補償するための光学部品について、以下の問題を伴っていた。
第1に、光学的像回転補償部品はプリズムやミラーから成る比較的大型の部品であるため、装置全体の小型化阻害要因になるとともに、これを駆動するために消費電力も増加する。また、大型のプリズムは高価であり、装置のコストの大きな部分を占めている。
第2に、光学的像回転補償部品をできるだけ小さくするためには、部品近辺で光束を絞る必要が生じ、これが光学系の設計自由度を束縛する。これは小型化阻害要因となるばかりか、開口径を制限するなどして感度劣化要因ともなる。
第3に、光学的像回転補償部品を小型化するには、これをプリズムで構成するのが効果的なのだが、プリズムでは透過率が低下する。特に赤外線では これが著しい。
For the reasons already mentioned, it is more convenient to image the monitoring area at once by using a line sensor in some wide-area monitoring imaging devices, but in conventional imaging devices, optics for compensating for image rotation The parts had the following problems.
First, since the optical image rotation compensation component is a relatively large component composed of a prism or a mirror, it becomes an obstacle to downsizing of the entire apparatus, and power consumption is also increased to drive the component. Large prisms are expensive and occupy a large part of the cost of the apparatus.
Second, in order to make the optical image rotation compensation component as small as possible, it is necessary to focus the light beam in the vicinity of the component, which restricts the degree of freedom in designing the optical system. This is not only a factor for inhibiting downsizing, but also a factor for deteriorating sensitivity by limiting the aperture diameter.
Thirdly, in order to reduce the size of the optical image rotation compensation component, it is effective to form the optical image rotation compensation component with a prism, but the transmittance decreases with the prism. This is especially true in the infrared.

また、ラインセンサの一部の画素に欠陥が生じると撮影した画像上に線状の不感領域を生じ、これは監視対象が微小目標の場合に目標を見逃す原因となり、監視装置としては致命的問題となる。
このような欠陥画素はエリアセンサにおいても同様に問題となり、特にエリアセンサについては欠陥画素が不感領域となる問題以外に、欠陥が例えば輝点となって、誤った目標として認識されてしまうこともある。
In addition, when a defect occurs in some pixels of the line sensor, a linear insensitive area is formed on the captured image, which causes the target to be overlooked when the monitoring target is a minute target, which is a fatal problem as a monitoring device. It becomes.
Such a defective pixel is also a problem in the area sensor. Especially, in the area sensor, in addition to the problem that the defective pixel becomes an insensitive area, the defect may be recognized as an incorrect target, for example, as a bright spot. is there.

さらに、赤外線用の光電変換素子には感度むらや欠陥画素が多いため校正が重要であり、光学系の途中にシャッターのような均一面を挿入できるようにして校正する必要がある。
しかし、シャッターを装置内部に設置することは小型化阻害要因となり、シャッターのような校正手段を持たなければ感度が劣化することになるという問題があった。
また、特に赤外線撮像装置においては光電変換素子の特性変動が著しく、動作中、頻繁に校正が必要となる場合があるが、校正中は撮影が中断するため、監視におけるブラインドタイムになるという問題もあった。
Furthermore, calibration is important because infrared photoelectric conversion elements have many uneven sensitivity and defective pixels, and it is necessary to calibrate so that a uniform surface such as a shutter can be inserted in the middle of the optical system.
However, the installation of the shutter inside the apparatus is an obstacle to downsizing, and there is a problem that the sensitivity is deteriorated if a calibration means such as a shutter is not provided.
In particular, in infrared imaging devices, the photoelectric conversion element characteristics fluctuate significantly, and calibration may be required frequently during operation. However, since shooting is interrupted during calibration, there is a problem of blind time in monitoring. there were.

この発明は、係る問題を解決するためになされたものであり、光学系の一部を動かすことで撮影方向を変化させ、これによって広い領域を捜索するための撮像装置において光学的像回転補償部品を不要とし、以って小型化・省電力化・高感度化を達成するとと共に、光電変換素子を校正するための専用部品も不要であり、校正によって撮影を中断しない撮像装置を得ることを目的とする。   The present invention has been made to solve such a problem, and an optical image rotation compensation component in an imaging apparatus for searching a wide area by changing a shooting direction by moving a part of an optical system. The purpose is to obtain an image pickup device that does not interrupt shooting by calibration because it achieves miniaturization, power saving, and high sensitivity, and does not require dedicated parts for calibrating photoelectric conversion elements. And

この発明に係る撮像装置は、光電変換を行う2次元の光電変換素子(エリアセンサ)と、光電変換素子上に像を結像させる光学装置と、光学装置の一部あるいは全体を移動させることにより、撮影方向を変化させる視軸駆動装置と、視軸駆動装置による視軸駆動量を検出するための視軸方向センサと、視軸駆動装置を制御するとともに、視軸方向センサで検出される視軸駆動量から光学装置によって結像される画像の回転量または移動量を算出する視軸制御装置と、光電変換素子によって電子化された画像に対し、視軸制御装置によって計算される画像回転量分だけ画像を逆回転させる画像回転処理器と、画像回転処理器によって得られる画像を、視軸制御装置によって計算される画像の移動量に基づいて画像を移動させながらフレーム積分するフレーム積分処理器とを備え、撮影方向の移動によって発生する光電変換素子面上に結像する画像の回転を、検出された視軸駆動量に基づいて電子的に補正する様にしたものである。   An imaging apparatus according to the present invention includes a two-dimensional photoelectric conversion element (area sensor) that performs photoelectric conversion, an optical apparatus that forms an image on the photoelectric conversion element, and a part or the whole of the optical apparatus by moving the optical apparatus. A visual axis driving device for changing the photographing direction, a visual axis direction sensor for detecting a visual axis driving amount by the visual axis driving device, and a visual axis detected by the visual axis direction sensor while controlling the visual axis driving device. A visual axis control device that calculates the amount of rotation or movement of the image formed by the optical device from the axis drive amount, and an image rotation amount calculated by the visual axis control device for an image digitized by the photoelectric conversion element Frame integration while moving the image based on the amount of movement of the image calculated by the visual axis control device. A frame integration processor that electronically corrects the rotation of the image formed on the photoelectric conversion element surface caused by movement in the shooting direction based on the detected visual axis drive amount. is there.

この発明によれば、画像を回転させる光学部品を必要としないため、装置の小型化・省電力化・コスト低減に効果がある。また、校正のための専用部品を必要とせず、さらに撮影を中断することなく校正を行うことができる。   According to the present invention, there is no need for an optical component for rotating an image, which is effective for downsizing, power saving, and cost reduction of the apparatus. In addition, calibration can be performed without the need for dedicated parts for calibration and without interruption of photographing.

実施の形態1.
以下、図を用いてこの発明に係る実施の形態1について説明する。
図1は、この発明の実施の形態1を示す構成図であり、一例として航空機に搭載する捜索装置の撮像装置部分を簡単に説明したものである。
Embodiment 1 FIG.
Embodiment 1 according to the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing Embodiment 1 of the present invention. As an example, an imaging device portion of a search device mounted on an aircraft is simply described.

入射光1は光学装置2の開口部から入射し、光学装置2の構成品であるミラー3で折り曲げられて光電変換素子4に結像する。
光電変換素子4の素子出力は素子出力補正処理器5に入力され、あらかじめ設定された素子補正データ記憶器6に従い、各画素のゲイン、直流成分ばらつきが補正されるとともに、欠陥画素の出力信号については隣接する正常画素の信号で置きかえる等の補正処理が施され、原画像信号となる。
なお、このような補正処理は、光電変換素子の特性によっては不要な場合もある。
Incident light 1 enters from the opening of the optical device 2, is bent by a mirror 3 that is a component of the optical device 2, and forms an image on the photoelectric conversion element 4.
The element output of the photoelectric conversion element 4 is input to the element output correction processor 5, and the gain and DC component variation of each pixel are corrected according to the preset element correction data storage 6, and the output signal of the defective pixel is also corrected. Is subjected to correction processing such as replacement with a signal of an adjacent normal pixel, and becomes an original image signal.
Note that such correction processing may be unnecessary depending on the characteristics of the photoelectric conversion element.

ELフレーム7は撮影方向(視軸)を上下に振る(駆動する)ための動作ユニットであり、EL回転中心8を中心にして光学装置2の一部(図1ではすべての事例を示す)を回転させることができる。
視軸駆動装置(EL)9がこれを駆動し、視軸駆動量は、例えば駆動角度情報として視軸方向センサ(EL)10によって測定される。
ここで、ミラー3をELフレーム7の駆動角度の1/2だけ駆動するように調整すると、ELフレーム7が上下に回転しても入射光1は常に光電変換素子4上に結像する。
AZフレーム11は視軸を左右に振るための動作ユニットであり、AZ回転中心12を中心に回転させることができる。
視軸駆動装置(AZ)13がこれを駆動し、視軸駆動量は、例えば駆動角度情報として視軸方向センサ(AZ)14によって測定される。
ELフレーム7、視軸駆動装置(EL)9、視軸方向センサ(EL)10は、すべてAZフレーム11に含まれている。
The EL frame 7 is an operation unit for swinging (driving) the imaging direction (visual axis) up and down, and a part of the optical device 2 (all examples are shown in FIG. 1) around the EL rotation center 8. Can be rotated.
The visual axis drive device (EL) 9 drives this, and the visual axis drive amount is measured by the visual axis direction sensor (EL) 10 as drive angle information, for example.
Here, if the mirror 3 is adjusted so as to be driven by a half of the driving angle of the EL frame 7, the incident light 1 always forms an image on the photoelectric conversion element 4 even if the EL frame 7 rotates up and down.
The AZ frame 11 is an operation unit for swinging the visual axis to the left and right, and can be rotated around the AZ rotation center 12.
The visual axis driving device (AZ) 13 drives this, and the visual axis driving amount is measured by the visual axis direction sensor (AZ) 14 as driving angle information, for example.
The EL frame 7, the visual axis drive device (EL) 9, and the visual axis direction sensor (EL) 10 are all included in the AZ frame 11.

実施の形態1では撮像装置が航空機に搭載されているため、航空機の姿勢変化により撮像装置の姿勢も慣性空間に対して変動する。そこで、視軸制御装置15は姿勢センサ16によって得られた撮像装置の姿勢・方位角に基づき、慣性空間に対して予め設定された一定の角速度で視軸が走査されるように視軸駆動装置(EL)9、視軸駆動装置(AZ)13を制御する。   In Embodiment 1, since the imaging apparatus is mounted on an aircraft, the attitude of the imaging apparatus also varies with respect to the inertial space due to a change in the attitude of the aircraft. Therefore, the visual axis control device 15 is based on the posture / azimuth angle of the imaging device obtained by the posture sensor 16 so that the visual axis is scanned at a predetermined angular velocity with respect to the inertial space. (EL) 9, the visual axis drive device (AZ) 13 is controlled.

図1のような構成の場合、AZ回転については撮影方向の左右移動に伴って画像が回転してしまうものの、EL回転については撮影方向を上下に移動させても画像回転が起こらない。これは、図1では図をわかりやすくするために光学装置2を1枚のレンズとミラーから成るシンプルな構成としたからであるが、実際の光学装置は複数のミラーとレンズが混在した複雑なものとなるため、EL回転でも画像が回転してしまう。   In the case of the configuration as shown in FIG. 1, although the image is rotated with the left-right movement of the shooting direction in the AZ rotation, the image rotation does not occur even if the shooting direction is moved up and down in the EL rotation. This is because in FIG. 1 the optical device 2 has a simple configuration consisting of a single lens and a mirror in order to make the drawing easier to understand, but the actual optical device has a complicated structure in which a plurality of mirrors and lenses are mixed. Therefore, the image is rotated even by EL rotation.

図2は、上記の機構によって光電変換素子4上に結像される像を説明するものである。ここでは縦横をわかりやすくするために、光電変換素子4は縦の画素数に比べて横の画素数が多いタイプの2次元素子とし、横長の矩形として描いた。   FIG. 2 illustrates an image formed on the photoelectric conversion element 4 by the above mechanism. Here, in order to make the vertical and horizontal directions easy to understand, the photoelectric conversion element 4 is a two-dimensional element having a larger number of horizontal pixels than the vertical number of pixels, and is drawn as a horizontally long rectangle.

像17は光電変換素子4上に結像された像であり、視軸のAZ回転を行いながら走査している状況を時系列的に図示している。
時刻がt0、t1、t2と進展するに従い、撮影領域の中心がAZ回転方向に移動(すなわち走査)していくが、同時に像が撮影領域の中心回りに回転し、像は並進移動と回転移動の複合的な動きをすることになる。そこで、得られた画像を信号処理により回転変換し、視軸の移動によって副次的に発生した回転移動を打ち消すのである。
An image 17 is an image formed on the photoelectric conversion element 4, and illustrates a situation in which scanning is performed while performing AZ rotation of the visual axis.
As the time progresses to t0, t1, and t2, the center of the imaging area moves (that is, scans) in the AZ rotation direction, but at the same time, the image rotates around the center of the imaging area, and the image translates and rotates. Will be a complex movement. Therefore, the obtained image is rotationally converted by signal processing, and the rotational movement that occurs secondary by the movement of the visual axis is canceled.

具体的には、図1の構成であれば視軸をAZ回りに180°回転すると真後ろの景色が上下逆さまに写るようになり、これはすなわちAZ回転角度と同じだけ像が回転してしまうことを意味する。そこで、視軸方向センサ(AZ)によりAZ回転量を計測し、このAZ回転による像回転方向とは逆方向に計測された角度分だけ画像を回転変換処理すれば、得られる画像は上下方向を保ったままとなるのである。
また、視軸方向を変えなくても、撮像装置を搭載した機体が視軸方向を中心に回転運動すると画像が回転してしまう。例えば、機体前方を撮影中に機体がロールして上下逆さまになれば、得られる画像も上下逆さまになる。これについても、姿勢センサ16によって測定されたロール回転量分だけ画像を逆に回転変換処理すれば、得られる画像の上下は常に維持される。
Specifically, in the configuration of FIG. 1, when the visual axis is rotated 180 ° around AZ, the scene behind the scene appears upside down, which means that the image rotates as much as the AZ rotation angle. Means. Therefore, if the AZ rotation amount is measured by the visual axis direction sensor (AZ), and the image is rotationally converted by an angle measured in the direction opposite to the image rotation direction by the AZ rotation, the obtained image has the vertical direction. It will remain.
Even if the direction of the visual axis is not changed, the image is rotated when the body on which the imaging device is mounted rotates about the visual axis direction. For example, if the aircraft rolls upside down while shooting in front of the aircraft, the resulting image will also be upside down. Also in this case, if the image is reversely converted by the roll rotation amount measured by the attitude sensor 16, the top and bottom of the obtained image are always maintained.

この操作では、視軸がどの方向を向いていても円18で示される視野角内については画像を得ることができる。そこで、円18に内接する矩形である矩形領域A19について、続く時刻に得られた矩形領域B20、矩形領域C21を、走査による平行移動分である走査移動量22だけずらして足しあわせていくことで、積分された像23が得られる。
ところが、現実的な光学装置では歪曲を充分に小さくすることが困難な場合が多いため、各時刻で撮影された像17を回転変換と走査分の平行移動だけで足しあわせようとしても正しく重ならない。そのため、回転変換を行う前に歪曲補正を行っている。
In this operation, an image can be obtained within the viewing angle indicated by the circle 18 regardless of the direction of the visual axis. Therefore, for the rectangular area A19 which is a rectangle inscribed in the circle 18, the rectangular area B20 and the rectangular area C21 obtained at the following time are shifted and added by the scanning movement amount 22 corresponding to the parallel movement by scanning. , An integrated image 23 is obtained.
However, since it is often difficult to reduce distortion sufficiently in a practical optical device, even if an image 17 taken at each time is added only by rotational conversion and parallel movement for scanning, they do not overlap correctly. . For this reason, distortion correction is performed before rotational conversion.

再び、図1に戻り、上記処理を説明する。
原画像信号は歪曲補正処理器24に入力され、事前に測定された歪曲データを記憶する歪曲データ記憶器25によって、画像上の各点における歪曲によるズレが補正される。
続いて、視軸制御装置15は、視軸方向センサ(EL)10によって得られたEL角度情報、及び視軸方向センサ(AZ)14によって得られたAZ角度情報と、姿勢センサ16によって得られた自身の姿勢情報から、光電変換素子4に結像されている像の基準からの回転角度を計算し、この回転角度に(−1)を掛けた値を所要回転量として、これを画像回転処理器26に与える。
Returning to FIG. 1 again, the above process will be described.
The original image signal is input to the distortion correction processor 24, and the distortion due to distortion at each point on the image is corrected by the distortion data storage 25 for storing the distortion data measured in advance.
Subsequently, the visual axis control device 15 is obtained by the attitude sensor 16 and the EL angle information obtained by the visual axis direction sensor (EL) 10 and the AZ angle information obtained by the visual axis direction sensor (AZ) 14. The rotation angle from the reference of the image formed on the photoelectric conversion element 4 is calculated from the attitude information of itself, and a value obtained by multiplying the rotation angle by (-1) is used as the required rotation amount, and this is rotated. This is given to the processor 26.

ここで、基準とは、上記の逆回転を行った後、視軸の移動により画像が流れて行く方向が光電変換素子4の辺方向(実施の形態1においては長辺方向)となるような方向であり、視軸を移動させていく方向(すなわち走査方向)と上記情報から計算で求めることができる。
画像回転処理器26は、光電変換素子4の出力として得られる画像信号に対して信号処理を行い、視軸制御装置15から与えられた角度だけ回転変換を施す。
これによって得られた画像信号はフレーム積分処理器27に入力され、視軸制御装置15が計算して求めた走査移動量分(図2の走査移動量22)だけ画像をずらしながら信号を足しあわせることでフレーム積分が行われる。
Here, the reference is such that the direction in which the image flows by the movement of the visual axis after the reverse rotation is the side direction of the photoelectric conversion element 4 (long side direction in the first embodiment). It is a direction and can be obtained by calculation from the above information and the direction in which the visual axis is moved (that is, the scanning direction).
The image rotation processor 26 performs signal processing on the image signal obtained as the output of the photoelectric conversion element 4 and performs rotation conversion by an angle given from the visual axis control device 15.
The image signal thus obtained is input to the frame integration processor 27, and the signals are added while shifting the image by the scanning movement amount calculated by the visual axis control device 15 (scanning movement amount 22 in FIG. 2). Thus, frame integration is performed.

この実施の形態によれば、像の回転を補償するための光学的部品を用いる必要がなく、装置の小型化、省電力化、コスト低減に繋がる。
また、かかる光学的部品は特に赤外線を用いた撮像装置では透過率を低下させる大きな要因となるが、これがなくなることで透過率が改善され、撮像装置としての感度が向上する。
さらに、かかる光学的部品の近傍において光束を絞る必要がなくなるために設計上の制限条件が低減され、光学装置の最適設計が可能となる。これは感度向上や小型化等にメリットがある。
加えて、エリアセンサを用いながらも広い領域を1枚の画像として生成することができ、フレーム積分の効果として1画素分の信号を得るための光電荷蓄積時間の合計を非常に長くとれることから、さらに高い感度を得ることができる。
さらに、上記の効果に加え、この実施の形態では 最終的に得られる画像における1つの画素の信号が光電変換素子上の複数の画素信号の積分値として求められることから、欠陥画素等によって発生する異常な出力の影響が最終画像における複数の画素に分散することになり、結果的に欠陥画素の影響を小さくすることができる。
According to this embodiment, it is not necessary to use an optical component for compensating for the rotation of the image, which leads to downsizing, power saving, and cost reduction of the apparatus.
In addition, such an optical component is a major factor that lowers the transmittance, particularly in an imaging device using infrared rays. However, when this is eliminated, the transmittance is improved and the sensitivity of the imaging device is improved.
Further, since it is not necessary to focus the light beam in the vicinity of such optical components, the design restriction conditions are reduced, and the optimum design of the optical device becomes possible. This is advantageous in improving sensitivity and downsizing.
In addition, a wide area can be generated as a single image while using the area sensor, and the total photocharge accumulation time for obtaining a signal for one pixel can be very long as an effect of frame integration. Higher sensitivity can be obtained.
Further, in addition to the above effect, in this embodiment, since the signal of one pixel in the finally obtained image is obtained as an integrated value of a plurality of pixel signals on the photoelectric conversion element, it is generated by a defective pixel or the like. The influence of abnormal output is distributed to a plurality of pixels in the final image, and as a result, the influence of defective pixels can be reduced.

図3は、この効果を説明するものである。
画像回転処理前の画像28には、一例として雲の像29が写っており、同時に異常画素による異常信号30も画像上に現れている。
時間が t0、t1、t2 と進展するに従い、雲の像29は視軸の走査やそれに伴って発生する画像回転により複雑に移動するが、異常画素による異常信号30は常に同じ位置に現れる。これはすなわち、画像回転処理後の画像31では異常画素による異常信号30のほうが複雑に動き回ることを意味する。
そのため、景色が正しく重ねあわせられるように処理が施されたフレーム積分処理器の出力画像32では、異常画素による異常信号30の像はボケて、ぼやけた異常信号33のようになる。
すなわち、異常画素による点状の模様が目立たなくなるわけである。
FIG. 3 illustrates this effect.
As an example, a cloud image 29 is shown in the image 28 before the image rotation processing, and an abnormal signal 30 due to abnormal pixels also appears on the image.
As time advances to t0, t1, and t2, the cloud image 29 moves in a complicated manner due to scanning of the visual axis and image rotation that occurs along with it, but the abnormal signal 30 due to abnormal pixels always appears at the same position. This means that, in the image 31 after the image rotation process, the abnormal signal 30 due to the abnormal pixel moves around more complicatedly.
Therefore, in the output image 32 of the frame integration processor that has been processed so that the scenes are correctly superimposed, the image of the abnormal signal 30 due to abnormal pixels is blurred and becomes a blurred abnormal signal 33.
That is, the dot-like pattern due to abnormal pixels is not noticeable.

実施の形態2.
以下、図を用いてこの発明に係る実施の形態2について説明する。
図4は、この発明の実施の形態2を示す構成図であり、実施の形態1に処理を追加したものである。
Embodiment 2. FIG.
The second embodiment according to the present invention will be described below with reference to the drawings.
FIG. 4 is a block diagram showing Embodiment 2 of the present invention, which is obtained by adding processing to Embodiment 1. In FIG.

素子出力補正処理器5の出力は歪曲補正処理器24に入力され、以降 実施の形態1と同様の処理に進むが、同時に上記画像信号を単純フレーム積分処理器34へも入力する。ここで、単純フレーム積分処理器34は上記画像信号に対し回転や移動等の位置的変換を行うことなく直接、フレーム積分する。   The output of the element output correction processor 5 is input to the distortion correction processor 24, and thereafter proceeds to the same processing as in the first embodiment, but simultaneously the image signal is also input to the simple frame integration processor 34. Here, the simple frame integration processor 34 directly performs frame integration on the image signal without performing positional conversion such as rotation and movement.

図5は、上記機構によって得られる画像信号を説明するものであり、図3に図を追加したものである。図3で示したように、フレーム積分処理器の出力画像32では撮影対象の像がはっきりと写り、異常画素によって発生する点状の像は薄まり目立たなくなる。
ところが、逆に位置的な変換を行わずに単純にフレーム積分を行うと、単純フレーム積分処理器の出力画像35に示すように 撮像対象である雲の像29は走査による像の移動や、これに伴って発生する像回転によりぼやけた雲の像36のようにボケてしまうが、異常画素による異常信号30は常に同じ画素で発生するため、積分された異常信号37のように強調されてくっきりした画像(点)となるのである。
FIG. 5 illustrates an image signal obtained by the above mechanism, and is obtained by adding a diagram to FIG. As shown in FIG. 3, in the output image 32 of the frame integration processor, the image of the object to be photographed is clearly shown, and the dot-like image generated by the abnormal pixels becomes thin and inconspicuous.
However, if the frame integration is simply performed without performing the positional conversion, the cloud image 29 to be imaged is moved by scanning, as shown in the output image 35 of the simple frame integration processor. However, since the image signal generated by the image rotation is blurred as in the blurred cloud image 36, the abnormal signal 30 due to the abnormal pixel is always generated in the same pixel, so that it is emphasized and clearly displayed as the integrated abnormal signal 37. The resulting image (point).

再び図4に戻り、上記画像信号に対する処理を説明する。
異常画素検出処理器38は、単純フレーム積分処理器34から渡された補正用画像信号から、1〜2画素程度の孤立輝点/暗点を検出する。これには、検査対象の画素信号と その周辺にある複数の画素信号の平均値とを比較し、あらかじめ設定した一定値以上の差があることをもって孤立輝点/暗点と判断するとか、上記「一定値」を固定値とせず、周辺にある複数の画素信号の標準偏差の一定倍として求めた上でその値を基に判断するなど 複数の方法がある。
Returning to FIG. 4 again, processing for the image signal will be described.
The abnormal pixel detection processor 38 detects an isolated bright spot / dark spot of about 1 to 2 pixels from the correction image signal passed from the simple frame integration processor 34. This can be done by comparing the pixel signal to be inspected with the average value of a plurality of pixel signals around it, and judging that it is an isolated bright spot / dark spot when there is a difference of a predetermined value or more, There are a plurality of methods such as making a determination based on a value obtained by obtaining “fixed value” as a fixed multiple of the standard deviation of a plurality of pixel signals in the vicinity without setting a fixed value.

異常画素検出処理器38は、こうして検出された画素を異常画素と判断し、その画素位置について素子補正データ記憶器6を修正することで、以降は、当該異常画素の信号を周辺の正常画素の信号で置きかえるようにする。ここで、素子補正データ記憶器6を修正するのではなく、専用のデータベースを持ってもよい。
このようにすることで、異常画素を検出、補正することが可能となる。
The abnormal pixel detection processor 38 determines that the pixel thus detected is an abnormal pixel, and corrects the element correction data storage 6 for the pixel position. Replace with a signal. Here, instead of modifying the element correction data storage 6, a dedicated database may be provided.
By doing so, it is possible to detect and correct abnormal pixels.

通常、このような異常画素の検出は、シャッターのような均一面を光路中に挿入するなどして行ってきたが、この実施の形態によればシャッターが不要になるため、装置の小型化・省電力化・コスト低減が可能となる。
また、シャッターを用いた異常画素検出では、シャッターを挿入している時間に撮像対象を撮影できず、これがブラインドタイムとなるが、この実施の形態では撮像しながら同時に異常画素を検出できるため、ブラインドタイムが発生しないというメリットがある。
Normally, detection of such abnormal pixels has been performed by inserting a uniform surface such as a shutter into the optical path. However, according to this embodiment, since the shutter is unnecessary, the size of the apparatus can be reduced. Power saving and cost reduction are possible.
In addition, in the abnormal pixel detection using the shutter, the imaging target cannot be taken at the time when the shutter is inserted, and this is a blind time. However, in this embodiment, abnormal pixels can be detected at the same time while taking an image. There is a merit that time does not occur.

実施の形態3.
以下、図を用いてこの発明に係る実施の形態3について説明する。
図6は、この発明の実施の形態3を示す構成図であり、図4の一部を取り出し、この発明の形態に合わせて変更を加えたものである。光電変換素子4、素子出力補正処理器5、画像回転処理器26については図4とまったく同じである。
オフセット検出処理器39は単純フレーム積分処理器34から補正用画像信号を受け、異常画素検出処理器38の出力として得られた異常画素の位置における信号強度を取得する。
また、同時に原画像信号から上記異常画素の周囲画素の信号強度も得て、周囲画素の平均信号強度と異常画素の信号強度の差を計算する。
Embodiment 3 FIG.
The third embodiment according to the present invention will be described below with reference to the drawings.
FIG. 6 is a block diagram showing Embodiment 3 of the present invention. A part of FIG. 4 is taken out and modified in accordance with the embodiment of the present invention. The photoelectric conversion element 4, the element output correction processor 5, and the image rotation processor 26 are exactly the same as those in FIG.
The offset detection processor 39 receives the correction image signal from the simple frame integration processor 34 and acquires the signal intensity at the position of the abnormal pixel obtained as the output of the abnormal pixel detection processor 38.
At the same time, the signal strength of the surrounding pixels of the abnormal pixel is also obtained from the original image signal, and the difference between the average signal strength of the surrounding pixels and the signal strength of the abnormal pixel is calculated.

通常、新たに発生した異常画素については、その出力が信号の上限(飽和レベル)あるいは下限(0レベル)付近にあるようでは、まったく役に立たない欠陥画素であるが、その出力が中間的な値を出力している場合は、信号の直流成分に何らかのオフセット成分が乗ってしまっただけの一時的異常状態と言える。
このようなオフセット成分は、光電変換素子中の不純物に起因する構造を原因として突然発生することもあれば、いわゆる1/f揺らぎと言われる低周波の雑音により徐々に現れる場合もある。いずれにしても感度はあり、周囲の信号に対して下駄を履かされた状態になっているだけである。
Normally, a newly generated abnormal pixel is a defective pixel that is completely useless if its output is near the upper limit (saturation level) or lower limit (0 level) of the signal, but its output has an intermediate value. When outputting, it can be said that it is a temporary abnormal state in which some offset component is added to the DC component of the signal.
Such an offset component may be suddenly generated due to a structure caused by impurities in the photoelectric conversion element, or may gradually appear due to low-frequency noise called 1 / f fluctuation. In any case, there is sensitivity, and the clogging is only put on the surrounding signals.

オフセット検出処理器39では、異常画素の信号強度を調べ、それが欠陥画素と判断されるレベルにあれば実施の形態2で示したように当該画素を欠陥と見なし、素子補正データ記憶器6における欠陥画素のデータを修正することで、以降は別の信号で代替されるようにする。
逆に異常画素が補正可能と判断された場合は、周囲画素の平均信号強度と異常画素の信号強度の差をフレーム積分回数で除することでオフセット量を求め、これによって素子補正データ記憶器6における当該画素のオフセット補正データを修正し、以降は当該画素のオフセット値が適宜引き去れるようにする。
The offset detection processor 39 checks the signal intensity of the abnormal pixel, and if it is at a level at which it is determined to be a defective pixel, the pixel is regarded as a defect as described in the second embodiment, and the element correction data storage 6 By correcting the data of the defective pixel, it is replaced with another signal thereafter.
Conversely, if it is determined that the abnormal pixel can be corrected, the offset amount is obtained by dividing the difference between the average signal intensity of the surrounding pixels and the signal intensity of the abnormal pixel by the number of frame integrations, and thereby the element correction data storage 6 The offset correction data of the pixel is corrected, and thereafter, the offset value of the pixel is appropriately extracted.

このようにすることにより、実施の形態1または実施の形態2における効果に加え、さらに使用可能な画素を有効に活用することができる。   By doing in this way, in addition to the effect in Embodiment 1 or Embodiment 2, the pixel which can be used can be utilized effectively.

実施の形態4.
以下、図を用いてこの発明に係る実施の形態4について説明する。
図7は、この発明の実施の形態4を示す構成図であり、実施の形態1の一部を変更したものである。
実施の形態1では、撮像装置が航空機に搭載されているため、航空機の姿勢変化により撮像装置も慣性空間に対して姿勢変動する。そのため、視軸制御装置15は姿勢センサ16から撮像装置自身の姿勢情報を受け、視軸方向が装置自身の姿勢変動の影響を受けることなく慣性空間に対して一定角速度で動くように視軸駆動装置(EL)9および視軸駆動装置(AZ)13へ駆動指令を送るようにしていたのだが、この間のタイムラグは現実的な装置では少なくとも数十〜数百msec程度ある。そのため、姿勢変動の角速度が大きいとタイムラグ分の時間内における角度変動が大きく、姿勢変動による撮影方向のズレを画素サイズより十分小さいレベルに抑えられない。
すなわち、激しく機動するような航空機に搭載される撮像装置の場合は、このタイムラグにより画像がずれてしまい、実施の形態1で示したようなフレーム積分を行っても重なるべき画像が重ならず、画像のS/Nはむしろ低下してしまうのである。
Embodiment 4 FIG.
The fourth embodiment according to the present invention will be described below with reference to the drawings.
FIG. 7 is a configuration diagram showing the fourth embodiment of the present invention, and a part of the first embodiment is changed.
In Embodiment 1, since the imaging apparatus is mounted on an aircraft, the imaging apparatus also changes its attitude with respect to the inertial space due to a change in the attitude of the aircraft. Therefore, the visual axis control device 15 receives the posture information of the imaging device itself from the posture sensor 16 and drives the visual axis so that the visual axis direction moves at a constant angular velocity with respect to the inertial space without being influenced by the posture variation of the device itself. Although a drive command is sent to the device (EL) 9 and the visual axis drive device (AZ) 13, the time lag between them is at least about several tens to several hundreds msec in a practical device. For this reason, if the angular velocity of posture variation is large, the angle variation within the time lag is large, and the shift in the photographing direction due to the posture variation cannot be suppressed to a level sufficiently smaller than the pixel size.
That is, in the case of an imaging device mounted on an aircraft that moves violently, the image is shifted due to this time lag, and even if the frame integration as shown in the first embodiment is performed, the images that should be overlapped do not overlap, The S / N of the image is rather lowered.

そこで、実施の形態4では姿勢センサ16が出力する姿勢情報を、まず姿勢変動補償装置40が受け、姿勢変動補償装置40は姿勢情報を記録する(これを「姿勢情報A」と呼ぶことにする)とともに、姿勢情報をそのまま視軸制御装置15へ送る。
視軸制御装置15は視軸駆動装置(EL)9および視軸駆動装置(AZ)13を適宜駆動するとともに、視軸方向センサ(EL)10および視軸方向センサ(AZ)14によって測定された実際の視軸駆動量と、視軸方向の変化に伴って回転してしまった像を元に戻すための所要像回転量とを姿勢変動補償装置40へ送り返し、姿勢変動補償装置40はこの値を記録する。(これを「視軸駆動量B」および「所要像回転量C」と呼ぶことにする)
Therefore, in the fourth embodiment, posture information output by the posture sensor 16 is first received by the posture variation compensation device 40, and the posture variation compensation device 40 records posture information (this is referred to as “posture information A”). At the same time, the posture information is sent to the visual axis control device 15 as it is.
The visual axis control device 15 appropriately drives the visual axis drive device (EL) 9 and the visual axis drive device (AZ) 13 and is measured by the visual axis direction sensor (EL) 10 and the visual axis direction sensor (AZ) 14. The actual visual axis drive amount and the required image rotation amount for returning the image that has been rotated in accordance with the change in the visual axis direction are sent back to the posture variation compensator 40, and the posture variation compensator 40 uses this value. Record. (This will be referred to as “visual axis drive amount B” and “required image rotation amount C”)

ここで、実際の視軸駆動量が測定されるのと同時刻(この時刻を「時刻D」と呼ぶことにする)に姿勢センサ16で測定された姿勢情報が、同じく姿勢変動補償装置40へ送られ、記録される。(これを「姿勢情報E」と呼ぶことにする)時刻Dでの同時刻性については、システムの各部の動きを単一のクロックに同期させることで設計において保証することができる。   Here, the posture information measured by the posture sensor 16 at the same time (this time is referred to as “time D”) when the actual visual axis driving amount is measured is also sent to the posture variation compensating device 40. Sent and recorded. The synchronicity at time D (which will be referred to as “attitude information E”) can be guaranteed in the design by synchronizing the movement of each part of the system with a single clock.

時刻Dにおいて視軸方向に対して撮影された画像(これを「画像F」と呼ぶことにする)は素子出力補正処理器5を経て出力されてくるが、この画像は真に撮影したかった方向よりもタイムラグ分に相当する姿勢変動だけ方向がずれている。このズレは、姿勢情報Aと姿勢情報Eの差に対応するものである。
そこで、姿勢変動補償装置40は姿勢情報Aと姿勢情報Eから画像Fの撮影方向ズレ補正のための所要移動量(これを「所要移動量G」と呼ぶことにする)を計算するとともに、さらに所要像回転量Cを用いて新たな所要像回転量(これを「所要像回転量H」と呼ぶことにする)を計算し、それぞれを画像回転処理器26および画像平行移動処理器41に送信して、画像を補正する。
An image photographed in the visual axis direction at time D (hereinafter referred to as “image F”) is output through the element output correction processor 5, but this image was truly photographed. The direction is shifted by the posture change corresponding to the time lag than the direction. This deviation corresponds to the difference between the posture information A and the posture information E.
Therefore, the posture variation compensation device 40 calculates a required movement amount for correcting the photographing direction deviation of the image F from the posture information A and the posture information E (hereinafter referred to as “required movement amount G”), and further Using the required image rotation amount C, a new required image rotation amount (hereinafter referred to as “required image rotation amount H”) is calculated and transmitted to the image rotation processor 26 and the image translation processor 41, respectively. And correct the image.

この際、所要移動量G及び所要回転量Hが揃うまでの時間は、画像Eが素子出力補正処理器5を出てくるまでの時間より長くなることが多いため、画像Eを一時的に保存し、待たせる必要がある。そこで素子出力補正処理器5の後段に遅延処理器42を置き、FIFO状に構成したメモリブロックに一時的に画像情報を保存したのち、一定時間後にこれを出力するようにして 画像E の出力を一定時間遅延させる。
構成によっては、画像E の方が時間的に遅れて出てくることもありうるが、その場合は所要移動量G及び所要回転量Hを遅延させれば良く、これは小規模に構成できるため、姿勢変動補償装置40内のメモリをFIFOバッファとして構成すればよい。
At this time, the time until the required movement amount G and the required rotation amount H are aligned is often longer than the time until the image E comes out of the element output correction processor 5, and therefore the image E is temporarily stored. It is necessary to wait. Therefore, the delay processor 42 is placed after the element output correction processor 5, and the image information is temporarily stored in the memory block configured in a FIFO form, and then output after a predetermined time to output the image E. Delay for a certain time.
Depending on the configuration, the image E may come out later in time, but in this case, the required movement amount G and the required rotation amount H may be delayed, and this can be configured on a small scale. The memory in the attitude variation compensation device 40 may be configured as a FIFO buffer.

上記のような構成とすることで、姿勢変化の激しい環境下でも撮影方向の追従誤差を無視できる程度まで抑えることができ、フレーム積分を有効に働かせることができる。   By adopting the above-described configuration, it is possible to suppress the tracking direction tracking error to be negligible even in an environment where the posture change is severe, and the frame integration can be effectively operated.

なお、画像回転処理及び画像平行移動処理は別々に処理することもできるが、各処理において1画素の幅以下の位置補正は行った場合、例えば0.5画素の位置補正は1画素の信号を2画素に分割することになり、ボケを生じる。このボケは位置補正処理が1回行われる毎に発生するため、位置補正処理を1回にまとめた方がボケを減らすことができる。
そこで、実施の形態4の画像回転処理器26と画像平行移動処理器41を1つにまとめ、各画素について回転処理と平行移動処理の両方による位置移動量を同時に計算し、一気に位置補正処理を行うと、よりボケの少ない撮像装置を得ることができる。
Note that the image rotation process and the image translation process can be performed separately. However, when position correction is performed with a width of one pixel or less in each process, for example, the position correction of 0.5 pixel is a signal of one pixel. Dividing into two pixels causes blurring. Since this blur occurs every time the position correction processing is performed once, blurring can be reduced by combining the position correction processing at one time.
Therefore, the image rotation processor 26 and the image translation processor 41 of the fourth embodiment are combined into one, and the position movement amount by both the rotation process and the translation process is calculated simultaneously for each pixel, and the position correction process is performed at once. If performed, an imaging device with less blur can be obtained.

さらに、上記のような処理の一本化を歪曲補正処理にも拡張し、実施の形態4の歪曲補正処理器24の処理も加えて1回の位置補正処理にまとめることで、さらにボケの少ない撮像装置を得ることができる。   Further, the unification of the above processing is extended to the distortion correction processing, and the processing of the distortion correction processing unit 24 of the fourth embodiment is added to be integrated into one position correction processing, thereby further reducing blur. An imaging device can be obtained.

この発明の実施の形態1による撮像装置の構成を示す構成図である。It is a block diagram which shows the structure of the imaging device by Embodiment 1 of this invention. この発明の実施の形態1による撮像装置における画像生成手順を示す図である。It is a figure which shows the image generation procedure in the imaging device by Embodiment 1 of this invention. この発明の実施の形態1による撮像装置における取得画像の特徴を説明する図である。It is a figure explaining the characteristic of the acquired image in the imaging device by Embodiment 1 of this invention. この発明の実施の形態2による撮像装置の構成を示す構成図である。It is a block diagram which shows the structure of the imaging device by Embodiment 2 of this invention. この発明の実施の形態2による撮像装置における単純フレーム積分処理器の出力画像を説明する図である。It is a figure explaining the output image of the simple frame integration processor in the imaging device by Embodiment 2 of this invention. この発明の実施の形態3による撮像装置の構成を示す構成図である。It is a block diagram which shows the structure of the imaging device by Embodiment 3 of this invention. この発明の実施の形態4による撮像装置の構成を示す構成図である。It is a block diagram which shows the structure of the imaging device by Embodiment 4 of this invention.

符号の説明Explanation of symbols

1 入射光、 2 光学装置、 3 ミラー、 4 光電変換素子、 5 素子出力補正処理器、 6 素子補正データ記憶器、 7 ELフレーム、 8 EL回転中心、 9 視軸駆動装置(EL)、 10 視軸方向センサ(EL)、 11 AZフレーム、 12 AZ回転中心、 13 視軸駆動装置(AZ)、 14 視軸方向センサ(AZ)、 15 視軸制御装置、 16 姿勢センサ、 17 像、 18 円、 19 矩形領域A、 20 矩形領域B、 21 矩形領域C、 22 走査移動量、 23 積分された像、 24 歪曲補正処理器、 25 歪曲データ記憶器、 26 画像回転処理器、 27 フレーム積分処理器、 28 画像回転処理前の画像、 29 雲の像、 30 異常画素による異常信号、 31 画像回転処理後の画像、 32 フレーム積分処理器の出力画像、 33 ぼやけた異常信号、 34 単純フレーム積分処理器、 35 単純フレーム積分処理器の出力画像、 36 ぼやけた雲の像、 37 積分された異常信号、 38 異常画素検出処理器、 39 オフセット検出処理器、 40 姿勢変動補償装置、 41 画像平行移動処理器、 42 遅延処理器。   1 incident light, 2 optical device, 3 mirror, 4 photoelectric conversion element, 5 element output correction processor, 6 element correction data storage, 7 EL frame, 8 EL rotation center, 9 visual axis drive device (EL), 10 view Axis direction sensor (EL), 11 AZ frame, 12 AZ rotation center, 13 visual axis drive device (AZ), 14 visual axis direction sensor (AZ), 15 visual axis control device, 16 posture sensor, 17 image, 18 circle, 19 rectangular area A, 20 rectangular area B, 21 rectangular area C, 22 scanning movement amount, 23 integrated image, 24 distortion correction processing unit, 25 distortion data storage unit, 26 image rotation processing unit, 27 frame integration processing unit, 28 Image before image rotation processing, 29 Cloud image, 30 Abnormal signal due to abnormal pixels, 31 Image after image rotation processing, 32 The output image of the Lame integration processor, 33 The blurred abnormal signal, 34 The simple frame integration processor, 35 The output image of the simple frame integration processor, 36 The blurred cloud image, 37 The integrated abnormal signal, 38 The abnormal pixel detection processing 39, an offset detection processor, 40 an attitude variation compensator, 41 an image translation processor, 42 a delay processor.

Claims (6)

光電変換を行う2次元の光電変換素子と、
上記光電変換素子上に像を結像させる光学装置と、
上記光学装置の一部あるいは全体を移動させることにより、撮影方向を変化させる視軸駆動装置と、
上記視軸駆動装置による視軸駆動量を検出するための視軸方向センサと、
上記視軸駆動装置を制御するとともに、上記視軸方向センサで検出される視軸駆動量から上記光学装置によって結像される画像の回転量または移動量を算出する視軸制御装置と、
上記光電変換素子によって電子化された画像に対し、上記視軸制御装置によって計算される画像回転量分だけ画像を逆回転させる画像回転処理器と、
上記画像回転処理器によって得られる画像を、上記視軸制御装置によって計算される画像の移動量に基づいて画像を移動させながらフレーム積分するフレーム積分処理器と、
を備え、
上記撮影方向の移動によって発生する上記光電変換素子面上に結像する画像の回転を、検出された上記視軸駆動量に基づいて電子的に補正することを特徴とする撮像装置。
A two-dimensional photoelectric conversion element for performing photoelectric conversion;
An optical device for forming an image on the photoelectric conversion element;
A visual axis drive device that changes the shooting direction by moving part or all of the optical device; and
A visual axis direction sensor for detecting a visual axis drive amount by the visual axis drive device;
A visual axis control device that controls the visual axis drive device and calculates a rotation amount or a movement amount of an image formed by the optical device from a visual axis drive amount detected by the visual axis direction sensor;
An image rotation processor that reversely rotates the image by the amount of image rotation calculated by the visual axis control device with respect to the image digitized by the photoelectric conversion element;
A frame integration processor that integrates the image obtained by the image rotation processor while moving the image based on the amount of movement of the image calculated by the visual axis control device;
With
An image pickup apparatus that electronically corrects rotation of an image formed on the surface of the photoelectric conversion element caused by movement in the photographing direction based on the detected visual axis driving amount.
上記光電変換素子における各画素のゲインや直流成分等の特性ばらつきや異常値の補正を行うための素子補正データを記憶する素子補正データ記憶器と、
上記素子補正データ記憶器を用いて上記光電変換素子の出力信号を補正する素子出力補正処理器と、
上記素子出力補正処理器から得られる原画像信号をフレーム積分する単純フレーム積分処理器と、
上記単純フレーム積分処理器が出力する補正用画像信号から、周囲画素の出力信号の所定の強度差以上を出力する異常画素を抽出するか、あるいは、上記周囲画素の出力信号の標準偏差の所定の倍数以上を出力する異常画素を抽出し、この異常画素に対する上記素子補正データ記憶器の素子補正データを修正する異常画素検出処理器と、
を備え、
上記光電変換素子中の異常画素を検出し、上記素子補正データを自動的に修正する様にしたことを特徴とする、請求項1に記載の撮像装置。
An element correction data storage for storing element correction data for correcting characteristic variations and abnormal values such as gain and DC component of each pixel in the photoelectric conversion element;
An element output correction processor for correcting the output signal of the photoelectric conversion element using the element correction data storage;
A simple frame integration processor for frame integrating the original image signal obtained from the element output correction processor;
From the image signal for correction output by the simple frame integration processor, an abnormal pixel that outputs a difference in intensity greater than or equal to a predetermined intensity of the output signal of the surrounding pixels is extracted, or a predetermined standard deviation of the output signal of the surrounding pixels is determined. An abnormal pixel detection processor that extracts an abnormal pixel that outputs a multiple or more and corrects the element correction data of the element correction data storage for the abnormal pixel;
With
The imaging apparatus according to claim 1, wherein an abnormal pixel in the photoelectric conversion element is detected and the element correction data is automatically corrected.
上記異常画素検出処理器が出力する異常画素について、上記単純フレーム積分処理器が出力する補正用画像信号から上記異常画素信号と対応する周囲画素信号との差を検出し、これによって当該異常画素の出力信号における直流成分のオフセット量を求めて上記素子補正データ記憶器の素子補正データを修正するオフセット検出処理器を備え、
上記光電変換素子における直流成分のオフセット量が異常となっている画素を検出し、このオフセット量の推定または校正を自動的に行う様にしたことを特徴とする、請求項2に記載の撮像装置。
For the abnormal pixel output by the abnormal pixel detection processor, a difference between the abnormal pixel signal and the corresponding surrounding pixel signal is detected from the correction image signal output by the simple frame integration processor, and thereby the abnormal pixel is detected. An offset detection processor for correcting the element correction data of the element correction data storage by obtaining the offset amount of the DC component in the output signal;
The imaging apparatus according to claim 2, wherein a pixel in which an offset amount of a DC component in the photoelectric conversion element is abnormal is detected, and the offset amount is automatically estimated or calibrated. .
撮像装置自身の姿勢を検出するための姿勢センサと、
撮影画像の平行移動を行うための画像平行移動処理器と、
撮影画像の回転あるいは撮影画像の平行移動を行う前の画像信号を遅延させる遅延処理器と、
上記姿勢センサの出力情報を中継して上記視軸制御装置に与えると共に、上記姿勢センサの出力情報および上記視軸制御装置の出力情報から画像の回転量及び画像の平行移動量を算出し、これを上記画像回転処理器および上記画像平行移動処理器へ与える姿勢変動補償装置と、
を備え、
上記撮影装置自身の姿勢が変動するような環境下であり、上記姿勢を検出すると共に、上記姿勢の変動を相殺するように撮影方向を調整する機構において、検出される上記姿勢の情報に追従して撮影方向を調整するまでの時間差により発生する追従誤差を画像処理によって補償する様にしたことを特徴とする、請求項1乃至請求項3に記載の撮像装置。
An attitude sensor for detecting the attitude of the imaging device itself;
An image translation processor for translating the captured image;
A delay processor that delays the image signal before rotating the captured image or translating the captured image;
The output information of the posture sensor is relayed and given to the visual axis control device, and the rotation amount of the image and the parallel movement amount of the image are calculated from the output information of the posture sensor and the output information of the visual axis control device. Attitude variation compensation device for supplying the image rotation processor and the image translation processor with
With
In an environment where the posture of the photographing apparatus itself fluctuates, the mechanism that detects the posture and adjusts the photographing direction so as to cancel the variation in the posture follows the detected posture information. 4. The imaging apparatus according to claim 1, wherein a tracking error caused by a time difference until the photographing direction is adjusted is compensated by image processing.
上記画像回転処理器による画像の回転処理と、上記画像平行移動処理器による画像の平行移動処理とを一括して処理する様にしたことを特徴とする、請求項4に記載の撮像装置。 5. The imaging apparatus according to claim 4, wherein an image rotation process by the image rotation processor and an image translation process by the image translation processor are collectively processed. 上記素子出力補正処理器から得られる原画像信号を予め設定される歪曲データにより画像の歪曲補正を行う歪曲補正処理器を備え、
上記画像回転処理器による画像の回転処理と、上記画像平行移動処理器による画像の平行移動処理とを一括して処理する様にしたことを特徴とする、請求項4に記載の撮像装置。
A distortion correction processor for correcting distortion of an image based on distortion data set in advance for an original image signal obtained from the element output correction processor;
5. The imaging apparatus according to claim 4, wherein an image rotation process by the image rotation processor and an image translation process by the image translation processor are collectively processed.
JP2003333029A 2003-09-25 2003-09-25 Imaging device Expired - Lifetime JP4134869B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003333029A JP4134869B2 (en) 2003-09-25 2003-09-25 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003333029A JP4134869B2 (en) 2003-09-25 2003-09-25 Imaging device

Publications (2)

Publication Number Publication Date
JP2005101905A true JP2005101905A (en) 2005-04-14
JP4134869B2 JP4134869B2 (en) 2008-08-20

Family

ID=34461162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003333029A Expired - Lifetime JP4134869B2 (en) 2003-09-25 2003-09-25 Imaging device

Country Status (1)

Country Link
JP (1) JP4134869B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310828A (en) * 2006-05-22 2007-11-29 Central Res Inst Of Electric Power Ind Method, device, and program for detecting failure of electric wire
JP2008118570A (en) * 2006-11-07 2008-05-22 Canon Inc Shake correcting device and method
US8620011B2 (en) 2006-03-06 2013-12-31 Samsung Electronics Co., Ltd. Method, medium, and system synthesizing a stereo signal
US8762659B2 (en) 2006-09-19 2014-06-24 Sony Corporation Storage apparatus and method, program, and playback apparatus and method
US8885854B2 (en) 2006-08-09 2014-11-11 Samsung Electronics Co., Ltd. Method, medium, and system decoding compressed multi-channel signals into 2-channel binaural signals
US9934789B2 (en) 2006-01-11 2018-04-03 Samsung Electronics Co., Ltd. Method, medium, and apparatus with scalable channel decoding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61125289A (en) * 1984-11-20 1986-06-12 Fujitsu Ltd Pickup device
JP2001069380A (en) * 1999-06-25 2001-03-16 Nec Corp Two shaft driving mechanism, picture input device using the same and light projection device
JP2001339716A (en) * 2000-05-25 2001-12-07 Matsushita Electric Ind Co Ltd Device for monitoring around vehicle and its method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61125289A (en) * 1984-11-20 1986-06-12 Fujitsu Ltd Pickup device
JP2001069380A (en) * 1999-06-25 2001-03-16 Nec Corp Two shaft driving mechanism, picture input device using the same and light projection device
JP2001339716A (en) * 2000-05-25 2001-12-07 Matsushita Electric Ind Co Ltd Device for monitoring around vehicle and its method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9934789B2 (en) 2006-01-11 2018-04-03 Samsung Electronics Co., Ltd. Method, medium, and apparatus with scalable channel decoding
US8620011B2 (en) 2006-03-06 2013-12-31 Samsung Electronics Co., Ltd. Method, medium, and system synthesizing a stereo signal
US9479871B2 (en) 2006-03-06 2016-10-25 Samsung Electronics Co., Ltd. Method, medium, and system synthesizing a stereo signal
JP2007310828A (en) * 2006-05-22 2007-11-29 Central Res Inst Of Electric Power Ind Method, device, and program for detecting failure of electric wire
US8885854B2 (en) 2006-08-09 2014-11-11 Samsung Electronics Co., Ltd. Method, medium, and system decoding compressed multi-channel signals into 2-channel binaural signals
US8762659B2 (en) 2006-09-19 2014-06-24 Sony Corporation Storage apparatus and method, program, and playback apparatus and method
JP2008118570A (en) * 2006-11-07 2008-05-22 Canon Inc Shake correcting device and method

Also Published As

Publication number Publication date
JP4134869B2 (en) 2008-08-20

Similar Documents

Publication Publication Date Title
US8558943B2 (en) System and method for image capture device
RU2447609C2 (en) Digital camera with triangulation autofocusing system and method related to it
JP4557060B2 (en) Electronic camera
JP4522207B2 (en) Camera system, camera body and interchangeable lens
CN101494743B (en) Dust detection system and digital camera
KR20150120832A (en) Digital photographing System and Controlling method thereof
JPH05344403A (en) Image pickup device
JP2007074629A (en) Imaging apparatus
JP4134869B2 (en) Imaging device
JP2010250156A (en) Electronic camera
JP6250446B2 (en) Image processing system, image processing apparatus, image processing method, and program
JP2002365524A (en) Autofocus device and imaging device using the same
JP4306438B2 (en) Imaging device
JP4064001B2 (en) camera
JP2005117343A (en) Monitoring system
KR100498042B1 (en) Device and method capable of acquisition stbilization image
US20080122952A1 (en) Electronic camara
JP3039669B2 (en) Imaging device
JP2006259078A (en) In-finder display apparatus for single-lens reflex camera
JP6477275B2 (en) Imaging device
WO2023234356A1 (en) Imaging system and mobile object provided with same
JP2003207813A (en) Image pickup device
WO2022054679A1 (en) Imaging device and attached matter detection method
WO2023002826A1 (en) Imaging system and moving vehicle provided with same
JP2770957B2 (en) Motion compensator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080507

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080520

R151 Written notification of patent or utility model registration

Ref document number: 4134869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term